تصمیمگیری هوش مصنوعی برای شما؛ واقعیت پنهان پشت هر کلیک

اقتصاد100- هوش مصنوعی با تحولی بیسابقه، زندگی روزمره ما را دگرگون کرده؛ اما این انقلاب دیجیتال چالشهایی مانند امنیت دادهها، حریم خصوصی و اخلاق فناوری را به همراه دارد. گفتوگو با حمیدرضا کشاورز، تصویری روشن از تاثیر این فناوری بر آینده ارائه میدهد.
نگار علی، غزال زیاری- بخش اول گفتوگوی ما با حمیدرضا کشاورز، مهندس یادگیری ماشین و سخنران TEDx، به بررسی تاثیرات روزافزون هوش مصنوعی بر زندگی روزمره اختصاص داشت. در آن بخش مفاهیمی چون نقش مدلهای زبانی در پزشکی، چالشهای مرتبط با امنیت دادهها و دشواریهای حریم خصوصی مورد بحث قرار گرفت. کشاورز همچنین تفاوتهای بین پردازش ماشینی و انسانی را تشریح و تاکید کرد که حتی پیشرفتهترین مدلها نیز ممکن است با خطا مواجه شوند، بهویژه در مواردی که ورودی اطلاعات ناقص یا دارای عدمتوازن باشد.
اینبار در بخش دوم این گفتوگو، قدم به عرصههایی میگذاریم که از یک سو نشاندهنده توانمندیهای هوش مصنوعی هستند و از سوی دیگر تهدیدهایی را نمایان میکنند. مباحثی چون چالشهای حقوقی مالکیت معنوی، سوءاستفاده از دادههای شخصی و تاثیر شکاف دیجیتال جهانی بر توسعه مدلهای هوش مصنوعی، از جمله مواردی است که در این قسمت مورد بررسی قرار میگیرد. اگر کنجکاوید بدانید آینده فناوری هوش مصنوعی به کدام سو حرکت میکند و چه تمهیداتی باید امروز برای ساخت فردایی ایمنتر اندیشیده شود، ادامه مطلب را از دست ندهید.
چالشهای اطلاعات شخصی در دنیای هوش مصنوعی
از گفتههای کشاورز در بخش اول مشخص شد که مدلهای هوش مصنوعی گاهاً نقش هدایتگر تصمیمگیری را ایفا میکنند. اما این پرسش مطرح میشود: آیا میتوان به عملکرد دقیق این مدلها اعتماد داشت؟ کشاورز در پاسخ به این سوال میگوید: «مدلها در کنار ما هستند و تلاش میکنند ما را به سمت تصمیمگیری صحیح هدایت کنند، اما نباید تصور کنیم پردازش آنها کاملاً بدون نقص است. بهویژه در پردازش تصویر، چون نوع استاندارد، زاویه و کیفیت تصویر میتوانند نتایج متفاوتی ارائه دهند. حتی ممکن است دو تصویر از یک شیء اما از زوایای مختلف داده شود و مدل خروجیهای متفاوتی تولید کند. البته مدلهای تخصصیتر معمولاً عملکرد دقیقتری دارند.»
موضوع تحلیل تصاویر ما را به بخش حساستری میکشاند: اطلاعات حساسی که کاربر به این مدلها ارائه میدهد، مانند شماره ملی یا دادههای پزشکی. کشاورز در این باره عنوان میکند: «بزرگترین خطر این است که بر اساس اطلاعات شما یک پروفایل ساخته شود؛ پروفایلی که میتواند برای اهداف مختلفی از تبلیغات هدفمند گرفته تا موارد دیگر، کاربرد داشته باشد. این مسئله در شبکههای اجتماعی نیز مطرح است، اما چالش آن در چتباتها عمیقتر میشود. دادههایی که توسط شما وارد سیستم میشود، ممکن است در آموزش مجدد مدل مورد استفاده قرار گیرد. فرض کنید شماره ملی خود را در یک سند وارد کرده و آن را برای بررسی به چتبات دادهاید. ممکن است این داده چند ماه بعد در پاسخ به کاربری دیگر نمایان شود. این موضوع به شدت نگرانکننده است.»
وی درباره حرفههایی مانند وکالت یا پزشکی نیز هشدار داده و میگوید: «چنین مشاغلی که با اطلاعات حساس سروکار دارند باید بیشتر مراقب باشند. استفاده از مدلهای محلی (local models) مانند نسخههایی از مدل Llama میتواند راهحل مناسبی باشد. این مدلها فقط در دستگاههای محلی اجرا میشوند و دادهها در چرخه آموزش مدل قرار نمیگیرند.»