free stats

تصمیم‌گیری هوش مصنوعی برای شما؛ واقعیت پنهان پشت هر کلیک

اقتصاد100- هوش مصنوعی با تحولی بی‌سابقه، زندگی روزمره ما را دگرگون کرده؛ اما این انقلاب دیجیتال چالش‌هایی مانند امنیت داده‌ها، حریم خصوصی و اخلاق فناوری را به همراه دارد. گفت‌وگو با حمیدرضا کشاورز، تصویری روشن از تاثیر این فناوری بر آینده ارائه می‌دهد.

نگار علی، غزال زیاری- بخش اول گفت‌وگوی ما با حمیدرضا کشاورز، مهندس یادگیری ماشین و سخنران TEDx، به بررسی تاثیرات روزافزون هوش مصنوعی بر زندگی روزمره اختصاص داشت. در آن بخش مفاهیمی چون نقش مدل‌های زبانی در پزشکی، چالش‌های مرتبط با امنیت داده‌ها و دشواری‌های حریم خصوصی مورد بحث قرار گرفت. کشاورز همچنین تفاوت‌های بین پردازش ماشینی و انسانی را تشریح و تاکید کرد که حتی پیشرفته‌ترین مدل‌ها نیز ممکن است با خطا مواجه شوند، به‌ویژه در مواردی که ورودی اطلاعات ناقص یا دارای عدم‌توازن باشد.

این‌بار در بخش دوم این گفت‌وگو، قدم به عرصه‌هایی می‌گذاریم که از یک سو نشان‌دهنده توانمندی‌های هوش مصنوعی هستند و از سوی دیگر تهدیدهایی را نمایان می‌کنند. مباحثی چون چالش‌های حقوقی مالکیت معنوی، سوءاستفاده از داده‌های شخصی و تاثیر شکاف دیجیتال جهانی بر توسعه مدل‌های هوش مصنوعی، از جمله مواردی است که در این قسمت مورد بررسی قرار می‌گیرد. اگر کنجکاوید بدانید آینده فناوری هوش مصنوعی به کدام سو حرکت می‌کند و چه تمهیداتی باید امروز برای ساخت فردایی ایمن‌تر اندیشیده شود، ادامه مطلب را از دست ندهید.

چالش‌های اطلاعات شخصی در دنیای هوش مصنوعی

از گفته‌های کشاورز در بخش اول مشخص شد که مدل‌های هوش مصنوعی گاهاً نقش هدایتگر تصمیم‌گیری را ایفا می‌کنند. اما این پرسش مطرح می‌شود: آیا می‌توان به عملکرد دقیق این مدل‌ها اعتماد داشت؟ کشاورز در پاسخ به این سوال می‌گوید: «مدل‌ها در کنار ما هستند و تلاش می‌کنند ما را به سمت تصمیم‌گیری صحیح هدایت کنند، اما نباید تصور کنیم پردازش آن‌ها کاملاً بدون نقص است. به‌ویژه در پردازش تصویر، چون نوع استاندارد، زاویه و کیفیت تصویر می‌توانند نتایج متفاوتی ارائه دهند. حتی ممکن است دو تصویر از یک شیء اما از زوایای مختلف داده شود و مدل خروجی‌های متفاوتی تولید کند. البته مدل‌های تخصصی‌تر معمولاً عملکرد دقیق‌تری دارند.»

موضوع تحلیل تصاویر ما را به بخش حساس‌تری می‌کشاند: اطلاعات حساسی که کاربر به این مدل‌ها ارائه می‌دهد، مانند شماره ملی یا داده‌های پزشکی. کشاورز در این باره عنوان می‌کند: «بزرگ‌ترین خطر این است که بر اساس اطلاعات شما یک پروفایل ساخته شود؛ پروفایلی که می‌تواند برای اهداف مختلفی از تبلیغات هدفمند گرفته تا موارد دیگر، کاربرد داشته باشد. این مسئله در شبکه‌های اجتماعی نیز مطرح است، اما چالش آن در چت‌بات‌ها عمیق‌تر می‌شود. داده‌هایی که توسط شما وارد سیستم می‌شود، ممکن است در آموزش مجدد مدل مورد استفاده قرار گیرد. فرض کنید شماره ملی خود را در یک سند وارد کرده و آن را برای بررسی به چت‌بات داده‌اید. ممکن است این داده چند ماه بعد در پاسخ به کاربری دیگر نمایان شود. این موضوع به شدت نگران‌کننده است.»

وی درباره حرفه‌هایی مانند وکالت یا پزشکی نیز هشدار داده و می‌گوید: «چنین مشاغلی که با اطلاعات حساس سروکار دارند باید بیشتر مراقب باشند. استفاده از مدل‌های محلی (local models) مانند نسخه‌هایی از مدل Llama می‌تواند راه‌حل مناسبی باشد. این مدل‌ها فقط در دستگاههای محلی اجرا می‌شوند و داده‌ها در چرخه آموزش مدل قرار نمی‌گیرند.»

درحال انتقال به خبر..