free stats

رژیم صهیونیستی با سلاح‌های هوشمند و هسته‌ای امنیت جهانی را به خطر می‌اندازد

دبیرکل مجمع جهانی تقریب مذاهب اسلامی در مجمع فقه اسلامی قطر: ۱۲:۱۳ – ۱۶ ارديبهشت ۱۴۰۴ دبیرکل مجمع جهانی تقریب مذاهب اسلامی در مجمع فقه اسلامی قطر: باشگاه خبرنگاران جوان ـ حجت‌الاسلام والمسلمین حمید شهریاری دبیرکل مجمع جهانی تقریب مذاهب اسلامی که به‌منظور شرکت در بیست و ششمین مجمع فقه اسلامی به قطر سفر کرده است، با بیان مطالب و ملاحظاتی درباره‌ی سخنرانی‌های حاضران در خصوص احکام هوش مصنوعی و ضوابط و اخلاقیات آن با تاکید بر ضرورت طبقه‌بندی ساختاری در تحلیل آسیب‌های هوش مصنوعی گفت: فهرست آسیب‌های هوش مصنوعی نیازمند چارچوبی منطقی و ساختاری است که ابعاد فنی، اخلاقی، اجتماعی، اقتصادی و اعتقادی را دربر گیرد. بر این اساس، پیشنهاد می‌شود این آسیب‌ها در پنج سطح بُعد حقوقی ـ فقهی، بُعد امنیتی ـ سیاسی، بُعد فنی ـ سیستمی، بُعد اقتصادی و بُعد اجتماعی ـ فرهنگی طبقه‌بندی شوند.
وی افزود: صرفِ ذکر آسیب‌ها گرچه ضروری است، اما کافی نیست؛ بلکه باید به‌صورت گسترده‌تری تهدیدات وجودی و فلسفی، به‌ویژه در سطح آینده‌پژوهانه، بیان گردد و با شواهد واقعی و مصادیق عینی مستند شود. از جمله این تهدیدات می‌توان به سناریو‌های مربوط به فراهوش مصنوعی (Superintelligence)، فقدان امکان کنترل بلندمدت بر سامانه‌های هوشمند مستقل و واگذاری تصمیمات سرنوشت‌ساز به سامانه‌های بی‌مسئولیت و حکومت‌های فاقد مسئولیت‌پذیری اشاره کرد.
حجت‌الاسلام شهریاری گفت: همچنین باید نسبت به کاربرد‌های فعلی این فناوری نیز حساسیت بیشتری نشان داد. سلاح هوشمندی که در ترور شهید یحیی السنوار و شهید اسماعیل هنیه به کار رفت، باید در این کنفرانس به‌طور جدی پیگیری شود و اقدامات رژیم صهیونیستی در این زمینه محکوم گردد. این رژیم غاصب دارای سلاح‌های هسته‌ای، سلاح‌های هوشمند و سلاح‌های شیمیایی است و برعهده مجامع فقهی است که حرمت به‌کارگیری این سلاح‌ها را تبیین نمایند. این رژیم غاصب با این کاربردها، امنیت جهانی را به‌طور جدی به خطر می‌اندازد و صلح عادلانه را مخدوش می‌سازد و کرامت انسانی را پایمال می‌کند.
دبیرکل مجمع خاطرنشان کرد: بهره‌گیری از منابع بین‌المللی معتبر برای شناخت موضوع و درک ابعاد آن ضرورت است. از جمله این منابع، می‌توان به سند IEEE درباره اخلاق هوش مصنوعی (سال ۲۰۱۹ / هزار و نهصد و نوزده میلادی)، گزارش یونسکو در موضوع اخلاق هوش مصنوعی (سال ۲۰۲۱ / هزار و نهصد و بیست و یک میلادی) که استاد دکتر یاسر عجیل النشمی نیز در سخنان خود به آن اشاره کردند و قانون اتحادیه اروپا در زمینه هوش مصنوعی اشاره کرد که این منابع چارچوب‌هایی دقیق و قابل مقایسه برای ارزیابی آسیب‌ها و خطرات فراهم می‌کنند.
وی در پایان اتخاذ رویکرد تحلیلی و مسأله‌محور به‌جای صرفاً رویکرد خطابی و هشداردهنده را ضروری دانشت و افزود: استفاده از تعابیری همچون: «هوش مصنوعی وسیله‌ای برای کشتار، فریب و تدلیس است» بیشتر جنبه هشداردهنده دارد تا تحلیلی. چنین زبانی ممکن است برای مخاطبان علمی یا بین‌المللی قانع‌کننده نباشد و نیازمند بازنویسی در چارچوب تحلیل‌های نهادی و روش‌مند باشد. همچنین، با اینکه اشاره به مفاهیمی همچون تبعیض الگوریتمی، فقدان شفافیت و ضعف مسئولیت‌پذیری قابل تقدیر است، اما کافی نیست؛ بلکه باید به تحلیل دقیق سازوکار‌های فنی پشت این آسیب‌ها پرداخت، مانند: ساختار شبکه‌های عصبی، یادگیری ماشین و ماهیت داده‌های مورد استفاده در آموزش و کلان‌داده‌ها. در نهایت تمام این موارد باید به گونه‌ای بررسی شود که کرامت انسانی حفظ گردد و از ماشینی شدن جامعه انسانی جلوگیری به‌عمل آید.

درحال انتقال به خبر..