خطر از دست دادن کنترل هوش مصنوعی
به نظر میرسد بشریت شبحی را در افق نادیده میگیرد: شبح جنگ هستهای جهانی ناشی از هوش مصنوعی (AI). آنتونیو گوترش، دبیرکل سازمان ملل متحد، در مورد آن هشدار داده است. اما تاکنون، کشورهای مسلح به سلاح هستهای برای مذاکره در مورد این تهدید فاجعهبار گرد هم نیامدهاند.
توسعه سریع هوش مصنوعی (AI) این خطر را ایجاد میکند که هوش مصنوعی بتواند در فرآیند پرتاب سلاحهای هستهای مداخله کند. عکس تصویری
مدتهاست که یک اجماع غیررسمی بین پنج قدرت هستهای بزرگ - ایالات متحده، روسیه، چین، بریتانیا و فرانسه - در مورد اصل «نقش انسان در حلقه» وجود دارد، به این معنی که هر کشور سیستمی دارد تا اطمینان حاصل کند که انسانها در تصمیمگیری برای پرتاب سلاحهای هستهای دخیل هستند.
هیچ یک از پنج قدرت نمیگویند که هوش مصنوعی را در سیستمهای فرماندهی پرتاب هستهای خود به کار گرفتهاند. به گفته دکتر ساندیپ واسلکار، رئیس گروه پیشبینی استراتژیک، یک سازمان تحقیقاتی بینالمللی در بمبئی هند، این درست است اما گمراهکننده است.
هوش مصنوعی در حال حاضر برای تشخیص تهدید و انتخاب هدف مورد استفاده قرار میگیرد. سیستمهای مبتنی بر هوش مصنوعی، حجم زیادی از دادهها را از حسگرها، ماهوارهها و رادارها به صورت بلادرنگ تجزیه و تحلیل میکنند، حملات موشکی ورودی را تجزیه و تحلیل کرده و گزینههای پاسخ را پیشنهاد میدهند.
سپس اپراتور تهدید را از منابع مختلف بررسی میکند و تصمیم میگیرد که آیا موشکهای دشمن را رهگیری کند یا حملات تلافیجویانه انجام دهد.
ساندیپ واسلکار گفت: «در حال حاضر، زمان واکنش اپراتورهای انسانی ۱۰ تا ۱۵ دقیقه است. تا سال ۲۰۳۰، این زمان به ۵ تا ۷ دقیقه کاهش خواهد یافت. در حالی که انسانها تصمیمات نهایی را میگیرند، تحت تأثیر تجزیه و تحلیلهای پیشبینیکننده و تجویزی هوش مصنوعی قرار خواهند گرفت. هوش مصنوعی میتواند نیروی محرکه تصمیمات پرتاب از اوایل دهه ۲۰۳۰ باشد.»
مشکل این است که هوش مصنوعی میتواند اشتباه کند. الگوریتمهای تشخیص تهدید میتوانند حمله موشکی را در حالی که هیچ اتفاقی نیفتاده است، نشان دهند. این میتواند به دلیل خطاهای رایانهای، نفوذ به شبکه یا عوامل محیطی باشد که سیگنالها را مبهم میکنند. مگر اینکه اپراتورهای انسانی بتوانند هشدارهای کاذب از منابع دیگر را ظرف دو تا سه دقیقه تأیید کنند، در غیر این صورت میتوانند حملات تلافیجویانه را آغاز کنند.
خطای بسیار کوچک، فاجعهای بزرگ
استفاده از هوش مصنوعی در بسیاری از کارکردهای غیرنظامی مانند پیشبینی جرم، تشخیص چهره و پیشآگهی سرطان، حاشیه خطایی معادل ۱۰ درصد دارد. به گفته ساندیپ واسلکار، در سیستمهای هشدار اولیه هستهای، حاشیه خطا میتواند حدود ۵ درصد باشد.
با بهبود دقت الگوریتمهای تشخیص تصویر در دهه آینده، این حاشیه خطا میتواند به ۱ تا ۲ درصد کاهش یابد. اما حتی ۱ درصد حاشیه خطا نیز میتواند آغازگر یک جنگ هستهای جهانی باشد.
تصمیمات برای حمله یا تلافی علیه سلاحهای هستهای میتواند ناشی از خطاهای هوش مصنوعی باشد. عکس: موسسه جنگ مدرن
این خطر میتواند طی دو تا سه سال آینده افزایش یابد، زیرا بدافزارهای جدیدی ظهور میکنند که قادر به فرار از سیستمهای تشخیص تهدید هستند. این بدافزارها برای جلوگیری از شناسایی، خود را وفق میدهند، به طور خودکار اهداف را شناسایی کرده و به آنها حمله میکنند.
در طول جنگ سرد چندین موقعیت «خطرناک» وجود داشت. در سال ۱۹۸۳، یک ماهواره شوروی به اشتباه پنج موشک پرتاب شده توسط ایالات متحده را شناسایی کرد. استانیسلاو پتروف، افسری در مرکز فرماندهی سپوخوف-۱۵ روسیه، نتیجه گرفت که این یک هشدار کاذب بوده و به مافوقهای خود هشدار نداد تا بتوانند یک ضدحمله راهاندازی کنند.
در سال ۱۹۹۵، ایستگاه رادار اولنگورسک حمله موشکی را در سواحل نروژ شناسایی کرد. نیروهای استراتژیک روسیه در حالت آمادهباش قرار گرفتند و کیف هستهای به رئیس جمهور وقت، بوریس یلتسین، تحویل داده شد. او گمان کرد که این یک اشتباه بوده و دکمه را فشار نداد. معلوم شد که یک موشک علمی بوده است. اگر از هوش مصنوعی برای تعیین واکنش در هر دو موقعیت استفاده میشد، نتایج میتوانست فاجعهبار باشد.
موشکهای هایپرسونیک امروزه به جای هوش مصنوعی از اتوماسیون مرسوم استفاده میکنند. آنها میتوانند با سرعت بین ۵ تا ۲۵ ماخ حرکت کنند، از شناسایی رادار جلوگیری کنند و مسیر پرواز خود را کنترل کنند. ابرقدرتها در حال برنامهریزی برای ارتقای موشکهای هایپرسونیک با هوش مصنوعی هستند تا فوراً اهداف متحرک را پیدا کرده و نابود کنند و تصمیم برای کشتن را از انسانها به ماشینها منتقل کنند.
همچنین رقابتی برای توسعه هوش مصنوعی عمومی وجود دارد که میتواند منجر به مدلهای هوش مصنوعی شود که فراتر از کنترل انسان عمل میکنند. وقتی این اتفاق بیفتد، سیستمهای هوش مصنوعی یاد میگیرند که خود را ارتقا دهند و تکثیر کنند و فرآیندهای تصمیمگیری را به دست بگیرند. اگر چنین هوش مصنوعی در سیستمهای پشتیبانی تصمیمگیری برای سلاحهای هستهای ادغام شود، ماشینها قادر خواهند بود جنگهای ویرانگری را آغاز کنند.
وقت عمل است
در مواجهه با خطرات فوق، بسیاری از کارشناسان معتقدند که بشریت برای به حداقل رساندن خطر جنگ هستهای، به توافقی جامع بین قدرتهای بزرگ نیاز دارد، توافقی فراتر از تکرار شعار «انسانها در حلقه»!
این توافق باید شامل شفافیت، پاسخگویی و اقدامات همکاری؛ استانداردهای بینالمللی برای آزمایش و ارزیابی؛ کانالهای ارتباطی بحران؛ هیئتهای نظارت ملی؛ و قوانینی برای ممنوعیت مدلهای تهاجمی هوش مصنوعی که قادر به دور زدن اپراتورهای انسانی هستند، باشد.
آنتونیو گوترش، دبیرکل سازمان ملل، در مراسم یادبود صلح در هیروشیما، شهری که در سال ۱۹۴۵ مورد اصابت بمب اتمی قرار گرفت، شرکت میکند. عکس: سازمان ملل
تغییرات ژئوپلیتیکی فرصتی را برای چنین پیمانی ایجاد میکنند. به عنوان مثال، کارشناسان برجسته هوش مصنوعی از چین و ایالات متحده، در تعدادی از گفتگوهای دو جانبه در مورد خطرات هوش مصنوعی شرکت کردهاند که منجر به بیانیه مشترک جو بایدن، رئیس جمهور سابق ایالات متحده، و شی جین پینگ، رئیس جمهور چین، در نوامبر گذشته شد.
به گفته دکتر ساندیپ واسلکار، میلیاردر ایلان ماسک، مدافع سرسخت لزوم نجات بشریت از خطرات وجودی ناشی از هوش مصنوعی است و ممکن است از دونالد ترامپ، رئیس جمهور فعلی آمریکا، بخواهد بیانیه مشترک بین جو بایدن و شی جین پینگ را به یک معاهده تبدیل کند.
به گفته دکتر ساندیپ واسلکار، چالش هوش مصنوعی هستهای همچنین مستلزم مشارکت روسیه است. تا ژانویه امسال، روسیه از بحث در مورد هرگونه اقدام کاهش ریسک هستهای، از جمله همگرایی با هوش مصنوعی، خودداری میکرد، مگر اینکه موضوع اوکراین مطرح میشد.
با توجه به اینکه دونالد ترامپ، رئیس جمهور آمریکا، در حال گفتگو با ولادیمیر پوتین، رئیس جمهور روسیه، برای بهبود روابط دوجانبه و پایان دادن به جنگ در اوکراین است، روسیه اکنون ممکن است پذیرای گفتگو باشد.
در فوریه امسال، پس از سخنرانی معاون رئیس جمهور ایالات متحده، جی دی ونس، در اجلاس اقدام هوش مصنوعی پاریس، مرکز امنیت نوین آمریکا (CNAS) نیز گزارشی با عنوان «جلوگیری از یک آخرالزمان هوش مصنوعی: رقابت ایالات متحده، چین و روسیه در پیوند با سلاحهای هستهای و هوش مصنوعی» منتشر کرد.
این گزارش مهمترین خطرات پیوند هوش مصنوعی و انرژی هستهای را شناسایی کرده و از دولت ایالات متحده میخواهد مجموعهای جامع از سازوکارهای کاهش ریسک و مدیریت بحران را با چین و روسیه ایجاد کند.
پیش از این، در سپتامبر سال گذشته، حدود ۶۰ کشور از جمله ایالات متحده، در اجلاس هوش مصنوعی مسئولانه در ارتش (REAIM) که در سئول، کره جنوبی برگزار شد، یک «طرح اقدام» برای مدیریت استفاده مسئولانه از هوش مصنوعی در ارتش تصویب کردند. این دومین کنفرانس از این نوع، پس از کنفرانسی بود که سال گذشته در لاهه برگزار شد. این اقدامات نشان میدهد که خطر جنگ هستهای که توسط هوش مصنوعی آغاز میشود، داستان علمی تخیلی نیست.
جهان آشکارا با یک مشکل وجودی فزاینده و فوری روبرو است که مستلزم اقدام واقعی از سوی قدرتهای هستهای است تا اطمینان حاصل شود که «هر تصمیمی در مورد استفاده از سلاحهای هستهای توسط مردم گرفته میشود، نه ماشینها یا الگوریتمها» - همانطور که آنتونیو گوترش، دبیرکل سازمان ملل متحد، خواستار آن شده است.
نگوین خان










نظر (0)