Vietnam.vn - Nền tảng quảng bá Việt Nam

خطر شروع جنگ هسته‌ای توسط هوش مصنوعی، علمی تخیلی نیست

(CLO) جنگ هسته‌ای که توسط هوش مصنوعی آغاز شود، چیزی شبیه به چیزی است که از یک فیلم علمی تخیلی بیرون آمده است. اما بسیاری از دانشمندان و سیاستمداران برجسته جهان می‌گویند که اینطور نیست.

Công LuậnCông Luận23/03/2025

خطر از دست دادن کنترل هوش مصنوعی

به نظر می‌رسد بشریت شبحی را در افق نادیده می‌گیرد: شبح جنگ هسته‌ای جهانی ناشی از هوش مصنوعی (AI). آنتونیو گوترش، دبیرکل سازمان ملل متحد، در مورد آن هشدار داده است. اما تاکنون، کشورهای مسلح به سلاح هسته‌ای برای مذاکره در مورد این تهدید فاجعه‌بار گرد هم نیامده‌اند.

خطر جنگ هسته‌ای یک افسانه نیست.

توسعه سریع هوش مصنوعی (AI) این خطر را ایجاد می‌کند که هوش مصنوعی بتواند در فرآیند پرتاب سلاح‌های هسته‌ای مداخله کند. عکس تصویری

مدت‌هاست که یک اجماع غیررسمی بین پنج قدرت هسته‌ای بزرگ - ایالات متحده، روسیه، چین، بریتانیا و فرانسه - در مورد اصل «نقش انسان در حلقه» وجود دارد، به این معنی که هر کشور سیستمی دارد تا اطمینان حاصل کند که انسان‌ها در تصمیم‌گیری برای پرتاب سلاح‌های هسته‌ای دخیل هستند.

هیچ یک از پنج قدرت نمی‌گویند که هوش مصنوعی را در سیستم‌های فرماندهی پرتاب هسته‌ای خود به کار گرفته‌اند. به گفته دکتر ساندیپ واسلکار، رئیس گروه پیش‌بینی استراتژیک، یک سازمان تحقیقاتی بین‌المللی در بمبئی هند، این درست است اما گمراه‌کننده است.

هوش مصنوعی در حال حاضر برای تشخیص تهدید و انتخاب هدف مورد استفاده قرار می‌گیرد. سیستم‌های مبتنی بر هوش مصنوعی، حجم زیادی از داده‌ها را از حسگرها، ماهواره‌ها و رادارها به صورت بلادرنگ تجزیه و تحلیل می‌کنند، حملات موشکی ورودی را تجزیه و تحلیل کرده و گزینه‌های پاسخ را پیشنهاد می‌دهند.

سپس اپراتور تهدید را از منابع مختلف بررسی می‌کند و تصمیم می‌گیرد که آیا موشک‌های دشمن را رهگیری کند یا حملات تلافی‌جویانه انجام دهد.

ساندیپ واسلکار گفت: «در حال حاضر، زمان واکنش اپراتورهای انسانی ۱۰ تا ۱۵ دقیقه است. تا سال ۲۰۳۰، این زمان به ۵ تا ۷ دقیقه کاهش خواهد یافت. در حالی که انسان‌ها تصمیمات نهایی را می‌گیرند، تحت تأثیر تجزیه و تحلیل‌های پیش‌بینی‌کننده و تجویزی هوش مصنوعی قرار خواهند گرفت. هوش مصنوعی می‌تواند نیروی محرکه تصمیمات پرتاب از اوایل دهه ۲۰۳۰ باشد.»

مشکل این است که هوش مصنوعی می‌تواند اشتباه کند. الگوریتم‌های تشخیص تهدید می‌توانند حمله موشکی را در حالی که هیچ اتفاقی نیفتاده است، نشان دهند. این می‌تواند به دلیل خطاهای رایانه‌ای، نفوذ به شبکه یا عوامل محیطی باشد که سیگنال‌ها را مبهم می‌کنند. مگر اینکه اپراتورهای انسانی بتوانند هشدارهای کاذب از منابع دیگر را ظرف دو تا سه دقیقه تأیید کنند، در غیر این صورت می‌توانند حملات تلافی‌جویانه را آغاز کنند.

خطای بسیار کوچک، فاجعه‌ای بزرگ

استفاده از هوش مصنوعی در بسیاری از کارکردهای غیرنظامی مانند پیش‌بینی جرم، تشخیص چهره و پیش‌آگهی سرطان، حاشیه خطایی معادل ۱۰ درصد دارد. به گفته ساندیپ واسلکار، در سیستم‌های هشدار اولیه هسته‌ای، حاشیه خطا می‌تواند حدود ۵ درصد باشد.

با بهبود دقت الگوریتم‌های تشخیص تصویر در دهه آینده، این حاشیه خطا می‌تواند به ۱ تا ۲ درصد کاهش یابد. اما حتی ۱ درصد حاشیه خطا نیز می‌تواند آغازگر یک جنگ هسته‌ای جهانی باشد.

خطر جنگ هسته‌ای یک افسانه نیست.

تصمیمات برای حمله یا تلافی علیه سلاح‌های هسته‌ای می‌تواند ناشی از خطاهای هوش مصنوعی باشد. عکس: موسسه جنگ مدرن

این خطر می‌تواند طی دو تا سه سال آینده افزایش یابد، زیرا بدافزارهای جدیدی ظهور می‌کنند که قادر به فرار از سیستم‌های تشخیص تهدید هستند. این بدافزارها برای جلوگیری از شناسایی، خود را وفق می‌دهند، به طور خودکار اهداف را شناسایی کرده و به آنها حمله می‌کنند.

در طول جنگ سرد چندین موقعیت «خطرناک» وجود داشت. در سال ۱۹۸۳، یک ماهواره شوروی به اشتباه پنج موشک پرتاب شده توسط ایالات متحده را شناسایی کرد. استانیسلاو پتروف، افسری در مرکز فرماندهی سپوخوف-۱۵ روسیه، نتیجه گرفت که این یک هشدار کاذب بوده و به مافوق‌های خود هشدار نداد تا بتوانند یک ضدحمله راه‌اندازی کنند.

در سال ۱۹۹۵، ایستگاه رادار اولنگورسک حمله موشکی را در سواحل نروژ شناسایی کرد. نیروهای استراتژیک روسیه در حالت آماده‌باش قرار گرفتند و کیف هسته‌ای به رئیس جمهور وقت، بوریس یلتسین، تحویل داده شد. او گمان کرد که این یک اشتباه بوده و دکمه را فشار نداد. معلوم شد که یک موشک علمی بوده است. اگر از هوش مصنوعی برای تعیین واکنش در هر دو موقعیت استفاده می‌شد، نتایج می‌توانست فاجعه‌بار باشد.

موشک‌های هایپرسونیک امروزه به جای هوش مصنوعی از اتوماسیون مرسوم استفاده می‌کنند. آن‌ها می‌توانند با سرعت بین ۵ تا ۲۵ ماخ حرکت کنند، از شناسایی رادار جلوگیری کنند و مسیر پرواز خود را کنترل کنند. ابرقدرت‌ها در حال برنامه‌ریزی برای ارتقای موشک‌های هایپرسونیک با هوش مصنوعی هستند تا فوراً اهداف متحرک را پیدا کرده و نابود کنند و تصمیم برای کشتن را از انسان‌ها به ماشین‌ها منتقل کنند.

همچنین رقابتی برای توسعه هوش مصنوعی عمومی وجود دارد که می‌تواند منجر به مدل‌های هوش مصنوعی شود که فراتر از کنترل انسان عمل می‌کنند. وقتی این اتفاق بیفتد، سیستم‌های هوش مصنوعی یاد می‌گیرند که خود را ارتقا دهند و تکثیر کنند و فرآیندهای تصمیم‌گیری را به دست بگیرند. اگر چنین هوش مصنوعی در سیستم‌های پشتیبانی تصمیم‌گیری برای سلاح‌های هسته‌ای ادغام شود، ماشین‌ها قادر خواهند بود جنگ‌های ویرانگری را آغاز کنند.

وقت عمل است

در مواجهه با خطرات فوق، بسیاری از کارشناسان معتقدند که بشریت برای به حداقل رساندن خطر جنگ هسته‌ای، به توافقی جامع بین قدرت‌های بزرگ نیاز دارد، توافقی فراتر از تکرار شعار «انسان‌ها در حلقه»!

این توافق باید شامل شفافیت، پاسخگویی و اقدامات همکاری؛ استانداردهای بین‌المللی برای آزمایش و ارزیابی؛ کانال‌های ارتباطی بحران؛ هیئت‌های نظارت ملی؛ و قوانینی برای ممنوعیت مدل‌های تهاجمی هوش مصنوعی که قادر به دور زدن اپراتورهای انسانی هستند، باشد.

خطر جنگ هسته‌ای، متخصص تصویر سه‌بعدی نیست

آنتونیو گوترش، دبیرکل سازمان ملل، در مراسم یادبود صلح در هیروشیما، شهری که در سال ۱۹۴۵ مورد اصابت بمب اتمی قرار گرفت، شرکت می‌کند. عکس: سازمان ملل

تغییرات ژئوپلیتیکی فرصتی را برای چنین پیمانی ایجاد می‌کنند. به عنوان مثال، کارشناسان برجسته هوش مصنوعی از چین و ایالات متحده، در تعدادی از گفتگوهای دو جانبه در مورد خطرات هوش مصنوعی شرکت کرده‌اند که منجر به بیانیه مشترک جو بایدن، رئیس جمهور سابق ایالات متحده، و شی جین پینگ، رئیس جمهور چین، در نوامبر گذشته شد.

به گفته دکتر ساندیپ واسلکار، میلیاردر ایلان ماسک، مدافع سرسخت لزوم نجات بشریت از خطرات وجودی ناشی از هوش مصنوعی است و ممکن است از دونالد ترامپ، رئیس جمهور فعلی آمریکا، بخواهد بیانیه مشترک بین جو بایدن و شی جین پینگ را به یک معاهده تبدیل کند.

به گفته دکتر ساندیپ واسلکار، چالش هوش مصنوعی هسته‌ای همچنین مستلزم مشارکت روسیه است. تا ژانویه امسال، روسیه از بحث در مورد هرگونه اقدام کاهش ریسک هسته‌ای، از جمله همگرایی با هوش مصنوعی، خودداری می‌کرد، مگر اینکه موضوع اوکراین مطرح می‌شد.

با توجه به اینکه دونالد ترامپ، رئیس جمهور آمریکا، در حال گفتگو با ولادیمیر پوتین، رئیس جمهور روسیه، برای بهبود روابط دوجانبه و پایان دادن به جنگ در اوکراین است، روسیه اکنون ممکن است پذیرای گفتگو باشد.

در فوریه امسال، پس از سخنرانی معاون رئیس جمهور ایالات متحده، جی دی ونس، در اجلاس اقدام هوش مصنوعی پاریس، مرکز امنیت نوین آمریکا (CNAS) نیز گزارشی با عنوان «جلوگیری از یک آخرالزمان هوش مصنوعی: رقابت ایالات متحده، چین و روسیه در پیوند با سلاح‌های هسته‌ای و هوش مصنوعی» منتشر کرد.

این گزارش مهم‌ترین خطرات پیوند هوش مصنوعی و انرژی هسته‌ای را شناسایی کرده و از دولت ایالات متحده می‌خواهد مجموعه‌ای جامع از سازوکارهای کاهش ریسک و مدیریت بحران را با چین و روسیه ایجاد کند.

پیش از این، در سپتامبر سال گذشته، حدود ۶۰ کشور از جمله ایالات متحده، در اجلاس هوش مصنوعی مسئولانه در ارتش (REAIM) که در سئول، کره جنوبی برگزار شد، یک «طرح اقدام» برای مدیریت استفاده مسئولانه از هوش مصنوعی در ارتش تصویب کردند. این دومین کنفرانس از این نوع، پس از کنفرانسی بود که سال گذشته در لاهه برگزار شد. این اقدامات نشان می‌دهد که خطر جنگ هسته‌ای که توسط هوش مصنوعی آغاز می‌شود، داستان علمی تخیلی نیست.

جهان آشکارا با یک مشکل وجودی فزاینده و فوری روبرو است که مستلزم اقدام واقعی از سوی قدرت‌های هسته‌ای است تا اطمینان حاصل شود که «هر تصمیمی در مورد استفاده از سلاح‌های هسته‌ای توسط مردم گرفته می‌شود، نه ماشین‌ها یا الگوریتم‌ها» - همانطور که آنتونیو گوترش، دبیرکل سازمان ملل متحد، خواستار آن شده است.

نگوین خان


نظر (0)

لطفاً نظر دهید تا احساسات خود را با ما به اشتراک بگذارید!

در همان دسته‌بندی

کلیسای جامع نوتردام در شهر هوشی مین با نورپردازی‌های زیبا به استقبال کریسمس ۲۰۲۵ می‌رود.
دختران هانوی برای کریسمس لباس‌های زیبایی می‌پوشند
روستای گل داوودی تت در گیا لای که پس از طوفان و سیل، حال و هوای بهتری پیدا کرده، امیدوار است که دیگر قطعی برق برای نجات گیاهان وجود نداشته باشد.
پایتخت زردآلوی زرد در منطقه مرکزی پس از دو فاجعه طبیعی متحمل خسارات سنگینی شد.

از همان نویسنده

میراث

شکل

کسب و کار

کافی‌شاپ دالات به دلیل ایفای نقش «فیلم هنرهای رزمی» توسط صاحبش، شاهد افزایش ۳۰۰ درصدی مشتریان خود بوده است.

رویدادهای جاری

نظام سیاسی

محلی

محصول

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC