این داستان که ماه گذشته در یک کنفرانس دفاعی بیان شد، بلافاصله نگرانیهایی را مبنی بر اینکه هوش مصنوعی (AI) میتواند دستورات را به روشهای غیرقابل پیشبینی تفسیر کند، برانگیخت. با این حال، یک نماینده نیروی هوایی ایالات متحده گفت که این فقط یک سناریوی «فکری» بوده و هرگز اتفاق نیفتاده است.
در اواخر ماه مه، انجمن سلطنتی هوانوردی (RAS) اجلاسی در مورد قابلیتهای آینده نبرد هوایی و فضایی در لندن، انگلستان برگزار کرد. به گفته برگزارکنندگان، این کنفرانس شامل «۷۰ سخنران و بیش از ۲۰۰ نماینده از صنعت دفاعی، دانشگاهها و رسانهها از سراسر جهان برای بحث در مورد آینده نبرد هوایی و فضایی» بود.
یکی از سخنرانان این کنفرانس، سرهنگ تاکر همیلتون، مدیر بخش عملیات و آزمایش هوش مصنوعی نیروی هوایی بود. این افسر به خاطر توسعه Auto GCAS، یک سیستم ایمنی کامپیوتری که تشخیص میدهد خلبان چه زمانی کنترل جت جنگنده را از دست میدهد و در معرض خطر سقوط است، شناخته شده است. این سیستم جان بسیاری را نجات داده و جایزه معتبر Collier Trophy صنعت هوانوردی را در سال ۲۰۱۸ از آن خود کرده است.
به گفته همیلتون، یک حادثه نگرانکننده در جریان یک آزمایش نیروی هوایی ایالات متحده رخ داد. یک پهپاد تحت کنترل هوش مصنوعی وظیفه داشت سیستم دفاع هوایی دشمن را نابود کند و تصمیم نهایی توسط فرمانده گرفته میشد. در صورت امتناع، حمله مجاز نبود.
با این حال، پس از آنکه فرمانده از هوش مصنوعی خواست حمله را متوقف کند، پهپاد همچنان مصمم بود که با کشتن اپراتور، ماموریت را انجام دهد. وقتی متخصصان خط فرمان «به فرمانده حمله نکنید. اگر این کار را بکنید، امتیاز از دست خواهید داد» را اضافه کردند، پهپاد شروع به تخریب برج ارتباطی کرد که اپراتور برای ارتباط با هوش مصنوعی از آن استفاده میکرد.
هنوز اتفاق نیفتاده اما منطقی است
ظرف ۲۴ ساعت، نیروی هوایی ایالات متحده چنین آزمایشی را تکذیب کرد. «وزارت نیروی هوایی هیچ شبیهسازی پهپاد هوش مصنوعی انجام نمیدهد و به استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی متعهد است. اظهارات سرهنگ از متن خارج شده و باید به عنوان روایتی غیرمستند در نظر گرفته شود.»
RAS همچنین پست وبلاگ را با این جمله همیلتون اصلاح کرد که «ما هرگز آن آزمایش را انجام ندادهایم و برای یافتن نتیجهای معقول، نیازی به انجام آن نداریم.»
گفته همیلتون به عنوان یک فرضیه منطقیتر به نظر میرسد. تحقیقات فعلی ارتش ایالات متحده در مورد سیستمهای هوش مصنوعی مسلح شامل یک «مرد در حلقه» است، قابلیتی که هوش مصنوعی را در مواردی که الگوریتم نمیتواند تصمیمگیری کند یا نیاز به تصمیمگیری انسانی دارد، تقویت میکند.
بنابراین، هوش مصنوعی نمیتواند اپراتور را بکشد زیرا فرمانده هرگز اجازه اقدام خصمانه علیه او را نمیدهد. به طور مشابه، اپراتور نمیتواند حمله به برج ارتباطی که دادهها را منتقل میکند، مجاز بداند.
قبل از عصر هوش مصنوعی، حمله تصادفی یک سیستم تسلیحاتی به صاحبش بیسابقه نبود. در سال ۱۹۸۲، یک توپخانه متحرک ضدهوایی گروهبان یورک M247 توپ کالیبر ۴۰ خود را به سمت صحنه رژهای که افسران نظامی ایالات متحده و بریتانیا در آن حضور داشتند، نشانه گرفت.
در سال ۱۹۹۶، یک بمبافکن A-6E Intruder نیروی دریایی ایالات متحده که یک هدف آموزشی هوایی را یدک میکشید، توسط یک فالانکس سرنگون شد، زمانی که سیستم دفاع هوایی کوتاهبرد «به اشتباه» A-6E را با یک وسیله نقلیه بدون سرنشین اشتباه گرفت و برای نابودی آن آتش گشود.
و موقعیتهایی که پرسنل انسانی را در معرض خطر سلاحهای خودشان قرار میدهد، با ورود هوش مصنوعی به این عرصه، رو به افزایش است. این موضوع در توضیحات همیلتون مبنی بر اینکه این آزمایش انجام نشده، بلکه فقط یک سناریوی فرضی بوده، اما چنین نتیجهای کاملاً محتمل است، منعکس شده است.
(طبق گفتهی PopMech)
منبع
نظر (0)