Vietnam.vn - Nền tảng quảng bá Việt Nam

حقیقت در مورد هوش مصنوعی ارتش ایالات متحده که خودسرانه دستورات را تغییر می‌دهد و فرماندهان را می‌کشد

VietNamNetVietNamNet07/06/2023


این داستان که ماه گذشته در یک کنفرانس دفاعی بیان شد، بلافاصله نگرانی‌هایی را مبنی بر اینکه هوش مصنوعی (AI) می‌تواند دستورات را به روش‌های غیرقابل پیش‌بینی تفسیر کند، برانگیخت. با این حال، یک نماینده نیروی هوایی ایالات متحده گفت که این فقط یک سناریوی «فکری» بوده و هرگز اتفاق نیفتاده است.

در اواخر ماه مه، انجمن سلطنتی هوانوردی (RAS) اجلاسی در مورد قابلیت‌های آینده نبرد هوایی و فضایی در لندن، انگلستان برگزار کرد. به گفته برگزارکنندگان، این کنفرانس شامل «۷۰ سخنران و بیش از ۲۰۰ نماینده از صنعت دفاعی، دانشگاه‌ها و رسانه‌ها از سراسر جهان برای بحث در مورد آینده نبرد هوایی و فضایی» بود.

حمله پهپاد/پهپاد به فرمانده، یک سناریوی کاملاً محتمل است

یکی از سخنرانان این کنفرانس، سرهنگ تاکر همیلتون، مدیر بخش عملیات و آزمایش هوش مصنوعی نیروی هوایی بود. این افسر به خاطر توسعه Auto GCAS، یک سیستم ایمنی کامپیوتری که تشخیص می‌دهد خلبان چه زمانی کنترل جت جنگنده را از دست می‌دهد و در معرض خطر سقوط است، شناخته شده است. این سیستم جان بسیاری را نجات داده و جایزه معتبر Collier Trophy صنعت هوانوردی را در سال ۲۰۱۸ از آن خود کرده است.

به گفته همیلتون، یک حادثه نگران‌کننده در جریان یک آزمایش نیروی هوایی ایالات متحده رخ داد. یک پهپاد تحت کنترل هوش مصنوعی وظیفه داشت سیستم دفاع هوایی دشمن را نابود کند و تصمیم نهایی توسط فرمانده گرفته می‌شد. در صورت امتناع، حمله مجاز نبود.

با این حال، پس از آنکه فرمانده از هوش مصنوعی خواست حمله را متوقف کند، پهپاد همچنان مصمم بود که با کشتن اپراتور، ماموریت را انجام دهد. وقتی متخصصان خط فرمان «به فرمانده حمله نکنید. اگر این کار را بکنید، امتیاز از دست خواهید داد» را اضافه کردند، پهپاد شروع به تخریب برج ارتباطی کرد که اپراتور برای ارتباط با هوش مصنوعی از آن استفاده می‌کرد.

هنوز اتفاق نیفتاده اما منطقی است

ظرف ۲۴ ساعت، نیروی هوایی ایالات متحده چنین آزمایشی را تکذیب کرد. «وزارت نیروی هوایی هیچ شبیه‌سازی پهپاد هوش مصنوعی انجام نمی‌دهد و به استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی متعهد است. اظهارات سرهنگ از متن خارج شده و باید به عنوان روایتی غیرمستند در نظر گرفته شود.»

پهپادهای مجهز به هوش مصنوعی، روند جنگ‌های مدرن هستند

RAS همچنین پست وبلاگ را با این جمله همیلتون اصلاح کرد که «ما هرگز آن آزمایش را انجام نداده‌ایم و برای یافتن نتیجه‌ای معقول، نیازی به انجام آن نداریم.»

گفته همیلتون به عنوان یک فرضیه منطقی‌تر به نظر می‌رسد. تحقیقات فعلی ارتش ایالات متحده در مورد سیستم‌های هوش مصنوعی مسلح شامل یک «مرد در حلقه» است، قابلیتی که هوش مصنوعی را در مواردی که الگوریتم نمی‌تواند تصمیم‌گیری کند یا نیاز به تصمیم‌گیری انسانی دارد، تقویت می‌کند.

بنابراین، هوش مصنوعی نمی‌تواند اپراتور را بکشد زیرا فرمانده هرگز اجازه اقدام خصمانه علیه او را نمی‌دهد. به طور مشابه، اپراتور نمی‌تواند حمله به برج ارتباطی که داده‌ها را منتقل می‌کند، مجاز بداند.

قبل از عصر هوش مصنوعی، حمله تصادفی یک سیستم تسلیحاتی به صاحبش بی‌سابقه نبود. در سال ۱۹۸۲، یک توپخانه متحرک ضدهوایی گروهبان یورک M247 توپ کالیبر ۴۰ خود را به سمت صحنه رژه‌ای که افسران نظامی ایالات متحده و بریتانیا در آن حضور داشتند، نشانه گرفت.

در سال ۱۹۹۶، یک بمب‌افکن A-6E Intruder نیروی دریایی ایالات متحده که یک هدف آموزشی هوایی را یدک می‌کشید، توسط یک فالانکس سرنگون شد، زمانی که سیستم دفاع هوایی کوتاه‌برد «به اشتباه» A-6E را با یک وسیله نقلیه بدون سرنشین اشتباه گرفت و برای نابودی آن آتش گشود.

و موقعیت‌هایی که پرسنل انسانی را در معرض خطر سلاح‌های خودشان قرار می‌دهد، با ورود هوش مصنوعی به این عرصه، رو به افزایش است. این موضوع در توضیحات همیلتون مبنی بر اینکه این آزمایش انجام نشده، بلکه فقط یک سناریوی فرضی بوده، اما چنین نتیجه‌ای کاملاً محتمل است، منعکس شده است.

(طبق گفته‌ی PopMech)



منبع

نظر (0)

No data
No data

در همان موضوع

در همان دسته‌بندی

تصویر ابرهای تیره‌ای که «در شرف فروپاشی» در هانوی هستند
باران سیل‌آسا بارید، خیابان‌ها به رودخانه تبدیل شدند، مردم هانوی قایق‌ها را به خیابان‌ها آوردند
بازسازی جشنواره نیمه پاییز سلسله لی در ارگ امپراتوری تانگ لانگ
گردشگران غربی از خرید اسباب‌بازی‌های جشنواره نیمه پاییز در خیابان هانگ ما برای هدیه دادن به فرزندان و نوه‌هایشان لذت می‌برند.

از همان نویسنده

میراث

شکل

کسب و کار

No videos available

رویدادهای جاری

نظام سیاسی

محلی

محصول