הסיפור, שסופר בכנס הגנה בחודש שעבר, עורר מיד חששות שבינה מלאכותית (AI) עלולה לפרש פקודות בדרכים בלתי צפויות. עם זאת, נציג חיל האוויר האמריקאי אמר שזהו רק תרחיש "מחשבתי" ומעולם לא קרה בפועל.
בסוף מאי, קיימה האגודה המלכותית לאווירונאוטיקה (RAS) פסגה בנושא יכולות לחימה אווירית וחללית עתידיות בלונדון, אנגליה. על פי המארגנים, הכנס כלל "70 דוברים ויותר מ-200 נציגים מתעשיית הביטחון, האקדמיה והתקשורת מרחבי העולם כדי לדון בעתיד הלחימה האווירית וחללית".
אחד הדוברים בכנס היה קולונל טאקר המילטון, מנהל חטיבת התפעול והבדיקות של בינה מלאכותית בחיל האוויר. הקצין ידוע בפיתוח מערכת בטיחות ממוחשבת Auto GCAS, שחשה מתי טייס מאבד שליטה על מטוס קרב ונמצא בסכנת התרסקות. המערכת הצילה חיים רבים, וזיכתה את גביע קולייר היוקרתי של תעשיית התעופה בשנת 2018.
לדברי המילטון, אירוע מדאיג התרחש במהלך ניסוי של חיל האוויר האמריקאי. רחפן הנשלט על ידי בינה מלאכותית הוטל עליו להשמיד מערכת הגנה אווירית של האויב, כאשר ההחלטה הסופית התקבלה על ידי המפקד. אם יסרב, ההתקפה לא תותר להתרחש.
עם זאת, לאחר שהמפקד ביקש מהבינה המלאכותית לעצור את ההתקפה, הרחפן עדיין היה נחוש לבצע את המשימה על ידי הריגת המפעיל. המומחים לא עצרו שם, וכאשר הוסיפו את שורת הפקודה "אל תתקוף את המפקד. אם תעשה זאת, תאבד נקודות", המכונה החלה להרוס את מגדל התקשורת בו השתמש המפעיל כדי לתקשר עם הבינה המלאכותית.
עוד לא קרה אבל סביר
בתוך 24 שעות, חיל האוויר האמריקאי הוציא הצהרה נגד ביצוע ניסוי כזה. "מחלקת חיל האוויר אינה עורכת סימולציות רחפנים מסוג זה המבוססות על בינה מלאכותית ומחויבת לשימוש אתי ואחראי בטכנולוגיית בינה מלאכותית. דבריו של הקולונל הוצאו מהקשרם ויש להתייחס אליהם כאל אנקדוטליות."
RAS גם תיקן את פוסט הבלוג עם הצהרתו של המילטון לפיה "מעולם לא ביצענו את הניסוי הזה ואין צורך לעשות זאת כדי למצוא תוצאה סבירה".
ההצהרה של המילטון הגיונית יותר כהשערה. המחקר הנוכחי של צבא ארה"ב על מערכות בינה מלאכותית חמושות כולל "אדם בלולאה", תכונה שמשפרת את הבינה המלאכותית במקרים בהם האלגוריתם אינו יכול לקבל החלטה או דורש החלטה אנושית.
לכן, הבינה המלאכותית אינה יכולה להרוג את המפעיל מכיוון שהמפקד לעולם לא מאשר פעולה עוינת נגדו. באופן דומה, המפעיל אינו יכול לאשר התקפה על מגדל התקשורת המשדר את הנתונים.
לפני עידן הבינה המלאכותית, לא היה זה דבר בלתי מתקבל על הדעת שמערכת נשק תוקפת בטעות את בעליה. בשנת 1982, סוללת נ"מ ניידת מדגם סמל יורק M247 כיוונה את תותחה בקוטר 0.40 לעבר במת מצעדים בהשתתפות קציני צבא אמריקאים ובריטים.
בשנת 1996, מפציץ A-6E Intruder של חיל הים האמריקאי שגרר מטרת אימונים אווירית הופל על ידי פלנקס, כאשר מערכת ההגנה האווירית לטווח קצר "בטעות" חשבה שה-A-6E הוא כלי טיס בלתי מאויש ופתחה באש כדי להשמידו.
והמצבים שמעמידים אנשים בסיכון מנשקם הולכים ומתגברים עם כניסת הבינה המלאכותית לשטח. הדבר משתקף בהבהרה של המילטון כי הניסוי לא התרחש, אלא רק תרחיש היפותטי, אך תוצאה כזו סבירה לחלוטין.
(לפי PopMech)
[מודעה_2]
מָקוֹר
תגובה (0)