הסיכון לאבד שליטה על בינה מלאכותית
נראה שהאנושות מתעלמת מרוח רפאים באופק: רוח הרפאים של מלחמה גרעינית עולמית הנגרמת על ידי בינה מלאכותית (AI). מזכ"ל האו"ם אנטוניו גוטרש הזהיר מפניה. אך עד כה, מדינות בעלות נשק גרעיני לא התאחדו כדי לנהל משא ומתן על איום קטסטרופלי זה.
ההתפתחות המהירה של בינה מלאכותית (AI) מהווה סיכון שבינה מלאכותית עלולה להתערב בתהליך שיגור הנשק הגרעיני. איור צילום
במשך זמן רב קיימת הסכמה בלתי פורמלית בין חמש מעצמות הגרעין הגדולות - ארה"ב, רוסיה, סין, בריטניה וצרפת - על עקרון "האדם בלולאה", כלומר לכל מדינה יש מערכת שתבטיח שבני אדם יהיו מעורבים בהחלטה לשגר נשק גרעיני.
אף אחת מחמש המעצמות לא אומרת שהטמיעה בינה מלאכותית במערכות פיקוד השיגור הגרעיני שלה. זה נכון אך מטעה, לדברי ד"ר סאנדיפ וואסלקר, נשיא קבוצת Strategic Foresight, ארגון מחקר בינלאומי במומבאי, הודו.
בינה מלאכותית כבר נמצאת בשימוש לגילוי איומים ובחירת מטרות. מערכות המופעלות על ידי בינה מלאכותית מנתחות כמויות גדולות של נתונים מחיישנים, לוויינים ומכ"מים בזמן אמת, מנתחות התקפות טילים נכנסות ומציעות אפשרויות תגובה.
לאחר מכן, המפעיל בודק את האיום ממקורות שונים ומחליט האם ליירט טילי אויב או לשגר תקיפות תגמול.
"כיום, זמן התגובה הזמין למפעילים אנושיים הוא 10 עד 15 דקות. עד 2030, זמן זה יקטן ל-5 עד 7 דקות", אמר סאנדיפ וואסלקר. "בעוד שבני אדם יקבלו את ההחלטות הסופיות, הם יושפעו מניתוחים ניבוייים ומרשימים של בינה מלאכותית. בינה מלאכותית יכולה להיות הכוח המניע מאחורי החלטות שיגור כבר בשנות ה-2030."
הבעיה היא שבינה מלאכותית יכולה לטעות. אלגוריתמים לגילוי איומים יכולים להצביע על תקיפה של טילים כאשר לא מתרחשת כלום. זה יכול לנבוע משגיאות מחשב, חדירות לרשת או גורמים סביבתיים שמסתירים את האותות. אלא אם כן מפעילים אנושיים יוכלו לאשר אזעקות שווא ממקורות אחרים תוך שתיים-שלוש דקות, הם עלולים להפעיל תקיפות תגמול.
טעות קטנה מאוד, אסון ענק
ידוע כי השימוש בבינה מלאכותית בתפקודים אזרחיים רבים, כגון חיזוי פשיעה, זיהוי פנים ופרוגנוזה של סרטן, כרוך בטווח טעות של 10%. במערכות התרעה מוקדמת גרעיניות, מרווח הטעות יכול להיות כ-5%, על פי סאנדיפ וואסלקר.
ככל שדיוק האלגוריתמים לזיהוי תמונות ישתפר בעשור הקרוב, מרווח טעות זה עשוי לרדת ל-1-2%. אך אפילו מרווח טעות של 1% עלול להתחיל מלחמה גרעינית עולמית.
החלטות לתקוף או להגיב נגד נשק גרעיני עלולות להיגרם על ידי טעויות של בינה מלאכותית. צילום: המכון למלחמה מודרנית
הסיכון עלול לעלות במהלך השנתיים-שלוש הקרובות, ככל שיצוץ תוכנה זדונית חדשה המסוגלת להתחמק ממערכות גילוי איומים. תוכנה זדונית זו תסתגל כדי להימנע מגילוי, תזהה אוטומטית מטרות ותתקוף אותן.
במהלך המלחמה הקרה היו מספר מצבים של "התנגשות שווא". בשנת 1983, לוויין סובייטי זיהה בטעות חמישה טילים ששוגרו על ידי ארצות הברית. סטניסלב פטרוב, קצין במרכז הפיקוד ספוחוב-15 ברוסיה, הגיע למסקנה שמדובר באזעקת שווא ולא התריע בפני מפקדיו כדי שיוכלו לפתוח במתקפת נגד.
בשנת 1995, תחנת המכ"ם של אולנגורסק זיהתה מתקפת טילים מול חופי נורבגיה. כוחותיה האסטרטגיים של רוסיה הועמדו בכוננות גבוהה והנשיא דאז בוריס ילצין קיבל את המזוודה הגרעינית. הוא חשד שזו טעות ולא לחץ על הכפתור. התברר שמדובר בטיל מדעי . אם בינה מלאכותית הייתה משמשת לקביעת התגובה בכל אחד מהמצבים, התוצאות היו עלולות להיות קטסטרופליות.
טילים היפרסוניים כיום משתמשים באוטומציה קונבנציונלית במקום בבינה מלאכותית. הם יכולים לנוע במהירויות שבין מאך 5 ל-25 מאך, תוך הימנעות מגילוי מכ"ם ושליטה בנתיבי הטיסה שלהם. המעצמות מתכננות לשפר טילים היפרסוניים באמצעות בינה מלאכותית כדי לאתר ולהשמיד מטרות נעות באופן מיידי, ובכך להעביר את ההחלטה להרוג מבני אדם למכונות.
ישנו גם מרוץ לפיתוח בינה מלאכותית כללית, שעשוי להוביל למודלים של בינה מלאכותית הפועלים מעבר לשליטת האדם. כאשר זה יקרה, מערכות בינה מלאכותית ילמדו לשפר ולשכפל את עצמן, ולהשתלט על תהליכי קבלת החלטות. אם בינה מלאכותית כזו תשולב במערכות תומכות החלטות עבור נשק גרעיני, מכונות יוכלו ליזום מלחמות הרסניות.
הגיע הזמן לפעול
לנוכח הסיכונים הנ"ל, מומחים רבים מאמינים כי האנושות זקוקה להסכם מקיף בין המעצמות הגדולות כדי למזער את הסיכון למלחמה גרעינית, מעבר לחזרה על הסיסמה "בני אדם בלולאה".
הסכם זה צריך לכלול צעדים לשקיפות, אחריות ושיתוף פעולה; סטנדרטים בינלאומיים לבדיקות והערכה; ערוצי תקשורת במשברים; מועצות פיקוח לאומיות; וכללים לאיסור מודלים אגרסיביים של בינה מלאכותית המסוגלים לעקוף מפעילים אנושיים.
מזכ"ל האו"ם אנטוניו גוטרש משתתף בטקס זיכרון לשלום בהירושימה, אשר נפגעה מפצצת אטום בשנת 1945. צילום: האו"ם
שינויים גיאופוליטיים יוצרים הזדמנות להסכם כזה. מומחי בינה מלאכותית מובילים מסין וארה"ב, לדוגמה, השתתפו במספר דיאלוגים בשלב השני בנושא סיכוני בינה מלאכותית, מה שהוביל להצהרה משותפת של נשיא ארה"ב לשעבר ג'ו ביידן ונשיא סין שי ג'ינפינג בנובמבר האחרון.
המיליארדר אילון מאסק הוא תומך נלהב בצורך להציל את האנושות מהסיכונים הקיומיים שמציבה הבינה המלאכותית, והוא עשוי לדחוק בנשיא ארה"ב הנוכחי דונלד טראמפ להפוך את ההצהרה המשותפת בין ג'ו ביידן לשי ג'ינפינג לאמנה, לדברי ד"ר סאנדיפ וואסלקר.
האתגר של בינה מלאכותית וגרעין דורש גם את השתתפות רוסיה, לדברי ד"ר סאנדיפ וואסלקר. עד ינואר השנה, רוסיה סירבה לדון בכל אמצעי להפחתת סיכונים גרעיניים, כולל התכנסות עם בינה מלאכותית, אלא אם כן נדונה אוקראינה.
כעת, לאחר שנשיא ארה"ב דונלד טראמפ מנהל דיאלוג עם נשיא רוסיה ולדימיר פוטין במטרה לשפר את היחסים הדו-צדדיים ולסיים את המלחמה באוקראינה, רוסיה עשויה להיות פתוחה לדיונים.
בפברואר השנה, בעקבות נאומו של סגן נשיא ארה"ב ג'יי.די. ואנס בפסגת הפעולה בנושא בינה מלאכותית בפריז, פרסם המרכז לביטחון אמריקאי חדש (CNAS) גם דו"ח שכותרתו "מניעת יום הדין של בינה מלאכותית: תחרות בין ארה"ב-סין-רוסיה בנקודת המפגש של נשק גרעיני ובינה מלאכותית".
הדו"ח מזהה את הסיכונים המשמעותיים ביותר של הקשר בין בינה מלאכותית לגרעין וקורא לממשל האמריקאי להקים מערך מקיף של מנגנוני הפחתת סיכונים וניהול משברים עם סין ורוסיה.
מוקדם יותר, בספטמבר בשנה שעברה, כ-60 מדינות, כולל ארה"ב, אימצו "תוכנית פעולה" לניהול השימוש האחראי בבינה מלאכותית בצבא בוועידת REAIM (Responsible AI in Military Summit) שהתקיימה בסיאול, דרום קוריאה. זו הייתה הכנס השני מסוגו, לאחר הכנס שהתקיים בהאג בשנה שעברה. תנועות אלו מראות כי הסיכון למלחמה גרעינית שיזמה בינה מלאכותית אינו מדע בדיוני.
העולם ניצבים בפני בעיה קיומית דחופה יותר ויותר, הדורשת פעולה ממשית מצד מעצמות גרעיניות כדי להבטיח ש"כל החלטה בנוגע לשימוש בנשק גרעיני תתקבל על ידי אנשים, לא על ידי מכונות או אלגוריתמים" - כפי שקרא מזכ"ל האו"ם אנטוניו גוטרש.
נגוין חאן










תגובה (0)