התמונה המורכבת של השימוש ברובוטים קטלניים מבוססי בינה מלאכותית
מתן אפשרות לבינה מלאכותית לשלוט במערכות נשק עלול לגרום לזיהוי, תקיפה והשמדה של מטרות ללא התערבות אנושית. עובדה זו מעלה שאלות משפטיות ואתיות חמורות.
שר החוץ האוסטרי, אלכסנדר שאלנברג, הדגיש את חומרת המצב ואמר: "זהו רגע אופנהיימר של דורנו".
רובוטים וכלי נשק המשתמשים בבינה מלאכותית מתחילים להיות בשימוש נרחב בצבאות של מדינות רבות. צילום: פורבס
אכן, המידה שבה "הג'יני ברח מהבקבוק" הפכה לשאלה דחופה, שכן רחפנים ובינה מלאכותית (AI) הפכו לשימוש נרחב על ידי צבאות ברחבי העולם .
"השימוש ברחפנים בסכסוכים מודרניים על ידי רוסיה ואוקראינה, השימוש ברחפנים על ידי ארה"ב בפעולות תקיפה ממוקדות באפגניסטן ובפקיסטן, וכפי שנחשף לאחרונה בחודש שעבר, כחלק מתוכנית לבנדר של ישראל, מראים כיצד יכולות עיבוד המידע של בינה מלאכותית משמשות באופן פעיל את צבאות העולם כדי לשפר את כוחם ההתקפי", אמר אנליסט ההגנה וילסון ג'ונס ב-GlobalData.
חקירות של משרד העיתונות החוקרת המלחמה שבסיסו בלונדון מצאו כי למערכת הבינה המלאכותית לבנדר של הצבא הישראלי היה שיעור דיוק של 90% בזיהוי אנשים עם קשרים לחמאס, כלומר 10% לא. דבר זה הוביל למותם של אזרחים עקב יכולות הזיהוי וקבלת ההחלטות של הבינה המלאכותית.
איום על הביטחון העולמי
שימוש בבינה מלאכותית בדרך זו מדגיש את הצורך לנהל טכנולוגיה במערכות נשק.
"השימוש בבינה מלאכותית במערכות נשק, במיוחד כאשר הוא משמש למטרות מיקוד, מעלה שאלות מהותיות לגבינו - בני האדם - ולגבי הקשר שלנו למלחמה, וליתר דיוק, ההנחות שלנו לגבי האופן שבו אנו עשויים להשתמש באלימות בסכסוכים מזוינים", הסביר ד"ר אלכסנדר בלנשרד, עמית מחקר בכיר בתוכנית לניהול בינה מלאכותית במכון הבינלאומי לחקר השלום בסטוקהולם (SIPRI), קבוצת מחקר עצמאית המתמקדת בביטחון עולמי, ל-Army Technology.
מערכות בינה מלאכותית, כאשר הן משמשות בסביבות כאוטיות, יכולות להתנהג בצורה בלתי צפויה וייתכן שלא בזיהוי מדויק של מטרות. צילום: MES
"האם בינה מלאכותית משנה את האופן שבו הצבא בוחר מטרות ומפעיל עליהן כוח? שינויים אלה, בתורם, מעלים שורה של שאלות משפטיות, אתיות ומבצעיות. החששות הגדולים ביותר הם הומניטריים", הוסיף ד"ר בלנשארד.
"רבים מודאגים מכך שתלוי באופן שבו מערכות אוטונומיות מתוכננות ומשתמשות בהן, הן עלולות להעמיד אזרחים ואחרים המוגנים על ידי החוק הבינלאומי בסיכון גבוה יותר לפגיעה", הסביר מומחה SIPRI. "הסיבה לכך היא שמערכות בינה מלאכותית, במיוחד כאשר הן משמשות בסביבות כאוטיות, יכולות לפעול באופן בלתי צפוי ועשויות להיכשל בזיהוי מדויק של מטרות ותקיפת אזרחים, או בזיהוי לוחמים שאינם נמצאים בקרב."
בהרחבה על הסוגיה, ציין אנליסט ההגנה של GlobalData, וילסון ג'ונס, כי סוגיית קביעת האשמה עשויה להיות מפוקפקת.
"על פי חוקי המלחמה הנוכחיים, קיים מושג של אחריות פיקודית", אמר מר ג'ונס. "משמעות הדבר היא שקצין, גנרל או מנהיג אחר אחראי מבחינה משפטית למעשיהם של החיילים תחת פיקודו. אם חיילים מבצעים פשעי מלחמה, הקצין אחראי גם אם לא נתנו את הפקודות; נטל ההוכחה מוטל עליו להוכיח שעשו כל שביכולתם כדי למנוע פשעי מלחמה."
"עם מערכות בינה מלאכותית, זה מסבך את העניינים. האם טכנאי IT אחראי? מעצב מערכות? זה לא ברור. אם זה לא ברור, זה יוצר סיכון מוסרי אם גורמים חושבים שפעולותיהם אינן מוגנות על ידי החוקים הקיימים", הדגיש מר ג'ונס.
חייל אמריקאי מסייר עם כלב רובוטי. צילום: פורבס
אמנות לבקרת נשק מספר הסכמים בינלאומיים מרכזיים מגבילים ומסדירים שימושים מסוימים בנשק. ישנם איסורים על נשק כימי, אמנות לאי-הפצת נשק גרעיני והאמנה בדבר כלי נשק קונבנציונליים מסוימים, האוסרת או מגבילה את השימוש בכלי נשק ספציפיים הנחשבים כגורמים סבל מיותר או בלתי מוצדק לצדדים לוחמים או כמשפיעים על אזרחים ללא הבחנה.
"בקרת נשק גרעיני דרשה עשרות שנים של שיתוף פעולה בינלאומי ואכיפה של אמנות שבאו בעקבותיהן", מסביר אנליסט ההגנה וילסון ג'ונס. "גם אז, המשכנו בניסויים אטמוספריים עד שנות ה-90. סיבה מרכזית להצלחת אי-הפצת נשק גרעיני הייתה שיתוף הפעולה בין ארצות הברית לברית המועצות בסדר עולמי דו-קוטבי. זה כבר לא קיים, והטכנולוגיה שיוצרת בינה מלאכותית נגישה יותר למדינות רבות מאשר אנרגיה גרעינית."
"אמנה מחייבת תצטרך להביא את כל השחקנים הרלוונטיים לשולחן הסכמים שלא להשתמש בכלי שמגביר את כוחם הצבאי. סביר להניח שזה לא יעבוד מכיוון שבינה מלאכותית יכולה לשפר את האפקטיביות הצבאית בעלות כספית וחומרית מינימלית."
התחזית הגיאופוליטית הנוכחית
בעוד שמדינות באו"ם הכירו בצורך בשימוש צבאי אחראי בבינה מלאכותית, עדיין יש עבודה רבה לעשות.
"ללא מסגרת רגולטורית ברורה, טענות אלה נותרות במידה רבה בגדר שאיפה", אמרה לורה פטרונה, אנליסטית ראשית ב-GlobalData, ל-Army Technology. "אין זה מפתיע שכמה מדינות רוצות לשמור על ריבונותן כאשר הן מחליטות בענייני הגנה פנימית וביטחון לאומי, במיוחד באקלים הגיאופוליטי הנוכחי."
גב' פטרונה הוסיפה כי בעוד שחוק הבינה המלאכותית של האיחוד האירופי קובע כמה דרישות למערכות בינה מלאכותית, הוא אינו מתייחס למערכות בינה מלאכותית למטרות צבאיות.
"אני חושבת שלמרות החרגה זו, חוק הבינה המלאכותית הוא מאמץ חשוב ליצור מסגרת שהייתה נחוצה מזמן ליישומי בינה מלאכותית, שעשויה להוביל למידה מסוימת של אחידות בתקנים הרלוונטיים בעתיד", העירה. "אחידות זו תהיה חשובה גם לבינה מלאכותית בתחום הצבאי."
נגוין חאן
[מודעה_2]
מקור: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html
תגובה (0)