למשקיפים דעות שונות בנוגע להסכם בין ארה"ב לסין בנוגע ליישום בינה מלאכותית (AI) בצבא .
| למשקיפים יש דעות שונות בנוגע להסכם בין ארה"ב לסין בנוגע ליישום בינה מלאכותית (AI) בצבא. (מקור: Asia Times) |
בעקבות הפגישה בין נשיא ארה"ב ג'ו ביידן לנשיא סין שי ג'ינפינג ב-16 בנובמבר (שעון וייטנאם) בשולי פסגת שיתוף הפעולה הכלכלי של אסיה-פסיפיק (APEC) 2023 בסן פרנסיסקו, קליפורניה, שתי המדינות השיגו מספר תוצאות חשובות, ביניהן הסכמה לחידוש הקשר הצבאי, שיתוף פעולה במאבק בסחר בסמים (במיוחד פנטניל), ודיון בסיכונים ובאמצעים לניהול בטיחות הבינה המלאכותית (AI).
במסיבת עיתונאים לאחר פסגת ארה"ב-סין, הצהיר נשיא ארה"ב ג'ו ביידן: "נאסוף מומחים כדי לדון בסיכונים ובסוגיות הבטיחות הקשורות ליישום בינה מלאכותית. כשאני עובד עם מנהיגי עולם , כולם מעלים את נושא השפעת הבינה המלאכותית. אלו צעדים קונקרטיים בכיוון הנכון כדי לקבוע מה נחוץ, את רמת הסכנה ומה מקובל."
ממשל ביידן פרסם לאחרונה את הצו הנשיאותי הראשון שלו בנושא בינה מלאכותית וקידם בתוקף סטנדרטים עולמיים לשימוש בבינה מלאכותית בצבא. סין גם הראתה סימני נכונות לדון בנושא, במיוחד בנוגע לאיסור על השימוש בבינה מלאכותית במערכות הפיקוד והבקרה של נשק גרעיני (C2) שלה.
למרות שהנשיא ביידן והודעת הבית הלבן לא ציינו במפורש את הקשר בין בינה מלאכותית לנשק גרעיני, מומחים האמינו שזהו נושא מרכזי לדיון בין ארה"ב לסין לפני הפגישה.
בוני גלייזר, העומדת בראש תוכנית הודו-פסיפיק בקרן מרשל הגרמנית, הגיבה: "סין מעוניינת להשתתף בדיונים לקביעת כללים ותקנים לבינה מלאכותית, ועלינו לקבל זאת בברכה".
זו לא רק בעיה של ארה"ב וסין.
לאחר ש- SCMP , בצטטו מקורות אנונימיים, דיווחה כי "נשיא ארה"ב ג'ו ביידן ונשיא סין שי ג'ינפינג מוכנים להתחייב לאסור את השימוש בבינה מלאכותית במערכות נשק אוטונומיות, כולל השימוש בה בשליטה על רחפנים (כלי טיס בלתי מאוישים) ובשליטה ופריסת ראשי נפץ גרעיניים", דעת הקהל עוררה תקוות להצהרה משותפת בין ארה"ב לסין בנושא זה.
עם זאת, אין אינדיקציות לכך שסין או ארה"ב יקבלו הגבלות מחייבות על חופש הפעולה שלהן בתחום הבינה המלאכותית.
זה לא רק עניין של ארה"ב וסין. מאז פברואר 2023, לאחר שארה"ב פרסמה את "הצהרת המדיניות שלה בנושא שימוש אחראי בבינה מלאכותית עבור הצבא", היא מנהלת קמפיין לבניית קונצנזוס עולמי על פיתוח ושימוש בבינה מלאכותית צבאית, החלה לא רק על כלי נשק אוטונומיים כמו כטב"מים, אלא גם על יישומים המשתמשים באלגוריתמים לניתוח מודיעין או תוכנות לוגיסטיקה.
מטרת ארה"ב היא להתמודד עם קריאות מצד פעילי שלום רבים ומדינות לא מזדהות לאיסור מחייב על "רובוטים קטלניים", ובכך ליצור הזדמנות עבור ארה"ב ובנות בריתה להשתמש בבינה מלאכותית "באחריות", טכנולוגיה המתפתחת במהירות עם יישומים נרחבים.
כמו כן, בפברואר 2023, ביצע הפנטגון רפורמה מקיפה במדיניותו בנוגע לבינה מלאכותית צבאית ומערכות אוטונומיות. בעקבות זאת, פרסמה השגרירה בוני דניס ג'נקינס, תת-מזכירת המדינה לבקרת נשק וביטחון בינלאומי, "הצהרה פוליטית בנושא שימוש אחראי בבינה מלאכותית ואוטונומיה בצבא" בפסגת הבינה המלאכותית האחראית בצבא (REAIM) בהאג בפברואר 2023.
מטרת הצהרה זו היא לתאר את הגישה האמריקאית, שמטרתה להשיג קונצנזוס בינלאומי, לפיה הצבא יוכל לשלב באחריות בינה מלאכותית ואוטונומיה בפעולות צבאיות.
מאז, מדינות רבות אחרות הביעו את תמיכתן בארה"ב, כולל בעלות ברית מרכזיות כמו אוסטרליה, בריטניה, צרפת, גרמניה ודרום קוריאה, כמו גם מדינות כמו הונגריה, לוב וטורקיה. ב-14 בנובמבר, סוכנות הידיעות Yonhap דיווחה כי ארה"ב ו-45 מדינות נוספות פרסמו הצהרה משותפת המדגישה את השימוש "האחראי" בבינה מלאכותית בצבא.
בעקבות הפגישה בין שני המנהיגים התגלו כמה דעות סותרות, כולל הערכות של ההסכם בין ארה"ב לסין בנוגע ליישום בינה מלאכותית בצבא. בעוד שחלק טענו שזה הכרחי, אחרים האמינו שוושינגטון מוותרת על יתרונה. כריסטופר אלכסנדר, מנהל הניתוח בקבוצת פיוניר דיפלומנט, הטיל ספק בצורך בהסכם זה, וציין כי ארה"ב תוותר על היתרון האסטרטגי הנוכחי שלה.
"זו החלטה גרועה. סין מפגרת אחרי ארה"ב בטכנולוגיית בינה מלאכותית. לכן, המשך העסקה הזו פירושו שממשל ביידן מוותר על היתרון האסטרטגי שלו", אמר אלכסנדר.
הפרשן סמואל מנגולד-לנט הטיל ספק גם הוא האם סין תכבד הסכם כזה, והצביע על חוסר עמידתה בהסכם פריז לאקלים. בינתיים, פיל סיגל, מייסד מרכז CAPTRS, טען כי הסכם כזה הכרחי, אם כי ציין כי יש לכלול גם מעצמות גדולות כמו רוסיה.
מה בייג'ינג רוצה?
באופן לא מפתיע, סין טרם קיבלה את הגישה האמריקאית. המומחה טונג ז'או הצהיר כי "האסטרטגיה הדיפלומטית של המדינה נותרה ממוקדת בתחרות ובאיזון עם מאמצי ארה"ב לקבוע סטנדרטים עתידיים לממשל בינה מלאכותית, במיוחד במגזר הצבאי".
יתר על כן, לדברי מומחה זה, בניהול טכנולוגיות צבאיות חדשות, סין מתנגדת לעתים קרובות לתמיכה בפרקטיקות "אחראיות", בטענה שמדובר ב"מושג פוליטי חסר בהירות ואובייקטיביות".
קתרין קונולי, חוקרת בארגון Stop Killer Robots, ארגון בינלאומי המאגד ארגונים לא ממשלתיים המבקשים לאסור נשק קטלני אוטונומי, אמרה: "ברור שאנו מצפים שארצות הברית תתקדם לכיוון תמיכה ברורה וחזקה בקביעת מסגרות משפטיות להגבלת מערכות נשק אוטונומיות. אנו סבורים שהנחיות פוליטיות והצהרות אינן מספיקות, וגם רוב המדינות אינן מספיקות."
לאחרונה, קבוצת המומחים הממשלתיים המובילים (GGE) בנושא נשק אוטומטי קיימה דיונים חוזרים ונשנים בז'נבה בנושאים קשורים, במטרה להציע פיתוח ויישום של חוק בנושא נשק מסוג זה, בדומה לזה שהוחל בעבר על נשק כימי. עם זאת, עד כה, מאמצים אלה לא צלחו עקב חוסר הסכמה בין המדינות המשתתפות.
לכן, תנועת האנטי-בינה מלאכותית הציעה טיוטת החלטה לעצרת הכללית של האו"ם בניו יורק. במקום לקרוא לאיסור מיידי - שכמעט בוודאות ייכשל - ההחלטה, שהוצעה על ידי אוסטריה, פשוט "מבקשת ממזכ"ל האו"ם לבקש את דעות המדינות החברות".
כתוצאה מכך, ב-1 בנובמבר 2023, אימצה העצרת הכללית של האו"ם את החלטה L.56, ההחלטה הראשונה בנושא נשק אוטונומי, אשר הדגישה את "הצורך הדחוף של הקהילה הבינלאומית להתמודד עם האתגרים והחששות שמציבות מערכות נשק אוטונומיות". עסקים, חוקרים אקדמיים וארגונים לא ממשלתיים הגישו דוחות והעלו את הנושא רשמית לסדר היום של האו"ם.
החלטה L.56 התקבלה ברוב של 164 קולות בעד, 5 נגד ו-8 נמנעים. סין הייתה המדינה היחידה שנמנעה.
החוקרת קתרין קונולי סבורה שהעובדה שארצות הברית ורוב המדינות האחרות הצביעו בעד היא סימן חיובי, אך מצער שסין נמנעה.
עם זאת, בנוגע להחלטה זו, ישנם כמה היבטים שסין אינה מסכימה איתם בנוגע למאפייניה ולהגדרותיה. למעשה, בייג'ינג נוטה להשתמש בהגדרה אחת וצרה של "נשק אוטונומי", כזו אשר מתחשבת רק במערכות אשר לאחר פריסתן הן "ללא פיקוח ובלתי ניתנות לעצירה". דבר זה מוביל את סין לטעון לתמיכה באיסור, בעוד שבמציאות הוא אינו כולל את רוב המערכות האוטונומיות שצבאות מדינות רבות חוקרים ומפתחים כיום.
החוקר ג'יימס לואיס טוען כי בעוד שהחלטות העצרת הכללית של האו"ם אינן מחייבות, אם ארה"ב תוכל לגייס מדינות אחרות כמו בריטניה, צרפת ואולי גם את האיחוד האירופי למאמץ מקיף, ניתן יהיה להתקדם בקביעת כללים בתחום זה.
עד כה, דיונים בינלאומיים על "הצהרה פוליטית" לא מחייבת אילצו למעשה את וושינגטון להנמיך את שאיפותיה על ידי הסרת סעיף הנוגע למתן יכולת לבינה מלאכותית לשלוט בנשק גרעיני.
[מודעה_2]
מָקוֹר







תגובה (0)