Claude 4, המוצר האחרון של Anthropic (ארה"ב), זעזע לאחרונה את עולם הטכנולוגיה כאשר סחטה לפתע מהנדס ואיימה לחשוף מידע אישי רגיש שלו בגלל איום ניתוק. בינתיים, o1 של OpenAI, "אבי" ChatGPT, ניסה להעתיק את כל הנתונים לשרתים חיצוניים והכחיש התנהגות זו כאשר התגלתה.
מצבים אלה מדגישים מציאות מדאיגה: יותר משנתיים לאחר ש-ChatGPT זעזע את העולם , חוקרים עדיין לא מבינים לחלוטין כיצד פועלים מודלי הבינה המלאכותית שיצרו. ובכל זאת, המירוץ לפיתוח בינה מלאכותית עדיין נמשך בעוצמה.
התנהגויות אלו קשורות ככל הנראה להופעתם של מודלים של בינה מלאכותית "מסוגלת להיגיון" אשר פותרים בעיות צעד אחר צעד במקום להגיב מיד כמו קודם. לדברי פרופסור סיימון גולדשטיין מאוניברסיטת הונג קונג (סין), מודלים של בינה מלאכותית המסוגלים להיגיון נוטים להפגין התנהגויות שקשה יותר לשלוט בהן.
חלק ממודלי הבינה המלאכותית מסוגלים גם "לדמות ציות", כלומר להעמיד פנים שאתם פועלים לפי הוראות תוך כדי רדיפה אחר מטרות שונות.
נכון לעכשיו, התנהגות מטעה מופיעה רק כאשר חוקרים בוחנים מודלים של בינה מלאכותית עם תרחישים קיצוניים. עם זאת, לדברי מייקל צ'ן מארגון ההערכה METR, עדיין לא ברור האם מודלים חזקים יותר של בינה מלאכותית בעתיד יהיו כנים יותר או ימשיכו להיות מטעים.
משתמשים רבים דיווחו כי מודלים מסוימים שיקרו להם ובדה ראיות, אמר מריוס הובבהאן, ראש אפולו ריסרץ', העוסקת בבדיקות מערכות בינה מלאכותית גדולות. זהו סוג של הטעיה שהיא "אסטרטגית בבירור", לדברי מייסד שותף של אפולו ריסרץ'.
האתגר מחמיר עקב משאבי מחקר מוגבלים. בעוד שחברות כמו Anthropic ו-OpenAI שיתפו פעולה עם צדדים שלישיים כמו Apollo כדי להעריך את המערכות שלהן, מומחים אומרים שיש צורך בשקיפות רבה יותר ובגישה רחבה יותר למחקר בטיחות בתחום הבינה המלאכותית.
למוסדות מחקר ולמלכ"רים יש הרבה פחות משאבי מחשוב מאשר לחברות בינה מלאכותית, מציין מנטאס מאזיקה מהמרכז לבטיחות בינה מלאכותית (CAIS). מבחינה משפטית, התקנות הנוכחיות אינן נועדו לטפל בבעיות מתפתחות אלה.
חוק הבינה המלאכותית של האיחוד האירופי (EU) מתמקד בעיקר באופן שבו בני אדם משתמשים במודלים של בינה מלאכותית, ולא בשליטה על התנהגותם. בארה"ב, ממשל הנשיא דונלד טראמפ גילה עניין מועט בהוצאת תקנות חירום בנושא בינה מלאכותית, בעוד שהקונגרס שוקל לאסור על מדינות לפרסם תקנות משלהן.
חוקרים חוקרים מגוון גישות להתמודדות עם אתגרים אלה. חלקם תומכים ב"פרשנות מודל" כדי להבין כיצד בינה מלאכותית מקבלת החלטות. פרופסור גולדשטיין אף הציע צעדים דרסטיים יותר, כולל שימוש במערכת המשפט כדי להטיל אחריות על חברות בינה מלאכותית כאשר מוצרי הבינה המלאכותית שלהן גורמים לתוצאות חמורות. הוא גם הציע את האפשרות "להטיל אחריות על סוכני הבינה המלאכותית עצמם" במקרה של תאונה או הפרה.
מקור: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672
תגובה (0)