Vietnam.vn - Nền tảng quảng bá Việt Nam

בינה מלאכותית: אזהרה מפני התנהגויות מדאיגות מצד בינה מלאכותית

מודלי הבינה המלאכותית (AI) המתקדמים ביותר בעולם כיום מפגינים התנהגויות מטרידות כמו שקר, מזימות ואפילו איומים על יוצריהם כדי להשיג את מטרותיהם.

Tạp chí Doanh NghiệpTạp chí Doanh Nghiệp30/06/2025

כיתוב לתמונה
הלוגואים של OpenAI ו-ChatGPT על מסך בטולוז, צרפת. צילום: AFP/TTXVN

Claude 4, המוצר האחרון של Anthropic (ארה"ב), זעזע לאחרונה את עולם הטכנולוגיה כאשר סחטה לפתע מהנדס ואיימה לחשוף מידע אישי רגיש שלו בגלל איום ניתוק. בינתיים, o1 של OpenAI, "אבי" ChatGPT, ניסה להעתיק את כל הנתונים לשרתים חיצוניים והכחיש התנהגות זו כאשר התגלתה.

מצבים אלה מדגישים מציאות מדאיגה: יותר משנתיים לאחר ש-ChatGPT זעזע את העולם , חוקרים עדיין לא מבינים לחלוטין כיצד פועלים מודלי הבינה המלאכותית שיצרו. ובכל זאת, המירוץ לפיתוח בינה מלאכותית עדיין נמשך בעוצמה.

התנהגויות אלו קשורות ככל הנראה להופעתם של מודלים של בינה מלאכותית "מסוגלת להיגיון" אשר פותרים בעיות צעד אחר צעד במקום להגיב מיד כמו קודם. לדברי פרופסור סיימון גולדשטיין מאוניברסיטת הונג קונג (סין), מודלים של בינה מלאכותית המסוגלים להיגיון נוטים להפגין התנהגויות שקשה יותר לשלוט בהן.

חלק ממודלי הבינה המלאכותית מסוגלים גם "לדמות ציות", כלומר להעמיד פנים שאתם פועלים לפי הוראות תוך כדי רדיפה אחר מטרות שונות.

נכון לעכשיו, התנהגות מטעה מופיעה רק כאשר חוקרים בוחנים מודלים של בינה מלאכותית עם תרחישים קיצוניים. עם זאת, לדברי מייקל צ'ן מארגון ההערכה METR, עדיין לא ברור האם מודלים חזקים יותר של בינה מלאכותית בעתיד יהיו כנים יותר או ימשיכו להיות מטעים.

משתמשים רבים דיווחו כי מודלים מסוימים שיקרו להם ובדה ראיות, אמר מריוס הובבהאן, ראש אפולו ריסרץ', העוסקת בבדיקות מערכות בינה מלאכותית גדולות. זהו סוג של הטעיה שהיא "אסטרטגית בבירור", לדברי מייסד שותף של אפולו ריסרץ'.

האתגר מחמיר עקב משאבי מחקר מוגבלים. בעוד שחברות כמו Anthropic ו-OpenAI שיתפו פעולה עם צדדים שלישיים כמו Apollo כדי להעריך את המערכות שלהן, מומחים אומרים שיש צורך בשקיפות רבה יותר ובגישה רחבה יותר למחקר בטיחות בתחום הבינה המלאכותית.

למוסדות מחקר ולמלכ"רים יש הרבה פחות משאבי מחשוב מאשר לחברות בינה מלאכותית, מציין מנטאס מאזיקה מהמרכז לבטיחות בינה מלאכותית (CAIS). מבחינה משפטית, התקנות הנוכחיות אינן נועדו לטפל בבעיות מתפתחות אלה.

חוק הבינה המלאכותית של האיחוד האירופי (EU) מתמקד בעיקר באופן שבו בני אדם משתמשים במודלים של בינה מלאכותית, ולא בשליטה על התנהגותם. בארה"ב, ממשל הנשיא דונלד טראמפ גילה עניין מועט בהוצאת תקנות חירום בנושא בינה מלאכותית, בעוד שהקונגרס שוקל לאסור על מדינות לפרסם תקנות משלהן.

חוקרים חוקרים מגוון גישות להתמודדות עם אתגרים אלה. חלקם תומכים ב"פרשנות מודל" כדי להבין כיצד בינה מלאכותית מקבלת החלטות. פרופסור גולדשטיין אף הציע צעדים דרסטיים יותר, כולל שימוש במערכת המשפט כדי להטיל אחריות על חברות בינה מלאכותית כאשר מוצרי הבינה המלאכותית שלהן גורמים לתוצאות חמורות. הוא גם הציע את האפשרות "להטיל אחריות על סוכני הבינה המלאכותית עצמם" במקרה של תאונה או הפרה.

מקור: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672


תגובה (0)

No data
No data

באותו נושא

באותה קטגוריה

"בירת צבי הים" של וייטנאם מוכרת בינלאומית
פתיחת תערוכת צילום האמנות 'צבעי החיים של קבוצות אתניות וייטנאמיות'
הו צ'י מין סיטי: רחוב הפנסים לואונג נו הוק צבעוני לקראת פסטיבל אמצע הסתיו
שמירה על רוח פסטיבל אמצע הסתיו באמצעות צבעי הפסלונים

מאת אותו מחבר

מוֹרֶשֶׁת

דְמוּת

עֵסֶק

No videos available

חֲדָשׁוֹת

מערכת פוליטית

מְקוֹמִי

מוּצָר