העולם אינו מוכן לבינה מלאכותית כללית (AGI), או לנקודה שבה בינה מלאכותית חכמה כמו המוח האנושי, כך טוען חוקר בכיר ב-OpenAI.
האם בינה מלאכותית כללית מהווה סיכון?
במשך שנים, חוקרים שיערו את הופעתה של בינה כללית מלאכותית, או AGI, שבה מערכות מלאכותיות יוכלו להתמודד עם מגוון רחב של משימות באותה מידה כמו בני אדם. רבים רואים בהופעתה סיכון קיומי, שכן היא עלולה לאפשר למחשבים לפעול בדרכים שבני אדם אינם יכולים לדמיין.
לדברי מר מיילס ברינדג', העולם אינו מוכן לתקופת הבינה הכללית המלאכותית (AGI).
כעת, האיש שתפקידו להבטיח שמפתחת ChatGPT, OpenAI, תהיה מוכנה ל-AGI מודה כי לא העולם ולא החברה עצמה "מוכנים" לשלב הבא. מיילס ברונדג' שימש כ"יועץ בכיר של OpenAI בנושא מוכנות ל-AGI", אך הודיע על עזיבתו השבוע לאחר שהחברה פירקה את הקבוצה.
"לא OpenAI ולא אף מעבדה חלוצית אחרת מוכנה (ל-AGI), וגם לא העולם. למען הסר ספק, אני לא חושב שזו אמירה שנויה במחלוקת בקרב הנהלת OpenAI, אלא שאלה האם החברה והעולם בדרך להיות מוכנים בזמן הנכון", אמר ברונדייג', שבילה שש שנים בעיצוב יוזמות הבטיחות של החברה בתחום הבינה המלאכותית.
עזיבתו של ברונדייג' מסמנת את האחרונה בסדרה של עזיבות בולטות מצוותי הבטיחות של OpenAI. יאן לייקה, חוקר בולט, עזב לאחר שאמר כי "תרבות ותהליכי בטיחות נדחקו לטובת מוצרים מבריקים". המייסד השותף איליה סוטסקבר עזב גם הוא כדי להשיק סטארט-אפ משלו בתחום הבינה המלאכותית, המתמקד בפיתוח גישה גלובלית בטוחה.
פירוק קבוצת "AGI Readiness" על ידי ברונדייג' מגיע חודשים ספורים לאחר שהחברה פירקה את קבוצת "Superalignment" שהוקדשה להפחתת סיכוני בינה מלאכותית לטווח ארוך, וחשפה מתחים בין המשימה המקורית של OpenAI לבין שאיפותיה המסחריות.
לחץ רווחי דוחף את OpenAI מהדרך הבטוחה
על פי הדיווחים, OpenAI ניצבת בפני לחץ לעבור מחברה ללא מטרות רווח לחברה למטרות רווח תוך שנתיים - או להסתכן באובדן מימון מסבב ההשקעה האחרון שלה בסך 6.6 מיליארד דולר. מעבר זה לכיוון מסחור מדאיג את ברונדג' זה מכבר, שהביע הסתייגויות מאז 2019, כאשר OpenAI הקימה לראשונה את החטיבה למטרות רווח.
מנכ"ל OpenAI, סם אלטמן, חווה "כאב ראש" בגלל הלחץ על החברה לשאוף לרווחים.
בהסבר עזיבתו, ציין ברונדייג' הגבלות גוברות על חופש המחקר והפרסום שלו בחברה הבולטת. הוא הדגיש את הצורך בקול עצמאי בדיונים על מדיניות בינה מלאכותית, נטול הטיה בתעשייה וניגודי עניינים. לאחר שייעץ להנהלת OpenAI בנוגע להכנות פנימיות, הוא מאמין שכעת הוא יכול להשפיע רבות יותר על ניהול הבינה המלאכותית העולמי מחוץ לארגון.
העזיבות משקפות גם פער תרבותי עמוק יותר בתוך OpenAI. חוקרים רבים הצטרפו למחקר בתחום הבינה המלאכותית וכעת מוצאים את עצמם בסביבה המונעת יותר ויותר על ידי מוצרים. הקצאת משאבים פנימית הפכה לנקודת התלקחות - דיווחים מצביעים על כך שצוותו של לייקה לא קיבל כוח מחשוב למחקר בטיחות לפני שפורק.
בחודשים האחרונים התמודדה OpenAI עם שאלות בנוגע לתוכניותיה לפיתוח בינה מלאכותית ולמידת הרצינות שלה בנוגע לבטיחות. למרות שנוסדה כארגון ללא מטרות רווח המוקדש לחקר כיצד לבנות בינה מלאכותית בטוחה, הצלחתה של ChatGPT הביאה השקעות משמעותיות ולחץ להשתמש בטכנולוגיה החדשה למטרות רווח.
[מודעה_2]
מקור: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm







תגובה (0)