על פי מקורות ב- Tech.co , בזמן שהמחלוקת סביב פיטוריו של המנכ"ל סם אלטמן וחזרתו לאחר מכן ל-OpenAI התפתחה, אחת השמועות שהופצו עסקה במכתב ששלחו חוקרי החברה לדירקטוריון, ובו הבעת חששות לגבי מודל הסופר-אינטליגנציה של בינה מלאכותית המתפתח שעלול להוות איום על האנושות.
(תמונה להמחשה)
פרויקט Q*
המודל, המכונה באופן פנימי פרויקט Q* (מבוטא Q-star), נחשב כבעל פוטנציאל לפריצת דרך משמעותית במרדף של OpenAI אחר בינה מלאכותית כללית (AGI) - ענף אוטונומי ביותר של אינטליגנציית-על המסוגל ללמוד מצטבר ולעלות בביצועים טובים יותר מבני אדם ברוב המשימות.
על פי מקורות המקורבים לעניין, Q* עשוי לסמן קפיצת מדרגה משמעותית בתחום הבינה המלאכותית על ידי שיפור קיצוני של יכולות החשיבה של בינה מלאכותית וקירוב OpenAI לפריצת דרך משמעותית בפיתוח AGI.
בניגוד למודלים הנוכחיים של בינה מלאכותית, המתמקדים ביצירת תגובות המבוססות על מידע שנלמד מראש, AGI היא מערכת אוטונומית שיכולה ליישם "היגיון" על החלטות, מה שנותן לה את היכולת לפתור בעיות ברמה האנושית.
למרות ש-AGI עדיין לא מומש במלואה, מומחים רבים מאמינים שלטכנולוגיה זו יהיה גם פוטנציאל ללמידה מצטברת, מאפיין נוסף המאפשר לבני אדם לשפר את יכולותיהם.
מקורות מסוימים מצביעים על כך ש-Q* – פרויקט של OpenAI – הצליח להדגים את התכונות הנ"ל בעת פתרון בעיות. יתר על כן, הודות לכוח המחשוב העצום של המודל, Q* הצליח להתעלות על תלמידי בית ספר יסודי, והציג כישורי חשיבה ויכולות קוגניטיביות גבוהות בהרבה מאלה של טכנולוגיית הבינה המלאכותית הנוכחית.
לא ברור כמה זמן Q* נמצא בפיתוח ומהם היישומים הפוטנציאליים שלו, אך OpenAI הודיעה לעובדים ולחברי הדירקטוריון על הפרויקט לפני שהתרחשה מחלוקת כוח האדם.
חששות אתיים
בעוד שמנכ"ל OpenAI, סם אלטמן, בטוח שטכנולוגיית AGI תניע חדשנות, כמה חוקרים מיהרו להצביע על הסכנות הפוטנציאליות של הפרויקט.
במכתב לדירקטוריון, הזהירו החוקרים מפני הסכנה הפוטנציאלית שאלגוריתם רב עוצמה זה מציב לאנושות. החששות האתיים הספציפיים בנוגע לבינה מלאכותית שהוצגו במכתב לא נחשפו, אך האזהרות הספיקו כדי להצדיק את החלטת הדירקטוריון לפטר את אלטמן.
בינתיים, הסיבה הראשונית שניתנה לפיטוריו של אלטמן הייתה שלמנכ"ל היו "כישורי תקשורת גרועים". זמן קצר לאחר מכן, הוא מצא תפקיד חדש במיקרוסופט. פעולה זו הובילה 700 מתוך 770 עובדי OpenAI לאיים לעשות את אותו הדבר אם המנכ"ל לא יוחזר לתפקידו.
כאשר החברה הייתה על סף קריסה, מועצת המנהלים של OpenAI נאלצה למנות מחדש את אלטמן לתפקיד הבכיר – מה שהוביל גם לשינוי משמעותי בצוות הניהולי של החברה והדגיש פילוגים עמוקים בתוך הנהלת החברה.
כעת, כשאלטמן חזר לתפקיד וסביר להניח שפרויקט Q* יקבל שוב אור ירוק, זה מעלה שאלות חדשות.
עד כמה פרויקט Q* ריאליסטי?
למרות שהתקופות הסוערות ב-OpenAI הביאו את מושג ה-AGI לאור הזרקורים, זו לא הפעם הראשונה שאלטמן מזכיר את הטכנולוגיה.
בחודש ספטמבר, יזם עמק הסיליקון מצא את עצמו בצרות לאחר שהשווה את AGI ל"בן אדם ממוצע שאתה יכול לשכור כעמית לעבודה". הוא המשיך וחזר על הערות שאמר בשנה שעברה על כך שהבינה המלאכותית הזו יכולה "לעשות כל מה שאתה יכול עם עמית לעבודה מרחוק", כולל ללמוד להיות רופא ומתכנת טוב.
בעוד שהשוואת AGI לאינטליגנציה של "אדם ממוצע" אינה דבר חדש, השימוש של אלטמן בביטוי נחשב "מגעיל" על ידי מומחי אתיקה של בינה מלאכותית ופרופסור הנרי שבלין מאוניברסיטת קיימברידג', ככל שהחששות סביב השפעתה של בינה מלאכותית על ביטחון תעסוקתי גוברים.
פריצות הדרך הפוטנציאליות בתחום AGI מהוות גם אזעקה עבור חוקרים אחרים - שהטכנולוגיה מתפתחת מהר יותר ממה שאנשים יכולים להבין את השפעתה במלואה.
OpenAI מאמינה שהתוצאות החיוביות של AGI הופכות את "שדה המוקשים" המסוכן הזה לכדאי לנסות. עם זאת, ככל שהחברה ממשיכה לדחוף בכיוון זה, רבים חוששים שאלטמן מעדיף הצלחה מסחרית על פני טובת המשתמשים והחברה.
Phuong Anh (מקור: Tech.co, The Guardian)
[מודעה_2]
מָקוֹר






תגובה (0)