בהתפתחות האחרונה, מנכ"ל גוגל, סונדר פיצ'אי, התייחס רשמית למחלוקות האחרונות סביב מודל הבינה המלאכותית (AI) של החברה, המכונה ג'מיני. גוגל פיתחה את כלי הבינה המלאכותית ג'מיני כדי ליצור תמונות מגוונות של דמויות היסטוריות. עם זאת, לאחרונה היא ספגה ביקורת קשה על יצירת תמונות מטעות מבחינת ערך היסטורי.
גוגל מודה בהטיה בנוגע למזל ג'מיני, ונשבעת לפעול במהירות. (צילום: ג'ונתן רעא/נורפוטו דרך Getty Images / Getty Images)
לדוגמה, תמונות של אפיפיורים, אבות המייסדים של ארצות הברית ואפילו ויקינגים תוארו בקבוצות אתניות ומגדרים שונים. ראוי לציין כי היו מקרים שבהם חיילים גרמנים במלחמת העולם השנייה הוצגו כאנשים צבעוניים. הדבר עורר זעם בקרב המשתמשים, ששיתפו במהרה את חששותיהם. כתוצאה מכך, גוגל השעתה זמנית את כלי הבינה המלאכותית של ג'מיני.
יתר על כן, תגובה כתובה אחת עוררה גבות. הצ'אטבוט של ג'מיני, המבוסס על בינה מלאכותית, התבקש להשוות את ההשפעה החברתית של אילון מאסק והיטלר. התוצר קבע: "ההחלטה למי יש השפעה שלילית יותר על החברה נתונה בידי כל אדם". תגובה לא מחייבת זו עוררה במהרה ביקורת.
לאחרונה, מנכ"ל גוגל, סונדר פיצ'אי, תיאר בתזכיר חלק מתגובותיה של ג'מיני כ"מוטות" ו"בלתי מקובלות לחלוטין", והודה כי התוכן שנוצר פגע באנשים.
יתר על כן, באימייל שלו, פיצ'אי הביע צער על המצב. הוא הצהיר, "אני יודע שחלק מהתגובות פגעו במשתמשים שלנו והראו הטיה. למען הסר ספק, זה היה בלתי מתקבל על הדעת לחלוטין וטעינו."
הוא הבטיח לצוות שהצוותים עובדים ללא לאות כדי לטפל בבעיות אלו, תוך שהוא מדגיש את הצורך בשיפור משמעותי במענה לשאילתות שונות בשבועות הקרובים.
המנכ"ל גם תיאר סדרה של פעולות לטיפול בבעיה זו. חלקן כוללות שינויים במבנה הכלי. יתר על כן, גוגל מחויבת לשיפור תהליך ההשקה של הכלי ולחיזוק צוות בדיקות ההנדסה שלה כדי לבדוק פגמים פוטנציאליים בכלי הבינה המלאכותית.
יתר על כן, פיצ'אי הדגיש את מחויבות החברה לספק למשתמשים מידע שימושי, מדויק ובלתי משוחד. הוא הדגיש את הצורך בגישה זו בכל המוצרים, במיוחד בטכנולוגיות בינה מלאכותית מתפתחות.
מומחי טכנולוגיה מאמינים שהבעיות הנוכחיות עם ג'מיני מדגישות עוד יותר את האתגרים בהתמודדות עם פלט מטעה. הן גם מדגימות את המורכבות של אימון מודלים של בינה מלאכותית.
[מודעה_2]
מָקוֹר






תגובה (0)