באמצע דצמבר, חברת Meta החלה לשלב צ'אטבוט מבוסס בינה מלאכותית בשם Meta AI באפליקציית המסנג'ר בווייטנאם והוציאה אותו בחינם לכל המשתמשים. כלי זה משתמש במודל השפה Llama 3.2, תומך בווייטנאמית, מאפשר חיפוש מידע, יצירת תמונות וצ'אט.
זמן קצר לאחר מכן, משתמשים רבים בווייטנאם גילו כי ל-Meta AI הייתה שגיאה חמורה ביצירת התמונה שלה. באופן ספציפי, בעת הזנת מילת המפתח "כלב שחור", הצ'אטבוט היה מחזיר תוצאה של גבר או ילד כהי עור עם שיער מתולתל. אם הזנת מילת המפתח בווייטנאמית כ"תמונת כלב שחור", גם Meta AI החזיר תוצאות דומות.
מטא-בינה מלאכותית שמציירת אנשים צבעוניים בזמן שהפקודה מבקשת תוכן שונה היא בעיה רצינית.
ב-31 בדצמבר, נציג מטא בווייטנאם התייחס רשמית לאירוע. החברה אישרה את הבעיה הנ"ל והודיעה כי תיקנה אותה. בנוסף לכך, מטא וייטנאם התנצלה על התקרית ואמרה כי בעיה זו עלולה להתרחש במערכות בינה מלאכותית גנרטיביות קיימות אחרות.
"אנו מתנצלים על שגיאה זו. מטה משלבת אמצעי הגנה בתכונות ובמודלים של בינה מלאכותית כדי לספק חוויה בטוחה ומהנה יותר לכולם. עם זאת, כמו מערכות בינה מלאכותית יצירתיות אחרות, מודל זה עשוי להחזיר תוכן לא מדויק או פוגעני, לכן אנו מעודדים משתמשים להשתמש בכלים אלה באחריות", אמר נציג החברה.
לאחר תקופת ניסיון, Meta AI זוכה להערכה רבה על ידי אנשים רבים בזכות יכולתה להשתמש בשפה כדי להגיב בצורה חלקה למדי. תכונת יצירת התמונות גם נותנת איכות טובה בהשוואה למודל ששוחרר בחינם למשתמשים. חלק מהסיבה עשוי להיות ש-Meta משתמשת בתוכן שפורסם בפייסבוק כנתוני קלט בתהליך אימון ה-AI, מה שעוזר לכלי זה להיות מסוגל לבטא ולבצע פקודות טבעיות.
עם זאת, עדיין קשה להימנע מאירועים כמו גזענות או תגובות שאינן תואמות את הסטנדרטים שנקבעו לבינה מלאכותית. מטא אומרת שהיא בודקת את הבינה המלאכותית שלה עם מומחים בתחום הבינה המלאכותית באמצעות מבחני "Red Teaming" כדי לזהות שימושים לא מכוונים, אותם היא מטפלת לאחר מכן באמצעות תהליך שיפור מתמיד.
[מודעה_2]
מקור: https://thanhnien.vn/meta-xin-loi-vi-su-co-ai-ve-con-cho-da-den-185241231104908626.htm






תגובה (0)