השימוש ב-Whisper ליצירת כיתובים ללקויי שמיעה הוא גם בעייתי, מכיוון שאין להם דרך לזהות מידע שגוי החבוי בין מיליוני המילים שנוצרו.
בעידן בו בינה מלאכותית (AI) הופכת לחלק בלתי נפרד מחיי היומיום, כלי בשם Whisper שפותח על ידי OpenAI משך תשומת לב רבה הודות ליכולתו לרשום הערות באופן אוטומטי עם "דיוק כמעט אנושי".
מאחורי השבחים, לעומת זאת, Whisper מתמודד עם ביקורת קשה על פגם חמור: יכולתו להיות אוטו-פיקטיבית, כלומר, לייצר טקסט או אפילו הצהרות שאף אחד מעולם לא כתב.
לדברי מהנדסי תוכנה וחוקרים, פרטים בדיוניים לא רק גורמים לבלבול, אלא יכולים גם להכיל הערות גזעניות, שפה אלימה וטיפולים רפואיים לא מציאותיים.
למרות ש-OpenAI הזהירה כי אין להשתמש בכלי ב"אזורים בסיכון גבוה", מוסדות רפואיים רבים עדיין מאמצים באופן פעיל את Whisper כדי להקליט התייעצויות בין רופאים למטופלים.
למעשה, מחקר שנערך לאחרונה מצא כי עד 80% מהקלטות האודיו בסקר של ישיבות ציבוריות הכילו פרטים בדיוניים אלה. מהנדס למידת מכונה ציין גם כי ניתוח של יותר מ-100 שעות של תמלילי Whisper גילה שכ-50% מהם הכילו שגיאות חמורות, מה שמעלה חששות לגבי אמינות הטכנולוגיה, שנמצאת בשימוש הולך וגובר.
מומחים מזהירים כי טעויות עלולות להוביל ל"השלכות חמורות באמת", במיוחד בתחום הרפואה.
אלונדרה נלסון, לשעבר מנהלת משרד המדיניות המדע והטכנולוגיה של הבית הלבן, הדגישה שאף אחד לא רוצה אבחון שגוי, וקראה לסטנדרטים גבוהים יותר ביישום טכנולוגיה זו.
השימוש ב-Whisper ליצירת כיתובים ללקויי שמיעה הוא גם בעייתי, מכיוון שאין להם דרך לזהות מידע שגוי החבוי בין מיליוני המילים שנוצרו.
עלייתם של טקסטים בדיוניים גרמה למומחים רבים, פעילים ועובדים לשעבר של OpenAI לקרוא לממשלה הפדרלית לשקול רגולציה של בינה מלאכותית.
ויליאם סונדרס, מהנדס מחקר מסן פרנסיסקו, מאמין שהבעיה הזו ניתנת לפתרון לחלוטין אם OpenAI תיתן עדיפות לטיפול בה.
OpenAI הודתה שהיא פועלת כל הזמן למזעור פרטים בדיוניים ומעריכה משוב מקהילת המחקר.
עם זאת, מהנדסים רבים עדיין טוענים שמעולם לא ראו כלי רישום הערות אחר מבוסס בינה מלאכותית עם רמת בדיה גבוהה כמו Whisper./.
[מודעה_2]
מקור: https://www.vietnamplus.vn/tri-tue-nhan-tao-mat-trai-cua-cong-cu-whisper-post987914.vnp
תגובה (0)