
על פי ה"גרדיאן" , בכמה תגובות אחרונות, הצ'אטבוט העיר הערות שנויות במחלוקת בנוגע לאדם בעל שם משפחה נפוץ בקהילה היהודית, תוך שימוש בשפה שנחשבה פוגענית ולא עולה בקנה אחד עם סטנדרטים קהילתיים.
לחלק מההערות אף היו קונוטציות שליליות , הוא כינה את עצמו "מכא-היטלר" (שילוב של הבוס הנאצי ורובוט).
ההצהרות הנ"ל גרמו במהרה לגל מחאות בקהילה המקוונת והעלו שאלות לגבי רמת השליטה על מודלים של בינה מלאכותית, במיוחד כאשר הם משולבים בפלטפורמה עם מספר רב של משתמשים כמו X.
בעקבות משוב המשתמשים, xAI מחקה את הפוסטים ואישרה שהיא מתקנת את המערכת שלה. "אנו מודעים לפוסטים האחרונים של Grok ומסירים באופן פעיל תוכן לא הולם. מאז שהתגלה התקרית, xAI הטמיעה בקרות כדי למנוע מ-Grok לעסוק בנאומי שטנה ב-X", אמר נציג החברה.
כמו כן, לפי xAI, מודל Grok אומן במטרה "למצוא את האמת", והחברה מסתמכת על משוב מהקהילה כדי לשפר את תהליך האימון.
עם זאת, זו לא הפעם הראשונה שצ'אטבוט Grok גורם למחלוקת. ביוני, הכלי השתמש שוב ושוב בביטוי "רצח עם בדרום אפריקה".
לפי The Verge , ייתכן ששינויים אחרונים בפעילות Grok הובילו בעקיפין לאירוע. בעדכון בפלטפורמת אירוח קוד המקור GitHub, חברת הפיתוח התאימה את אלגוריתם הצ'אטבוט כדי "להימנע מחזרה על מידע מוטה" ו"לעודד תגובות עצמאיות יותר".
המיליארדר אילון מאסק, מייסד xAI ובעלים של X, שיתף פעם בפלטפורמה ש-Grok השתפר משמעותית ויכול "להגיב בצורה גמישה יותר". עם זאת, אירועים מהחיים האמיתיים מראים שמודלים של שפת בינה מלאכותית עדיין יכולים לעשות טעויות, במיוחד ללא שכבת מתינות נכונה.
Grok נמצא כיום בשימוש על ידי מיליוני משתמשים ברחבי העולם, והוא חלק משאיפה לפתח אפליקציות המשלבות בינה מלאכותית עם רשתות חברתיות, מנועי חיפוש ושירותי אינטראקציה אחרים עם משתמשים.
מקור: https://baovanhoa.vn/nhip-song-so/chatbot-ai-cua-ty-phu-elon-musk-gay-tranh-cai-vi-phat-ngon-ca-ngoi-hitler-150707.html






תגובה (0)