צוות מחקר בתחום הבינה המלאכותית (AI) באוניברסיטה הפוליטכנית של ולנסיה, ספרד, מצא שככל שמודלים גדולים של שפה הופכים גדולים ומתוחכמים יותר, הם נוטים פחות להודות בפני משתמשים שהם לא יודעים את התשובה.
| ככל שהבינה המלאכותית חכמה יותר, כך פחות סביר שהיא תודה בפני המשתמשים שהיא לא יודעת את התשובה. (איור של בינה מלאכותית) |
במחקר שפורסם בכתב העת Nature , הצוות בדק את הגרסאות האחרונות של שלושה מבוטי הצ'אט הבוטים הפופולריים ביותר בתחום הבינה המלאכותית על סמך יכולת התגובה, הדיוק ויכולת המשתמשים לזהות תשובות שגויות.
כדי לבחון את הדיוק של שלושת קורסי ה-LLM הפופולריים ביותר, BLOOM, LLaMA ו-GPT, הצוות שאל אלפי שאלות והשווה את התשובות שהתקבלו לגרסאות קודמות של אותן שאלות. הם גם גיוון את הנושאים, כולל מתמטיקה, מדעים , בעיות מילוליות וגיאוגרפיה, כמו גם את היכולת ליצור טקסט או לבצע פעולות כמו מיון רשימות.
המחקר גילה כמה מגמות בולטות. הדיוק הכללי של צ'אטבוטים השתפר עם כל גרסה חדשה, אך עדיין ירד כשעמדו בפני שאלות קשות יותר. באופן מפתיע, ככל שתואר שני במשפטים (LLMs) הפכו לגדולים ומתוחכמים יותר, הם נטו להיות פחות פתוחים לגבי יכולתם לענות נכון.
בגרסאות קודמות, רוב חוקרי ה-LLM היו מודיעים למשתמשים בגלוי כאשר לא הצליחו למצוא תשובה או כאשר היו זקוקים למידע נוסף. לעומת זאת, גרסאות חדשות יותר נוטות לנחש יותר, מה שמביא ליותר תשובות בסך הכל, נכונות ושגויות כאחד. באופן מדאיג יותר, המחקר מצא שכל חוקרי ה-LLM עדיין נתנו מדי פעם תשובות שגויות, אפילו לשאלות קלות, דבר המצביע על כך שאמינותם נותרה בעיה הדורשת שיפור.
ממצאים אלה מדגישים פרדוקס באבולוציה של הבינה המלאכותית: בעוד שמודלים הופכים חזקים יותר, הם עשויים גם להיות פחות שקופים לגבי מגבלותיהם.
זה מציב אתגרים חדשים בשימוש ובאמון במערכות בינה מלאכותית, ודורש ממשתמשים להיות זהירים יותר וממפתחים להתמקד בשיפור לא רק הדיוק אלא גם "המודעות העצמית" של המודלים.
[מודעה_2]
מקור: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html






תגובה (0)