קבוצת חוקרים בגרמניה הזהירה לאחרונה מפני הסיכון להטיה בעת שימוש בצ'אטבוטים מבוססי בינה מלאכותית לקיצור תוכן מחקר. לאחר ניתוח של 4,900 תקצירים מדעיים שנכתבו על ידי בני אדם, הצוות השתמש במספר מודלים של בינה מלאכותית כדי להשוות כיצד מערכות אלו עיבדו מידע. התוצאות הראו שרוב הצ'אטבוטים עשו את הטעות של הכללת יתר, אפילו כאשר התבקשו לסכם במדויק.
בינה מלאכותית נוטה להטיה בעת סיכום מחקרים מדעיים.
בבדיקות, מודלים של בינה מלאכותית עשו פי חמישה יותר טעויות מאשר מומחים אנושיים כאשר לא הונחו. אפילו כאשר התבקשו במפורש לדיוק, שיעור השגיאות היה גבוה פי שניים מזה של סיכום סטנדרטי. "הכללות לפעמים נראות לא מזיקות, אך הן למעשה משנות את אופי המחקר המקורי", אמר אחד מחברי הצוות. "זוהי הטיה שיטתית".
ראוי לציין שגרסאות חדשות יותר של הצ'אטבוט לא רק שלא הצליחו לפתור את הבעיה, אלא אף החמירו אותה. עם השפה החלקה והמושכת שלהן, סיכומים שנוצרו על ידי בינה מלאכותית יכולים להיראות אמינים בקלות, בעוד שהתוכן בפועל עוות. במקרה אחד, DeepSeek שינתה את הביטוי "בטוח וניתן לביצוע בהצלחה" ל"טיפול בטוח ויעיל" - פרשנות שגויה של מסקנות המחקר המקורי.
בדוגמה נוספת, מודל ה-Llama המליץ על תרופות לסוכרת לצעירים מבלי לציין מינון, תדירות או תופעות לוואי. אם הקורא הוא רופא או איש מקצוע בתחום הבריאות שאינו מאמת את המחקר המקורי, סיכומים כאלה עלולים להוות סיכון ישיר לחולים.
מומחים אומרים שהתופעה נעוצה באופן שבו מודלים של בינה מלאכותית מאומנים. צ'אטבוטים רבים כיום מאומנים על נתונים משניים - כמו חדשות מדע פופולרי - שכבר פושטו. ככל שהבינה המלאכותית ממשיכה לסכם את התוכן המקוצר, הסיכון לעיוות גובר.
מומחים בתחום הבינה המלאכותית בתחום בריאות הנפש אומרים שיש לבנות מחסומים טכניים בשלב מוקדם של הפיתוח והשימוש בבינה מלאכותית.
משתמשים צריכים להיות זהירים מכיוון שצ'אטבוטים יכולים בקלות לעוות תוכן.
ככל שמשתמשים מסתמכים יותר ויותר על צ'אטבוטים מבוססי בינה מלאכותית כדי ללמוד על מדע, טעויות קטנות בפרשנות יכולות להצטבר ולהתפשט במהירות, ולגרום לתפיסות מוטעות נרחבות. בתקופה שבה האמון במדע יורד, סיכון זה הופך מדאיג עוד יותר וראוי לתשומת לב ראויה.
שילוב הבינה המלאכותית במחקר ובהפצת ידע הוא מגמה בלתי הפיכה. עם זאת, מומחים מאשרים כי טכנולוגיה אינה יכולה להחליף את תפקידם של בני האדם בהבנה ובאימות תוכן מדעי. בעת שימוש בצ'אטבוטים בתחומים בעלי סיכון גבוה כמו רפואה, הדיוק צריך להיות בראש סדר העדיפויות, במקום להתמקד רק בחוויית שפה חלקה או במהירות תגובה.
מקור: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










תגובה (0)