
תוכניות בינה מלאכותית השיגו פריצות דרך רבות בשנים האחרונות - צילום: רויטרס
איננו יכולים להתבונן בתהליך כולו, מנתוני הקלט ועד לתוצאות הפלט של מודלים של שפה גדולה (LLMs).
כדי להקל על ההבנה, מדענים השתמשו במונחים נפוצים כמו "היגיון" כדי לתאר כיצד תוכניות אלה פועלות. הם גם אומרים שהתוכניות יכולות "לחשוב", "להסיק" ו"להבין" את האופן שבו בני אדם עושים זאת.
הגזמה ביכולות של הבינה המלאכותית.
בשנתיים האחרונות, מנהלים רבים בתחום הבינה המלאכותית השתמשו בשפה מוגזמת כדי לשבח הישגים טכניים פשוטים, כך על פי ZDNET ב-6 בספטמבר.
בספטמבר 2024, OpenAI הכריזה כי מודל החשיבה o1 "משתמש בשרשרת של הסקה בעת פתרון בעיות, בדומה לאופן שבו בני אדם חושבים במשך זמן רב כאשר הם מתמודדים עם שאלות קשות".
עם זאת, מדעני בינה מלאכותית חולקים על כך. הם טוענים כי לבינה מלאכותית אין אינטליגנציה דמוית אנושית.
מחקר המבוסס על מסד הנתונים arXiv על ידי צוות מחברים מאוניברסיטת אריזונה סטייט (ארה"ב) בדק את יכולת החשיבה של בינה מלאכותית באמצעות ניסוי פשוט.
התוצאות הראו ש"הסקה באמצעות שרשרת מחשבה היא אשליה שברירית", לא מנגנון לוגי אמיתי, אלא רק צורה מתוחכמת של התאמת תבניות.
המונח "שרשרת מחשבה" (CoT) מאפשר לבינה מלאכותית לא רק להגיע לתשובה סופית, אלא גם להציג כל שלב בהיגיון הלוגי, כמו במודלים GPT-o1 או DeepSeek V1.

איור של מודל השפה GPT-2 מאת OpenAI - צילום: ECHOCRAFTAI
תבדקו מה בינה מלאכותית באמת עושה.
צוות המחקר ציין כי ניתוחים בקנה מידה גדול הראו כי תואר ראשון במשפטים נוטה להסתמך יותר על סמנטיקה ורמזים שטחיים מאשר על תהליכי חשיבה לוגית.
"LLM בונה שרשראות לוגיות שטחיות המבוססות על אסוציאציות קלט מלומדות, ולעתים קרובות נכשלת במשימות החורגות משיטות חשיבה קונבנציונליות או מדפוסים מוכרים", מסביר הצוות.
כדי לבחון את ההשערה ש-LLM רק התאמת דפוסים ולא באמת מסיק מסקנות, הצוות אימן את GPT-2, מודל קוד פתוח שפורסם על ידי OpenAI בשנת 2019.
המודל אומן בתחילה על משימות פשוטות מאוד על 26 אותיות באנגלית, כמו היפוך אותיות מסוימות, למשל הפיכת "APPLE" ל-"EAPPL". לאחר מכן, הצוות שינה את המשימה וביקש מ-GPT-2 לטפל בה.
התוצאות הראו שעבור משימות שלא נכללו בנתוני האימון, GPT-2 לא הצליח לפתור אותן במדויק באמצעות CoT.
במקום זאת, המודל מנסה ליישם משימות נלמדות בצורה מדויקת ככל האפשר. לכן, "ההנמקה" שלו אולי נשמעת הגיונית, אך התוצאות לרוב שגויות.
הקבוצה הגיעה למסקנה כי אין להסתמך יותר מדי או לבטוח בעיוורון בתשובותיו של המומחה למשפטים, שכן הן עלולות לייצר "שטויות שנשמעות משכנעות מאוד".
הם גם הדגישו את הצורך להבין את טבעה האמיתי של הבינה המלאכותית, להימנע מהייפ ולהפסיק לקדם את הטענה שלבינה המלאכותית יש את היכולת לחשוב כמו בני אדם.
מקור: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






תגובה (0)