
תוכניות בינה מלאכותית השיגו הצלחות רבות בשנים האחרונות - צילום: רויטרס
איננו יכולים להתבונן בתהליך כולו, מנתוני הקלט ועד לתוצאות הפלט של מודלים של שפה גדולה (LLMs).
כדי להקל על ההבנה, מדענים השתמשו במונחים נפוצים כמו "היגיון" כדי לתאר כיצד תוכניות אלה פועלות. הם גם אומרים שהתוכניות יכולות "לחשוב", "להסיק" ו"להבין" את האופן שבו בני אדם עושים זאת.
הגזמה ביכולות של בינה מלאכותית
בשנתיים האחרונות, מנהלים רבים בתחום הבינה המלאכותית השתמשו בהגזמה כדי להגזים בהישגים טכניים פשוטים, כך על פי ZDNET ב-6 בספטמבר.
בספטמבר 2024, OpenAI הכריזה שמודל החשיבה o1 "משתמש בשרשרת של הסקה בעת פתרון בעיות, בדומה לאופן שבו בני אדם חושבים במשך זמן רב כאשר הם מתמודדים עם שאלות קשות".
עם זאת, מדעני בינה מלאכותית מתנגדים. הם מאמינים שלבינה מלאכותית אין אינטליגנציה אנושית.
מחקר שנערך על מסד הנתונים arXiv על ידי קבוצת מחברים מאוניברסיטת אריזונה סטייט (ארה"ב) אימת את יכולת החשיבה של בינה מלאכותית באמצעות ניסוי פשוט.
התוצאות הראו ש"הסקה באמצעות שרשרת מחשבה היא אשליה שברירית", לא מנגנון לוגי אמיתי, אלא רק צורה מתוחכמת של התאמת תבניות.
המונח "שרשרת מחשבה" (CoT) מאפשר לבינה מלאכותית לא רק להגיע לתשובה סופית, אלא גם להציג כל שלב בהיגיון הלוגי, כמו במודלים GPT-o1 או DeepSeek V1.

איור של מודל השפה GPT-2 של OpenAI - צילום: ECHOCRAFTAI
בדקו מה באמת עושה בינה מלאכותית
ניתוחים בקנה מידה גדול מראים כי תואר ראשון במשפטים נוטה להסתמך על סמנטיקה ורמזים שטחיים ולא על תהליכי חשיבה לוגיים, אומרים החוקרים.
"LLM בונה שרשראות לוגיות שטחיות המבוססות על אסוציאציות קלט מלומדות, ולעתים קרובות נכשלת במשימות החורגות משיטות חשיבה קונבנציונליות או מדפוסים מוכרים", מסביר הצוות.
כדי לבחון את ההשערה ש-LLM רק התאמת דפוסים ולא באמת מסיק מסקנות, הצוות אימן את GPT-2, מודל קוד פתוח שפורסם על ידי OpenAI בשנת 2019.
המודל אומן בתחילה על משימות פשוטות מאוד על 26 אותיות באנגלית, כמו היפוך אותיות מסוימות, למשל הפיכת "APPLE" ל-"EAPPL". לאחר מכן, הצוות שינה את המשימה וביקש מ-GPT-2 לטפל בה.
התוצאות מראות שעבור משימות שלא כלולות בנתוני האימון, GPT-2 אינו יכול לפתור אותן במדויק באמצעות CoT.
במקום זאת, המודל מנסה ליישם את המשימות הנלמדות הדומות ביותר. לכן "ההסקות" שלו אולי נשמעות הגיוניות, אך התוצאות לרוב שגויות.
הקבוצה הגיעה למסקנה כי אין להסתמך יותר מדי או לבטוח בעיוורון בתשובותיו של המומחה למשפטים, שכן הן עלולות לייצר "שטויות שנשמעות משכנעות מאוד".
הם גם הדגישו את הצורך להבין את טבעה האמיתי של הבינה המלאכותית, להימנע מהייפ ולהפסיק לקדם את הטענה שלבינה המלאכותית יש את היכולת לחשוב כמו בני אדם.
מקור: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






תגובה (0)