Vietnam.vn - Nền tảng quảng bá Việt Nam

מחקר חדש: בינה מלאכותית לא 'מחשבה' כמו בני אדם

תוכניות בינה מלאכותית (AI) השיגו תוצאות מרשימות, אך מחקר חדש מציע שלא כדאי להפריז בטענה שבינה מלאכותית יכולה לחשוב כמו בני אדם.

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

תוכניות בינה מלאכותית השיגו הצלחות רבות בשנים האחרונות - צילום: רויטרס

איננו יכולים להתבונן בתהליך כולו, מנתוני הקלט ועד לתוצאות הפלט של מודלים של שפה גדולה (LLMs).

כדי להקל על ההבנה, מדענים השתמשו במונחים נפוצים כמו "היגיון" כדי לתאר כיצד תוכניות אלה פועלות. הם גם אומרים שהתוכניות יכולות "לחשוב", "להסיק" ו"להבין" את האופן שבו בני אדם עושים זאת.

הגזמה ביכולות של בינה מלאכותית

בשנתיים האחרונות, מנהלים רבים בתחום הבינה המלאכותית השתמשו בהגזמה כדי להגזים בהישגים טכניים פשוטים, כך על פי ZDNET ב-6 בספטמבר.

בספטמבר 2024, OpenAI הכריזה שמודל החשיבה o1 "משתמש בשרשרת של הסקה בעת פתרון בעיות, בדומה לאופן שבו בני אדם חושבים במשך זמן רב כאשר הם מתמודדים עם שאלות קשות".

עם זאת, מדעני בינה מלאכותית מתנגדים. הם מאמינים שלבינה מלאכותית אין אינטליגנציה אנושית.

מחקר שנערך על מסד הנתונים arXiv על ידי קבוצת מחברים מאוניברסיטת אריזונה סטייט (ארה"ב) אימת את יכולת החשיבה של בינה מלאכותית באמצעות ניסוי פשוט.

התוצאות הראו ש"הסקה באמצעות שרשרת מחשבה היא אשליה שברירית", לא מנגנון לוגי אמיתי, אלא רק צורה מתוחכמת של התאמת תבניות.

המונח "שרשרת מחשבה" (CoT) מאפשר לבינה מלאכותית לא רק להגיע לתשובה סופית, אלא גם להציג כל שלב בהיגיון הלוגי, כמו במודלים GPT-o1 או DeepSeek V1.

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

איור של מודל השפה GPT-2 של OpenAI - צילום: ECHOCRAFTAI

בדקו מה באמת עושה בינה מלאכותית

ניתוחים בקנה מידה גדול מראים כי תואר ראשון במשפטים נוטה להסתמך על סמנטיקה ורמזים שטחיים ולא על תהליכי חשיבה לוגיים, אומרים החוקרים.

"LLM בונה שרשראות לוגיות שטחיות המבוססות על אסוציאציות קלט מלומדות, ולעתים קרובות נכשלת במשימות החורגות משיטות חשיבה קונבנציונליות או מדפוסים מוכרים", מסביר הצוות.

כדי לבחון את ההשערה ש-LLM רק התאמת דפוסים ולא באמת מסיק מסקנות, הצוות אימן את GPT-2, מודל קוד פתוח שפורסם על ידי OpenAI בשנת 2019.

המודל אומן בתחילה על משימות פשוטות מאוד על 26 אותיות באנגלית, כמו היפוך אותיות מסוימות, למשל הפיכת "APPLE" ל-"EAPPL". לאחר מכן, הצוות שינה את המשימה וביקש מ-GPT-2 לטפל בה.

התוצאות מראות שעבור משימות שלא כלולות בנתוני האימון, GPT-2 אינו יכול לפתור אותן במדויק באמצעות CoT.

במקום זאת, המודל מנסה ליישם את המשימות הנלמדות הדומות ביותר. לכן "ההסקות" שלו אולי נשמעות הגיוניות, אך התוצאות לרוב שגויות.

הקבוצה הגיעה למסקנה כי אין להסתמך יותר מדי או לבטוח בעיוורון בתשובותיו של המומחה למשפטים, שכן הן עלולות לייצר "שטויות שנשמעות משכנעות מאוד".

הם גם הדגישו את הצורך להבין את טבעה האמיתי של הבינה המלאכותית, להימנע מהייפ ולהפסיק לקדם את הטענה שלבינה המלאכותית יש את היכולת לחשוב כמו בני אדם.

חזרה לנושא
חמישי

מקור: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


תגובה (0)

No data
No data

באותו נושא

באותה קטגוריה

שדות טרסות יפהפיים בעמק לוק הון
פרחים "עשירים" שעולים מיליון וונד ליחידה עדיין פופולריים ב-20 באוקטובר
סרטים וייטנאמיים והמסע לאוסקר
צעירים נוסעים לצפון מערב כדי להתמקם בעונת האורז היפה ביותר בשנה.

מאת אותו מחבר

מוֹרֶשֶׁת

דְמוּת

עֵסֶק

צעירים נוסעים לצפון מערב כדי להתמקם בעונת האורז היפה ביותר בשנה.

אירועים אקטואליים

מערכת פוליטית

מְקוֹמִי

מוּצָר