Vietnam.vn - Nền tảng quảng bá Việt Nam

تحقیقات جدید: هوش مصنوعی مانند انسان «استدلال» نمی‌کند

برنامه‌های هوش مصنوعی (AI) به نتایج چشمگیری دست یافته‌اند، اما تحقیقات جدید نشان می‌دهد که نباید در مورد این ادعا که هوش مصنوعی می‌تواند مانند انسان‌ها استدلال کند، اغراق کنیم.

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

برنامه‌های هوش مصنوعی در سال‌های اخیر به موفقیت‌های زیادی دست یافته‌اند - عکس: رویترز

ما نمی‌توانیم کل فرآیند را از داده‌های ورودی تا نتایج خروجی مدل‌های زبانی بزرگ (LLM) مشاهده کنیم.

برای درک آسان‌تر، دانشمندان از اصطلاحات رایجی مانند «استدلال» برای توصیف نحوه عملکرد این برنامه‌ها استفاده کرده‌اند. آنها همچنین می‌گویند که این برنامه‌ها می‌توانند مانند انسان‌ها «فکر کنند»، «استدلال کنند» و «درک» کنند.

اغراق در مورد قابلیت‌های هوش مصنوعی

طبق گزارش ZDNET در تاریخ ۶ سپتامبر، طی دو سال گذشته، بسیاری از مدیران هوش مصنوعی از اغراق برای بزرگنمایی دستاوردهای فنی ساده استفاده کرده‌اند.

در سپتامبر ۲۰۲۴، OpenAI اعلام کرد که مدل استدلال o1 «هنگام حل مسائل از زنجیره‌ای از استنتاج استفاده می‌کند، مشابه روشی که انسان‌ها مدت‌ها هنگام مواجهه با سوالات دشوار فکر می‌کنند».

با این حال، دانشمندان هوش مصنوعی اعتراض دارند. آنها معتقدند که هوش مصنوعی هوش انسانی را ندارد.

مطالعه‌ای که توسط گروهی از نویسندگان در دانشگاه ایالتی آریزونا (ایالات متحده آمریکا) بر روی پایگاه داده arXiv انجام شده است، توانایی استدلال هوش مصنوعی را با یک آزمایش ساده تأیید کرده است.

نتایج نشان داد که «استنتاج از طریق زنجیره افکار یک توهم شکننده است»، نه یک مکانیسم منطقی واقعی، بلکه فقط یک شکل پیچیده از تطبیق الگو است.

اصطلاح «زنجیره فکر» (CoT) به هوش مصنوعی اجازه می‌دهد تا نه تنها به یک پاسخ نهایی برسد، بلکه هر مرحله از استدلال منطقی را نیز ارائه دهد، مانند مدل‌های GPT-o1 یا DeepSeek V1.

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

تصویری از مدل زبانی GPT-2 شرکت OpenAI - عکس: ECHOCRAFTAI

ببینید هوش مصنوعی واقعاً چه کاری انجام می‌دهد

محققان می‌گویند تجزیه و تحلیل‌های در مقیاس بزرگ نشان می‌دهد که LLM تمایل دارد به جای فرآیندهای استدلال منطقی، بر معانی و سرنخ‌های سطحی تکیه کند.

این تیم توضیح می‌دهد: «LLM زنجیره‌های منطقی سطحی را بر اساس ارتباطات ورودی آموخته‌شده می‌سازد و اغلب در انجام وظایفی که از روش‌های استدلال مرسوم یا الگوهای آشنا منحرف می‌شوند، شکست می‌خورد.»

برای آزمایش این فرضیه که LLM فقط الگوها را تطبیق می‌دهد و در واقع استنتاج نمی‌کند، این تیم GPT-2، یک مدل متن‌باز که توسط OpenAI در سال ۲۰۱۹ منتشر شد، را آموزش داد.

این مدل در ابتدا برای انجام وظایف بسیار ساده روی ۲۶ حرف انگلیسی، مانند معکوس کردن برخی حروف، مثلاً تبدیل «APPLE» به «EAPPL» آموزش داده شد. سپس تیم، وظیفه را تغییر داد و از GPT-2 خواست تا آن را انجام دهد.

نتایج نشان می‌دهد که برای وظایفی که در داده‌های آموزشی گنجانده نشده‌اند، GPT-2 نمی‌تواند آنها را با استفاده از CoT به طور دقیق حل کند.

در عوض، این مدل سعی می‌کند مشابه‌ترین وظایف آموخته‌شده را به کار گیرد. بنابراین «استنتاج‌های» آن ممکن است منطقی به نظر برسند، اما نتایج اغلب اشتباه هستند.

این گروه به این نتیجه رسید که نباید بیش از حد به پاسخ‌های LLM تکیه کرد یا کورکورانه به آنها اعتماد کرد، زیرا آنها می‌توانند «مزخرفاتی تولید کنند که بسیار قانع‌کننده به نظر می‌رسند».

آنها همچنین بر لزوم درک ماهیت واقعی هوش مصنوعی، اجتناب از هیاهو و توقف تبلیغ این که هوش مصنوعی توانایی استدلال مانند انسان را دارد، تأکید کردند.

بازگشت به موضوع
پنجشنبه آنه

منبع: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


نظر (0)

No data
No data

در همان موضوع

در همان دسته‌بندی

مزارع پلکانی فوق‌العاده زیبا در دره لوک هون
گل‌های «غنی» که هر کدام ۱ میلیون دونگ قیمت دارند، هنوز در ۲۰ اکتبر محبوب هستند.
فیلم‌های ویتنامی و سفر به اسکار
جوانان در زیباترین فصل برنج سال برای بازدید به شمال غربی می‌روند

از همان نویسنده

میراث

شکل

کسب و کار

جوانان در زیباترین فصل برنج سال برای بازدید به شمال غربی می‌روند

رویدادهای جاری

نظام سیاسی

محلی

محصول