
برنامههای هوش مصنوعی در سالهای اخیر به پیشرفتهای زیادی دست یافتهاند - عکس: رویترز
ما نمیتوانیم کل فرآیند را از ورودی داده تا خروجی مدلهای زبانی بزرگ (LLM) مشاهده کنیم.
برای درک آسانتر، دانشمندان از اصطلاحات رایجی مانند «استدلال» برای توصیف نحوه عملکرد این برنامهها استفاده کردهاند. آنها همچنین میگویند که این برنامهها میتوانند مانند انسانها «فکر کنند»، «استدلال کنند» و «درک کنند».
اغراق در مورد قابلیتهای هوش مصنوعی.
طبق گزارش ZDNET در تاریخ ۶ سپتامبر، طی دو سال گذشته، بسیاری از مدیران هوش مصنوعی از زبان اغراقآمیز برای بزرگنمایی دستاوردهای فنی ساده استفاده کردهاند.
در سپتامبر ۲۰۲۴، OpenAI اعلام کرد که مدل استدلال o1 آن «هنگام حل مسائل از زنجیرهای از استدلال استفاده میکند، مشابه نحوه تفکر طولانی مدت انسانها در مواجهه با سوالات دشوار».
با این حال، دانشمندان هوش مصنوعی مخالفند. آنها استدلال میکنند که هوش مصنوعی هوشی شبیه به انسان ندارد.
مطالعهای بر اساس پایگاه داده arXiv توسط تیمی از نویسندگان در دانشگاه ایالتی آریزونا (ایالات متحده آمریکا) توانایی استدلال هوش مصنوعی را از طریق یک آزمایش ساده آزمایش کرده است.
نتایج نشان میدهد که «ارجاع از طریق توالیهای فکری یک توهم شکننده است»، نه یک مکانیسم منطقی واقعی، بلکه صرفاً یک شکل پیچیده از تطبیق الگو است.
اصطلاح «CoT» (زنجیره تفکر مشترک) به هوش مصنوعی اجازه میدهد تا نه تنها پاسخ نهایی را ارائه دهد، بلکه هر مرحله از استدلال منطقی را نیز ارائه دهد، مانند مدلهایی مانند GPT-o1 یا DeepSeek V1.

تصویرسازی مدل زبانی GPT-2 توسط OpenAI - عکس: ECHOCRAFTAI
بررسی کنید که هوش مصنوعی واقعاً چه کاری انجام میدهد.
تیم تحقیقاتی اظهار داشت که تجزیه و تحلیلهای در مقیاس بزرگ نشان داد که LLM بیشتر به معانی و سرنخهای سطحی متکی است تا فرآیندهای استدلال منطقی.
این تیم توضیح داد: «LLMها توالیهای منطقی سطحی را بر اساس ارتباطات ورودی آموختهشده میسازند و اغلب در انجام وظایفی که از روشهای استدلال مرسوم یا الگوهای آشنا منحرف میشوند، شکست میخورند.»
برای آزمایش این فرضیه که LLM فقط الگوها را تطبیق میدهد و در واقع استنتاج نمیکند، تیم تحقیقاتی GPT-2، یک مدل متنباز از OpenAI که در سال ۲۰۱۹ راهاندازی شد، را آموزش داد.
این مدل در ابتدا برای انجام وظایف بسیار سادهای شامل ۲۶ حرف انگلیسی، مانند تغییر ترتیب برخی حروف، مثلاً تغییر «APPLE» به «EAPPL»، آموزش داده شد. سپس تیم، وظیفه را تغییر داد و از GPT-2 خواست تا آن را پردازش کند.
نتایج نشان داد که برای وظایفی که در دادههای آموزشی گنجانده نشدهاند، GPT-2 نمیتواند آنها را با استفاده از CoT به طور دقیق حل کند.
در عوض، این مدل تلاش میکند تا وظایف آموختهشده را تا حد امکان به کار گیرد. بنابراین، «استدلال» آن ممکن است منطقی به نظر برسد، اما نتایج اغلب اشتباه هستند.
این گروه به این نتیجه رسید که نباید بیش از حد به پاسخهای LLM تکیه کرد یا کورکورانه به آنها اعتماد کرد، زیرا آنها میتوانند «اظهارات بیمعنی اما بسیار قانعکنندهای» ارائه دهند.
آنها همچنین بر لزوم درک ماهیت واقعی هوش مصنوعی، اجتناب از اغراق و توقف ترویج این ایده که هوش مصنوعی تواناییهای استدلالی شبیه به انسان دارد، تأکید کردند.
منبع: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






نظر (0)