
برنامههای هوش مصنوعی در سالهای اخیر به موفقیتهای زیادی دست یافتهاند - عکس: رویترز
ما نمیتوانیم کل فرآیند را از دادههای ورودی تا نتایج خروجی مدلهای زبانی بزرگ (LLM) مشاهده کنیم.
برای درک آسانتر، دانشمندان از اصطلاحات رایجی مانند «استدلال» برای توصیف نحوه عملکرد این برنامهها استفاده کردهاند. آنها همچنین میگویند که این برنامهها میتوانند مانند انسانها «فکر کنند»، «استدلال کنند» و «درک» کنند.
اغراق در مورد قابلیتهای هوش مصنوعی
طبق گزارش ZDNET در تاریخ ۶ سپتامبر، طی دو سال گذشته، بسیاری از مدیران هوش مصنوعی از اغراق برای بزرگنمایی دستاوردهای فنی ساده استفاده کردهاند.
در سپتامبر ۲۰۲۴، OpenAI اعلام کرد که مدل استدلال o1 «هنگام حل مسائل از زنجیرهای از استنتاج استفاده میکند، مشابه روشی که انسانها مدتها هنگام مواجهه با سوالات دشوار فکر میکنند».
با این حال، دانشمندان هوش مصنوعی اعتراض دارند. آنها معتقدند که هوش مصنوعی هوش انسانی را ندارد.
مطالعهای که توسط گروهی از نویسندگان در دانشگاه ایالتی آریزونا (ایالات متحده آمریکا) بر روی پایگاه داده arXiv انجام شده است، توانایی استدلال هوش مصنوعی را با یک آزمایش ساده تأیید کرده است.
نتایج نشان داد که «استنتاج از طریق زنجیره افکار یک توهم شکننده است»، نه یک مکانیسم منطقی واقعی، بلکه فقط یک شکل پیچیده از تطبیق الگو است.
اصطلاح «زنجیره فکر» (CoT) به هوش مصنوعی اجازه میدهد تا نه تنها به یک پاسخ نهایی برسد، بلکه هر مرحله از استدلال منطقی را نیز ارائه دهد، مانند مدلهای GPT-o1 یا DeepSeek V1.

تصویری از مدل زبانی GPT-2 شرکت OpenAI - عکس: ECHOCRAFTAI
ببینید هوش مصنوعی واقعاً چه کاری انجام میدهد
محققان میگویند تجزیه و تحلیلهای در مقیاس بزرگ نشان میدهد که LLM تمایل دارد به جای فرآیندهای استدلال منطقی، بر معانی و سرنخهای سطحی تکیه کند.
این تیم توضیح میدهد: «LLM زنجیرههای منطقی سطحی را بر اساس ارتباطات ورودی آموختهشده میسازد و اغلب در انجام وظایفی که از روشهای استدلال مرسوم یا الگوهای آشنا منحرف میشوند، شکست میخورد.»
برای آزمایش این فرضیه که LLM فقط الگوها را تطبیق میدهد و در واقع استنتاج نمیکند، این تیم GPT-2، یک مدل متنباز که توسط OpenAI در سال ۲۰۱۹ منتشر شد، را آموزش داد.
این مدل در ابتدا برای انجام وظایف بسیار ساده روی ۲۶ حرف انگلیسی، مانند معکوس کردن برخی حروف، مثلاً تبدیل «APPLE» به «EAPPL» آموزش داده شد. سپس تیم، وظیفه را تغییر داد و از GPT-2 خواست تا آن را انجام دهد.
نتایج نشان میدهد که برای وظایفی که در دادههای آموزشی گنجانده نشدهاند، GPT-2 نمیتواند آنها را با استفاده از CoT به طور دقیق حل کند.
در عوض، این مدل سعی میکند مشابهترین وظایف آموختهشده را به کار گیرد. بنابراین «استنتاجهای» آن ممکن است منطقی به نظر برسند، اما نتایج اغلب اشتباه هستند.
این گروه به این نتیجه رسید که نباید بیش از حد به پاسخهای LLM تکیه کرد یا کورکورانه به آنها اعتماد کرد، زیرا آنها میتوانند «مزخرفاتی تولید کنند که بسیار قانعکننده به نظر میرسند».
آنها همچنین بر لزوم درک ماهیت واقعی هوش مصنوعی، اجتناب از هیاهو و توقف تبلیغ این که هوش مصنوعی توانایی استدلال مانند انسان را دارد، تأکید کردند.
منبع: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






نظر (0)