Vietnam.vn - Nền tảng quảng bá Việt Nam

تحقیقات جدید: هوش مصنوعی مانند انسان «استدلال» نمی‌کند.

برنامه‌های هوش مصنوعی (AI) به دستاوردهای چشمگیر بسیاری دست یافته‌اند، اما تحقیقات جدید نشان می‌دهد که نباید پتانسیل توانایی هوش مصنوعی در استدلال مانند انسان‌ها را بیش از حد ارزیابی کنیم.

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

برنامه‌های هوش مصنوعی در سال‌های اخیر به پیشرفت‌های زیادی دست یافته‌اند - عکس: رویترز

ما نمی‌توانیم کل فرآیند را از ورودی داده تا خروجی مدل‌های زبانی بزرگ (LLM) مشاهده کنیم.

برای درک آسان‌تر، دانشمندان از اصطلاحات رایجی مانند «استدلال» برای توصیف نحوه عملکرد این برنامه‌ها استفاده کرده‌اند. آنها همچنین می‌گویند که این برنامه‌ها می‌توانند مانند انسان‌ها «فکر کنند»، «استدلال کنند» و «درک کنند».

اغراق در مورد قابلیت‌های هوش مصنوعی.

طبق گزارش ZDNET در تاریخ ۶ سپتامبر، طی دو سال گذشته، بسیاری از مدیران هوش مصنوعی از زبان اغراق‌آمیز برای بزرگ‌نمایی دستاوردهای فنی ساده استفاده کرده‌اند.

در سپتامبر ۲۰۲۴، OpenAI اعلام کرد که مدل استدلال o1 آن «هنگام حل مسائل از زنجیره‌ای از استدلال استفاده می‌کند، مشابه نحوه تفکر طولانی مدت انسان‌ها در مواجهه با سوالات دشوار».

با این حال، دانشمندان هوش مصنوعی مخالفند. آنها استدلال می‌کنند که هوش مصنوعی هوشی شبیه به انسان ندارد.

مطالعه‌ای بر اساس پایگاه داده arXiv توسط تیمی از نویسندگان در دانشگاه ایالتی آریزونا (ایالات متحده آمریکا) توانایی استدلال هوش مصنوعی را از طریق یک آزمایش ساده آزمایش کرده است.

نتایج نشان می‌دهد که «ارجاع از طریق توالی‌های فکری یک توهم شکننده است»، نه یک مکانیسم منطقی واقعی، بلکه صرفاً یک شکل پیچیده از تطبیق الگو است.

اصطلاح «CoT» (زنجیره تفکر مشترک) به هوش مصنوعی اجازه می‌دهد تا نه تنها پاسخ نهایی را ارائه دهد، بلکه هر مرحله از استدلال منطقی را نیز ارائه دهد، مانند مدل‌هایی مانند GPT-o1 یا DeepSeek V1.

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

تصویرسازی مدل زبانی GPT-2 توسط OpenAI - عکس: ECHOCRAFTAI

بررسی کنید که هوش مصنوعی واقعاً چه کاری انجام می‌دهد.

تیم تحقیقاتی اظهار داشت که تجزیه و تحلیل‌های در مقیاس بزرگ نشان داد که LLM بیشتر به معانی و سرنخ‌های سطحی متکی است تا فرآیندهای استدلال منطقی.

این تیم توضیح داد: «LLMها توالی‌های منطقی سطحی را بر اساس ارتباطات ورودی آموخته‌شده می‌سازند و اغلب در انجام وظایفی که از روش‌های استدلال مرسوم یا الگوهای آشنا منحرف می‌شوند، شکست می‌خورند.»

برای آزمایش این فرضیه که LLM فقط الگوها را تطبیق می‌دهد و در واقع استنتاج نمی‌کند، تیم تحقیقاتی GPT-2، یک مدل متن‌باز از OpenAI که در سال ۲۰۱۹ راه‌اندازی شد، را آموزش داد.

این مدل در ابتدا برای انجام وظایف بسیار ساده‌ای شامل ۲۶ حرف انگلیسی، مانند تغییر ترتیب برخی حروف، مثلاً تغییر «APPLE» به «EAPPL»، آموزش داده شد. سپس تیم، وظیفه را تغییر داد و از GPT-2 خواست تا آن را پردازش کند.

نتایج نشان داد که برای وظایفی که در داده‌های آموزشی گنجانده نشده‌اند، GPT-2 نمی‌تواند آنها را با استفاده از CoT به طور دقیق حل کند.

در عوض، این مدل تلاش می‌کند تا وظایف آموخته‌شده را تا حد امکان به کار گیرد. بنابراین، «استدلال» آن ممکن است منطقی به نظر برسد، اما نتایج اغلب اشتباه هستند.

این گروه به این نتیجه رسید که نباید بیش از حد به پاسخ‌های LLM تکیه کرد یا کورکورانه به آنها اعتماد کرد، زیرا آنها می‌توانند «اظهارات بی‌معنی اما بسیار قانع‌کننده‌ای» ارائه دهند.

آنها همچنین بر لزوم درک ماهیت واقعی هوش مصنوعی، اجتناب از اغراق و توقف ترویج این ایده که هوش مصنوعی توانایی‌های استدلالی شبیه به انسان دارد، تأکید کردند.

برگردیم به موضوع
پنجشنبه آنه

منبع: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


نظر (0)

لطفاً نظر دهید تا احساسات خود را با ما به اشتراک بگذارید!

در همان موضوع

در همان دسته‌بندی

یک مکان تفریحی کریسمس با یک درخت کاج ۷ متری، شور و هیجان زیادی را در بین جوانان شهر هوشی مین ایجاد کرده است.
چه چیزی در کوچه ۱۰۰ متری باعث ایجاد هیاهو در کریسمس می‌شود؟
غرق در جشن عروسی فوق‌العاده‌ای که ۷ شبانه‌روز در فو کوک برگزار شد
رژه لباس‌های باستانی: شادی صد گل

از همان نویسنده

میراث

شکل

کسب و کار

ویتنام، مقصد برتر میراث جهانی در سال ۲۰۲۵

رویدادهای جاری

نظام سیاسی

محلی

محصول