چتبات OpenAI از طریق فناوریهای جدید به پیشرفت خود ادامه میدهد. عکس: نیویورک تایمز . |
در سپتامبر ۲۰۲۴، OpenAI نسخهای از ChatGPT را منتشر کرد که مدل o1 را ادغام میکند، که میتواند در مورد وظایف مربوط به ریاضیات، علوم و برنامهنویسی کامپیوتر استدلال کند.
برخلاف نسخه قبلی ChatGPT، این فناوری جدید قبل از ارائه پاسخ، برای «فکر کردن» در مورد راهحلهای مشکلات پیچیده زمان خواهد برد.
پس از OpenAI، بسیاری از رقبا مانند گوگل، Anthropic و DeepSeek نیز مدلهای استدلال مشابهی را معرفی کردند. اگرچه این مدلها بینقص نیستند، اما هنوز هم یک فناوری بهبود چتبات هستند که بسیاری از توسعهدهندگان به آن اعتماد دارند.
دلایل هوش مصنوعی
اساساً، استدلال به این معنی است که چتبات میتواند زمان بیشتری را صرف حل مسئله ارائه شده توسط کاربر کند.
دن کلاین، استاد علوم کامپیوتر در دانشگاه کالیفرنیا، به نیویورک تایمز گفت: «استدلال به این معنی است که سیستم پس از دریافت یک سوال، کارهای اضافی انجام میدهد.»
سیستم استدلال میتواند یک مسئله را به مراحل جداگانه تقسیم کند، یا آن را از طریق آزمون و خطا حل کند.
وقتی ChatGPT برای اولین بار راهاندازی شد، میتوانست با استخراج و ترکیب اطلاعات، فوراً به سؤالات پاسخ دهد. در همین حال، سیستم استدلال به چند ثانیه (یا حتی چند دقیقه) بیشتر برای حل مسئله و ارائه پاسخ نیاز داشت.
![]() |
نمونهای از فرآیند استدلال مدل o1 در یک چتبات خدمات مشتری. عکس: OpenAI . |
در برخی موارد، سیستم استدلال رویکرد خود را به مسئله تغییر میدهد و به طور مداوم راهحل را بهبود میبخشد. از طرف دیگر، مدل ممکن است قبل از رسیدن به گزینه بهینه، چندین راهحل را امتحان کند یا دقت پاسخهای قبلی را آزمایش کند.
به طور کلی، سیستم استدلال، تمام پاسخهای ممکن برای سوال را در نظر میگیرد. این مانند یک دانشآموز دبستانی است که قبل از انتخاب مناسبترین راه برای حل یک مسئله ریاضی، پاسخهای ممکن زیادی را روی یک تکه کاغذ مینویسد.
طبق گزارش نیویورک تایمز ، هوش مصنوعی اکنون قادر به استدلال در مورد هر موضوعی است. با این حال، این کار در مورد سوالات مربوط به ریاضی، علوم و برنامهنویسی کامپیوتر بیشترین اثربخشی را خواهد داشت.
سیستم نظری چگونه آموزش داده میشود؟
در یک چتبات معمولی، کاربران همچنان میتوانند توضیحی در مورد فرآیند درخواست کنند یا صحت پاسخ را بررسی کنند. در واقع، بسیاری از مجموعه دادههای آموزشی ChatGPT از قبل شامل یک فرآیند حل مسئله هستند.
یک سیستم استدلال حتی فراتر میرود وقتی که میتواند عملی را بدون نیاز به درخواست کاربر انجام دهد. این فرآیند پیچیدهتر و گستردهتر است. شرکتها از کلمه «استدلال» استفاده میکنند زیرا این سیستم به روشی مشابه تفکر انسان عمل میکند.
بسیاری از شرکتها مانند OpenAI شرط میبندند که سیستمهای استدلال بهترین راه برای بهبود چتباتها هستند. سالها، آنها معتقد بودند که اگر چتباتها با حداکثر اطلاعات ممکن در اینترنت آموزش ببینند، بهتر کار خواهند کرد.
تا سال ۲۰۲۴، سیستمهای هوش مصنوعی تقریباً تمام متن موجود در اینترنت را مصرف خواهند کرد. این بدان معناست که شرکتها باید راهحلهای جدیدی برای ارتقاء چتباتها، از جمله سیستمهای استدلال، پیدا کنند.
![]() |
استارتاپ DeepSeek زمانی با یک مدل استدلال که هزینه کمتری نسبت به OpenAI داشت، «سروصدای زیادی به پا کرد». عکس: بلومبرگ . |
از سال گذشته، شرکتهایی مانند OpenAI بر روی تکنیکی به نام یادگیری تقویتی تمرکز کردهاند، فرآیندی که معمولاً چندین ماه طول میکشد و در آن هوش مصنوعی از طریق آزمون و خطا رفتار را یاد میگیرد.
برای مثال، با حل هزاران مسئله، سیستم میتواند روش بهینه برای رسیدن به پاسخ درست را یاد بگیرد. از آنجا، محققان مکانیسمهای بازخورد پیچیدهای ساختند که به سیستم کمک میکند راهحلهای درست و غلط را یاد بگیرد.
جری توورک، محقق OpenAI، گفت: «مثل آموزش یک سگ است. اگر خوب باشد، به آن خوراکی میدهید. اگر بد باشد، میگویید: 'آن سگ بد است'».
آیا هوش مصنوعی آینده است؟
طبق گزارش نیویورک تایمز ، یادگیری تقویتی در سوالات ریاضی، علوم و برنامهنویسی کامپیوتر که در آنها پاسخهای درست یا غلط به وضوح تعریف شدهاند، به خوبی عمل میکند.
در مقابل، یادگیری تقویتی در نویسندگی خلاق، فلسفه یا اخلاق، حوزههایی که تشخیص خوب از بد در آنها دشوار است، به اندازه کافی مؤثر نیست. اما محققان میگویند این تکنیک هنوز هم میتواند عملکرد هوش مصنوعی را بهبود بخشد، حتی در سوالاتی خارج از ریاضی.
جارد کاپلان، مدیر ارشد علمی در آنتروپیک، گفت: «سیستمها مسیرهایی را که منجر به نتایج مثبت و منفی میشوند، یاد خواهند گرفت.»
![]() |
وبسایت آنتروپیک، استارتاپی که مالک مدل هوش مصنوعی کلود است. عکس: بلومبرگ . |
لازم به ذکر است که یادگیری تقویتی و سیستمهای استدلال دو مفهوم متفاوت هستند. به طور خاص، یادگیری تقویتی روشی برای ساخت سیستمهای استدلال است. این مرحله نهایی آموزش برای رباتهای چت است تا بتوانند قابلیتهای استدلال داشته باشند.
از آنجا که آنها هنوز نسبتاً جدید هستند، دانشمندان نمیتوانند مطمئن باشند که آیا چتباتهای استدلالی یا یادگیری تقویتی میتوانند به هوش مصنوعی کمک کنند تا مانند انسانها فکر کند. توجه به این نکته مهم است که بسیاری از روندهای فعلی در آموزش هوش مصنوعی در ابتدا بسیار سریع توسعه مییابند و سپس به تدریج متوقف میشوند.
علاوه بر این، چتباتهای استدلالی هنوز هم میتوانند اشتباه کنند. بر اساس احتمال، سیستم فرآیندی را انتخاب میکند که بیشترین شباهت را به دادههایی که آموخته است، چه از طریق اینترنت و چه از طریق یادگیری تقویتی، داشته باشد. بنابراین، چتباتها هنوز هم میتوانند راهحل اشتباه یا غیرمنطقی را انتخاب کنند.
منبع: https://znews.vn/ai-ly-luan-nhu-the-nao-post1541477.html













نظر (0)