Vietnam.vn - Nền tảng quảng bá Việt Nam

آیا هوش مصنوعی واقعاً می‌تواند فکر کند؟

شرکت‌هایی مانند OpenAI و DeepSeek در حال جابه‌جایی مرزهای چت‌بات‌های منطقی هستند که می‌توانند در برخی وظایف محاسباتی عملکرد بهتری داشته باشند.

ZNewsZNews06/04/2025

چت‌بات OpenAI دائماً از طریق فناوری‌های جدید در حال بهبود است. عکس: نیویورک تایمز .

در سپتامبر ۲۰۲۴، OpenAI از ChatGPT رونمایی کرد، نسخه‌ای از هوش مصنوعی که مدل o1 را ادغام می‌کند و قادر به استدلال در وظایف مربوط به ریاضیات، علوم و برنامه‌نویسی کامپیوتر است.

برخلاف نسخه قبلی ChatGPT، این فناوری جدید قبل از ارائه پاسخ، به زمان نیاز دارد تا در مورد راه‌حل‌های مشکلات پیچیده «فکر» کند.

پس از OpenAI، بسیاری از رقبا مانند گوگل، Anthropic و DeepSeek نیز مدل‌های استدلال مشابهی را معرفی کرده‌اند. اگرچه این مدل کامل نیست، اما هنوز یک فناوری ارتقاء یافته برای چت‌بات است که بسیاری از توسعه‌دهندگان به آن اعتماد دارند.

چگونه هوش مصنوعی استدلال می‌کند

اساساً، استدلال به این معنی است که چت‌بات‌ها می‌توانند زمان بیشتری را صرف حل مسائلی کنند که کاربران مطرح می‌کنند.

دن کلاین، استاد علوم کامپیوتر در دانشگاه کالیفرنیا، به نیویورک تایمز گفت: «استدلال به این معنی است که سیستم چگونه پس از دریافت یک سوال، کارهای اضافی انجام می‌دهد.»

یک سیستم منطقی می‌تواند یک مسئله را به مراحل کوچک‌تر و مجزا تقسیم کند، یا آن را از طریق آزمون و خطا حل کند.

در ابتدا، ChatGPT می‌توانست با استخراج و ترکیب اطلاعات، فوراً به سؤالات پاسخ دهد. در مقابل، سیستم‌های استدلال به چند ثانیه (یا حتی چند دقیقه) بیشتر برای حل مسئله و ارائه پاسخ نیاز داشتند.

AI ly luan,  OpenAI o1 va ChatGPT,  mo hinh ly luan,  tri tue nhan tao anh 1

نمونه‌ای از فرآیند استدلال مدل O1 در یک چت‌بات خدمات مشتری. تصویر: OpenAI .

در برخی موارد، سیستم استدلال رویکرد خود را به مسئله تغییر می‌دهد و به طور مداوم راه‌حل را بهبود می‌بخشد. علاوه بر این، مدل ممکن است قبل از انتخاب بهینه، چندین راه‌حل را آزمایش کند یا دقت پاسخ‌های قبلی را بررسی کند.

به طور کلی، سیستم استدلال، تمام پاسخ‌های ممکن به سوال را در نظر می‌گیرد. این شبیه به دانش‌آموزان دبستانی است که قبل از انتخاب مناسب‌ترین راه حل برای یک مسئله ریاضی، گزینه‌های زیادی را روی کاغذ می‌نویسند.

طبق گزارش نیویورک تایمز ، هوش مصنوعی اکنون قادر به استدلال تقریباً در هر موضوعی است. با این حال، در مورد سوالات مربوط به ریاضیات، علوم و برنامه‌نویسی کامپیوتر بیشترین تأثیر را خواهد داشت.

سیستم نظری چگونه آموزش داده می‌شود؟

در یک چت‌بات معمولی، کاربران همچنان می‌توانند توضیحاتی در مورد فرآیند درخواست کنند یا صحت پاسخ را تأیید کنند. در واقع، بسیاری از مجموعه داده‌های آموزشی ChatGPT از قبل شامل رویه‌های حل مسئله هستند.

سیستم استدلال وقتی می‌تواند عملیات را بدون ورودی کاربر انجام دهد، حتی پیشرفته‌تر می‌شود. این فرآیند پیچیده‌تر و گسترده‌تر است. شرکت‌ها از کلمه «استدلال» استفاده می‌کنند زیرا این سیستم مشابه نحوه تفکر انسان‌ها عمل می‌کند.

بسیاری از شرکت‌ها، مانند OpenAI، انتظار دارند که سیستم‌های استدلال بهترین راه‌حل برای بهبود چت‌بات‌های موجود باشند. سال‌ها، آنها معتقد بودند که چت‌بات‌ها هرچه اطلاعات بیشتری در اینترنت آموزش ببینند، عملکرد بهتری دارند.

تا سال ۲۰۲۴، سیستم‌های هوش مصنوعی تقریباً تمام متن موجود در اینترنت را مصرف خواهند کرد. این بدان معناست که شرکت‌ها باید راه‌حل‌های جدیدی برای ارتقاء چت‌بات‌ها، از جمله سیستم‌های استدلال، پیدا کنند.

AI ly luan,  OpenAI o1 va ChatGPT,  mo hinh ly luan,  tri tue nhan tao anh 2

استارتاپ DeepSeek زمانی با مدل استدلال خود که هزینه‌های کمتری نسبت به OpenAI داشت، سر و صدای زیادی به پا کرد. عکس: بلومبرگ .

از سال گذشته، شرکت‌هایی مانند OpenAI بر تکنیک‌های یادگیری تقویتی تمرکز کرده‌اند. این فرآیند معمولاً چندین ماه طول می‌کشد و در طی آن، هوش مصنوعی از طریق آزمون و خطا رفتار را یاد می‌گیرد.

برای مثال، با حل هزاران مسئله، سیستم می‌تواند روش بهینه برای رسیدن به پاسخ صحیح را شناسایی کند. از آنجا، محققان مکانیسم‌های بازخورد پیچیده‌ای را ایجاد می‌کنند که به سیستم کمک می‌کند تا بین راه‌حل‌های صحیح و نادرست تمایز قائل شود.

جری توورک، محقق OpenAI، می‌گوید: «این شبیه به نحوه آموزش یک سگ است. اگر سیستم خوب کار کند، به آن خوراکی می‌دهید. در غیر این صورت، می‌گویید: 'آن سگ شیطان است'».

آیا هوش مصنوعی آینده است؟

طبق گزارش نیویورک تایمز ، تکنیک‌های یادگیری تقویتی در مواجهه با الزامات در ریاضیات، علوم و برنامه‌نویسی کامپیوتر مؤثر هستند. اینها زمینه‌هایی هستند که در آنها می‌توان پاسخ‌های صحیح یا غلط را به وضوح تعریف کرد.

برعکس، یادگیری تقویتی در نویسندگی، فلسفه یا اخلاق - حوزه‌هایی که تشخیص خوب از بد دشوار است - بی‌اثر است. با این وجود، محققان ادعا می‌کنند که این تکنیک حتی با سوالات غیر ریاضی نیز می‌تواند عملکرد هوش مصنوعی را بهبود بخشد.

جرد کاپلان، مدیر ارشد علمی در آنتروپیک، گفت: «سیستم‌ها مسیرهایی را که منجر به نتایج مثبت و منفی می‌شوند، یاد خواهند گرفت.»

AI ly luan,  OpenAI o1 va ChatGPT,  mo hinh ly luan,  tri tue nhan tao anh 3

وب‌سایت آنتروپیک، استارتاپی که مالک مدل هوش مصنوعی کلود است. عکس: بلومبرگ .

لازم به ذکر است که یادگیری تقویتی و سیستم‌های استدلال دو مفهوم متفاوت هستند. به طور خاص، یادگیری تقویتی روشی برای ساخت سیستم‌های استدلال است. این مرحله نهایی آموزش برای فعال کردن ربات‌های چت برای استدلال است.

از آنجایی که هنوز نسبتاً جدید است، دانشمندان هنوز نمی‌توانند با اطمینان بگویند که آیا استدلال چت‌بات یا یادگیری تقویتی می‌تواند به هوش مصنوعی کمک کند تا مانند انسان‌ها فکر کند. باید توجه داشت که بسیاری از روندهای فعلی آموزش هوش مصنوعی در ابتدا بسیار سریع توسعه می‌یابند و سپس به تدریج کند می‌شوند.

علاوه بر این، استدلال چت‌بات‌ها هنوز هم می‌تواند اشتباه کند. بر اساس احتمال، سیستم فرآیندی را انتخاب می‌کند که بیشترین شباهت را به داده‌هایی که آموخته است، چه از طریق اینترنت و چه از طریق یادگیری تقویتی، داشته باشد. بنابراین، چت‌بات‌ها هنوز هم می‌توانند راه‌حل‌های نادرست یا غیرمنطقی را انتخاب کنند.

منبع: https://znews.vn/ai-ly-luan-nhu-the-nao-post1541477.html


نظر (0)

لطفاً نظر دهید تا احساسات خود را با ما به اشتراک بگذارید!

در همان دسته‌بندی

از همان نویسنده

میراث

شکل

کسب و کارها

امور جاری

نظام سیاسی

محلی

محصول

Happy Vietnam
زیبایی کار

زیبایی کار

فعالیت‌های داوطلبانه

فعالیت‌های داوطلبانه

در میان آسمان و زمینِ مهربان

در میان آسمان و زمینِ مهربان