پیش‌نمایش o3-mini در دسامبر ۲۰۲۴ به همراه مدل o3 منتشر شد. برخی از OpenAI به دلیل واگذاری رقابت هوش مصنوعی به شرکت‌های چینی مانند DeepSeek انتقاد کرده‌اند.

توسعه‌دهندگان ChatGPT مدل جدید را «قدرتمند» و «مقرون به صرفه» توصیف می‌کنند. سخنگوی این شرکت می‌گوید o3-mini گامی مهم در گسترش دسترسی به هوش مصنوعی پیشرفته برای افراد بیشتر است.

اوپنای سی‌نت
OpenAI با فشار قابل توجهی از سوی رقبای چینی مواجه است. عکس: Cnet

برخلاف سایر مدل‌های زبانی بزرگ، یک مدل استنتاج مانند o3-mini قبل از ارائه نتایج به کاربران، خود را اعتبارسنجی می‌کند. این امر به جلوگیری از برخی از مشکلات مدل‌های مرسوم کمک می‌کند. مدل‌های استنتاج در حوزه‌هایی مانند فیزیک، راه‌حل‌های کندتر اما قابل اعتمادتری - البته ناقص - ارائه می‌دهند.

o3-mini برای حل مسائل STEM ( علوم ، ریاضی، برنامه‌نویسی) تنظیم شده است. OpenAI ادعا می‌کند که از نظر قدرت با o1 و o1-mini برابری می‌کند، اما سریع‌تر عمل می‌کند و ارزان‌تر است.

برنامه‌نویسان مستقل پاسخ‌های o3-mini را بهتر از o1-mini ارزیابی کردند. علاوه بر این، در سوالات دشوار دنیای واقعی، o3-mini 39٪ «خطاهای عمده» کمتری نسبت به o1-mini مرتکب شد و پاسخ‌های «واضح‌تر» را 24٪ سریع‌تر ارائه داد.

o3-mini از ۳۱ ژانویه برای همه کاربران ChatGPT در دسترس است، اما کاربران ChatGPT Plus و Team می‌توانند تعداد بیشتری، تا ۱۵۰ سوال در روز، بپرسند. کاربران ChatGPT Pro از استفاده نامحدود برخوردارند. o3-mini ظرف یک هفته در ChatGPT Enterprise و ChatGPT Edu در دسترس خواهد بود.

کاربران پولی ChatGPT می‌توانند از منوی کشویی برنامه، گزینه o3-mini را انتخاب کنند، در حالی که کاربران رایگان روی دکمه جدید «دلیل» در کادر چت کلیک می‌کنند.

هزینه o3-mini، 0.55 دلار برای هر 1 میلیون توکن ورودی و 4.40 دلار برای هر 1 میلیون توکن خروجی است، که در آن 1 میلیون توکن معادل تقریباً 750،000 کلمه است. این 63٪ ارزان‌تر از o1-mini و همچنین قابل رقابت با DeepSeek R1 است. DeepSeek برای R1، 0.14 دلار برای هر 1 میلیون توکن ورودی و 2.19 دلار برای هر 1 میلیون توکن خروجی دریافت می‌کند.

در ChatGPT، مدل o-3 mini روی حالت استنتاج متوسط ​​تنظیم شده است تا تعادلی بین سرعت و دقت پاسخ برقرار کند. کاربران پریمیوم می‌توانند حالت‌های بالاتر را انتخاب کنند که کیفیت بهتری اما زمان پاسخ کندتری ارائه می‌دهند. صرف نظر از نسخه مورد استفاده، مدل به دنبال آخرین پاسخ‌ها و لینک‌های مرتبط می‌گردد.

(طبق گزارش تک‌کرانچ)