Pratinjau o3-mini dirilis pada Desember 2024 bersamaan dengan model o3. OpenAI telah dikritik oleh beberapa pihak karena dianggap menyerahkan persaingan AI kepada perusahaan Tiongkok seperti DeepSeek.

Pengembang ChatGPT menyebut model baru ini "kuat" dan "terjangkau". Seorang juru bicara mengatakan o3-mini menandai langkah penting dalam memperluas akses ke AI canggih bagi lebih banyak orang.

openai cnet
OpenAI menghadapi tekanan besar dari pesaing Tiongkok. Foto: Cnet

Berbeda dengan model bahasa besar lainnya, model inferensi seperti o3-mini memvalidasi dirinya sendiri sebelum memberikan hasil kepada pengguna. Hal ini membantu menghindari beberapa jebakan model konvensional. Model inferensi memberikan solusi yang lebih lambat tetapi lebih andal – meskipun tidak sempurna – dalam domain seperti fisika.

o3-mini dirancang untuk memecahkan masalah STEM ( sains , matematika, pemrograman). OpenAI mengklaim dayanya setara dengan o1 dan o1-mini, tetapi beroperasi lebih cepat dan lebih murah.

Para programmer independen menilai respons o3-mini lebih baik daripada o1-mini. Selain itu, pada pertanyaan rumit di dunia nyata, o3-mini membuat 39% lebih sedikit "kesalahan besar" daripada o1-mini, dan memberikan respons yang "lebih jelas" 24% lebih cepat.

o3-mini tersedia untuk semua pengguna ChatGPT mulai 31 Januari, tetapi pengguna ChatGPT Plus dan Team dapat mengajukan lebih banyak pertanyaan, hingga 150 pertanyaan per hari. Pengguna ChatGPT Pro mendapatkan akses tak terbatas. o3-mini akan tersedia di ChatGPT Enterprise dan ChatGPT Edu dalam waktu seminggu.

Pengguna ChatGPT berbayar dapat memilih o3-mini dari menu tarik-turun di aplikasi, sementara pengguna gratis mengklik tombol “Alasan” baru di kotak obrolan.

Biaya o3-mini adalah $0,55/1 juta token input dan $4,40/1 juta token output, dengan 1 juta token setara dengan sekitar 750.000 kata. Harga ini 63% lebih murah daripada o1-mini dan juga kompetitif dengan DeepSeek R1. DeepSeek mengenakan biaya $0,14/1 juta token input dan $2,19/1 juta token output untuk R1.

Di ChatGPT, o-3 mini diatur ke mode inferensi sedang untuk menyeimbangkan kecepatan dan akurasi respons. Pengguna premium dapat memilih mode yang lebih tinggi, yang menawarkan kualitas lebih baik tetapi waktu respons lebih lambat. Apa pun versi yang digunakan, model ini akan mencari balasan terbaru dan tautan terkait.

(Menurut TechCrunch)