:Ponsel yang menunjukkan antarmuka pembelajaran GPT-o1 OpenAI - Foto: FINANCIAL TIMES
Menurut Financial Times pada 13 September, perusahaan OpenAI mengakui bahwa model GPT-o1, yang baru diluncurkan pada 12 September, "secara signifikan" meningkatkan risiko kecerdasan buatan (AI) dieksploitasi untuk membuat senjata biologis.
Sebuah makalah yang menjelaskan cara kerja GPT-o1 yang diterbitkan oleh OpenAI menyatakan bahwa model baru ini memiliki "tingkat risiko sedang" untuk masalah yang berkaitan dengan senjata kimia, biologi, radiologi, dan nuklir. Ini adalah tingkat risiko tertinggi yang pernah ditetapkan OpenAI untuk model AI-nya.
Menurut OpenAI, ini berarti GPT-o1 dapat “secara dramatis meningkatkan” kemampuan para ahli yang ingin menyalahgunakannya untuk menciptakan senjata biologis.
Mira Murati, kepala teknologi (CTO) OpenAI, mengatakan bahwa meskipun GPT-o1 masih dalam tahap percobaan, kemampuan canggih model tersebut tetap memaksa perusahaan untuk sangat "berhati-hati" dalam mendistribusikannya ke publik.
Ibu Murati juga mengonfirmasi bahwa model tersebut telah diuji secara menyeluruh oleh tim ahli multidisiplin yang disewa oleh OpenAI untuk menguji batas-batas model yang dikembangkan oleh perusahaan tersebut.
Pengujian menunjukkan bahwa model GPT-o1 memenuhi kriteria keselamatan umum jauh lebih baik daripada pendahulunya, kata Murati.
Tidak berhenti di situ, perwakilan OpenAI juga meyakinkan bahwa versi uji coba GPT-o1 "aman untuk diterapkan" dan tidak dapat menimbulkan risiko yang lebih kompleks daripada teknologi yang dikembangkan.
Meskipun ada jaminan di atas, sebagian besar komunitas ilmiah dan mereka yang tertarik pada AI masih belum terlalu optimis tentang arah pengembangan teknologi ini.
Kekhawatiran bahwa AI berkembang terlalu cepat dan melampaui kecepatan pengembangan dan persetujuan regulasi untuk mengaturnya semakin meningkat.
Jika OpenAI kini menimbulkan "risiko sedang" terhadap senjata kimia dan biologi, "hal ini hanya memperkuat pentingnya dan urgensi" undang-undang seperti yang sedang diperdebatkan dengan sengit di California untuk mengatur bidang tersebut, kata Yoshua Bengio, seorang profesor ilmu komputer di Universitas Montreal dan salah satu ilmuwan AI terkemuka di dunia .
Ilmuwan ini menekankan bahwa lembaga-lembaga di atas terutama diperlukan dalam konteks AI yang semakin mendekati tingkat kecerdasan umum buatan (AGI), yang berarti memiliki kemampuan bernalar yang setara dengan manusia.
"Semakin dekat model AI pionir dengan AGI, semakin besar risikonya jika tindakan pencegahan yang tepat tidak diambil. Kemampuan penalaran AI yang semakin baik dan penggunaannya untuk penipuan sangatlah berbahaya," ujar Bapak Bengio.
[iklan_2]
Sumber: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
Komentar (0)