Model ini mampu bernalar, memecahkan masalah matematika yang rumit, dan menjawab pertanyaan penelitian ilmiah , yang dianggap sebagai langkah maju yang penting dalam upaya pengembangan kecerdasan umum buatan (AGI) - mesin dengan kemampuan kognitif seperti manusia.
OpenAI menyatakan pihaknya sangat "berhati-hati" dalam memperkenalkan model o1 kepada publik mengingat kemampuannya yang canggih. Foto: Getty Images
Menurut Financial Times, OpenAI menilai risiko model-model baru ini sebagai "sedang" untuk masalah yang berkaitan dengan senjata kimia, biologi, radiologi, dan nuklir (CBRN), tertinggi yang pernah dinilai perusahaan tersebut. Ini berarti teknologi ini telah "meningkatkan secara signifikan" kemampuan para ahli untuk menciptakan senjata biologis.
Menurut para ahli, perangkat lunak AI yang mampu melakukan penalaran terperinci, terutama di tangan pelaku kejahatan, dapat meningkatkan risiko penyalahgunaan.
Profesor Yoshua Bengio, ilmuwan AI terkemuka dunia dari Universitas Montreal, menekankan bahwa tingkat risiko sedang ini meningkatkan urgensi regulasi AI, seperti SB 1047, yang saat ini sedang dibahas di California. RUU ini mewajibkan produsen AI untuk mengambil langkah-langkah guna mengurangi risiko penyalahgunaan model mereka untuk mengembangkan senjata biologis.
Menurut The Verge, keamanan dan keselamatan model AI telah menjadi perhatian utama karena perusahaan teknologi seperti Google, Meta, dan Anthropic berlomba untuk membangun dan meningkatkan sistem AI yang canggih.
Sistem ini berpotensi memberikan manfaat besar dalam membantu manusia menyelesaikan tugas dan memberikan bantuan di berbagai bidang, tetapi juga menimbulkan tantangan keselamatan dan tanggung jawab sosial.
Cao Phong (menurut FT, Reuters, The Verge)
[iklan_2]
Sumber: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
Komentar (0)