Keupayaan model untuk menaakul, menyelesaikan masalah matematik yang kompleks dan menjawab soalan penyelidikan saintifik dilihat sebagai langkah besar ke hadapan dalam usaha membangunkan kecerdasan am buatan (AGI) - mesin dengan kebolehan kognitif seperti manusia.
OpenAI berkata ia sangat "berhati-hati" tentang cara ia membawa model o1 kepada orang ramai memandangkan keupayaan canggihnya. Foto: Getty Images
Menurut Financial Times, OpenAI menilai risiko model baharu ini sebagai "sederhana" untuk isu berkaitan senjata kimia, biologi, radiologi dan nuklear (CBRN), yang tertinggi pernah dinilai syarikat. Ini bermakna teknologi telah "meningkatkan dengan ketara" keupayaan pakar untuk mencipta senjata biologi.
Perisian AI yang mampu membuat penaakulan terperinci, terutamanya di tangan pelakon jahat, boleh meningkatkan risiko penyalahgunaan, kata pakar.
Profesor Yoshua Bengio, seorang saintis AI terkemuka dunia dari Universiti Montreal, telah menekankan bahawa tahap risiko sederhana ini meningkatkan keperluan mendesak untuk peraturan AI, seperti SB 1047, yang sedang dibahaskan di California. Rang undang-undang ini memerlukan pembuat AI mengambil langkah untuk mengurangkan risiko model mereka disalahgunakan untuk membangunkan senjata biologi.
Menurut The Verge, keselamatan dan keselamatan model AI telah menjadi kebimbangan utama kerana syarikat teknologi seperti Google, Meta dan Anthropic berlumba-lumba untuk membina dan menambah baik sistem AI yang canggih.
Sistem ini berpotensi membawa manfaat yang besar dalam membantu manusia menyelesaikan tugas dan membantu dalam pelbagai bidang, tetapi juga menimbulkan cabaran dari segi keselamatan dan tanggungjawab sosial.
Cao Phong (menurut FT, Reuters, The Verge)
Sumber: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html






Komen (0)