:Telefon yang menunjukkan antara muka pembelajaran GPT-o1 OpenAI - Foto: FINANCIAL TIMES
Menurut Financial Times pada 13 September, syarikat OpenAI mengakui bahawa model GPT-o1, yang baru dilancarkan pada 12 September, "dengan ketara" meningkatkan risiko kecerdasan buatan (AI) dieksploitasi untuk mencipta senjata biologi.
Dokumen yang menerangkan cara GPT-o1 berfungsi yang diterbitkan oleh OpenAI menyatakan bahawa model baharu itu mempunyai "tahap risiko sederhana" untuk isu berkaitan senjata kimia, biologi, radiologi dan nuklear. Ini adalah tahap risiko tertinggi yang pernah diberikan OpenAI kepada model AInya.
Menurut OpenAI, ini bermakna GPT-o1 boleh "meningkatkan secara dramatik" keupayaan pakar yang ingin menyalahgunakan mereka untuk mencipta bioweapon.
Mira Murati, ketua pegawai teknologi (CTO) OpenAI, berkata walaupun GPT-o1 masih dalam fasa ujian, keupayaan canggih model itu masih memaksa syarikat itu untuk menjadi sangat "berhati-hati" mengenai pelan hala tujunya kepada orang ramai.
Cik Murati juga mengesahkan bahawa model itu telah diuji secara menyeluruh oleh pasukan pakar pelbagai disiplin yang diupah oleh OpenAI untuk menguji had model yang dibangunkan oleh syarikat itu.
Proses ujian menunjukkan model GPT-o1 memenuhi kriteria keselamatan am jauh lebih baik daripada pendahulunya, kongsi Cik Murati.
Tidak berhenti di situ, wakil OpenAI juga memberi jaminan bahawa versi percubaan GPT-o1 adalah "selamat untuk digunakan" dan tidak boleh mencipta risiko yang lebih kompleks daripada teknologi yang dibangunkan.
Walaupun jaminan di atas, sebahagian besar komuniti saintifik dan mereka yang berminat dengan AI masih tidak begitu optimistik tentang hala tuju pembangunan teknologi ini.
Kebimbangan bahawa AI berkembang terlalu cepat dan mengatasi pembangunan dan kelulusan peraturan yang mengawalnya semakin berkembang.
Jika OpenAI kini menimbulkan "risiko sederhana" senjata kimia dan biologi, "ia hanya mengukuhkan kepentingan dan kesegeraan" perundangan, seperti yang sedang hangat diperkatakan di California untuk mengawal selia bidang itu, kata Yoshua Bengio, seorang profesor sains komputer di Universiti Montreal dan salah seorang saintis AI terkemuka di dunia .
Saintis ini menekankan bahawa institusi di atas amat diperlukan dalam konteks AI yang semakin menghampiri tahap kecerdasan am buatan (AGI), yang bermaksud mempunyai keupayaan untuk menaakul setanding dengan manusia.
"Semakin dekat model AI perintis kepada AGI, lebih banyak risiko akan meningkat jika langkah berjaga-jaga yang sewajarnya tidak diambil. Keupayaan penaakulan AI yang lebih baik dan penggunaannya untuk penipuan amat berbahaya," kata Encik Bengio.
Sumber: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
Komen (0)