:Telefon, amelyen az OpenAI GPT-o1 tanulási felülete látható - Fotó: FINANCIAL TIMES
A Financial Times szeptember 13-i cikke szerint az OpenAI vállalat elismerte, hogy a szeptember 12-én piacra dobott GPT-o1 modell „jelentősen” növeli annak kockázatát, hogy a mesterséges intelligenciát (MI) biológiai fegyverek létrehozására használják fel.
Az OpenAI által közzétett, a GPT-o1 működését ismertető dokumentum szerint az új modell „közepes kockázati szinttel” rendelkezik a vegyi, biológiai, radiológiai és nukleáris fegyverekkel kapcsolatos problémák tekintetében. Ez a legmagasabb kockázati szint, amelyet az OpenAI valaha is a mesterséges intelligencia modelljeihez rendelt.
Az OpenAI szerint ez azt jelenti, hogy a GPT-o1 "drámai módon javíthatja" azoknak a szakértőknek a képességét, akik visszaélni akarnak vele biofegyverek létrehozásában.
Mira Murati, az OpenAI technológiai igazgatója (CTO) elmondta, hogy bár a GPT-o1 még tesztelési fázisban van, a modell fejlett képességei továbbra is rendkívül „óvatos” bánásmódra kényszerítik a vállalatot a nyilvánosság számára kidolgozott ütemtervével kapcsolatban.
Murati asszony azt is megerősítette, hogy a modellt alaposan tesztelte egy multidiszciplináris szakértői csapat, amelyet az OpenAI bízott meg a vállalat által kifejlesztett modell korlátainak tesztelésével.
A tesztelési folyamat kimutatta, hogy a GPT-o1 modell sokkal jobban megfelel az általános biztonsági kritériumoknak, mint elődei – osztotta meg Murati asszony.
Az OpenAI képviselői azonban nem álltak meg itt, és biztosították a felhasználókat arról, hogy a GPT-o1 próbaverziója „biztonságosan telepíthető”, és nem okozhat összetettebb kockázatokat, mint a kifejlesztett technológiák.
A fenti biztosítékok ellenére a tudományos közösség és a mesterséges intelligencia iránt érdeklődők nagy része még mindig nem túl optimista a technológia fejlesztési irányát illetően.
Egyre nőnek az aggodalmak azzal kapcsolatban, hogy a mesterséges intelligencia túl gyorsan fejlődik, és meghaladja az azt szabályozó szabályozások kidolgozását és jóváhagyását.
Yoshua Bengio professzor, a Montreali Egyetem számítástechnikus szakos hallgatója és a világ egyik vezető mesterséges intelligencia-tudósa szerint, ha az OpenAI most „közepes kockázatot” jelent a vegyi és biológiai fegyverek tekintetében, az „csak megerősíti az olyan törvények fontosságát és sürgősségét”, mint amilyenről Kaliforniában heves viták folynak a terület szabályozása érdekében.
Ez a tudós hangsúlyozta, hogy a fenti intézmények különösen szükségesek abban a kontextusban, amikor a mesterséges intelligencia egyre inkább a mesterséges intelligencia (AGI) szintjére közelít, ami azt jelenti, hogy az emberekkel egyenrangú gondolkodási képességgel kell rendelkeznie.
„Minél közelebb kerülnek az úttörő mesterséges intelligencia modellek az átfogó mesterséges intelligenciához (AGI), annál nagyobb kockázatok fognak megnőni, ha nem tesszük meg a megfelelő óvintézkedéseket. A mesterséges intelligencia fejlett érvelési képessége és csalásra való felhasználása rendkívül veszélyes” – értékelte Bengio úr.
[hirdetés_2]
Forrás: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
Hozzászólás (0)