Schopnost modelu uvažovat, řešit složité matematické problémy a odpovídat na otázky vědeckého výzkumu je považována za významný krok vpřed ve snaze vyvinout umělou obecnou inteligenci (AGI) – stroje s kognitivními schopnostmi podobnými lidským.
Společnost OpenAI uvedla, že vzhledem k pokročilým funkcím modelu o1 je obzvláště „opatrná“ ohledně jeho představení veřejnosti. Foto: Getty Images
Podle deníku Financial Times společnost OpenAI ohodnotila riziko těchto nových modelů jako „střední“ v souvislosti s chemickými, biologickými, radiologickými a jadernými (CBRN) zbraněmi, což je nejvyšší hodnota, jakou kdy společnost ohodnotila. To znamená, že technologie „významně zlepšila“ schopnost odborníků vytvářet biologické zbraně.
Odborníci tvrdí, že software umělé inteligence schopný detailního uvažování, zejména v rukou zločinců, může zvýšit riziko zneužití.
Profesor Yoshua Bengio, přední světový vědec v oblasti umělé inteligence z Montrealské univerzity, zdůraznil, že tato střední úroveň rizika zvyšuje naléhavost regulace umělé inteligence, jako je například SB 1047, o kterém se v současné době diskutuje v Kalifornii. Tento návrh zákona vyžaduje, aby tvůrci umělé inteligence přijali opatření ke snížení rizika zneužití jejich modelů k vývoji biologických zbraní.
Podle serveru The Verge se bezpečnost a ochrana modelů umělé inteligence stala hlavním problémem, jelikož technologické společnosti jako Google, Meta a Anthropic předhánějí ve vývoji a vylepšování pokročilých systémů umělé inteligence.
Tyto systémy mají potenciál přinést velké výhody při pomoci lidem s plněním úkolů a asistenci v různých oblastech, ale také představují výzvy z hlediska bezpečnosti a společenské odpovědnosti.
Cao Phong (podle FT, Reuters, The Verge)
Zdroj: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
Komentář (0)