Telefon zobrazující výukové rozhraní OpenAI GPT-o1 - Foto: FINANCIAL TIMES
Podle deníku Financial Times z 13. září společnost OpenAI přiznala, že model GPT-o1, který byl spuštěn právě 12. září, „významně“ zvyšuje riziko zneužití umělé inteligence (AI) k vytváření biologických zbraní.
Dokument vysvětlující fungování GPT-o1, který publikovala společnost OpenAI, uvádí, že nový model má „střední úroveň rizika“ pro problémy související s chemickými, biologickými, radiologickými a jadernými zbraněmi. Jedná se o nejvyšší úroveň rizika, jakou kdy OpenAI svým modelům umělé inteligence přiřadila.
Podle OpenAI to znamená, že GPT-o1 by mohl „dramaticky zlepšit“ schopnosti expertů, kteří je chtějí zneužít k vytváření biologických zbraní.
Mira Murati, hlavní technologická ředitelka (CTO) společnosti OpenAI, uvedla, že ačkoliv je GPT-o1 stále ve fázi testování, pokročilé funkce modelu stále nutí společnost k extrémní „opatrnosti“ ohledně jeho plánu pro veřejnost.
Paní Murati také potvrdila, že model byl důkladně otestován multidisciplinárním týmem expertů najatých společností OpenAI, aby otestovali limity modelu vyvinutého společností.
„Zkušební proces ukázal, že model GPT-o1 splňuje obecná bezpečnostní kritéria mnohem lépe než jeho předchůdci,“ sdělila paní Murati.
Zástupci OpenAI se tím nezastavili a ujistili také, že zkušební verze GPT-o1 je „bezpečná pro nasazení“ a nemůže vytvářet složitější rizika než vyvinuté technologie.
Navzdory výše uvedeným ujištěním stále velká část vědecké komunity a zájemců o umělou inteligenci není ohledně směru vývoje této technologie příliš optimistická.
Obavy, že se umělá inteligence vyvíjí příliš rychle a předbíhá vývoj a schvalování předpisů, které ji upravují, rostou.
Profesor Yoshua Bengio, student informatiky na Montrealské univerzitě a jeden z předních světových vědců v oblasti umělé inteligence, uvedl, že pokud OpenAI nyní představuje „střední riziko“ chemických a biologických zbraní, „to jen posiluje důležitost a naléhavost“ zákonů, jako je ten, o kterém se v Kalifornii vášnivě diskutuje, aby tuto oblast reguloval.
Tento vědec zdůraznil, že výše uvedené instituce jsou obzvláště nezbytné v kontextu stále se více blížícího úrovně umělé inteligence (AGI), což znamená schopnost uvažovat na úrovni lidí.
„Čím blíže se průkopnické modely umělé inteligence dostanou k obecné umělé inteligenci (AGI), tím více rizik se zvýší, pokud nebudou přijata vhodná opatření. Vylepšená schopnost uvažování umělé inteligence a její zneužívání k podvodům jsou extrémně nebezpečné,“ zhodnotil pan Bengio.
Zdroj: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm






Komentář (0)