Vietnam.vn - Nền tảng quảng bá Việt Nam

Nová umělá inteligence by mohla být použita k vytvoření biologických zbraní

Báo Tuổi TrẻBáo Tuổi Trẻ14/09/2024


OpenAI thừa nhận AI mới có thể bị dùng để chế vũ khí sinh học - Ảnh 1.

Telefon zobrazující výukové rozhraní OpenAI GPT-o1 - Foto: FINANCIAL TIMES

Podle deníku Financial Times z 13. září společnost OpenAI přiznala, že model GPT-o1, který byl spuštěn právě 12. září, „významně“ zvyšuje riziko zneužití umělé inteligence (AI) k vytváření biologických zbraní.

Dokument vysvětlující fungování GPT-o1, který publikovala společnost OpenAI, uvádí, že nový model má „střední úroveň rizika“ pro problémy související s chemickými, biologickými, radiologickými a jadernými zbraněmi. Jedná se o nejvyšší úroveň rizika, jakou kdy OpenAI svým modelům umělé inteligence přiřadila.

Podle OpenAI to znamená, že GPT-o1 by mohl „dramaticky zlepšit“ schopnosti expertů, kteří je chtějí zneužít k vytváření biologických zbraní.

Mira Murati, hlavní technologická ředitelka (CTO) společnosti OpenAI, uvedla, že ačkoliv je GPT-o1 stále ve fázi testování, pokročilé funkce modelu stále nutí společnost k extrémní „opatrnosti“ ohledně jeho plánu pro veřejnost.

Paní Murati také potvrdila, že model byl důkladně otestován multidisciplinárním týmem expertů najatých společností OpenAI, aby otestovali limity modelu vyvinutého společností.

„Zkušební proces ukázal, že model GPT-o1 splňuje obecná bezpečnostní kritéria mnohem lépe než jeho předchůdci,“ sdělila paní Murati.

Zástupci OpenAI se tím nezastavili a ujistili také, že zkušební verze GPT-o1 je „bezpečná pro nasazení“ a nemůže vytvářet složitější rizika než vyvinuté technologie.

Navzdory výše uvedeným ujištěním stále velká část vědecké komunity a zájemců o umělou inteligenci není ohledně směru vývoje této technologie příliš optimistická.

Obavy, že se umělá inteligence vyvíjí příliš rychle a předbíhá vývoj a schvalování předpisů, které ji upravují, rostou.

Profesor Yoshua Bengio, student informatiky na Montrealské univerzitě a jeden z předních světových vědců v oblasti umělé inteligence, uvedl, že pokud OpenAI nyní představuje „střední riziko“ chemických a biologických zbraní, „to jen posiluje důležitost a naléhavost“ zákonů, jako je ten, o kterém se v Kalifornii vášnivě diskutuje, aby tuto oblast reguloval.

Tento vědec zdůraznil, že výše uvedené instituce jsou obzvláště nezbytné v kontextu stále se více blížícího úrovně umělé inteligence (AGI), což znamená schopnost uvažovat na úrovni lidí.

„Čím blíže se průkopnické modely umělé inteligence dostanou k obecné umělé inteligenci (AGI), tím více rizik se zvýší, pokud nebudou přijata vhodná opatření. Vylepšená schopnost uvažování umělé inteligence a její zneužívání k podvodům jsou extrémně nebezpečné,“ zhodnotil pan Bengio.



Zdroj: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm

Komentář (0)

No data
No data

Ve stejném tématu

Ve stejné kategorii

G-Dragon si během svého vystoupení ve Vietnamu získal u publika spoustu urážek.
Fanynka ve svatebních šatech přišla na koncert G-Dragona v Hung Yen
Fascinován krásou vesnice Lo Lo Chai v sezóně květu pohanky
Mladá rýže Me Tri hoří a hemží se tloučkem pro novou úrodu.

Od stejného autora

Dědictví

Postava

Obchod

Mladá rýže Me Tri hoří a hemží se tloučkem pro novou úrodu.

Aktuální události

Politický systém

Místní

Produkt