Telefon som visar OpenAI:s GPT-o1-inlärningsgränssnitt - Foto: FINANCIAL TIMES
Enligt Financial Times den 13 september medgav företaget OpenAI att GPT-o1-modellen, som just lanserades den 12 september, "avsevärt" ökar risken för att artificiell intelligens (AI) utnyttjas för att skapa biologiska vapen.
Ett dokument som förklarar hur GPT-o1 fungerar och publicerat av OpenAI anger att den nya modellen har en "medelhög risknivå" för problem relaterade till kemiska, biologiska, radiologiska och kärnvapen. Detta är den högsta risknivån som OpenAI någonsin har tilldelat sina AI-modeller.
Enligt OpenAI innebär detta att GPT-o1 skulle kunna "dramatiskt förbättra" förmågan hos experter som vill missbruka dem att skapa biologiska vapen.
Mira Murati, teknikchef (CTO) på OpenAI, sa att även om GPT-o1 fortfarande är i testfasen, tvingar modellens avancerade funktioner fortfarande företaget att vara extremt "försiktiga" med sin färdplan gentemot allmänheten.
Fru Murati bekräftade också att modellen hade testats noggrant av ett tvärvetenskapligt expertteam som anlitats av OpenAI för att testa gränserna för den modell som företaget utvecklat.
Testprocessen visade att GPT-o1-modellen uppfyller de allmänna säkerhetskriterierna mycket bättre än sina föregångare, delade Murati.
OpenAI-representanter stannade inte där, utan försäkrade också att testversionen av GPT-o1 är "säker för driftsättning" och inte kan skapa mer komplexa risker än de utvecklade teknikerna.
Trots ovanstående försäkringar är en stor del av forskarsamhället och de som är intresserade av AI fortfarande inte särskilt optimistiska om utvecklingsriktningen för denna teknik.
Oron för att AI utvecklas för snabbt och överträffar utvecklingen och godkännandet av regelverk som styr den växer.
Professor Yoshua Bengio, datavetenskapsstudent vid University of Montreal och en av världens ledande AI-forskare, sa att om OpenAI nu utgör en "medelhög risk" för kemiska och biologiska vapen, "förstärker detta bara vikten och brådskandet" av lagar, som den som debatteras hett i Kalifornien för att reglera området.
Denna forskare betonade att ovanstående institutioner är särskilt nödvändiga i samband med att AI i allt högre grad närmar sig nivån av artificiell generell intelligens (AGI), vilket innebär att ha förmågan att resonera i nivå med människor.
”Ju närmare banbrytande AI-modeller kommer AGI, desto fler risker ökar om lämpliga försiktighetsåtgärder inte vidtas. AI:s förbättrade resonemangsförmåga och dess användning för bedrägerier är extremt farligt”, bedömde Bengio.
[annons_2]
Källa: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
Kommentar (0)