Modellens förmåga att resonera, lösa komplexa matematiska problem och besvara vetenskapliga forskningsfrågor ses som ett stort steg framåt i arbetet med att utveckla artificiell generell intelligens (AGI) – maskiner med människoliknande kognitiva förmågor.
OpenAI sa att de var särskilt "försiktiga" med hur de presenterade o1-modellen för allmänheten med tanke på dess avancerade funktioner. Foto: Getty Images
Enligt Financial Times betygsatte OpenAI risken med dessa nya modeller som "medelhög" för problem relaterade till kemiska, biologiska, radiologiska och nukleära (CBRN) vapen, den högsta som företaget någonsin har bedömt. Det betyder att tekniken har "avsevärt förbättrat" experters förmåga att skapa biologiska vapen.
AI-programvara som kan föra detaljerade resonemang, särskilt i händerna på onda aktörer, kan öka risken för missbruk, säger experter.
Professor Yoshua Bengio, en världsledande AI-forskare från University of Montreal, har betonat att denna medelhöga risknivå ökar brådskan med AI-regleringar, såsom SB 1047, som för närvarande debatteras i Kalifornien. Denna lag kräver att AI-tillverkare vidtar åtgärder för att minska risken för att deras modeller missbrukas för att utveckla biologiska vapen.
Enligt The Verge har säkerheten hos AI-modeller blivit ett stort problem i takt med att teknikföretag som Google, Meta och Anthropic tävlar om att bygga och förbättra avancerade AI-system.
Dessa system har potential att ge stora fördelar genom att hjälpa människor att slutföra uppgifter och assistera inom en mängd olika områden, men innebär också utmaningar när det gäller säkerhet och socialt ansvar.
Cao Phong (enligt FT, Reuters, The Verge)
[annons_2]
Källa: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
Kommentar (0)