Modellens evne til å resonnere, løse komplekse matematiske problemer og svare på vitenskapelige forskningsspørsmål blir sett på som et stort skritt fremover i arbeidet med å utvikle kunstig generell intelligens (AGI) – maskiner med menneskelignende kognitive evner.
OpenAI sa at de var spesielt «forsiktige» med hvordan de brakte o1-modellen til offentligheten gitt dens avanserte funksjoner. Foto: Getty Images
Ifølge Financial Times vurderte OpenAI risikoen for disse nye modellene som «middels» for problemer knyttet til kjemiske, biologiske, radiologiske og nukleære (CBRN) våpen, den høyeste risikoen selskapet noen gang har vurdert. Dette betyr at teknologien har «betydelig forbedret» ekspertenes evne til å lage biologiske våpen.
AI-programvare som er i stand til detaljert resonnement, spesielt i hendene på ondsinnede aktører, kan øke risikoen for misbruk, sier eksperter.
Professor Yoshua Bengio, en verdensledende AI-forsker fra Universitetet i Montreal, har understreket at dette middels risikonivået øker behovet for AI-forskrifter, som SB 1047, som for tiden debatteres i California. Dette lovforslaget krever at AI-produsenter tar grep for å redusere risikoen for at modellene deres misbrukes til å utvikle biologiske våpen.
Ifølge The Verge har sikkerheten til AI-modeller blitt en stor bekymring ettersom teknologiselskaper som Google, Meta og Anthropic kjemper om å bygge og forbedre avanserte AI-systemer.
Disse systemene har potensial til å gi store fordeler ved å hjelpe mennesker med å fullføre oppgaver og bistå på en rekke områder, men de byr også på utfordringer når det gjelder sikkerhet og samfunnsansvar.
Cao Phong (ifølge FT, Reuters og The Verge)
[annonse_2]
Kilde: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
Kommentar (0)