Telefon som viser OpenAIs GPT-o1-læringsgrensesnitt - Foto: FINANCIAL TIMES
Ifølge Financial Times 13. september innrømmet selskapet OpenAI at GPT-o1-modellen, som nettopp ble lansert 12. september, «betydelig» øker risikoen for at kunstig intelligens (KI) utnyttes til å lage biologiske våpen.
Et dokument som forklarer hvordan GPT-o1 fungerer, publisert av OpenAI, slår fast at den nye modellen har et «middels risikonivå» for problemer knyttet til kjemiske, biologiske, radiologiske og atomvåpen. Dette er det høyeste risikonivået OpenAI noen gang har tildelt sine AI-modeller.
Ifølge OpenAI betyr dette at GPT-o1 kan «dramatisk forbedre» evnen til eksperter som ønsker å misbruke dem til å lage biologiske våpen.
Mira Murati, teknologidirektør (CTO) i OpenAI, sa at selv om GPT-o1 fortsatt er i testfasen, tvinger modellens avanserte funksjoner fortsatt selskapet til å være ekstremt «forsiktig» med sin presentasjon for offentligheten.
Fru Murati bekreftet også at modellen hadde blitt grundig testet av et tverrfaglig team av eksperter ansatt av OpenAI for å teste grensene til modellen som selskapet utviklet.
Testprosessen viste at GPT-o1-modellen oppfyller de generelle sikkerhetskriteriene mye bedre enn forgjengerne, delte Murati.
Representanter for OpenAI stoppet ikke der, men forsikret også om at prøveversjonen av GPT-o1 er «trygg for distribusjon» og ikke kan skape mer komplekse risikoer enn de utviklede teknologiene.
Til tross for ovennevnte forsikringer er en stor del av det vitenskapelige miljøet og de som er interessert i AI fortsatt ikke særlig optimistiske med tanke på utviklingsretningen for denne teknologien.
Bekymringen for at AI utvikler seg for raskt og overgår utviklingen og godkjenningen av regelverk som styrer den, øker.
Professor Yoshua Bengio, en informatikkstudent ved Universitetet i Montreal og en av verdens ledende AI-forskere, sa at hvis OpenAI nå utgjør en «middels risiko» for kjemiske og biologiske våpen, «forsterker dette bare viktigheten og hastverket» av lover, slik som den som debatteres heftig i California for å regulere feltet.
Denne forskeren understreket at institusjonene ovenfor er spesielt nødvendige i sammenheng med at AI i økende grad nærmer seg nivået av kunstig generell intelligens (AGI), som betyr å ha evnen til å resonnere på linje med mennesker.
«Jo nærmere banebrytende AI-modeller kommer AGI, desto større vil risikoen øke hvis det ikke tas riktige forholdsregler. AIs forbedrede resonneringsevne og bruken av den til svindel er ekstremt farlig», vurderte Bengio.
[annonse_2]
Kilde: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
Kommentar (0)