Telefon care prezintă interfața de învățare GPT-o1 a OpenAI - Fotografie: FINANCIAL TIMES
Conform Financial Times din 13 septembrie, compania OpenAI a recunoscut că modelul GPT-o1, lansat pe 12 septembrie, crește „semnificativ” riscul ca inteligența artificială (IA) să fie exploatată pentru a crea arme biologice.
Un document care explică modul de funcționare al GPT-o1, publicat de OpenAI, afirmă că noul model are un „nivel de risc mediu” pentru problemele legate de armele chimice, biologice, radiologice și nucleare. Acesta este cel mai înalt nivel de risc atribuit vreodată de OpenAI modelelor sale de inteligență artificială.
Conform OpenAI, aceasta înseamnă că GPT-o1 ar putea „îmbunătăți dramatic” capacitatea experților care doresc să le utilizeze în mod abuziv pentru a crea arme biologice.
Mira Murati, director tehnic (CTO) al OpenAI, a declarat că, deși GPT-o1 este încă în faza de testare, capacitățile avansate ale modelului obligă în continuare compania să fie extrem de „prudentă” în ceea ce privește foaia de parcurs pentru public.
Dna Murati a confirmat, de asemenea, că modelul a fost testat temeinic de o echipă multidisciplinară de experți angajați de OpenAI pentru a testa limitele modelului dezvoltat de companie.
Procesul de testare a arătat că modelul GPT-o1 îndeplinește criteriile generale de siguranță mult mai bine decât predecesoarele sale, a declarat dna Murati.
Fără a se opri aici, reprezentanții OpenAI au dat asigurări că versiunea de probă a GPT-o1 este „sigură pentru implementare” și nu poate crea riscuri mai complexe decât tehnologiile dezvoltate.
În ciuda asigurărilor de mai sus, o mare parte a comunității științifice și a celor interesați de inteligența artificială nu sunt încă foarte optimiști în ceea ce privește direcția de dezvoltare a acestei tehnologii.
Îngrijorările legate de faptul că IA se dezvoltă prea rapid și depășește dezvoltarea și aprobarea reglementărilor care o guvernează sunt în creștere.
Profesorul Yoshua Bengio, absolvent de informatică la Universitatea din Montreal și unul dintre cei mai importanți oameni de știință în domeniul inteligenței artificiale din lume , a declarat că, dacă OpenAI prezintă acum un „risc mediu” pentru armele chimice și biologice, „acest lucru nu face decât să întărească importanța și urgența” unor legi, cum ar fi cea dezbătută aprins în California pentru reglementarea domeniului.
Acest om de știință a subliniat că instituțiile menționate mai sus sunt deosebit de necesare în contextul în care IA se apropie din ce în ce mai mult de nivelul inteligenței artificiale generale (AGI), ceea ce înseamnă că are capacitatea de a raționa la egalitate cu oamenii.
„Cu cât modelele de inteligență artificială inovatoare se apropie mai mult de inteligența artificială generală (IAG), cu atât riscurile vor crește dacă nu se iau măsurile de precauție adecvate. Capacitatea îmbunătățită de raționament a IA și utilizarea acesteia pentru fraudă sunt extrem de periculoase”, a evaluat dl. Bengio.
Sursă: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
Comentariu (0)