Vietnam.vn - Nền tảng quảng bá Việt Nam

Noua inteligență artificială ar putea fi folosită pentru a crea arme biologice

Báo Tuổi TrẻBáo Tuổi Trẻ14/09/2024


OpenAI thừa nhận AI mới có thể bị dùng để chế vũ khí sinh học - Ảnh 1.

Telefon care prezintă interfața de învățare GPT-o1 a OpenAI - Fotografie: FINANCIAL TIMES

Conform Financial Times din 13 septembrie, compania OpenAI a recunoscut că modelul GPT-o1, lansat pe 12 septembrie, crește „semnificativ” riscul ca inteligența artificială (IA) să fie exploatată pentru a crea arme biologice.

Un document care explică modul de funcționare al GPT-o1, publicat de OpenAI, afirmă că noul model are un „nivel de risc mediu” pentru problemele legate de armele chimice, biologice, radiologice și nucleare. Acesta este cel mai înalt nivel de risc atribuit vreodată de OpenAI modelelor sale de inteligență artificială.

Conform OpenAI, aceasta înseamnă că GPT-o1 ar putea „îmbunătăți dramatic” capacitatea experților care doresc să le utilizeze în mod abuziv pentru a crea arme biologice.

Mira Murati, director tehnic (CTO) al OpenAI, a declarat că, deși GPT-o1 este încă în faza de testare, capacitățile avansate ale modelului obligă în continuare compania să fie extrem de „prudentă” în ceea ce privește foaia de parcurs pentru public.

Dna Murati a confirmat, de asemenea, că modelul a fost testat temeinic de o echipă multidisciplinară de experți angajați de OpenAI pentru a testa limitele modelului dezvoltat de companie.

Procesul de testare a arătat că modelul GPT-o1 îndeplinește criteriile generale de siguranță mult mai bine decât predecesoarele sale, a declarat dna Murati.

Fără a se opri aici, reprezentanții OpenAI au dat asigurări că versiunea de probă a GPT-o1 este „sigură pentru implementare” și nu poate crea riscuri mai complexe decât tehnologiile dezvoltate.

În ciuda asigurărilor de mai sus, o mare parte a comunității științifice și a celor interesați de inteligența artificială nu sunt încă foarte optimiști în ceea ce privește direcția de dezvoltare a acestei tehnologii.

Îngrijorările legate de faptul că IA se dezvoltă prea rapid și depășește dezvoltarea și aprobarea reglementărilor care o guvernează sunt în creștere.

Profesorul Yoshua Bengio, absolvent de informatică la Universitatea din Montreal și unul dintre cei mai importanți oameni de știință în domeniul inteligenței artificiale din lume , a declarat că, dacă OpenAI prezintă acum un „risc mediu” pentru armele chimice și biologice, „acest lucru nu face decât să întărească importanța și urgența” unor legi, cum ar fi cea dezbătută aprins în California pentru reglementarea domeniului.

Acest om de știință a subliniat că instituțiile menționate mai sus sunt deosebit de necesare în contextul în care IA se apropie din ce în ce mai mult de nivelul inteligenței artificiale generale (AGI), ceea ce înseamnă că are capacitatea de a raționa la egalitate cu oamenii.

„Cu cât modelele de inteligență artificială inovatoare se apropie mai mult de inteligența artificială generală (IAG), cu atât riscurile vor crește dacă nu se iau măsurile de precauție adecvate. Capacitatea îmbunătățită de raționament a IA și utilizarea acesteia pentru fraudă sunt extrem de periculoase”, a evaluat dl. Bengio.



Sursă: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm

Comentariu (0)

No data
No data

Pe aceeași temă

În aceeași categorie

Cheltuiește milioane pentru a învăța aranjamente florale și găsește experiențe de conectare în timpul Festivalului de la Mijlocul Toamnei
Există un deal de flori Sim mov pe cerul din Son La
Pierdut în vânătoarea de nori în Ta Xua
Frumusețea golfului Ha Long a fost recunoscută de UNESCO ca sit al patrimoniului mondial de trei ori.

De același autor

Patrimoniu

;

Figura

;

Afaceri

;

No videos available

Evenimente actuale

;

Sistem politic

;

Local

;

Produs

;