Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Modelul de „superinteligență” din spatele scandalului OpenAI

VTC NewsVTC News01/12/2023


Conform surselor Tech.co , în timp ce controversa privind concedierea CEO-ului Sam Altman și revenirea ulterioară la OpenAI era în desfășurare, unul dintre zvonuri era despre o scrisoare trimisă de cercetătorii companiei consiliului de administrație, în care își exprimau îngrijorarea cu privire la modelul de superinteligență artificială dezvoltat, care ar putea reprezenta o amenințare pentru umanitate.

(Ilustrare)

(Ilustrare)

Proiectul Q*

Se spune că modelul, cunoscut intern sub numele de Proiectul Q* (pronunțat Q-star), reprezintă o descoperire majoră în eforturile OpenAI de a dezvolta inteligența artificială generală (AGI) - o ramură extrem de autonomă a superinteligenței, capabilă de învățare cumulativă și de a depăși performanțele umane la majoritatea sarcinilor.

Q* ar putea marca un salt major înainte în domeniul inteligenței artificiale prin îmbunătățirea radicală a capacităților de raționament ale IA și prin aducerea OpenAI mai aproape de un progres major în dezvoltarea AGI, potrivit unor persoane familiarizate cu subiectul.

Spre deosebire de modelele actuale de inteligență artificială, care se concentrează pe capacitatea de a genera răspunsuri bazate pe informații învățate anterior, inteligența artificială generală (AGI) este un sistem autonom care poate aplica „rațiunea” deciziilor, oferindu-i capacități de rezolvare a problemelor la nivel uman.

Deși AGI nu este încă pe deplin realizată, mulți experți cred că tehnologia va avea și capacitatea de a învăța cumulativ, o altă trăsătură care le oferă oamenilor posibilitatea de a-și îmbunătăți abilitățile.

Unele surse susțin că proiectul Q* - OpenAI a reușit să demonstreze proprietățile menționate mai sus în rezolvarea problemelor. Nu numai atât, datorită enormei puteri de calcul a modelului, Q* a reușit să depășească performanțele elevilor de școală primară, demonstrând abilități de raționament și abilități cognitive semnificativ dincolo de capacitățile tehnologiei actuale de inteligență artificială.

Nu este clar de cât timp este în dezvoltare Q* și care ar putea fi aplicațiile sale, dar OpenAI i-a informat pe angajați și pe membrii consiliului de administrație despre proiect înainte de izbucnirea scandalului de personal.

Preocupări etice

Deși CEO-ul OpenAI, Sam Altman, este încrezător că tehnologia AGI va stimula inovația, unii cercetători s-au grăbit să sublinieze potențialele pericole ale proiectului.

Într-o scrisoare adresată consiliului de administrație, cercetătorii au avertizat asupra potențialelor pericole ale acestui algoritm puternic pentru umanitate. Preocupările etice specifice legate de inteligența artificială, subliniate în scrisoare, nu au fost dezvăluite, dar avertismentele au fost suficiente pentru a justifica decizia consiliului de a-l concedia pe Altman.

Între timp, motivul inițial invocat pentru concedierea lui Altman a fost că directorul general „a comunicat prost”. Acesta și-a găsit curând o nouă poziție la Microsoft. Această acțiune i-a determinat pe 700 dintre cei 770 de angajați ai OpenAI să amenințe că vor face același lucru dacă directorul general nu era repus în funcție.

Întrucât compania se afla în pericol de colaps, consiliul de administrație al OpenAI a fost forțat să-l repună pe Altman în funcția de conducere - ceea ce a dus și la o revizuire majoră a echipei executive a companiei și a scos în evidență diviziuni profunde în cadrul conducerii acesteia.

Acum, că Altman este din nou în funcție și că Proiectul Q* va primi probabil din nou undă verde, acest lucru ridică noi întrebări.

Cât de realist este Proiectul Q*?

Deși zilele tumultoase de la OpenAI au adus în centrul atenției conceptul de AGI, aceasta nu este prima dată când Altman menționează tehnologia.

Antreprenorul din Silicon Valley s-a trezit într-o situație dificilă în septembrie, după ce a comparat inteligența artificială generală (IA) cu „un om obișnuit pe care l-ai angaja ca și coleg”. El a continuat comentariile pe care le-a făcut anul trecut despre cum inteligența artificială ar putea „face orice ai putea face cu un coleg de la distanță”, inclusiv să învețe cum să fie medic și un bun programator.

Deși compararea inteligenței artificiale generale (IAG) cu inteligența unui „om obișnuit” nu este nimic nou, utilizarea expresiei de către Altman a fost considerată „abhoritoare” de către Henry Shevlin, specialist în etică în inteligență artificială și profesor la Universitatea Cambridge, pe măsură ce îngrijorările legate de impactul IA asupra siguranței locului de muncă cresc.

Potențialele descoperiri în domeniul inteligenței artificiale (AGI) trag semnale de alarmă și pentru alți cercetători - faptul că tehnologia se dezvoltă mai repede decât pot oamenii să-i înțeleagă pe deplin impactul.

OpenAI consideră că rezultatele pozitive ale AGI fac ca acest „câmp minat” riscant să merite urmărit. Însă, pe măsură ce compania continuă să avanseze în această direcție, mulți se tem că Altman prioritizează succesul comercial în detrimentul intereselor utilizatorilor și al societății.

Phuong Anh (Sursa: Tech.co, The Guardian)



Sursă

Comentariu (0)

No data
No data

Pe aceeași temă

În aceeași categorie

Strada veche Hang Ma „își schimbă hainele” pentru a întâmpina Festivalul de la Mijlocul Toamnei
Dealul purpuriu Suoi Bon înflorește printre marea plutitoare de nori din Son La
Turiștii se adună la Y Ty, cufundat în cele mai frumoase câmpuri terasate din nord-vest
Prim-plan al unor porumbei Nicobar rari în Parcul Național Con Dao

De același autor

Patrimoniu

Figura

Afaceri

No videos available

Ştiri

Sistem politic

Local

Produs