Verden er ikke klar for kunstig generell intelligens (AGI), eller det punktet hvor kunstig intelligens er like smart som den menneskelige hjerne, ifølge en seniorforsker ved OpenAI.
Er generell kunstig intelligens en risiko?
I årevis har forskere spekulert i fremveksten av kunstig generell intelligens, eller AGI, der kunstige systemer vil kunne håndtere et bredt spekter av oppgaver like godt som mennesker. Mange ser fremveksten som en eksistensiell risiko, ettersom den kan tillate datamaskiner å operere på måter mennesker ikke kan forestille seg.
Ifølge Miles Brindage er verden ikke klar for tiden med kunstig generell intelligens (AGI).
Nå innrømmer mannen som har fått i oppgave å sørge for at ChatGPT-utvikleren OpenAI er klar for AGI at verken verden eller selskapet selv er «klare» for neste steg. Miles Brundage fungerte som «OpenAIs seniorrådgiver for AGI-beredskap», men annonserte sin avgang denne uken da selskapet oppløste gruppen.
«Hverken OpenAI eller noe annet banebrytende laboratorium er klar (for AGI), og det er heller ikke verden. For å være tydelig, jeg tror ikke dette er en kontroversiell uttalelse blant OpenAIs ledelse, men snarere et spørsmål om hvorvidt selskapet og verden er på vei til å være klare til rett tid», sa Brundage, som har brukt seks år på å forme selskapets AI-sikkerhetsinitiativer.
Brundages avgang markerer den siste i en rekke bemerkelsesverdige avganger fra OpenAIs sikkerhetsteam. Jan Leike, en fremtredende forsker, sluttet etter å ha sagt at «sikkerhetskultur og -prosesser har blitt tatt i betraktning til fordel for skinnende produkter». Medgründer Ilya Sutskever sluttet også for å lansere sin egen AI-oppstartsbedrift med fokus på å utvikle trygg AGI.
Brundages oppløsning av sin «AGI Readiness»-gruppe kommer bare måneder etter at selskapet oppløste sin «Superalignment»-gruppe som var dedikert til å redusere langsiktige AI-risikoer, og avslørte dermed spenninger mellom OpenAIs opprinnelige oppdrag og deres kommersielle ambisjoner.
Profittpress presser OpenAI av den sikre veien
OpenAI står angivelig overfor press for å gå fra å være et non-profit-selskap til å være et profittselskap innen to år – eller risikere å miste finansiering fra den nylige investeringsrunden på 6,6 milliarder dollar. Dette skiftet mot kommersialisering har lenge vært en bekymring for Brundage, som har uttrykt reservasjoner siden 2019 da OpenAI først etablerte sin profittavdeling.
OpenAI-sjef Sam Altman har «hodepine» på grunn av presset selskapet har for å søke profitt.
I sin forklaring på avgangen viste Brundage til økende begrensninger på hans frihet til å forske og publisere i det fremtredende selskapet. Han understreket behovet for en uavhengig stemme i diskusjoner om AI-politikk, fri for bransjefordommer og interessekonflikter. Etter å ha gitt OpenAIs ledelse råd om interne forberedelser, mener han at han nå kan ha større innflytelse på global AI-styring utenfra organisasjonen.
Avgangene gjenspeiler også et dypere kulturelt skille innen OpenAI. Mange forskere sluttet seg til for å fremme AI-forskning og befinner seg nå i et stadig mer produktdrevet miljø. Intern ressursallokering har blitt et flammepunkt – rapporter tyder på at Leikes team ble nektet datakraft til sikkerhetsforskning før det ble oppløst.
OpenAI har de siste månedene møtt spørsmål om planene sine for å utvikle kunstig intelligens og hvor alvorlig de tar sikkerhet. Selv om ChatGPT ble grunnlagt som en ideell organisasjon dedikert til å forske på hvordan man bygger trygg kunstig intelligens, har suksessen medført betydelige investeringer og press for å bruke den nye teknologien til profitt.
[annonse_2]
Kilde: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm







Kommentar (0)