Vietnam.vn - Nền tảng quảng bá Việt Nam

Az OpenAI-vita mögött álló „szuperintelligencia” modell

VTC NewsVTC News01/12/2023

[hirdetés_1]

A Tech.co forrásai szerint miközben Sam Altman vezérigazgató elbocsátása és az OpenAI-hoz való visszatérése körüli vita bontakozott ki, az egyik keringő pletyka a vállalat kutatói által az igazgatótanácsnak küldött levélről szólt, amelyben aggodalmukat fejezték ki a fejlődő MI szuperintelligencia modell miatt, amely potenciálisan veszélyt jelenthet az emberiségre.

(Szemléltető kép)

(Szemléltető kép)

Projekt Q*

A belsőleg Project Q* (ejtsd: Q-csillag) néven ismert modellről azt tartják, hogy potenciálisan jelentős áttörést jelenthet az OpenAI általános mesterséges intelligencia (AGI) – a szuperintelligencia egy nagymértékben autonóm ága, amely képes kumulatív tanulásra és a legtöbb feladatban felülmúlja az embereket – iránti törekvésében.

Az ügyhöz közel álló források szerint a Q* jelentős előrelépést jelenthet a mesterséges intelligencia területén azáltal, hogy radikálisan javítja a mesterséges intelligencia érvelési képességeit, és közelebb hozza az OpenAI-t egy jelentős áttöréshez az AGI fejlesztésében.

A jelenlegi mesterséges intelligencia modellekkel ellentétben, amelyek az előre tanult információkon alapuló válaszok generálására összpontosítanak, az AGI egy autonóm rendszer, amely képes „észt” alkalmazni a döntésekre, így képes emberi szinten megoldani a problémákat.

Bár az AGI még nem teljesen valósult meg, sok szakértő úgy véli, hogy ez a technológia a kumulatív tanulás lehetőségét is magában hordozza, ami egy másik olyan jellemző, amely lehetővé teszi az emberek számára képességeik fejlesztését.

Egyes források szerint a Q* – egy OpenAI projekt – képes volt bemutatni a fent említett tulajdonságokat problémamegoldás során. Továbbá, a modell hatalmas számítási teljesítményének köszönhetően a Q* képes volt felülmúlni az általános iskolás diákokat, a jelenlegi MI-technológiánál messze jobb érvelési és kognitív képességeket mutatva.

Nem világos, hogy a Q* fejlesztése mióta tart, és mik lehetnek a lehetséges alkalmazásai, de az OpenAI a személyzeti vita kirobbanása előtt tájékoztatta az alkalmazottakat és az igazgatósági tagokat a projektről.

Etikai aggályok

Míg Sam Altman, az OpenAI vezérigazgatója bízik abban, hogy az AGI technológia az innováció előmozdítására fog törekedni, egyes kutatók gyorsan rámutattak a projekt lehetséges veszélyeire.

Egy, az igazgatótanácsnak címzett levélben a kutatók figyelmeztettek arra a potenciális veszélyre, amelyet ez a hatékony algoritmus jelent az emberiségre. A levélben felvázolt, a mesterséges intelligenciával kapcsolatos konkrét etikai aggályokat nem hozták nyilvánosságra, de a figyelmeztetések elegendőek voltak ahhoz, hogy indokolják az igazgatótanács Altman elbocsátásáról szóló döntését.

Eközben Altman elbocsátásának kezdeti indokaként a vezérigazgató „gyenge kommunikációs készségeit” jelölték meg. Röviddel ezután új pozíciót talált a Microsoftnál. Ez a lépés arra késztette az OpenAI 770 alkalmazottjából 700-at, hogy ugyanezzel fenyegetőzzenek, ha a vezérigazgatót nem helyezik vissza állásába.

Mivel a vállalat az összeomlás szélén állt, az OpenAI igazgatótanácsa kénytelen volt újra Altmant kinevezni a vezető pozícióba – ami a vállalat vezetői csapatának jelentős átalakításához is vezetett, és rávilágított a vezetésen belüli mély megosztottságra.

Most, hogy Altman visszatért a szerepbe, és a Project Q* valószínűleg ismét zöld utat kap, ez új kérdéseket vet fel.

Mennyire realisztikus a Project Q*?

Bár az OpenAI-nál tapasztalható turbulens idők reflektorfénybe helyezték az AGI koncepcióját, Altman nem először említi a technológiát.

Szeptemberben a szilícium-völgyi vállalkozó bajba került, miután az AGI-t „egy átlagos emberhez, akit munkatársként felvehetnénk” hasonlította. Ezután megismételte a tavalyi évre vonatkozó kijelentéseit, miszerint ez a mesterséges intelligencia „bármit meg tud tenni, amit egy távoli munkatárssal meg lehetne tenni”, beleértve az orvosi és programozói végzettség elsajátítását is.

Bár az AGI és az „átlagember” intelligenciájának összehasonlítása nem újdonság, Altman kifejezéshasználatát a mesterséges intelligencia etikusai és Henry Shevlin, a Cambridge-i Egyetem professzora „undorítónak” ítélték, mivel egyre fokozódnak az aggodalmak a mesterséges intelligencia munkahelyi biztonságra gyakorolt ​​​​hatásával kapcsolatban.

Az AGI-ban elért lehetséges áttörések más kutatók számára is vészjelzést adnak – hogy a technológia gyorsabban fejlődik, mint ahogy az emberek teljes mértékben felfoghatnák a hatását.

Az OpenAI úgy véli, hogy az AGI pozitív eredményei miatt érdemes kipróbálni ezt a kockázatos „aknamezőt”. Azonban, ahogy a vállalat továbbra is ebbe az irányba halad, sokan aggódnak amiatt, hogy az Altman a kereskedelmi sikert helyezi előtérbe a felhasználók és a társadalom haszna helyett.

Phuong Anh (Forrás: Tech.co, The Guardian)


[hirdetés_2]
Forrás

Hozzászólás (0)

Kérjük, hagyj egy hozzászólást, és oszd meg az érzéseidet!

Ugyanebben a témában

Ugyanebben a kategóriában

Közeli kép a Notre Dame székesegyház LED-csillagát készítő műhelyről.
Különösen feltűnő a Ho Si Minh-városban található Notre Dame székesegyházat megvilágító 8 méter magas karácsonycsillag.
Huynh Nhu történelmet írt a SEA Games-en: Egy rekordot, amelyet nagyon nehéz lesz megdönteni.
Az 51-es főúton található lenyűgöző templom karácsonykor kivilágítva jelent meg, minden arra járó figyelmét magára vonva.

Ugyanattól a szerzőtől

Örökség

Ábra

Üzleti

A Sa Dec virágfalu gazdái szorgalmasan gondozzák virágaikat, készülve a 2026-os Tet (holdújév) fesztiválra.

Aktuális események

Politikai rendszer

Helyi

Termék