A Tech.co forrásai szerint miközben Sam Altman vezérigazgató kirúgása, majd az OpenAI-hoz való visszatérése körüli vita zajlott, az egyik pletyka a cég kutatói által az igazgatótanácsnak küldött levélről szólt, amelyben aggodalmukat fejezték ki a fejlesztés alatt álló MI szuperintelligencia modellel kapcsolatban, amely potenciálisan veszélyt jelenthet az emberiségre.
(Ábra)
Projekt Q*
A belsőleg Project Q* (ejtsd: Q-csillag) néven ismert modell állítólag jelentős áttörést jelent az OpenAI mesterséges általános intelligencia (AGI) – a szuperintelligencia egy nagymértékben autonóm ága, amely képes kumulatív tanulásra és a legtöbb feladatban felülmúlja az embereket – iránti törekvésében.
A Q* jelentős előrelépést jelenthet a mesterséges intelligencia területén azáltal, hogy radikálisan javítja a mesterséges intelligencia érvelési képességeit, és közelebb hozza az OpenAI-t egy jelentős áttöréshez az AGI fejlesztésében, állítják az ügyhöz közel állók.
A jelenlegi mesterséges intelligencia modellekkel ellentétben, amelyek a korábban tanult információkon alapuló válaszok generálására összpontosítanak, az AGI egy autonóm rendszer, amely „észt” alkalmazhat a döntésekre, így emberi szintű problémamegoldó képességekkel rendelkezik.
Bár az AGI még nem teljesen valósult meg, sok szakértő úgy véli, hogy a technológia képes lesz a kumulatív tanulásra is, ami egy másik olyan tulajdonság, amely lehetővé teszi az emberek számára, hogy fejlesszék képességeiket.
Egyes források azt állítják, hogy a Q* - OpenAI projektje képes volt bemutatni a fenti tulajdonságokat problémamegoldás során. Ráadásul a modell hatalmas számítási teljesítményének köszönhetően a Q* felülmúlta az általános iskolás diákokat, olyan érvelési és kognitív képességeket mutatva be, amelyek jelentősen meghaladják a jelenlegi mesterséges intelligencia technológia képességeit.
Nem világos, hogy a Q* mióta fejlesztés alatt áll, és milyen alkalmazásai lehetnek, de az OpenAI a személyzeti botrány kitörése előtt tájékoztatta az alkalmazottakat és az igazgatósági tagokat a projektről.
Etikai aggályok
Míg Sam Altman, az OpenAI vezérigazgatója bízik abban, hogy az AGI technológia az innováció előmozdítására fog törekedni, egyes kutatók gyorsan rámutattak a projekt lehetséges veszélyeire.
Egy, a testületnek címzett levélben a kutatók figyelmeztettek az erőteljes algoritmus emberiségre leselkedő lehetséges veszélyeire. A levélben felvázolt, a mesterséges intelligenciával kapcsolatos konkrét etikai aggályokat nem hozták nyilvánosságra, de a figyelmeztetések elegendőek voltak ahhoz, hogy indokolják a testület Altman elbocsátásáról szóló döntését.
Eközben Altman elbocsátásának kezdeti indoka az volt, hogy a vezérigazgató „rosszul kommunikált”. Hamarosan új pozíciót talált a Microsoftnál. Ez a lépés arra késztette az OpenAI 770 alkalmazottjából 700-at, hogy ugyanezzel fenyegetőzzenek, ha a vezérigazgatót nem helyezik vissza.
Mivel a vállalatot az összeomlás veszélye fenyegette, az OpenAI igazgatótanácsa kénytelen volt visszahelyezni Altmant a vezetői posztra – ami a vállalat vezetői csapatának jelentős átalakításához is vezetett, és rávilágított a vezetésen belüli mély megosztottságra.
Most, hogy Altman visszatért hivatalába, és a Project Q* valószínűleg ismét zöld utat kap, új kérdéseket vet fel.
Mennyire realisztikus a Project Q*?
Bár az OpenAI-nál eltöltött viharos napok reflektorfénybe helyezték az AGI koncepcióját, Altman nem először említi a technológiát.
A szilícium-völgyi vállalkozó szeptemberben nehéz helyzetbe került, miután az AGI-t „egy átlagos emberhez, akit munkatársként alkalmazhatnánk” hasonlította. Utánajárt a tavalyi, arról szóló kijelentésének, hogy a mesterséges intelligencia „bármit meg tud tenni, amit egy távoli munkatárssal meg lehetne tenni”, beleértve azt is, hogy megtanuljon orvosnak és jó programozónak lenni.
Bár az AGI és az „átlagember” intelligenciájának összehasonlítása nem újdonság, Altman kifejezéshasználatát Henry Shevlin mesterséges intelligencia etikus és a Cambridge-i Egyetem professzora „visszataszítónak” minősítette, mivel egyre fokozódnak az aggodalmak a mesterséges intelligencia munkahelyi biztonságra gyakorolt hatásával kapcsolatban.
Az AGI-ban elért lehetséges áttörések más kutatók számára is vészharangokat kongatnak – hogy a technológia gyorsabban fejlődik, mint ahogy az emberek teljes mértékben felfoghatnák a hatását.
Az OpenAI úgy véli, hogy az AGI pozitív eredményei miatt érdemes folytatni ezt a kockázatos „aknamezőt”. De ahogy a vállalat továbbra is ebbe az irányba halad, sokan aggódnak amiatt, hogy az Altman a kereskedelmi sikert helyezi előtérbe a felhasználók és a társadalom érdekei helyett.
Phuong Anh (Forrás: Tech.co, The Guardian)
[hirdetés_2]
Forrás
Hozzászólás (0)