Svět není připraven na obecnou umělou inteligenci (AGI), ani na bod, kdy by umělá inteligence byla stejně chytrá jako lidský mozek, tvrdí vedoucí výzkumník společnosti OpenAI.
Je umělá inteligence obecně rizikem?
Vědci již léta spekulují o vzniku umělé obecné inteligence (AGI), kdy umělé systémy budou schopny zvládat širokou škálu úkolů stejně dobře jako lidé. Mnozí vnímají její vznik jako existenční riziko, protože by mohl umožnit počítačům fungovat způsoby, které si lidé nedokážou představit.
Podle pana Milese Brindage není svět připraven na dobu umělé inteligence (AGI).
Muž, který má za úkol zajistit, aby byl vývojář OpenAI pro ChatGPT připraven na AGI, nyní připouští, že ani svět, ani samotná společnost nejsou „připraveni“ na další krok. Miles Brundage působil jako „hlavní poradce OpenAI pro připravenost na AGI“, ale tento týden oznámil svůj odchod, protože společnost skupinu rozpustila.
„Ani OpenAI, ani žádná jiná průkopnická laboratoř není (na AGI) připravena, a ani svět. Abych to upřesnil, nemyslím si, že se jedná o kontroverzní prohlášení vedení OpenAI, ale spíše o otázku, zda jsou společnost a svět na cestě k tomu, aby byly připraveny ve správný čas,“ řekl Brundage, který strávil šest let utvářením bezpečnostních iniciativ společnosti v oblasti umělé inteligence.
Brundageův odchod je dalším z řady významných odchodů z bezpečnostních týmů OpenAI. Jan Leike, prominentní výzkumník, odešel poté, co prohlásil, že „bezpečnostní kultura a procesy ustoupily do pozadí lesklým produktům“. Spoluzakladatel Ilya Sutskever také odešel, aby založil vlastní startup v oblasti umělé inteligence zaměřený na vývoj bezpečné obecné umělé inteligence (AGI).
Brundageovo rozpuštění jeho skupiny „AGI Readiness“ přichází jen několik měsíců poté, co společnost rozpustila svou skupinu „Superalignment“ věnovanou zmírňování dlouhodobých rizik umělé inteligence, což odhalilo napětí mezi původním posláním OpenAI a jejími komerčními ambicemi.
Tlak na zisk tlačí OpenAI z bezpečné cesty
OpenAI údajně čelí tlaku na přechod z neziskové organizace na ziskovou společnost do dvou let – jinak riskuje ztrátu financování z nedávného investičního kola ve výši 6,6 miliardy dolarů. Tento posun směrem ke komercializaci je pro Brundagea již dlouhou dobu znepokojující a vyjadřuje výhrady již od roku 2019, kdy OpenAI poprvé založila svou ziskovou divizi.
Generální ředitel společnosti OpenAI Sam Altman má „bolest hlavy“ kvůli tlaku, který je na společnost vyvíjen, aby dosáhla zisku.
Brundage svůj odchod vysvětloval rostoucími omezeními své svobody výzkumu a publikování v této významné společnosti. Zdůraznil potřebu nezávislého hlasu v diskusích o politice umělé inteligence, bez zaujatosti v oboru a střetu zájmů. Vzhledem k tomu, že radil vedení OpenAI ohledně interních příprav, věří, že nyní může mít větší vliv na globální řízení umělé inteligence zvenčí organizace.
Odchody také odrážejí hlubší kulturní propast v rámci OpenAI. Mnoho výzkumníků se zapojilo do výzkumu umělé inteligence a nyní se ocitlo v prostředí, které je stále více zaměřeno na produkty. Vnitřní alokace zdrojů se stala ohniskem konfliktu – zprávy naznačují, že Leikeho týmu byl před rozpuštěním odepřen výpočetní výkon pro výzkum bezpečnosti.
OpenAI v posledních měsících čelí otázkám ohledně svých plánů na vývoj umělé inteligence a toho, jak vážně bere bezpečnost. Přestože byla organizace ChatGPT založena jako nezisková organizace zaměřená na výzkum, jak vytvářet bezpečnou umělou inteligenci, její úspěch přinesl značné investice a tlak na využívání nové technologie za účelem zisku.
Zdroj: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
Komentář (0)