Dopis, který znamenal zlom.
Agentura Reuters 23. listopadu s odvoláním na exkluzivní zdroje informovala, že čtyři dny před odvoláním generálního ředitele Sama Altmana zaslalo několik výzkumníků z OpenAI dopis představenstvu společnosti, v němž varovalo před objevem silné umělé inteligence (AI), který by mohl ohrozit lidstvo. Dopis, který nebyl nikdy předtím zmíněn, a dotyčný algoritmus AI představovaly významné události, které vedly k odvolání Sama Altmana, spoluzakladatele OpenAI, 17. listopadu. Do své funkce se vrátil 21. listopadu (amerického času) po dvou kolech jednání s OpenAI. Podle zdrojů byl dopis jedním z důvodů rozhodnutí představenstva OpenAI ho odvolat, ačkoli oficiální oznámení pouze uvádělo, že Altman byl „nekonzistentní a nepřímočarý ve své komunikaci s představenstvem“.
Pan Altman ( vpravo ) a vedoucí představitelé technologických společností diskutují na konferenci APEC v San Franciscu v USA 16. listopadu.
Podle zdrojů se jedna z dlouholetých vedoucích manažerek OpenAI, Mira Murati, 22. listopadu zmínila zaměstnancům o projektu s názvem Q* a uvedla, že představenstvo společnosti obdrželo dopis před odvoláním Altmana. Jeden ze zdrojů odhalil, že OpenAI dosáhla pokroku v projektu Q*, což by mohl být průlom v hledání superinteligence, známé také jako umělá obecná inteligence (AGI).
Přestože nový model provádí matematické výpočty pouze na úrovni základní školy, jeho schopnost řešit takové problémy vedla výzkumníky k velkému optimismu ohledně budoucího úspěchu modelu Q*. Výzkumníci považují matematiku za předpoklad pro rozvoj generativní umělé inteligence. V současné době dokáže generativní umělá inteligence psát a překládat jazyky, i když odpovědi na stejnou otázku se mohou značně lišit. Zvládnutí matematických dovedností, což je oblast s pouze jednou správnou odpovědí, však znamená, že umělá inteligence bude mít lepší schopnosti uvažování, podobně jako lidé. Výzkumníci se domnívají, že by se to dalo aplikovat v novém vědeckém výzkumu.
Sam Altman se vrací do funkce generálního ředitele OpenAI.
Potenciální nebezpečí?
V dopise správní radě OpenAI vědci podle zdrojů nastínili sílu a potenciální nebezpečí umělé inteligence. Počítačoví vědci již dlouho diskutují o nebezpečích, která představují superinteligentní stroje, například o tom, zda by se mohly rozhodnout zničit lidstvo pro svůj vlastní prospěch. V této souvislosti Altman vedl úsilí o to, aby se ChatGPT stal jednou z nejrychleji rostoucích softwarových aplikací v historii, a přilákal investice a výpočetní zdroje potřebné k přiblížení se k obecné umělé inteligenci (AGI). Kromě oznámení řady nových nástrojů na akci tento měsíc Altman minulý týden v San Franciscu řekl světovým lídrům, že věří, že AGI je na obzoru. O den později byl správní radou OpenAI propuštěn. OpenAI ani Altman se k dopisu nevyjádřili.
Mnoho západních vlád a technologických společností se kvůli obavám z potenciálních rizik umělé inteligence dohodlo na novém mechanismu bezpečného testování. Generální tajemník OSN António Guterres však podle agentury AFP uvedl, že svět ve snaze o regulaci umělé inteligence stále „hraje na chytač“, což může mít dlouhodobé negativní důsledky pro vše od pracovních míst až po kulturu.
Společnosti OpenAI a Microsoft jsou žalovány kvůli porušení autorských práv.
List The Hill 23. listopadu informoval, že skupina autorů literatury faktu podala žalobu, v níž tvrdí, že společnosti OpenAI a Microsoft naučili jejich nástroj ChatGPT kopírovat jejich díla bez jejich souhlasu. V žalobě podané k federálnímu soudu v New Yorku hlavní žalobce Julian Sancton tvrdí, že on ani další autoři neobdrželi žádnou odměnu za kopírovaná díla umělé inteligence, zatímco OpenAI a Microsoft dosáhly finančního úspěchu díky komercializaci své práce a vydělaly miliardy dolarů na produktech umělé inteligence. Podle agentury Reuters se mluvčí OpenAI odmítl k žalobě vyjádřit a zástupce Microsoftu na žádost o komentář bezprostředně nereagoval.
Zdrojový odkaz







Komentář (0)