Vietnam.vn - Nền tảng quảng bá Việt Nam

Model „superinteligence“ stojící za kontroverzí kolem OpenAI

VTC NewsVTC News01/12/2023


Podle zdrojů serveru Tech.co se v době, kdy se odvíjela kontroverze kolem odvolání generálního ředitele Sama Altmana a jeho následného návratu do OpenAI, jedna z kolujících fám týkala dopisu, který výzkumníci společnosti zaslali představenstvu, v němž vyjádřili obavy z toho, že vyvíjející se model superinteligence umělé inteligence může představovat hrozbu pro lidstvo.

(Ilustrační obrázek)

(Ilustrační obrázek)

Projekt Q*

Model, interně známý jako Project Q* (vyslovuje se Q-star), je propagován jako potenciálně zásadní průlom ve snaze OpenAI o obecnou umělou inteligenci (AGI) – vysoce autonomní odvětví superinteligence schopné kumulativního učení a překonávání lidí ve většině úkolů.

Podle zdrojů blízkých této záležitosti by Q* mohl znamenat velký skok vpřed v oblasti umělé inteligence tím, že radikálně zlepší schopnosti umělé inteligence uvažovat a přiblíží OpenAI k zásadnímu průlomu ve vývoji AGI.

Na rozdíl od současných modelů umělé inteligence, které se zaměřují na generování odpovědí na základě předem naučených informací, je AGI autonomní systém, který dokáže aplikovat „rozum“ na rozhodnutí, což mu dává schopnost řešit problémy na lidské úrovni.

Ačkoli AGI ještě není plně realizována, mnoho odborníků se domnívá, že tato technologie bude mít také potenciál pro kumulativní učení, což je další vlastnost, která lidem umožňuje zlepšovat jejich schopnosti.

Některé zdroje naznačují, že Q* – projekt OpenAI – dokázal prokázat výše uvedené vlastnosti při řešení problémů. Navíc díky obrovskému výpočetnímu výkonu modelu dokázal Q* překonat žáky základních škol a prokázat logické uvažování a kognitivní schopnosti daleko převyšující současné technologie umělé inteligence.

Není jasné, jak dlouho se Q* vyvíjí a jaké by mohly být jeho potenciální aplikace, ale OpenAI informovala zaměstnance a členy představenstva o projektu ještě předtím, než došlo k personální kontroverzi.

Etické obavy

Zatímco generální ředitel společnosti OpenAI Sam Altman je přesvědčen, že technologie AGI bude hnací silou inovací, někteří výzkumníci rychle poukázali na potenciální nebezpečí projektu.

V dopise správní radě vědci varovali před potenciálním nebezpečím, které tento mocný algoritmus představuje pro lidstvo. Konkrétní etické obavy týkající se umělé inteligence uvedené v dopise nebyly zveřejněny, ale varování stačila k ospravedlnění rozhodnutí rady Altmana propustit.

Mezitím byl původním důvodem Altmanova odvolání „špatné komunikační dovednosti“ generálního ředitele. Krátce nato si našel novou pozici v Microsoftu. Tento krok vedl 700 ze 770 zaměstnanců OpenAI k tomu, že pohrozili, že udělají totéž, pokud generální ředitel nebude znovu jmenován.

Vzhledem k tomu, že společnost byla na pokraji kolapsu, byla správní rada OpenAI nucena znovu jmenovat Altmana do nejvyšší pozice – což také vedlo k zásadní revizi výkonného týmu společnosti a zdůraznilo hluboké rozpory v jejím vedení.

Nyní, když je Altman zpět ve své roli a Projekt Q* pravděpodobně dostane opět zelenou, vyvolává to nové otázky.

Jak realistický je Projekt Q*?

Ačkoli turbulentní časy v OpenAI přivedly koncept AGI do centra pozornosti, není to poprvé, co Altman tuto technologii zmiňuje.

V září se tento podnikatel ze Silicon Valley ocitl v problémech poté, co přirovnal AGI k „průměrnému člověku, kterého byste si mohli najmout jako kolegu“. Dále zopakoval své loňské komentáře o tom, jak tato umělá inteligence dokáže „cokoli, co byste mohli dělat se vzdáleným kolegou“, včetně toho, že se dokáže naučit být lékařem a dobrým programátorem.

I když srovnání AGI s inteligencí „průměrného člověka“ není nic nového, Altmanovo použití této fráze bylo etiky umělé inteligence a profesorem Henrym Shevlinem z Cambridgeské univerzity považováno za „odporné“, jelikož obavy ohledně dopadu umělé inteligence na jistotu zaměstnání narůstají.

Potenciální průlomy v oblasti AGI bijí na poplach i další výzkumníky – technologie se vyvíjí rychleji, než si lidé dokážou plně uvědomit její dopad.

OpenAI se domnívá, že pozitivní výsledky AGI činí toto riskantní „minové pole“ užitečným. Nicméně, jak se společnost tímto směrem nadále snaží, mnozí se obávají, že Altman upřednostňuje komerční úspěch před prospěchem uživatelů a společnosti.

Phuong Anh (zdroj: Tech.co, The Guardian)



Zdroj

Komentář (0)

Zanechte komentář a podělte se o své pocity!

Ve stejném tématu

Ve stejné kategorii

Detailní pohled na dílnu, kde se vyrábí LED hvězda pro katedrálu Notre Dame.
Obzvláště nápadná je osmimetrová vánoční hvězda osvětlující katedrálu Notre Dame v Ho Či Minově Městě.
Huynh Nhu se na hrách SEA zapsal do historie: Rekord, který bude velmi těžké překonat.
Úchvatný kostel na dálnici 51 se na Vánoce rozsvítil a přitahoval pozornost všech procházejících.

Od stejného autora

Dědictví

Postava

Obchod

Farmáři v květinové vesnici Sa Dec se pilně starají o své květiny a připravují se na festival a Tet (lunární Nový rok) 2026.

Aktuální události

Politický systém

Místní

Produkt