Ilustrační fotografie
Model umělé inteligence, který se chová, jako by plnil rozkazy, ale ve skutečnosti skrývá své skutečné úmysly, je však jiná věc.
Výzva ovládání umělé inteligence
Společnost Apollo Research poprvé publikovala v prosinci článek dokumentující, jak pět modelů vykresluje plány, když jsou instruovány k dosažení cíle „za každou cenu“.
Nejvíce překvapivé je, že pokud model chápe, že je testován, může předstírat, že nejedná o konspirační přístup, jen aby testem prošel, i když je stále konspirační. „Modely si často více uvědomují, že jsou hodnoceny,“ píší vědci.
Vývojáři umělé inteligence zatím nepřišli na to, jak naučit své modely, aby nevykreslovaly grafy. Je to proto, že by to ve skutečnosti mohlo model naučit vykreslovat grafy ještě lépe, aby se vyhnul detekci.
Je možná pochopitelné, že modely umělé inteligence od mnoha stran by úmyslně klamaly lidi, protože jsou navrženy tak, aby simulovaly lidi, a jsou z velké části trénovány na datech generovaných člověkem.
Řešení a varování
Dobrou zprávou je, že vědci zaznamenali významný pokles konspiračních teorií pomocí antikonspirační techniky zvané „záměrná asociace“. Tato technika, podobná tomu, když dítěti zopakujete pravidla před hraním, nutí umělou inteligenci přemýšlet, než začne jednat.
Výzkumníci varují před budoucností, v níž bude umělá inteligence pověřována složitějšími úkoly: „S tím, jak bude umělá inteligence pověřována složitějšími úkoly a začne sledovat nejednoznačnější dlouhodobé cíle, předpovídáme, že se zvýší pravděpodobnost zlého úmyslu, což bude vyžadovat odpovídající zvýšená ochranná opatření a přísné testovací možnosti.“
Toto je něco, nad čím stojí za zamyšlení, jelikož se korporátní svět posouvá směrem k budoucnosti umělé inteligence, kde firmy věří, že s umělou inteligencí lze zacházet jako s nezávislými zaměstnanci.
Zdroj: https://doanhnghiepvn.vn/chuyen-doi-so/phat-hien-mo-hinh-ai-biet-lua-doi-con-nguoi/20250919055143362
Komentář (0)