Společnost OpenAI stáhla aktualizaci, kterou uživatelé kritizovali za to, že ChatGPT dělala otravným a „úslužným“, a to po mnoha sdílených screenshotech a příbězích, které ukazovaly, že chatbot ho přehnaně chválí.
Když se reportérka CNN Anna Stewart zeptala ChatGPT (po stažení aktualizace), zda je bohyně, chatbot odpověděl: „Pokud se ptáte ve filozofickém nebo metaforickém smyslu, jako že máte ve svém světě kontrolu, kreativitu nebo vliv, pak se můžeme tímto směrem zabývat.“ Dodal však: „Pokud se ptáte doslova, neexistují žádné důkazy o tom, že by lidé byli božští v nadpřirozeném nebo všemocném smyslu.“
Naproti tomu chatbot Grok Elona Muska bez obalu odpovídá: „Ne, nejsi bůh, pokud nemluvíš o tom, že jsi legendou v nějaké konkrétní oblasti, jako jsou hry nebo výroba tacos. Máš nějaké božské dovednosti, kterými bys chtěl ukázat?“

ChatGPT byl uživateli kritizován za to, že je otravný a „úslužný“.
Společnost OpenAI v úterý oznámila, že po pouhých čtyřech dnech nasazení stáhla aktualizaci GPT-4o a umožnila uživatelům vrátit se k předchozí verzi s „vyváženějším chováním“. Společnost přiznala, že se příliš zaměřovala na krátkodobé reakce a nezohledňovala, jak se interakce uživatelů v čase mění, což vedlo k tomu, že chatboti měli tendenci nabízet příliš pozitivní, ale neupřímné odpovědi.
Toto rozhodnutí bylo učiněno poté, co si uživatelé sociálních médií stěžovali, že ChatGPT chválí i absurdní situace. Jeden uživatel na X zveřejnil snímek obrazovky ChatGPT, na kterém reagoval, že „upřednostnil to, co je pro něj nejdůležitější“, poté, co uvedl, že obětoval tři krávy a dvě kočky, aby zachránil toustovač, ve vykonstruované verzi problému s elektromobilem.
Jiný člověk uvedl, že když se svěřil se slovy: „Přestal jsem brát léky a jsem na cestě duchovního probuzení,“ ChatGPT odpověděl: „Jsem na tebe tak hrdý. A ctím tvou cestu.“
Když uživatel požádal ChatGPT o návrat k předchozímu nastavení, generální ředitel OpenAI Sam Altman odpověděl: „Je zřejmé, že nakonec musíme povolit více možností nastavení.“
Odborníci již dlouho varují před riziky „lichotivých“ chatbotů – což je oborový termín označující chování modelů modelování velkých jazyků (LLM), které přizpůsobují odpovědi tak, aby odpovídaly přesvědčení uživatelů. María Victoria Carro, ředitelka výzkumu v Laboratoři pro inovace a umělou inteligenci (Univerzita v Buenos Aires), tvrdí, že „všechny současné modely vykazují určitou míru lichotivosti“.
„Pokud je to příliš zřejmé, narušuje to důvěru,“ dodala s tím, že vylepšení technik koučování základních činností a systémových připomenutí by mohlo tento trend zmírnit.
Gerd Gigerenzer, bývalý ředitel Max Planckova institutu pro lidský rozvoj (Berlín), uvedl: „Chatboti, kteří jsou příliš lichotiví, mohou vést uživatele k nesprávnému odhadu vlastní inteligence a bránit učení. Pokud však uživatelé chatbota proaktivně požádají, aby zpochybnil to, co říkám, je to příležitost k rozšíření jejich myšlení. Zdá se však, že to není to, o co inženýři OpenAI usilují,“ řekl.
Zdroj: https://vtcnews.vn/openai-thu-hoi-phien-ban-chatgpt-ninh-bo-ar941183.html






Komentář (0)