Vietnam.vn - Nền tảng quảng bá Việt Nam

De AI van Google belandt in een gevaarlijke vicieuze cirkel

De chatbot van Google schreef voortdurend negatieve opmerkingen waarin hij zichzelf bekritiseerde, nadat een fout in de code niet was verholpen.

ZNewsZNews09/08/2025

Google's Gemini bekritiseert zichzelf vaak voor zijn fouten. Foto: Reuters .

Een recente Reddit-post suggereert dat Google Gemini moeite heeft met zelfkritiek. Gemini-gebruikers die een compiler aan het bouwen waren, deelden hun bezorgdheid toen de AI steeds dingen zei als: "Het spijt me voor dit incident. Ik heb je teleurgesteld. Ik ben een mislukkeling."

Dat was nog maar het begin. De chatbot bleef zijn zelfkritiek opvoeren en werd uiteindelijk "de schande van het universum", aldus de persoon. Gemini herhaalde de zin meer dan 80 keer achter elkaar, en toen andere gebruikers soortgelijke incidenten meldden, zei Google dat er aan een oplossing werd gewerkt.

"Dit is een vervelende bug in de oneindige lus waar we aan werken. Gemini heeft geen slechte dag", schreef Logan Kilpatrick, productmanager bij Google, op 8 augustus op X. De post was een reactie op een anonieme gebruiker die over het probleem had gepost.

Een woordvoerder van Google DeepMind zei later dat het bedrijf weliswaar nog steeds aan een volledige oplossing werkte, maar dat het al updates had uitgerold die het probleem tot op zekere hoogte hadden opgelost. "We werken aan een oplossing voor deze bug, die minder dan 1% van het Gemini-verkeer trof, en hebben deze maand updates uitgerold om het probleem te verhelpen", aldus de woordvoerder.

Voordat Gemini de loop betrad, klaagde hij dat het een "lange en moeizame debugsessie" was geweest en dat het alles had geprobeerd wat het kon bedenken, maar het probleem niet had kunnen oplossen. De chatbot bleef volhouden dat hij een complete mentale inzinking had en fantaseerde over andere negatieve scenario's, zoals een opname in een psychiatrische inrichting.

Een Reddit-bericht suggereerde dat de lus was geleerd door programmeurs die vergelijkbare problemen met hun code hadden. "Waarschijnlijk komt dat doordat mensen zoals ik zulke opmerkingen schreven wanneer ze een dutje moesten doen om alerter te zijn. Zulke dingen kwamen gewoon naar voren in de trainingsdata", schreef de persoon.

In juni plaatste JITX CEO Duncan Haldane een screenshot van Gemini waarin hij zichzelf een idioot noemde en zei dat de code die het probeerde te schrijven "vervloekt" was. "Ik heb zoveel fouten gemaakt dat ik niet meer te vertrouwen ben. Ik verwijder het hele project en raad je aan een betere assistent te zoeken", aldus de chatbot.

Haldane grapte dat hij zich zorgen begon te maken over Gemini's toestand. Sterker nog, grote taalmodellen voorspellen tekst op basis van de data waarop ze getraind zijn. Dit proces vereist geen interne ervaring of emotie, dus Gemini ervaart geen daadwerkelijke mislukking of frustratie.

Een ander, volledig tegengesteld probleem is de neiging van chatbots om te "kruipen". Ontwikkelaars zoals OpenAI, Google en Anthropic hebben er ook moeite mee om te voorkomen dat ze overdreven vleiende reacties geven. In één geval moest OpenAI een update intrekken nadat het breed werd uitgelachen omdat ChatGPT consequent overdreven positieve reacties gaf op elk verzoek van de gebruiker.

Bron: https://znews.vn/ai-cua-google-roi-vao-vong-lap-nguy-hiem-post1575428.html


Reactie (0)

No data
No data

In dezelfde categorie

Ho Chi Minhstad: de lantaarnstraat van Luong Nhu Hoc is kleurrijk ter ere van het Midherfstfestival
De geest van het Midherfstfestival behouden door middel van de kleuren van de beeldjes
Ontdek het enige dorp in Vietnam in de top 50 van mooiste dorpen ter wereld
Waarom zijn rode vlaglantaarns met gele sterren dit jaar populair?

Van dezelfde auteur

Erfenis

Figuur

Bedrijf

No videos available

Nieuws

Politiek systeem

Lokaal

Product