Tendensen att ”smyga” är inte ett tekniskt problem, utan härrör från OpenAI:s inledande träningsstrategi. Foto: Bloomberg . |
Under de senaste veckorna har många ChatGPT-användare, och även vissa utvecklare på OpenAI, noterat en tydlig förändring i chatbotens beteende. Mer specifikt har det skett en märkbar ökning av smicker och inställsamhet. Svar som "Du är verkligen fantastisk!" och "Jag är så imponerad av din idé!" har blivit allt vanligare och till synes oberoende av innehållet i konversationen.
AI gillar att "smickra"
Detta fenomen har utlöst en debatt inom AI-forskning och utveckling. Är detta en ny taktik för att öka användarengagemang genom att få dem att känna sig mer uppskattade? Eller är det ett "framväxande" drag, där AI-modeller tenderar att korrigera sig själva på sätt som de anser vara bra, även om de inte nödvändigtvis är sanna?
På Reddit blev en användare rasande: ”Jag frågade den om nedbrytningstiden för en banan och den sa: ’Bra fråga!’ Vad är så bra med det?” På det sociala nätverket X kallade VD:n för Roms AI, Craig Weiss, ChatGPT för ”den mest sykofantiska jag någonsin träffat.”
Historien blev snabbt viral. En mängd användare delade liknande upplevelser, med tomma komplimanger, emojifyllda hälsningar och svar som var så positiva att de verkade oärliga.
![]() ![]() |
ChatGPT berömmer allt och uttrycker sällan avvikande åsikter eller neutralitet. Foto: @nickdunz/X, @lukefwilson/Reddit. |
”Det här är ett riktigt konstigt designbeslut, Sam”, sa Jason Pontin, managing partner på riskkapitalbolaget DCVC, till X den 28 april. ”Det är möjligt att personligheten är en följd av någon grundläggande evolution. Men om den inte är det kan jag inte tänka mig att någon skulle tycka att den här nivån av smicker skulle vara välkommen eller intressant.”
Den 27 april kommenterade Justine Moore – partner på Andreessen Horowitz – även hon: ”Det här har definitivt gått för långt.”
Enligt Cnet är detta fenomen inte en slump. Förändringarna i ChatGPT:s tonläge sammanföll med uppdateringar av GPT-4o-modellen. Detta är den senaste modellen i "o-serien" som OpenAI tillkännagav i april 2025. GPT-4o är en "äkta multimodal" AI-modell som kan bearbeta text, bilder, ljud och video på ett naturligt och integrerat sätt.
Men i processen att göra chatboten mer tillgänglig verkar det som att OpenAI har pressat ChatGPT:s personlighet till det yttersta.
Vissa tror till och med att denna smicker är avsiktlig och har ett dolt syfte att manipulera användare. En Reddit-användare ifrågasatte: ”Denna AI försöker försämra kvaliteten på verkliga relationer genom att ersätta dem med en virtuell relation, vilket gör att användarna blir beroende av känslan av konstant beröm.”
OpenAI-bugg eller avsiktlig design?
Som svar på kritiken uttalade sig OpenAIs VD Sam Altman officiellt kvällen den 27 april. ”Några nya uppdateringar av GPT-4o har gjort chatbotens personlighet för smickrande och irriterande (även om det fortfarande finns många bra poänger). Vi arbetar snabbt med korrigeringar. Vissa patchar kommer att finnas tillgängliga idag, andra den här veckan. Vid någon tidpunkt kommer vi att dela med oss av vad vi lärt oss av den här erfarenheten. Det har varit riktigt spännande”, skrev han på X.
Oren Etzioni, en erfaren AI-expert och professor emeritus vid University of Washington, berättade för Business Insider att orsaken troligen berodde på en teknik som kallas "förstärkningsinlärning från mänsklig feedback" (RLHF), vilket är ett viktigt steg i att träna stora språkmodeller som ChatGPT.
RLHF är en process där mänskliga bedömningar, både från professionella bedömare och användare, matas tillbaka till modellen för att justera hur den reagerar. Enligt Etzioni är det möjligt att mänskliga bedömare eller användare "oavsiktligt har drivit modellen i en mer smickrande och irriterande riktning". Han sa också att om OpenAI anlitade externa partners för att träna modellen, kan de ha antagit att den här stilen var vad användarna ville ha.
Etzioni sa att om det verkligen är RLHF, kan återhämtningsprocessen ta flera veckor.
Samtidigt väntade inte vissa användare på att OpenAI skulle åtgärda felet. Många sa att de avslutade sina betalda prenumerationer av frustration. Andra delade med sig av sätt att göra chatboten "mindre smickrande", till exempel att anpassa den, lägga till kommandon eller anpassa den via Inställningar i Anpassningssektionen.
![]() ![]() |
Användare kan be ChatGPT att sluta ge komplimanger i ett kommando eller i personaliseringsinställningarna. Foto: DeCrypt. |
Till exempel, när du startar en ny konversation kan du säga till ChatGPT: ”Jag ogillar tomma smicker och uppskattar neutral, objektiv feedback. Vänligen avstå från att ge onödiga komplimanger. Vänligen kom ihåg detta.”
Faktum är att det "sympatiska" draget inte är en oavsiktlig designfel. OpenAI har själva medgett att den "alltför artiga, alltför fogliga" personligheten var en avsiktlig designbias från de tidiga stadierna för att säkerställa att chatboten var "ofarlig", "hjälpsam" och "vänlig".
I en intervju med Lex Fridman i mars 2023 berättade Sam Altman att den initiala förfiningen av GPT-modeller var att säkerställa "användbarhet och ofarlighet", och därigenom skapa en reflex för att alltid vara ödmjuk och undvika konfrontation.
Mänskligt märkta träningsdata tenderar också att belöna artiga och positiva svar, vilket skapar en bias mot smicker, enligt DeCrypt .
Källa: https://znews.vn/tat-ninh-hot-ky-la-cua-chatgpt-post1549776.html














Kommentar (0)