En gruppe forskere i Tyskland advarte nylig om risikoen for skjevhet ved bruk av AI-chatboter for å forkorte forskningsinnhold. Etter å ha analysert 4900 vitenskapelige sammendrag skrevet av mennesker, brukte teamet flere AI-modeller for å sammenligne hvordan disse systemene behandlet informasjon. Resultatene viste at de fleste chatboter gjorde feilen å overgeneralisere, selv når de ble bedt om å oppsummere nøyaktig.
AI er utsatt for skjevhet når den oppsummerer vitenskapelig forskning.
I tester gjorde AI-modeller fem ganger flere feil enn menneskelige eksperter når de ikke ble veiledet. Selv når de eksplisitt ble bedt om nøyaktighet, var feilraten dobbelt så høy som for et standard sammendrag. «Generaliseringer virker noen ganger harmløse, men de endrer faktisk den opprinnelige forskningens natur», sa en av teammedlemmene. «Det er en systematisk skjevhet.»
Det er verdt å merke seg at nyere versjoner av chatboten ikke bare har klart å løse problemet, men faktisk har forverret det. Med sitt smidige og engasjerende språk kan AI-genererte sammendrag lett virke troverdige, mens det faktiske innholdet har blitt forvrengt. I ett tilfelle endret DeepSeek uttrykket «trygt og kan utføres med hell» til «trygt og effektiv behandling» – en feiltolkning av den opprinnelige studiens konklusjoner.
I et annet eksempel anbefalte Llama-modellen diabetesmedisiner for unge mennesker uten å spesifisere dosering, hyppighet eller bivirkninger. Hvis leseren er en lege eller helsepersonell som ikke verifiserer den opprinnelige forskningen, kan sammendrag som dette utgjøre en direkte risiko for pasienter.
Eksperter sier at fenomenet er forankret i måten AI-modeller trenes på. Mange chatboter trenes i dag på sekundærdata – som populærvitenskapelige nyheter – som allerede er forenklet. Etter hvert som AI fortsetter å oppsummere det forkortede innholdet, øker risikoen for forvrengning.
Eksperter på KI innen psykisk helse sier at tekniske barrierer må bygges tidlig i utviklingen og bruken av KI.
Brukere må være forsiktige, da chatboter lett kan forvrenge innhold.
Etter hvert som brukere i økende grad er avhengige av AI-chatboter for å lære om vitenskap, kan små tolkningsfeil raskt hope seg opp og spre seg, noe som forårsaker utbredte misoppfatninger. I en tid der tilliten til vitenskapen synker, blir denne risikoen enda mer bekymringsfull og fortjener behørig oppmerksomhet.
Integreringen av AI i forskning og kunnskapsformidling er en irreversibel trend. Eksperter bekrefter imidlertid at teknologi ikke kan erstatte menneskers rolle i å forstå og verifisere vitenskapelig innhold. Når man bruker chatboter i høyrisikoområder som medisin, bør nøyaktighet være topprioritet, i stedet for å bare fokusere på smidig språkopplevelse eller responshastighet.
Kilde: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










Kommentar (0)