Een groep onderzoekers in Duitsland waarschuwde onlangs voor het risico op bias bij het gebruik van AI-chatbots om onderzoeksinhoud in te korten. Na analyse van 4900 door mensen geschreven wetenschappelijke samenvattingen, gebruikte het team verschillende AI-modellen om te vergelijken hoe deze systemen informatie verwerkten. De resultaten toonden aan dat de meeste chatbots de fout maakten te veel te generaliseren, zelfs wanneer ze werden gevraagd om nauwkeurig samen te vatten.
AI is gevoelig voor vooringenomenheid bij het samenvatten van wetenschappelijk onderzoek.
In tests maakten AI-modellen vijf keer meer fouten dan menselijke experts zonder begeleiding. Zelfs wanneer er expliciet om nauwkeurigheid werd gevraagd, was het foutenpercentage twee keer zo hoog als bij een standaardsamenvatting. "Generalisaties lijken soms onschuldig, maar ze veranderen feitelijk de aard van het oorspronkelijke onderzoek", aldus een van de teamleden. "Het is een systematische bias."
Opvallend is dat nieuwere versies van de chatbot het probleem niet alleen niet hebben opgelost, maar het zelfs hebben verergerd. Met hun vloeiende en aantrekkelijke taal kunnen door AI gegenereerde samenvattingen gemakkelijk geloofwaardig overkomen, terwijl de daadwerkelijke inhoud is vervormd. In één geval veranderde DeepSeek de zin "veilig en kan met succes worden uitgevoerd" in "veilige en effectieve behandeling" – een verkeerde interpretatie van de conclusies van het oorspronkelijke onderzoek.
In een ander voorbeeld adviseerde het Llama-model diabetesmedicatie voor jongeren zonder de dosering, frequentie of bijwerkingen te specificeren. Als de lezer een arts of zorgverlener is die het originele onderzoek niet verifieert, kunnen dergelijke samenvattingen een direct risico vormen voor patiënten.
Experts zeggen dat het fenomeen geworteld is in de manier waarop AI-modellen worden getraind. Veel chatbots worden tegenwoordig getraind met secundaire data – zoals populairwetenschappelijk nieuws – die al vereenvoudigd is. Naarmate AI de verkorte content blijft samenvatten, neemt het risico op vertekening toe.
Deskundigen op het gebied van AI op het gebied van geestelijke gezondheid zeggen dat er al vroeg in de ontwikkeling en het gebruik van AI technische barrières moeten worden opgeworpen.
Gebruikers moeten op hun hoede zijn, want chatbots kunnen de inhoud gemakkelijk verdraaien.
Nu gebruikers steeds meer vertrouwen op AI-chatbots om meer over wetenschap te leren, kunnen kleine interpretatiefouten zich snel opstapelen en verspreiden, wat leidt tot wijdverbreide misvattingen. In een tijd waarin het vertrouwen in de wetenschap afneemt, wordt dit risico nog zorgwekkender en verdient het de nodige aandacht.
De integratie van AI in onderzoek en kennisverspreiding is een onomkeerbare trend. Deskundigen stellen echter dat technologie de rol van mensen bij het begrijpen en verifiëren van wetenschappelijke content niet kan vervangen. Bij het gebruik van chatbots in risicovolle sectoren zoals de geneeskunde moet nauwkeurigheid de hoogste prioriteit hebben, in plaats van alleen te focussen op een soepele taalervaring of reactiesnelheid.
Bron: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










Reactie (0)