Eine Forschergruppe in Deutschland warnte kürzlich vor dem Risiko von Verzerrungen beim Einsatz von KI-Chatbots zur Zusammenfassung von Forschungsinhalten. Nach der Analyse von 4.900 von Menschen verfassten wissenschaftlichen Abstracts verglich das Team mithilfe verschiedener KI-Modelle die Informationsverarbeitung dieser Systeme. Die Ergebnisse zeigten, dass die meisten Chatbots den Fehler begingen, zu stark zu generalisieren, selbst wenn sie zu einer präzisen Zusammenfassung aufgefordert wurden.
Künstliche Intelligenz neigt bei der Zusammenfassung wissenschaftlicher Forschungsergebnisse zu Verzerrungen.
In Tests machten KI-Modelle ohne Anleitung fünfmal mehr Fehler als menschliche Experten. Selbst bei expliziter Aufforderung zur Genauigkeit war die Fehlerrate doppelt so hoch wie bei einer Standardzusammenfassung. „Verallgemeinerungen erscheinen manchmal harmlos, verändern aber tatsächlich den Charakter der ursprünglichen Forschung“, sagte ein Mitglied des Teams. „Es handelt sich um eine systematische Verzerrung.“
Neuere Versionen des Chatbots haben das Problem nicht nur nicht behoben, sondern es sogar verschärft. Dank ihrer flüssigen und ansprechenden Sprache wirken KI-generierte Zusammenfassungen leicht glaubwürdig, obwohl der eigentliche Inhalt verfälscht wurde. So änderte DeepSeek beispielsweise die Formulierung „sicher und erfolgreich durchführbar“ in „sichere und wirksame Behandlung“ – eine Fehlinterpretation der ursprünglichen Studienergebnisse.
In einem anderen Beispiel empfahl das Llama-Modell Diabetesmedikamente für junge Menschen, ohne Dosierung, Einnahmehäufigkeit oder Nebenwirkungen anzugeben. Wenn der Leser Arzt oder medizinischer Fachangestellter ist und die Originalforschung nicht überprüft, können solche Zusammenfassungen ein direktes Risiko für Patienten darstellen.
Experten zufolge liegt die Ursache in der Art und Weise, wie KI-Modelle trainiert werden. Viele Chatbots werden heutzutage mit Sekundärdaten trainiert – beispielsweise mit populärwissenschaftlichen Nachrichten –, die bereits vereinfacht wurden. Da die KI die gekürzten Inhalte immer weiter zusammenfasst, steigt das Risiko von Verzerrungen.
Experten für KI im Bereich der psychischen Gesundheit sagen, dass technische Barrieren frühzeitig in der Entwicklung und Anwendung von KI geschaffen werden müssen.
Nutzer sollten vorsichtig sein, da Chatbots Inhalte leicht verfälschen können.
Da Nutzer zunehmend auf KI-Chatbots zurückgreifen, um sich über Wissenschaft zu informieren, können sich kleine Interpretationsfehler schnell anhäufen und verbreiten und zu weit verbreiteten Fehlwahrnehmungen führen. In Zeiten sinkenden Vertrauens in die Wissenschaft ist dieses Risiko umso besorgniserregender und verdient besondere Aufmerksamkeit.
Die Integration von KI in Forschung und Wissensvermittlung ist ein unumkehrbarer Trend. Experten betonen jedoch, dass Technologie die Rolle des Menschen beim Verständnis und der Überprüfung wissenschaftlicher Inhalte nicht ersetzen kann. Beim Einsatz von Chatbots in risikoreichen Bereichen wie der Medizin sollte daher höchste Priorität auf Genauigkeit liegen, nicht allein auf reibungsloser Sprachverarbeitung oder Reaktionsgeschwindigkeit.
Quelle: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










Kommentar (0)