Zu den irreführenden KI-Inhalten zählen erfundene Fakten, medizinische Ratschläge und Falschmeldungen über den Tod von Prominenten. Dies weckt neue Bedenken, dass die Technologie das Problem der Online-Desinformation verschärfen könnte.
Bedenken hinsichtlich der Verbreitung von Fake News durch Websites, die KI nutzen, sind Realität geworden. Bild: GI
Die beiden Berichte wurden unabhängig voneinander von NewsGuard, einem Unternehmen, das Online-Fehlinformationen verfolgt, und ShadowDragon, einem Unternehmen, das Ressourcen und Schulungen für digitale Ermittlungen bereitstellt, veröffentlicht.
„Leser misstrauen Nachrichtenquellen zunehmend, unter anderem, weil sie nicht zwischen vertrauenswürdigen und nicht vertrauenswürdigen Quellen unterscheiden können“, sagte Steven Brill, CEO von NewsGuard, in einer Erklärung. „Diese neue Welle von KI-generierten Websites wird es für Leser noch schwieriger machen, herauszufinden, wer sie mit Nachrichten versorgt, was das Vertrauen weiter untergräbt.“
NewsGuard identifizierte 125 Websites, deren Inhalte von Nachrichten bis hin zu Lifestyle-Informationen reichen und in 10 Sprachen veröffentlicht werden. Sie wurden vollständig oder überwiegend mit KI-Tools verfasst.
Zu den Websites gehört ein Gesundheitsportal, das laut NewsGuard mehr als 50 KI-generierte Artikel mit medizinischen Ratschlägen veröffentlicht hat.
Laut NewsGuard wurden die Websites häufig mit Werbung überflutet. Dies lässt darauf schließen, dass die unechten Inhalte als „Clickbait“-Werbung für die Websitebesitzer erstellt wurden, die oft völlig anonym blieben.
ShadowDragon fand auch auf Websites und in sozialen Medien unechte Inhalte, unter anderem auf Instagram und in Amazon-Rezensionen. Das Unternehmen wies außerdem auf mehrere Instagram-Konten hin, die offenbar ChatGPT oder andere KI-Tools nutzten, um Beschreibungen unter Fotos und Videos zu schreiben.
Um Beispiele zu finden, suchten die Forscher nach offensichtlichen Fehlinformationen und vorgefertigten Antworten, die häufig von KI-Tools generiert werden. Einige Websites entfernten sogar keine Informationen, die ihre KI-Warnungen generierten, nachdem sie aufgefordert worden waren, Artikel mit Fehlinformationen oder schädlichen Inhalten zu verfassen.
ShadowDragon fand solche Nachrichten auf dem Job-Netzwerk LinkedIn, in Beiträgen auf Twitter und in vielen anderen sozialen Netzwerken. Einige der Twitter-Beiträge wurden von Bots wie ReplyGPT veröffentlicht, die automatisch auf Nutzerkommentare antworten.
Hoang Hai (laut NewsGuard, NYT)
[Anzeige_2]
Quelle
Kommentar (0)