Auch die Verwendung von Whisper zum Erstellen von Untertiteln für Hörgeschädigte stellt ein ernstes Problem dar, da diese keine Möglichkeit haben, falsche Informationen zu erkennen, die zwischen den Millionen generierter Wörter versteckt sind.
In einer Zeit, in der Künstliche Intelligenz (KI) zu einem unverzichtbaren Teil des Alltags wird, hat ein von OpenAI entwickeltes Tool namens Whisper große Aufmerksamkeit erregt, da es in der Lage ist, automatisch Notizen mit nahezu „menschlicher Genauigkeit“ zu machen.
Hinter dem Lob verbirgt sich jedoch heftige Kritik an Whisper, da es einen schwerwiegenden Fehler gibt: die Fähigkeit der App, automatisch Informationen zu erfinden, also Texte oder sogar Aussagen zu generieren, die noch nie jemand geschrieben hat.
Laut Softwareentwicklern und Forschern sorgen fiktive Details nicht nur für Verwirrung, sondern können auch rassistische Kommentare, gewalttätige Sprache und unrealistische medizinische Behandlungen enthalten.
Obwohl OpenAI davor gewarnt hat, das Tool in „Hochrisikobereichen“ einzusetzen, setzen viele medizinische Einrichtungen Whisper weiterhin aktiv ein, um Arzt-Patienten-Konsultationen aufzuzeichnen.
Tatsächlich ergab eine aktuelle Studie, dass bis zu 80 % der Audioaufnahmen bei einer Umfrage zu öffentlichen Versammlungen derartige fiktive Details enthielten. Ein Ingenieur für maschinelles Lernen wies außerdem darauf hin, dass die Analyse von über 100 Stunden Whisper-Transkripten gezeigt habe, dass etwa 50 % davon schwerwiegende Fehler enthielten. Dies gibt Anlass zu Bedenken hinsichtlich der Zuverlässigkeit dieser Technologie, die immer häufiger zum Einsatz kommt.
Experten warnen, dass Fehler gerade im medizinischen Bereich „wirklich schwerwiegende Folgen“ haben können. B
Alondra Nelson, ehemalige Direktorin des Büros für Wissenschafts- und Technologiepolitik des Weißen Hauses, betonte, dass niemand eine Fehldiagnose wolle, und forderte höhere Standards bei der Anwendung dieser Technologie.
Auch die Verwendung von Whisper zum Erstellen von Untertiteln für Hörgeschädigte stellt ein ernstes Problem dar, da diese keine Möglichkeit haben, falsche Informationen zu erkennen, die zwischen den Millionen generierter Wörter versteckt sind.
Der Aufstieg fiktionaler Texte hat viele Experten, Aktivisten und ehemalige OpenAI-Mitarbeiter dazu veranlasst, die Bundesregierung aufzufordern, über eine Regulierung der KI nachzudenken.
William Saunders, ein Forschungsingenieur in San Francisco, glaubt, dass dieses Problem vollständig lösbar ist, wenn OpenAI seiner Bearbeitung Priorität einräumt.
OpenAI hat zugegeben, dass es ständig daran arbeitet, fiktive Details zu minimieren und freut sich über Feedback aus der Forschungsgemeinschaft.
Viele Ingenieure behaupten jedoch immer noch, dass sie noch nie ein anderes KI-Notiztool mit einem so hohen Grad an Fiktion wie Whisper gesehen haben./.
[Anzeige_2]
Quelle: https://www.vietnamplus.vn/tri-tue-nhan-tao-mat-trai-cua-cong-cu-whisper-post987914.vnp
Kommentar (0)