Wir leben im Zeitalter der Industrie 4.0, in dem künstliche Intelligenz (KI) zunehmend zu einem unverzichtbaren Bestandteil vieler Bereiche des gesellschaftlichen Lebens wird. Auch die Medien, als Informationsbrücke zwischen Öffentlichkeit und Ereignissen, können sich diesem Trend nicht entziehen.
| Frau Nguyen Thi Hai Van – Direktorin des Zentrums für Journalistenausbildung des vietnamesischen Journalistenverbands – beim Workshop über KI-Technologie. (Quelle: Vietnamesischer Journalistenverband) |
Um die Vorteile der KI optimal zu nutzen, müssen sich Kommunikationsfachleute das Wissen aneignen, KI effektiv einzusetzen und gleichzeitig Zuverlässigkeit und ethische Grundsätze bei der Informationsübermittlung zu gewährleisten.
Von der „Aktualität“ der KI
Es ist unbestreitbar, dass KI (Künstliche Intelligenz) eines der wichtigsten Schlagwörter unserer Zeit ist. Im September 2024 lieferte die Google-Suche nach dem Stichwort „KI“ innerhalb von 0,3 Sekunden 15,9 Milliarden Ergebnisse; die Suche nach „KI-Tools“ ergab in 0,4 Sekunden über 3,4 Milliarden Ergebnisse. Diese enormen Zahlen verdeutlichen die weltweite Reichweite und das große Interesse an KI und KI-basierten Tools.
Derzeit erscheinen immer mehr KI-Tools für verschiedene Bereiche, darunter auch die Medienbranche. Neben dem weithin bekannten ChatGPT gibt es zahlreiche KI-Anwendungen, die sich auf bestimmte Anwendungsgebiete und Aufgaben spezialisiert haben. Es ist nicht schwer, hier viele Tools aufzuzählen, zum Beispiel: Bing AI, Clause und Zapier Central für Chatbots; Jasper, Copy.ai und Anyword für die Content-Erstellung; Descript, Wondershare und Runway für Videoproduktion und -bearbeitung; DALL-E3, Midjourney und Stable Diffusion für die Bildbearbeitung; Murf und AIVA für Audioinhalte usw. Kürzlich hat auch der Gigant Amazon seine KI-Tools Video Generator und Image Generator vorgestellt, mit dem Ziel, „Kreativität zu fördern und Mehrwert zu schaffen“.
Obwohl KI-Tools hinsichtlich ihres Umfangs und Spezialisierungsgrades sehr unterschiedlich sind, haben sie im Wesentlichen zwei Dinge gemeinsam: KI-Tools werden auf der Grundlage von Algorithmen und Daten entwickelt, um die KI-Tools zu „trainieren“.
Ethische Kontrolle des KI-Einsatzes in den Medien
Die Vorteile von KI-Tools sind unbestreitbar, und mit dem rasanten technologischen Fortschritt werden immer mehr spezialisierte KI-Tools in allen Bereichen der Medienbranche zum Einsatz kommen, die Aufgaben von einfach bis komplex bewältigen. Diese rasante Entwicklung wirft jedoch viele Fragen zur ethischen Kontrolle bei der Entwicklung und Nutzung von KI-Tools in der Medienbranche auf. Was geschieht, wenn die Algorithmen und Daten eines KI-Tools zum Schaden der Allgemeinheit manipuliert werden? Wer garantiert die Rechte am geistigen Eigentum der Trainingsdaten des KI-Tools? Wer bewertet das Ausmaß des verursachten Schadens?
Besteht bei der Bearbeitung derselben Aufgabe eine Ungleichheit zwischen der Gruppe der Menschen, die Zugang zu KI-Werkzeugen haben, und der Gruppe, die keinen Zugang dazu hat? Es wurden sogar Fragen hinsichtlich des potenziellen Ausmaßes unkontrollierten Schadens durch KI-Werkzeuge aufgeworfen, insbesondere in sensiblen Bereichen, die viele Menschen in großem Umfang betreffen können, wie beispielsweise Medien und soziale Netzwerke.
In Anbetracht der oben genannten Bedenken haben zahlreiche Organisationen, Verbände, Regierungen und sogar Unternehmen, die KI-Tools entwickeln, Empfehlungen, Erläuterungen und Verhaltenskodizes zum Thema ethische Kontrolle in der KI-Technologie veröffentlicht. Die Erklärung zur Ethik der Künstlichen Intelligenz – Empfehlung der UNESCO (Organisation der Vereinten Nationen für Erziehung , Wissenschaft und Kultur) –, die 2021 von 193 Ländern angenommen wurde, stellt klar: „Der rasante Aufstieg der Künstlichen Intelligenz (KI) hat weltweit viele Möglichkeiten geschaffen, von der Unterstützung bei der Diagnose im Gesundheitswesen über die Ermöglichung menschlicher Kommunikation durch soziale Medien bis hin zur Steigerung der Arbeitseffizienz durch automatisierte Aufgaben.“
Diese rasanten Veränderungen werfen jedoch auch tiefgreifende ethische Bedenken auf. Die mit KI verbundenen Risiken haben begonnen, bestehende Ungleichheiten zu verschärfen und bereits benachteiligten Gruppen weiteren Schaden zuzufügen…“. Daher wird die UNESCO aufgefordert, Instrumente zur Unterstützung der Mitgliedstaaten zu entwickeln, darunter die Readiness Assessment Methodology. Dieses Instrument soll Regierungen helfen, sich ein umfassendes Bild ihrer Bereitschaft zu machen, KI ethisch und verantwortungsvoll für alle Bürgerinnen und Bürger einzusetzen.
Im Rahmen ihres globalen Ansatzes hat die UNESCO das Globale Observatorium für KI-Ethik und -Governance ins Leben gerufen, das nach eigenen Angaben „Informationen über die Bereitschaft von Ländern zur ethischen und verantwortungsvollen Einführung von KI bereitstellt. Es beherbergt außerdem das Labor für KI-Ethik und -Governance, das Beiträge, wirkungsvolle Forschung, Instrumente und bewährte Verfahren zu einem breiten Spektrum ethischer KI-Fragen zusammenführt…“
Neben globalen Organisationen wie der UNESCO arbeiten auch viele Berufsverbände an der Entwicklung eigener Standards. So hat beispielsweise die IABC (International Association of Business Communications), ein Verband mit Tausenden von Mitgliedern weltweit, eine Reihe von Grundsätzen für den ethischen Einsatz von KI durch Kommunikationsfachleute entwickelt. Diese Grundsätze sollen IABC-Mitglieder hinsichtlich der Relevanz des IABC-Verhaltenskodex für KI beraten. Sie können im Zuge der Weiterentwicklung der KI-Technologie aktualisiert und ergänzt werden. Die Grundsätze enthalten zahlreiche konkrete Punkte, die Kommunikationsfachleute beachten sollten, wie beispielsweise:
„Der Einsatz von KI-Ressourcen muss durch menschliche Expertise unterstützt werden, um positive und transparente Erfahrungen zu schaffen, die Respekt fördern und Vertrauen in die Medienbranche aufbauen. Es ist wichtig, sich über die beruflichen Chancen und Risiken von KI-Tools auf dem Laufenden zu halten. Informationen müssen präzise, objektiv und fair kommuniziert werden. KI-Tools können Fehler, Inkonsistenzen und andere technische Probleme aufweisen. Daher ist menschliches Urteilsvermögen erforderlich, um unabhängig zu überprüfen, ob meine KI-generierten Inhalte korrekt, transparent und frei von Plagiaten sind.“
Die persönlichen und/oder vertraulichen Informationen anderer werden geschützt und nicht ohne deren Einwilligung verwendet. Die Ergebnisse der KI werden anhand menschlicher Interaktion und des Verständnisses der Zielgruppe bewertet. Verzerrungen werden bestmöglich vermieden, und die kulturellen Werte und Überzeugungen anderer werden respektiert.
Sie müssen ihre eigenen Ergebnisse eigenständig und mit der gebotenen professionellen Sorgfalt faktenchecken und verifizieren, um sicherzustellen, dass Dokumente, Informationen oder Referenzen Dritter korrekt sind, die erforderlichen Quellenangaben und Nachweise enthalten und ordnungsgemäß lizenziert oder zur Nutzung autorisiert sind. Sie dürfen den Einsatz von KI in ihren beruflichen Ergebnissen nicht verbergen oder verschleiern. Sie müssen sich der Open-Source-Natur von KI und der damit verbundenen Vertraulichkeitsproblematik bewusst sein, insbesondere der Gefahr, falsche, irreführende oder täuschende Informationen einzugeben.
Unternehmen, die KI-Tools besitzen, entwickeln und vertreiben, kennen deren Funktionsweise besser als alle anderen. Sie wissen, welche Algorithmen den KI-Tools zugrunde liegen und mit welchen Daten sie trainiert werden. Daher müssen auch diese Unternehmen Informationen zu ethischen Grundsätzen in der KI-Entwicklung bereitstellen. Tatsächlich gibt es bereits Unternehmen, die sich für dieses Thema interessieren.
Google verpflichtet sich, keine KI-Tools für Bereiche zu entwickeln, in denen ein erhebliches Schadensrisiko besteht. Wir werden nur dann fortfahren, wenn wir der Ansicht sind, dass der Nutzen die Risiken deutlich überwiegt und angemessene Schutzmaßnahmen integriert werden. Waffen oder andere Technologien, deren Hauptzweck oder Einsatz darin besteht, Menschen zu verletzen oder dies unmittelbar zu ermöglichen. Technologien, die Informationen zu Überwachungszwecken sammeln oder verwenden und dabei gegen international anerkannte Normen verstoßen. Technologien, deren Zweck gegen allgemein anerkannte Grundsätze des Völkerrechts und der Menschenrechte verstößt.
Im Bereich Sicherheit verspricht Google: „Wir werden weiterhin robuste Sicherheitsmaßnahmen entwickeln und implementieren, um unbeabsichtigte Folgen und damit verbundene Schadensrisiken zu vermeiden. Unsere KI-Systeme werden wir mit angemessener Vorsicht konzipieren und sie gemäß den Best Practices der KI-Sicherheitsforschung entwickeln. Wir werden unsere Datenschutzprinzipien in die Entwicklung und Nutzung unserer KI-Technologien einbeziehen. Wir werden Möglichkeiten zur Information und Einwilligung bieten, datenschutzfreundliche Architekturen fördern und für angemessene Transparenz und Kontrollmöglichkeiten hinsichtlich der Datennutzung sorgen.“
Ähnlich wie Google veröffentlichte auch Microsoft eine Erklärung zu den KI-Prinzipien und dem KI-Ansatz und betonte: „Wir setzen uns dafür ein, dass KI-Systeme verantwortungsvoll und vertrauenswürdig entwickelt werden.“ Darüber hinaus gaben auch große Technologieunternehmen wie Amazon und OpenAI, die massiv in die Entwicklung von KI-Tools investieren, entsprechende Verpflichtungen ab.
Zahlreiche Beispiele aus der Geschichte belegen die Ambivalenz der Technologie mit ihren positiven und negativen Aspekten. Denn obwohl KI eine hochmoderne Technologieplattform darstellt, basiert sie letztlich auf Algorithmen und Daten, die von Menschen entwickelt und gesammelt wurden; gleichzeitig sind die meisten KI-Produkte Teil der Geschäftsstrategien der Unternehmen, denen sie gehören.
Daher bestehen stets potenzielle Risiken sowohl auf technischer Ebene als auch im Produktentwicklungs- und Managementteam selbst. Problematisch ist hierbei das Ausmaß der Auswirkungen, die KI-Tools auf die Mehrheit der Bevölkerung, sogar auf sozioökonomischer Ebene, haben können. Die frühzeitige Berücksichtigung ethischer Aspekte beim Einsatz von KI-Technologie ist ein erfreuliches Zeichen, insbesondere durch die Beteiligung großer internationaler Organisationen wie der Vereinten Nationen, Regierungen, Branchenverbände und vor allem der Technologieentwicklungsabteilungen selbst.
Da jedoch ständig neue Versionen von KI-Tools erscheinen, die jeweils ausgefeilter und komplexer sind als die vorherigen, müssen auch die Kodizes, Prinzipien oder Richtlinien zeitnah aktualisiert und ergänzt werden und darüber hinaus proaktiv Produktentwickler und -nutzer in einem Rahmen kontrollieren, in dem die Einhaltung ethischer Kontrollstandards in der KI-Technologie im Allgemeinen und in den Medien im Besonderen höchste Effizienz erreichen kann.
Quelle










Kommentar (0)