In der Praxis bedeutet dies, dass die Ergebnisse von ChatGPT auf früheren Artikeln in News Corp-Nachrichtenmedien basieren können, darunter große Zeitungen auf der ganzen Welt wie das Wall Street Journal, The Sun, The Times, The Australian oder The Daily Telegraph.
OpenAI musste mit News Corp eine Lizenzvereinbarung für Inhalte abschließen, da generative KI (GenAI) ein „unersättliches Biest“ ist: Sie benötigt Daten, um daraus zu lernen und im Gegenzug Ergebnisse zu generieren. Die Leistungsfähigkeit dieses „Biestes“ hängt neben den Algorithmen auch von der Größe und Qualität der Trainingsdaten ab.
Haben Presse und Medien sich selbst ins Knie geschossen, indem sie ihr wertvollstes Gut an die Konkurrenz verraten haben? Oder profitieren wir alle von der breiteren Verfügbarkeit verlässlicher Informationen?
Die Partnerschaft mit OpenAI soll News Corp in den nächsten fünf Jahren rund 250 Millionen Euro einbringen. Foto: OpenAI
Mit der KI arbeiten oder gegen sie ankämpfen?
Tatsächlich konsumiert das „Monster“ ChatGPT schon seit Langem Bücher, Artikel und Inhalte aus dem Internet und wird dabei immer „übermenschlicher“, was seinem „Chef“ OpenAI Profit und Ruhm einbringt. Dazu gehören auch Online-Nachrichtenartikel, darunter kostenlose, urheberrechtlich geschützte und exklusive Inhalte.
Doch nun stößt der „kostenlose Konsum“ von Chatbot-Modellen auf Probleme, da viele Nachrichtenagenturen und Medienorganisationen dessen Rechtmäßigkeit in Frage stellen.
Es stimmt, dass ChatGPT oder ein anderes KI-Modell einen allgemeinen Nutzen für die Menschheit bietet. Man kann aber nicht einfach in eine Buchhandlung oder einen Zeitungskiosk gehen, willkürlich die dort angebotenen Produkte zurückbringen und dann fordern, dass diese Produkte kostenlos angeboten werden, nur weil es der Menschheit zugutekommt. Genauso wenig kann man KI-Unternehmen auffordern, all ihre Produkte kostenlos anzubieten.
Deshalb haben die New York Times und mehrere andere Nachrichtenorganisationen OpenAI kürzlich wegen Urheberrechtsverletzung verklagt. Und indem sie direkt mit Medienunternehmen, oft sehr großen, Verträge abschließen, stellen generative KI-Dienste wie ChatGPT sicher, dass sie in dieser Angelegenheit keine rechtlichen Probleme bekommen.
Darüber hinaus sind Qualität und Herkunft der Trainingsdaten ebenfalls wichtig und können zu Verzerrungen in den Ergebnissen der KI führen. Dies ist auch ein Faktor, der KI-Unternehmen zur Zusammenarbeit mit etablierten Nachrichtenmedien zwingt.
Dies ist auch der Grund, warum einige Nachrichtenmedien versuchen, die Verwendung ihrer Inhalte zu verhindern, während andere, darunter die Associated Press (AP), Verträge mit KI-Unternehmen abschließen.
Sei vorsichtig und wachsam.
Es bleibt abzuwarten, wie sich solche Abkommen auf Nachrichtenorganisationen im Allgemeinen und Journalisten im Besonderen auswirken werden. Eines ist jedoch sicher: Nicht alle Nachrichtenorganisationen weltweit können selbst Lizenzverträge mit KI-Unternehmen aushandeln oder die Aufmerksamkeit von News Corp. erlangen.
Chatbots wie ChatGPT von OpenAI werden mit „gefräßigen Bestien“ verglichen. Illustration: GI
Das bedeutet, dass kleine und mittelgroße Nachrichtenorganisationen einmal mehr ins Abseits geraten, da Mediengiganten um lukrative Inhaltsverträge wetteifern und kleinere Organisationen entweder nur noch Krümel abbekommen oder ganz verdrängt werden.
Technologieunternehmen wie OpenAI wissen, dass die Erstellung qualitativ hochwertiger Nachrichten Geld kostet und dass sie Inhalte von Nachrichtenorganisationen lizenzieren müssen. Daher werden sie weiterhin Vereinbarungen mit großen Nachrichtenorganisationen treffen, um sowohl Inhalte für das Training von KI als auch Nachrichten für die Nutzer zu erhalten.
Die oben beschriebene Methode der KI-Unternehmen ist deutlich günstiger als die Erstellung der Inhalte in Eigenregie. Allein der Einkauf der Produkte unter den Produktionskosten ist schon ein Erfolg, aber wie sie diese Produkte anschließend vermarkten, ist eine andere Geschichte (doch darin dürfte wohl niemand besser sein als sie).
Die Nachrichtenagenturen, die von den KI-Giganten für ihre Inhalte bezahlt werden, werden den Nutzen sofort spüren, wenn sie „plötzlich“ einen großen Geldbetrag erhalten, ohne zusätzliche Kosten tragen zu müssen (wie wir wissen, kostet ein digitaler Artikel, egal ob er an 1 oder 1 Million Menschen verkauft wird, fast immer gleich viel).
Aber Moment mal! Ob absichtlich oder unabsichtlich, dies ist vermutlich eine weitere Falle, die die Tech-Giganten der Presse im Allgemeinen gestellt haben. Wenn sie Inhalte günstig erwerben, „verkaufen“ Tech-Unternehmen diese zu einem sehr niedrigen Preis oder sogar kostenlos (im Austausch für Werbung) weiter – und zwar in großem Umfang, von lokal bis global, wodurch sie enorme Gewinne erzielen.
Und dann wird niemand mehr für kostenpflichtige oder kostenlose Seiten wie News Corp. bezahlen. Fast alle diese Nachrichtenportale werden sich nur noch an den Geldern von KI-Unternehmen orientieren.
Ein Gigant wie News Corp, im Besitz der Familie des Medienmoguls Rupert Murdoch, ist offensichtlich klug genug, dies zu verstehen. Es ist aber durchaus möglich, dass sie aus Gründen des unmittelbaren Nutzens oder aufgrund anderer vertraglicher Bindungen davon ausgehen, dass das oben genannte Worst-Case-Szenario nicht eintreten wird.
Dies stellt jedoch eine weitere Bedrohung für die Presse dar. Es ähnelt der Situation, als einst alle Zeitungen weltweit ihre Inhalte an Technologieplattformen wie Google und Facebook abgaben, die diese kostenlos gegen Werbeeinnahmen verbreiteten. Das Ergebnis: Nur wenige Zeitungen profitieren, während die Mehrheit unter Druck gerät und zunehmend zu Instrumenten für die Profitmaximierung anderer wird.
Daher ist Vorsicht geboten für Nachrichtenorganisationen, wenn sie Inhalte an Technologieunternehmen verkaufen, die diese als „Futter“ für ihre „KI-hungrigen Monster“ nutzen. Könnte dies ein weiterer Akt des Journalismus sein, der sich selbst ins Knie schießt?
Hoang Hai
Quelle: https://www.congluan.vn/thoa-thuan-cua-news-corp-voi-openai-lai-la-hanh-dong-tu-ban-vao-chan-cua-bao-chi-post296836.html






Kommentar (0)