KI-Tools erstellen problemlos gefälschte Technologieprodukte. (Illustrationsfoto) |
„Das Zeitalter des Deepfake“
Andererseits kann KI in den falschen Händen leicht Bilder von den Social-Media-Konten von Einzelpersonen stehlen und sie in unerwünschte Referenzen verwandeln. Beispielsweise können pornografische Websites Bilder von Personen ohne deren Zustimmung verwenden.
„Wir leben im Zeitalter der Deepfakes“, sagte Hadi Salman, Forscher am Massachusetts Institute of Technology. „Heute kann jeder Bilder und Videos manipulieren, um Menschen dazu zu bringen, etwas zu tun, was sie gar nicht getan haben.“
Deepfake ist eine Kombination aus den Wörtern „Deep Learning“ und „Fake“ und bezeichnet eine Methode, bei der mithilfe von KI gefälschte Technologieprodukte in Form von Audio, Bildern oder sogar Videos erstellt werden.
Mit ein paar einfachen Befehlen kann KI in Sekundenschnelle jedes gewünschte Bild erstellen. Beispielsweise könnte jemand KI bitten, ein Foto des Papstes in einem Balenciaga-Mantel zu erstellen und es dann im Internet zu veröffentlichen, bevor sich die Fälschung herausstellt.
KI-Technologie begeistert Nutzer zudem mit ihrer Fähigkeit, Kunstwerke im Stil eines bestimmten Künstlers zu schaffen. So lässt sich beispielsweise ein Katzenbild erstellen, das aussieht, als wäre es im Stil des berühmten Malers Vincent van Gogh gemalt.
Für bildende Künstler besteht durch diese Tools die Gefahr, dass sie ihre Arbeit verlieren, da KI-Modelle ihren einzigartigen Stil nachahmen und ohne ihre Erlaubnis Kunstwerke erstellen.
KI-Propeller
Eveline Fröhlich, die in Stuttgart lebt, ist eine von immer mehr Künstlern, die gegen die Übermacht der KI kämpfen und versuchen, Wege zu finden, ihre visuellen Werke online vor Manipulation zu schützen.
Kürzlich erfuhr Frau Fröhlich von einem Tool namens Glaze, das von Informatikern der Universität Chicago (USA) entwickelt wurde, um den Missbrauch von KI-Modellen zu verhindern.
Ben Zhao, Professor für Informatik an der Universität Chicago und einer der leitenden Forscher des Glaze-Projekts, sagte gegenüber CNN , dass das Tool dazu gedacht sei, die einzigartigen Werke von Künstlern vor denjenigen zu schützen, die KI-Modelle trainieren.
Die Glaze-Software verwendet Algorithmen des maschinellen Lernens, um kleine Änderungen an digitalen Bildern vorzunehmen, die für das bloße Auge nicht sichtbar sind, in der Online-Umgebung jedoch eine Schutzschicht für das Werk bilden und KI-Modelle täuschen, sodass diese den Stil des Autors nicht kopieren können.
Dank Glaze werden Kunstwerke „mit einem Tarnumhang bedeckt“, wodurch verhindert wird, dass KI das Bild „liest“.
Beispielsweise, erklärt Zhao, könnte ein Künstler ein Bild seines eigenen Ölgemäldes hochladen, das durch Glaze läuft. Wenn die KI-Modelle das Gemälde „lesen“, würden sie es als Kohleskizze erkennen – während ein Mensch es sofort als Ölgemälde erkennen würde. Nach dem Durchlauf durch Glaze würde das Kunstwerk für die KI deutlich anders aussehen.
Zhaos Team veröffentlichte die erste Version von Glaze im vergangenen März, die seitdem über eine Million Mal heruntergeladen wurde. Erst letzte Woche stellte das Team eine kostenlose Version von Glaze online.
Das Team hofft, dass das Glaze-Tool dazu beitragen wird, die Urheberrechte der Künstler zu schützen, bis spezifische Vorschriften und Gesetze erlassen werden.
Seit der Einführung von Glaze, so Herr Zhao, habe er einen Anstieg der Zahl von Synchronsprechern, Romanautoren, Musikern und Journalisten beobachtet, die sich an sein Team wenden und nach einer Version von Glaze für ihren Bereich fragen.
Der in Kalifornien ansässige bildende Künstler Jon Lam nutzt das Glaze-Tool, um zu verhindern, dass seine Online-Kunstwerke zum Trainieren von KI-Modellen missbraucht werden. Er sagt, dass er die App mittlerweile für alle Kunstwerke verwendet, die er online teilt.
Künstler wie er hätten ihre Arbeiten jahrelang in voller Auflösung online gestellt, aus Stolz, sagte er. „Wir möchten, dass die Leute sehen, wie detailliert und beeindruckend Full-HD-Fotos sind. Künstler wissen jedoch nicht, dass ihre Arbeiten von KI-Modellen ‚aufgefressen‘ werden können, die dann ihren Stil kopieren und sie unfairer Konkurrenz aussetzen.“
„Wir wissen jetzt, dass unsere hochauflösenden Arbeiten in KI-Maschinen eingespeist werden, um im gleichen Bereich wie wir zu konkurrieren. Deshalb müssen wir vorsichtiger sein und darüber nachdenken, wie wir uns schützen können“, sagte er.
Salman und sein Team haben gerade ein weiteres Tool zum Schutz von Bildern vor KI veröffentlicht. Die App namens PhotoGuard ermöglicht es Nutzern, eine unsichtbare Schutzschicht über Bilder zu legen, um zu verhindern, dass KI-Modelle die Bilder manipulieren.
Das Ziel von PhotoGuard sei es, Fotos, die bereits von ihren Autoren online hochgeladen wurden, vor „böswilliger KI-Manipulation“ zu schützen, sagte Salman.
Die PhotoGuard-App funktioniert, indem sie die Pixel eines Bildes auf eine für Menschen nicht wahrnehmbare Weise anpasst. Diese für das bloße Auge nicht wahrnehmbare Änderung ist jedoch leistungsstark genug und umgeht sorgfältig alle Versuche von KI-Modellen, das Bild zu manipulieren.
Das bedeutet, dass, wenn jemand versucht, ein Foto mithilfe von KI zu bearbeiten, nachdem es durch PhotoGuard geschützt wurde, das resultierende Foto „überhaupt nicht realistisch“ sein wird, erklärte Salman.
Nicht lizenziert
Auf der anderen Seite gilt: Selbst wenn KI-Tools Bilder aufnehmen und bearbeiten, werden die von ihnen erstellten Bilder nicht als urheberrechtlich geschützt anerkannt.
Seit ihrem Aufkommen und ihrer Popularität hat die KI gleichzeitig eine Debatte ausgelöst: Sind diese Werke urheberrechtlich geschützt? Und wenn ja, wem gehören sie?
Das United States Copyright Office (USCO) hat eine offizielle Entscheidung zu diesen Werken getroffen. Demnach unterliegen Bilder, die von KI auf Befehlsbasis generiert werden – wie die aktuellen Apps Midjourney, Dall-E und Stable Diffusion – in den USA nicht dem Urheberrecht.
Nach US-amerikanischem Recht kann geistiges Eigentum nur dann urheberrechtlich geschützt werden, wenn es das Ergebnis menschlicher Kreativität ist. Das USCO erkennt derzeit nur von Menschen geschaffene Werke an. Daher gelten KI-Maschinen nicht als Urheber, und die von ihnen geschaffenen Produkte unterliegen nicht dem Urheberrecht.
„Wenn die traditionellen Elemente des Urheberrechts an einem Werk von einer Maschine geschaffen werden, dann unterliegt das Werk nicht dem Urheberrecht eines Menschen und wird vom USCO nicht registriert“, sagte USCO-Direktorin Shira Perlmutter.
[Anzeige_2]
Quelle
Kommentar (0)