Australische Wissenschaftler haben eine neue Technik entwickelt, die verhindern könnte, dass Systeme der künstlichen Intelligenz (KI) illegal von Bildern, Kunstwerken und anderen Online-Inhalten lernen.
Die von der australischen nationalen Wissenschaftsorganisation CSIRO entwickelte Technik verändert den Inhalt von Bildern subtil, sodass sie für KI-Modelle unlesbar werden, während sie für das menschliche Auge unverändert bleibt. Dies geht aus einem Projekt hervor, das CSIRO in Zusammenarbeit mit dem australischen Cybersecurity Cooperative Research Centre (CSCRC) und der Universität von Chicago entwickelt hat.
Die Autoren sagen, der Durchbruch könne Künstlern, Organisationen und Social-Media-Nutzern helfen, ihre Werke und persönlichen Daten davor zu schützen, dass sie zum Trainieren von KI-Systemen oder zur Erstellung von Deepfakes – also hochrealistischen, von KI erzeugten gefälschten Videos , Bildern oder Audiodateien – missbraucht werden. Beispielsweise könnten Nutzer vor dem Posten automatisch eine Schutzschicht auf Bilder anwenden, um zu verhindern, dass die KI Gesichtszüge lernt, um Deepfakes zu erstellen.
In ähnlicher Weise könnten Verteidigungsorganisationen sensible Satellitenbilder oder Daten über Cyberbedrohungen schützen.
Laut Dr. Derui Wang, einem Wissenschaftler bei CSIRO, nutzt diese Methode eine starke mathematische Grundlage, um sicherzustellen, dass KI-Modelle aus diesen Inhalten nicht lernen können. Mit anderen Worten: Diese Technik macht die Daten für KI in einem Maße „unlernbar“, das die Privatsphäre und das Urheberrecht schützt und gleichzeitig ihre Nützlichkeit für den Menschen erhält.
Dieser Schutz bleibt auch dann bestehen, wenn die KI versucht, sich anzupassen oder neu trainiert wird, fügte er hinzu.
Dr. Wang erklärte, das Verfahren könne automatisiert und in großem Umfang angewendet werden. Er führte aus, dass eine Social-Media-Plattform oder Website diese Schutzschicht in alle hochgeladenen Bilder einbetten könne. Dies könne die Verbreitung von Deepfakes einschränken, den Diebstahl geistigen Eigentums reduzieren und Nutzern helfen, die Kontrolle über ihre Inhalte zu behalten.
Das Verfahren ist derzeit nur auf Bilder anwendbar, die Forscher planen jedoch, es auf Text, Musik und Video auszuweiten. Die Technologie befindet sich noch im theoretischen Stadium und hat ihre Funktionsfähigkeit bisher nur im Labor unter Beweis gestellt.
Die oben genannte wissenschaftliche Arbeit mit dem Titel „Provably Unlearnable Data Examples“ wurde auf dem Network and Distributed Systems Security Symposium (NDSS) 2025 mit dem Outstanding Research Award ausgezeichnet.
Quelle: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp






Kommentar (0)