OpenAI hat, um das geistige Eigentum des Unternehmens zu schützen, eine staatliche Ausweisprüfung für Entwickler eingeführt, die Zugang zu seinen fortschrittlichsten Modellen der künstlichen Intelligenz (KI) erhalten möchten.
OpenAI hat auf eine Anfrage nach einem Kommentar zu den obigen Informationen nicht reagiert.
In der Ankündigung erklärte der „Entwickler“ der ChatGPT-Anwendung jedoch, dass der Grund für die Einführung des neuen Verifizierungsverfahrens darin liege, dass einige Entwickler absichtlich die Anwendungsprogrammierschnittstellen (APIs) von OpenAI verwendet und damit gegen die Nutzungsrichtlinien des Unternehmens verstoßen hätten.
Obwohl das Unternehmen offiziell als Grund die Verhinderung von Missbrauch angab, scheint die Maßnahme auf einer tiefer liegenden Sorge zu beruhen: dass die Ergebnisse der OpenAI-Modelle von Konkurrenten gesammelt werden, um ihre eigenen KI-Systeme zu trainieren.
Dies belegt eine neue Studie von Copyleaks, einem Unternehmen, das sich auf KI-gestützte Inhaltserkennung spezialisiert hat.
Mithilfe eines „Fingerabdruck“-Erkennungssystems, ähnlich dem großer KI-Modelle, entdeckte Copyleaks, dass etwa 74 % der Ausgaben des Konkurrenzmodells DeepSeek-R1 (China) als von OpenAI verfasst klassifiziert werden konnten. Dieser Wert deutet nicht nur auf Duplikate, sondern auch auf Imitationen hin.
Copyleaks untersuchte auch andere KI-Modelle wie Microsofts phi-4 und xAIs Grok-1. Die Ergebnisse zeigten nahezu keine Ähnlichkeit zu OpenAI, mit „Diskrepanzraten“ von 99,3 % bzw. 100 %. Mistrals Mixtral-Modell wies hingegen einige Ähnlichkeiten auf.
Diese Studie unterstreicht eine Tatsache: Selbst wenn Models gebeten werden, in unterschiedlichem Tonfall oder Format zu schreiben, hinterlassen sie immer noch erkennbare stilistische Signaturen – ähnlich wie sprachliche Fingerabdrücke.
Diese Fingerabdrücke bleiben über verschiedene Aufgaben, Themen und Aufforderungen hinweg bestehen und können mit einer gewissen Genauigkeit zu ihrem Ursprung zurückverfolgt werden.
Unterdessen weisen einige Kritiker darauf hin, dass OpenAI seine ersten Modelle selbst erstellt hat, indem es Daten aus dem Internet sammelte, darunter Inhalte von Nachrichtenverlagen, Autoren und Urhebern – oft ohne deren Zustimmung.
Copyleaks-CEO Alon Yamin wies auf zwei Probleme hin: das Trainieren menschlicher Modelle mit urheberrechtlich geschützten Inhalten ohne Erlaubnis und die Verwendung der Ergebnisse proprietärer KI-Systeme zum Trainieren konkurrierender Modelle – im Wesentlichen Reverse-Engineering des Produkts eines Konkurrenten.
Yamin argumentiert, dass beide Methoden ethisch umstritten seien, das Training mit den Ergebnissen von OpenAI jedoch ein Wettbewerbsrisiko darstelle, da es im Wesentlichen schwer zu erreichende Innovationen ohne die Zustimmung oder Entschädigung des ursprünglichen Entwicklers ausnutze.
Im Wettlauf der KI-Unternehmen um die Entwicklung immer leistungsfähigerer Modelle wird die Debatte darüber, wem was gehört und wer mit welchen Daten trainieren darf, immer intensiver.
Tools wie das digitale Fingerprinting-System von Copyleaks bieten eine mögliche Methode zur Verfolgung und Überprüfung von Urheberrechten in Mustern.
Quelle: https://www.vietnamplus.vn/openai-siet-chat-kiem-soat-de-ngan-cac-doi-thu-sao-chep-mo-hinh-tri-tue-nhan-tao-post1033664.vnp






Kommentar (0)