Die US-amerikanische Federal Trade Commission (FTC) weitet ihre Untersuchung zu OpenAI aus, da Bedenken bestehen, dass ChatGPT möglicherweise gegen Verbraucherschutzbestimmungen verstößt.
Das 20-seitige Ersuchen des in San Francisco ansässigen Unternehmens, in dem es um eine Erklärung zur Risikobewertung seiner KI-Modelle gebeten wurde, stellt die bislang größte rechtliche Bedrohung für die US-Geschäftstätigkeit von OpenAI dar, während der Eigentümer von ChatGPT eine globale Kampagne zur Gestaltung der zukünftigen KI-Regulierung startet.
Darüber hinaus forderte die Behörde OpenAI auf, Einzelheiten zu allen Beschwerden bereitzustellen, die das Unternehmen erhalten hatte und bei denen es darum ging, dass das Produkt gegenüber den Menschen „falsche, irreführende, diskreditierende oder schädliche“ Behauptungen aufstellte.
Im März gab das Unternehmen hinter ChatGPT eine Sicherheitslücke in seinem System bekannt, die es einigen Nutzern ermöglichte, Zahlungsinformationen und Chatverläufe anderer Nutzer einzusehen. Die FTC untersucht, ob der Vorfall gegen Verbraucherschutzbestimmungen verstößt.
Bemühungen zur Eindämmung des Silicon Valley
Die FTC entwickelt sich zur „Bundespolizei“ des Silicon Valley und hat bereits hohe Geldstrafen gegen Meta, Amazon und Twitter wegen angeblicher Verstöße gegen Verbraucherschutzbestimmungen verhängt.
Die Vorsitzende der FTC, Lina Khan, sagte vor dem Justizausschuss des Repräsentantenhauses aus, als der ehrgeizige Plan der Behörde, die Macht des Silicon Valley einzuschränken, vor Gericht schwere Niederlagen erlitt.
Außerdem wies ein Bundesrichter diese Woche den Versuch der FTC zurück, die 69 Milliarden Dollar teure Übernahme des Spieleherstellers Activision durch Microsoft zu verhindern.
Samuel Levine, Direktor des Verbraucherschutzbüros der FTC, erklärte unterdessen, die Behörde sei bereit, auf neue Bedrohungen zu reagieren. „Die FTC begrüßt Innovationen, aber das bedeutet nicht Rücksichtslosigkeit. Wir sind bereit, alle uns zur Verfügung stehenden Mittel einzusetzen, um schädliche Praktiken in diesem Bereich zu bekämpfen.“
Die Behörde warnt vor KI-Betrug, also dem Einsatz künstlicher KI, um potenzielle Nutzer zu manipulieren oder die Fähigkeiten eines Produkts zu übertreiben. Zu den Informationen, die die FTC von OpenAI verlangt, gehören entsprechende Studien, Tests oder Umfragen, die die Wahrnehmung der Nutzer hinsichtlich der „Genauigkeit oder Zuverlässigkeit der Ergebnisse“ des KI-Tools bewerten.
(Laut Washington Post)
[Anzeige_2]
Quelle
Kommentar (0)