Der CEO von OpenAI forderte den US- Kongress außerdem dringend auf, bald Vorschriften und Richtlinien zur Regulierung dieses Technologiebereichs zu erlassen.
In den vergangenen Monaten haben große wie kleine Technologieunternehmen Milliarden von Dollar investiert, um KI-Produkte auf den Markt zu bringen. Kritiker befürchten, dass die Technologie soziale Probleme wie Vorurteile und Fehlinformationen verschärfen wird, und es bestehen zudem Bedenken, dass KI die Menschheit auslöschen könnte.
„Es gibt keine Möglichkeit, den Geist wieder in die Flasche zu stecken, dieses Gebiet hat sich weltweit rasant entwickelt“, sagte Senator Cory Booker, einer von vielen Gesetzgebern, die nach Antworten auf die Frage suchen, wie KI reguliert werden soll.
Senatorin Mazie Hirono wies unterdessen auf die wachsende Gefahr von Falschinformationen im Vorfeld der US-Wahlen 2024 hin. „Stellen Sie sich nur vor, was passieren würde, wenn kurz vor dem Wahltag ein Foto von Ex-Präsident Trumps Verhaftung durch die New Yorker Polizei im Internet rasend schnell die Runde machen würde.“
Bei seinem ersten Auftritt vor dem Kongress schlug Altman vor, dass die USA Lizenzierungsauflagen und Tests für die Entwicklung von KI-Modellen in Betracht ziehen sollten, insbesondere für Algorithmen, die die Fähigkeit besitzen, Menschen zu überreden oder zu manipulieren.
Gleichzeitig sollten Unternehmen auch das Recht haben, zu erklären, dass sie nicht möchten, dass ihre Daten für das KI-Training verwendet werden, mit Ausnahme von Dokumenten, die öffentlich im Internet verfügbar sind.
Das Weiße Haus versucht, die regulatorischen Herausforderungen im Zusammenhang mit KI zu bewältigen und hat führende CEOs von Technologieunternehmen, darunter auch Altman, zu einer Diskussion über das Thema einberufen.
Reuters berichtete zuvor, dass ein Mitarbeiter von OpenAI kürzlich die Schaffung einer US-amerikanischen KI-Lizenzierungsbehörde vorgeschlagen habe, die möglicherweise den Namen Office of AI Infrastructure Safety and Security (OASIS) tragen werde.
(Laut Reuters)
Quelle






Kommentar (0)