Laut der Ankündigung auf dem offiziellen Blog von OpenAI wird der Sicherheitsausschuss zu einer unabhängigen Aufsichtsgruppe unter dem Vorstand. Professor Zico Kolter von der Carnegie Mellon University wird den Ausschuss leiten, zusammen mit weiteren Mitgliedern wie Quora-CEO Adam D'Angelo, dem pensionierten US-General Paul Nakasone und der ehemaligen Executive Vice President von Sony Nicole Seligman. Alle diese Mitglieder sind bereits Mitglieder des OpenAI-Vorstands.
Nach Altmans Rücktritt schloss das Komitee seine Sicherheitsüberprüfung des neuesten KI-Modells des Unternehmens, o1, ab. Die Gruppe wird weiterhin vom Sicherheitsteam von OpenAI informiert und behält sich das Recht vor, die Veröffentlichung zu verschieben, wenn Sicherheitsbedenken nicht ausgeräumt werden.
Laut OpenAI wird das Komitee weiterhin eine wichtige Rolle bei der technischen Überwachung aktueller und zukünftiger Modelle sowie bei der Überwachung nach der Veröffentlichung spielen. Das Unternehmen verpflichtet sich, integrierte Sicherheitsprozesse mit klaren Bewertungskriterien zu entwickeln, um die sichere Veröffentlichung aller KI-Modelle zu gewährleisten.
Altmans Entscheidung, den Ausschuss zu verlassen, erfolgte, nachdem fünf US-Senatoren OpenAI in einem Brief aufgefordert hatten, seine Sicherheitsrichtlinien zu klären. Fast die Hälfte der OpenAI-Mitarbeiter, die sich mit der Erforschung der langfristigen Risiken von KI befassten, hat das Unternehmen in den letzten Jahren verlassen. Ehemalige OpenAI-Forscher kritisierten Altman dafür, dass er sich nicht für eine strenge KI-Regulierung einsetzte, sondern stattdessen Richtlinien befürwortete, die die kommerziellen Ziele des Unternehmens förderten.
Bildnachweis: Justin Sullivan / Getty Images
Darüber hinaus hat OpenAI seine Ausgaben für Lobbyarbeit im US- Kongress deutlich erhöht. Für die ersten sechs Monate des Jahres 2024 hat das Unternehmen ein Budget von 800.000 US-Dollar eingeplant, verglichen mit 260.000 US-Dollar für das gesamte Jahr 2023. Altman trat außerdem dem Artificial Intelligence Safety and Security Board des US-Heimatschutzministeriums bei, wo er an der Ausarbeitung von Empfehlungen zum Einsatz von KI für die kritische Infrastruktur des Landes mitwirkte.
Obwohl Altman den Sicherheits- und Datenschutzausschuss verlassen hat, gibt es kaum Anzeichen dafür, dass der Ausschuss Entscheidungen treffen wird, die den kommerziellen Weg von OpenAI ernsthaft behindern könnten. Im Mai erklärte OpenAI, man werde versuchen, „berechtigte Kritik“ an seiner Arbeit im Ausschuss zu behandeln, obwohl „berechtigte Kritik“ weitgehend subjektiv ist.
In einem Leitartikel im „Economist“ vom Mai äußerten Helen Toner und Tasha McCauley, zwei ehemalige Vorstandsmitglieder von OpenAI, ihre Bedenken hinsichtlich der Fähigkeit des Unternehmens, sich selbst zu verwalten. Sie argumentierten, dass OpenAI derzeit nicht in der Lage sei, sich unter dem Druck des Profitstrebens selbst zur Verantwortung zu ziehen.
Gewinne werden für OpenAI zu einem immer wichtigeren Treiber. Das Unternehmen sammelt derzeit in einer neuen Finanzierungsrunde 6,5 Milliarden US-Dollar ein und würde damit einen Wert von über 150 Milliarden US-Dollar erreichen. Um Investoren zu gewinnen, könnte OpenAI erwägen, seine hybride Non-Profit-Struktur aufzugeben, die darauf ausgelegt ist, die Renditen für Investoren zu begrenzen, um das Ziel der Entwicklung von KI zum Wohle der Menschheit zu gewährleisten.
Hung Nguyen (laut TechCrunch)
[Anzeige_2]
Quelle: https://www.congluan.vn/sam-altman-roi-uy-ban-an-toan-cua-openai-nhuong-quyen-cho-nhom-doc-lap-post312681.html
Kommentar (0)