Die Stabschefin des Repräsentantenhauses, Catherine Szpindor, hat denKongressbüros allgemeine Richtlinien herausgegeben und sie gebeten, die Anwendung Copilot von Microsoft nicht zu verwenden. Copilot ist eine KI-gestützte Plattform, die chatten und Fragen per Text beantworten kann (auch als Chatbot bekannt), ähnlich wie ChatGPT von OpenAI.
Microsoft Logo
„Die Copilot-App von Microsoft wurde vom Office of Cybersecurity als Risiko für die Benutzer eingestuft, da die Gefahr einer Exfiltration von Daten des Repräsentantenhauses in nicht vom Repräsentantenhaus genehmigte Cloud-Dienste besteht“, zitierte Axios die Mitteilung und fügte hinzu, dass die App auf allen Windows-Geräten des Repräsentantenhauses entfernt und blockiert werde.
Das Büro von Frau Szpindor teilte mit, dass die Leitlinien für die „kommerzielle Version“ der Copilot-App gelten, dass aber auch die Regierungsversion bewertet werde, sobald diese eingeführt sei.
Microsoft hat kostenlose und kostenpflichtige Versionen von Copilot sowie mehrere kostenpflichtige Optionen für Unternehmen veröffentlicht. Die kostenpflichtigen Versionen können direkt in Office-Anwendungen wie World, Excel, Outlook und PowerPoint verwendet werden.
Dies ist der jüngste Regulierungsschritt der US-Bundesregierung im Rahmen ihrer Bemühungen, Vorschriften für die beliebte Technologie zu erarbeiten. Im Juni 2023 schränkte das US-Repräsentantenhaus zudem die Nutzung von ChatGPT durch Mitarbeiter ein, indem es die kostenpflichtige Version beschränkte und die kostenlose Version der App verbot.
Microsoft erkannte in einer Erklärung die gestiegenen Sicherheitsanforderungen staatlicher Datennutzer an und teilte mit, das Unternehmen habe einen Fahrplan angekündigt, um seine Tools an die Richtlinien der Regierung anzupassen und Sicherheitsbedenken auszuräumen.
Apps wie Copilot oder ChatGPT nutzen große Datenmengen zum „Lernen“. Seit ihrer Einführung gab es Bedenken hinsichtlich Urheberrecht und Datenschutz. Laut Axios erwerben viele Unternehmen kostenpflichtige Versionen, allerdings unter der Bedingung, dass die Daten aufgrund des Risikos von Datenlecks nicht zum Trainieren zukünftiger KI-Modelle verwendet werden.
[Anzeige_2]
Quellenlink
Kommentar (0)