Catherine Szpindor, hoofd van de Huisadministratie, heeft algemene richtlijnen uitgevaardigd voor congreskantoren en hen verzocht Microsofts Copilot-applicatie niet te gebruiken. Copilot is een AI-platform dat kan chatten en vragen in tekstvorm kan beantwoorden (ook wel een chatbot genoemd), vergelijkbaar met ChatGPT van OpenAI.
Microsoft-logo
"De Copilot-app van Microsoft is door het Office of Cybersecurity aangemerkt als een risico voor gebruikers vanwege de dreiging van het lekken van gegevens van het Huis van Afgevaardigden naar cloudservices die niet door het Huis van Afgevaardigden zijn goedgekeurd", aldus Axios in de kennisgeving. Ook werd gezegd dat de app zal worden verwijderd en geblokkeerd op alle Windows-apparaten van het Huis van Afgevaardigden.
Volgens het kantoor van mevrouw Szpindor gelden de richtlijnen voor de 'commerciële versie' van de Copilot-app, maar zal ook de overheidsversie worden geëvalueerd zodra deze is uitgerold.
Microsoft heeft gratis en betaalde versies van Copilot uitgebracht, evenals verschillende betaalde opties voor bedrijven. De betaalde versies kunnen direct werken binnen Office-applicaties zoals World, Excel, Outlook en PowerPoint.
Dit is de nieuwste regelgevende stap van de Amerikaanse federale overheid in het kader van het opstellen van regelgeving voor de populaire technologie. In juni 2023 verbood het Amerikaanse Huis van Afgevaardigden ook het gebruik van ChatGPT door werknemers, door het te beperken tot de betaalde versie en de gratis versie van de app te verbieden.
Microsoft erkende in een verklaring de toegenomen eisen aan de beveiliging van overheidsdatagebruikers en meldde dat het bedrijf een stappenplan heeft aangekondigd om zijn tools af te stemmen op de richtlijnen van de overheid en zo de beveiligingszorgen aan te pakken.
Apps zoals Copilot of ChatGPT gebruiken grote hoeveelheden data om te 'leren'. Er waren zorgen over auteursrechten en databeveiliging toen deze apps op de markt kwamen. Volgens Axios kopen veel bedrijven betaalde versies, maar dan wel op voorwaarde dat de data niet gebruikt zullen worden om toekomstige AI-modellen te trainen vanwege het risico op datalekken.
Bronlink






Reactie (0)