SGGP
In een poging om de regelgeving voor AI aan te scherpen, hebben belangrijke wetgevers van de Europese Unie (EU) overeenstemming bereikt over verschillende amendementen op ontwerp-AI-regelgeving om innovatieve AI, zoals ChatGPT, aan banden te leggen.
| Panasonic Connect heeft werknemers in Japan geholpen om AI-systemen te gebruiken voor het verbeteren van de productiviteit. (Foto: Nikkei Asia) |
Verwachtingen voor de eerste complete wet
De stemming van 11 mei over het wetsvoorstel voor de regulering van AI markeerde een nieuwe stap in het proces van het aannemen van formele wetgeving voor AI-tools zoals ChatGPT. De commissies van het Europees Parlement die verantwoordelijk zijn voor consumentenbescherming en burgerlijke vrijheden keurden het ontwerp goed, waarmee de noodzaak werd bevestigd om het gebruik van AI in de EU te reguleren en tegelijkertijd innovatie op dit gebied te bevorderen, maar met respect voor de fundamentele rechten, volgens welke AI ten dienste moet staan van mens, maatschappij en milieu.
Na twee jaar van discussie wordt de AI-wet naar verwachting de eerste alomvattende wet in de EU die deze technologie reguleert. De wet bevat bepalingen die het gebruik van gezichtsherkenningstechnologie in openbare ruimten verbieden (wat naar verwachting tot conflicten tussen EU-landen zal leiden) en tools die algoritmes gebruiken om crimineel gedrag te voorspellen, AI-toepassingen zoals OpenAI's ChatGPT, biometrische verificatie, enzovoort. Deze toepassingen moeten gebruikers daarom informeren dat de producten van deze tools door machines zijn gemaakt en niet door mensen.
Dit document bevat ook bepalingen die de toevoeging van criteria vereisen om risicovolle gebieden voor AI-toepassingen te identificeren, waardoor de schaal van het ontwerp van tools wordt beperkt. AI-tools zullen worden geclassificeerd op basis van het risiconiveau dat elke tool kan opleveren. Overheden en bedrijven die deze tools gebruiken, zullen aan verschillende verplichtingen onderworpen zijn, afhankelijk van het risiconiveau.
Volgende maand wordt de ontwerptekst ter goedkeuring voorgelegd aan het gehele Europees Parlement, waarna deze naar de EU-lidstaten wordt gestuurd voor verdere overweging en verfijning. Hoewel de door de Europese Commissie (EC) voorgestelde lijst al toepassingen van AI omvat in het beheer van kritieke infrastructuur, onderwijs , personeelsbeheer, openbare orde en immigratie, willen de Europarlementariërs ook wettelijke drempels toevoegen die bedreigingen voor de veiligheid, gezondheid en fundamentele rechten definiëren.
Japan zal het voortouw nemen.
Veel landen zoeken ook naar oplossingen voor het dilemma om tegelijkertijd te voorkomen dat hun binnenlandse industrieën achterop raken en om de zorgen over de privacy van burgers aan te pakken.
In Azië kwam de Japanse AI-strategieraad voor het eerst bijeen met als doel een kader te creëren dat de ontwikkeling van AI moet sturen. Premier Fumio Kishida verklaarde voor de raad: "AI heeft het potentieel om onze samenleving en economie positief te veranderen, maar brengt ook risico's met zich mee. Het is cruciaal om beide kwesties op de juiste manier aan te pakken."
Het gebruik van AI-technologie zal bijdragen aan het versterken van de concurrentiekracht van de industrie en het oplossen van maatschappelijke problemen, maar het moet rationeel en met minimale risico's voor gebruikers worden ingezet. Tot nu toe hebben discussies zich echter vooral gericht op technische aspecten. Japanse experts pleiten ervoor dat discussies in de toekomst vanuit een breder perspectief worden gevoerd, waarbij ook vakgebieden zoals het bedrijfsleven en het recht worden betrokken. Nikkei Asia suggereert dat een uitdaging voor Japan is hoe het niveau van AI-ontwikkeling in eigen land te verbeteren en tegelijkertijd het algehele gebruik van AI te reguleren, waarbij veiligheid, privacy en auteursrecht cruciale kwesties zijn.
Kunstmatige intelligentie (AI) begint het dagelijks leven te ontwrichten, nu steeds meer nepbeelden en -video's, evenals door robots gegenereerde tekst, zorgen baren over uiteenlopende zaken, van nationale veiligheid tot desinformatie. De ministers van digitale technologie van de G7-landen (Groep van Zeven) zijn overeengekomen om tegen het einde van dit jaar richtlijnen op te stellen voor de algemene ontwikkeling en het gebruik van AI. Aangezien Japan in 2023 het G7-voorzitterschap bekleedt, heeft premier Kishida verklaard dat Japan het voortouw zal nemen bij het ontwikkelen van internationale regels om de mogelijkheden van AI optimaal te benutten en de risico's ervan aan te pakken.
Net als Japan kondigde het Witte Huis vorige week aan dat het 140 miljoen dollar zal investeren in de oprichting van zeven AI-onderzoekscentra en het publiceren van richtlijnen voor het gebruik van deze geavanceerde technologie. Het doel is om regels te creëren die de risico's minimaliseren zonder de ontwikkeling van innovatieve AI-toepassingen te belemmeren. Tijdens een toespraak voor de Raad van Adviseurs voor Wetenschap en Technologie benadrukte de Amerikaanse president Joe Biden dat AI kan helpen bij het aanpakken van zeer complexe uitdagingen zoals ziekten en klimaatverandering, maar dat we ook de potentiële risico's voor de samenleving, de economie en de nationale veiligheid moeten aanpakken. Technologiebedrijven hebben de verantwoordelijkheid om ervoor te zorgen dat hun producten veilig zijn voordat ze op de markt worden gebracht.
Bron







Reactie (0)