SGGP
Om de regelgeving rond AI te verscherpen, hebben belangrijke wetgevers in de Europese Unie (EU) ingestemd met verschillende wijzigingen in de conceptregelgeving rond kunstmatige intelligentie (AI). Hiermee willen ze generatieve AI, zoals ChatGPT, aan banden leggen.
| Panasonic Connect Corporation heeft werknemers in Japan geholpen AI-systemen te gebruiken om de productiviteit te verbeteren. Foto: Nikkei Asia |
In afwachting van de eerste volledige wet
De beslissende stemming over het wetsvoorstel voor AI-regulering op 11 mei markeerde een nieuwe stap in het proces van de goedkeuring van een wet die AI-tools zoals ChatGPT officieel zal reguleren. De commissies Consumentenbescherming en Burgerlijke Vrijheden van het Europees Parlement (EP) keurden de concepttekst goed en bevestigden het standpunt dat het gebruik van AI in de EU gereguleerd moet worden, waarbij innovatie op dit gebied wordt bevorderd, maar de fundamentele rechten worden gerespecteerd. AI moet immers mens, maatschappij en milieu dienen.
Na twee jaar van discussie zal de AI-wet die in de EU wordt verwacht de eerste volledige wet zijn die deze technologie reguleert. De wet bevat namelijk bepalingen die het gebruik van gezichtsherkenningstechnologie op openbare plaatsen verbieden (wat naar verwachting conflicten tussen EU-landen zal veroorzaken) en hulpmiddelen die algoritmen gebruiken om crimineel gedrag te voorspellen, generatieve AI-toepassingen zoals ChatGPT van OpenAI, biometrische controles... Deze toepassingen moeten daarom meldingen sturen om gebruikers eraan te herinneren dat de producten van deze hulpmiddelen door machines worden gemaakt en niet door mensen.
Het document bevat ook een sectie die oproept tot aanvullende criteria om risicovolle gebieden voor AI-toepassingen te identificeren, waardoor de reikwijdte van het toolontwerp wordt beperkt. AI-tools zullen worden geclassificeerd op basis van het risiconiveau dat elke tool kan opleveren. Overheden en bedrijven die deze tools gebruiken, zijn onderworpen aan verschillende verplichtingen, afhankelijk van het risiconiveau.
De concepttekst zal volgende maand aan het voltallige Europees Parlement worden voorgelegd en vervolgens ter beoordeling en afronding naar de EU-lidstaten worden gestuurd. Hoewel de door de Europese Commissie (EC) voorgestelde lijst al AI-toepassingen omvat in het beheer van kritieke infrastructuur, onderwijs , personeelszaken, openbare orde en immigratie, willen EP-leden ook drempelwaarden toevoegen om bedreigingen voor de veiligheid, gezondheid en fundamentele rechten af te bakenen.
Japan zal het voortouw nemen
Veel landen zoeken bovendien naar oplossingen om te voorkomen dat de binnenlandse industrie achterop raakt en om tegemoet te komen aan de zorgen van burgers over de privacy.
In Azië werd de allereerste Strategieraad voor Kunstmatige Intelligentie van de Japanse overheid bijeengeroepen om een kader te creëren voor de ontwikkeling van AI. Premier Fumio Kishida zei in een toespraak tot de raad: "AI heeft de potentie om onze economische samenleving positief te veranderen, maar er zijn ook risico's. Het is belangrijk om beide kwesties adequaat aan te pakken."
Het gebruik van AI-technologie zal bijdragen aan het versterken van het industriële concurrentievermogen en het oplossen van maatschappelijke problemen, maar AI moet wel verstandig worden ingezet en de risico's voor gebruikers tot een minimum worden beperkt. Tot nu toe concentreerden de discussies zich echter voornamelijk op technische aspecten. Japanse experts dringen erop aan dat de discussies de komende tijd vanuit een breder perspectief moeten worden gevoerd, met deelname van sectoren zoals het bedrijfsleven en de advocatuur. Nikkei Asia stelde dat een uitdaging voor Japan is hoe het niveau van de binnenlandse AI-ontwikkeling kan worden verbeterd, parallel aan de focus op het reguleren van het gebruik van algemene AI, waarbij veiligheid, privacy en auteursrecht belangrijke kwesties zijn.
AI begint het dagelijks leven te verstoren, aangezien nepbeelden en -video's, evenals door robots gegenereerde tekst, zorgen oproepen, variërend van nationale veiligheid tot desinformatie. De ministers van Digitale Zaken en Technologie van de Groep van Zeven (G7) zijn overeengekomen om tegen het einde van dit jaar richtlijnen op te stellen voor de ontwikkeling en het gebruik van algemene AI. Nu Japan in 2023 het voorzitterschap van de G7 overneemt, heeft premier Kishida gezegd dat Japan het voortouw zal nemen bij het formuleren van internationale regels om de mogelijkheden van kunstmatige AI optimaal te benutten en de risico's ervan aan te pakken.
Net als Japan kondigde het Witte Huis vorige week aan dat het 140 miljoen dollar zou investeren in de oprichting van zeven AI-onderzoekscentra en richtlijnen zou publiceren voor het gebruik van deze geavanceerde technologie. Het doel is om regels te creëren die risico's minimaliseren, maar de ontwikkeling van AI-innovaties niet belemmeren. In een toespraak voor de Raad van Adviseurs voor Wetenschap en Technologie benadrukte de Amerikaanse president Joe Biden dat AI kan helpen bij het aanpakken van een aantal zeer moeilijke uitdagingen, zoals ziekte en klimaatverandering, maar dat we ook potentiële risico's voor de samenleving, de economie en de nationale veiligheid moeten aanpakken. Technologiebedrijven hebben de verantwoordelijkheid om ervoor te zorgen dat hun producten veilig zijn voordat ze op de markt komen.
Bron






Reactie (0)