In de aanloop naar de laatste bijeenkomsten die gepland staan ​​voor 6 december, zijn ‘platformmodellen’ of generatieve AI naar voren gekomen als een belangrijk obstakel, aldus de anonieme bron.

Platformmodellen zoals die van Microsoft OpenAI zijn AI-systemen die zijn getraind met grote datasets. Ze kunnen van nieuwe data leren om uiteenlopende taken uit te voeren.

Na twee jaar onderhandelen werd het wetsvoorstel in juni door het Europees Parlement aangenomen. De inhoud van de ontwerp-AI-verordening moet nu echter worden vastgesteld via bijeenkomsten tussen vertegenwoordigers van het Europees Parlement, de Raad en de Europese Commissie.

l5vkfggcwzlntftg4m7tzlsyjq.jpg
Als er geen overeenstemming wordt bereikt, loopt de EU-wetgeving inzake AI het risico vertraging op te lopen, aangezien de tijd tot de Europese parlementsverkiezingen van volgend jaar bijna om is.

Terwijl sommige deskundigen en wetgevers een gelaagde aanpak voorstellen voor de regulering van platformmodellen, zoals een platformgebruikersbasis van 45 miljoen of meer, beweren anderen dat kleinere modellen evenveel risico lopen.

De grootste uitdaging bij het bereiken van een akkoord komt echter van Frankrijk, Duitsland en Italië. Deze landen zijn er eerder voorstander van om AI-modelbouwers zelfregulering te laten toepassen dan strikte regels.

Europese Europarlementariërs, EU-commissaris Thierry Breton en veel AI-onderzoekers verzetten zich tegen het overlaten van AI-bedrijven aan ‘zelfregulering’, omdat dit ‘waarschijnlijk niet zal voldoen aan de normen die nodig zijn voor de veiligheid van het platformmodel’.

Aan de andere kant willen bedrijven geen strikte normen opgelegd krijgen voor de technologie die ze gebruiken om hun producten te creëren. Het Franse AI-bedrijf Mistral en het Duitse Aleph Alpha hebben kritiek geuit op de hiërarchische managementaanpak.

Volgens bronnen bij Reuters geeft Mistral de voorkeur aan strenge regels voor producten, niet voor de technologie die erin wordt gebruikt.

Verdeling en dubbelzinnigheid

"Hoewel belanghebbenden hun best doen om de onderhandelingen op koers te houden, is de groeiende onzekerheid over de regelgeving niet in het belang van de Europese industrie", aldus Kirsten Rulf, partner en associate director bij Boston Consulting Group. "Europese bedrijven willen plannen maken voor het komende jaar en velen willen graag enige zekerheid over de EU AI-wet, die in 2024 van kracht wordt."

Andere kwesties die nog in onderhandeling zijn, zijn onder meer de definitie van AI, effectbeoordelingen van de grondrechten, uitzonderingen voor wetshandhaving en uitzonderingen voor de nationale veiligheid.

Wetgevers zijn ook verdeeld over het gebruik van AI-systemen door de wetshandhaving om personen in openbare ruimtes biometrisch te identificeren.

Spanje, dat tot eind dit jaar het wisselende voorzitterschap van de EU bekleedt, probeert het proces om tot een akkoord te komen te versnellen.

Als er in december geen akkoord is bereikt, heeft de volgende president, België, slechts enkele maanden de tijd om dit voor elkaar te krijgen. Daarna wordt de hele kwestie waarschijnlijk uitgesteld tot na de Europese verkiezingen.

ChatGPT's jaar van 'de wereld bestormen'

ChatGPT's jaar van ' de wereld bestormen'

Hoewel ChatGPT pas een jaar bestaat, heeft het snel de technologiesector en de wereld in het algemeen veroverd en is het de snelst groeiende applicatie in de geschiedenis geworden.
OpenAI wil ChatGPT naar de klas brengen

OpenAI wil ChatGPT naar de klas brengen

De directie van OpenAI gaf aan dat het bedrijf een team gaat vormen om educatieve toepassingen van kunstmatige intelligentie (AI) te onderzoeken en ChatGPT in de klas te brengen.
EU bereikt akkoord over wet ter bescherming van slimme apparaten

EU bereikt akkoord over wet ter bescherming van slimme apparaten

Op 30 november bereikten de Europese wetgevers een voorlopig akkoord over een voorstel om verbonden apparaten te beschermen. Hierbij is het vereist dat de cyberveiligheid van producten met digitale elementen wordt gewaarborgd voordat deze op de markt worden gebracht.