Skip to main content

De EU-AI-verordening: een uitgebreide en diepgaande analyse

Navigeren door de toekomst van AI-regulering

Een van de belangrijkste politieke doelen van de Europese Commissie voor de ambtsperiode 2019-2024 was het creëren van “Een Europa dat klaar is voor het digitale tijdperk.” Dit initiatief leidde tot de invoering van meer dan tien belangrijke digitale regelgevingen die verschillende domeinen aanpakken, zoals de data-economie, cyberbeveiliging en platformregulering. De AI Act is een cruciaal element binnen dit bredere digitale regelgevingskader en is gericht op het aanpakken van de complexiteiten en potentiële risico's die gepaard gaan met AI-systemen.

De AI Act zal naar verwachting op 12 juli 2024 in de Official Journal worden bekendgemaakt en 20 dagen daarna in werking treden. Dit zal het begin zijn van een gefaseerd implementatieproces om de verschillende regels en verplichtingen van de AI Act in de praktijk te brengen. Voor bedrijven en organisaties betekent dit dat er nu een cruciaal venster is om zich voor te bereiden op naleving. Lees meer in onze EU Artificial Intelligence Act - Deep Dive, download de volledige pdf bovenaan deze pagina.

De AI Act in de praktijk brengen

 

De AI Act stelt een kader vast voor de regulering van de levering, inzet en het gebruik van AI binnen de EU. Het stelt gestandaardiseerde processen vast voor de markttoetreding en operationele activering van enkelvoudige AI-systemen (SPAI), waardoor een samenhangende aanpak in de lidstaten van de EU wordt gewaarborgd. Als een productveiligheidsregulering hanteert de AI Act een risicogebaseerde benadering, waarbij AI-systemen worden gecategoriseerd op basis van hun gebruiksscenario's en het risiconiveau dat ze voor gebruikers vormen.

Deze categorisatie leidt tot specifieke nalevingsvereisten, waaronder verboden op bepaalde AI-toepassingen die als onethisch of schadelijk worden beschouwd, en gedetailleerde vereisten voor hoog-risico AI-toepassingen om potentiële bedreigingen effectief te beheren. Daarnaast biedt het transparantierichtlijnen voor AI-technologieën die als beperkt risico worden aangemerkt.

AI-ethiek staat centraal in de AI Act, die erop gericht is zich aan te passen aan toekomstige iteraties van AI-technologieën. Het openbare gebruik van AI-technologie voor algemene doeleinden (GPAI) vereist een onderscheid tussen enkelvoudige AI en AI voor algemene doeleinden. Bijgevolg reguleert de AI Act ook de markttoetreding van AI-modellen voor algemene doeleinden en stelt zij uitgebreide regels vast voor marktbewaking, governance en handhaving om de integriteit en het publieke vertrouwen in AI-innovaties te waarborgen.

Lees meer in onze EU Artificial Intelligence Act - Deep Dive , download de volledige PDF bovenaan deze pagina.

Navigeren door de toekomst

 

Gezien het enigszins abstracte karakter van de AI Act, zijn er nog gebieden die volledig moeten worden gedefinieerd. Naar verwachting zullen deze gebieden verder worden uitgewerkt door middel van gedelegeerde en uitvoeringshandelingen, richtlijnen van EU-instellingen en geharmoniseerde normen ontwikkeld door Europese normalisatieorganisaties. Bedrijven en organisaties kunnen in de nabije toekomst meer gedetailleerde richtlijnen verwachten. Wij houden u uiteraard op de hoogte van deze ontwikkelingen.

Bij Deloitte geloven we in een multidisciplinaire benadering van de AI Act, waarbij we juridische, risico-, ethische en technische expertise samenbrengen om een succesvolle analyse en implementatie te ondersteunen.

Webinar: De AI Act toegelicht

Op 19 maart 2024 vond het webinar "De AI-verordening toegelicht" plaats. Keynote spreker Angeliki Dedopoulou, Public Policy Manager bij Meta, besprak samen met twee sprekers van Deloitte, Jan-Jan Lowijs en Sebastiaan ter Wee, de rol van de AI-wet voor bedrijven.

Did you find this useful?

Thanks for your feedback

If you would like to help improve Deloitte.com further, please complete a 3-minute survey