Ga direct naar de inhoud

Navigeren door de EU AI Act

Wat betekent de AI Act voor jouw organisatie?

De EU AI Act (AI Act) is de eerste uitgebreide AI-wet ter wereld. Het stelt regels voor het gebruik van kunstmatige intelligentie binnen de EU. De wet zorgt voor ethisch en transparant AI-gebruik, beschermt rechten en vermindert risico’s. Wat betekent dit voor je organisatie en hoe zorg je voor naleving en risicobeheer? We zetten de belangrijkste punten op een rij.

Achtergrond

De AI Act is een Europese wet die regels stelt voor het gebruik van AI binnen de EU. Daarmee zorgt de wet voor een gestandaardiseerde aanpak van markttoetreding en naleving. De wet maakt onderscheid tussen twee soorten AI:

  • Single-purpose AI (SPAI): AI die voor één specifiek doel is ontwikkeld.
  • Algemene AI-modellen: AI die breed inzetbaar is en meerdere toepassingen heeft.

AI-systemen worden beoordeeld op hun impact en ingedeeld op basis van risico. Sommige AI-toepassingen worden verboden, zoals manipulatieve of discriminerende AI. AI met een hoog risico moet aan strenge regels voldoen, bijvoorbeeld in de zorg of bij politieonderzoek. Voor AI-systemen die transparantie vereisen, zoals chatbots, gelden specifieke regels om misleiding te voorkomen.

De wet blijft zich aanpassen aan nieuwe AI-ontwikkelingen. Voor algemene AI-modellen gelden extra regels op het gebied van toezicht, governance en handhaving, omdat ze extra risico’s meebrengen. Zo blijft AI betrouwbaar en veilig.

De AI Act is van toepassing op verschillende partijen die AI ontwikkelen, verkopen of gebruiken:

  • Aanbieders: Ontwikkelaars die AI-systemen op de Europese markt brengen.
  • Importeurs & Distributeurs: Bedrijven die AI-systemen van buiten de EU aanbieden of importeren.
  • Gebruikers: Organisaties die een (hoog risico) AI-systeem inzetten voor professionele doeleinden.
  • Fabrikanten: Producenten van producten waarin AI is verwerkt.

De AI Act wordt stapsgewijs ingevoerd, zodat organisaties zich kunnen voorbereiden. De belangrijkste data:

  • 2 augustus 2024: De wet treedt officieel in werking.
  • 2 februari 2025: Monitoring en sancties starten.
  • 2 augustus 2025: Verplichtingen voor aanbieders van generieke AI-modellen.
  • 2 februari 2026: Strenger toezicht op de naleving en hogere sancties.
  • 2 augustus 2026: Regels voor hoog-risico AI-systemen worden van kracht.
  • 2 augustus 2027: Extra veiligheidsregels voor AI in kritieke toepassingen.

De AI Act sluit aan op andere Europese regels op het gebied van:

  • Privacy: Aanvulling van de Algemene Verordening Gegevensbescherming (AVG). Zorgt voor extra bescherming van de persoonsgegevens in AI-toepassingen.
  • Productveiligheid: Werkt samen met regels zoals de Machinerichtlijn en de Verordening Medische Hulpmiddelen om AI-systemen veilig te maken.
  • Mededingingsrecht (DSA/DMA): Stimuleert transparantie en een gelijk speelveld in digitale markten.
  • Cyberbeveiliging: Aanvulling op de richtlijn Netwerk- en Informatiesystemen (NIS2). Helpt om cyberbeveiligingsrisico’s bij AI-systemen te verminderen.
  • Regelgevende Gemeenschappelijkheid: De AI Act heeft overeenkomsten met andere digitale wetten, waaronder vereisten voor registers, rapportage, meldingen, governance, organisatie, beoordelingen en transparantie.

Vereisten 

De AI Act stelt eisen op basis van de rol van een organisatie en het type AI-systeem. Er is een onderscheid tussen single-purpose AI (SPAI) en algemene AI-modellen.

Single-purpose AI (SPAI)

  • Verboden AI: AI-systemen die mensenrechten schendt, zijn verboden. Bijvoorbeeld manipulatieve en discriminerende AI.
  • Hoog-risico AI: Strenge eisen voor aanbieders, gebruikers en distributeurs:
    • Aanbieders: Moeten risicobeheer implementeren, transparantie waarborgen, menselijk toezicht inbouwen en technische documentatie onderhouden.
    • Gebruikers: Moeten instructies van aanbieders volgen, invoergegevens valideren en het AI-systeem monitoren.
    • Importeurs & distributeurs: Moeten zorgen voor naleving, conformiteitscertificaten bijhouden en niet-conforme AI-systemen terugtrekken.

Algemene AI-modellen

  • Algemene AI-modellen: Moeten technische documentatie bijhouden, transparantie over mogelijkheden en beperkingen waarborgen en voldoen aan EU-auteursrechten.
  • AI-modellen met grote impact: Hebben extra verplichtingen, zoals uitgebreide risicobeoordelingen, cybersecuritymaatregelen en rapportage van ernstige incidenten.

De AI Act zorgt ervoor dat AI op een veilige en verantwoorde manier wordt ontwikkeld en gebruikt, met regels die passen bij het risico en de impact van elk systeem. 

De AI Act geeft organisaties duidelijke richtlijnen voor het verantwoord inzetten van AI. Bedrijven moeten voldoen aan de volgende eisen:

Governance en toezicht: Zorg voor duidelijke regels en toezicht op AI-gebruik, inclusief risicobeheer, datatransparantie en menselijk toezicht.

  • Risicobeheer: Analyseer en monitor risico’s van AI-systemen en houd bij welke AI-toepassingen in gebruik zijn.
  • Cybersecurity en nauwkeurigheid: Zorg voor veilige en betrouwbare AI-systemen met effectieve cybersecuritymaatregelen.
  • Kwaliteitsbeheer: Werk met strikte kwaliteitsnormen tijdens de hele levenscyclus van AI.
  • Impactbeoordelingen: Controleer de invloed van AI op mensenrechten en zorg dat AI-systemen ethisch en wettelijk verantwoord zijn.
  • Duidelijke rolverdeling: Leg vast wie binnen de organisatie verantwoordelijk is voor welke taken rondom AI.

Door risico’s actief te beheren en een goed governance-framework op te zetten, kunnen bedrijven AI op een veilige en verantwoorde manier gebruiken.

Lidstaten en de Europese Commissie handhaven de AI Act. De Commissie krijgt exclusieve bevoegdheid voor toezicht op AI-modellen voor algemene doeleinden. Bij overtredingen kunnen bedrijven flinke boetes en andere sancties krijgen.

De hoogte van de boete hangt af van de ernst van de overtreding en het risiconiveau van het AI-systeem:

  • Verboden AI: Tot €35 miljoen of 7% van de wereldwijde omzet.
  • Hoog-risico AI: Tot €15 miljoen of 3% van de omzet.
  • Niet naleven van transparantie-eisen: Tot €15 miljoen of 3% van de omzet.
  • Onjuiste of misleidende informatie: Tot €7,5 miljoen of 1% van de omzet.

Nationale autoriteiten houden bij het bepalen van boetes rekening met de ernst en duur van de overtreding en met eerdere overtredingen. KMO’s en start-ups worden proportioneel behandeld.

Handhavingsmaatregelen:

  • Onderzoek en sancties: Toezichthouders kunnen AI-systemen controleren, verbieden of eisen dat ze worden aangepast.
  • Klachten en transparantie: Burgers kunnen klachten indienen en hebben recht op uitleg over AI-besluiten.
  • Collectieve actie en klokkenluidersbescherming: Groepen kunnen juridische stappen ondernemen namens gedupeerden. Klokkenluiders worden beschermd.

Deze aanpak zorgt voor verantwoorde en transparante AI-toepassingen binnen de EU.

Naleving

De EU AI Act naleven biedt je organisatie niet alleen compliance, maar ook strategische voordelen. Door vroeg in te stappen, laat je zien dat je AI op een verantwoorde manier gebruikt. Dit versterkt je reputatie bij klanten, partners en toezichthouders.

Daarnaast verklein je het risico op boetes en handhavingsmaatregelen. Door je AI-systemen nu al aan te passen, zorg je ervoor dat ze voldoen aan de Europese regels.

Naleving helpt ook bij het verbeteren van governance en risicobeheer. Sterke structuren maken je AI-processen transparanter, veiliger en betrouwbaarder.  Dit verhoogt de efficiëntie en vermindert bedrijfsrisico’s. Zo blijft je organisatie flexibel bij veranderende regelgeving en marktontwikkelingen.

Als je AI gebruikt of dit in de toekomst van plan bent, is een proactieve aanpak belangrijk. Door nu actie te ondernemen, voorkom je last-minute aanpassingen en zorg je dat je organisatie klaar is voor de wetgeving.

De hoofdlijnen van de wet zijn duidelijk, al worden sommige details nog uitgewerkt. Veel bedrijven zullen processen moeten aanpassen en extra aandacht besteden aan risicobeheer. Dit kan vaak efficiënt door voort te bouwen op bestaande structuren, zoals AVG-compliance.

Je kunt nu al starten met:

  • Bewustwording binnen je organisatie.
  • Het in kaart brengen van je AI-systemen.
  • Het opzetten van governance- en risicomanagementprocessen.
  • Een beoordeling van AI-toepassingen met hoog risico.

Breng AI-systemen in kaart:

  • Maak een overzicht van alle AI-toepassingen binnen je organisatie.
  • Bepaal in welke risicocategorie ze vallen volgens de AI Act:
    • Welke AI-systemen vallen onder hoog risico?
    • Wat is de rol van je organisatie in deze AI-toepassingen?

Stem af met AVG-processen:

  • De AI Act sluit aan op de AVG. Gebruik bestaande structuren voor een soepele implementatie.
  • Evalueer je huidige privacybeleid: wat werkt goed en wat kan beter?

Maak een roadmap:

  • Stel een stappenplan op voor implementatie en zorg voor interne bewustwording.
  • Bepaal hoe governance en risicobeheer worden ingericht.

Deloitte helpt je organisatie soepel en efficiënt voldoen aan de AI Act. We combineren diepgaande kennis van AI-regelgeving met expertise in technologie, compliance en strategie.Wij bieden:

  • Praktisch advies en begeleiding bij implementatie.
  • Maatwerkoplossingen afgestemd op jouw AI-strategie.
  • Een wereldwijd netwerk voor ondersteuning in verschillende markten.

Wil je goed voorbereid zijn op de AI Act? Neem contact met ons op voor een aanpak die bij jouw organisatie past.

De AI Act binnen de EU-regelgeving

De AI Act maakt deel uit van een breder pakket aan EU-regels die zorgen voor een veilige en transparante digitale economie. Denk aan:

  • AVG (privacybescherming)
  • NIS2 (cybersecurity)
  • Digitale diensten- en marktenverordening (platformregulering)
  • Dataverordening (data governance)

Dit artikel richt zich op de AI Act, maar het is belangrijk dit te zien in de bredere context van de EU-regelgeving.

Neem contact met ons op

We hopen dat deze informatie je inzicht heeft gegeven in de EU AI Act. Elke organisatie is uniek, en we denken graag met je mee.

Wil je weten wat de AI Act betekent voor jouw organisatie? Neem contact met ons op voor een advies op maat.

Bekijk voor een meer diepgaande uitleg onze EU AI Act deep dive:  EU AI Act Deep Dive [PDF].

Did you find this useful?

Thanks for your feedback