EUAI Act EU

AI Act Risico-categorieën: Van Verboden tot Minimaal

·3 min leestijd

De AI Act werkt met een risico-gebaseerde aanpak. Hoe hoger het risico, hoe strenger de regels. Hier leer je de vier categorieën kennen en hoe je je AI-systeem classificeert.

De piramide: risico-gebaseerde aanpak

De AI Act hanteert een risico-gebaseerde benadering. Dit betekent: hoe groter het risico voor fundamentele rechten en veiligheid, hoe strenger de regels.

        /\
       /  \        VERBODEN
      /    \       (Artikel 5)
     /------\
    /        \     HOOG RISICO
   /          \    (Annex III + Artikel 6)
  /------------\
 /              \  BEPERKT RISICO
/                \ (Transparantieplicht)
------------------
   MINIMAAL RISICO
   (Vrijwel geen verplichtingen)

1. Verboden AI-systemen

Dit zijn AI-toepassingen die zo risicovol zijn dat ze volledig verboden zijn in de EU.

Voorbeelden

  • Social scoring door overheden
  • Emotieherkenning op werkplekken en in onderwijs
  • Real-time biometrische identificatie in openbare ruimtes
  • Manipulatieve AI die kwetsbaarheden exploiteert
  • Predictive policing op basis van profilering

Beslisregel

Als je AI-systeem specifiek is ontworpen voor een van de toepassingen in Artikel 5, dan is het verboden en mag je het niet ontwikkelen, op de markt brengen of gebruiken in de EU.

Lees meer over Verboden AI

2. Hoog-risico AI-systemen

AI-systemen die significant impact kunnen hebben op de gezondheid, veiligheid of grondrechten van mensen.

Wanneer is AI hoog-risico?

Een systeem is hoog-risico als het:

  1. Een veiligheidscomponent is van een product onder EU-productregelgeving (Annex I), OF
  2. Staat in Annex III van de AI Act, zoals:
    • Biometrische identificatie
    • Kritieke infrastructuur
    • Onderwijs en beroepsopleiding
    • Werkgelegenheid en HR
    • Essentiële diensten
    • Rechtshandhaving
    • Migratie en grenscontrole
    • Rechtspraak

Praktijkvoorbeeld

Een verzekeraar gebruikt een AI-systeem om schadeclaims te beoordelen. Omdat dit impact heeft op toegang tot financiële diensten, valt dit onder Annex III categorie 5(b) en is het een hoog-risico systeem. De verzekeraar moet voldoen aan alle hoog-risico verplichtingen.

Verplichtingen hoog-risico

  • Risicobeheer systeem
  • Data governance
  • Technische documentatie
  • Logging en traceerbaarheid
  • Menselijk toezicht
  • Nauwkeurigheid en robuustheid
  • Conformiteitsbeoordeling
  • EU database registratie

Lees meer over Hoog-risico AI

3. Beperkt risico (transparantieplicht)

AI-systemen die met mensen interacteren en waarbij transparantie belangrijk is.

Voorbeelden

  • Chatbots - gebruikers moeten weten dat ze met AI praten
  • Deepfakes - AI-gegenereerde content moet gelabeld zijn
  • Emotion recognition - gebruikers moeten geïnformeerd worden

Verplichtingen

  • Informeer gebruikers dat ze met AI interacteren
  • Label AI-gegenereerde content (tekst, beeld, audio, video)
  • Wees transparant over de aard van het systeem

Template: Transparantie-melding

Dit gesprek wordt gevoerd met een AI-assistent.
U communiceert met kunstmatige intelligentie, niet met een mens.

4. Minimaal risico

Het overgrote deel van AI-systemen valt in deze categorie. Denk aan:

  • Spamfilters
  • AI in videogames
  • Aanbevelingssystemen (met nuance)
  • Voorraadbeheersystemen

Verplichtingen

Geen specifieke verplichtingen onder de AI Act. Wel worden vrijwillige gedragscodes aangemoedigd.

Beslisregel

Als je AI-systeem niet op de verboden lijst staat (Art. 5), niet in Annex III voorkomt, en geen transparantieverplichtingen triggert, dan is het waarschijnlijk minimaal risico en gelden er geen specifieke AI Act verplichtingen.

Checklist: Bepaal je risico-categorie

  • Check Artikel 5: staat je toepassing op de verboden lijst?
  • Check Annex I: is het een veiligheidscomponent van gereguleerd product?
  • Check Annex III: staat de toepassing/sector in de hoog-risico lijst?
  • Check transparantie: interacteert het systeem met mensen of genereert het content?
  • Documenteer je classificatie en de onderbouwing

Bronnen


Changelog:

  • 12 januari 2026 - Eerste publicatie

Veelgestelde vragen

De classificatie hangt af van het doel en de context van gebruik. Kijk eerst of het systeem op de verboden lijst staat (Artikel 5), dan of het in Annex III staat (hoog-risico), en anders is het beperkt of minimaal risico.
Ja. Als je een AI-systeem voor een ander doel gaat gebruiken, kan de classificatie veranderen. Ook significante wijzigingen aan het systeem kunnen tot herclassificatie leiden.
Bij twijfel is het verstandig om uit te gaan van de hogere risico-categorie en juridisch advies in te winnen. De consequenties van verkeerde classificatie kunnen groot zijn.

Gerelateerde onderwerpen

risico-categorieenverbodenhoog-risicobeperkt-risicominimaal-risicoclassificatie

Gerelateerde artikelen

AI Act Assistent

Met live web search

Vraag me alles over de AI Act

Ik help je met compliance, risicoclassificatie en meer.

AI-antwoorden kunnen fouten bevatten