AI Act Risico-categorieën: Van Verboden tot Minimaal
De AI Act werkt met een risico-gebaseerde aanpak. Hoe hoger het risico, hoe strenger de regels. Hier leer je de vier categorieën kennen en hoe je je AI-systeem classificeert.
De piramide: risico-gebaseerde aanpak
De AI Act hanteert een risico-gebaseerde benadering. Dit betekent: hoe groter het risico voor fundamentele rechten en veiligheid, hoe strenger de regels.
/\
/ \ VERBODEN
/ \ (Artikel 5)
/------\
/ \ HOOG RISICO
/ \ (Annex III + Artikel 6)
/------------\
/ \ BEPERKT RISICO
/ \ (Transparantieplicht)
------------------
MINIMAAL RISICO
(Vrijwel geen verplichtingen)
1. Verboden AI-systemen
Dit zijn AI-toepassingen die zo risicovol zijn dat ze volledig verboden zijn in de EU.
Voorbeelden
- Social scoring door overheden
- Emotieherkenning op werkplekken en in onderwijs
- Real-time biometrische identificatie in openbare ruimtes
- Manipulatieve AI die kwetsbaarheden exploiteert
- Predictive policing op basis van profilering
Beslisregel
Als je AI-systeem specifiek is ontworpen voor een van de toepassingen in Artikel 5, dan is het verboden en mag je het niet ontwikkelen, op de markt brengen of gebruiken in de EU.
2. Hoog-risico AI-systemen
AI-systemen die significant impact kunnen hebben op de gezondheid, veiligheid of grondrechten van mensen.
Wanneer is AI hoog-risico?
Een systeem is hoog-risico als het:
- Een veiligheidscomponent is van een product onder EU-productregelgeving (Annex I), OF
- Staat in Annex III van de AI Act, zoals:
- Biometrische identificatie
- Kritieke infrastructuur
- Onderwijs en beroepsopleiding
- Werkgelegenheid en HR
- Essentiële diensten
- Rechtshandhaving
- Migratie en grenscontrole
- Rechtspraak
Praktijkvoorbeeld
Een verzekeraar gebruikt een AI-systeem om schadeclaims te beoordelen. Omdat dit impact heeft op toegang tot financiële diensten, valt dit onder Annex III categorie 5(b) en is het een hoog-risico systeem. De verzekeraar moet voldoen aan alle hoog-risico verplichtingen.
Verplichtingen hoog-risico
- Risicobeheer systeem
- Data governance
- Technische documentatie
- Logging en traceerbaarheid
- Menselijk toezicht
- Nauwkeurigheid en robuustheid
- Conformiteitsbeoordeling
- EU database registratie
→ Lees meer over Hoog-risico AI
3. Beperkt risico (transparantieplicht)
AI-systemen die met mensen interacteren en waarbij transparantie belangrijk is.
Voorbeelden
- Chatbots - gebruikers moeten weten dat ze met AI praten
- Deepfakes - AI-gegenereerde content moet gelabeld zijn
- Emotion recognition - gebruikers moeten geïnformeerd worden
Verplichtingen
- Informeer gebruikers dat ze met AI interacteren
- Label AI-gegenereerde content (tekst, beeld, audio, video)
- Wees transparant over de aard van het systeem
Template: Transparantie-melding
Dit gesprek wordt gevoerd met een AI-assistent.
U communiceert met kunstmatige intelligentie, niet met een mens.
4. Minimaal risico
Het overgrote deel van AI-systemen valt in deze categorie. Denk aan:
- Spamfilters
- AI in videogames
- Aanbevelingssystemen (met nuance)
- Voorraadbeheersystemen
Verplichtingen
Geen specifieke verplichtingen onder de AI Act. Wel worden vrijwillige gedragscodes aangemoedigd.
Beslisregel
Als je AI-systeem niet op de verboden lijst staat (Art. 5), niet in Annex III voorkomt, en geen transparantieverplichtingen triggert, dan is het waarschijnlijk minimaal risico en gelden er geen specifieke AI Act verplichtingen.
Checklist: Bepaal je risico-categorie
- Check Artikel 5: staat je toepassing op de verboden lijst?
- Check Annex I: is het een veiligheidscomponent van gereguleerd product?
- Check Annex III: staat de toepassing/sector in de hoog-risico lijst?
- Check transparantie: interacteert het systeem met mensen of genereert het content?
- Documenteer je classificatie en de onderbouwing
Bronnen
- AI Act Artikel 5 - Verboden praktijken
- AI Act Annex III - Hoog-risico systemen
- AI Act Explorer - Interactief
Changelog:
- 12 januari 2026 - Eerste publicatie
Veelgestelde vragen
Gerelateerde onderwerpen
Gerelateerde artikelen
Hoog-risico AI: Verplichtingen en Compliance
Hoog-risico AI-systemen moeten voldoen aan strenge eisen: risicobeheer, data governance, transparantie en menselijk toezicht. Hier vind je alles wat je moet weten.
Verboden AI: Wat Mag Niet onder de AI Act
De AI Act verbiedt bepaalde AI-toepassingen volledig. Dit zijn systemen die zo risicovol zijn voor fundamentele rechten dat ze niet mogen bestaan in de EU.
AI Act voor de Financiële Sector
Banken, verzekeraars en fintechs gebruiken AI voor kredietbeoordeling en risico-inschatting. Deze toepassingen vallen vaak onder hoog-risico en vereisen strenge compliance.
AI Act voor HR: Impact en Compliance
De HR-sector wordt sterk geraakt door de AI Act. AI voor werving, beoordeling en personeelsbeslissingen valt bijna altijd in de hoog-risico categorie.