AI Act voor Rechtshandhaving & Justitie
Politie, OM en rechtbanken hebben strenge beperkingen voor AI-gebruik. Real-time biometrische identificatie is grotendeels verboden. Predictive policing en risicobeoordeling zijn hoog-risico.
AI Act impact op rechtshandhaving
De rechtshandhavingssector heeft de strengste beperkingen onder de AI Act. Politie, Openbaar Ministerie, rechtbanken, gevangenisbeheer en beveiligingsdiensten moeten aan extra eisen voldoen vanwege de impact op fundamentele rechten.
Annex III categorieën 6 en 8
Categorie 6 - Rechtshandhaving:
AI-systemen voor individuele risicobeoordeling, leugendetectie, bewijsanalyse en criminaliteitsvoorspelling.
Categorie 8 - Rechtspraak:
AI-systemen voor onderzoek van feiten, toepassing van recht en ondersteuning van rechterlijke beslissingen.
Verboden praktijken
Volledig verboden onder Artikel 5:
- Real-time biometrische identificatie op openbare plekken (met beperkte uitzonderingen)
- Crimineel profileren: Risico-inschatting puur gebaseerd op persoonlijkheidskenmerken of profilering
- Emotieherkenning: In rechtshandhavingscontext (beperkte uitzonderingen)
Biometrische identificatie: De regels
Verbod met uitzonderingen
Real-time biometrische identificatie in openbare ruimtes is verboden, behalve voor:
- Vermiste personen opsporen (inclusief slachtoffers van ontvoering)
- Terroristische dreiging voorkomen
- Zware misdrijven opsporen (lijst in Annex II)
Vereisten voor uitzonderingen:
- Voorafgaande rechterlijke toestemming
- Tijdslimiet en geografische beperking
- Noodzakelijkheids- en proportionaliteitstoets
- Registratie en documentatie
Post-hoc identificatie
Biometrische identificatie achteraf (niet real-time) is hoog-risico maar niet verboden. Wel gelden strenge eisen:
- Rechterlijke toestemming
- Specifieke verdachte of veroordeelde
- Documentatie en logging
Hoog-risico toepassingen rechtshandhaving
| Toepassing | Risico-categorie | Toelichting |
|---|---|---|
| Real-time gezichtsherkenning | Verboden/Uitzondering | Art. 5(1)(h) |
| Post-hoc biometrische identificatie | Hoog | Annex III 1 |
| Individuele risicobeoordeling | Hoog | Annex III 6(a) |
| Leugendetectie AI | Hoog | Annex III 6(b) |
| Bewijsanalyse AI | Hoog | Annex III 6(c) |
| Predictive policing | Hoog/Verboden | Annex III 6(d)/Art. 5 |
| Rechterlijke beslissingsondersteuning | Hoog | Annex III 8(a) |
| Strafmaat berekening | Hoog | Annex III 8(a) |
| Recidive voorspelling | Hoog | Annex III 6(a) |
Verplichtingen voor rechtshandhaving
1. Fundamental Rights Impact Assessment (FRIA)
Verplicht voor alle hoog-risico AI in rechtshandhaving:
- Grondrechtenanalyse
- Discriminatietoets
- Proportionaliteitsbeoordeling
- Documentatie en transparantie
2. Menselijk toezicht
Cruciaal in deze sector:
- AI adviseert, mens beslist
- Geen volautomatische beslissingen over vrijheid
- Training van gebruikers over AI-beperkingen
- Mogelijkheid tot handmatige override
3. Logging en audit trail
- Elk gebruik wordt gelogd
- Toegang tot logs voor toezichthouders
- Bewaartermijnen conform wetgeving
- Regelmatige audits
Compliance stappenplan
Stap 1: Inventariseer operationele AI
- Biometrische systemen
- Analysesoftware
- Predictive tools
- Beslissingsondersteuning
Stap 2: Evalueer biometrische systemen
Kritische vragen:
- Is het real-time of post-hoc?
- Waar wordt het ingezet?
- Is rechterlijke toestemming gewaarborgd?
Stap 3: Beoordeel predictive policing
Check:
- Geen puur profilering-gebaseerde voorspellingen
- Adequate menselijke toets
- Discriminatieanalyse uitgevoerd
Stap 4: Implementeer waarborgen
- Rechterlijke autorisatieprocedures
- Tijdslimieten voor gebruik
- Documentatievereisten
- Klachtenprocedures
Stap 5: Train personeel
- Beperkingen van AI-systemen
- Wanneer menselijke override nodig
- Documentatievereisten
- Grondrechtenbewustzijn
Checklist rechtshandhaving AI-compliance
- Alle AI-systemen geïnventariseerd
- Biometrische systemen geëvalueerd
- Verboden praktijken geïdentificeerd en verwijderd
- FRIA's uitgevoerd
- Rechterlijke autorisatieprocedures ingericht
- Menselijk toezicht gewaarborgd
- Logging en audit trail actief
- Personeel getraind
- Tijdslimieten en geografische beperkingen geïmplementeerd
- Klachtenprocedures beschikbaar
Bronnen
- AI Act Annex III categorie 6
- AI Act Annex III categorie 8
- AI Act Artikel 5 - Verboden praktijken
- Politie Nederland
- Autoriteit Persoonsgegevens
Changelog:
- 12 januari 2026 - Eerste publicatie
Veelgestelde vragen
Gerelateerde onderwerpen
Gerelateerde artikelen
AI Act voor de Financiële Sector
Banken, verzekeraars en fintechs gebruiken AI voor kredietbeoordeling en risico-inschatting. Deze toepassingen vallen vaak onder hoog-risico en vereisen strenge compliance.
AI Act voor HR: Impact en Compliance
De HR-sector wordt sterk geraakt door de AI Act. AI voor werving, beoordeling en personeelsbeslissingen valt bijna altijd in de hoog-risico categorie.
AI Act voor Onderwijs
Onderwijsinstellingen en EdTech-bedrijven moeten voldoen aan strenge AI Act eisen. AI voor toelating, beoordeling en examentoezicht is hoog-risico. Emotieherkenning bij minderjarigen is verboden.
AI Act voor de Overheid
Overheidsorganisaties hebben extra verplichtingen onder de AI Act. Social scoring is verboden, FRIA's zijn verplicht, en algoritmes moeten worden gepubliceerd in het Algoritmeregister.