AI Act voor de Overheid
Overheidsorganisaties hebben extra verplichtingen onder de AI Act. Social scoring is verboden, FRIA's zijn verplicht, en algoritmes moeten worden gepubliceerd in het Algoritmeregister.
AI Act impact op de overheid
De publieke sector heeft onder de AI Act extra verplichtingen. Gemeenten, provincies, rijksoverheid en uitvoeringsorganisaties gebruiken AI voor beslissingen over burgers - van uitkeringen tot handhaving.
Annex III categorieën relevant voor overheid
- Categorie 5: Toegang tot essentiële diensten (uitkeringen, toeslagen)
- Categorie 6: Rechtshandhaving
- Categorie 7: Migratie, asiel en grensbewaking
- Categorie 8: Rechtspraak en democratische processen
Verboden praktijken voor overheid
Volledig verboden onder Artikel 5:
- Social scoring (Art. 5(1)(c)): Beoordelen van burgers op basis van sociaal gedrag voor het beperken van rechten
- Voorspellend profileren (Art. 5(1)(d)): Crimineel risico inschatten puur op basis van profiling
- Real-time biometrische identificatie (Art. 5(1)(h)): Op openbare plekken, met beperkte uitzonderingen
Hoog-risico toepassingen overheid
| Toepassing | Risico-categorie | Toelichting |
|---|---|---|
| Uitkeringsbesluiten | Hoog | Annex III 5(a) |
| Fraudedetectie (toeslagen) | Hoog | Annex III 5(a) |
| Risicoprofilering burgers | Hoog/Verboden | Art. 5/Annex III 6 |
| Vergunningverlening | Hoog | Annex III 5(a) |
| Handhaving prioritering | Hoog | Annex III 6 |
| Asielaanvraag beoordeling | Hoog | Annex III 7 |
| Social scoring | Verboden | Artikel 5(1)(c) |
Extra verplichtingen publieke sector
1. Fundamental Rights Impact Assessment (FRIA)
Artikel 27 verplicht:
Deployers van hoog-risico AI-systemen die publieke autoriteiten zijn, moeten een grondrechtentoets uitvoeren vóór ingebruikname.
De FRIA omvat:
- Beschrijving van processen waarin AI wordt gebruikt
- Periode en frequentie van gebruik
- Categorieën getroffen personen
- Specifieke risico's voor deze groepen
- Menselijk toezicht maatregelen
- Maatregelen bij onjuiste output
2. Algoritmeregister
Nederlandse overheidsorganisaties zijn verplicht algoritmes te publiceren:
- Website: algoritmes.overheid.nl
- Verplicht voor hoog-risico en impactvolle algoritmes
- Transparantie naar burgers
Template: Algoritmeregister invoer
## Algoritme Registratie
**Naam:** [NAAM ALGORITME]
**Organisatie:** [ORGANISATIE]
**Status:** In gebruik / In ontwikkeling / Buiten gebruik
### Beschrijving
[Wat doet het algoritme?]
### Doel
[Waarom wordt het gebruikt?]
### Juridische grondslag
[Welke wet/regelgeving?]
### Impact
[Welke beslissingen worden beïnvloed?]
### Menselijk toezicht
[Hoe is menselijke controle geborgd?]
### Bezwaar
[Hoe kunnen burgers bezwaar maken?]
3. IAMA (Impact Assessment Mensenrechten en Algoritmes)
Het IAMA is het Nederlandse instrument voor algoritmische impact assessment:
- Ontwikkeld door het ministerie van BZK
- Aanvullend op FRIA
- Praktische handleiding voor overheid
Lessons learned: Toeslagenaffaire
De toeslagenaffaire heeft aangetoond wat er mis kan gaan:
- Geautomatiseerde fraudedetectie zonder adequate waarborgen
- Gebrek aan menselijk toezicht
- Discriminatoire effecten
- Onvoldoende rechtsbescherming
De AI Act voorkomt herhaling door:
- Verplichte FRIA's
- Menselijk toezicht vereist
- Verbod op bepaalde profilering
- Transparantie via Algoritmeregister
Compliance stappenplan overheid
Stap 1: Inventariseer alle algoritmes
- Gebruik de IAMA vragenlijst
- Breng alle AI-systemen in kaart
- Classificeer per risico-niveau
Stap 2: Check op verboden praktijken
Prioriteit 1:
- Geen social scoring
- Geen puur profilering-gebaseerde criminaliteitsvoorspelling
- Geen ongeautoriseerde real-time biometrie
Stap 3: Voer FRIA uit
Voor elk hoog-risico systeem:
- Grondrechtenanalyse
- Risicomaatregelen
- Documentatie
Stap 4: Publiceer in Algoritmeregister
- Alle hoog-risico systemen
- Impactvolle algoritmes
- Transparante beschrijving
Stap 5: Implementeer bezwaarprocedures
- Burgers kunnen bezwaar maken
- Recht op menselijke herbeoordeling
- Duidelijke communicatie
Checklist overheid AI-compliance
- Alle algoritmes geïnventariseerd
- Check op verboden praktijken (social scoring, etc.)
- FRIA's uitgevoerd voor hoog-risico systemen
- IAMA's afgerond
- Gepubliceerd in Algoritmeregister
- Bezwaarprocedures ingericht
- Medewerkers getraind
- Menselijk toezicht gewaarborgd
- Burgers geïnformeerd
- Privacy Impact Assessment (PIA) afgestemd
Bronnen
- AI Act Artikel 5 - Verboden praktijken
- AI Act Artikel 27 - FRIA
- Algoritmeregister Nederland
- IAMA Handleiding (BZK)
- Autoriteit Persoonsgegevens
Changelog:
- 12 januari 2026 - Eerste publicatie
Veelgestelde vragen
Gerelateerde onderwerpen
Gerelateerde artikelen
AI Act voor de Financiële Sector
Banken, verzekeraars en fintechs gebruiken AI voor kredietbeoordeling en risico-inschatting. Deze toepassingen vallen vaak onder hoog-risico en vereisen strenge compliance.
AI Act voor HR: Impact en Compliance
De HR-sector wordt sterk geraakt door de AI Act. AI voor werving, beoordeling en personeelsbeslissingen valt bijna altijd in de hoog-risico categorie.
AI Act voor Onderwijs
Onderwijsinstellingen en EdTech-bedrijven moeten voldoen aan strenge AI Act eisen. AI voor toelating, beoordeling en examentoezicht is hoog-risico. Emotieherkenning bij minderjarigen is verboden.
AI Act voor Rechtshandhaving & Justitie
Politie, OM en rechtbanken hebben strenge beperkingen voor AI-gebruik. Real-time biometrische identificatie is grotendeels verboden. Predictive policing en risicobeoordeling zijn hoog-risico.