EUAI Act EU

AI Act voor de Overheid

·4 min leestijd·Hoog risico

Overheidsorganisaties hebben extra verplichtingen onder de AI Act. Social scoring is verboden, FRIA's zijn verplicht, en algoritmes moeten worden gepubliceerd in het Algoritmeregister.

AI Act impact op de overheid

De publieke sector heeft onder de AI Act extra verplichtingen. Gemeenten, provincies, rijksoverheid en uitvoeringsorganisaties gebruiken AI voor beslissingen over burgers - van uitkeringen tot handhaving.

Annex III categorieën relevant voor overheid

  • Categorie 5: Toegang tot essentiële diensten (uitkeringen, toeslagen)
  • Categorie 6: Rechtshandhaving
  • Categorie 7: Migratie, asiel en grensbewaking
  • Categorie 8: Rechtspraak en democratische processen

Verboden praktijken voor overheid

Volledig verboden onder Artikel 5:

  1. Social scoring (Art. 5(1)(c)): Beoordelen van burgers op basis van sociaal gedrag voor het beperken van rechten
  2. Voorspellend profileren (Art. 5(1)(d)): Crimineel risico inschatten puur op basis van profiling
  3. Real-time biometrische identificatie (Art. 5(1)(h)): Op openbare plekken, met beperkte uitzonderingen

Hoog-risico toepassingen overheid

ToepassingRisico-categorieToelichting
UitkeringsbesluitenHoogAnnex III 5(a)
Fraudedetectie (toeslagen)HoogAnnex III 5(a)
Risicoprofilering burgersHoog/VerbodenArt. 5/Annex III 6
VergunningverleningHoogAnnex III 5(a)
Handhaving prioriteringHoogAnnex III 6
Asielaanvraag beoordelingHoogAnnex III 7
Social scoringVerbodenArtikel 5(1)(c)

Extra verplichtingen publieke sector

1. Fundamental Rights Impact Assessment (FRIA)

Artikel 27 verplicht:

Deployers van hoog-risico AI-systemen die publieke autoriteiten zijn, moeten een grondrechtentoets uitvoeren vóór ingebruikname.

De FRIA omvat:

  • Beschrijving van processen waarin AI wordt gebruikt
  • Periode en frequentie van gebruik
  • Categorieën getroffen personen
  • Specifieke risico's voor deze groepen
  • Menselijk toezicht maatregelen
  • Maatregelen bij onjuiste output

2. Algoritmeregister

Nederlandse overheidsorganisaties zijn verplicht algoritmes te publiceren:

  • Website: algoritmes.overheid.nl
  • Verplicht voor hoog-risico en impactvolle algoritmes
  • Transparantie naar burgers

Template: Algoritmeregister invoer

## Algoritme Registratie

**Naam:** [NAAM ALGORITME]
**Organisatie:** [ORGANISATIE]
**Status:** In gebruik / In ontwikkeling / Buiten gebruik

### Beschrijving
[Wat doet het algoritme?]

### Doel
[Waarom wordt het gebruikt?]

### Juridische grondslag
[Welke wet/regelgeving?]

### Impact
[Welke beslissingen worden beïnvloed?]

### Menselijk toezicht
[Hoe is menselijke controle geborgd?]

### Bezwaar
[Hoe kunnen burgers bezwaar maken?]

3. IAMA (Impact Assessment Mensenrechten en Algoritmes)

Het IAMA is het Nederlandse instrument voor algoritmische impact assessment:

  • Ontwikkeld door het ministerie van BZK
  • Aanvullend op FRIA
  • Praktische handleiding voor overheid

Lessons learned: Toeslagenaffaire

De toeslagenaffaire heeft aangetoond wat er mis kan gaan:

  • Geautomatiseerde fraudedetectie zonder adequate waarborgen
  • Gebrek aan menselijk toezicht
  • Discriminatoire effecten
  • Onvoldoende rechtsbescherming

De AI Act voorkomt herhaling door:

  • Verplichte FRIA's
  • Menselijk toezicht vereist
  • Verbod op bepaalde profilering
  • Transparantie via Algoritmeregister

Compliance stappenplan overheid

Stap 1: Inventariseer alle algoritmes

  • Gebruik de IAMA vragenlijst
  • Breng alle AI-systemen in kaart
  • Classificeer per risico-niveau

Stap 2: Check op verboden praktijken

Prioriteit 1:

  • Geen social scoring
  • Geen puur profilering-gebaseerde criminaliteitsvoorspelling
  • Geen ongeautoriseerde real-time biometrie

Stap 3: Voer FRIA uit

Voor elk hoog-risico systeem:

  • Grondrechtenanalyse
  • Risicomaatregelen
  • Documentatie

Stap 4: Publiceer in Algoritmeregister

  • Alle hoog-risico systemen
  • Impactvolle algoritmes
  • Transparante beschrijving

Stap 5: Implementeer bezwaarprocedures

  • Burgers kunnen bezwaar maken
  • Recht op menselijke herbeoordeling
  • Duidelijke communicatie

Checklist overheid AI-compliance

  • Alle algoritmes geïnventariseerd
  • Check op verboden praktijken (social scoring, etc.)
  • FRIA's uitgevoerd voor hoog-risico systemen
  • IAMA's afgerond
  • Gepubliceerd in Algoritmeregister
  • Bezwaarprocedures ingericht
  • Medewerkers getraind
  • Menselijk toezicht gewaarborgd
  • Burgers geïnformeerd
  • Privacy Impact Assessment (PIA) afgestemd

Bronnen


Changelog:

  • 12 januari 2026 - Eerste publicatie

Veelgestelde vragen

Ja, Nederlandse overheidsorganisaties zijn verplicht hoog-risico AI-systemen en andere impactvolle algoritmes te publiceren in het Algoritmeregister (algoritmes.overheid.nl).
Een Fundamental Rights Impact Assessment (FRIA) is een verplichte grondrechtentoets voor hoog-risico AI-systemen die worden ingezet door publieke instanties (Artikel 27).
Nee, social scoring door publieke autoriteiten is expliciet verboden onder Artikel 5(1)(c). Dit verbod geldt sinds 2 februari 2025.

Gerelateerde onderwerpen

overheidpublieke sectorgemeentenalgoritmeregisterhoog-risicosector

Gerelateerde artikelen

AI Act Assistent

Met live web search

Vraag me alles over de AI Act

Ik help je met compliance, risicoclassificatie en meer.

AI-antwoorden kunnen fouten bevatten