EUAI Act EU

AI voor Uitkeringsbeslissingen

·4 min leestijd·Hoog risico

AI-systemen voor uitkeringsbeslissingen zijn hoog-risico. De overheid heeft extra verplichtingen: FRIA's, Algoritmeregister en streng verbod op social scoring.

Classificatie

AspectWaarde
Risico-categorieHoog-risico
GrondslagAnnex III categorie 5(a)
SectorOverheid
Deadline2 augustus 2026

Beschrijving

AI-systemen die beslissingen nemen over uitkeringen en toeslagen:

  • Bijstandsaanvragen (WWB)
  • Zorgtoeslag, huurtoeslag, kinderopvangtoeslag
  • WW-uitkeringen
  • WIA/WAO beoordelingen
  • AOW en pensioenen
  • Fraudedetectie en risico-signalering

Waarom hoog-risico?

De AI Act stelt in Annex III categorie 5(a):

"AI-systemen die bedoeld zijn om door publieke autoriteiten te worden gebruikt bij de beoordeling van de ontvankelijkheid van natuurlijke personen voor publieke bijstandsuitkeringen en -diensten"

Beslissingen over uitkeringen raken:

  • Bestaanszekerheid van burgers
  • Grondrecht op sociale zekerheid
  • Kwetsbare groepen

Extra verplichtingen overheid

1. Fundamental Rights Impact Assessment (FRIA)

Artikel 27 verplicht publieke instanties tot een grondrechtentoets:

  • Beschrijving van processen waarin AI wordt gebruikt
  • Categorieën getroffen burgers
  • Specifieke risico's (discriminatie, uitsluiting)
  • Maatregelen bij onjuiste output

2. Algoritmeregister

Verplichte publicatie op algoritmes.overheid.nl:

  • Naam en beschrijving algoritme
  • Gebruiksdoel
  • Impact op burgers
  • Bezwaarmogelijkheden

3. Verbod op social scoring

Volledig verboden onder Artikel 5(1)(c):

  • Beoordeling van burgers op basis van sociaal gedrag
  • Scores die leiden tot nadelige behandeling
  • Profilering buiten de context van de aanvraag

Lessen uit de toeslagenaffaire

De toeslagenaffaire heeft aangetoond welke risico's er zijn:

ProbleemAI Act oplossing
Discriminerende profielenBias-analyse verplicht
Geen menselijk toezichtArt. 14 - Menselijk toezicht verplicht
Gebrek aan uitlegTransparantieverplichtingen
Geen bezwaarmogelijkheidFRIA moet bezwaarprocedure bevatten
Onzichtbaar voor burgersAlgoritmeregister publicatie

Verplichtingen

Voor de overheidsorganisatie (deployer)

  1. FRIA uitvoeren: Vóór ingebruikname
  2. IAMA: Impact Assessment Mensenrechten en Algoritmes
  3. Algoritmeregister: Publiceer het systeem
  4. Menselijk toezicht: Ambtenaar beslist, niet AI
  5. Bezwaarprocedure: Burger kan bezwaar maken
  6. Uitleg: Verklaar beslissing aan burger

Voor de leverancier (provider)

  1. Hoog-risico compliance: Alle Artikel 16 verplichtingen
  2. Technische documentatie: Voor de overheid beschikbaar
  3. Ondersteuning FRIA: Help de overheid met de beoordeling

Praktijkvoorbeeld

Een gemeente wil AI inzetten voor voorspelling van frauderisico bij bijstandsaanvragen. Het systeem analyseert aanvraaggegevens en geeft een risicoscore.

Vereiste waarborgen:

  • AI signaleert alleen, beslist niet
  • Elke signalering wordt handmatig beoordeeld
  • Burger wordt geïnformeerd over AI-gebruik
  • Mogelijkheid tot bezwaar
  • Geen profilering op etniciteit, nationaliteit, etc.
  • Registratie in Algoritmeregister

Checklist implementatie

  • FRIA uitgevoerd en gedocumenteerd
  • IAMA doorlopen
  • Gepubliceerd in Algoritmeregister
  • Check op verboden social scoring
  • Check op discriminerende factoren
  • Menselijk toezicht gewaarborgd
  • Beslissingsbevoegdheid bij ambtenaar
  • Bezwaarprocedure ingericht
  • Burgers geïnformeerd
  • Logging en audit trail actief
  • Provider compliance geverifieerd

Template: Burgerinformatie

## AI in uw aanvraag

Bij de beoordeling van uw aanvraag voor [UITKERING]
maakt [ORGANISATIE] gebruik van een ondersteunend AI-systeem.

### Wat doet het systeem?
Het systeem analyseert uw aanvraaggegevens en helpt
medewerkers bij de beoordeling.

### Wie beslist?
Een medewerker van [ORGANISATIE] neemt altijd de
uiteindelijke beslissing. Het AI-systeem adviseert alleen.

### Uw rechten
- U kunt vragen welke gegevens zijn gebruikt
- U kunt bezwaar maken tegen de beslissing
- U heeft recht op een menselijke herbeoordeling

### Meer informatie
Dit algoritme is gepubliceerd in het Algoritmeregister:
[LINK NAAR ALGORITMEREGISTER]

Contact: [CONTACTGEGEVENS]

Bronnen

Veelgestelde vragen

Ja, AI-systemen die individuele burgers beoordelen voor toegang tot uitkeringen of toeslagen vallen onder Annex III categorie 5(a) en zijn hoog-risico.
De toeslagenaffaire toonde de risico's van geautomatiseerde besluitvorming zonder adequate waarborgen: discriminatie, gebrek aan menselijk toezicht en onvoldoende rechtsbescherming. De AI Act voorkomt dit door FRIA's, menselijk toezicht en transparantie te verplichten.

Gerelateerde onderwerpen

overheiduitkeringentoeslagenhoog-risicouse-case

Gerelateerde artikelen

AI Act Assistent

Met live web search

Vraag me alles over de AI Act

Ik help je met compliance, risicoclassificatie en meer.

AI-antwoorden kunnen fouten bevatten