AI voor Uitkeringsbeslissingen
AI-systemen voor uitkeringsbeslissingen zijn hoog-risico. De overheid heeft extra verplichtingen: FRIA's, Algoritmeregister en streng verbod op social scoring.
Classificatie
| Aspect | Waarde |
|---|---|
| Risico-categorie | Hoog-risico |
| Grondslag | Annex III categorie 5(a) |
| Sector | Overheid |
| Deadline | 2 augustus 2026 |
Beschrijving
AI-systemen die beslissingen nemen over uitkeringen en toeslagen:
- Bijstandsaanvragen (WWB)
- Zorgtoeslag, huurtoeslag, kinderopvangtoeslag
- WW-uitkeringen
- WIA/WAO beoordelingen
- AOW en pensioenen
- Fraudedetectie en risico-signalering
Waarom hoog-risico?
De AI Act stelt in Annex III categorie 5(a):
"AI-systemen die bedoeld zijn om door publieke autoriteiten te worden gebruikt bij de beoordeling van de ontvankelijkheid van natuurlijke personen voor publieke bijstandsuitkeringen en -diensten"
Beslissingen over uitkeringen raken:
- Bestaanszekerheid van burgers
- Grondrecht op sociale zekerheid
- Kwetsbare groepen
Extra verplichtingen overheid
1. Fundamental Rights Impact Assessment (FRIA)
Artikel 27 verplicht publieke instanties tot een grondrechtentoets:
- Beschrijving van processen waarin AI wordt gebruikt
- Categorieën getroffen burgers
- Specifieke risico's (discriminatie, uitsluiting)
- Maatregelen bij onjuiste output
2. Algoritmeregister
Verplichte publicatie op algoritmes.overheid.nl:
- Naam en beschrijving algoritme
- Gebruiksdoel
- Impact op burgers
- Bezwaarmogelijkheden
3. Verbod op social scoring
Volledig verboden onder Artikel 5(1)(c):
- Beoordeling van burgers op basis van sociaal gedrag
- Scores die leiden tot nadelige behandeling
- Profilering buiten de context van de aanvraag
Lessen uit de toeslagenaffaire
De toeslagenaffaire heeft aangetoond welke risico's er zijn:
| Probleem | AI Act oplossing |
|---|---|
| Discriminerende profielen | Bias-analyse verplicht |
| Geen menselijk toezicht | Art. 14 - Menselijk toezicht verplicht |
| Gebrek aan uitleg | Transparantieverplichtingen |
| Geen bezwaarmogelijkheid | FRIA moet bezwaarprocedure bevatten |
| Onzichtbaar voor burgers | Algoritmeregister publicatie |
Verplichtingen
Voor de overheidsorganisatie (deployer)
- FRIA uitvoeren: Vóór ingebruikname
- IAMA: Impact Assessment Mensenrechten en Algoritmes
- Algoritmeregister: Publiceer het systeem
- Menselijk toezicht: Ambtenaar beslist, niet AI
- Bezwaarprocedure: Burger kan bezwaar maken
- Uitleg: Verklaar beslissing aan burger
Voor de leverancier (provider)
- Hoog-risico compliance: Alle Artikel 16 verplichtingen
- Technische documentatie: Voor de overheid beschikbaar
- Ondersteuning FRIA: Help de overheid met de beoordeling
Praktijkvoorbeeld
Een gemeente wil AI inzetten voor voorspelling van frauderisico bij bijstandsaanvragen. Het systeem analyseert aanvraaggegevens en geeft een risicoscore.
Vereiste waarborgen:
- AI signaleert alleen, beslist niet
- Elke signalering wordt handmatig beoordeeld
- Burger wordt geïnformeerd over AI-gebruik
- Mogelijkheid tot bezwaar
- Geen profilering op etniciteit, nationaliteit, etc.
- Registratie in Algoritmeregister
Checklist implementatie
- FRIA uitgevoerd en gedocumenteerd
- IAMA doorlopen
- Gepubliceerd in Algoritmeregister
- Check op verboden social scoring
- Check op discriminerende factoren
- Menselijk toezicht gewaarborgd
- Beslissingsbevoegdheid bij ambtenaar
- Bezwaarprocedure ingericht
- Burgers geïnformeerd
- Logging en audit trail actief
- Provider compliance geverifieerd
Template: Burgerinformatie
## AI in uw aanvraag
Bij de beoordeling van uw aanvraag voor [UITKERING]
maakt [ORGANISATIE] gebruik van een ondersteunend AI-systeem.
### Wat doet het systeem?
Het systeem analyseert uw aanvraaggegevens en helpt
medewerkers bij de beoordeling.
### Wie beslist?
Een medewerker van [ORGANISATIE] neemt altijd de
uiteindelijke beslissing. Het AI-systeem adviseert alleen.
### Uw rechten
- U kunt vragen welke gegevens zijn gebruikt
- U kunt bezwaar maken tegen de beslissing
- U heeft recht op een menselijke herbeoordeling
### Meer informatie
Dit algoritme is gepubliceerd in het Algoritmeregister:
[LINK NAAR ALGORITMEREGISTER]
Contact: [CONTACTGEGEVENS]
Bronnen
Veelgestelde vragen
Gerelateerde onderwerpen
Gerelateerde artikelen
AI Act voor de Overheid
Overheidsorganisaties hebben extra verplichtingen onder de AI Act. Social scoring is verboden, FRIA's zijn verplicht, en algoritmes moeten worden gepubliceerd in het Algoritmeregister.
AI voor Kredietbeoordeling
AI-systemen voor kredietbeoordeling zijn hoog-risico onder de AI Act. Dit geldt voor leningaanvragen, hypotheken, creditcards en buy-now-pay-later diensten.
AI voor Medische Diagnose
AI-systemen voor medische diagnose (röntgenanalyse, tumordetectie) zijn hoog-risico onder de AI Act. Ze vallen ook onder de Medical Device Regulation (MDR).
Hoog-risico AI: Verplichtingen en Compliance
Hoog-risico AI-systemen moeten voldoen aan strenge eisen: risicobeheer, data governance, transparantie en menselijk toezicht. Hier vind je alles wat je moet weten.