AI Act voor Onderwijs
Onderwijsinstellingen en EdTech-bedrijven moeten voldoen aan strenge AI Act eisen. AI voor toelating, beoordeling en examentoezicht is hoog-risico. Emotieherkenning bij minderjarigen is verboden.
AI Act impact op onderwijs
De onderwijssector wordt sterk geraakt door de AI Act. Scholen, universiteiten, onderwijsplatforms en EdTech-bedrijven gebruiken steeds vaker AI voor beslissingen die directe impact hebben op studenten en leerlingen.
Annex III categorie 3: Onderwijs en beroepsopleiding
De AI Act noemt expliciet in Annex III categorie 3:
"AI-systemen die bedoeld zijn om te worden gebruikt voor: (a) bepaling van toegang tot onderwijsinstellingen (b) beoordeling van leerresultaten (c) bepaling van passend onderwijsniveau (d) toezicht op examens (proctoring)"
Belangrijk verbod: Emotieherkenning
Volledig verboden onder Artikel 5(1)(f):
AI-systemen voor het afleiden van emoties bij minderjarigen in onderwijsinstellingen zijn verboden.
Dit verbod is ingegaan per 2 februari 2025.
Hoog-risico toepassingen in onderwijs
| Toepassing | Risico-categorie | Toelichting |
|---|---|---|
| Toelatingsalgoritmes | Hoog | Annex III 3(a) |
| Loting met AI-selectie | Hoog | Annex III 3(a) |
| Automatische beoordeling | Hoog | Annex III 3(b) |
| Adaptieve leersystemen | Hoog | Annex III 3(c) |
| Niveau-indeling AI | Hoog | Annex III 3(c) |
| Proctoring software | Hoog | Annex III 3(d) |
| Plagiaat-detectie | Beperkt | Transparantieplicht |
| Emotieherkenning | Verboden | Artikel 5(1)(f) |
Verboden in onderwijs
Emotieherkenning bij minderjarigen
Systemen die proberen te detecteren:
- Stress of angst tijdens examens
- Aandacht of betrokkenheid in de klas
- Emotionele staat voor gedragsanalyse
Dit is volledig verboden. Bestaande systemen moeten verwijderd zijn sinds 2 februari 2025.
Praktijkvoorbeeld
Een universiteit gebruikte proctoring software die "verdacht gedrag" detecteerde op basis van oogbewegingen en gezichtsuitdrukkingen. Het emotieherkenningsgedeelte moet worden uitgeschakeld of vervangen door een systeem dat alleen feitelijke afwijkingen registreert (bijv. verlaten van beeld).
Compliance voor onderwijsinstellingen
1. Inventariseer EdTech tools
Breng in kaart welke AI-tools worden gebruikt:
- Learning Management Systemen (LMS)
- Proctoring software
- Adaptieve leerplatforms
- Beoordelingstools
- Toelatings- en selectiesystemen
2. Check op verboden toepassingen
Prioriteit 1: Verwijder of pas alle emotieherkenning aan:
- Gezichtsanalyse voor "betrokkenheid"
- Stress-detectie
- Emotie-monitoring
3. Classificeer hoog-risico systemen
Per AI-systeem:
- Is het een AI-systeem volgens de definitie?
- Valt het onder Annex III categorie 3?
- Wie is provider, wie is deployer?
Template: Onderwijs AI-inventarisatie
## EdTech AI Inventarisatie
| Tool | Doel | Emotie-functie? | Provider | Risico | Status |
|------|------|-----------------|----------|--------|--------|
| [NAAM] | [DOEL] | [JA/NEE] | [BEDRIJF] | [H/M/L] | [OK/ACTIE] |
4. Implementeer transparantie
- Informeer studenten: Welke AI-systemen worden gebruikt
- Informeer ouders: Bij minderjarige leerlingen
- Bezwaarmogelijkheid: Studenten kunnen menselijke beoordeling aanvragen
Template: Informatie voor studenten
## AI in ons onderwijs
Bij [INSTELLING] gebruiken wij de volgende AI-systemen:
### Beoordeling
- **[TOOL]**: wordt gebruikt voor [DOEL]
- Docenten valideren alle automatische beoordelingen
### Examentoezicht
- **[TOOL]**: wordt gebruikt voor [DOEL]
- Het systeem detecteert [WAT]
- Je kunt bezwaar maken via [PROCEDURE]
### Jouw rechten
- Je wordt geïnformeerd over AI-gebruik
- Je kunt een volledig menselijke beoordeling aanvragen
- Bij vragen, neem contact op met [CONTACT]
5. Waarborg menselijk toezicht
- Docenten behouden eindbeslissing: AI adviseert, mens beslist
- Training: Docenten begrijpen AI-tools en kunnen uitleg geven
- Escalatie: Procedure voor bezwaar en herbeoordeling
Deadlines voor onderwijs
| Verplichting | Deadline |
|---|---|
| Emotieherkenning verbod | 2 februari 2025 |
| Hoog-risico compliance | 2 augustus 2026 |
Checklist onderwijs AI-compliance
- EdTech-systemen geïnventariseerd
- Emotieherkenning verwijderd/uitgeschakeld
- Risico-classificatie per systeem
- Provider-compliance geverifieerd
- Studenten/ouders geïnformeerd
- Bezwaarprocedure beschikbaar
- Docenten getraind
- Menselijk toezicht gewaarborgd
- Logging en audit trail actief
Bronnen
- AI Act Annex III categorie 3
- AI Act Artikel 5 - Verboden praktijken
- Onderwijsinspectie
- SURF - AI in onderwijs
Changelog:
- 12 januari 2026 - Eerste publicatie
Veelgestelde vragen
Gerelateerde onderwerpen
Gerelateerde artikelen
AI Act voor de Financiële Sector
Banken, verzekeraars en fintechs gebruiken AI voor kredietbeoordeling en risico-inschatting. Deze toepassingen vallen vaak onder hoog-risico en vereisen strenge compliance.
AI Act voor HR: Impact en Compliance
De HR-sector wordt sterk geraakt door de AI Act. AI voor werving, beoordeling en personeelsbeslissingen valt bijna altijd in de hoog-risico categorie.
AI Act voor de Overheid
Overheidsorganisaties hebben extra verplichtingen onder de AI Act. Social scoring is verboden, FRIA's zijn verplicht, en algoritmes moeten worden gepubliceerd in het Algoritmeregister.
AI Act voor Rechtshandhaving & Justitie
Politie, OM en rechtbanken hebben strenge beperkingen voor AI-gebruik. Real-time biometrische identificatie is grotendeels verboden. Predictive policing en risicobeoordeling zijn hoog-risico.