EUAI Act EU

AI Act voor Onderwijs

·4 min leestijd·Hoog risico

Onderwijsinstellingen en EdTech-bedrijven moeten voldoen aan strenge AI Act eisen. AI voor toelating, beoordeling en examentoezicht is hoog-risico. Emotieherkenning bij minderjarigen is verboden.

AI Act impact op onderwijs

De onderwijssector wordt sterk geraakt door de AI Act. Scholen, universiteiten, onderwijsplatforms en EdTech-bedrijven gebruiken steeds vaker AI voor beslissingen die directe impact hebben op studenten en leerlingen.

Annex III categorie 3: Onderwijs en beroepsopleiding

De AI Act noemt expliciet in Annex III categorie 3:

"AI-systemen die bedoeld zijn om te worden gebruikt voor: (a) bepaling van toegang tot onderwijsinstellingen (b) beoordeling van leerresultaten (c) bepaling van passend onderwijsniveau (d) toezicht op examens (proctoring)"

Belangrijk verbod: Emotieherkenning

Volledig verboden onder Artikel 5(1)(f):

AI-systemen voor het afleiden van emoties bij minderjarigen in onderwijsinstellingen zijn verboden.

Dit verbod is ingegaan per 2 februari 2025.

Hoog-risico toepassingen in onderwijs

ToepassingRisico-categorieToelichting
ToelatingsalgoritmesHoogAnnex III 3(a)
Loting met AI-selectieHoogAnnex III 3(a)
Automatische beoordelingHoogAnnex III 3(b)
Adaptieve leersystemenHoogAnnex III 3(c)
Niveau-indeling AIHoogAnnex III 3(c)
Proctoring softwareHoogAnnex III 3(d)
Plagiaat-detectieBeperktTransparantieplicht
EmotieherkenningVerbodenArtikel 5(1)(f)

Verboden in onderwijs

Emotieherkenning bij minderjarigen

Systemen die proberen te detecteren:

  • Stress of angst tijdens examens
  • Aandacht of betrokkenheid in de klas
  • Emotionele staat voor gedragsanalyse

Dit is volledig verboden. Bestaande systemen moeten verwijderd zijn sinds 2 februari 2025.

Praktijkvoorbeeld

Een universiteit gebruikte proctoring software die "verdacht gedrag" detecteerde op basis van oogbewegingen en gezichtsuitdrukkingen. Het emotieherkenningsgedeelte moet worden uitgeschakeld of vervangen door een systeem dat alleen feitelijke afwijkingen registreert (bijv. verlaten van beeld).

Compliance voor onderwijsinstellingen

1. Inventariseer EdTech tools

Breng in kaart welke AI-tools worden gebruikt:

  • Learning Management Systemen (LMS)
  • Proctoring software
  • Adaptieve leerplatforms
  • Beoordelingstools
  • Toelatings- en selectiesystemen

2. Check op verboden toepassingen

Prioriteit 1: Verwijder of pas alle emotieherkenning aan:

  • Gezichtsanalyse voor "betrokkenheid"
  • Stress-detectie
  • Emotie-monitoring

3. Classificeer hoog-risico systemen

Per AI-systeem:

  • Is het een AI-systeem volgens de definitie?
  • Valt het onder Annex III categorie 3?
  • Wie is provider, wie is deployer?

Template: Onderwijs AI-inventarisatie

## EdTech AI Inventarisatie

| Tool | Doel | Emotie-functie? | Provider | Risico | Status |
|------|------|-----------------|----------|--------|--------|
| [NAAM] | [DOEL] | [JA/NEE] | [BEDRIJF] | [H/M/L] | [OK/ACTIE] |

4. Implementeer transparantie

  • Informeer studenten: Welke AI-systemen worden gebruikt
  • Informeer ouders: Bij minderjarige leerlingen
  • Bezwaarmogelijkheid: Studenten kunnen menselijke beoordeling aanvragen

Template: Informatie voor studenten

## AI in ons onderwijs

Bij [INSTELLING] gebruiken wij de volgende AI-systemen:

### Beoordeling
- **[TOOL]**: wordt gebruikt voor [DOEL]
- Docenten valideren alle automatische beoordelingen

### Examentoezicht
- **[TOOL]**: wordt gebruikt voor [DOEL]
- Het systeem detecteert [WAT]
- Je kunt bezwaar maken via [PROCEDURE]

### Jouw rechten
- Je wordt geïnformeerd over AI-gebruik
- Je kunt een volledig menselijke beoordeling aanvragen
- Bij vragen, neem contact op met [CONTACT]

5. Waarborg menselijk toezicht

  • Docenten behouden eindbeslissing: AI adviseert, mens beslist
  • Training: Docenten begrijpen AI-tools en kunnen uitleg geven
  • Escalatie: Procedure voor bezwaar en herbeoordeling

Deadlines voor onderwijs

VerplichtingDeadline
Emotieherkenning verbod2 februari 2025
Hoog-risico compliance2 augustus 2026

Checklist onderwijs AI-compliance

  • EdTech-systemen geïnventariseerd
  • Emotieherkenning verwijderd/uitgeschakeld
  • Risico-classificatie per systeem
  • Provider-compliance geverifieerd
  • Studenten/ouders geïnformeerd
  • Bezwaarprocedure beschikbaar
  • Docenten getraind
  • Menselijk toezicht gewaarborgd
  • Logging en audit trail actief

Bronnen


Changelog:

  • 12 januari 2026 - Eerste publicatie

Veelgestelde vragen

Ja, AI-systemen voor het beoordelen van studenten of bepalen van onderwijsniveau vallen onder Annex III categorie 3 en zijn hoog-risico.
Proctoring software valt onder hoog-risico (Annex III 3.4). Het mag gebruikt worden, maar moet voldoen aan strenge eisen: menselijk toezicht, transparantie en mogelijkheid tot bezwaar.
Nee, emotieherkenning bij minderjarigen in onderwijsinstellingen is volledig verboden onder Artikel 5(1)(f). Dit verbod is ingegaan per 2 februari 2025.

Gerelateerde onderwerpen

onderwijsedtechscholenuniversiteitenhoog-risicosector

Gerelateerde artikelen

AI Act Assistent

Met live web search

Vraag me alles over de AI Act

Ik help je met compliance, risicoclassificatie en meer.

AI-antwoorden kunnen fouten bevatten