Transparantie voor Generatieve AI: Labeling en Informatie
AI-gegenereerde content en interacties moeten herkenbaar zijn voor gebruikers. De AI Act stelt specifieke transparantieverplichtingen voor chatbots, deepfakes en AI-content.
Transparantieverplichtingen onder Artikel 50
De AI Act bevat specifieke transparantieverplichtingen voor AI-systemen die met mensen interacteren of content genereren.
Beslisregel
Als je een AI-systeem inzet dat direct met mensen interacteert (chatbot, voice assistant) of content genereert (tekst, beeld, audio, video), dan moet je voldoen aan de transparantieverplichtingen uit Artikel 50.
1. Chatbots en Virtuele Assistenten
Verplichting (Art. 50.1)
Personen moeten worden geïnformeerd dat ze met een AI-systeem interacteren, tenzij dit duidelijk blijkt uit de omstandigheden.
Praktijkvoorbeeld
Een webshop gebruikt een AI-chatbot voor klantenservice. De chatbot moet bij aanvang van het gesprek duidelijk maken dat de gebruiker met AI spreekt, niet met een menselijke medewerker.
Template: Chatbot Disclosure
## Voorbeelden van transparante AI-disclosures
### Optie 1 - Direct
"Hallo! Ik ben een AI-assistent. Hoe kan ik je helpen?"
### Optie 2 - Informatief
"Je spreekt nu met onze virtuele assistent, aangedreven door
kunstmatige intelligentie. Voor contact met een medewerker,
typ 'medewerker'."
### Optie 3 - Visueel
🤖 AI-Assistent
"Welkom! Waarmee kan ik je helpen?"
2. Deepfakes en Synthetische Media
Verplichting (Art. 50.4)
AI-gegenereerde of -gemanipuleerde beeld-, audio- of videocontent (deepfakes) moet worden gelabeld als zodanig.
Wat valt hieronder?
| Content Type | Verplichting |
|---|---|
| AI-gegenereerde afbeeldingen | Labeling verplicht |
| AI-gegenereerde video | Labeling verplicht |
| AI-gegenereerde audio/stemmen | Labeling verplicht |
| Gemanipuleerde beelden (face swap) | Labeling verplicht |
| AI-enhanced foto's (filters) | Context-afhankelijk |
Uitzondering
Labeling is niet verplicht als de content:
- Onderdeel is van een duidelijk artistiek of satirisch werk
- De rechten op vrije meningsuiting niet beperkt
Praktijkvoorbeeld
Een marketingbureau maakt AI-gegenereerde productafbeeldingen. Deze moeten worden gemarkeerd als AI-gegenereerd, zowel in de metadata als visueel herkenbaar voor ontvangers.
3. AI-Gegenereerde Tekst
Verplichting (Art. 50.4)
Tekst die is gepubliceerd met als doel het publiek te informeren over zaken van algemeen belang moet worden gemarkeerd als AI-gegenereerd.
Wanneer wel, wanneer niet?
| Context | Labeling verplicht? |
|---|---|
| Nieuwsartikelen | ✅ Ja |
| Blogposts over actuele zaken | ✅ Ja |
| Product beschrijvingen | ❌ Nee |
| Marketing copy | ❌ Nee |
| Educatieve content over publieke zaken | ✅ Ja |
| Fictie/entertainment | ❌ Nee |
Template: AI Content Label
## Voorbeelden van content labeling
### Voor artikelen
"Dit artikel is geschreven met behulp van kunstmatige
intelligentie en redactioneel geverifieerd."
### Voor afbeeldingen
Alt-tekst: "AI-gegenereerde afbeelding van [onderwerp]"
Caption: "Afbeelding: AI-gegenereerd"
### Metadata (machineleesbaar)
<meta name="ai-generated" content="true">
<meta name="ai-generator" content="[tool/model]">
4. Emotieherkenning en Biometrische Categorisatie
Verplichting (Art. 50.3)
Bij gebruik van emotieherkenning of biometrische categorisatie moeten betrokkenen worden geïnformeerd over de werking van het systeem.
Let op: Emotieherkenning op de werkplek en in onderwijs is verboden! Deze verplichting geldt alleen voor toegestane contexten.
Technische Implementatie
Machineleesbare Labeling
De AI Act vereist dat synthetische content wordt gemarkeerd in een machineleesbaar formaat. Opties:
- Metadata embedding (EXIF, XMP voor afbeeldingen)
- Watermarking (onzichtbaar in content)
- C2PA standaard (Content Credentials)
- Blockchain verificatie
Template: Technische Labeling
// Voorbeeld metadata voor AI-gegenereerde afbeelding
{
"contentCredentials": {
"aiGenerated": true,
"generator": "DALL-E 3",
"generationDate": "2026-01-12",
"prompt": "[indien gepubliceerd]"
}
}
Checklist Transparantie Compliance
Voor chatbots/assistenten
- Disclosure bij start van interactie
- Duidelijke visuele indicatie (icoon/label)
- Optie om menselijke medewerker te bereiken
Voor gegenereerde content
- Machineleesbare metadata toegevoegd
- Visueel label waar van toepassing
- Documentatie van generatieproces
Voor deepfakes/synthetische media
- Duidelijke labeling als AI-gegenereerd
- Watermarking/content credentials
- Bewaar generatie-informatie
Bronnen
- AI Act Artikel 50 - Transparantieverplichtingen
- C2PA - Content Authenticity Initiative
- Coalition for Content Provenance and Authenticity
Changelog:
- 12 januari 2026 - Eerste publicatie
Veelgestelde vragen
Gerelateerde onderwerpen
Gerelateerde artikelen
AI Act voor Retail & E-commerce
Retail en e-commerce hebben vooral transparantieverplichtingen. Chatbots moeten gelabeld worden, AI-gegenereerde content moet gemarkeerd worden. Let op: buy-now-pay-later is hoog-risico.
General Purpose AI: Regels voor Foundation Models
General Purpose AI (GPAI) modellen zoals GPT-4 en Claude krijgen eigen regels onder de AI Act. Modellen met systeemrisico hebben extra verplichtingen.
AI Chatbot voor Klantenservice
AI chatbots en virtuele assistenten hebben transparantieverplichtingen. Gebruikers moeten weten dat ze met AI communiceren.
Transparantie Verklaring Template
Informeer gebruikers over je AI-systeem met deze transparantieverklaring. Geschikt voor websites, apps en productdocumentatie.