Transparantie voor Generatieve AI: Labeling en Informatie
AI-gegenereerde content en interacties moeten herkenbaar zijn voor gebruikers. De AI Act stelt specifieke transparantieverplichtingen voor chatbots, deepfakes en AI-content.
Transparantieverplichtingen onder Artikel 50
De AI Act bevat specifieke transparantieverplichtingen voor AI-systemen die met mensen interacteren of content genereren.
Beslisregel
Als je een AI-systeem inzet dat direct met mensen interacteert (chatbot, voice assistant) of content genereert (tekst, beeld, audio, video), dan moet je voldoen aan de transparantieverplichtingen uit Artikel 50.
1. Chatbots en Virtuele Assistenten
Verplichting (Art. 50.1)
Personen moeten worden geïnformeerd dat ze met een AI-systeem interacteren, tenzij dit duidelijk blijkt uit de omstandigheden.
Praktijkvoorbeeld
Een webshop gebruikt een AI-chatbot voor klantenservice. De chatbot moet bij aanvang van het gesprek duidelijk maken dat de gebruiker met AI spreekt, niet met een menselijke medewerker.
Template: Chatbot Disclosure
## Voorbeelden van transparante AI-disclosures
### Optie 1 - Direct
"Hallo! Ik ben een AI-assistent. Hoe kan ik je helpen?"
### Optie 2 - Informatief
"Je spreekt nu met onze virtuele assistent, aangedreven door
kunstmatige intelligentie. Voor contact met een medewerker,
typ 'medewerker'."
### Optie 3 - Visueel
🤖 AI-Assistent
"Welkom! Waarmee kan ik je helpen?"
2. Deepfakes en Synthetische Media
Verplichting (Art. 50.4)
AI-gegenereerde of -gemanipuleerde beeld-, audio- of videocontent (deepfakes) moet worden gelabeld als zodanig.
Wat valt hieronder?
| Content Type | Verplichting |
|---|---|
| AI-gegenereerde afbeeldingen | Labeling verplicht |
| AI-gegenereerde video | Labeling verplicht |
| AI-gegenereerde audio/stemmen | Labeling verplicht |
| Gemanipuleerde beelden (face swap) | Labeling verplicht |
| AI-enhanced foto's (filters) | Context-afhankelijk |
Uitzondering
Labeling is niet verplicht als de content:
- Onderdeel is van een duidelijk artistiek of satirisch werk
- De rechten op vrije meningsuiting niet beperkt
Praktijkvoorbeeld
Een marketingbureau maakt AI-gegenereerde productafbeeldingen. Deze moeten worden gemarkeerd als AI-gegenereerd, zowel in de metadata als visueel herkenbaar voor ontvangers.
3. AI-Gegenereerde Tekst
Verplichting (Art. 50.4)
Tekst die is gepubliceerd met als doel het publiek te informeren over zaken van algemeen belang moet worden gemarkeerd als AI-gegenereerd.
Wanneer wel, wanneer niet?
| Context | Labeling verplicht? |
|---|---|
| Nieuwsartikelen | ✅ Ja |
| Blogposts over actuele zaken | ✅ Ja |
| Product beschrijvingen | ❌ Nee |
| Marketing copy | ❌ Nee |
| Educatieve content over publieke zaken | ✅ Ja |
| Fictie/entertainment | ❌ Nee |
Template: AI Content Label
## Voorbeelden van content labeling
### Voor artikelen
"Dit artikel is geschreven met behulp van kunstmatige
intelligentie en redactioneel geverifieerd."
### Voor afbeeldingen
Alt-tekst: "AI-gegenereerde afbeelding van [onderwerp]"
Caption: "Afbeelding: AI-gegenereerd"
### Metadata (machineleesbaar)
<meta name="ai-generated" content="true">
<meta name="ai-generator" content="[tool/model]">
4. Emotieherkenning en Biometrische Categorisatie
Verplichting (Art. 50.3)
Bij gebruik van emotieherkenning of biometrische categorisatie moeten betrokkenen worden geïnformeerd over de werking van het systeem.
Let op: Emotieherkenning op de werkplek en in onderwijs is verboden! Deze verplichting geldt alleen voor toegestane contexten.
Technische Implementatie
Machineleesbare Labeling
De AI Act vereist dat synthetische content wordt gemarkeerd in een machineleesbaar formaat. Opties:
- Metadata embedding (EXIF, XMP voor afbeeldingen)
- Watermarking (onzichtbaar in content)
- C2PA standaard (Content Credentials)
- Blockchain verificatie
Template: Technische Labeling
// Voorbeeld metadata voor AI-gegenereerde afbeelding
{
"contentCredentials": {
"aiGenerated": true,
"generator": "DALL-E 3",
"generationDate": "2026-01-12",
"prompt": "[indien gepubliceerd]"
}
}
Checklist Transparantie Compliance
Voor chatbots/assistenten
- Disclosure bij start van interactie
- Duidelijke visuele indicatie (icoon/label)
- Optie om menselijke medewerker te bereiken
Voor gegenereerde content
- Machineleesbare metadata toegevoegd
- Visueel label waar van toepassing
- Documentatie van generatieproces
Voor deepfakes/synthetische media
- Duidelijke labeling als AI-gegenereerd
- Watermarking/content credentials
- Bewaar generatie-informatie
Bronnen
- AI Act Artikel 50 - Transparantieverplichtingen
- C2PA - Content Authenticity Initiative
- Coalition for Content Provenance and Authenticity
Changelog:
- 12 januari 2026 - Eerste publicatie
Veelgestelde vragen
Gerelateerde onderwerpen
Gerelateerde artikelen
AI Act voor Retail & E-commerce
Retail en e-commerce hebben vooral transparantieverplichtingen. Chatbots moeten gelabeld worden, AI-gegenereerde content moet gemarkeerd worden. Let op: buy-now-pay-later is hoog-risico.
Europese Commissie Finaliseert AI-Content Markeringsregels: Tweede Ontwerp Gedragscode Introduceert Verplichte Watermerken tegen Deepfakes
De Europese Commissie heeft op 5 maart 2026 het tweede ontwerp van de Gedragscode voor AI-content markering gepubliceerd, met focus op watermerken en metadata tegen deepfakes.
Europees Ombudsman Lanceert Grootschalig Onderzoek naar AI-Waarborgen binnen EU-Instellingen
De Europese Ombudsman heeft op 17 februari 2026 een onderzoek aangekondigd naar AI-waarborgen binnen EU-instellingen om compliance met de AI Act te waarborgen.
Digital Markets Act Dwingt Google tot Volledige AI-Transparantie: Gemini-Functies Moeten Openbaar
De Europese Commissie start twee formele DMA-procedures tegen Google die verplichte openheid van AI-functies en zoekdata afdwingen. Dit markeert een cruciale stap naar AI-transparantie in de EU.