EUAI Act EU

Transparantie voor Generatieve AI: Labeling en Informatie

·4 min leestijd·Beperkt risico

AI-gegenereerde content en interacties moeten herkenbaar zijn voor gebruikers. De AI Act stelt specifieke transparantieverplichtingen voor chatbots, deepfakes en AI-content.

Transparantieverplichtingen onder Artikel 50

De AI Act bevat specifieke transparantieverplichtingen voor AI-systemen die met mensen interacteren of content genereren.

Beslisregel

Als je een AI-systeem inzet dat direct met mensen interacteert (chatbot, voice assistant) of content genereert (tekst, beeld, audio, video), dan moet je voldoen aan de transparantieverplichtingen uit Artikel 50.

1. Chatbots en Virtuele Assistenten

Verplichting (Art. 50.1)

Personen moeten worden geïnformeerd dat ze met een AI-systeem interacteren, tenzij dit duidelijk blijkt uit de omstandigheden.

Praktijkvoorbeeld

Een webshop gebruikt een AI-chatbot voor klantenservice. De chatbot moet bij aanvang van het gesprek duidelijk maken dat de gebruiker met AI spreekt, niet met een menselijke medewerker.

Template: Chatbot Disclosure

## Voorbeelden van transparante AI-disclosures

### Optie 1 - Direct
"Hallo! Ik ben een AI-assistent. Hoe kan ik je helpen?"

### Optie 2 - Informatief
"Je spreekt nu met onze virtuele assistent, aangedreven door
kunstmatige intelligentie. Voor contact met een medewerker,
typ 'medewerker'."

### Optie 3 - Visueel
🤖 AI-Assistent
"Welkom! Waarmee kan ik je helpen?"

2. Deepfakes en Synthetische Media

Verplichting (Art. 50.4)

AI-gegenereerde of -gemanipuleerde beeld-, audio- of videocontent (deepfakes) moet worden gelabeld als zodanig.

Wat valt hieronder?

Content TypeVerplichting
AI-gegenereerde afbeeldingenLabeling verplicht
AI-gegenereerde videoLabeling verplicht
AI-gegenereerde audio/stemmenLabeling verplicht
Gemanipuleerde beelden (face swap)Labeling verplicht
AI-enhanced foto's (filters)Context-afhankelijk

Uitzondering

Labeling is niet verplicht als de content:

  • Onderdeel is van een duidelijk artistiek of satirisch werk
  • De rechten op vrije meningsuiting niet beperkt

Praktijkvoorbeeld

Een marketingbureau maakt AI-gegenereerde productafbeeldingen. Deze moeten worden gemarkeerd als AI-gegenereerd, zowel in de metadata als visueel herkenbaar voor ontvangers.

3. AI-Gegenereerde Tekst

Verplichting (Art. 50.4)

Tekst die is gepubliceerd met als doel het publiek te informeren over zaken van algemeen belang moet worden gemarkeerd als AI-gegenereerd.

Wanneer wel, wanneer niet?

ContextLabeling verplicht?
Nieuwsartikelen✅ Ja
Blogposts over actuele zaken✅ Ja
Product beschrijvingen❌ Nee
Marketing copy❌ Nee
Educatieve content over publieke zaken✅ Ja
Fictie/entertainment❌ Nee

Template: AI Content Label

## Voorbeelden van content labeling

### Voor artikelen
"Dit artikel is geschreven met behulp van kunstmatige
intelligentie en redactioneel geverifieerd."

### Voor afbeeldingen
Alt-tekst: "AI-gegenereerde afbeelding van [onderwerp]"
Caption: "Afbeelding: AI-gegenereerd"

### Metadata (machineleesbaar)
<meta name="ai-generated" content="true">
<meta name="ai-generator" content="[tool/model]">

4. Emotieherkenning en Biometrische Categorisatie

Verplichting (Art. 50.3)

Bij gebruik van emotieherkenning of biometrische categorisatie moeten betrokkenen worden geïnformeerd over de werking van het systeem.

Let op: Emotieherkenning op de werkplek en in onderwijs is verboden! Deze verplichting geldt alleen voor toegestane contexten.

Technische Implementatie

Machineleesbare Labeling

De AI Act vereist dat synthetische content wordt gemarkeerd in een machineleesbaar formaat. Opties:

  1. Metadata embedding (EXIF, XMP voor afbeeldingen)
  2. Watermarking (onzichtbaar in content)
  3. C2PA standaard (Content Credentials)
  4. Blockchain verificatie

Template: Technische Labeling

// Voorbeeld metadata voor AI-gegenereerde afbeelding
{
  "contentCredentials": {
    "aiGenerated": true,
    "generator": "DALL-E 3",
    "generationDate": "2026-01-12",
    "prompt": "[indien gepubliceerd]"
  }
}

Checklist Transparantie Compliance

Voor chatbots/assistenten

  • Disclosure bij start van interactie
  • Duidelijke visuele indicatie (icoon/label)
  • Optie om menselijke medewerker te bereiken

Voor gegenereerde content

  • Machineleesbare metadata toegevoegd
  • Visueel label waar van toepassing
  • Documentatie van generatieproces

Voor deepfakes/synthetische media

  • Duidelijke labeling als AI-gegenereerd
  • Watermarking/content credentials
  • Bewaar generatie-informatie

Bronnen


Changelog:

  • 12 januari 2026 - Eerste publicatie

Veelgestelde vragen

Ja. Personen die interacteren met een AI-systeem moeten worden geïnformeerd dat ze met AI te maken hebben, tenzij dit duidelijk blijkt uit de context.
AI-gegenereerde of -gemanipuleerde content moet worden gemarkeerd in een machineleesbaar formaat én herkenbaar zijn voor ontvangers.
Ja, tekst die wordt gepubliceerd om het publiek te informeren over zaken van algemeen belang moet worden gelabeld als AI-gegenereerd.

Gerelateerde onderwerpen

transparantiegeneratieve-aideepfakeslabelingchatbotsartikel-50

Gerelateerde artikelen

AI Act Assistent

Met live web search

Vraag me alles over de AI Act

Ik help je met compliance, risicoclassificatie en meer.

AI-antwoorden kunnen fouten bevatten