Transparantie Verklaring Template
Informeer gebruikers over je AI-systeem met deze transparantieverklaring. Geschikt voor websites, apps en productdocumentatie.
Wanneer gebruiken?
De AI Act vereist transparantie in verschillende situaties:
| Situatie | Verplichting |
|---|---|
| Chatbot / virtuele assistent | Melden dat gebruiker met AI communiceert |
| Emotieherkenning | Personen informeren dat emoties worden geanalyseerd |
| Biometrische categorisatie | Personen informeren over categorisatie |
| Deep fakes / synthetische content | Labelen dat content AI-gegenereerd is |
| Hoog-risico AI | Gebruiksinstructies en informatie over beperkingen |
Template: Transparantieverklaring
# AI Transparantieverklaring
## Dit systeem gebruikt kunstmatige intelligentie
[Bedrijfsnaam] maakt gebruik van AI-technologie in [productnaam/dienst].
Hieronder leggen we uit hoe dit werkt en wat dit voor u betekent.
---
## Wat doet de AI?
**Functie:** [Beschrijf wat de AI doet in begrijpelijke taal]
Bijvoorbeeld:
- "Deze chatbot beantwoordt uw vragen met behulp van kunstmatige intelligentie"
- "Ons systeem analyseert uw gegevens om gepersonaliseerde aanbevelingen te doen"
- "Deze afbeelding is gegenereerd met AI-technologie"
---
## Hoe werkt het?
[Leg in eenvoudige termen uit hoe het systeem werkt]
Het systeem:
- [Verwerkt deze input: ...]
- [Gebruikt deze technologie: ...]
- [Genereert deze output: ...]
---
## Wat zijn de beperkingen?
Dit AI-systeem:
⚠️ **Kan fouten maken** - De output is niet altijd 100% accuraat
⚠️ **Is geen vervanging voor** - [professioneel advies/menselijke beoordeling/etc.]
⚠️ **Werkt het beste bij** - [beschrijf optimale gebruiksomstandigheden]
⚠️ **Werkt minder goed bij** - [beschrijf bekende beperkingen]
---
## Uw gegevens
**Welke gegevens worden verwerkt:**
- [Lijst van datatypen]
**Hoe worden uw gegevens gebruikt:**
- [Beschrijving van datagebruik]
**Worden uw gegevens gebruikt voor training:**
- [ ] Ja / [ ] Nee
- [Indien ja: hoe kunt u dit weigeren?]
Voor meer informatie, zie onze [Privacyverklaring](link).
---
## Menselijk toezicht
[Beschrijf hoe menselijk toezicht is georganiseerd]
- [ ] Beslissingen worden altijd door een mens gecontroleerd
- [ ] U kunt menselijke review aanvragen
- [ ] Bij twijfel wordt een mens ingeschakeld
---
## Contact
Vragen over ons gebruik van AI? Neem contact op:
- Email: [email@bedrijf.nl]
- Telefoon: [nummer]
- Formulier: [link]
---
## Updates
Deze verklaring is voor het laatst bijgewerkt op: [datum]
Wij kunnen deze verklaring aanpassen. Significante wijzigingen
worden gecommuniceerd via [kanaal].
---
*[Bedrijfsnaam] is gevestigd in [land] en valt onder de EU AI Act.*
Varianten per situatie
Voor chatbots
🤖 **U spreekt met een AI-assistent**
Deze chatbot gebruikt kunstmatige intelligentie om uw vragen te beantwoorden.
De antwoorden worden automatisch gegenereerd en kunnen fouten bevatten.
Voor complexe vragen of klachten kunt u contact opnemen met een medewerker
via [kanaal].
Voor synthetische content
🎨 **AI-gegenereerde content**
Deze [afbeelding/video/audio/tekst] is geheel of gedeeltelijk
gegenereerd met kunstmatige intelligentie.
Gegenereerd met: [Tool/Model naam]
Datum: [Datum van generatie]
Voor aanbevelingssystemen
💡 **Gepersonaliseerde aanbevelingen**
Deze aanbevelingen zijn samengesteld door een AI-systeem op basis van:
- Uw eerdere aankopen/weergaven
- Vergelijkbare gebruikers
- [Andere factoren]
U kunt uw voorkeuren aanpassen in [instellingen].
Tips
- Gebruik begrijpelijke taal - vermijd jargon
- Wees eerlijk over beperkingen - overpromise niet
- Maak het vindbaar - verstop de verklaring niet
- Houd het actueel - update bij wijzigingen
- Test met echte gebruikers - is het begrijpelijk?
Bronnen
Changelog:
- 12 januari 2026 - Eerste publicatie
Veelgestelde vragen
Gerelateerde onderwerpen
Gerelateerde artikelen
Europees Ombudsman Lanceert Grootschalig Onderzoek naar AI-Waarborgen binnen EU-Instellingen
De Europese Ombudsman heeft op 17 februari 2026 een onderzoek aangekondigd naar AI-waarborgen binnen EU-instellingen om compliance met de AI Act te waarborgen.
Digital Markets Act Dwingt Google tot Volledige AI-Transparantie: Gemini-Functies Moeten Openbaar
De Europese Commissie start twee formele DMA-procedures tegen Google die verplichte openheid van AI-functies en zoekdata afdwingen. Dit markeert een cruciale stap naar AI-transparantie in de EU.
EU Code of Practice voor AI-Content Transparantie: Vrijwillige Richtlijnen Tegen Misleiding
De Europese Unie ontwikkelt een vrijwillige Code of Practice om aanbieders van generatieve AI te helpen bij transparante labeling van AI-gegenereerde content. Deze richtlijnen ondersteunen naleving van artikel 50 van de AI Act en moeten augustus 2026 operationeel zijn.
EU Ontwikkelt Vrijwillige Code of Practice voor Transparantie AI-Gegenereerde Content
De Europese Unie werkt aan een vrijwillige Code of Practice voor transparantie rond AI-gegenereerde content om bedrijven te helpen voldoen aan artikel 50 verplichtingen. De maatregelen moeten uiterlijk augustus 2026 operationeel zijn.