General Purpose AI: Regels voor Foundation Models
General Purpose AI (GPAI) modellen zoals GPT-4 en Claude krijgen eigen regels onder de AI Act. Modellen met systeemrisico hebben extra verplichtingen.
Wat is General Purpose AI?
General Purpose AI (GPAI) modellen zijn AI-modellen die:
- Significante algemeenheid vertonen
- In staat zijn een breed scala aan taken uit te voeren
- Geïntegreerd kunnen worden in diverse downstream systemen
Beslisregel
Als je een AI-model aanbiedt dat niet voor één specifiek doel is ontworpen maar voor vele taken kan worden ingezet, dan valt dit waarschijnlijk onder de GPAI-regels in Hoofdstuk V.
Voorbeelden van GPAI-modellen
| Model | Provider | Type |
|---|---|---|
| GPT-4 | OpenAI | LLM |
| Claude | Anthropic | LLM |
| Gemini | Multimodaal | |
| Llama | Meta | Open-source LLM |
| Mistral | Mistral AI | LLM |
| Stable Diffusion | Stability AI | Beeldgeneratie |
Twee Categorieën GPAI
1. Standaard GPAI
Alle GPAI-modellen moeten voldoen aan basisverplichtingen.
2. GPAI met Systeemrisico
Modellen die extra risico's vormen voor de samenleving krijgen aanvullende verplichtingen.
Drempel voor systeemrisico:
- Getraind met ≥10^25 FLOP aan rekenkracht, OF
- Door de Commissie aangewezen op basis van criteria zoals:
- Aantal gebruikers
- Mogelijkheden van het model
- Impact op de markt
Praktijkvoorbeeld
GPT-4 is getraind met aanzienlijk meer dan 10^25 FLOP en valt daarom automatisch in de categorie "GPAI met systeemrisico". OpenAI moet voldoen aan alle aanvullende verplichtingen.
Verplichtingen voor Alle GPAI
1. Technische documentatie (Art. 53.1.a)
- Beschrijving van het model
- Trainingsproces en data
- Evaluatieresultaten
2. Informatie voor downstream providers (Art. 53.1.b)
Wie jouw GPAI-model integreert in hun systeem moet voldoende informatie krijgen om:
- De capaciteiten te begrijpen
- Hun eigen verplichtingen na te komen
- Risico's te identificeren
Template: Downstream Provider Documentatie
## GPAI Model Documentatie
### Model Overzicht
- Naam: [MODEL NAAM]
- Versie: [VERSIE]
- Type: [LLM/Multimodaal/etc.]
### Capaciteiten
- Primaire taken: [LIJST]
- Bekende beperkingen: [LIJST]
### Gebruik
- Bedoeld gebruik: [BESCHRIJVING]
- Niet-bedoeld gebruik: [WAARSCHUWINGEN]
### Integratie-instructies
- API documentatie: [LINK]
- Rate limits: [DETAILS]
- Veiligheidsrichtlijnen: [LINK]
3. Beleid voor auteursrechten (Art. 53.1.c)
- Beschrijving van training data
- Naleving auteursrechten
- Opt-out mechanisme respecteren
4. Training data samenvatting (Art. 53.1.d)
Een samenvatting van de trainingsdata volgens template van AI Office.
Extra Verplichtingen bij Systeemrisico
1. Model evaluatie (Art. 55.1.a)
- Uitgebreide testing
- Adversarial testing
- Red teaming
2. Risicobeoordeling en -mitigatie (Art. 55.1.b)
- Identificeer systeemrisico's
- Neem mitigerende maatregelen
- Documenteer beide
3. Incident tracking (Art. 55.1.c)
- Houd ernstige incidenten bij
- Meld aan AI Office
- Neem corrigerende actie
4. Cybersecurity (Art. 55.1.d)
- Adequate bescherming van model en infrastructuur
- Bescherming tegen aanvallen
Template: Systeemrisico Evaluatie
## Systeemrisico Evaluatie [MODEL]
### Geïdentificeerde Risico's
| Risico | Ernst | Waarschijnlijkheid | Mitigatie |
|--------|-------|-------------------|-----------|
| [RISICO] | [H/M/L] | [H/M/L] | [MAATREGEL] |
### Red Team Resultaten
- Datum: [DATUM]
- Team: [INTERN/EXTERN]
- Bevindingen: [SAMENVATTING]
### Incident Log
| Datum | Incident | Impact | Actie |
|-------|----------|--------|-------|
| | | | |
Gedragscodes
De AI Act moedigt gedragscodes aan voor GPAI-providers, inclusief:
- Energie-efficiëntie
- Diversiteit in ontwikkelteams
- Toegankelijkheid
- Betrokkenheid stakeholders
Tijdlijn GPAI Verplichtingen
| Deadline | Verplichting |
|---|---|
| 2 augustus 2025 | Alle GPAI verplichtingen van kracht |
| 2 augustus 2025 | Gedragscodes gepubliceerd |
| Doorlopend | Evaluatie door AI Office |
Checklist GPAI Compliance
Alle GPAI-modellen
- Technische documentatie opgesteld
- Downstream provider informatie beschikbaar
- Auteursrechtenbeleid gedocumenteerd
- Training data samenvatting beschikbaar
GPAI met systeemrisico (extra)
- Uitgebreide model evaluatie uitgevoerd
- Red teaming/adversarial testing gedaan
- Systeemrisico's geïdentificeerd en gemitigeerd
- Incident tracking systeem opgezet
- Cybersecurity maatregelen geïmplementeerd
- Melding aan AI Office gedaan
Bronnen
Changelog:
- 12 januari 2026 - Eerste publicatie
Veelgestelde vragen
Gerelateerde onderwerpen
Gerelateerde artikelen
Transparantie voor Generatieve AI: Labeling en Informatie
AI-gegenereerde content en interacties moeten herkenbaar zijn voor gebruikers. De AI Act stelt specifieke transparantieverplichtingen voor chatbots, deepfakes en AI-content.
AI Act voor Retail & E-commerce
Retail en e-commerce hebben vooral transparantieverplichtingen. Chatbots moeten gelabeld worden, AI-gegenereerde content moet gemarkeerd worden. Let op: buy-now-pay-later is hoog-risico.
AI Act voor Tech & AI-Aanbieders
Softwarebedrijven, AI-startups en foundation model providers hebben uitgebreide verplichtingen als aanbieder. GPAI-modellen hebben specifieke eisen, hoog-risico systemen vereisen conformiteitsbeoordeling.
AI Chatbot voor Klantenservice
AI chatbots en virtuele assistenten hebben transparantieverplichtingen. Gebruikers moeten weten dat ze met AI communiceren.