EUAI Act EU

General Purpose AI: Regels voor Foundation Models

·4 min leestijd

General Purpose AI (GPAI) modellen zoals GPT-4 en Claude krijgen eigen regels onder de AI Act. Modellen met systeemrisico hebben extra verplichtingen.

Wat is General Purpose AI?

General Purpose AI (GPAI) modellen zijn AI-modellen die:

  1. Significante algemeenheid vertonen
  2. In staat zijn een breed scala aan taken uit te voeren
  3. Geïntegreerd kunnen worden in diverse downstream systemen

Beslisregel

Als je een AI-model aanbiedt dat niet voor één specifiek doel is ontworpen maar voor vele taken kan worden ingezet, dan valt dit waarschijnlijk onder de GPAI-regels in Hoofdstuk V.

Voorbeelden van GPAI-modellen

ModelProviderType
GPT-4OpenAILLM
ClaudeAnthropicLLM
GeminiGoogleMultimodaal
LlamaMetaOpen-source LLM
MistralMistral AILLM
Stable DiffusionStability AIBeeldgeneratie

Twee Categorieën GPAI

1. Standaard GPAI

Alle GPAI-modellen moeten voldoen aan basisverplichtingen.

2. GPAI met Systeemrisico

Modellen die extra risico's vormen voor de samenleving krijgen aanvullende verplichtingen.

Drempel voor systeemrisico:

  • Getraind met ≥10^25 FLOP aan rekenkracht, OF
  • Door de Commissie aangewezen op basis van criteria zoals:
    • Aantal gebruikers
    • Mogelijkheden van het model
    • Impact op de markt

Praktijkvoorbeeld

GPT-4 is getraind met aanzienlijk meer dan 10^25 FLOP en valt daarom automatisch in de categorie "GPAI met systeemrisico". OpenAI moet voldoen aan alle aanvullende verplichtingen.

Verplichtingen voor Alle GPAI

1. Technische documentatie (Art. 53.1.a)

  • Beschrijving van het model
  • Trainingsproces en data
  • Evaluatieresultaten

2. Informatie voor downstream providers (Art. 53.1.b)

Wie jouw GPAI-model integreert in hun systeem moet voldoende informatie krijgen om:

  • De capaciteiten te begrijpen
  • Hun eigen verplichtingen na te komen
  • Risico's te identificeren

Template: Downstream Provider Documentatie

## GPAI Model Documentatie

### Model Overzicht
- Naam: [MODEL NAAM]
- Versie: [VERSIE]
- Type: [LLM/Multimodaal/etc.]

### Capaciteiten
- Primaire taken: [LIJST]
- Bekende beperkingen: [LIJST]

### Gebruik
- Bedoeld gebruik: [BESCHRIJVING]
- Niet-bedoeld gebruik: [WAARSCHUWINGEN]

### Integratie-instructies
- API documentatie: [LINK]
- Rate limits: [DETAILS]
- Veiligheidsrichtlijnen: [LINK]

3. Beleid voor auteursrechten (Art. 53.1.c)

  • Beschrijving van training data
  • Naleving auteursrechten
  • Opt-out mechanisme respecteren

4. Training data samenvatting (Art. 53.1.d)

Een samenvatting van de trainingsdata volgens template van AI Office.

Extra Verplichtingen bij Systeemrisico

1. Model evaluatie (Art. 55.1.a)

  • Uitgebreide testing
  • Adversarial testing
  • Red teaming

2. Risicobeoordeling en -mitigatie (Art. 55.1.b)

  • Identificeer systeemrisico's
  • Neem mitigerende maatregelen
  • Documenteer beide

3. Incident tracking (Art. 55.1.c)

  • Houd ernstige incidenten bij
  • Meld aan AI Office
  • Neem corrigerende actie

4. Cybersecurity (Art. 55.1.d)

  • Adequate bescherming van model en infrastructuur
  • Bescherming tegen aanvallen

Template: Systeemrisico Evaluatie

## Systeemrisico Evaluatie [MODEL]

### Geïdentificeerde Risico's

| Risico | Ernst | Waarschijnlijkheid | Mitigatie |
|--------|-------|-------------------|-----------|
| [RISICO] | [H/M/L] | [H/M/L] | [MAATREGEL] |

### Red Team Resultaten
- Datum: [DATUM]
- Team: [INTERN/EXTERN]
- Bevindingen: [SAMENVATTING]

### Incident Log
| Datum | Incident | Impact | Actie |
|-------|----------|--------|-------|
| | | | |

Gedragscodes

De AI Act moedigt gedragscodes aan voor GPAI-providers, inclusief:

  • Energie-efficiëntie
  • Diversiteit in ontwikkelteams
  • Toegankelijkheid
  • Betrokkenheid stakeholders

Tijdlijn GPAI Verplichtingen

DeadlineVerplichting
2 augustus 2025Alle GPAI verplichtingen van kracht
2 augustus 2025Gedragscodes gepubliceerd
DoorlopendEvaluatie door AI Office

Checklist GPAI Compliance

Alle GPAI-modellen

  • Technische documentatie opgesteld
  • Downstream provider informatie beschikbaar
  • Auteursrechtenbeleid gedocumenteerd
  • Training data samenvatting beschikbaar

GPAI met systeemrisico (extra)

  • Uitgebreide model evaluatie uitgevoerd
  • Red teaming/adversarial testing gedaan
  • Systeemrisico's geïdentificeerd en gemitigeerd
  • Incident tracking systeem opgezet
  • Cybersecurity maatregelen geïmplementeerd
  • Melding aan AI Office gedaan

Bronnen


Changelog:

  • 12 januari 2026 - Eerste publicatie

Veelgestelde vragen

AI-modellen die voor veel verschillende taken kunnen worden ingezet, niet specifiek ontworpen voor één doel. Denk aan LLMs zoals GPT-4, Claude, Gemini.
GPT-4 (het onderliggende model) is een GPAI-model. ChatGPT als product is een toepassing die dit model gebruikt.
Als het model is getraind met meer dan 10^25 FLOP aan rekenkracht, of als de Commissie dit bepaalt op basis van andere criteria.

Gerelateerde onderwerpen

gpaifoundation-modelsllmsysteemrisicotransparantiechatgpt

Gerelateerde artikelen

AI Act Assistent

Met live web search

Vraag me alles over de AI Act

Ik help je met compliance, risicoclassificatie en meer.

AI-antwoorden kunnen fouten bevatten