De Europese Unie heeft een document gepubliceerd met de gedragscode voor bedrijven die grote algemene AI-modellen bouwen.
De Europese Unie publiceerde gisteren het eerste concept van de gedragscode voor organisaties die algemene AI-modellen trainen. Bedrijven hebben zo richtlijnen om risico’s te beheren en boetes te vermijden. De gepubliceerde tekst is een eerste versie. De regelgeving zal vermoedelijk pas in de lente van 2025 haar finale vorm aannemen.
Gedragscode op vier kerngebieden
De grote lijnen zijn intussen al wel duidelijk. Het document is eerste poging om een gedragscode te bepalen voor bouwers van geavanceerde AI-modellen, die getraind zijn met een rekenkracht van meer dan 10²⁵ FLOP’s. Bedrijven die naar verwachting onder deze richtlijn vallen zijn onder andere OpenAI, Google, Meta, Anthropic en Mistral. De Europese AI Act, die op 1 augustus in werking trad, liet nog ruimte om de gedetailleerde GPAI-regelgeving in de toekomst vast te leggen. Dat is gebeurd, en het document wordt nu gepresenteerd voor feedback en verfijning.
De gedragscode behandelt vier belangrijke gebieden: transparantie (bijvoorbeeld het verstrekken van informatie over gebruikte webcrawlers), naleving van de auteursrechten (bronvermelding bij trainen van AI-modellen), risicobeoordeling (om cybercriminaliteit, discriminatie en verlies van controle te voorkomen) en technische risicobeperkingen (zoals failsafe toegangscontroles en modelgegevensbescherming).
Boetes voor overtredingen kunnen oplopen tot 35 miljoen euro of zeven procent van de jaarlijkse wereldwijde winst. Bedrijven kunnen feedback indienen tot 28 november en het finale document verschijnt in mei 2025.