EU-kommissionen lanserar ny AI-uppförandekod

Författare:

|

Datum:

|

EU-kommissionen publicerade den 10 juli den försenade uppförandekoden för AI för allmänna ändamål. Den skulle ursprungligen offentliggöras i början av maj. Uppförandekoden utgör ett frivilligt verktyg för företag som utvecklar vissa typer av AI-system. 

Företag som ansluter sig till koden minskar sin administrativa börda. De behöver inte upprätta lika mycket dokumentation som bevisar att de lever upp till kraven som AI-förordningen ställer på deras AI-system. 

Dokumentet har tagits fram av 13 oberoende experter, som har bearbetat synpunkter från över 1000 olika intressenter, däribland företag som levererar AI-system, små och medelstora företag, ideella organisationer, forskare samt rättighetsinnehavare.

Uppförandekoden träder i kraft den 2 augusti. Reglerna kommer att vara tillämpliga på nya AI-modeller inom ett år, medan befintliga system måste uppfylla kraven inom två år. Enligt EU-kommissionen är målsättningen att AI för allmänna ändamål som introduceras på marknaden ska präglas av hög säkerhet och transparens, vilket även omfattar de mest avancerade AI-modellerna.

Vad är AI för allmänna ändamål?

Ett AI-system för allmänna ändamål kan förklaras som ett system som inte är begränsat till ett specifikt användningsområde. Ett exempel på ett avgränsat användningsområde är en AI som endast används inom vården för att transkribera samtal mellan läkare och patient.

Språkmodellen bakom ChatGPT klassificeras som en AI för allmänna ändamål. Den är en AI som är tänkt att kunna hjälpa individer med många olika frågor. Det är också möjligt för företag, såsom flygbolag, att integrera en sådan AI i sina system för att lösa en rad olika uppgifter. De kan till exempel koppla den till sina interna system för att bistå kunder med resebokningar eller informationssökning. Vidare kan denna typ av AI implementeras i e-postprogram eller ordbehandlingsverktyg, något som exempelvis Microsoft har gjort med Co-pilot. 

Vad innehåller uppförandekoden?

Koden är uppdelad i tre kapitel: Transparens och Upphovsrätt, som gäller för alla leverantörer av generella AI-modeller, samt Säkerhet och Trygghet, vilket endast gäller för en utvald grupp leverantörer som erbjuder de mest avancerade modellerna.

AI-förordningen kräver att företag som utvecklar AI för allmänna ändamål ska vara transparenta, följa upphovsrättsregler och hantera säkerhetsrisker. Transparenskapitlet innehåller dokumentationsmaterial som underlättar för företag att rapportera sitt arbete med transparenskraven. Kapitlet om upphovsrätt beskriver praktiska åtgärder för att uppfylla EU:s upphovsrättsbestämmelser.

Kapitlet om säkerhet och trygghet behandlar hur företag bör hantera så kallade systemrisker. Begreppet ”system” avser här inte enbart IT-system, utan inkluderar även samhällssystemet i stort. Systemrisker omfattar exempelvis hot som desinformation, som kan undergräva förtroendet för samhället, samt risker mot människors liv, hälsa och mänskliga rättigheter. Konkret handlar det om risken för att en chattbot ger vägledning om hur man begår självmord, tillverkar bomber och vapen, eller att den bistår människor att begå brott. AI i förordningen kräver att företagen identifierar och åtgärder dessa systemrisker. 

Vad händer nu?

EU-kommissionen och medlemsstaterna måste först godkänna uppförandekoden. Företag som väljer att skriva under kan visa att de följer AI-förordningen, vilket ger dem mindre administration och ökad juridisk förutsebarhet. De antas nämligen uppfylla sina juridiska skyldigheter enligt AI-förordningen till motsatsen bevisats. 

Kontroverser kring uppförandekoden

IAPP (International Association of Privacy Professionals) rapporterar att arbetet med uppförandekoden har mött kritik från flera håll. Företrädare för industrin anser att kraven är alltför omfattande, medan ideella organisationer och förespråkare för AI-säkerhet menar att kraven har blivit för urvattnade.

Forum för Dataskydd rapporterade i juni att två ideella organisationer som granskar EU-lobbyister anklagade EU-kommissionen för att gynna teknikföretag framför andra intressegrupper vid framtagandet av uppförandekoden.

IAPP redogör för att en grupp EU-parlamentariker, kritiserar kommissionen för att i ett sent skede ha godkänt borttagandet av vissa krav gällande transparens. Vidare anser de att kraven på riskbedömningar och motsvarande åtgärder har försvagats.

Läs mer

General-Purpose AI Code of Practice now available, pressmeddelande från EU-kommissionen, 10 juli 2025

European Commission receives final version of General-Purpose AI Code of Practice | IAPP, 10 juli 2025

AI-förordningen kan försenas, Forum för Dataskydd, 13 juni 2025