Publicerad den: 13 februari 2025 / Uppdaterad den: 13 februari 2025 – Författare: Konrad Wolfenstein

AI-system, högrisksystem och AI-lagen för praktisk tillämpning i företag och myndigheter – Bild: Xpert.Digital
EU:s AI-lag: Nya riktlinjer från EU-kommissionen – Vad företag behöver veta nu
AI-system, högriskapplikationer och AI-lagen i företag och myndigheter
Den 11 februari 2025 publicerade Europeiska kommissionen omfattande riktlinjer för det praktiska genomförandet av EU:s AI-lag. Dessa riktlinjer är avsedda att hjälpa företag och myndigheter att bättre förstå och följa lagens krav. Särskild vikt läggs vid förbjudna AI-metoder, högrisksystem och åtgärder för att säkerställa efterlevnad.
Viktiga aspekter av riktlinjerna
Förbjudna AI-metoder
AI-lagen förbjuder uttryckligen vissa AI-tillämpningar som anses utgöra oacceptabelt höga risker. Dessa förbud har varit i kraft sedan den 2 februari 2025. De inkluderar bland annat:
- AI-system som använder manipulativa eller vilseledande tekniker
- System som specifikt utnyttjar sårbarheterna hos vissa individer eller grupper
- Sociala poängsystem
- AI kan förutsäga potentiella kriminella handlingar utan tydliga bevis
- Okontrollerad skrapning av ansiktsbilder från internet för biometrisk identifiering
- System för känsloigenkänning på arbetsplatsen eller i utbildningsinstitutioner
- Biometriska system för identifiering i realtid i offentliga utrymmen (med några få undantag för brottsbekämpande myndigheter)
Dessa förbud är avsedda att säkerställa att AI-teknik används etiskt och ansvarsfullt och inte kränker grundläggande rättigheter.
Praktisk tillämpning av riktlinjerna
Europeiska kommissionens 140-sidiga riktlinjer innehåller ett flertal praktiska fallstudier som hjälper företag och myndigheter att korrekt klassificera sina AI-system. Även om dessa riktlinjer inte är rättsligt bindande, fungerar de som en referens för tillsynsmyndigheter vid övervakning och tillämpning av regler.
Betydelse för företag och myndigheter
Företag och myndigheter måste aktivt arbeta med riktlinjerna för att:
- att granska era befintliga AI-system för potentiella överträdelser
- För att göra nödvändiga justeringar tidigt
- Att bygga interna efterlevnadsstrukturer för att undvika påföljder
Underlåtenhet att följa reglerna kan få allvarliga konsekvenser. Sanktioner kan uppgå till upp till 35 miljoner euro eller 7 % av ett företags globala årsomsättning, beroende på vilket som är högst.
Nästa steg
Innan riktlinjerna kan implementeras fullt ut måste de fortfarande översättas till alla officiella EU-språk och antas formellt. Företag och myndigheter bör dock proaktivt vidta åtgärder för att förbereda sig för det stegvisa införandet av AI-lagen. Lagens fullständiga tillämpning är planerad till den 2 augusti 2026.
Riskkategorisering av AI-system
EU:s AI-lag delar in AI-system i fyra riskklasser, var och en med olika regleringskrav:
1. Oacceptabel risk – Förbjudna AI-system
Dessa system är helt förbjudna i EU eftersom de utgör ett betydande hot mot medborgarnas rättigheter och friheter. Exempel är:
- AI-system för social poängsättning
- Manipulativ AI som omedvetet påverkar användarbeteende
- Biometrisk identifiering i realtid på offentliga platser för brottsbekämpande ändamål (med några få undantag)
- AI-system som utnyttjar sårbarheter på grund av ålder, funktionsnedsättning eller socioekonomisk status
2. Hög risk – strikt reglering krävs
Dessa system måste uppfylla strikta krav och genomgå överensstämmelseprovning innan de får släppas ut på marknaden. De inkluderar:
- AI som säkerhetskomponent i kritiska produkter som medicintekniska produkter, fordon eller maskiner
- Fristående AI-system med konsekvenser för grundläggande rättigheter (t.ex. kreditprövning, granskning av ansökningar, brottsbekämpning, rättslig administration)
Dessa applikationer är föremål för omfattande krav gällande transparens, riskhantering, datakvalitet och mänsklig tillsyn.
3. Begränsad risk – transparensskyldigheter
Dessa system måste informera användarna om att de interagerar med AI. Exempel inkluderar:
- Chatbotar
- Deepfakes används för att skapa eller manipulera medieinnehåll
4. Minimal eller ingen risk – Fri användning
Sådana system är inte föremål för några specifika rättsliga skyldigheter, men en frivillig uppförandekod rekommenderas. Exempel inkluderar:
- AI-drivna videospel
- Skräppostfilter
Högrisk-AI-system och deras reglering
AI-lagen definierar AI-system med hög risk som de som har en betydande inverkan på människors säkerhet, hälsa eller grundläggande rättigheter. Dessa kan delas in i två huvudkategorier:
1. AI som säkerhetskomponent eller fristående produkt
Ett AI-system klassificeras som högrisksystem om det antingen:
- Den fungerar som en säkerhetskomponent i en produkt som omfattas av EU:s harmoniseringsförordningar, eller
- Den är föremål för en överensstämmelsesbedömning eftersom den medför potentiella faror.
Exempel på sådana produkter inkluderar:
- AI i medicintekniska produkter (t.ex. diagnostiska system)
- AI-stödda förarassistanssystem
- AI i industriell produktion för riskbedömning och kvalitetssäkring
2. Fristående AI-system med hög risk och samhällsrelevans
Dessa system listas i bilaga III till AI-lagen och påverkar kritiska samhällsområden såsom:
a) Kritisk infrastruktur
- AI för att styra och övervaka elnät eller transportnät
b) Utbildning och sysselsättning
- AI för automatiserad examensbedömning
- AI för att välja ut sökande eller utvärdera medarbetarnas prestationer
c) Tillgång till ekonomiska och sociala förmåner
- AI-drivna kreditprövningar
- System för att bedöma berättigande till sociala förmåner
d) Brottsbekämpning och rättsväsendet
- AI för bevisanalys och utredningsstöd
- AI-stödda system för gränskontroll och migrationshantering
e) Biometrisk identifiering
- System för biometrisk fjärridentifiering
- System för känsloidentifiering i säkerhetskritiska miljöer
Alla dessa högrisk-AI-applikationer är föremål för strikta krav gällande riskhantering, transparens, databehandling, teknisk dokumentation och mänsklig tillsyn.
EU:s AI-lag: Hur företag kan förbereda sig för de strikta AI-reglerna
EU:s AI-lag anger ett tydligt ramverk för användningen av AI-teknik och lägger särskild vikt vid skyddet av grundläggande rättigheter. Företag och myndigheter måste noggrant bekanta sig med de nya reglerna och anpassa sina AI-tillämpningar därefter för att undvika sanktioner. Särskilt stränga krav gäller för högrisksystem, vilka bör integreras i utvecklings- och implementeringsprocesserna i ett tidigt skede.
Kontinuerlig övervakning av lagstiftning och proaktiva efterlevnadsåtgärder är avgörande för att säkerställa en ansvarsfull användning av AI samtidigt som innovation främjas inom den rättsliga ramen. De kommande åren kommer att visa hur AI-lagen fungerar i praktiken och vilka ytterligare justeringar som kan bli nödvändiga.
Lämplig för detta:
Din globala marknadsförings- och affärsutvecklingspartner
☑ Vårt affärsspråk är engelska eller tyska
☑ Nytt: korrespondens på ditt nationella språk!
Jag är glad att vara tillgänglig för dig och mitt team som personlig konsult.
Du kan kontakta mig genom att fylla i kontaktformuläret eller helt enkelt ringa mig på +49 89 674 804 (München) . Min e -postadress är: Wolfenstein ∂ xpert.digital
Jag ser fram emot vårt gemensamma projekt.


