Publicerad: 13 februari 2025 / UPDATE FrÄn: 13 februari 2025 - Författare: Konrad Wolfenstein
AI Systems High-Risk Systems och AI Act for Practice in Companies and Myndigheter-Image: Xpert.Digital
EU KI-lagen: Nya riktlinjer för EU-kommission-vad företag behöver veta nu
AI-system, högriskansökningar och AI-lagen i företag och myndigheter
Europeiska kommissionen publicerade omfattande riktlinjer den 11 februari 2025 för det praktiska genomförandet av EU KI -lagen (AI -lagen). Dessa Àr avsedda att stödja företag och myndigheter för att bÀttre förstÄ lagens krav och att genomföra dem i enlighet med. Fokus Àr sÀrskilt pÄ förbjudna AI-metoder, högrisksystem och ÄtgÀrder för att följa förordningarna.
Viktiga aspekter av riktlinjerna
Förbjudna AI -metoder
AI -lagen förbjuder uttryckligen vissa AI -applikationer som klassificeras som oacceptabla riskabla. Dessa förbud har varit i kraft sedan 2 februari 2025. Dessa inkluderar:
- AI -system som anvÀnder manipulativa eller vilseledande tekniker
- System som anvÀnder sÄrbarheter hos vissa mÀnniskor eller grupper pÄ ett riktat sÀtt
- Sociala utvÀrderingssystem (social poÀng)
- AI för att förutsÀga potentiella kriminella handlingar utan tydliga bevis
- Okontrollerad skrapning av ansiktsbilder frÄn internet för biometrisk identifiering
- System för upptÀckt av kÀnslor pÄ jobbet eller i utbildningsinstitutioner
- Biometriska realtidsidentifieringssystem i offentliga utrymmen (med nÄgra fÄ undantag för brottsbekÀmpande myndigheter)
Dessa förbud Àr avsedda att sÀkerstÀlla att AI -teknologier anvÀnds etiskt och ansvarsfullt och inte bryter mot grundlÀggande rÀttigheter.
Praktisk tillÀmpning av riktlinjerna
De 140-sidiga riktlinjerna för EU-kommissionen innehĂ„ller mĂ„nga praktiska fallstudier för att underlĂ€tta korrekt klassificering av deras AI-system. Ăven om dessa riktlinjer inte Ă€r juridiskt bindande, fungerar de som en referens för tillsynsmyndigheterna vid övervakning och verkstĂ€llighet av förordningarna.
Betydelse för företag och myndigheter
Företag och myndigheter mÄste aktivt hantera riktlinjerna för att:
- För att kontrollera dina befintliga AI -system för möjliga krÀnkningar
- För att göra nödvÀndiga justeringar i ett tidigt skede
- Bygga interna efterlevnadsstrukturer för att undvika straff
Icke -överensstÀmmelse med förordningarna kan fÄ allvarliga konsekvenser. Sanktionerna varierar upp till 35 miljoner euro eller 7% av den globala Ärliga omsÀttningen för ett företag, beroende pÄ vilket belopp som Àr högre.
NĂ€sta steg
Innan riktlinjerna genomförs fullt ut mĂ„ste de fortfarande översĂ€ttas till alla EU: s kontor och formellt antagna. ĂndĂ„ bör företag och myndigheter proaktivt vidta Ă„tgĂ€rder för att förbereda sig för den gradvisa introduktionen av AI -lagen. Den fullstĂ€ndiga tillĂ€mpningen av lagen planeras för 2 augusti 2026.
Riskkategoriseringen av AI -system
EU AI -lagen delar AI -system i fyra riskklasser, som var och en har olika lagkrav:
1. Oacceptabla riskförlorande AI-system
Dessa system Àr helt förbjudna i EU eftersom de representerar en betydande fara för medborgarnas rÀttigheter och friheter. Exempel Àr:
- AI -system för social utvÀrdering (social poÀng)
- Manipulativ AI som omedvetet pÄverkar anvÀndarnas beteende
- Biometrisk realtidsidentifiering i offentliga utrymmen för brottsbekÀmpande ÀndamÄl (med nÄgra fÄ undantag)
- AI-system som anvÀnder sÄrbarheter pÄ grund av Älder, funktionshinder eller socioekonomisk status
2. Hög risk - Strikt reglering krÀvs
Dessa system mÄste uppfylla strikta krav och gÄ igenom ett överensstÀmmelseprov innan de kommer ut pÄ marknaden. De inkluderar:
- AI som sÀkerhetskomponent i kritiska produkter som medicinsk utrustning, fordon eller maskiner
- Oberoende AI -system med effekter pÄ grundlÀggande rÀttigheter (t.ex. kreditkontroll, ansöknings screening, straffrÀttsligt Ätal, rÀttslig administration)
Omfattande krav för öppenhet, riskhantering, datakvalitet och mÀnsklig övervakning gÀller för dessa applikationer.
3. BegrĂ€nsad risk - Ăppenhetskyldigheter
Dessa system mÄste informera anvÀndare om att de interagerar med en AI. Exempel Àr:
- Chatbotar
- Deappares brukade skapa eller manipulera medieinnehÄll
4. Minimal eller ingen risk - gratis anvÀndning
SÄdana system Àr inte föremÄl för sÀrskilda juridiska skyldigheter, men en frivillig uppförandekod rekommenderas. Exempel Àr:
- AI-baserade videospel
- SkrÀppostfilter
ACI-system med hög risk och deras reglering
AI-lagen definierar högrisk ACI-system som sÄdana som har en betydande inverkan pÄ mÀnniskors sÀkerhet, hÀlsa eller grundlÀggande rÀttigheter. Dessa kan delas in i tvÄ huvudkategorier:
1. AI som sÀkerhetskomponent eller oberoende produkt
Ett AI -system klassificeras som en hög risk om det Àr antingen:
- Fungerar som en sÀkerhetskomponent i en produkt som faller enligt EU: s harmoniseringsregler, eller
- En överensstÀmmelsebedömning Àr föremÄl för potentiella faror.
Exempel pÄ sÄdana produkter Àr:
- AI i medicintekniska produkter (t.ex. diagnostiska system)
- AI-baserade körhjÀlpssystem
- AI i industriell produktion för riskbedömning och kvalitetssÀkring
2. Oberoende högrisk ACI-system med social relevans
Dessa system listas i bilaga III i AI -lagen och berör kritiska sociala omrÄden som:
a) Kritiska infrastrukturer
- AI för kontroll och övervakning av elnÀtverk eller trafiknÀtverk
b) Utbildning och anstÀllning
- AI för automatiserad bedömning av tentor
- AI för att vÀlja sökande eller prestationsbedömning av anstÀllda
c) TillgÄng till ekonomiska och sociala fördelar
- AI-stödda kredittester
- System för utvÀrdering av rÀtten att krÀva för sociala förmÄner
d) brottsbekÀmpning och rÀttsvÀsendet
- AI för bevisanalys och utredningsstöd
- AI-baserade system för grÀnskontroller och migreringshantering
e) biometrisk identifiering
- Biometriska fjÀrridentifieringssystem
- KÀnslor detekteringssystem i sÀkerhet -kritiska miljöer
För alla dessa högrisk-KI-applikationer gÀller strikta krav för riskhantering, transparens, databehandling, teknisk dokumentation och mÀnsklig övervakning.
AI Act of EU: Hur kan företag förbereda sig för de strikta AI -förordningarna
EU AI -lagen sÀtter en tydlig ram för anvÀndning av AI -teknik och lÀgger sÀrskild vikt vid skyddet av grundlÀggande rÀttigheter. Företag och myndigheter mÄste hantera de nya förordningarna och anpassa sina AI -ansökningar i enlighet dÀrmed för att undvika sanktioner. Strikta krav gÀller, sÀrskilt för högrisksystem, som bör integreras i utvecklings- och implementeringsprocesser i ett tidigt skede.
Kontinuerlig övervakning av lagstiftning och proaktiva efterlevnadsÄtgÀrder Àr avgörande för att anvÀnda AI -ansvaret och samtidigt frÀmja innovationer inom den rÀttsliga ramen. De kommande Ären kommer att visa hur AI -lagen bevisar sig i praktiken och vilka ytterligare justeringar kan vara nödvÀndiga.
LÀmplig för detta:
Â
Din globala marknadsförings- och affÀrsutvecklingspartner
â VĂ„rt affĂ€rssprĂ„k Ă€r engelska eller tyska
â Nytt: korrespondens pĂ„ ditt nationella sprĂ„k!
Â
Jag Àr glad att vara tillgÀnglig för dig och mitt team som personlig konsult.
Du kan kontakta mig genom att fylla i kontaktformulĂ€ret eller helt enkelt ringa mig pĂ„ +49 89 674 804 (MĂŒnchen) . Min e -postadress Ă€r: Wolfenstein â xpert.digital
Jag ser fram emot vÄrt gemensamma projekt.
Â
Â