Gepubliceerd op: 13 februari 2025 / UPDATE VAN: 13 februari 2025 - Auteur: Konrad Wolfenstein
AI Systems High-Risk Systems en de AI Act voor praktijk in bedrijven en autoriteiten-afbeelding: Xpert.Digital
EU KI Act: Nieuwe richtlijnen van de EU-commissie-wat bedrijven nu moeten weten
AI Systems, risicovolle applicaties en de AI-wet in bedrijven en autoriteiten
De Europese Commissie publiceerde op 11 februari 2025 uitgebreide richtlijnen voor de praktische uitvoering van de EU KI Act (AI Act). Deze zijn bedoeld om bedrijven en autoriteiten te ondersteunen om de vereisten van de wet beter te begrijpen en deze te implementeren in overeenstemming met. De focus ligt met name op verboden AI-praktijken, risicovolle systemen en maatregelen om te voldoen aan de voorschriften.
Belangrijke aspecten van de richtlijnen
Verboden AI -praktijken
De AI -wet verbiedt expliciet bepaalde AI -toepassingen die als onaanvaardbaar risicovol worden geclassificeerd. Deze verboden zijn van kracht sinds 2 februari 2025. Deze omvatten:
- AI -systemen die manipulatieve of misleidende technieken gebruiken
- Systemen die op een gerichte manier kwetsbaarheden van bepaalde mensen of groepen gebruiken
- Sociale evaluatiesystemen (sociale scoren)
- AI om potentiële criminele handelingen te voorspellen zonder duidelijk bewijs
- Ongecontroleerd schrapen van gezichtsbeelden van internet voor biometrische identificatie
- Systemen voor emotiedetectie op het werk of in onderwijsinstellingen
- Biometrische realtime identificatiesystemen in openbare ruimtes (met enkele uitzonderingen na voor wetshandhavingsinstanties)
Deze verboden zijn bedoeld om ervoor te zorgen dat AI -technologieën ethisch en op verantwoorde wijze worden gebruikt en niet in strijd zijn met de fundamentele rechten.
Praktische toepassing van de richtlijnen
De richtlijnen van 140 pagina's van de EU-commissie bevatten talloze praktische casestudy's om de juiste classificatie van hun AI-systemen te vergemakkelijken. Hoewel deze richtlijnen niet wettelijk bindend zijn, dienen ze als een referentie voor toezichthoudende autoriteiten bij het monitoren en afdwingen van de voorschriften.
Betekenis voor bedrijven en autoriteiten
Bedrijven en autoriteiten moeten de richtlijnen actief behandelen om:
- Om uw bestaande AI -systemen te controleren op mogelijke overtredingen
- Om de nodige aanpassingen te maken in een vroeg stadium
- Interne nalevingsstructuren bouwen om straffen te voorkomen
De niet -naleving van de voorschriften kan ernstige gevolgen hebben. De sancties variëren tot 35 miljoen euro of 7% van de wereldwijde jaarlijkse omzet van een bedrijf, afhankelijk van welk bedrag hoger is.
Volgende stappen
Voordat de richtlijnen volledig worden geïmplementeerd, moeten ze nog steeds worden vertaald in alle EU -kantoortalen en formeel worden aangenomen. Niettemin moeten bedrijven en autoriteiten proactief maatregelen nemen om zich voor te bereiden op de geleidelijke introductie van de AI -wet. De volledige toepassing van de wet is gepland voor 2 augustus 2026.
De risico -categorisatie van AI -systemen
De EU AI -wet verdeelt AI -systemen in vier risicoklassen, die elk verschillende regelgevende vereisten hebben:
1. Onacceptabele risico-verboden AI-systemen
Deze systemen zijn volledig verboden in de EU omdat ze een aanzienlijk gevaar vormen voor de rechten en vrijheden van de burgers. Voorbeelden zijn:
- AI -systemen voor sociale evaluatie (sociale scoren)
- Manipulatieve AI die onbewust het gedrag van gebruikers beïnvloedt
- Biometrische realtime identificatie in openbare ruimtes voor wetshandhavingsdoeleinden (op enkele uitzonderingen na)
- AI-systemen die kwetsbaarheden gebruiken vanwege leeftijd, handicap of sociaal-economische status
2. Hoog risico - Strikte regelgeving vereist
Deze systemen moeten aan strikte vereisten voldoen en een conformiteitstest doorlopen voordat ze op de markt komen. Ze omvatten:
- AI als beveiligingscomponent in kritieke producten zoals medische hulpmiddelen, voertuigen of machines
- Onafhankelijke AI -systemen met effecten op fundamentele rechten (bijv. Kredietcontrole, toepassingstoestel, strafrechtelijke vervolging, gerechtelijk administratie)
Uitgebreide vereisten voor transparantie, risicobeheer, gegevenskwaliteit en menselijk toezicht zijn van toepassing op deze toepassingen.
3. Beperkte risico - transparantieverplichtingen
Deze systemen moeten gebruikers informeren dat ze communiceren met een AI. Voorbeelden zijn:
- Chatbots
- Deeppakes die worden gebruikt om media -inhoud te maken of te manipuleren
4. Minimaal of geen risico - gratis gebruik
Dergelijke systemen zijn niet onderworpen aan speciale wettelijke verplichtingen, maar een vrijwillige gedragscode wordt aanbevolen. Voorbeelden zijn:
- Op AI gebaseerde videogames
- Spamfilter
ACI-systemen met een hoog risico en hun regelgeving
De AI-wet definieert als zodanig ACI-systemen met een hoog risico die een aanzienlijke impact hebben op de veiligheid, gezondheid of fundamentele rechten van mensen. Deze kunnen worden onderverdeeld in twee hoofdcategorieën:
1. AI als een beveiligingscomponent of onafhankelijk product
Een AI -systeem is geclassificeerd als een hoog risico als het een van beide is:
- Fungeert als een beveiligingscomponent van een product dat onder de EU -harmonisatievoorschriften valt, of
- Een conformiteitsbeoordeling is onderhevig aan mogelijke gevaren.
Voorbeelden van dergelijke producten zijn:
- AI in medische hulpmiddelen (bijv. Diagnostische systemen)
- AI-gebaseerde rijhulpsystemen
- AI in industriële productie voor risicobeoordeling en kwaliteitsborging
2. Onafhankelijke ACI-systemen met een hoog risico met sociale relevantie
Deze systemen worden vermeld in bijlage III van de AI -wet en zijn betrekking op kritische sociale gebieden zoals:
a) kritieke infrastructuren
- AI voor de besturing en monitoring van elektriciteitsnetwerken of verkeersnetwerken
b) Opleiding en werkgelegenheid
- AI voor de geautomatiseerde beoordeling van examens
- AI om aanvragers of prestatiebeoordeling van werknemers te selecteren
c) Toegang tot financiële en sociale voordelen
- AI-ondersteunde krediettests
- Systemen voor het evalueren van het recht om te claimen op sociale voordelen
d) wetshandhaving en rechterlijke macht
- AI voor bewijsanalyse en onderzoeksondersteuning
- AI-gebaseerde systemen voor grenscontroles en migratiebeheer
e) Biometrische identificatie
- Biometrische identificatiesystemen op afstand
- Emotiedetectiesystemen in beveiligingskritische omgevingen
Voor al deze risicovolle KI-toepassingen zijn strikte vereisten voor risicobeheer, transparantie, gegevensverwerking, technische documentatie en menselijke monitoring van toepassing.
AI Act van de EU: hoe kunnen bedrijven zich voorbereiden op de strikte AI -voorschriften
De EU AI -wet bepaalt een duidelijk kader voor het gebruik van AI -technologieën en hecht bijzonder belang aan de bescherming van de fundamentele rechten. Bedrijven en autoriteiten moeten intensief omgaan met de nieuwe voorschriften en hun AI -aanvragen dienovereenkomstig aanpassen om sancties te voorkomen. Strikte vereisten zijn van toepassing, met name voor risicovolle systemen, die in een vroeg stadium moeten worden geïntegreerd in ontwikkelings- en implementatieprocessen.
De continue monitoring van wetgeving en proactieve nalevingsmaatregelen zijn essentieel om het gebruik van AI verantwoordelijk te maken en tegelijkertijd innovaties binnen het wettelijke kader te bevorderen. De komende jaren zullen laten zien hoe de AI -wet zich in de praktijk bewijst en welke verdere aanpassingen nodig kunnen zijn.
Geschikt hiervoor:
Uw wereldwijde partner voor marketing en bedrijfsontwikkeling
☑️ onze zakelijke taal is Engels of Duits
☑️ Nieuw: correspondentie in uw nationale taal!
Ik ben blij dat ik beschikbaar ben voor jou en mijn team als een persoonlijk consultant.
U kunt contact met mij opnemen door het contactformulier hier in te vullen of u gewoon te bellen op +49 89 674 804 (München) . Mijn e -mailadres is: Wolfenstein ∂ Xpert.Digital
Ik kijk uit naar ons gezamenlijke project.