Website -pictogram Xpert.Digital

AI-systemen, risicovolle systemen en de AI-wet voor praktijk in bedrijven en autoriteiten

AI Systems High-Risk Systems en de AI Act voor praktijk in bedrijven en autoriteiten

AI-systemen: Risicovolle systemen en de AI-wet voor de praktijk in bedrijven en overheden – Afbeelding: Xpert.Digital

EU AI-wetgeving: nieuwe richtlijnen van de Europese Commissie – wat bedrijven nu moeten weten

AI-systemen, risicovolle toepassingen en de AI-wetgeving in bedrijven en overheidsinstellingen

Op 11 februari 2025 publiceerde de Europese Commissie uitgebreide richtlijnen voor de praktische implementatie van de EU-wetgeving inzake kunstmatige intelligentie (AI). Deze richtlijnen zijn bedoeld om bedrijven en overheidsinstanties te helpen de vereisten van de wet beter te begrijpen en na te leven. Er wordt met name aandacht besteed aan verboden AI-praktijken, systemen met een hoog risico en maatregelen om naleving te waarborgen.

Belangrijke aspecten van de richtlijnen

Verboden AI-praktijken

De AI-wet verbiedt expliciet bepaalde AI-toepassingen die als onaanvaardbaar hoog risico worden beschouwd. Deze verboden zijn van kracht sinds 2 februari 2025. Ze omvatten onder andere:

  • AI-systemen die manipulatieve of misleidende technieken gebruiken
  • Systemen die specifiek de kwetsbaarheden van bepaalde individuen of groepen uitbuiten.
  • Sociale scoresystemen
  • AI kan potentiële criminele handelingen voorspellen zonder duidelijk bewijs.
  • Ongecontroleerd verzamelen van gezichtsafbeeldingen van internet voor biometrische identificatie.
  • Emotieherkenningssystemen op de werkplek of in onderwijsinstellingen
  • Biometrische realtime-identificatiesystemen in openbare ruimtes (met enkele uitzonderingen voor wetshandhavingsinstanties)

Deze verboden zijn bedoeld om ervoor te zorgen dat AI-technologieën ethisch en verantwoord worden gebruikt en geen fundamentele rechten schenden.

Praktische toepassing van de richtlijnen

De 140 pagina's tellende richtlijnen van de Europese Commissie bevatten talrijke praktische casestudies om bedrijven en overheidsinstanties te helpen hun AI-systemen correct te classificeren. Hoewel deze richtlijnen niet wettelijk bindend zijn, dienen ze als referentie voor toezichthoudende autoriteiten bij het monitoren en handhaven van regelgeving.

Belang voor bedrijven en overheden

Bedrijven en overheden moeten actief met de richtlijnen aan de slag gaan om:

  1. om uw bestaande AI-systemen te controleren op mogelijke overtredingen.
  2. Om tijdig de nodige aanpassingen te kunnen maken
  3. Het opzetten van interne nalevingsstructuren om boetes te voorkomen.

Het niet naleven van de regelgeving kan ernstige gevolgen hebben. Sancties kunnen oplopen tot € 35 miljoen of 7% van de wereldwijde jaaromzet van een bedrijf, afhankelijk van welk bedrag hoger is.

Volgende stappen

Voordat de richtlijnen volledig kunnen worden geïmplementeerd, moeten ze nog worden vertaald in alle officiële EU-talen en formeel worden aangenomen. Desondanks zouden bedrijven en overheidsinstanties proactief stappen moeten ondernemen om zich voor te bereiden op de gefaseerde invoering van de AI-wet. De volledige toepassing van de wet is gepland voor 2 augustus 2026.

Risicocategorisatie van AI-systemen

De EU-wetgeving inzake kunstmatige intelligentie (AI) verdeelt AI-systemen in vier risicocategorieën, elk met verschillende wettelijke vereisten:

1. Onacceptabel risico – Verboden AI-systemen

Deze systemen zijn volledig verboden in de EU omdat ze een aanzienlijke bedreiging vormen voor de rechten en vrijheden van burgers. Voorbeelden hiervan zijn:

  • AI-systemen voor sociale scores
  • Manipulatieve AI die onbewust het gedrag van gebruikers beïnvloedt.
  • Realtime biometrische identificatie in openbare ruimtes voor wetshandhavingsdoeleinden (met enkele uitzonderingen)
  • AI-systemen die kwetsbaarheden uitbuiten die voortkomen uit leeftijd, een handicap of een sociaaleconomische status.

2. Hoog risico – strikte regelgeving vereist

Deze systemen moeten aan strenge eisen voldoen en conformiteitstesten ondergaan voordat ze op de markt gebracht mogen worden. Het gaat onder meer om de volgende systemen:

  • AI als veiligheidscomponent in kritieke producten zoals medische apparaten, voertuigen of machines.
  • Op zichzelf staande AI-systemen met implicaties voor fundamentele rechten (bijv. kredietwaardigheidscontroles, screening van aanvragen, wetshandhaving, rechtspraak)

Deze applicaties zijn onderworpen aan uitgebreide eisen met betrekking tot transparantie, risicobeheer, datakwaliteit en menselijk toezicht.

3. Beperkt risico – transparantieverplichtingen

Deze systemen moeten gebruikers informeren dat ze met AI in interactie zijn. Voorbeelden hiervan zijn:

  • Chatbots
  • Deepfakes worden gebruikt om mediacontent te creëren of te manipuleren.

4. Minimaal of geen risico – Gratis gebruik

Dergelijke systemen zijn niet onderworpen aan specifieke wettelijke verplichtingen; een vrijwillige gedragscode wordt echter aanbevolen. Voorbeelden hiervan zijn:

  • AI-gestuurde videogames
  • Spamfilter

AI-systemen met een hoog risico en de regelgeving daarachter.

De AI-wet definieert AI-systemen met een hoog risico als systemen die een aanzienlijke impact hebben op de veiligheid, gezondheid of fundamentele rechten van mensen. Deze kunnen worden onderverdeeld in twee hoofdcategorieën:

1. AI als beveiligingscomponent of als zelfstandig product

Een AI-systeem wordt als risicovol beschouwd als het aan een van de volgende voorwaarden voldoet:

  • Het fungeert als een veiligheidscomponent van een product dat onder de EU-harmoniseringsvoorschriften valt, of
  • Het is onderworpen aan een conformiteitsbeoordeling omdat het potentiële gevaren met zich meebrengt.

Voorbeelden van dergelijke producten zijn:

  • AI in medische apparaten (bijv. diagnosesystemen)
  • AI-ondersteunde rijhulpsystemen
  • AI in de industriële productie voor risicobeoordeling en kwaliteitsborging.

2. Op zichzelf staande, risicovolle AI-systemen met maatschappelijke relevantie

Deze systemen staan ​​vermeld in bijlage III van de AI-wet en hebben gevolgen voor cruciale maatschappelijke gebieden zoals:

a) Kritieke infrastructuren
  • AI voor het besturen en bewaken van elektriciteitsnetten of transportnetwerken.
b) Onderwijs en werkgelegenheid
  • AI voor geautomatiseerde examenbeoordeling
  • AI voor het selecteren van sollicitanten of het evalueren van de prestaties van werknemers.
c) Toegang tot financiële en sociale voorzieningen
  • AI-gestuurde kredietwaardigheidscontroles
  • Systemen voor het beoordelen van de aanspraak op sociale uitkeringen
d) Rechtshandhaving en justitie
  • AI voor bewijsanalyse en ondersteuning bij onderzoek
  • AI-ondersteunde systemen voor grenscontrole en migratiemanagement
e) Biometrische identificatie
  • Systemen voor biometrische identificatie op afstand
  • Emotieherkenningssystemen in veiligheidskritieke omgevingen

Al deze risicovolle AI-toepassingen zijn onderworpen aan strenge eisen met betrekking tot risicobeheer, transparantie, gegevensverwerking, technische documentatie en menselijk toezicht.

EU AI-wetgeving: Hoe bedrijven zich kunnen voorbereiden op de strenge AI-regelgeving

De EU-verordening inzake kunstmatige intelligentie (AI) schept een duidelijk kader voor het gebruik van AI-technologieën en legt bijzondere nadruk op de bescherming van fundamentele rechten. Bedrijven en overheidsinstanties moeten zich grondig verdiepen in de nieuwe regelgeving en hun AI-toepassingen hierop aanpassen om sancties te voorkomen. Bijzonder strenge eisen gelden voor systemen met een hoog risico, die in een vroeg stadium in de ontwikkelings- en implementatieprocessen moeten worden geïntegreerd.

Continue monitoring van de wetgeving en proactieve nalevingsmaatregelen zijn essentieel om verantwoord gebruik van AI te waarborgen en tegelijkertijd innovatie binnen het wettelijk kader te bevorderen. De komende jaren zullen uitwijzen hoe de AI-wet in de praktijk functioneert en welke verdere aanpassingen wellicht nodig zijn.

Geschikt hiervoor:

 

Uw wereldwijde partner voor marketing en bedrijfsontwikkeling

☑️ onze zakelijke taal is Engels of Duits

☑️ Nieuw: correspondentie in uw nationale taal!

 

Konrad Wolfenstein

Ik ben blij dat ik beschikbaar ben voor jou en mijn team als een persoonlijk consultant.

U kunt contact met mij opnemen door het contactformulier hier in te vullen of u gewoon te bellen op +49 89 674 804 (München) . Mijn e -mailadres is: Wolfenstein Xpert.Digital

Ik kijk uit naar ons gezamenlijke project.

 

 

☑️ MKB -ondersteuning in strategie, advies, planning en implementatie

☑️ Creatie of herschikking van de digitale strategie en digitalisering

☑️ Uitbreiding en optimalisatie van de internationale verkoopprocessen

☑️ Wereldwijde en digitale B2B -handelsplatforms

☑️ Pioneer Business Development / Marketing / PR / Maatregel

Verlaat de mobiele versie