Gepubliseer op: 13 Februarie 2025 / Update van: 13 Februarie 2025 - Skrywer: Konrad Wolfenstein
AI Systems High Risk Systems en die AI-wet vir praktyk in ondernemings en owerhede-beeld: xpert.digital
EU KI ACT: Nuwe riglyne van die EU-kommissie-wat ondernemings nou moet weet
AI-stelsels, hoërisiko-toepassings en die AI-wet in ondernemings en owerhede
Die Europese Kommissie het op 11 Februarie 2025 uitgebreide riglyne gepubliseer vir die praktiese implementering van die EU KI -wet (AI -wet). Dit is bedoel om maatskappye en owerhede te ondersteun om die vereistes van die wet beter te verstaan en om dit in ooreenstemming met. Die fokus is veral op verbode AI-praktyke, hoërisikosisteme en maatreëls om aan die regulasies te voldoen.
Belangrike aspekte van die riglyne
Verbode AI -praktyke
Die AI -wet verbied eksplisiet sekere AI -aansoeke wat as onaanvaarbaar riskant is. Hierdie verbod is sedert 2 Februarie 2025 van krag. Dit sluit in:
- AI -stelsels wat manipulerende of misleidende tegnieke gebruik
- Stelsels wat kwesbaarhede van sekere mense of groepe op 'n doelgerigte manier gebruik
- Sosiale evalueringstelsels (sosiale telling)
- AI om potensiële kriminele dade sonder duidelike bewyse te voorspel
- Onbeheerde skrap van gesigsbeelde van die internet vir biometriese identifikasie
- Stelsels vir emosie -opsporing by die werk of in opvoedkundige instellings
- Biometriese intydse identifikasiestelsels in openbare ruimtes (met enkele uitsonderings vir wetstoepassingsowerhede)
Hierdie verbod is bedoel om te verseker dat AI -tegnologieë eties en verantwoordelik gebruik word en nie fundamentele regte skend nie.
Praktiese toepassing van die riglyne
Die riglyne van 140 bladsye van die EU-kommissie bevat talle praktiese gevallestudies om die korrekte indeling van hul AI-stelsels te vergemaklik. Alhoewel hierdie riglyne nie wettiglik bindend is nie, dien dit as verwysing vir toesighoudende owerhede in die monitering en afdwinging van die regulasies.
Betekenis vir maatskappye en owerhede
Maatskappye en owerhede moet aktief die riglyne hanteer om:
- Om u bestaande AI -stelsels te kontroleer vir moontlike oortredings
- Om die nodige aanpassings in 'n vroeë stadium te maak
- Die bou van interne nakomingstrukture om straf te vermy
Die nie -nakoming van die regulasies kan ernstige gevolge hê. Die sanksies wissel tot 35 miljoen euro of 7% van die wêreldwye jaarlikse omset van 'n maatskappy, afhangend van watter bedrag hoër is.
Volgende stappe
Voordat die riglyne volledig geïmplementeer word, moet dit steeds in alle EU -kantoortale vertaal word en formeel aangeneem word. Nietemin moet ondernemings en owerhede proaktief maatreëls tref om voor te berei op die geleidelike bekendstelling van die AI -wet. Die volledige toepassing van die wet word beplan vir 2 Augustus 2026.
Die risikokategorisering van AI -stelsels
Die EU AI -wet verdeel AI -stelsels in vier risikoklasse, wat elk verskillende regulatoriese vereistes het:
1. Onaanvaarbare risiko-verbode AI-stelsels
Hierdie stelsels is ten volle verbode in die EU omdat dit 'n beduidende gevaar vir die regte en vryhede van die burgers inhou. Voorbeelde is:
- AI -stelsels vir sosiale evaluering (sosiale telling)
- Manipulerende AI wat die gedrag van gebruikers onbewustelik beïnvloed
- Biometriese intydse identifikasie in openbare ruimtes vir wetstoepassingsdoeleindes (met enkele uitsonderings)
- AI-stelsels wat kwesbaarhede gebruik as gevolg van ouderdom, gestremdheid of sosio-ekonomiese status
2. Hoë risiko - streng regulering benodig
Hierdie stelsels moet aan streng vereistes voldoen en 'n konformiteitstoets ondergaan voordat hulle op die mark kom. Dit sluit in:
- AI as 'n sekuriteitskomponent in kritieke produkte soos mediese toestelle, voertuie of masjiene
- Onafhanklike AI -stelsels met gevolge vir fundamentele regte (bv. Kredietkontrole, toepassingsondersoek, strafregtelike vervolging, geregtelike administrasie)
Uitgebreide vereistes vir deursigtigheid, risikobestuur, datakwaliteit en toesig van mense is van toepassing op hierdie toepassings.
3. Beperkte risiko - deursigtigheidsverpligtinge
Hierdie stelsels moet gebruikers inlig dat hulle met 'n AI omgaan. Voorbeelde is:
- Chatbots
- Deepakes wat gebruik word om media -inhoud te skep of te manipuleer
4. Minimale of geen risiko - gratis gebruik
Sulke stelsels is nie onderworpe aan spesiale wettige verpligtinge nie, maar 'n vrywillige gedragskode word aanbeveel. Voorbeelde is:
- AI-gebaseerde videospeletjies
- Spamfilter
ACI-stelsels met 'n hoë risiko en hul regulering
Die AI-wet definieer ACI-stelsels met 'n hoë risiko as sodanig wat 'n beduidende invloed op veiligheid, gesondheid of fundamentele regte van mense het. Dit kan in twee hoofkategorieë verdeel word:
1. AI as 'n sekuriteitskomponent of onafhanklike produk
'N AI -stelsel word geklassifiseer as 'n hoë risiko as dit een is:
- Dien as 'n sekuriteitskomponent van 'n produk wat onder die EU -harmoniseringsregulasies val, of
- 'N Konformiteitsbeoordeling is onderhewig aan moontlike gevare.
Voorbeelde van sulke produkte is:
- AI in mediese toestelle (bv. Diagnostiese stelsels)
- AI-gebaseerde bestuurshulpstelsels
- AI in industriële produksie vir risikobepaling en kwaliteitsversekering
2. Onafhanklike ACI-stelsels met 'n hoë risiko met sosiale relevansie
Hierdie stelsels word in aanhangsel III van die AI -wet gelys en het betrekking op kritieke sosiale gebiede soos:
a) Kritieke infrastruktuur
- AI vir die beheer en monitering van elektrisiteitsnetwerke of verkeersnetwerke
b) Onderwys en indiensneming
- AI vir die outomatiese assessering van eksamens
- AI om aansoekers of prestasiebeoordeling van werknemers te kies
c) Toegang tot finansiële en maatskaplike voordele
- AI-ondersteunde krediettoetse
- Stelsels vir die evaluering van die reg om vir maatskaplike voordele te eis
d) wetstoepassing en regbank
- AI vir getuienisanalise en ondersoekende ondersteuning
- AI-gebaseerde stelsels vir grensbeheer en migrasiebestuur
E) Biometriese identifikasie
- Biometriese afstandsidentifikasiestelsels
- Emosie -opsporingstelsels in sekuriteit -kritieke omgewings
Vir al hierdie hoërisiko-KI-toepassings is streng vereistes vir risikobestuur, deursigtigheid, dataverwerking, tegniese dokumentasie en menslike monitering van toepassing.
AI -wet van die EU: Hoe kan ondernemings voorberei op die streng AI -regulasies
Die EU AI -wet stel 'n duidelike raamwerk vir die gebruik van AI -tegnologieë en heg besondere belang aan die beskerming van fundamentele regte. Maatskappye en owerhede moet intensief met die nuwe regulasies omgaan en hul AI -aansoeke dienooreenkomstig aanpas om sanksies te vermy. Streng vereistes is van toepassing, veral vir hoë-risiko-stelsels, wat in 'n vroeë stadium in ontwikkelings- en implementeringsprosesse geïntegreer moet word.
Die deurlopende monitering van wetgewing en proaktiewe nakomingsmaatreëls is noodsaaklik om die gebruik van AI verantwoordelik te maak en terselfdertyd innovasies binne die wetlike raamwerk te bevorder. Die komende jare sal wys hoe die AI -wet homself in die praktyk bewys en watter verdere aanpassings nodig kan wees.
Geskik vir:
Jou globale bemarkings- en besigheidsontwikkelingsvennoot
☑️ Ons besigheidstaal is Engels of Duits
☑️ NUUT: Korrespondensie in jou landstaal!
Ek sal graag jou en my span as 'n persoonlike adviseur dien.
Jy kan my kontak deur die kontakvorm hier in te vul of bel my eenvoudig by +49 89 89 674 804 (München) . My e-posadres is: wolfenstein ∂ xpert.digital
Ek sien uit na ons gesamentlike projek.