Avaldatud: 13. veebruar 2025 / Värskendus: 13. veebruar 2025 - Autor: Konrad Wolfenstein
AI süsteemide kõrge riskiga süsteemid ja AI tegutsevad ettevõtete ja võimude kujunduse praktika jaoks: xpert.digital
EL KI seadus: ELi komisjoni uued juhised-mida ettevõtted peavad nüüd teadma
AI süsteemid, kõrge riskiga rakendused ja AI-seadus ettevõtetes ja ametivõimudes
Euroopa Komisjon avaldas 11. veebruaril 2025 ulatuslikud juhised EL KI seaduse (AI seadus) praktilise rakendamise kohta. Nende eesmärk on toetada ettevõtteid ja asutusi, et paremini mõista seaduse nõudeid ja rakendada neid vastavalt vastavalt. Keskendutakse eriti keelatud AI-tavadele, kõrge riskiga süsteemidele ja meetmetele määruste järgimiseks.
Suuniste olulised aspektid
Keelatud AI -tavad
AI seadus keelab selgesõnaliselt teatud AI -taotlused, mis on klassifitseeritud vastuvõetamatu riskantseks. Need keelud on kestnud alates 2. veebruarist 2025. Nende hulka kuulub järgmine:
- AI -süsteemid, mis kasutavad manipuleerivaid või petlikke tehnikaid
- Süsteemid, mis kasutavad teatud inimeste või rühmade haavatavusi sihitud viisil
- Sotsiaalse hindamissüsteemid (sotsiaalne skoorimine)
- AI, et ennustada võimalikke kuritegelikke tegusid ilma selgete tõenditeta
- Näopiltide kontrollimatu kraapimine Internetist biomeetriliseks identifitseerimiseks
- Emotsioonide tuvastamise süsteemid tööl või haridusasutustes
- Biomeetrilised reaalajas tuvastamissüsteemid avalikes ruumides (välja arvatud mõned erandid õiguskaitseasutustele)
Nende keeldude eesmärk on tagada, et AI -tehnoloogiaid kasutatakse eetiliselt ja vastutustundlikult ning nad ei riku põhiõigusi.
Juhiste praktiline rakendamine
ELi komisjoni 140-leheküljelised juhised sisaldavad arvukalt praktilisi juhtumianalüüse, et hõlbustada nende AI-süsteemide õiget klassifikatsiooni. Kuigi need juhised ei ole juriidiliselt siduvad, on need eeskirjade jälgimisel ja jõustamisel viited järelevalveasutustele.
Tähendus ettevõtetele ja asutustele
Ettevõtted ja võimud peavad aktiivselt suunistega toime tulema, et:
- Kontrollida olemasolevaid AI -süsteeme võimalike rikkumiste eest
- Vajalike muudatuste tegemiseks varases staadiumis
- Sisemise vastavuse struktuuride loomine karistuste vältimiseks
Eeskirjade mittevastavusel võib olla tõsiseid tagajärgi. Sanktsioonid ulatuvad kuni 35 miljonit eurot ehk 7% ettevõtte ülemaailmsest käivest, sõltuvalt sellest, milline summa on suurem.
Järgmised sammud
Enne suuniste täielikku rakendamist tuleb need ikkagi tõlkida kõigisse EL -i kontor keeltesse ja võtta ametlikult vastu. Sellegipoolest peaksid ettevõtted ja võimud ennetavalt võtma meetmeid AI seaduse järkjärguliseks kasutuselevõtmiseks. Seaduse täielik kohaldamine on kavandatud 2. augustiks 2026.
AI -süsteemide riski kategoriseerimine
EL AI seadus jagab AI süsteemid neljaks riskiklassis, millest igaühel on erinevad regulatiivsed nõuded:
1. Vastuvõetamatud riskiga seotud AI süsteemid
Need süsteemid on ELis täielikult keelatud, kuna need kujutavad endast olulist ohtu kodanike õigustele ja vabadustele. Näited on:
- AI sotsiaalse hindamise süsteemid (sotsiaalne punktiarved)
- Manipuleeriv AI, mis mõjutab alateadlikult kasutajate käitumist
- Biomeetriline reaalajas tuvastamine avalikes ruumides õiguskaitse eesmärkidel (mõne erandiga)
- AI süsteemid, mis kasutavad vanuse, puude või sotsiaalmajandusliku staatuse tõttu haavatavusi
2. kõrge risk - vajalik range reguleerimine
Need süsteemid peavad enne turule jõudmist vastama rangetele nõuetele ja läbima vastavuse testi. Nende hulka kuulub:
- AI kui turvakomponent kriitilistes toodetes nagu meditsiiniseadmed, sõidukid või masinad
- Sõltumatud AI -süsteemid, mis mõjutavad põhiõigusi (nt krediidikontroll, taotluste sõeluuring, kriminaalsüüdistus, kohtulik haldamine)
Nende rakenduste suhtes kehtivad ulatuslikud nõuded läbipaistvuse, riskijuhtimise, andmete kvaliteedi ja inimeste järelevalve jaoks.
3. Piiratud risk - läbipaistvuse kohustused
Need süsteemid peavad kasutajaid teavitama, et nad suhtlevad AI -ga. Näited on:
- Vestlusbotid
- Deeppakes, mida kasutati meediasisu loomiseks või manipuleerimiseks
4. minimaalne või üldse mitte - vaba kasutamine
Selliste süsteemide suhtes ei kohaldata erilisi juriidilisi kohustusi, kuid soovitatakse vabatahtlikku käitumisjuhendiga. Näited on:
- AI-põhised videomängud
- Rämpspostifilter
Kõrge riskiga ACI süsteemid ja nende reguleerimine
AI-seadus määratleb kõrge riskiga ACI süsteemid kui sellised, millel on märkimisväärne mõju inimeste ohutusele, tervise- või põhiõigustele. Neid võib jagada kahte põhikategooriasse:
1. AI turvakomponendina või sõltumatu tootena
AI -süsteem klassifitseeritakse kõrge riskiga, kui see on kas:
- Toimib toote turbekomponendina, mis kuulub ELi harmoneerimismääruste alla
- Vastavuse hindamine on võimalike ohtudega.
Selliste toodete näited on:
- AI meditsiiniseadmetes (nt diagnostilised süsteemid)
- AI-põhised sõiduabisüsteemid
- AI tööstusliku tootmise riski hindamiseks ja kvaliteedi tagamiseks
2. sõltumatud kõrge riskiga ACI süsteemid, millel on sotsiaalne tähtsus
Need süsteemid on loetletud AI seaduse III lisas ja puudutavad kriitilisi sotsiaalseid valdkondi, näiteks:
a) kriitilised infrastruktuurid
- AI elektrivõrkude või liiklusvõrkude juhtimiseks ja jälgimiseks
b) haridus ja tööhõive
- AI eksamite automatiseeritud hindamiseks
- AI taotlejate valimiseks või töötajate tulemuslikkuse hindamine
c) juurdepääs rahalistele ja sotsiaalsetele hüvedele
- AI toetatud krediiditestid
- Süsteemid sotsiaalse kasu saamiseks õiguse hindamiseks
d) korrakaitse ja kohtusüsteem
- AI tõendite analüüsi ja uurimise toetamiseks
- AI-põhised süsteemid piiride juhtimiseks ja rändehalduseks
e) biomeetriline identifitseerimine
- Biomeetrilised kaugtuntifitseerimissüsteemid
- Emotsioonide tuvastamise süsteemid turvalisuses -kriitilises keskkonnas
Kõigi nende kõrge riskiga KI-rakenduste puhul kehtivad ranged riskijuhtimise, läbipaistvuse, andmetöötluse, tehnilise dokumentatsiooni ja inimeste seire ranged nõuded.
ELi AI ACT: Kuidas saavad ettevõtted ette valmistuda rangeteks AI -määrusteks
EL AI seadus kehtestab selge raamistiku AI -tehnoloogiate kasutamiseks ja see tähendab eriliste õiguste kaitsele erilist tähtsust. Ettevõtted ja võimud peavad sanktsioonide vältimiseks intensiivselt tegelema uute määrustega ja kohandama vastavalt oma AI -taotlusi. Kehtivad ranged nõuded, eriti kõrge riskiga süsteemide puhul, mis tuleks integreerida varases staadiumis arendus- ja rakendusprotsessidesse.
Seadusandluse ja ennetavate vastavusmeetmete pidev jälgimine on hädavajalik, et muuta AI kasutamine ja samal ajal edendada uuendusi õigusraamistikus. Järgmised aastad näitavad, kuidas AI -seadus ennast praktikas tõestab ja milliseid täiendavaid kohandusi võiks olla vajalik.
Sobib selleks:
Teie ülemaailmne turundus- ja äriarenduspartner
☑️ Meie ärikeel on inglise või sakslane
☑️ Uus: kirjavahetus teie riigikeeles!
Mul on hea meel, et olete teile ja minu meeskonnale isikliku konsultandina kättesaadav.
Võite minuga ühendust võtta, täites siin kontaktvormi või helistage mulle lihtsalt telefonil +49 89 674 804 (München) . Minu e -posti aadress on: Wolfenstein ∂ xpert.digital
Ootan meie ühist projekti.