Megjelent: 2025. február 13. / Frissítve: 2025. február 13. – Szerző: Konrad Wolfenstein

MI-rendszerek, magas kockázatú rendszerek és a MI-törvény gyakorlati alkalmazása vállalatoknál és hatóságoknál – Kép: Xpert.Digital
EU MI-jogszabályok: Új irányelvek az Európai Bizottságtól – Amit a vállalatoknak most tudniuk kell
MI-rendszerek, magas kockázatú alkalmazások és a MI-törvény a vállalatoknál és a hatóságoknál
2025. február 11-én az Európai Bizottság átfogó iránymutatásokat tett közzé az uniós mesterséges intelligenciatörvény gyakorlati végrehajtásáról. Ezek az iránymutatások célja, hogy segítsék a vállalatokat és a hatóságokat a törvény követelményeinek jobb megértésében és betartásában. Különös hangsúlyt fektetnek a tiltott mesterséges intelligencia gyakorlatokra, a magas kockázatú rendszerekre és a megfelelés biztosítását célzó intézkedésekre.
Az irányelvek főbb szempontjai
Tiltott mesterséges intelligencia gyakorlatok
A mesterséges intelligenciatörvény kifejezetten tiltja bizonyos, elfogadhatatlanul magas kockázatot jelentő mesterséges intelligenciaalkalmazásokat. Ezek a tilalmak 2025. február 2. óta vannak érvényben. Többek között a következőket foglalják magukban:
- Manipulatív vagy megtévesztő technikákat alkalmazó mesterséges intelligenciarendszerek
- Olyan rendszerek, amelyek kifejezetten bizonyos személyek vagy csoportok sebezhetőségét használják ki
- Szociális pontozási rendszerek
- A mesterséges intelligencia egyértelmű bizonyítékok nélkül is képes előre jelezni a potenciális bűncselekményeket
- Arcképmások ellenőrizetlen kinyerése az internetről biometrikus azonosítás céljából
- Érzelemfelismerő rendszerek a munkahelyen vagy az oktatási intézményekben
- Biometrikus valós idejű azonosító rendszerek nyilvános helyeken (néhány kivételtől eltekintve a bűnüldöző szervek esetében)
Ezek a tilalmak azt hivatottak biztosítani, hogy a mesterséges intelligencia technológiáit etikusan és felelősségteljesen használják, és ne sértsék az alapvető jogokat.
Az irányelvek gyakorlati alkalmazása
Az Európai Bizottság 140 oldalas irányelvei számos gyakorlati esettanulmányt tartalmaznak, amelyek segítenek a vállalatoknak és a hatóságoknak MI-rendszereik helyes besorolásában. Bár ezek az irányelvek nem jogilag kötelező érvényűek, referenciaként szolgálnak a felügyeleti hatóságok számára a szabályozások ellenőrzése és betartatása során.
Fontosság a vállalatok és a hatóságok számára
A vállalatoknak és a hatóságoknak aktívan be kell tartaniuk az irányelveket a következők érdekében:
- a meglévő mesterséges intelligencia rendszerek felülvizsgálata a lehetséges szabálysértések szempontjából
- A szükséges kiigazítások korai elvégzéséhez
- Belső megfelelőségi struktúrák kiépítése a büntetések elkerülése érdekében
A szabályozások be nem tartása súlyos következményekkel járhat. A szankciók akár 35 millió eurót vagy a vállalat globális éves forgalmának 7%-át is elérhetik, attól függően, hogy melyik a magasabb.
Következő lépések
Mielőtt az irányelveket teljes mértékben végre lehetne hajtani, azokat még le kell fordítani az EU összes hivatalos nyelvére, és hivatalosan el kell fogadni. Mindazonáltal a vállalkozásoknak és a hatóságoknak proaktív lépéseket kell tenniük a mesterséges intelligencia törvény fokozatos bevezetésének előkészítése érdekében. A törvény teljes körű alkalmazása 2026. augusztus 2-ra van kitűzve.
MI-rendszerek kockázatbesorolása
Az EU mesterséges intelligencia törvénye négy kockázati osztályba sorolja a mesterséges intelligencia rendszereket, amelyek mindegyikére eltérő szabályozási követelmények vonatkoznak:
1. Elfogadhatatlan kockázat – Tiltott mesterséges intelligenciarendszerek
Ezek a rendszerek teljesen betiltottak az EU-ban, mivel jelentős veszélyt jelentenek a polgárok jogaira és szabadságaira. Példák többek között:
- AI rendszerek a közösségi pontozáshoz
- Manipulatív mesterséges intelligencia, amely tudattalanul befolyásolja a felhasználói viselkedést
- Valós idejű biometrikus azonosítás nyilvános helyeken bűnüldözési célokra (néhány kivételtől eltekintve)
- Az életkor, a fogyatékosság vagy a társadalmi-gazdasági státusz miatti sebezhetőségeket kihasználó mesterséges intelligenciarendszerek
2. Magas kockázat – szigorú szabályozás szükséges
Ezeknek a rendszereknek szigorú követelményeknek kell megfelelniük, és megfelelőségi vizsgálaton kell átesniük, mielőtt forgalomba hozhatók. Ezek a következők:
- A mesterséges intelligencia, mint biztonsági elem kritikus termékekben, például orvostechnikai eszközökben, járművekben vagy gépekben
- Önálló MI-rendszerek, amelyek hatással vannak az alapvető jogokra (pl. hitelképesség-ellenőrzés, kérelmek szűrése, bűnüldözés, igazságszolgáltatás)
Ezekre az alkalmazásokra kiterjedő követelmények vonatkoznak az átláthatóság, a kockázatkezelés, az adatminőség és az emberi felügyelet tekintetében.
3. Korlátozott kockázat – átláthatósági kötelezettségek
Ezeknek a rendszereknek tájékoztatniuk kell a felhasználókat arról, hogy mesterséges intelligenciával lépnek interakcióba. Példák többek között:
- Csevegőrobotok
- A deepfake-eket médiatartalmak létrehozására vagy manipulálására használják.
4. Minimális vagy semmilyen kockázat – Ingyenes használat
Az ilyen rendszerekre nem vonatkoznak semmilyen konkrét jogi kötelezettségek, azonban ajánlott egy önkéntes magatartási kódex. Példák a következőkre:
- Mesterséges intelligencia által vezérelt videojátékok
- Spamszűrő
Magas kockázatú mesterséges intelligenciarendszerek és szabályozásuk
A mesterséges intelligenciatörvény a magas kockázatú mesterséges intelligenciarendszereket olyan rendszerekként határozza meg, amelyek jelentős hatással vannak az emberek biztonságára, egészségére vagy alapvető jogaira. Ezek két fő kategóriába sorolhatók:
1. MI, mint biztonsági komponens vagy önálló termék
Egy mesterséges intelligenciarendszert magas kockázatúnak minősítenek, ha:
- Az EU harmonizációs szabályozásainak hatálya alá tartozó termék biztonsági alkatrészeként működik, vagy
- Megfelelőségértékelésnek van alávetve, mivel potenciális veszélyeket jelent.
Ilyen termékek például:
- MI az orvostechnikai eszközökben (pl. diagnosztikai rendszerek)
- Mesterséges intelligencia által támogatott vezetéstámogató rendszerek
- MI az ipari termelésben a kockázatértékelés és a minőségbiztosítás érdekében
2. Önálló, magas kockázatú, társadalmilag releváns MI-rendszerek
Ezek a rendszerek a mesterséges intelligencia törvény III. mellékletében szerepelnek, és a társadalom kritikus területeit érintik, mint például:
a) Kritikus infrastruktúrák
- MI az elektromos hálózatok vagy közlekedési hálózatok vezérléséhez és felügyeletéhez
b) Oktatás és foglalkoztatás
- Mesterséges intelligencia az automatizált vizsgaértékeléshez
- MI a jelentkezők kiválasztásához vagy az alkalmazottak teljesítményének értékeléséhez
c) Hozzáférés a pénzügyi és szociális juttatásokhoz
- Mesterséges intelligencia által vezérelt hitelképesség-ellenőrzések
- Szociális ellátásokra való jogosultság felmérésére szolgáló rendszerek
d) Bűnüldözés és igazságszolgáltatás
- MI a bizonyítékok elemzéséhez és a nyomozás támogatásához
- Mesterséges intelligencia által támogatott rendszerek a határellenőrzéshez és a migrációkezeléshez
e) Biometrikus azonosítás
- Biometrikus távoli azonosítási rendszerek
- Érzelemfelismerő rendszerek biztonságkritikus környezetekben
Mindezen magas kockázatú mesterséges intelligenciaalkalmazásokra szigorú követelmények vonatkoznak a kockázatkezelés, az átláthatóság, az adatfeldolgozás, a műszaki dokumentáció és az emberi felügyelet tekintetében.
EU AI törvény: Hogyan készülhetnek fel a vállalatok a szigorú AI-szabályozásra
Az EU mesterséges intelligencia törvénye egyértelmű keretet határoz meg a mesterséges intelligencia technológiák használatára, és különös hangsúlyt fektet az alapvető jogok védelmére. A vállalatoknak és a hatóságoknak alaposan meg kell ismerkedniük az új szabályozással, és ennek megfelelően kell átalakítaniuk mesterséges intelligencia alkalmazásaikat a szankciók elkerülése érdekében. Különösen szigorú követelmények vonatkoznak a magas kockázatú rendszerekre, amelyeket már a fejlesztési és megvalósítási folyamatok korai szakaszában be kell építeni.
A jogszabályok folyamatos nyomon követése és a proaktív megfelelési intézkedések elengedhetetlenek a mesterséges intelligencia felelősségteljes használatának biztosításához, miközben egyidejűleg előmozdítják az innovációt a jogi keretrendszeren belül. Az elkövetkező évek megmutatják, hogyan működik a mesterséges intelligencia törvény a gyakorlatban, és milyen további kiigazításokra lehet szükség.
Alkalmas:
Az Ön globális marketing- és üzletfejlesztési partnere
☑️ Üzleti nyelvünk angol vagy német
☑️ ÚJ: Levelezés az Ön nemzeti nyelvén!
Szívesen szolgálok Önt és csapatomat személyes tanácsadóként.
Felveheti velem a kapcsolatot az itt található kapcsolatfelvételi űrlap kitöltésével , vagy egyszerűen hívjon a +49 89 89 674 804 (München) . Az e-mail címem: wolfenstein ∂ xpert.digital
Nagyon várom a közös projektünket.


