Publié le: 13 février 2025 / mise à jour de: 13 février 2025 - Auteur: Konrad Wolfenstein
Systèmes d'IA Systèmes à haut risque et AI Act for Practice dans les entreprises et les autorités-IMAGE: Xpert.Digital
ACT de l'UE KI: nouvelles directives de la Commission de l'UE - ce qui doit savoir maintenant
Les systèmes d'IA, les applications à haut risque et la loi sur l'IA dans les entreprises et les autorités
La Commission européenne a publié des directives approfondies le 11 février 2025 pour la mise en œuvre pratique de la loi UE KI (AI Act). Ceux-ci sont destinés à aider les entreprises et les autorités à mieux comprendre les exigences de la loi et à les mettre en œuvre conformément à. L'accent est particulièrement mis sur les pratiques de l'IA interdites, les systèmes à haut risque et les mesures pour se conformer aux réglementations.
Aspects importants des directives
Pratiques interdites d'IA
La loi sur l'IA interdit explicitement certaines applications d'IA qui sont classées comme inacceptables risquées. Ces interdictions sont en vigueur depuis le 2 février 2025. Ceux-ci incluent:
- Les systèmes d'IA qui utilisent des techniques manipulateurs ou trompeuses
- Les systèmes qui utilisent les vulnérabilités de certaines personnes ou groupes de manière ciblée
- Systèmes d'évaluation sociale (notation sociale)
- AI pour prédire les actes criminels potentiels sans preuve claire
- Strot non contrôlé des images faciales d'Internet pour l'identification biométrique
- Systèmes de détection d'émotions au travail ou dans des établissements d'enseignement
- Systèmes d'identification biométriques en temps réel dans les espaces publics (à quelques exceptions près des autorités de l'application des lois)
Ces interdictions visent à garantir que les technologies d'IA sont utilisées de manière éthique et responsable et ne violent pas les droits fondamentaux.
Application pratique des directives
Les lignes directrices de 140 pages de la Commission de l'UE contiennent de nombreuses études de cas pratiques pour faciliter la classification correcte de leurs systèmes d'IA. Bien que ces directives ne soient pas juridiquement contraignantes, elles servent de référence aux autorités de supervision dans la surveillance et l'application des règlements.
Signification pour les entreprises et les autorités
Les entreprises et les autorités doivent s'occuper activement des directives afin de:
- Pour vérifier vos systèmes d'IA existants pour des violations possibles
- Pour effectuer les ajustements nécessaires à un stade précoce
- Construire des structures de conformité internes pour éviter les sanctions
La non-compliance avec le règlement peut avoir de graves conséquences. Les sanctions varient jusqu'à 35 millions d'euros ou 7% du chiffre d'affaires annuel mondial d'une entreprise, selon le montant plus élevé.
Étapes suivantes
Avant que les directives ne soient pleinement mises en œuvre, elles doivent toujours être traduites dans toutes les langues de bureau de l'UE et officiellement adoptées. Néanmoins, les entreprises et les autorités devraient prendre de manière proactive des mesures pour préparer l'introduction progressive de la loi sur l'IA. L'application complète de la loi est prévue pour le 2 août 2026.
La catégorisation des risques des systèmes d'IA
L'UE AI ACT divise les systèmes d'IA en quatre classes de risque, chacune ayant des exigences réglementaires différentes:
1. Systèmes d'IA inacceptables pour les risques
Ces systèmes sont pleinement interdits dans l'UE car ils représentent un danger important pour les droits et libertés des citoyens. Les exemples sont:
- Systèmes d'IA pour l'évaluation sociale (notation sociale)
- IA manipulatrice qui influence inconsciemment le comportement des utilisateurs
- Identification biométrique en temps réel dans les espaces publics à des fins d'application de la loi (à quelques exceptions près)
- Les systèmes d'IA qui utilisent des vulnérabilités en raison de l'âge, de l'invalidité ou du statut socio-économique
2. Risque élevé - réglementation stricte requise
Ces systèmes doivent répondre aux exigences strictes et passer par un test de conformité avant de monter sur le marché. Ils incluent:
- IA en tant que composant de sécurité dans des produits critiques tels que les dispositifs médicaux, les véhicules ou les machines
- Systèmes d'IA indépendants avec des effets sur les droits fondamentaux (par exemple, vérification du crédit, dépistage de la demande, poursuites pénales, administration judiciaire)
Des exigences approfondies de transparence, de gestion des risques, de qualité des données et de supervision humaine s'appliquent à ces applications.
3. Risque limité - Obligations de transparence
Ces systèmes doivent informer les utilisateurs qu'ils interagissent avec une IA. Les exemples sont:
- Chatbots
- Deeppakes utilisés pour créer ou manipuler le contenu multimédia
4. Minimal ou pas de risque - Utilisation gratuite
Ces systèmes ne sont pas soumis à des obligations légales spéciales, mais un code de conduite volontaire est recommandé. Les exemples sont:
- Jeux vidéo basés sur l'IA
- Filtre à spam
Systèmes ACI à haut risque et leur réglementation
La loi sur l'IA définit les systèmes ACI à haut risque en tant que tels qui ont un impact significatif sur la sécurité, la santé ou les droits fondamentaux des humains. Ceux-ci peuvent être divisés en deux catégories principales:
1. AI en tant que composant de sécurité ou produit indépendant
Un système d'IA est classé comme un risque élevé s'il est l'un des deux:
- Agit comme une composante de sécurité d'un produit qui relève des réglementations d'harmonisation de l'UE, ou
- Une évaluation de la conformité est soumise à des dangers potentiels.
Des exemples de ces produits sont:
- IA dans les dispositifs médicaux (par exemple les systèmes de diagnostic)
- Systèmes d'aide à la conduite basés sur l'IA
- IA dans la production industrielle pour l'évaluation des risques et l'assurance qualité
2. Systèmes ACI indépendants à haut risque avec pertinence sociale
Ces systèmes sont répertoriés dans l'annexe III de la loi sur l'IA et concernent les domaines sociaux critiques tels que:
a) Infrastructures critiques
- IA pour le contrôle et la surveillance des réseaux d'électricité ou des réseaux de trafic
b) Éducation et emploi
- IA pour l'évaluation automatisée des examens
- IA pour sélectionner les candidats ou l'évaluation du rendement des employés
c) Accès aux avantages financiers et sociaux
- Tests de crédit soutenus par l'IA
- Systèmes d'évaluation du droit de réclamer des avantages sociaux
d) les forces de l'ordre et le pouvoir judiciaire
- IA pour l'analyse des preuves et le soutien d'investigation
- Systèmes basés sur l'IA pour les contrôles des frontières et la gestion des migrations
e) Identification biométrique
- Systèmes d'identification à distance biométrique
- Systèmes de détection d'émotions dans les environnements critiques de sécurité
Pour toutes ces applications KI à haut risque, des exigences strictes pour la gestion des risques, la transparence, le traitement des données, la documentation technique et la surveillance humaine s'appliquent.
AI AC de l'UE: Comment les entreprises peuvent-elles se préparer aux réglementations strictes sur l'IA
La Loi sur l'IA de l'UE établit un cadre clair pour l'utilisation des technologies de l'IA et attache une importance particulière à la protection des droits fondamentaux. Les entreprises et les autorités doivent traiter intensivement les nouvelles réglementations et adapter leurs demandes d'IA en conséquence afin d'éviter les sanctions. Des exigences strictes s'appliquent, en particulier pour les systèmes à haut risque, qui devraient être intégrés dans les processus de développement et de mise en œuvre à un stade précoce.
Le suivi continu de la législation et des mesures de conformité proactive est essentiel pour rendre l'utilisation de l'IA responsable et en même temps favoriser les innovations dans le cadre juridique. Les années à venir montreront comment la loi sur l'IA se révèle dans la pratique et quels ajustements pourraient être nécessaires.
Convient à:
Votre partenaire mondial de marketing et de développement commercial
☑️ Notre langue commerciale est l'anglais ou l'allemand
☑️ NOUVEAU : Correspondance dans votre langue nationale !
Je serais heureux de vous servir, vous et mon équipe, en tant que conseiller personnel.
Vous pouvez me contacter en remplissant le formulaire de contact ou simplement m'appeler au +49 89 89 674 804 (Munich) . Mon adresse e-mail est : wolfenstein ∂ xpert.digital
J'attends avec impatience notre projet commun.