Sélection de voix 📢


Les systèmes d'IA, les systèmes à haut risque et la loi sur l'IA pour la pratique dans les entreprises et les autorités

Publié le: 13 février 2025 / mise à jour de: 13 février 2025 - Auteur: Konrad Wolfenstein

Systèmes d'IA Systèmes à haut risque et la loi sur l'IA pour la pratique dans les entreprises et les autorités

Systèmes d'IA Systèmes à haut risque et AI Act for Practice dans les entreprises et les autorités-IMAGE: Xpert.Digital

ACT de l'UE KI: nouvelles directives de la Commission de l'UE - ce qui doit savoir maintenant

Les systèmes d'IA, les applications à haut risque et la loi sur l'IA dans les entreprises et les autorités

La Commission européenne a publié des directives approfondies le 11 février 2025 pour la mise en œuvre pratique de la loi UE KI (AI Act). Ceux-ci sont destinés à aider les entreprises et les autorités à mieux comprendre les exigences de la loi et à les mettre en œuvre conformément à. L'accent est particulièrement mis sur les pratiques de l'IA interdites, les systèmes à haut risque et les mesures pour se conformer aux réglementations.

Aspects importants des directives

Pratiques interdites d'IA

La loi sur l'IA interdit explicitement certaines applications d'IA qui sont classées comme inacceptables risquées. Ces interdictions sont en vigueur depuis le 2 février 2025. Ceux-ci incluent:

  • Les systèmes d'IA qui utilisent des techniques manipulateurs ou trompeuses
  • Les systèmes qui utilisent les vulnérabilités de certaines personnes ou groupes de manière ciblée
  • Systèmes d'évaluation sociale (notation sociale)
  • AI pour prédire les actes criminels potentiels sans preuve claire
  • Strot non contrôlé des images faciales d'Internet pour l'identification biométrique
  • Systèmes de détection d'émotions au travail ou dans des établissements d'enseignement
  • Systèmes d'identification biométriques en temps réel dans les espaces publics (à quelques exceptions près des autorités de l'application des lois)

Ces interdictions visent à garantir que les technologies d'IA sont utilisées de manière éthique et responsable et ne violent pas les droits fondamentaux.

Application pratique des directives

Les lignes directrices de 140 pages de la Commission de l'UE contiennent de nombreuses études de cas pratiques pour faciliter la classification correcte de leurs systèmes d'IA. Bien que ces directives ne soient pas juridiquement contraignantes, elles servent de référence aux autorités de supervision dans la surveillance et l'application des règlements.

Signification pour les entreprises et les autorités

Les entreprises et les autorités doivent s'occuper activement des directives afin de:

  1. Pour vérifier vos systèmes d'IA existants pour des violations possibles
  2. Pour effectuer les ajustements nécessaires à un stade précoce
  3. Construire des structures de conformité internes pour éviter les sanctions

La non-compliance avec le règlement peut avoir de graves conséquences. Les sanctions varient jusqu'à 35 millions d'euros ou 7% du chiffre d'affaires annuel mondial d'une entreprise, selon le montant plus élevé.

Étapes suivantes

Avant que les directives ne soient pleinement mises en œuvre, elles doivent toujours être traduites dans toutes les langues de bureau de l'UE et officiellement adoptées. Néanmoins, les entreprises et les autorités devraient prendre de manière proactive des mesures pour préparer l'introduction progressive de la loi sur l'IA. L'application complète de la loi est prévue pour le 2 août 2026.

La catégorisation des risques des systèmes d'IA

L'UE AI ACT divise les systèmes d'IA en quatre classes de risque, chacune ayant des exigences réglementaires différentes:

1. Systèmes d'IA inacceptables pour les risques

Ces systèmes sont pleinement interdits dans l'UE car ils représentent un danger important pour les droits et libertés des citoyens. Les exemples sont:

  • Systèmes d'IA pour l'évaluation sociale (notation sociale)
  • IA manipulatrice qui influence inconsciemment le comportement des utilisateurs
  • Identification biométrique en temps réel dans les espaces publics à des fins d'application de la loi (à quelques exceptions près)
  • Les systèmes d'IA qui utilisent des vulnérabilités en raison de l'âge, de l'invalidité ou du statut socio-économique

2. Risque élevé - réglementation stricte requise

Ces systèmes doivent répondre aux exigences strictes et passer par un test de conformité avant de monter sur le marché. Ils incluent:

  • IA en tant que composant de sécurité dans des produits critiques tels que les dispositifs médicaux, les véhicules ou les machines
  • Systèmes d'IA indépendants avec des effets sur les droits fondamentaux (par exemple, vérification du crédit, dépistage de la demande, poursuites pénales, administration judiciaire)

Des exigences approfondies de transparence, de gestion des risques, de qualité des données et de supervision humaine s'appliquent à ces applications.

3. Risque limité - Obligations de transparence

Ces systèmes doivent informer les utilisateurs qu'ils interagissent avec une IA. Les exemples sont:

  • Chatbots
  • Deeppakes utilisés pour créer ou manipuler le contenu multimédia

4. Minimal ou pas de risque - Utilisation gratuite

Ces systèmes ne sont pas soumis à des obligations légales spéciales, mais un code de conduite volontaire est recommandé. Les exemples sont:

  • Jeux vidéo basés sur l'IA
  • Filtre à spam

Systèmes ACI à haut risque et leur réglementation

La loi sur l'IA définit les systèmes ACI à haut risque en tant que tels qui ont un impact significatif sur la sécurité, la santé ou les droits fondamentaux des humains. Ceux-ci peuvent être divisés en deux catégories principales:

1. AI en tant que composant de sécurité ou produit indépendant

Un système d'IA est classé comme un risque élevé s'il est l'un des deux:

  • Agit comme une composante de sécurité d'un produit qui relève des réglementations d'harmonisation de l'UE, ou
  • Une évaluation de la conformité est soumise à des dangers potentiels.

Des exemples de ces produits sont:

  • IA dans les dispositifs médicaux (par exemple les systèmes de diagnostic)
  • Systèmes d'aide à la conduite basés sur l'IA
  • IA dans la production industrielle pour l'évaluation des risques et l'assurance qualité

2. Systèmes ACI indépendants à haut risque avec pertinence sociale

Ces systèmes sont répertoriés dans l'annexe III de la loi sur l'IA et concernent les domaines sociaux critiques tels que:

a) Infrastructures critiques
  • IA pour le contrôle et la surveillance des réseaux d'électricité ou des réseaux de trafic
b) Éducation et emploi
  • IA pour l'évaluation automatisée des examens
  • IA pour sélectionner les candidats ou l'évaluation du rendement des employés
c) Accès aux avantages financiers et sociaux
  • Tests de crédit soutenus par l'IA
  • Systèmes d'évaluation du droit de réclamer des avantages sociaux
d) les forces de l'ordre et le pouvoir judiciaire
  • IA pour l'analyse des preuves et le soutien d'investigation
  • Systèmes basés sur l'IA pour les contrôles des frontières et la gestion des migrations
e) Identification biométrique
  • Systèmes d'identification à distance biométrique
  • Systèmes de détection d'émotions dans les environnements critiques de sécurité

Pour toutes ces applications KI à haut risque, des exigences strictes pour la gestion des risques, la transparence, le traitement des données, la documentation technique et la surveillance humaine s'appliquent.

AI AC de l'UE: Comment les entreprises peuvent-elles se préparer aux réglementations strictes sur l'IA

La Loi sur l'IA de l'UE établit un cadre clair pour l'utilisation des technologies de l'IA et attache une importance particulière à la protection des droits fondamentaux. Les entreprises et les autorités doivent traiter intensivement les nouvelles réglementations et adapter leurs demandes d'IA en conséquence afin d'éviter les sanctions. Des exigences strictes s'appliquent, en particulier pour les systèmes à haut risque, qui devraient être intégrés dans les processus de développement et de mise en œuvre à un stade précoce.

Le suivi continu de la législation et des mesures de conformité proactive est essentiel pour rendre l'utilisation de l'IA responsable et en même temps favoriser les innovations dans le cadre juridique. Les années à venir montreront comment la loi sur l'IA se révèle dans la pratique et quels ajustements pourraient être nécessaires.

Convient à:

 

Votre partenaire mondial de marketing et de développement commercial

☑️ Notre langue commerciale est l'anglais ou l'allemand

☑️ NOUVEAU : Correspondance dans votre langue nationale !

 

Pionnier du numérique - Konrad Wolfenstein

Konrad Wolfenstein

Je serais heureux de vous servir, vous et mon équipe, en tant que conseiller personnel.

Vous pouvez me contacter en remplissant le formulaire de contact ou simplement m'appeler au +49 89 89 674 804 (Munich) . Mon adresse e-mail est : wolfenstein xpert.digital

J'attends avec impatience notre projet commun.

 

 

☑️ Accompagnement des PME en stratégie, conseil, planification et mise en œuvre

☑️ Création ou réalignement de la stratégie digitale et digitalisation

☑️ Expansion et optimisation des processus de vente à l'international

☑️ Plateformes de trading B2B mondiales et numériques

☑️ Pionnier Développement Commercial / Marketing / RP / Salons


⭐️ Intelligence artificielle (AI) -ai blog, hotspot et hub de contenu ⭐️ Intelligence numérique ⭐️ Xpaper