Icône du site Web Xpert.Digital

Les systèmes d'IA, les systèmes à haut risque et la loi sur l'IA pour la pratique dans les entreprises et les autorités

Systèmes d'IA Systèmes à haut risque et la loi sur l'IA pour la pratique dans les entreprises et les autorités

Systèmes d'IA : Systèmes à haut risque et loi sur l'IA pour la pratique dans les entreprises et les pouvoirs publics – Image : Xpert.Digital

Droit européen de l'IA : nouvelles orientations de la Commission européenne : ce que les entreprises doivent savoir dès maintenant

Systèmes d’IA, applications à haut risque et loi sur l’IA dans les entreprises et les autorités publiques

Le 11 février 2025, la Commission européenne a publié des lignes directrices détaillées sur la mise en œuvre pratique de la loi européenne sur l'IA. Ces lignes directrices visent à aider les entreprises et les autorités publiques à mieux comprendre et respecter les exigences de la loi. Elles mettent particulièrement l'accent sur les pratiques d'IA interdites, les systèmes à haut risque et les mesures permettant de garantir la conformité.

Aspects clés des lignes directrices

Pratiques d'IA interdites

La loi sur l'IA interdit explicitement certaines applications d'IA jugées présenter des risques inacceptables. Ces interdictions sont en vigueur depuis le 2 février 2025. Elles concernent notamment :

  • Systèmes d'IA qui utilisent des techniques de manipulation ou de tromperie
  • Systèmes qui exploitent spécifiquement les vulnérabilités de certains individus ou groupes
  • Systèmes de notation sociale
  • L'IA pour prédire les actes criminels potentiels sans preuves évidentes
  • Collecte incontrôlée d'images faciales sur Internet à des fins d'identification biométrique
  • Systèmes de reconnaissance des émotions sur le lieu de travail ou dans les établissements d'enseignement
  • Systèmes d'identification biométrique en temps réel dans les espaces publics (à quelques exceptions près pour les forces de l'ordre)

Ces interdictions visent à garantir que les technologies d'IA soient utilisées de manière éthique et responsable et ne violent pas les droits fondamentaux.

Application pratique des directives

Les lignes directrices de la Commission européenne, qui comptent 140 pages, contiennent de nombreuses études de cas pratiques pour aider les entreprises et les autorités publiques à classer correctement leurs systèmes d'IA. Bien que ces lignes directrices ne soient pas juridiquement contraignantes, elles servent de référence aux autorités de surveillance pour le contrôle et l'application de la réglementation.

Importance pour les entreprises et les autorités

Les entreprises et les autorités doivent s'engager activement dans la mise en œuvre de ces lignes directrices afin de :

  1. examiner vos systèmes d'IA existants afin de déceler d'éventuelles violations
  2. Pour procéder aux ajustements nécessaires au plus tôt
  3. Mettre en place des structures de conformité internes pour éviter les sanctions

Le non-respect de la réglementation peut entraîner de graves conséquences. Les sanctions peuvent atteindre 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial de l'entreprise, le montant le plus élevé étant retenu.

Prochaines étapes

Avant leur pleine application, les lignes directrices doivent encore être traduites dans toutes les langues officielles de l'UE et formellement adoptées. Néanmoins, les entreprises et les autorités publiques devraient prendre des mesures proactives pour se préparer à la mise en œuvre progressive de la loi sur l'IA. L'application intégrale de la loi est prévue pour le 2 août 2026.

Catégorisation des risques des systèmes d'IA

La loi européenne sur l'IA divise les systèmes d'IA en quatre classes de risque, chacune ayant des exigences réglementaires différentes :

1. Risque inacceptable – Systèmes d’IA interdits

Ces systèmes sont totalement interdits dans l'UE car ils constituent une menace importante pour les droits et libertés des citoyens. En voici quelques exemples :

  • Systèmes d'IA pour l'évaluation sociale
  • IA manipulatrice qui influence inconsciemment le comportement des utilisateurs
  • Identification biométrique en temps réel dans les espaces publics à des fins de maintien de l'ordre (à quelques exceptions près)
  • Systèmes d'IA qui exploitent les vulnérabilités liées à l'âge, au handicap ou au statut socio-économique

2. Risque élevé – réglementation stricte requise

Ces systèmes doivent satisfaire à des exigences strictes et subir des tests de conformité avant de pouvoir être mis sur le marché. Ils comprennent :

  • L'IA comme composante de sécurité dans les produits critiques tels que les dispositifs médicaux, les véhicules ou les machines
  • Systèmes d'IA autonomes ayant des implications sur les droits fondamentaux (par exemple, vérifications de solvabilité, sélection des candidatures, application de la loi, administration judiciaire)

Ces applications sont soumises à des exigences strictes en matière de transparence, de gestion des risques, de qualité des données et de contrôle humain.

3. Risque limité – obligations de transparence

Ces systèmes doivent informer les utilisateurs qu'ils interagissent avec une IA. Exemples :

  • Chatbots
  • Les deepfakes sont utilisés pour créer ou manipuler du contenu multimédia.

4. Risque minimal ou nul – Utilisation gratuite

Ces systèmes ne sont soumis à aucune obligation légale spécifique ; toutefois, un code de conduite volontaire est recommandé. En voici quelques exemples :

  • Jeux vidéo basés sur l'IA
  • Filtre anti-spam

Les systèmes d’IA à haut risque et leur réglementation

La loi sur l'IA définit les systèmes d'IA à haut risque comme ceux qui ont un impact significatif sur la sécurité, la santé ou les droits fondamentaux des personnes. Ces systèmes peuvent être divisés en deux grandes catégories :

1. L'IA en tant que composant de sécurité ou produit autonome

Un système d'IA est classé comme à haut risque si :

  • Il fonctionne comme un élément de sécurité d'un produit relevant de la réglementation harmonisée de l'UE, ou
  • Il fait l'objet d'une évaluation de conformité car il présente des risques potentiels.

Exemples de tels produits :

  • L'IA dans les dispositifs médicaux (par exemple, les systèmes de diagnostic)
  • Systèmes d'assistance à la conduite basés sur l'IA
  • L'IA dans la production industrielle pour l'évaluation des risques et l'assurance qualité

2. Systèmes d'IA autonomes à haut risque ayant une pertinence sociétale

Ces systèmes sont énumérés à l'annexe III de la loi sur l'IA et affectent des domaines critiques de la société tels que :

a) Infrastructures critiques
  • L'IA pour le contrôle et la surveillance des réseaux électriques ou des réseaux de transport
b) Éducation et emploi
  • IA pour l'évaluation automatisée des examens
  • L'IA pour la sélection des candidats ou l'évaluation des performances des employés
c) Accès aux prestations financières et sociales
  • Vérifications de solvabilité basées sur l'IA
  • Systèmes d'évaluation de l'éligibilité aux prestations sociales
d) Application de la loi et justice
  • L'IA au service de l'analyse des preuves et de l'aide à l'enquête
  • Systèmes d'IA pour le contrôle des frontières et la gestion des migrations
e) Identification biométrique
  • Systèmes d'identification biométrique à distance
  • Systèmes de reconnaissance des émotions dans les environnements critiques pour la sécurité

Toutes ces applications d'IA à haut risque sont soumises à des exigences strictes en matière de gestion des risques, de transparence, de traitement des données, de documentation technique et de supervision humaine.

Loi européenne sur l'IA : Comment les entreprises peuvent se préparer à la réglementation stricte en matière d'IA

La loi européenne sur l'IA établit un cadre clair pour l'utilisation des technologies d'IA et met l'accent sur la protection des droits fondamentaux. Les entreprises et les autorités publiques doivent se familiariser avec cette nouvelle réglementation et adapter leurs applications d'IA en conséquence afin d'éviter les sanctions. Des exigences particulièrement strictes s'appliquent aux systèmes à haut risque, qui doivent être intégrés dès les premières étapes de leur développement et de leur mise en œuvre.

Un suivi constant de la législation et des mesures proactives de conformité sont essentiels pour garantir une utilisation responsable de l'IA tout en favorisant l'innovation dans le cadre légal. Les prochaines années permettront de constater l'efficacité de la loi sur l'IA dans la pratique et d'identifier les ajustements nécessaires.

Convient à:

 

Votre partenaire mondial de marketing et de développement commercial

☑️ Notre langue commerciale est l'anglais ou l'allemand

☑️ NOUVEAU : Correspondance dans votre langue nationale !

 

Konrad Wolfenstein

Je serais heureux de vous servir, vous et mon équipe, en tant que conseiller personnel.

Vous pouvez me contacter en remplissant le formulaire de contact ou simplement m'appeler au +49 89 89 674 804 (Munich) . Mon adresse e-mail est : wolfenstein xpert.digital

J'attends avec impatience notre projet commun.

 

 

☑️ Accompagnement des PME en stratégie, conseil, planification et mise en œuvre

☑️ Création ou réalignement de la stratégie digitale et digitalisation

☑️ Expansion et optimisation des processus de vente à l'international

☑️ Plateformes de trading B2B mondiales et numériques

☑️ Pionnier Développement Commercial / Marketing / RP / Salons

Quitter la version mobile