Publicado el: 13 de febrero de 2025 / Actualización de: 13 de febrero de 2025 - Autor: Konrad Wolfenstein
Sistemas de IA Sistemas de alto riesgo y la Ley de IA para práctica en empresas y autoridades-imagen: xpert.digital
Ley de la UE KI: nuevas directrices de la Comisión de la UE, lo que las empresas necesitan saber ahora
Sistemas de IA, aplicaciones de alto riesgo y la Ley de IA en empresas y autoridades
La Comisión Europea publicó extensas directrices el 11 de febrero de 2025 para la implementación práctica de la Ley de la UE KI (AIT). Estos están destinados a apoyar a las empresas y las autoridades para comprender mejor los requisitos de la ley e implementarlos de acuerdo con. El enfoque se centra particularmente en las prácticas de IA prohibidas, los sistemas de alto riesgo y las medidas para cumplir con las regulaciones.
Aspectos importantes de las pautas
Prácticas de IA prohibidas
La Ley AI prohíbe explícitamente ciertas aplicaciones de IA que se clasifican como riesgosas inaceptables. Estas prohibiciones han estado en vigor desde el 2 de febrero de 2025. Estos incluyen:
- Sistemas de IA que utilizan técnicas manipuladoras o engañosas
- Sistemas que utilizan vulnerabilidades de ciertas personas o grupos de manera específica
- Sistemas de evaluación social (puntuación social)
- AI para predecir posibles actos penales sin evidencia clara
- Raspado no controlado de imágenes faciales de Internet para identificación biométrica
- Sistemas para la detección de emociones en el trabajo o en instituciones educativas
- Sistemas de identificación biométricos en tiempo real en espacios públicos (con algunas excepciones para las autoridades de aplicación de la ley)
Estas prohibiciones están destinadas a garantizar que las tecnologías de IA se usen de manera ética y responsable y no violen los derechos fundamentales.
Aplicación práctica de las pautas
Las pautas de 140 páginas de la Comisión de la UE contienen numerosos estudios de casos prácticos para facilitar la clasificación correcta de sus sistemas de IA. Aunque estas pautas no son legalmente vinculantes, sirven como referencia para las autoridades de supervisión en el monitoreo y la aplicación de las regulaciones.
Significado para empresas y autoridades
Las empresas y las autoridades deben tratar activamente las pautas para:
- Para verificar sus sistemas de IA existentes para posibles violaciones
- Para hacer los ajustes necesarios en una etapa temprana
- Construir estructuras de cumplimiento internas para evitar castigos
El no complemento con las regulaciones puede tener graves consecuencias. Las sanciones varían hasta 35 millones de euros o el 7% de la facturación anual global de una empresa, dependiendo de qué cantidad sea mayor.
Siguientes pasos
Antes de que las directrices se implementen completamente, aún deben traducirse a todos los idiomas de oficina de la UE y adoptar formalmente. Sin embargo, las empresas y las autoridades deben tomar medidas de manera proactiva para prepararse para la introducción gradual de la Ley AI. La aplicación completa de la ley está prevista para el 2 de agosto de 2026.
La categorización de riesgos de los sistemas de IA
La Ley de AI de la UE divide los sistemas AI en cuatro clases de riesgo, cada una de las cuales tiene diferentes requisitos reglamentarios:
1.
Estos sistemas están totalmente prohibidos en la UE porque representan un peligro significativo para los derechos y libertades de los ciudadanos. Los ejemplos son:
- Sistemas de IA para evaluación social (puntuación social)
- AI manipulador que influye inconscientemente en el comportamiento de los usuarios
- Identificación biométrica en tiempo real en espacios públicos para fines de aplicación de la ley (con algunas excepciones)
- Sistemas de IA que utilizan vulnerabilidades debido a la edad, la discapacidad o el estado socioeconómico
2. Alto riesgo - requerida regulación estricta
Estos sistemas tienen que cumplir con los requisitos estrictos y pasar por una prueba de conformidad antes de que lleguen al mercado. Ellos incluyen:
- AI como componente de seguridad en productos críticos como dispositivos médicos, vehículos o máquinas
- Sistemas de IA independientes con efectos sobre los derechos fundamentales (por ejemplo, verificación de crédito, detección de solicitudes, enjuiciamiento penal, administración judicial)
Los requisitos extensos para la transparencia, la gestión de riesgos, la calidad de los datos y la supervisión humana se aplican a estas aplicaciones.
3. Riesgo limitado - Obligaciones de transparencia
Estos sistemas deben informar a los usuarios que interactúan con una IA. Los ejemplos son:
- Chatbots
- Deeppakes utilizados para crear o manipular contenido multimedia
4. Mínimo o ningún riesgo - Uso gratuito
Dichos sistemas no están sujetos a obligaciones legales especiales, pero se recomienda un código de conducta voluntario. Los ejemplos son:
- Videojuegos basados en AI
- Filtro de spam
Sistemas ACI de alto riesgo y su regulación
La Ley de IA define sistemas ACI de alto riesgo como tal que tienen un impacto significativo en la seguridad, la salud o los derechos fundamentales de los humanos. Estos se pueden dividir en dos categorías principales:
1. AI como componente de seguridad o producto independiente
Un sistema de IA se clasifica como un alto riesgo si es:
- Actúa como un componente de seguridad de un producto que cae bajo las regulaciones de armonización de la UE, o
- Una evaluación de conformidad está sujeta a peligros potenciales.
Ejemplos de tales productos son:
- AI en dispositivos médicos (por ejemplo, sistemas de diagnóstico)
- Sistemas de asistencia de conducción basados en IA
- AI en producción industrial para evaluación de riesgos y garantía de calidad
2. Sistemas ACI de alto riesgo independientes con relevancia social
Estos sistemas se enumeran en el Anexo III de la Ley AI y se preocupan por áreas sociales críticas como:
a) Infraestructuras críticas
- AI para el control y el monitoreo de redes de electricidad o redes de tráfico
b) Educación y empleo
- AI para la evaluación automatizada de los exámenes
- AI a los solicitantes seleccionados o la evaluación del desempeño de los empleados
c) Acceso a beneficios financieros y sociales
- Pruebas de crédito respaldadas por IA
- Sistemas para evaluar el derecho a reclamar beneficios sociales
d) Aplicación de la ley y poder judicial
- AI para análisis de evidencia y apoyo de investigación
- Sistemas basados en IA para controles fronterizos y gestión de migración
e) identificación biométrica
- Sistemas de identificación remota biométrica
- Sistemas de detección de emociones en entornos críticos de seguridad
Para todas estas aplicaciones de KI de alto riesgo, se aplican requisitos estrictos para la gestión de riesgos, la transparencia, el procesamiento de datos, la documentación técnica y el monitoreo humano.
Ley de AI de la UE: ¿Cómo pueden las empresas prepararse para las estrictas regulaciones de IA?
La Ley de AI de la UE establece un marco claro para el uso de tecnologías de IA y otorga especial importancia a la protección de los derechos fundamentales. Las empresas y las autoridades tienen que tratar intensamente con las nuevas regulaciones y adaptar sus aplicaciones de IA en consecuencia para evitar sanciones. Se aplican requisitos estrictos, especialmente para sistemas de alto riesgo, que deben integrarse en los procesos de desarrollo e implementación en una etapa temprana.
El monitoreo continuo de la legislación y las medidas de cumplimiento proactivas son esenciales para hacer que el uso de la IA sea responsable y al mismo tiempo promover innovaciones dentro del marco legal. Los próximos años mostrarán cómo la Ley AI se demuestra en la práctica y qué ajustes adicionales podrían ser necesarios.
Adecuado para:
Su socio global de marketing y desarrollo empresarial
☑️ Nuestro idioma comercial es inglés o alemán.
☑️ NUEVO: ¡Correspondencia en tu idioma nacional!
Estaré encantado de servirle a usted y a mi equipo como asesor personal.
Puedes ponerte en contacto conmigo rellenando el formulario de contacto o simplemente llámame al +49 89 89 674 804 (Múnich) . Mi dirección de correo electrónico es: wolfenstein ∂ xpert.digital
Estoy deseando que llegue nuestro proyecto conjunto.