Icono del sitio web Xpert.Digital

UE intensifica la regulación de la IA: las preguntas y respuestas más importantes al reglamento desde agosto de 2025

UE intensifica la regulación de la IA: las preguntas y respuestas más importantes al reglamento desde agosto de 2025

La UE intensifica la regulación de la IA: las preguntas y respuestas más importantes al Reglamento desde agosto de 2025 – Imagen: xpert.digital

Comienza EU-ki-office: así es como la UE monitorea la inteligencia artificial

¿Cuál es la ordenanza de la UE Ki y por qué se introdujo?

La ordenanza de la UE Ki, también conocida como la Ley de la UE AI (Ordenanza (UE) 2024/1689), es la primera ley integral del mundo sobre la regulación de la inteligencia artificial. La regulación fue aprobada por el Parlamento Europeo el 13 de marzo de 2024 y entró en vigor el 1 de agosto de 2024.

El objetivo principal de la regulación es crear un marco legal armonizado para el uso de IA en la Unión Europea. Por un lado, está destinado a promover innovaciones y fortalecer la confianza en la IA, pero por otro lado, asegúrese de que la IA solo se use de tal manera que los derechos y la seguridad fundamentales de los ciudadanos de la UE sigan preservados. La UE persigue un enfoque basado en el riesgo: cuanto mayor sea el riesgo de un sistema de IA, más integrales serán las obligaciones.

La regulación es una reacción directa al rápido desarrollo de la tecnología de IA y sus extensos efectos sociales. Con la despedida, la UE desea ofrecer protección contra los peligros potenciales y establecer Europa como un lugar destacado para la IA confiable.

Adecuado para:

¿Qué son los modelos de IA de propósito general y por qué es el foco de la regulación?

Según la definición de la ordenanza de la UE KI, los modelos de uso general de uso general (GPAI) son modelos de IA que tienen una usabilidad general considerable y pueden realizar una amplia gama de tareas diferentes. Estos modelos se pueden integrar en una variedad de sistemas o aplicaciones aguas abajo.

Su versatilidad es característica de los modelos GPAI: no se han desarrollado para una aplicación específica, pero ofrecen una amplia funcionalidad. A diferencia de los modelos de IA especializados, un modelo GPAI no se enseña solo una tarea especial y estrechamente atascada durante el entrenamiento desde el principio.

Ejemplos bien conocidos de modelos GPAI son GPT-4 de OpenAAI (utilizado en Microsoft Copilot y Chatgpt), Géminis por Google Deepmind, Claude von Anthrope y Llama of Meta. Debido a su alcance técnico y arquitectura de capacitación, estos sistemas cumplen con los criterios de un modelo GPAI de acuerdo con la regulación de la UE.

El enfoque regulatorio especial en los modelos GPAI se basa en su alto potencial de riesgo: dado que se pueden usar en muchas áreas, existe un riesgo especial de que la IA pueda dar como resultado aplicaciones que tienen un alto nivel de efectos sociales – por ejemplo, en la atención médica, préstamos o en recursos humanos.

¿Cuáles son las obligaciones vigentes el 2 de agosto de 2025?

A partir del 2 de agosto de 2025, entran en vigencia las obligaciones vinculantes para los proveedores de modelos GPAI. Estas nuevas regulaciones marcan un hito de tiempo decisivo de la regulación de la UE KI y afectan diferentes áreas:

Obligaciones de transparencia

Los proveedores deben proporcionar documentación técnica y divulgar información sobre métodos de capacitación, datos de capacitación y arquitectura del modelo. Esta documentación debe contener una descripción general del modelo AI, incluidas las tareas que se supone que debe realizar el modelo y el tipo de sistemas de IA en los que puede integrarse.

Conformidad de los derechos de autor

Los proveedores deben asegurarse de que sus modelos cumplan con la ley de derechos de autor de la UE. Esto incluye tener en cuenta los sitios web con señales de exclusión y configurar quejas para los titulares de derechos.

Deberes de gobernanza

Se deben implementar estructuras de gobierno apropiadas para garantizar el cumplimiento de las regulaciones. Esto también incluye requisitos de prueba e informes extendidos para modelos GPAI particularmente riesgosos.

Obligaciones de documentación

Se debe crear y publicar un resumen suficientemente detallado del contenido utilizado para la capacitación. Esto debería facilitar a las partes con interés legítimo, incluidos los propietarios de derechos de autor, el ejercicio y la aplicación de sus derechos.

¿Cómo funciona la supervisión de la oficina europea de la IA?

La Oficina Europea de KI (Oficina de AI) fue fundada el 24 de enero de 2024 por la Comisión Europea y desempeña un papel central en la implementación de la regulación de la IA. Organizalmente, es parte de las redes de comunicación de la Dirección General, Contenido y Tecnologías (DG Connect) de la Comisión Europea.

La oficina de IA tiene poderes de largo alcance para monitorear el cumplimiento de las regulaciones GPAI. Puede solicitar información de las empresas, calificar sus modelos y exigir que los defectos y problemas estén estacionados. En caso de violaciones o negaciones a proporcionar información, los funcionarios pueden eliminar modelos de IA del mercado o imponer multas.

La institución asume varias tareas centrales: desarrolla el código de comportamiento de IA vinculante, coordina la red de supervisión europea y monitorea el desarrollo del mercado de IA. Además, la oficina está destinada a desarrollar herramientas y métodos para evaluar modelos de IA generativos más grandes a los riesgos.

La oficina de IA consta de cinco presentaciones especializadas: regulación y cumplimiento, seguridad de IA, excelencia en IA y robótica, IA para el bien común y la coordinación de la innovación y la política de la IA. Esta estructura permite un apoyo integral para todos los aspectos de la regulación de la IA.

¿Cuáles son las sanciones de las violaciones de los requisitos de GPAI?

La ordenanza de la UE KI establece castigos sensibles por violaciones de los requisitos de GPAI. Los aletas pueden ser de hasta 15 millones de euros o el 3 por ciento de la facturación anual global – dependiendo de qué cantidad sea mayor.

Por violaciones particularmente graves, como el incumplimiento de la prohibición de ciertas prácticas de IA de acuerdo con el Artículo 5, se pueden imponer sanciones de hasta 35 millones de euros o el 7 por ciento de las ventas anuales globales. Esto subraya la determinación de la UE de hacer cumplir las nuevas reglas.

Además de las multas, existen más consecuencias legales: la información falsa o incompleta sobre las autoridades puede ser castigada con multas de hasta 7.5 millones de euros o 1.5 por ciento de las ventas anuales globales. Para la documentación inadecuada y la falta de cooperación con las autoridades de supervisión, los castigos amenazan la misma cantidad.

La cantidad de los castigos ilustra la seriedad con la que la UE persigue la aplicación de su regulación de IA. Un ejemplo actual es la multa de 15 millones de euros que la Autoridad de Protección de Datos italiana ha impuesto contra OpenAI, incluso si se llevó a cabo bajo el GDPR y no bajo la regulación de la IA.

Adecuado para:

¿Cuál es el código de comportamiento de IA y por qué es controvertido?

El Código de Comportamiento de AI (Código de práctica) es un instrumento voluntario desarrollado por 13 expertos independientes y contiene contribuciones de más de 1,000 partes interesadas. Fue publicado el 10 de julio de 2025 por la Comisión Europea y está destinado a ayudar a los proveedores de modelos GPAI a cumplir con los requisitos de la regulación de la IA.

El código se divide en tres capítulos principales: transparencia, derechos de autor, así como de seguridad y protección. Los capítulos sobre transparencia y derechos de autor están dirigidos a todos los proveedores de modelos GPAI, mientras que el capítulo sobre seguridad y protección solo es relevante para los proveedores de los modelos más avanzados con riesgos sistémicos.

Las empresas que firman voluntariamente el código se benefician de menos burocracia y aumentos de certeza legal. Cualquiera que no firme el código debe esperar más consultas de la Comisión. Esto crea presión indirecta para participar, aunque el código es oficialmente voluntario.

La controversia surge de las diferentes reacciones de las empresas: mientras OpenAi estaba listo para cooperar y le gustaría firmar el código, Meta rechazó la participación. Joel Kaplan, director de asuntos mundiales de Meta, criticó el código como legalmente inseguro y argumentó que va mucho más allá del alcance de la ley de IA.

¿Por qué Meta se niega a firmar el código de conducta?

Meta ha decidido no firmar el código de comportamiento de la UE para los modelos GPAI, que representa una notable confrontación con la regulación europea. Joel Kaplan, director de asuntos mundiales de Meta, fundó esta decisión en un puesto de LinkedIn con varios puntos críticos.

El principal punto de crítica es la incertidumbre legal: Meta argumenta que el código trae "una serie de incertidumbres legales para los desarrolladores de modelos y proporciona medidas que van mucho más allá del alcance de la ley de IA". La compañía teme que las formulaciones poco claras puedan conducir a malas interpretaciones y obstáculos burocráticos innecesarios.

Otro aspecto es la preocupación por la inhibición de la innovación: Meta advierte que el código podría ralentizar el desarrollo de modelos de IA avanzados en Europa y obstaculizar a las empresas europeas. La compañía ve los efectos en las nuevas empresas y las compañías más pequeñas que podrían estar en desventaja por las regulaciones de la competencia.

Este rechazo es notable, ya que Meta también quiere confiar en sus propios servicios de IA, como el modelo de idioma LLAMA 3 en la UE. La compañía planea utilizar su IA a través de sus propias plataformas, así como en cooperación con proveedores de nubes y hardware, por ejemplo, en los teléfonos inteligentes Qualcomm y las gafas de rayas-ban.

¿Qué empresas apoyan el código de conducta y cuál lo rechazó?

Las reacciones de las compañías de tecnología en el Código de Comportamiento de la UE son muy diferentes y reflejan la división de la industria con respecto a la regulación europea de la IA.

Partidario del código

Operai ha anunciado que quiere firmar el código y lo describe como un marco práctico para la implementación de la Ley de la UE KI. La compañía ve el código como la base para expandir su propia infraestructura y asociaciones en Europa. Microsoft también está listo para cooperar: el presidente Brad Smith explicó que fue "probablemente que firmaremos" y reconoceremos la cooperación de la oficina de IA positivamente con la industria.

Críticos y negativos

Meta es el crítico más destacado y se niega explícitamente a firmar. La compañía está involucrada en las filas de los críticos que los planes regulatorios de Europa para la IA ven como hostil a la innovación. Más de 40 CEOs de empresas europeas, incluidas ASML, Philips, Siemens y la startup de KI Mistral, han pedido un cambio de dos años de la Ley AI en una carta abierta.

Indeciso

Hasta ahora, Google y Anthrope no han comentado públicamente sobre su actitud, lo que indica procesos de evaluación interna. Esta renuencia podría tener razones estratégicas, ya que ambas compañías tienen que sopesar tanto las ventajas de la certeza legal como las desventajas de los costos adicionales de cumplimiento.

La Comisión de la UE se mantiene firme a pesar del corte industrial y los estados en el cronograma: se excluye el desplazamiento requerido de las reglas GPAI.

 

Integración de una plataforma de IA de origen independiente y interna para todos los problemas de la empresa

Integración de una plataforma de IA de origen independiente y de datos cruzados para todos los asuntos de la compañía – Imagen: xpert.digital

Ki-Gamechanger: la plataforma de IA más flexible – soluciones a medida que reducen los costos, mejoran sus decisiones y aumentan la eficiencia

Plataforma de IA independiente: integra todas las fuentes de datos de la compañía relevantes

  • Esta plataforma de IA interactúa con todas las fuentes de datos específicas
    • De SAP, Microsoft, Jira, Confluence, Salesforce, Zoom, Dropbox y muchos otros sistemas de gestión de datos
  • Integración rápida de IA: soluciones de IA hechas a medida para empresas en horas o días en lugar de meses
  • Infraestructura flexible: basada en la nube o alojamiento en su propio centro de datos (Alemania, Europa, libre elección de ubicación)
  • Seguridad de datos más alta: el uso en la firma de abogados es la evidencia segura
  • Usar en una amplia variedad de fuentes de datos de la empresa
  • Elección de sus propios modelos de IA (DE, UE, EE. UU., CN)

Desafíos que resuelve nuestra plataforma de IA

  • Falta de precisión de las soluciones de IA convencionales
  • Protección de datos y gestión segura de datos confidenciales
  • Altos costos y complejidad del desarrollo individual de IA
  • Falta de IA calificada
  • Integración de la IA en los sistemas de TI existentes

Más sobre esto aquí:

 

Comienza EU-ki-office: así es como la UE monitorea la inteligencia artificial

¿Cómo difieren los modelos GPAI normales de aquellos con riesgos sistémicos?

La ordenanza de la UE KI proporciona una clasificación de riesgo graduada para los modelos GPAI que diferencian entre modelos GPAI normales y aquellos con riesgos sistémicos. Esta distinción es crucial para las obligaciones aplicables.

Modelos GPAI normales

Debe cumplir con los requisitos básicos: documentación técnica detallada del modelo, información sobre los datos utilizados para la capacitación y el cumplimiento de los derechos de autor. Estos modelos están sujetos a las obligaciones estándar de acuerdo con el Artículo 53 de la regulación de la IA.

Modelos GPAI con riesgos sistémicos

Se clasifican de acuerdo con el artículo 51 de la ordenanza de IA. Un modelo se considera sistémicamente riesgoso si tiene "capacidad de alto impacto". Como punto de referencia, un modelo GPAI tiene un riesgo sistémico si "la cantidad acumulativa de los cálculos utilizados para su entrenamiento, medido en operaciones de coma deslizantes, es más de 10^25".

Las obligaciones adicionales se aplican a los modelos con riesgos sistémicos: implementación de evaluaciones de modelos que incluyen pruebas opuestas, evaluación y debilitamiento de posibles riesgos sistémicos, persecución e informes de accidentes graves a la oficina de IA y las autoridades nacionales responsables, así como para garantizar una protección de seguridad cibernética apropiada.

Esta gradación tiene en cuenta que los modelos particularmente poderosos también pueden rescatar riesgos particularmente altos y, por lo tanto, necesitan un monitoreo y control más estrictos.

Adecuado para:

¿Qué tienen que documentar las empresas y revelar específicamente?

Las obligaciones de documentación y transparencia para los proveedores de GPAI son exhaustivos y detallados. La documentación técnica de acuerdo con el Artículo 53 y el Apéndice XI del Reglamento AI deben cubrir diferentes áreas centrales.

Descripción del modelo general

La documentación debe contener una descripción completa del modelo GPAI, incluidas las tareas que debe realizar el modelo, el tipo de sistemas AI en los que puede integrarse, los principios aplicables de uso aceptable, la fecha de publicación y las modalidades de distribución.

Especificaciones técnicas

Información detallada sobre la arquitectura y el número de parámetros, modalidad y formato de entrada y gastos, licencia utilizada y medios técnicos utilizados para la integración en los sistemas de IA.

Proceso de desarrollo y datos de capacitación

Especificaciones de construcción del modelo y el proceso de capacitación, métodos y técnicas de capacitación, decisiones de diseño importantes y supuestos tomados, información sobre los conjuntos de datos utilizados, incluidos los métodos de tipo, origen y curación.

Resumen público del contenido de capacitación

La oficina de IA proporcionó una plantilla estandarizada, que ofrece una visión general de los datos utilizados para capacitar a los modelos. Esto también incluye las fuentes de las que se obtuvieron los datos, grandes registros de datos y los principales nombres de dominio.

La documentación debe estar disponible tanto para los proveedores posteriores como para la oficina de IA bajo pedido y se puede actualizar regularmente.

¿Qué papel juegan los derechos de autor en la nueva regulación?

Los derechos de autor adquieren una posición central en la ordenanza de la UE KI, ya que muchos modelos GPAI fueron entrenados con contenido con derechos de autor. El Código de Conducta dedica su propio capítulo a este tema.

Obligaciones de cumplimiento

Los proveedores deben implementar soluciones prácticas para el cumplimiento de la ley de consultoría de la UE. Esto incluye observar el protocolo de exclusión de robots (robots.txt) e identificar y mantener reservas de derechos para el rastreo web.

Medidas de protección técnica

Las empresas tienen que implementar medidas de protección técnica para evitar que sus modelos generen contenido infractor de derechos de autor. Esto podría ser un alto obstáculo, especialmente para generadores de imágenes como MidJourney.

Quejas

Los proveedores deben nombrar a la persona de contacto para los titulares de derechos y establecer un procedimiento de queja. Si los titulares de derechos exigen que no se usen sus obras, las empresas deben tener la descendencia.

Transparencia sobre datos de capacitación

La nueva plantilla para el resumen público del contenido de capacitación está destinado a facilitar a los propietarios de derechos de autor para percibir y hacer cumplir sus derechos. Esto significa que puede comprender mejor si sus trabajos protegidos se usaron para el entrenamiento.

Estas regulaciones tienen como objetivo proteger el equilibrio entre la innovación en el área de IA y la protección de la propiedad intelectual.

¿Cómo afecta la regulación a empresas y nuevas empresas más pequeñas?

Los efectos de la regulación de la UE KI en empresas y nuevas empresas más pequeñas son un aspecto crítico del debate sobre las nuevas regulaciones. La preocupación por la desventaja de los jugadores más pequeños se expresa desde diferentes lados.

Estrés burocrático

Meta argumenta que los requisitos estrictos del Código de Conducta podrían restringir particularmente las posibilidades de las nuevas empresas. Los extensos requisitos de documentación y cumplimiento pueden causar costos desproporcionadamente altos para las empresas más pequeñas.

Alivio para las PYME

Sin embargo, la regulación de IA también proporciona alivio: las pequeñas y medianas empresas, incluidas las nuevas empresas, pueden presentar documentación técnica en una forma simplificada. La Comisión crea una forma simplificada que está dirigida a las necesidades de las pequeñas y pequeñas empresas.

Excepciones de código abierto

Los proveedores de modelos GPAI con licencia de código abierto, es decir, modelos abiertos y con licencia gratuita sin riesgos sistémicos, no tienen que cumplir con los estándares de documentación detallados. Esta regulación puede aliviar las nuevas empresas y los desarrolladores más pequeños.

Igualdad

El Código de Conducta se desarrolló con la participación de más de 1,000 partes interesadas, incluidas las pequeñas y medianas empresas. Esto está destinado a garantizar que se tengan en cuenta las necesidades de los diferentes tamaños de la empresa.

La UE intenta limitar la carga para empresas más pequeñas, mientras que al mismo tiempo se mantienen los estándares de alta seguridad y transparencia.

Adecuado para:

¿Cuál es la importancia del 2 de agosto de 2025 para los modelos de IA existentes?

El 2 de agosto de 2025 marca un importante punto de inflexión en la regulación europea de la IA, por el cual se hace una distinción entre modelos nuevos y existentes. Esta distinción es crucial para la implementación práctica de la regulación.

Nuevos modelos GPAI

Para los nuevos modelos GPAI que se lanzan después del 2 de agosto de 2025, las obligaciones completas de la regulación de IA se aplican de inmediato. Esto significa que todas las tareas de transparencia, documentación y gobernanza son vinculantes a partir de esta fecha clave.

Modelos existentes

Las reglas solo se aplican a sistemas como ChatGPT-4 en el mercado desde agosto de 2026. Este período de transición de dos años debería darle tiempo a los proveedores para adaptar sus sistemas existentes en consecuencia e implementar los nuevos requisitos.

Implementación de la oficina de IA

La Oficina Europea de AI aplicará las regulaciones un año después de la entrada en vigor (es decir, desde agosto de 2026) para nuevos modelos y dos años después para los modelos existentes. Esto le da a las autoridades tiempo para desarrollar sus capacidades y desarrollar prácticas de aplicación uniformes.

Puente de transición a través del Código de Conducta

Las empresas ya pueden firmar el código de comportamiento de IA voluntario como ayuda de transición. Estas compañías se benefician de menos burocracia y una mayor certeza legal en comparación con las compañías que eligen otros métodos de cumplimiento.

¿Cuáles son los efectos a largo plazo en el mercado europeo de IA?

Se espera que la ordenanza de la UE KI tenga efectos de largo alcance y permanentes en el mercado europeo de IA. Estos cambios se refieren tanto a la posición de competencia en Europa como al desarrollo de la industria de la IA en su conjunto.

Seguridad legal como una ventaja competitiva

Las empresas que dependen desde el principio de la transparencia, la gobernanza y el cumplimiento siguen siendo sostenibles en el mercado europeo. Las reglas uniformes pueden hacer de Europa un lugar atractivo para la IA confiable y fortalecer la confianza de los inversores y clientes.

Setter estándar global

Similar al GDPR, la ordenanza de la UE Ki podría desarrollar la transmisión internacional. Los expertos esperan que la Ley de AI de la UE fomente el desarrollo de los estándares del gobierno y ética de la IA en todo el mundo. Europa podría establecerse como un punto de referencia global para el desarrollo responsable de la IA.

Ecosistema de innovación

La UE promueve varias medidas para apoyar la investigación de IA y facilitar la transición de los resultados de la investigación. La red de más de 200 centros europeos de innovación digital (EDIH) tiene la intención de promover la amplia introducción de la IA.

Consolidación del mercado

: Los requisitos regulatorios estrictos podrían conducir a la consolidación del mercado, ya que los proveedores más pequeños pueden tener dificultades para tener costos de cumplimiento. Al mismo tiempo, podrían desarrollarse nuevos modelos de negocio sobre soluciones de cumplimiento.

Riesgos competitivos

Empresas que no actúan en el tiempo Riesgo de incertidumbre legal y desventajas competitivas. Los altos castigos y la estricta asertividad pueden tener un impacto significativo en los modelos de negocio.

El efecto a largo plazo depende de si Europa logra equilibrar con éxito la innovación y la regulación y establecerse como un lugar destacado para la IA confiable.

 

Su transformación de IA, integración de IA y experto en la industria de la plataforma de IA

☑️ Nuestro idioma comercial es inglés o alemán.

☑️ NUEVO: ¡Correspondencia en tu idioma nacional!

 

Konrad Wolfenstein

Estaré encantado de servirle a usted y a mi equipo como asesor personal.

Puedes ponerte en contacto conmigo rellenando el formulario de contacto o simplemente llámame al +49 89 89 674 804 (Múnich) . Mi dirección de correo electrónico es: wolfenstein xpert.digital

Estoy deseando que llegue nuestro proyecto conjunto.

 

 

☑️ Apoyo a las PYMES en estrategia, consultoría, planificación e implementación.

☑️ Creación o realineación de la estrategia de IA

☑️ Desarrollo empresarial pionero

Salir de la versión móvil