Publicado el 31 de enero de 2025 / Actualización del: 31 de enero de 2025 - Autor: Konrad Wolfenstein
El gigante del software le pide a la UE que actúe: proyecto de IA posible en miles de millones
El enfoque está en Europa: la inversión revolucionaria de IA está en juego
El anuncio de una compañía de software europea líder para invertir hasta 40 mil millones de euros en un proyecto de inteligencia artificial común, siempre que se mejore el marco europeo, ha causado un revuelo considerable. Muchos interpretan esta declaración como un fuerte compromiso con el mercado europeo y como una indicación de que Europa tiene un potencial considerable en el campo de la inteligencia artificial (IA). Sin embargo, numerosas empresas e inversores aún dudan cuando se trata de obtener un punto de apoyo en Europa o darse cuenta de los proyectos de IA aquí. Una de las principales razones de esto son los requisitos legales y burocráticos actuales, que a menudo se perciben como estrictos o inhibidores en comparación con los Estados Unidos y China. Al mismo tiempo, queda claro que las reglas equilibradas son necesarias para aumentar la confianza en las tecnologías de IA y minimizar los riesgos.
El siguiente texto ilumina los antecedentes de esta situación, analiza las diferentes estrategias de la UE, Estados Unidos y Chinas y presenta recomendaciones concretas para la acción sobre cómo la Unión Europea puede mejorar sus condiciones de marco para seguir siendo competitivos y al mismo tiempo. Tiempo responsable de aplicaciones AI éticamente justificables para garantizar. No se trata solo de los aspectos legales, sino también de las inversiones en investigación y desarrollo, la expansión de la infraestructura digital, la promoción de los talentos y el papel de Europa en el camino hacia el gobierno global de IA.
Adecuado para:
"Acto de IA": la respuesta de Europa a los desafíos de la IA
Para cumplir con la creciente influencia de las tecnologías de IA, la UE trabaja con alta presión sobre una regulación uniforme. Un componente esencial para esto es el "acto de IA" llamado, el primer marco legal integral para la inteligencia artificial en Europa. El objetivo es crear reglas claras que promuevan la innovación, por un lado, y, por otro lado, limitaran el abuso de los sistemas de IA y sus posibles riesgos de seguridad y derechos fundamentales. Este acto de equilibrio no es fácil, porque por un lado, las empresas e instituciones de investigación deben encontrar un entorno atractivo, por otro lado, los consumidores, los ciudadanos y la sociedad deben protegerse como un todo por los estrictos requisitos.
En esencia, la "Ley de IA" establece una clasificación de diferentes aplicaciones de IA de acuerdo con las categorías de riesgos. Se dice que los sistemas que solo representan riesgos mínimos, como chatbots o programas simples para el filtrado automático de spam, están sujetos a los pocos obstáculos burocráticos como sea posible. Por otro lado, las soluciones de IA que se utilizan para aplicaciones relacionadas con la seguridad se utilizan, por ejemplo, en áreas sensibles como medicina, aplicación de la ley, tráfico o robótica. Para estos sistemas de "alto riesgo", la "Ley de IA" proporciona requisitos estrictos para la transparencia, la seguridad y la confiabilidad. Los sistemas que se consideran "riesgosos inaceptables", por ejemplo, si se pudieran usar para fines de vigilancia socialmente indeseables o para la manipulación, generalmente deben prohibirse.
En una representación simplificada, puede imaginar las cuatro categorías de riesgo de la siguiente manera:
- Primero, hay sistemas con "riesgo mínimo o nulo" que no están sujetos a una obligación separada. Por ejemplo, esto incluye videojuegos o filtros para correos electrónicos no deseados.
- En segundo lugar, existe un "riesgo limitado" en el que surtan efecto los requisitos de transparencia. Esto incluye, por ejemplo, que los usuarios necesitan saber si se comunican con una IA. Los chatbots simples o los sistemas de información automatizados entran en esta categoría.
- En tercer lugar, se definen "sistemas de alto riesgo", que son críticos de seguridad o se utilizan para decisiones significativas, por ejemplo, en medicina. Estos deben cumplir con criterios estrictos en términos de precisión, responsabilidad y trazabilidad.
- Finalmente, existen "riesgos inaceptables" que deben estar completamente prohibidos para el mercado europeo, por ejemplo, aquellos que manipulan el comportamiento humano, evalúan socialmente a las personas o amenazan los derechos básicos.
Los proponentes de la "Ley de IA" dan la bienvenida a este enfoque porque se enfoca en las personas y especifica pautas éticas claras. Los críticos, por otro lado, objetan que una regulación que es demasiado restrictiva podría dificultar el proceso de desarrollo e innovación en Europa. De hecho, es un desafío dominar la caminata de la cuerda floja entre la seguridad y la libertad de innovación.
Estados Unidos y China: diferencias en la estrategia de IA
Si bien Europa está tratando de proteger los estándares éticos y los derechos fundamentales a través de un marco legal integral, está surgiendo un enfoque más orientado al mercado en los Estados Unidos, en el que la competencia y la libertad de innovación tienen la máxima prioridad. China, por otro lado, se basa en una estrategia controlada centralmente en la que el estado no solo coordina los fondos de investigación, sino que también toma el control de los efectos sociales de la IA.
Orientación al mercado en los Estados Unidos
Hasta ahora no ha habido una ley federal integral en los Estados Unidos que regule la IA. En cambio, confía en un enfoque flexible que se compone de iniciativas individuales a nivel federal y de estado a estado. Numerosos programas de financiación apoyan la investigación y el desarrollo, especialmente en el área militar, médica y universitaria. Al mismo tiempo, un número creciente de regulaciones específicas entra en vigor a nivel de estados individuales, que se relacionan, por ejemplo, con la protección de la discriminación, la protección de datos y la transparencia de las aplicaciones de IA.
Colorado ha adoptado una ley destinada a regular el uso de los llamados sistemas de IA "de alto riesgo" al obligar a los desarrolladores y operadores a evitar activamente la discriminación e informar cualquier caso. Otros estados, como California, se centran en la autodeterminación informativa de los ciudadanos y les dan el derecho de contradecir la toma de decisiones automatizada por parte de las empresas. Además, existen pautas de la oficina de patentes y marcas de EE. UU. Que aclaran que los inventos soportados por IA no están fundamentalmente excluidos de la patente. Sin embargo, debe seguir siendo reconocible qué "contribuciones esenciales" provienen del lado humano, ya que la ley de patentes está orientada al reconocimiento del espíritu inventivo humano.
Esta coexistencia de pautas federales, leyes estatales y recomendaciones específicas de la industria refleja la combinación habitual de desregulación, promoción de la competencia y regulación selectiva en los Estados Unidos. El resultado es un panorama dinámico, a veces también confuso en el que las nuevas empresas, las grandes corporaciones y las universidades también intentan avanzar en las innovaciones utilizando condiciones intermitentes. Un investigador estadounidense de IA explica: "El mayor alcance posible para experimentos y tecnologías garantiza un ritmo rápido, pero también conlleva nuevos riesgos que solo inadecuamos en algunas áreas".
Estrategia de China controlada centralmente
China ha establecido objetivos ambiciosos y le gustaría ascender en la ubicación de IA líder mundial para 2030. Para lograr este objetivo, el gobierno chino está invirtiendo masivamente en la investigación de IA, la infraestructura y la capacitación. El estado no solo tiene la responsabilidad del desarrollo de parques de alta tecnología y grandes instalaciones de investigación, sino que también regula el contenido al que los sistemas de IA pueden acceder. Al mismo tiempo, se construyó un sistema que permite una gran cantidad de aplicaciones sociales de IA y novios específicamente.
Esto se asocia con una regulación estricta que va mucho más allá de la tecnología pura. Existen pautas que deben garantizar que los sistemas de IA no generen contenido "dañino". Los desarrolladores y operadores están obligados a incorporar mecanismos que filtren contenido no autorizado o políticamente sensible antes de llegar a los usuarios finales. Al mismo tiempo, los desarrolladores de IA siempre tienen que asegurarse de no producir resultados discriminatorios o ilegales. Los contenidos que se clasifican como socialmente cuestionables pueden ser sancionados legalmente.
La obligación de etiquetado para el contenido generado por IA también juega un papel importante. Para textos, imágenes o videos que se crean usando IA, los usuarios deben poder reconocer que no están tratando con autores humanos. Esta obligación no solo sirve a la protección del consumidor, sino también al control estatal sobre el contenido de los medios. Las regulaciones chinas también enfatizan la evitación de prejuicios en los algoritmos, de modo que las desigualdades sociales no se cementan. Dice en las especificaciones: "Cada forma de discriminación algorítmica debe abstenerse".
El enfoque centralizado en China permite una implementación rápida de programas a gran escala, pero plantea preguntas sobre la libertad de investigación e innovación. Las voces críticas enfatizan que los controles y la censura podrían restringir la creatividad. Sin embargo, es innegable que China ha hecho muchos progresos, especialmente en la aplicación práctica de los sistemas de IA, desde el reconocimiento de imágenes hasta el reconocimiento facial y los asistentes de voz.
Comparación: UE vs. EE. UU. Vs. China
Si usted se relaciona con la "Ley de AI" europea en relación con las estrategias de los Estados Unidos y China, hay una imagen emocionante: Europa sigue el principio "innovación en armonía con derechos fundamentales y normas éticas". Existe la preocupación de que la regulación estricta pueda inhibir las innovaciones. Hay un modelo en los Estados Unidos que se centra en la competencia y la flexibilidad. Esto puede conducir a un progreso extremadamente rápido, pero también a una protección del consumidor más débil si las regulaciones locales no son suficientes. China, a su vez, combina un control estricto desde arriba con altas inversiones en tecnología, lo que conduce a desarrollos rápidos y drásticos, pero plantea preguntas sobre la libertad de los actores individuales y económicos.
Un experto en la industria describe la situación de la siguiente manera: “En Europa, se le da gran importancia al hecho de que los sistemas de IA son transparentes, seguros y justos. En los Estados Unidos, el enfoque está en la velocidad de innovación, mientras que en China hay un gran control de arriba hacia abajo, en el que la tecnología se ve como un instrumento central de desarrollo económico y social.
Al mismo tiempo, se lleva a cabo un discurso en Europa sobre cuánta regulación es necesaria para que tanto los empresarios como los inversores no tengan que temer una burocracia disuasoria. La idea básica detrás de la "Ley de IA" es: "Es mejor regular la IA claramente para crear certeza legal que tener un mosaico de leyes individuales donde las nuevas empresas puedan fallar".
El punto de partida en la UE: fortalezas y debilidades
Sin duda, Europa tiene un panorama de investigación muy fuerte. Las universidades e instituciones de investigación del continente se encuentran entre las mejores del mundo, muchas publicaciones de alto rango y estudios innovadores provienen de países de la UE. Al mismo tiempo, los países europeos en áreas como la robótica, la ingeniería y los proveedores industriales están liderando, lo cual es extremadamente importante para las aplicaciones de IA que se basan no solo en el software, sino también en el hardware.
Sin embargo, muchas empresas critican que Europa se ralentiza por obstáculos burocráticos excesivos, largos procesos de aprobación y reglas complejas de protección de datos. Si bien el Reglamento General de Protección de Datos (GDPR) se considera un proyecto de exhibición para la protección de los datos personales, algunos desarrolladores de IA lo sienten como un obstáculo para la recopilación y el uso de datos. Además, las empresas en Europa a menudo tienen dificultades para arriesgarse a capital porque los inversores son mayoritarios en los Estados Unidos o Asia.
Un fundador de inicio resume el dilema de la siguiente manera: “Tenemos talentos extremadamente bien entrenados en Europa y un alto grado de experiencia científica. Al mismo tiempo, sin embargo, es más difícil que en Estados Unidos movilizar grandes sumas de dinero para proyectos de riesgo. Si quieres crecer rápidamente en Europa, luchas con el esfuerzo burocrático y las brechas de financiación ".
Para ponerse al día en la carrera AI, la UE debe encender varios tornillos de fijación. Por un lado, es importante diseñar la regulación de tal manera que los proyectos puedan comenzar de la manera más suave posible sin derechos fundamentales o principios éticos. Por otro lado, se deben proporcionar más recursos financieros para que las compañías europeas de IA y los equipos de investigación no necesariamente busquen inversiones en el extranjero.
Adecuado para:
Recomendaciones para la acción para la UE
En este contexto, se vuelve cada vez más claro que Europa tiene que actuar. Cualquiera que se basa en el hecho de que el progreso tecnológico surge únicamente del panorama de la investigación sin crear condiciones de trabajo marco adecuadas a largo plazo. "La UE tiene que desarrollar estructuras confiables para que las nuevas empresas, las universidades y las grandes corporaciones impulsen sus proyectos de IA dentro de Europa y no migren", dice un asesor político.
1. Reducción de burocracia y procedimientos de aprobación más rápidos
Europa debería reducir los obstáculos burocráticos para que los proyectos de IA puedan implementarse sin demoras excesivas. Muchos innovadores informan que reciben la aprobación para probar nuevas tecnologías en los Estados Unidos o Asia. Un proceso más suave en la comunicación con las autoridades, las responsabilidades claramente definidas y los procedimientos uniformes podría ayudar a fortalecer la ventaja competitiva de Europa en el campo de la alta tech de tecnología. "Si esperamos cada prototipo durante meses para los permisos, nunca progresaremos tan rápido como la competencia", señala un empresario de IA de Berlín.
2. Promoción de la investigación y el desarrollo
La investigación es el corazón de cada innovación de IA. Aquí Europa tiene un enorme potencial que debería agotarse aún más. La financiación intensificada se puede llevar a cabo mediante la expansión de becas, colaboraciones de investigación y programas de inversión específicos. No se trata solo de investigaciones básicas en áreas como el aprendizaje automático o el procesamiento del lenguaje, sino también de la investigación aplicada en industrias clave: desde la industria automotriz hasta la industria de la salud hasta la agricultura. Además, se podrían crear plataformas europeas comunes donde los datos se pueden asegurar para fines de investigación y que cumplen con GDPR. De esta manera, los investigadores pueden obtener acceso a conjuntos de datos grandes y diversos que son decisivos en muchos proyectos de IA.
3. Ajuste de la "Ley AI"
La "Ley de IA" representa un hito para Europa, pero tiene sentido evaluar críticamente algunas de sus disposiciones con respecto a sus efectos prácticos. Las pequeñas y medianas empresas en particular a menudo no pueden cumplir con las amplias pautas de cumplimiento que son más fáciles de implementar para grupos internacionales. Por lo tanto, Europa debería encontrar caminos para adaptar los deberes burocráticos al tamaño y las posibilidades financieras de las empresas. Gran Bretaña ofrece un ejemplo de manejo más flexible, donde deliberadamente no hay una nueva autoridad reguladora para la IA para mantener delgados los procedimientos burocráticos. También se podría utilizar un sistema graduado en la UE que promueva innovaciones y al mismo tiempo mantiene derechos fundamentales.
4. Fortalecimiento de la infraestructura digital
Una poderosa infraestructura digital es un requisito previo para desarrollar e implementar aplicaciones de IA a gran escala. Estos incluyen redes de banda ancha y redes de fibra óptica, por otro lado, poderosos entornos de nubes y servidores. A largo plazo, Europa también necesita sus propios centros de datos y supercomputadoras de alto rendimiento para capacitar a grandes modelos de IA y procesar datos en gran medida. Las iniciativas para el desarrollo de entornos en la nube europeos que aseguran altos estándares de protección de datos y datos son un paso importante para lograr una mayor soberanía digital. "Sin suficientes capacidades informáticas, es difícil mantener aplicaciones complejas de IA en Europa", enfatiza a un científico de Francia que trabaja en proyectos a gran escala en el área de los sistemas que consumen el lenguaje.
5. Educación y educación superior
Para que Europa no se quede atrás en la carrera de IA, el entrenamiento de nuevos talentos también debe promoverse. Las universidades deberían centrarse más en campos futuros como el aprendizaje automático, la ciencia de datos y la robótica. Al mismo tiempo, es importante ofrecer a los especialistas en trabajo más capacitación para adquirir nuevas habilidades y mantenerse al día con los últimos desarrollos. Solo si Europa produce especialistas de IA suficientemente calificados puede usarse para cubrir las necesidades de la industria nacional y reclamar los principales puestos. Una asociación industrial alemana dice: "Necesitamos especialistas que entiendan la tecnología y la ética por igual y los usen de manera responsable".
6. Directrices y estándares éticos
Además de la tecnología, los valores y la ética no deben ser descuidados. La UE es tradicionalmente cuidadosa de centrarse en las personas en el centro de la política y los negocios. De modo que esto también permanece en la transformación digital, las pautas claras deben definirse cómo los sistemas de IA pueden diseñarse de manera centrada en el hombre. Se trata de transparencia, protección de datos, equidad y responsabilidad. No deben surgir demasiados procesos burocráticos, sino que sean estándares claros y claros que facilitan la orientación. Ejemplos de esto son obligaciones de explicar los algoritmos de IA o los requisitos para que las empresas se ocupen activamente de la cuestión de cómo se evitan las posibles distorsiones en los conjuntos de datos. "Queremos usar la tecnología, pero queremos usarla para que nadie sea discriminado y existe una clara responsabilidad", resume un fabricante de decisiones políticas.
7. Cooperación internacional
Europa no puede considerar la cuestión del gobierno de IA de forma aislada. Dado que las aplicaciones de IA tienen efectos globales, también se requiere intercambio global. Por ejemplo, la UE debe discutir con los Estados Unidos cómo podrían ser los estándares comunes en la protección de datos, el uso de datos y la seguridad de los datos. También se puede concebir un diálogo con China para definir ciertos estándares mínimos éticos o interfaces técnicas. Además, Europa puede expandir cooperaciones con países como Japón, Canadá o Corea del Sur, que también se consideran las principales ubicaciones en la investigación de IA. Los programas y talleres comunes podrían ayudar a usar sinergias y expandir la vista más allá de sus propios límites.
El camino hacia un futuro AI autodeterminado
Si Europa usa constantemente sus fortalezas y se centra en una regulación bien pensada, el continente puede continuar desempeñando un papel crucial en el área de IA en el futuro. Es útil que la UE ya haya lanzado programas a gran escala para admitir tecnologías digitales. Pero como un parlamentario europeo señala: "No debemos perdernos en las estructuras, sino que tenemos que usarlas para lograr resultados concretos".
Es concebible que Europa asuma un papel de liderazgo, especialmente en las áreas de tecnología médica, movilidad, producción y sostenibilidad. La UE ya se considera un pionero en las tecnologías "verdes", y es obvio que los sistemas de IA se utilizan, por ejemplo, en la optimización de la energía, la reducción de las emisiones y la agricultura sostenible. Europa puede mostrar aquí que la protección de alta tecnología y medio ambiente no tiene que ser opuestos, sino que pueden fertilizarse entre sí. "El desarrollo de aplicaciones de IA para la investigación climática o para la agricultura ecológica es un ejemplo de cómo podemos perfilarnos internacionalmente", explica un consultor científico en Bruselas.
El sector de IA en Europa también podría significar un fuerte impulso para la industria de la salud. Herramientas de diagnóstico inteligentes, medicina personalizada y robots que apoyan a los médicos podrían aumentar la calidad de la atención médica sin reemplazar a las personas. En cambio, es concebible que la IA y el trabajo de robot brinden apoyo al personal asumiendo tareas rutinarias o proporcionando propuestas de diagnóstico, mientras que la decisión final aún es tomada por el personal especialista en medicina.
"En términos de seguridad y principios éticos, tenemos una larga tradición en Europa", dice un ético médico de Austria. "Si lo hacemos correctamente, podemos establecer estándares reconocidos en todo el mundo y establecer nuestros sistemas de IA como productos confiables".
Adecuado para:
Financiamiento de modelos y cultura de innovación
Sin embargo, el financiamiento sigue siendo un factor clave. Los bancos europeos y los proveedores de capital de riesgo a menudo son más cuidadosos que sus homólogos en los Estados Unidos o China. Para promover el riesgo, los fondos de innovación respaldados por el estado podrían ayudar a que inicialmente se hagan cargo de las empresas de inicio de IA. Especialmente cuando se necesitan muchos fondos, por ejemplo, en el desarrollo de algoritmos complejos que procesan grandes cantidades de datos, se requieren fuentes de capital confiables. Muchas empresas jóvenes se rinden o emigran porque no reciben capital de riesgo suficiente.
Además, Europa debería promover una cultura de cooperación. Vincular grandes corporaciones, institutos de investigación y nuevas empresas jóvenes en grupos de innovación podría ayudar a agrupar la experiencia y reducir los riesgos empresariales. "Tenemos que aprender que la innovación no es un proceso aislado, sino un proyecto colectivo del que todos pueden beneficiarse si la organizamos correctamente", dice un profesor de informática de Italia.
Además, se debe desarrollar una actitud abierta hacia nuevas ideas, modelos de negocio innovadores y enfoques interdisciplinarios. La IA no es el único dominio de la informática. La psicología, las ciencias de la voz, la sociología, el derecho y la administración de empresas también juegan un papel en el desarrollo de sistemas de IA que están positivamente anclados en la sociedad. Una amplia red de expertos de diversas áreas especializadas podría contribuir a una perspectiva más holística que puede fortalecer la confianza en la IA.
"Necesitamos expertos en IA que intercambien ideas con científicos sociales y piensen juntos cómo hacer algoritmos de transparencia y socialmente tolerados", enfatiza un analista de la industria. "Esta es la única forma en que obtenemos aceptación entre las personas para que la IA no se vea como una amenaza, sino como una oportunidad".
Trabajo de las superpoderes: ¿puede Europa desarrollar su potencial en la IA?
Europa tiene el potencial de desempeñar un papel principal en la carrera global por la inteligencia artificial. Un panorama de investigación sólido, talentos altamente calificados y la voluntad de poner tecnología en el servicio de la sociedad son buenos requisitos previos. La tarea más grande es crear un entorno que promueva la innovación y las inversiones sin descuidar la protección de los derechos fundamentales y las pautas éticas.
El "acto de IA" es un paso importante de esta manera. Crea reglas uniformes para los sistemas de IA y define clases de riesgo claros. De esta manera, tanto los consumidores como el desarrollo de nuevas tecnologías deben ser apoyados. Sin embargo, el conjunto de reglas debe diseñarse de tal manera que no se convierta en un zapato trasero para pequeñas y medianas empresas. Reducción de burocracia, programas de apoyo objetivo, la estructura de infraestructuras digitales fuertes y la capacitación de especialistas son otros bloques de construcción centrales que deberían avanzar con urgencia en Europa.
Además, no debes tener miedo de aprender de los demás. Estados Unidos depende de la competencia y la flexibilidad, que alimenta las innovaciones, pero al mismo tiempo puede traer debilidades en el área de protección del consumidor y seguridad social. China, por otro lado, sigue una estrategia integral de arriba hacia abajo con inversiones gubernamentales y mecanismos de control estrictos. Europa tiene la oportunidad de ir de una tercera manera caracterizada por un sentido de responsabilidad, apertura y un amplio discurso social.
"El futuro de la IA en Europa depende de si podemos desarrollar valientemente y garantizar la libertad como protección", dice un fabricante de decisiones políticas. “La inteligencia artificial ganará importancia en todas las áreas de la vida. Si actuamos sabiamente ahora, creamos la base para Europa no solo manteniendo el ritmo de esta transformación de época, sino que podemos ayudarlo activamente a darle forma.
En vista del rápido progreso en los Estados Unidos y China, se requiere prisa. Si Europa combina su excelencia científica de fortalezas, competencia industrial, diversidad cultural y principios éticos entre sí, podría convertirse en una escala de calidad: para los productos de IA que tienen demanda a nivel mundial porque crean confianza y se paran en sólidas fundaciones tecnológicas y éticas. Por último, pero no menos importante, Europa podría dar un ejemplo: "Creemos que la tecnología debería estar al servicio de las personas y no al revés".
Esto brinda la oportunidad de aprovechar las oportunidades digitales para construir una economía sostenible que al mismo tiempo presta atención a los valores sociales y la protección de la privacidad. Esto no solo se recibe positivamente en Europa, sino que también se recibe cada vez más bien en otras partes del mundo. Al final, la confianza en la IA no es solo una cuestión de progreso tecnológico, sino también una cuestión de credibilidad e integridad. Y aquí es exactamente donde está la gran oportunidad para Europa: dar forma a un mundo de IA en el que la tecnología y los valores están en un equilibrio saludable.
Adecuado para:
Estamos a su disposición - asesoramiento - planificación - implementación - gestión de proyectos
☑️ Nuestro idioma comercial es inglés o alemán.
☑️ NUEVO: ¡Correspondencia en tu idioma nacional!
Estaré encantado de servirle a usted y a mi equipo como asesor personal.
Puedes ponerte en contacto conmigo rellenando el formulario de contacto o simplemente llámame al +49 89 89 674 804 (Múnich) . Mi dirección de correo electrónico es: wolfenstein ∂ xpert.digital
Estoy deseando que llegue nuestro proyecto conjunto.