
AMI – Inteligencia Artificial Avanzada – El Fin del Escalamiento: Por Qué Yann LeCun Ya No Cree en los LLM – Imagen: Xpert.Digital
Un callejón sin salida en lugar de superinteligencia: por qué el principal visionario de Meta ahora renuncia
¿600 mil millones por un enfoque erróneo? El "Padrino de la IA" apuesta contra LLaMA, ChatGPT y compañía.
El anuncio impactó con fuerza en la industria tecnológica en noviembre de 2025. Yann LeCun, uno de los tres padres fundadores del aprendizaje profundo y científico jefe de Meta, anunció su salida tras doce años en la compañía para fundar su propia startup. Esta decisión va mucho más allá de la elección profesional personal de un solo científico. Marca un punto de inflexión fundamental en la industria global de la inteligencia artificial y revela la creciente brecha entre los intereses de mercado a corto plazo y la visión científica a largo plazo.
LeCun, quien recibió el Premio Turing en 2018 junto con Geoffrey Hinton y Yoshua Bengio, es considerado el arquitecto de las redes neuronales convolucionales, que hoy constituyen la base de los sistemas modernos de procesamiento de imágenes. Su salida se produce en un momento en que toda la industria está invirtiendo cientos de miles de millones de dólares en grandes modelos lingüísticos, una tecnología que LeCun ha descrito durante años como un callejón sin salida. Con su nueva empresa, el científico, ahora de 65 años, pretende desarrollar lo que él llama Inteligencia Artificial Avanzada, un enfoque radicalmente diferente basado en modelos del mundo y que parte de la percepción física, no del texto.
Las implicaciones económicas de este desarrollo son inmensas. Meta ha invertido más de 600 000 millones de dólares en infraestructura de IA en los últimos tres años. OpenAI ha alcanzado una valoración de medio billón de dólares, a pesar de unos ingresos anuales de tan solo diez 000 millones de dólares. Toda la industria ha avanzado en una dirección que uno de sus pioneros más importantes ha descrito públicamente como un callejón sin salida. Para comprender las consecuencias económicas de este cambio, es necesario profundizar en las estructuras técnicas, organizativas y financieras de la actual revolución de la IA.
Adecuado para:
- Meta invertirá 600 mil millones de dólares estadounidenses para construir infraestructura de IA en Estados Unidos.
La arquitectura de una burbuja
La arquitectura Transformer, introducida por investigadores de Google en 2017, ha transformado el panorama de la IA a un ritmo sin precedentes. Este enfoque permitió, por primera vez, procesar eficientemente cantidades masivas de texto y entrenar modelos lingüísticos con capacidades previamente inalcanzables. OpenAI se basó en esta base con su serie GPT, que, con ChatGPT en noviembre de 2022, demostró por primera vez a un público masivo lo que estas tecnologías podían lograr. La respuesta fue explosiva. En pocos meses, decenas de miles de millones de dólares ingresaron al sector.
Sin embargo, desde finales de 2024, ha habido cada vez más indicios de que este desarrollo exponencial está llegando a sus límites. OpenAI lleva más de 18 meses desarrollando el sucesor de GPT-4, conocido internamente como Orion o GPT-5. Según informes, la compañía ha realizado al menos dos grandes pruebas de entrenamiento, cada una con un coste aproximado de 500 millones de dólares. Los resultados han sido desalentadores. Si bien GPT-4 representó un enorme salto de rendimiento respecto a GPT-3, las mejoras de Orion respecto a GPT-4 son marginales. En algunas áreas, especialmente en programación, el modelo prácticamente no muestra ningún progreso.
Este desarrollo contradice fundamentalmente las leyes de escala, esos principios empíricos que hasta hace poco guiaban a toda la industria. La idea básica era simple: si se amplía un modelo, se utilizan más datos para el entrenamiento y se invierte más potencia de cálculo, el aumento del rendimiento sigue una función de potencia predecible. Este principio parecía ser universal y justificaba las inversiones astronómicas de los últimos años. Ahora resulta que estas curvas se están aplanando. La siguiente duplicación de la inversión ya no produce la duplicación esperada del rendimiento.
Las razones son numerosas y técnicamente complejas. Un problema clave es el muro de datos. GPT-4 se entrenó con aproximadamente 13 billones de tokens, lo que equivale básicamente a todo el internet público disponible. Para GPT-5, simplemente no hay suficientes datos nuevos y de alta calidad. OpenAI ha respondido contratando desarrolladores de software, matemáticos y físicos teóricos para generar nuevos datos mediante la escritura de código y la resolución de problemas matemáticos. Sin embargo, incluso si 1000 personas produjeran 5000 palabras al día, se necesitarían meses para generar tan solo mil millones de tokens. Escalar usando datos generados por humanos simplemente no funciona.
Como alternativa, las empresas recurren cada vez más a datos sintéticos, es decir, datos generados por otros modelos de IA. Pero aquí acecha un nuevo peligro: el colapso del modelo. Cuando los modelos se entrenan recursivamente con datos generados por otros modelos, los pequeños errores se amplifican a lo largo de las generaciones. El resultado son modelos cada vez más alejados de la realidad, en los que los grupos minoritarios desaparecen de forma desproporcionada. Un estudio publicado en Nature en 2024 demostró que este proceso se produce con una rapidez sorprendente. Por lo tanto, los datos sintéticos no son la panacea, sino que conllevan riesgos significativos.
La transición energética y los límites del crecimiento
Además de la barrera de datos, existe una segunda barrera, aún más fundamental: la barrera energética. El entrenamiento de GPT-3 consumió aproximadamente 1300 megavatios-hora de electricidad, equivalente al consumo anual de 130 hogares estadounidenses. GPT-4 requirió aproximadamente 50 veces esa cantidad, o 65 000 megavatios-hora. La potencia de procesamiento necesaria para entrenar grandes modelos de IA se duplica aproximadamente cada 100 días. Esta curva exponencial genera rápidamente limitaciones físicas.
Los centros de datos que entrenan y operan estos modelos ya consumen tanta electricidad como pueblos pequeños. La Agencia Internacional de la Energía predice que el consumo eléctrico de los centros de datos aumentará un 80 % para 2026, pasando de 20 teravatios-hora en 2022 a 36 teravatios-hora en 2026. La IA es el principal impulsor de este crecimiento. A modo de comparación, una sola consulta en ChatGPT consume aproximadamente diez veces más energía que una búsqueda en Google. Con miles de millones de consultas al día, esto suma cantidades enormes.
Este desarrollo está obligando a las empresas tecnológicas a tomar medidas drásticas. Microsoft ya ha firmado contratos con proveedores de energía nuclear. Meta, Amazon y Google invertirán un total combinado de más de 1,3 billones de dólares en los próximos años para construir la infraestructura necesaria. Sin embargo, estas inversiones se encuentran con límites físicos y políticos. Estados Unidos simplemente no cuenta con suficiente infraestructura energética para abastecer los centros de datos de IA planificados. Los analistas estiman que proyectos valorados en 750 000 millones de dólares podrían retrasarse para 2030 debido a cuellos de botella en la infraestructura energética.
A esto se suma la dimensión geopolítica. La demanda energética de la industria de la IA intensifica la competencia por los recursos y aumenta la dependencia de los combustibles fósiles. Mientras los responsables políticos exigen neutralidad climática, la industria de la IA está impulsando el consumo energético. Esta tensión se agravará en los próximos años y podría dar lugar a intervenciones regulatorias que limiten el crecimiento de la industria.
El muro arquitectónico y la alternativa de LeCun
La tercera barrera es quizás la más fundamental: el muro arquitectónico. Yann LeCun ha argumentado durante años que la arquitectura Transformer tiene limitaciones inherentes que no se pueden superar simplemente escalando. Su crítica se centra en el funcionamiento fundamental de los Modelos de Lenguaje Grandes. Estos sistemas están entrenados para predecir la siguiente palabra en una secuencia. Aprenden patrones estadísticos en corpus textuales masivos, pero no desarrollan una verdadera comprensión de la causalidad, las leyes físicas ni la planificación a largo plazo.
A LeCun le gusta ilustrar el problema con una comparación: un niño de cuatro años ha absorbido más información sobre el mundo a través de la percepción visual que los mejores modelos lingüísticos a través del texto. Un niño comprende intuitivamente que los objetos no desaparecen simplemente, que las cosas pesadas caen y que las acciones tienen consecuencias. Ha desarrollado un modelo del mundo, una representación interna de la realidad física, que utiliza para hacer predicciones y planificar acciones. Los LLM carecen de esta capacidad fundamental. Pueden generar textos con una coherencia impresionante, pero no comprenden el mundo.
Esta limitación se hace evidente una y otra vez en aplicaciones prácticas. Si se le pide a GPT-4 que visualice un cubo giratorio, falla en una tarea que cualquier niño puede realizar fácilmente. Con tareas complejas que requieren una planificación de varios pasos, los modelos fallan con frecuencia. No pueden aprender de los errores de forma fiable, ya que cada error de predicción de tokens puede tener un efecto cascada y amplificarse. Los modelos autorregresivos presentan una fragilidad fundamental: un error al principio de la secuencia puede arruinar todo el resultado.
La alternativa de LeCun son los modelos de mundo basados en la Arquitectura Predictiva de Integración Conjunta. La idea básica es que los sistemas de IA no deben aprender mediante la predicción de texto, sino prediciendo representaciones abstractas de estados futuros. En lugar de generar píxel a píxel o token a token, el sistema aprende una representación comprimida y estructurada del mundo y puede usarla para simular mentalmente diferentes escenarios antes de actuar.
Bajo el liderazgo de LeCun, Meta ya ha desarrollado varias implementaciones de este enfoque. I-JEPA para imágenes y V-JEPA para vídeos muestran resultados prometedores. Estos modelos aprenden componentes de objetos de alto nivel y sus relaciones espaciales sin depender de una adquisición intensiva de datos. Además, su entrenamiento es significativamente más eficiente energéticamente que los modelos convencionales. La visión es combinar estos enfoques en sistemas jerárquicos que puedan operar en diferentes niveles de abstracción y escalas temporales.
La diferencia crucial reside en la naturaleza del proceso de aprendizaje. Mientras que los LLM esencialmente realizan una búsqueda de patrones a fondo, los modelos del mundo buscan comprender la estructura y la causalidad de la realidad. Un sistema con un modelo del mundo robusto podría anticipar las consecuencias de sus acciones sin tener que llevarlas a cabo. Podría aprender de unos pocos ejemplos porque comprende los principios subyacentes, no solo correlaciones superficiales.
Disfunción organizacional y crisis existencial de Meta
Sin embargo, la salida de LeCun no se debe únicamente a una decisión científica, sino también a la disfunción organizativa de Meta. En junio de 2025, el director ejecutivo, Mark Zuckerberg, anunció una reestructuración masiva de las divisiones de IA. Fundó Meta Superintelligence Labs, una nueva unidad con el objetivo declarado de desarrollar la Inteligencia Artificial General. Estaba dirigida por Alexandr Wang, de 28 años, exdirector ejecutivo de Scale AI, una empresa de preparación de datos. Meta invirtió 14.300 millones de dólares en Scale AI y contrató a más de 50 ingenieros e investigadores de la competencia.
Esta decisión revolucionó la estructura existente. El Equipo de Investigación Fundamental de IA de LeCun, que había dedicado años al desarrollo de PyTorch y los primeros modelos de Llama, quedó marginado. FAIR se orientó a la investigación fundamental con un horizonte temporal de cinco a diez años, mientras que los nuevos laboratorios de superinteligencia se centraron en el desarrollo de productos a corto plazo. Diversas fuentes informan de un creciente caos en los departamentos de IA de Meta. Los talentos recién contratados expresaron su frustración con la burocracia de una gran corporación, mientras que los equipos consolidados vieron menguar su influencia.
La situación empeoró debido a varias reestructuraciones en tan solo seis meses. En agosto de 2025, Superintelligence Labs se reorganizó de nuevo, esta vez en cuatro subunidades: un misterioso Laboratorio TBD para nuevos modelos, un equipo de producto, un equipo de infraestructura y FAIR. En octubre se produjo otra oleada de despidos, con aproximadamente 600 empleados indemnizados. El motivo declarado: reducir la complejidad organizativa y acelerar el desarrollo de la IA.
Estas constantes reestructuraciones contrastan marcadamente con la relativa estabilidad de competidores como OpenAI, Google y Anthropic. Indican una incertidumbre fundamental en Meta respecto a la dirección estratégica correcta. Zuckerberg ha reconocido que Meta se está quedando atrás en la carrera por el dominio de la IA. Llama 4, lanzado en abril de 2025, fue una decepción. Si bien el modelo Maverick demostró una buena eficiencia, fracasó estrepitosamente en contextos más largos. Surgieron acusaciones de que Meta se optimizó para los benchmarks entrenando específicamente los modelos en preguntas de prueba comunes, inflando artificialmente el rendimiento.
Para LeCun, la situación se volvió insostenible. Su visión de la investigación fundamental a largo plazo chocaba con la presión de lograr éxitos de producto a corto plazo. El hecho de estar subordinado a Wang, considerablemente más joven, probablemente influyó en su decisión. En su memorando de despedida, LeCun enfatiza que Meta seguirá siendo socia de su nueva empresa, pero el mensaje es claro: la investigación independiente que él considera esencial ya no es posible dentro de las estructuras corporativas.
Una nueva dimensión de la transformación digital con IA Gestionada (Inteligencia Artificial) - Plataforma y Solución B2B | Xpert Consulting
Una nueva dimensión de transformación digital con IA Gestionada (Inteligencia Artificial) – Plataforma y Solución B2B | Xpert Consulting - Imagen: Xpert.Digital
Aquí aprenderá cómo su empresa puede implementar soluciones de IA personalizadas de forma rápida, segura y sin grandes barreras de entrada.
Una Plataforma de IA Gestionada es su paquete integral y sin preocupaciones para la inteligencia artificial. En lugar de lidiar con tecnología compleja, infraestructura costosa y largos procesos de desarrollo, recibirá una solución integral adaptada a sus necesidades de un socio especializado, a menudo en cuestión de días.
Los beneficios clave de un vistazo:
⚡ Implementación rápida: De la idea a la aplicación operativa en días, no meses. Ofrecemos soluciones prácticas que generan valor inmediato.
🔒 Máxima seguridad de datos: Tus datos confidenciales permanecen contigo. Garantizamos un procesamiento seguro y conforme a la normativa sin compartirlos con terceros.
💸 Sin riesgo financiero: Solo pagas por los resultados. Se eliminan por completo las altas inversiones iniciales en hardware, software y personal.
🎯 Concéntrese en su negocio principal: Concéntrese en lo que mejor sabe hacer. Nos encargamos de toda la implementación técnica, la operación y el mantenimiento de su solución de IA.
📈 Escalable y a prueba de futuro: Su IA crece con usted. Garantizamos la optimización y la escalabilidad continuas, y adaptamos los modelos con flexibilidad a las nuevas necesidades.
Más sobre esto aquí:
De la exageración a la realidad: la inminente reevaluación de la industria de la IA
La anatomía económica de la formación de ampollas
Los avances en Meta son sintomáticos de una dinámica económica más amplia en la industria de la IA. Desde el gran éxito de ChatGPT a finales de 2022, se ha producido un auge de inversión sin precedentes. Solo en el primer trimestre de 2025, se invirtieron 73 100 millones de dólares en startups de IA, lo que representa el 58 % de todas las inversiones de capital riesgo. OpenAI alcanzó una valoración de 500 000 millones de dólares, convirtiéndose en la primera empresa privada en superar este umbral sin haber sido rentable.
Las valoraciones son extremadamente desproporcionadas respecto a los ingresos reales. OpenAI generó 10 000 millones de dólares en ingresos anuales en 2025, con una valoración de 500 000 millones de dólares, lo que resultó en una relación precio-ventas de 50. A modo de comparación, incluso en el auge de la burbuja puntocom, pocas empresas alcanzaron tales múltiplos. Anthropic está valorada en 170 000 millones de dólares, con unos ingresos de 2200 millones de dólares, una relación precio-beneficios de aproximadamente 77. Estas cifras indican una sobrevaloración considerable.
Particularmente problemática es la estructura de financiación circular que se ha desarrollado. Nvidia está invirtiendo 100 000 millones de dólares en OpenAI, que a su vez está obligada a comprar chips Nvidia por valor de decenas de miles de millones de dólares. OpenAI cerró acuerdos similares con AMD por valor de decenas de miles de millones de dólares. Microsoft ha invertido más de 13 000 millones de dólares en OpenAI y aloja su infraestructura en Azure. Amazon invirtió 8 000 millones de dólares en Anthropic, que a cambio utiliza AWS como su principal plataforma en la nube y emplea los propios chips de IA de Amazon.
Estos acuerdos evocan inquietantemente la financiación circular de finales de la década de 1990, cuando las empresas tecnológicas se vendían equipos entre sí y contabilizaban las transacciones como ingresos sin generar ningún valor económico real. Los analistas hablan de una red de relaciones comerciales cada vez más compleja y opaca que impulsa un auge de billones de dólares. Los paralelismos con la burbuja puntocom y la crisis financiera de 2008 son inconfundibles: mecanismos de financiación opacos y poco convencionales, difíciles de comprender y evaluar para los inversores.
A esto se suma la concentración de capital. Las Siete Magníficas, las siete mayores empresas tecnológicas estadounidenses, aumentaron su consumo energético un 19 % en 2023, mientras que el consumo medio de las empresas del S&P 500 se estancó. Aproximadamente el 80 % de las ganancias del mercado bursátil estadounidense en 2025 se atribuyeron a empresas relacionadas con la IA. Solo Nvidia se convirtió en la acción más comprada por los inversores minoristas, que invirtieron casi 30 000 millones de dólares en el fabricante de chips en 2024.
Esta concentración extrema conlleva riesgos sistémicos. Si las expectativas de rentabilidad resultan poco realistas, un desplome del mercado podría tener consecuencias de gran alcance. JPMorgan estima que tan solo las emisiones de bonos con grado de inversión relacionados con la IA podrían alcanzar los 1,5 billones de dólares para 2030. Gran parte de esta deuda se basa en el supuesto de que los sistemas de IA generarán enormes aumentos de productividad. Si esta expectativa no se materializa, se avecina una crisis crediticia.
Adecuado para:
- Meta lo está apostando todo a la superinteligencia: inversiones multimillonarias, megacentros de datos y una arriesgada carrera por la IA.
La guerra por el talento y los trastornos sociales
Las tensiones económicas también se manifiestan en el mercado laboral. La proporción de puestos vacantes en IA por candidato cualificado es de 3,2 a 1. Hay 1,6 millones de puestos vacantes, pero solo 518.000 candidatos cualificados. Esta escasez extrema está disparando los salarios. Los especialistas en IA pueden aumentar sus ingresos anuales en decenas de miles de dólares adquiriendo habilidades en Python, TensorFlow o frameworks de IA especializados.
La competencia es feroz. Grandes empresas tecnológicas, startups con una sólida financiación e incluso gobiernos compiten por el mismo pequeño grupo de expertos. OpenAI ha experimentado un éxodo de ejecutivos en los últimos meses, incluyendo al cofundador Ilya Sutskever y a la directora de tecnología Mira Murati. Muchos de estos talentosos profesionales están lanzando sus propias startups o moviéndose a la competencia. Meta está reclutando activamente en OpenAI, Anthropic y Google. Anthropic está reclutando en Meta y OpenAI.
Esta dinámica tiene varias consecuencias. En primer lugar, fragmenta el panorama de la investigación. En lugar de trabajar hacia objetivos comunes, pequeños equipos de diferentes organizaciones compiten por los mismos avances. En segundo lugar, incrementa los costos. Los enormes salarios de los especialistas en IA solo son sostenibles para empresas bien capitalizadas, lo que excluye a las empresas más pequeñas del mercado. En tercer lugar, retrasa los proyectos. Las empresas informan que las vacantes permanecen sin cubrir durante meses, lo que altera los plazos de desarrollo.
Las implicaciones sociales se extienden mucho más allá del sector tecnológico. Si la IA realmente representa la próxima revolución industrial, entonces es inminente una transformación masiva del mercado laboral. A diferencia de la primera revolución industrial, que afectó principalmente al trabajo físico, la IA se centra en las tareas cognitivas. No solo se ven amenazadas la simple introducción de datos y la atención al cliente, sino también profesiones altamente cualificadas como programadores, diseñadores, abogados y periodistas.
Un estudio del sector de la gestión de inversiones predice una disminución del 5 % en la participación de los ingresos laborales debido a la IA y el big data. Esto es comparable a los cambios ocurridos durante la revolución industrial, que provocaron una disminución del 5 % al 15 %. La diferencia crucial: la transformación actual se está produciendo a lo largo de años, no de décadas. Las sociedades tienen poco tiempo para adaptarse.
La computación en tiempo de prueba y el cambio de paradigma
Mientras las leyes de escalado para el preentrenamiento alcanzan sus límites, ha surgido un nuevo paradigma: el escalado computacional en tiempo de prueba. Los modelos o1 de OpenAI demostraron que es posible obtener mejoras significativas de rendimiento al invertir más potencia computacional durante la inferencia. En lugar de simplemente aumentar el tamaño del modelo, estos sistemas permiten que el modelo analice una consulta durante más tiempo, utilice múltiples enfoques para resolverla y autoverifique sus respuestas.
Sin embargo, las investigaciones demuestran que este paradigma también presenta limitaciones. El escalamiento secuencial, en el que un modelo itera sobre el mismo problema varias veces, no genera mejoras continuas. Estudios sobre modelos como Deepseeks R1 y QwQ demuestran que los procesos de pensamiento más largos no producen automáticamente mejores resultados. A menudo, el modelo corrige las respuestas correctas por las incorrectas, en lugar de lo contrario. La capacidad de autorrevisión necesaria para un escalamiento secuencial eficaz no está suficientemente desarrollada.
El escalado paralelo, donde se generan múltiples soluciones simultáneamente y se selecciona la mejor, muestra mejores resultados. Sin embargo, también en este caso, el beneficio marginal disminuye con cada duplicación de la potencia de cálculo invertida. La rentabilidad disminuye rápidamente. Para aplicaciones comerciales que necesitan responder millones de consultas al día, los costos son prohibitivos.
El verdadero avance podría residir en la combinación de diferentes enfoques. Las arquitecturas híbridas que combinan Transformers con Modelos de Espacio de Estados prometen aunar las fortalezas de ambos. Los Modelos de Espacio de Estados como Mamba ofrecen un comportamiento de escalado lineal en la inferencia, mientras que los Transformers destacan en la captura de dependencias a largo plazo. Estos sistemas híbridos podrían reequilibrar la ecuación coste-calidad.
Arquitecturas alternativas y el futuro después de los Transformers
Junto con los modelos de mundo, están surgiendo diversas arquitecturas alternativas que podrían desafiar el dominio de los Transformers. Los modelos de espacio de estados han avanzado significativamente en los últimos años. S4, Mamba y Hyena demuestran que es posible un razonamiento eficiente en contextos largos con complejidad lineal. Mientras que los Transformers escalan cuadráticamente con la longitud de la secuencia, los SSM logran un escalamiento lineal tanto en el entrenamiento como en la inferencia.
Estas mejoras de eficiencia podrían ser cruciales al implementar sistemas de IA en entornos de producción. El coste de la inferencia se ha subestimado con frecuencia. El entrenamiento es una inversión única, pero la inferencia se ejecuta continuamente. ChatGPT siempre está disponible. Con miles de millones de consultas diarias, incluso pequeñas mejoras de eficiencia se traducen en enormes ahorros de costes. Un modelo que requiere la mitad de potencia de cálculo para la misma calidad ofrece una enorme ventaja competitiva.
El desafío radica en la maduración de estas tecnologías. Los transformadores llevan una ventaja de casi ocho años y cuentan con un vasto ecosistema de herramientas, bibliotecas y experiencia. Las arquitecturas alternativas no solo deben ser técnicamente superiores, sino también prácticas. La historia de la tecnología está llena de soluciones técnicamente superiores que fracasaron en el mercado debido a la falta de un ecosistema adecuado.
Curiosamente, la competencia china también recurre a enfoques alternativos. DeepSeek V3, un modelo de código abierto con 671 000 millones de parámetros, utiliza una arquitectura de expertos mixtos en la que solo se activan 37 000 millones de parámetros por token. El modelo alcanza un rendimiento comparable al de sus competidores occidentales en las pruebas de referencia, pero se entrenó a un coste mucho menor. El tiempo de entrenamiento fue de tan solo 2,788 millones de horas de GPU H800, significativamente inferior al de modelos comparables.
Este desarrollo demuestra que el liderazgo tecnológico no reside necesariamente en las empresas con mayor poder financiero. Decisiones arquitectónicas inteligentes y optimizaciones pueden compensar las ventajas de recursos. Para el panorama global de la IA, esto implica una creciente multipolaridad. China, Europa y otras regiones están desarrollando sus propios enfoques que no son simplemente copias de modelos occidentales.
La reevaluación y la inevitable resaca
La convergencia de todos estos factores sugiere una inminente reevaluación de la industria de la IA. Las valoraciones actuales se basan en el supuesto de un crecimiento exponencial continuo, tanto en el rendimiento del modelo como en su adopción comercial. Ambos supuestos son cada vez más cuestionables. El rendimiento del modelo se está estancando, mientras que los costes siguen disparándose. Si bien la adopción comercial está creciendo, la monetización sigue siendo un reto.
OpenAI, con su valoración de medio billón de dólares, necesitaría alcanzar al menos 100 000 millones de dólares en ingresos anuales y ser rentable en los próximos años para justificar su valoración. Esto significaría multiplicarse por diez en tan solo unos años. En comparación, Google tardó más de una década en pasar de 10 000 millones de dólares a 100 000 millones de dólares en ingresos. Las expectativas para las empresas de IA son exageradamente altas.
Los analistas advierten de un posible estallido de la burbuja de la IA. Los paralelismos con la burbuja puntocom son evidentes. Entonces, como ahora, existía una tecnología revolucionaria con un potencial enorme. Entonces, como ahora, existían valoraciones irracionalmente infladas y estructuras de financiación circulares. Entonces, como ahora, los inversores justificaban valoraciones absurdas argumentando que la tecnología lo cambiaría todo y que las métricas de valoración tradicionales ya no eran aplicables.
La diferencia crucial: a diferencia de muchas empresas puntocom, las empresas de IA actuales tienen productos funcionales con valor real. ChatGPT no es vaporware, sino una tecnología utilizada por millones de personas a diario. La pregunta no es si la IA es valiosa, sino si lo es lo suficiente como para justificar las valoraciones actuales. La respuesta, probablemente, sea no.
Cuando llegue la revalorización, será dolorosa. Los fondos de capital riesgo han invertido el 70 % de su capital en IA. Los fondos de pensiones y los inversores institucionales están enormemente expuestos. Una caída significativa en las valoraciones de la IA tendría consecuencias financieras de gran alcance. Las empresas que dependen de financiación barata tendrían dificultades repentinas para captar capital. Se paralizarían proyectos y se despediría personal.
La perspectiva a largo plazo y el camino a seguir
A pesar de estas sombrías perspectivas a corto plazo, el potencial a largo plazo de la inteligencia artificial sigue siendo inmenso. El entusiasmo actual no altera la importancia fundamental de la tecnología. La pregunta no es si la IA cumplirá su promesa, sino cómo y cuándo. El cambio de LeCun del desarrollo de productos a corto plazo a la investigación fundamental a largo plazo señala el camino.
La próxima generación de sistemas de IA probablemente será diferente a los LLM actuales. Combinará elementos de modelos del mundo, arquitecturas alternativas y nuevos paradigmas de entrenamiento. Se basará menos en el escalamiento por fuerza bruta y más en representaciones eficientes y estructuradas. Aprenderá del mundo físico, no solo del texto. Y comprenderá la causalidad, no solo las correlaciones.
Esta visión, sin embargo, requiere tiempo, paciencia y la libertad para realizar investigación fundamental. Estas mismas condiciones son difíciles de encontrar en el entorno de mercado actual. La presión para lograr un éxito comercial rápido es inmensa. Los informes trimestrales y las rondas de evaluación dominan la agenda. Los programas de investigación a largo plazo, que pueden tardar años en producir resultados, son difíciles de justificar.
La decisión de LeCun de fundar una startup a los 65 años es una declaración notable. Podría haberse retirado con todos los honores y un lugar asegurado en la historia. En cambio, ha optado por el difícil camino de perseguir una visión rechazada por la corriente dominante del sector. Meta seguirá siendo socio, lo que significa que su empresa contará con recursos, al menos inicialmente. Pero su verdadero éxito dependerá de si logra demostrar en los próximos años que la Inteligencia Artificial Avanzada es realmente superior.
La transformación llevará años. Incluso si LeCun tiene razón y los modelos mundiales son fundamentalmente superiores, aún necesitan desarrollarse, optimizarse e industrializarse. Es necesario construir el ecosistema. Los desarrolladores deben aprender a usar las nuevas herramientas. Las empresas necesitan migrar de los LLM a los nuevos sistemas. Estas fases de transición siempre han sido difíciles.
De la publicidad exagerada a la realidad: el curso de acción a largo plazo en IA
La salida de Yann LeCun de Meta marca más que un simple cambio de personal. Simboliza la tensión fundamental entre la visión científica y el pragmatismo comercial, entre la innovación a largo plazo y las demandas del mercado a corto plazo. La actual revolución de la IA se encuentra en un punto de inflexión. Los éxitos fáciles de escalar se han agotado. Los próximos pasos serán más difíciles, costosos e inciertos.
Para los inversores, esto significa que las valoraciones exorbitantes de los actuales campeones de la IA deben analizarse críticamente. Para las empresas, significa que la esperanza de milagros rápidos de productividad mediante la IA podría verse frustrada. Para la sociedad, significa que la transformación será más lenta y desigual de lo que sugiere la ola de expectación.
Al mismo tiempo, la base sigue siendo sólida. La IA no es una moda pasajera, sino una tecnología fundamental que transformará prácticamente todos los sectores de la economía a largo plazo. Los paralelismos con la revolución industrial son acertados. Como entonces, habrá ganadores y perdedores, excesos y correcciones, trastornos y ajustes. La pregunta no es si la arquitectura transformadora ha llegado al límite de sus capacidades, sino cómo será la siguiente fase y quién la moldeará.
La apuesta de LeCun por la inteligencia artificial avanzada y los modelos globales es audaz, pero podría resultar visionaria. En cinco años, sabremos si distanciarse de la corriente dominante fue la decisión correcta o si la industria ha mantenido el rumbo. Los próximos años serán cruciales para el desarrollo a largo plazo de la inteligencia artificial y, en consecuencia, para el futuro económico y social.
Nuestra experiencia en EE. UU. en desarrollo de negocios, ventas y marketing.
Nuestra experiencia en EE. UU. en desarrollo de negocios, ventas y marketing - Imagen: Xpert.Digital
Enfoque industrial: B2B, digitalización (de IA a XR), ingeniería mecánica, logística, energías renovables e industria.
Más sobre esto aquí:
Un centro temático con conocimientos y experiencia:
- Plataforma de conocimiento sobre la economía global y regional, la innovación y las tendencias específicas de la industria.
- Recopilación de análisis, impulsos e información de fondo de nuestras áreas de enfoque
- Un lugar para la experiencia y la información sobre los avances actuales en negocios y tecnología.
- Centro temático para empresas que desean aprender sobre mercados, digitalización e innovaciones industriales.
Su socio global de marketing y desarrollo empresarial
☑️ Nuestro idioma comercial es inglés o alemán.
☑️ NUEVO: ¡Correspondencia en tu idioma nacional!
Estaré encantado de servirle a usted y a mi equipo como asesor personal.
Puedes ponerte en contacto conmigo rellenando el formulario de contacto o simplemente llámame al +49 89 89 674 804 (Múnich) . Mi dirección de correo electrónico es: wolfenstein ∂ xpert.digital
Estoy deseando que llegue nuestro proyecto conjunto.
☑️ Apoyo a las PYMES en estrategia, consultoría, planificación e implementación.
☑️ Creación o realineamiento de la estrategia digital y digitalización
☑️ Ampliación y optimización de procesos de ventas internacionales
☑️ Plataformas comerciales B2B globales y digitales
☑️ Pionero en desarrollo empresarial / marketing / relaciones públicas / ferias comerciales
🎯🎯🎯 Benefíciese de la amplia experiencia quíntuple de Xpert.Digital en un paquete de servicios integral | BD, I+D, XR, PR y optimización de la visibilidad digital
Benefíciese de la amplia y quíntuple experiencia de Xpert.Digital en un paquete integral de servicios | I+D, XR, RR. PP. y optimización de la visibilidad digital - Imagen: Xpert.Digital
Xpert.Digital tiene un conocimiento profundo de diversas industrias. Esto nos permite desarrollar estrategias a medida que se adaptan precisamente a los requisitos y desafíos de su segmento de mercado específico. Al analizar continuamente las tendencias del mercado y seguir los desarrollos de la industria, podemos actuar con previsión y ofrecer soluciones innovadoras. Mediante la combinación de experiencia y conocimiento generamos valor añadido y damos a nuestros clientes una ventaja competitiva decisiva.
Más sobre esto aquí:

