Inteligencia artificial en periodismo financiero: Bloomberg lucha con un resumen de IA defectuoso
Prelanzamiento de Xpert
Selección de voz 📢
Publicado el: 6 de abril de 2025 / Actualización del: 6 de abril de 2025 - Autor: Konrad Wolfenstein
¿Ha llegado actualmente la IA en el periodismo?
¿Son la implementación de IA adecuada para el uso diario? El inicio lleno de baches de Bloomberg con resúmenes automatizados
La integración de la inteligencia artificial en el periodismo presenta a las compañías de medios con desafíos complejos, como muestra el caso actual de Bloomberg. El servicio de instrucción financiera ha estado experimentando con resúmenes generados por IA para sus artículos desde enero de 2025, pero tuvo que corregir al menos 36 resúmenes incorrectos. Esta situación ilustra las dificultades para implementar sistemas de IA en el área editorial, en particular con respecto a la precisión, la confiabilidad y la confianza en el contenido automatizado. Las siguientes secciones arrojan luz sobre los problemas específicos en Bloomberg, las colocan en el contexto de los desafíos generales de IA y discuten las posibles soluciones para la integración exitosa de la IA en el periodismo.
Adecuado para:
- AI de confianza: la tarjeta Trump de Europa y la posibilidad de asumir un papel principal en la inteligencia artificial
La entrada problemática de Bloomberg en el contenido generado por IA
La susceptibilidad de las reuniones de IA
Bloomberg, una compañía líder mundial para noticias financieras, comenzó a colocar los puntos de bala como resúmenes al comienzo de sus artículos a principios de 2025. Sin embargo, desde esta introducción el 15 de enero, la compañía ha tenido que corregir al menos tres docenas de estos resúmenes automatizados, lo que indica problemas significativos con la precisión del contenido generado AI. Estos problemas son particularmente problemáticos para una empresa como Bloomberg, que es conocida por sus informes financieros precisos y cuya información a menudo puede tener un impacto directo en las decisiones de inversión. La necesidad de numerosas correcciones socava la confianza en la confiabilidad de esta nueva tecnología y plantea preguntas sobre la implementación prematura de los sistemas de IA en el periodismo.
Se produjo un error particularmente significativo cuando Bloomberg informó sobre el Autozölle planeado del presidente Trump. Si bien el artículo real declaró correctamente que Trump posiblemente anunciaría las tarifas el mismo día, el resumen generado por IA contenía información incorrecta sobre el tiempo de una medida aduanera más completa. En otro caso, un resumen de IA afirmó incorrectamente que el presidente Trump ya había impuesto aranceles contra Canadá en 2024. Tales errores muestran los límites de la IA en la interpretación de mensajes complejos y los riesgos cuando se publica contenido automatizado inusual.
Además de la fecha falsa, los errores también incluyeron números incorrectos y atribuciones incorrectas de acciones o declaraciones sobre personas u organizaciones. Estos tipos de errores, a menudo denominados "alucinaciones", representan un desafío especial para los sistemas de IA, ya que pueden sonar plausibles y, por lo tanto, son difíciles de reconocer si no hay una revisión humana exhaustiva. La frecuencia de estos errores en Bloomberg subraya la necesidad de procesos de revisión sólidos y plantea preguntas sobre la madurez de la tecnología AI utilizada.
La reacción de Bloomberg a los problemas de IA
En una declaración oficial, Bloomberg enfatizó que el 99 por ciento de los resúmenes generados por IA corresponderían a los estándares editoriales. Según sus propias declaraciones, la compañía publica miles de artículos todos los días y, por lo tanto, ve la tasa de error como relativamente baja. Según sus propias declaraciones, Bloomberg otorga importancia a la transparencia y corrige o actualiza elementos si es necesario. También se enfatizó que los periodistas tienen el control total sobre si un resumen generado por IA se publica o no.
John Micklethwait, editor en jefe de Bloomberg, describió las razones del resumen de IA en un ensayo el 10 de enero, que se basó en una conferencia en City St. George's, Universidad de Londres. Explicó que los clientes los aprecian porque pueden reconocer rápidamente qué es una historia, mientras que los periodistas son más escépticos. Admitió que los periodistas temen que los lectores solo pudieran confiar en los resúmenes y ya no leer la historia real. Sin embargo, Micklethwait enfatizó que el valor de un resumen de IA depende exclusivamente de la calidad de la historia subyacente y que las personas aún son cruciales para ellos.
Una portavoz de Bloomberg le dijo al New York Times que los comentarios sobre los resúmenes fueron generalmente positivos y que la compañía continuó mejorando la experiencia. Esta declaración indica que Bloomberg quiere capturar a pesar de los problemas de usar la estrategia de usar IA para resúmenes, pero con un mayor enfoque en la garantía de calidad y el refinamiento de la tecnología utilizada.
IA en periodismo: un tema que es relevante para la industria
Experiencias de otras compañías de medios con IA
Bloomberg no es la única compañía de medios que experimenta con la integración de la IA en sus procesos periodísticos. Muchas organizaciones de noticias intentan descubrir cómo puede integrar mejor esta nueva tecnología en su trabajo de informes y editoriales. La cadena de periódicos Gannett utiliza resúmenes generados por IA similares para sus artículos, y el Washington Post ha desarrollado una herramienta llamada "Pregunte la publicación" que genera respuestas a preguntas de elementos postales publicados. Esta amplia adopción muestra el considerable interés de la industria de los medios en tecnologías de IA, a pesar de los riesgos y desafíos asociados.
También se han producido problemas con las herramientas de IA en otras compañías de medios. A principios de marzo, Los Angeles Times eliminó su herramienta AI de un artículo de opinión después de que la tecnología describió al Ku Klux-Klan como algo más que una organización racista. Este incidente ilustra que los desafíos que enfrenta Bloomberg no están aislados, sino sintomáticamente para problemas más amplios con la integración de la IA en el periodismo. Existe un patrón en el que la tecnología aún no es lo suficientemente madura como para funcionar de manera confiable sin supervisión humana, especialmente con temas sensibles o complejos.
Estos ejemplos ilustran la tensión entre el deseo de innovación y eficiencia por parte de AI, por un lado, y la necesidad de mantener los estándares periodísticos y la precisión por el otro. Las compañías de medios tienen que hacer un acto de equilibrio: quieren beneficiarse de las ventajas de la IA sin arriesgar la confianza de sus lectores o comprometer los principios periodísticos básicos. Las experiencias de Bloomberg y otras organizaciones de noticias sirven como enseñanzas importantes para toda la industria sobre las posibilidades y límites de la IA en el periodismo.
Adecuado para:
- Una de las razones del uso reticente de la IA: el 68 % de los responsables de recursos humanos se quejan de la falta de conocimientos sobre IA en las empresas
El desafío especial en el periodismo financiero
En el sector financiero, donde Bloomberg actúa como uno de los principales servicios de inteligencia, los requisitos de precisión y confiabilidad son particularmente altos. Los efectos de la información incorrecta pueden tener consecuencias financieras significativas aquí, ya que los inversores y los expertos financieros toman decisiones basadas en esta noticia. Esta responsabilidad especial hace que la integración de las tecnologías de IA en el periodismo financiero sea un desafío aún mayor que en otras áreas de informes.
Curiosamente, el "Generalist-Ki" excedió el KI especial de Bloomberg en su dominio, el análisis financiero. Bloomberg había estimado que al menos $ 2.5 millones invertidos en el desarrollo de su propia IA financiera, pero ni siquiera un año después de la introducción a fines de marzo de 2023, quedó claro que los modelos de IA generales como ChatGPT y GPT-4 proporcionan mejores resultados en esta área. Esto ilustra el rápido desarrollo en el campo de la inteligencia artificial y la dificultad para que las empresas se mantengan al día con soluciones especializadas si los modelos generales se vuelven cada vez más eficientes.
🎯🎯🎯 Benefíciese de la amplia experiencia quíntuple de Xpert.Digital en un paquete de servicios integral | I+D, XR, relaciones públicas y SEM
Máquina de renderizado 3D AI y XR: experiencia quíntuple de Xpert.Digital en un paquete de servicios integral, I+D XR, PR y SEM - Imagen: Xpert.Digital
Xpert.Digital tiene un conocimiento profundo de diversas industrias. Esto nos permite desarrollar estrategias a medida que se adaptan precisamente a los requisitos y desafíos de su segmento de mercado específico. Al analizar continuamente las tendencias del mercado y seguir los desarrollos de la industria, podemos actuar con previsión y ofrecer soluciones innovadoras. Mediante la combinación de experiencia y conocimiento generamos valor añadido y damos a nuestros clientes una ventaja competitiva decisiva.
Más sobre esto aquí:
Modelos de calidad de datos y IA: los obstáculos invisibles de la tecnología moderna
Desafíos fundamentales de la IA generativa
El problema de la alucinación en los modelos de IA
Uno de los desafíos más fundamentales para los sistemas de IA, que también quedó claro en los resúmenes de Bloomberg, es el problema de las "alucinaciones", es decir, la tendencia de los modelos de IA, a generar información de sonido plausiblemente, pero de hecho incorrecta. Este problema ocurre cuando los sistemas de IA generan contenido que va más allá de la información proporcionada o si malinterpretan los datos. Tales alucinaciones son particularmente problemáticas en el periodismo, donde los fieles y la precisión son de importancia crucial.
Los problemas experimentados por Bloomberg son precisamente tales alucinaciones: la IA "inventada" de datos, como la fecha introductoria de los deberes automáticos de Trump o afirmó erróneamente que Trump ya habría impuesto aranceles contra Canadá en 2024. Este tipo de error subraya los límites de la tecnología AI actual, especialmente cuando llega a la interpretación precisa de la información compleja.
Los expertos indican que las alucinaciones pueden ser desencadenadas por varios factores, entre otras cosas por la forma en que se codifican las indicaciones y textos de capacitación. Los modelos de idiomas grandes (LLMS) enlazan los términos con una serie de números, así que las codificaciones vectoriales calificadas. En el caso de palabras ambiguas como el "banco" (que puede describir tanto una institución financiera como un asiento)), puede haber codificación por significado para evitar la ambigüedad. Cada error en la codificación y decodificación de representaciones y textos puede conducir a la IA generativa alucinada.
Transparencia y comprensión de las decisiones de IA
Otro problema fundamental con los sistemas de IA es la falta de transparencia y trazabilidad de sus procesos de toma de decisiones. Con algunos métodos de IA, ya no es comprensible cómo se produce una determinada predicción o un cierto resultado o por qué un sistema de IA ha alcanzado una respuesta específica en caso de una pregunta específica. Esta falta de transparencia, a menudo conocida como un "problema de caja negra", hace que sea difícil identificar y corregir errores antes de que se publiquen.
La trazabilidad es particularmente importante en áreas como el periodismo, donde las decisiones sobre el contenido deben ser transparentes y justificables. Si Bloomberg y otras compañías de medios no pueden entender por qué su IA genera resúmenes incorrectos, será difícil realizar mejoras sistémicas. En cambio, confían en las correcciones reactivas después de que ya se han producido errores.
Este desafío también es identificado por expertos de negocios y ciencias. Aunque es principalmente un desafío técnico, también puede conducir a resultados problemáticos desde una perspectiva social o legal en ciertas áreas de aplicación. En el caso de Bloomberg, esto podría conducir a una pérdida de confianza entre los lectores o en el peor de los casos a las decisiones financieras basadas en información incorrecta.
Dependencia de la calidad y alcance de los datos
Además, las aplicaciones basadas en la IA dependen de la calidad de los datos y los algoritmos. De esta manera, los errores sistemáticos en datos o algoritmos a menudo no pueden reconocerse en vista del tamaño y la complejidad de los datos utilizados. Este es otro desafío fundamental con el que Bloomberg y otras compañías tienen que lidiar al implementar sistemas de inteligencia artificial.
El problema con la cantidad de datos: la IA solo puede tener en cuenta las "ventanas de contexto" relativamente pequeñas en el procesamiento de comandos, el aviso, realmente se ha reducido en los últimos años, pero sigue siendo un desafío. El modelo de Google KI "Gemini 1.5 Pro 1M" ya puede procesar uno de inmediato en la extensión de 700,000 palabras o una hora de video más que 7 veces más que el mejor modelo GPT de OpenAai. Sin embargo, las pruebas muestran que la inteligencia artificial puede buscar datos, pero tiene dificultades para recopilar relaciones.
Adecuado para:
- La reducción de costos y la optimización de la eficiencia son los principios comerciales dominantes: el riesgo de AI y la elección del modelo AI correcto
Enfoques de solución y desarrollos futuros
Vigilancia humana y procesos editoriales
Una solución obvia a los problemas experimentados por Bloomberg es el aumento de la monitorización humana del contenido generado por IA. Bloomberg ya ha enfatizado que los periodistas tienen el control total sobre si se publica o no un resumen generado por IA. Sin embargo, este control debe ejercerse de manera efectiva, lo que significa que los editores deben tener suficiente tiempo para verificar las cumbres de IA antes de que se publiquen.
La implementación de procesos editoriales sólidos para verificar el contenido generado por IA es crucial para minimizar los errores. Esto podría incluir que todas las cumbres de IA deben ser verificadas por al menos un editor humano antes de que se publiquen o que ciertos tipos de información (como datos, números o atribuciones) se verifican particularmente a fondo. Dichos procesos aumentan la carga de trabajo y, por lo tanto, reducen la parte de las ganancias de eficiencia por IA, pero son necesarios para proteger la precisión y la credibilidad.
Mejoras técnicas en los modelos de IA
El desarrollo técnico de los modelos de IA en sí es otro enfoque importante para resolver los problemas actuales. Ya con GPT-4, las alucinaciones han disminuido significativamente en comparación con el predecesor GPT-3.5. El modelo más reciente de antrópico, "Opus Claude 3", muestra incluso menos alucinaciones en las pruebas iniciales. Pronto la tasa de error de los modelos de voz debe ser más baja que la del hombre promedio. Sin embargo, los modelos de lenguaje de IA probablemente no serán perfectos hasta un aviso adicional, a diferencia de las computadoras.
Un enfoque técnico prometedor es la "mezcla de expertos": varios modelos especiales pequeños están conectados a una red de puerta. La puerta analiza el sistema y luego se pasa a uno o más expertos si es necesario. Al final, las respuestas a una palabra general se combinan. De esta manera, se puede evitar que todo el modelo siempre debe estar activo en su complejidad. Este tipo de arquitectura podría potencialmente mejorar la precisión mediante el uso de modelos especializados para ciertos tipos de información o dominios.
Expectativas realistas y comunicación transparente
Después de todo, es importante tener expectativas realistas de los sistemas de IA y comunicarse de manera transparente a través de sus habilidades y límites. Los sistemas de IA se definen específicamente para un contexto de aplicación específico hoy en día y están lejos de ser comparables a la inteligencia humana. Este conocimiento debería conducir a la implementación de IA en el periodismo y otras áreas.
Bloomberg y otras compañías de medios deben comunicarse de manera transparente sobre su uso de IA y dejar en claro que el contenido generado por IA puede ser incorrecto. Esto podría hacerse mediante el etiquetado explícito del contenido generado por IA, los procesos de corrección de errores transparentes y la comunicación abierta a través de los límites de la tecnología utilizada. Dicha transparencia puede ayudar a mantener la confianza del lector, incluso si ocurren errores.
¿Por qué la integración de IA fallan en el periodismo sin personas?
Las experiencias de Bloomberg con resúmenes generados por IA ilustran los complejos desafíos en la integración de la inteligencia artificial en el periodismo. Los al menos 36 errores que tuvieron que ser corregidos desde enero muestran que a pesar de su potencial, la tecnología aún no es lo suficientemente madura como para ser utilizada de manera confiable sin una vigilancia humana exhaustiva. Los problemas con los que se enfrenta Bloomberg no son únicos, pero reflejan desafíos fundamentales de la IA, como las alucinaciones, la falta de transparencia y la dependencia de los datos de alta calidad.
Se requieren varios enfoques para una integración exitosa de IA en el periodismo: procesos editoriales sólidos para la revisión del contenido generado por IA, mejoras técnicas continuas en los modelos de IA y la comunicación transparente sobre las habilidades y límites de la tecnología utilizada. La experiencia de Bloomberg puede servir como una lección valiosa para otras compañías de medios que planean implementaciones de IA similares.
El futuro del periodismo basado en la IA depende de qué tan bien es utilizar las ganancias de eficiencia y las posibilidades innovadoras de la IA sin comprometer los estándares periodísticos. La clave está en un enfoque equilibrado que ve la tecnología como una herramienta que admite periodistas humanos en lugar de reemplazarlos. Como John Micklethwait de Bloomberg señaló acertadamente: "Un resumen de IA es tan bueno como la historia en la que se basa. Y las personas siguen siendo importantes para las historias".
Estamos a su disposición - asesoramiento - planificación - implementación - gestión de proyectos
☑️ Apoyo a las PYMES en estrategia, consultoría, planificación e implementación.
☑️ Creación o realineamiento de la estrategia digital y digitalización
☑️ Ampliación y optimización de procesos de ventas internacionales
☑️ Plataformas comerciales B2B globales y digitales
☑️ Desarrollo empresarial pionero
Estaré encantado de servirle como su asesor personal.
Puedes contactarme completando el formulario de contacto a continuación o simplemente llámame al +49 89 89 674 804 (Múnich) .
Estoy deseando que llegue nuestro proyecto conjunto.
Xpert.Digital - Konrad Wolfenstein
Xpert.Digital es un centro industrial centrado en la digitalización, la ingeniería mecánica, la logística/intralogística y la fotovoltaica.
Con nuestra solución de desarrollo empresarial de 360°, apoyamos a empresas reconocidas desde nuevos negocios hasta posventa.
Inteligencia de mercado, smarketing, automatización de marketing, desarrollo de contenidos, relaciones públicas, campañas de correo, redes sociales personalizadas y desarrollo de leads son parte de nuestras herramientas digitales.
Puede obtener más información en: www.xpert.digital - www.xpert.solar - www.xpert.plus