Intelligence artificielle dans le journalisme financier: Bloomberg se bat avec un résumé de l'IA défectueux
Version préliminaire d'Xpert
Sélection de voix 📢
Publié le: 6 avril 2025 / mise à jour du: 6 avril 2025 - Auteur: Konrad Wolfenstein

AI dans le journalisme financier: Bloomberg se bat avec une IM de Résumé de l'IA défectueuse: Xpert.Digital
L'IA a-t-elle actuellement atteint le journalisme?
La mise en œuvre de l'IA est-elle adaptée à un usage quotidien? Début cahoteux de Bloomberg avec des résumés automatisés
L'intégration de l'intelligence artificielle dans le journalisme présente des sociétés de médias avec des défis complexes, comme le montre le cas actuel de Bloomberg. Le service d'instructions financières expérimente des résumés générés par l'IA pour ses articles depuis janvier 2025, mais a dû corriger au moins 36 résumés incorrects. Cette situation illustre les difficultés de mise en œuvre des systèmes d'IA dans le domaine éditorial, en particulier en ce qui concerne la précision, la fiabilité et la confiance dans le contenu automatisé. Les sections suivantes ont mis en lumière les problèmes spécifiques de Bloomberg, les ont mis dans le contexte des défis généraux de l'IA et discutent des solutions possibles pour une intégration réussie de l'IA dans le journalisme.
Convient à:
- Trusty AI: Trump Card d'Europe et la chance de jouer un rôle de premier plan dans l'intelligence artificielle
L'entrée problématique de Bloomberg dans le contenu généré par l'IA
La sensibilité des réunions de l'IA
Bloomberg, une entreprise la plus élevée pour les nouvelles financières, a commencé à placer des puces comme résumés au début de ses articles au début de 2025. Depuis cette introduction le 15 janvier, cependant, la société a dû corriger au moins trois douzaines de ces résumés automatisés, ce qui indique des problèmes importants avec la précision du contenu généré par l'IA. Ces problèmes sont particulièrement problématiques pour une entreprise comme Bloomberg, qui est connue pour ses rapports financiers précis et dont les informations peuvent souvent avoir un impact direct sur les décisions d'investissement. La nécessité de nombreuses corrections sape la confiance dans la fiabilité de cette nouvelle technologie et soulève des questions sur la mise en œuvre prématurée des systèmes d'IA dans le journalisme.
Une erreur particulièrement importante s'est produite lorsque Bloomberg a rendu compte de Bloomberg sur Autozölle prévue du président Trump. Alors que l'article réel a déclaré à juste titre que Trump annoncerait éventuellement les tarifs le même jour, le résumé généré par l'IA contenait des informations incorrectes sur le moment d'une mesure de douane plus complète. Dans un autre cas, un résumé de l'IA a affirmé à tort que le président Trump avait déjà imposé des tarifs contre le Canada en 2024. De telles erreurs montrent les limites de l'IA dans l'interprétation de messages complexes et les risques lorsque le contenu automatisé inhabituel est publié.
En plus de la fausse date, les erreurs comprenaient également des nombres incorrects et des attributions incorrectes d'actions ou de déclarations concernant les personnes ou les organisations. Ces types d'erreurs, souvent appelés «hallucinations», représentent un défi spécial pour les systèmes d'IA, car ils peuvent sembler plausibles et sont donc difficiles à reconnaître s'il n'y a pas de revue humaine approfondie. La fréquence de ces erreurs chez Bloomberg souligne la nécessité de processus d'examen robustes et soulève des questions sur la maturité de la technologie d'IA utilisée.
La réaction de Bloomberg aux problèmes d'IA
Dans une déclaration officielle, Bloomberg a souligné que 99% des résumés générés par l'IA correspondraient aux normes éditoriales. Selon ses propres déclarations, la société publie des milliers d'articles chaque jour et considère donc le taux d'erreur comme relativement faible. Selon ses propres déclarations, Bloomberg attache l'importance à la transparence et corrige ou les éléments mis à jour si nécessaire. Il a également été souligné que les journalistes ont un contrôle total sur la publication ou non de la publication d'un résumé généré par l'IA.
John Micklethwait, rédacteur en chef de Bloomberg, a décrit les raisons du résumé de l'IA dans un essai le 10 janvier, qui était basée sur une conférence à City St. George's, Université de Londres. Il a expliqué que les clients les apprécient parce qu'ils peuvent rapidement reconnaître ce qu'est une histoire, tandis que les journalistes sont plus sceptiques. Il a admis que les journalistes craignent que les lecteurs ne puissent que s'appuyer sur les résumés et ne lisent plus l'histoire réelle. Néanmoins, Micklethwait a souligné que la valeur d'un résumé de l'IA dépend exclusivement de la qualité de l'histoire sous-jacente et les gens sont toujours cruciaux pour eux.
Une porte-parole de Bloomberg a déclaré au New York Times que les commentaires sur les résumés étaient généralement positifs et que l'entreprise continuait d'améliorer l'expérience. Cette déclaration indique que Bloomberg veut capturer malgré les problèmes d'utilisation de la stratégie d'utilisation de l'IA pour les résumés, mais avec un accent accru sur l'assurance qualité et le raffinement de la technologie utilisée.
IA dans le journalisme: un sujet pertinent pour l'industrie
Expériences d'autres sociétés de médias avec l'IA
Bloomberg n'est pas la seule entreprise de médias à expérimenter l'intégration de l'IA dans ses processus journalistiques. De nombreuses organisations de presse essaient de découvrir comment vous pouvez mieux intégrer cette nouvelle technologie dans votre travail de reportage et éditorial. La chaîne de journaux Gannett utilise des résumés générés par l'IA similaires pour vos articles, et le Washington Post a développé un outil intitulé «Ask the Post» qui génère des réponses aux questions des articles postaux publiés. Cette large adoption montre l'intérêt considérable de l'industrie des médias dans les technologies de l'IA, malgré les risques et défis associés.
Des problèmes avec les outils d'IA se sont également produits dans d'autres sociétés de médias. Début mars, le Los Angeles Times a supprimé son outil d'IA d'un article d'opinion après que la technologie ait décrit le Ku Klux-Klan comme autre chose qu'une organisation raciste. Cet incident illustre que les défis auxquels Bloomberg sont confrontés ne sont pas isolés, mais symptomatiquement pour des problèmes plus larges avec l'intégration de l'IA dans le journalisme. Il existe un modèle dans lequel la technologie n'est pas encore suffisamment mature pour travailler de manière fiable sans supervision humaine, en particulier avec des sujets sensibles ou complexes.
Ces exemples illustrent la tension entre le désir d'innovation et d'efficacité par l'IA d'une part et la nécessité de maintenir les normes journalistiques et la précision de l'autre. Les sociétés de médias doivent faire un acte d'équilibrage: elles veulent bénéficier des avantages de l'IA sans risquer la confiance de leurs lecteurs ou compromettre les principes journalistiques de base. Les expériences et autres organisations de presse de Bloomberg servent d'enseignements importants à l'ensemble de l'industrie sur les possibilités et les limites de l'IA dans le journalisme.
Convient à:
- Une des raisons d’un recours hésitant à l’IA : 68% des responsables RH se plaignent du manque de savoir-faire en IA dans les entreprises
Le défi spécial du journalisme financier
Dans le secteur financier, où Bloomberg agit comme l'un des principaux services de renseignement, les exigences de précision et de fiabilité sont particulièrement élevées. Les effets des informations incorrectes peuvent avoir des conséquences financières importantes ici, car les investisseurs et les experts financiers prennent des décisions en fonction de cette nouvelle. Cette responsabilité particulière fait de l'intégration des technologies de l'IA dans le journalisme financier un défi encore plus grand que dans d'autres domaines de rapport.
Fait intéressant, le «généraliste-Ki» a dépassé le KI spécial de Bloomberg dans son domaine, l'analyse FinancialBery. Bloomberg a estimé au moins 2,5 millions de dollars investi dans le développement de sa propre IA financière, mais pas même un an après l'introduction fin mars 2023, il est devenu clair que des modèles d'IA généraux tels que Chatgpt et GPT-4 fournissent de meilleurs résultats dans ce domaine. Cela illustre le développement rapide dans le domaine de l'intelligence artificielle et la difficulté pour les entreprises de suivre des solutions spécialisées si les modèles généraux deviennent de plus en plus efficaces.
🎯🎯🎯 Bénéficiez de la quintuple expertise étendue de Xpert.Digital dans une offre de services complète | R&D, XR, RP et SEM
Machine de rendu 3D AI & XR : une expertise quintuplée de Xpert.Digital dans un ensemble complet de services, R&D XR, PR & SEM - Image : Xpert.Digital
Xpert.Digital possède une connaissance approfondie de diverses industries. Cela nous permet de développer des stratégies sur mesure, adaptées précisément aux exigences et aux défis de votre segment de marché spécifique. En analysant continuellement les tendances du marché et en suivant les évolutions du secteur, nous pouvons agir avec clairvoyance et proposer des solutions innovantes. En combinant expérience et connaissances, nous générons de la valeur ajoutée et donnons à nos clients un avantage concurrentiel décisif.
En savoir plus ici :
Modèles de qualité des données et d'IA: les pierres d'achoppement invisibles de la technologie moderne
Défis fondamentaux de l'IA générative
Le problème d'hallucination dans les modèles d'IA
L'un des défis les plus fondamentaux pour les systèmes d'IA, qui est également devenu clair aux résumés de Bloomberg, est le problème des «hallucinations» - c'est-à-dire la tendance des modèles d'IA, à générer des informations de sondage plausibles, mais en fait des informations incorrectes. Ce problème se produit lorsque les systèmes d'IA génèrent un contenu qui va au-delà des informations qui leur sont fournies ou s'ils interprètent mal les données. Ces hallucinations sont particulièrement problématiques dans le journalisme, où les fidèles et la précision sont d'une importance cruciale.
Les problèmes rencontrés par Bloomberg sont précisément de telles hallucinations: les données «inventées» de l'IA telles que la date d'introduction des tâches automobiles de Trump ou ont affirmé à tort que Trump aurait déjà imposé des tarifs contre le Canada en 2024. Ce type d'information est souligné les limites de la technologie actuelle de l'IA, en particulier en ce qui concerne l'interprétation précise de l'information complexe.
Les experts indiquent que les hallucinations peuvent être déclenchées par divers facteurs, entre autres, par la manière dont les invites de formation et les textes sont codées. Les modèles de grande langue (LLMS) lient des termes avec un certain nombre de nombres, les encodages vectoriels donc appelés. Dans le cas de mots ambigus tels que «banque» (qui peuvent décrire à la fois une institution financière et un siège)), il peut y avoir un codage par sens pour éviter l'ambiguïté. Chaque erreur dans le codage et le décodage des représentations et des textes peut conduire à l'hallucination générative de l'IA.
Transparence et compréhension des décisions de l'IA
Un autre problème fondamental avec les systèmes d'IA est le manque de transparence et de traçabilité de vos processus décisionnels. Avec certaines méthodes d'IA, il n'est plus compréhensible comment une certaine prédiction ou un certain résultat survient ni pourquoi un système d'IA a atteint une réponse spécifique en cas de question spécifique. Ce manque de transparence, souvent appelé «problème de boîte noire», rend difficile d'identifier et de corriger les erreurs avant d'être publiées.
La traçabilité est particulièrement importante dans des domaines tels que le journalisme, où les décisions concernant le contenu devraient être transparentes et justifiables. Si Bloomberg et d'autres sociétés de médias ne peuvent pas comprendre pourquoi leur IA génère des résumés incorrects, il sera difficile de faire des améliorations systémiques. Au lieu de cela, ils s'appuient sur des corrections réactives après que des erreurs se soient déjà produites.
Ce défi est également identifié par des experts des affaires et des sciences. Bien qu'il s'agisse principalement d'un défi technique, cela peut également conduire à des résultats problématiques d'un point de vue social ou juridique dans certains domaines d'application. Dans le cas de Bloomberg, cela pourrait entraîner une perte de confiance parmi les lecteurs ou dans le pire des cas aux décisions financières basées sur des informations incorrectes.
Dépendance à la qualité et à la portée des données
De plus, les applications basées sur l'IA dépendent de la qualité des données et des algorithmes. De cette façon, les erreurs systématiques dans les données ou les algorithmes ne peuvent souvent pas être reconnues en vue de la taille et de la complexité des données utilisées. Il s'agit d'un autre défi fondamental que Bloomberg et d'autres sociétés doivent faire face à la mise en œuvre des systèmes d'IA.
Le problème avec la quantité de données - l'IA ne peut prendre en compte que des «fenêtres de contexte» relativement petites dans le traitement des commandes, l'invite, a vraiment rétréci ces dernières années, mais reste un défi. Le modèle Google KI «Gemini 1.5 Pro 1M» peut déjà en traiter un rapidement dans l'étendue de 700 000 mots ou une heure de plus de 7 fois plus que le modèle GPT actuellement le meilleur GPT d'OpenAAI. Néanmoins, les tests montrent que l'intelligence artificielle peut rechercher des données, mais a du mal à collecter des relations.
Convient à:
- La réduction des coûts et l'optimisation de l'efficacité sont des principes commerciaux dominants - risque AI et le choix du modèle d'IA droit
Approches de solution et développements futurs
Surveillance humaine et processus éditoriaux
Une solution évidente aux problèmes rencontrés par Bloomberg est une surveillance humaine accrue du contenu généré par l'IA. Bloomberg a déjà souligné que les journalistes ont un contrôle total sur la publication ou non de la publication d'un résumé généré par l'IA. Cependant, ce contrôle doit être effectivement exercé, ce qui signifie que les éditeurs doivent avoir suffisamment de temps pour vérifier les sommets de l'IA avant leur publication.
La mise en œuvre de processus éditoriaux robustes pour vérifier le contenu généré par l'IA est cruciale pour minimiser les erreurs. Cela pourrait inclure que tous les sommets de l'IA doivent être vérifiés par au moins un éditeur humain avant leur publication ou que certains types d'informations (tels que les données, les nombres ou les attributions) sont particulièrement vérifiés. Ces processus augmentent la charge de travail et réduisent ainsi une partie des gains d'efficacité par l'IA, mais sont nécessaires pour protéger la précision et la crédibilité.
Améliorations techniques dans les modèles d'IA
Le développement technique des modèles d'IA lui-même est une autre approche importante pour résoudre les problèmes actuels. Déjà avec GPT-4, les hallucinations ont diminué de manière significative par rapport au prédécesseur GPT-3.5. Le modèle le plus récent d'Anthropic, «Claude 3 Opus», montre encore moins d'hallucinations dans les tests initiaux. Bientôt, le taux d'erreur des modèles vocaux devrait être inférieur à celui de l'homme moyen. Néanmoins, les modèles de langue IA ne seront probablement pas impeccables jusqu'à nouvel ordre, contrairement aux ordinateurs.
Une approche technique prometteuse est le «mélange d'experts»: plusieurs petits modèles spéciaux sont connectés à un réseau de portes. La saisie du système est analysée par la porte, puis transmise à un ou plusieurs experts si nécessaire. En fin de compte, les réponses à un mot global sont combinées. De cette façon, il peut être évité que l'ensemble du modèle doit toujours devenir actif dans sa complexité. Ce type d'architecture pourrait potentiellement améliorer la précision en utilisant des modèles spécialisés pour certains types d'informations ou de domaines.
Attentes réalistes et communication transparente
Après tout, il est important d'avoir des attentes réalistes envers les systèmes d'IA et de communiquer de manière transparente à travers leurs compétences et limites. Les systèmes d'IA sont spécifiquement définis pour un contexte d'application spécifique aujourd'hui et sont loin d'être comparables à l'intelligence humaine. Ces connaissances devraient conduire à la mise en œuvre de l'IA dans le journalisme et dans d'autres domaines.
Bloomberg et d'autres sociétés de médias devraient communiquer de manière transparente sur leur utilisation de l'IA et indiquer clairement que le contenu généré par l'IA peut être incorrect. Cela pourrait être fait par un étiquetage explicite du contenu généré par l'IA, des processus de correction d'erreur transparents et une communication ouverte à travers les limites de la technologie utilisée. Une telle transparence peut aider à maintenir la confiance du lecteur, même si des erreurs se produisent.
Pourquoi l'intégration de l'IA échoue-t-elle dans le journalisme sans personnes
Les expériences de Bloomberg avec les résumés générés par l'IA illustrent les défis complexes dans l'intégration de l'intelligence artificielle dans le journalisme. Les 36 erreurs au moins qui ont dû être corrigées depuis janvier montrent que malgré son potentiel, la technologie n'est pas encore suffisamment mature pour être utilisée de manière fiable sans surveillance humaine approfondie. Les problèmes avec lesquels Bloomberg est confronté ne sont pas uniques, mais reflètent les défis fondamentaux de l'IA, tels que les hallucinations, le manque de transparence et la dépendance à l'égard des données de haute qualité.
Plusieurs approches sont nécessaires pour une intégration réussie de l'IA dans le journalisme: des processus éditoriaux robustes pour l'examen du contenu généré par l'IA, des améliorations techniques continues dans les modèles d'IA lui-même et une communication transparente sur les compétences et les limites de la technologie utilisée. L'expérience de Bloomberg peut servir de précieuse leçon pour d'autres sociétés de médias qui prévoient des implémentations d'IA similaires.
L'avenir du journalisme basé sur l'IA dépend de la façon dont il est d'utiliser les gains d'efficacité et les possibilités innovantes de l'IA sans compromettre les normes journalistiques. La clé est dans une approche équilibrée qui considère la technologie comme un outil qui soutient les journalistes humains au lieu de les remplacer. Comme John Micklethwait de Bloomberg l'a remarqué à juste titre: "Un résumé de l'IA n'est aussi bon que l'histoire sur laquelle elle est basée. Et les gens sont toujours importants pour les histoires."
Nous sommes là pour vous - conseil - planification - mise en œuvre - gestion de projet
☑️ Accompagnement des PME en stratégie, conseil, planification et mise en œuvre
☑️ Création ou réalignement de la stratégie digitale et digitalisation
☑️ Expansion et optimisation des processus de vente à l'international
☑️ Plateformes de trading B2B mondiales et numériques
☑️ Développement commercial pionnier
Je serais heureux de vous servir de conseiller personnel.
Vous pouvez me contacter en remplissant le formulaire de contact ci-dessous ou simplement m'appeler au +49 89 89 674 804 (Munich) .
J'attends avec impatience notre projet commun.
Xpert.Digital - Konrad Wolfenstein
Xpert.Digital est une plateforme industrielle axée sur la numérisation, la construction mécanique, la logistique/intralogistique et le photovoltaïque.
Avec notre solution de développement commercial à 360°, nous accompagnons des entreprises de renom depuis les nouvelles affaires jusqu'à l'après-vente.
L'intelligence de marché, le smarketing, l'automatisation du marketing, le développement de contenu, les relations publiques, les campagnes de courrier électronique, les médias sociaux personnalisés et le lead nurturing font partie de nos outils numériques.
Vous pouvez en savoir plus sur : www.xpert.digital - www.xpert.solar - www.xpert.plus