Intelligenza artificiale nel giornalismo finanziario: Bloomberg combatte con un riassunto di errata.
Pre-release di Xpert
Selezione vocale 📢
Pubblicato il 6 aprile 2025 / Aggiornamento dal 6 aprile 2025 - Autore: Konrad Wolfenstein

AI nel giornalismo finanziario: Bloomberg combatte con un'immagine sommaria di errata: xpert.digital
AI ha attualmente raggiunto il giornalismo?
L'implementazione AI è adatta per l'uso quotidiano? Inizio irregolare di Bloomberg con riassunti automatizzati
L'integrazione dell'intelligenza artificiale nel giornalismo presenta alle aziende dei media sfide complesse, come mostra l'attuale caso di Bloomberg. Il servizio di istruzione finanziaria ha sperimentato riassunti generati dall'IA per i suoi articoli dal gennaio 2025, ma ha dovuto correggere almeno 36 riassunti errati. Questa situazione illustra le difficoltà nell'implementazione di sistemi di intelligenza artificiale nell'area editoriale, in particolare per quanto riguarda l'accuratezza, l'affidabilità e la fiducia nei contenuti automatizzati. Le seguenti sezioni fanno luce sui problemi specifici di Bloomberg, li mettono nel contesto delle sfide generali di intelligenza artificiale e discutono possibili soluzioni per l'integrazione di successo dell'intelligenza artificiale nel giornalismo.
Adatto a:
- AI Trusty: Trump Card europea e la possibilità di assumere un ruolo da protagonista nell'intelligenza artificiale
L'ingresso problematico di Bloomberg nel contenuto generato dall'IA
La suscettibilità delle riunioni di intelligenza artificiale
Bloomberg, una società leader mondiale per le notizie finanziarie, iniziò a collocare i punti di testa come riassunti all'inizio dei suoi articoli all'inizio del 2025. Da questa introduzione il 15 gennaio, tuttavia, la società ha dovuto correggere almeno tre dozzine di questi riassunti automatizzati, il che indica problemi significativi con l'accuratezza del contenuto generato dall'intelligenza artificiale. Questi problemi sono particolarmente problematici per un'azienda come Bloomberg, che è nota per i suoi precisi segnalazioni finanziarie e le cui informazioni possono spesso avere un impatto diretto sulle decisioni di investimento. La necessità di numerose correzioni mina la fiducia nell'affidabilità di questa nuova tecnologia e solleva domande sull'implementazione prematura dei sistemi di intelligenza artificiale nel giornalismo.
Si è verificato un errore particolarmente significativo quando Bloomberg ha riferito sulla pianificazione del presidente Trump Autozölle. Mentre l'articolo reale affermava correttamente che Trump avrebbe probabilmente annunciato le tariffe lo stesso giorno, il riepilogo generato dall'AI conteneva informazioni errate sul tempo di una misura doganale più completa. In un altro caso, un riassunto dell'IA ha affermato erroneamente che il presidente Trump aveva già imposto tariffe contro il Canada nel 2024. Tali errori mostrano i limiti dell'IA nell'interpretazione di messaggi complessi e i rischi quando vengono pubblicati insoliti contenuti automatizzati.
Oltre a False Date, gli errori includevano anche numeri errati e attribuzioni errate di azioni o dichiarazioni su persone o organizzazioni. Questi tipi di errori, spesso indicati come "allucinazioni", rappresentano una sfida speciale per i sistemi di intelligenza artificiale, poiché possono sembrare plausibili e sono quindi difficili da riconoscere se non esiste una revisione umana approfondita. La frequenza di questi errori a Bloomberg sottolinea la necessità di solidi processi di revisione e solleva domande sulla maturità della tecnologia AI utilizzata.
La reazione di Bloomberg ai problemi dell'IA
In una dichiarazione ufficiale, Bloomberg ha sottolineato che il 99 percento dei riassunti generati dall'intelligenza artificiale corrisponderebbe agli standard editoriali. Secondo le proprie dichiarazioni, la società pubblica ogni giorno migliaia di articoli e quindi vede il tasso di errore relativamente basso. Secondo le sue stesse dichiarazioni, Bloomberg attribuisce importanza alla trasparenza e corregge o, se necessario, elementi aggiornati. È stato anche sottolineato che i giornalisti hanno il pieno controllo sul fatto che sia pubblicato o meno un riepilogo generato dall'intelligenza artificiale.
John Micklethwait, caporedattore di Bloomberg, ha descritto le ragioni del riassunto dell'IA in un saggio il 10 gennaio, che si basava su una conferenza a City St. George's, Università di Londra. Ha spiegato che i clienti li apprezzano perché possono rapidamente riconoscere cos'è una storia, mentre i giornalisti sono più scettici. Ha ammesso che i giornalisti temono che i lettori potessero solo fare affidamento sui riassunti e non leggere più la storia reale. Tuttavia, Micklethwait ha sottolineato che il valore di un riassunto dell'IA dipende esclusivamente dalla qualità della storia sottostante e le persone sono ancora cruciali per loro.
Un portavoce di Bloomberg ha dichiarato al New York Times che il feedback sui riassunti era generalmente positivo e che la società ha continuato a migliorare l'esperienza. Questa affermazione indica che Bloomberg vuole catturare nonostante i problemi di utilizzo della strategia di utilizzo dell'IA per i riassunti, ma con una maggiore attenzione alla garanzia della qualità e al raffinamento della tecnologia utilizzata.
AI nel giornalismo: un argomento rilevante per il settore
Esperienze di altre società di media con AI
Bloomberg non è l'unica società di media che sperimenta l'integrazione dell'IA nei suoi processi giornalistici. Molte organizzazioni giornalistiche cercano di scoprire come integrare al meglio questa nuova tecnologia nel tuo lavoro di reporting e editoriale. La catena di giornali Gannett utilizza simili sintesi generati dall'intelligenza artificiale per i tuoi articoli e il Washington Post ha sviluppato uno strumento chiamato "Chiedi il post" che genera risposte alle domande degli articoli postali pubblicati. Questa ampia adozione mostra il notevole interesse dell'industria dei media nelle tecnologie AI, nonostante i rischi e le sfide associate.
I problemi con gli strumenti di intelligenza artificiale si sono verificati anche in altre società di media. All'inizio di marzo, il Los Angeles Times ha rimosso il suo strumento AI da un articolo di opinione dopo che la tecnologia ha descritto il Ku Klux-Klan come qualcosa di diverso da un'organizzazione razzista. Questo incidente illustra che le sfide che Bloomberg affronta non sono isolate, ma sintomaticamente per problemi più ampi con l'integrazione dell'intelligenza artificiale nel giornalismo. Esiste un modello in cui la tecnologia non è ancora abbastanza matura da funzionare in modo affidabile senza supervisione umana, in particolare con argomenti sensibili o complessi.
Questi esempi illustrano la tensione tra il desiderio di innovazione ed efficienza da parte dell'IA da un lato e la necessità di mantenere gli standard giornalistici e l'accuratezza dall'altro. Le società di media devono fare un atto di bilanciamento: vogliono beneficiare dei vantaggi dell'IA senza rischiare la fiducia dei loro lettori o compromettere i principi giornalistici di base. Le esperienze di Bloomberg e altre organizzazioni giornalistiche servono come insegnamenti importanti per l'intero settore sulle possibilità e sui limiti dell'IA nel giornalismo.
Adatto a:
- Uno dei motivi per l’utilizzo esitante dell’IA: il 68% dei responsabili delle risorse umane lamenta la mancanza di know-how in materia di intelligenza artificiale nelle aziende
La sfida speciale nel giornalismo finanziario
Nel settore finanziario, dove Bloomberg funge da uno dei principali servizi di intelligence, i requisiti per l'accuratezza e l'affidabilità sono particolarmente elevati. Gli effetti di informazioni errate possono avere conseguenze finanziarie significative qui, poiché gli investitori ed esperti finanziari prendono decisioni basate su questa notizia. Questa speciale responsabilità rende l'integrazione delle tecnologie di intelligenza artificiale nel giornalismo finanziario una sfida ancora maggiore rispetto ad altre aree di segnalazione.
È interessante notare che il "generalista-ki" ha superato lo speciale Ki di Bloomberg nel suo dominio, l'analisi finanziaria. Bloomberg aveva stimato almeno 2,5 milioni di dollari investiti nello sviluppo della propria AI finanziaria, ma nemmeno un anno dopo l'introduzione alla fine di marzo 2023 è diventato chiaro che i modelli di AI generale come GHATGPT e GPT-4 forniscono risultati migliori in questo settore. Ciò illustra il rapido sviluppo nel campo dell'intelligenza artificiale e la difficoltà per le aziende di tenere il passo con soluzioni specializzate se i modelli generali stanno diventando sempre più efficienti.
🎯🎯🎯 Approfittate della quintuplice competenza estesa di Xpert.Digital in un pacchetto di servizi completo | Ricerca e sviluppo, XR, PR e SEM
Macchina per il rendering 3D AI e XR: la quintuplice esperienza di Xpert.Digital in un pacchetto di servizi completo, R&D XR, PR e SEM - Immagine: Xpert.Digital
Xpert.Digital ha una conoscenza approfondita di vari settori. Questo ci consente di sviluppare strategie su misura che si adattano esattamente alle esigenze e alle sfide del vostro specifico segmento di mercato. Analizzando continuamente le tendenze del mercato e seguendo gli sviluppi del settore, possiamo agire con lungimiranza e offrire soluzioni innovative. Attraverso la combinazione di esperienza e conoscenza, generiamo valore aggiunto e diamo ai nostri clienti un vantaggio competitivo decisivo.
Maggiori informazioni qui:
Qualità dei dati e modelli AI: i blocchi invisibili invisibili della tecnologia moderna
Sfide fondamentali dell'IA generativa
Il problema di allucinazione nei modelli AI
Una delle sfide più fondamentali per i sistemi di intelligenza artificiale, che è diventata anche chiara nei riassunti di Bloomberg, è il problema delle "allucinazioni", ovvero la tendenza dei modelli di intelligenza artificiale, a generare un suono plausibile, ma in realtà informazioni errate. Questo problema si verifica quando i sistemi di intelligenza artificiale generano contenuti che vanno oltre le informazioni fornite o se interpretano erroneamente i dati. Tali allucinazioni sono particolarmente problematiche nel giornalismo, in cui fedeli e accuratezza sono di fondamentale importanza.
I problemi riscontrati da Bloomberg sono esattamente tali allucinazioni: i dati "inventati" di AI come la data introduttiva dei doveri auto di Trump o hanno erroneamente affermato che Trump avrebbe già imposto tariffe contro il Canada nel 2024. Questo tipo di errore sottolinea i limiti dell'attuale tecnologia di AI, specialmente quando si tratta della pre -interpretazione delle informazioni complesse.
Gli esperti indicano che le allucinazioni possono essere innescate da vari fattori, tra le altre cose dal modo in cui i prompt e i testi di addestramento sono codificati. Modelli di linguaggio di grandi dimensioni (LLMS) Termini di collegamento con un numero di numeri, codifica vettoriali così chiamate. Nel caso di parole ambigue come la "banca" (che può descrivere sia un istituto finanziario che un sedere)), potrebbe esserci una codifica per significato per evitare l'ambiguità. Ogni errore nella codifica e nella decodifica di rappresentazioni e testi può portare al generativo AI allucinato.
Trasparenza e comprensibilità delle decisioni di intelligenza artificiale
Un altro problema fondamentale con i sistemi di intelligenza artificiale è la mancanza di trasparenza e tracciabilità dei processi decisionali. Con alcuni metodi di intelligenza artificiale, non è più comprensibile come si verifichi una determinata previsione o un certo risultato o perché un sistema di intelligenza artificiale ha raggiunto una risposta specifica in caso di una domanda specifica. Questa mancanza di trasparenza, spesso indicata come un "problema della scatola nera", rende difficile identificare e correggere errori prima che vengano pubblicati.
La tracciabilità è particolarmente importante in settori come il giornalismo, in cui le decisioni sul contenuto dovrebbero essere trasparenti e giustificabili. Se Bloomberg e altre società di media non riescono a capire perché la loro AI genera riassunti errati, sarà difficile apportare miglioramenti sistemici. Invece, si basano su correzioni reattive dopo che si sono già verificati errori.
Questa sfida è identificata anche da esperti di imprese e scienze. Sebbene sia principalmente una sfida tecnica, può anche portare a risultati problematici da una prospettiva sociale o legale in alcune aree di applicazione. Nel caso di Bloomberg, ciò potrebbe portare a una perdita di fiducia tra i lettori o nel peggiore dei casi alle decisioni finanziarie basate su informazioni errate.
Dipendenza dalla qualità e dalla portata dei dati
Inoltre, le applicazioni basate sull'intelligenza artificiale dipendono dalla qualità dei dati e degli algoritmi. In questo modo, gli errori sistematici nei dati o negli algoritmi spesso non possono essere riconosciuti in vista della dimensione e della complessità dei dati utilizzati. Questa è un'altra sfida fondamentale che Bloomberg e altre società devono affrontare durante l'implementazione di sistemi di intelligenza artificiale.
Il problema con la quantità di dati: l'IA può tenere conto solo di "finestre di contesto" relativamente piccole nell'elaborazione dei comandi, il prompt, si è davvero ridotto negli ultimi anni, ma rimane una sfida. Il modello di Google KI "Gemini 1.5 Pro 1M" può già elaborare uno prontamente nell'entità di 700.000 parole o un'ora di video-più a 7 volte più del miglior modello GPT di OpenAai. Tuttavia, i test mostrano che l'intelligenza artificiale può cercare dati, ma ha difficoltà a raccogliere relazioni.
Adatto a:
- La riduzione dei costi e l'ottimizzazione dell'efficienza sono i principi commerciali dominanti-AI e la scelta del modello AI giusto
Approcci di soluzione e sviluppi futuri
Sorveglianza umana e processi editoriali
Una soluzione ovvia ai problemi riscontrati da Bloomberg è un aumento del monitoraggio umano del contenuto generato dall'intelligenza artificiale. Bloomberg ha già sottolineato che i giornalisti hanno il pieno controllo sul fatto che venga pubblicato o meno un riepilogo generato dall'intelligenza artificiale. Tuttavia, questo controllo deve essere efficacemente esercitato, il che significa che gli editori devono avere abbastanza tempo per controllare i vertici dell'IA prima di essere pubblicati.
L'implementazione di robusti processi editoriali per il controllo dei contenuti generati dall'IA è fondamentale per ridurre al minimo gli errori. Ciò potrebbe includere che tutti i vertici di AI devono essere controllati da almeno un editor umano prima che vengano pubblicati o che alcuni tipi di informazioni (come dati, numeri o attribuzioni) sono particolarmente accuratamente controllati. Tali processi aumentano il carico di lavoro e quindi riducono parte dei guadagni di efficienza dell'IA, ma sono necessari per proteggere l'accuratezza e la credibilità.
Miglioramenti tecnici nei modelli AI
Lo sviluppo tecnico dei modelli AI stesso è un altro approccio importante per risolvere i problemi attuali. Già con GPT-4, le allucinazioni sono diminuite in modo significativo rispetto al predecessore GPT-3.5. Il modello più recente dell'antropico, "Claude 3 Opus", mostra ancora meno allucinazioni nei test iniziali. Presto il tasso di errore dei modelli vocali dovrebbe essere inferiore a quello dell'uomo medio. Tuttavia, i modelli di lingua AI probabilmente non saranno impeccabili fino a un ulteriore preavviso, a differenza dei computer.
Un approccio tecnico promettente è la "miscela di esperti": diversi piccoli modelli speciali sono collegati a una rete di gate. L'ingresso nel sistema viene analizzato dal gate e quindi trasmesso a uno o più esperti, se necessario. Alla fine, le risposte a una parola generale sono combinate. In questo modo, si può evitare che l'intero modello debba sempre diventare attivo nella sua complessità. Questo tipo di architettura potrebbe potenzialmente migliorare l'accuratezza utilizzando modelli specializzati per determinati tipi di informazioni o domini.
Aspettative realistiche e comunicazione trasparente
Dopotutto, è importante avere aspettative realistiche sui sistemi di intelligenza artificiale e comunicare in modo trasparente attraverso le loro capacità e limiti. I sistemi di intelligenza artificiale sono definiti specificamente per un contesto di applicazione specifico oggi e sono lungi dall'essere paragonabili all'intelligenza umana. Questa conoscenza dovrebbe portare all'implementazione dell'IA nel giornalismo e in altre aree.
Bloomberg e altre società di media dovrebbero comunicare in modo trasparente sul loro uso dell'IA e chiarire che i contenuti generati dall'IA possono essere errati. Ciò potrebbe essere fatto mediante etichettatura esplicita di contenuti generati dall'intelligenza artificiale, processi di correzione degli errori trasparenti e comunicazione aperta tra i limiti della tecnologia utilizzata. Tale trasparenza può aiutare a mantenere la fiducia del lettore, anche se si verificano errori.
Perché l'integrazione dell'IA fallisce nel giornalismo senza persone
Le esperienze di Bloomberg con i riassunti dell'IA illustrano le complesse sfide nell'integrazione dell'intelligenza artificiale nel giornalismo. Gli almeno 36 errori che dovevano essere corretti da gennaio mostrano che, nonostante il suo potenziale, la tecnologia non è ancora abbastanza matura da essere utilizzata in modo affidabile senza una sorveglianza umana completa. I problemi con cui Bloomberg si affronta non sono unici, ma riflettono le sfide fondamentali dell'IA, come le allucinazioni, la mancanza di trasparenza e la dipendenza da dati di alta qualità.
Sono necessari diversi approcci per un'integrazione di successo dell'intelligenza artificiale nel giornalismo: robusti processi editoriali per la revisione dei contenuti generati dall'intelligenza artificiale, miglioramenti tecnici continui nei modelli AI stessi e comunicazioni trasparenti sulle competenze e sui limiti della tecnologia utilizzata. L'esperienza di Bloomberg può servire da preziosa lezione per altre società di media che pianificano implementazioni di intelligenza artificiale simili.
Il futuro del giornalismo basato sull'intelligenza artificiale dipende da quanto bene sia utilizzare i guadagni di efficienza e le possibilità innovative dell'IA senza compromettere gli standard giornalistici. La chiave è in un approccio equilibrato che vede la tecnologia come uno strumento che supporta i giornalisti umani invece di sostituirli. Come ha notato giustamente John Micklethwait di Bloomberg: "Un riassunto dell'IA è buono solo come la storia su cui si basa. E le persone sono ancora importanti per le storie".
Siamo a vostra disposizione: consulenza, pianificazione, implementazione, gestione del progetto
☑️ Supporto alle PMI nella strategia, consulenza, pianificazione e implementazione
☑️ Creazione o riallineamento della strategia digitale e digitalizzazione
☑️ Espansione e ottimizzazione dei processi di vendita internazionali
☑️ Piattaforme di trading B2B globali e digitali
☑️ Sviluppo aziendale pionieristico
Sarei felice di fungere da tuo consulente personale.
Potete contattarmi compilando il modulo di contatto qui sotto o semplicemente chiamandomi al numero +49 89 89 674 804 (Monaco) .
Non vedo l'ora di iniziare il nostro progetto comune.
Xpert.Digital - Konrad Wolfenstein
Xpert.Digital è un hub per l'industria con focus su digitalizzazione, ingegneria meccanica, logistica/intralogistica e fotovoltaico.
Con la nostra soluzione di sviluppo aziendale a 360° supportiamo aziende rinomate dal nuovo business al post-vendita.
Market intelligence, smarketing, marketing automation, sviluppo di contenuti, PR, campagne email, social media personalizzati e lead nurturing fanno parte dei nostri strumenti digitali.
Potete saperne di più su: www.xpert.digital - www.xpert.solar - www.xpert.plus