Intelligenza artificiale nel giornalismo finanziario: Bloomberg alle prese con riassunti errati dell'IA
Pre-release di Xpert
Selezione vocale 📢
Pubblicato il: 6 aprile 2025 / Aggiornato il: 6 aprile 2025 – Autore: Konrad Wolfenstein

L'intelligenza artificiale nel giornalismo finanziario: Bloomberg alle prese con riassunti errati dell'intelligenza artificiale – Immagine: Xpert.Digital
Sono stati raggiunti i limiti dell'intelligenza artificiale nel giornalismo?
Le implementazioni dell'intelligenza artificiale sono adatte all'uso quotidiano? L'inizio difficile di Bloomberg con i riepiloghi automatizzati
L'integrazione dell'intelligenza artificiale nel giornalismo pone le aziende mediatiche di fronte a sfide complesse, come dimostra il recente caso di Bloomberg. Il servizio di informazione finanziaria sperimenta riassunti generati dall'intelligenza artificiale per i suoi articoli da gennaio 2025, ma ha già dovuto correggere almeno 36 riassunti errati. Questa situazione evidenzia le difficoltà di implementazione dei sistemi di intelligenza artificiale nei processi editoriali, in particolare per quanto riguarda l'accuratezza, l'affidabilità e la fiducia nei contenuti automatizzati. Le sezioni seguenti esaminano i problemi specifici di Bloomberg, li inseriscono nel contesto delle sfide generali dell'intelligenza artificiale e discutono le potenziali soluzioni per un'integrazione efficace dell'intelligenza artificiale nel giornalismo.
Adatto a:
- AI Trusty: Trump Card europea e la possibilità di assumere un ruolo da protagonista nell'intelligenza artificiale
L'ingresso problematico di Bloomberg nei contenuti generati dall'intelligenza artificiale
La propensione all'errore dei riepiloghi dell'IA
Bloomberg, una delle principali società di informazione finanziaria a livello mondiale, ha iniziato a utilizzare elenchi puntati generati dall'intelligenza artificiale come riassunti all'inizio dei suoi articoli all'inizio del 2025. Tuttavia, da quando è stata introdotta, il 15 gennaio, l'azienda ha dovuto correggere almeno tre dozzine di questi riassunti automatici, il che indica problemi significativi nell'accuratezza dei contenuti generati dall'intelligenza artificiale. Questi problemi sono particolarmente preoccupanti per un'azienda come Bloomberg, nota per la precisione dei suoi report finanziari e le cui informazioni possono spesso influenzare direttamente le decisioni di investimento. La necessità di numerose correzioni mina la fiducia nell'affidabilità di questa nuova tecnologia e solleva interrogativi sull'implementazione prematura dei sistemi di intelligenza artificiale nel giornalismo.
Un errore particolarmente significativo si è verificato quando Bloomberg ha riportato i dazi sulle auto pianificati dal Presidente Trump. Mentre l'articolo originale affermava correttamente che Trump avrebbe potuto annunciare i dazi lo stesso giorno, il riepilogo generato dall'IA conteneva informazioni errate sui tempi di una misura tariffaria più ampia. In un altro caso, un riepilogo generato dall'IA affermava erroneamente che il Presidente Trump avrebbe imposto dazi al Canada già nel 2024. Tali errori dimostrano i limiti dell'IA nell'interpretazione di notizie complesse e i rischi della pubblicazione di contenuti automatizzati e non verificati.
Oltre a date errate, gli errori includevano anche cifre inaccurate e attribuzioni errate di azioni o dichiarazioni a individui o organizzazioni. Questi tipi di errori, spesso definiti "allucinazioni", rappresentano una sfida particolare per i sistemi di intelligenza artificiale perché possono sembrare plausibili e sono quindi difficili da rilevare senza un'attenta revisione umana. La frequenza di questi errori presso Bloomberg sottolinea la necessità di solidi processi di revisione e solleva interrogativi sulla maturità della tecnologia di intelligenza artificiale utilizzata.
La reazione di Bloomberg ai problemi dell'intelligenza artificiale
In una dichiarazione ufficiale, Bloomberg ha sottolineato che il 99% dei suoi riassunti generati dall'intelligenza artificiale soddisfa gli standard editoriali. L'azienda afferma di pubblicare migliaia di articoli al giorno e pertanto considera il tasso di errore relativamente basso. Bloomberg afferma di dare valore alla trasparenza e di correggere o aggiornare gli articoli secondo necessità. Ha inoltre sottolineato che i giornalisti hanno il pieno controllo sulla pubblicazione o meno di un riassunto generato dall'intelligenza artificiale.
In un saggio del 10 gennaio, basato su una lezione tenutasi al City St. George's, Università di Londra, John Micklethwait, caporedattore di Bloomberg, ha descritto le ragioni per cui i riassunti basati sull'intelligenza artificiale sono così utili. Ha spiegato che i clienti li apprezzano perché permettono di cogliere rapidamente il succo di un articolo, mentre i giornalisti sono più scettici. Ha riconosciuto che i giornalisti temono che i lettori possano fare affidamento esclusivamente sui riassunti, trascurando il nocciolo della questione. Ciononostante, Micklethwait ha sottolineato che il valore di un riassunto basato sull'intelligenza artificiale dipende interamente dalla qualità dell'articolo di fondo, e per questo la competenza umana rimane fondamentale.
Un portavoce di Bloomberg ha dichiarato al New York Times che il feedback sui riassunti è stato generalmente positivo e che l'azienda sta continuando a lavorare per migliorare l'esperienza. Questa dichiarazione suggerisce che, nonostante i problemi riscontrati, Bloomberg intende proseguire con la sua strategia di utilizzo dell'intelligenza artificiale per i riassunti, ma con una maggiore attenzione al controllo qualità e al perfezionamento della tecnologia utilizzata.
L'intelligenza artificiale nel giornalismo: un argomento rilevante per l'intero settore
Esperienze di altre aziende di media con l'intelligenza artificiale
Bloomberg non è l'unica azienda mediatica a sperimentare l'integrazione dell'intelligenza artificiale nei propri processi giornalistici. Molte testate giornalistiche stanno cercando di capire come integrare al meglio questa nuova tecnologia nel loro lavoro editoriale e di informazione. La catena di quotidiani Gannett utilizza riassunti simili generati dall'intelligenza artificiale per i suoi articoli, e il Washington Post ha sviluppato uno strumento chiamato "Ask the Post" che genera risposte alle domande contenute negli articoli pubblicati dal Post. Questa diffusa adozione dimostra il notevole interesse del settore dei media per le tecnologie di intelligenza artificiale, nonostante i rischi e le sfide associati.
Anche altre aziende mediatiche hanno riscontrato problemi con gli strumenti di intelligenza artificiale. All'inizio di marzo, il Los Angeles Times ha rimosso il suo strumento di intelligenza artificiale da un articolo d'opinione dopo che la tecnologia aveva descritto il Ku Klux Klan come qualcosa di diverso da un'organizzazione razzista. Questo incidente dimostra che le sfide che Bloomberg deve affrontare non sono isolate, ma sintomatiche di problemi più ampi nell'integrazione dell'intelligenza artificiale nel giornalismo. Emerge un modello in cui la tecnologia non è ancora sufficientemente matura per funzionare in modo affidabile senza la supervisione umana, soprattutto quando si tratta di argomenti delicati o complessi.
Questi esempi illustrano la tensione tra il desiderio di innovazione ed efficienza attraverso l'intelligenza artificiale, da un lato, e la necessità di mantenere standard giornalistici e accuratezza, dall'altro. Le aziende mediatiche devono trovare un equilibrio: vogliono beneficiare dei vantaggi dell'intelligenza artificiale senza mettere a repentaglio la fiducia dei propri lettori o compromettere i principi giornalistici fondamentali. Le esperienze di Bloomberg e di altre organizzazioni giornalistiche costituiscono un importante insegnamento per l'intero settore sulle opportunità e i limiti dell'intelligenza artificiale nel giornalismo.
Adatto a:
- Uno dei motivi per cui l'IA è così poco utilizzata: il 68% dei responsabili delle risorse umane lamenta la mancanza di competenze in materia di IA nelle aziende.
La sfida particolare del giornalismo finanziario
Nel settore finanziario, dove Bloomberg opera come uno dei principali servizi di informazione, i requisiti di accuratezza e affidabilità sono particolarmente elevati. L'impatto delle informazioni false può avere conseguenze finanziarie significative, poiché investitori ed esperti finanziari basano le loro decisioni su queste notizie. Questa particolare responsabilità rende l'integrazione delle tecnologie di intelligenza artificiale nel giornalismo finanziario una sfida ancora più grande rispetto ad altri settori dell'informazione.
È interessante notare che l'"IA generalista" ha superato l'IA specializzata di Bloomberg proprio nel suo ambito: l'analisi dei report finanziari. Bloomberg avrebbe investito almeno 2,5 milioni di dollari nello sviluppo della propria IA finanziaria, ma a meno di un anno dal suo lancio, avvenuto a fine marzo 2023, è emerso chiaramente che modelli di IA generici come ChatGPT e GPT-4 hanno prodotto risultati migliori in quest'area. Ciò dimostra il rapido ritmo di sviluppo dell'intelligenza artificiale e la difficoltà per le aziende di tenere il passo con soluzioni specializzate, man mano che i modelli generici diventano sempre più potenti.
🎯🎯🎯 Approfitta della vasta e quintuplicata competenza di Xpert.Digital in un pacchetto di servizi completo | BD, R&D, XR, PR e ottimizzazione della visibilità digitale

Approfitta dell'ampia e quintuplicata competenza di Xpert.Digital in un pacchetto di servizi completo | Ottimizzazione di R&S, XR, PR e visibilità digitale - Immagine: Xpert.Digital
Xpert.Digital ha una conoscenza approfondita di vari settori. Questo ci consente di sviluppare strategie su misura che si adattano esattamente alle esigenze e alle sfide del vostro specifico segmento di mercato. Analizzando continuamente le tendenze del mercato e seguendo gli sviluppi del settore, possiamo agire con lungimiranza e offrire soluzioni innovative. Attraverso la combinazione di esperienza e conoscenza, generiamo valore aggiunto e diamo ai nostri clienti un vantaggio competitivo decisivo.
Maggiori informazioni qui:
Qualità dei dati e modelli di intelligenza artificiale: gli ostacoli invisibili della tecnologia moderna
Sfide fondamentali dell'intelligenza artificiale generativa
Il problema dell'allucinazione nei modelli di intelligenza artificiale
Una delle sfide più importanti dei sistemi di intelligenza artificiale, evidenziata anche nei riassunti di Bloomberg, è il problema delle "allucinazioni", ovvero la tendenza dei modelli di intelligenza artificiale a generare informazioni apparentemente plausibili ma di fatto errate. Questo problema si verifica quando i sistemi di intelligenza artificiale producono contenuti che vanno oltre le informazioni fornite o quando interpretano erroneamente i dati. Tali allucinazioni sono particolarmente problematiche nel giornalismo, dove l'accuratezza e l'affidabilità dei fatti sono fondamentali.
I problemi riscontrati da Bloomberg sono proprio queste allucinazioni: l'IA ha "inventato" date come la data di attuazione dei dazi sulle auto di Trump o ha affermato falsamente che Trump aveva già imposto dazi al Canada nel 2024. Questo tipo di errori evidenzia i limiti dell'attuale tecnologia dell'IA, soprattutto quando si tratta di interpretare accuratamente informazioni complesse.
Gli esperti sottolineano che le allucinazioni possono essere innescate da vari fattori, tra cui il modo in cui vengono codificati i prompt di training e i testi. I Large Language Model (LLM) collegano i concetti a una serie di numeri, noti come codifiche vettoriali. Per parole ambigue come "banca" (che può riferirsi sia a un istituto finanziario che a una sede), potrebbe esserci una codifica per ogni significato per evitare ambiguità. Qualsiasi errore nella codifica e decodifica di rappresentazioni e testi può causare allucinazioni nell'IA generativa.
Trasparenza e tracciabilità delle decisioni dell'IA
Un altro problema fondamentale dei sistemi di intelligenza artificiale è la mancanza di trasparenza e tracciabilità nei loro processi decisionali. Con alcuni metodi di intelligenza artificiale, non è più possibile comprendere come viene generata una particolare previsione o un particolare risultato, o perché un sistema di intelligenza artificiale sia giunto a una risposta specifica a una determinata domanda. Questa mancanza di trasparenza, spesso definita "problema della scatola nera", rende difficile identificare e correggere gli errori prima che vengano resi pubblici.
La tracciabilità è particolarmente importante in settori come il giornalismo, dove le decisioni sui contenuti devono essere trasparenti e giustificabili. Se Bloomberg e altre aziende mediatiche non riescono a capire perché la loro intelligenza artificiale genera riassunti errati, sarà difficile implementare miglioramenti sistemici. Dovranno invece affidarsi a correzioni reattive dopo che gli errori si sono già verificati.
Questa sfida è considerata significativa anche da esperti del mondo accademico e aziendale. Sebbene si tratti principalmente di una sfida tecnica, può anche portare a risultati problematici dal punto di vista sociale o legale in determinati ambiti di applicazione. Nel caso di Bloomberg, ciò potrebbe portare a una perdita di fiducia dei lettori o, nel peggiore dei casi, a decisioni finanziarie basate su informazioni inaccurate.
Dipendenza dalla qualità e dall'ambito dei dati
Inoltre, le applicazioni basate sull'intelligenza artificiale dipendono dalla qualità dei dati e degli algoritmi. Data la dimensione e la complessità dei dati utilizzati, gli errori sistematici nei dati o negli algoritmi spesso non vengono rilevati. Questa è un'altra sfida fondamentale che Bloomberg e altre aziende devono superare nell'implementazione di sistemi di intelligenza artificiale.
Il problema del volume di dati – l'intelligenza artificiale può effettivamente considerare solo "finestre di contesto" relativamente piccole durante l'elaborazione di comandi o prompt – si è ridotto considerevolmente negli ultimi anni, ma rimane una sfida. Il modello di intelligenza artificiale di Google "Gemini 1.5 Pro 1M" è già in grado di elaborare un prompt di 700.000 parole o un'ora di video, oltre sette volte l'attuale miglior modello GPT di OpenAI. Ciononostante, i test dimostrano che, sebbene l'intelligenza artificiale possa ricercare i dati, fatica a comprenderne le relazioni al suo interno.
Adatto a:
- La riduzione dei costi e l'ottimizzazione dell'efficienza sono i principi commerciali dominanti-AI e la scelta del modello AI giusto
Soluzioni e sviluppi futuri
Monitoraggio umano e processi editoriali
Una soluzione ovvia ai problemi riscontrati da Bloomberg è una maggiore supervisione umana dei contenuti generati dall'intelligenza artificiale. Bloomberg ha già sottolineato che i giornalisti hanno il pieno controllo sulla pubblicazione o meno di un riassunto generato dall'intelligenza artificiale. Tuttavia, questo controllo deve essere esercitato in modo efficace, il che significa che i redattori devono avere tempo sufficiente per esaminare i riassunti generati dall'intelligenza artificiale prima della loro pubblicazione.
L'implementazione di solidi processi editoriali per la revisione dei contenuti generati dall'IA è fondamentale per ridurre al minimo gli errori. Ciò potrebbe comportare la richiesta di revisione di tutti i riassunti generati dall'IA da parte di almeno un editor umano prima della pubblicazione, oppure il sottoporre determinati tipi di informazioni (come dati, cifre o attribuzioni) a controlli particolarmente approfonditi. Sebbene tali processi aumentino il carico di lavoro e quindi riducano alcuni dei guadagni di efficienza derivanti dall'IA, sono necessari per mantenere accuratezza e credibilità.
Miglioramenti tecnici ai modelli di intelligenza artificiale
Il continuo sviluppo tecnologico dei modelli di intelligenza artificiale è un altro approccio importante per risolvere i problemi attuali. Le allucinazioni sono già diminuite significativamente con GPT-4 rispetto al suo predecessore, GPT-3.5. L'ultimo modello di Anthropic, "Claude 3 Opus", mostra ancora meno allucinazioni nei test iniziali. Il tasso di errore dei modelli vocali dovrebbe presto essere inferiore a quello dell'essere umano medio. Tuttavia, a differenza di quanto siamo abituati a vedere con i computer, i modelli vocali di intelligenza artificiale probabilmente non saranno esenti da errori nel prossimo futuro.
Un approccio tecnico promettente è il "mix di esperti": diversi piccoli modelli specializzati sono collegati a una rete di gate. L'input al sistema viene analizzato dal gate e poi, se necessario, trasmesso a uno o più esperti. Infine, le risposte vengono combinate in un'unica risposta completa. Ciò evita la necessità di attivare sempre l'intero modello in tutta la sua complessità. Questo tipo di architettura potrebbe potenzialmente migliorare l'accuratezza impiegando modelli specializzati per specifici tipi di informazioni o domini.
Aspettative realistiche e comunicazione trasparente
Infine, è importante avere aspettative realistiche sui sistemi di intelligenza artificiale e comunicare in modo trasparente le loro capacità e i loro limiti. Oggi i sistemi di intelligenza artificiale sono specificamente definiti per un particolare contesto applicativo e non sono affatto paragonabili all'intelligenza umana. Questa comprensione dovrebbe guidare l'implementazione dell'intelligenza artificiale nel giornalismo e in altri settori.
Bloomberg e altre aziende mediatiche dovrebbero comunicare in modo trasparente il loro utilizzo dell'IA e chiarire che i contenuti generati dall'IA possono essere imperfetti. Questo obiettivo potrebbe essere raggiunto attraverso un'etichettatura esplicita dei contenuti generati dall'IA, processi trasparenti di correzione degli errori e una comunicazione aperta sui limiti della tecnologia utilizzata. Tale trasparenza può contribuire a preservare la fiducia dei lettori, anche in caso di errori.
Perché l’integrazione dell’intelligenza artificiale nel giornalismo fallisce senza gli esseri umani
L'esperienza di Bloomberg con i riassunti generati dall'intelligenza artificiale evidenzia le complesse sfide dell'integrazione dell'intelligenza artificiale nel giornalismo. Gli almeno 36 errori che hanno richiesto una correzione da gennaio dimostrano che, nonostante il suo potenziale, la tecnologia non è ancora sufficientemente matura per essere utilizzata in modo affidabile senza una supervisione umana approfondita. I problemi che Bloomberg deve affrontare non sono unici, ma riflettono sfide fondamentali dell'intelligenza artificiale, come le allucinazioni, la mancanza di trasparenza e la dipendenza da dati di alta qualità.
Un'integrazione efficace dell'intelligenza artificiale nel giornalismo richiede diversi approcci: solidi processi editoriali per la revisione dei contenuti generati dall'intelligenza artificiale, continui miglioramenti tecnici ai modelli di intelligenza artificiale stessi e una comunicazione trasparente sulle capacità e i limiti della tecnologia utilizzata. L'esperienza di Bloomberg può essere una preziosa lezione per altre aziende mediatiche che pianificano implementazioni di intelligenza artificiale simili.
Il futuro del giornalismo basato sull'intelligenza artificiale dipende da quanto bene riusciremo a sfruttare i vantaggi in termini di efficienza e le capacità innovative dell'intelligenza artificiale senza compromettere gli standard giornalistici. La chiave sta in un approccio equilibrato che consideri la tecnologia come uno strumento a supporto dei giornalisti umani, piuttosto che sostituirli. Come ha giustamente osservato John Micklethwait di Bloomberg, "Un riassunto generato dall'intelligenza artificiale è valido solo quanto la storia su cui si basa. E per quelle storie, le persone contano ancora"
Siamo a vostra disposizione: consulenza, pianificazione, implementazione, gestione del progetto
☑️ Supporto alle PMI nella strategia, consulenza, pianificazione e implementazione
☑️ Creazione o riallineamento della strategia digitale e digitalizzazione
☑️ Espansione e ottimizzazione dei processi di vendita internazionali
☑️ Piattaforme di trading B2B globali e digitali
☑️ Sviluppo aziendale pionieristico
Sarei felice di fungere da tuo consulente personale.
Potete contattarmi compilando il modulo di contatto qui sotto o semplicemente chiamandomi al numero +49 89 89 674 804 (Monaco) .
Non vedo l'ora di iniziare il nostro progetto comune.
Xpert.Digital - Konrad Wolfenstein
Xpert.Digital è un hub per l'industria con focus su digitalizzazione, ingegneria meccanica, logistica/intralogistica e fotovoltaico.
Con la nostra soluzione di sviluppo aziendale a 360° supportiamo aziende rinomate dal nuovo business al post-vendita.
Market intelligence, smarketing, marketing automation, sviluppo di contenuti, PR, campagne email, social media personalizzati e lead nurturing fanno parte dei nostri strumenti digitali.
Potete saperne di più su: www.xpert.digital - www.xpert.solar - www.xpert.plus

























