Artificiell intelligens inom finansiell journalistik: Bloomberg slagsmål med felaktig AI -sammanfattning
Xpert pre-release
Röstval 📢
Publicerad: 6 april 2025 / UPDATE Från: 6 april 2025 - Författare: Konrad Wolfenstein
Har AI för närvarande nått journalistik?
Är AI -implementering lämplig för vardagligt bruk? Bloombergs ojämna start med automatiserade sammanfattningar
Integrationen av konstgjord intelligens i journalistik ger medieföretag komplexa utmaningar, som det nuvarande fallet med Bloomberg visar. Den finansiella instruktionstjänsten har experimenterat med AI-genererade sammanfattningar för sina artiklar sedan januari 2025, men var tvungen att korrigera minst 36 felaktiga sammanfattningar. Denna situation illustrerar svårigheterna med att implementera AI -system i redaktionsområdet, särskilt när det gäller noggrannhet, tillförlitlighet och förtroende för automatiserat innehåll. Följande avsnitt belyser de specifika problemen på Bloomberg, ställer in dem i samband med allmänna AI -utmaningar och diskuterar möjliga lösningar för framgångsrik integration av AI i journalistik.
Lämplig för detta:
Bloombergs problematiska inträde i AI-genererat innehåll
Känsligheten för AI -möten
Bloomberg, ett världens ledande företag för finansiella nyheter, började placera Bulletpoints som sammanfattningar i början av sina artiklar i början av 2025. Sedan denna introduktion den 15 januari har emellertid företaget varit tvungen att korrigera minst tre dussin av dessa automatiserade sammanfattningar, vilket indikerar betydande problem med noggrannheten i AI genererade innehåll. Dessa problem är särskilt problematiska för ett företag som Bloomberg, som är känt för sin exakta finansiella rapportering och vars information ofta kan ha en direkt inverkan på investeringsbeslut. Behovet av många korrigeringar undergräver förtroendet för tillförlitligheten för denna nya teknik och ställer frågor om för tidigt implementering av AI -system inom journalistik.
Ett särskilt betydande misstag inträffade när Bloomberg rapporterade om president Trumps planerade Autozölle. Medan den faktiska artikeln korrekt uppgav att Trump eventuellt skulle tillkännage tullarna samma dag, innehöll den AI-genererade sammanfattningen felaktig information om tiden för en mer omfattande tullmått. I ett annat fall hävdade en AI -sammanfattning felaktigt att president Trump redan hade infört tullar mot Kanada 2024. Sådana misstag visar gränserna för AI i tolkningen av komplexa meddelanden och riskerna när ovanligt testat automatiserat innehåll publiceras.
Förutom falskt datum inkluderade felen också felaktiga nummer och felaktiga attribut av handlingar eller uttalanden om människor eller organisationer. Dessa typer av fel, ofta kallade ”hallucinationer”, representerar en speciell utmaning för AI -system, eftersom de kan låta rimliga och därför är svåra att känna igen om det inte finns någon grundlig mänsklig granskning. Frekvensen för dessa fel vid Bloomberg understryker behovet av robusta granskningsprocesser och väcker frågor om mognaden för den använda AI -tekniken.
Bloombergs reaktion på AI -problemen
I ett officiellt uttalande betonade Bloomberg att 99 procent av AI -genererade sammanfattningar skulle motsvara de redaktionella standarderna. Enligt sina egna uttalanden publicerar företaget tusentals artiklar varje dag och ser därför felfrekvensen som relativt låg. Enligt sina egna uttalanden fäster Bloomberg betydelsen till öppenhet och korrigerar eller uppdaterade objekt vid behov. Det betonades också att journalister har full kontroll över huruvida en AI -genererad sammanfattning publiceras eller inte.
John Micklethwait, chefredaktör för Bloomberg, beskrev orsakerna till AI-sammanfattning i en uppsats den 10 januari, som baserades på en föreläsning vid City St. George's, University of London. Han förklarade att kunder uppskattar dem eftersom de snabbt kan känna igen vad en berättelse är, medan journalister är mer skeptiska. Han medgav att reportrar är rädda för att läsarna bara kunde lita på sammanfattarna och inte längre läste den faktiska historien. Icke desto mindre betonade Micklethwait att värdet på en AI-sammanfattning uteslutande beror på kvaliteten på den underliggande historien-och människor är fortfarande avgörande för dem.
En taleskvinna för Bloomberg berättade för New York Times att feedbacken på sammanfattarna i allmänhet var positiv och att företaget fortsatte att förbättra erfarenheten. Detta uttalande indikerar att Bloomberg vill fånga trots problemen med att använda strategin att använda AI för sammanfattningar, men med ett ökat fokus på kvalitetssäkring och förfining av den teknik som används.
AI inom journalistik: ett ämne som är relevant för branschen
Erfarenheter av andra medieföretag med AI
Bloomberg är inte det enda medieföretaget som experimenterar med integrationen av AI i sina journalistiska processer. Många nyhetsorganisationer försöker ta reda på hur du bäst kan integrera denna nya teknik i ditt rapporterings- och redaktionella arbete. Gannett -tidningskedjan använder liknande AI -genererade sammanfattningar för dina artiklar, och Washington Post har utvecklat ett verktyg som heter "Ask The Post" som genererar svar på frågor från publicerade postföremål. Denna breda antagande visar medieindustrins betydande intresse för AI -teknologier, trots de tillhörande riskerna och utmaningarna.
Problem med AI -verktyg har också inträffat i andra medieföretag. I början av mars tog Los Angeles Times bort sitt AI-verktyg från en åsiktsartikel efter att tekniken beskrev Ku Klux-Klan som något annat än en rasistisk organisation. Denna incident illustrerar att de utmaningar som Bloomberg står inför inte är isolerade, utan symtomatiskt för bredare problem med integrationen av AI i journalistik. Det finns ett mönster där tekniken ännu inte är tillräckligt mogen för att arbeta pålitligt utan mänsklig övervakning, särskilt med känsliga eller komplexa ämnen.
Dessa exempel illustrerar spänningen mellan önskan om innovation och effektivitet av AI å ena sidan och behovet av att upprätthålla journalistiska standarder och noggrannhet å andra sidan. Medieföretag måste göra en balansåtgärd: De vill dra nytta av fördelarna med AI utan att riskera sina läsares förtroende eller kompromissa med grundläggande journalistiska principer. Bloombergs erfarenheter och andra nyhetsorganisationer tjänar som viktiga läror för hela branschen om möjligheterna och gränserna för AI inom journalistik.
Lämplig för detta:
- En anledning till tveksam AI-användning: 68 % av HR-chefer klagar över bristen på AI-kunskap i företag
Den speciella utmaningen inom finansjournalistik
Inom finanssektorn, där Bloomberg fungerar som en av de ledande underrättelsetjänsterna, är kraven för noggrannhet och tillförlitlighet särskilt höga. Effekterna av felaktig information kan ha betydande ekonomiska konsekvenser här, eftersom investerare och ekonomiska experter fattar beslut baserat på denna nyhet. Detta speciella ansvar gör integrationen av AI -tekniker i finansjournalistik till en ännu större utmaning än inom andra rapporteringsområden.
Intressant nog överskred ”generalist-KI” den speciella KI för Bloomberg i dess domän, FinancialBery-analysen. Bloomberg hade uppskattat minst 2,5 miljoner dollar som investerats i utvecklingen av sin egen finansiella AI, men inte ens ett år efter introduktionen i slutet av mars 2023 blev det tydligt att allmänna AI-modeller som ChatGPT och GPT-4 ger bättre resultat inom detta område. Detta illustrerar den snabba utvecklingen inom konstgjord intelligens och svårigheten för företag att hålla jämna steg med specialiserade lösningar om de allmänna modellerna blir allt effektivare.
🎯🎯🎯 Dra nytta av den omfattande, femtidskompetens från Xpert.Digital i ett omfattande servicepaket | FoU, XR, PR & SEM
AI & XR-3D-Rendering Machine: Fem gånger expertis från Xpert.Digital i ett omfattande servicepaket, FoU XR, PR & SEM-IMAGE: Xpert.Digital
Xpert.Digital har djup kunskap i olika branscher. Detta gör att vi kan utveckla skräddarsydda strategier som är anpassade efter kraven och utmaningarna för ditt specifika marknadssegment. Genom att kontinuerligt analysera marknadstrender och bedriva branschutveckling kan vi agera med framsyn och erbjuda innovativa lösningar. Med kombinationen av erfarenhet och kunskap genererar vi mervärde och ger våra kunder en avgörande konkurrensfördel.
Mer om detta här:
Datakvalitet och AI -modeller: De osynliga snubblorna för modern teknik
Grundläggande utmaningar för den generativa AI
Hallucinationsproblemet i AI -modeller
En av de mest grundläggande utmaningarna för AI-system, som också blev tydliga vid Bloombergs sammanfattningar, är problemet med ”hallucinationer”-det vill säga AI-modellernas tendens, att generera rimligt klingande, men i själva verket felaktig information. Detta problem uppstår när AI -system genererar innehåll som går utöver den information som tillhandahålls till dem eller om de missuppfattar data. Sådana hallucinationer är särskilt problematiska inom journalistik, där trogen och noggrannhet är av avgörande betydelse.
Problemen som Bloomberg upplever är exakt sådana hallucinationer: AI -"uppfunnet" data som det inledande datumet för Trumps autotullar eller felaktigt hävdade att Trump redan skulle ha infört tullar mot Kanada i 2024. Denna typ av fel understryker gränserna för den nuvarande AI -tekniken, särskilt när det kommer till den exakta tolkningen av komplex information.
Experter indikerar att hallucinationer kan utlösas av olika faktorer, bland annat av hur utbildningsuppmaningar och texter kodas. Stora språkmodeller (LLMS) länkar termer med ett antal siffror, så kallade vektorkodningar. När det gäller tvetydiga ord som ”bank” (som kan beskriva både en finansiell institution och sittplatser)) kan det finnas kodning per mening för att undvika tvetydighet. Varje fel i kodningen och avkodningen av representationer och texter kan leda till den generativa AI hallucinerade.
Öppenhet och förståelse av AI -beslut
Ett annat grundläggande problem med AI-system är bristen på öppenhet och spårbarhet i dina beslutsprocesser. Med vissa AI -metoder är det inte längre förståeligt hur en viss förutsägelse eller ett visst resultat uppstår eller varför ett AI -system har nått ett specifikt svar i händelse av en specifik fråga. Denna brist på öppenhet, ofta kallad ett "svart lådaproblem", gör det svårt att identifiera och korrigera misstag innan de publiceras.
Spårbarhet är särskilt viktig inom områden som journalistik, där beslut om innehåll bör vara transparenta och motiverade. Om Bloomberg och andra medieföretag inte kan förstå varför deras AI genererar felaktiga sammanfattningar kommer det att vara svårt att göra systemiska förbättringar. Istället förlitar de sig på reaktiva korrigeringar efter att fel redan har inträffat.
Denna utmaning identifieras också av experter från företag och vetenskap. Även om det främst är en teknisk utmaning, kan det också leda till problematiska resultat från ett socialt eller juridiskt perspektiv inom vissa tillämpningsområden. När det gäller Bloomberg kan detta leda till ett förlust av förtroende bland läsarna eller i värsta fall till ekonomiska beslut baserat på felaktig information.
Beroende av datakvalitet och omfattning
Dessutom beror applikationer baserade på AI på kvaliteten på data och algoritmer. På detta sätt kan systematiska fel i data eller algoritmer ofta inte erkännas med tanke på storleken och komplexiteten hos de använda data. Detta är en annan grundläggande utmaning som Bloomberg och andra företag måste ta itu med när de implementerar AI -system.
Problemet med mängden data - AI kan bara ta hänsyn till relativt små "kontextfönster" vid bearbetning av kommandon, prompten, har verkligen krympt de senaste åren, men förblir en utmaning. Google KI-modellen “Gemini 1.5 Pro 1M” kan redan bearbeta en omedelbart i omfattningen av 700 000 ord eller en timmes video-mer än 7 gånger så mycket som den för närvarande bästa GPT-modellen från OpenAAI. Ändå visar tester att konstgjord intelligens kan söka efter data, men har svårt att samla in relationer.
Lämplig för detta:
- Kostnadsminskning och optimering av effektivitet är dominerande affärsprinciper-AI-risk och valet av rätt AI-modell
Lösningsmetoder och framtida utveckling
Mänsklig övervakning och redaktionella processer
En uppenbar lösning på de problem som Bloomberg upplever är ökad mänsklig övervakning av AI -genererade innehåll. Bloomberg har redan betonat att journalister har full kontroll över huruvida en AI -genererad sammanfattning publiceras eller inte. Denna kontroll måste emellertid effektivt utövas, vilket innebär att redaktörer måste ha tillräckligt med tid för att kontrollera AI -toppmötena innan de publiceras.
Implementeringen av robusta redaktionella processer för att kontrollera AI-genererat innehåll är avgörande för att minimera misstag. Detta kan inkludera att alla AI -toppmöten måste kontrolleras av minst en mänsklig redaktör innan de publiceras eller att vissa typer av information (t.ex. data, siffror eller attribut) är särskilt noggrant kontrollerade. Sådana processer ökar arbetsbelastningen och minskar således en del av effektivitetsvinsten med AI, men är nödvändiga för att skydda noggrannheten och trovärdigheten.
Tekniska förbättringar i AI -modellerna
Den tekniska utvecklingen av AI -modellerna i sig är en annan viktig metod för att lösa de aktuella problemen. Redan med GPT-4 har hallucinationer minskat avsevärt jämfört med föregångaren GPT-3.5. Den senaste modellen från antropisk, "Claude 3 Opus", visar ännu färre hallucinationer i de första testerna. Snart bör felfrekvensen för röstmodeller vara lägre än den för den genomsnittliga mannen. Ändå kommer AI -språkmodeller troligen inte att vara felfria förrän vidare, till skillnad från datorer.
En lovande teknisk strategi är ”blandningen av experter”: flera små specialmodeller är anslutna till ett grindnätverk. Att komma in i systemet analyseras av grinden och överförs sedan till en eller flera experter vid behov. I slutändan kombineras svaren på ett övergripande ord. På detta sätt kan det undvikas att hela modellen alltid måste bli aktiv i sin komplexitet. Denna typ av arkitektur kan potentiellt förbättra noggrannheten genom att använda specialiserade modeller för vissa typer av information eller domäner.
Realistiska förväntningar och transparent kommunikation
När allt kommer omkring är det viktigt att ha realistiska förväntningar på AI -system och kommunicera öppet över sina färdigheter och gränser. AI -system är specifikt definierade för ett specifikt applikationskontext idag och är långt ifrån jämförbara med mänsklig intelligens. Denna kunskap bör leda till genomförandet av AI inom journalistik och andra områden.
Bloomberg och andra medieföretag bör kommunicera öppet om deras användning av AI och göra det klart att AI-genererat innehåll kan vara felaktigt. Detta kan göras genom uttrycklig märkning av AI -genererat innehåll, transparenta felkorrigeringsprocesser och öppen kommunikation över gränserna för teknik som används. Sådan transparens kan hjälpa till att upprätthålla läsarens förtroende, även om fel uppstår.
Varför misslyckas AI -integrationen i journalistik utan människor
Bloombergs erfarenheter av AI -genererade sammanfattningar illustrerar de komplexa utmaningarna i integrationen av konstgjord intelligens i journalistik. De minst 36 fel som måste korrigeras sedan januari visar att tekniken trots sin potential ännu inte är tillräckligt mogen för att användas pålitligt utan grundlig mänsklig övervakning. Problemen med vilka Bloomberg konfronteras är inte unika, men återspeglar grundläggande utmaningar för AI, såsom hallucinationer, brist på transparens och beroendet av data med hög kvalitet.
Flera tillvägagångssätt krävs för en framgångsrik integration av AI i journalistik: robusta redaktionella processer för granskning av AI -genererat innehåll, kontinuerliga tekniska förbättringar i AI -modellerna själv och transparent kommunikation om färdigheter och gränser för den använda tekniken. Bloombergs erfarenhet kan fungera som en värdefull lektion för andra medieföretag som planerar liknande AI -implementeringar.
Framtiden för AI-baserad journalistik beror på hur bra det är att använda effektivitetsvinster och innovativa möjligheter för AI utan att kompromissa med journalistiska standarder. Nyckeln är i ett balanserat tillvägagångssätt som ser tekniken som ett verktyg som stöder mänskliga journalister istället för att ersätta dem. Som John Micklethwait från Bloomberg noterade på lämpligt sätt: "En AI -sammanfattning är bara lika bra som historien som den bygger på. Och människor är fortfarande viktiga för berättelserna."
Vi är där för dig - Råd - Planering - Implementering - Projektledning
☑ SME -stöd i strategi, rådgivning, planering och implementering
☑ skapande eller omjustering av den digitala strategin och digitaliseringen
☑ Expansion och optimering av de internationella försäljningsprocesserna
☑ Globala och digitala B2B -handelsplattformar
☑ Pioneer Business Development
Jag hjälper dig gärna som personlig konsult.
Du kan kontakta mig genom att fylla i kontaktformuläret nedan eller helt enkelt ringa mig på +49 89 674 804 (München) .
Jag ser fram emot vårt gemensamma projekt.
Xpert.digital - Konrad Wolfenstein
Xpert.Digital är ett nav för bransch med fokus, digitalisering, maskinteknik, logistik/intralogistik och fotovoltaik.
Med vår 360 ° affärsutvecklingslösning stöder vi välkända företag från ny verksamhet till efter försäljning.
Marknadsintelligens, smarketing, marknadsföringsautomation, innehållsutveckling, PR, postkampanjer, personliga sociala medier och blyomsorg är en del av våra digitala verktyg.
Du kan hitta mer på: www.xpert.digital - www.xpert.solar - www.xpert.plus