Kunstmatige intelligentie in financiële journalistiek: Bloomberg vecht met defecte AI -samenvatting
Xpert pre-release
Spraakselectie 📢
Gepubliceerd op: 6 april 2025 / UPDATE VAN: 6 april 2025 - Auteur: Konrad Wolfenstein
Heb je momenteel AI bereikt in de journalistiek?
Is AI -implementatie geschikt voor dagelijks gebruik? Bloomberg's hobbelige start met geautomatiseerde samenvattingen
De integratie van kunstmatige intelligentie in journalistiek presenteert mediabedrijven met complexe uitdagingen, zoals het huidige geval van Bloomberg laat zien. De financiële instructieservice experimenteert sinds januari 2025 met AI-gegenereerde samenvattingen voor zijn artikelen, maar moest ten minste 36 onjuiste samenvattingen corrigeren. Deze situatie illustreert de moeilijkheden bij het implementeren van AI -systemen in het redactiegebied, met name met betrekking tot nauwkeurigheid, betrouwbaarheid en vertrouwen in geautomatiseerde inhoud. De volgende secties werpen licht op de specifieke problemen bij Bloomberg, zet ze in de context van algemene AI -uitdagingen en bespreken mogelijke oplossingen voor een succesvolle integratie van AI in de journalistiek.
Geschikt hiervoor:
- Trusty AI: Europa's troefkaart en de kans om een leidende rol op te nemen in kunstmatige intelligentie
Bloomberg's problematische toegang tot door AI gegenereerde inhoud
De gevoeligheid van AI -vergaderingen
Bloomberg, een toonaangevende bedrijf ter wereld voor financieel nieuws, begon Bulletpoints te plaatsen als samenvattingen aan het begin van zijn artikelen begin 2025. Sinds deze introductie op 15 januari heeft het bedrijf echter minstens drie dozijn van deze geautomatiseerde samenvattingen moeten corrigeren, wat duidt op aanzienlijke problemen met de nauwkeurigheid van de AI gegenereerde inhoud. Deze problemen zijn met name problematisch voor een bedrijf als Bloomberg, dat bekend staat om zijn precieze financiële rapportage en wiens informatie vaak een directe impact kan hebben op investeringsbeslissingen. De behoefte aan talloze correcties ondermijnt het vertrouwen in de betrouwbaarheid van deze nieuwe technologie en roept vragen op over voortijdige implementatie van AI -systemen in de journalistiek.
Een bijzonder aanzienlijke fout vond plaats toen Bloomberg rapporteerde over de geplande Autozölle van president Trump. Hoewel het eigenlijke artikel correct verklaarde dat Trump mogelijk de tarieven op dezelfde dag zou aankondigen, bevatte de AI-gegenereerde samenvatting onjuiste informatie over de tijd van een meer uitgebreide douanemaatregel. In een ander geval beweerde een AI -samenvatting ten onrechte dat president Trump in 2024 al tarieven tegen Canada had opgelegd. Dergelijke fouten tonen de grenzen van de AI in de interpretatie van complexe berichten en de risico's wanneer ongebruikelijke geteste geautomatiseerde inhoud wordt gepubliceerd.
Naast valse datum bevatten de fouten ook onjuiste nummers en onjuiste attributies van acties of verklaringen over mensen of organisaties. Dit soort fouten, vaak aangeduid als "hallucinaties", vormen een speciale uitdaging voor AI -systemen, omdat ze plausibel kunnen klinken en daarom moeilijk te herkennen zijn of er geen grondige menselijke beoordeling is. De frequentie van deze fouten bij Bloomberg onderstreept de noodzaak van robuuste beoordelingsprocessen en roept vragen op over de volwassenheid van de gebruikte AI -technologie.
Bloomberg's reactie op de AI -problemen
In een officiële verklaring benadrukte Bloomberg dat 99 procent van de door AI gegenereerde samenvattingen zou overeenkomen met de redactionele normen. Volgens zijn eigen verklaringen publiceert het bedrijf elke dag duizenden artikelen en ziet het foutenpercentage daarom relatief laag. Volgens zijn eigen verklaringen hecht Bloomberg belang aan transparantie en corrigeert of bijgewerkte items indien nodig. Er werd ook benadrukt dat journalisten volledige controle hebben over de vraag of een door AI gegenereerde samenvatting is gepubliceerd of niet.
John Micklethwait, hoofdredacteur van Bloomberg, beschreef de redenen voor AI-samenvatting in een essay op 10 januari, dat was gebaseerd op een lezing aan City St. George's, University of London. Hij legde uit dat klanten ze waarderen omdat ze snel kunnen herkennen wat een verhaal is, terwijl journalisten sceptischer zijn. Hij gaf toe dat verslaggevers vrezen dat lezers alleen konden vertrouwen op de samenvattingen en het feitelijke verhaal niet langer konden lezen. Desalniettemin benadrukte Micklethwait dat de waarde van een AI-samenvatting exclusief afhangt van de kwaliteit van de onderliggende geschiedenis-en mensen zijn nog steeds cruciaal voor hen.
Een woordvoerster van Bloomberg vertelde de New York Times dat de feedback over de samenvattingen over het algemeen positief was en dat het bedrijf de ervaring bleef verbeteren. Deze verklaring geeft aan dat Bloomberg wil vastleggen ondanks de problemen van het gebruik van de strategie om AI te gebruiken voor samenvattingen, maar met een verhoogde focus op kwaliteitsborging en verfijning van de gebruikte technologie.
AI in journalistiek: een onderwerp dat relevant is voor de industrie
Ervaringen van andere mediabedrijven met AI
Bloomberg is niet het enige mediabedrijf dat experimenteert met de integratie van AI in zijn journalistieke processen. Veel nieuwsorganisaties proberen erachter te komen hoe u deze nieuwe technologie het beste kunt integreren in uw rapportage- en redactionele werk. De Gannett -krantenketen maakt gebruik van vergelijkbare door AI gegenereerde samenvattingen voor uw artikelen, en de Washington Post heeft een tool ontwikkeld met de naam "Ask the Post" die antwoorden genereert op vragen van gepubliceerde postitems. Deze brede acceptatie toont de aanzienlijke interesse van de media -industrie in AI -technologieën, ondanks de bijbehorende risico's en uitdagingen.
Problemen met AI -tools hebben ook plaatsgevonden bij andere mediabedrijven. Begin maart verwijderden de Los Angeles Times zijn AI-tool uit een opinie-artikel nadat de technologie de Ku Klux-Klan beschreef als iets anders dan een racistische organisatie. Dit incident illustreert dat de uitdagingen waar Bloomberg tegenover niet wordt geïsoleerd, maar symptomatisch zijn voor bredere problemen met de integratie van AI in de journalistiek. Er is een patroon waarin de technologie nog niet volwassen genoeg is om betrouwbaar te werken zonder menselijk toezicht, vooral met gevoelige of complexe onderwerpen.
Deze voorbeelden illustreren de spanning tussen het verlangen naar innovatie en efficiëntie door AI enerzijds en de noodzaak om journalistieke normen en nauwkeurigheid anderzijds te handhaven. Mediabedrijven moeten een evenwichtsoefening doen: ze willen profiteren van de voordelen van AI zonder het vertrouwen van hun lezers te riskeren of de basisjournalistische principes in gevaar te brengen. De ervaringen van Bloomberg en andere nieuwsorganisaties dienen als belangrijke leringen voor de hele industrie over de mogelijkheden en limieten van AI in de journalistiek.
Geschikt hiervoor:
- Een reden voor aarzelend AI-gebruik: 68 % van de HR-managers klagen over gebrek aan AI-knowhow in bedrijven
De speciale uitdaging in de financiële journalistiek
In de financiële sector, waar Bloomberg fungeert als een van de toonaangevende inlichtingendiensten, zijn de vereisten voor nauwkeurigheid en betrouwbaarheid bijzonder hoog. De effecten van onjuiste informatie kunnen hier aanzienlijke financiële gevolgen hebben, omdat beleggers en financiële experts beslissingen nemen op basis van dit nieuws. Deze speciale verantwoordelijkheid maakt de integratie van AI -technologieën in de financiële journalistiek een nog grotere uitdaging dan op andere gerapporteerde gebieden.
Interessant is dat de "generalistische ki" de speciale ki van Bloomberg overtrof in zijn domein, de financiële analyse. Bloomberg had naar schatting ten minste $ 2,5 miljoen geïnvesteerd in de ontwikkeling van zijn eigen financiële AI, maar zelfs geen jaar na de introductie eind maart 2023 werd duidelijk dat algemene AI-modellen zoals Chatgpt en GPT-4 betere resultaten op dit gebied opleveren. Dit illustreert de snelle ontwikkeling op het gebied van kunstmatige intelligentie en de moeilijkheid voor bedrijven om gespecialiseerde oplossingen bij te houden als de algemene modellen steeds efficiënter worden.
🎯🎯🎯 Hoofd van de uitgebreide, vijf -time expertise van Xpert.Digital in een uitgebreid servicepakket | R&D, XR, PR & SEM
AI & XR-3D-renderingmachine: vijf keer expertise van Xpert.Digital in een uitgebreid servicepakket, R&D XR, PR & SEM-beeld: Xpert.Digital
Xpert.Digital heeft diepe kennis in verschillende industrieën. Dit stelt ons in staat om op maat gemaakte strategieën te ontwikkelen die zijn afgestemd op de vereisten en uitdagingen van uw specifieke marktsegment. Door continu markttrends te analyseren en de ontwikkelingen in de industrie na te streven, kunnen we handelen met vooruitziende blik en innovatieve oplossingen bieden. Met de combinatie van ervaring en kennis genereren we extra waarde en geven onze klanten een beslissend concurrentievoordeel.
Meer hierover hier:
Gegevenskwaliteit en AI -modellen: de onzichtbare struikelblokken van moderne technologie
Fundamentele uitdagingen van de generatieve AI
Het hallucinatieprobleem in AI -modellen
Een van de meest fundamentele uitdagingen voor AI-systemen, die ook duidelijk werden bij de samenvattingen van Bloomberg, is het probleem van "hallucinaties"-dat is de neiging van AI-modellen, om plausibel klinkend te genereren, maar in feite onjuiste informatie. Dit probleem treedt op wanneer AI -systemen inhoud genereren die verder gaat dan de informatie die aan hen is verstrekt of als ze gegevens verkeerd interpreteren. Dergelijke hallucinaties zijn bijzonder problematisch in de journalistiek, waar trouwe en nauwkeurigheid van cruciaal belang zijn.
De problemen met Bloomberg zijn precies dergelijke hallucinaties: de AI "uitgevonden" gegevens zoals de inleidende datum van Trump's autolagen of beweerden ten onrechte dat Trump in 2024 al tarieven tegen Canada zou hebben opgelegd.
Experts geven aan dat hallucinaties kunnen worden geactiveerd door verschillende factoren, onder andere door de manier waarop trainingsprompts en teksten worden gecodeerd. Grote taalmodellen (LLMS) verbinden termen met een aantal getallen, dus aangedreven vectorcodes. In het geval van dubbelzinnige woorden zoals "bank" (die zowel een financiële instelling als een zitplaatsen kunnen beschrijven)), kan er per betekenis coderen om dubbelzinnigheid te voorkomen. Elke fout bij het coderen en decoderen van representaties en teksten kan leiden tot de generatieve AI -hallucineerde.
Transparantie en begrijpelijkheid van AI -beslissingen
Een ander fundamenteel probleem met AI-systemen is het gebrek aan transparantie en traceerbaarheid van uw besluitvormingsprocessen. Met sommige AI -methoden is het niet langer begrijpelijk hoe een bepaalde voorspelling of een bepaald resultaat tot stand komt of waarom een AI -systeem een specifiek antwoord heeft bereikt in het geval van een specifieke vraag. Dit gebrek aan transparantie, vaak aangeduid als een "black box -probleem", maakt het moeilijk om fouten te identificeren en te corrigeren voordat ze worden gepubliceerd.
De traceerbaarheid is vooral belangrijk op gebieden zoals journalistiek, waar beslissingen over inhoud transparant en gerechtvaardigd moeten zijn. Als Bloomberg en andere mediabedrijven niet kunnen begrijpen waarom hun AI onjuiste samenvattingen genereert, zal het moeilijk zijn om systemische verbeteringen aan te brengen. In plaats daarvan vertrouwen ze op reactieve correcties nadat er al fouten zijn opgetreden.
Deze uitdaging wordt ook geïdentificeerd door experts uit bedrijven en wetenschap. Hoewel het in de eerste plaats een technische uitdaging is, kan het ook leiden tot problematische resultaten vanuit een sociaal of juridisch perspectief op bepaalde toepassingsgebieden. In het geval van Bloomberg kan dit leiden tot een verlies van vertrouwen bij lezers of in het ergste geval voor financiële beslissingen op basis van onjuiste informatie.
Afhankelijkheid van gegevenskwaliteit en reikwijdte
Bovendien zijn applicaties op basis van AI afhankelijk van de kwaliteit van de gegevens en algoritmen. Op deze manier kunnen systematische fouten in gegevens of algoritmen vaak niet worden herkend met het oog op de grootte en complexiteit van de gebruikte gegevens. Dit is weer een fundamentele uitdaging waar Bloomberg en andere bedrijven mee te maken hebben bij het implementeren van AI -systemen.
Het probleem met de hoeveelheid gegevens - de AI kan alleen rekening houden met relatief kleine "contextvensters" bij de verwerking van opdrachten, de prompt, is de afgelopen jaren echt gekrompen, maar blijft een uitdaging. Het Google KI-model "Gemini 1.5 Pro 1M" kan er al een onmiddellijk verwerken in de omvang van 700.000 woorden of een uur video-meer dan 7 keer zoveel als het momenteel beste GPT-model van OpenAai. Niettemin laten tests zien dat kunstmatige intelligentie naar gegevens kan zoeken, maar moeite heeft met het verzamelen van relaties.
Geschikt hiervoor:
- Kostenreductie en optimalisatie van efficiëntie zijn dominante bedrijfsprincipes-AI-risico en de keuze van het juiste AI-model
Oplossingsbenaderingen en toekomstige ontwikkelingen
Menselijke bewaking en redactionele processen
Een voor de hand liggende oplossing voor de problemen met Bloomberg is een verhoogde menselijke monitoring van de door AI gegenereerde inhoud. Bloomberg heeft al benadrukt dat journalisten volledige controle hebben over de vraag of een door AI gegenereerde samenvatting is gepubliceerd of niet. Deze controle moet echter effectief worden uitgeoefend, wat betekent dat editors voldoende tijd moeten hebben om de AI -toppen te controleren voordat ze worden gepubliceerd.
De implementatie van robuuste redactionele processen voor het controleren van AI-gegenereerde inhoud is cruciaal om fouten te minimaliseren. Dit kan omvatten dat alle AI -toppen door ten minste één menselijke editor moeten worden gecontroleerd voordat ze worden gepubliceerd of dat bepaalde soorten informatie (zoals gegevens, cijfers of attributies) bijzonder grondig worden gecontroleerd. Dergelijke processen vergroten de werklast en verminderen dus een deel van de efficiëntieverkopers door AI, maar zijn noodzakelijk om de nauwkeurigheid en geloofwaardigheid te beschermen.
Technische verbeteringen in de AI -modellen
De technische ontwikkeling van de AI -modellen zelf is een andere belangrijke benadering voor het oplossen van de huidige problemen. Al met GPT-4 zijn hallucinaties aanzienlijk afgenomen in vergelijking met de voorganger GPT-3.5. Het meest recente model van Anthropic, "Claude 3 Opus", toont nog minder hallucinaties in de eerste tests. Al snel zou het foutenpercentage van spraakmodellen lager moeten zijn dan dat van de gemiddelde man. Desalniettemin zullen AI -taalmodellen waarschijnlijk niet onberispelijk zijn tot nader bericht, in tegenstelling tot computers.
Een veelbelovende technische aanpak is de "mix van experts": verschillende kleine speciale modellen zijn verbonden met een gate -netwerk. Het betreden van het systeem wordt geanalyseerd door de poort en vervolgens doorgegeven aan een of meer experts indien nodig. Uiteindelijk worden de antwoorden op een algemeen woord gecombineerd. Op deze manier kan worden vermeden dat het hele model altijd actief moet worden in zijn complexiteit. Dit type architectuur kan mogelijk de nauwkeurigheid verbeteren door gespecialiseerde modellen te gebruiken voor bepaalde soorten informatie of domeinen.
Realistische verwachtingen en transparante communicatie
Het is tenslotte belangrijk om realistische verwachtingen van AI -systemen te hebben en transparant te communiceren over hun vaardigheden en limieten. AI -systemen worden vandaag specifiek gedefinieerd voor een specifieke applicatiecontext en zijn verre van vergelijkbaar met menselijke intelligentie. Deze kennis moet leiden tot de implementatie van AI in journalistiek en andere gebieden.
Bloomberg en andere mediabedrijven moeten transparant communiceren over hun gebruik van AI en duidelijk maken dat AI-gegenereerde inhoud onjuist kan zijn. Dit kan worden gedaan door expliciete labeling van door AI gegenereerde inhoud, transparante foutcorrectieprocessen en open communicatie over de gebruikte limieten van de gebruikte technologie. Een dergelijke transparantie kan helpen het vertrouwen van de lezer te behouden, zelfs als er fouten optreden.
Waarom mislukt AI -integratie in journalistiek zonder mensen?
De ervaringen van Bloomberg met door AI gegenereerde samenvattingen illustreren de complexe uitdagingen in de integratie van kunstmatige intelligentie in de journalistiek. De ten minste 36 fouten die sinds januari moesten worden gecorrigeerd, laten zien dat ondanks het potentieel de technologie nog niet volwassen genoeg is om betrouwbaar te worden gebruikt zonder grondige menselijke toezicht. De problemen waarmee Bloomberg wordt geconfronteerd, zijn niet uniek, maar weerspiegelen fundamentele uitdagingen van AI, zoals hallucinaties, gebrek aan transparantie en de afhankelijkheid van gegevens van hoge kwaliteit.
Verschillende benaderingen zijn vereist voor een succesvolle integratie van AI in de journalistiek: robuuste redactionele processen voor de beoordeling van door AI gegenereerde inhoud, continue technische verbeteringen in de AI -modellen zelf en transparante communicatie over de vaardigheden en limieten van de gebruikte technologie. De ervaring van Bloomberg kan als een waardevolle les dienen voor andere mediabedrijven die vergelijkbare AI -implementaties plannen.
De toekomst van AI-gebaseerde journalistiek hangt af van hoe goed het is om de efficiëntieverkopers en innovatieve mogelijkheden van AI te gebruiken zonder journalistieke normen in gevaar te brengen. De sleutel is in een evenwichtige aanpak die de technologie ziet als een hulpmiddel dat menselijke journalisten ondersteunt in plaats van ze te vervangen. Zoals John Micklethwait uit Bloomberg toepasselijk opmerkte: "Een AI -samenvatting is slechts zo goed als het verhaal waarop het is gebaseerd. En mensen zijn nog steeds belangrijk voor de verhalen."
Wij zijn er voor u - Advies - Planning - Implementatie - Projectbeheer
☑️ MKB -ondersteuning in strategie, advies, planning en implementatie
☑️ Creatie of herschikking van de digitale strategie en digitalisering
☑️ Uitbreiding en optimalisatie van de internationale verkoopprocessen
☑️ Wereldwijde en digitale B2B -handelsplatforms
☑️ Pioneer Business Development
Ik help u graag als een persoonlijk consultant.
U kunt contact met mij opnemen door het onderstaande contactformulier in te vullen of u gewoon bellen op +49 89 674 804 (München) .
Ik kijk uit naar ons gezamenlijke project.
Xpert.Digital - Konrad Wolfenstein
Xpert.Digital is een hub voor de industrie met een focus, digitalisering, werktuigbouwkunde, logistiek/intralogistiek en fotovoltaïsche.
Met onze 360 ° bedrijfsontwikkelingsoplossing ondersteunen we goed bekende bedrijven, van nieuwe bedrijven tot na verkoop.
Marktinformatie, smarketing, marketingautomatisering, contentontwikkeling, PR, e -mailcampagnes, gepersonaliseerde sociale media en lead koestering maken deel uit van onze digitale tools.
U kunt meer vinden op: www.xpert.Digital - www.xpert.solar - www.xpert.plus