Umělá inteligence ve finanční žurnalistice: Bloomberg bojuje s vadným shrnutím AI
Předběžná verze Xpert
Výběr hlasu 📢
Publikováno dne: 6. dubna 2025 / Aktualizace od: 6. dubna 2025 - Autor: Konrad Wolfenstein
Měla AI v současné době v žurnalistice?
Je implementace AI vhodná pro každodenní použití? Bloombergův hrbolatý start automatizovanými shrnutími
Integrace umělé inteligence do žurnalistiky představuje mediálním společnostem složité výzvy, jak ukazuje současný případ Bloombergu. Služba finanční výuky experimentuje s souhrny generovanými AI pro své články od ledna 2025, ale musela napravit nejméně 36 nesprávných shrnutí. Tato situace ilustruje obtíže při implementaci systémů AI v redakční oblasti, zejména s ohledem na přesnost, spolehlivost a důvěru v automatizovaný obsah. Následující oddíly vrhly světlo na konkrétní problémy v Bloombergu, stanovily je v souvislosti s obecnými výzvami AI a diskutovaly o možných řešeních pro úspěšnou integraci AI v žurnalistice.
Vhodné pro:
Bloombergův problematický vstup do obsahu generovaného AI
Citlivost schůzek AI
Bloomberg, přední světová společnost pro finanční zprávy, začala na začátku roku 2025 umisťovat odrážky jako shrnutí na začátku roku 2025. Od tohoto úvodu 15. ledna však společnost musela napravit nejméně tři desítky těchto automatizovaných shrnutí, což naznačuje významné problémy s přesností generovaného obsahu AI. Tyto problémy jsou obzvláště problematické pro společnost jako Bloomberg, která je známá pro své přesné finanční výkaznictví a jejichž informace mohou mít často přímý dopad na investiční rozhodnutí. Potřeba četných oprav podkopává důvěru ve spolehlivost této nové technologie a vyvolává otázky týkající se předčasného provádění AI systémů v žurnalistice.
Obzvláště významná chyba nastala, když Bloomberg informoval o plánovaném autozölle prezidenta Trumpa. Zatímco skutečný článek správně uvedl, že Trump by možná oznámil tarify ve stejný den, shrnutí generované AI obsahovalo nesprávné informace o době komplexnějšího zvyku. V jiném případě shrnutí AI nesprávně tvrdilo, že prezident Trump již v roce 2024 uložil tarify proti Kanadě. Takové chyby ukazují limity AI při interpretaci složitých zpráv a rizik, když je zveřejněn neobvyklý automatizovaný obsah.
Kromě falešného data zahrnovaly chyby také nesprávná čísla a nesprávná přiřazení akcí nebo prohlášení o lidech nebo organizacích. Tyto typy chyb, často označovaných jako „halucinace“, představují zvláštní výzvu pro systémy AI, protože mohou znít věrohodně, a proto je obtížné je rozpoznat, zda neexistuje důkladná lidská kontrola. Frekvence těchto chyb v Bloombergu zdůrazňuje potřebu robustních kontrolních procesů a vyvolává otázky týkající se zralosti použité technologie AI.
Bloombergova reakce na problémy AI
V oficiálním prohlášení Bloomberg zdůraznil, že 99 procent souhrnů generovaných AI by odpovídalo redakčním standardům. Podle vlastních prohlášení společnost vydává každý den tisíce článků, a proto považuje míru chyb za relativně nízkou. Podle jeho vlastních prohlášení Bloomberg připevňuje význam pro průhlednost a v případě potřeby opravuje nebo aktualizuje položky. Bylo také zdůrazněno, že novináři mají plnou kontrolu nad tím, zda je shrnutí generované AI publikováno nebo ne.
John Micklethwait, šéfredaktor Bloombergu, popsal důvody shrnutí AI v eseji 10. ledna, která byla založena na přednášce v City St. George's, University of London. Vysvětlil, že je zákazníci oceňují, protože mohou rychle rozpoznat, co je příběh, zatímco novináři jsou skeptičtější. Přiznal, že reportéři se obávají, že čtenáři se mohou spolehnout pouze na shrnutí a již nečetli skutečný příběh. Micklethwait však zdůraznil, že hodnota shrnutí AI závisí výhradně na kvalitě základní historie a lidé jsou pro ně stále zásadní.
Mluvčí Bloomberg řekl New York Times, že zpětná vazba na shrnutí byla obecně pozitivní a že společnost nadále zlepšovala zkušenosti. Toto prohlášení naznačuje, že Bloomberg chce zachytit navzdory problémům s používáním strategie používání AI pro shrnutí, ale se zvýšeným zaměřením na zajištění kvality a zdokonalení použité technologie.
AI v žurnalistice: Téma, které je pro toto odvětví relevantní
Zkušenosti jiných mediálních společností s AI
Bloomberg není jedinou mediální společností, která experimentuje s integrací AI do jejích žurnalistických procesů. Mnoho zpravodajských organizací se snaží zjistit, jak můžete tuto novou technologii nejlépe integrovat do vaší reportážní a redakční práce. Novinový řetězec Gannett používá pro vaše články podobné shrnutí generované AI a The Washington Post vyvinul nástroj nazvaný „Zeptejte se příspěvku“, který generuje odpovědi na otázky z publikovaných poštovních položek. Tato široká adopce ukazuje značný zájem mediálního průmyslu v technologiích AI, navzdory souvisejícím rizikům a výzvám.
Problémy s nástroji AI se také vyskytly v jiných mediálních společnostech. Začátkem března Los Angeles Times odstranil svůj nástroj AI z článku o názorech poté, co technologie popsala KU Klux-Klan jako něco jiného než rasistickou organizaci. Tento incident ukazuje, že výzvy, kterým Bloomberg čelí, nejsou izolované, ale symptomaticky pro širší problémy s integrací AI do žurnalistiky. Existuje vzorec, ve kterém tato technologie ještě není dostatečně zralá, aby spolupracovala bez lidského dohledu, zejména s citlivými nebo složitými tématy.
Tyto příklady ilustrují napětí mezi touhou po inovacích a efektivitě AI na jedné straně a potřebou udržovat novinářské standardy a přesnost na straně druhé. Mediální společnosti musí provést vyrovnávací akt: chtějí těžit z výhod AI, aniž by riskovali důvěru čtenářů nebo ohrožují základní novinářské principy. Bloombergovy zkušenosti a další zpravodajské organizace slouží pro celé odvětví jako důležitá učení o možnostech a limitch AI v žurnalistice.
Vhodné pro:
- Jeden důvod pro váhavé používání AI: 68 % HR manažerů si stěžuje na nedostatek know-how AI ve firmách
Zvláštní výzva ve finanční žurnalistice
Ve finančním sektoru, kde Bloomberg působí jako jedna z předních zpravodajských služeb, jsou požadavky na přesnost a spolehlivost zvláště vysoké. Účinky nesprávných informací zde mohou mít významné finanční důsledky, protože investoři a finanční odborníci přijímají rozhodnutí na základě této zprávy. Tato zvláštní odpovědnost činí integraci technologií AI do finanční žurnalistiky ještě větší výzvou než v jiných oblastech podávání zpráv.
Je zajímavé, že „obecný KI“ překročil zvláštní ki Bloomberg ve své doméně, analýzu finanční hodnoty. Bloomberg měl odhadem nejméně 2,5 milionu dolarů investované do vývoje své vlastní finanční umělé inteligence, ale ani rok po zavedení na konci března 2023 bylo zřejmé, že obecné modely AI, jako jsou CHATGPT a GPT-4, poskytují lepší výsledky v této oblasti. To ilustruje rychlý vývoj v oblasti umělé inteligence a obtíže pro společnosti, aby udržovaly krok se specializovanými řešeními, pokud jsou obecné modely stále efektivnější.
🎯🎯🎯 Využijte rozsáhlé, pětinásobné odborné znalosti Xpert.Digital v komplexním balíčku služeb | R&D, XR, PR & SEM
AI & XR 3D rendering Machine: Pětinásobná odbornost od Xpert.Digital v komplexním balíčku služeb, R&D XR, PR & SEM - Obrázek: Xpert.Digital
Xpert.Digital má hluboké znalosti z různých odvětví. To nám umožňuje vyvíjet strategie šité na míru, které jsou přesně přizpůsobeny požadavkům a výzvám vašeho konkrétního segmentu trhu. Neustálou analýzou tržních trendů a sledováním vývoje v oboru můžeme jednat s prozíravostí a nabízet inovativní řešení. Kombinací zkušeností a znalostí vytváříme přidanou hodnotu a poskytujeme našim zákazníkům rozhodující konkurenční výhodu.
Více o tom zde:
Kvalita dat a modely AI: Neviditelné bloky ústředí moderních technologií
Základní výzvy generativního AI
Problém halucinace v modelech AI
Jednou z nejzákladnějších výzev pro systémy AI, které se také ukázaly v Bloombergových shrnutích, je problém „halucinace“-to je tendence modelů AI, aby generovala věrohodně znějící, ale ve skutečnosti nesprávné informace. K tomuto problému dochází, když systémy AI generují obsah, který přesahuje informace poskytnuté, nebo pokud nesprávně interpretují data. Takové halucinace jsou zvláště problematické v žurnalistice, kde věrná a přesnost má zásadní význam.
Problémy Bloomberga jsou přesně takové halucinace: AI „vynalezena“ údaje, jako je úvodní datum automobilových povinností Trumpa nebo nesprávně tvrdí, že Trump by již v roce 2024 uložil tarify proti Kanadě. Tento typ chyby podtrhuje hranice současné technologie AI, zejména pokud jde o přesné interpretaci složitých informací.
Odborníci naznačují, že halucinace mohou být vyvolány různými faktory, mimo jiné mimo jiné, jak jsou školicí výzvy a texty kódovány. Velké jazykové modely (LLMS) propojení s řadou čísel, takže -snášené kódování vektoru. V případě nejednoznačných slov, jako je „banka“ (která může popsat jak finanční instituci, tak sezení)), může existovat kódování podle významu, aby se zabránilo nejednoznačnosti. Každá chyba v kódování a dekódování reprezentací a textů může vést k generativnímu halucinovanému AI.
Transparentnost a srozumitelnost rozhodnutí AI
Dalším základním problémem se systémy AI je nedostatek transparentnosti a sledovatelnosti vašich rozhodovacích procesů. U některých metod AI již není pochopitelné, jak dojde k určité predikci nebo určitému výsledku nebo proč systém AI dosáhl konkrétní odpovědi v případě konkrétní otázky. Tento nedostatek transparentnosti, často označovaný jako „problém s černou skříňkou“, ztěžuje identifikaci a opravu chyb před jejich zveřejněním.
Sledovatelnost je zvláště důležitá v oblastech, jako je žurnalistika, kde by měla být rozhodnutí o obsahu transparentní a odůvodnitelná. Pokud Bloomberg a další mediální společnosti nemohou pochopit, proč jejich AI generuje nesprávné shrnutí, bude obtížné provést systémová vylepšení. Místo toho se spoléhají na reaktivní korekce poté, co již došlo k chybám.
Tuto výzvu je také identifikován odborníky z podnikání a vědy. Ačkoli se jedná především o technickou výzvu, může také vést k problematickým výsledkům ze sociálního nebo právního pohledu v určitých oblastech aplikace. V případě Bloombergu by to mohlo vést ke ztrátě důvěry mezi čtenáři nebo v nejhorším případě k finančním rozhodnutí na základě nesprávných informací.
Závislost na kvalitě a rozsahu dat
Kromě toho aplikace založené na AI závisí na kvalitě dat a algoritmů. Tímto způsobem nelze systematické chyby v datech nebo algoritmech často rozpoznat s ohledem na velikost a složitost použitých dat. Toto je další základní výzva, se kterou se Bloomberg a další společnosti musí při implementaci systémů AI vypořádat.
Problém s množstvím dat - AI může při zpracování příkazů v posledních letech skutečně zmenšit relativně malé „kontextové okna“ při zpracování příkazů, v posledních letech se však zůstává výzvou. Model Google Ki „Gemini 1.5 Pro 1M“ již může okamžitě zpracovat v rozsahu 700 000 slov nebo hodinu videa-více než 7krát tolik, jako je aktuálně nejlepší model GPT od OpenAAI. Testy však ukazují, že umělá inteligence může hledat data, ale má potíže s shromažďováním vztahů.
Vhodné pro:
- Snížení nákladů a optimalizace efektivity jsou dominantní obchodní zásady-ai riziko a výběr správného modelu AI
Přístupy k řešení a budoucí vývoj
Lidské dohled a redakční procesy
Zjevným řešením problémů Bloomberga je zvýšené monitorování lidského obsahu generovaného AI. Bloomberg již zdůraznil, že novináři mají plnou kontrolu nad tím, zda je shrnutí generované AI publikováno nebo ne. Tato kontrola však musí být účinně vykonávána, což znamená, že editoři musí mít dostatek času na kontrolu vrcholů AI před jejich zveřejněním.
Implementace robustních redakčních procesů pro kontrolu obsahu generovaného AI je zásadní pro minimalizaci chyb. To by mohlo zahrnovat, že všechny summity AI musí být zkontrolovány nejméně jedním lidským editorem, než budou zveřejněny, nebo že jsou zvláště důkladně kontrolovány určité typy informací (jako jsou data, čísla nebo atributy). Takové procesy zvyšují pracovní zátěž a snižují tak část zvýšení účinnosti pomocí AI, ale jsou nezbytné k ochraně přesnosti a důvěryhodnosti.
Technická vylepšení v modelech AI
Technický vývoj samotných modelů AI je dalším důležitým přístupem k řešení současných problémů. Již u GPT-4 se halucinace výrazně snížily ve srovnání s předchůdcem GPT-3,5. Poslední model z antropického „Claude 3 Opus“ ukazuje ještě méně halucinací v počátečních testech. Brzy by míra chyb hlasových modelů měla být nižší než míra průměrného člověka. Modely jazyků AI však pravděpodobně nebudou bezplatné, až do dalšího upozornění, na rozdíl od počítačů.
Slibným technickým přístupem je „směs odborníků“: k bráně je připojeno několik malých speciálních modelů. Vstup do systému je analyzován bránou a poté v případě potřeby předal jednoho nebo více odborníků. Nakonec jsou odpovědi na celkové slovo kombinovány. Tímto způsobem lze zabránit tomu, aby se celý model měl vždy stát aktivní ve své složitosti. Tento typ architektury by mohl potenciálně zlepšit přesnost pomocí specializovaných modelů pro určité typy informací nebo domén.
Realistická očekávání a transparentní komunikace
Koneckonců, je důležité mít realistická očekávání systémů AI a transparentně komunikovat přes jejich dovednosti a limity. Systémy AI jsou dnes speciálně definovány pro konkrétní kontext aplikací a zdaleka nejsou srovnatelné s lidskou inteligencí. Tato znalost by měla vést k implementaci AI v žurnalistice a dalších oblastech.
Bloomberg a další mediální společnosti by měly transparentně sdělit o jejich používání AI a objasnit, že obsah generovaný AI může být nesprávný. Toho by mohlo být provedeno explicitním označováním obsahu generovaného AI, procesy transparentní korekce chyb a otevřeným komunikací napříč použitými limity použitých technologií. Taková transparentnost může pomoci udržet důvěru čtenáře, i když dojde k chybám.
Proč integrace AI selhává v žurnalistice bez lidí
Bloombergovy zkušenosti s AI generovanými shrnutími ilustrují složité výzvy v integraci umělé inteligence do žurnalistiky. Nejméně 36 chyb, které musely být od ledna napraveny, ukazují, že i přes svůj potenciál není dosud dostatečně zralá, aby byla spolehlivě použita bez důkladného dohledu nad lidmi. Problémy, s nimiž je Bloomberg konfrontován, nejsou jedinečné, ale odrážejí základní výzvy AI, jako jsou halucinace, nedostatek transparentnosti a závislost na datech s vysokou kvalitou.
Pro úspěšnou integraci AI do žurnalistiky je zapotřebí několik přístupů: robustní redakční procesy pro přezkum obsahu generovaného AI, nepřetržitá technická vylepšení samotných modelů AI a transparentní komunikaci o dovednostech a limitch použité technologie. Bloombergovy zkušenosti mohou sloužit jako cenná lekce pro další mediální společnosti, které plánují podobné implementace AI.
Budoucnost žurnalistiky založené na AI závisí na tom, jak dobře je využívat efektivitní zisky a inovativní možnosti AI bez ohrožení novinářských standardů. Klíčem je vyvážený přístup, který považuje technologii za nástroj, který podporuje lidské novináře místo jejich nahrazení. Jak John Micklethwait z Bloomberga výstižně poznamenal: „Shrnutí AI je jen tak dobré jako příběh, na kterém je založen. A lidé jsou pro příběhy stále důležití.“
Jsme tu pro Vás - poradenství - plánování - realizace - projektové řízení
☑️ Podpora MSP ve strategii, poradenství, plánování a implementaci
☑️ Vytvoření nebo přeladění digitální strategie a digitalizace
☑️ Rozšíření a optimalizace mezinárodních prodejních procesů
☑️ Globální a digitální obchodní platformy B2B
☑️ Pioneer Business Development
Rád posloužím jako váš osobní poradce.
Můžete mě kontaktovat vyplněním kontaktního formuláře níže nebo mi jednoduše zavolejte na číslo +49 89 89 674 804 (Mnichov) .
Těším se na náš společný projekt.
Xpert.Digital - Konrad Wolfenstein
Xpert.Digital je centrum pro průmysl se zaměřením na digitalizaci, strojírenství, logistiku/intralogistiku a fotovoltaiku.
S naším 360° řešením pro rozvoj podnikání podporujeme známé společnosti od nových obchodů až po poprodejní služby.
Market intelligence, smarketing, automatizace marketingu, vývoj obsahu, PR, e-mailové kampaně, personalizovaná sociální média a péče o potenciální zákazníky jsou součástí našich digitálních nástrojů.
Více se dozvíte na: www.xpert.digital - www.xpert.solar - www.xpert.plus