Sztuczna inteligencja w dziennikarstwie finansowym: Bloomberg walczy z wadliwym podsumowaniem AI
Przedpremierowe wydanie Xperta
Wybór głosu 📢
Opublikowano: 6 kwietnia 2025 / Aktualizacja od: 6 kwietnia 2025 r. - Autor: Konrad Wolfenstein
Czy sztuczna inteligencja dotarła obecnie do dziennikarstwa?
Czy wdrożenie AI jest odpowiednie do codziennego użytku? Niezwykły start Bloomberga od zautomatyzowanych streszczeń
Integracja sztucznej inteligencji z dziennikarstwem stanowi firmy medialne złożone wyzwania, jak pokazuje obecny przypadek Bloomberga. Usługa nauczania finansowego eksperymentuje z podsumowaniami generowanymi przez AI artykułów od stycznia 2025 r., Ale musiała skorygować co najmniej 36 nieprawidłowych podsumowań. Ta sytuacja ilustruje trudności we wdrażaniu systemów AI w obszarze redakcyjnym, w szczególności w odniesieniu do dokładności, niezawodności i zaufania w automatycznej treści. Poniższe sekcje rzucają światło na konkretne problemy w Bloombergu, ustanowiły je w kontekście ogólnych wyzwań AI i omawiają możliwe rozwiązania dotyczące udanej integracji sztucznej inteligencji w dziennikarstwie.
Nadaje się do:
- Trustna sztuczna inteligencja: Europejska karta atutowa i szansa na objęcie wiodącej roli w sztucznej inteligencji
Problematyczne wejście Bloomberga do treści generowanych przez AI
Podatność spotkań AI
Bloomberg, wiodąca światowa firma ds. Wiadomości finansowych, zaczęła stawiać punkty punktowe jako podsumowania na początku swoich artykułów na początku 2025 r.. Od czasu tego wprowadzenia 15 stycznia firma musiała skorygować co najmniej trzy tuziny tych zautomatyzowanych podsumowań, co wskazuje na znaczące problemy z dokładnością zawartości AI. Problemy te są szczególnie problematyczne dla firmy takiej jak Bloomberg, która jest znana z precyzyjnej sprawozdawczości finansowej i której informacje często mogą mieć bezpośredni wpływ na decyzje inwestycyjne. Potrzeba licznych poprawek podważa zaufanie do niezawodności tej nowej technologii i rodzi pytania dotyczące przedwczesnego wdrażania systemów AI w dziennikarstwie.
Szczególnie znaczący błąd wystąpił, gdy Bloomberg poinformował o planowanej Autozölle prezydenta Trumpa. Podczas gdy w rzeczywistym artykule poprawnie stwierdzono, że Trump prawdopodobnie ogłosi taryfy tego samego dnia, podsumowanie wygenerowane przez AI zawierało nieprawidłowe informacje o czasie bardziej kompleksowego środka celnego. W innym przypadku podsumowanie AI nieprawidłowo twierdziło, że prezydent Trump narzucił już taryfy przeciwko Kanadzie w 2024 r. Błędy te pokazują granice AI w interpretacji złożonych wiadomości i ryzyko, gdy opublikowane są nietypowe zautomatyzowane treści.
Oprócz fałszywej daty błędy zawierały również nieprawidłowe liczby i nieprawidłowe przypisania działań lub stwierdzeń dotyczących osób lub organizacji. Tego rodzaju błędy, często określane jako „halucynacje”, stanowią szczególne wyzwanie dla systemów AI, ponieważ mogą one brzmieć prawdopodobne i dlatego są trudne do rozpoznania, jeśli nie ma dokładnego przeglądu człowieka. Częstotliwość tych błędów w Bloomberg podkreśla potrzebę solidnych procesów przeglądu i rodzi pytania dotyczące dojrzałości zastosowanej technologii AI.
Reakcja Bloomberga na problemy AI
W oficjalnym oświadczeniu Bloomberg podkreślił, że 99 procent streszczeń generowanych przez AI odpowiadałoby standardom redakcyjnym. Zgodnie z własnymi oświadczeniami firma publikuje tysiące artykułów każdego dnia, a zatem postrzega poziom błędu jako stosunkowo niski. Zgodnie z jego własnymi oświadczeniami Bloomberg przywiązuje znaczenie dla przejrzystości i poprawia lub zaktualizowane elementy w razie potrzeby. Podkreślono również, że dziennikarze mają pełną kontrolę nad tym, czy podsumowanie wygenerowane przez AI jest publikowane, czy nie.
John Micklethwait, redaktor naczelny Bloomberg, opisał przyczyny podsumowania AI w eseju 10 stycznia, opartego na wykładzie w City St. George's, University of London. Wyjaśnił, że klienci je doceniają, ponieważ mogą szybko rozpoznać, czym jest historia, podczas gdy dziennikarze są bardziej sceptyczni. Przyznał, że reporterzy obawiają się, że czytelnicy mogą polegać tylko na podsumowaniach i nie czytać już prawdziwej historii. Niemniej jednak Micklethwait podkreślił, że wartość podsumowania AI zależy wyłącznie od jakości podstawowej historii-a ludzie są dla nich kluczowi.
Rzeczniczka Bloomberg powiedziała New York Timesowi, że opinie na temat streszczeń były ogólnie pozytywne i że firma nadal poprawiała doświadczenie. To stwierdzenie wskazuje, że Bloomberg chce uchwycić pomimo problemów związanych z wykorzystaniem strategii stosowania sztucznej inteligencji do streszczeń, ale ze zwiększonym naciskiem na zapewnienie jakości i udoskonalanie zastosowanej technologii.
AI w dziennikarstwie: temat, który jest istotny dla branży
Doświadczenia innych firm medialnych z AI
Bloomberg nie jest jedyną firmą medialną, która eksperymentuje z integracją AI z procesami dziennikarskimi. Wiele organizacji prasowych stara się dowiedzieć, jak najlepiej zintegrować tę nową technologię z raportowaniem i pracą redakcyjną. Sieć gazety Gannett wykorzystuje podobne podsumowania generowane przez AI dla twoich artykułów, a Washington Post opracował narzędzie o nazwie „Zapytaj post”, które generuje odpowiedzi na pytania z opublikowanych elementów pocztowych. To szerokie przyjęcie pokazuje znaczne zainteresowanie branży medialnej technologii AI, pomimo związanych z tym ryzyka i wyzwań.
Problemy z narzędziami AI wystąpiły również w innych firmach medialnych. Na początku marca Los Angeles Times usunęło swoje narzędzie AI z artykułu opinii po tym, jak technologia opisała Ku Klux-Klan jako coś innego niż organizacja rasistowska. Ten incydent pokazuje, że wyzwania, przed którymi stoją Bloomberg, nie są izolowane, ale objawowo w przypadku szerszych problemów z integracją AI z dziennikarstwem. Istnieje wzór, w którym technologia nie jest jeszcze wystarczająco dojrzała, aby niezawodnie pracować bez nadzoru ludzkiego, szczególnie z wrażliwymi lub złożonymi tematami.
Przykłady te ilustrują napięcie między pragnieniem innowacji i wydajności przez AI z jednej strony a potrzebą utrzymania standardów dziennikarskich i dokładności z drugiej. Firmy medialne muszą wykonać akt równoważenia: chcą skorzystać z zalet sztucznej inteligencji bez ryzyka zaufania czytelników lub zagrażania podstawowych zasad dziennikarskich. Doświadczenia Bloomberga i inne organizacje informacyjne służą jako ważne nauki dla całej branży na temat możliwości i ograniczeń AI w dziennikarstwie.
Nadaje się do:
- Jeden z powodów niechętnego stosowania sztucznej inteligencji: 68% menedżerów HR skarży się na brak wiedzy na temat sztucznej inteligencji w firmach
Specjalne wyzwanie w dziennikarstwie finansowym
W sektorze finansowym, w którym Bloomberg działa jako jedna z wiodących usług wywiadowczych, wymagania dotyczące dokładności i niezawodności są szczególnie wysokie. Skutki nieprawidłowych informacji mogą mieć tutaj znaczące konsekwencje finansowe, ponieważ inwestorzy i eksperci finansowi podejmują decyzje na podstawie tych wiadomości. Ta szczególna odpowiedzialność sprawia, że integracja technologii AI w dziennikarstwie finansowym jest jeszcze większym wyzwaniem niż w innych obszarach raportowania.
Co ciekawe, „Generalist-Ki” przekroczył specjalny KI Bloomberga w swojej dziedzinie, analizę finansową. Szacuje się, że Bloomberg zainwestował co najmniej 2,5 miliona dolarów w rozwój własnej AI finansowej, ale nawet rok po wprowadzeniu pod koniec marca 2023 r. Stało się jasne, że ogólne modele AI, takie jak Chatgpt i GPT-4, zapewniają lepsze wyniki w tym obszarze. To ilustruje szybki rozwój w dziedzinie sztucznej inteligencji i trudności dla firm, aby nadążyć za specjalistycznymi rozwiązaniami, jeśli ogólne modele stają się coraz bardziej wydajne.
🎯🎯🎯 Skorzystaj z obszernej, pięciokrotnej wiedzy Xpert.Digital w kompleksowym pakiecie usług | Badania i rozwój, XR, PR i SEM
Maszyna do renderowania 3D AI i XR: pięciokrotna wiedza Xpert.Digital w kompleksowym pakiecie usług, R&D XR, PR i SEM - Zdjęcie: Xpert.Digital
Xpert.Digital posiada dogłębną wiedzę na temat różnych branż. Dzięki temu możemy opracowywać strategie „szyte na miarę”, które są dokładnie dopasowane do wymagań i wyzwań konkretnego segmentu rynku. Dzięki ciągłej analizie trendów rynkowych i śledzeniu rozwoju branży możemy działać dalekowzrocznie i oferować innowacyjne rozwiązania. Dzięki połączeniu doświadczenia i wiedzy generujemy wartość dodaną i dajemy naszym klientom zdecydowaną przewagę konkurencyjną.
Więcej na ten temat tutaj:
Jakość danych i modele AI: Niewidoczne przeszkody w nowoczesnej technologii
Podstawowe wyzwania generatywnej AI
Problem halucynacji w modelach AI
Jednym z najbardziej fundamentalnych wyzwań dla systemów AI, które również stały się jasne w podsumowaniach Bloomberga, jest problem „halucynacji”-to znaczy tendencja modeli AI, do generowania prawdopodobnego brzmienia, ale w rzeczywistości nieprawidłowe informacje. Ten problem występuje, gdy systemy AI generują treść wykraczającą poza dostarczone im informacje lub jeśli źle interpretują dane. Takie halucynacje są szczególnie problematyczne w dziennikarstwie, w którym wierne i dokładność mają kluczowe znaczenie.
Problemy doświadczone przez Bloomberga są dokładnie takimi halucynacjami: „AI„ wynaleziono ”dane, takie jak wprowadzająca data obowiązków samochodowych Trumpa lub niewłaściwie twierdziły, że Trump narzuciłby już taryfy przeciwko Kanadzie w 2024 r.. Ten rodzaj błędu podkreśla granice obecnej technologii AI, zwłaszcza jeśli chodzi o interpretację złożonych informacji.
Eksperci wskazują, że halucynacje mogą być wywołane przez różne czynniki, między innymi, poprzez kodowanie podpowiedzi i tekstów treningowych. Duże modele językowe (LLMS) łączy warunki z liczbą liczb, więc -Zakładane kodowania wektorowe. W przypadku niejednoznacznych słów, takich jak „bank” (które mogą opisać zarówno instytucję finansową, jak i siedzenie)), może istnieć kodowanie dla znaczenia, aby uniknąć dwuznaczności. Każdy błąd w kodowaniu i dekodowaniu reprezentacji i tekstów może prowadzić do generatywnego halucynowanego AI.
Przejrzystość i zrozumiałość decyzji AI
Kolejnym podstawowym problemem z systemami AI jest brak przejrzystości i identyfikowalności procesów decyzyjnych. Przy niektórych metodach AI nie jest już zrozumiałe, w jaki sposób pojawia się pewna prognoza lub pewien wynik lub dlaczego system AI osiągnął konkretną odpowiedź w przypadku konkretnego pytania. Ten brak przejrzystości, często określany jako „problem z czarną skrzynką”, utrudnia identyfikację i poprawienie błędów przed ich opublikowaniem.
Istotność jest szczególnie ważna w obszarach takich jak dziennikarstwo, w których decyzje dotyczące treści powinny być przejrzyste i uzasadnione. Jeśli Bloomberg i inne firmy medialne nie mogą zrozumieć, dlaczego ich sztuczna inteligencja generuje nieprawidłowe podsumowania, trudno będzie wprowadzić ulepszenia systemowe. Zamiast tego polegają na korektach reaktywnych po wystąpieniu błędów.
To wyzwanie jest również identyfikowane przez ekspertów z biznesu i nauki. Chociaż jest to przede wszystkim wyzwanie techniczne, może również prowadzić do problematycznych wyników z perspektywy społecznej lub prawnej w niektórych obszarach zastosowania. W przypadku Bloomberga może to prowadzić do utraty zaufania wśród czytelników lub w najgorszym przypadku decyzji finansowych w oparciu o nieprawidłowe informacje.
Zależność od jakości i zakresu danych
Ponadto aplikacje oparte na AI zależą od jakości danych i algorytmów. W ten sposób systematyczne błędy w danych lub algorytmach często nie mogą być rozpoznawane z powodu wielkości i złożoności wykorzystywanych danych. Jest to kolejne fundamentalne wyzwanie, z którymi Bloomberg i inne firmy muszą sobie poradzić przy wdrażaniu systemów AI.
Problem z ilością danych - AI może wziąć pod uwagę stosunkowo małe „okna kontekstowe” w przetwarzaniu poleceń, podpowiedzi, naprawdę zmniejszył się w ostatnich latach, ale pozostaje wyzwaniem. Model Google KI „Gemini 1.5 Pro 1M” może już przetworzyć jeden niezwłocznie w zakresie 700 000 słów lub godziny więcej niż 7 razy więcej niż najlepszy model GPT z OpenAai. Niemniej jednak testy pokazują, że sztuczna inteligencja może wyszukiwać dane, ale ma trudności z gromadzeniem relacji.
Nadaje się do:
- Redukcja kosztów i optymalizacja wydajności są dominującymi zasadami biznesowymi-ryzykiem i wyborem odpowiedniego modelu AI
Podejścia do rozwiązania i przyszłe osiągnięcia
Procesy ludzkie i procesy redakcyjne
Oczywistym rozwiązaniem problemów występujących przez Bloomberga jest zwiększone monitorowanie człowieka zawartości generowanej przez AI. Bloomberg podkreślił już, że dziennikarze mają pełną kontrolę nad tym, czy podsumowanie wygenerowane przez AI jest publikowane, czy nie. Kontrola tej należy jednak skutecznie wykonywać, co oznacza, że redaktorzy muszą mieć wystarczająco dużo czasu, aby sprawdzić szczyty AI przed ich opublikowaniem.
Wdrożenie solidnych procesów redakcyjnych do sprawdzania treści generowanej przez AI ma kluczowe znaczenie dla zminimalizowania błędów. Może to obejmować to, że wszystkie szczyty AI muszą być sprawdzone przez co najmniej jednego redaktora ludzkiego przed ich opublikowaniem lub że niektóre typy informacji (takie jak dane, liczby lub atrybucje) są szczególnie dokładnie sprawdzone. Takie procesy zwiększają obciążenie pracą, a tym samym zmniejszają część zysków z wydajności przez AI, ale są niezbędne do ochrony dokładności i wiarygodności.
Ulepszenia techniczne w modelach AI
Techniczny rozwój samych modeli AI jest kolejnym ważnym podejściem do rozwiązywania obecnych problemów. Już z GPT-4 halucynacje znacznie się zmniejszyły w porównaniu z poprzednikiem GPT-3.5. Najnowszy model antropicznego „Claude 3 Opus” pokazuje jeszcze mniej halucynacji w początkowych testach. Wkrótce poziom błędów modeli głosowych powinien być niższy niż u przeciętnego człowieka. Niemniej jednak modele językowe AI prawdopodobnie nie będą bezbłędne do odwołania, w przeciwieństwie do komputerów.
Obiecującym podejściem technicznym jest „mieszanka ekspertów”: kilka małych specjalnych modeli jest podłączonych do sieci bramkowej. Wejście do systemu jest analizowane przez bramę, a następnie w razie potrzeby przekazywane jednemu lub więcej ekspertom. Ostatecznie odpowiedzi na ogólne słowo są łączone. W ten sposób można uniknąć, że cały model musi zawsze być aktywny w swojej złożoności. Ten rodzaj architektury może potencjalnie poprawić dokładność, wykorzystując wyspecjalizowane modele dla niektórych rodzajów informacji lub domen.
Realistyczne oczekiwania i przejrzystą komunikację
W końcu ważne jest, aby mieć realistyczne oczekiwania dotyczące systemów AI i przekazywanie przejrzystości swoich umiejętności i ograniczeń. Systemy AI są dziś specjalnie zdefiniowane dla określonego kontekstu aplikacji i nie są porównywalne z ludzką inteligencją. Wiedza ta powinna prowadzić do wdrożenia sztucznej inteligencji w dziennikarstwie i innych obszarach.
Bloomberg i inne firmy medialne powinny komunikować się w przejściu na temat korzystania z AI i wyjaśnić, że treści generowane przez AI mogą być nieprawidłowe. Można to zrobić poprzez wyraźne oznaczenie zawartości generowanej przez AI, przezroczyste procesy korekcji błędów i otwartą komunikację w stosowanych granicach technologii. Taka przejrzystość może pomóc w utrzymaniu zaufania czytelnika, nawet jeśli wystąpią błędy.
Dlaczego integracja AI zawodzi w dziennikarstwie bez ludzi
Doświadczenia Bloomberga z wygenerowanymi przez AI podsumowania ilustrują złożone wyzwania związane z integracją sztucznej inteligencji z dziennikarstwem. Co najmniej 36 błędów, które musiały zostać poprawione od stycznia, pokazują, że pomimo jej potencjału technologia nie jest jeszcze wystarczająco dojrzała, aby można ją było niezawodnie wykorzystać bez dokładnego nadzoru człowieka. Problemy, z którymi konfrontuje się Bloomberg, nie są unikalne, ale odzwierciedlają podstawowe wyzwania AI, takie jak halucynacje, brak przejrzystości i zależność od danych o wysokiej jakości.
Wymagane jest kilka podejść do udanej integracji sztucznej inteligencji z dziennikarstwem: solidne procesy redakcyjne do przeglądu treści generowanych przez AI, ciągłe ulepszenia techniczne w samych modelach AI oraz przejrzystą komunikację na temat umiejętności i ograniczeń wykorzystanej technologii. Doświadczenie Bloomberga może służyć jako cenna lekcja dla innych firm medialnych, które planują podobne wdrożenia AI.
Przyszłość dziennikarstwa opartego na sztucznej inteligencji zależy od tego, jak dobrze jest wykorzystać wzrost wydajności i innowacyjne możliwości sztucznej inteligencji bez uszczerbku dla standardów dziennikarskich. Kluczem jest zrównoważone podejście, które postrzega technologię jako narzędzie, które wspiera ludzkich dziennikarzy zamiast ich zastępować. Jak trafnie zauważył John Micklethwait z Bloomberga: „Podsumowanie AI jest tak dobre, jak historia, na której się opiera. I ludzie są nadal ważne dla opowieści”.
Jesteśmy do Twojej dyspozycji - doradztwo - planowanie - realizacja - zarządzanie projektami
☑️ Wsparcie MŚP w zakresie strategii, doradztwa, planowania i wdrażania
☑️ Stworzenie lub dostosowanie strategii cyfrowej i cyfryzacji
☑️Rozbudowa i optymalizacja procesów sprzedaży międzynarodowej
☑️ Globalne i cyfrowe platformy handlowe B2B
☑️ Pionierski rozwój biznesu
Chętnie będę Twoim osobistym doradcą.
Możesz się ze mną skontaktować wypełniając poniższy formularz kontaktowy lub po prostu dzwoniąc pod numer +49 89 89 674 804 (Monachium) .
Nie mogę się doczekać naszego wspólnego projektu.
Xpert.Digital – Konrad Wolfenstein
Xpert.Digital to centrum przemysłu skupiające się na cyfryzacji, inżynierii mechanicznej, logistyce/intralogistyce i fotowoltaice.
Dzięki naszemu rozwiązaniu do rozwoju biznesu 360° wspieramy znane firmy od rozpoczęcia nowej działalności po sprzedaż posprzedażną.
Wywiad rynkowy, smarketing, automatyzacja marketingu, tworzenie treści, PR, kampanie pocztowe, spersonalizowane media społecznościowe i pielęgnacja leadów to część naszych narzędzi cyfrowych.
Więcej informacji znajdziesz na: www.xpert.digital - www.xpert.solar - www.xpert.plus