Штучний інтелект у фінансовій журналістиці: Bloomberg бореться з помилковими резюме, створеними штучним інтелектом
Xpert попередня випуск
Вибір голосу 📢
Опубліковано: 6 квітня 2025 р. / Оновлено: 6 квітня 2025 р. – Автор: Konrad Wolfenstein

Штучний інтелект у фінансовій журналістиці: Bloomberg бореться з помилковими резюме, створеними штучним інтелектом – Зображення: Xpert.Digital
Чи досягнуто меж ШІ в журналістиці наразі?
Чи підходять впровадження штучного інтелекту для щоденного використання? Непростий старт Bloomberg з автоматизованими зведеннями
Інтеграція штучного інтелекту в журналістику ставить перед медіакомпаніями складні виклики, як демонструє нещодавній випадок Bloomberg. Служба фінансових новин експериментує з анотаціями, згенерованими штучним інтелектом, для своїх статей з січня 2025 року, але вже довелося виправити щонайменше 36 помилкових анотацій. Ця ситуація підкреслює труднощі впровадження систем штучного інтелекту в редакційні процеси, зокрема щодо точності, надійності та довіри до автоматизованого контенту. У наступних розділах розглядаються конкретні проблеми Bloomberg, розглядаються в контексті загальних проблем, пов'язаних зі штучним інтелектом, а також обговорюються потенційні рішення для успішної інтеграції штучного інтелекту в журналістику.
Підходить для цього:
Проблемний вхід Bloomberg на ринок контенту, створеного штучним інтелектом
Схильність до помилок у зведених даних, розроблених штучним інтелектом
Bloomberg, провідна світова компанія фінансових новин, почала використовувати марковані списки, згенеровані штучним інтелектом, як резюме на початку своїх статей на початку 2025 року. Однак, з моменту їх впровадження 15 січня, компанії довелося виправити щонайменше три десятки таких автоматизованих резюме, що свідчить про значні проблеми з точністю контенту, згенерованого штучним інтелектом. Ці проблеми викликають особливе занепокоєння у такої компанії, як Bloomberg, яка відома своєю точною фінансовою звітністю та чия інформація часто може безпосередньо впливати на інвестиційні рішення. Необхідність численних виправлень підриває довіру до надійності цієї нової технології та викликає питання щодо передчасного впровадження систем штучного інтелекту в журналістиці.
Одна особливо суттєва помилка сталася, коли Bloomberg повідомив про заплановані президентом Трампом автомобільні тарифи. Хоча в оригінальній статті правильно зазначалося, що Трамп може оголосити про тарифи того ж дня, згенерований штучним інтелектом виклад містив невірну інформацію про терміни запровадження ширшого тарифного заходу. В іншому випадку виклад, створений штучним інтелектом, помилково стверджував, що президент Трамп запровадить тарифи на Канаду вже у 2024 році. Такі помилки демонструють обмеження ШІ в інтерпретації складних новин та ризики публікації неперевіреного, автоматизованого контенту.
Окрім неправильних дат, помилки також включали неточні цифри та неправильне приписування дій чи заяв окремим особам чи організаціям. Такі типи помилок, які часто називають «галюцинаціями», створюють особливу проблему для систем штучного інтелекту, оскільки вони можуть здаватися правдоподібними і тому їх важко виявити без ретельної перевірки людиною. Частота цих помилок у Bloomberg підкреслює необхідність надійних процесів перевірки та ставить під сумнів зрілість технології штучного інтелекту, що використовується.
Реакція Bloomberg на проблеми зі штучним інтелектом
В офіційній заяві Bloomberg наголосив, що 99 відсотків його згенерованих за допомогою штучного інтелекту резюме відповідають редакційним стандартам. Компанія заявляє, що щодня публікує тисячі статей і тому вважає рівень помилок відносно низьким. Bloomberg заявляє, що цінує прозорість і виправляє або оновлює статті за потреби. Також наголосив, що журналісти мають повний контроль над тим, чи буде опубліковано згенероване за допомогою штучного інтелекту резюме.
У есе від 10 січня, заснованому на лекції в Сіті-Сент-Джордж при Лондонському університеті, Джон Міклтвейт, головний редактор Bloomberg, описав причини використання резюме на основі штучного інтелекту. Він пояснив, що клієнти цінують їх, оскільки вони можуть швидко зрозуміти суть історії, тоді як журналісти ставляться до них більш скептично. Він визнав, що журналісти бояться, що читачі можуть покладатися виключно на резюме та нехтувати основною історією. Тим не менш, Міклтвейт наголосив, що цінність резюме на основі штучного інтелекту повністю залежить від якості основної історії, і для цього людський досвід залишається вирішальним.
Речник Bloomberg повідомив The New York Times, що відгуки щодо резюме були загалом позитивними, і що компанія продовжує працювати над покращенням взаємодії з клієнтами. Ця заява свідчить про те, що, незважаючи на виниклі проблеми, Bloomberg має намір дотримуватися своєї стратегії використання штучного інтелекту для резюме, але з більшою увагою до забезпечення якості та вдосконалення використовуваних технологій.
Штучний інтелект у журналістиці: актуальна тема для всієї галузі
Досвід інших медіакомпаній зі штучним інтелектом
Bloomberg — не єдина медіакомпанія, яка експериментує з інтеграцією штучного інтелекту у свої журналістські процеси. Багато новинних організацій намагаються з'ясувати, як найкраще впровадити цю нову технологію у свою репортажну та редакційну роботу. Мережа газет Gannett використовує аналогічні згенеровані штучним інтелектом резюме для своїх статей, а The Washington Post розробила інструмент під назвою «Ask the Post», який генерує відповіді на запитання з опублікованих статей Post. Таке широке впровадження демонструє значний інтерес медіаіндустрії до технологій штучного інтелекту, незважаючи на пов'язані з ними ризики та виклики.
Інші медіакомпанії також зіткнулися з проблемами з інструментами штучного інтелекту. На початку березня газета Los Angeles Times видалила свій інструмент штучного інтелекту з авторської статті після того, як технологія описувала Ку-клукс-клан як щось інше, ніж расистську організацію. Цей інцидент ілюструє, що проблеми, з якими стикається Bloomberg, не є поодинокими, а симптоматичними для ширших проблем інтеграції штучного інтелекту в журналістику. Виникає закономірність, коли технологія ще недостатньо зріла, щоб надійно функціонувати без людського нагляду, особливо під час роботи з делікатними або складними темами.
Ці приклади ілюструють суперечність між прагненням до інновацій та ефективності завдяки штучному інтелекту, з одного боку, та необхідністю підтримувати журналістські стандарти та точність, з іншого. Медіакомпанії повинні дотримуватися балансу: вони хочуть скористатися перевагами штучного інтелекту, не ризикуючи довірою своїх читачів та не поступаючись фундаментальними журналістськими принципами. Досвід Bloomberg та інших новинних організацій слугує важливими уроками для всієї галузі щодо можливостей та обмежень штучного інтелекту в журналістиці.
Підходить для цього:
- Одна з причин нерішучого використання штучного інтелекту: 68% менеджерів з персоналу скаржаться на брак знань у сфері штучного інтелекту в компаніях
Особливий виклик у фінансовій журналістиці
У фінансовому секторі, де Bloomberg працює як один з провідних новинних сервісів, вимоги до точності та надійності особливо високі. Вплив неправдивої інформації може мати значні фінансові наслідки, оскільки інвестори та фінансові експерти базують свої рішення на цих новинах. Ця особлива відповідальність робить інтеграцію технологій штучного інтелекту у фінансову журналістику ще більшим викликом, ніж в інших сферах репортажів.
Цікаво, що «універсальний ШІ» перевершив спеціалізований ШІ Bloomberg саме у своїй галузі: аналізі фінансової звітності. За повідомленнями, Bloomberg інвестував щонайменше 2,5 мільйона доларів у розробку власного фінансового ШІ, але менш ніж через рік після його запуску наприкінці березня 2023 року стало зрозуміло, що моделі ШІ загального призначення, такі як ChatGPT та GPT-4, показали кращі результати в цій галузі. Це ілюструє швидкі темпи розвитку штучного інтелекту та труднощі для компаній встигати за спеціалізованими рішеннями, оскільки моделі загального призначення стають дедалі потужнішими.
🎯🎯🎯 Скористайтеся перевагами великої, п'ятикратної експертизи Xpert.Digital у комплексному пакеті послуг | BD, R&D, XR, PR та оптимізація цифрової видимості

Скористайтеся перевагами великого, п'ятикратного досвіду Xpert.Digital у комплексному пакеті послуг | Дослідження та розробки, XR, PR та оптимізація цифрової видимості - Зображення: Xpert.Digital
Xpert.digital має глибокі знання в різних галузях. Це дозволяє нам розробити кравці, розроблені стратегії, пристосовані до вимог та проблем вашого конкретного сегменту ринку. Постійно аналізуючи тенденції на ринку та здійснюючи розвиток галузі, ми можемо діяти з передбаченням та пропонувати інноваційні рішення. З поєднанням досвіду та знань ми створюємо додаткову цінність та надаємо своїм клієнтам вирішальну конкурентну перевагу.
Детальніше про це тут:
Якість даних та моделі штучного інтелекту: невидимі камені спотикання сучасних технологій
Фундаментальні виклики генеративного штучного інтелекту
Проблема галюцинацій у моделях штучного інтелекту
Одна з найфундаментальніших проблем систем штучного інтелекту, яку також підкреслюють у звітах Bloomberg, — це проблема «галюцинацій» — схильність моделей штучного інтелекту генерувати правдоподібну, але фактично невірну інформацію. Ця проблема виникає, коли системи штучного інтелекту створюють контент, який виходить за рамки наданої їм інформації, або коли вони неправильно інтерпретують дані. Такі галюцинації особливо проблематичні в журналістиці, де фактична точність і достовірність мають першочергове значення.
Проблеми, з якими стикається Bloomberg, є саме такими галюцинаціями: штучний інтелект «вигадував» дати, такі як дата введення автомобільних тарифів Трампа, або неправдиво стверджував, що Трамп вже запровадив тарифи на Канаду у 2024 році. Такі помилки підкреслюють обмеження сучасних технологій штучного інтелекту, особливо коли йдеться про точну інтерпретацію складної інформації.
Експерти зазначають, що галюцинації можуть бути викликані різними факторами, зокрема тим, як кодуються навчальні підказки та тексти. Моделі великих мов (LLM) пов'язують поняття з низкою чисел, відомими як векторні кодування. Для неоднозначних слів, таких як «банк» (який може стосуватися як фінансової установи, так і місця розташування), може бути одне кодування для кожного значення, щоб уникнути неоднозначності. Будь-яка помилка в кодуванні та декодуванні представлень і текстів може призвести до галюцинацій у генеративного ШІ.
Прозорість та відстеження рішень ШІ
Ще однією фундаментальною проблемою систем штучного інтелекту є відсутність прозорості та відстежуваності в процесах прийняття рішень. За допомогою деяких методів штучного інтелекту вже неможливо зрозуміти, як генерується певний прогноз або результат, або чому система штучного інтелекту дійшла конкретної відповіді на задане питання. Ця відсутність прозорості, яку часто називають «проблемою чорної скриньки», ускладнює виявлення та виправлення помилок до їх оприлюднення.
Відстеження особливо важливе в таких галузях, як журналістика, де рішення щодо контенту мають бути прозорими та обґрунтованими. Якщо Bloomberg та інші медіакомпанії не зможуть зрозуміти, чому їхній штучний інтелект генерує неправильні резюме, буде важко впровадити системні покращення. Натомість вони будуть покладатися на реактивні виправлення після того, як помилки вже сталися.
Цей виклик також визнають суттєвим експерти з бізнесу та наукових кіл. Хоча це, перш за все, технічна проблема, вона також може призвести до проблематичних результатів з суспільної чи юридичної точки зору в певних сферах застосування. У випадку Bloomberg це може призвести до втрати довіри читачів або, в найгіршому випадку, до фінансових рішень, заснованих на неточній інформації.
Залежність від якості та обсягу даних
Крім того, програми на основі штучного інтелекту залежать від якості даних та алгоритмів. З огляду на розмір та складність використовуваних даних, систематичні помилки в даних або алгоритмах часто залишаються непоміченими. Це ще одна фундаментальна проблема, яку Bloomberg та інші компанії повинні подолати під час впровадження систем штучного інтелекту.
Проблема з обсягом даних — ШІ може враховувати лише відносно невеликі «контекстні вікна» під час оброблення команд або підказок — значно скоротилася за останні роки, але залишається проблемою. Модель ШІ від Google «Gemini 1.5 Pro 1M» вже може обробити підказку обсягом 700 000 слів або годину відео — що більш ніж у сім разів перевищує поточну найкращу модель GPT від OpenAI. Тим не менш, тести показують, що хоча штучний інтелект може шукати дані, йому важко зрозуміти взаємозв'язки в них.
Підходить для цього:
- Зниження витрат та оптимізація ефективності є домінуючими принципами бізнесу-ризик та вибір правильної моделі AI
Рішення та майбутній розвиток
Процеси моніторингу та редагування людьми
Одним з очевидних рішень проблем, з якими зіткнувся Bloomberg, є посилення людського контролю за контентом, створеним штучним інтелектом. Bloomberg вже наголосив, що журналісти мають повний контроль над тим, чи буде опубліковано резюме, створене штучним інтелектом. Однак цей контроль має здійснюватися ефективно, а це означає, що редактори повинні мати достатньо часу для перегляду резюме, створених штучним інтелектом, перед їх публікацією.
Впровадження надійних редакційних процесів перевірки контенту, створеного штучним інтелектом, має вирішальне значення для мінімізації помилок. Це може включати вимогу про перевірку всіх резюме, створених за допомогою штучного інтелекту, принаймні одним редактором-людиною перед публікацією або особливо ретельну перевірку певних типів інформації (наприклад, даних, цифр або атрибуцій). Хоча такі процеси збільшують робоче навантаження і, таким чином, знижують деякі переваги ефективності від штучного інтелекту, вони необхідні для підтримки точності та достовірності.
Технічні вдосконалення моделей штучного інтелекту
Постійний технологічний розвиток самих моделей штучного інтелекту є ще одним важливим підходом до вирішення сучасних проблем. Галюцинації вже значно зменшилися з GPT-4 порівняно з його попередником, GPT-3.5. Остання модель Anthropic, "Claude 3 Opus", показує ще менше галюцинацій у початкових тестах. Рівень помилок моделей мовлення незабаром має бути нижчим, ніж у середньої людини. Тим не менш, на відміну від того, до чого ми звикли від комп'ютерів, моделі мовлення штучного інтелекту, ймовірно, не будуть безпомилковими в найближчому майбутньому.
Перспективним технічним підходом є «Суміш експертів»: кілька невеликих спеціалізованих моделей підключені до мережі вентилів. Вхідні дані системи аналізуються вентилем, а потім, за необхідності, передаються одному або кільком експертам. Зрештою, відповіді об'єднуються в одну вичерпну відповідь. Це дозволяє уникнути необхідності постійно активувати всю модель у всій її складності. Такий тип архітектури потенційно може підвищити точність, використовуючи спеціалізовані моделі для певних типів інформації або областей.
Реалістичні очікування та прозора комунікація
Зрештою, важливо мати реалістичні очікування щодо систем штучного інтелекту та прозоро повідомляти про їхні можливості та обмеження. Системи штучного інтелекту сьогодні спеціально визначені для конкретного контексту застосування та жодним чином не порівнянні з людським інтелектом. Це розуміння має спрямовувати впровадження штучного інтелекту в журналістиці та інших сферах.
Bloomberg та інші медіакомпанії повинні прозоро повідомляти про використання штучного інтелекту та чітко зазначати, що контент, створений штучним інтелектом, може бути недосконалим. Цього можна досягти шляхом чіткого маркування контенту, створеного штучним інтелектом, прозорих процесів виправлення помилок та відкритого спілкування щодо обмежень використовуваної технології. Така прозорість може допомогти зберегти довіру читачів, навіть коли виникають помилки.
Чому інтеграція штучного інтелекту в журналістику не вдається без людей
Досвід Bloomberg зі створенням резюме за допомогою штучного інтелекту підкреслює складні проблеми інтеграції штучного інтелекту в журналістику. Принаймні 36 помилок, які потребували виправлення з січня, демонструють, що, незважаючи на свій потенціал, технологія ще не є достатньо зрілою, щоб її можна було надійно використовувати без ретельного людського нагляду. Проблеми, з якими стикається Bloomberg, не є унікальними, а відображають фундаментальні виклики штучного інтелекту, такі як галюцинації, відсутність прозорості та залежність від високоякісних даних.
Успішна інтеграція штучного інтелекту в журналістику вимагає кількох підходів: надійних редакційних процесів рецензування контенту, створеного за допомогою штучного інтелекту, постійного технічного вдосконалення самих моделей штучного інтелекту та прозорої комунікації щодо можливостей та обмежень використовуваної технології. Досвід Bloomberg може слугувати цінним уроком для інших медіакомпаній, які планують подібне впровадження штучного інтелекту.
Майбутнє журналістики на базі штучного інтелекту залежить від того, наскільки добре ми використаємо підвищення ефективності та інноваційні можливості ШІ, не поступаючись журналістськими стандартами. Ключ полягає у збалансованому підході, який розглядає технології як інструмент підтримки журналістів-людей, а не як їх заміну. Як влучно зауважив Джон Міклтвейт з Bloomberg: «Короткий зміст, створений ШІ, настільки хороший, наскільки хороша історія, на якій він базується. І для цих історій люди все ще важливі»
Ми там для вас - поради - планування - впровадження - управління проектами
☑ Підтримка МСП у стратегії, порадах, плануванні та впровадженні
☑ Створення або перестановка цифрової стратегії та оцифрування
☑ Розширення та оптимізація міжнародних процесів продажів
☑ Глобальні та цифрові торгові платформи B2B
☑ Піонерський розвиток бізнесу
Я радий допомогти вам як особистого консультанта.
Ви можете зв’язатися зі мною, заповнивши контактну форму нижче або просто зателефонуйте мені за номером +49 89 674 804 (Мюнхен) .
Я з нетерпінням чекаю нашого спільного проекту.
Xpert.Digital - Konrad Wolfenstein
Xpert.digital - це центр для промисловості з фокусом, оцифруванням, машинобудуванням, логістикою/внутрішньологічною та фотоелектричною.
За допомогою нашого рішення щодо розвитку бізнесу на 360 ° ми підтримуємо відомі компанії від нового бізнесу до після продажу.
Ринкова розвідка, маха, автоматизація маркетингу, розвиток контенту, PR, поштові кампанії, персоналізовані соціальні медіа та виховання свинцю є частиною наших цифрових інструментів.
Ви можете знайти більше на: www.xpert.digital - www.xpert.solar - www.xpert.plus
























