Штучний інтелект з фінансової журналістики: Блумберг бореться з несправним резюме AI
Xpert попередня випуск
Вибір голосу 📢
Опубліковано: 6 квітня 2025 р. / Оновлення з: 6 квітня 2025 р. - Автор: Конрад Вольфенштейн
Наразі AI дістався до журналістики?
Чи підходить AI впровадження для повсякденного використання? Блумббергський пустковий початок з автоматизованих підсумків
Інтеграція штучного інтелекту в журналістику представляє медіа -компаній зі складними проблемами, як показує поточний випадок Bloomberg. Служба фінансової інструкції експериментує з підсумками, що генеруються AI, для своїх статей з січня 2025 року, але довелося виправити щонайменше 36 неправильних резюме. Ця ситуація ілюструє труднощі у впровадженні систем AI в редакції, зокрема, що стосується точності, надійності та довіри до автоматизованого вмісту. Наступні розділи проливають світло на конкретні проблеми в Bloomberg, встановили їх у контексті загальних викликів ШІ та обговорюють можливі рішення для успішної інтеграції ШІ в журналістику.
Підходить для цього:
Проблемне введення Bloomberg у вміст, що генерується AI,
Сприйнятливість до зустрічей AI
Bloomberg, провідна світова компанія з фінансових новин, почала розміщувати точки зору як резюме на початку своїх статей на початку 2025 року. З моменту цього вступу 15 січня, однак, компанії довелося виправити щонайменше три десятки цих автоматизованих резюме, що свідчить про значні проблеми з точністю вмісту, що генерується AI. Ці проблеми є особливо проблематичними для такої компанії, як Bloomberg, яка відома своєю точною фінансовою звітністю та інформація якої часто може мати прямий вплив на інвестиційні рішення. Необхідність численних виправлень підриває довіру до надійності цієї нової технології та викликає питання щодо передчасної реалізації систем AI в журналістиці.
Особливо значуща помилка сталася, коли Bloomberg повідомив про запланований Autozölle президента Трампа. Незважаючи на те, що фактична стаття правильно зазначила, що Трамп, можливо, оголосить тарифи в той же день, підсумок, що генерується AI, містило неправильну інформацію про час більш всебічного звичаї. В іншому випадку підсумок AI неправильно стверджував, що президент Трамп вже встановив тарифи проти Канади в 2024 році. Такі помилки показують межі ШІ в інтерпретації складних повідомлень та ризиків, коли публікується незвичний тестуваний автоматизований вміст.
На додаток до помилкової дати, помилки також включали неправильні числа та неправильні приписи дій чи заяви про людей чи організації. Ці типи помилок, які часто називають "галюцинаціями", є особливим викликом для систем AI, оскільки вони можуть звучати правдоподібно і тому важко визнати, чи немає ретельного огляду людини. Частота цих помилок у Bloomberg підкреслює необхідність надійних процесів перегляду та викликає питання про зрілість використовуваної технології AI.
Реакція Блумберга на проблеми AI
В офіційній заяві Блумберг підкреслив, що 99 відсотків, створених АІ, відповідатимуть редакційним стандартам. Згідно з власними заявами, компанія щодня публікує тисячі статей і тому вважає, що рівень помилок відносно низький. Відповідно до власних тверджень, Bloomberg надає важливість прозорості та виправляє або оновлені предмети, якщо це необхідно. Також було підкреслено, що журналісти мають повний контроль над тим, опубліковано чи не опубліковано резюме AI чи ні.
Джон Міклетвейт, головний редактор Bloomberg, описав причини підсумків AI в есе 10 січня, який базувався на лекції в Лондонському університеті Сент-Джорджа. Він пояснив, що клієнти цінують їх, оскільки вони можуть швидко визнати, що таке історія, тоді як журналісти - більш скептичні. Він визнав, що репортери побоюються, що читачі можуть лише покладатися на резюме і більше не читають фактичної історії. Тим не менш, Micklethwait підкреслив, що цінність резюме ШІ залежить виключно від якості основної історії, і люди все ще мають вирішальне значення для них.
Прес -секретар Bloomberg повідомив The New York Times, що відгуки про резюме, як правило, позитивні і що компанія продовжувала покращувати досвід. Це твердження вказує на те, що Bloomberg хоче зафіксувати, незважаючи на проблеми використання стратегії використання AI для підсумків, але із збільшенням уваги на забезпеченні якості та вдосконаленні використовуваної технології.
AI в журналістиці: тема, що стосується галузі
Досвід інших медіа -компаній з ШІ
Bloomberg - не єдина медіа -компанія, яка експериментує з інтеграцією AI у свої журналістські процеси. Багато новинних організацій намагаються з’ясувати, як можна найкраще інтегрувати цю нову технологію у свою звітність та редакційну роботу. Ланцюжок газет Gannett використовує подібні резюме для ваших статей, а Washington Post розробив інструмент під назвою "Запитайте публікацію", який генерує відповіді на запитання з опублікованих пунктів поштового зв’язку. Це широке прийняття показує значний інтерес медіа -індустрії в технологіях AI, незважаючи на пов'язані з цим ризики та виклики.
Проблеми з інструментами AI також виникли в інших медіа -компаній. На початку березня Los Angeles Times видалив свій інструмент AI із статті думки після того, як технологія описала Ку-Клюкс-Клана як щось інше, ніж расистська організація. Цей інцидент ілюструє, що виклики, з якими стикається Блумберг, не є ізольованими, а симптоматично для більш широких проблем з інтеграцією ШІ в журналістику. Існує закономірність, в якій технологія ще недостатньо зріла, щоб надійно працювати без нагляду людини, особливо з чутливими або складними темами.
Ці приклади ілюструють напругу між прагненням до інновацій та ефективності AI, з одного боку, та необхідністю підтримувати журналістські стандарти та точність з іншого. Медіа -компанії повинні зробити акт балансування: вони хочуть скористатися перевагами ШІ, не ризикуючи довірою своїх читачів або не компрометуючи основні журналістські принципи. Досвід Блумберга та інші новинні організації служать важливими вченнями для всієї галузі щодо можливостей та меж ШІ в журналістиці.
Підходить для цього:
- Однією з причин вагання AI використання: 68 % менеджерів з персоналу скаржаться на відсутність ноу-хау в компанії AI у компаніях
Спеціальний виклик у фінансовій журналістиці
У фінансовому секторі, де Bloomberg виступає однією з провідних розвідувальних служб, вимоги до точності та надійності особливо високі. Ефекти неправильної інформації тут можуть мати значні фінансові наслідки, оскільки інвестори та фінансові експерти приймають рішення на основі цієї новини. Ця особлива відповідальність робить інтеграцію технологій AI у фінансову журналістику ще більшим викликом, ніж в інших сферах звітності.
Цікаво, що "генераліст-кі" перевищив спеціальний KI Bloomberg у своєму домені, аналіз фінансового періоду. Bloomberg оцінив щонайменше 2,5 мільйона доларів, вкладених у розробку власного фінансового ШІ, але навіть через рік після введення в кінці березня 2023 року стало зрозуміло, що загальні моделі AI, такі як Chatgpt та GPT-4, дають кращі результати в цій галузі. Це ілюструє швидкий розвиток у галузі штучного інтелекту та труднощів для компаній, щоб не відставати від спеціалізованих рішень, якщо загальні моделі стають все більш ефективними.
🎯🎯🎯 Перевага від великої, п’яти -часової експертизи від Xpert.digital у комплексному пакеті обслуговування | R&D, XR, PR & SEM
Машина AI & XR-3D-рендерінгу: п’ять разів досвід від Xpert.digital у комплексному пакеті служби, R&D XR, PR & SEM-IMAGE: Xpert.digital
Xpert.digital має глибокі знання в різних галузях. Це дозволяє нам розробити кравці, розроблені стратегії, пристосовані до вимог та проблем вашого конкретного сегменту ринку. Постійно аналізуючи тенденції на ринку та здійснюючи розвиток галузі, ми можемо діяти з передбаченням та пропонувати інноваційні рішення. З поєднанням досвіду та знань ми створюємо додаткову цінність та надаємо своїм клієнтам вирішальну конкурентну перевагу.
Детальніше про це тут:
Якість даних та моделі AI: Невидимі камені спотикання сучасних технологій
Фундаментальні виклики генеративного ШІ
Проблема галюцинації в моделях AI
Однією з найбільш фундаментальних проблем для систем AI, які також стали зрозумілими в підсумках Блумберга, є проблема «галюцинацій»-тобто тенденції моделей ШІ, щоб генерувати правдоподібно звучання, але насправді неправильну інформацію. Ця проблема виникає, коли системи AI генерують вміст, який виходить за рамки наданої їм інформації або якщо вони неправильно трактують дані. Такі галюцинації є особливо проблематичними в журналістиці, де вірні та точність мають вирішальне значення.
Проблеми, які відчувають Блумберг, - це точно такі галюцинації: "винайдені" дані, такі як вступна дата автоматичних обов'язків Трампа або неправильно стверджують, що Трамп вже наклав би тарифи проти Канади в 2024 році. Цей тип помилок підкреслює межі нинішньої технології ШІ, особливо коли йдеться про точну інтерпретацію складної інформації.
Експерти вказують на те, що галюцинації можуть бути спровоковані різними факторами, серед іншого, як кодуються підказки та тексти. Великі мовні моделі (LLMS) пов'язують терміни з низкою чисел, таким чином -зведеним векторним кодуванням. У випадку неоднозначних слів, таких як "банк" (які можуть описати як фінансову установу, так і сидіння)), може бути кодування за значенням, щоб уникнути неоднозначності. Кожна помилка кодування та розшифровки представлень та текстів може призвести до генеративного галюцинації AI.
Прозорість та зрозуміло рішення AI
Ще одна фундаментальна проблема з системами AI-відсутність прозорості та відстеження процесів прийняття рішень. За допомогою деяких методів ШІ вже не зрозуміло, як виникає певний прогноз чи певний результат або чому система AI досягла конкретної відповіді у разі конкретного питання. Ця відсутність прозорості, яку часто називають "проблемою чорної скриньки", ускладнює виявлення та виправлення помилок до їх опублікування.
Простежуваність особливо важлива в таких сферах, як журналістика, де рішення щодо змісту повинні бути прозорими та виправданими. Якщо Bloomberg та інші медіа -компанії не можуть зрозуміти, чому їх AI генерує неправильні резюме, системні вдосконалення буде важко. Натомість вони покладаються на реактивні виправлення після того, як вже виникли помилки.
Цей виклик також визначається експертами з бізнесу та науки. Хоча це насамперед технічна проблема, це також може призвести до проблемних результатів із соціальної чи юридичної точки зору в певних сферах застосування. У випадку Bloomberg це може призвести до втрати довіри серед читачів або в гіршому випадку до фінансових рішень на основі неправильної інформації.
Залежність від якості даних та обсягу
Крім того, програми на основі ШІ залежать від якості даних та алгоритмів. Таким чином, систематичні помилки в даних або алгоритмах часто не можуть бути розпізнані з огляду на розмір та складність використовуваних даних. Це ще одне фундаментальне завдання, з яким доводиться боротися Bloomberg та іншим компаніям при впровадженні систем AI.
Проблема з кількістю даних - AI може враховувати лише порівняно невеликі «контекстні вікна» в обробці команд, підказка, справді скоротилася в останні роки, але залишається проблемою. Модель Google KI "Gemini 1.5 Pro 1M" вже може швидко обробляти один у розмірі 700 000 слів або годину відеоролики, ніж у 7 разів більше, ніж найкраща модель GPT від OpenAai. Тим не менш, тести показують, що штучний інтелект може шукати дані, але має труднощі збору відносин.
Підходить для цього:
- Зниження витрат та оптимізація ефективності є домінуючими принципами бізнесу-ризик та вибір правильної моделі AI
Підходи рішення та майбутні розробки
Спостереження за людьми та редакційні процеси
Очевидним рішенням проблем, з якими виникає Bloomberg, є підвищення моніторингу людини, що генерується вмістом ШІ. Bloomberg вже підкреслив, що журналісти мають повний контроль над тим, опубліковано чи ні, опубліковано резюме. Однак цей контроль повинен бути ефективно здійснений, а це означає, що редактори повинні мати достатньо часу, щоб перевірити саміт AI до їх опублікування.
Впровадження надійних редакційних процесів для перевірки вмісту, що генерується AI, має вирішальне значення для мінімізації помилок. Це може включати, що всі вершини AI повинні бути перевірені щонайменше одним редактором людини до їх опублікування або що певні типи інформації (наприклад, дані, цифри чи атрибуції) особливо ретельно перевіряються. Такі процеси збільшують навантаження і, таким чином, зменшують частину підвищення ефективності ШІ, але необхідні для захисту точності та надійності.
Технічні вдосконалення в моделях AI
Технічний розвиток самих моделей AI є ще одним важливим підходом до вирішення поточних проблем. Вже з GPT-4 галюцинації значно знизилися порівняно з попередником GPT-3,5. Найновіша модель з антропічного "Claude 3 Opus" показує ще менше галюцинацій у початкових тестах. Незабаром швидкість помилок голосових моделей повинна бути нижчою, ніж у середньої людини. Тим не менш, мові моделі AI, ймовірно, не будуть бездоганними до подальшого повідомлення, на відміну від комп’ютерів.
Перспективним технічним підходом є «суміш експертів»: кілька невеликих спеціальних моделей підключені до мережі воріт. Введення в систему аналізується за воротами, а потім передається одному або кільком експертам, якщо це необхідно. Зрештою, відповіді на загальне слово поєднуються. Таким чином, можна уникнути, що вся модель завжди повинна стати активною у своїй складності. Цей тип архітектури може потенційно підвищити точність, використовуючи спеціалізовані моделі для певних типів інформації або доменів.
Реалістичні очікування та прозорого спілкування
Зрештою, важливо мати реалістичні очікування систем AI та прозоро спілкуватися через свої навички та межі. Системи AI спеціально визначені для конкретного контексту програми сьогодні і далеко не порівнянні з людським інтелектом. Ці знання повинні призвести до впровадження ШІ в журналістиці та інших сферах.
Bloomberg та інші медіа-компанії повинні прозоро спілкуватися про їх використання AI та дати зрозуміти, що вміст, що генерується AI, може бути невірним. Це можна зробити шляхом явного маркування вмісту, створеного AI, прозорих процесів виправлення помилок та відкритої комунікації в межах використовуваної технології. Така прозорість може допомогти зберегти довіру читача, навіть якщо виникають помилки.
Чому інтеграція AI провалюється в журналістиці без людей
Досвід Bloomberg з AI, створеними підсумками, ілюструє складні виклики в інтеграції штучного інтелекту в журналістику. Щонайменше 36 помилок, які довелося виправити з січня, показують, що, незважаючи на його потенціал, технологія ще недостатньо зріла, щоб надійно використовувати без ретельного людського спостереження. Проблеми, з якими стикається Bloomberg, не є унікальними, але відображають основні проблеми ШІ, такі як галюцинації, відсутність прозорості та залежність від даних високої якості.
Для успішної інтеграції ШІ в журналістику потрібно кілька підходів: надійні редакційні процеси для огляду вмісту, створеного AI, постійних технічних вдосконалень у самих моделях AI та прозорого спілкування про навички та межі використовуваної технології. Досвід Bloomberg може слугувати цінним уроком для інших медіа -компаній, які планують подібні реалізації AI.
Майбутнє журналістики, що базується на ШІ, залежить від того, наскільки добре використовувати підвищення ефективності та інноваційні можливості ШІ без шкоди для журналістських стандартів. Ключовим є врівноважений підхід, який розглядає технологію як інструмент, який підтримує людських журналістів, а не замінювати їх. Як влучно зазначив Джон Міклетвейт з Блумберга: "Підсумок AI є таким же хорошим, як і історія, на якій вона базується. І люди все ще важливі для історій".
Ми там для вас - поради - планування - впровадження - управління проектами
☑ Підтримка МСП у стратегії, порадах, плануванні та впровадженні
☑ Створення або перестановка цифрової стратегії та оцифрування
☑ Розширення та оптимізація міжнародних процесів продажів
☑ Глобальні та цифрові торгові платформи B2B
☑ Піонерський розвиток бізнесу
Я радий допомогти вам як особистого консультанта.
Ви можете зв’язатися зі мною, заповнивши контактну форму нижче або просто зателефонуйте мені за номером +49 89 674 804 (Мюнхен) .
Я з нетерпінням чекаю нашого спільного проекту.
Xpert.digital - Konrad Wolfenstein
Xpert.digital - це центр для промисловості з фокусом, оцифруванням, машинобудуванням, логістикою/внутрішньологічною та фотоелектричною.
За допомогою нашого рішення щодо розвитку бізнесу на 360 ° ми підтримуємо відомі компанії від нового бізнесу до після продажу.
Ринкова розвідка, маха, автоматизація маркетингу, розвиток контенту, PR, поштові кампанії, персоналізовані соціальні медіа та виховання свинцю є частиною наших цифрових інструментів.
Ви можете знайти більше на: www.xpert.digital - www.xpert.solar - www.xpert.plus