Искусственный интеллект в финансовой журналистике: Bloomberg борется с неисправным ИИ резюме
Предварительная версия Xpert
Выбор голоса 📢
Опубликовано по адресу: 6 апреля 2025 года / Обновление с: 6 апреля 2025 г. - Автор: Конрад Вольфенштейн
Ай в настоящее время достиг в журналистике?
Подходит ли реализация искусственного интеллекта для повседневного использования? Ухабительный старт Bloomberg с автоматическими резюме
Интеграция искусственного интеллекта в журналистику представляет медиа -компании со сложными проблемами, как показывает текущий случай Bloomberg. Служба финансового обучения экспериментирует с сгенерированными ИИ Сводка для своих статей с января 2025 года, но ей пришлось исправить не менее 36 неправильных резюме. Эта ситуация иллюстрирует трудности в реализации систем ИИ в редакционной области, в частности, в отношении точности, надежности и доверия к автоматизированному контенту. Следующие разделы проливают свет на конкретные проблемы в Bloomberg, установили их в контексте общих проблем ИИ и обсуждают возможные решения для успешной интеграции ИИ в журналистику.
Подходит для:
- Trusty AI: Европейская карта Трампа и вероятность взять на себя ведущую роль в искусственном интеллекте
Проблемное проникновение Bloomberg в контент с созданием AI
Восприимчивость собраний ИИ
Bloomberg, ведущая мировая компания Financial News, начала размещать точки смены в качестве резюме в начале своих статей в начале 2025 г. Эти проблемы особенно проблематичны для такой компании, как Bloomberg, которая известна своей точной финансовой отчетностью и чья информация часто может оказывать непосредственное влияние на инвестиционные решения. Необходимость многочисленных исправлений подрывает уверенность в надежности этой новой технологии и поднимает вопросы о преждевременной реализации систем ИИ в журналистике.
Особенно значительная ошибка произошла, когда Bloomberg сообщил о запланированной Autozölle президента Трампа. В то время как в реальной статье правильно говорилось, что Трамп, возможно, объявит тарифы в тот же день, сгенерированное ИИ резюме содержала неверную информацию о времени более полной таможенной меры. В другом случае в сводке ИИ неправильно утверждалось, что президент Трамп уже ввел тарифы против Канады в 2024 году. Такие ошибки показывают пределы ИИ в интерпретации сложных сообщений и рисков, когда публикуется необычный автоматический контент.
В дополнение к ложной дате, ошибки также включали неправильные числа и неправильные приписывания действий или заявлений о людях или организациях. Эти типы ошибок, часто называемых «галлюцинациями», представляют собой особую проблему для систем ИИ, поскольку они могут звучать правдоподобно и поэтому их трудно распознать, если нет тщательного обзора человека. Частота этих ошибок в Bloomberg подчеркивает необходимость надежных процессов обзора и поднимает вопросы о зрелости используемой технологии ИИ.
Реакция Блумберга на проблемы ИИ
В официальном заявлении Bloomberg подчеркнул, что 99 процентов из -за ИИ -образований соответствуют редакционным стандартам. Согласно своим собственным заявлениям, компания ежедневно публикует тысячи статей и, следовательно, рассматривает частоту ошибок относительно низкой. Согласно его собственным заявлениям, Bloomberg при необходимости при необходимости придает значение прозрачности и исправляет или обновляет элементы. Также было подчеркнуто, что журналисты полностью контролируют, опубликована ли резюме ИИ или нет.
Джон Миклетвейт, главный редактор Bloomberg, описал причины краткого изложения AI в эссе 10 января, которая была основана на лекции в Сити Сент-Джордж, Лондонский университет. Он объяснил, что клиенты ценят их, потому что они могут быстро понять, что такое история, в то время как журналисты более скептически относятся. Он признал, что журналисты опасаются, что читатели могут полагаться только на резюме и больше не читают реальную историю. Тем не менее, Миклетвейт подчеркнул, что ценность резюме ИИ зависит исключительно от качества основной истории, и люди все еще имеют решающее значение для них.
Пресс -секретарь Bloomberg заявила The New York Times, что отзывы об резюме были в целом позитивными и что компания продолжала улучшать опыт. Это утверждение указывает на то, что Bloomberg хочет захватить, несмотря на проблемы использования стратегии использования ИИ для резюме, но с повышенным вниманием к обеспечению качества и уточнению используемой технологии.
ИИ в журналистике: тема, которая имеет отношение к отрасли
Опыт других медиа -компаний с ИИ
Bloomberg - не единственная медиа -компания, которая экспериментирует с интеграцией ИИ в свои журналистские процессы. Многие новостные организации пытаются выяснить, как вы можете лучше всего интегрировать эту новую технологию в свою отчетную и редакционную работу. Газетная цепочка Gannett использует аналогичные сгенерированные ИИ резюме для ваших статей, и The Washington Post разработала инструмент под названием «Спросите пост», который генерирует ответы на вопросы из опубликованных почтовых предметов. Это широкое усыновление показывает значительный интерес медиа -индустрии в технологиях искусственного интеллекта, несмотря на связанные с ними риски и проблемы.
Проблемы с инструментами ИИ также возникли в других медиа -компаниях. В начале марта Los Angeles Times удалила свой инструмент AI из статьи о мнениях после того, как технология описала Ku-klux-Klan как нечто иное, чем расистская организация. Этот инцидент показывает, что проблемы, с которыми сталкивается Bloomberg, не изолированы, а симптоматически для более широких проблем с интеграцией ИИ в журналистику. Существует схема, в которой технология еще не достаточно зрела, чтобы надежно работать без человека, особенно с чувствительными или сложными темами.
Эти примеры иллюстрируют напряжение между стремлением к инновациям и эффективности с помощью ИИ, с одной стороны, и необходимостью поддерживать журналистские стандарты и точность с другой. Медиа -компании должны выполнять баланс: они хотят извлечь выгоду из преимуществ ИИ, не рискуя доверием своих читателей и не ставя под угрозу основные журналистские принципы. Опыт Bloomberg и другие новостные организации служат важными учениями для всей отрасли о возможностях и ограничениях ИИ в журналистике.
Подходит для:
- Одна из причин нерешительного использования ИИ: 68% HR-менеджеров жалуются на отсутствие в компаниях ноу-хау в области ИИ.
Особая проблема в финансовой журналистике
В финансовом секторе, где Bloomberg выступает в качестве одной из ведущих разведывательных услуг, требования к точности и надежности особенно высоки. Влияние неверной информации может иметь здесь значительные финансовые последствия, поскольку инвесторы и финансовые эксперты принимают решения на основе этой новости. Эта особая ответственность делает интеграцию технологий искусственного интеллекта в финансовую журналистику еще большей проблемой, чем в других областях отчетности.
Интересно, что «генералист-ки» превысил специальную KI Bloomberg в своей области, анализ финансовых данных. По оценкам, Bloomberg инвестировал не менее 2,5 миллионов долларов в разработку своего собственного финансового ИИ, но даже через год после введения в конце марта 2023 года стало ясно, что общие модели ИИ, такие как CHATGPT и GPT-4, дают лучшие результаты в этой области. Это иллюстрирует быстрое развитие в области искусственного интеллекта и трудность для компаний, чтобы не отставать от специализированных решений, если общие модели становятся все более эффективными.
🎯🎯🎯 Воспользуйтесь обширным пятикратным опытом Xpert.Digital в комплексном пакете услуг | НИОКР, XR, PR и SEM
Машина для 3D-рендеринга AI и XR: пятикратный опыт Xpert.Digital в комплексном пакете услуг, исследования и разработки XR, PR и SEM — Изображение: Xpert.Digital
Xpert.Digital обладает глубокими знаниями различных отраслей. Это позволяет нам разрабатывать индивидуальные стратегии, которые точно соответствуют требованиям и задачам вашего конкретного сегмента рынка. Постоянно анализируя тенденции рынка и следя за развитием отрасли, мы можем действовать дальновидно и предлагать инновационные решения. Благодаря сочетанию опыта и знаний мы создаем добавленную стоимость и даем нашим клиентам решающее конкурентное преимущество.
Подробнее об этом здесь:
Качество данных и модели ИИ: невидимые камни преткновения современных технологий
Фундаментальные проблемы генеративного ИИ
Проблема галлюцинации в моделях ИИ
Одной из наиболее фундаментальных проблем для систем ИИ, которые также стали ясны в резюме Bloomberg, является проблема «галлюцинаций», то есть тенденция моделей ИИ, создавать правдоподобно, но на самом деле неверную информацию. Эта проблема возникает, когда системы ИИ генерируют контент, который выходит за рамки предоставленной им информации, или если они неверно истолковывают данные. Такие галлюцинации особенно проблематичны в журналистике, где верные и точность имеют решающее значение.
Проблемы, испытываемые Bloomberg, являются именно такими галлюцинациями: «изобретенные» данные ИИ, такие как вводная дата автоматических обязанностей Трампа или неправильно утверждали, что Трамп уже наложил бы тарифы против Канады в 2024 году. Этот тип ошибок подчеркивает ограничения современной технологии ИИ, особенно когда она приходит к точной интерпретации сложной информации.
Эксперты показывают, что галлюцинации могут быть вызваны различными факторами, среди прочего, кстати, кстати подсказки и тексты кодируются. Большие языковые модели (LLMS) связаны с рядом чисел, поэтому векторные кодировки -назовываемые. В случае неоднозначных слов, таких как «банк» (который может описать как финансовое учреждение, так и места)), может быть кодирование по значению, чтобы избежать двусмысленности. Каждая ошибка в кодировании и декодировании представлений и текстов может привести к генеративным галлюцинированным ИИ.
Прозрачность и понятность решений ИИ
Другая фундаментальная проблема с системами ИИ-отсутствие прозрачности и отслеживаемости процессов принятия решений. С некоторыми методами ИИ больше не понятно, как возникает определенный прогноз или определенный результат или почему система ИИ достигла конкретного ответа в случае конкретного вопроса. Это отсутствие прозрачности, часто называемое «проблемой черного ящика», затрудняет выявление и исправление ошибок, прежде чем они будут опубликованы.
Прослеживаемость особенно важна в таких областях, как журналистика, где решения о содержании должны быть прозрачными и оправданными. Если Bloomberg и другие медиа -компании не могут понять, почему их ИИ генерирует неправильные резюме, будет трудно внести системные улучшения. Вместо этого они полагаются на реактивные исправления после того, как ошибки уже произошли.
Эта проблема также определяется экспертами из бизнеса и науки. Хотя это в первую очередь техническая задача, это также может привести к проблемным результатам социальной или юридической точки зрения в определенных областях применения. В случае Bloomberg это может привести к потере доверия среди читателей или в худшем случае к финансовым решениям, основанным на неправильной информации.
Зависимость от качества данных и масштаба
Кроме того, приложения, основанные на ИИ, зависят от качества данных и алгоритмов. Таким образом, систематические ошибки в данных или алгоритмах часто не могут быть распознаны с учетом размера и сложности используемых данных. Это еще одна фундаментальная проблема, с которой Bloomberg и другие компании должны иметь дело при внедрении систем ИИ.
Проблема с объемом данных - ИИ может учитывать только относительно небольшие «контекстные окна» при обработке команд, подсказка, действительно сократилась в последние годы, но остается проблемой. Модель Google KI «Gemini 1.5 Pro 1M» уже быстро обрабатывает один в размере 700 000 слов или часа видео-более чем в 7 раз больше, чем лучшая модель GPT от Openaai. Тем не менее, тесты показывают, что искусственный интеллект может искать данные, но испытывает трудности с сбором отношений.
Подходит для:
- Снижение затрат и оптимизация эффективности являются доминирующими бизнес-принципами-риск и выбор правильной модели ИИ
Подходы к решению и будущие события
Человеческое наблюдение и редакционные процессы
Очевидным решением проблем, с которыми сталкивается Bloomberg, является повышенный мониторинг человеческого контента, генерируемого ИИ. Bloomberg уже подчеркнул, что журналисты полностью контролируют, опубликована ли сформулированное ИИ резюме или нет. Тем не менее, этот контроль должен быть эффективно осуществлен, что означает, что у редакторов должно быть достаточно времени, чтобы проверить саммиты ИИ, прежде чем они будут опубликованы.
Реализация надежных редакционных процессов для проверки контента, сгенерированного AI, имеет решающее значение для минимизации ошибок. Это может включать в себя, что все саммиты ИИ должны быть проверены по крайней мере одним человеческим редактором, прежде чем они будут опубликованы, или что определенные типы информации (такие как данные, числа или атрибуты) особенно тщательно проверены. Такие процессы увеличивают рабочую нагрузку и, таким образом, снижают часть повышения эффективности с помощью ИИ, но необходимы для защиты точности и достоверности.
Технические улучшения в моделях ИИ
Техническая разработка моделей ИИ является еще одним важным подходом к решению текущих проблем. Уже с GPT-4 галлюцинации значительно снизились по сравнению с предшественником GPT-3,5. Самая последняя модель от антропного, «Claude 3 Opus», показывает еще меньше галлюцинаций в начальных тестах. Вскоре частота ошибок голосовых моделей должна быть ниже, чем у среднего человека. Тем не менее, языковые модели ИИ, вероятно, не будут безупречными до дальнейшего уведомления, в отличие от компьютеров.
Многообещающим техническим подходом является «смесь экспертов»: несколько небольших специальных моделей подключены к сети затвора. Вход в систему анализируется воротами, а затем при необходимости передается одному или нескольким экспертам. В конце концов, ответы на общее слово объединяются. Таким образом, можно избежать, что вся модель всегда должна стать активной в своей сложности. Этот тип архитектуры может потенциально повысить точность, используя специализированные модели для определенных типов информации или доменов.
Реалистичные ожидания и прозрачное общение
В конце концов, важно иметь реалистичные ожидания систем ИИ и прозрачно общаться по их навыкам и пределам. Системы ИИ специально определены для конкретного контекста приложения сегодня и далеко не сравнимы с человеческим интеллектом. Эти знания должны привести к реализации ИИ в журналистике и других областях.
Bloomberg и другие медиа-компании должны прозрачно сообщать об использовании ИИ и прояснить, что контент, сгенерированный AI, может быть неверным. Это может быть сделано с помощью явной маркировки контента, сгенерированного ИИ, процессов коррекции прозрачной ошибки и открытой связи в пределах используемой технологии. Такая прозрачность может помочь поддерживать доверие читателя, даже если возникают ошибки.
Почему интеграция ИИ терпит неудачу в журналистике без людей
Опыт Bloomberg с помощью ИИ, генерируемых резюме, иллюстрирует сложные проблемы в интеграции искусственного интеллекта в журналистику. По меньшей мере 36 ошибок, которые должны были быть исправлены с января, показывают, что, несмотря на его потенциал, технология еще не достаточно взрослой, чтобы их можно было надежно использовать без тщательного наблюдения за человеком. Проблемы, с которыми сталкивается Bloomberg, не являются уникальными, но отражают фундаментальные проблемы ИИ, такие как галлюцинации, отсутствие прозрачности и зависимость от высоких данных.
Для успешной интеграции ИИ в журналистику требуется несколько подходов: надежные редакционные процессы для обзора контента, генерируемого ИИ, непрерывных технических улучшений в самих моделях ИИ и прозрачное общение о навыках и пределах используемой технологии. Опыт Bloomberg может послужить ценным уроком для других медиа -компаний, которые планируют аналогичные реализации ИИ.
Будущее журналистики на основе искусственного интеллекта зависит от того, насколько хорошо использовать повышение эффективности и инновационные возможности ИИ без ущерба для журналистских стандартов. Ключ заключается в сбалансированном подходе, который рассматривает технологию как инструмент, который поддерживает человеческих журналистов, а не заменяет их. Как удачно отметил Джон Миклетвейт из Bloomberg: «Сводка ИИ настолько же хороша, как и история, на которой она основана. И люди все еще важны для историй».
Мы здесь для вас - советы - планирование - реализация - управление проектами
☑️ Поддержка МСП в разработке стратегии, консультировании, планировании и реализации.
☑️ Создание или корректировка цифровой стратегии и цифровизации.
☑️ Расширение и оптимизация процессов международных продаж.
☑️ Глобальные и цифровые торговые платформы B2B
☑️ Пионерское развитие бизнеса
Буду рад стать вашим личным консультантом.
Вы можете связаться со мной, заполнив контактную форму ниже, или просто позвонить мне по телефону +49 89 89 674 804 (Мюнхен) .
Я с нетерпением жду нашего совместного проекта.
Xpert.Digital - Конрад Вольфенштейн
Xpert.Digital — это промышленный центр с упором на цифровизацию, машиностроение, логистику/внутреннюю логистику и фотоэлектрическую энергетику.
С помощью нашего решения для развития бизнеса на 360° мы поддерживаем известные компании, начиная с нового бизнеса и заканчивая послепродажным обслуживанием.
Аналитика рынка, маркетинг, автоматизация маркетинга, разработка контента, PR, почтовые кампании, персонализированные социальные сети и привлечение потенциальных клиентов являются частью наших цифровых инструментов.
Дополнительную информацию можно узнать на сайте: www.xpert.digital - www.xpert.solar - www.xpert.plus