金融ジャーナリズムにおける人工知能:ブルームバーグは誤ったAIの概要で戦う
Xpert プレリリース
言語の選択 📢
公開:2025年4月6日 /更新:2025年4月6日 - 著者: Konrad Wolfenstein
現在、AIはジャーナリズムに到達しましたか?
AI実装は日常の使用に適していますか?ブルームバーグの自動化された要約からのでこぼこのスタート
ブルームバーグの現在のケースが示しているように、人工知能をジャーナリズムに統合すると、メディア企業が複雑な課題を提示します。金融指導サービスは、2025年1月以来、その記事のAIに生成された要約を実験していますが、少なくとも36の誤った要約を修正する必要がありました。この状況は、特に自動化されたコンテンツの正確性、信頼性、信頼に関して、編集エリアにAIシステムを実装することの困難を示しています。以下のセクションは、ブルームバーグの特定の問題に光を当て、一般的なAIの課題の文脈でそれらを設定し、ジャーナリズムにおけるAIの統合を成功させるための可能な解決策を議論します。
に適し:
ブルームバーグのAIに生成されたコンテンツへの問題のあるエントリ
AI会議の感受性
金融ニュースの世界有数の会社であるブルームバーグは、2025年初頭の記事の冒頭で概要として速報を掲載し始めました。しかし、1月15日にこの導入以来、同社はこれらの自動化された要約の少なくとも3ダースを修正する必要がありました。これらの問題は、正確な財務報告で知られているブルームバーグのような企業にとって特に問題があります。多数の修正の必要性は、この新しいテクノロジーの信頼性に対する自信を損ない、ジャーナリズムにおけるAIシステムの早期実装に関する疑問を提起します。
ブルームバーグがトランプ大統領が計画したオートゾレルについて報告したとき、特に重大な間違いが発生しました。実際の記事は、トランプが同じ日に関税を発表する可能性があると正しく述べていましたが、AIに生成された要約には、より包括的な税関措置の時間に関する誤った情報が含まれていました。別のケースでは、AIの要約は、トランプ大統領が2024年にカナダに対してすでに関税を課していたと誤って主張しました。そのような間違いは、複雑なメッセージの解釈と異常なテストされた自動コンテンツのリスクにおけるAIの限界を示しています。
誤った日付に加えて、エラーには、誤った数値と、人や組織に関するアクションまたは声明の誤った帰属が含まれていました。多くの場合、「幻覚」と呼ばれるこれらのタイプのエラーは、AIシステムにとって特別な課題を表しています。これはもっともらしいと聞こえる可能性があり、したがって、徹底的な人間のレビューがないかどうかを認識することが困難です。ブルームバーグでのこれらのエラーの頻度は、堅牢なレビュープロセスの必要性を強調し、使用されるAIテクノロジーの成熟度に関する疑問を提起します。
ブルームバーグのAI問題に対する反応
ブルームバーグは、公式の声明で、AI生成された要約の99%が編集基準に対応することを強調しました。独自の声明によると、同社は毎日何千もの記事を公開しているため、エラー率は比較的低いと考えています。彼自身の声明によると、ブルームバーグは透明性を称賛し、必要に応じてアイテムを修正または更新します。また、ジャーナリストがAI生成された要約が公開されているかどうかを完全に制御できることも強調されました。
ブルームバーグの編集長であるジョン・ミックレスウェイトは、1月10日のエッセイでAIの要約の理由を説明しました。これは、ロンドン大学シティセントジョージの講義に基づいていました。彼は、ジャーナリストがより懐疑的である一方で、物語が何であるかをすぐに認識できるので、顧客が彼らに感謝していると説明しました。彼は、記者が読者が要約に頼ることができず、実際の物語を読んでいないことを恐れていることを認めた。それにもかかわらず、Micklethwaitは、AIの要約の価値は、基礎となる歴史の質にのみ依存していることを強調しました。
ブルームバーグの広報担当者は、ニューヨークタイムズに、要約に関するフィードバックは一般的に肯定的であり、同社は経験を改善し続けたと語った。この声明は、ブルームバーグが概要にAIを使用する戦略を使用する問題にもかかわらず、キャプチャしたいことを示していますが、使用されるテクノロジーの品質保証と改良に焦点を当てています。
ジャーナリズムのAI:業界に関連するトピック
AIを使用した他のメディア企業の経験
ブルームバーグは、AIのジャーナリスティックプロセスへの統合を実験したメディア企業だけではありません。多くのニュース組織は、この新しいテクノロジーをレポートと編集作業に最適に統合する方法を見つけようとしています。 Gannett Newspaper Chainは、記事に同様のAI生成された要約を使用しており、ワシントンポストは、公開された郵便項目からの質問に対する回答を生成する「Ask the Post」というツールを開発しました。この広範な採用は、関連するリスクと課題にもかかわらず、AIテクノロジーのメディア業界のかなりの関心を示しています。
AIツールの問題は、他のメディア企業でも発生しています。 3月の初めに、ロサンゼルスタイムズは、Ku Klux-Klanを人種差別的な組織以外のものと説明した後、意見の記事からAIツールを削除しました。この事件は、ブルームバーグが直面する課題は隔離されていないが、AIのジャーナリズムへの統合に関するより広い問題については症状があることを示しています。特に繊細または複雑なトピックを使用して、人間の監督なしでは、テクノロジーがまだ十分に成熟していないパターンがあります。
これらの例は、AIによるイノベーションと効率性への欲求と効率性の緊張と、他方でジャーナリスティックな基準と正確性を維持する必要性を示しています。メディア企業は、バランスをとる行為をしなければなりません。読者の信頼を危険にさらすことなく、または基本的なジャーナリスティックな原則を妥協することなく、AIの利点から利益を得たいと考えています。ブルームバーグの経験やその他のニュース組織は、ジャーナリズムにおけるAIの可能性と限界について、業界全体にとって重要な教えとして役立ちます。
に適し:
金融ジャーナリズムにおける特別な課題
ブルームバーグが主要なintelligence報機関の1つとして機能している金融セクターでは、正確性と信頼性の要件が特に高くなっています。投資家と金融の専門家はこのニュースに基づいて決定を下すため、誤った情報の効果はここで重大な財務上の結果をもたらす可能性があります。この特別な責任により、金融ジャーナリズムにおけるAIテクノロジーの統合により、報告の他の分野よりもさらに大きな課題があります。
興味深いことに、「Generalist-ki」は、そのドメインであるFinancialbery分析でブルームバーグの特別なKIを超えました。ブルームバーグは、少なくとも250万ドルが独自の金融AIの開発に投資しましたが、2023年3月末の導入から1年後も、ChatGPTやGPT-4などの一般的なAIモデルがこの分野でより良い結果をもたらすことが明らかになりました。これは、人工知能の分野における急速な発展と、一般的なモデルがますます効率的になっている場合、企業が専門的なソリューションに追いつくのが難しいことを示しています。
🎯🎯🎯 包括的なサービス パッケージにおける Xpert.Digital の 5 倍の広範な専門知識を活用してください | 研究開発、XR、PR、SEM
AI & XR 3D レンダリング マシン: 包括的なサービス パッケージ、R&D XR、PR & SEM における Xpert.Digital の 5 倍の専門知識 - 画像: Xpert.Digital
Xpert.Digital は、さまざまな業界について深い知識を持っています。 これにより、お客様の特定の市場セグメントの要件と課題に正確に合わせたオーダーメイドの戦略を開発することが可能になります。 継続的に市場動向を分析し、業界の発展をフォローすることで、当社は先見性を持って行動し、革新的なソリューションを提供することができます。 経験と知識を組み合わせることで付加価値を生み出し、お客様に決定的な競争上の優位性を提供します。
詳細については、こちらをご覧ください:
データ品質とAIモデル:現代のテクノロジーの目に見えないつまずきのブロック
生成AIの基本的な課題
AIモデルの幻覚の問題
ブルームバーグの要約でも明らかになったAIシステムの最も根本的な課題の1つは、「幻覚」の問題、つまりAIモデルの傾向がもっともらしく鳴る傾向ですが、実際には誤った情報です。この問題は、AIシステムが提供された情報を超えたコンテンツを生成するとき、またはデータがデータを誤って解釈する場合に発生します。このような幻覚は、忠実で正確さが非常に重要であるジャーナリズムで特に問題があります。
ブルームバーグが経験した問題はまさにそのような幻覚です。AIは、トランプの自動車義務の導入日などの「発明された」データまたはトランプが2024年にカナダに対してすでに関税を課していると誤って主張しました。
専門家は、幻覚がさまざまな要因によって引き起こされる可能性があることを示しています。大規模な言語モデル(LLMS)は、用語を多数の数値とリンクするため、ベクトルエンコーディングをコールします。 「銀行」(金融機関と座席の両方を説明できる)などの曖昧な言葉の場合、あいまいさを避けるために意味ごとにコーディングがあるかもしれません。表現とテキストのコーディングとデコードのすべてのエラーは、生成AI幻覚につながる可能性があります。
AI決定の透明性と理解可能性
AIシステムのもう1つの基本的な問題は、意思決定プロセスの透明性とトレーサビリティの欠如です。いくつかのAIメソッドでは、特定の予測または特定の結果がどのように生じるか、または特定の質問が発生した場合にAIシステムが特定の答えに達した理由はもはや理解できません。しばしば「ブラックボックスの問題」と呼ばれるこの透明性の欠如は、公開される前に間違いを特定して修正することを困難にします。
トレーサビリティは、コンテンツに関する決定が透明で正当であるべきであるジャーナリズムなどの分野で特に重要です。ブルームバーグや他のメディア企業がAIが誤った要約を生成する理由を理解できない場合、体系的な改善を行うことは困難です。代わりに、エラーがすでに発生した後、それらは反応性修正に依存しています。
この課題は、ビジネスと科学の専門家によっても特定されています。それは主に技術的な課題ですが、適用の特定の分野での社会的または法的観点から問題のある結果につながる可能性があります。ブルームバーグの場合、これは読者間の信頼の喪失につながる可能性があります。
データの品質と範囲への依存
さらに、AIに基づくアプリケーションは、データとアルゴリズムの品質に依存します。このようにして、使用されるデータのサイズと複雑さを考慮して、データまたはアルゴリズムの体系的なエラーが認識されないことがよくあります。これは、ブルームバーグや他の企業がAIシステムを実装する際に対処しなければならないもう1つの基本的な課題です。
データの量に関する問題 - AIは、コマンドの処理において比較的小さな「コンテキストウィンドウ」のみを考慮に入れることができますが、プロンプトは近年縮小していますが、依然として課題です。 Google KIモデル「Gemini 1.5 Pro 1M」は、Openaaiの現在最高のGPTモデルの70万語または1時間のビデオ数の範囲で迅速に1つを処理できます。それにもかかわらず、テストは、人工知能がデータを検索できるが、関係を収集するのが難しいことを示しています。
に適し:
ソリューションアプローチと将来の開発
人間の監視と編集プロセス
ブルームバーグが経験した問題に対する明らかな解決策は、AI生成されたコンテンツの人間の監視の増加です。ブルームバーグは、ジャーナリストがAI生成された要約が公開されているかどうかを完全に制御できることをすでに強調しています。ただし、このコントロールを効果的に行使する必要があります。つまり、編集者は公開される前にAIサミットを確認するのに十分な時間が必要です。
間違いを最小限に抑えるには、AIが生成されたコンテンツをチェックするための堅牢な編集プロセスの実装が重要です。これには、すべてのAIサミットが公開される前に少なくとも1人の人間の編集者がチェックする必要があること、または特定の種類の情報(データ、数値、属性など)が特に徹底的にチェックされることを含めることができます。このようなプロセスは、ワークロードを増加させるため、AIによる効率向上の一部を減らしますが、精度と信頼性を保護するために必要です。
AIモデルの技術的改善
AIモデル自体の技術開発は、現在の問題を解決するためのもう1つの重要なアプローチです。すでにGPT-4では、幻覚は前身のGPT-3.5と比較して大幅に減少しています。人類の最新のモデルである「Claude 3 Opus」は、初期テストでの幻覚がさらに少ないことを示しています。すぐに、音声モデルのエラー率は平均的な男性のエラー率よりも低くなるはずです。それにもかかわらず、AI言語モデルは、コンピューターとは異なり、それ以上の通知まで完璧ではないでしょう。
有望な技術的アプローチは「専門家の混合」です。いくつかの小さな特別なモデルがゲートネットワークに接続されています。システムに入ることはゲートによって分析され、必要に応じて1人以上の専門家に渡されます。最終的に、全体的な単語に対する答えが組み合わされます。このようにして、モデル全体が常にその複雑さにおいてアクティブにならなければならないことを避けることができます。このタイプのアーキテクチャは、特定の種類の情報またはドメインに特殊なモデルを使用することにより、潜在的に精度を向上させる可能性があります。
現実的な期待と透明なコミュニケーション
結局のところ、AIシステムに現実的な期待を持ち、スキルと制限を介して透過的に通信することが重要です。 AIシステムは、今日の特定のアプリケーションコンテキストに対して特別に定義されており、人間の知能に匹敵するものではありません。この知識は、ジャーナリズムやその他の分野でAIの実施につながるはずです。
ブルームバーグや他のメディア企業は、AIの使用について透過的にコミュニケーションを取り、AIに生成されたコンテンツが間違っている可能性があることを明確にする必要があります。これは、AI生成されたコンテンツの明示的なラベル付け、透明なエラー修正プロセス、および使用されるテクノロジーの限界全体のオープン通信によって行うことができます。このような透明性は、たとえエラーが発生した場合でも、読者の信頼を維持するのに役立ちます。
なぜAIの統合は、人々なしでジャーナリズムで失敗するのですか
ブルームバーグのAI生成された要約との経験は、ジャーナリズムへの人工知能の統合における複雑な課題を示しています。 1月以降に修正しなければならなかった少なくとも36のエラーは、その可能性にもかかわらず、この技術はまだ人間の監視なしに確実に使用されるほど成熟していないことを示しています。ブルームバーグが直面する問題は一意ではありませんが、幻覚、透明性の欠如、高品質のデータへの依存など、AIの基本的な課題を反映しています。
AIのジャーナリズムへの統合を成功させるには、AI生成コンテンツのレビューのための堅牢な編集プロセス、AIモデル自体の継続的な技術的改善、および使用される技術のスキルと限界に関する透明なコミュニケーションのためのいくつかのアプローチが必要です。ブルームバーグの経験は、同様のAI実装を計画する他のメディア企業にとって貴重な教訓として役立ちます。
AIベースのジャーナリズムの将来は、ジャーナリスティックな基準を損なうことなく、効率の向上とAIの革新的な可能性をどれだけうまく使用するかにかかっています。重要なのは、テクノロジーを交換する代わりに、人間のジャーナリストをサポートするツールと見なすバランスの取れたアプローチです。ブルームバーグのジョン・ミックレスウェイトが適切に述べたように、「AIの要約は、それが基づいている物語と同じくらい良いだけです。そして、人々はまだ物語にとって重要です。」
私たちはあなたのために - アドバイス - 計画 - 実施 - プロジェクト管理
☑️ 戦略、コンサルティング、計画、実行における中小企業のサポート
☑️ デジタル戦略の策定または再調整とデジタル化
☑️ 海外販売プロセスの拡大と最適化
☑️ グローバルおよびデジタル B2B 取引プラットフォーム
☑️ 先駆的な事業開発
あなたの個人的なアドバイザーとして喜んでお手伝いさせていただきます。
以下のお問い合わせフォームにご記入いただくか、 +49 89 89 674 804 (ミュンヘン)。
私たちの共同プロジェクトを楽しみにしています。
Xpert.Digital - Konrad Wolfenstein
Xpert.Digital は、デジタル化、機械工学、物流/イントラロジスティクス、太陽光発電に重点を置いた産業のハブです。
360°の事業開発ソリューションで、新規事業からアフターセールスまで有名企業をサポートします。
マーケット インテリジェンス、マーケティング、マーケティング オートメーション、コンテンツ開発、PR、メール キャンペーン、パーソナライズされたソーシャル メディア、リード ナーチャリングは、当社のデジタル ツールの一部です。
www.xpert.digital - www.xpert.solar - www.xpert.plusをご覧ください。