금융 저널리즘의 인공 지능 : Bloomberg는 결함이있는 AI 요약으로 싸움
Xpert 사전 출시
언어 선택 📢
출판 : 2025 년 4 월 6 일 / 업데이트 : 2025 년 4 월 6 일 - 저자 : Konrad Wolfenstein
AI가 현재 저널리즘에 도달 했습니까?
AI 구현은 일상적인 사용에 적합합니까? Bloomberg의 울퉁불퉁 한 것은 자동 요약으로 시작합니다
인공 지능을 저널리즘에 통합하면 현재 Bloomberg의 사례에서 알 수 있듯이 미디어 회사에 복잡한 문제가 있습니다. 금융 교육 서비스는 2025 년 1 월 이후 기사에 대한 AI 생성 요약을 실험 해 왔지만 최소 36 개의 잘못된 요약을 수정해야했습니다. 이 상황은 특히 자동화 된 콘텐츠에 대한 정확성, 신뢰성 및 신뢰와 관련하여 편집 영역에서 AI 시스템을 구현하는 데 어려움이 있음을 보여줍니다. 다음 섹션에서는 Bloomberg의 특정 문제를 밝히고 일반 AI 문제의 맥락에서 설정하고 저널리즘에서 AI를 성공적으로 통합하기위한 가능한 솔루션에 대해 논의했습니다.
적합:
Bloomberg의 AI 생성 컨텐츠에 대한 문제가있는 입력
AI 회의의 감수성
금융 뉴스의 세계 최고의 회사 인 블룸버그 (Bloomberg)는 2025 년 초 기사가 시작될 때의 요약으로 총알을 배치하기 시작했습니다. 그러나 1 월 15 일 에이 소개 이후이 자동 요약이 34 개 이상을 수정해야했는데, 이는 AI 생성 컨텐츠의 정확성과 관련된 상당한 문제를 나타냅니다. 이러한 문제는 Bloomberg와 같은 회사의 경우 특히 문제가 있으며,이 회사는 정확한 재무보고로 알려져 있으며 정보가 종종 투자 결정에 직접적인 영향을 줄 수 있습니다. 수많은 수정의 필요성은이 새로운 기술의 신뢰성에 대한 신뢰를 훼손하고 저널리즘에서 AI 시스템의 조기 구현에 대한 의문을 제기합니다.
블룸버그가 트럼프 대통령의 계획된 Autozölle에 대해보고했을 때 특히 중요한 실수가 발생했습니다. 실제 기사는 트럼프가 같은 날 관세를 발표 할 것이라고 올바르게 언급했지만 AI 생성 요약에는보다 포괄적 인 세관 측정 시간에 대한 잘못된 정보가 포함되어 있습니다. 다른 경우, AI 요약은 2024 년에 트럼프 대통령이 이미 캐나다에 대한 관세를 부과했다고 잘못 주장했다. 이러한 실수는 복잡한 메시지의 해석과 비정상적인 테스트 자동화 된 자동 컨텐츠가 게시 될 때의 위험에 대한 AI의 한계를 보여준다.
허위 날짜 외에도 오류에는 잘못된 숫자와 사람이나 조직에 대한 행동이나 진술의 잘못된 귀속이 포함되었습니다. 종종 "환각"이라고하는 이러한 유형의 오류는 AI 시스템에 대한 특별한 도전을 나타냅니다. 왜냐하면 그들은 그럴듯하게 들릴 수 있으므로 철저한 인간 검토가 없으면 인식하기가 어렵 기 때문입니다. Bloomberg에서 이러한 오류의 빈도는 강력한 검토 프로세스의 필요성을 강조하고 사용 된 AI 기술의 성숙도에 대한 의문을 제기합니다.
Bloomberg의 AI 문제에 대한 반응
공식 성명서에서 Bloomberg는 AI 생성 요약의 99 %가 편집 표준에 해당 할 것이라고 강조했다. 자체 진술에 따르면, 회사는 매일 수천 개의 기사를 게시하므로 오류율이 상대적으로 낮은 것으로 간주합니다. 자신의 진술에 따르면 Bloomberg는 투명성에 대한 중요성을 첨부하고 필요한 경우 항목을 수정하거나 업데이트합니다. 또한 언론인들은 AI 생성 요약이 발표되었는지 여부를 완전히 통제 할 수 있음을 강조했다.
Bloomberg의 편집장 인 John Micklethwait는 1 월 10 일 에세이에서 AI 요약의 이유를 런던 대학교 세인트 조지의 강의를 기반으로 설명했습니다. 그는 고객이 이야기가 무엇인지 빠르게 인식 할 수 있고 언론인은 더 회의적이기 때문에 고객이 그들에게 감사한다고 설명했다. 그는 기자들이 독자들이 요약에만 의존 할 수 있고 더 이상 실제 이야기를 읽지 않을 것이라고 우려했다. 그럼에도 불구하고 Micklethwait는 AI 요약의 가치는 기본 역사의 품질에만 의존하고 사람들은 여전히 그들에게 중요하다고 강조했다.
블룸버그 대변인은 뉴욕 타임즈 (New York Times)에게 요약에 대한 피드백은 일반적으로 긍정적이며 회사가 계속 경험을 향상 시켰다고 말했다. 이 진술은 Bloomberg가 요약에 AI를 사용하는 전략을 사용하는 문제에도 불구하고 캡처를 원하지만 사용 된 기술의 품질 보증 및 개선에 중점을두고 있음을 나타냅니다.
저널리즘의 AI : 업계와 관련된 주제
AI를 가진 다른 미디어 회사의 경험
Bloomberg는 AI를 저널리즘 프로세스에 통합하여 실험하는 유일한 미디어 회사는 아닙니다. 많은 뉴스 조직은이 새로운 기술을보고 및 편집 작업에 가장 잘 통합 할 수있는 방법을 알아 내려고 노력합니다. Gannett 신문 체인은 기사에 대해 유사한 AI 생성 요약을 사용하며 Washington Post는 게시 된 우편 항목의 질문에 대한 답변을 생성하는 "Ask the Post"라는 도구를 개발했습니다. 이 광범위한 채택은 관련 위험과 과제에도 불구하고 AI 기술에서 미디어 산업의 상당한 관심을 보여줍니다.
AI 도구의 문제도 다른 미디어 회사에서도 발생했습니다. 3 월 초, 로스 앤젤레스 타임즈는 기술이 Ku Klux-Klan을 인종 차별 조직 이외의 다른 것으로 묘사 한 후 AI 도구를 의견 기사에서 제거했습니다. 이 사건은 Bloomberg가 직면 한 문제가 고립되지 않았지만 AI를 저널리즘에 통합하는 데 더 넓은 문제에 대한 증상이 있음을 보여줍니다. 기술이 아직 인간 감독없이, 특히 민감하거나 복잡한 주제로 안정적으로 작동하기에 충분히 성숙하지 않은 패턴이 있습니다.
이 예는 AI의 혁신과 효율성에 대한 욕구와 다른 한편으로는 언론 표준과 정확성을 유지해야 할 필요성을 보여줍니다. 미디어 회사는 균형 행동을해야합니다. 독자의 신뢰를 위험에 빠뜨리지 않거나 기본적인 저널리즘 원칙을 타협하지 않고 AI의 장점으로부터 혜택을 받기를 원합니다. Bloomberg의 경험 및 기타 뉴스 조직은 저널리즘에서 AI의 가능성과 한계에 대해 전체 업계에서 중요한 가르침으로 사용됩니다.
적합:
금융 저널리즘의 특별한 도전
Bloomberg가 주요 인텔리전스 서비스 중 하나 역할을하는 금융 부문에서는 정확성과 신뢰성에 대한 요구 사항이 특히 높습니다. 잘못된 정보의 영향은 투자자와 재무 전문가 가이 뉴스를 기반으로 결정을 내리기 때문에 상당한 재정적 결과를 초래할 수 있습니다. 이 특별한 책임은 AI 기술의 재무 저널리즘의 통합을 다른보고 영역보다 훨씬 더 큰 도전으로 만듭니다.
흥미롭게도,“일반 주의자”는 Financialbery Analysis의 영역에서 Bloomberg의 특수 KI를 초과했습니다. Bloomberg는 자체 금융 AI 개발에 최소 250 만 달러를 투자했지만 2023 년 3 월 말에 소개 된 지 1 년이 지나도 Chatgpt 및 GPT-4와 같은 일반 AI 모델 이이 영역에서 더 나은 결과를 제공한다는 것이 분명해졌습니다. 이는 인공 지능 분야의 빠른 발전과 일반 모델이 점점 효율적으로 진행되고 있다면 회사가 전문 솔루션을 따라 잡는 데 어려움을 보여줍니다.
🎯🎯🎯 포괄적인 서비스 패키지에서 Xpert.Digital의 광범위한 5중 전문 지식을 활용하세요 | R&D, XR, 홍보 및 SEM
Xpert.Digital은 다양한 산업에 대한 심층적인 지식을 보유하고 있습니다. 이를 통해 우리는 귀하의 특정 시장 부문의 요구 사항과 과제에 정확하게 맞춰진 맞춤형 전략을 개발할 수 있습니다. 지속적으로 시장 동향을 분석하고 업계 발전을 따라가면서 우리는 통찰력을 가지고 행동하고 혁신적인 솔루션을 제공할 수 있습니다. 경험과 지식의 결합을 통해 우리는 부가가치를 창출하고 고객에게 결정적인 경쟁 우위를 제공합니다.
자세한 내용은 여기를 참조하세요.
데이터 품질 및 AI 모델 : 현대 기술의 보이지 않는 걸림돌 블록
생성 AI의 근본적인 과제
AI 모델의 환각 문제
Bloomberg의 요약에서 명확해진 AI 시스템의 가장 근본적인 과제 중 하나는“환각”의 문제, 즉 AI 모델의 경향이 그럴듯하게 들리지만 실제로 잘못된 정보를 생성하는 것입니다. 이 문제는 AI 시스템이 제공된 정보를 넘어서서 데이터를 잘못 해석하는 컨텐츠를 생성 할 때 발생합니다. 그러한 환각은 특히 신자와 정확성이 매우 중요합니다.
Bloomberg가 경험 한 문제는 정확히 환각입니다. AI는 트럼프의 자동차 의무의 입문 날짜 또는 트럼프가 2024 년에 캐나다에 대한 관세를 이미 부과했다고 잘못 주장했다. 이러한 유형의 오류는 현재의 AI 기술의 한계, 특히 복잡한 정보의 정밀 해석에 관한 것입니다.
전문가들은 환각이 다양한 요인들에 의해 트리거 될 수 있다고 지적합니다. 대형 언어 모델 (LLMS)은 용어를 여러 숫자로 연결하므로 벡터 인코딩을 연결합니다. “은행”(금융 기관과 좌석을 모두 설명 할 수 있음)과 같은 모호한 단어의 경우, 모호성을 피하기 위해 의미 당 코딩이있을 수 있습니다. 표현 및 텍스트의 코딩 및 디코딩의 모든 오류는 생성 AI 환각으로 이어질 수 있습니다.
AI 결정의 투명성과 이해성
AI 시스템의 또 다른 근본적인 문제는 의사 결정 프로세스의 투명성과 추적 성이 부족하다는 것입니다. 일부 AI 방법을 사용하면 더 이상 특정 예측 또는 특정 결과가 어떻게 발생하는지 또는 AI 시스템이 특정 질문에 특정 답변에 도달 한 이유는 더 이상 이해할 수 없습니다. 종종 "블랙 박스 문제"라고하는 투명성 부족으로 인해 실수가 게시되기 전에 실수를 식별하고 수정하기가 어렵습니다.
추적 성은 내용에 대한 결정이 투명하고 정당화되어야하는 저널리즘과 같은 분야에서 특히 중요합니다. Bloomberg와 다른 미디어 회사가 AI가 왜 잘못된 요약을 생성하는지 이해할 수 없다면 체계적인 개선을하기가 어려울 것입니다. 대신, 그들은 이미 오류가 발생한 후 반응성 보정에 의존합니다.
이 도전은 또한 비즈니스 및 과학 전문가들에 의해 식별됩니다. 그것은 주로 기술적 인 과제이지만, 특정 응용 분야에서 사회적 또는 법적 관점에서 문제가되는 결과를 초래할 수 있습니다. Bloomberg의 경우, 이는 독자들 사이의 신뢰 상실 또는 잘못된 정보에 근거한 최악의 재무 결정에 이어질 수 있습니다.
데이터 품질 및 범위에 대한 의존성
또한 AI를 기반으로 한 응용 프로그램은 데이터 및 알고리즘의 품질에 따라 다릅니다. 이러한 방식으로, 데이터 또는 알고리즘의 체계적인 오류는 사용 된 데이터의 크기 및 복잡성을 고려하여 종종 인식 할 수 없습니다. 이것은 Bloomberg와 다른 회사가 AI 시스템을 구현할 때 처리 해야하는 또 다른 근본적인 과제입니다.
데이터의 양에 대한 문제 - AI는 명령 처리에서 비교적 작은 "컨텍스트 창"만 고려할 수 있습니다. 프롬프트는 최근 몇 년 동안 실제로 축소되었지만 여전히 어려운 일입니다. Google KI 모델“Gemini 1.5 Pro 1m”은 이미 Openaai의 현재 가장 좋은 GPT 모델보다 700,000 단어 또는 1 시간의 비디오보다 1 시간 동안 즉시 처리 할 수 있습니다. 그럼에도 불구하고 테스트에 따르면 인공 지능은 데이터를 검색 할 수 있지만 관계를 수집하는 데 어려움이 있습니다.
적합:
솔루션 접근 및 미래 개발
인간 감시 및 편집 과정
Bloomberg가 경험 한 문제에 대한 명백한 해결책은 AI 생성 컨텐츠의 인간 모니터링을 증가시키는 것입니다. Bloomberg는 이미 언론인들이 AI 생성 요약이 게시되었는지 여부를 완전히 통제하고 있다고 강조했습니다. 그러나이 제어는 효과적으로 행사되어야하므로 편집자는 AI 정상 회담을 게시하기 전에 충분한 시간이 있어야합니다.
AI 생성 컨텐츠를 확인하기위한 강력한 편집 프로세스의 구현은 실수를 최소화하는 데 중요합니다. 여기에는 모든 AI 정상 회담이 게시되기 전에 적어도 하나의 인간 편집자에 의해 확인되거나 특정 유형의 정보 (예 : 데이터, 번호 또는 속성)가 특히 철저히 확인해야합니다. 이러한 프로세스는 워크로드를 증가시켜 AI의 효율성과 신뢰성을 보호하기 위해서는 효율성 이득의 일부를 줄입니다.
AI 모델의 기술적 개선
AI 모델 자체의 기술 개발은 현재 문제를 해결하기위한 또 다른 중요한 접근법입니다. 이미 GPT-4를 사용하면 환각이 전임자 GPT-3.5에 비해 크게 감소했습니다. "Claude 3 Opus"의 Anthropic의 가장 최근 모델은 초기 테스트에서 환각 수가 적습니다. 머지 않아 음성 모델의 오류율은 일반인의 오류율보다 낮아야합니다. 그럼에도 불구하고 AI 언어 모델은 컴퓨터와 달리 추가 통지를받을 때까지 완벽하지 않을 것입니다.
유망한 기술적 접근 방식은 "전문가의 혼합물"입니다. 몇 가지 작은 특수 모델이 게이트 네트워크에 연결되어 있습니다. 시스템에 들어가는 것은 게이트로 분석 한 다음 필요한 경우 한 명 이상의 전문가에게 전달됩니다. 결국, 전체 단어에 대한 답이 결합됩니다. 이런 식으로, 전체 모델이 항상 복잡 해져야한다는 것을 피할 수 있습니다. 이러한 유형의 아키텍처는 특정 유형의 정보 또는 도메인에 특수 모델을 사용하여 정확도를 향상시킬 수 있습니다.
현실적인 기대와 투명한 의사 소통
결국, AI 시스템에 대한 현실적인 기대를 갖고 그들의 기술과 한계에 대해 투명하게 전달하는 것이 중요합니다. AI 시스템은 오늘날 특정 응용 프로그램 컨텍스트에 대해 구체적으로 정의되며 인간 지능과 비슷하지 않습니다. 이 지식은 저널리즘 및 기타 영역에서 AI를 구현해야합니다.
Bloomberg와 다른 미디어 회사는 AI 사용에 대해 투명하게 전달해야하며 AI 생성 컨텐츠가 잘못 될 수 있음을 분명히해야합니다. 이는 AI 생성 컨텐츠, 투명한 오류 수정 프로세스 및 사용 된 기술 한계에 걸친 개방형 통신의 명시 적 라벨링으로 수행 할 수 있습니다. 이러한 투명성은 오류가 발생하더라도 독자의 신뢰를 유지하는 데 도움이 될 수 있습니다.
AI 통합이 사람들없이 저널리즘에 실패하는 이유는 무엇입니까?
Bloomberg의 AI 생성 요약 경험은 인공 지능을 저널리즘에 통합하는 복잡한 과제를 보여줍니다. 1 월 이후 수정해야 할 최소 36 개의 오류에 따르면 잠재력에도 불구 하고이 기술은 철저한 인간 감시없이 안정적으로 사용하기에 충분히 성숙하지 않다는 것을 보여줍니다. Bloomberg가 직면 한 문제는 독특하지는 않지만 환각, 투명성 부족 및 고품질 데이터에 대한 의존성과 같은 AI의 근본적인 과제를 반영합니다.
AI를 저널리즘에 성공적으로 통합하려면 여러 가지 방법이 필요합니다. AI 생성 컨텐츠를 검토하기위한 강력한 편집 프로세스, AI 모델 자체의 지속적인 기술 개선 및 사용 된 기술의 기술과 한계에 대한 투명한 커뮤니케이션. Bloomberg의 경험은 유사한 AI 구현을 계획하는 다른 미디어 회사에게 귀중한 교훈이 될 수 있습니다.
AI 기반 저널리즘의 미래는 저널리즘 표준을 타협하지 않고 AI의 효율성 이득과 혁신적인 가능성을 사용하는 것이 얼마나 잘 사용되는지에 달려 있습니다. 핵심은 기술을 대체하는 대신 인간 언론인을 지원하는 도구로 보는 균형 잡힌 접근 방식입니다. Bloomberg의 John Micklethwait가 적절하게 지적했듯이 : "AI 요약은 그것이 기반을 둔 이야기만큼이나 좋습니다. 그리고 사람들은 여전히 이야기에 중요합니다."
우리는 당신을 위해 존재합니다 - 조언 - 계획 - 구현 - 프로젝트 관리
✓ 전략, 컨설팅, 계획 및 구현에 대한 중소기업 지원
✔️ 디지털 전략 및 디지털화의 생성 또는 재편성
✔️ 해외 영업 프로세스의 확장 및 최적화
✔️ 글로벌 및 디지털 B2B 거래 플랫폼
✔️ 선구적인 사업 개발
저는 귀하의 개인 조언자로 기꺼이 봉사하겠습니다.
아래 문의 양식을 작성하여 저에게 연락하시거나 +49 89 89 674 804 (뮌헨) .
나는 우리의 공동 프로젝트를 기대하고 있습니다.
Xpert.Digital - Konrad Wolfenstein
Xpert.Digital은 디지털화, 기계 공학, 물류/내부 물류 및 태양광 발전에 중점을 둔 산업 허브입니다.
360° 비즈니스 개발 솔루션을 통해 우리는 신규 비즈니스부터 판매 후까지 유명 기업을 지원합니다.
시장 정보, 마케팅, 마케팅 자동화, 콘텐츠 개발, PR, 메일 캠페인, 개인화된 소셜 미디어 및 리드 육성은 당사 디지털 도구의 일부입니다.
www.xpert.digital - www.xpert.solar - www.xpert.plus 에서 확인할 수 있습니다.