金融新闻业中的人工智能:彭博与AI摘要有缺陷的战斗
Xpert 预发布
语言选择 📢
发布于:2025年4月6日 /更新,发表于:2025年4月6日 - 作者: Konrad Wolfenstein
AI目前已达到新闻业吗?
AI实施适合日常使用吗?彭博的颠簸开始于自动摘要
正如当前的彭博社表明,将人工智能融入新闻业呈现出了复杂的挑战。自2025年1月以来,财务指导服务一直在尝试AI生成的文章摘要,但必须纠正至少36个错误的摘要。这种情况说明了在编辑领域实施AI系统的困难,特别是在自动内容的准确性,可靠性和信任方面。以下各节阐明了彭博社的特定问题,将它们设置为一般AI的挑战,并讨论了成功整合新闻业中AI的可能解决方案。
适合:
彭博社的有问题进入AI生成的内容
AI会议的敏感性
彭博(Bloomberg)是一家全球领先的金融新闻公司,在2025年初的文章开始时开始将Bulletpoint作为摘要。但是,自1月15日的这次介绍以来,该公司必须纠正至少三打自动摘要,这表明AI生成的内容的准确性表明了重大问题。对于像彭博社这样的公司而言,这些问题尤其有问题,该公司以其精确的财务报告而闻名,其信息通常可以直接影响投资决策。需要进行大量更正的需求破坏了对这项新技术的可靠性的信心,并提出了有关新闻业中AI系统过早实施的问题。
当彭博社报道了特朗普总统计划的Autozölle时,发生了一个特别重大的错误。尽管实际文章正确地指出,特朗普可能会在同一天宣布关税,但AI生成的摘要包含有关更全面的海关措施时间的错误信息。在另一种案件中,AI摘要不正确地声称特朗普在2024年已经对加拿大征收关税。此类错误表明了AI在解释复杂信息的限制和当发表不寻常测试的自动化内容时的风险中的限制。
除了虚假日期外,这些错误还包括对人或组织的行动或陈述的错误数字和错误的归因。这些类型的错误(通常称为“幻觉”)对AI系统是一个特殊的挑战,因为它们听起来很合理,因此很难认识到是否没有彻底的人类审查。彭博社上这些错误的频率强调了需要进行稳健的审查过程,并提出了有关使用的AI技术成熟度的问题。
彭博对AI问题的反应
彭博社在一份官方声明中强调,99%的AI生成的摘要将与编辑标准相对应。根据自己的声明,该公司每天发表数千篇文章,因此将错误率相对较低。根据他自己的陈述,彭博社将重要性附加到透明度,并在必要时纠正或更新的项目。还强调,记者可以完全控制AI生成的摘要是否已发布。
彭博社总编辑John Micklethwait在1月10日的一篇文章中描述了AI摘要的原因,该论文基于伦敦大学圣乔治市的一场演讲。他解释说,客户会欣赏他们,因为他们可以迅速认识到一个故事是什么,而记者更持怀疑态度。他承认记者担心读者只能依靠摘要,而不再阅读实际故事。尽管如此,米克特维特强调,AI摘要的价值仅取决于基本历史的质量,人们仍然对他们至关重要。
彭博女发言人告诉《纽约时报》,摘要的反馈通常是积极的,并且该公司继续改善经验。该声明表明,尽管使用使用AI进行摘要的策略的问题,但彭博社仍希望捕获,但越来越重视对所使用技术的质量保证和完善。
新闻业的AI:与行业相关的主题
AI的其他媒体公司的经验
彭博(Bloomberg)并不是唯一一家实验AI将AI集成到其新闻流程中的媒体公司。许多新闻机构试图找出如何最好地将这项新技术整合到您的报告和编辑工作中。 Gannett报纸连锁店使用类似的AI生成的文章摘要,《华盛顿邮报》开发了一种称为“询问帖子”的工具,该工具对已发表的邮政项目产生了答案。尽管面临着相关的风险和挑战,但这种广泛的采用表明了媒体行业对AI技术的极大兴趣。
AI工具的问题也发生在其他媒体公司中。 3月初,《洛杉矶时报》从意见文章中删除了其AI工具,此前该技术将Ku Klux-Klan描述为种族主义组织以外的其他东西。这一事件表明,彭博脸面临的挑战不是孤立的,而是在症状方面出于将AI整合到新闻业中的更广泛问题。有一种模式,该技术尚未足够成熟,无法在没有人类监督的情况下可靠地工作,尤其是具有敏感或复杂的主题。
这些例子说明了AI对创新和效率的渴望与维持新闻标准和准确性的需求之间的张力。媒体公司必须采取平衡法案:他们希望从AI的优势中受益,而不会冒着读者的信任或损害基本新闻原则的风险。彭博社的经验和其他新闻机构是整个行业的重要教义,内容涉及新闻业中AI的可能性和限制。
适合:
金融新闻业的特别挑战
在彭博社作为领先情报服务之一的金融领域,准确性和可靠性的要求特别高。由于投资者和财务专家根据此消息做出决定,因此不正确信息的影响可能会产生重大的财务后果。这一特殊责任使金融新闻业中的AI技术的整合比其他报告领域更大。
有趣的是,“通才KI”超过了彭博在其领域的特殊KI,即金融分析。彭博社估计至少有250万美元用于开发自己的财务AI,但在2023年3月底的介绍后一年,很明显,诸如Chatgpt和GPT-4之类的一般AI模型在该领域提供了更好的结果。这说明了人工智能领域的快速发展,如果一般模型变得越来越有效,公司很难跟上专业解决方案。
🎯🎯🎯 受益于 Xpert.Digital 全面服务包中广泛的五重专业知识 | 研发、XR、PR 和 SEM
Xpert.Digital 对各个行业都有深入的了解。 这使我们能够制定量身定制的策略,专门针对您特定细分市场的要求和挑战。 通过不断分析市场趋势并跟踪行业发展,我们可以前瞻性地采取行动并提供创新的解决方案。 通过经验和知识的结合,我们创造附加值并为客户提供决定性的竞争优势。
更多相关信息请点击这里:
数据质量和AI模型:现代技术的无形绊脚石
生成AI的基本挑战
AI模型中的幻觉问题
在彭博社的摘要中,AI系统最根本的挑战之一是“幻觉”的问题 - 即AI模型的趋势是产生合理的声音,但实际上是错误的信息。当AI系统生成超出提供给他们的信息或误解数据的内容的内容时,就会发生此问题。这种幻觉在新闻业中尤其有问题,在新闻业中,忠实和准确性至关重要。
彭博社遇到的问题正是这样的幻觉:AI“发明”数据,例如特朗普的汽车职责的入门日期或错误地声称特朗普已经在2024年对加拿大征收关税。这种错误强调了当前AI技术的限制,尤其是当涉及到复杂信息的精确解释时。
专家指出,幻觉可以由各种因素触发,除其他因素外,培训提示和文本被编码。大型语言模型(LLMS)将术语与许多数字链接在一起,因此被称为矢量编码。对于诸如“银行”(可以描述金融机构和座位)之类的模棱两可的词),可能会有含义的编码以避免歧义。表示和文本的编码和解码中的每个错误都会导致生成的AI幻觉。
人工智能决策的透明度和可理解性
AI系统的另一个基本问题是您的决策过程缺乏透明度和可追溯性。通过某些AI方法,不再可以理解某个预测或某个结果是如何产生的,或者为什么在发生特定问题的情况下,AI系统已经达到了特定的答案。这种缺乏透明度通常被称为“黑匣子问题”,因此很难在发布之前识别和纠正错误。
可追溯性在新闻业等领域尤为重要,在新闻业中,有关内容的决定应该是透明和合理的。如果彭博社和其他媒体公司无法理解为什么其AI会产生错误的摘要,那么很难进行系统的改进。取而代之的是,他们依靠发生错误后的反应性校正。
商业和科学专家也确定了这一挑战。尽管这主要是技术挑战,但它也可能从某些应用领域的社会或法律角度导致有问题的结果。就彭博社而言,这可能导致读者之间的信任丧失,或者在最坏的情况下,基于不正确的信息,财务决策。
依赖数据质量和范围
此外,基于AI的应用程序取决于数据和算法的质量。这样,根据所使用的数据的大小和复杂性,通常无法识别数据或算法的系统错误。这是彭博社和其他公司在实施AI系统时必须应对的另一个基本挑战。
数据量的问题 - AI只能考虑到命令处理时相对较小的“上下文窗口”,近年来,提示确实缩小了,但仍然是一个挑战。 Google Ki型号“ Gemini 1.5 Pro 1m”已经可以在700,000个单词或一个小时的视频范围内迅速处理一个,而不是700,000个单词,是OpenAAI当前最佳GPT模型的7倍。然而,测试表明,人工智能可以搜索数据,但很难收集关系。
适合:
解决方案方法和未来的发展
人类监视和编辑过程
彭博社的一个明显解决方案是增加了对AI生成的内容的人类监测。彭博社已经强调,记者完全控制了AI生成的摘要是否已发布。但是,必须有效地行使此控件,这意味着编辑必须有足够的时间在发布之前检查AI峰会。
用于检查AI生成的内容的强大编辑过程的实施对于最大程度地减少错误至关重要。这可能包括所有AI峰会必须在发布之前至少由一个人类编辑器进行检查,或者特别彻底检查了某些类型的信息(例如数据,数字或属性)。这样的过程增加了工作量,从而减少了效率的一部分,但对于保护准确性和信誉是必要的。
AI模型的技术改进
AI模型本身的技术开发是解决当前问题的另一种重要方法。与前任GPT-3.5相比,与GPT-4相比,幻觉已经显着下降。在初始测试中,拟人化的“ Claude 3 Opus”的最新模型显示出更少的幻觉。很快,语音模型的错误率应低于普通人的错误率。然而,与计算机不同,直到进一步通知,AI语言模型可能不会完美无瑕。
一种有希望的技术方法是“专家的混合”:几个小型特殊模型连接到栅极网络。进入系统的输入由门分析,然后在必要时传递给一个或多个专家。最后,将整个单词的答案结合在一起。这样,可以避免整个模型必须始终在其复杂性上变得活跃。这种类型的体系结构可以通过对某些类型的信息或域使用专业模型来有可能提高准确性。
现实的期望和透明的沟通
毕竟,对AI系统的现实期望并在其技能和限制上进行透明的交流非常重要。当今特定的应用程序上下文专门定义了人工智能系统,与人类智能相当。这些知识应导致新闻业和其他领域的AI实施。
彭博社和其他媒体公司应透明地交流他们对AI的使用,并明确表示AI生成的内容可能是不正确的。这可以通过明确标记AI生成的内容,透明的误差校正过程以及在所用技术范围内进行开放通信。即使发生错误,这种透明度也可以帮助维持读者的信任。
为什么AI的整合在没有人的情况下在新闻业中失败
彭博与人工智能产生的摘要的经验说明了人工智能与新闻业相结合的复杂挑战。自1月以来必须纠正的至少36个错误表明,尽管有潜力,但该技术尚未足够成熟,无法在没有人类监视的情况下可靠地使用。彭博与面对的问题不是唯一的,而是反映了AI的基本挑战,例如幻觉,缺乏透明度以及对高质量数据的依赖。
将AI成功整合到新闻业中需要几种方法:综述AI生成的内容,AI模型本身的持续技术改进以及有关所使用技术技能和限制的透明沟通的强大编辑过程。对于计划类似AI实施的其他媒体公司来说,彭博的经验可以成为宝贵的课程。
基于人工智能的新闻业的未来取决于在不损害新闻标准的情况下使用AI的效率增长和创新可能性的状况。关键是在平衡的方法中,将技术视为支持人类记者而不是更换它们的工具。正如彭博社的John Micklethwait恰当地指出:“ AI摘要仅与它所基于的故事一样好。人们仍然对故事很重要。”
我们随时为您服务 - 建议 - 规划 - 实施 - 项目管理
☑️ 为中小企业提供战略、咨询、规划和实施方面的支持
☑️ 创建或调整数字战略和数字化
☑️国际销售流程的扩展和优化
☑️ 全球数字 B2B 交易平台
☑️ 开拓业务发展
我很乐意担任您的个人顾问。
您可以通过填写下面的联系表与我联系,或者直接致电+49 89 89 674 804 (慕尼黑) 。
我很期待我们的联合项目。
Xpert.Digital - 康拉德德军总部
Xpert.Digital 是一个专注于数字化、机械工程、物流/内部物流和光伏的工业中心。
凭借我们的360°业务发展解决方案,我们为知名企业提供从新业务到售后的支持。
市场情报、营销、营销自动化、内容开发、公关、邮件活动、个性化社交媒体和潜在客户培育是我们数字工具的一部分。
您可以通过以下网址了解更多信息: www.xpert.digital - www.xpert.solar - www.xpert.plus