发表于:2025年6月1日 /更新:2025年6月1日 - 作者: Konrad Wolfenstein
当前的Claude模型版本:截至2025年6月
重点:重点:人类AI技术的量子飞跃
AI景观在拟人化的近期出版物中取得了重要的发展。自2025年5月以来,该公司已使用Claude Opus 4和Claude Sonnet设定了4个新标准,以实现强大的语言模型。这些混合模型将闪电响应功能与深刻的推理能力结合在一起,从而根据应用程序在不同的思维模式之间进行选择。
克劳德4:最新一代
作品4-旗舰模型
作为最强大的变体,Claude Opus 4(型号ID:`Claude-opus-4-20250514')超过以下领域的所有前任:
- 代码生成:在复杂代码基础上工作长达七个小时
- 多模式处理:文本,代码和图像输入的无缝集成
- 长期内存:提取并保存有关几个交互的关键信息
- 安全认证:分类为“四个阶段风险量表”的“ 3级”
十四行诗4-平衡解决方案
克劳德十四行诗4
(型号ID:`Claude-Sonnet-4-20250514`)提供:
- 与Opus 4相比,推理速度快40%
- 基于教学的任务,精度增加了18%
- 本地集成到VS代码和Jetbrain-ide中
- 成本优化价格为3/百万美元。输入量
技术创新
杂种推理系统
两种型号都有两个操作模式:
- 即时模式:<500ms的回答真实 - 时间应用程序
- 扩展思维:自我反省的问题解决可见的分步思维
开发人员控制API参数的持续时间,最大输出长度为128K令牌。
扩展工具使用
Beta阶段的新事物:
- 并行工具版本:同时使用Web搜索,代码解释器和文件访问
- 上下文协议:用于基于代理的工作流程的标准化AI-ZU-KI通信
- 文件API:跨会话持续的数据存储
可用性和价格模型
价格模型和不同模型的可用性如下:Opus 4模型可用于企业用户和API和Cloud,并且输入的价格为每百万个代币15美元,每百万个代币的产出量为75美元。 SONNet 4均可用于所有关税,包括免费层,并以3美元的输入计算,产出$ 15。 SONNET 3.7型号提供了旧的支持,直到2025年第三季度,输入的价格为2.5美元,产出为12美元。
云集成:
- AWS Dorkont:Anthropic.Claude-Opus-4-20250514-V1:0
- Google Vertex AI:Claude-Opus-4@20250514
安全体系结构
Opus 4首次实施了伦理2.0层:
- 93种语言变体中的自动偏见识别
- 实时合规性检查监管要求
- 带有引文证明的透明决策协议
尽管取得了这种进展,但在没有人类监督的情况下,拟人化警告在高风险地区使用,因为这些模型在12%的病例中仍然显示出医疗诊断的严重错误。
整合所有公司问题的独立和跨数据源范围内的AI平台
Ki-Gamechanger:最灵活的AI平台销售解决方案,降低成本,提高决策并提高效率
独立的AI平台:集成所有相关的公司数据源
- 这个AI平台与所有特定数据源进行互动
- 来自SAP,Microsoft,Jira,Confluence,Salesforce,Zoom,Dropbox和许多其他数据管理系统
- 快速AI集成:在数小时或数月内为公司量身定制的AI解决方案
- 灵活的基础架构:基于云或在您自己的数据中心(德国,欧洲,免费位置选择)的托管
- 最高数据安全:在律师事务所使用是安全的证据
- 在各种公司数据源中使用
- 选择您自己或各种AI模型(DE,欧盟,美国,CN)
我们的AI平台解决的挑战
- 常规AI解决方案缺乏准确性
- 数据保护和敏感数据的安全管理
- 个人AI开发的高成本和复杂性
- 缺乏合格的人工智能
- 将AI集成到现有的IT系统中
更多相关信息请点击这里:
人类:负责人工智能发展和新兴市场领导者的先驱
拟人化:具有道德重点的AI巨人的崛起
人类已经发展成为几年内人工智能领域最有影响力的参与者之一。该公司成立于2021年,采用了一种将技术创新与道德原则相结合的独特方法。当前对与亚马逊和Google等科技巨头建立了超过600亿美元的评估以及战略合作伙伴关系,Anthropic站在企业AI市场的重新定义方面。该报告分析了原产地,技术突破,企业哲学和市场动态的历史,这些历史使人类成为全球AI景观中的核心参与者。
基础历史和领导人
起源于Openai Exodus运动
人类的根源在于Openaai内的基本异议。前开放式研究副总裁达里奥·阿莫迪(Dario Amodei)于2021年与他的姐姐丹妮拉·阿莫迪(Daniela Amodei)(安全与政策的前副总裁)和其他五个同事一起离开了公司。这一步骤是由于人们对AI开发的商业化策略和安全方面的关注日益加剧。创始团队成员从开发技术(例如GPT-2和GPT-3)的开发中带来了丰富的经验,该技术从一开始就赋予了技术信誉。
Amodei兄弟姐妹体现了公司的双重取向:当Dario作为一名博士学位的Dario塑造了技术愿景,但Daniela带着她在政治科学和安全问题的背景下带来了道德的护栏。这种卓越技术和社会责任的共生构成了公司哲学的基础。
作为公共福利公司的法律形式
拟人化选择了公共福利公司(PBC)的法律形式,作为对常规公司结构的有意识界定。该公司在特拉华州注册的公司迫使该公司除了经济和经济目标外,还必须实现非营利性目标。具体而言,这表明了“为人类的长期利益开发和维持高级AI的法规确定”。
这种结构性决定强调了将盈利能力与社会责任相结合的目的。 PBC的地位使人类可以吸引那些努力争取财务回报和积极社会影响的投资者。
技术创新和产品组合
克劳德模型系列:从聊天机器人到公司解决方案
人类技术的旗舰是Claude Model家族,该家族目前在版本3.7中可用。这些大型语言模型(LLM)的特征是几种创新:
- 宪法AI:一个新的培训框架,基于人类价值的明确“宪法”对齐模型。这个概念将联合国的道德原则和基本人权直接纳入学习过程。
- 上下文协议:AI系统通信的开放标准,不同的AI实例之间的数据交换是标准化和透明的。
- 多模式技能:Claude 3.7不仅处理文本,还处理集成框架中的代码,数学符号和视觉输入。
Claude 4与subsopels Opus 4和引擎盖4的最新介绍标志着性能的量子飞跃,尤其是对于代码生成,数据分析和研究支持领域的公司应用程序。
企业解决方案和云集成
Anthropic与Amazon Web Services(AWS)和Google Cloud关闭了战略合作伙伴关系,将其AI模型直接嵌入到云基础架构中。这种集成使公司:
- 可扩展AI实现:通过AWS DONATION和GOOGLE VERTEX AI使用Claude模型
- 自定义模型培训:将模型改编为具有相同安全体系结构的公司特定数据记录
- 成本优化:基于使用的计费与基于音量的折扣模型相结合
与亚马逊的合作非常重要,除了40亿美元的投资外,还包括AI芯片的联合开发。人类算法与亚马逊硬件专业知识之间的这些协同效应可能会加速下一代Ki加速。
道德框架和安全研究
宪法AI:模型对齐的新范式
人类的核心创新在于宪法AI方法,其中包括三个支柱:
- 明确的价值声明:使用书面的“宪法”培训模型,该宪法运作道德原则。
- 递归自我完善:基于宪法原则不断评估和优化自己的产出的模型。
- 透明决策 - 制定协议:每个模型响应都包含伦理考虑的可追溯性。
如内部研究所示,与常规比对方法相比,这种方法可将有害输出降低85%。 《宪法》同时整合了普遍的人权和特定的伦理守则,例如医疗或财务应用。
安全研究作为公司DNA
Anthropic运营着自己的AI安全研究所,该研究所追求以下重点:
- 解释性:神经网络的逆向工程,以实现决策过程的可追溯性
- 安全协议:开发自动检测滥用尝试的“ AI免疫系统”
- 长期风险分析:对超级智能的未来AI开发方案的模拟
这项研究直接流向了产品开发。例如,Claude 4首次包含一个内置的“伦理层”,该层认识到潜在的有害询问,并主动提交替代建议。
融资动态和市场定位
在创纪录的高度收集资本
拟人化的融资历史就像是人工智能繁荣的纪事:
- 2022年:$ 5.8亿美元B系列,由FTX领导
- 2023年:来自亚马逊的12.5亿美元,其次是Google 5亿美元
- 2024年:通过可转换债券投资后40亿美元
- 2025:35亿美元的D $ 615亿美元
这些资本注射使人类可以每年投资超过10亿美元在研发上。与云巨头亚马逊和Google的平行合作伙伴关系特别出色,这是一项战略平衡行为,巧妙地利用了竞争机制。
企业部门的市场份额利润
根据Menlo Ventures研究,拟人化的公司在一年内将其在企业客户的市场份额从12%增加到24%,而OpenAIS则从50%缩小到34%。这一转变由以下方式解释:
- 技术优势:Claude 3.5超过87%的公司基准中的GPT-4
- 数据主权:与仅openais云方法相反的本地模型数据姿势
- 成本:与可比型号相比,推理成本降低了40%
在客户获取中也可以看到成功:现在有60%的财富500强公司使用Claude模型,包括制药行业,金融部门和机械工程的行业领导者。
社会责任和法规
政策计划和全球治理
Anthropic保持自己的政策领域,积极参与国际AI法规的设计。主要举措包括:
- AI安全标准:与经合组织合作的安全AI系统认证框架的开发
- 全球AI监视:建立一个全球传感器网络,用于识别危险的AI开发
- 公共教育:政治决策的免费培训计划 - 制定者和公众
该公司还安装了一个有约束力的道德委员会,该委员会由哲学,法律和技术伦理学的独立专家组成。该理事会在发布新型号版本中具有否决权。
开源参与和共同的良好方向
尽管有商业重点,但人类仍在推动几项非营利性计划:
- AI为社会商品:为非政府组织和研究机构提供免费的克劳德许可证
- 安全模型共享:安全框架的开源出版物,例如宪法AI体系结构
- AI灾难救济:与红十字会合作开发危机插入的专业模型
这些举措强调了公司的公共饮食特征,并对关键利益相关者建立了信任。
人工通用情报的路线图(AGI)
拟人化遵循三阶段的AGI策略:
- 狭窄的AI卓越(直到2026年):医学和材料科学等关键领域的特定领域的超人表现
- 通才AI(2027-2030):具有人类转移的自适应模型的发展
- 负责的超智能(2030年后):内置安全走廊的受控AGI体系结构的研究
这种逐步的方法旨在最大程度地减少AI进展的风险,同时最大程度地提高收益。
竞争压力和道德困境
尽管取得了成功,但人类面临挑战:
- 技术竞赛:Sensensamee等中国竞争对手正在迅速使用模型大小
- 监管不确定性:欧盟,美国和亚洲的不同AI法律增加了合规成本
- 目标的道德冲突:商业利益与安全预防措施之间的平衡
Netflix联合创始人Reed Hastings最近被任命为董事会,这表明应将可扩展性与道德责任结合使用。
人类作为原型AI开发的原型
Anthropic已经建立了AI开发的新范式,该范式将最佳技术绩效与社会责任结合在一起。宪法模型架构,战略云合作伙伴关系和独特的治理结构的结合成功地维持了商业成功和道德完整性。最新的市场份额利润和记录评级表明,这种方法不仅可以说服理论上,而且可以在实践中实施。
作为宪法AI的先驱,Anthropic可以为新一代的科技公司提供蓝图,这些科技公司不了解盈利能力和作为矛盾的普遍利益,而是作为协同作用。未来几年将显示该模型是否是传统科技公司“快速移动并破坏事物”方法的永久替代方法,还是由于AI种族的结构限制而失败。
适合:
您的AI转换,AI集成和AI平台行业专家
☑️我们的业务语言是英语或德语
☑️ 新:用您的国家语言进行通信!
我很乐意作为个人顾问为您和我的团队提供服务。
您可以通过填写此处的联系表,或者直接致电+49 89 89 674 804 (慕尼黑)。我的电子邮件地址是: wolfenstein ∂ xpert.digital
我很期待我们的联合项目。