欧盟加强了对AI的监管:2025年8月的最重要问题和答案
Xpert 预发布
语言选择 📢
发布于:2025年7月30日 /更新,发表于:2025年7月30日 – 作者: Konrad Wolfenstein
欧盟 - 凯(Eu-ki-Figate)开始:这就是欧盟监视人工智能的方式
什么是欧盟基本条例,为什么要引入?
欧盟基本条例,也称为《欧盟AI法案》(法令(EU)2024/1689),是世界上有关规范人工智能的第一条综合法律。该法规由欧洲议会于2024年3月13日通过,并于2024年8月1日生效。
该法规的主要目的是为在欧盟中使用AI创建一个协调的法律框架。一方面,它旨在促进创新并加强对AI的信任,但另一方面,请确保使用AI仅以欧盟公民的基本权利和安全保留的方式使用。欧盟采用一种基于风险的方法:AI系统的风险越高,义务越全面。
该法规是对AI技术及其广泛社会影响的快速发展的直接反应。欧盟有了告别,欧盟希望为潜在的危险提供保护,并将欧洲确立为值得信赖的AI的领先地点。
适合:
什么是通用AI模型,您为什么是监管的重点?
根据《欧盟基本条例》的定义,通用-AI模型(GPAI)是具有相当一般可用性且能够有能力执行各种不同任务的AI模型。这些模型可以集成到各种下游系统或应用中。
它们的多功能性是GPAI模型的特征:它们尚未用于特定应用程序,而是提供广泛的功能。与专门的AI模型相反,从一开始,GPAI模型并不是在培训期间教授特殊的,紧密困难的任务。
GPAI模型的著名示例是来自OpenAAI的GPT-4(用于Microsoft Copilot和Chatgpt),Google DeepMind的Gemini,Claude von Anthropic和Meta的Llama。由于其技术覆盖范围和培训架构,这些系统符合欧盟法规的GPAI模型标准。
对GPAI模型的特殊监管关注是基于它们的高风险潜力:由于它们可以在许多领域使用,因此AI可能会导致具有高水平的社会影响的特殊风险 – 例如在医疗保健,贷款或人力资源中。
2025年8月2日实施了什么义务?
从2025年8月2日起,GPAI模型提供者的具有约束力的义务生效。这些新法规标志着欧盟法规的决定性时间里程碑,并影响不同的领域:
透明义务
提供者必须提供技术文档并披露有关培训方法,培训数据和模型体系结构的信息。本文档必须包含对AI模型的一般描述,包括该模型应该执行的任务以及可以集成的AI系统的类型。
版权合规
提供者必须确保其模型遵守欧盟版权法。这包括将网站考虑在退出信号中考虑并为权利持有人设置投诉。
治理职责
必须实施适当的治理结构,以确保遵守法规。这还包括对特别风险的GPAI模型的扩展测试和报告要求。
文件义务
必须创建和发布用于培训的内容的足够详细的摘要。这将促进具有合法利益的当事方,包括版权的所有者,行使和执行其权利。
欧洲AI办公室的监督如何工作?
欧洲KI办公室(AI办公室)由欧盟委员会于2024年1月24日成立,并在实施AI法规中起着核心作用。在组织上,它是欧盟委员会的通用通信网络,内容和技术(DG Connect)的一部分。
AI办公室具有监视符合GPAI法规的深远权力。它可以要求公司的信息,对其模型进行评分以及停放缺陷和问题的需求。如果违规或拒绝提供信息,官员可以从市场上删除AI模型或罚款。
该机构承担了各种核心任务:它制定了具有约束力的AI行为守则,协调欧洲监督网络并监视AI市场的发展。此外,该办公室旨在开发工具和方法,以评估更大的生成AI模型的风险。
AI办公室由五个专业演讲:法规和合规性,AI安全性,AI和机器人技术的卓越,AI,为共同利益以及AI创新和政治协调。该结构可以全面支持AI调节的各个方面。
违反GPAI要求的处罚是什么?
欧盟基本条例规定了违反GPAI要求的敏感惩罚。芬宁最多可高达1500万欧元,也可以占全球年营业额的3% – 具体取决于哪个金额更高。
对于特别严重的违规行为,例如根据第5条不合规禁止某些AI做法,甚至可以施加高达3500万欧元的罚款或全球年销售额的7%。这强调了欧盟执行新规则的决心。
除罚款外,还有进一步的法律后果:有关当局的虚假或不完整信息可以被罚款高达750万欧元,占全球年销售额的1.5%。对于不足的文件和与监督当局缺乏合作,惩罚威胁着相同的金额。
惩罚的数量说明了欧盟追求AI法规的严重性。当前的一个例子是意大利数据保护局对OpenAI施加的1500万欧元的罚款,即使是根据GDPR进行的,而不是根据AI法规进行的。
适合:
什么是AI行为代码,为什么有争议?
AI行为守则(实践守则)是一种由13位独立专家开发的自愿工具,并包含来自1000多名利益相关者的贡献。他于2025年7月10日由欧盟委员会出版,旨在帮助GPAI模型的提供者满足AI法规的要求。
该代码分为三个主要章节:透明度,版权以及安全性和保护。有关透明度和版权的章节针对GPAI模型的所有提供商,而有关安全和保护的一章仅与具有系统性风险的最先进模型的提供者有关。
自愿签署该法规的公司受益于较少的官僚主义和提高法律确定性。任何未签署该法规的人都必须期望委员会的更多查询。尽管该代码是自愿的,但这造成了参与的间接压力。
争议源于公司的不同反应:在Openai准备合作并希望签署《代码》时,Meta拒绝了参与。梅塔(Meta)首席全球事务官乔尔·卡普兰(Joel Kaplan)在法律上批评该守则,并认为他远远超出了AI法律的范围。
元为什么拒绝签署行为准则?
梅塔(Meta)决定不为GPAI模型签署欧盟行为守则,这代表了与欧洲法规的重大对抗。 Meta首席全球事务官Joel Kaplan在LinkedIn帖子中建立了这一决定,并有几个关键要点。
批评的要点是法律上的不确定性:梅塔认为该法规带来了“对模型开发人员的许多法律不确定性,并提供了远远超出AI法律范围的措施”。该公司担心不清楚的表述会导致误解和不必要的官僚障碍。
另一个方面是关注抑制创新的问题:元警告说,该法规可能会减慢欧洲和阻碍欧洲公司的高级AI模型的发展。该公司看到对竞争对手法规可能不利的初创公司和较小公司的影响。
这种拒绝是显着的,因为Meta还希望依靠其自己的AI服务,例如欧盟的Llama 3语言模型。该公司计划通过自己的平台以及与云和硬件提供商的合作使用其AI,例如在高通智能手机和雷机眼镜中。
哪些公司支持《行为守则》,哪些公司拒绝了行为守则?
技术公司对欧盟行为守则的反应非常不同,并反映了欧洲AI法规的行业分歧。
代码的支持者
Openai宣布要签署该代码并将其描述为实施《欧盟KI法》的实用框架。该公司认为该代码是扩大自己在欧洲建立自己的基础设施和合作伙伴关系的基础。微软也准备合作:布拉德·史密斯总统解释说,这可能是“我们可能会签署”,并认识到AI办公室与该行业的合作。
评论家和负面
元是最杰出的批评家,明确拒绝签署。该公司参与了欧洲人工智能监管计划对创新敌对的监管计划的批评者。包括ASML,Philips,Siemens和Ki Startup Mistral在内的欧洲公司的40多家首席执行官呼吁在公开信中与AI法案进行两年的转变。
不确定
到目前为止,Google和Anthropic尚未公开评论他们的态度,这表明内部评估过程。这种不情愿的原因可能是有战略原因,因为两家公司都必须权衡法律确定性的优势和额外合规成本的缺点。
欧盟委员会仍然坚定不移,尽管工业削减和日程安排:排除了GPAI规则所需的位移。
整合所有公司问题的独立和跨数据源范围内的AI平台
Ki-Gamechanger:最灵活的AI平台 – 量身定制的解决方案,降低成本,提高决策并提高效率
独立的AI平台:集成所有相关的公司数据源
- 这个AI平台与所有特定数据源进行互动
- 来自SAP,Microsoft,Jira,Confluence,Salesforce,Zoom,Dropbox和许多其他数据管理系统
- 快速AI集成:在数小时或数月内为公司量身定制的AI解决方案
- 灵活的基础架构:基于云或在您自己的数据中心(德国,欧洲,免费位置选择)的托管
- 最高数据安全:在律师事务所使用是安全的证据
- 在各种公司数据源中使用
- 选择您自己或各种AI模型(DE,欧盟,美国,CN)
我们的AI平台解决的挑战
- 常规AI解决方案缺乏准确性
- 数据保护和敏感数据的安全管理
- 个人AI开发的高成本和复杂性
- 缺乏合格的人工智能
- 将AI集成到现有的IT系统中
更多相关信息请点击这里:
欧盟 - 凯(Eu-ki-Figate)开始:这就是欧盟监视人工智能的方式
正常的GPAI模型与有系统风险的模型有何不同?
《欧盟基本条例》为GPAI模型提供了分级的风险分类,该模型与正常的GPAI模型和具有系统性风险的模型之间的分类。这种区别对于适用的义务至关重要。
正常的GPAI模型
您必须满足基本要求:模型的详细技术文档,用于培训和符合版权的数据的信息。根据AI法规的第53条,这些模型应遵守标准义务。
具有全身风险的GPAI模型
根据AI条例的第51条对它们进行分类。如果模型具有“高影响能力”,则将其视为系统上的风险。作为基准,如果在滑动逗号操作中测量的培训计算的累计计算累计数量超过10^25”,则GPAI模型具有系统性风险。
额外的义务适用于具有系统性风险的模型:实施模型评估,包括对立测试,评估和削弱可能的系统性风险,迫害和报告对AI办公室和负责任的国家当局的严重事故以及保证适当的网络安全保护。
该等级考虑到特别强大的模型还可以挽救特别高风险,因此需要更严格的监视和控制。
适合:
公司必须具体记录和披露什么?
GPAI提供商的文档和透明义务是全面和详细的。根据AI法规的第53条和附录XI的技术文档必须涵盖不同的核心领域。
一般模型描述
该文档必须包含对GPAI模型的全面描述,包括该模型应执行的任务,可以集成的AI系统的类型,适用的可接受使用原理,出版日期和分布方式。
技术规格
有关参数和数量,输入和费用的形式和格式,使用许可证的架构和数量的详细信息,使用的许可以及用于集成到AI系统的技术手段。
发展过程和培训数据
模型的施工规范以及培训过程,培训方法和技术,做出的重要设计决策和假设,有关使用的数据集的信息,包括类型,来源和策展方法。
公开培训内容摘要
AI办公室提供了标准化的模板,该模板概述了用于培训模型的数据。这还包括获得数据的来源,大型数据记录和顶级域名。
该文档必须适用于下游提供商和AI办公室,并且可以根据要求定期更新。
版权在新法规中扮演什么角色?
由于许多GPAI模型接受了受版权保护的内容培训,因此版权在欧盟基本条例中处于中心位置。 《行为守则》将其自己的章节献给了该主题。
合规义务
提供者必须实施实用解决方案,以遵守欧盟咨询法。这包括观察机器人排除协议(robots.txt)以及识别和维护Web爬网的权利保留。
技术保护措施
公司必须采取技术保护措施,以防止其模型产生侵犯内容的版权。这可能是一个很高的障碍,特别是对于像Midjourney这样的图像发电机。
投诉
提供者必须命名权利持有人的联系人并设置投诉程序。如果权利持有人要求不使用自己的作品,则公司必须具有后代。
培训数据的透明度
公开培训内容摘要的新模板旨在促进版权所有者感知和执行其权利。这意味着您可以更好地了解您的受保护作品是否用于培训。
这些法规旨在保护AI地区创新与知识产权保护之间的平衡。
法规如何影响较小的公司和初创企业?
欧盟法规对较小公司和初创企业的影响是有关新法规的辩论的关键方面。从不同方面表达了对较小玩家的缺点的关注。
官僚应力
梅塔认为,《行为准则》的严格要求可能特别限制初创企业的可能性。广泛的文档和合规要求可能会导致较小的公司的成本不成比例。
中小企业的解脱
但是,AI法规还提供了缓解:包括新初创企业在内的中小型公司可以简化形式介绍技术文档。该委员会创建了一种简化的表格,该表格旨在满足小型和小型公司的需求。
开源异常
具有开源许可证的GPAI模型的提供商,即没有系统性风险的开放和自由许可的模型,不必符合详细的文档标准。该法规可以减轻初创企业和较小的开发人员。
平等
《行为准则》是由1000多个利益相关者(包括中小型公司)参与的。这旨在确保考虑不同公司规模的需求。
欧盟试图限制较小公司的负担,同时保持高安全性和透明度标准。
适合:
2025年8月2日对于现有AI模型的重要性是什么?
2025年8月2日标志着欧洲AI法规中一个重要的转折点,从而在新模型和现有模型之间进行了区别。这种区别对于法规的实际实施至关重要。
新的GPAI型号
对于2025年8月2日以后推出的新GPAI模型,AI法规的全部义务立即适用。这意味着从这个关键日期开始,所有透明,文档和治理职责都具有约束力。
现有模型
该规则仅适用于2026年8月从市场上的ChatGpt-4等系统。这两年的过渡期应使提供者有时间适应其现有系统并实施新要求。
AI办公室实施
欧洲人工智能办公室将在生效后一年(即2026年8月)为新型号执行该法规,并在两年后为现有模型执行。这使当局有时间建立自己的能力并发展统一的执法行为。
通过行为准则过渡桥梁
公司已经可以签署自愿AI行为代码作为过渡援助。与选择其他合规方法的公司相比,这些公司受益于更少的官僚机构和提高法律确定性。
对欧洲AI市场的长期影响是什么?
预计欧盟的条例将对欧洲AI市场产生深远的影响和永久影响。这些变化涉及欧洲的竞争地位和整个AI行业的发展。
法律安全作为竞争优势
早期依靠透明,治理和合规性的公司在欧洲市场仍然保持可持续性。统一的规则可以使欧洲成为值得信赖的AI的吸引力,并加强投资者和客户的信任。
全球标准设置器
与GDPR类似,欧盟基本条例可以开发国际广播。专家预计,欧盟AI法案将鼓励全球AI政府和道德标准的制定。欧洲可以将自己确立为负责AI发展的全球参考点。
创新生态系统
欧盟促进了支持AI研究并促进研究结果过渡的几项措施。 200多个欧洲数字创新中心(EDIH)的网络旨在促进广泛的AI介绍。
市场合并
:严格的监管要求可能会导致市场巩固,因为较小的提供商可能难以承受合规成本。同时,围绕合规解决方案的新业务模型可能会发展。
竞争风险
不及时行动的公司风险法律不确定性和竞争性弊端。高惩罚和严格的自信会对商业模式产生重大影响。
长期的效果取决于欧洲是否成功地平衡了创新和监管,并确立自己是值得信赖的AI的领先地点。
您的AI转换,AI集成和AI平台行业专家
☑️我们的业务语言是英语或德语
☑️ 新:用您的国家语言进行通信!
我很乐意作为个人顾问为您和我的团队提供服务。
您可以通过填写此处的联系表,或者直接致电+49 89 89 674 804 (慕尼黑)。我的电子邮件地址是: wolfenstein ∂ xpert.digital
我很期待我们的联合项目。