AI 法规:义务、风险、标识与合规

Avatar
Lisa Ernst · 21.09.2025 · 技术 · 5 分钟

AI Act 的引入为 DACH 地区的创作者与团队在标识、版权与文档方面带来新挑战。自 2024-08-01 起,该法已生效,义务将分阶段至 2027 年。对于通用用途人工智能(GPAI)相关的透明度与版权义务尤为重要,这些义务自 2025-08-02 生效。

EU AI Act 概览

EU AI Act 是欧盟首部全面的人工智能法。它建立了基于风险的规则,覆盖从禁止到透明度义务。自 2025-08-02 起,它也对 GPAI 模型(如大型语言模型)提出了具体要求。此法旨在确保对 AI 的信任、版权合规性和可追溯性。

第50条 要求对 AI 互动和真实/经过合成的内容(如深度伪造等)进行标识,且标识需具备技术可辨识性,例如通过元数据或水印。对于 GPAI 提供者,第53条 要求透明度,包括对训练数据的清晰摘要,以及遵守版权。若存在系统性风险,还需遵循 第55条 的额外义务。

平台如 YouTube 已经推出自己的政策。YouTube 要求对真实改动或合成内容进行明确标注。若未披露,YouTube 可能自行对内容进行标签化。作为对媒体来源的技术解决方案,确立中的 C2PA/内容凭证 是一个用于不可篡改来源信息的标准。

在 DACH 场景中,需要注意瑞士,尽管不是欧盟成员,但自 2023-09-01 起,修订了数据保护法(nDSG),要求企业采用现代、透明的数据处理。

实施与时间表

欧盟 AI Act 的实施时间表已明确:在 2024-07-12 公布在官方公报。法案自 2024-08-01 生效,但初期尚无强制性义务。自 2025-02-02 起,某些 KI 实践的禁令与 KI 读写能力将生效。GPAI 规则、治理、保密性与制裁框架于 2025-08-02 生效。同时,成员国需指定监管机构并制定罚则框架。

与此同时,欧盟于 2025-07-10 公布了自愿但正式认可的 GPAI 行为准则(Code of Practice),便于企业更容易证明合规。随后在 2025-07-24 发布了按 EU 模板强制性公开训练数据摘要的模板,必须使用。

YouTube 在 2024/2025 年引入了对真实合成内容披露的义务。对于敏感主题,标签将更显著显示。货币化仍然可能,只要内容符合合作伙伴和广告政策。

Quelle: YouTube

影响与合规

欧盟着眼于早期、可执行的规则,以增强对 AI 的信任、版权合规性与可追溯性。尤其在 GPAI 方面,核心是文档化的最低标准及对版权的尊重,包括对文本和数据挖掘(TDM)的退出选择与保留权利。委员会在行业呼声要求推迟的情况下仍确认时间表,并提供了配套的帮助性文件如行为准则与模板。

像 YouTube 这样的平台为观众提供并行的透明度,而不是对 AI 内容一律禁令。相反,使用标签来标识,并将重点放在原创性和质量上。这在盈利政策中也有所体现,只要内容符合一般准则,AI 内容并不被一律排除。

Quelle: YouTube

对于 GPAI 提供商或微调(Fine-Tuning)的供应商,这意味着需要可靠的文档(技术、版权策略)以及公开、易懂的训练数据摘要,符合欧盟模板。内容创作者需要对真实合成段落进行可见标注,并应考虑将 Content Credentials(C2PA)作为技术来源证据。维护“模型卡”或“系统卡”作为透明度工具,用于对能力、边界和风险进行归类。

在 DACH 区域,瑞士的 nDSG 仍然相关。企业需要规划流程,使其既符合面向欧盟市场的 EU AI Act,又符合瑞士的 nDSG。对 AI Act 的罚款框架规定最高可达 3500 万欧元,或全球年收入的 7%,成员国需自行规定具体执行。

关键的时间线和里程碑标记着逐步过渡到 EU AI Act 的全面实施。

Quelle: eastmidlandsbusinesslink.co.uk

关键的时间线和里程碑标记着逐步过渡到 EU AI Act 的全面实施。

分析与误解

事实是,GPAI 的义务(第53条及以下)自 2025-08-02 起生效。行为准则是公认的证据通道,训练数据摘要需按 EU 模板披露。YouTube 要求披露真实合成内容,并在需要时自行标注。货币化取决于一般准则;AI 不是本质上被排除。

目前尚不清楚平台标签、C2PA 元数据及未来识别系统如何协同工作。欧盟提出了多项技术选项(水印、元数据、加密),但未指定单一强制技术。关于欧盟修改时间表的说法是错误的;委员会明确表示时间表仍然有效。同样,认为 YouTube 上的 AI 视频会被禁止变现的说法也是误导性的;关键在于原创性、遵守准则和披露。

此外,业内协会和政府呼吁暂停出于复杂性与成本的考虑。委员会则坚持通过伴随性指南与行为准则来提高法律清晰度。媒体与专业团体视明确义务(如训练数据摘要)为让版权更易理解、减少误解的机会。

遵守新 KI 规章需要企业付出全面努力和调整。

Quelle: techzeitgeist.de

遵守新的 AI 规章需要企业付出全面努力和调整。

未来行业组织与各国政府将继续推动法规的可执行性,并在必要时对要求进行细化。行业也在努力提供透明度的确凿证据,以促进版权的更好保护和误解的减少。

未来展望

未解之处包括平台标签、C2PA 及未来欧盟对机器可读标识的要求之间的互操作性。欧盟正在制定更多指南,包括关于第50条的规定,并征求实施意见。监管机构将如何一致性地审查训练数据摘要,以及预计何时更新,仍有待观察。

基于风险的方法将 KI 系统按对基本权利和安全的潜在风险进行分类。

Quelle: haufe-akademie.de

基于风险的方法将 KI 系统按对基本权利和安全的潜在风险进行分类。

方向很清晰:可见性高于猜测。开发模型的人必须对其进行清晰的文档记录并尊重版权。发布内容的人应对真实存在的 AI 成分进行可靠标注,并在可能的情况下使用强有力的来源凭证。凭借行为准则、YouTube 标签和 C2PA 等工具,已经有实用手段来把信任与覆盖范围视为共同的货币。

Teilen Sie doch unseren Beitrag!