Skip to main content
首份草案

欧洲委员会发布通用AI系统提供商行为准则的首份草案

欧洲委员会发布了通用目的AI系统(GPAI)提供商行为准则的首份草案,旨在促进欧盟AI法案规则的实施。该委员会可以批准该准则在整个欧盟范围内生效,并赋予其普遍的法律效力。

这份由独立专家准备的草案,对具有所谓系统性风险的GPAI模型提出了严格的要求。这包括使用超过10^25 FLOPs计算能力的模型训练(据我们所知,GPT-4已经突破了这一限制)。根据当前草案,这些模型必须在训练开始前两周向欧盟报告。

全面的AI系统安全框架

该准则规定了两个核心文件:“安全与保障框架”(SSF)和“安全与保障报告”(SSR)。SSF是基本风险管理指南的总体框架,包括四个主要组成部分:

  1. 风险识别与分析,详细方法用于识别系统性风险。
  2. 安全措施,如模型行为修改和部署期间的保护措施。
  3. 安全措施,保护模型权重和资产以及访问控制。
  4. 评估程序,对措施进行持续审查。

SSR是每个单独模型的具体文档工具,包含:

  • 实施保护措施前后的详细风险分析。
  • 所有安全措施有效性的评估。
  • 成本效益分析和科学方法描述。
  • 内部或外部测试结果。

这两个文件紧密关联:SSF提供了框架和指南,根据这些指南创建SSR。SSR反过来记录具体的实施情况,并提供反馈,这些反馈将被纳入SSF的更新中。这种互动旨在确保安全措施的持续改进。

欧盟AI办公室对具有系统性风险的GPAI模型进行外部测试

草案中的一个新特点是:对于具有系统性风险的GPAI模型,AI办公室和第三方将进行外部测试。文本指出:“签署方将确保在部署具有系统性风险的通用AI模型之前,由AI办公室和适当的第三方评估者进行充分的独立专家测试,以更准确地评估风险和缓解措施,并向外部参与者提供保证。”

这种外部审计目前在AI法案中尚未提供。前言114仅指出,具有系统性风险的GPAI模型提供商应进行风险评估,“包括对抗性测试模型,适当时通过内部或独立外部测试进行。”

问题在于,谁能够测试和评估最复杂的AI模型。AI办公室是否具备必要的专业知识?草案目前尚未明确。该提议也具有爆炸性,因为密集测试或发布复杂模型需要深入了解被测试模型的技术细节。测试公司需要具备对前沿技术进行测试的专业知识,同时将测试结果保密。

外部测试可能成为欧盟委员会的强制性要求

准则中对外部测试的要求可能产生深远影响。根据AI法案前言117,欧盟委员会可以通过实施法案宣布行为准则在整个欧盟范围内具有约束力。这也将使其中规定的外部测试具有法律效力。

或者,如果准则未能及时完成或被AI办公室认为不适宜,委员会可以发布自己的规则来执行义务。外部审计可能因此通过准则或直接通过委员会决定成为强制性要求。

与原始的AI法案相比,这将是一个重大加强。然而,前言也规定,如果提供商不希望依赖准则,可以通过“适当的替代手段”来证明遵守。然而,这种选择的实际实施仍然不明确。

严格的版权规则和反盗版保护

准则的另一个重点是版权规则。提供商必须制定政策以遵守版权。这包括尊重那些不希望将其内容用于训练AI模型的权利持有者的保留。

作为技术手段,提供商应支持行业标准robots.txt。这允许网站运营商指定哪些内容可以被爬虫索引。搜索引擎提供商不得使用robots.txt排除来使内容不易被发现。

此外,提供商应采取措施从其爬取活动中排除盗版网站,例如基于欧盟委员会的“假冒和盗版观察名单”。接下来的步骤中,草案将与大约1000个利益相关者在四个主题工作组中进行讨论。根据反馈,专家们将进一步发展和明确准则。

 

 

免责声明:除原创作品外,本平台所使用的文章、图片、视频及音乐属于原权利人所有,因客观原因或会存在不当使用的情况,如,部分文章或文章部分引用内容未能及时与原作者取得联系,或作者名称及原始出处标注错误等情况,非恶意侵犯原权利人相关权益,敬请相关权利人谅解并与我们联系。