为帮助企业更好地理解和应对这一新的监管环境,SGS 特此整合常见问题及答案:
Q1: 本部分法规是否只适用纯软件/算法/模型的开发企业?
A: 不是, 硬件AI产品的厂商也会成为法规管控的对象(GPAI的提供商), 具体情况见Q3的解答。
Q2: 哪些AI模型是法规管控的类别?
A: 根据新发布的指南, 通常同时符合以下两个条件的AI模型属于管控范围内:
- 模式是生成式AI模型, 生成的模态包括文字、图片、音频、视频
- 模型的训练总算力达到10^23 flops
例外情况: 即使模型训练算力未达到上述标准, 如果模型的输出表现出多样性, 也会被纳入GPAI范畴。
Q3: 我是一个AI硬件的制造商, 硬件会用到GPAI模型, 何种情况下我会成为GPAI模型的提供商?
A: 如果符合以下两种情况之一, AI硬件的制造商同时也将成为GPAI的提供商:
- 硬件中有个GPAI模型是硬件厂商自己开发的 (如大多数手机厂商都有这种情况)
- 硬件中有个GPAI模型是硬件厂商基于其它企业开发的模型进行额外训练得到的, 而且额外训练的总算力超过了原始模型训练总算力的1/3。
如果模型不是自己开发的, 也没有对原始模型进行超过原始模型训练总算力的1/3算力的额外训练, 那么AI硬件厂商不被认为是这个模型的提供商。
Q4: 如何计算模型训练的总算力?
A: 欧盟官方提供了两种计算方式:
- 基于硬件运行量的计算方式
- 基于模型参数和训练数据参数的计算方式
具体内容见官方指南。
Q5: 开源模型是否可以豁免部分要求?
A: 分两种情况如下:
- 如果不是系统性风险的开源GPAI, 并且公布了模型的参数、架构和具体使用指南, 可以豁免法规针对透明度的要求。
- 如果是系统性风险的开源GPAI, 则不能豁免任何要求。
Q6: 如何判断一个GPAI是否带有系统性风险?
A: 目前先使用模型训练总算力达到10^25 flops这个数值来初步判断, 但如果达到这数值企业又不认为模型具有系统性风险, 可以向欧盟官方提供足够证据来说明模型不具有系统性风险, 欧盟官方做最后的判定。
Q7: 2025年8月2日前已经进入欧盟市场的GPAI, 有什么要求需要符合吗?
A: 如果这批产品到2027年8月2日还有在使用的, 则模型提供商要在2027年8月2日前准备好相关的合规资料。
Q8: 针对GPAI的具体合规内容有哪些?
A: 合规内容分情况总结如下:
- 针对无系统性风险的GPAI: 型提供商需准备好符合法规要求的相关资料, 包括透明度、版权、训练数据的信息。具体见法规和行为准则文件。
- 针对有系统性风险的GPAI:除了上述的资料外, 还要额外进行模型的风险评估和控制措施、事故追踪记录和网络安全保障。具体见法规和行为准则文件。
- 针对模型提供商是欧盟外企业的情况: 提供商需指派欧盟境内的法人代表。
Q9: GPAI需要做CE认证或主动向欧盟机构递交资料吗?
A: 无需做CE认证, 分情况总结如下:
- 针对无系统性风险的GPAI:在法规实施日期前准备好相关资料, 以备市场监督。
- 针对有系统性风险的GPAI:在法规实施日期前除了准备好相关资料, 还需主动通知欧盟政府这些具有系统性风险的GPAI。
Q10: 针对欧盟官方推出的COP签署流程, 是强制的吗?
A: 不是强制的,但建议企业签署, 从而在合规流程上更透明和易操作。
如果您对欧盟AI法规有更多的疑问和咨询需求, 敬请联系SGS业务窗口,我们将为您对接AI检测认证服务团队,提供专业的解答与支持。