ISO/IEC 42001为人工智能“提供者”、“生产者”、”“开发者”“客户“和“合作伙伴"提供了一个管理框架,该框架规定了建立、实施、维护和持续改进人工智能管理体系(AIMS)所需的要求。其中包括评估和处理人工智能风险的要求,以加强学习和决策的准确性和相关性,以及满足人工智能“用户”、“客户”“主体“或“相关机构"的期望。
虽然人工智能系统的用户可能会受到负面影响,但他们的行为也可能会导致组织违法。因此,从这个意义上说,“人工智能用户是一个系统的最终用户,这个系统可能会造成伤害,但与此同时,他们作为最终用户,如果不恰当地使用某人工智能系统,也可能会导致其组织承担法律责任。
ISO/IEC 42001概述了识别使用人工智能系统所产生风险的要求并为组织提供了控制措施,以保护他们免受这两种情况的影响。
扫描下方二维码,免费获得中英文版《AI立法聚焦ISO/IEC 42001》白皮书,获取AI立法的前沿洞察与实践指南!
