人类社会正进入一个“智能涌现”的时代。人工智能发展、应用和普及将极大降低专业技能的门槛,使得更多人能够利用强大的 AI 能力解决复杂问题,从而催生新一轮的创新浪潮和经济增长 。然而,这也对社会结构、就业市场和伦理法规提出了深刻挑战。AI 的发展不再仅仅是技术问题,更是社会问题。企业在拥抱技术红利的同时,必须承担起相应的社会责任,积极参与构建可信、公平、透明的 AI 生态。
AI技术在可解释性、通用性、可进化性和自主性方面面临重大挑战。随着AI算法模型的复杂性增加,对计算能力的需求也在增长。传统的硬件模式可能无法适应智能算法的需求,成为软件发展的制约因素。AI技术的进步依赖于大量数据,这可能导致数据隐私和安全问题。用户数据可能在不知情的情况下被收集和使用,增加了隐私泄露的风险。AI的发展引发了一系列伦理问题,包括算法偏见、责任归属、知识产权等。AI的应用可能会改变就业结构,导致某些工作岗位的消失,对社会就业造成冲击。全球各国在AI领域的竞争日益激烈,国际合作与竞争的平衡成为一个新的挑战。AI技术的误用和滥用可能带来安全风险,包括在舆论引导、文化渗透、军事应用等方面的新威胁。随着AI技术的快速发展,现有的治理规则可能跟不上技术的发展速度,导致新问题快速涌现而治理规则缺失的困境。AI算法的深度学习能力可能导致“算法黑箱”问题,使决策过程不透明,增加了监管难度。AI技术的无序扩散可能带来不可控的风险,需要有效的监管和治理来确保技术的健康发展。
为应对这些风险与挑战,实现对AI技术的有效管制,欧盟出台了《人工智能法案》,美国制定了《美国数据隐私和保护法案》、英国发布《理解人工智能的伦理和安全》等重要文件。中国国家主席习近平在《全球人工智能倡议》提出“应坚持以人为本、智能向善,引导人工智能朝着有利于人类文明进步的方向发展”的全球倡议,我国先后颁布了《互联网信息服务深度合成管理规定》、《人工智能伦理治理标准化指南》、《生成式人工智能服务管理暂行办法》、《科技伦理审查办法》等管制法规和政策文件。
这些要求通常不仅仅涉及一项或少数几项法律、适用的技术规范和标准或其他法规工作。全球性的方法和在符合性评估方面的广泛经验对于保护新的技术。在这方面,对于积极的风险管理和保护基于人工智能的应用来说,重要的是将合格评定机构委托进行符合性评估,这既可以确保对法规要求的熟悉,也可以确保维护和发展能力的经过验证的程序和流程。