️一、明确监管范围、技术标准和底线规则,推进系统化的规则体系建设
加强人工智能安全监管需要系统化地推进规则体系建设。加强人工智能安全监管首先需要明确监管范围,这就要求对何为人工智能进行界定,如果不对人工智能进行界定,监管就容易出现过度或遗漏的情况。鉴于人工智能具有广泛的经济社会影响,对其应采取“系统审慎”原则,从人工智能的中心层、半中心层、边缘层及其延伸层等各个方面、全链条、全生命周期进行系统化监管。
对人工智能进行安全监管,就是要保证人工智能的开发、应用符合“以人为本”“智能向善”的要求。为此,需明确人工智能的开发与应用的技术标准,必须做到可区分、可解释、可追溯、可纠正。可区分就是要求保证开发与应用方能明确区分各类工具、方法、内容、信息等是否为人工智能所生成。可解释就是人工智能开发主体必须对其开发的人工智能系统内部构造、推理逻辑、技术接口、输出结果提供明确的、可理解的说明,科学反映人工智能系统产生结果的过程,明确可解释和不可解释的边界及其风险。可追溯就是对人工智能开发与应用全链条上所有参与主体的功能、角色、责任是可核查的。可纠正就是要保障人工智能出现问题时,可及时发现、及时纠正,包括局部性可修改、调整以及全局性可禁用。
发展人工智能要坚持伦理优先规则,明确底线要求。对触犯人类基本伦理、对人类造成灾难性影响的人工智能技术开发要制定明确的禁止性规则。
️二、加强国际合作,推动包容性全球人工智能安全监管制度建设
近年来,联合国、OECD、世界银行等国际组织和机构纷纷倡议加强人工智能治理研究与国际协同。不同国家之间基于双边、多边的人工智能治理合作也显著增加。例如,仅在2024年5月份,就开展了多项人工智能治理协调合作,中美两国在瑞士日内瓦举行中美人工智能政府间对话首次会议,中法两国元首发布关于人工智能和全球治理的联合声明,韩国和英国共同在首尔主办第二届人工智能安全峰会。尽管出现了人工智能合作的积极因素,但目前的分歧仍大于共识。为了在最大化人工智能发展机遇的同时最小化相关风险,需要建立一个政府、企业、专家等各利益相关者共同参与的,更加协调、集成的国际合作框架。
为了加强国际合作,要推动我国标准组织、行业协会、企业、高校、科研机构、专家学者等主体加入国际各类人工智能组织,强化与国际组织的联系合作和信息沟通,提升我国在国际人工智能组织中的话语权,推动人工智能治理国际合作。我国5G赶超的经验表明,提升在国际标准化组织中的话语权和影响力是实现技术领先的必要条件。与美国加快进入并控制国际人工智能组织相比,我国目前在国际人工智能组织中的参与度和影响力还相对较小,为此,要借鉴5G赶超的经验,加大力度支持人工智能相关主体进入国际标准化组织、产业协会、行业联盟等各类组织,强化与国际组织和其他主体的技术、信息交流,提升人工智能标准和治理体系建设的话语权。首先,积极加入全球人工智能合作伙伴关系(GPAI),同时支持国内人工智能知名学者以专家身份加入GPAI。GPAI可能将成为全球人工智能领域标准制定的主流组织(类似于无线网络的3GPP),但加入该组织需要同意遵守“OECD的AI原则”并获得三分之二成员同意。我国要积极争取该组织中成员国支持,争取早日加入该组织。由于GPAI还接纳学者以个人身份加入工作组,我国要鼓励国内知名人工智能专家加入。其次,支持企业、高校、科研机构、学者等加入人工智能促进会(AAAI)等其他国际人工智能协会、组织,积极参与国际人工智能治理模式和方案研讨,贡献中国治理方案。
展开全文️三、构建“1+N”的人工智能安全监管体系,推进建立“统分结合、分级分类”的系统化监管体系
无论哪个领域的人工智能,都会涉及数据、算力、算法、应用等安全问题,但不同的领域其安全风险又有特殊性,如生物领域的人工智能安全风险与科学研究领域、社会治理领域的人工智能安全风险就有所差异。因此,人工智能安全监管机制既要有一般性的治理原则和治理框架,又要有结合具体领域建立的安全监管制度。
要以“1+N”的治理框架为核心建立人工智能安全监管制度。一是在总结研究人工智能安全发展规律和特征的基础上,动态调整《人工智能安全治理框架》,以此作为我国人工智能安全治理的顶层指导,从数据安全、算法安全、算力安全、应用安全等方面,明确人工智能全生命周期安全监管的原则、方法、程序、工具等安全监管的办法和伦理要求;二是针对智慧交通、智慧医疗、金融科技等行业,结合行业特征出台具体的人工智能安全监管措施。特别地,可考虑以自动驾驶为先导,打造人工智能安全监管和治理标杆示范。自动驾驶是人工智能应用的先导领域,也是最具有前景的领域之一,目前各国均在加快部署自动驾驶领域的治理立法。就自动驾驶人工智能大模型而言,随着百度、商汤、地平线、华为等本土企业发力,我国自研的自动驾驶系统已经可以和特斯拉匹敌。在此基础上,我国可以加快推动智能驾驶法律法规体系建设,推动智能驾驶治理体系优化,率先打造智能驾驶治理领域标杆。
要加快建设顶层人工智能安全监管机制。一是建立国家人工智能安全监管平台。作为应对人工智能安全的全国性平台,对人工智能安全风险、安全发展形势等问题进行研究,定期发布人工智能安全防范指南,为行业企业、政府部门等各类主体防范人工智能安全风险提供指导。国家人工智能安全监管平台要推动各方自主建立人工智能风险预警机制,从技术、伦理、法律、经济和社会等多个维度进行综合评估,及时发现和预判新兴技术带来的潜在风险,增加风险的可预测性、可发现性,研究制定灵活且具有前瞻性的政策和法规。国家人工智能安全监管平台应定位于公共事业单位性质机构,主要职能是研究人工智能安全风险、提出人工智能安全预警和风险防范指南、搭建人工智能安全交流平台。二是成立国家人工智能发展和安全委员会。作为新一轮科技革命和产业变革的关键底层技术,人工智能的发展和安全受到各国普遍关注。由于人工智能发展和安全治理涉及多部门、多主体,所以各国都尝试通过建立跨部门的机构统筹协调人工智能发展和安全治理,如2024年4月,美国国土安全部宣布成立人工智能安全与保障委员会(AISSB),旨在为关键基础设施领域内部署和利用人工智能技术提供战略性建议和安全保障措施。2024年7月,韩国科学技术信息通信部宣布《国家人工智能委员会设立和运行条例》在内阁会议获批,将着手成立由总统直接领导的“国家人工智能委员会”,整合公共和私营部门力量,引领韩国人工智能领域创新发展。
作者为中国社会科学院工业经济研究所纪委书记,副所长,研究员,博士生导师;中国社会科学院工业经济研究所副研究员,副教授、硕士生导师