党的二十届三中全会以统筹发展和安全为核心,对人工智能进行了系统全面的战略部署,提出“建立人工智能安全监管制度”。人工智能是引领新一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的“头雁效应”。作为新一轮科技革命和产业变革的战略性技术,人工智能一方面在经济社会领域具有巨大的潜在价值,另一方面也存在巨大的安全隐患。建立人工智能安全监管制度是人工智能发展中需要解决的关键问题。以人工智能安全监管制度建设为抓手,构建科学完善的人工智能治理体系,不仅是提升我国人工智能治理能力,促进我国人工智能发展的重要举措,同时也可以为全球人工智能治理困境提供中国解决方案,促进全球人工智能包容性发展,推动人工智能为人类命运共同体建设作出贡献。
️一、建立人工智能安全监管制度的必要性
(一)建立人工智能安全监管制度是应对人工智能复杂风险的必然选择
新兴技术在发展过程中都会带来潜在的安全风险,如汽车的出现和发展带来了交通事故的风险,世界卫生组织《2023年全球道路安全现状报告》指出,2025年全球约有119万人因道路交通事故死亡。但与其他技术风险不同,人工智能安全风险具有独特性,在其发展的初期就需要完善的安全监管和治理体系予以应对。
一是人工智能安全风险具有多样性。人工智能技术复杂、应用广泛,每个环节、每个要素都存在一定的安全隐患。2024年9月,我国全国网络安全标准化技术委员会发布了第一版《人工智能安全治理框架》,将人工智能安全风险分为技术本身安全风险和技术应用安全风险,共计26类细分安全风险,包括输出不可靠风险、数据泄露风险、信息内容安全风险等,这26类风险涉及的领域、环节、主体不同,都会对经济社会产生不同性质、不同程度的影响。
二是人工智能安全风险具有不可预测性。人工智能内部算法复杂,推理过程属于典型的黑盒模式,具有涌现性,这一方面会导致输出结果难以预测,另一方面也会产生人工智能幻觉,输出看似合理实则不符合常理的结果,从而引发误解、误判、误用,误导决策和行动,引发安全风险。
三是人工智能安全风险具有颠覆性。人工智能作为一种通用技术,既可以应用于经济社会等民用领域,也可以应用于军事国防等领域,一旦以非法目的应用于军事国防等领域就会形成巨大的国防安全和国家安全隐患。
四是人工智能安全风险责任具有复杂性。人工智能从技术开发到应用推广全链条的参与主体数量多,出现安全风险后会涉及大量主体,而且主体之间责任存在关联,从而极大地提高了溯源追责的难度和成本,增加了安全监管难度。例如,当前制约自动驾驶汽车发展的重要因素就是交通事故责任划分问题,自动驾驶汽车发生交通事故后责任主体应该是驾驶人,还是整车厂,亦或自动驾驶系统提供商,目前这些问题还存在较大争议。
人工智能安全风险的独特性给人工智能治理提出了巨大挑战。人工智能作为一种新质生产力要素,对于解决全球和我国经济社会发展面临的挑战意义重大,其发展有自身的规律,但如果安全问题得不到解决,其发展一方面会对全球和我国经济社会发展带来破坏性影响,同时也会反过来影响其自身发展,对自身发展形成巨大制约。解决好人工智能发展过程中的安全问题,促进人工智能向着有利于人类发展的方向演进,成为各国人工智能治理的关键,建立人工智能安全监管制度是完善人工智能治理体系、促进人工智能安全发展的必然选择。
(二)建立人工智能安全监管制度是为人工智能全球治理提供中国方案的重要抓手
人工智能发展的另一个难题在于如何形成有效的全球治理方案,破解当前人工智能国际治理悖论:一方面,人工智能技术和应用的全球化特征决定了迫切需要构建起能够达成普遍共识的全球治理方案,共同应对人工智能的挑战;另一方面,美欧日韩等发达国家以及印度等发展中国家都在抢占全球人工智能治理话语权,试图通过掌握人工智能治理主动权和控制权提升人工智能影响力与领先发展能力,这就导致各国在全球人工智能治理上的竞争甚至对抗大于合作,部分国家力图通过构建排除其他国家的“小圈子”、通过构建排他性应用规则遏制他国人工智能发展。为此,在全球人工智能治理体系建设方面,我国应积极发挥引领作用。
展开全文目前,我国已具备为全球人工智能治理提供中国方案的条件和基础:
一是我国人工智能的技术能力积累优势为探索科学高效的人工智能治理方案提供了客观基础。由于技术能力、发展水平的差距,在历史上的数次重大技术革命期,我国很少能在重大技术发展初期就参与技术标准、技术治理方案的制定。人工智能是我国在技术起步阶段就与发达国家处于同一起跑线的领域之一,根据世界知识产权组织的数据,2014年到2023年我国生成式人工智能专利申请量位居世界第一,这为我国参与和引领人工智能全球治理提供了客观基础。
二是我国倡导的人类命运共同体理念以及以人为本、智能向善的人工智能治理理念符合人工智能发展规律,为形成符合全人类共同利益的人工智能治理方案奠定了理念和伦理基础。近年来,我国人工智能安全监管和治理取得了显著成效,不仅有力支撑了我国人工智能发展,还为全球人工智能治理体系建设贡献了中国智慧。2023年7月,国家网信办、国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局七部门联合公布了《生成式人工智能服务管理暂行办法》,对生成式人工智能的技术、服务规范进行明确规定,这是全球首个针对生成式人工智能的管理办法。2024年9月,全国网络安全标准化技术委员会发布《人工智能安全治理框架》,明确了人工智能的安全风险以及不同类型安全风险的治理策略。在人工智能国际治理方面,我国也积极提出“全球人工智能治理倡议”,该倡议以“负责任”、“以人为本”、“智能向善”等价值理念为指导,强调共同、综合、合作、可持续的安全观,以及共商共建共享的全球治理观。人工智能全球治理的关键,在于如何推动国家间关系从零和博弈走向正和博弈,推动形成共同、综合、合作、可持续的安全观与共商共建共享的全球治理观。建立人工智能安全监管制度是在我国提出的全球人工智能治理倡议基础上,进一步为全球人工智能治理倡议提供操作性中国方案的突破口。
(三)建立人工智能安全监管制度是破除制度约束、加快释放经济增长新动能的先手棋
当前,我国经济增长动力转变面临的挑战依然很大,一方面传统动力放缓,对经济增长的拉动作用下降;另一方面很多新的经济增长领域在技术层面已经成熟,但由于治理体制、治理制度的制约,无法实现爆发式增长,从而限制了新动能的加快形成。加快推动人工智能安全监管体系建设,是推动人工智能加快产业化、加快形成新的经济增长点,促进新旧动能转换的重要前提和基础。以自动驾驶为例,当前全球自动驾驶技术已经较为成熟,具备了产业化条件,加之我国大规模个人消费市场对高级别自动驾驶汽车存在真实需求,未来自动驾驶有望成为拉动经济增长的重要动能。但由于针对自动驾驶的监管和立法滞后,迟滞了自动驾驶技术的产业化步伐。在国家层面,《交通安全法》等没有针对L3级别的自动驾驶做相应修正,导致L3级别自动驾驶2C的功能、宣传等均无法放开。工业和信息化部等四部委《关于开展智能网联汽车准入和上路通行试点工作的通知》虽然针对的是2B的L3自动驾驶,但没有考虑2C的L3自动驾驶。因此,整体上国内面向个体消费者的L3等高级别自动驾驶市场还处于关闭状态,技术潜力不能转化为现实生产力,从而也就不能对经济增长产生实际作用。
(四)建立人工智能安全监管制度是推进国家治理体系和治理能力现代化的重要路径
️二、建立人工智能安全监管制度的目标和任务
党的二十届三中全会提出的建立人工智能安全监管制度是对加强人工智能治理体系建设的进一步部署。总体来说,建立人工智能安全监管制度的目标在于控制和规避人工智能安全风险,促进人工智能向着有利于人类发展的方向发展。人工智能技术的本质是通过对海量数据的学习使得其具备人类行为和决策特征及能力。与其他技术相比,人工智能有两方面的独特特征,一是学习能力,一是自主决策能力。决定人工智能学习能力和自主决策能力的关键因素在于数据、算力和算法三大要素及三者的优化组合,人工智能安全风险从根本上来说来源于这几类要素。这几类要素组合构建的是计算世界,计算世界与经典的物理世界不同,不仅其开发是一个计算过程,其应用也是一个计算过程,由此,人工智能的安全风险,不仅内生于人工智能技术和系统本身,而且还可以内生于人工智能的应用环节。人工智能算法模型设计、训练和验证的标准接口、特性库和工具包,以及开发界面和执行平台可能存在逻辑缺陷从而产生应用领域的风险。我国发布的《人工智能安全治理框架》把风险分为人工智能内生安全风险和人工智能应用安全风险。人工智能内生安全风险包括模型算法安全风险、数据安全风险、系统安全风险。模型算法安全风险包括如解释性差、偏见和歧视、鲁棒性弱、被窃取和篡改、不可靠输出、对抗风险;数据安全风险包括违规搜集数据、投毒、训练数据标注不规范、数据泄露风险;系统安全风险包括缺陷、后门被攻击利用、算力安全、供应链安全风险。人工智能应用安全风险包括网络域安全风险、现实域安全风险、认识域和伦理域安全风险。基于此,人工智能安全监管的目标可以分为两个层次五个方面,一是保障人工治理算法安全,二是保障人工智能算力安全,三是保障人工智能数据安全,四是保障人工智能系统安全,五是保障人工智能应用安全。
建立人工智能安全监管的任务可以分为两个层面,一是针对具体安全风险的治理办法和治理措施,例如针对数据安全、隐私保护、生成式人工智能服务规范的治理等。目前各国在这一层面上进行了大量探索,出台了相关法规和政策,如欧盟出台的《通用数据保护条例》以及我国出台的《生成式人工智能服务管理暂行办法》。二是构建针对人工智能建立综合性的安全监管和治理的整体框架,以规范指导不同国家、不同领域的人工智能具体治理实践。人工智能应用范围广泛,同时涉及不同国家的治理合作,这就要求形成一套完整的人工智能治理框架体系,以指导不同领域、不同国家、不同部门的人工智能治理实践。构建人工智能安全监管框架体系与形成具体的治理措施相比具有先导性意义,也是当前全球人工智能治理争议的核心。
具体来看,构建人工智能安全监管制度包括如下四个方面的内容。
(一)明确人工智能安全监管的治理取向
人工智能作为新兴技术的代表,尚处于技术发展和应用的初期阶段。此时,人工智能的治理取向反映了一国在新技术发展和潜在风险之间的平衡,人工智能治理取向决定了不同国家、不同治理主体在发展和安全之间的抉择。不同国家在人工智能发展目标、发展理念、发展基础、核心优势等方面存在较大区别,从而导致人工智能治理取向差异较大。总体来看,美欧等发达国家在技术领先和技术霸权的发展理念下,根据各自优势,确立了不同的治理取向。
美国将获取未来人工智能技术全球领先地位作为发展人工智能的战略目标,这种技术领先的发展战略和导向导致美国在人工智能治理上采用更加审慎包容的态度,试图通过为企业营造宽松的发展环境促进企业技术创新。早在2025年1月,白宫发布的《人工智能应用规范指南》就指出,美国保持全球AI领导地位对维护经济和国家安全至关重要,联邦机构必须避免阻碍创新和增长的、不必要的监管或非监管行动。
欧盟在人工智能技术创新方面相对落后,但欧盟具有较强的全球治理领导力,在全球标准、全球治理话语权方面具有较强的领导力。基于这一能力,欧盟对人工智能采取更加严格的治理取向,试图通过掌握人工智能治理领导权提升全球影响力。美国哥伦比亚大学法学院教授阿努·布拉德福德提出的“布鲁塞尔效应”就是指欧盟通过其单方面的市场规制能力,在无需其他国家或国家机构协作的情况下,制定出全球市场遵循的规章制度。在人工智能治理方面,欧盟也表现得较为积极和激进,试图通过领先治理、严格治理的方式,获取全球人工智能治理话语权。欧盟2018年出台的《通用数据保护条例》已经成为全球数据保护规范的标杆。2024年5月,欧盟正式批准《人工智能法案》,成为全球人工智能治理的第一部法案。
不管是美国的审慎监管,还是欧盟的严格监管,其出发点都是提升人工智能竞争力,抢占新一代科技和产业革命制高点。但人工智能作为推动经济、社会等各领域变革的关键底层技术,推动人工智能发展和监管不能仅仅从国家利益角度出发,而应该从促进人类社会发展、构建人类命运共同体的角度出发进行监管和治理。基于此,我国发展人工智能必须坚持“负责任”、“以人为本”、“智能向善”的治理取向。“负责任”就是要确保人工智能安全、可靠、可信。“以人为本”就是以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提,确保人工智能始终朝着有利于人类文明进步的方向发展。“智能向善”就是确保人工智能遵守适用的国际法,符合和平、发展、公平、正义、民主、自由的全人类共同价值,不能恶用滥用人工智能。
(二)构建人工智能安全监管的治理机制
从治理理论来看,当前的人工智能治理模式可以分为三种:其一是市场治理模式,即发挥企业治理主体责任,通过市场机制实现人工智能治理;其二是社群治理模式,即通过协会、联盟等非官方机构的方式实现治理;其三是行政治理模式,即发挥政府主导作用,通过行政命令、法律等正式制度来实现治理。由于不同国家人工智能治理取向、体制要素、治理环境等因素的差异,最优的人工智能治理机制也应有较大的不同。美国的人工智能治理机制可以概括为“市场治理和社群治理为主、行政治理为辅”的机制,欧盟则可以概括为“行政治理主导”的机制。
人工智能治理不仅是政府关注的问题,也是企业(尤其是科技企业)关注的问题,OpenAI、微软、红袖中文网、苹果、英伟达等美国科技龙头企业积极参与人工智能治理,不仅通过论坛、会议的方式探讨人工智能治理问题,还积极开展人工智能治理的政策研究,成为人工智能治理重要的市场化力量。例如,2023年5月,美国微软公司发布《人工智能治理:未来蓝图》报告,对生成式人工智能治理提出五点建议,希望通过公共政策、法律和法规来解决当前正在出现的人工智能治理问题。除了单个企业外,行业协会、非营利机构、企业联盟等机构也参与到人工智能治理中,这些机构有些具有官方背景,有些则属于民间组织,但通过链接不同主体,构成了重要的社群治理力量。2023年8月,美国非营利组织Accountable Tech、AI Now研究所和电子隐私信息中心(EPIC)联合发布了《零信任人工智能治理》的政策建议,旨在限制大型AI公司在监管方面的影响力。该政策建议提出“零信任人工智能治理”框架的三项首要原则,呼吁立法者重新审视保护法,防止科技公司为牟利而去涉及明确禁止的某些AI领域。2024年2月,美国商务部部长雷蒙多宣布成立美国人工智能安全研究所联盟(AI Safety Institute Consortium,AISIC),该联盟隶属于美国国家标准与技术研究院(NIST)下设的人工智能安全研究所(USAISI)。该联盟汇集200多家科技企业、高等院校、金融组织和政府机构等单位,包括红袖中文网、英伟达、美国银行、麻省理工学院、兰德公司等。旨在为AI安全测试评估和相关政策制定提供基于科学和经验依据的指导方针与标准,以支持安全可信的AI的开发和部署。
从欧盟来看,不管是人工智能法案的制定还是实施,都由欧盟官方统一推进,表现出鲜明的行政治理特征。作为全球首部正式立法,《人工智能法案》从一开始提出就体现了欧盟层面的统一部署。2025年4月,欧盟委员会提出了关于欧盟人工智能监管框架的建议,同时提出了《人工智能法案》提案的谈判授权草案,此后,欧洲议会和欧盟理事会针对该草案进行了多轮修订和讨论。2023年6月,欧洲议会以499票赞成、28票反对和93票弃权,高票通过了《人工智能法案》谈判授权草案。为了推进《人工智能法案》的统一实施,欧盟委员会于2024年1月成立了欧洲人工智能办公室,作为通信网络、人工智能内容和技术总局行政架构的一部分,其职能主要包括促进人工智能系统的实施、监测和监督以及人工智能治理。
我国人工智能治理模式选择应在借鉴其他国家经验的基础上,充分发挥中国特色社会主义市场经济体制的优势,既要发挥市场的作用,也要更好地发挥政府的作用,还要发挥好社会的作用。一是要发挥政府在人工智能治理中的主导作用。人工智能涉及的安全隐患较多、安全风险较大,需要充分发挥政府监管职责。同时,人工智能涉及主体多样,不同主体间的监管协调十分重要,需要充分发挥新型举国体制优势,形成人工智能安全监管合力。二是要发挥企业,特别是龙头企业、行业协会在人工智能监管中的作用。人工智能龙头企业、正式的或非正式的联盟组织、行业协会等本身是人工智能创新主体,也是人工智能监管的受益者,在构建人工智能监管体系中,不可或缺,但也不能把监管责任完全归于企业。如果把人工智能安全风险完全内化为企业责任,则人工智能的安全级别会完全取决于开发成本和风险承担成本的平衡,企业可能会因为成本收益权衡而忽略重大的技术风险。三是要充分发挥社会的作用,把公众参与内生于人工智能监管制度之中。
(三)完善人工智能安全监管的治理架构
人工智能治理架构反映不同治理主体之间的关系,人工智能治理的主体具有多样性,既有官方性质的主体,也有市场化的主体。美国人工智能治理架构呈现分散治理的特征,即在联邦政府层面上未出台关于人工智能治理的专门性、顶层性法律,但充分发挥州政府和联邦政府在人工智能治理上的积极作用,试图让各个分散化主体独自探索人工智能在不同领域的治理模式。欧盟人工智能治理则呈现统一治理架构,由于欧洲统一大市场对统一监管的需要,人工智能治理首先在欧盟层面形成统一的治理体系。
美国分散治理架构的特征是联邦政府出台人工智能治理的基本原则和立场,州政府、联邦各部门分散探索人工智能治理的具体机制,形成人工智能治理的双轮驱动。目前,美国联邦政府尚未出台关于人工智能治理的统一法案或法律,但已释放出人工智能治理的基本原则和取向,如2023年10月拜登总统签署的《关于安全、可靠和值得信赖地开发和使用人工智能的行政命令》提出,保护美国人的隐私,促进公平和公民权利,维护消费者和工人的利益,促进创新和竞争,提升美国在人工智能全球治理中的领导地位。在这些整体原则指导下,美国各州和联邦政府各部门积极探索人工智能各细分领域的治理模式和治理机制。州政府是美国人工智能治理的重要主体。截至目前,美国已有加利福尼亚州、弗吉尼亚州、科罗拉多州、犹他州和康涅狄格州五个州出台了全面消费者数据隐私立法。除了州政府以外,联邦政府各部门也是美国人工智能治理的重要力量,围绕各自监管领域和部门职责,联邦政府各部门加快完善部门内部人工智能治理架构建设和治理制度制定。《关于安全、可靠和值得依赖地开发和使用人工智能的行政命令》提出,由美国行政管理和预算局(OMB)组织各联邦机构增选设立首席人工智能官,以完善人工智能治理机构。截至目前,美国联邦政府已有十多个部门设立了首席人工智能官。
与美国分散治理不同,欧盟表现出鲜明的统一治理特征,欧盟各成员国根据欧盟层面人工智能治理立法构建本国适用条例,并确保相关立法在成员国内一致执行。欧盟层面的人工智能立法对各成员国法律具有“直接效力”和“优先适用性”,欧盟成员国须以欧盟层面立法为蓝本构建本国的适用条例,且这一过程受欧盟委员会的监督。此外,欧盟构建了一套自上而下的垂直实施机制,以保障相关立法可以在各成员国统一实施。以《通用数据保护条例》为例,形成了欧盟层面、成员国层面、机构层面的三级执行体系,其中欧盟数据保护委员会、欧洲数据保护专员公署是欧盟层面的数据治理和协调机构,对各成员国数据治理机构进行监督,确保《通用数据保护条例》在欧盟成员国中的一致执行;每个欧盟成员国设立一个或多个独立的数据治理机构(如丹麦“数据监察局”、法国“国家信息与自由委员会”等),负责监督《通用数据保护条例》在本国的实施,进行具体事件的调查;公共机构等设立数据保护官,对机构内部的《通用数据保护条例》义务履行情况进行监督,并与数据治理机构进行合作。
我国的人工智能安全监管的治理架构,要坚持统分结合、分级分类、内外协作。统分结合就是要在国家层面建立集中统一的人工智能安全监管机构,负责制定统一的安全监管法律、法规、条例等,总体负责对全国的人工智能安全监管,各地区、各部门统一向其负责,履行法定的安全监管职能。分级分类,就是要针对不同类型的人工智能,制定出相应的监管规则和制度。人工智能作为通用技术,其价值的发挥依赖于各国在技术标准、治理架构等领域的合作。为此,人工智能全球治理要摒弃利益争夺,从人类共同利益最大化的角度探索合理的治理架构。我国在人工智能安全监管的治理架构建设中,除了在国内探索构建与人工智能技术、我国经济社会特点相适应的治理架构外,还要坚持内外协作原则,倡导建立全球共同监管、协作监管的治理架构,推动人工智能安全监管治理架构的包容性发展。
(四)健全人工智能安全监管的治理工具
人工智能治理既可以选择具有强制性的法律法规等“硬”手段,也可以选择推荐标准、行业倡议等“软”约束手段,采用什么样的人工智能治理工具是构建治理体系的重要内容。欧盟人工智能治理主要依托法律、法规和指令等正式制度体系实施强制性治理,美国的人工智能治理模式更多是通过地方自治、行业规则和自愿倡导等“软”性方法实施规制。
虽然美国不断出台有关人工智能治理的文件,但缺乏具有约束力的正式制度体系建设。2023年,美国参众两院共召开了超过30场人工智能相关听证会,联邦贸易委员会、商务部、管理和预算办公室、国防部等各部门及其下辖机构围绕人工智能也发布了各种研判报告,《人工智能风险管理框架》(AI RMF 1.0)、《生成式人工智能和数据隐私:初探》报告、《两党人工智能立法框架》、《关于推进联邦机构使用人工智能的治理、创新和风险管理》政策草案等相继问世,但目前仍以原则性要求内容为主,尚无具体的义务性内容。
根据联合国教科文组织对全球各国人工智能规制方法的总结,当前兴起的全球人工智能监管的方法主要有九种类型,包括基于指导性原则的、基于标准的、基于敏捷和实验的、基于便利和赋能的、基于采用现有法律法规的、基于信息和透明度的、基于风险的、基于权利的、基于责任的方法,这九种类型涉及人工智能安全监管的不同治理工具,有着不同的适应性和价值,需要系统地加以运用。目前,我国人工智能安全监管正处于积极探索阶段,相关的政策措施也已出台,如《生成式人工智能服务管理暂行办法》等。这些治理工具既包含强制性的政策工具,也包含指导性政策工具。未来,我国人工智能治理工具体系应该向集法律、政策、规范、指南、技术、伦理规则等多种工具为一体的系统化方向发展。
️三、人工智能安全监管制度建设的着力点和政策建议
(一)明确监管范围、技术标准和底线规则,推进系统化的规则体系建设
加强人工智能安全监管需要系统化地推进规则体系建设。加强人工智能安全监管首先需要明确监管范围,这就要求对何为人工智能进行界定,如果不对人工智能进行界定,监管就容易出现过度或遗漏的情况。鉴于人工智能具有广泛的经济社会影响,对其应采取“系统审慎”原则,从人工智能的中心层、半中心层、边缘层及其延伸层等各个方面、全链条、全生命周期进行系统化监管。
对人工智能进行安全监管,就是要保证人工智能的开发、应用符合“以人为本”、“智能向善”的要求。为此,需明确人工智能的开发与应用的技术标准,必须做到可区分、可解释、可追溯、可纠正。可区分就是要求保证开发与应用方能明确区分各类工具、方法、内容、信息等是否为人工智能所生成。可解释就是人工智能开发主体必须对其开发的人工智能系统内部构造、推理逻辑、技术接口、输出结果提供明确的、可理解的说明,科学反映人工智能系统产生结果的过程,明确可解释和不可解释的边界及其风险。可追溯就是对人工智能开发与应用全链条上所有参与主体的功能、角色、责任是可核查的。可纠正就是要保障人工智能出现问题时,可及时发现、及时纠正,包括局部性可修改、调整以及全局性可禁用。
发展人工智能要坚持伦理优先规则,明确底线要求。对触犯人类基本伦理、对人类造成灾难性影响的人工智能技术开发要制定明确的禁止性规则。
(二)加强国际合作,推动包容性全球人工智能安全监管制度建设
近年来,联合国、OECD、世界银行等国际组织和机构纷纷倡议加强人工智能治理研究与国际协同。不同国家之间基于双边、多边的人工智能治理合作也显著增加。例如,仅在2024年5月份,就开展了多项人工智能治理协调合作,中美两国在瑞士日内瓦举行中美人工智能政府间对话首次会议,中法两国元首发布关于人工智能和全球治理的联合声明,韩国和英国共同在首尔主办第二届人工智能安全峰会。尽管出现了人工智能合作的积极因素,但目前的分歧仍大于共识。为了在最大化人工智能发展机遇的同时最小化相关风险,需要建立一个政府、企业、专家等各利益相关者共同参与的,更加协调、集成的国际合作框架。
为了加强国际合作,要推动我国标准组织、行业协会、企业、高校、科研机构、专家学者等主体加入国际各类人工智能组织,强化与国际组织的联系合作和信息沟通,提升我国在国际人工智能组织中的话语权,推动人工智能治理国际合作。我国5G赶超的经验表明,提升在国际标准组织中的话语权和影响力是实现技术领先的必要条件。与美国加快进入并控制国际人工智能组织相比,我国目前在国际人工智能组织中的参与度和影响力还相对较小,为此,要借鉴5G赶超的经验,加大力度支持人工智能相关主体进入国际标准组织、产业协会、行业联盟等各类组织,强化与国际组织和其他主体的技术、信息交流,提升人工智能标准和治理体系建设的话语权。首先,积极加入全球人工智能合作伙伴关系(GPAI),同时支持国内人工智能知名学者以专家身份加入GPAI。GPAI可能将成为全球人工智能领域标准制定的主流组织(类似于无线网络的3GPP),但加入该组织需要同意遵守“OECD的AI原则”并获得三分之二成员同意。我国要积极争取该组织中成员国支持,争取早日加入该组织。由于GPAI还接纳学者以个人身份加入工作组,我国要鼓励国内知名人工智能专家加入。其次,支持企业、高校、科研机构、学者等加入人工智能促进会(AAAI)等其他国际人工智能协会、组织,积极参与国际人工智能治理模式和方案研讨,贡献中国治理方案。
(三)构建“1+N”的人工智能安全监管体系,推进建立“统分结合、分级分类”的系统化监管体系
无论哪个领域的人工智能,都会涉及数据、算力、算法、应用等安全问题,但不同的领域其安全风险又有特殊性,如生物领域的人工智能安全风险与科学研究领域、社会治理领域的人工智能安全风险就有所差异。因此,人工智能安全监管机制既要有一般性的治理原则和治理框架,又要有结合具体领域建立的安全监管制度。
要以“1+N”的治理框架为核心建立人工智能安全监管制度。一是在总结研究人工智能安全发展规律和特征的基础上,动态调整《人工智能安全治理框架》,以此作为我国人工智能安全治理的顶层指导,从数据安全、算法安全、算力安全、应用安全等方面,明确人工智能全生命周期安全监管的原则、方法、程序、工具等安全监管的办法和伦理要求;二是针对智慧交通、智慧医疗、金融科技等行业,结合行业特征出台具体的人工智能安全监管措施。特别地,可考虑以自动驾驶为先导,打造人工智能安全监管和治理标杆示范。自动驾驶是人工智能应用的先导领域,也是最具有前景的领域之一,目前各国均在加快部署自动驾驶领域的治理立法。就自动驾驶人工智能大模型而言,随着百度、商汤、地平线、华为等本土企业发力,我国自研的自动驾驶系统已经可以和特斯拉匹敌。在此基础上,我国可以加快推动智能驾驶法律法规体系建设,推动智能驾驶治理体系优化,率先打造智能驾驶治理领域标杆。
要加快建设顶层人工智能安全监管机制。一是建立国家人工智能安全监管平台。作为应对人工智能安全的全国性平台,对人工智能安全风险、安全发展形势等问题进行研究,定期发布人工智能安全防范指南,为行业企业、政府部门等各类主体防范人工智能安全风险提供指导。国家人工智能安全监管平台要推动各方自主建立人工智能风险预警机制,从技术、伦理、法律、经济和社会等多个维度进行综合评估,及时发现和预判新兴技术带来的潜在风险,增加风险的可预测性、可发现性,研究制定灵活且具有前瞻性的政策和法规。国家人工智能安全监管平台应定位于公共事业单位性质机构,主要职能是研究人工智能安全风险、提出人工智能安全预警和风险防范指南、搭建人工智能安全交流平台。二是成立国家人工智能发展和安全委员会。作为新一轮科技革命和产业变革的关键底层技术,人工智能的发展和安全受到各国普遍关注。由于人工智能发展和安全治理涉及多部门、多主体,所以各国都尝试通过建立跨部门的机构统筹协调人工智能发展和安全治理,如2024年4月,美国国土安全部宣布成立人工智能安全与保障委员会(AISSB),旨在为关键基础设施领域内部署和利用人工智能技术提供战略性建议和安全保障措施。2024年7月,韩国科学技术信息通信部宣布《国家人工智能委员会设立和运行条例》在内阁会议获批,将着手成立由总统直接领导的“国家人工智能委员会”,整合公共和私营部门力量,引领韩国人工智能领域创新发展。
(作者为中国社会科学院工业经济研究所纪委书记,副所长,研究员,博士生导师;中国社会科学院工业经济研究所副研究员,副教授、硕士生导师)
来源 / 《北京师范大学学报(社会科学版)》
责编 / 沈竹山
校审 / 李 翔
监制 / 孙玉华
️一本关于国企改革的评论
《现代国企研究》杂志是由中央党校国务院国资委分校、全国党建研究会国有企业党建研究专业委员会指导,中国兵器工业集团有限公司主管、中国兵器工业集团人才研究中心主办,面向国内外公开发行的社科类期刊。2010年创刊以来,杂志秉持“启迪国企现代思维 领航国企特色实践”的宗旨,突出评论特色,围绕国企改革和国企党建两大主题,研究发展规律,解析制度精髓,探索实践途径,已成为服务国资国企改革发展和党的建设权威研究平台和主流舆论阵地。国内统一刊号:CN11-5992/F 全年定价420元
联系人:沈老师
投稿邮箱:xdgqyj@163.com
更多