国务院近日印发《关于深入实施“人工智能+”行动的意见》(以下简称《意见》),标志着我国人工智能治理迈入系统推进的新阶段。《意见》明确提出强化八项基础支撑能力,其中“强化政策法规保障”与“提升安全能力水平”两项部署,既延续了“有序创新”的治理逻辑,又针对新兴风险作出前瞻性安排,为全球数字治理贡献了中国方案。
我国人工智能立法始终坚持发展与安全的动态平衡。不同于欧盟以“风险规避”为导向的严格监管,也区别于美国对内宽松、对外技术封锁的策略,《意见》强调完善法律法规和伦理准则,推进人工智能健康发展相关立法工作,旨在守住安全底线的同时为技术创新预留合理空间。
这一理念在地方实践中已有印证。例如,《深圳经济特区人工智能产业促进条例》首创“先行先试”机制,对符合国际先进产品标准或规范的低风险人工智能产品,允许开展测试与试点;上海出台《上海市进一步扩大人工智能应用的若干措施》,安排专项资金,通过发放“模型券”“算力券”鼓励企业使用人工智能技术和算力资源,并设定合理的申请条件以确保政策效果,引导企业兼顾创新与责任。两地通过分级监管、伦理审查和沙盒机制等创新,推动企业将合规内化为发展自觉,为国家层面法律和政策的制定积累了宝贵经验。
在安全治理方面,《意见》提出构建“动态敏捷、多元协同”的治理体系,强化对算法歧视、模型黑箱、输出幻觉等风险的防控。目前,北京石景山区等地已将算法备案作为企业享受政策扶持的前提。这些探索表明,制度约束与技术治理正逐步融合,促进治理实效不断提升。
《意见》强调完善法律法规与伦理准则等,其关键在于将伦理原则转化为可操作的技术标准。我国采取“标准先行”策略,如国家人工智能标准化总体组及全国信标委人工智能分委会发布《人工智能伦理治理标准化指南》,提出公平性、可解释性等评估框架等。这种“伦理技术化”模式,使“科技向善”从道德倡导转变为可测量、可验证的工程实践,增强了治理的精准性与执行力。
在安全评估与备案制度优化方面,《意见》积极回应了当前监管实践中面临的实际挑战。目前,生成式人工智能备案需提交大量材料,初创企业单次合规成本可能高达数十万元甚至数百万元,这种制度性成本会在一定程度上抑制企业创新的积极性。对此,《意见》提出“分类分级”治理思路,即依据应用风险等级实施差异化监管:高风险领域严格审查,中低风险领域则简化流程、降低门槛。这一治理思路既能提升监管工作的精准度与效率,也能切实为企业减轻合规负担,更好平衡安全监管与创新发展的关系。
全球治理经验也表明,有效的人工智能治理体系需超越监管抑制创新的二元对立。日本设立内阁直管的“AI战略本部”,统筹技术发展与伦理规制;巴西引入“监管沙盒”机制,允许企业在监督下测试自动驾驶等高风险技术。《意见》倡导多元协同治理,正推动形成政府、企业、科研机构和社会公众共同参与的治理网络。例如,深港跨境数据验证平台就是由深圳前海管理局、香港科技园与微众银行等联合建设,运用新型数据验证技术和安全机制,大幅简化了企业在跨境业务中的信用核查流程,体现了多方协作的治理效能。
随着人工智能向能源、生物、医疗等高风险领域加速渗透,治理体系需持续升级。《意见》要求建立健全人工智能技术监测、风险预警和应急响应体系。实践中,应整合司法、网信、工信等部门的数据与执法资源,通过数据共享与智能分析提升风险识别与协同处置能力,形成跨领域、跨区域的联防联控机制。
人工智能治理的本质,是技术进步与文明价值的协同演进。具有中国特色的“有序创新”范式,通过分级分类监管平衡发展与安全,以技术标准筑牢伦理底线,这种制度弹性与标准融合的路径,可以说为全球人工智能治理提供了可借鉴的新范式。
(来源:法治网)