人工智能高质量发展的制度基石与行动指引 解读《人工智能科技伦理审查与服务办法(试行)》

发布时间:2026-04-09

  4月,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(工信部联科〔2026〕75号,以下简称《办法》),标志着我国人工智能伦理治理实现了从原则倡导、行业自律向制度化、程序化、全链条、可落地的关键跨越。《办法》作为覆盖人工智能研发与应用全周期的专门性伦理审查制度,既是国家科技伦理治理体系在人工智能领域的细化落地,也是我国统筹人工智能发展与安全、创新与责任、效率与公平的重大制度安排,为人工智能技术向善、智能产业高质量发展筑牢了刚性制度基石。

 通用人工智能加速落地,伦理风险成为系统性治理命题

  当前,人工智能正由专用智能向通用智能快速演进,技术渗透力、自主性与社会影响力空前提升,已成为驱动数字经济与新型工业化发展的核心引擎。但技术狂飙突进也伴随着伦理风险,例如:算法黑箱与算法歧视加剧社会不公,割裂社会共识;深度合成、内容操纵等技术冲击舆论生态,侵蚀社会信任;数据滥用与隐私侵害直接侵犯公民人格尊严;高度自主决策系统模糊责任边界,挑战人类主体地位;部分人机融合技术更直接触及生命健康与人格尊严的核心底线等。

  与此同时,全球主要经济体竞相完善人工智能规制体系,欧盟以《人工智能法案》为核心,构建起严格的风险分级监管框架;美国通过行政命令与司法实践,强化对高风险人工和智能系统的常态化管控等,全球人工智能治理已进入规则竞争的关键时期。作为人工智能产业大国、应用大国和创新大国,我国急需一套立足国情、适配技术发展、可操作、可执行的顶层制度设计,以回应社会公众对技术伦理的关切,防范系统性伦理风险,抢占全球人工智能治理的道义制高点。《办法》的出台,正是我国应对智能技术变革与治理需求的里程碑式举措,填补了人工智能领域专门性伦理审查制度的空白。

 构建“预防、服务、监管”三位一体的人工智能伦理善治体系

  《办法》共六章三十七条,另附高风险活动复核清单,在衔接《科技伦理审查办法(试行)》的基础上,针对人工智能技术迭代快、风险隐蔽性强、社会外溢性突出等特征,形成了系统性的制度创新,实现了伦理治理与技术发展规律、产业发展需求的深度适配,构建起“预防、服务、监管”三位一体的善治体系。

  (一)从“监管约束”转向“服务促进”,兼顾合规与创新的动态平衡。《办法》突破传统治理中“重监管、轻服务”的固有思路,专设“服务与促进”章节,明确将伦理治理定位为产业发展的助推器,而非简单的约束项。具体而言,一是推动构建多层次、全方位的人工智能科技伦理标准体系,加快国际标准、国家标准、行业标准、团体标准的协同衔接,为行业发展提供清晰、明确的合规指引;二是强化伦理风险监测预警、检测评估、认证咨询等公共服务供给,重点加大对中小微企业的伦理审查支持力度,破除其合规能力不足的困境;三是鼓励伦理审查技术创新与高质量数据集有序开源开放,推动以技术手段防范技术伦理风险,实现治理效能与创新活力的双向提升。

  这一制度设计实现了伦理治理与产业发展同向发力,兼顾合规成本与创新红利的动态平衡,有效避免了伦理治理“一刀切”可能带来的创新抑制问题,为人工智能产业健康发展保驾护航。

  (二)构建“单位主责、专业支撑、部门监管”的协同共治格局。《办法》清晰界定了三级责任主体,构建起权责对等、分工明确、协同高效的治理架构,确保伦理审查责任层层落实、落地见效。首先,落实单位第一责任。高校、科研机构、企业等作为人工智能科技活动的实施主体,必须设立独立运行的人工智能科技伦理委员会,将伦理要求全面嵌入研发、测试、应用、迭代全流程,实现伦理风险的源头防控。其次,强化专业服务支撑。鼓励地方依托相关单位建立专业化的人工智能科技伦理审查与服务中心,面向社会提供审查、复核、培训、咨询等第三方服务,有效破解基层单位“不会审、审不了”的现实难题。最后,压实政府监管职责。工业和信息化部会同相关部门统筹推进人工智能伦理治理工作,科技部负责统筹指导全国科技伦理监管工作,各行业主管部门与地方管理部门分工负责、协同联动,形成上下贯通、左右协同的监管格局。

  这种多元主体分工协作、相互制衡的协同治理模式,从根本上提升了伦理审查的独立性、专业性与公信力,为制度落地提供了组织保障。

  (三)以“清单管理+专家复核”实现精准规制与分级施策。《办法》根据人工智能科技活动的风险高低,科学设置了一般程序、简易程序、专家复核程序、应急程序四类审查流程,严格遵循“风险越高,审查越严”的原则,是全文最具操作性的制度创新。其中,核心亮点在于附件所列的高风险人工智能科技活动复核清单,明确划定了三类必须开展专家复核的高风险活动,实现了伦理监管的精准管控。一是对人类主观行为、心理情绪和生命健康具有较强影响的人机融合系统研发,此类活动直接触及人类尊严、身心安全与主体性底线,是伦理风险最敏感的领域;二是具有社会舆论动员能力和社会意识引导能力的算法模型、应用程序及系统研发,事关意识形态安全、社会共识凝聚与公共秩序稳定;三是面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统研发,直接关系公共安全与个体生命健康,一旦失控可能造成重大损失。对上述三类高风险活动,《办法》明确要求实行“单位初审+专家复核”的双重把关机制,有效防范了自查自纠可能出现的利益冲突与审查虚化问题。同时,设置72小时应急审查机制,确保在突发公共事件等紧急场景下,AI技术能够快速应用且不突破伦理底线,充分体现了敏捷治理、精准治理的鲜明特点。

  (四)高风险复核清单制度将严守安全与尊严底线。《办法》附件所列《需要开展科技伦理专家复核的人工智能科技活动清单》,并非简单的领域列举,而是《办法》中最具刚性约束力的制度安排,其核心是对人工智能伦理风险的精准识别与严格规制,充分体现了“底线思维、重点管控”的治理逻辑,为人工智能发展划定了不可逾越的伦理红线。

  (五)将伦理原则转化为可审计与可追溯的技术实践。《办法》将“增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明、保护隐私安全、确保可控可信”七大伦理原则,转化为可审查、可评估、可核验的具体标准,彻底打破了伦理原则“抽象化、模糊化”的困境,让伦理审查有章可循、有据可依。具体包括:一是数据来源是否合法合规,训练数据是否存在偏见或歧视;二是算法与模型是否具备可解释性,决策过程是否公平无歧视;三是系统是否具备鲁棒性与可控性,用户是否拥有必要的干预权限;四是全流程日志是否完整可查,责任链条是否清晰可追溯;五是个人信息与隐私是否得到充分保护,数据处理活动是否符合法律法规要求。这一设计从源头避免了伦理审查“走过场”“形式化”的问题,推动伦理要求真正嵌入算法设计、数据采集、模型训练、产品落地的底层逻辑,实现伦理与技术的深度融合。

  (六)对标上位法律,健全登记问责机制。为确保伦理审查从“软倡议”转变为“硬约束”,《办法》构建了一套严密的刚性约束体系,为制度落地提供了坚实保障。一是依托国家科技伦理管理信息登记平台,实现人工智能科技伦理委员会相关情况、高风险人工智能科技活动等信息的统一登记、信息共享、全程留痕,确保监管可追溯、可核查;二是畅通伦理问题投诉举报渠道,健全监督机制,鼓励社会力量参与伦理监督,形成全方位、多层次的监督格局;三是严格遵循《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《中华人民共和国科学技术进步法》等上位法律法规,明确违法违规行为的责任追究路径,对违规开展人工智能科技活动的单位和个人依法予以处罚。

 塑造中国特色AI治理模式,提升全球数字治理制度性话语权

  《办法》的出台,不仅是我国人工智能伦理治理进程中的里程碑事件,更在全球范围内构建了一套兼具中国特色与国际共识的治理方案,为重塑全球数字治理格局贡献了“中国智慧”与“中国方案”。

  对内而言,《办法》是人工智能高质量发展的制度基石与行动指引。通过前置性的伦理审查与全生命周期的风险防控,有效防范了算法歧视、隐私泄露、深度伪造、自主决策失控等潜在风险,切实筑牢了国家安全与公共利益的防线。同时,通过划定清晰透明的合规边界,遏制了“劣币驱逐良币”的恶性竞争,显著提升了社会公众对人工智能技术的信任度,为技术规模化应用奠定了基础。这种制度安排倒逼企业将“伦理可信”转化为产品与服务的核心竞争力,为我国人工智能技术的国际化拓展扫清了制度障碍。对外而言,《办法》成功塑造了“预防优先、服务导向、技术赋能、多元协同”的中国特色人工智能治理范式。这一模式既区别于欧盟侧重高强度规制的“硬法”路径,也不同于美国依赖市场主导的“软法”模式,而是探索出一条兼顾发展与安全、平衡效率与公平的“第三条道路”。它既坚守伦理底线、防范技术风险,又充分尊重技术创新规律,保障产业发展活力,为全球人工智能治理提供了具有可操作性的实践样本,显著提升了我国在全球数据与人工智能规则制定中的制度性话语权,推动全球人工智能治理体系向着更加公正合理、包容普惠的方向演进。

  人工智能是深刻影响人类未来的颠覆性技术,其发展必须在伦理与法治的轨道上行稳致远。《办法》以伦理前置、程序闭环、清单精准、协同共治为核心,构建起系统完备、科学规范、运行有效的人工智能伦理治理体系,标志着我国人工智能正式迈入伦理先行、安全可控、创新向善的高质量发展新阶段。

来源:中国工信新闻网 人民邮电报