2026年4月,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》1,明确将伦理审查从原则倡导转向制度化、可操作的治理机制。该办法聚焦AI技术快速迭代带来的算法歧视、深度伪造、隐私侵害等伦理风险,构建了“预防—服务—监管”三位一体的治理体系8。其中,责任主体的界定是制度落地的关键环节。
🔍 责任主体三级架构
我国AI伦理审查实行“单位主责+专业支撑+政府监管”的三级责任体系,确保审查落地见效8:
层级 主体 核心职责 来源
第一责任主体 高等学校、科研机构、医疗卫生机构、企业等 设立本单位的人工智能科技伦理委员会,对AI科技活动全过程进行伦理管理 16
专业服务支撑 地方或主管部门依托单位建立的“人工智能科技伦理审查与服务中心” 接受委托提供审查、复核、培训、咨询等服务,尤其支持中小微企业 18
监管与统筹主体 工业和信息化部、国家发展改革委、科技部等十部门 统筹推进伦理治理,监督审查工作,依法处理违规行为 15
单位内部的人工智能科技伦理委员会需包含技术、应用、伦理、法律等背景专家,负责指导风险评估、全过程监督和人员培训4。
对于未设立委员会或能力不足的单位,可委托服务中心开展审查;无单位人员也应通过服务中心完成审查1。
政府部门则通过制度设计、标准引导和执法监督保障体系运行5。
🛠 审查嵌入全流程
责任不仅停留在组织层面,更被要求嵌入AI系统全生命周期:
开发阶段:审查数据采集合法性、算法公平性、模型透明度;
应用阶段:跟踪监测系统运行,确保可控可信、责任可追溯;
应急情况:72小时内完成紧急审查,高风险项目每6个月至少复查一次711。
这种“组织+流程”双嵌入模式,使伦理责任从软约束变为硬制度6。
✅ 建议
对于企业或科研机构而言,下一步应:
尽快设立人工智能科技伦理委员会;
制定内部伦理审查流程与应急预案;
主动对接地方服务中心获取专业支持。