切换到宽版
  • 169阅读
  • 2回复

[智能应用]《人工智能科技伦理审查与服务办法》 [复制链接]

上一主题 下一主题
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君
 

发帖
180984
金币
621203
道行
20030
原创
769
奖券
471
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 22821(小时)
注册时间: 2012-06-21
最后登录: 2026-04-28
只看楼主 倒序阅读 楼主  发表于: 04-08
— 本帖被 兵马大元帅 执行加亮操作(2026-04-11) —

IT之家 4 月 8 日消息,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),为我国人工智能科技伦理审查与服务工作提供了明确指引。
《办法》对人工智能科技伦理审查的适用范围、服务促进、实施主体、工作程序、监督管理等作出规定,并结合人工智能科技活动特点,明确了申请与受理、一般程序、简易程序、专家复核程序、应急程序等不同程序要求,有效规范人工智能科技活动伦理治理。
为推进人工智能科技伦理服务体系建设,《办法》从标准建设、服务体系、鼓励创新、宣传教育、人才培养五个方面制定支持举措,帮助企业切实提升科技伦理风险防控能力。
《办法》与现有人工智能治理相关政策法规实现有效协同。
《办法》与《科技伦理审查办法(试行)》紧密衔接。《科技伦理审查办法(试行)》是覆盖各领域科技伦理审查的综合性、通用性规定,明确了审查基本程序、审查内容与标准等统一要求,为《办法》提供了基础遵循。《办法》在遵循通用规定的前提下,立足人工智能技术特征与伦理原则,在适用范围、申请材料、审查重点、简易程序适用等方面作了针对性完善与细化,更贴合人工智能科技伦理审查实际需要。
《办法》第二十六条规定,人工智能科技活动在深度合成、算法推荐、生成式人工智能服务管理等方面实行登记、备案、行政审批等监管措施且将符合科技伦理要求作为审批条件、监管内容的,可不再开展专家复核,有效减轻企业合规负担。
同时,《办法》第三十二条规定,明确违反本办法规定的,将依照《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《中华人民共和国科学技术进步法》等法律法规和相关规定进行调查处理并给予相应处罚。
《办法》规定的人工智能科技伦理审查程序主要包括:
  • 申请:人工智能科技活动负责人向本单位人工智能科技伦理委员会(以下简称委员会)或人工智能科技伦理审查与服务中心(以下简称服务中心)提交申请材料;
  • 受理:委员会或服务中心应根据申请材料决定是否受理申请,确定适用的审查程序,并通知申请人;
  • 开展审查:委员会或服务中心采用一般、简易或应急程序,开展科技伦理审查;
  • 专家复核:纳入“需要开展科技伦理专家复核的人工智能科技活动清单”(以下简称复核清单)管理的科技活动,通过委员会或服务中心的初步审查后,由单位申请专家复核,所在地方或相关主管部门组织开展专家复核;
  • 作出审查决定:委员会或服务中心开展审查后作出批准,修改后再审或不予批准等决定,纳入复核清单的科技活动,根据专家复核意见作出科技伦理审查决定;
  • 审查申诉:申请人对审查决定有异议的,可向委员会或服务中心提出申诉;
  • 跟踪审查:委员会或服务中心对审查批准的人工智能科技活动开展跟踪审查,跟踪审查间隔一般不超过 12 个月,纳入复核清单的活动,跟踪审查间隔一般不超过 6 个月。


委员会或服务中心重点围绕人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护等方面开展伦理审查。同时,还需要关注参与科技活动的科技人员资质等是否符合相关要求,拟开展的科技活动是否具有科学价值和社会价值,科技活动的风险受益是否合理,伦理风险控制方案及应急预案是否科学恰当、具有可操作性等。
IT之家注意到,《办法》第三节及附件规定,需要开展专家复核的人工智能科技活动主要包括以下三类:
  • 一是对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发;
  • 二是具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;
  • 三是面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。


开展专家复核的人工智能科技活动,需先通过本单位人工智能科技伦理委员会或委托的服务中心完成初步审查;再由本单位申请专家复核。其中,中央企业、中央和国家机关直属单位直接报请相关主管部门,其他单位报请地方。地方或相关主管部门按规定成立复核专家组,对初步审查意见的合规性、合理性开展复核,并在收到复核申请后 30 日内反馈复核意见。委员会或服务中心依据复核意见作出最终审查决定,同时对纳入复核清单的活动加强跟踪审查,跟踪审查间隔一般不超过 6 个月。若伦理风险发生重大变化,应重新开展审查并申请专家复核。


山庄提示: 道行不够,道券不够?---☆点此充值☆
 
我有我可以
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
180984
金币
621203
道行
20030
原创
769
奖券
471
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 22821(小时)
注册时间: 2012-06-21
最后登录: 2026-04-28
只看该作者 沙发  发表于: 04-08
2026年4月,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》1,明确将伦理审查从原则倡导转向制度化、可操作的治理机制。该办法聚焦AI技术快速迭代带来的算法歧视、深度伪造、隐私侵害等伦理风险,构建了“预防—服务—监管”三位一体的治理体系8。其中,责任主体的界定是制度落地的关键环节。

🔍 责任主体三级架构
我国AI伦理审查实行“单位主责+专业支撑+政府监管”的三级责任体系,确保审查落地见效8:

层级    主体    核心职责    来源
第一责任主体    高等学校、科研机构、医疗卫生机构、企业等    设立本单位的人工智能科技伦理委员会,对AI科技活动全过程进行伦理管理    16
专业服务支撑    地方或主管部门依托单位建立的“人工智能科技伦理审查与服务中心”    接受委托提供审查、复核、培训、咨询等服务,尤其支持中小微企业    18
监管与统筹主体    工业和信息化部、国家发展改革委、科技部等十部门    统筹推进伦理治理,监督审查工作,依法处理违规行为    15
单位内部的人工智能科技伦理委员会需包含技术、应用、伦理、法律等背景专家,负责指导风险评估、全过程监督和人员培训4。
对于未设立委员会或能力不足的单位,可委托服务中心开展审查;无单位人员也应通过服务中心完成审查1。
政府部门则通过制度设计、标准引导和执法监督保障体系运行5。
🛠 审查嵌入全流程
责任不仅停留在组织层面,更被要求嵌入AI系统全生命周期:

开发阶段:审查数据采集合法性、算法公平性、模型透明度;
应用阶段:跟踪监测系统运行,确保可控可信、责任可追溯;
应急情况:72小时内完成紧急审查,高风险项目每6个月至少复查一次711。
这种“组织+流程”双嵌入模式,使伦理责任从软约束变为硬制度6。

✅ 建议
对于企业或科研机构而言,下一步应:

尽快设立人工智能科技伦理委员会;
制定内部伦理审查流程与应急预案;
主动对接地方服务中心获取专业支持。
如何不发帖就快速得到金币道行
 
我有我可以
在线jjybzxw

UID: 551814


发帖
244668
金币
884707
道行
2006
原创
2464
奖券
3580
斑龄
45
道券
1580
获奖
0
座驾
设备
摄影级
在线时间: 52157(小时)
注册时间: 2008-10-01
最后登录: 2026-04-27
只看该作者 板凳  发表于: 04-08
中国首部AI伦理审查办法出台:规范技术边界,强化风险防控  

IT之家4月8日消息,工业和信息化部等十部门联合发布《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),这是我国首部针对人工智能科技伦理审查的专项政策文件,旨在通过系统化、规范化的审查机制,平衡技术创新与伦理风险,为AI技术健康发展提供制度保障。  
一、《办法》核心框架:覆盖全流程,明确责任主体  
1. 适用范围与审查程序  
覆盖场景:包括深度合成、算法推荐、生成式AI服务等高风险领域,要求相关活动需通过登记、备案或行政审批,并将“符合科技伦理要求”作为审批前提。  
审查程序:  
申请与受理:活动负责人向单位伦理委员会或审查服务中心提交材料,后者决定是否受理及适用程序。  
审查类型:分为一般程序、简易程序、应急程序,高风险活动需经专家复核。  
跟踪审查:批准后每12个月(复核清单内活动每6个月)需重新评估伦理风险。  
2. 实施主体与责任分工  
伦理委员会/服务中心:负责初步审查,重点评估人类福祉、公平公正、透明可解释等原则,以及科技人员资质、风险控制方案等。  
专家复核组:由地方或主管部门组建,对纳入复核清单的活动进行合规性、合理性二次审查,30日内反馈意见。  
监管协同:与《网络安全法》《数据安全法》等法规衔接,违规行为将依法处罚。  
二、三大创新点:细化规则,减轻企业负担  
1. 与通用政策衔接,针对性完善  
基础遵循:延续《科技伦理审查办法(试行)》的通用框架(如审查程序、内容标准),确保全国统一性。  
AI特性适配:  
简化流程:对已通过备案/审批的活动(如深度合成服务),免除专家复核,降低合规成本。  
细化标准:明确AI审查需关注“算法可控性”“数据隐私保护”“决策责任追溯”等AI特有风险。  
2. 专家复核清单:聚焦高风险领域  
三类活动需复核:  
  1. 人机融合系统:影响人类行为、心理或健康(如脑机接口、情感计算AI);  
  2. 舆论引导类算法:具备社会动员能力(如新闻推荐算法、社交机器人);  
  3. 高自主决策系统:用于安全关键场景(如自动驾驶、医疗诊断AI)。  
复核流程:单位初审→地方/部门复核→反馈意见→最终决定,强化第三方监督。  
3. 动态跟踪审查:风险变化即重启  
定期评估:根据风险等级设定6-12个月跟踪周期,确保伦理措施持续有效。  
重大变化处理:若技术应用场景、数据来源等发生重大变更,需重新审查并申请复核,避免“一审定终身”。  
三、实施影响:技术向善,行业生态重塑  
1. 对企业的意义:合规成本降低,创新空间明确  
减负案例:某生成式AI企业若已完成算法备案,按《办法》可跳过专家复核,缩短产品上市周期。  
风险防控:通过审查清单和跟踪机制,企业需提前规划伦理合规方案(如数据脱敏、算法偏见测试),避免后期整改成本。  
2. 对社会的价值:增强公众信任,促进技术普惠  
透明度提升:要求AI系统提供“可解释性说明”(如自动驾驶的决策逻辑),减少“黑箱”疑虑。  
公平性保障:审查中关注算法歧视、资源分配不均等问题,推动AI服务弱势群体(如无障碍技术、普惠医疗AI)。  
3. 对行业的挑战:伦理能力建设迫在眉睫  
人才缺口:企业需培养既懂技术又懂伦理的复合型人才,或与第三方机构合作完成审查。  
技术适配:部分AI模型(如深度神经网络)的“不可解释性”可能与审查要求冲突,需研发可解释AI(XAI)技术。  
四、国际对比:中国方案的特点与贡献  
1. 与欧盟《AI法案》的异同  
共同点:均按风险分级监管,高风险AI需严格审查。  
差异点:  
中国:强调“发展优先”,通过简化流程支持创新,同时以动态跟踪适应技术迭代。  
欧盟:以“风险预防”为核心,对高风险AI实施事前禁止或严格限制(如实时面部识别)。  
2. 全球治理意义  
制度供给:为发展中国家提供AI伦理审查的“中国模板”,平衡技术创新与社会风险。  
多边协作:与G20、联合国等国际组织合作,推动全球AI伦理标准互认。  
五、未来展望:从“有法可依”到“有效执行”  
1. 短期重点:政策宣贯与能力建设  
企业培训:工信部将联合行业协会开展《办法》解读,帮助企业理解审查要点。  
试点推广:在医疗、自动驾驶等领域先行试点,总结经验后全国铺开。  
2. 长期目标:构建AI伦理生态  
技术标准:制定AI可解释性、隐私保护等细分领域标准,与审查办法形成配套。  
公众参与:建立伦理审查公众评议机制,吸纳社会意见,避免“技术精英主义”。  


结语:《人工智能科技伦理审查与服务办法》的出台,标志着中国AI治理从“原则倡导”迈向“操作落地”。通过精细化审查程序、动态风险管控和减负创新机制,该政策既为技术划定伦理边界,也为行业留足发展空间。未来,随着执行细则的完善和跨部门协同的加强,中国有望在AI伦理领域形成“规范与创新并重”的治理范式,为全球智能社会建设贡献东方智慧。 🌐🤖

如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个