五问+两图读懂《人工智能科技伦理审查与服务办法(试行)》

近日,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》)。为更好理解和实施《办法》,现就有关内容解读如下。

一、《办法》出台的背景是什么?

党和国家高度重视科技伦理工作,2022年3月,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,对科技伦理治理作出顶层设计和系统部署;2023年9月,科技部等十部门联合印发《科技伦理审查办法(试行)》,对科技伦理审查主体、审查程序作出具体规定;2024年7月,党的二十届三中全会再次强调“加强科技伦理治理”。人工智能技术快速发展,深度赋能千行百业,由此带来的算法歧视、深度伪造等伦理风险也愈加凸显。人工智能科技伦理治理是人工智能治理的重要组成部分,主要包括增进人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护等内涵。加强人工智能科技伦理治理,是坚守科技向善、筑牢科技安全底线、保障产业高质量发展的必然要求。在此背景下,出台《办法》,既是对科技伦理治理要求的具体落地,也是推动人工智能产业创新发展、促进负责任创新的现实需要。

二、《办法》与现有人工智能治理政策法规如何衔接?

《办法》与现有人工智能治理相关政策法规实现有效协同。

《办法》与《科技伦理审查办法(试行)》紧密衔接。《科技伦理审查办法(试行)》是覆盖各领域科技伦理审查的综合性、通用性规定,明确了审查基本程序、审查内容与标准等统一要求,为《办法》提供了基础遵循。《办法》在遵循通用规定的前提下,立足人工智能技术特征与伦理原则,在适用范围、申请材料、审查重点、简易程序适用等方面作了针对性完善与细化,更贴合人工智能科技伦理审查实际需要。

《办法》第二十六条规定,人工智能科技活动在深度合成、算法推荐、生成式人工智能服务管理等方面实行登记、备案、行政审批等监管措施且将符合科技伦理要求作为审批条件、监管内容的,可不再开展专家复核,有效减轻企业合规负担。

同时,《办法》第三十二条规定,明确违反本办法规定的,将依照《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《中华人民共和国科学技术进步法》等法律法规和相关规定进行调查处理并给予相应处罚。

三、《办法》中规定的人工智能科技伦理审查流程主要包括哪些环节?审查重点关注哪些方面?

《办法》规定的人工智能科技伦理审查程序主要包括:

申请:人工智能科技活动负责人向本单位人工智能科技伦理委员会(以下简称委员会)或人工智能科技伦理审查与服务中心(以下简称服务中心)提交申请材料;

受理:委员会或服务中心应根据申请材料决定是否受理申请,确定适用的审查程序,并通知申请人;

开展审查:委员会或服务中心采用一般、简易或应急程序,开展科技伦理审查;

专家复核:纳入“需要开展科技伦理专家复核的人工智能科技活动清单”(以下简称复核清单)管理的科技活动,通过委员会或服务中心的初步审查后,由单位申请专家复核,所在地方或相关主管部门组织开展专家复核;

作出审查决定:委员会或服务中心开展审查后作出批准,修改后再审或不予批准等决定,纳入复核清单的科技活动,根据专家复核意见作出科技伦理审查决定;

审查申诉:申请人对审查决定有异议的,可向委员会或服务中心提出申诉;

跟踪审查:委员会或服务中心对审查批准的人工智能科技活动开展跟踪审查,跟踪审查间隔一般不超过12个月,纳入复核清单的活动,跟踪审查间隔一般不超过6个月。

委员会或服务中心重点围绕人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护等方面开展伦理审查。同时,还需要关注参与科技活动的科技人员资质等是否符合相关要求,拟开展的科技活动是否具有科学价值和社会价值,科技活动的风险受益是否合理,伦理风险控制方案及应急预案是否科学恰当、具有可操作性等。

四、哪些人工智能科技活动需要开展专家复核,具体如何开展?

《办法》第三节及附件规定,需要开展专家复核的人工智能科技活动主要包括以下三类:

一是对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发;

二是具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;

三是面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。

开展专家复核的人工智能科技活动,需先通过本单位人工智能科技伦理委员会或委托的服务中心完成初步审查;再由本单位申请专家复核。其中,中央企业、中央和国家机关直属单位直接报请相关主管部门,其他单位报请地方。地方或相关主管部门按规定成立复核专家组,对初步审查意见的合规性、合理性开展复核,并在收到复核申请后30日内反馈复核意见。委员会或服务中心依据复核意见作出最终审查决定,同时对纳入复核清单的活动加强跟踪审查,跟踪审查间隔一般不超过6个月。若伦理风险发生重大变化,应重新开展审查并申请专家复核。

五、办法在人工智能科技伦理服务与促进方面提出了哪些具体举措?

《办法》专门设立第二章“服务与促进”,围绕标准建设、促进服务、鼓励创新、宣传教育、人才培养五个方面制定务实举措,精准破解当前人工智能企业伦理治理中存在的技术手段不足、标准规范不完善、治理工具匮乏等问题。

一是鼓励高等学校、科研机构、医疗卫生机构、企业和科技类社会团体等参与人工智能科技伦理标准制定,凝聚行业共识,完善标准体系。

二是推进人工智能科技伦理服务体系建设,强化风险监测预警、检测评估、认证、咨询等服务供给,加大对中小微企业人工智能科技伦理审查的支持和服务力度,降低企业合规成本。

三是支持人工智能科技伦理审查技术创新,鼓励企业运用技术手段防范伦理风险。

四是加强人工智能科技伦理宣传教育,提升公众伦理意识和素养。

五是推动职业体系和课程体系建设,采取多种方式培养人工智能科技伦理人才。