首页 今日新闻文章正文

《人工智能科技伦理管理服务办法》公开征求意见解析(下)

今日新闻 2025年09月29日 16:45 1 aa

前文提要:此前我们对《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》(以下简称“《AI伦理办法》”)的背景和具体规定进行了介绍与解读。


人工智能的伦理审查应该审查什么内容、应以哪些维度、以何种标准进行及完成伦理审查,在《AI伦理办法》规定相关的伦理审查的治理及监管框架的基础上,将是在落地过程之中,进行人工智能开发、应用的机构和企业应考虑的最关键的问题。随着人工智能技术和实践的不断发展,相信也会随着时间而不断的演化。这既是一个学术和研究话题,也会逐渐是一个实践话题。


在本部分,我们将更加深入的观察伦理审查的治理原则在中国法律项的演变、以及与此相关的国际立法动态和展望,以为相关机构和企业的落地提供一些参考。


伦理审查原则在中国法律下的演化


《AI伦理办法》第三条确立了人工智能科技活动的八项伦理原则:“增进人类福祉、尊重生命权利、尊重知识产权、坚持公平公正、合理控制风险、保持公开透明、确保可控可信、强化责任担当”。这些原则体现了国家对于人工智能发展的基本原则。而进一步的,体现在《AI伦理办法》规定的五项审查要点中。


此前,在2024年发布的《新一代人工智能治理原则——发展负责任的人工智能》(以下简称“《AI治理原则》”)之中,国家新一代人工智能治理专业委员会就提出了八项治理原则,它们分别是:“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作和敏捷治理”。由于文件涉及的主体是“人工智能发展相关各方”,因此治理原则同样从综合各方的角度出发,提出和谐友好、包容共享、开放协作等表述。


此后,2025年发布的《新一代人工智能伦理规范》(以下简称“《AI伦理规范》”)进一步以正式文件确定人工智能发展的目标和宗旨,提出人工智能活动要“坚持以人为本,遵循人类共同价值观”,“推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等”。这在《科技伦理审查办法(试行)》(以下简称“《科技伦理办法》”)之中也有相应的体现和落地。


《AI伦理办法》在以上规则的基础上,进一步增加了“尊重生命权利、合理控制风险、保持公开透明”的三项原则,其中:

  • “尊重生命权利”是在对此前伦理规范里“保护隐私安全”之上对于人类及其他具有生命的生物的权利保护的覆盖和扩展,在目前人工智能迅猛发展,对于人类的生命和权利存在潜在重大影响的背景下的应有之意;
  • “尊重知识产权”首次被纳入人工智能伦理框架,这既回应了人工智能发展带来的人工智能生成内容权属纠纷等知识产权问题、肯定了国家在发展人工智能的同时,对于知识产权尊重和保护的基础,这在目前已有的一些人工智能案例之中已有体现;
  • “合理控制风险”一方面强调了风险控制的重要性,另一方面也说明了风险控制应当“合理”,考虑到目前人工智能的快速发展、以及不同国家、企业都在快速全面推进人工智能发展的背景下,对于平衡发展和风险的考量。
  • 在以上八项原则的指导下,《AI伦理办法》第十五条规定了人工智能科技伦理审查五大审查重点。例如:
  • “公平公正、可控可信”是同样在伦理原则中直接强调的核心要素,强调了人工智能需要考虑的公平公正的原则和具有安全性的保障;
  • “透明可解释”和“责任可追溯”是为了保证人工智能科技活动“保持公开透明、强化责任担当”的具体要求;
  • 对科技人员资质和研究目标积极作用的要求,也是确保科技活动的目的有利于“增进人类福祉、尊重生命权利”,并确保科技活动的过程中不侵犯他人知识产权的具体要求。


伦理审查国际立法动态


欧盟《可信人工智能伦理指南》


2019年,欧盟委员会下属的欧洲人工智能高级别专家组发布了《可信人工智能伦理指南》(以下简称“《伦理指南》”),确立了“合法、伦理、稳健”的可信人工智能三大要件与“尊重人类自主性、预防伤害、公平性、可解释性”四大伦理原则,更明确提出人工智能治理需要实现的七大关键要求:“人的自主性和监督、技术稳健性和安全性、隐私和数据治理、透明度、多样性、非歧视和公平、社会和环境福祉以及问责制”。


1. 人工智能三大要件


  • 合法:合规所有适用法律法规,这包括欧盟及成员国层面适用于人工智能系统的开发、部署与使用的法规,包括,欧盟层面的基础法律(如《欧盟条约》及其《基本权利宪章》),以及其他特别领域的法律(如《通用数据保护条例(GDPR)》《产品责任指令》《反歧视指令》),还有众多欧盟成员国的法律;也包括国际层面的各项国际条约或公约(如《欧洲人权公约》、《联合国人权公约》)。
  • 伦理:遵循基于基本权利的伦理原则,弥补法律滞后性(如应对 AI “黑箱” 问题)。
  • 稳健:人工智能系统应以安全、可靠的方式运行,并应预见到保护措施,以防止非故意的伤害。具体包括在技术层面上:防黑客攻击、数据污染,确保系统可靠运行;在社会层面上:适配使用场景,避免非故意伤害(如算法偏见导致的歧视)。


2. 四大伦理原则


  • 尊重人类自主性:人工智能系统的设计应旨在增强、补充并赋能人类的认知、社交及文化技能,不应当试图胁迫、欺骗、操纵甚至使人类处于从属地位。人类与人工智能系统之间的职能分配,应遵循以人为本的设计原则,并为人类留下有意义的选择空间。
  • 预防伤害:人工智能系统及其运行环境必须安全可靠,且应当避免对人类(特别是其中的弱势群体)、以及更广泛的自然环境和所有生物造成伤害。
  • 公平性:具体包括两个维度:实质维度:确保机会均等且分配公正;确保个人与群体免受不公平偏见、歧视及污名化的影响;避免人类被欺骗,或其选择权受到不正当损害;尊重手段与目的之间的比例原则,并审慎考量如何平衡相互冲突的利益与目标。程序维度:针对人工智能系统及操作该系统的人类所做出的决策,相关方拥有提出异议并寻求有效救济的权利,因此决策过程应具备可解释性。
  • 可解释性:人工智能系统的相关流程、功能及用途需具备透明度,向直接和间接受影响者做出解释。对于难以解释的场景,如“黑箱”问题需要采取其他可解释性措施(例如可追溯性、可审计性以及关于系统功能的透明沟通,并符合基本权利要求)。


3. 七大关键要求及代表性审查问题


基于“尊重人类自主性、预防伤害、公平性、可解释性”四大伦理原则,《伦理指南》提出人工智能治理需要实现的七大关键要求,并就每项要求,配套设计了具体的审查问题清单,为企业开展伦理审查提供参考。


(1) 人的自主性和监督


包括基本权利、人的自主性以及人类监督,要求人工智能系统应支持人类自主和决策。这一要求下的具有代表性的一些审查问题例如:

  • 在可能对基本权利产生负面影响的情况下,是否开展了基本权利影响评估?是否识别并记录了在不同原则与权利之间所做的潜在权衡?
  • 该人工智能系统是否会与人类终端用户的决策产生交互(例如,推荐应采取的行动或决策、呈现选项等)?若是聊天机器人或其他对话式系统,是否让人类终端用户知晓其正在与非人类主体进行交互?
  • 该人工智能系统是否应用于工作和劳动流程中?若是,为实现有意义的交互以及适当的人类监督与控制,是否考虑过人工智能系统与人类之间的任务分配?
  • 针对特定的人工智能系统及使用场景,是否考虑过适当的人类控制级别,并已建立机制和措施以确保人类的控制或监督?是否采取了任何措施,以实现对人工智能自主性相关问题的审计和救济?
  • 针对自学习或自主的人工智能系统场景,为评估可能出现的问题,建立了哪些检测和响应机制?是否设置了“停止按钮”或相关程序,以在需要时安全地中止操作?该程序是完全中止流程、部分中止流程,还是将控制权移交人类?


(2) 技术稳健性和安全性


这包括攻击和安全弹性、备用方案和一般安全性、准确性、可靠性和可复现性,并要求人工智能系统的开发采用预防性的方法来应对风险,并确保其可靠地按预期运行,同时最大限度地减少无意和意外的伤害,并防止不可接受的伤害。此外,应确保人类的身心健康。《伦理指南》中具有代表性的一些审查问题包括:

  • 是否评估过人工智能系统可能面临的潜在攻击类型(例如数据污染、物理基础设施漏洞、网络攻击等)?
  • 是否采取了相关措施或构建了相关系统,以确保人工智能系统在面临潜在攻击时的完整性与抗干扰能力?
  • 是否验证过系统在意外情况与环境下的运行表现?
  • 若系统遭遇对抗性攻击或其他意外情况,是否确保其具备完善的应急预案(例如技术切换流程或在继续操作前寻求人类操作员支持)?
  • 是否已建立相关流程来衡量和评估风险与安全性?
  • 是否评估过人工智能系统有可能对用户或第三方造成损害或伤害?是否对发生概率、潜在损害程度、受影响人群及严重程度进行了评估?
  • 当人工智能系统输出错误结果、无法使用或产生社会不可接受的结果(如歧视性结果)时,是否估算了其故障可能造成的影响?


(3) 隐私和数据治理


这包括尊重隐私、数据质量和完整性,以及数据访问的可能性。这一要求下的具有代表性一些审查问题包括:

  • 根据具体使用场景,是否建立了相关机制,允许他人标记人工智能系统在数据收集(用于训练和运行)及数据处理过程中涉及隐私或数据保护的问题?
  • 是否评估了数据集的数据类型与范围,例如,数据集中是否包含个人数据?
  • 是否考虑过在开发人工智能系统或训练模型时,不使用或尽量少使用潜在敏感数据或个人数据的方法?
  • 根据具体使用场景,是否内置了关于个人数据的告知与控制机制(如适用情况下的有效同意及撤回同意的可能性)?
  • 是否采取了加密、匿名化、聚合等措施以加强隐私保护?
  • 是否数据保护官(DPO)在开发流程早期就参与其中?


(4) 透明度


这包括可追溯性、可解释性和沟通。代表性的具体审查问题也包括从人工智能系统做出的决策及由此产生的结果在多大程度上可被理解、是否确保能向所有用户解释系统为何做出特定选择并产生特定结果,且解释内容通俗易懂、是否评估过能否对训练数据与测试数据进行分析、是否评估过在模型训练与开发完成后,能否对其可解释性进行检验等方面的问题。


(5) 多样性、非歧视和公平


审查重点聚焦于防止偏见和歧视,并促进人群适用的多样性。人工智能提供者应注意审查人工智能在开发、训练和算法设计过程中,是否已经制定相关策略或流程,以避免在人工智能系统中产生或强化不公平偏见、歧视风险,并试图在适用人群上具有可及性和通用性,满足广泛的个人偏好与能力需求。代表性的审查问题包括是否评估过数据中用户的多样性与代表性,并针对特定人群或有潜在问题的使用场景进行了测试,以及对于技术工具、流程、反馈方式等方面的评估和考虑。


(6) 社会和环境福祉


《伦理指南》指出,在整个人工智能系统的生命周期中,更广泛的社会、其他有情生物和环境也应被视为利益相关者,因此应鼓励人工智能系统具有可持续性,并承担生态保护责任,实现可持续发展目标。理想情况下,人工智能系统应该用于造福全人类,包括子孙后代。这一要求下的代表性具体审查问题包括评估在开发、部署和使用人工智能模型过程中对环境、人类社会和更广泛的其他利益相关者的影响,并采取必要的应对措施。如是否建立对环境影响的机制(如搭建数据中心所采用的能源类型)并采取措施减少对环境造成的负面影响、评估人工智能的社会影响(如大量应用是否会存在失业或劳动力技能下降的风险)并采取措施来应对这些风险。


(7) 问责制


这包括可审计性、负面影响的最小化和报告、权衡和救济,要求在人工智能系统的全生命周期应当建立机制,以确保在开发、部署和使用人工智能系统之前和之后,均采取必要的可追溯的记录留存措施,保障全链路的相关责任都可追踪以及可问责。


欧盟《人工智能法案》


虽然《伦理指南》是由欧洲人工智能高级别专家组发布的不具有强制性的指南性文件,但是其提出的伦理原则在一定程度上在欧盟《人工智能法案》中获得认可。但是,欧盟《人工智能法案》并没有直接规定伦理审查的具体条款。


根据《欧盟人工智能法案》序言第27条的说明,在人工智能模型的设计和使用中,应尽可能将《伦理指南》中的伦理原则转化为实际行动,且这些原则都应成为依据本法案制定行为准则的基础。


欧盟鼓励所有利益相关方(包括行业界、学术界、民间社会及标准化组织)在制定自愿性最佳实践和标准时,酌情考虑这些伦理原则。据此,在《人工智能法案》第95条关于行为准则的规定中进一步指出,欧盟人工智能办公室及各成员国应推动制定关于自愿适用特定要求的行为准则,人工智能部署者等主体可据此将这些要求应用于所有人工智能系统。在制定此类行为准则时,需考虑的关键指标中,也包含《伦理指南》中规定的可适用要素。考虑到行为准则在欧盟《人工智能法案》立法体系下可以作为企业用于证明自身合规的重要工具,因此,关于可信人工智能的伦理规则也会由此进入欧盟《人工智能法案》要求的合规审查事项。


进一步的,在欧盟《人工智能法案》中规定了针对高风险AI系统的“基本权利影响评估”要求(Fundamental Right Impact Assessment,基本权利影响评估),旨在保护个人基本权利免受AI系统部署可能带来的不利影响。其作用包括:识别可能对受影响个人或群体构成的特定风险,并制定预防性措施以有效降低这些风险。


进行基本权利影响评估的义务适用于《欧盟人工智能法案》附件三(Annex III)中明确规定的高风险AI系统(附件三中的第二项除外),具体包括用于以下领域的AI系统:

  • 生物识别领域
  • 教育与职业培训领域
  • 就业、员工管理及自营职业准入领域
  • 基本私人与公共服务准入领域
  • 执法领域
  • 移民、庇护及边境管控领域
  • 司法行政与民主进程领域


根据《欧盟人工智能法案》第 27 条,特定部署者必须在部署高风险 AI 系统前开展 基本权利影响评估。《欧盟人工智能法案》未规定 基本权利影响评估 的具体方法,但明确要求其必须包含以下核心内容:

  • 流程说明:详细记录人工智能系统的预期用途、运行环境及部署场景。
  • 期限与使用频率评估:明确 AI 系统的使用期限与使用频率。
  • 受影响群体:识别可能受 AI 系统影响的自然人或群体,包括不同人口统计群体、弱势群体及特定社群。
  • 风险评估:评估对已识别群体可能造成损害的特定风险(主要需要覆盖隐私侵犯、言论自由受限、歧视问题及正当法律程序等方面的内容)。
  • 人工监督:清晰记录人工监督措施、决策流程及问责机制,确保人的主导权在系统运行中始终处于核心地位。
  • 风险缓解措施:概述用于应对已识别风险的内部治理机制与投诉处理机制。


以上内容,特别是风险评估和人工监督的内容,也可视为欧盟关于可信AI伦理规则中提到内容的具体实施。


美国


2021年,美国《2020年国家人工智能倡议法案》(以下简称“倡议法案”)生效,首次从联邦层面将人工智能伦理规范纳入国家战略规划,并要求美国国家标准与技术研究院(以下简称“NIST”)制定含伦理评估标准的AI系统自愿性风险管理框架。


2025年7月发布的《人工智能行动计划》(AI Action Plan)是特朗普政府为回应全球人工智能竞争而制定的纲领性文件,强调将把联邦研发资源集中投向人工智能的可解释性、可控制性与鲁棒性的突破,以提供更加可预测、可验证的人工智能技术。


1. 公平公正


倡议法案明确指出,AI系统在研究阶段就缺乏性别和种族上的多样性,可能对弱势群体产生不成比例的不利影响。


为此,NIST根据倡议法案提出的要求制定了美国人工智能伦理审查制度的核心文件《人工智能风险管理框架》(以下简称“《风险管理框架》”),将人工智能公平定义为“主动管理偏见以促进平等和公平”,核心在于识别并减轻有害偏见与歧视。鉴于不同文化对于公平的内涵感知不同,《风险管理框架》强调在公平性实现路径中必须纳入多元文化与不同人群特征的考量。


《风险管理框架》将人工智能可能产生的偏见归纳为三大类别:

(1)系统性偏见:由训练数据、机构规则乃至社会性规范而导致的不平等,例如特定职业的刻板性别印象而导致的算法固化等,这些并非故意歧视,而是过往数据导致的偏见固化;

(2)计算性与统计性偏见:算法执行或数据处理过程中产生的技术偏差,例如使用了不具代表性的训练数据进行训练,导致特定群体特征被过度放大;

(3)人类认知偏见:开发者或者使用者的隐形偏好导致对AI输出的信息进行了选择性解读,而在人工智能全生命周期决策中植入偏见。


2. 可信、透明、可解释


《风险管理框架》进一步构建了可信人工智能的特征体系,认为其应当具备可信可靠、安全、有韧性、可问责、透明、可解释、隐私增强、以及确保公平这八大属性。为实现这一目标,《风险管理框架》要求人工智能相关企业应当组织须定期检验人工智能的相关指标,并进行书面报告;同时通过透明政策与程序固化风险管理流程,确保结果可追溯、责任可倒查。


《风险管理框架》还将AI系统全生命周期划分为规划与设计、数据收集与处理、模型构建与使用、验证与确认、部署与使用、运行与监控六个阶段,为分阶段实施风险管控和合规审计提供标准化框架,各阶段配套对应控制目标与测试要求,从而实现人工智能的可信、透明、可解释。


3. 自由


而在全球人工智能伦理共识之外,美国基于其制度传统也提出了以下伦理要求:


(1)言论自由:《人工智能行动计划》提出,AI系统必须保护言论自由,不得推广错误信息,不得成为推广特定立场、或者用于灌输特定价值观的工具。这一要求源于美国宪法第一修正案对言论自由的高度保护,在人工智能语境下转化为对技术中立性的约束。

(2)使用自由:《人工智能行动计划》强调联邦政府应当支持模型开源,防止大模型被少数科技公司垄断,保障中小企业、学术界和公众的使用权与审查权,防止封闭模型形成市场垄断,确保创新,以防止技术寡头控制公共信息基础设施。同时,美国也将过度监管本身视为需防范的伦理风险。


基于地缘政治竞争,《人工智能行动计划》也在试图强化美国在全球AI领域的话语权。《人工智能行动计划》要求NIST修改《风险管理框架》,删除如“气候变化”、“多样性”等特定表述,聚焦“言论自由”、“客观真理”等,调整伦理框架以强化美国核心价值观,并设定联邦采购的要求为“确保系统无自上而下意识形态偏见”,以此确保联邦政府所用AI与美国核心价值观绑定。同时,《人工智能行动计划》还要求商务部推动带有美国核心价值观的大模型出口,以此形成全球大范围的伦理规则协同。通过对内规范、对外推广AI伦理要求,美国希望能够借此建立全球AI标准,获取领先竞争地位。


针对特定行业,也有机构提出了人工智能伦理要求。例如,美国高等教育信息化协会发布的《人工智能伦理指南》提出,高等教育机构应用人工智能技术时应当在维护公平、透明的核心学术价值观的同时,致力于降低技术偏见、隐私泄露和技术滥用等风险,并提出了八项核心伦理原则,即仁爱、正义、尊重自主权、透明与可解释、问责与责任、隐私与数据保护、非歧视与公平、风险评估与收益评估。


美国医学会也发布有《增强智能的开发、部署与使用原则》,提出在医疗领域人工智能应当聚焦监督、强调透明度、关注隐私安全、减少偏见、确保责任可追溯。


未来展望


《AI伦理办法》提出的伦理原则与审查重点,对开展人工智能科技活动的企业提出了伦理审查的实施要求,而后续随着人工智能技术的发展,伦理审查的落地不管在人工智能产品本身的可持续发展还是合规层面都将越发重要。开发、使用人工智能技术的企业可能需要提早考虑布局考虑,是否需要设立伦理委员会、设置伦理审查的内部制度和流程、问题清单及评估的标准,以及是否会涉及需要专家复核的情形。


对于有出海需求的人工智能产品,也需要考虑建立一套可复用的机制,并灵活保持与产品所上市的主要法域的法规和监管要求同步。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap