中新网杭州9月28日电(张煜欢 28日,走进浙江省人民医院康复医学科的脑机接口与神经调控临床研究病房,只见数套脑机接口康复系统准备就绪。高精度的脑电系...
2025-09-29 1
前文提要:此前我们对《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》(以下简称“《AI伦理办法》”)的背景和具体规定进行了介绍与解读。
人工智能的伦理审查应该审查什么内容、应以哪些维度、以何种标准进行及完成伦理审查,在《AI伦理办法》规定相关的伦理审查的治理及监管框架的基础上,将是在落地过程之中,进行人工智能开发、应用的机构和企业应考虑的最关键的问题。随着人工智能技术和实践的不断发展,相信也会随着时间而不断的演化。这既是一个学术和研究话题,也会逐渐是一个实践话题。
在本部分,我们将更加深入的观察伦理审查的治理原则在中国法律项的演变、以及与此相关的国际立法动态和展望,以为相关机构和企业的落地提供一些参考。
伦理审查原则在中国法律下的演化
《AI伦理办法》第三条确立了人工智能科技活动的八项伦理原则:“增进人类福祉、尊重生命权利、尊重知识产权、坚持公平公正、合理控制风险、保持公开透明、确保可控可信、强化责任担当”。这些原则体现了国家对于人工智能发展的基本原则。而进一步的,体现在《AI伦理办法》规定的五项审查要点中。
此前,在2024年发布的《新一代人工智能治理原则——发展负责任的人工智能》(以下简称“《AI治理原则》”)之中,国家新一代人工智能治理专业委员会就提出了八项治理原则,它们分别是:“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作和敏捷治理”。由于文件涉及的主体是“人工智能发展相关各方”,因此治理原则同样从综合各方的角度出发,提出和谐友好、包容共享、开放协作等表述。
此后,2025年发布的《新一代人工智能伦理规范》(以下简称“《AI伦理规范》”)进一步以正式文件确定人工智能发展的目标和宗旨,提出人工智能活动要“坚持以人为本,遵循人类共同价值观”,“推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等”。这在《科技伦理审查办法(试行)》(以下简称“《科技伦理办法》”)之中也有相应的体现和落地。
《AI伦理办法》在以上规则的基础上,进一步增加了“尊重生命权利、合理控制风险、保持公开透明”的三项原则,其中:
伦理审查国际立法动态
欧盟《可信人工智能伦理指南》
2019年,欧盟委员会下属的欧洲人工智能高级别专家组发布了《可信人工智能伦理指南》(以下简称“《伦理指南》”),确立了“合法、伦理、稳健”的可信人工智能三大要件与“尊重人类自主性、预防伤害、公平性、可解释性”四大伦理原则,更明确提出人工智能治理需要实现的七大关键要求:“人的自主性和监督、技术稳健性和安全性、隐私和数据治理、透明度、多样性、非歧视和公平、社会和环境福祉以及问责制”。
1. 人工智能三大要件
2. 四大伦理原则
3. 七大关键要求及代表性审查问题
基于“尊重人类自主性、预防伤害、公平性、可解释性”四大伦理原则,《伦理指南》提出人工智能治理需要实现的七大关键要求,并就每项要求,配套设计了具体的审查问题清单,为企业开展伦理审查提供参考。
(1) 人的自主性和监督
包括基本权利、人的自主性以及人类监督,要求人工智能系统应支持人类自主和决策。这一要求下的具有代表性的一些审查问题例如:
(2) 技术稳健性和安全性
这包括攻击和安全弹性、备用方案和一般安全性、准确性、可靠性和可复现性,并要求人工智能系统的开发采用预防性的方法来应对风险,并确保其可靠地按预期运行,同时最大限度地减少无意和意外的伤害,并防止不可接受的伤害。此外,应确保人类的身心健康。《伦理指南》中具有代表性的一些审查问题包括:
(3) 隐私和数据治理
这包括尊重隐私、数据质量和完整性,以及数据访问的可能性。这一要求下的具有代表性一些审查问题包括:
(4) 透明度
这包括可追溯性、可解释性和沟通。代表性的具体审查问题也包括从人工智能系统做出的决策及由此产生的结果在多大程度上可被理解、是否确保能向所有用户解释系统为何做出特定选择并产生特定结果,且解释内容通俗易懂、是否评估过能否对训练数据与测试数据进行分析、是否评估过在模型训练与开发完成后,能否对其可解释性进行检验等方面的问题。
(5) 多样性、非歧视和公平
审查重点聚焦于防止偏见和歧视,并促进人群适用的多样性。人工智能提供者应注意审查人工智能在开发、训练和算法设计过程中,是否已经制定相关策略或流程,以避免在人工智能系统中产生或强化不公平偏见、歧视风险,并试图在适用人群上具有可及性和通用性,满足广泛的个人偏好与能力需求。代表性的审查问题包括是否评估过数据中用户的多样性与代表性,并针对特定人群或有潜在问题的使用场景进行了测试,以及对于技术工具、流程、反馈方式等方面的评估和考虑。
(6) 社会和环境福祉
《伦理指南》指出,在整个人工智能系统的生命周期中,更广泛的社会、其他有情生物和环境也应被视为利益相关者,因此应鼓励人工智能系统具有可持续性,并承担生态保护责任,实现可持续发展目标。理想情况下,人工智能系统应该用于造福全人类,包括子孙后代。这一要求下的代表性具体审查问题包括评估在开发、部署和使用人工智能模型过程中对环境、人类社会和更广泛的其他利益相关者的影响,并采取必要的应对措施。如是否建立对环境影响的机制(如搭建数据中心所采用的能源类型)并采取措施减少对环境造成的负面影响、评估人工智能的社会影响(如大量应用是否会存在失业或劳动力技能下降的风险)并采取措施来应对这些风险。
(7) 问责制
这包括可审计性、负面影响的最小化和报告、权衡和救济,要求在人工智能系统的全生命周期应当建立机制,以确保在开发、部署和使用人工智能系统之前和之后,均采取必要的可追溯的记录留存措施,保障全链路的相关责任都可追踪以及可问责。
欧盟《人工智能法案》
虽然《伦理指南》是由欧洲人工智能高级别专家组发布的不具有强制性的指南性文件,但是其提出的伦理原则在一定程度上在欧盟《人工智能法案》中获得认可。但是,欧盟《人工智能法案》并没有直接规定伦理审查的具体条款。
根据《欧盟人工智能法案》序言第27条的说明,在人工智能模型的设计和使用中,应尽可能将《伦理指南》中的伦理原则转化为实际行动,且这些原则都应成为依据本法案制定行为准则的基础。
欧盟鼓励所有利益相关方(包括行业界、学术界、民间社会及标准化组织)在制定自愿性最佳实践和标准时,酌情考虑这些伦理原则。据此,在《人工智能法案》第95条关于行为准则的规定中进一步指出,欧盟人工智能办公室及各成员国应推动制定关于自愿适用特定要求的行为准则,人工智能部署者等主体可据此将这些要求应用于所有人工智能系统。在制定此类行为准则时,需考虑的关键指标中,也包含《伦理指南》中规定的可适用要素。考虑到行为准则在欧盟《人工智能法案》立法体系下可以作为企业用于证明自身合规的重要工具,因此,关于可信人工智能的伦理规则也会由此进入欧盟《人工智能法案》要求的合规审查事项。
进一步的,在欧盟《人工智能法案》中规定了针对高风险AI系统的“基本权利影响评估”要求(Fundamental Right Impact Assessment,基本权利影响评估),旨在保护个人基本权利免受AI系统部署可能带来的不利影响。其作用包括:识别可能对受影响个人或群体构成的特定风险,并制定预防性措施以有效降低这些风险。
进行基本权利影响评估的义务适用于《欧盟人工智能法案》附件三(Annex III)中明确规定的高风险AI系统(附件三中的第二项除外),具体包括用于以下领域的AI系统:
根据《欧盟人工智能法案》第 27 条,特定部署者必须在部署高风险 AI 系统前开展 基本权利影响评估。《欧盟人工智能法案》未规定 基本权利影响评估 的具体方法,但明确要求其必须包含以下核心内容:
以上内容,特别是风险评估和人工监督的内容,也可视为欧盟关于可信AI伦理规则中提到内容的具体实施。
美国
2021年,美国《2020年国家人工智能倡议法案》(以下简称“倡议法案”)生效,首次从联邦层面将人工智能伦理规范纳入国家战略规划,并要求美国国家标准与技术研究院(以下简称“NIST”)制定含伦理评估标准的AI系统自愿性风险管理框架。
2025年7月发布的《人工智能行动计划》(AI Action Plan)是特朗普政府为回应全球人工智能竞争而制定的纲领性文件,强调将把联邦研发资源集中投向人工智能的可解释性、可控制性与鲁棒性的突破,以提供更加可预测、可验证的人工智能技术。
1. 公平公正
倡议法案明确指出,AI系统在研究阶段就缺乏性别和种族上的多样性,可能对弱势群体产生不成比例的不利影响。
为此,NIST根据倡议法案提出的要求制定了美国人工智能伦理审查制度的核心文件《人工智能风险管理框架》(以下简称“《风险管理框架》”),将人工智能公平定义为“主动管理偏见以促进平等和公平”,核心在于识别并减轻有害偏见与歧视。鉴于不同文化对于公平的内涵感知不同,《风险管理框架》强调在公平性实现路径中必须纳入多元文化与不同人群特征的考量。
《风险管理框架》将人工智能可能产生的偏见归纳为三大类别:
(1)系统性偏见:由训练数据、机构规则乃至社会性规范而导致的不平等,例如特定职业的刻板性别印象而导致的算法固化等,这些并非故意歧视,而是过往数据导致的偏见固化;
(2)计算性与统计性偏见:算法执行或数据处理过程中产生的技术偏差,例如使用了不具代表性的训练数据进行训练,导致特定群体特征被过度放大;
(3)人类认知偏见:开发者或者使用者的隐形偏好导致对AI输出的信息进行了选择性解读,而在人工智能全生命周期决策中植入偏见。
2. 可信、透明、可解释
《风险管理框架》进一步构建了可信人工智能的特征体系,认为其应当具备可信可靠、安全、有韧性、可问责、透明、可解释、隐私增强、以及确保公平这八大属性。为实现这一目标,《风险管理框架》要求人工智能相关企业应当组织须定期检验人工智能的相关指标,并进行书面报告;同时通过透明政策与程序固化风险管理流程,确保结果可追溯、责任可倒查。
《风险管理框架》还将AI系统全生命周期划分为规划与设计、数据收集与处理、模型构建与使用、验证与确认、部署与使用、运行与监控六个阶段,为分阶段实施风险管控和合规审计提供标准化框架,各阶段配套对应控制目标与测试要求,从而实现人工智能的可信、透明、可解释。
3. 自由
而在全球人工智能伦理共识之外,美国基于其制度传统也提出了以下伦理要求:
(1)言论自由:《人工智能行动计划》提出,AI系统必须保护言论自由,不得推广错误信息,不得成为推广特定立场、或者用于灌输特定价值观的工具。这一要求源于美国宪法第一修正案对言论自由的高度保护,在人工智能语境下转化为对技术中立性的约束。
(2)使用自由:《人工智能行动计划》强调联邦政府应当支持模型开源,防止大模型被少数科技公司垄断,保障中小企业、学术界和公众的使用权与审查权,防止封闭模型形成市场垄断,确保创新,以防止技术寡头控制公共信息基础设施。同时,美国也将过度监管本身视为需防范的伦理风险。
基于地缘政治竞争,《人工智能行动计划》也在试图强化美国在全球AI领域的话语权。《人工智能行动计划》要求NIST修改《风险管理框架》,删除如“气候变化”、“多样性”等特定表述,聚焦“言论自由”、“客观真理”等,调整伦理框架以强化美国核心价值观,并设定联邦采购的要求为“确保系统无自上而下意识形态偏见”,以此确保联邦政府所用AI与美国核心价值观绑定。同时,《人工智能行动计划》还要求商务部推动带有美国核心价值观的大模型出口,以此形成全球大范围的伦理规则协同。通过对内规范、对外推广AI伦理要求,美国希望能够借此建立全球AI标准,获取领先竞争地位。
针对特定行业,也有机构提出了人工智能伦理要求。例如,美国高等教育信息化协会发布的《人工智能伦理指南》提出,高等教育机构应用人工智能技术时应当在维护公平、透明的核心学术价值观的同时,致力于降低技术偏见、隐私泄露和技术滥用等风险,并提出了八项核心伦理原则,即仁爱、正义、尊重自主权、透明与可解释、问责与责任、隐私与数据保护、非歧视与公平、风险评估与收益评估。
美国医学会也发布有《增强智能的开发、部署与使用原则》,提出在医疗领域人工智能应当聚焦监督、强调透明度、关注隐私安全、减少偏见、确保责任可追溯。
未来展望
《AI伦理办法》提出的伦理原则与审查重点,对开展人工智能科技活动的企业提出了伦理审查的实施要求,而后续随着人工智能技术的发展,伦理审查的落地不管在人工智能产品本身的可持续发展还是合规层面都将越发重要。开发、使用人工智能技术的企业可能需要提早考虑布局考虑,是否需要设立伦理委员会、设置伦理审查的内部制度和流程、问题清单及评估的标准,以及是否会涉及需要专家复核的情形。
对于有出海需求的人工智能产品,也需要考虑建立一套可复用的机制,并灵活保持与产品所上市的主要法域的法规和监管要求同步。
相关文章
中新网杭州9月28日电(张煜欢 28日,走进浙江省人民医院康复医学科的脑机接口与神经调控临床研究病房,只见数套脑机接口康复系统准备就绪。高精度的脑电系...
2025-09-29 1
前文提要:此前我们对《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》(以下简称“《AI伦理办法》”)的背景和具体规定进行了介绍与解读。人工智...
2025-09-29 1
9月27日,在中国(绵阳)科技城国际科技博览会上,长虹熊猫 AI 家电展区早已用沉浸式体验拉开了 “AI 赋能生活” 的序幕 —— 水墨熊猫元素与科技...
2025-09-29 1
当今天的科技创新叩响明日之门,我们听到了来自未来的回响。10月17日-19日,第九届杭州(国际)未来生活节如约而至。从吴山广场到南宋御街再到德寿宫,上...
2025-09-29 1
中时财经原创出品记者:张丽敏编辑:周雪松制图:乔寒云9月25日晚,小米集团创始人雷军的个人演讲如期而至,一句“五十来岁,正是闯的年纪”再次刷新社交平台...
2025-09-29 1
近日,省科技厅下发通知,2025年度山西省科技合作交流专项开始申报。 通知明确了支持方向:✍ “一带一路”科技合作项目。支持与“一带一路”国家合作开展...
2025-09-29 1
当地时间9月23日,中国工程师联合体与巴西工程师协会联合会(FEBRAE)在巴西里约热内卢签署合作谅解备忘录,就工程能力建设、青年工程师交流互访等领域...
2025-09-29 1
参考消息网9月29日报道香港《南华早报》网站9月28日刊登题为《50年过去,中国是否在高科技未来的竞争中把欧洲甩在身后?》的报道,内容编译如下:如今的...
2025-09-29 1
发表评论