咨询热线:0755-89999869      政策热线 0755-26978111

英国公共部门人工智能技术伦理治理经验与启示

       编者按:新一代人工智能(AI)赋予政府治理新思路和新机遇,自动化决策的普及和推广在提高政府服务效率的同时,也伴随一系列不确定的风险问题。
       研究发现,人工智能技术并非解决所有问题的通用方案,由于其技术特性,可能导致数据的不可穷尽性、算法黑盒以及操作者主观情感等问题。诸如美国威斯康星州诉卢米斯案、英国“人脸识别第一案”等社会事件。
       为确保人工智能技术始终服务于人类可持续发展,加强人工智能治理已成为全球共识。目前,全球统一的人工智能监管范式虽未形成,各国各地区却都积极推动适应本国本地区技术发展进程的人工智能治理体系工作。例如,我国接连发布了《新一代人工智能治理原则》《新一代人工智能伦理规范》等政策文件,强调将伦理道德融入人工智能全生命周期。
       不同地区人工智能监管模式在呈现出不同特点的同时,又在一些重点领域出现治理趋同化的态势。当下,如何减少公共部门人工智能技术应用的伦理风险是治理现代化的关键挑战。
       英国作为较早探索上述问题的国家之一,治理政策体系较为完善。南山所政策研究中心从英国公共部门对人工智能技术的监管和治理演变阶段切入,又从三个维度分析了英国的技术伦理治理的框架体系,以期对我国公共部门人工智能技术伦理治理提供一些参考。

英国公共部门人工智能技术的治理演变

       英国是AI的发源地,也是最早重视技术发展带来的风险的国家代表。早在2012年,英国政府确定了推动未来发展的“八大技术”,其中大数据被认为是英国八项重要前沿技术之首。2013年10月发布《英国数据能力战略——抓住数据机会》,将全方位构建数据能力上升为国家战略。同年,英国政府和专家学者关注到了大数据发展中的风险,特别是在个人数据的存储和处理方面。2014年,下议院科学技术委员会在第15届会议报告《负责任地使用数据》中审查了社交媒体背景下大数据产生的隐私问题。2015年,该委员会发布《大数据困境》报告,指出数据的匿名化和重复使用正在成为一个迫切需要解决的问题。平衡数据和隐私变得尤为重要。2016年,该委员会又形成报告《机器人与人工智能》,重点阐述了人工智能创新发展过程中的伦理道德困境并探讨了可能的解决途径。在报告的建议下,2017年6月,英国政府成立了人工智能特别委员会,开始了下一阶段的制度设计。
       此后,英国加快成立数字科技伦理监管机构,由政府部门主导,各部门通过分散式成立相关公共机构、委员会、论坛和小组等,对其管辖内的数字科技伦理进行理解、分析和初步治理。2019年,人工智能办公室和政府数字服务局(GDS)与艾伦图灵研究所合作,编制了《理解人工智能伦理和安全》。2020年4月,内阁办公室创建数据标准管理局,专注于制定和执行政府的关键数据标准,并围绕数据伦理原则建立相关社区。同年7月,英国竞争和市场管理局(CMA)、信息专员办公室(ICO)以及通信办公室共同成立了数字监管机构合作论坛(DRCF),旨在促进数字监管机构的协作。
       2023年3月,英国发布《促进创新的人工智能监管方法》白皮书,提出人工智能在各部门的开发和使用中都应遵守的五项跨部门伦理原则,各监管部门将在这五项原则的基础上,根据具体情况发布指南,形成跨部门人工智能伦理初步框架。

英国公共部门人工智能技术的治理体系

       经过多年的发展,英国数字科技伦理监管已经形成了政府部门主导、政府部门与跨政府组织上下联动、多中心、分散式的治理机制与模式体系。
       1.伦理原则:SUM价值观+FAST运转法则
       2019年,英国人工智能办公室和政府数字服务局与艾伦图灵研究所正式发布《理解人工智能的伦理和安全》(Understanding artificial intelligence ethics and safety),提出了SUM(Support,Underwrite,Motivate)价值观和FAST(Fair,Accountability,Sustainability,Transparency)运转法则的伦理原则。
       其中,SUM价值观构建了一套人工智能技术的道德词汇,包含着生物伦理和人权话语的概念元素,如关怀(Care)意味着在设想和部署人工智能应用时,优先考虑人们的安全、精神和身体完整性。
       FAST运转法则主要针对人工智能技术提出操作性较强的技术战略,如在问题形成、预实施以及再评估阶段利用利益相关者影响评估方法(Stakeholder Impact Assessment),测量人工智能项目的社会影响和可持续性。
       2.治理主体:政府部门主导引领+非政府部门监督助推
       英国采取“政府部门主导引领,非政府部门组织监督助推”,实现治理效能最大化。在政府部门方面,英国内阁设置多个部门以支持人工智能技术伦理治理行动的实施。
       其中,数据伦理和创新中心(CDEI)与人工智能办公室(OAI)是最为关键的两个部门。CDEI负责整体规划和公共意见搜集,发布了全球首份人工智能保障生态系统路线图。而OAI承担着战略规划、标准制定、审查监管等职能,协助CDEI、内阁办公室等机构出台人工智能政策文件。
       2021年5月,OAI与中央数字和数据办公以及内阁办公室共同制定“自动化决策的道德、透明度和问责制框架”,为政府部门提供有关如何以安全、可持续和合乎伦理的方式使用自动化或算法决策系统的指南。
       在非政府部门方面,公共生活标准委员会(CSPL)成立于1994年,是为英国政府提供关于公共服务的道德伦理标准建议的专业组织。2019年,在首相的要求下,CSPL启动了人工智能与公共标准审查。
       首先,根据公共部门人工智能技术应用的特殊场景,CSPL提出四个人工智能伦理审查问题,如现有的框架和条例是否足以确保在公共部门更广泛地采用技术辅助决策的情况下维护标准。其次,采取定量和定性方法,通过2016份18岁以上的全国代表性调查样本以及圆桌会议、焦点小组、书面材料,构建了充实的案例证据库。最后,形成了十五项人工智能和公共标准最佳实践,为公共部门人工智能技术应用提供标准化操作指南。
       3.治理程序:受众需求+专业知识+影响评估
程序是规则和主体融合于政府治理的关键环节。英国人工智能技术伦理治理程序大致体现为以下三个方面:
       一是认识和理解公共利益和受众需求。通过民意调查、相关利益者访谈、开放项目监管平台等方式,搜集受众需求,分析项目行动可能涉及的个人直接利益与如何为广大公众带来积极的社会影响。
       二是结合多元化的专业知识。为政府官员提供易于理解的人工智能伦理治理“术语字典”的同时,发挥内部专家作用以及外部领域的专家(如技术学者、伦理学家、民间社会组织等)的咨询指导作用。
       三是评估和考量技术影响。基于透明流程的PBG治理框架(Process-Based Governance),明确任何必要的后续行动、重新评估和持续监测的时间框架,制定清晰的协议日志记录并建立相关机制,以确保端到端可审核性。

英国人工智能技术治理实践对我国的启示

       英国基于自身的比较优势和经济社会发展的现实需要,走具有本国特色的人工智能发展道路,形成了针对性强的政策体系。我们要借鉴英国经验,立足于我国国情,扬长补短夯实发展基础,创新与应用双轮驱动,推动人工智能高效发展。
       以其在人工智能技术领域的治理经验而言,在制度设计上,确立跨部门协作、以人为本、制定清晰的伦理治理原则和全国性标准;在监管模式上,构建分类监管体系,建立多部门合作机制,避免“一刀切”式监管;在多利益主体参与上,赋予地方政府和企业更多的自主权和责任,全面考虑多方利益主体的需求和利益,建立包容性和多元化的伦理监管框架。
       南山所认为,总体上看,人工智能技术伦理治理是全球各国电子化政府改革深化面临的重要议题,英国政府在此方面做出了有益的探索,并经过多年伦理治理实践,形成了“原则-主体-程序”技术伦理治理体系。因此,技术伦理治理可参照上述由原则到程序的全流程实践逻辑,以促使新技术与政府治理更好地融合。