内容提要:人工智能算法在公共服务中的运用带来算法歧视与不平等等问题。有关算法的伦理与规制的讨论反映到法律层面上,其实是智能算法的研发、使用与人权保障之间的关系。针对侵害人权的算法歧视与偏见,欧美国家陆续发布了算法的伦理规制原则和规则。2018年《多伦多宣言》将算法理解为规则,以“正当程序”原则来规制算法的研发与使用。2019年欧盟发布的算法伦理准则侧重算法研发的参与者因素。美国法院在判例中发布的算法规制原则强调算法的客观属性,认为算法是受美国宪法保护的“言论自由”,将算法规制纳入人权的系列权利束中进行法律平衡。中国应当借鉴国外的算法规制经验,建立政府监管的整体框架,平衡技术创新、人权保障与商业竞争等多元需求。
关键词:多伦多宣言 算法 人权 法律规制 实用主义
新技术的普及将改变原有的社会结构,进而改变人与人之间的法律关系。人工智能在改变人机关系的同时,已经对现有的法律体系产生了一定冲击。从全球视野来看,一些国家采取保守主义路径,试图通过解释新的人机现象,将人工智能纳入传统法律框架内处理。另一些国家则采取积极立法路径,通过新的立法与行业标准来规制算法与伦理。2018年多个国际组织在加拿大发表的《多伦多宣言》是欧洲国家立法传统的表现,与欧洲国家的大陆法系传统密切相关。与此相关的,麻省理工学院与其他研究机构共同推出的AI伦理研究①,谷歌公司设立的AI伦理委员会以及2019年发布的人机伦理原则,为私有机构领域的探索奠定了先期标准。美国法院在一系列案件中涉及到言论自由与算法规制之间的关系,是普通法体系下保守主义路径的典型表现。
当前人工智能的讨论对技术发展可能引发的伦理危机予以高度关注,即人工智能会否导致人类社会的阶层分化,冲击原有的社会关系,甚至,人工智能成为与原子弹类似的技术武器而对人类的生命形成巨大威胁。这些伦理讨论涉及法律上的生存权与生命权,属于人权的范畴。由此,人工智能的技术与伦理反映在法律层面,就是人工智能算法与人权的法律关系。实践中,智能算法已经出现直接侵犯人权的事例。人工智能时代的关键是算法,算法规制成为法律层面界定人机关系的重要载体与切入点。2017年,中国国务院发布《新一代人工智能发展规划》,提出“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。人工智能等新技术发展亟待人机之间的新法律关系的挑战,即算法与人权的法律关系调整。在算法规制与人权保障凸显出来的紧张关系上,全球各国采用了何种规制路径与法律思考模式?中国在处理算法与人权关系方面已经或者可能形成怎样的中国方案?这就是本文关注的问题。
一、人工智能发展中的算法歧视
算法实际上不断地与我们的生活融合。公共机构与私人机构两种不同的算法使用主体,在其活动中产生了侵害人权的算法歧视。这些歧视又以直接或间接的形式表现出不同的类型。在公共机构领域,智能算法与司法结合在美国就引起了侵犯人权的质疑。自2014年开始不断使用的嫌疑人未来犯罪风险评估算法(defendant's risk of future crime)被第三方机构批评为侵犯了黑人的权利,有种族方面的算法歧视。这套系统类似科幻电影《少数派报告》中的设计,根据犯罪嫌疑人的年龄、教育经历、祖辈犯罪经历、种族、性别等因素经过一整套复杂的公式计算而得出未来犯罪可能性系数。这一系数得分成为法官判处刑罚的依据之一。美国的亚利桑那州、科罗拉多州、特拉华州、肯塔基州、路易斯安那州、俄克拉荷马州、弗吉尼亚州、华盛顿州和威斯康星州等都采用了这套犯罪风险评估系统。犯罪风险与罪犯未来的矫正可能性密切相关。由此,美国司法部的全国矫正机构已经建议将犯罪风险评估体系用于司法程序的每个环节。这套系统也在不断扩大适用范围,试图用于联邦犯罪评估,相关的法案已经提交给国会裁决。犯罪风险评估系统使用以来,第三方评估机构以及一些保守势力已经做出了该系统可能侵犯人权的警示批评。美国联邦司法部总检察长在2014年就批评犯罪风险评估将把歧视注入法庭之中,“尽管这些技术的研发初衷是美好的,但是它们不可避免地损害我们所珍视的司法公平”②。诺森特(Northpointe)公司负责该项评估系统的算法研发。2016年以来,非营利组织ProPublica新媒体就对该公司的算法结果进行实证分析,显示算法适用的案件在黑白种族方面确实存在歧视,黑人明显比白人的评估结果更差。③
人工智能的发展凸现出来的伦理问题已经被一些私人机构所察觉。谷歌公司与五角大楼合作的军事项目“Project Maven”旨在通过人工智能来分析无人机拍摄的图像。④该项目的计算机视觉算法增进了武器的打击对象精确度。项目启动后,超过3,000 名谷歌员工签署公开信反对人工智能及其算法参与战争。⑤这一事件也导致了谷歌的人工智能与伦理委员会的成立。成立该伦理委员会的本意在于处理智能算法产生的不同结果可能导致的歧视及其军事化用途,但在委员会成员的选择程序中,数千名谷歌员工呼吁罢免委员会成员詹姆斯,因为她对变性人的歧视言论以及她所在机构对世界气候变化的怀疑。⑥算法歧视问题导致算法的伦理监督机构也难以符合人权保障的需求。
智能算法的困境不仅来自“独角兽”企业的威胁,政府常常通过公私合作或者服务购买的形式采用大量的算法。在福利国家的背景下,公民生活的方方面面与算法紧密连接。英国近年来应用数字技术和数据工具以大规模地重新研发公共服务。联合国赤贫和人权问题特别报告员认为,英国公共服务自动化的问题在于不能对公民透明,数字福利国家正在影响人权,“通用信贷已经建立了数字壁垒,有效地阻碍了许多个人获得其应享权利”⑦。低收入人群在数字技能和识字能力方面存在巨大差距。自动化系统一旦上线,英国公共服务的算法将在阶层方面产生歧视。算法不透明成为当前人工智能技术运用于政府服务的重要疑虑。在政治与行政领域,政府甚至可以通过技术操作他们的政治偏好,从而造成不民主的结果。替代人工判断是人工智能的目标,算法接管了政府的诸多行政决策。
人工智能在提升效率的同时,也逐步替代了人类在复杂事务中的判断职能。在行政法治国的背景下,智能算法实质上成为法律体系的一部分。算法的治理化意味着人权、民主、民生等法律价值同样成为算法规制的重要原则。由此,近年来,多个国家、机构与区域组织开展了人权规制与算法规制的课题。其中,2018年5月,人权组织和技术团体联盟在加拿大发布新的智能算法规制的新标准。该联盟发表的《多伦多宣言》(全称是《关于保护机器学习系统中的平等和不歧视权利的多伦多宣言》)代表了人权与算法规制的主流路径。⑧
二、《多伦多宣言》的法律逻辑
早在《多伦多宣言》之前,互联网巨头公司就已经开始关注算法与人权的关系。特别是随着人工智能技术的飞速发展,诸多算法与歧视、隐私权与大数据等人权困境凸显出来。2018年6月,谷歌公司曾提出七条人工智能应用的“道德原则”,确保技术在正确的轨道上进步。这些原则包括:对社会有益、避免制造或强加不公平的偏见、发展和利用 AI 技术时注重隐私等。⑨针对人工智能技术扩大贫富差距、武器化、技术滥用等问题,微软公司也出台了相应的伦理原则。⑩《多伦多宣言》强调了防止人工智能算法与机器学习中出现的歧视,强调算法可能违反现行人权法。“我们必须把重点放在这些技术如何影响个人和人权上。在机器学习系统的世界里,谁会承担损害人权的责任?” ⑪该宣言虽然不具有法律约束力,但却为处理这些问题的政府和科技公司提供了一个新的指导。
(一)算法研发的正当程序
《多伦多宣言》的主旨在于将国际人权理念及规范沿用至人工智能与机器算法领域。在人工智能的实践过程中,智能算法可能会“犯错误”。比如,谷歌照片的图像识别功能曾将黑人错误识别。从结果上看,这些算法所呈现的效果确实对人权产生了影响,甚至构成法律意义上的客观行为。但是,在主观要件上,政府和普通消费者很难察觉机器算法的主观故意。这也正是算法与人权之间最为复杂的关系。许多算法以技术中立的表现形式进行特殊形式与隐藏歧视,规避人权的审查。
通常,人权的法律审查主要集中在法律行为的主观要件。隐藏或间接的算法以技术化的特征表现为“技术中立性”,难以在当前人权法律框架内得以审查。该宣言认为,算法结果上呈现的偏见其实是由算法的研发与使用过程中的人为因素导致的。由此,该宣言的主要规制思路就在于将算法视为一种特殊形式的“立法”,算法规制的重点在于以“正当程序”来审查研发与使用。一旦规制的视角聚焦在算法的程序控制,人权标准的审查就可以通过追溯延伸至算法形成过程的各个环节。机器算法的形成过程包括了架构研发、工程代码、机器学习与算法使用等关键步骤。算法研发的正当程序原则即是国际人权理念中的多样性原则。在多样性原则的指引下,首先,架构研发与测试环节应当保障受到影响的群体和专家纳入研发、测试与评估阶段。其次,工程代码常常以技术中立的形式表现出来,但是在代码测试环节,不同人员的测试常常导致算法的隐蔽歧视得以呈现。由此,测试人员的多样性也是算法偏见得以形成的主因。最后,人工智能的发展使得算法拥有了机器学习的能力,“喂给”数据是关键。机器学习本身是技术进步与工作效率提升的表现,但是机器学习需要人们给予大量标识好的数据与材料。这些被“喂给”人工智能学习的数据如何标识以及由谁来标识也常常成为算法偏见的主要来源之一。由此,多样性原则也要求“喂给”数据的多样性。⑫
(二)算法使用的政府监管
算法偏见起源于算法的“立法过程”。这一视角成为《多伦多宣言》对算法歧视进行事前监管与事后救济的主要理论基础。如果以过程作为控制的主要方式,那么,过程监管最为合适的机构就是政府。根据算法使用主体的不同,该宣言区了分政府机构的机器算法使用与私人机构的机器算法使用两种不同的监管责任强度。
对于使用算法的政府而言,《多伦多宣言》要求政府承担起强制监管的职能,即一种最高强度的责任。具体而言,包括:第一,政府应当积极采取多样化的雇用行为,参与协商以确保多样化的观点能够进入研发、执行和评估阶段,以表达广泛的个体意见。算法偏见的事前监管在于保障整个算法形成过程的多样化。这并非指的是算法技术的多样化,而是参与算法研发与使用的人的多样化。但该宣言并没有详细表述多样化体现在肤色、种族还是语言、性别等要素上。第二,确保公共机构在人权方面得以训练,监督采购、发展和使用评估机器学习工具的官员。政府机构人员代表了国家,在使用智能机器时应当保持主观中立。第三,为政府的一系列机器学习相关的行政行为建立相应的评估机制,接受公众的监督。监督方式可以是独立评估、公众监督或司法监督。第四,确保机器算法支持的决定符合国际人权规范认可的正当程序。机器算法参与的政府决策也应当符合当前法律体系下的正当程序标准,如调研、听证与民主决策等政府规章,从而保障算法决策的合法性。
此外,政府常常依赖私人供应商来研发和使用智能算法技术。例如,当前许多随着物联网、5G、AI技术的发展,人、物、信息等资源逐步转变为可供汇集与分发的数据。由此,未来城市注定是一座提供超级算法的“数字之城”,一座可以精细化运营的数字城市。“城市大脑”构建的一系列数字城市基础设施,可以在网络上构建一座与现实相映射的“孪生城市”。交通数据、食品供应链管理、医疗药品追踪体系都成为物联数字。如IBM公司在智慧城市战略初期通过智能井盖来获取城市下水道的水位情况,实时监控地下城市管网。在地面上,庞杂的交通系统是城市居民每日必然产生的行为数据,也是众多智能城市建设的切入口。最终,智慧城市系统包括水、交通、河流等12个系统。⑬对此,政府应当承担中等强度的监管责任,即要求第三方研发机构能够执行人权规范的正当责任以识别、阻止和减少算法歧视。《多伦多宣言》设置了政府监管私人机构以减少算法歧视的四个步骤:第一,识别风险。政府采购的智能机器应当特别注意其中的算法模型研发、监管机制、数据处理。第二,使用评估。政府在使用这些算法系统时应当通过影响评估采取一些措施来减少人权损害,如在数据和系统中减少被忽视的歧视,运行动态的测试模型,保障可能受到影响的群体和专家纳入研发、测试与评估阶段。政府还应当委托第三方独立机构进行人权标准测评。第三,测试审计。与其他政府项目一样,政府应当使系统处于常规和动态的测试与审计中,形成一个偏见发现与自我修复的反馈循环。第四,公开透明。根据政府信息公开原则,政府应当主动公开智能机器的相关歧视风险。
对于私人机构的算法歧视行为,政府应当通过立法建立民事领域的基本框架,确保算法研发前期的尽职调查的弱监管责任,即私人机构应当主动或委托第三方对公共服务外包的智能机器进行算法的人权评估,以确保在公共领域实施时不会出现算法偏见。私人领域有责任开展人权的尽职调查(due diligence)。尽职调查的目的包括三个方面。首先,识别潜在的歧视结果。政府在对私人部门进行算法调查时不仅要识别直接的歧视,还要对一些间接歧视予以警惕,如在表面上技术中立,但结果导致歧视的情况。一些隐形歧视风险通常与机器学习的数据库有关,如非典型的、不完善的数据基础上的训练系统,或者代表历史性的或系统性偏见的数据集库。私人机构应当就合适的数据库咨询相关人权专家。其次,政府应当采取有效的方式阻止和减少歧视,并追踪私人机构的责任。由于《多伦多宣言》采用了过程控制理论,算法偏见具有了可追溯性。其中最关键的是迅速有效地对出现的歧视现象进行反馈应对,使得危险不至于恶化。最后,上述行为应当开放透明。算法歧视颇为隐蔽,普通公民的认知成本极高,这就需要政府建立起主动公开的机制。政府应当公开风险信息和公示已经辨识到的具体歧视案例。在有歧视风险的地方,公布技术细节,包括算法的功能,训练数据以及数据来源等细节。这一原则与商业秘密之间需要进行价值权衡,公开的程度的保密的尺度需要政府根据不同的算法歧视情况与人权救济紧迫度进行区别。⑭
(三)事后的救济体系
除了事前的政府监管,在算法侵害人权的结果发生时,政府也应当提供完整的救济途径。个人救济主要着重三类法律指标:透明度、问责性及有效性。
透明度既是事前监管算法偏见的重要方式,也是为降低普通公民事后救济的成本、减少诉讼过程中的举证责任的有效方式。此外,透明度原则还要求机器的使用具有可解释性与易懂性,由此,受到影响的个体和群体能够有效地察觉或追溯。对此,政府应当公开在哪些公共服务领域使用了智能算法,清楚地告知算法决策的过程是如何完成的,记录相关的识别行为以及相关的歧视或人权影响。同时,政府应当避免使用“黑箱”数据,以符合透明度与问责性要求。问责性指的是算法偏见能够具有追溯性,向算法研发与使用过程中的各类参与人员进行追责,如模型设计人员、机器学习数据样本的选择等等。
救济的有效性要求较高,一些模糊和隐蔽的算法偏见常常无法引起普通公民的注意。受害人不晓得相关决策或者程序是否有侵害其人权。有时,复杂的算法使得公共机构或私人机构自身都难以解释其决策制定过程。司法领域的智能算法容易导致不公平的审判和诉讼权利。例如,上文提及的美国采用犯罪风险评估系统的算法歧视,就隐含着种族与阶层歧视。这就要求政府应当首先明确在使用机器算法做出决策时,哪些主体具有法律上的责任,并对算法可能造成的歧视负责。在救济方式上,政府应当给予受害者以高效的救济,包括修复、道歉、赔偿、处罚、保障不再重复。⑮
《多伦多宣言》将算法理解为治理规则,从“立法过程”的角度进行“正当程序”规范。例如,对第三方私权利规范以“尽职调查”的法律责任,对“立法主体”以及“委托立法”的算法研发部门施加以强弱不同的法律职责,要求在算法的研发过程中充分体现国际人权法的“多样性”价值。这些人权视野的算法规制具有鲜明的欧洲大陆法系的成文法特点。
三、欧美国家对算法的人权规制路径
欧盟在近年来日益介入到新兴网络市场与人工智能的法律规制中。如针对谷歌公司的反垄断展开市场调查,开创性地创造“被遗忘权”,丰富了新时代的人权内涵,这是欧盟规制理念的表现。在智能算法与人权的关系处理上,欧盟在《多伦多宣言》中的算法即规则的基础上更进一步认识私人机构中的算法本质,认为算法更像众多私人参与合作的、类似著作权法上的“汇编作品”或“合作作品”。作为汇编作品,算法的研发融合了大量的用户数据,用以培训智能算法的成长,这些数据库的建立更多的是汇编行为。作为合作作品,算法研发是众多编程人员、测试人员乃至用户共同合作而产生的作品。基于这些全新的理解,算法并不能只是私人机构的私有产权,而是包括提供数据的用户、提供市场的政府的共有产权。由此,欧盟的智能算法的人权规制呈现出更为细致的面貌。
(一)欧盟对算法的“作品”定位与规制
2019年4月8日,欧盟委员会发布人工智能道德准则“Ethics Guidelines for Trustworthy AI”(即《可信赖AI的道德准则》,以下简称为欧盟AI道德准则)。欧盟AI通过准则调整人工智能与人之间的关系,其范围不仅包括法律上算法与人权的关系,而且包括技术风险、社会公益、环境保护等更多的道德议题。该准则由欧洲人工智能高级别专家组(High-Level Expert Group on Artificial Intelligence,AI HLEG)起草。专家组由代表学术界、工业界和民间社会的独立专家组成,从2018年4月开始专门负责撰写人工智能道德准则。欧盟数字经济与社会(Digital Economy and Society)专员认为:“今天,我们为在欧盟实现安全和道德的人工智能,迈出了重要一步。基于欧盟的价值观,在企业、学术界和公民社会的众多利益相关方的广泛和建设性参与下,我们打下了坚实的基础。” ⑯创制欧盟AI道德准则是融合欧盟各界人士与产业新兴力量的一次尝试。
与《多伦多宣言》相比,欧盟的规制思路是从可告知、可选择的角度来控制人工智能所造成的伦理困境。它同样注重算法背后的参与人的因素,欧盟AI道德准则与《多伦多宣言》一样试图将参与人的多样性作为人权规制的重点。但算法的过程被理解为多元的创作过程。欧盟AI道德准则认为人工智能系统的研发应该以增强、补充人类的认知、社会和文化技能为目的。即人工智能作为一件具有智慧投入的工具作品,用以增强人类对世界的认知。
总体来看,欧盟提出四项道德准则,即尊重人自主性、预防伤害、公平性和可解释性,以及实现可信赖AI的七个关键要素,即人的能动性和监督,技术鲁棒性和安全性,隐私和数据管理,透明性,多样性、非歧视性和公平性,社会和环境福祉,问责性。其中一些原则如问责性、透明性、多样性等,已经在《多伦多宣言》中有所表达。在有关算法与人权的法律关系问题上,道德准则提出两项重要的法律措施以避免算法歧视:一是进一步强调和细化算法可解释性;二是数据清洗与完整性。
犹如合作作品,多方合作者,特别是用户,对于算法的使用具有知情与认知的能力与权利,这就要求算法具备可解释性,从而保障算法的开放与透明。欧盟AI道德准则认为可解释性对构建用户对人工智能系统的信任是非常关键的,也就是说,整个决策的过程、输入和输出的关系都应该是可解释的。但目前的智能算法和模型都是以“黑箱”的形式运行的。因而应当明确的是,第一,应确保人工智能系统相关元素的可追溯性,包括数据、系统和商业模型。第二,人工智能系统产生决策使用的数据集和过程都应该记录下来以备追溯,并且应该增加透明性,具体包括收集的数据和算法使用的数据标记。可追溯性包括可审计性和可解释性。第三,可解释性就是要解释人工智能系统的技术过程和相关的决策过程。技术可解释性要求智能算法做出的决策是可以被人们所理解和追溯。在人工智能系统会对人类的生命造成重大影响时,就需要人工智能系统的决策过程有一个合理的解释。第四,人类有权知道与其通信的是人类还是人工智能系统,这就要求人工智能系统是可被识别的。
犹如汇编作品一般,数据在算法的形成过程中至关重要,是算法结果可能产生人权歧视与偏见的重要环节。欧盟AI道德准则强调数据质量和完整性。数据集的质量对人工智能系统的性能非常关键。收集的数据可能是含有偏见的、不准确的、有错误的。这些数据在用于训练之前要进行清洗,去除这些有偏见的、不准确的、有错误的数据;同时,还要确保数据的完整性。如果给人工智能系统的数据是恶意的就可能会改变系统的行为。在规划、训练、测试和实现的整个过程中都要对数据集进行测试和处理。换言之,在使用数据来训练算法时,必须要由人工来参与数据清洗工作,清洗标准即是人权标准,去除数据本身可能附带的人权歧视标识与历史。⑰
当然,欧盟AI道德准则并非是在著作权法的意义上将算法定义为“作品”,不过,其采取的法律逻辑类似于著作权法中的作品概念。以作品为媒介来处理算法与人权的关系,这就变为作品的参与作者与其他人之间的权利关系。为了让作品在公共领域不侵犯他人人权,参与者的多样性是一方面,更为重要的是,理解为作者一部分的用户以及参与作品形成的数据的重要性。作为算法形成的重要数据,同样是用户的一部分,是用户各类行为,或者说,各项社会关系与法律权利的集合的抽象表现。由此,相比《多伦多宣言》强调的创作过程,欧盟AI道德准则更加关注算法的应用对象的权利,即人权保护的主体——用户。所以,作品的开放性、可解释性、可追溯性、数据完整性等成为了算法作品得以符合人权标准的基本法律要求。
(二)美国对算法的“言论”定位及规制
《多伦多宣言》与欧盟AI道德准则将人的责任代入算法的人权规制中。但是,现实发生的算法规制不可能对偏见与歧视面面俱到。人们看到,强人工智能的发展可能会出现更多隐蔽与间接的人权歧视。以谷歌公司为典型标准的美国公司对算法,直接控制软件开发工具包,出台了更严格的许可条例。谷歌公司的思路是通过控制开发工具包与许可证来监管算法的开发。在当前的人工智能发展与人权保障价值之间需要追求一个平衡点。比如,其开源的 AI 软件库——TensorFlow,如谷歌公司认为使用者没有“正当”使用自己的研究成果,谷歌将收回使用许可。这一算法规制的逻辑还是将算法作为一件作品予以许可使用与监管,可以看做是欧盟逻辑的延续。但是,在美国国内,谷歌等科技公司早已通过美国宪法中的“言论自由”来抵制算法的政府规制,认为政府对算法的规制是对言论自由的侵害。算法规制的初衷是保障人权免受不透明的“黑箱”算法的偏见与歧视的侵害,但是,美国的算法规制逻辑将其颠倒为作为人权之一的言论自由则保护了大企业的算法免受规制。
算法作为一种言论而被赋予权利的法律逻辑是在美国法院的一系列案件中得以完成的。⑱2003年的搜索王诉谷歌案中,谷歌主张其网页排名作为搜索引擎的核心算法受到法律保护。法院判决搜索引擎的算法即是对检索人的回答,检索行为正是谷歌与顾客之间的问答。⑲换言之,算法就是搜索引擎对各类网站的一种“说法”或看法,即意见。美国宪法第一修正案正是保障这类“言论”的自由。此后,该法律逻辑进一步拓展,认为网站或者搜索的算法本质是对网络信息资源的收集、编辑与整理,如同报纸的编辑加工,体现了编辑者的看法与判断,是受到保护的言论。⑳
由此来看,算法是什么的元问题决定了算法与人权之间的关系。美国的算法规制侧重理解算法的人的元素与特征。作为替代人类进行判断的算法,美国法院一度将其理解为人及其言论,乃至赋予其人权的标识,如言论自由。由此,美国算法的规制常常是人权权利束中各类权利之间的价值冲突与平衡。这类算法理解常常运用于强人工智能之上。算法与人权之间的关系处理甚至需要回答人工智能是否是人这样的哲学元命题。与此相比,欧盟同样侧重于算法的人的元素,但是更多地关注算法背后的人以及算法所蕴含的人工成分。这就体现为《多伦多宣言》中算法形成过程的参与人,或是欧盟AI道德准则中形成算法的各类人工或人工智慧。由此,算法或是众人合意形成的规则,或是众人参与研发、编码、测试形成的智慧作品。规则的算法理解多以政府使用算法或者政府委托私权利机构研发算法为情形,而作品的算法理解多以私权利机构的算法使用为情形。
坦诚而言,算法的复杂性意味着它必然含有人的元素以及人工的劳动成果,它既具有人的主观性,也具有客观的工具性。《多伦多宣言》、欧盟AI道德规则、美国判例等为我们展现了算法性质与人权规制的谱系。在强人工智能时代不断逼近的当下,我们到底是采取更为主观的态度,将算法等同于人,从而纳入整体的人权范畴,还是采取更为客观的态度,将算法作为客体与人权进行效率与权利的平衡?抑或是有更为实用主义的第三条路径?
四、实用主义路径下的中国算法规制体系
有关算法性质的元问题争论在中国还未完全展开,但已经有相关舆论和少数文献开始讨论算法与人权的关系。随着用户接触新闻的内容根据算法来推送,一些舆论提出新闻不能被算法“绑架”。在早期搜索引擎普及时,搜索呈现的内容已经被人们质疑其背后的非客观性。换言之,人们逐步被包裹在一个由机器算法所呈现的世界中。在智能设备日益普及的今天,算法及其信息推送更是逐步从新闻内容拓展到了全部的消费新闻。算法与用户信息隐私权的问题在中国成为现实亟待处理的问题。
算法呈现出来的偏见与歧视还未进入中国舆论的中心,但是网络的互联互通性必然会将这些法律逻辑输入到中国。中国的互联网与人工智能产业向全球发展不仅需要应对美国与欧洲这些地区的算法监管逻辑,也需要建立一套属于中国自己的普适性伦理规则,以掌握新兴秩序的话语权与标准制定权。此外,在实践中,中国目前的法律体系,特别是涉及社保、健康、福利分配、就业、教育等有关人权的法律体系中,仰仗算法的人工智能与机器学习已经逐步开始实践。例如,一些地方政府的智慧城市建设已经将交通管制权交由算法来判断。阿里云于2016年启动的“城市大脑”通过接管杭州1,300个路口的信号灯,4,500路的视频,将杭州城市里散落在交通管理、公共服务等领域的百亿级的数据汇聚起来,搭建完整的城市交通动态网,实现“城市的方方面面都跟大脑有关系”。支付宝业务的普及也使得“城市大脑”能够及时调整消费产品的供应链,更好地服务当地居民。网络购物已经逐步将客服变为人工智能来应对客户的售后需求,改变了传统《消费者权益保障法》的适用情形。阿里健康等企业已经开始就健康医疗等居民生活建立新的算法模型。在教育培训领域,特别是在线教育,更多的智能算法使用其中。
由此,中国人工智能产业的发展必然需要处理与建立算法与人权的伦理规则体系。在算法规制的谱系中,中国应当首先摒弃美国式的言论自由保护的极端情形。美国的大量公共资源聚焦在算法规制前的言论自由标准审查中,导致后续的算法规制的具体规则发展滞后,甚至处于无管制的“自然状态”。缺乏政府监管的后果就是卡普兰所说的“高科技封建割据”(high-tech feudalism),一些大资本、大企业形成市场垄断,独占用户数据,算法一家独大。在这种情况下,企业算法与普通用户的人权冲突最为严重。由此,中国应当从实用主义的路径出发,建立政府监管算法的整体框架,平衡科技创新、人权保障与商业发展三方面价值之间的关系,在科技创新的不同阶段赋予企业不同程度的人权责任。全球产业链重新布局的背景下,算法竞争与科技创新直接决定了民族国家能否取得在新秩序中处于制高点。由此,政府监管应当赋予企业以较弱的、事后的算法责任。针对发展成熟,乃至成为产业垄断的“独角兽”企业以及境外企业,政府监管有必要赋予与其商业力量相当的社会与伦理责任,接受事前监督与过程监督,并辅之以较强的事后的司法责任。动态的、层级的算法伦理责任体系是政府从实用主义角度来协调算法与人权关系中蕴含的各类价值冲突的有效路径。
其次,在算法规制的整体框架上,政府监管的基本法律逻辑应当贯彻透明性、可解释性与问责性三大算法原则。这三大原则也是欧盟AI道德准则与《多伦多宣言》的核心法律逻辑。透明性指的是保障用户的知情权。用户应当知晓与其对话或者做出与其相关决定的是机器算法,从而告知其可能存在歧视与偏见风险。对于政府委托的第三方算法决策而言,算法的全流程必须对政府与公众公开、透明。与透明性相适应的是算法的可解释性。算法实现的功能与算法策略、数据收集与使用的方式都应当以公众所能理解的方式进行表达或者备注,而非直接以代码等技术形式公开。这样的要求和做法,一方面有助于实质上实现透明性的目的,另一方面也有助于保护私人机构的商业秘密。问责性的要求则更多强调算法背后的人的因素,摒弃责任规避,将技术的使用与人的决策联系在一起,使得算法偏见与歧视能够实现追溯问责。问责的实现也是算法伦理的法律表现,有助于培养参与算法研发与使用的人员的职业伦理与人权责任。以上三方面法律标准可以通过政府认证的方式为每一个进入公共领域与公共服务的算法进行认证。
再次,在算法的使用与执行环节,政府采购和公共服务委托等事项中的算法使用需要建立高效的反馈回应机制。目前的《行政复议法》与《行政诉讼法》都将因为智能算法在行政事务中的高效使用而改变。行政决策与行政执法中的算法可以单独作为行政当事人复议的对象。第三方评估机构也可以就政府与公共事务中的算法进行透明度评估,有助于政府或算法服务机构改进,以符合人权与法律标准。
最后,司法的救济与规则制定功能有助于政府在新事物中处理价值与效率的关系。在事后救济程序上,中国的互联网法院可给予人工智能以及算法等关键行为以诉权,以司法的技艺来处理新事物的发展。2019年5月,北京互联网法院判决全国首例人工智能生成内容著作权案,主张计算机软件智能生成内容不构成作品,因为智能软件的开发与使用环节中的智慧投入与作品的思想表达无关。但法院最终仍然给予算法以保护,认为研发者与使用者的劳动投入具备了受保护的利益。本案的意义不只是实体上赋予了算法的创作成果以权益,更是将算法及其所有者、研发者与使用者作为司法技艺的处理对象。
当中国的网络人工智能产业走向全球的时候,跟随产业的不一定是政府监管模式,属地管辖是民族国家的主要特征。跟随算法走向世界的,更多的会是自主行业协会的标准。由此,在政府监管体系建立的同时,中国的网络与人工智能行业应主动联合,向全球其他提供算法的企业宣讲中国的AI伦理准则,与人权、民主等普适性的价值进行协调,从而建立起中国标准与全球话语权。
五、余论
欧盟AI道德准则的出台,不只是关于人机关系的新秩序探索,更是全球秩序的竞争拉开新的序幕。参与其中的数字单一市场(Digital Single Market)组织认为:“人工智能的道德维度不是一个奢侈的功能或附加组件。只有对它赋予了信任,我们的社会才能充分受益于技术。合乎道德的人工智能是一个双赢的主张,它可以成为欧洲的竞争优势——一个可以信赖的以人为本的人工智能领导者。”[21]近年来,各国开始不断出台规范性的人工智能伦理引导指南,规制人机关系,日本民间团体曾发布《下一代机器人安全问题指导方针(草案)》,韩国政府早在2007年就着手拟订“机器人道德宪章”。人工智能的发展犹如哥伦布对美洲新大陆的发展。对于人类而言,美洲大陆的新发现也许是大航海的直接收获,但更为重要的是开启全球秩序的重新分配。人工智能的各类伦理准则的出台不只是在本国或本区域内协调人机关系,网络与科技的普适性意味着人工智能的算法与伦理规制将推动一场新的全球秩序。在这一全球性的秩序中,算法首先遭遇到的是人权这一前世界秩序的根基。一旦人工智能技术本身获得了有关“人”的哲学问题的冲突,人权的世界秩序也将重新构筑。欧盟以及参与《多伦多宣言》的各个国际组织已经嗅到了新秩序竞争的硝烟,并展开了行动。中国在人类命运共同体理念的感召下,如何处理算法与人权的关系,如何为人工智能的新秩序贡献中国智慧,这有待后续实践中进行更具有创造性的探索。
(徐斌,中国社会科学院法学研究所助理研究员,法学博士。)
注释:
①参见蔡映洁:《人工智能,以法律和伦理为界》,载《人民日报》,2017年08月23日。
②Julia Angwin,Jeff Larson et al.,ProPublica,Despite Disavowals,Leading Tech Companies Help Extremist Sites Monetize Hate.
③ProPublica组织了关于机器偏见的系列专题调研文章,参见Machine Bias:Investigating the algorithms that control our lives.
④参见cnBeta:《五角大楼宣布使用大数据和机器学习打击ISIS的计划》,2019年5月31日访问。
⑤参见凤凰网科技:《“不再作恶”:谷歌决定2019年后退出军事项目Project Maven》,2019年5月31日访问。
⑥参见腾讯网科技:《争议不断 谷歌解散人工智能伦理委员会》,2019年5月31日访问。
⑦Statement on Visit to the United Kingdom,by Professor Philip Alston,United Nations Special Rapporteur on extreme poverty and human rights.
⑧参见搜狐网:《权益机构发表〈多伦多宣言〉望人工智能技术远离歧视与偏见》,2019年5月31日访问。
⑨参见腾讯网科技:《谷歌发布AI使用七原则 绝不将其应用于武器》,2019年5月31日访问。
⑩参见搜狐网:《微软携中国发展研究基金会发布〈未来基石〉报告,讨论人工智能的社会角色与伦理》,2019年5月31日访问。
⑪参见注⑧。
⑫The Toronto Declaration:Protecting the Right to Equality and Non-discrimination in Machine Learning Systems,visited on June 5,2019.
⑬参见彭明盛:《智慧的地球》,载《纪实》2009年第17期。
⑭参见注⑫。
⑮同上注。
⑯搜狐网:《欧盟抢先发布七条人工智能道德原则》,2019年5月31日访问。
⑰See Ethics Guidelines for Trustworthy AI.
⑱左亦鲁的论文对此作了详细的梳理。参见左亦鲁:《算法与言论——美国的理论与实践》,载《环球法律评论》2018年第5期。
⑲Search King,Inc.v.Google Tech.,Inc.,No.02-1457,2003 WL 21464568(W.D.Okla.May 27,2003).
⑳Zhang v.Baidu,10 F.Supp.434,SDNY 2014.
[21]同注⑯。
Abstract:The application of artificial intelligence algorithms in public services brings problems such as algorithmic discrimination and inequality.The discussion of the ethics and regulation of algorithms,from the legal perspective,is actually the relationship between intelligent algorithms R&D and the protection of human rights.In response to the discrimination and prejudice of algorithmic violations of human rights,European and American countries have successively issued the principles and rules of ethical regulation of algorithms.2018 Toronto Declaration interprets algorithms as rules and regulates the development and use of algorithms with the principle of “due process”.The algorithmic ethics guidelines issued by the European Union in 2019 focused on the participants in algorithm development.The principle of algorithm regulation issued by the US courts in the jurisprudence emphasizes the objective attributes of the algorithm.It believes that the algorithm is a “freedom of speech” protected by the US Constitution,and the algorithm regulation is incorporated into the human rights series of rights for consideration.China should learn from foreign algorithmic regulation experience,establish an overall framework for government regulation,and balance the diverse needs of technological innovation,human rights protection and commercial competition.
(责任编辑叶传星)