中国人权领域唯一专业网站
首页>出版物>《人权》杂志

人权与人工智能:一个亟待解决的议题

来源:《人权》2019年第5期作者:[美]马蒂亚斯·里塞
字号:默认超大| 打印|

  内容提要:人工智能的日益普及为人权带来巨大的挑战。短期挑战包括科技参与《世界人权宣言》涵盖的所有权利的方式,例如有效的歧视性算法的使用。中期挑战包括工作性质的变化,这种变化可能会引起对很多人作为社会参与者地位的质疑。从长期来看,人类可能不得不与在智力上和在道德上更优越的机器共存,即使这只是高度推测性的。人工智能也赋予了曾经被许多人认为晦涩的道德辩论新的关联性。

  关键词:人权 人工智能 道德性

  
人工智能给人权带来新的挑战。人类生活的不可侵犯性是人权背后的中心概念。一个潜在的预设是,相对于其他生命形式,人类具有等级上的优越性,与人类相比其他的生命形式都只配获得较少的保护。这些基本假设因为将到来的存在物而饱受质疑,这些存在物并不以我们熟悉的方式活着,但是它们可能是具有感知能力的,并且在智力上,或许最终在道德上,比人类更优越。诚然,这些假设的景象或许永远不会成真,并且无论如何都是人无法把握的未来的一部分,但是将该问题提上议事日程至关重要。科技给各个人权领域带来的威胁或挑战已经非常普遍。本文分别从短期、中期、长期的角度来分析这些挑战。本文的主要目的是激起人们在人权领域内对人工智能的兴趣。①

  一、人工智能(AI)与人权

  
人工智能(AI,Artificial Intelligence)在我们的日常生活中越来越常见,这反映出我们越来越倾向于在算法中寻找建议或是直接依赖算法进行抉择。“智能”是对未来做出预测以及能够解决复杂问题的能力。AI就是通过机器所展示出的这种能力,如智能手机、平板电脑、笔记本电脑、无人机、自动驾驶汽车或机器人等机器。从家庭的支持以及陪伴(包括性伴侣)到警务与战争的各类任务,此类机器可能均可以承担。只要可以获得所需要的数据,算法可以按我们所要求的速度做任何能够被写成编码的事情,并且可以在设计框架中执行据此所确定的任务。在所有这些领域中的进步都是非常显著的。算法的有效性通过“大数据”不断得到提升:大量的关于全世界人类活动和其他进程的数据都可以被获得。这种数据使得一种特殊的被称为“机器学习”的人工智能类型可以通过模式检测推断接下来会发生什么。算法在任何测试中都比人类表现更好,尽管人类的偏见也渗透其中:任何人类设计的系统都会反映人类的偏见,并且算法所依赖的数据反映过去,从而将现状自动化,除非采取预防措施。②但是算法是不受干扰的:与人类不同,当同样的问题出现两次时算法都能就同样的问题得出同样的结论。③

  哲学辩论似乎有种脱离现实的感觉,但在人工智能的背景下,许多此类辩论带着紧迫性重新出现。以“电车难题”为例,它迫使个人面对失控的电车做出选择,根据个人做出的不同选择电车会杀死不同数量的人。它通过这种方式挑战人们关于义务论道德与结果主义道德的直觉。这些选择不仅决定了谁死亡,而且决定了一些否则不会受到影响的人是否被用作工具去拯救他人。许多大学教师都展示了这些案例只是为了让学生质疑他们的相关性,因为在现实生活中,选择永远不会是这种模式化。但是,一旦需要对自动驾驶车辆(刚刚第一次在路边造成不幸)进行编程,这些问题就会产生新的公共关联性和紧迫性。

  另外,哲学家们长期以来一直对心灵(mind)的本质感到困惑。其中一个问题是,心灵在大脑之外是否还有更多东西。不管它是什么,大脑也是一个复杂的算法。但是,大脑是否就由此被充分描述完全了呢,还是这种说法并未认识到那些使人类与众不同的东西,比如意识(consciousness)?意识是作为某人或某物的智性经验,如人们所说的“像那样是一种什么感觉”。如果说心灵除了大脑什么都没有,那么在大数据时代,算法很快就会在几乎所有事情上超越人类:他们会更准确地预测你会喜欢哪本书或下一次去哪里度假;比人类更安全地驾驶汽车;在人类大脑发出警报之前预测健康状况;给诸如接受哪些工作、在哪里生活、收养哪种宠物、对于某些人成为父母是否合理以及与现在在一起的人交往下去是否明智等事项提供中肯的建议。网络广告则通过评估一个人订购过什么以及之前点击了什么来预估该展示什么广告,以迎合人们的偏好。

  如果心灵只是一个复杂的算法,那么人类似乎除了给予某些机器与人类共同的道德地位没有多少其他选择。“动物”的道德地位问题之所以会被提出是由于人类与其他物种之间的连续性:在道德相关属性方面,一个物种越与人类相似,就越应该被视为共同生活中的一个同行者,正如苏·唐纳森(Sue Donaldson)和威尔·金里卡(Will Kymlicka)在《动物政治学:动物权利的政治理论》中做的那样。④这类推论可能最终也会被应用在机器身上。诚然,机器上设有开关是事实,但人们不应该由此而转移注意力。为了测试某些可能性,未来的机器可能以一种不那么容易被关上的方式被组装或者连接互联网。更重要的是,他们可能会通过情绪或者某种行为来表达他们的情感:他们甚至可能担心会被关掉,并会急切地为此想做些什么。或者,未来的机器可能会以半机械人的形态出现,即其一部分由有机体组成,而同时人类寻求以非有机体来改变提升自己。人类和非人类的区别可能日益模糊。一旦将大脑电子化并且在电脑上上传和存储成为可能,就像人类胚胎现在可以被储存那样,人们关于人的观念可能会发生改变。⑤

  即便在此之前,新一代人也将以新的方式与机器一起成长。如今典型的计算机用户在电脑不好用的时候可能会毫不犹豫地砸碎笔记本电脑而不会感到一点不安。但是,那些与机器人保姆一起成长的人可能会对机器人有不同的态度,因为其学习能力使其能够以远远超出父母通常所做的方式照顾他们。早在2007年,一名美国上校就取消了一次机器人地雷清扫演习,因为有一次一个机器人丧失一条腿后仍然继续向前爬行,他认为这种行动是不人道的。⑥像《西部世界》或《善地》这样的科幻小说展示了人与机器一起生活,且只能通过切开它们才能将它们与人类辨别开的世界是什么情形。一个由 Hanson Robotics公司研发的、拥有参与访谈能力的、名为索菲亚的类人机器人在2017年10月份成为沙特阿拉伯的一名公民;后来,索菲亚被评为联合国开发计划署(UNDP)首位创新冠军,也是第一位拥有联合国头衔的非人类。⑦未来可能会记住这些历史性的时刻。宠物世界也不甘落后。亚马逊公司的创始人及首席执行官贝佐斯近期刚收养了一只名为SpotMini的宠物犬。这是一种多功能的机器人宠物,能够打开门,自己动手,甚至可以装洗碗机,并且如果贝佐斯愿在亚马逊上购物的话,SpotMini也不需要外出。

  如果确实心灵除大脑之外还有更多东西,处理人工智能以及其他类人机器人会更容易。意识,或者对大脑和良心的同时拥有,可能会使人类与众不同。如何理解质性经验以及如何理解意识,是一个开放性问题。但即使关于意识的考虑可能与人工智能系统具有道德性的观点相矛盾,他们也不会阻碍这些系统成为法律参与者,比如拥有自己的财产,犯罪,并以法律上可执行的方式负责。毕竟,公司也同样缺乏意识,但我们已经以这种方式对待它们很长时间了。正如将公司的责任与涉及其中的人的责任区分开存在巨大的困难一样,很可能在智能机器方面也会出现类似的问题。

  二、纯智能的道德性

  
另一个长期存在而最近获得关注的哲学问题是理性与道德之间的联系。当人们对纯智能的道德性进行思考的时候就会提出这个问题。“奇点”这个术语经常用来指代机器在智力方面超越人类的时刻。⑧从那时起,人类就成功地创造出比自己更聪明的东西,而这种新型大脑很可能会产生比它自身更聪明的东西,以此类推发展下去,而且速度可能还会很快。这种情况可以持续多长时间将会有限度的。但是在过去的几十年中由于计算能力的迅速增长,超级智能的能力范畴超出了人们现在所能理解的范围。一些参与人工智能辩论的人着重强调了奇点和超级智能,而其他人则认为与更紧迫的现实问题相比,它们无关紧要。确实,奇点可能永远都不会出现,即使出现也可能是几十年或几百年后的事情。但是,过去数十年的数字技术发展仍然将这些主题(奇点和因为超级智能的存在而产生的道德后果)纳入人权议程。⑨

  为了解决人工智能潜在的道德问题,哲学家们最好考虑一下大卫·休谟和伊曼努尔·康德之间关于理性能否决定价值的争论。休谟的代表学说认为理性不能决定价值:一个理智的存在物、理性或智慧(假设这些都具有相似性),可能会有任何目标以及任何一种态度,特别是对人类的态度。⑩如果是这样的话,超级智能(或者说任何人工智能,但尤其是超级智能)可能会有任何类型的价值承诺,包括那些会让人类感到相当荒谬的价值观(如一些文献中提到的将宇宙中的回形针数量最大化的价值承诺)。⑪如果我们认可这样一个超级智能会比人类聪明得多,并因此可能会优先考虑与人类不同的价值承诺,那么人们又怎么知道这些想法是错误的呢?

  与此相反,康德的观点认为道德源于理性。康德的“绝对命令”要求所有理性存在物永远都不要以纯粹工具的方式去利用自己或任何其他理性存在物的理性能力。尤其是对其他理性存在物的无理暴力和欺骗(这对康德来说总是太像纯粹的工具化)。⑫思考绝对命令的另一种方式要求每个人的行动都要通过一般化测试(generalization test)。某些行动是不被允许的,因为当每个人都这样做的话他们根本行不通。比如偷窃和欺骗是不可普遍化的,因此不能被允许。如果每个人都有偷窃的权利,就不会有财产;如果每个人都有说谎的权利,就不会有沟通。康德推导的要点是,任何有智慧的存在物都会因为侵犯其他理性存在物而陷入与其自身的矛盾。粗略地说,仅仅是我们的理性选择给予了任何事物以价值,这同样意味着我们通过给某些事物赋值也给予了我们赋值这个能力本身以价值。这个观点是说我们周围世界的事物并不是以某种独立的方式就有了价值。他们可能是有价值,假设我们知道上帝存在并且上帝赋予他们以价值,或者假设我们有理由认为事物天生就是有价值的,就像物理定律应用于它们一样。但根据康德所探索的人类理性的局限性,这些选择并不存在。所以这让人类理性本身成为任何价值的唯一来源。但是,如果是这样,那么我们必须感激我们自身这种进行价值判断的能力。因此,为了追求自己的利益而贬低其他理性存在物反过来也会贬低他们价值判断的能力,而这些能力与我们必须珍视的自身的价值判断能力是相同的。因此,某些错误对待他人的方式会导致一个人与自己产生矛盾,就像数学推理中的缺陷一样。如果康德是对的,一个超级智能可能是道德行为的真正榜样。由于人类的本性在判断和价值承诺上非常狭隘,人工智能可能会缩小人类与他们在石器时代形成的小群体导向的基因试图在全球背景下运作时所造成的鸿沟。⑬

  如果像这样的论点能够成立——当然也存在疑问——我们就没有理由担心超级智能。可以说,在一个智能机器发展的时代,人类有足够的理性来为卑微的人类提供保护。但是,由于许多从当代标准来说很聪明的哲学家反对康德的观点,这个问题远未得到解决。人类的理性无法从超智能的角度想象这些事情会是什么样子。

  当然,即使价值不能仅仅从理性中获得,某种道德也可以由超级智慧来掌控。还有一种霍布斯式的方法,设想在没有共同权威的自然状态下,以某种属性为特征,以自我保护为目标的人类会发生什么。⑭霍布斯认为,这些人不会像康德所设想那样,仅仅通过头脑清晰的思考,就按照共同的价值观行事,他认为如果没有共同的权威,人们很快就会体验到生活的肮脏。他们绝不是卑鄙无耻的人,作为个体,他们会因为对未来遭受侵犯的预测而感到有必要互相攻击。毕竟,即使他们知道自己应该合作,给怀疑的另一方以利益,他们也不能保证对方会给他们同样的好处,并考虑到自己承担的风险而感到必须要首先进行攻击。除非只有一个超级智能,或者所有的超级智能都是紧密相连的,不过这样的推理可能也同样适用于这样的机器,它们将受制于某种共同的权威。霍布斯的自然状态描述了超级智能对于其他智能的初始状态。这种共同的权威是否也会给人类带来好处还不清楚。⑮

  或许T.M.斯坎伦(T.M.Scanlon)关于对价值的适当回应的观点会有所帮助。⑯超级智能在对它观察到的周遭事物会做出适当回应,在这个意义上超级智能可能是“道德的”。既然人类大脑的能力确实令人震惊,并能在人类身上激发出值得尊敬的能力,那么人类或许就有机会获得一些保护,甚至可以在一个由人类和机器组成的混合社会中获得某种程度的解放。⑰但是,动物的能力也是如此,而这通常不会导致人类以适当尊重的方式对待它们或者对待环境。人类没有表现出一种开明的人类中心主义,而是常常将自然工具化。希望在这类问题上,超级智能可以比人类理性表现得更好,这将意味着独特的人类生命将得到一些保护,因为它值得尊重。我们没有办法确切地知道这一点,但也没有理由过于悲观。

  三、人权与价值一致性问题

  
所有这些事情都是未来的一部分,我们无法知道它何时会实现甚至是否会实现。但从人权的角度来看,这些设想很重要,因为人类需要习惯与新类型的生物共享他们数千年来建立的社会世界。到目前为止,其他生物从未长期阻碍人类的发展,它们所能期待的最好的结果是一些共生的安排,比如宠物、牲畜或动物园的展览。所有这一切都可以解释为什么会有一份以貌似值得保护的独特的人类生活为基础的《世界人权宣言》(UDHR),这种保护是在个体层面上的,而人类不愿给予其他物种这种保护。从哲学的角度来看,我们也许可以论证以个人权利形式给予人类特殊保护是合理的,而不用明确说对其他动物或环境做任何事情都是可以的。但如果是智能机器,情况就完全不同了。人类控制动物,因为人类可以打造一个动物处于从属地位的环境。但这么对待人工智能也许是不可能的。在一个某些智能玩家是机器的世界里,需要制定一些规则。这些智能玩家必须被设计得尊重人权,即使他们足够聪明和强大到可以侵犯人权。与此同时,他们也必须被赋予适当的保护自己的能力。最终《世界人权宣言》的规则同样适用于这些智能机器也不是不可能的。⑱

  当务之急是确保这些发展有一个良好的开端。与此相关的挑战是价值取向的问题,这个问题的出现要远远地早于何为纯粹智能的道德这样的问题变得相关之前。无论人工智能系统究竟是如何生成的,重要的是要确保它们的价值观与人类价值观一致,以尽可能地避免超级智能具有与我们截然不同的价值观带来的风险。《联合国商业和人权指导原则》(UN Guide Principles on Business and Human Rights)也暗示我们现在需要解决价值一致问题。《联合国企业和人权指导原则》的宗旨是将人权纳入企业决策。这些原则也适用于人工智能。这意味着我们要解决诸如“最严重的潜在影响是什么”,“谁是最脆弱的群体”以及“如何确保获得救济”等问题。⑲早在1942年,人工智能界就认识到了艾萨克·阿西莫夫(Isaac Asimov)在他的短篇小说《东奔西跑》(Runaround)中指出的价值取向的问题。在小说中,阿西莫夫阐述了他著名的“机器人三定律”(Three Laws of Robotics),在该小说中“三定律”来自2058年的一本指南。所谓“三铁律”,是指:(1)机器人不得伤害人类,也不得因不作为而让人类受到伤害;(2)机器人必须服从人类的命令,但与第一定律相抵触的除外;(3)机器人必须保护自己的存在,只要这种保护不违反第一或第二定律。⑳

  不过,长期以来这些定律都被认为太不具体,而且很多人做出各种努力来取代这些定律,这些努力与《联合国商业和人权指导原则》或人权运动的任何其他部分可能并没有任何联系。例如,在2017年,剑桥的未来生命研究所(the Future of Life Institute)与由麻省理工学院物理学家马克斯·特格马克(Max Tegmark)和Skype联合创始人贾恩·塔林(Jaan Tallinn)创办的MA在加州Asilomar会议中心举办了一场关于有益的人工智能的会议,旨在提出指导人工智能未来进一步发展的原则。在由此产生的23条《阿西洛玛原则》(Asilomar Principles)中,有13条列在“伦理和价值观”的标题下。这些原则坚持认为,无论人工智能在哪里造成伤害,它应该能够确定它为什么会这样做,并且当一个人工智能系统涉及司法决策时,它的推理应该能够被人类审计人员验证。这些原则回应了人们的担忧,即人工智能可以以非常快的速度推理,并能够接触到非常广泛的数据,以至于人工智能的决策越来越不透明,如果分析出错它们也不可能被发现。这些原则还坚持价值取向一致性,敦促“高度自治的人工智能系统应该以能够确保它们的目标和行为在整个运行过程中与人类价值观保持一致的方式被设计”(原则10)。这些人类价值观在原则11中表现得很明确,包括“人的尊严、权利、自由和文化多样性”[2]。

  坚持人权的前提是我们假设某些哲学争论已经被解决了:存在以权利的形式存在的普世价值,并且我们大致知道有哪些权利。正如《阿西洛玛原则》所表明的,人工智能领域中有一些人相信人权已经以某种方式被确立起来。但其他人则急于避免他们所认为的道德帝国主义。他们认为价值一致性问题应该以不同的方式解决,例如,通过一种群策群力的方式,教会人工智能吸收来自世界各地的输入。因此,这又是一个哲学问题呈现出新的相关性的例子:在决定是否愿意将人权原则纳入人工智能设计的过程中时,关于人在哲学上对元伦理学的偏向性理解必然发挥作用。[22]

  人权也有其优势,因为在世界各地有许许多多人权本土化形式,而且对这些权利的全球支持是实质性的。同样,尽管《联合国商业和人权指导原则》已经出台,但有可能的是,某些将会成为领先的人工智能生产国的国家,并无意以人权精神解决价值一致性的问题。不过,这并不一定会阻碍其他地方为推动人权问题的解决而作出的努力。也许有一天,人工智能系统可以就如何最好地与人类保持一致交流想法,但前提是人类自身能够以统一的方式设计人工智能,并对价值一致问题提出相同的解决方案。然而,即使是人权也会继续有诋毁者存在,所以这种情况发生的希望也很小。

  无论如何,我们需要的是人权界和人工智能界更多的互动,这样所创造出的未来才不会缺少在人权领域的投入(很明显,所创造的未来如果没有人工智能领域并不会有任何风险。)朝着这个方向迈出的重要一步是,一些国际人权组织决定在人权事业中广泛使用人工智能设备。在这一阶段,一些人权组织正在试验在人权调查中使用机器学习,并且也在关注使用机器学习中可能产生的歧视,尤其是在警察、刑事司法和获得基本经济和社会服务方面。更广泛地说,一些人权组织关注的是自动化对社会的影响,包括工作和谋生的权利。在人权运动和这一发展背后的工程师之间需要有更多这样的互动,而这种互动最好是双向的。

  四、“人工愚蠢”与公司权力

  
现阶段有很多比未来的智能机器更紧迫的问题。《世界人权宣言》中的每一项人权的行使都以某种方式受到科技的影响。例如,如果在医疗保健、保险承保、假释决定等领域中使用的算法是种族歧视或性别歧视的,反歧视条款就会受到威胁,因为这些算法的学习借鉴了性别歧视或种族主义;言论和表达自由,以及任何个人自决自由,都会受到大量假新闻的侵蚀,包括制作任何人在做任何事的假视频,包括从未发生或由不同人犯下的恐怖主义行为。人工智能参与了这些假新闻作品的创作和传播。

  政治参与越是依赖于互联网和社交媒体,它们同样越是受到技术进步的威胁,从部署甚至更复杂的网络机器人参与网络辩论的可能性,到对计算票数的设备的黑客攻击,或对政府公共行政或设施的黑客攻击以制造混乱。人工智能与“人工愚蠢”(Artificial Stupidity)总是如影随形:对手所做的努力不仅是要破坏人工智能可能带来的成果,而且是要把它们变成它们的对立面。某国通过网络操纵选举是一个警钟,更糟的情况可能还会发生。如果人工智能的使用缺乏足够的透明度和人类监督的可能性,司法权利可能受到威胁。一个人工智能系统已经预测了欧洲人权法院(European Court of Human Rights)数百起案件的结果,预测结果的准确率达到79%[23];随着准确率的提高,使用人工智能来做出决定的做法也更具吸引力。在法庭诉讼中使用人工智能可能有助于为穷人提供法律咨询(一些国际组织在印度等国已推行了这类法律援助项目);但是,如果算法给出的法律建议令人费解,并且其算法的基础超出了现有的(或者可能是任何)人类的审查能力,也可能导致卡夫卡式的情况。算法的公平性开始引起大量的关注。[24]

  不仅通过无人机或机器人士兵,还通过因人类活动和存在被电子记录而提高的个人的易理解性和可追溯性,人类有关安全与隐私的任何权利都有可能受到损害。关于人类的可用数据量可能会大幅增加,尤其是一旦生物特征传感器能够监测人类健康。比如,它们可能会在人们沐浴时进行检查并提交数据,这或许是符合一个人的切身利益的,因为它们可以在某些疾病成为真正问题之前将他们诊断出来。这些数据的存在本身就可能给人们公民权利和社会权利带来挑战,而且这些数据很可能是私家占有,不是被数据主体占有,而是被生成这些数据的实体之外的实体占有。如今,人工智能领域的领先企业比以往任何时候的石油公司都更强大,而且这可能只是它们崛起的开始。

  过去,人在复杂社会中的地位首先由土地所有权决定,工业革命之后则是由工厂所有权决定的。随之而来的高度不平等的结构给许多人带来不利后果。不平等的数据所有权也会给社会上的许多人同样带来不利后果。如果诸如Alphabet公司(谷歌的母公司及其子公司)、苹果公司、Facebook公司,或者特斯拉公司等的威力不受公共利益的约束,人类可能最终沦落到一个由公司主导的世界,如玛格丽特·阿特伍德(Margaret Atwood)的小说《羚羊与秧鸡》(Oryx and Crake)或大卫·福斯特·华莱士(David Foster Wallace)的《无尽的玩笑》(Infinite Jest)中所描述的那样。“剑桥分析”(the Cambridge-Analytica)的丑闻给我们敲响了警钟。马克·扎克伯格(Mark Zuckerberg)2018年4月10日对美国议员做出的证言揭示出资深立法者对互联网公司依赖市场数据的经营模式多么无知。这种无知为公司走向权力铺平了道路。请考虑一个相关的观点:政府在网络安全方面需要私营部门的帮助。一些相关专家很聪明、报价高昂,但他们从不会为政府工作。鉴于政府在这方面的过度扩张,人们只能希望可以为了政府的安全指派他们为政府服务。如果这些努力不能奏效的话,那么只有企业才能提供最高级别的网络安全。

  五、巨大的脱节:科技和不平等

  
本文所要讨论的最后一个话题是人工智能和不平等,以及其与人权的联系。2018年是《世界人权宣言》发布70周年。这是一个好时机,可以来思考在许多情况下技术是如何具有创造社会不平等的潜力,或其无意中成功创造了不平等,并从而对人权产生影响。首先,托马斯·皮凯蒂(Thomas Piketty)警告称,在和平时期放任资本主义自生自弃,会导致越来越严重的经济不平等。那些掌握经济的人比那些仅仅在其中工作的人从中获利要大。因此,随着时间的推移,人生中的机遇将越来越依赖于出生时的社会地位。[25]

  此外,越来越清楚的是,那些要么创新技术,要么知道如何利用技术扩大影响的人可以争取到越来越高的工资。人工智能只会强化这些趋势,让各领域的领导者们以更容易的方式扩大自己的影响力。这反过来又使人工智能生产商成为价格更高昂的技术供应商。最近,沃尔特·谢德尔(Walter Scheidel)指出,从历史上看不平等现象的大幅减少只是在应对一些如流行病、社会崩溃、自然灾害或战争等灾难时才会发生;否则,人们很难凝聚足够的要求变革的政治意愿。[26]

  在19世纪的英国,最初的勒德分子因为担心就业问题而捣毁了织布机。但到目前为止,每一次的技术创新最终创造的就业岗位都超过了它所摧毁的岗位。虽然技术变革并非对每个人而言都有利,但其对社会整体和全人类而言是一件好事。可能未来会有很多工作岗位,比如那些开发、监督或以创新方式使用技术的人,以及那些不可替代的创造性职业,这些岗位数量最终将超过那些因人工智能而失业的人。但是,空抱着这种希望是很天真的,因为它的前提是对教育体系进行彻底改革以使人们具有竞争力。另一种替代选择是,人们希望一种既创造就业机会又缩短工作时间的结合,以实现更多人共享工作、提高工资来使人们过上体面的生活。无论哪种方式,欧洲国家都比美国有更大的希望,因为在美国很多人在技术与教育的竞争中落后,而且美国在国家层面上的团结非常薄弱,薄弱到甚至连全民医保都存在争议。[27]而在制造业和廉价劳动力方面具有相对优势的发展中国家将如何应对这一切,谁也说不准。

  在这种背景下,我们有理由担心人工智能会在社会中造成越来越大的技术鸿沟,会将数百万人排除在外,使他们成为多余的市场参与者,进而潜在地削弱他们在政治生活中的地位。在土地所有权作为财富的标志的时代,富人是需要普罗大众的,因为土地所有权的意义在于收取租金。在财富由工厂的所有权决定的时代,所有者需要平民大众来操作机器和购买东西。但对于那些在技术分化中处于劣势的人来说,他们可能根本就不会被需要。F.司各特·菲茨杰拉德(F.Scott Fitzgerald)在他1926年的短篇小说《富家子弟》(The Rich Boy)中有一句名言:“让我来告诉你一些跟富豪有关的事。他们跟你我非常不一样”。人工智能可能会以一种惊人的方式证实这一说法。

  正如种族隔离制度下的南非一样,最终可能会出现新的班图斯坦人,或者更有可能出现的情况是,独立由公司拥有的城镇里提供有完善的社会服务,而其他人则无权享有。或许他们也会给予这些“其他人”刚刚够的供给,以确保他们不会忽然公然反抗。只要任何意义上比实际需要的人数多的人作为参与者,社会结构就可能解体。尽管那时的世界可能有足够的财富以为人们提供体面的生活,但只要有办法避免暴力冲突破坏现在的生活状态,特权阶层可能就没有政治意愿去那么做。所有这些从人权的角度而言都是极坏的消息。与人类生活中不断增长的算法所带来的更直接的担忧相比,类似这样的场景是在更遥远的未来才会出现的,但可能不会像超级智能的到来那样遥远。不平等加剧带来的机遇和挑战将在《世界人权宣言》的下一个七十年间到来。

  尽管美国是包括人工智能在内的全球技术中心,但在打造一个全国性大团结的社会环境方面,美国的实践远远少于许多欧洲国家,而这种团结结合持续不断的努力,将会使人工智能造福于全体人民。美国的社会流动性低得惊人。研究发现,现在多达50%的工作容易受到自动化影响,包括传统被认为安全的职业,如法律、会计和医学。[28]或者正如联合国极端贫困和人权问题特别报告员菲利普·阿尔斯通(Philip Alston)在谈到2017年对美国的正式访问时所指出的:“自动化和机器人化已经使许多中年工人失去了他们曾自认为有保障的工作。在21世纪的经济环境下,只有很小的一部分人能够避免因为他们无法控制的恶劣情况而陷入贫困的可能。”[29]

  人们常说应该只有当技术变革所产生的好处能够被广泛地共享时,该变革才可以被允许继续下去。[30]但正如刚刚提到的,反对不平等的激进措施只有在乱世才会发生,不然人们不会希望生活在这样的时代。近几十年来不平等的深化,以及选举当选总统的人心怀贪婪与仇恨,完全缺乏正常的同理心,这些因素在使更多人享受美国的财富方面并不是一个好兆头,不论情况在会议和政治活动中听起来有多好。

  不平等的深化给人权也带来很不好的影响,对于我们所面临的风险再怎么强调也不为过。马克思在《论犹太人问题》中的观点是正确的,完全以权利为基础的解放是没有吸引力的。[31]一个建立在以权利为基础的理想之上的社会错失了太多。在过去70年中,人权运动通常没有能够重视一个更大的话题,即国内和全球的分配正义,而对于这个话题而言,人权必须成为其中一部分。人工智能可能最终会危及启蒙运动的遗产,因为在大数据和机器学习的时代个性日益受到来自四面八方的威胁。同样,因为这里受到威胁的是对社会整体的关注,而这种关注体现在现代关于分配或社会正义的思考中,人工智能同样有可能会这样做。只有在启蒙精神和工业化带来的技术可能性的引领下,这种关于分配和社会正义的现代思考才有可能实现。

  六、结论

  本文分别从短期、中期和长期角度探索了在人工智能越来越普及的环境下,人权可能面临的诸多挑战。其中一些挑战已然现实存在,另一些挑战则需要我们现在给予关注,即使它们可能在很长一段时间内无关紧要。日益加剧的不平等以及人工智能的产生很可能成为《世界人权宣言》下一个七十年的祸根。人类社会有充分的理由将人工智能置于其关注事项的首位。

  ([美]马蒂亚斯·里塞(Mathias Risse),哈佛大学Lucius N.Littauer哲学和公共管理教授、哈佛大学约翰肯尼迪政府学院Carr人权政策中心主任。原文为:Mathias Risse,“Human Rights and Artificial Intelligence:An Urgently Needed Agenda”,41 Human Rights Quarterly,No.1(2019),pp.1-16.译者:张馨月,中国人民大学法学院硕士研究生;校对者:陆海娜,中国人民大学法学院副教授,法学博士。)

  注解:

  
①For introductory discussions of AI,see Keith Frankish & William M.Ramsey eds.,The Cambridge Handbook of Artificial Intelligence,Cambridge University Press,2014;Jerry Kaplan,Artificial Intelligence:What Everyone Needs to Know,Oxford University Press,2016;Margaret A.Boden,AI:Its Nature and Future,Oxford University Press 2016.For background on philosophy of technology much beyond what will be discussed here,see David M.Kaplan ed.,Readings in the Philosophy of Technology,Rowman & Littlefield Publishers,2009;Robert C.Scharff & Val Dusek eds.,Philosophy of Technology:The Technological Condition:An Anthology,Blackwell Publishers 2014;Don Ihde,Philosophy of Technology:An Introduction,Paragon House(1998);Peter-Paul Verbeek,What Things Do:Philosophical Reflections on Technology,Agency,and Design,Pennsylvania State University Press,2005.See also Sheila Jasanoff,The Ethics of Invention:Technology and the Human Future,W.W.Norton & Company,2016.Specifically on philosophy and artificial intelligence,see Matt Carter,Minds and Computers:An Introduction to the Philosophy of Artificial Intelligence,Edinburgh University Press,2007.For an early discussion of how the relationship between humans and machines may evolve,see Norbert Wiener,The Human Use Of Human Beings:Cybernetics And Society,Coubleday,1956.

  ②See Daniel Kahneman,Discussion at Beneficial AI Conference:What Makes People Happy?(2017).On this subject,see also Julia Angwin et.al.Machine Bias,ProPublica(2016).On fairness in machine learning,also see Reuben Binns,“Fairness in Machine Learning:Lessons from Political  Philosophy”,81 Proceedings of Machine Learning Res.149(2018);Brent Daniel Mittelstadt et al.,“The Ethics of Algorithms:Mapping the Debate”,3 Big Data Soc.1(2016);Osonde A.Osoba & William Welser,An Intelligence in Our Image:The Risks of Bias and Errors inArtificial Intelligence,RAND Research Report 2017.

  ③On Big Data,see Viktor Mayer-Schnberger & Kenneth Cukier, Big Data:A Revolution That Will Transform How We Live,Work,and Think,Hodder,2014.On machine learning,see Pedro Domingos,The Master Algorithm:How the Quest for the Ultimate Learning Machine Will Remake Our World,Basic Books,2018.On how algorithms can be used in unfair,greedy,and otherwise perverse ways,see Cathy O'Neil,Weapons of Math Destruction:How Big Data Increases Inequality and Threatens Democracy,Penguin Books,2017.That algorithms can do a lot of good is of course also behind much of the potential that social science has for improving the lives of individuals and societies,see e.g.,J.D.Trout, The Empathy Gap:Building Bridgesto the Good Life and the Good Society,Viking,2009.

  ④Sue Donaldson and Will Kymlicka,Zoopolis:A Political Theory of Animal Rights,Oxford University Press,2013.

  ⑤For exploration of these possibilities,see Yuval Noah Harari,Homo Deus:A Brief History of Tomorrow,Harper,2017.

  ⑥Wendell Wallach & Colin Allen,Moral Machines:Teaching Robots Right from Wrong,Oxford University Press,2010.

  ⑦See Sophia(Robot),Wikipedia.

  ⑧For one author who thinks the singularity is near,see Ray Kurzweil,The Singularity is Near:When Humans Transcend Biology,Penguin Books,2005.

  ⑨David J.Chalmers,“The Singularity:A Philosophical Analysis”,17 J.of Consciousness Stud.,7(2010);Nick Bostrom,Superintelligence:Paths,Dangers,Strategies Oxford University Press,2016;Amnon H.Eden et al.eds.,Singularity Hypotheses:A Scientific and Philosophical Assessment,Springer 2012.

  ⑩David Hume,An Enquiry Concerning the Principles of Morals(J.B.Schneewind ed.,1983)(1751).

  ⑪First apparently in Nick Bostrom,“Ethical Issues in Advanced Artificial Intelligence”,in George Eric Lasker et al eds.,Cognitive,Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence,International Institute for Advanced Studies in Systems Research and Cybernetics,2003.

  ⑫Immanuel Kant,Groundwork for the Metaphysics of Morals(Arnulf Zweig trans.,Thomas E.Hill,Jr.& Arnulf Zweig eds.,(2002)(1785).

  ⑬Steve Petersen,“Superintelligence as Superethical”,in Patrick Lin,Keith Abney,Ryan Jenkins eds.,Robot Ethics 2.0:From Autonomous Cars to Artificial Intelligence,2017,p.322;Chalmers,supra note ⑨.See also Kahneman,supra note ②.

  ⑭Thomas Hobbes,Leviathan(1651).

  ⑮For the point about Hobbes,see Peter Railton,“Talk at New York University:Machine Morality”(2017).

  ⑯T.M.Scanlon,“What is Morality?”,in Jennifer M Shephard et al eds.,The Harvard Sampler:Liberal Education for the Twenty First Century Harvard University,2011.

  ⑰For speculation on what such mixed societies could be like,see Max Tegmark,Life 3.0:Being Human in the Age of Artificial Intelligence,Allen Lane,2017,p.161.

  ⑱Margaret Boden argues that machines can never be moral and thus responsible agents;she also thinks it is against human dignity to be supplied with life companions or care givers of sorts that are machines.See Margaret Boden,Panel at Beneficial AI Conference:AI and Ethics(2017).For impact of technology on human interaction,see also Sherry Turkle,Alone Together:Why We ExpectMorefrom Technology and Less from Each Other,Basic Books,2017.Others argue that certain types of AI would have moral rights or deserve other types of moral consideration;for Matthew Liao's and Eric Schwitzgebel's views on this,see S.Matthew Liao,Presentation,New York University Ethics and Artificial Intelligence Conference:Intelligence and Moral Status(2017).

  ⑲John Gerard Ruggie, Just Business:Multinational Corporations and Human Rights,W.W.Norton & Company,2013.

  ⑳Isaac Asimov,I,Robot,“Three Laws of Robotics”(1970)(1942).

  [2]Asilomar AI Principles,Future of Life Inst.(2017),How Do We Align Artificial Intelligence with Human Values?,Future of Life Inst.(2017).

  [22]On how machines could actually acquire values,see Bostrom,supra note ⑨,185-227;Wallach & Allen,supra note ⑥.

  [23]Nikolaos Aletras et al,“Predicting Judicial Decisions of the European Court of Human Rights:A Natural Language Processing Perspective”(2016).

  [24]Jane Wakefield,“AI Predicts Outcome of Human Rights Cases”,BBC News,23 Oct.2016.

  [25]Thomas Piketty,Capital in the Twenty-first Century,The Belknap Press of Harvard University,2014.

  [26]Walter Scheidel,Great Leveler:Violence and the History of Inequality from the Stone Age tothe Twenty-First Century,Princeton University Press,2017.

  [27]Claudia Goldin and Lawrence Katz,The Race Between Education and Technology,Belknap Press of Harvard University Press,2008.

  [28]Cate Brown,The Rise of Artificial Intelligence and the Threat to Our Human Rights,Rights Info(2017).

  [29]United Nations Office of High Commissioner for Human Rights,The Rise of Artificial Intelligence and the Threat to our Human Rights(2017).On the technological divide,see also Nancy Scola,Is Tech Dividing America?How an Engine of Prosperity Split the Haves From the Have-Nots—And how we can fix it,Politico(2018);see also Nicolas Yan,Automated Inequality,Harv.Pol.Rev.(2 Oct.2016).On AI and the future of work,see also Erik Brynjolfssonand Andrew McAfee,The Second Machine Age:Work,Progress,and Prosperity in a Time of BrilliantTechnologies,W.W.Norton & Company,2016;Jerry Kaplan,Humans Need Not Apply:A Guide to Wealth and Work inthe Age of Artificial Intelligence,Yale University Press,2016.

  [30]See,e.g.,AI and the Future of Work Congress.

  [31]Karl Marx,On the Jewish Question(Helen Lederer trans.,1958)(1844).

Abstract:The increasing presence of artificial intelligence creates enormous challenges for human rights.Among the short-term challenges are ways in which technology engages just about all rights on the UDHR,as exemplified through use of effectively discriminatory algorithms.Medium-term challenges include changes in the nature of work that could call into question many people's status as participants in society.In the long-term humans may have to live with machines that are intellectually and possibly morally superior,even though this is highly speculative.Artificial intelligence also gives a new relevance to moral debates that used to strike many as arcane.

  (责任编辑叶传星)

打印|