中国人权领域唯一专业网站
首页>出版物>《人权》杂志

公共治理应用情感计算技术的权利风险及其规制

来源:《人权》2024年第4期作者:李棠洁
字号:默认超大| 打印|

公共治理应用情感计算技术的权利风险及其规制

李棠洁

内容提要:作为智能计算技术前沿的情感计算,目前已经在边境检查、案件侦查、犯罪评估、舆情管理和交通管理等公共治理领域得到了具体应用。然而,情感计算的社会治理应用仍然存在未能与现代公共治理基本要求相匹配的公共风险,这些风险从根源上产生于情感计算的技术特征。情感计算的情感信号化技术特征使其在公共治理应用中存在减损知情同意权、去治理化和动摇人的尊严的问题,引发社会性的权利焦虑。情感计算的情感模型化特征使其在公共治理应用中存在算法精准度不足、算法歧视与算法黑箱的权利风险。为了在公共治理应用情感计算的过程中规避相关风险,应当采取将动态同意模式作为情感计算在公共治理中应用的前提,以及对情感计算在公共治理中的辅助性应用进行分层级规制的规制路径,实现情感计算技术应用与公民权利保护和公共伦理维系的均衡。

关键词:公共治理 情感计算 权利风险 风险规制

一、导言

社会和人的信息化是20世纪中叶以来的历史潮流。早在20世纪40年代,美国控制论的创始人诺伯特·维纳(Norbert Wiener)就提出了人是“信息的有机体”,认为人和控制机器在本质上没有什么不同,“任何组织能够维持自身内在的稳定性,是因为它具有收集、使用、保持和传递信息的办法。”这意味着,一方面,作为人造物的机器可以具备像人类一样的智能;另一方面,人的本质可以在信息空间中被重新塑造和建构。维纳的理论借助信息这座桥梁为人工智能打破了非生命体和生命体之间的鸿沟,人的生命具有了技术化的可能。在此基础上,1956年,艾伦·纽厄尔(Allen Newell)与赫伯特·西蒙(Herbert Simon)证明了计算机可以具有逻辑推理能力,解决了人工智能中理性计算的可能性问题。人类智能中的情感可否计算的问题也随之提出,情感计算思想的先驱马文·明斯基(Marvin Minsky)提出了“没有情感的机器是否能够实现智能”的思考,其在1985年的《心智社会》一书中指出:“机器是否可以拥有情感,在于其智能行为的表现方式。”明斯基将情感计算问题当作智能机器的关键问题,将对情感的科学认知转化为对情感行为的外在描述。明斯基的思想为情感计算的技术实现奠定了基础。约翰·霍普菲尔德(John Hopfield)在1982年提出神经网络模型,模拟人脑神经元的信息存储和提取功能,使得情感计算的技术实现成为可能。经过长达半个世纪的理论积淀和技术发展,罗莎琳德·皮卡德(Rosalind Picard)于1997年出版了专著《情感计算》,首次对情感计算作出了界定,她将情感计算定义为“关于情感、由情感引发以及意图影响情感方面的计算”。可见,情感计算在人的信息化、机器的智能化大背景下应运而生,情感计算与理性计算同属于人工智能发展的必要组成部分。情感计算是通过情感计算技术对人类情感状态的感知、识别、模拟和影响。概言之,情感计算(Affective Computation)技术的意义在于,使得机器不仅能够做到像人类一样进行理性计算,还能够像人类一样感知到喜怒哀乐。

近年来,理性计算技术和情感计算技术都在越来越多地嵌入社会公众的日常生活,但社会科学和人文学科往往聚焦于“机器能否像人一样理性思考”的问题,热衷于讨论理性计算技术的风险和因应措施,对人工情感技术的相关讨论却寥寥可数。这忽视了情感计算在诸多智能技术中的特殊性,情感计算在社会生活中的广泛应用以及可能存在的应用风险。根据2022年发布的《情感计算白皮书》,情感计算的行业应用包括六大领域:教育培训领域,例如,在MOOC平台上通过人脸情绪识别技术评估学生的专注度和情绪变化;生命健康领域,例如,情感障碍类疾病(自闭症、情感和认知障碍等)的筛查和治疗;商业服务领域,例如,通过情感计算设备辅助顾客挑选香水;工业设计领域,例如,通过驾驶员面部特征变化推断其精神状态以减少交通事故;科技传媒领域,例如,分析在线用户的文本情感数据来调查网络舆情;公共治理领域,例如,通过追踪社交网络的文本情感识别恐怖主义。未来情感计算的行业应用还将扩展至智慧服务、虚拟现实、社会安全、金融决策、科艺融合等五个领域。由此可见,情感计算在社会生活中既有个体层面的应用,也有在公共领域的应用。个体层面的应用主要涉及与公民个体利益相关的商业、教育、健康等多个私领域,而公共领域的应用则主要集中于与公共利益相联系的公共治理领域。情感计算在公共领域得到应用,必须遵守法律法规和公共伦理,而情感计算的技术特征与应用模式却带来了违反法律法规和公共伦理的风险,引起人类社会的权利焦虑。

目前,针对情感计算应用的既有研究已经关注到了情感计算应用的诸多风险。例如,王禄生认为情感计算的应用可能侵犯个人信息和人格尊严,反对情感的计算化。这便涉及到人格权的侵犯,人格权“体现了人的存在中精神与物质的统一,赋予人类个体普遍的价值和非凡的地位,是人类的本质特征。”阮凯认为情感计算的应用可能出现识别出错和识别过强的问题,可能导致社会公正的伦理风险。易显飞、胡景谱认为情感计算具有不确定性,会带来安全风险和伦理挑战。胡景谱、陈凡认为情感计算引发了人际关系模糊问题、人格同一性威胁问题和情感真实性的怀疑问题。包康赟认为情感计算具有正当性风险、安全性风险、准确性风险和可责性风险。尽管上述研究从多个角度揭示了情感计算的应用风险,但是它们仍然存在着两方面的问题:一方面,未能区分情感计算在私人领域和公共领域应用的不同应用风险,特别是缺乏对情感计算在公共治理领域应用风险的关注和分析;另一方面,未能从情感计算的具体技术特征出发,讨论其在公共治理领域出现的应用风险。情感计算在公共治理应用中存在的风险,主要是由情感计算固有的技术特征导致的。在公共治理中应用情感计算,必须重视这些情感计算本身的技术特征可能导致的权利风险,并通过技术规制的路径有效化解这些风险,以促进情感计算的公共应用有效实现社会公共利益,在科技赋能公共治理的同时有效维护人的尊严和社会公正。

二、情感计算在公共治理中的具体应用

情感计算的实质是对人类情感状态的感知、识别、模拟和影响,最终完善形态是模拟并影响自己和他人的情感状态。因而情感计算的应用可以分为影响被识别者和影响第三者两类,前一类主要涉及医学治疗等,后一类则广泛存在于利用情感计算为决策者提供决策辅助之中。利用情感计算辅助公共治理便是后一类的代表性应用领域。主要体现在安全防控和行政管理当中,具体包括边境检查、案件侦查、犯罪评估、舆情管理和交通管理等领域。

第一,在边境检查中,检查官借助情感计算来评估入境人员是否存在潜在欺骗行为。例如,英国和美国的警察使用Converus检测软件检查眼球运动和瞳孔大小来识别潜在欺骗行为,匈牙利、拉脱维亚和希腊使用iBorderCtrl系统扫描入境人员的面部表情来识别入境人员是否撒谎。

第二,在案件侦查中,执法人员借助情感计算判断特定人员的危险度和供述的可信度。例如,执法人员利用预警分析系统“阿尔法鹰”采集人体面部视频,计算出个人压力和情绪状态,预测可疑危险人员;利用“灵视多模态情绪研判系统”发现人们对于特定问题的关键变化,采集人们的微表情、动作、心率等指标,帮助审讯人员掌握被讯问人的心理反应。“太古计算”推出“审讯场景的无感知情绪监测分析系统”,能够结合视频图像处理、并行计算、深度学习等技术,采用非接触的生理信号采集、微表情识别方法,帮助审讯人员建立量化情绪模型,实现情绪监控分析。审讯人员利用生理数据、面部非自主反应和不可伪造性分析情绪变化和语言线索,辅助判断被讯问人员所述信息的可信度。

第三,在犯罪评估中,执法人员通过情感计算技术,对特定对象的犯罪危险性进行评估。犯罪评估结合了临床心理学和情感计算技术,把犯罪可能性分为“初犯评估”“再犯评估”“暴力风险评估”“性犯罪风险评估”“财产犯罪风险评估”等,依靠摄像装置进行情感信号采集并依靠计算机视觉技术进行数据分析处理。例如“非接触实时动态心理测评系统”,被评估者只需在摄像装置前站立几秒,持续若干天之后便可得到稳定的测试结果。该系统以情感与犯罪行为的关系理论以及情感数据分析与犯罪行为推断关系理论为基础,大大便利了执法人员的犯罪评估工作。

第四,在舆情管理中,执法人员借助文本情感分析,精准监测舆情。文本情感分析是指通过人工情感技术对文本中的褒义、贬义和中性进行判断,评估文本的感情倾向。情感分析的结果可以用于舆情监控和舆情预测。例如,智能舆情系统通过对文本信息进行实体识别、语义消歧、知识图谱构建、话题分类、自动摘要、情感分析,并对于图像类的信息进行有效的品牌识别、人脸识别、物体识别和文字识别等总结舆情事件的发展脉络并给出预测趋势。还可以应用文本情感分析技术来分析信息的非结构化内容,有利于预警恐怖主义,降低恐怖主义对社会的威胁。

第五,在交通管理中,基于社会情感计算的交通流分配注重捕捉情绪因素对交通决策的作用,从而揭示出行者的出行决策和路径选择,为交通管理提供智力支持。例如,“社会情感优化算法的情绪变化模型”通过引入情绪的重要影响能够丰富交通流的分配体系,真实地模拟情绪因素对出行者效用感知的影响,提高了交通需求预测的准确性,有利于改善交通管理。

从情感计算在公共治理应用中五方面的具体表现可以发现,情感计算已经从理论步入技术,并从技术步入实践。情感计算在公共治理中已经得到了普遍应用,其优势主要体现在有利于帮助决策者收集到更多的决策信息,为决策者提供决策辅助,在一定程度上提高公共治理的效率和科学性。

从“作为科学技术的”情感计算以及“作为实践应用的”情感计算区分的角度来看,前者涉及情感计算的科学理论基础,后者只是这一技术的实践效果。情感计算在公共治理应用中的具体表现,虽然属于“作为实践应用的”情感计算,但是离不开“作为科学技术的”情感计算的技术特征。“作为科学技术的”情感计算在技术逻辑上对“作为实践应用的”情感计算产生着根本性的影响。皮卡德将情感计算设计分为三个方面——情感信号与系统、情感的识别与表达、情感的合成。情感计算在这三方面体现出的情感信号化和情感模型化技术特征,导致其在公共治理应用中不可避免地面临由技术特征造成的权利风险。因此,必须从“作为科学技术的”情感计算的技术特征角度,在底层技术逻辑上反思情感计算在公共治理中的具体应用。

三、情感计算情感信号化的技术特征及权利风险

在情感计算的过程中,情感信号化与系统化是计算机捕捉和识别情感的前提。情感信号化是指,计算机在情感发现的过程中,无法真正体验人类情感,只是通过情感信号推测人的内部情感,在这一意义上将情感本身等置为情感信号。情感计算的情感信号化技术特征从根本上影响着情感计算的公共治理应用,并内蕴着去治理化、动摇人的尊严和减损知情同意权的权利风险。

(一) 情感计算情感信号化的技术特征

在情感计算的运作机制中,计算机借助情感信号识别人类对情感的表达。情感信号的应用与情感的身体属性具有直接关系。情感现象说认为,情感反映了人类对世界的直接知识,身体在认识情感现象中具有载体作用,情感需要在具身认知和交互主体性中加以把握。这一点被皮卡德所吸收,其设想了一种作为情感镜子的计算机,它能够聆听说话者的说话并捕捉说话者的面部表情,对说话者给出适当的建议。情感就像思维一样,依靠一些表达形式进行表达和交流,例如语言、手势、音乐和行为等。基于情感现象说的认识,情感具有身体性,情感可以通过外在的表征被观察,从而能够被机器捕捉。“如果一部计算机尝试识别或理解你的情感,它应该得到的信息,不仅告诉它,你具有什么情感,而且也通过审视你的脸、倾听你的声音、注意你的手势和评价你所处的情景来得到有关的信息。”情感信号分为可直接观测的情感信号和不可直接观测的情感信号。在观测情感信号时,或者通过直接观察面部、动作等信息识别感官信号,或者通过测量装置间接捕捉感官信号。另外,我们所观察到的情感也包括身体和行为的自愿和非自愿信号。

(二) 情感信号化与情感计算公共治理应用的权利风险

情感计算情感信号化的技术特征,深刻影响着情感计算在公共治理中的应用,并相对于个体场景的应用存在更高程度的应用风险。

1. 情感信号化减损知情同意权

在公共治理场景中,公民与公共治理主体以身体在场的方式进行情感互动,公民能够自主掌控情感的释放,这也就意味着公共治理主体从公民处获取的情感信息是经公民知情同意后所获得的。在身体在场情况下,公民拥有对自我情感的自主控制能力,特别是能够自主控制不希望被公共治理主体获得的情感信息。

情感信号化则意味着公民无法直接通过身体感知公共治理主体是否从公民处获取了情感信息。特别是通过测量装置间接捕捉感官信号,使得情感数据主体无法察觉到以信号为载体的个人情感信息被搜集的事实,其与数据控制者难以在达成合意基础上使用情感数据。除此之外,即使公共治理主体提供了关于情感信息收集的知情同意契约,由于格式化的合意合同比较复杂难懂,以及对公共治理主体的信任,情感数据主体往往也是在不知道合同上写了哪些条款的情况下便同意情感数据的采集。这表明关于情感信息的知情同意权在实际行使中的自主性程度也非常有限。由此,信号化的公共情感信息容易导致公民在情感计算公共治理应用中,对个人情感信息的知情同意权被减损。其消极后果还包括,对自我情感的自主控制权和情感数据知情同意权丧失的公民,出于避免被社会治理主体以隐蔽方式全面搜集个人情感信息的目的,在公共治理中主动隐蔽本应自由表达的情感,公民的情感表达自由在公共治理中也遭受了贬损。例如,2018年,浙江杭州一所中学在课堂上使用情感识别技术,用于判断学生的上课状态,提示教师有哪些学生上课走神。该情感识别系统还结合学生与教师的上课状态分析,对教师的教学进行评估。这种做法不仅不尊重学生的知情同意权,还有可能使学生变得虚伪,在镜头之下被迫表演。

2. 情感信号化去治理化

情感信号化技术特征导致情感计算在公共治理中的应用,只能基于离身情感而展开。基于脱离人的身体的离身情感的情感计算,一旦在公共治理中应用,就会导致公共治理主体对公民的情感认识脱离公民自我意识,公共治理就会面临倒退回单向度的社会管理的可能,情感计算最终促成的是人的异化与自我的丧失。

具体来说,依托情感信号的情感计算,在将情感信号化的过程中,抛开了对情感本质的探讨,直奔情感的外在表现和实用功能。而情感的本质与具身情感息息相关,情感的外在表现则与离身情感紧密联系。具身情感强调情感的身体性和认知性,人类通过亲身体验获得经验,身体的物理属性也影响着包括情感在内的认知的形成过程。因此,具身情感与主体的自我意识密切相关。离身情感则是在计算机科学、脑科学和心理学的意义上脱离人的身体强调情感的表征和认知,依照规制对情感信号展开计算。具身情感与离身情感的差异,使得情感计算视角中的情感异化了,人的主观感情和自我意识被客观的信号所替代。这就意味着,情感计算不是情感与具身认知的自然结合,情感计算必然导致情感与人的具身认知相分离,二者之间的内在联系被认为是可有可无的。具身情感和离身情感的差异,导致情感计算的技术逻辑是对人的情感的片面截取,情感与人的身体和内在体验的深层联系没有得到足够的尊重。除此之外,在具身情感和离身情感的差异中,人与人之间的情感交流也未受到尊重,情感属于交互的身心体验,在这个意义上,只有“那些跟他们有着共同遭遇的人才能理解和体谅他们由于痛苦的缘由竟然会说出或做出那样的事来”。

现代社会公共治理强调公众与治理主体之间的互动联系,治理主体和社会公众之间要形成建立在彼此尊重基础上的感情认同。在现代公共治理场景中,人与公共治理主体之间通过身体的在场进行情感互动,由此实现感情认同基础上的公共治理的公众参与和合作共治。而以情感信号为基础的情感计算应用于公共治理场景,意味着人与公共治理主体的交流将进入无身体和不在场的状态之中。运用情感计算的公共治理主体与公民之间只能形成单向度的、去身体化的情感联系。这就意味着,实际上情感计算只能作为单向度管理的工具,发挥传统管理手段的功能,而非为现代公共治理提供技术赋能。

3. 情感信号化动摇人的尊严

情感信号化的技术特征导致情感计算在公共治理中的应用本质上是将具有主体性的人的情感等置为信号,这将导致在公共治理中作为治理对象的人的尊严动摇的公共伦理风险,人的主体性将彻底丧失。

情感计算情感信号化的技术特征危害人的尊严,这一理论的逻辑起点在于康德义务论伦理学传统。在《道德形而上学奠基》中,康德全面阐发了人的尊严为何是人的根本属性。康德以尊严和价格的比较开始:“在目的王国中,一切东西要么有一种价格,要么有一种尊严。有一种价格的东西,某种别的东西可以作为等价物取而代之;与此相反,超越一切价格,从而不容有等价物的东西,则具有一种尊严。”在康德对目的王国和自然王国的区分中,目的王国是所有的理性存在者组成的道德世界,其中理性存在者所遵循的客观法则即道德准则,因而目的王国是一个普遍立法的世界。尊严是目的王国中不可以被视作价格且没有等价物的东西。一切有价格的可被视作等价物的东西都能充当某种更高价值的手段,同时某一事物之所以具有价格恰恰是因为它预设了一个绝对价值和最高目的,这个绝对价值和最高目的就是每个理性存在者自身。康德论证了尊严是人之为人的最高价值,是一切目的的最终目的。那么,目的王国中每一个理性存在者都是客观目的,每一个理性存在者都不能被仅仅当作是手段,康德由此推出了目的王国中的道德法则:“你要如此行动,使得无论是你的人格中的人性,还是其他任何一个人的人格中的人性,你在任何时候都同时当作目的,绝不仅仅当作手段来使用。”这便是“人性公式”。一方面,从人性公式中可以得出,任何时候都要同时把人当作是目的,而非仅仅是手段,一个行为之所以是道德的,原因就在于该行为充分尊重人的尊严,而非仅仅把人当作实现某些现实目的的手段。人们不仅不能把别人仅仅当作手段,也不能仅仅把自己当作手段,既要尊重他人,又要尊重自己。另一方面,每个人都是理性存在者,都是目的王国中的客观目的,因而每个人都享有尊严。所以,每个人都具有平等的道德地位,人的尊严原理能够推导出慎重对待人的道德地位的道德要求。总之,人的尊严意味着应当尊重人的道德地位,不能仅仅把人当作手段。

而从人的尊严的公共伦理出发,以情感信号化为特征的情感计算的公共治理应用严重危害了人的尊严。一方面,情感信号化意味着人与机器情感交流的去身体化。身体的不可复制性是人性中不可磨灭的烙印,而尊重人就是尊重人性目的,禁止把人性目的当作手段。“机器难以模仿的正是人的不足之处,而不是人的理性”。缺乏身体的情感与情感交流让我们无法确认对方是否进行了情感交流,从而在一定程度上摧毁了人性目的。身体的不可复制性造就了具身情感的唯一性,情感信号的可复制性造就了离身情感的程式化和可替代性,情感信号化意味着身心交互的情感交流只是通往未来无身体交流的一个暂时的阶段。另一方面,在情感计算中,对于人的情感的深度把握仅仅是把人的情感当作程序或计算模型中的信号,情感计算得以成立的前提是承认情感的“可计算性”,抽象的情感必须被转化为可计算的数字,整体的情感必须被置换为部分的组合。可计算性所欲实现的乃是基于相似度对模仿物与本体的等价交换,人与机器的等价交换。“有一种价格的东西,某种别的东西可以作为等价物取而代之”,这种等价交换无异于直接摧毁了康德对尊严的高度强调,即“超越一切价格,从而不容有等价物的东西”。只要对人的情感认知没有发生改变,对人的尊严的重视仍然是道德事业中最具吸引力的部分,只要情感计算的可计算性建立在机器与人的等价上,情感计算的应用就免不了忽视人的道德地位。一旦在公共治理的大规模应用中将人的情感程式化,人的情感将以情感计算的技术目标形态存在,那么人就不可避免地从目的沦为手段。这也与现代公共治理强调人的尊严与权利的基本价值背道而驰。

四、情感计算情感模型化的技术特征及其权利风险

情感模型化是指,在情感计算的过程中,在情感信号与系统外,情感的识别与表达和情感的合成也是重要的环节,这两个环节都高度依赖情感建模技术。一方面,计算机在情感识别与表达的过程中,对人类情感的推测基于情感建模,也就是特定情感信号与特定情感之间的映射关系,该映射关系属于数学模型,不属于心理现象。另一方面,计算机除了能够识别和表达情感,还必须具备产生情感的五种能力,即情感的行为、快速的第一性情感、认知产生的情感、情感经历、身心的交互作用等。这涉及如何控制、表达情感,怎样正确地、聪明地认知和推理情感。这五种能力也高度依赖于情感建模。

(一) 情感计算的情感模型化技术特征

情感状态是内在的,涉及内在生理过程和心理过程的变化,因此除真实的具有情感的人类之外,任何主体都无法完全识别情感状态。情感识别通过情感建模来实现情感的识别与表达。例如,以语音速度、基频范围、发音、语音质量等标准,建立人类声音与恐惧、愤怒、悲伤、高兴、厌恶等情感之间的映射关系,以此为基础进行情感建模,从而识别说话者的情感。计算机对人类情感的推测基于情感建模,也就是特定情感信号与特定情感之间的映射关系,该映射关系属于数学模型,不属于心理现象。这也就意味着,情感计算的最终目标实质上只是不断地让机器接近拥有情感的程度,因为机器并不具备人的生理基础,无法真正拥有人类情感。因此,识别情感状态和合成情感只能是通过情感信号对情感状态的外部观察和基于情感模型的推测,情感识别和情感合成在本质上属于由外向内的推测活动,基于模型的推测是情感的识别、表达与合成最为根本的特征。概言之,从情感计算的技术逻辑来看,情感计算的实质是在情感模型中解读情感信号,本质上属于语义逻辑的推演,而非包括专注、沉浸、隐形、共情等因素在内的内在体验活动,并不具备生理基础和社会文化基础。

(二) 情感模型化与情感计算公共治理应用的权利风险

情感计算的情感模型化技术特征,为情感计算在公共治理中的应用带来了诸多权利风险。虽然这些风险也往往体现于一般人工智能的公共治理应用中,但是情感计算公共治理应用带来的风险对人的尊严和主体性造成了更大程度的威胁。

1. 情感模型化算法精准度存在偏差

情感计算的应用得以实现的关键在于情感建模,但是目前的情感建模技术存在算法精准度的问题,不精准的情感计算模型会导致情感计算在公共治理中的应用面临多重风险。

第一,情感建模的情感数据基础导致了情感模型在精准度上的偏差。情感建模主要依据可以观测的人类情感特征,根据不同的特征分类分析各个特征与情感的联系,建立情感和特征之间的可计算映射关系。情感分析综合了各个不同的情感模型所建立的映射关系,从而以求更精确地获得情感状态。情感建模的实质是在了解了给定的观测值的情况下,认定该人处于特定情感状态下的可能概率大小。但情感不可以被割裂为以观测值为表征的各个部分。情感建模和情感的可观测性需要建立在作为整体的情感上,人天生就是一个有机体,情感计算只限于可识别的情感,并不能穷尽作为整体的情感。因此,建立在可观测的情感而非整体的情感之上的情感模型存在算法精准度的问题。

第二,情感发生机制的不确定性也会导致情感模型在精准度上的偏差。情感计算在学科意义上是一门交叉学科,涉及计算机科学、脑科学、心理学和社会科学等;计算机科学侧重于构建情感捕捉、识别、理解和反馈技术,使机器具有人类的情感功能;脑科学和心理学侧重于提供关于人类情感的基础定义、结构和要素,使情感建模具备科学基础;社会科学则是情感计算的应用领域,为情感计算的应用提供实践导向。对情感进行准确定义并非易事,关于情感并不存在一个普适性概念,也没有形成关于情感的共识。除了情感本质概念的缺失,前沿科学(包括计算机科学、脑科学、认知科学、心理学等)也没有给出一套统一的情感发生机制,这就使得情感始终保留着其内隐的体验特征,人脑的组织结构、激素分泌状态、行为表现和情感之间的关系难以建立有说服力的情感模型。情感计算不同于理性计算,情感计算高度依赖于对情感的准确认识,但是情感又不容易被准确地认识,这就造成了情感计算算法模型的不确定性。

第三,情感计算技术设计上的不确定性也导致了情感模型在精准度上的偏差。技术设计本身只是服务于技术目标的一种面向未来的控制。情感计算具有多学科交融的特点,技术结构的复杂和不稳定,使得公众难以对情感计算技术形成准确的哲学预见。情感计算由单一模态走向多模态,给其实践应用带来了巨大的不确定性。计算机的隐匿性、不透明性将进一步扩大人机交互中道德评价的不可控、不确定因素。这些因素都是导致情感模型难以准确实现情感计算的制约因素。

第四,情感计算算法的多样化制约着情感模型的精准度。情感计算算法的具体使用将会产生不同的人机关系和生活关系,目前情感计算算法并不遵循统一的技术标准,导致情感计算的方法多样化,有可能导致技术功能发挥的不确定性。从情感计算的技术逻辑来看,情感赋予和交互环境下的机器离身情感都存在不确定性,在使用过程中,随着个体差异和不同人对自身情感的控制,情感计算将会出现新的不确定性。有研究表明,目前商业应用的大多数人脸表情识别、情感识别系统都缺乏科学性。情感计算参与公共治理的主要优势在于,利用情感计算为决策者提供高效和科学的决策参考。情感计算算法模型的精准度是保障情感计算辅助公共治理决策科学性的技术前提。如果情感模型算法在精准度上存在严重偏差,就无法为公共治理决策提供科学的参考意见。一旦由情感计算作出的错误决策参考意见被公共治理决策者所采纳,就会导致公共治理偏离预期的方向,甚至损害人们的权利,造成严重的后果。

2. 情感模型化算法存在歧视与算法黑箱

情感计算与其他智能技术共享了相同的底层算法逻辑,即本质上都是“以数学方式或者计算机代码表达的意见”,也具有一般智能技术所共有的算法歧视固有缺陷。算法歧视具体是指因算法自身的因素或其他突发性错误而使算法本身出现偏差,以至于造成无法逆转的、持续性的不合理结果,最常见的是由于某些难以察觉的原因而对相同的人造成不同的结果,或者对不同的人造成相同的结果。情感计算的识别结果基于情感信号和情感内部状态的推测关系得出,这种推测关系是通过大数据喂食算法进行机器学习不断调整优化的,数据喂食的代表性和偏差便成为一大问题,所以情感计算也避免不了算法歧视的问题。

算法歧视的特征有三:一是难以察觉,算法的设计者以及喂食数据的片面性都会影响情感模型的映射关系,但这种映射关系的建立过程难以察觉,从而导致算法歧视难以察觉;二是不可逆性,算法天生带有非中立性的特征,这一点是不可改变的,只能通过提升数据喂食的质量来在一定程度上加以改善;三是持续不断,基于算法的隐蔽和不可解释,情感计算对于特定性别、肤色、表现的人的歧视将是持续的。具有歧视性的情感计算的应用有可能对人类进行分类,根据不同人群的年龄、种族、肤色、受教育程度和外观等方面的不同而区分出不同的受欢迎程度,人们可能会被依据物理特点贴上不同的标签、接受不同的评价。例如,在犯罪评估这一情感计算公共治理应用的重要场景中,情感模型算法歧视的问题就尤为明显。在国外,美国公民自由联盟曾进行过一组测试,首先将美国国会议员的照片与犯罪数据库中的照片进行对比,结果有5%的人匹配上了;再单独拿非裔美国议员与犯罪数据库中的照片进行对比,识别错误率超过了20%。以结合情感计算的情绪识别技术为例的实证研究表明,情绪识别系统存在明显的种族歧视和性别歧视,目前应用的大多数人脸表情识别、情绪识别系统都缺乏科学性。这证明了情感计算不仅在技术上不可靠,而且倒向了歧视。

情感计算具有一般智能技术算法歧视的共同固有缺陷,一般智能技术的应用均有可能由于算法歧视带来侵害社会公平正义的权利风险。对于情感计算带来的这种风险的反思,不能停留于一般智能技术层面上,而是要关注情感计算在公共治理应用中由于算法歧视扩大和加深的危害,即情感识别在公共治理中的应用将扩大算法歧视的范围和深度,从而严重侵害社会公平正义。情感计算在公共治理中得到全面应用,也就意味着全面地引入了算法歧视。又由于公共治理涉及国计民生,基于情感计算的行政决策的实施将对行政相对人的权利义务产生深刻影响。如果人们忽视情感计算的算法歧视问题,径直将情感计算应用于公共治理领域,例如行政决策、刑事案件侦办,会造成损害社会公平正义的后果。试想如果审讯人员过分依赖情感计算判断口供的真实性,利用情感计算评估犯罪嫌疑人的危险程度,势必导致公民的合法权益难以得到维护,引发公民对公共治理的极大不信任。

情感计算还存在算法黑箱的问题,这一问题也严重制约着情感计算在公共治理中的应用。由于算法上的不可自我解释,甚至可能连设计者都不知道算法如何得出结果。在这种情况下,算法自身无法解释是如何得出结论的。受到专业知识上的限制,算法黑箱本身便是公众认识人工智能的一大障碍。这使得公众会产生对依托情感计算的公共治理的不信任感。公众受制于自身的知识水平,仅仅能够知道存在一行行代码得出了某种结果,但并非真的知道得出结果的依据和原理等等。除此之外,情感计算算法本身属于商业秘密或国家秘密的范畴,难以为人所知悉,这就意味着公众实际上无从得知公共治理中情感计算的事实依据和分析过程,也就无法满足现代公共治理的决策透明要求。

五、公共治理应用情感计算的权利风险的规制路径

通过发掘情感计算的技术特征可以发现,情感计算的情感信号化特征在公共治理应用中存在着减损知情同意权、去治理化和动摇人的尊严的权利风险,情感计算的情感模型化特征在公共治理应用中存在算法精准度不足、算法歧视与算法黑箱等风险问题。这些风险都制约着情感计算在公共治理中的应用。因此,必须根据情感计算的技术特征及其在公共治理中带来的应用问题,提出切实有效的规制路径,消除情感计算在公共治理应用中的风险。

(一) 将动态同意模式作为情感计算在公共治理中应用的前提

情感计算在公共治理应用中减损知情同意权、去治理化和动摇人的尊严三方面权利风险的共同核心问题在于,在公共治理中情感计算的技术对公民主体性的动摇。在公共治理应用情感计算的过程中,维护公民公共治理主体地位的前提在于公民具有对涉及自身的情感计算公共应用的同意权。只有基于公民同意运用情感计算技术,才能够实现情感计算在公共治理应用中维护公共利益目标和捍卫公民主体性的平衡。

情感计算在公共治理应用的知情同意原则要求,在公共治理中,情感计算的对象,也即情感数据主体有权知悉相关数据的使用方式和使用目的,作为情感计算使用者的治理主体或在采集和识别相关数据的情感信号时,需要征得前者的明示同意,禁止在未经同意的情况下收集情感信号。情感数据主体有权拒绝不合理的情感计算使用和采集行为,有权要求行政主体公布相关数据的具体使用以及对此进行审查。尽管知情同意原则具有规制情感计算侵害公民主体性的正当性以及前提性地位,但如何具体建构知情同意原则仍需分析。

在情感计算公共治理应用知情同意原则的具体建构问题上,“动态同意模式”具有重要的参考意义。有学者在特别同意模式和概括同意模式中提出了第三条道路,即“动态同意模式”。在动态同意模式下,个人对其数据的使用和共享有更大的控制权,人们可以根据需要动态地授予或撤销访问权限,以确保个人的数据只在特定情况下或特定目的下被使用。因此,动态同意模式具有超越同意模式价值困境的潜质,是目前适用于情感计算公共治理应用规制的最为合理的同意模式。一方面,动态同意模式不同于特别同意模式,在特别同意模式下,一旦智能技术涉及数据处理便需要频繁和多次征求主体的同意。但在当今时代,智能技术与大数据的结合使得数据处理请求变得十分烦琐,如果每次进行数据处理都需要请求主体同意,那么同意征集的频次会大大增加,导致高额的成本。另一方面,动态同意模式不同于概括同意模式,情感计算技术的应用更应该注重对个人尊严和权利的保护,而非弱化同意的标准。动态同意模式主张利用现代网络信息技术搭建一个交流平台,使得包括情感信息在内的信息处理和知情同意成为一个持续、动态、开放的过程,情感数据主体可以随时了解最新信息,自由选择加入或退出。

因此,在动态同意模式下,情感数据主体可以基于自己的个性化选择去同意或不同意。第一,动态同意模式下,情感数据主体成为数据处理的集中点,主体授权的有效性将充分实现,有利于保护主体的意思自治充分发挥。主体能够借助动态同意平台对情感信息进行管理,这使得主体对于情感计算处理什么数据以及如何处理数据的知情,可以说,动态同意模式更好地保护了主体的知情权,主体在充分知情的基础上自愿决定是否同意情感计算数据处理。第二,在动态同意模式下,公共治理主体应用情感计算进行公共治理,需要肩负充分的数据信息披露义务。动态同意模式要求行政主体实时有效地向个人表明情感数据如何采集、处理和进行安全保障,有利于将情感计算的处理过程变得易于理解,使公民主体能够参与到情感计算公共治理应用之中,与现代公共治理的民主精神相契合。第三,在动态同意模式下,情感数据主体的撤回权得到充分保护,概括同意模式和特别同意模式下的撤回权行使是一次性和持续性的,动态同意模式下情感数据主体可以随时撤回自己的同意,并随时进行新的同意。由主体来完全决定同意的撤回,保障了主体的自主性。第四,动态同意平台的搭建使得动态同意模式从理论走向现实,大数据和互联网的结合使得动态同意平台的搭建并非技术难题,在动态同意平台中,情感数据主体能够及时知悉数据处理信息,及时进行同意或撤回同意。

(二) 对情感计算在公共治理中的辅助性应用进行分层级规制

情感计算在公共治理应用中存在算法精准度不足、算法歧视与算法黑箱等问题,导致其在公共治理中只能发挥辅助性的作用,即情感计算的结论只能够被公共治理的决策者参考,而不能作为公共治理决策或判断的依据。因此,对情感计算在公共治理中的辅助性应用采取“一刀切”禁止的规制模式。

为了更精准实现情感计算在公共治理应用中的辅助性作用与风险规避的平衡,可以采取分层级规制的具体应用方案。具体来说,需要根据情感计算在公共治理中应用的风险大小,在此基础上采取差异化的规制方案,构建一套以风险为基础的情感计算公共治理运用规制体系。除不可接受的风险对应完全禁止的规制模式之外,可以将部分可接受的风险大小按照高、中、低划分为三个等级,高风险对应高强度规制,中风险对应中等强度规制,低风险对应低强度规制。

不可接受的风险是指情感计算未经情感数据主体动态同意的应用。由于情感数据主体的同意与个人的主体性和人的尊严紧密相关,如果未经情感数据主体动态同意就将情感计算应用于公共治理之中,将从根本上动摇作为目的的人的本质,公共治理的人本基础和民主精神也将不复存在。因此,针对情感计算未经情感数据主体动态同意的应用应当采取禁止性规制的模式。这也与动态同意模式作为情感计算在公共治理应用的前提相匹配。

高风险情感计算在公共治理中的表现为,情感计算的不确定性和歧视性将严重影响公民的基本权利,甚至基本权利的有无和享受程度将部分地受到情感计算结果的影响。可以设想的高风险情感计算的情形包括:在公共服务领域使用情感计算,决定个人是否享有公租房、电力和电信服务,这涉及了公民均等享受公共服务的宪法平等权;在教育系统中使用情感计算进行情感评估,确定其受教育的机会;或者在执法领域运用情感计算判断犯罪嫌疑人供述的真实性,据此决定是否采用强制措施。由于情感计算的不确定性,在公共治理中将计算结论用于涉及公民基本权利事项的参考也具有对基本权利产生危害的巨大风险。对于高风险的情感计算在公共治理中的应用,原则上应当采取禁止的态度,只有在公共治理主体基于公共利益、严格依法律要求、在损害基本权利时进行补偿、配合全流程监管的前提下,才能将情感计算的结论作为涉及公民基本权利事项的决策参考要素。

中风险情感计算在公共治理中表现为情感计算对个人权利造成中度影响,不决定个人权利的有无,未对个人权利产生实质影响。中风险情感计算主要是由于情感计算技术发展的逻辑和不确定性导致的,具有不确定因素的情感计算或多或少会对个人权利产生一定影响,这时候仍然需要将之归为中风险应用。例如,行政机关在进行社会管理时,促进教学机构基于情感计算而采取差异化教学策略,虽然未对公民的受教育权产生决定性影响,但也在一定程度上产生了不利影响。针对中风险情感计算的辅助性应用,原则上既不需完全禁止,也不需完全容许,应当慎重监管。《欧盟人工智能协调规则提案》提供了一套完整的监管方案,可资借鉴。第一,出台相关准则界定何为中风险情感计算的分类规则,综合评估情感计算之应用的预期目的、被使用程度、不利影响的潜在程度、使用人员的状态、危害结果的可逆转性等。第二,规定使用中风险情感计算的准则,例如,应建立风险管理系统,识别和预见可能发生的风险,确定风险告知措施,将风险告知使用对象。第三,展开数据治理,要求情感计算系统在一定的行业准则、质量要求、验证和测试数据的基础上开发,规定应当遵守的数据治理和管理规范,特别关注数据采集、出具处理、数据评估和偏见检察等。第四,建立记录保存机制,要求情感计算系统能够在预见到风险时自动记录事件,以确保系统整个生命周期的功能可溯性。第五,提升情感计算算法透明度和可解释性,情感计算系统的设计、开发和运行应当足够透明,使使用者能够理解和使用,情感计算系统应当说明的信息包括提供者的联系方式、系统的功能特征和局限性、预期目的等。第六,人为监管制度,应当在情感计算系统设计过程中进行有效监督,最大限度降低情感计算系统在设计意图或误用的条件下可能产生的权利风险,认为监督应当在系统投入使用之前便有所体现,这就要求公共治理主体在实际使用情感计算时参考相关部门的监管记录。

而低风险情感计算在公共治理中则表现为其辅助性应用轻度影响甚至不影响个人权利。在某种意义上,应用情感计算以识别恐怖主义而进行舆情管理,以及为了优化人们的出行而进行交通流管理,只在轻度意义上涉及或者不涉及个人权利的侵害问题。对于这种轻度意义上的影响个人权利,相应的规制要求不宜太高,应当要求情感计算算法符合透明度要求,在动态同意模式的基础上,强化“你的情绪可能被检测”提示。

六、结语

由于情感计算在公共治理中的应用相对于私人场域的应用,牵涉到影响范围更广的公共利益,同时必须满足现代公共治理的基本要求,因此,对情感计算公共治理应用的单独探讨具有重要意义。情感计算公共治理应用离不开情感计算的技术逻辑,应用过程中可能出现的风险在根本上依然来自情感计算的技术特征。因此,针对情感计算的情感信号化和情感模型化这两大技术特征进行讨论,具有从根本上探寻情感计算公共治理应用的技术根源的意义。在现代公共治理理念下,情感计算公共治理应用必须捍卫公民的主体地位,而动态同意模式是保障公民在情感计算公共治理中权利和尊严的最高效选择。情感计算公共治理应用发挥辅助性作用要坚持技术利用和权利保护的平衡,通过分层级规制路径可以有效实现技术应用、技术发展与公民权利保护和公共伦理维系的协调,从而降低情感计算带来的权利风险。

(李棠洁,法学博士,广州医科大学讲师。)

【本文系2020年教育部人文社会科学研究青年基金项目“粤港澳大湾区医疗纠纷协同解决机制立法研究”(编号:20YJC820023)阶段性成果。】

Abstract:As the frontier of intelligent computing technology,affective computing has been used in border inspection,case investigation,crime assessment,public opinion management,traffic management and other scenarios of public governance. However,there are still public risks associated with its failure to meet the basic requirements of modern public governance,and these risks are rooted in its technical characteristics. The technological characteristic of turning emotions into signals can give rise to such problems as degrading the right to informed consent,de-governance,and undermining human dignity when applied in public governance,and consequently can lead to social rights anxiety.Additionally,the affective modeling characteristics of affective computing tend to incur the risks of insufficient algorithm accuracy,algorithmic discrimination,and the algorithmic black box. “To avoid these risks,it is necessary to adopt the dynamic consent model as the premise for applying affective computing in public governance,and to regulate the auxiliary application of affective computing in public governance in a hierarchical manner,to achieve a balance between the application of affective computing technology and the protection of citizens’ rights and the maintenance of public ethics.

Keywords:Public Governance;Affective Computing;Rights Risks;Risk Regulation

(责任编辑 曹 炜)

打印|