ChatGPT的横空出世使以往只能发生在科幻小说中的场景照进现实,人工智能系统已经能够使用自然语言与人类流畅地对话。虽然在此之前,手机语音助手、家庭生活助手等人机交互应用程序已经屡见不鲜,但彼时的人工智能对话水平还停留在不断重复回应着“对不起,我听不懂你在说什么”等固定句式的阶段。而ChatGPT自问世起便刷新了人们对人工智能的认知,其详细的回应、连贯的逻辑和清晰的表达令人耳目一新。
一
事实上,包括ChatGPT在内的大型语言模型现阶段已经具备强大的自然语言处理能力,不仅能够根据用户输入的指令生成多样化、个性化的回复,还能理解上下文、连续参与多轮连贯对话,甚至在一定程度上流露出情感态度,不再受限于单一或刻板的说辞,为人们提供了更加仿真、流畅和自然的对话体验。
大型语言模型在文本分析、语言表达和信息生成等方面表现出一定的优势,可以对各种领域的自然语言输入作出前所未有的响应。从理想状态来看,它可以在多种情景下为人的发展赋能。第一,大型语言模型在本质上是一种生成式人工模型,可以被用于完成文本生成、自动摘要、自动翻译等机械性任务,使人们从某些枯燥乏味或缺乏技术含量的重复性工作中解脱,减轻工作负担,提升生活质量,或将更多精力放在更具有创造性和创新性的工作上,提高劳动价值与劳动效率。第二,大型语言模型就用户的提问或输入进行合理解答,是一种有效的知识传播途径和教育手段,从而促进人的教育权利的发展。第三,生成式人工智能可以在创意写作、艺术创作等方面提供辅助,为创作者提供灵感、生成创意,促使更多优秀文学艺术作品的诞生,在满足创作者自我价值实现的同时,也丰富社会公众的精神世界。
二
然而,尽管大型语言模型的自动生成技术给人们的生活带来了巨大的潜力和机会,但如果不加以适当的控制和管理,将可能引发一系列难以预测的社会问题,危及人类自身的发展权利。
其一,ChatGPT等大型语言模型容易导致偏见和歧视,威胁某些群体尤其是特定群体的平等权益。ChatGPT通过在大规模文本数据上进行预训练来学习文本的语义和语法规则,从而生成高质量的自然语言文本。一方面,预训练的过程需要人类人工智能训练师的参与,而人工智能训练师难以避免将主观判断植入数据选择、参数设定、策略调整等环节;另一方面,大量的文本数据输入是机器学习的前提,如果输入的训练数据本身带有偏见,得出的语言模型自然会形成带有偏见的结果。从现实条件来看,训练数据更容易从互联网资源中获得,而供给这些数据的用户较为特定,更多地是年轻人、发达国家国民、英语使用者、白人、男性以及富人等资源掌控群体,其代表性难以考证,可能导致ChatGPT生成答案的不公。
其二,ChatGPT等大型语言模型在数据训练、人机交互的过程中可能侵犯用户的隐私权,尤其是与个人数据、敏感个人信息相关的重要权益。首先,模型在预训练时采集个人数据信息的渠道未必合法合规,其可能通过第三方购买或使用爬取技术等方式访问、处理和存储用户的敏感个人信息,在此过程中数据主体的知情权和授权范围难以落实。其次,在人机交互对话的过程中,如果用户提供了敏感个人信息,生成式语言模型可能会在后续向他人生成的文本中包含这些信息,甚至将这些信息储存至模型训练数据集中进行深度学习,导致隐私泄露、信息不当使用等问题。此外,大型语言模型还可能在用户不知情的情况下根据其输入的内容对用户进行画像,分析并推断出用户的身份、兴趣、位置和情感等个人信息,用于追踪与定位个人,增加其隐私泄露的风险。
其三,ChatGPT等大型语言模型可能导致失业风险升高,侵犯劳动者的劳动与就业权利,并加剧社会利益的分化。一方面,在客服、文员、数据整理等涉及重复性文本生成任务的行业,大型语言模型的应用可能使得未能掌握核心技术的底层劳动者的就业资格受到威胁。另一方面,大型语言模型的开发和训练通常需要耗费大量的能源,硬件资源和计算资源的使用离不开大量的电能供给,数据的收集、存储和处理也涉及能源的消耗,增加了在环境资源可持续发展方面的压力。在此过程中,大众群体共同消化了资源与环境的负外部性,却难以参与利益的分享与利润的分配,这将加剧社会财富的集中,甚至造成垄断,挤占底层人民的生存空间。
其四,ChatGPT等大型语言模型可能使人的独立思考能力和认知能力退化,并逐渐被算法模型奴役。帕斯卡尔说过,人是一根能思想的苇草,人类全部的尊严就在于有思想。当人们把思考与写作外包给机器,将导致表达能力下降,批判性与创造性思维减弱,思维深度受限,信息筛选与辨别能力弱化,最终可能使得人类思维的多样性减少,情感表达日益淡漠与缺失,这或许将意味着人在逐渐丧失作为人类的主体地位。
概言之,大型语言模型虽然充满诱惑,但如潘多拉魔盒般隐藏着不可忽视的人权隐患,需要综合考虑技术、伦理、政策和社会等多个方面,审慎对待。如何在法律与社会的监管下确保技术的应用不侵犯人权和社会价值,目前仍是一个亟待解决的棘手问题。
(供稿:广东工业大学数字人权研究中心 作者:刘天舒,广东工业大学法学院博士后)