中国人权领域唯一专业网站

于红运:人工智能促进人权发展:来自中国监管的先行经验

2024-02-18 14:17:54来源:仁之言作者:于红运
字号:默认超大| 打印|

  人工智能、特别是生成式人工智能服务在近年来的迅速发展,不仅给全球社会带来了改变和新的增长机遇,也给技术监管、社会治理和人权保护带来了相当程度上的挑战。尽管国际人权法暂时没有专门用以应对人工智能影响的条约,但是国际社会和各国政府都普遍认为人工智能可能给人权的实践带来诸多挑战,这包括隐私、健康、教育、工作、言论自由和平等权的方方面面。近年来,来自公司、民间社会和各国政府的人工智能道德原则激增。中国在合理监管人工智能、发展负责任人工智能、促进人权保护方面走在了世界人工智能治理的前列,中国的先行经验对于人工智能在人类社会的安全、平等和可控发展提供了宝贵范例和治理模版。

  1.积极高效的人工智能立法

  我国通过推出一系列法规,在人工智能的监管和负责任方面领先于世界其他国家和地区。2023年,人工智能立法进入快车道,《互联网信息服务深度合成管理规定》于2023年1月生效,重点关注算法生成内容和中国境内的互联网新信息服务。《互联网信息服务算法推荐管理规定》于2023年3月生效,对包括生成式、合成式算法在内的算法推荐技术进行了系统的规定。《生成式人工智能服务管理暂行办法》于2023年8月生效,对在中国境内开发并使用生成式人工智能技术的各个主体进行更广泛和全面的监管。这三个法规在内容、算法和产品方面,分别对人工智能从研发、运行到用户使用的各个环节进行了有效规定,在整体上确立了发展与安全、促进创新和依法治理并重的策略,并且在监管层面特别注重人工智能的社会影响。

  另外,在研究伦理方面,2023年12月开始试行的《科技伦理审查办法》也给人工智能的进一步发展提供了规范基础和制度保障。与此同时,我国在数据保护、网络安全、不正当竞争以及电子商务方面的现有法律,同样可以继续适用于人工智能的治理。通过一系列人工智能法规的先行经验,我国人工智能行业在一开始就特别注重透明度、准确度和可靠性,并且为技术尊重社会公德和伦理道德的发展、个人权利的创新和最大程度减少基于民族、信仰、国别、地域、性别、年龄、职业、健康等歧视提供了保障。

  2.全面系统的人工智能负责任发展机制

  随着人工智能技术的迅速发展,特别是以ChatGPT、文心一言为代表的生成式人工智能应用的快速出现,与人工智能相关的纠纷逐渐显化,人工智能对肖像权、名誉权、荣誉权、隐私权和个人信息权益的方方面面造成了挑战。具体到人权领域,人工智能也具备制造大规模、系统的算法歧视,权利侵害和人权损害的可能性,并且已经造成了复杂的法律问题。中国通过立法和实践构造出一套全面系统的人工智能负责任机制,这将极大促进人工智能归责和可信发展。

  2.1技术的丰富性

  尽管生成式人工智能是人工智能研究和治理的重点,但是我国的人工智能法规充分关注了人工智能应用的丰富可能性。从目前的技术监管上,法规讨论的主要分为四类:

  第一,“算法推荐技术”,这包括极大影响用户、消费者和普通民众信息获取的个性化推送算法、检索和过滤算法(如搜索引擎的自动识别)、分类与选择算法(如社交媒体的热搜)、生成与合成算法(如AIGC服务)以及调度与决策算法(如外卖平台骑手的公平调度)。

  第二,“深度合成技术”,我国的法规从各种信息收集、处理和再生成的全过程,对利用深度学习、虚拟现实等合成类算法生成文本、语音、非语音(如音乐)、图像和视频、三维重构、数字仿真等信息的技术,进行全面和有效的规定。

  第三,“生成式人工智能”,相关法规按照“有能力生成文本、图片、声音、视频等内容的模型和相关技术”的定义,从应用的结果端给迅速发展中的人工智能最宽泛的规定。这有效应对了人工智能技术对权利和人权侵害的潜在风险。

  第四,“具有伦理风险的科技活动”,我国最新的《科技伦理审查办法》针对“具有舆论社会动员能力和社会意识引导能力的算法模型”、“面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统”两类研究,首次以清单形式规定需要开展伦理审查,这回应了社会公众对于人工智能的潜在担忧,同时也预见性地规范了人工智能的透明和可控。

  2.2主体的全面性

  在主体方面,我国立法在促进人工智能行业快速发展和创新的同时,也明确了归责的主体,这对规范人工智能侵害人权时的责任人提供了有效进路。在算法推荐技术方面,主要的责任主体是服务提供者;在深度合成技术方面,服务提供者、技术支持者、使用者以及任何涉及应用深度合成技术的其他实体,比如网络平台都可能是最终的责任人;生成式人工智能则更加关注服务提供者;而伦理审查则关注研究者,首次提出任何从事相关科研活动的高校、科研机构、医疗和卫生机构以及企业都具有伦理审查义务。通过全面的归责,人工智能的开发、应用、商业化、日常使用的全过程,都有相应的义务承担者,对可能出现的权利冲突进行了有效的厘清。

  2.3义务的系统性

  在具体义务方面,我国立法特别重视人工智能技术发展的情景性,并将人工智能义务主体的责任延伸至人工智能开发和应用的全过程,这极大地保障了社会公众利益、个人权利和人权标准与技术的和谐治理与共融发展。

  在推出新的人工智能产品、服务或应用程序前,主要的义务包括算法的备案、安全评估、应用程序分发平台的程序性审查、以及从事某些研发活动的开发者的伦理审查。在生成式人工智能方面,我国的法规也特别强调训练数据、数据标注过程对于个人信息等权利的尊重,并且要求开发者采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。

  在人工智能产品、服务或应用程序的日常运营期间,主要的义务包括积极和禁止性义务两类:前者包括遵守法律法规,尊重社会公德和伦理,遵守商业道德和职业道德,遵循公正公平、公开透明、科学合理和诚实信用的原则等;而后者包括不得利用算法推荐服务进行虚假注册账户、非法交易账户、虚假点赞、转发和评论、非法屏蔽信息、过度推荐、操纵榜单等各种近年来社会关注的争议行为,其根本目的在于规制网络舆论操纵等对社会公益、个人权利的挑战。其他的禁止性规定也包括对不正当竞争等的规制等。

  最后,在人工智能的使用方面,我国法规也特别关注了对于用户、消费者中未成年、老年人和劳动者群体权益的保护。例如,就算法服务的提供,用户不被差别待遇的权利在实务界和学术界广泛讨论后被纳入规制;对于未成年人,义务人不得设置诱导用户沉迷、并且应当采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务;特别关注向老年人提供服务的义务人,强调其应当保障老年人依法享有的权益,充分考虑老年人出行、就医、消费、办事等需求;而面对平台经济和各种用工的新业态,我国也通过人工智能治理充分保障劳动者权利,强调向劳动者提供工作调度服务的,应当保护劳动者取得劳动报酬、休息休假等合法权益。

  3.人工智能与人权冲突

  尽管人工智能技术带来了巨大的便利和效率,但同时也引发了一系列人权方面的担忧:人工智能的决策过程往往缺乏透明度,特别是极速发展的生成式人工智能已经造成了现实的风险,尤其是在涉及个人隐私和数据保护方面;人工智能的广泛应用也已经在相当程度上加剧了社会不平等,强化了歧视,形成了某些大规模的系统侵害。国际社会和各国政府普遍认为,对于人权的关注不仅不会阻碍创新,也为监管人工智能提供了一个可信框架。

  面对人工智能和人权之间复杂而微妙的关系,中国的立法已经形成了世界范围内最系统的先行经验,通过有效规范人工智能的全面过程,中国的人工智能治理充分保障社会利用人工智能带来的益处、扩大正向效益、促进创新发展,同时,又通过合理的政策和法律手段,实现技术进步与人权保护的平衡,不断确保人工智能技术为社会的可持续发展服务。

  (作者:于红运,斯坦福大学法律与科技中心研究员)

打印|
返回顶部