随着人工智能技术的迅猛发展,其在各个行业的应用已经渗透人们生活的方方面面。然而,这种技术的飞速发展也暴露了现行法律框架的滞后性,导致了一系列新型法律问题的出现,特别是在隐私权及数据安全保护等领域,传统的法律法规未能及时应对这些新兴问题,造成了所谓的“法律真空”。笔者通过分析人工智能引发的法律挑战,探讨如何通过法律创新和制度改革来尝试填补这一空白。
一、技术挑战:填补“法律真空”迫在眉睫
过去几年,人工智能迅猛发展,从社交媒体的大数据推送到引起现象级轰动的生成式自然语言处理模型;从搜索引擎的个性化推荐,到能与人无阻交流的语言模型,再到能够自动驾驶的汽车,人工智能已经深刻影响人们的生活。随着人工智能技术的日益增强,我们也不得不面临一个现实:现行的许多法律制度,都在逐渐失去对这些新发展的控制。出现这种现象在一定程度上源于现行法律制度的滞后性。在法律的演进过程中,通常要等到新的社会问题或冲突大量出现后,才会通过立法或司法解释出台相应的法律规则来调整。这种“病后诊断”的模式在大多数情况下或许能够维持社会秩序的稳定,但在当前人工智能飞速发展的背景下,却显得力不从心,显然是科技发展的速度远远超过了法律制度的更新与适应速度。同时,人工智能的发展引发的法律问题具有复杂性和不可预测性,可能涉及隐私权、知识产权、合同等多个法律领域,而这些法律问题往往在人工智能技术真正广泛应用之前,就需要得到预先的法律评估和制约。而站在社会价值观的视角下,人工智能的发展不仅给技术层面带来冲击,更是对传统的伦理、社会、文化等多元价值体系提出了挑战。在此背景下,法律制度不仅需要对新技术的具体应用进行规制,还需要在深入理解和平衡各种可能影响的价值体系中找到合理的立法路径,这对于“病后诊断”的传统法律适应模式来说无疑增加了更大的困难。令人担忧的是,技术的发展会引发一系列全新的社会问题,但却不能在法律层面得到解决,如机器人的法律地位、数据隐私的保护、对抗样本攻击的责任追溯等。
(一)人工智能时代下的数据安全与隐私权危机
随着人工智能技术的进一步发展和应用,数据的收集、使用和处理达到前所未有的规模,数据保护和隐私权的问题逐渐引起了人们的广泛关注。如何确立数据的归属和控制是一个重要问题。面对大数据和人工智能等新兴技术,我们要重新审视和界定隐私权的内容和边界。首先是数据收集过程中的信息自决权问题。信息自决权是隐私权的核心,涉及个人控制其信息的收集、处理和使用。在网络环境中,特别是免费服务,用户数据常被收集以换取服务。用户往往不清楚自己的数据被如何使用,以及数据泄露面临的风险。隐私安全在数据处理中是一个重要的关注点。如何通过有效的技术和管理手段,维护数据的安全,防止数据泄露和滥用成为至关重要的问题。数据使用过程中的透明度和可解释性问题关系国家公共安全和公民的合法权益保护。人工智能系统在使用个人数据进行决策时,确保透明性和公正性是关键挑战。特别是在金融和招聘等领域的人工智能自动决策系统中,防止歧视和偏见以及确保决策过程的公平性,是亟待解决的法律问题。
(二)探究人工智能对知识产权架构的冲击
早在21世纪初,人工智能的出现已经对传统的知识产权架构产生了冲击。随着人工智能进一步发展,其对知识产权体系的冲击可能会更加直接和复杂。如Midjourney、ChatGPT等模型震撼的创作力,能直接生成文章、图片、音乐甚至判决书,这无疑提出了一个前所未有的问题:人工智能创作的作品是否应被纳入知识产权保护的范围?根据《中华人民共和国著作权法》(以下简称《著作权法》)的规定,作品的作者身份通过作品的公开发表来确认,即以法律规定的主体名义发表作品,该主体即成为著作权人,受法律保护。著作权主体包括公民、法人和其他组织。但在人工智能的创作活动中,人工智能是作品创作的实际执行者,而人工智能作为一种工具和媒介,其非主体性质与现有的《著作权法》规定产生了明显的冲突。这就引发了一个新问题:是否应将具有强大创作能力的人工智能视为作者并赋予其相应权利,或者是否需要对现有法律进行修订以适应人工智能创作带来的复杂性。面对人工智能带来的挑战,我国现有的知识产权法体系尚不能完全适应并解答这一新形式的问题。另外,现行的《中华人民共和国专利法》并未对人工智能的发明创造给予明确的规定和指导。人工智能创新成果面临专利保护难题,这限制了其法律确认并影响了研究开发的积极性。同时,是否追究人工智能模型设计者和开发者的侵权责任,或者是否需要制定新的责任规则来适应人工智能的特殊需求,这些都是法学研究和实践中必须解决的问题。
二、立法借鉴:针对我国人工智能实践对策
为解决人工智能引发的新型法律问题,笔者认为,应在借鉴国外的立法经验的基础上,结合中国的法治实践进行创新,以期在理论与实践上构建符合我国国情的解决之道。
(一)信息自决权:打造隐私权的新防线
我国法律虽未明确信息自决权,但宪法、民法典和网络安全法等法律均有条文对公民信息的控制权和权益保护进行规定。
明确信息自决权的内涵对于保护个人信息和防止滥用至关重要。它可以为个人信息的获取、使用和保护设置明确的规则,从而有效地制约和引导信息的合法、公正和透明地使用。但准确定义信息自决权存在困难,究其原因主要有两方面:一是围绕信息自决权的实践和理论探讨还很少,使得它在法律实施过程中的地位尚不明确;二是信息收集和处理自动化且迅速,超出了个人监控和理解的范围,且数据获取过程中个人的知情权常被忽视。至于个人信息自决权具体包括哪些权利,欧盟的《通用数据保护条例》有比较明确的界定:包括但不限于知情权、访问权、更正权、删除权、限制处理权、数据转移权以及反对权等。
(二)知识产权法革新:“准人主体”的立法尝试
人工智能的发展促使我们重新审视现有的立法观念和制度。我们可以看到美国、欧盟等国家已经开始对人工智能创造的作品(如人工智能创作的艺术作品、人工智能撰写的专业文章)的著作权法律问题进行探讨,并试图从立法层面给出明确的界定。有法学家建议通过引入新的权利主体以适应人工智能技术的发展。引入人工智能作为权利主体,挑战并修订了传统法人观念。人工智能的自主性和创新性使其超越了工具的角色,有时甚至可能取代人成为行为的主体。因此,有必要重新审视并更新对法人主体的认识,探索新的权利主体概念。
首先,对于权利的取得,可以通过建立“人工智能作品登记制度”来实现。具体来说,这个制度可以被设定为:当人工智能生成了某个作品后,其所有者或者操作者可以将这个作品及其生成方式提交到一个专门设立的机构进行登记(这个过程可以完全自动化)。该机构在确认提交的内容无误,且确实由当前的人工智能生成后,就可以将这个作品的使用权和许可权授予该人工智能所有者或操作者。版权法的核心在于保护创作者的权益,其作品的权利归属决定了其在版权市场中的地位和市场交易能力。在这方面,人工智能作品登记制度的设立提供了一个明确的法律路径,使得人工智能创作的作品在法律上有了明确的权利归属,从而在一定程度上消除因权利归属模糊所引发的版权纠纷,保障版权市场的稳定和公平。在责任分配问题上,可以借鉴国外的立法经验。
其次,责任追究并不是要对人工智能进行“罚款”,而是要对人工智能行为导致的损失进行合理赔偿。美国的法学界,有观点将人工智能视为一种“超人类的行为者”,由此建立一套合理的责任分配机制。在这种观点中,人工智能不仅仅是一个工具或者设备,它还被视为一种能够进行独立思考并作出决策,甚至在某些方面超越人类的行为者。当人工智能行为导致损失时,应当主张在人工智能和人类之间进行合理的责任分配。而这种责任分配应当基于人工智能的行为,并考虑到人类的使用、控制以及对行为的预见性等因素。需要注意的是,将人工智能视为“超人类的行为者”并不等同于对其进行“罚款”或“惩罚”。目前的法律体系并未为非人类行为者设立刑事责任。因此,在这里提出的责任,主要指的是民事责任,责任的主要表现形式是赔偿损失。
三、理论探索:我国人工智能责任机制构建
目前,我国在研究人工智能责任分配方面进行了有益的探索。法学界的主流观点认为,人工智能是法律的“对象”,而非“主体”,即人工智能被视为人类活动的工具。因此,当人工智能造成损失时,责任由所有者或使用者承担。这种观点易于理解和执行,但也有其局限性。
笔者建议尝试提出一种复合型的责任分配机制。这种机制中,责任主体不仅包括人工智能的所有者和使用者,还可以包括开发者。分配责任时,应考虑过错程度、性质及控制能力等因素综合处理。责任可由单一或多个主体承担,视具体案件而定。确立责任分配机制的关键在于,将人工智能的所有者、使用者和开发者作为潜在的责任承担者。所有者和使用者通过操作人工智能设备直接参与,成为责任主体;而开发者虽未直接参与,但其在人工智能系统建设与维护中的过错也应被追究责任。责任界定须考虑过失程度和性质。人工智能的行为可能反映其承载者、使用者的意愿或设计者的编程,但这种行为通常带有不确定性。责任归属因此变得更加复杂,涉及过错的程度和性质,而当各方的行为最终导致损害时,量化和过错归责是必不可少的步骤。评估人工智能行为控制时,需要考虑所有者、使用者和开发者的影响力。开发者虽为间接控制者,但其责任也应根据其影响力来确定。为实施责任分配机制,须引入公正的法律服务机构,如人工智能仲裁庭或第三方评估机构,确保法律程序公正,保护各方权益。
总之,对人工智能的性质的界定给法律主体地位和责任归属带来了新挑战,建立复合型责任分配机制至关重要。笔者主张法学研究应融合多学科知识,以更全面地处理人工智能引发的法律挑战。同时,建议制定人工智能伦理准则,保障其符合社会伦理的进步。此外,强调法律体系须具备灵活性,以适应科技变革,防止法律滞后。尽管这一过程中会遇到诸多挑战和困难,但通过理论研究和实践探索,有望逐步缩小技术进步与现有法律规制不足之间的鸿沟,这需要法律专家学者、政策制定者、技术开发者及社会各界的共同努力,尽快完善适合中国国情的人工智能立法方案。
文章转自:强国号发布内容
(作者系北京工业大学经济与管理学院本科生曾耀东,本文刊载于《法治时代》杂志2024年第11期)
上一篇:人工智能时代,大学如何应对
下一篇:人工智能与“战争迷雾”