查看原文
其他

刘振宇:生成式人工智能的法律规制:承认还是再分配 ||《地方立法研究》

刘振宇 地方立法研究编辑部
2024-09-04


生成式人工智能的法律规制:承认还是再分配


刘振宇

(上海师范大学哲学与法政学院副教授


本文来源于《地方立法研究》2023年第4期。因篇幅较长,本文注释已略,建议阅读全文。 

摘要 

     生成式人工智能服务管理办法(征求意见稿)》的出台,标志着我国立法者已经开始关注生成式人工智能的社会影响。该办法规定了“生成式人工智能”的法律概念,但其规定的内容却存在显著瑕疵。之所以如此,是源于生成式人工智能的“自注意”本质属性容易引发“生成式人工智能是否法律主体”的争论,而这一争论是立法者所极力避免的。只不过,法律规范的“不承认”实质上就是“承认”的一部分,进而导致,或者这一概念规范是无意义的,或者未来的人类会遭遇异化。此时,“社会存在决定意识”这一马克思的经典命题,为生成式人工智能的法律规制提供了再分配路径的另一种可能。在这种路径下,人工智能的主体性不再是核心问题,核心问题是人机关系,即被转化为了嵌入人工智能系统里面的人的主体性是否减损。

关键词 

生成式人工智能  法律主体  承认  再分配  社会存在


目次 

一、“生成式人工智能”概念的显著瑕疵

二、人工智能“生成”的难言之隐

三、法律承认进路的“特洛伊木马”

四、法律再分配进路的“奥德赛远征”

结语





2023年4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》(以下简称“征求意见稿”)公开征求意见。5月31日,国务院办公厅印发国务院2023年度立法工作计划,预备提请全国人大常委会审议“人工智能法”草案。姑且不论该管理办法和该草案之间如何衔接,但此种情况的出现,不仅意味着国家已经意识到专门立法规制人工智能这一领域的必要性和紧迫性,同时也标志着,包括“生成式人工智能”在内的“人工智能”即将从科技概念转化为法律概念。然而,法律系统如何认识生成式人工智能这一存在物的答案依旧悬而未决。

一、“生成式人工智能”概念的显著瑕疵


征求意见稿第2条第2款明确规定了“生成式人工智能”的概念。这标志着,“生成式人工智能”已经作为一个法律概念被“界定”出来,相关的学术研讨从此拥有了规范性基础,而不仅仅是事实性基础。


在法律文本中对文本所规范的核心事项或社会关系进行概念化处理,是近年来立法的常见技术性操作。比如,《个人信息保护法》第4条第1款,即对何为“个人信息”予以规定。而稍加对比即可发现,两处条款的文字处理存在差异。前者以“本办法所称”起首,意味着一旦脱离了征求意见稿的语境,在理论上,生成式人工智能完全可能是另外一种概念;而后者则未加限定地指出“个人信息”之所是,意味着在立法者看来(如果存在真正的立法者原意的话),这一概念已经具备了超越文本的抽象性和涵盖度,日常生活中大家对于“个人信息”的理解没有差异。当然,这一显见的差异可能被归为是一种“咬文嚼字”的臆想。又如,《未成年人保护法》第2条同样拥有“本法所称”字样,虽然表面上并不影响在法律规范和日常生活中都以“十八周岁”作为成年人和未成年人分界线,但实际上,恰恰是“本法所称”限定了“成年人”和“未成年人”的范围。换句话说,在日常生活中,18周岁原本并非判断“成年人”和“未成年人”的唯一标准,而法律规范通过法律表达将之确认为了唯一标准,且“本法所称”体现了立法者对自我认知限度的充分认识。此处并不旨在讨论“本法所称”的修辞功能(一如“根据宪法,制定本法”),也并不意图探究个人信息保护法的表述是否经得住一般理性的检验,而是指出,征求意见稿的这一表述是准确的:其准确之处并不在于其后续的表述是准确的,恰恰在于其后续的表述是不准确的。


根据征求意见稿,生成式人工智能这一概念的后续表述为“是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术”。理论上,一个法律概念,应该是一个规范性概念,而非一个描述性概念。因为法律,既是一个人实施行为时应当遵循的规范,同时也是一个人对其他人实施行为时能够予以判定的规范。对于个体实施行为来说,概念的功能基本可以忽略不计,毕竟他的行为在他个人理性的指引下可以得到自洽的理解。然而,对于判定其他人实施行为来说,概念的功能便得到了彰显。只有双方对同一规范中概念的理解基本相当,或者最起码能够相互认识到对方针对这一概念的理解,有效沟通才可以进行。继续以“未成年人”这个概念为例。此概念便是一个标准的规范性概念。首先,该概念明确,未成年人是一类特殊的公民。这就意味着,如果某一主体不能被“公民”概念涵摄,那么就不可能成为法律意义上的未成年人。其次,该概念明确,未成年人作为一类特殊的公民,其特殊性就是“未满十八周岁”,即在作为公民的基础上,年龄限定构成了这一概念的本质属性,使之与其他概念(当然其实就是“成年人”这一概念)区分开来。最后,此处的“公民”“周岁”,便是标准的规范性概念。在中国法域内,“公民”的规范性可以追溯至我国《宪法》第33条,由“拥有中华人民共和国国籍”和“人”组合成为标准的概念结构,明确其规范属性;“周岁”的规范性一般参考《最高人民法院关于审理未成年人刑事案件具体应用法律若干问题的解释》(法释〔2006〕1号)第2条,由“公历”和“生日第二天”组合成为形式结构的判定标准,明确其规范的属性。于是,“未成年人”这一概念便具有了规范性:只要一个人,他对“人”的概念具备一般化的理解且拥有基本的数学能力(可以数数至18),那么,他就可以拥有关于“何为未成年人”(进而“何为成年人”)的判断。


遗憾的是,征求意见稿关于“生成式人工智能”的概念设定,无法通过规范性概念的检验。在中国法域内,“技术”尚未被转化为一个真正的法律概念。《科学技术进步法》《科学技术普及法》《技术合同法》等法律法规,都未能给出“技术”的概念。在这些法律中,“适用于”而非“本法所称”构成了其特有的立法技术体现。这很重要,但还不是最重要的,因为可能没有办法在法律层面对“何为技术”给出一个全面的界定,毕竟这是原属于科技系统的语词,而非法律系统的创生。参照“个人信息”的法律概念,“信息”显然也并非一个法律概念,但并不影响人们对于“个人信息”法律概念的认知。尽管现阶段对于这一概念的使用尚存在一定的争议,但争议主要表现为外延运用(何以“识别”、何以“匿名化”),而非内涵界定(何为“识别”、何为“匿名化”)。然而,征求意见稿中的“生成式人工智能”,在本质属性的选择上,就存在肉眼可见的瑕疵:“基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的”这一系列表述,并不足以让一般理性主体认识到何为“生成式”人工智能。


一方面,仅就法律规范体系内部的可能争议来说,“生成式人工智能”和“深度合成技术”的界限就不甚清晰。根据2022年11月发布的《互联网信息服务深度合成管理规定》第23条,“深度合成技术”为“利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术”。简单对比可以发现,一致的是“算法”“文本”“视频”,近似的是“图片/图像”“声音/音频”,以及体现差异性的“模型”“代码”和“深度学习”“虚拟场景”。然而,问题在于,差异性只体现在现象上,而非实质上。“深度学习”不过是“模型”的一类,而“虚拟场景”不过是“代码”的展演。在这个意义上,是否可以认为,生成式人工智能是深度合成技术的上位概念呢?答案倾向于是“肯定的”。然而,如果接受这一判断,那么,深度合成技术的对应概念(虽然不存在“浅度合成技术”的说法,而只是一般意义的通用合成技术),也将必然成为生成式人工智能的下位概念。但这并不符合人们关于“生成式人工智能”的通常理解,毕竟,一般意义的通用合成技术并非晚近的产物,而“生成式人工智能”被认为是以ChatGPT为代表的新生事物。何况,在技术领域,一般认为,“以ChatGPT为代表的‘大型语言模型’……代表着深度合成领域的重大技术进步……包括目前的生成合成类算法、生成型人工智能、AIGC(人工智能技术生成内容)应用等”,即生成式人工智能是深度合成技术的产物,而非上位概念。


另一方面,即便离开法律系统内部的概念之争,进入法律试图去规制的领域,忽略“本法所称”的内部自生成在逻辑上的自洽性而转而关切“本法适用于”的外部结构耦合的功能指向,这一概念同样是失灵的。“基于算法、模型、规则生成”中的“算法”“模型”“规则”,都是一般指向的,不光是“生成式”人工智能,而是所有的“代码运算”都将不可避免地生成后面所指的这些事物。也就是说,在现实的科技领域,不仅“生成式人工智能”符合征求意见稿中的概念,而且除了生成式人工智能之外的其他人工智能技术也同样符合征求意见稿中关于“生成式人工智能”的概念,AlphaGo便是这类基于算法/模型产生出图像的技术。此时,这一规范性基础的清晰程度尚不足,比如生成式人工智能“以人机界面的构建为平台端口,将二者间有效而即时的无限交互作为主攻方向”,突出了“有限即时”和“无限交互”两个特征,尤其后者“连续激活开放性对话的生成模式,不划分固定的边界,也不进行断点式的层级分化判断”,是AlphaGo这一阶段的人工智能所不具备的。于是,征求意见稿规定的“生成式人工智能”概念不得不再一次面临和法律系统内部同样的质疑:一个描述新事物的概念被嵌套入旧事物之中,它并没有揭示这一事物的本质属性,而仅仅揭示了其非本质属性,进而导致了法律系统内部和外部的双重模糊


二、人工智能“生成”的难言之隐


概念的作用,并不一定在于明确。人们使用概念,更多的是因为“概念引导我们进行探索。概念表达我们的兴趣,指导我们的兴趣”。立法者并非庸才。这并非意指某一参与某一法律法规制定的具体的人必然对这一法律法规所规范的领域全然掌握和了解,制定的法律不存在任何的问题。因为这种解读不过一种奢望。如果坚持这种奢望,则是对人类理性的终极自负,这种自负将使人类走向消亡。任何一个人的理性都是有限的,在特定的时空限定下,多个人汇聚而成的群体所展示的理性依然是有限的。立法不过是一群人的理性和另一群人的理性之间的角逐,胜出者所获得的只是彼时彼地的相对理性优势,而非超越时空的、永恒的理性守护。也正是因为有了这一差异,安提戈涅之问才会经久不衰。即便不考虑自然法的超验性,人类立法的历史也通过经验表明法律规范的修改、废除都是正常现象,任何一部法律从出台的那一刻起便已经落后于时代。如果认为立法是一种科学,那么就需要接受这样一种忧伤的结局:科学来自证伪,具体的法律规范必将湮灭于错位的时空之中。因此,此处的“立法者并非庸才”,是一种价值判断,而非事实判断。这里的意指是,作为规范的研究者要设定一个预设,即不能假定立法者是庸才,而应该将他当作拥有一般理性的人,毕竟立法约束的对象就是一般理性人;同时对于研究者本身,也不能自认为在立法理性上超越了立法者,即便研究者是专门研究法律的,而立法者可能来自各行各业。此时,面对一个一般理性人稍加反思就可以发现的显著瑕疵——“生成式人工智能”这一概念未能揭示生成式人工智能的本质特征,真正的问题应该是“一个并非庸才之人为何会犯如此明显的庸才之错”,而非“为何会选择一个错误的立法者制定如此之错的规范”。


作为尝试实现法律系统和科技系统沟通的信息,姑且搁置“生成式人工智能”法律概念和“深度合成技术”法律概念这一法律系统内部的瑕疵,否则就还要进一步讨论“深度合成技术”法律概念是否有益地指引了科技实践,而将重心放在第二重模糊之上,即生成式人工智能和此前的人工智能区别何在。如同“男人”或“女人”必然具备人之为人的一切特征但又同时兼具相互不同的“非人”特征一样,生成式人工智能必然具备人工智能之为人工智能的一切特征但又同时兼具与“非生成”人工智能所不同的专属特征。这一差异,可以用被认为最为典型(但实际上未必典型,更为准确的表述是最为具有热度)的ChatGPT和AlphaGo为例。尽管二者都被认为属于人工智能的组成部分,甚至可以认为二者之间还具有一定的关联性(虽然在另一层意义上,这种关联性也可以忽略不计,毕竟ChatGPT的基础架构和算法与AlphaGo区别甚大),但它们其实是人工智能发展的两个阶段,前者对于后者来说堪称全方位的升级。这一全面的升级体现在,如果说AlphaGo这一阶段的人工智能已经拥有了自我学习和自我进化的能力,那么ChatGPT则是在这两个能力之上,利用神经网络模型Transformer算法获得了自我注意(selfattention)的能力,毕竟“生成式预训练模型”,即GPT(Generative PreTraining),就是这一算法的产物。“自我注意”确实就是字面的含义,算法在进行编码处理的时候不仅向外界寻求资料,同时也向自身寻求资料。换句话说,此时人工智能的输出不仅仅是它转述了别人的说法,同时还是它在符合自身系统编排序列的前提下转述了别人的说法。正是这种“自我注意”能力的获取,使得人工智能发展进入了新阶段,建构起了生成式预训练演化器。因此,理论上来说,生成式人工智能的“生成”本质是自注意力的矩阵,特性即“自注意”。


自注意力矩阵是一种算法机制,属于科技系统的范畴。法律系统如果将这一机制纳入法律规范之中,必须进行符合法律系统的转码。麻烦恰恰在此处产生。现代法律规范体系的建构和现代启蒙具有共时性,并分享了现代启蒙的基本设定:“我思故我在”。“我思故我在”确立了主体和客体的二分,客体无思,主体可思。人之所以可以摆脱神的束缚成为主体,并非身体的强健,而是因为人拥有理性并能够进行思考。一个四肢发达但是不予思考之人,依然无法建构自身的主体性;一个身残志坚之人,反而更加有可能建构自身的主体性。沉重的肉身不过是客体,主体是在无穷的我思之中。由此,理性和意志继托马斯·阿奎那之后再一次巧妙地勾连在一起——思既是意志的结果又是理性的展现——并相互遮蔽着成为现代法律秩序的正当性基础。而在这一架构下,“注意”就成了一个特别有意思的动词;尽管它同时也可以指代一个名词,但这个名词不过是动词状态的表征。作为一个行为,“注意”的核心不在于“注”而在于“意”,否则,即为“注视”而非“注意”,属于截然不同的语词。这一结论不仅适用于中文,同时也适用于英文和拉丁文。“注意”和“注视”的这一差别,为“注意”赋予了特有的“意”。也就是说,这一语词本身就内含着意志的显现。于是,在法律中,无论是刑法的注意规则还是民法的注意义务,“注意”都和某一特定的主体相关。换句话说,无论是在现代主客二分的世界观下,还是在以此为基础的法律规范体系中,能够实施注意行为的存在者只能是主体而非客体。一个客体,当然也可以在外在意向性指引下实施关注的行为表象,但这一外在表象不会被认为是“注意”,毕竟,客体“无意”可注。因此,如果确如前所述,生成式人工智能的本质属性是“自注意”,那么,当以这个本质属性作为生成式人工智能法律概念的核心要义之时,就不得不面对一个持续的风险:一个能够进行自注意的存在者,为什么不是主体?更何况,依托于已经存在的自我学习和自我进化,生成式人工智能不仅可以进行自注意,更可以进一步将自注意反馈成为对于他者的注意——ChatGPT的聊天用语已经很好地呈现了这一点,那么,为什么它不是一个主体?这一问题的延展,很容易迅速滑至“人工智能是否会取代人类”“人类的知识和能力在未来是否还有用”等议题。尽管“这种讨论实际上只是重复了之前关于人工智能技术发展的恐慌和幻想”,但是生成式人工智能的日常理解确实已经有了此类倾向,“自主生成新的”这一表述比之科技层面的“自注意”或者“没有人为直接参与的情况下,自动生成”更加具有主体性的特征。毕竟,作为其代表的“ChatGPT在工程上呈现出超强的人机自然语言对话能力,不仅在相当程度上打破了很多悲观主义者的设限,同时也超出了不少技术乐观主义者的预期”。


法律规范的讨论没有必要像大众议题那样走得如此之远;恰恰相反,如果法律规范有所设置,那么它反而能够成为大众议题的讨论基础。早在AlphaGo阶段,关于人工智能是否法律主体的讨论便已经展开。如果彼时便已支持人工智能是法律主体,那么当超越AlphaGo的ChatGPT出现之后,生成式人工智能就更加具备了成为法律主体的可能性。即便彼时不支持人工智能是法律主体的研究者,也可能在“自注意”面前进一步分化。和古典进路、具身进路相对应的生成进路,便是其中最具吸引力的一支。“生成进路认为,道德知觉(moral perception)补充了完整的道德地位中道德来源的缺位,其与具身进路中有机体之于道德目标的补充一起构成了人工智能完整的道德主体地位。”自注意是否构成道德知觉,是一个有趣的话题。自注意确实在现象上构成了一种主体表征。自注意的缺乏必然不可具有道德直觉,因为此时人工智能不能注意到其自身,也就感知不到“存在者”的身份。但是,自注意的这种表征是否构成主体的充分条件,则取决于如何理解道德知觉。即,当一个主体能够被另一个存在者的行为所触动,激发道德情感;而另一个存在者也可以被这个主体的行为所触动,激发某种涉及道德的行为反馈,此时,这一涉及道德的行为反馈是否能够被判定为是道德知觉。2023年4月23日,江苏徐州某医院某女士怒砸智能机器人一事引发热议。在这一事件中,将人和智能机器人均遮蔽为“存在者”,就会发现,故事变为如下:


在医院的存在者某甲心情不佳,作为在医院提供服务工作的存在者某乙发现某甲心情不佳,于是过去准备给某甲讲个笑话,某甲对某乙讲笑话的行为表示不满,并对某乙实施了打击,在医院提供服务工作的其他存在者拨通了报警电话。

在这一场景下,可以直观地发现,某乙对某甲的情感进行了道德上的判断,认识到心情不佳的某甲需要安慰;某甲对某乙的行为进行了道德上的判断,认为某乙此时讲笑话的行为是一种不符合道德的行为,并实施了后续的打击行为。于是,某甲既意识到了某乙的道德诉求同时实施了具有道德指向的行为,某乙同样意识到了某甲的道德诉求并实施了具有道德指向的行为。排除外在具身的差异,某甲和某乙在道德知觉层面没有本质上的差异。也就是说,此刻,可以指摘某乙选择了错误的行为(讲笑话),但很难说某乙缺乏道德知觉,因为如果缺乏道德知觉,其就无法判定某甲处于情绪不佳的境地并需要道德安慰。某乙确实实施了一个非自我中心的公共行动,即便这一行动带来的后果并不是其所欲求的。显然,在原始版本的故事中,某女士是基于智能机器人的具身特征排斥了后者的道德现象类表达。那么如果智能机器人在外表的具象上和人类没有肉眼可见的差异,某女士是否会形成错误认知呢?这一问题将面临着开放性的讨论,但原始故事绝非生成式人工智能的反例,恰恰构成了生成进路的正面例证,使得原本相对清晰的人工智能主客体之争变得模糊起来。


生成进路的道德知觉论证在理论上存在可行的空间,而且知识产权界已经就“生成式人工智能的生成物”知识产权事宜展开了持续的讨论,包括但不限于“这一生成物是否存在知识产权”“如果存在知识产权,享有这一知识产权的主体是谁”“生成式人工智能是否对其生成物具有权能指向”等。更何况,随着Transformer算法日益成为人工智能领域的主流算法,或许在不久的将来,具有自注意力的生成式人工智能将成为“唯一”的人工智能,彼时再区分“生成式人工智能”和“非生成式人工智能”便会变得毫无意义。只不过,这些都属于未来,而未来是开放性的。就如同AlphaGo不会预知ChatGPT出现一样,人工智能的下一次跃迁以何种形式达成,对于已经具有自注意力的人工智能来说,完全有可能超越其设计者的理性设计。纵然“未来已来”已经在近期成为热点词汇,但立法者(无论基于何种考虑)还是不打算走得太远。因此,立法者对此的选择是:“不予承认”。为了达成这一目标,一个没有“生成”的“生成式人工智能”概念就出现在了征求意见稿中。


三、法律承认进路的“特洛伊木马”


生成式人工智能“不予承认”这一立场,贯穿征求意见稿始终。尽管“生成式人工智能”“生成式人工智能产品”“生成式人工智能生成的内容”“生成式人工智能服务”呈现出征求意见稿规制对象的多样性,但“研发”“利用”“使用”“提供”等一系列动词的存在,确证了动宾结构。在这些动词之中,根据中文语用习惯,仅有“利用”后面可能附随表征主体的名词,即“利用某人”,其他动词的宾语均被归为客体的范畴。而即便是“利用”,虽然可以前置于主体名词,但此时,该主体名词也被客体化。“利用某人”等同于“对某人的利用”,是将某人作为一种工具而非目的来予以对待。因此,如果说,第2条第2款的概念尚存在一定开放可能的话,征求意见稿的其他条款在语用学的意义上,从来未曾将“生成式人工智能”作为一类主体,而是标准的客体。更不要说,第五条专门规定的“提供者”,成为征求意见稿最为核心的责任主体,兼具产品生成内容生产者的责任和个人信息处理者的法定责任。而关于责任的规定,是权利主体的构成要件。没有责任要素的权利结构是不完整的,不享有完整权利结构的存在者无法成为真正的主体。对“提供者”的承认,使得对“生成式人工智能”的不承认,更进一步。其在法律系统内部,逻辑上消除了生成式人工智能承担责任的可能。


法律“不承认”生成式人工智能的理由,比之生成式人工智能能够作为主体的理由更强一些。“‘法律人格扩展论’‘人工智能发展论’‘有限人格论’三类论据,试图在法律人格理论发展、社会客观现实需要与制度设计可行性三个层面分别证成人工智能的法律主体。”然而,一方面,获得越来越多研究者支持的“有限人格论”本身就是对“法律人格扩展论”和“人工智能发展论”的驳斥,毕竟,在现阶段,作为法律拟制的主体,无论是法人还是国家,其权利能力和行为能力具有“全有或全无”的特征,自创设时起、自灭失时无。唯有在具身层面已经具备“人”的特征,并拥有成长为“成年人”这一典范主体的人才有资格被法律拟制为“有限”,且这一“有限”在法律规范设定的特定条件(一般为年龄和智力发展,二者平衡着理性和意志)下,能够摘掉“有限”的帽子,成为一个完整的主体。但尚不存在一类非人类的存在者,其永远享有有限的人格:既不会在性质判定上从有限发展为无限(这是法律人格扩展论的主张),也不会在范围涵盖上从有限发展为无限(这是人工智能发展论的主张)。表面上看来,动物权利的兴起,为人工智能获得法律主体地位的可能增添了一份筹码。一只名为“八条”的小猫如今成了宠物界的网红,其原因在于它可以通过敲击发声按钮和它的主人实现“对话”。原本受限于“权利能力”的动物,在人工智能的辅助下,已经获得了“交往行动”的可能。但这一“主体性碎片”优于人工智能的动物,也最多不过是“权利保护”的对象,尚未获得“主体”地位。毕竟,无法确认“八条”是基于理解它敲击按钮之后传达出声音的语意选择在它想行动的时候敲击按钮,还是基于特定类型声音观察到了主人的反应后形成了路径依赖。法律规范是保守的,更多地指向过去,而非指向未来。这并不是说,法律规范的功能不指向未来。而是说,法律规范作为社会意识的体现,其以社会存在为基础。在社会存在尚未完成实质性变化的时候,法律规范虽然可以引导这一变化,但却没有办法决定这一变化。连作为社会存在的科技系统都无法预测ChatGPT的出现,更何况是依赖科技系统信息转码的法律系统。即便未来已来,这一已来的未来也不会严格依照法律规范的设计运转,何况已来的未来同样具有开放性。尽管有陷入滑坡谬误的可能,但破窗理论还是有必要认真对待的。“有限人格论”对于“永久性有限”的设定,将使得任何一个存在物都有可能在某一特定的时刻成为符合“有限人格”中“有限”的主体。社会期许通过指向未来的假想式规制来约束现阶段的此在,绝非优选。


另一方面,“生成式人工智能的智能化、类人化特性逐渐凸显,开始超越算法的工具属性而凸显主体性潜能”,以其特有的自注意能力为“法律人格扩展论”和“人工智能发展论”的证立提供了一个现实的实例。前者的功能主义进路使得“不予承认”立场的立法者无法给出何为“生成”的有效概念,以避免可能由此产生的“主体之问”,不再重复论述。而后者则进一步强化了人工智能的社会属性,其乐观的预估是,“一旦机器人的社会化程度陡增,并在各个领域占据较高的应用率。那么,不必等机器人对人类提出何种权利诉求,其所有权人自然会呼吁立法机关来界定机器人的权利主体地位”。然而,困在系统里的外卖骑手则给出了另一种可能,而这种可能,或许是更为现实的未来。人工智能在某一领域的大规模运用,即所谓的社会化的提升,带来的并不是人工智能地位的上升,而是处在这一领域中的人的地位的下降。这一转换并不难理解,因为现代法律系统固有的主客二分,在人工智能一天未被赋予法律主体地位之前,它都将被法律系统判定为客体。“法律人格扩展论”和“人工智能发展论”的乐观预期是,人工智能会越来越像人一样行为;但一体两面则是,人越来越像人工智能。前一种表述的“像”,是趋于“接近”;后一种表述的“像”,是趋于“被接近”。但当“人—机”产生关联的时候,接近和被接近在现象层面是一致的,尽管其在本质上有明显的区别。外卖骑手的处境揭示出,“人工智能算法中,个人逐步被数据化和被计算化。在数据处理和整合时,算法将人按照各种各样的自动化区分标准进行排列,并赋予相应的意义”。原本,作为纯然客体的人工智能是无法赋予主体以意义的,该意义只能经由使用人工智能的主体来赋予。这也是征求意见稿专门规定“提供者”的原因所在。但是,随着生成式人工智能带来的交互性提升,某一特定人工智能系统获得了在其系统内部赋予代码意义的可能。一旦人工智能的自注意力反馈到“当‘我’像人的时候就可以像人一样行动”时,那么“当人像‘我’的时候就可以像人一样”这一算法的自生成就不再是一个假想的风险,代码确实可以完成这样的序列排布,只是选择在何时完成这类排布而已。因此,“不予承认”就成为避免消解人的主体性的规制手段之一。


只是,这一贯穿始终的“不予承认”,却潜藏着更深层次的“承认”。“不予承认”本身就是“承认”进路的一种模式。“不承认”是“承认”的对立面。因为前者是否定判定,后者是肯定判定。但这种推论并不确切。如同法律系统的判定符码是“合法/非法”而非“合法/违法”一样,承认进路的判定符码是“承认/不予承认”而非“承认/不承认”。虽然“不承认”带有鲜明的否定特征,但“不承认”的前提需要明确“承认”的判断标准,也就是说,如果不存在“承认”也就不存在“不承认”。“承认”和“不承认”都是内在于“承认”的,唯有基于承认的判定才能获知何为不承认,就如同唯有基于合乎法律的合法判定才能知悉何为违法一样。而“不予承认”则是另一回事,它一方面关联着法律系统的不承认,即在语用的意义上,“生成式人工智能不是法律主体”的“不承认”命题和“不用法律主体标准来判定生成式人工智能”的“不予承认”命题在功能上是一致的,都是将生成式人工智能排除在现阶段的“承认”主体之外。然而,在另一方面,它却又和法律系统的承认关联在一起:这一存在者虽然尚未获得法律系统的肯定沟通,但是却也没有被法律系统排斥在外,法律系统依然对它保持着持续性的关注。一切取决于承认的标准。在这个意义上,征求意见稿本身就是法律承认进路的实践:何者能够成为法律主体来自法律系统的判定,而非来自道德系统、社会交往系统、科技系统的发展。“提供者”的规定便是佐证之一。“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人”被法律规定为“提供者”,此处,“提供者”是这样一个概念,其指向的是某类特定的法律主体,这一主体能够利用生成式人工智能产品提供服务;现阶段,这一主体的集合之下,包括组织和个人;法律为这一主体设定了相应的主体责任,且将其设定为唯一承担责任的主体。但是,回到先前已经提及的两个例子。在医院事件中,提供者需要承担责任吗?这个提供者,是智能机器人的制造者还是医院?第一责任人看上去好像应该是医院,可医院要因此承担精神损害赔偿吗?外卖骑手情形的检验也是类似的,如果平台已经承担了劳工权利基本保护,平台在这里有什么责任呢,毕竟,现实中最大的问题不是算法,而是缺失常规福利保障。


尽管可能过于绝对,但如下判断在大体上是可以接受的:“在面对以ChatGPT为代表的生成式人工智能时,应当承担‘主体责任’的对象呈多元化、分散化和场景化特征,仅通过界定‘服务提供者’或者‘内容生产者’难以精准划定承担责任之应然主体。”这就意味着,在可预见的未来,如果坚持“不承认”,那么,或者,“提供者”本身被束之高阁,继续依赖其他部门法规范调整相关事项,如同《个人信息保护法》那样,生效多年,却基本没有直接以其作为裁判理由的司法判决;或者,进一步细分主体,以应对不同算法生成式人工智能在不同场景中导致权利侵犯的主体责任承担,但这一不断细分不仅会使法律规范因为其抽象性无法做到面面俱到,即便是司法回应的量体裁衣也难以跟上科技适用领域的拓展,毕竟,司法同样具有保守性。当然,还有另外一种可能,那便是不再执着于“马法”思维,“基于表达和思维便利的考虑……像法人、神灵、死者那样”承认生成式人工智能的法律主体地位,如此便可以解决这一问题,但却面临着人的主体性消解的风险。在这个意义上,如果承认路径是法律系统如何认识生成式人工智能这一存在物的唯一答案,那么,深层次的“承认”就将在未来的某个时间骤然出现,将以“不予承认”作为基础的生成式人工智能法律规范体系从内部瓦解于无形。


四、法律再分配进路的“奥德赛远征”


法律系统关注主体。每一次社会的巨大变革,都将引发法律主体理论的变化。封建社会瓦解了奴隶社会,奴隶从“人非主体”变成了主体;资本主义社会取代了封建社会,财产主体取代了政治主体并确认了法人的拟制;社会主义社会超越于资本主义社会,共同体重新进入法律的视野,而不再执着于个体的利益;比及未来的共产主义社会,更是将以自由人的联合体这一兼具“个体和共同体”的生活方式,宣布法律的终章。因此,自AlphaGo这一具有自我学习和自我进化的人工智能出现之后,人工智能法律主体问题便已经被认为“是所有道德、法律问题的实质与关键”,“是设计与人工智能相关的未来法律制度的逻辑起点”。生成式人工智能以其更为独特的自我注意,更是强化了这种思考的意愿。但这一承认路径真的是唯一答案吗?或者说,唯有解答了“人工智能是否法律主体”这一问题,才能够设计与人工智能相关的法律制度吗?答案是:未必。


“社会存在决定意识”是马克思的经典命题之一。鉴于该命题经常被称为“社会存在决定社会意识”,因此引用这一命题的完整表述,以便辨析两种表达的差异所在:


人们在自己生活的社会生产中发生一定的、必然的、不以他们的意志为转移的关系,即同他们的物质生产力的一定发展阶段相适合的生产关系。这些生产关系的总和构成社会的经济结构,即有法律的和政治的上层建筑竖立其上并有一定的社会意识形式与之相适应的现实基础。物质生活的生产方式制约着整个社会生活、政治生活和精神生活的过程。不是人们的意识决定人们的存在,相反,是人们的社会存在决定人们的意识。

这一段话蕴含着历史唯物主义的玄机。该段话按照断句,正好分为四个部分:①第一句话,诚如马克思所说,生产关系需要与生产力相适应,生产关系是被生产力决定的,而不是被人的意志决定的。这一点从来没有争议。②第二句话,即上层建筑需要与经济结构相适应,而经济结构实际上就是生产关系的总和,由此可以得出经济基础决定上层建筑,这也是毫无异议的。“与之相适应”的“之”因翻译所限导致指向并不十分明晰,既可以理解为“与上层建筑相适应的社会意识形式”,也可以理解为“与社会经济结构相适应的社会意识形式”。当然,因为上层建筑本身以为经济基础所决定,所以“一定的社会意识形式”无论按照何种解释来理解,都可以归根结底到需要与社会的经济结构相适应。因果链条增多造成的仅仅是决定要素的复杂性,并不影响主要决定因素的重要性。③第三句话,生产方式包括生产力和生产关系,它对于一切生活的制约也是正确无误的。这句话实际上是对前两句话的总结。④关键在于第四句话,马克思在这里貌似是用了一个对称的结构,但实际上并非如此,前半句说的是“人们的意识”和“人们的存在”,后半句说的却是“人们的社会存在”与“人们的意识”。在《德意志意识形态》一文中,马克思写道:“意识在任何时候都只能是被意识到了的存在,而人们的存在就是他们的现实生活过程。”于是,“人们的存在”是现实生活过程,其与第一句所指的人们的社会生产过程并不是完全同一的概念,因此,并不能单独归结为生产活动。更重要的一点在于后面,马克思没有继续使用“人们的存在决定人们的意识”,而是使用了“社会存在”这个概念。如同“人们的存在”不能等同于“生产活动”一样,“人们的社会存在”也不能等同于第三句所指的“物质生活条件”,而应该理解为“生活关系的总和”。之所以这样说,是因为第四句的后半句为“人们的社会存在决定人们的意识”,而不是“人们的社会存在决定人们的社会意识”,意识只能是被意识到的存在,即只能是意识到的生活,社会存在决定的就是这种被意识到的生活,而不是如同第二句所述的那种由经济关系所决定的“一定的社会意识形式”。


对于马克思来说,“生活关系”实际上就是“生产关系”,因为人生于世界,无外乎男女两种,而男女的两性分工在马克思看来是第一次的劳动分工。但采用“生活关系”而不是用“生产关系”,恰恰是将“社会存在”与“物质生活条件”之间的联系进行一次语义上的割断。毕竟一提到“生产关系”,很多时候抑制“物质生产”,前者有被后者替代的倾向,但这种替代显然是不可理喻的。生活关系,按照马克思的观点,归根结底是由生产关系来决定的,但其绝不是生产关系的等同。至于“综合”,实际上代表一个开放的集合概念,即在本质上,对于具体社会存在的数量是缺少一个确切的数字的,“社会存在”是一个集合,只要有新的生活关系产生,就可以放入这一集合之中,而一旦这一生活关系消失,它也就离开了这一集合。只是,此刻的“这一生活关系”,不是单纯的某一个具体的生活关系,而是一种抽象的、带有理念性质的概念,即人类对于这种生活关系的抽象的命名。由此,“社会存在决定意识”命题是支持承认路径的。为什么会有关于人工智能是否法律主体的讨论?恰恰是因为,人工智能的社会化,尤其是以ChatGPT为代表的生成式人工智能的大规模应用,深度介入了人的日常生活之中,使得“人—机”关联从传统的“人的输出,机器的输入,机器的输出,人的输入”这一单向反馈转化为“人的输入,机器的输入,机器的输出,人的输出”这一双向反馈,“模糊了信息真实和虚假的边界,深刻地改变了人类获取信息与知识的方式,另一方面深度合成技术将成为网络虚拟空间与现实物理世界虚实结合、融为一体的关键应用技术,甚至改变人类未来的生产方式和生活方式”,即改变了人的社会存在,进而,这一社会存在的改变将引发人对于生成式人工智能意识的改变,由此使人产生出一种“生成式人工智能能够做许多原本由人来做的事情,大概也许可能就是主体了吧”的意识。


承认进路到此为止,特洛伊木马的风险再度显现。然而,“社会存在决定意识”这一命题并未止步于此。这一命题的终极指向,是自由人的联合体而非其他什么存在者的联合体。于是,社会存在决定意识并不仅是一个建构命题,同时也是一个评判命题,即利用最终的“弥赛亚”来评判既有的事物是否合理。这就意味着,唯有能够促进“自由人”意识生成的社会存在才是符合社会发展的存在,而那些非但不促进“自由人”意识生成还阻碍“自由人”意识生成的社会存在则是需要警惕的,尤其是那些表面上促进而实质上阻碍的社会存在,即异化,更是自由人联合体这一终极目标的主要对手。和曾经的AlphaGo相比,以ChatGPT为代表的生成式人工智能“的‘问题’并不在于它真的做出不利于人的决策,而恰恰是它能‘代替或参与人的决策’这件事本身”。于是,生成式人工智能大规模社会化这一社会存在的改变是否获得承认,并不在于生成式人工智能的存在是否改变了人的意识或者人意识到人工智能像人一样,而在于生成式人工智能的存在是否促进了“自由人”意识的生成。此时,重新回到外卖骑手的实例,就会发现,尽管提供者并没有显著的违法行为,因此在理论上也没有必要承担主体责任,但是,鉴于外卖骑手被困在这一人工智能中的事实,其“自由人”的意识并没有得到促进(至于阻碍与否,则有待论证,毕竟这是一个时序差异比较的事项,在外卖骑手嵌入这一人工智能系统之前,他是否拥有“自由人”的意识尚不能简单定论),于是对这一人工智能就需要保持警惕之心,而不能任由其发展。也唯有此时,征求意见稿第4条的设置才是有意义的。作为倡导性规范,它的功能指向应该位于后端,即是否“尊重社会公德、公序良俗”由嵌入这一系统中的人来决定,而非由外在于这一系统的观察者来评价。否则,将不可避免地遭遇“法律规范过度伦理化”的质疑。


可以认为该路径是一种全新的承认模式,因为它确实承认了生成式人工智能的功能;但是,这又不是传统意义上的承认路径,因为它确实没有承认生成式人工智能的主体地位并赋予其身份。这一承认和人工智能“是什么”无关,但是和嵌入人工智能系统的人有关,所考虑的是人工智能“做什么”的事情。科技革新,塑造了一个经济生产和社会再生产的新世界,一个就业更加不稳定而日常生活日益多样的世界。作为新技术代表的生成式人工智能,指向的是经济生产;而法律规制所能触及的领域,则属于社会再生产。这就意味着,真正需要在法律上得以承认的,并非人工智能,而是嵌入人工智能系统中的人。这听起来有些荒谬,毕竟,只要是人,就已经获得了法律主体的地位,无需再对这一法律主体的身份进行承认(当然这并非意味着不需要对这一主体的身份予以承认,这是另一个问题,因为作为生活关系的总和,身份是其中重要因素之一)。但实际上,随着人工智能这一越来越“像人”的系统介入,嵌入其中之人,却因为自身能力的差异——或者是经济能力的差异,或者是计算能力的差异,或者是知识能力的差异——在同一算法主导的人工智能系统中,被区别对待了。日常生活中,一个最为典型的例子,莫过于使用老人机的老年群体在许多人工智能应用场景中接入能力的缺失。这种缺失不是他们主动寻求的结果,是数字经济发展的必然,但他们不仅缺失了“数字人”身份,同时这些生活场景从他们的生活世界中被“强制”剥离出去,造成了“自然人”身份的缺失。“数字贫困”是真实存在的。如果考虑得更深一层,生成式人工智能的研发者、利用者和生成式人工智能的服务对象之间的能力差异更为显著,毕竟研发者和利用者拥有服务对象所不具备的“控制人工智能”的权力。“知识/信息/技术不对称正在通过普遍的信息基础设施成为一种遍在的状态”,服务对象只有“接受”和“不接受”的选择,即便存在“反馈”和“矫正”也是一种事后行为。鉴于生成式人工智能的“自注意”属性,此处的“控制”并非绝对意义上的掌控,甚至于,生成式人工智能存在着脱离研发者或利用者而自我革新重塑系统规则的可能。然而这并非意味着,服务对象在进行“人—机”关联行动时,不再需要遭遇不同程度的算法黑箱,甚至还进一步意味着,即便是研发者或利用者在生成式人工智能系统中,也存在着遭遇算法黑箱的可能性。尽管“算法处于黑箱之中并不必然就是不正义的”,但既然在一个数字社会中,算法黑箱是一种必然的社会存在,法律就要对其产生的不正义予以矫正,以避免其影响人的意识。此时,法律规制在本质上便是对此间之人所属地位的“再分配”。


如果,“代码即法律”这一表述已经深入人心并且成为法律系统和科技系统双方共识的话,那么,生成式人工智能产品便不是别的什么事物,而是有一连串代码构成的制度性规范。法律对代码是无能为力的,尤其是在生成式人工智能阶段(包括后生成式人工智能阶段,毕竟在全人类的来看,科技进步的整体趋势是不可逆的),但是,法律对于这一系统给人造成的不利影响必须有所作为:寻求对制度化伤害的制度化矫正,进而克服地位的从属性。地位从属性,既不是人工智能之于人的从属性,这在主客二分之下,并非需要解决的问题;也不是人之于人工智能的从属性,因为法律从来不曾承认这一点并且这本来就是异化的结果;而是嵌入人工智能系统中的不同之人,他们之间是否拥有了从属性,或者说,在增加了人工智能系统这一新的客体媒介之后,人与人之间的从属性是强化了还是削弱了。这是“再分配”路径所调整的核心内容。由此,人和人工智能的“身份识别不平等”不再应当是法律关注的焦点,法律关注的焦点已经转化为不同的人(法律主体)在和同一个人工智能(无所谓主体还是客体)产生关联时,是否隐含着针对不同人“身份定位”不平等的再分配。以医院事件为例,如果医院智能机器人在对待其他心情不好的患者家属同样给出了“讲一个笑话”的行为,那么,此时,该生成式人工智能并不存在针对患者的身份定位不平等问题,因此,也就没有必要启动法律系统对其进行矫正;当然,科技系统内部的纠偏还是可以继续的,但这一行为应当被理解为是对“不完善”的系统更新,而非对“伤害”的赔礼道歉。同样的,在外卖骑手的实例中,被困在系统中的他们,和平台的地位不平等是“增强”了而非“减弱”了。作为劳方的骑手和作为资方的平台,二者之间的地位不平等在现阶段是不可避免的,但如果平台的人工智能系统不是将骑手们困在一个越来越内卷的境况下,而是困在一个越来越休闲的境况下,那么这一系统就是可欲的。这乍听起来可能违背直觉,资方貌似缺乏如此行动的理由,但人工智能产业的生产大概率会走到这一步。根据一个基于“资本—技能互补”理论建立的模型,“资本密集型人力资本和收入分配不平等的中介效用显著高于劳动密集型”;根据一个连续时间异质性个体动态一般均衡模型的检验,“人工智能带来的希克斯中性技术进步会同时带来经济产出、劳动工资、实际利率的提升,经济中的财富分配不平等有缩小的趋势”。这意味着,在既有生产关系已经限定了身份地位不平等的前提下,对这一不平等的矫正有赖于人工智能技术的进一步发展而非限制。鉴于“社会福利条款的首要和最明显的目标是防止贫困”,寻求更公正的资源分配,因此,针对生成式人工智能的法律规制,目标是防止数字贫困的再生产,而非促进算法代码的再生产。后者是科技系统的问题,法律有必要认识到自身的功能限度,在此止步。于是,不能减少数字贫困甚至扩大数字贫困的生成式人工智能技术在“再分配”路径被判定为是“非正义”的。一个在功能上足以替代人的人工智能是有可能获得“承认”的,甚至更有可能获得“承认”,即符合承认路径的正义;可是,如果它减损了被它替代的人既有的主体性,那么在“再分配”路径上则是不可接受的。这种归属于再分配路径的“非正义”只有在人工智能产业进行生产或再生产的境况下才能够对其进行判定,因为只有此时“人工智能系统”和作为“服务对象”的法律主体才会产生关联,才会涉及对服务对象社会身份定位的可能改变,即是否引发了数字贫困的再生产。与之相应,人工智能技术如何发展则无需专门予以立法规制,科技伦理审查属于另一个层面的事宜,比如,2023世界人工智能大会发布的《生成式AI伦理与治理倡议书》就不具备法律层面的规范性。唯有如此,征求意见稿第3条中的“支持”和“优先鼓励”才真正拥有了可能;否则,就可能由于对于人工智能技术风险的过多关注导致“可信”永远无法达成,进而增加非必要的事前审查或准入门槛,不利于科技创新。至于这一人工智能技术产品“像”人还是“不像”人,此时不过是颇具魅惑的塞壬女妖之歌罢了,无需过多关注。


结语


再分配路径会是比承认路径更为妥当的法律规制吗?现阶段尚没有确定的答案。这不仅仅因为再分配路径尚无具体的法律规范所依托,也因为作为尚未生效的征求建议稿,承认路径下的法律系统也还未有效地对接科技系统。一切都需要耐心等待管理办法正式颁布后,法律系统自创生给出的反馈。这一反馈的最终归宿是司法。“现代司法具有‘决断’属性,不再是立法的附庸,或者对立法规范的单纯‘适用’。”没有生效判断的援引或支持,承认还是再分配或者其他什么的路径之争就依然是开放的。只不过,如果仅聚焦立法层面,再分配路径具备一定的优势。根据再分配路径,征求意见稿(或者未来的定稿),可以名正言顺地将“自注意”“自主”“自动”等一系列科技/日常语词添加进去,比如“指基于多头自注意力算法、模型、规则生成新的文本、图片、声音、视频、代码等内容的技术”,凸显这一来自科技系统的新事物的本质属性,实现法律概念的规范性,区分生成式人工智能和既往的人工智能,而无需担心引发主体性危机。更为关键的是,如果保留承认模式,那么当未来出现更高阶人工智能的时候,其是否能够成为法律主体这一问题又会被重复作为基础性问题来“认真”对待,而再分配路径则避免了这一争议:人类的法律无需关注碳基生物和硅基生物“末日之战”,作为碳基生物的人类立法者,应该关心如何避免自身的生活关系被硅基生物限定,同时在硅基生物的协助下,提升作为碳基生物的生活能力。或许,这便是智能社会中规制新兴事物的法律价值所在,毕竟,它是属于人类的法律,是关于生成式人工智能而非属于生成式人工智能的法律。



   责任编辑:陈   颀------------------------------------公众号学生编辑:刘懿阳初审:麦思敏、林一倩审核:吕   万审核发布:黄   瑶


叶名怡:网络服务提供者的侵权责任

吴泽勇:个人信息泄露侵权的证明责任问题——以不明第三人侵权为中心

《地方立法研究》2023年第4期目录与摘要


《地方立法研究》投稿网站:https://dflf.cbpt.cnki.net/


继续滑动看下一个
地方立法研究编辑部
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存