查看原文
其他

当ChatGPT遇上法律......

来源 | 西南政法大学



一场学术沙龙


聚焦ChatGPT

由西南政法大学人工智能法学院数据法团队主办

专家学者们

围绕“法律人如何理解ChatGpt”主题

结合各自研究领域

作主题发言


关于ChatGPT

西政6位老师都谈了什么?

一起来看↓↓↓


 教师简介:

黄家镇,西南政法大学民商法学院教授,博士生导师,“巴渝学者”、“重庆英才•创新领军人才”,中国法学会民法学研究会理事。出版译著及专著:《法学方法论》《论战争法》《德国流通式不动产担保物权制度研究》等。


新科技革命与法学认识范式的变迁


向上滑动阅览

在新兴数字技术蓬勃发展的趋势下,作为一个法律人,与时俱进,思考与之相关的问题是必要的。

ChatGPT是一个大规模生成式人工智能语言模式,相对于传统智能语言模式,数据抓取能力有了显著提升,数据处理能力也达到了能以对话形式作出反馈的程度。究其本质,是基于算法和大数据,运用深度学习的神经网络,自发地在现有海量数据中寻找数据连接点,寻找问题答案,并进行优化。这些不断涌现的新科技革命成果已经对法学认知范式和学科发展产生了持续性的影响。

第一,伴随互联网时代的到来,新兴法学学科不断涌现,比如计算法学、信息技术法学、人工智能法学、机器人法学等。这种科技+法学式的学科生成方式凸显了法学与时俱进,回应时代发展要求的主动性,但在某种程度上也使得法学的学科图景呈现出碎片化趋势。法学应当深入思考新发展给法学带来的挑战和变化,在新的实践发展的基础上凝练学科共识,推动法学的健康发展。

第二,新科技革命对法学影响的方式大致可以分为三种类型。其一,场域转换,将原本面对面进行的社会活动,转换到虚拟的网络上进行,如电子商务、互联网交易、网络侵犯人格权和知识产权等新情况;其二,结构蠕变,系统基本架构没有本质变化的情况下,发现结构变形,比如权利权重变化,诸如人工智能出现后,针对个人信息、数据的保护变化,现有的个人信息保护的规则延伸就是主要体现;其三,范式转换,对传统法学的自我认知范式产生结构性冲击,传统范式仅作微调无法适用新兴数字技术带来的冲击,比如区块链、比特币、智能合约,这些带有分布式、自动执行特征的新应用,使得传统法学的集中式纠纷解决方案面临巨大调整,使得自治与他治的紧张关系进一步加剧和凸显。

第三,法学自我调适能力与新法学理论的伴生。法学具有漫长的发展历史,形成了自洽的系统,在运作上是封闭的,信息上是开放的,法学系统语言的特殊性在使其无法与新科技直接对接的同时也保留了其本身的独立性和自洽性,以自身特有的方式展现强大的韧性和适应能力。举例而言,很多新科技成果引发的问题都可以通过过程分析、分解,区分出不同节点和不同主体,分别进行权利义务与责任的配置,与现有法律领域内的各种规则实现系统衔接。

第四,返本开新,追本溯源。新法学领域的建立,要不断对传统法学进行反思和重建,并依此为基础,需要根据时代的需要,在文义极限的范围内进行合理的新的解释,或根据新的实践问题累积个案规则、学理共识,进而凝练出新的范畴,不可能完全抛弃已经运行成熟的法律体系凭空创造新的学科体系,新的学科发展往往有赖于传统理论的辩证、反思性的运用和发展。

第五,面对新的科技成果相关的法律问题的时候,新的法学理论要更多地以实践为导向,保持一定的谦抑性,在实践发展环节充分展现后,累积个案规范,凝聚学理共识,提炼概念范畴,逐步建立规则体系,尤其要注重体系和系统化运用,实事求是,不必太过执着于预先设定的学科领域。




 教师简介:

孙宝刚,助理研究员,《人工智能前沿技术》课程负责人,西南政法大学发展规划处处长。


ChatGPT在做什么以及它如何发挥作用


向上滑动阅览

ChatGPT(Chat Generative Pre-trained Transformer)是OpenAI研发的聊天机器人程序,于2022年11月30日发布。ChatGPT是人工智能技术驱动的自然语言处理工具,它能像人一样领会用户发问意图并给出合理回答,它还能根据用户建议修正给出的合理回答,甚至能完成摘要撰写、语言翻译、代码生成、论文写作等任务。

ChatGPT本质是一个应用在对话场景的语言模型,基于GPT3.5通过人类反馈的强化学习微调而来。ChatGPT内部是一个巨大的神经网络,任何给定层的每个神经元基本上都与前一层的每个神经元相连,是一个为处理语言问题而特别设置的神经网络。ChatGPT突破了功能处理模块各自为战的传统方法,统一了功能处理模块。

ChatGPT为什么能做得这么好?一是用提示学习(Prompt Learning)提升了模型的补全能力,二是用指示学习(Instruction Learning)提升了模型的理解能力,三是用强化学习(Reinforcement Learning)提升了模型的对齐(Alignment)能力。

InstructGPT/ChatGPT都是采用GPT-3的网络结构,在GPT-3上通过提示学习更新GPT-3模型,在更新的GPT-3上通过指示学习构建训练样本来训练一个反应预测内容效果的奖励模型(Reward Model),在更新的GPT-3上用奖励模型的打分通过强化学习构建InstructGPT/ChatGPT。

但ChatGPT依旧存在有一定的局限性,尽管开发设计者已经努力让模型拒绝不适当的请求,但它有时仍然会对有毒指令做出反应或者表现出偏见。而这部分内容与道德伦理密切相关,它还存在数据安全、信息安全、隐私安全等问题,如何实现价值理念引领科技活动将是指引ChatGPT良性发展与应用的关键点。


 教师简介:

冯子轩,西南政法大学人工智能法学院教授、副院长。兼任:中国法学会网络与信息法学研究会理事、中国法学会行政法学研究会政府规制专委会委员等。出版译著、专著《人工智能法律指南》《人工智能与法律》等。研究领域:新行政法、网络信息与人工智能法学。


ChatGPT所关涉的伦理问题


向上滑动阅览

近日,香港大学发布公告,禁止所有课堂、作业和评估中使用ChatGPT或其他AI工具,否则将被视为抄袭,ChatGPT正在挑战人类社会既有的学术诚信的教育伦理观。

第一,人的主体性受挫。ChatGPT在训练过程中,为了保证正确价值观,以极低价格雇用发展中国家工人阅读负面言论并为ChatGPT做数据标签,部分工人在劳动中出现心理问题,人的劳动也在被遮蔽,联系到引发社会关注的算法霸凌等其他现象,我们需要高度关注人的主体性问题正在受到挑战,将对既有的人类社会伦理秩序产生影响。

第二,机器学习偏见和歧视问题。在ChatGPT首批用户测试中,ChatGPT出现了辱骂用户、诱导用户离婚等言论,在语料库中包含的有害言论,人工智能习得后所做出的有害行为,深刻体现了机器学习的偏见和歧视。人工智能是对人的智能的模拟与延伸,人类社会存在的偏见和歧视的问题将大概率被复制到人工智能中,需引起高度关注。

第三,AI对齐问题。“AI对齐”是AI控制问题中的一个重要问题,要求AI系统的目标要和人类的价值观与利益相对齐。若AI和人类价值观无法对齐,导致AI行为可能无法完全符合人类意图目标,甚至脱离人类控制伤害人类利益。

第四,伦理准则同一问题。社会建构意义上的伦理法则并无贯之以四海皆行的意味,而AI发展需要建构一个符合全体人类伦理价值,这对既有的国家治理体系提出挑战。

坚持价值理念引领科技活动,科技创新要考虑伦理先行。在人工智能未来风险处于不可完全认知,风险评估及成本效益分析等规制手段可能不完全有效的情况下,人工智能技术发展的风险规制应成为社会治理中重要环节。



 教师简介:

邬蕾,西南政法大学行政法学院讲师。个人主要理论兴趣有:儒家伦理、法哲学与政治哲学,宪法学和国际法。在《原道》《兰州大学学报》(哲学社会科学版)、《行政法论丛》《立法评论》《中国社会科学报》等刊物上发表论文十余篇。出版译著:《社会的起源与结构》《国家理性、政治宣传与三十年战争》《卢梭立宪学文选》等。


ChatGPT与人文资源的关系


向上滑动阅览

从目前的实际应用看来,ChatGPT暂时还是处于弱人工智能阶段,是作为人类的辅助性工具被使用的。一方面,它简化了大量重复性和常规性的工作,提高了文书类工作的效率。但是,另一方面,也应当警惕,它可能造成人文学科的萎缩。

人文学科而不是人文科学,科学以追求普遍性、客观性为目标,其目的更多是预测,人文学科以人作为理想,以培养理想的人作为目标。科学在于发现,而人文在于创造。这种创造与语言有关,人文学科创造的是人类思想、价值、情感领域,人文学科的进展在于不断拓展和深化人类语言、个性、价值的边界。语言的边界定义了思想的边界。与人的创造力相比,ChatGPT的内在逻辑以既有的数据为基础,其输出的答案以既有数据的重新排列和组合为表现形式。尽管这些“输出”给人以类人化的感觉,然而,其自身无法避免的带有“偏见”、“平庸”、“均质”的特点。这些与人类自身的丰富的知情意的能力还还去甚远。

不过,麻烦的是,ChatGPT已经实现的类人化成就给现代教育带来巨大的挑战。传统教育体制以知识传授为方法,以水平合格为目标。换言之,教育体制以培养一般人文能力的为鹄的。然而,ChatGPT的应用可以让学生轻松过关,从而让应付现代教育变得相当容易。这对于一般的学习来说或许是个简便的法门,但是却可能让受教育者“惰性”成为“习惯”。人文的创造力往往需要刻苦钻研,沉浸其中,与文字、与历史、与语言长期共存,细心玩味,方可能有创造的“偶然性”。ChatGPT给现代人文教育体制构造了巨大的挑战。


 教师简介:

贺嘉,西南政法大学人工智能法学院讲师,西南大数据法律研究中心研究员,主要从事人工智能法,数据法,国际法的教学研究工作。主持省部级课题2项,主研《自由贸易港多元纠纷解决机制建构研究》等国家级、省部级课题多项。出版专著一部,参著《仲裁机构地域性困局及对策研究》等多部专著,在核心期刊等公开发表论文10余篇。


ChatGPT的数据安全问题


向上滑动阅览

ChatGPT作为自然语言处理模型,拥有大量的数据资源作为其与训练的基础,而在完成预训练后,仍然需要持续数据输入才可以保障其系统更新和使用价值。因此,ChatGPT的基础在于全球海量数据,如此大量的海量数据汇集,再交由可自主学习的人工智能系统予以聚合、分析和处理,存在的数据安全风险不可小觑。

首先,ChatGPT的数据来源的合法性需要关注。从Chat GPT的模型介绍来看,其知识库数据来源于互联网中的公开数据,ChatGPT所获取的是哪些公开数据?获取公共数据的方式是否合法?是否所有公开数据都可以被商业利用?商业利用数据是否有使用限制?

其次,ChatGPT的数据处理的合法性需要关注。目前来看,Chat GPT对聊天数据进行了一定的安全处理,主要有两个措施:一是,聊天信息会在退出后被强行删除,避免形成聊天记忆;二是,不会主动摄取用户个人信息的数据,但用户告知后,会形成短暂记忆。但这样的安全措施仍然存在数据安全的担忧。从隐私政策和用户协议来看,OpenAI享有很大的数据处理权限,而且并未承诺不会对聊天信息进行处理,而且基于聊天模型的自我学习和改善的技术需求,对于聊天数据的获取是完全有能力有动机去完成的。


 教师简介:

霍俊阁,西南政法大学人工智能法学院讲师,《应用法学评论》副主编,主要从事人工智能法学,刑事合规研究。目前共计发表学术论文20余篇,参研国家级、省部级等各类各级课题20余项。主持《医疗人工智能刑事合规原理与实务研究》《我国西南地区跨境电信网络诈骗犯罪治理研究》等课题多项。


ChatGPT的犯罪风险问题


向上滑动阅览

首先,对于ChatGPT这一新事物、新技术,我们需要知道ChatGPT是什么?ChatGPT能够做什么?在认知ChatGPT的时候,我们还需要具备一定的媒介素养,要能够从众多多元化视角的新闻报道中,探知、筛选出与其犯罪风险相关的有效信息。

其次,在ChatGPT所能够做的事项中,隐含着哪些犯罪风险?对于ChatGPT潜在的犯罪风险问题,相关学者和实务专家已经有所阐述。但大致来看,ChatGPT的犯罪风险可以分为三类:一是以ChatGPT为犯罪工具、手段引发的风险,这主要体现为借助ChatGPT实施的传统犯罪。如借助ChatGPT实施的电信网络诈骗犯罪等。二是以ChatGPT为犯罪对象的风险,这主要体现为对ChatGPT本身的侵害风险或者对其生成物的侵害风险。三是ChatGPT因技术错误而自主实施犯罪的风险,这一风险可能出现于ChatGPT的更高技术形态当中。

再次,对于ChatGPT隐含的相关犯罪风险,现行刑法中可能适用的主要治理罪名有,帮助信息网络犯罪活动罪、拒不履行信息网络安全管理义务罪、侵犯公民个人信息罪、侵犯商业秘密罪、侵犯著作权罪、非法获取计算机信息系统数据罪、破坏计算机信息系统罪等。

最后,对ChatGPT隐含的犯罪风险的防范,应当从更加综合、多元的视角展开。在刑法角度,可以从完善事后的刑罚处罚措施,建立事前的刑事合规机制予以切入。在社会角度,可以通过健全人工智能安全相关制度规范,提高ChatGPT技术的安全水平等方面来防范。在社会公众角度,可以通过提升数据素养、算法素养的方式防范ChatGPT的犯罪风险。


以上观点,对你是否有启发?

最后

大家都尝试去问ChatGPT一个问题吧!


-END-

责任编辑 | 刘卓知

审核人员 | 张文硕

本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。


往期精彩回顾
ChatGPT爆火!“数字法治”主题征稿 |《北大法宝文粹》
ChatGPT评中国最好的十大高校
一位法官刚刚使用ChatGPT做出法庭裁决
皮勇 张凌寒 张吉豫 | ChatGPT带来的风险挑战及法律应对
於兴中 郑戈 丁晓东 | 生成式人工智能与法律的六大议题:以ChatGPT为例
王兆艺:人工智能生成内容的侵权风险及其规制路径——以ChatGPT为例 | 娱乐法内参202304
周智博 | ChatGPT模型引入我国数字政府建设: 功能、风险及其规制 | 山东大学学报(哲学社会科学版)202303


关注下方公众号,获取更多法律信息


点击「在看」,就是鼓励
继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存