1分钟速览!2023年上半年“ChatGPT”法学C刊最新成果

  编者按:随着大数据、大模型、算法技术不断提升与发展,“ChatGPT”引发新人工智能研究热潮。生成式人工智能在法学理论、法律实务等领域引起法学学术圈关注与探讨。北大法律信息网(北大法宝)汇总摘编了2023年上半年法学核心期刊刊发的“ChatGPT”最新研究成果,共计20篇(按作者姓名拼音排序),以飨读者。北大法宝·法学期刊库已设置“人工智能”“数字法治”相关专题分类,欢迎登录北大法宝·法学期刊库查阅更多人工智能、数字法治等相关研究成果!

  来源 | 北大法宝法学期刊库

  1.生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角(《比较法研究》2023年第3期)

  作者:毕文轩(东南大学法学院;东南大学人权研究院)

  内容提要:以ChatGPT为代表的生成式人工智能技术产生,在极大地提升人们工作效率的同时,也在相关领域带来了诸多法律风险。这种风险具体表现为:数据使用风险、生成内容滥用风险、算法滥用风险以及其他风险。目前我国虽然已经初步具备了有关人工智能的基本治理框架,但相关的理论以及实践仍在治理主体、治理规范设置、治理手段以及治理规则适用等方案上存在不足。生成式人工智能的出现,凸显了科技进步迭代过程中产生的“破坏性创新”现象,这也倒逼我国当前的人工智能治理模式需要从回应型治理、集中型治理向敏捷型治理转换。这要求我国在总体上坚持包容审慎的治理态度,具体包括从法律层面的制度构建、软法规范层面的填补式风险治理以及通过监管沙盒实现敏捷型风险治理等三方面来完善现有的人工智能风险治理体系,在技术创新与风险治理之间寻求平衡,从而实现数字经济的健康持续发展。

  关键词:生成式人工智能;风险规制;ChatGPT;敏捷型治理;试验性监管

  2.生成式人工智能与平台权力的再中心化(《东方法学》2023年第3期)

  作者:陈全真(南京大学法学院)

  内容提要:Web3.0时代,区块链技术构筑的分布式网络使得用户开始掌握数据主权,网络内容从生产到价值分配均归用户所有。但以ChatGPT为代表的生成式人工智能的出现,意味着散落于用户手中的数据资源将再次聚集,其与下游互联网平台结合后将改变知识权威性的来源,生成式人工智能将会成为Web3.0时代的网络集权工具,平台权力再次走向中心化将成为可能。对于“平台+生成式人工智能”可能引发的技术风险,不宜过早地实施外部法律控制,而是应当采取“技术先行”的方案,首先依靠技术手段予以内部优化,同时,在政策层面秉持包容审慎的态度,采取一种“边发展,边治理”的应对策略。

  关键词:Web3.0;生成式人工智能;ChatGPT;平台;平台权力;中心化

  3.人机交互决策下的智慧司法(《法律科学》2023年第4期)

  作者:丁晓东(中国人民大学法学院)

  内容提要:ChatGPT等人工智能技术在多个场景落地,在司法领域却备受争议,其根本原因在于司法具有鲜明的价值判断特征。人工智能司法是一种“规范性科技”支持基础上的司法,而非计算性科技或预测性科技技术本身。人工智能司法在裁判可接受性、信息整全、信息筛选、事实评估等方面有一定优势;人机交互决策不仅可能,而且早已通过各类数据库系统成为现实。不过,人工智能司法却面临规则僵化、人机决策权重如何配置、不同司法层级与不同部门决策趋同、算法黑箱决策等难题。应坚持人工智能司法的辅助性定位,坚持法官与检察官的弥散性决策与主体责任制,允许不同司法机关对人机决策权重进行实验性设置并开展实践探索,坚守基于部门分工与审级分层的制衡决策,促进算法解释的可问责性而非完全公开。智慧司法成功的关键,在于设计符合司法原理的人机交互决策制度。

  关键词:智慧司法;人工智能;算法;规范性科技;人机交互

  4.生成式AI的融贯性法律治理——以生成式预训练模型(GPT)为例(《现代法学》2023年第3期)

  作者:郭春镇(厦门大学法学院)

  内容提要:随着大规模数据和算式的增长,以及算法的不断优化。围绕生成式AI的前景,存在着支持、反对、中立等不同态度,这些态度背后隐含着认知根源、经济考量和权利思考。立足于法律3.0的融贯性治理注重国家法律、行政规制和技术方案之间的融贯,为治理生成式AI提供了思路和方向。融贯性治理中的“融贯”,既是规范性融贯,强调法律规范的内在一致性和统一性,也是整体性融贯,强调将技术方案融入规范,进而使得技术方案与不同层级规范和引领这些规范的原则与价值得以融贯。在面对以GPT为代表的生成式AI时,可以尝试将AI和区块链作为技术方案对其进行治理,也可以通过自我规制和外在约束培育建设“有道德的”AI,还可以通过“市场+规则”助力生成式AI的发展。生成式AI所涉及的法律问题在现有的法律体系框架内基本能得到有效应对,对于它带来的现实、急迫且法律没有明确规定的问题,可以进行融贯性治理。

  关键词:生成式AI;生成式预训练模型(GPT);融贯性治理;法律3.0

  5.生成式人工智能的三大安全风险及法律规制——以ChatGPT为例(《东方法学》2023年第4期)

  作者:刘艳红(中国政法大学刑事司法学院)

  内容提要:ChatGPT的横空出世意味着人工智能的发展获得全新动能,根据生成式人工智能从准备、运算到生成阶段的运行机理,可以发现其中存在三大安全风险。针对生成式人工智能在准备阶段的数据风险,应基于总体国家安全观统筹使用国家数据,对政务数据进行合规监管,在个人数据的收集广度上保持合规并以最小比例原则确定处理深度,以确保生成结论的真实性。针对生成式人工智能在运算阶段的算法模型特点及算法偏见风险,应通过技管结合进行修正,完善技术标准并予以实质审查,建立自动化、生态化、全流程的动态监管体系。针对生成式人工智能在生成阶段的知识产权风险,鉴于其生成物的独特属性,应基于可解释性重塑其保护模式,明确保护的对象是ChatGPT中的可解释算法及其生成物,并构建全流程知产合规保护体系。对于生成式人工智能在未来可能造成的其他安全风险,宜基于风险预防主义加以防范,争取在最大程度上发挥生成式人工智能的技术效能,并减少新兴技术对社会发展造成的负面冲击。

  关键词:ChatGPT;生成式人工智能;合规制度;数据安全;算法偏见;知识产权

  6.生成式人工智能应用失范的法律规制研究——以ChatGPT和社交机器人为视角(《东方法学》2023年第4期)

  作者:龙柯宇(西南政法大学民商法学院)

  内容提要:以ChatGPT和社交机器人为代表的生成式人工智能是数据、算法和算力共同作用的结果,其能通过高效地改变网络空间动态结构,从而引导、塑造和固化目标受众的认知。技术中立的托词无法为此类人工智能的应用失范进行开释,作为一种内容生成技术,它的行为射程和效用状态体现的仍然是背后设计者和使用者的主观意志与价值选择。对于生成式人工智能的法律规制,应秉持彰显国家监管权力在场以及强化人之主体地位的理念导向,嵌入与推广算法伦理,并正确处理技术治理与法律规制之间的关系,发挥两者双管齐下的集合效应。还应建构各利益攸关方的协同治理格局,传统的行为规制模式也需转向针对数据和算法的过程性规制模式,而网络平台则需通过合规机制,采取删除、通知、标注、算法审计等措施,履行平台应尽之监管职责。

  关键词:生成式人工智能;技术样态;应用失范;过程性规制;平台监管;ChatGPT

  7.生成式人工智能风险治理元规则研究——以ChatGPT为例(《东方法学》2023年第3期)

  作者:商建刚(上海政法学院经济法学院)

  内容提要:生成式人工智能由算法与数据驱动,属于深度合成技术,在国家安全层面存在引发暴力冲突、意识形态渗透风险,在社会层面存在数据垄断、道德操纵风险,在私权利层面存在增加犯罪、挖掘用户隐私等风险。然而,生成式人工智能的责任承担机制不明、现有制度分散、不成法律体系;理论界尚未针对生成式人工智能治理进行专门研究,治理范式缺失。构建生成式人工智能风险治理体系,应构建生成式人工智能风险治理的元规则。从人工智能的治理原则视角切入,通过梳理不同国家、地区、组织、企业所构建的人工智能治理原则,提炼其共性,是生成式人工智能风险治理元规则形成的可行进路。生成式人工智能风险治理元规则由协同共治、提升透明度、保障数据质量以及伦理先行四个方面组成。

  关键词:ChatGPT;生成式人工智能;数据风险;元规则;算法;大型语言模型

  8.具身伦理下ChatGPT的法律规制及中国路径(《东方法学》2023年第3期)

  作者:唐林垚(中国社会科学院法学研究所)

  内容提要:既有规则的延伸适用和法律解释足以应对ChatGPT在内容生成、数据保护、劳动替代方面的现实性“近忧”,但无法解决因其使动性和嵌入性引发的人类在现实世界、虚拟世界的生存性“远虑”。界限日益模糊的人机关系重构须回归具身认知;身体在主客之间的可逆性、在自我与他者之间的穿梭性揭示出关怀投射、和谐共融、互促互进的伦理规范。在当下面向,可通过部门法联动、社会保障政策完善、反垄断规则细化处置技术失范;在本土面向,宜依托举国体制抹平数据飞轮效应、推进多方共治提升技术赋能、建立健全适应技术发展的教育体系;在未来面向,应以进展把控为目标完善通用人工智能立法,以内觉开显为导向促进人机共生演化,以熵增减缓为原则构建全新硅基伦理。

  关键词:ChatGPT;生成式人工智能;大型语言模型;法律规制;硅基伦理;元宇宙

  9.从进化到革命:ChatGPT类技术影响下的法律行业(《东方法学》2023年第4期)

  作者:王禄生(东南大学法学院)

  内容提要:以ChatGPT为代表的大型语言模型与生成式人工智能技术因其聚焦语言运用和内容生成而与法律行业需求具有内在逻辑的契合性。随着ChatGPT类技术在法律领域深度运用和相对均质地分布,法律知识将与时间积累“脱藕”而即时生成,法律知识粘性也将显著下降并形成去中心化的分布式传播格局。受上述法律知识范式进化与革命的影响,法律服务市场“去割裂化”的进程将有望加速,常规法律服务市场将可能先萎缩后稳定,非常规法律服务市场将得以扩大并两极分化,科技公司可能成为法律服务市场的重要主体。法律服务市场的调整将倒逼法律职业群体的结构调整。初阶法律职业群体日益去中心化与去技能化,高阶法律职业群体则因技术赋能而享受服务溢价。下一阶段,法律人需要通过主导法律知识验证、法律知识创新与法律价值判断的过程形成与之对应的知识权力与主体地位。在此基础上,掌握架构法律提示的技术素养并打造“人在回路之上”与“人在回路之内”相结合的递进式人机协同的法律业务流程。

  关键词:法律行业;ChatGPT;大型语言模型;生成式人工智能;法律服务市场 法律职业群体

  10.ChatGPT类技术:法律人工智能的改进者还是颠覆者?(《政法论坛》2023年第4期)

  作者:王禄生(东南大学法学院;东南大学人民法院司法大数据研究基地)

  内容提要:21世纪以来,法律人工智能呈现出繁荣复兴的景象。但火热表象的背后,法律领域的语言复杂性、知识丰富性使得法律人工智能仍然面临自然语义处理与知识生成的技术瓶颈。以ChatGPT为代表的大规模语言模型与生成式人工智能技术有望破除法律人工智能的自然语言理解瓶颈,极大提升技术互动性、生成性与嵌入性,推动法律人工智能与用户形成刚需性、高频率和高黏性的联结。尽管如此,现有ChatGPT类技术的底层逻辑无法充分回应法律知识丰富性、严谨性与创造性的领域需求,流畅语言处理能力与相对较低知识生成能力错配产生的知识完满幻觉、知识权威幻觉与知识生成幻觉,制约了大规模语言模型与生成式人工智能的架构对法律人工智能的根本性颠覆。未来需要通过强化高质量多模态法律数据的供给并建构基于法律指令集的指令微调机制和基于法律人知识反馈的强化学习机制,克服“知识幻觉”以实现法律人工智能的进一步迭代。与此同时,在技术社会学意义上调适创新扩散与社会公正的张力,避免可及性与可用性两个层面的数字鸿沟,真正实现全社会围绕法律知识的新一轮赋权赋能。

  关键词:ChatGPT类技术;大规模语言模型;生成式人工智能;法律人工智能

  11.再论人工智能生成的内容在著作权法中的定性(《政法论坛》2023年第4期)

  作者:王迁(华东政法大学法律学院)

  内容提要:著作权法以鼓励创作为目的,只有人才能理解和利用著作权法的激励机制,因此只有人的创作成果才能作为作品受到著作权法的保护,认为作品不必来自于人的“独创性客观说”不能成立。著作权法将作者之外的其他民事主体拟制为作者,前提是存在自然人创作的作品。以可将人工智能或其研发者、使用者拟制为作者为由,认定人工智能生成的内容为作品的观点不合逻辑。人工智能的研发者和使用者均不能基于自由意志直接决定人工智能生成的内容,因此该内容并非由人类以人工智能为工具创作的内容。由于对人工智能生成的内容的利用有其不同于作品利用的商业模式,不将其认定为作品不会影响对人工智能技术的投资,也不会违反权利与义务相统一的理念。

  关键词:人工智能;ChatGPT;独创性;创作

  12.论新一代法律智能系统的融合性道路(《法学论坛》2023年第3期)

  作者:魏斌(浙江大学光华法学院)

  内容提要:新一代法律智能系统呈现出符号主义与联结主义法律人工智能相融合的趋势。以生成式人工智能ChatGPT为代表的智能系统由大数据驱动,采用机器学习算法挖掘法律文本大数据,在类案检索、判决预测、法律文书自动生成等任务中表现良好,但面临算法的不可解释性等缺陷。法律逻辑学经历了由传统逻辑到现代逻辑的转变,形成了基于规则和基于案例的法律推理模式,在法律专家系统中得到成功应用,其优点是推理的可解释性,但面临知识获取瓶颈的挑战。新一代法律智能系统的融合性道路表现在法律推理与法律文本大数据分析的融合,实现算法可解释性和计算表现力的优势互补。法律逻辑学的现代发展推动了人工智能可解释性问题的解决,启发了“符号-神经网络”的新方法,形成了法律大数据分析的符号化与可解释法律论证挖掘的融合路径。

  关键词:法律智能系统;法律逻辑学;法律大数据;ChatGPT;可解释性

  13.人工智能创作物的独创性与保护策略——以“ChatGPT”为例(《科技与法律》2023年第3期)

  作者:吴昊天(西南政法大学民商法学院)

  内容提要:ChatGPT的火爆让人工智能的著作权问题再次回归到人们的视野之中。目前对于人工智能创作物的讨论并没有触及人工智能的“人在回路”交互运行系统的本质,在这一过程中,人工智能必须依靠人类的力量进行迭代与发展。“人在回路”的运行本质揭示了人工智能并非“独立创作”,同时受制于人类输入数据的行为和结果的审核与操控也无法进行真正意义上的创造性行为,所以很难具有著作权法意义上的独创性。人工智能创作物并未失去成为作品的可能性,但是需要在现有著作权法体系下进行讨论而不是单独设定独创性判断标准,这就需要适用改良后的“合理人原则”这一相对客观标准来保证标准一致性与弹性。在未来,人工智能创作物应当采取“三阶段”保护策略以适应不同时期的具体发展情况。

  关键词:ChatGPT;人工智能创作物;独创性;合理人原则;保护策略

  14.论生成式人工智能服务提供者的法律地位及其责任——以ChatGPT为例(《法律科学》2023年第4期)

  作者:徐伟(上海政法学院上海司法研究所)

  内容提要:生成式人工智能行为在技术上的特殊性,对侵权责任带来了一系列影响,包括行为主体的复杂化、加害行为的智能化、损害后果的不确定、因果关系的多元化和过错认定的新颖化。生成式人工智能服务提供者并非搜索链接服务提供者,也不宜被认定为网络内容服务提供者,而应是一种新型网络服务提供者。生成式人工智能服务提供者过错的认定需从生成维度的过错和移除维度的过错来分别加以判断。在生成维度,生成式人工智能服务提供者对自动生成的内容原则上不负有事前审查义务;在移除维度,应基于事实层面生成式人工智能服务提供者是否能以合理的成本和较高的准确度来避免侵权内容的再次生成来决定其是否负有移除义务。鉴于技术仍处于快速发展中,生成式人工智能服务提供者侵权责任的判断标准也需基于技术的发展而适时作出调整。

  关键词:生成式人工智能服务提供者;ChatGPT;算法;通知移除

  15.生成式人工智能的责任能力研究(《东方法学》2023年第3期)

  作者:袁曾(上海大学法学院)

  内容提要:以ChatGPT为代表的生成式人工智能投入规模化应用后,至少带来创造性成果归属、意思表示能力确认、刑事犯罪规制、侵权损害救济、数据滥用等多领域的现实法律困境。从传统稳定的社会结构与数字社会新生风险两个维度形成了治理困境,需要从责任的角度确定何种主体应为生成式人工智能技术的决策负责。生成式人工智能已经具备类人化意识与行为能力的基本形态,在拟制主体对人类经济发挥巨大作用的现实借鉴下,可考虑由生成式人工智能自身承担部分责任,但由于其责任能力的限制以及以人为本的伦理基础,对该责任能力应当进行明确限定。通过“穿透人工智能面纱”的归责原则以及相应的配套机制构建,促使发展“负责任的人工智能”成为符合人类共同利益的选择。

  关键词:生成式人工智能;ChatGPT;预训练生成式聊天模型;责任能力;法律人格;大型语言模型

  16.生成式人工智能与法律的六大议题:以ChatGPT为例(《中国法律评论》2023年第2期)

  作者:於兴中;郑戈;丁晓东(澳门大学法学院;上海交通大学凯原法学院;中国人民大学法学院)

  内容提要:ChatGPT是一种自然语言处理机器学习模型,是一种人工智能。它使用第三代生成式预训练变换模型(GPT-3)来生成类似人类撰写的文本,从简单的聊天对话到编写软件代码、生成文案和论文。ChatGPT采用基于人类反馈的强化学习(RLHF)优化了在与真人对话时充分考虑上下文和语境的能力,在很多时候可以以假乱真,让使用者觉得是在跟真人对话。由于其性能远超过去的所有聊天软件和语音助手,所以自2022年11月公测之后,引发了全球的广泛关注,已经成为一种现象级的应用。目前,各大网络平台尤其是搜索引擎,都将ChatGPT或类似的大型语言模型(LLM)作为全力研发的重点,比如谷歌(Google)和必应(Bing)已经着手将大型语言模型内嵌于搜索引擎之中,使搜索变得更加智能化、互动化和语境化,这必将给互联网生态带来新一轮革命性的冲击。

  鉴于此,《中国法律评论》特邀澳门大学法学院於兴中教授、上海交通大学凯原法学院郑戈教授和中国人民大学法学院丁晓东教授,从法律角度深入讨论如何应对ChatGPT带来的挑战,包括其对法律职业的冲击,对法律思维的替代,在法律场景的应用,对知识产权和创新的保护,对平等问题和文化多样性问题的影响,以及对算法歧视的应对,等等。希望法律界、科技界和产业界共同努力,构建一个打破界别、突破知识领域的共同体,引导人工智能向有利于人类福祉的方向发展。

  17.深度合成治理的逻辑更新与体系迭代——ChatGPT等生成型人工智能治理的中国路径(《法律科学》2023年第3期)

  作者:张凌寒(中国政法大学数据法治研究院)

  内容提要:以Deepfake、ChatGPT、元宇宙等为代表的深度合成技术与应用场景,极大地改变了信息获取、人机交互的方式,并成为未来数字空间的基础性技术。我国的深度合成治理已经走在世界前列,但仍主要停留在算法治理衍生出的信息安全层面,偏重服务应用监管而底层技术治理不足,偏重监管服务提供者但监管技术提供者尚不充分,数据与场景分级分类标准繁杂但并未形成有机体系。深度合成治理应在算法治理基础上延伸迭代,将深度合成作为人工智能治理的专门领域,同时通过顶层设计推进基础性人工智能立法,既保障急用先行,又可探索并形成通用人工智能立法的经验。既应发挥中国既有的深度合成治理优势,根据生成型人工智能技术特点更新监管逻辑,基于生成型人工智能技术的通用性实施全链条治理;同时还需立足现行法规中分级分类治理架构,结合技术、产业和应用建立有机体系和设置具体规则,以形成在全球更具影响力的深度合成治理法律制度体系。

  关键词:深度合成;生成型人工智能;ChatGPT;分级分类标准;技术治理

  18.生成式人工智能的算法治理挑战与治理型监管(《现代法学》2023年第3期)

  作者:张欣(对外经济贸易大学法学院)

  内容提要:以ChatGPT为代表的大规模预训练语言模型日益展现出通用潜力,其超大规模、超多参数量、超级易扩展性和超级应用场景的技术特性对以算法透明度、算法公平性和算法问责为内核的算法治理体系带来全方位挑战。在全球人工智能治理的主流范式中,欧盟形成了基于风险的治理范式,我国构建了基于主体的治理范式,美国采用了基于应用的治理范式。三种治理范式均形成于传统人工智能的“1.0时代”,与展现通用潜能的新一代人工智能难以充分适配,并在不同维度凸显治理局限。因此,在人工智能技术范式变革之际,应以监管权的开放协同、监管方式的多元融合、监管措施的兼容一致为特征推动监管范式的全面革新,迈向面向人工智能“2.0时代”的“治理型监管”。

  关键词:ChatGPT;生成式人工智能;算法治理;治理型监管

  19.生成式人工智能大模型的信息内容治理(《政法论坛》2023年第4期)

  作者:支振锋(中国社会科学院法学研究所)

  内容提要:以大算力为基础,用强算法处理海量大数据,生成式人工智能大模型在自然语言处理、计算机视觉、语音处理等领域表现优异,已经能够提供内容创意生成、数字人、对话搜索、代码生成等服务,在自动驾驶、金融风控、医疗保健、物联网等领域也极富应用前景。作为一项互联网信息技术的重大变革,大模型的逻辑推理能力以及对人类的“理解能力”极大提升,不仅成为人类生产创意性信息内容的强大工具,也可能极大地改变网络信息内容生态,带来劣质信息泛滥、初始信源被污染和冲击社会伦理等信息内容风险,需要平衡发展与安全,探寻激励相容的治理之道。

  关键词:生成式人工智能;大语言模型;信息内容;激励相容;治理

  20.生成式人工智能类案裁判的标准及价值边界(《东方法学》2023年第3期)

  作者:周维栋(中共中央党校[国家行政学院]法学流动站;中共中央党校[国家行政学院]政治和法律教研部)

  内容提要:类案裁判的可普遍化标准是智能化类案推送的理论前提,司法机关只有充分发挥开放型基本权利体系中的主体、行为和法益要素的解释机能,将其作为个案中规范与事实勾连的比较要点,才能实现类案裁判的可普遍化。生成式人工智能技术通过深度学习来建构类案推理的标准化模型,能够促进类案裁判的可普遍化。在事物的本质思维指导下,遵循以基本权利为中心的算法解释路径,提取案件的比较要点形成结构化的类案知识图谱,可以建立司法类案裁判的可普遍化标准体系。普遍适用的类案标准可能与个案特殊价值相矛盾,而人工智能技术是基于相关性的形式推理,缺乏法律推理结果的因果性考量,难以对个案中的实质性道德理由进行价值权衡。当出现个案权利需要特别保护的更强理由时,法官需要基于实质正义的裁判立场,对个案特定事实差异、社会背景事实变迁和法律拟制事实变化进行充分裁量,维持普遍正义与个案正义的平衡。

  关键词:生成式人工智能;类案同判;类案裁判标准;价值权衡;个案正义;智慧法院

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论