0°

祝世虎:ChatGPT的技术、缺陷与合规

  作者 | 祝世虎(光大信托科技部副总经理,数据中心总经理、CIC金融科技和数字经济发展专家委员会委员,九卦金融圈专栏作家)

  来源 | 九卦金融圈

  编辑 | 武文 张云迪

  在2月18日参加完由清华大学经济管理学院中国金融研究中心和新网银行共同举办“ChatGPT爆火后的冷思考”数字金融智库沙龙后,我感触颇多!

  我是2009年博士毕业于北京大学智能科学系,自2005年建系以来的第一批AI博士。那时的AI只在书本里,2016年AlphaGo让AI走到了资本里,2022年ChatGPT则让AI飞入寻常百姓家!

  作为一个AI老兵,虽然在金融领域的风险、科技、数据部门工作多年,但“AI工程师”的初心犹在,下面我就以一个工程师的视角,以通俗易懂的文字,尝试讲解一下ChatGPT的技术、缺陷与合规等问题。

  一、ChatGPT简述

  (一)ChatGPT:从技术到客户的珠联璧合

  冷静思考下,ChatGPT为什么突然间获得人们追捧?我认为这是技术的成功,是产品的成功,是营销的成功,是客户的成功,更是技术、产品、营销、客户的珠联璧合。

  从技术和产品角度看,ChatGPT具有易用、好用、实用的特性。

  一是易用,OpenAI斥巨资提供了便捷的API接口,每个人都可以很方便的接入;

  二是好用,其效果远远高于同类型的传统产品,出乎意料的效果吸引了更多的人进行试用;

  三是实用,有些学生用ChatGPT来写作业,有些程序员用ChatGPT来代码,有些画师用ChatGPT来绘画,这就体现了ChatGPT的实用性。

  从客户和营销角度,上述“易用、好用、实用”完美诠释了ChatGPT的客户策略或者客户旅程。

  “易用”带来了万千的客户,“好用”使得一个个好奇的测试者变成了初级使用者,“实用”使得初级使用者变为了坚定使用者。

  从我个人理解来看,我更想倾向于把ChatGPT的成功主因归因于客户营销的成功。以AI的上一个里程碑AlphaGo为例,其技术也是领先,但是客户却只局限于围棋的垂直领域;再以二维码支付为例,其技术与其竞品相比并不先进,但其“易用、好用、实用”带来的客户体验,使得二维码支付取得了极大的成功。

  (二)OpenAI:工程师的世外桃源

  OpenAI人工智能研究实验室成立于2015年,主要由微软资助,目的是促进和发展友好的人工智能。OpenAI公司最优质的资产就是,有300多名工程师,他们“自由散漫”但“理想崇高”,无忧无虑地以工程师的思维来改变世界,这或许就是我前文说的工程师的初心。

  (三)Microsoft:第三代的王者荣耀

  微软是OpenAI的幕后金主,并且一直为其提供算力,这体现了微软这个office王者对文字的深刻理解。纵观历史:

  第一代王者:微软的office是第一代的王者,人们实现了文字的电子化,并通过对文字的“Ctrl+C与Ctrl+V”减轻了人的工作量,但其文字范围仅为身边小范围的文字;

  第二代王者:Google的搜索引擎是第二代王者,人们实现了对历史文字(已有文字)的使用,文字范围由身边扩展到了整个互联网;

  第三代王者:微软认为第三代的王者或许是自然语言生成,文字范围突破了已有文字。

  (四)岗位之争:人与AI的边界线

  有一群人类的工作是发展AI,与此同时,有另一群人类的工作却不断地被AI所取代,这个边界线一直在后退。

  第一阶段,体力工作被机器取代;

  第二阶段,重复性工作被具有简单智能的机器取代;

  第三阶段,自动驾驶逐渐变为了现实;

  第四阶段,ChatGPT让人们相信AI会“创造”,那么未来可能任何不需要深度情感交流的工作,都会被AI所取代。

  理性来看,ChatGPT对人们就业的冲击,和以往出现的生产力跃升并无本质区别,短期内会对岗位形成一定的结构性冲击,但中长期便会稳定。此时作为一个AI老兵,我也要为AI说一句话:抢走你工作的不是AI,而是先掌握AI的人。

  二、ChatGPT的技术分析

  (一)技术路线:工程师思维的成功

  从技术角度看ChatGPT的成功,是得益于在自然语言处理NLP(Natural Language Processing)领域一群工程师的工程探索,从下文我们可以看出,工程师们基于工程探索的技术路线可能有别于研究者基于理论推导的技术路线。

  从技术角度解释工程师思维并不易读,我尝试从逻辑角度解释一下工程师的思维。要做一个具有人的智能的机器,首先要创建一个大脑;其次要有学习资料;然后掌握学习方法;最后考试归来。这就形成了ChatGPT的技术路线的逻辑框架。

  第一步,构建大脑,工程师们认为这应该是一个通用的大脑,什么都能学习,所以工程师们选择了通用人工智能AGI(Artificial General Intelligence)的构想:AGI应该是一个大系统,系统的核心是一个与任务无关的大模型,大模型依靠大算力从海量大数据中学习人类的知识,从而形成AI智能。这就是工程师们的系统思维。

  第二步,学习资料,人类知识的载体是文字和语言,所以工程师们选择了大型语言模型LLM(Large Language Model)。在这群工程师的眼里,大算力、大存储、大数据使得大模型的工程实践成为了可能,更成了工程师的“心猿意马”!随着数据越来越大,算力越来越大,模型越来越大,效果越来越好,这就是工程师们“力大砖飞”的思维。

  第三步,学习方法,工程师们选择了GPT的技术路线,并坚持了下去。在当时的NLP领域,深度学习模型已经遇到瓶颈,通过增加模型层深来提升模型效果微乎其微,深度学习模型已经逐步被预训练模型所取代。在预训练模型范式下,存在BERT(Bidirectional Encoder Representations from Transformers)和GPT(Generative Pre-Training)两种技术实现方式,两者看似比较相像,但其底层逻辑的截然不同。

  从当时的论文发表来看,研究者大部分选择了BERT技术,而工程师们大部分选择了GPT技术。回头看分析其原因,我个人觉得研究者的思路一般是按部就班:先是完成自然语言理解任务,而后是完成自然语言生成任务,这就是BERT。工程师们则希望一步到位,越过自然语言理解任务,直接完成自然语言生成任务,这就是GPT。

  第四步,考试归来,随着大算力、大数据的“厚积薄发”,大模型“量变突破质变”,能力超群的ChatGPT横空出世,获得了人们的追捧。

  (二)智能涌现:人工智能的厚积薄发

  最初的 GPT 模型是在 2018 年提出的,模型参数只有 1.17 亿;2019 年的时候 GPT-2 模型参数是 15 亿;到了 2020 年 GPT-3 模型参数达到了 1750 亿;通过几代的模型更新迭代,到 2022 年能力超群的ChatGPT横空出世,这就体现了大型语言模型的涌现能力(Emergent Abilities of Large Language Models),其涌现主要来自于三方面的积累:

  一是,技术积累。不断试错直到成功,就是技术的积累。在不断的探索中,形成了ChatGPT技术的三步走方案:第一步,真实客户输入文字的监督学习技术;第二步,reward模型的奖励与评价技术;第三步,基于人类反馈的强化学习技术,使得生成内容与使用者对齐,不同的人获得适合各自的回答。

  看似合理的几步路径,其中蕴含着大量的技术积累。在工程师们成功解决这个“端到端的大任务”的时候,实际上已经从技术层面解决了至少四个人工智能专业任务:创造性任务、少数标注或零标注任务、知识密集型任务、数据集外泛化任务。

  二是,知识积累。知识的积累得益于数字化的内容的爆发式增长,期间数据的清洗标注、模型训练都是在积累知识。知识积累也体现在参数的数量上,ChatGPT的模型参数高达1750亿,百度的文心一言模型参数高达2600亿,二者参数基本在一个数量级上,其训练成本极其昂贵,GPT3.0离线训练成本高达1200万美元,大模型重新训练成本达400万美元。

  三是,理念坚持。这也是工程师们对初心的坚持。在NLP领域中,深度学习模型逐渐失效;GPT1采用了自回归语言模型路线,随后BERT采用了双向语言模型路线,并且当时的效果优于GPT;直到GPT3出现,优势开始体现出来。所以有资深专家认为,GPT3不仅仅是技术,更是AI模型发展的新理念。

  我是同意这种观点的,那么这种AI理念究竟是什么?我尝试解释一下,一是对AGI的架构设想的坚持,二是对LLM通往AGI道路的坚持,三是来自于工程师们对未来“人与AI分工的设想”的坚持,如果这是一道选择题:在人与AI共同写作文的时候,人与AI的分工究竟是?BERT技术路线是:人提供作文框架,AI受框架限制填写内容。GPT的技术路线是:人来命题,AI不受约束的开放式作答。

  所以,对于BERT和GPT之争,他们只是各有所长,在开放式的领域GPT有其天然优势,但是在垂直场景与受控领域,只要坚持下去,BERT也会脱颖而出的。

  (三)融合技术:多模态大模型

  前文已经说明,通用人工智能AGI的核心是一个与任务无关的大模型LLM,目前其在自然语言相关领域有三大方向:GPT适用于语言领域,CODEX适用于代码领域,DALLE适用于图像领域。

  上述应用使得ChatGPT成为了“多模态大模型”,多模态大模型拥有两种能力:一是寻找到不同模态数据之间的对应关系,例如将一段文本和与之对应的图片联系起来;二是实现不同模态数据间的相互转化与生成,比如根据一张图片生成对应的语言描述。

  上述的技术并不新鲜,在搜索引擎时代已经有了广泛应用,例如我们使用文字搜索与之相关的图片。其技术路线的关键是,将不同模态的原始数据映射到统一或相似语义空间当中,从而实现不同模态的信号之间的相互理解与对齐。

  三、ChatGPT的缺陷

  可以预见ChatGPT将会在社会生产和生活的方方面面发挥着重要的作用。所以我们要更加重视ChatGPT的缺陷以及可以预见的风险。

  1、应用平民化,但建模贵族化

  ChatGPT成本很高,导致“虽应用平民化,但建模贵族化”。从公开渠道可以获得如下信息:一是人员储备,300余名工程师;二是大模型,训练参数1750亿个,训练数据45TB;三是大算力,训练运算需要355块NVIDA高级显卡运行1年的运算量。总之,在AI应用平民化的同时,AI研究越来越贵族化。我个人觉得,未来在AGI这个基础领域中,作为AI的底层能力,可能只有中美两个国家有能力建设。

  2、AI大而不便改,使得人去适应AI

  ChatGPT有1750亿个参数,这些参数以“某种方式”存储着人类的知识,这些参数的逻辑关系、相互依赖、学习过程等在技术上也尚未完全明确。这些参数的修改主要是靠训练,训练依赖的是昂贵的数据集,所以会产生“大而不便改”的缺陷。

  所以,这可能会产生一个“反直觉”的问题:究竟是人去适应AI大模型,还是AI大模型去适应人。以人和手机为例,从客户体验角度看,好像是手机在适应人的操作,但本质却是人去适应手机技术的更新!

  3、智能缺陷:感知智能而非决策智能

  从前述ChatGPT的算法不难看出,通过文本语言等训练的模型,其智能类型是受限的,可见ChatGPT只不过是一种感知智能,是局限在文字语言领域的感知智能,不是决策智能,更不是计算智能。

  智能缺陷就是ChatGPT的使用边界。作为风险老兵,在风险领域举例如下:例如,在金融机构中,ChatGPT不是决策智能,不宜用于风险决策;ChatGPT不是计算智能,不宜用于资本计量;ChatGPT是语言领域的感知智能,可以以文字助手的身份嵌入大部分和文本相关的工作。

  4、技术缺陷:人工智能算法的固有缺陷

  ChatGPT作为一种人工智能算法,无法避免传统的人工智能算法一些固有缺陷。

  一是,算法黑箱。由于算法模型的黑箱运作机制,其运行规律和因果逻辑并不会显而易见地摆在用户面前。

  二是,算法的鲁棒性。算法运行容易受到数据、模型、训练方法等因素干扰,出现非鲁棒特征。

  三是,算法歧视。算法以数据为原料,如果初始使用的是有偏见的数据,无形中会导致生成的内容存在偏见或歧视,引发用户对于算法的公平性争议。

  5、数据安全缺陷:多个环节存在合规问题

  我们整体分析一下ChatGPT与用户数据交互的全过程以及存在的可能的风险与合规瑕疵。

  一是,在个人信息收集阶段,当用户在使用ChatGPT时,可能会输入自己的个人数据,但《个人信息保护法》强调单独授权。

  二是,在个人数据的加工使用阶段,ChatGPT使用了RLHF的训练方法,用户使用过程中的输入和交互信息可能会用于其持续迭代训练,进一步被用于为其他用户提供服务,可能构成数据共享,这时已与用户初最初使用目的相悖,根据《个人信息保护法》需要重新授权。

  三是,训练数据的获取。ChatGPT如果通过抓取互联网上的信息获得训练数据,可能存在合规问题。

  四是,数据泄漏。用户在使用过程中输入个信息,以及企业用户输入的各类工作相关信息,可能导致敏感信息泄露。

  五是,算法缺陷导致数据主体行权困难。ChatGPT的算法黑箱与算法复杂性导致数据主体的基本权利,如更改权、删除权、访问权等行权困难。

  四、ChatGPT应用的法律红线与合规底线

  (一)法律红线

  1、著作权

  ChatGPT生成的文学作品、代码等存在着著作权归属不清的现实困境。其困难主要如下:我国现行知识产权法律体系均规定法律主体为享有权利、负有义务和承担责任的人。

  2、帮助信息网络犯罪活动罪

  所谓帮信罪,全称是帮助信息网络犯罪活动罪,被规定于我国《刑法》第287条之二中,指的是明知他人利用信息网络实施犯罪,为其犯罪提供互联网接入、服务器托管、网络存储、通讯传输等技术支持,或者提供广告推广、支付结算等帮助。

  抛开法条中的“明知”二字,例如犯罪分子使用ChatGPT的文字生成功能,利用来自互联网的大量数据,可以生成极具说服力的钓鱼电子邮件或消息,冒充真实的人或者组织骗取他人信息。

  3、拒不履行信息网络安全管理义务罪

  ChatGPT的运营商,作为信息发布的网络内容服务提供者,需要履行信息网络安全管理义务。如果被监管部门要求责令整改,而ChatGPT的运营商无法提供有效的管理措施,致使违法信息大量传播的,则可能涉嫌拒不履行网络安全管理义务。而前文提及的ChatGPT“大而不便改”的缺陷,则加大了“运营商无法提供有效的管理措施”的可能性。

  (二)合规底线

  1、相关法规:技术与内容并重

  我国已经形成由《网络信息内容生态治理规定》《网络数据安全管理条例(征求意见稿)》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定(征求意见稿)》等政策法规形成的法律体系,对 ChatGPT从技术角度和内容角度进行了约束。

  2、行业自律:伦理先行

  国家新一代人工智能治理专业委员会亦在2021年发布了《新一代人工智能伦理规范》,提出将伦理道德融入人工智能研发和应用的全生命周期。《中国关于加强人工智能伦理治理的立场文件》中明确写到,人工智能治理应坚持伦理先行,通过制度建设、风险管控、协同共治等推进人工智能伦理监管;应加强自我约束,提高人工智能在研发过程中的算法安全与数据质量,减少偏见歧视;应提倡负责任使用人工智能,避免误用、滥用及恶用,加强公众宣传教育。

  3、企业治理:积极履行社会职责

  《关于加强互联网信息服务算法综合治理的指导意见》明确提出强化企业主体责任。所以,ChatGPT的供应商应构建完善的算法与模型的管理能力,切实防范发展过程中的各项风险。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论