0°

OpenAI 创始人演讲:ChatGPT 炸裂新功能,分享怎样教 AI 使用工具

  GGV有话说:

  OpenAI 的联合创始人,三位核心成员之一的Greg Brockman近期在 TED2023 上发表演讲,过程中演示了足以取代上周爆火的 AutoGPT 的新功能,还有 OpenAI 在人机协作方面的思考和进展。

  今天的GGView,就让我们一起看看Greg Brockman的演讲内容。

  来源:Founder Park

  七年前,我们创办了 OpenAI。因为人工智能领域正在发生一些非常有趣的事,我们想引导它向积极的方向发展。

  从那天到现在,整个领域取得了难以置信的进展,令人惊叹。

  人们为之兴奋,也为之担忧。这也是我们所感受到的。

  最重要的是,我们似乎正在进入一个历史性时期,全世界都在定义一个对人类社会的未来至关重要的技术。

  我相信我们可以善加引用这项技术。

  今天我想向你们展示的,就是这项技术最新的进展,以及一些我们一直秉承的基本设计原则。

  01

  教会 AI 使用工具

  首先,我想展示,如何为 AI 开发工具,而不是为人类开发工具。

  上面这条视频中,Greg 展示了如何用 ChatGPT 策划一顿晚饭,用 Dall-E 绘制出来,用第三方插件列出制作这顿晚饭的菜单,并发布到推特上。

  所有这些动作,都由 ChatGPT 自动完成,但用户又可以在每一个关键动作中介入操作。

  我们继续。前面展示的这个案例,关键不仅仅在于如何创建工具,更重要的是如何教会 AI 使用它们。

  (它需要理解)当我们在问这些相对复杂的问题时,我们究竟想让它做些什么?

  为此,我们使用了一种古老的想法。

  如果你回看阿兰·图灵 1950 年关于图灵测试的论文,他说,你永远不会为这个问题编写答案。相反,你可以学习。你可以设计一个机器,就像一个人类孩子一样,然后通过反馈来教它。

  让一个人类老师在它尝试和做出好或坏的事情时提供奖励和惩罚。这正是我们如何训练 ChatGPT 的方法。

  这是一个两步流程。

  第一步,我们通过无监督学习过程生成了图灵所谓的儿童机器。

  我们只是向它展示整个世界、整个互联网,并说:「预测你从未见过的文本中的下一个内容。」

  这个过程赋予了它各种厉害的技能。

  比如这个数学问题,问它下一个词是什么?那个绿色的「9」,就是数学问题的答案。

  但是我们还需要做第二步,也就是教 AI 如何使用这些技能。

  为此,我们提供反馈。

  我们让 AI 尝试多种方法,给我们多个建议,然后人类对它们进行评分,说「这个比那个好」。这不仅强化了 AI 所说的具体内容,而且非常重要的是,强化了 AI 用于产生答案的整个过程。这使它能够概括。它可以推断你的意图并将其应用于它以前没有看到过的情景,那些没有收到反馈的情况。

  现在,有时我们需要教 AI 的东西并不是你所期望的。

  例如,当我们首次向可汗学院展示 GPT-4 时,他们说:「哇,这太棒了,我们将能够教授学生很棒的东西。只有一个问题,它不会检查学生的数学。如果有错误的数学,它会快乐地假装 1+1 等于 3 并运行它。」

  因此,我们需要收集一些反馈数据。

  萨尔·汗本人非常友善,他自己花了 20 小时时间与我们的团队一起为机器提供反馈。

  在几个月的时间里,我们能够教会 AI,「嘿,你真的应该在这种特定的情况下反击人类。」

  通过这种方式,我们实际上对模型进行了很多改进。当你在 ChatGPT 中按下那个不喜欢的大拇指时,实际上就像发送了一个蝙蝠信号给我们的团队,说「这是一个需要收集反馈的薄弱环节」。

  因此,当你这样做时,这是我们真正倾听用户,并确保我们正在构建对每个人都更有用的东西的一种方式。

  02

  事实核查和人类反馈

  提供高质量的反馈是一件困难的事情。如果你让一个孩子打扫房间,如果你只检查地板,你不知道你是否只是教他们把所有的玩具都塞进衣柜里。

  同样的推理也适用于人工智能。随着我们前往更困难的任务,我们必须扩大我们提供高质量反馈的能力。但为此,AI 本身乐意提供帮助。它很乐意帮助我们提供更好的反馈,并随着时间的推移扩大我们监督机器的能力。

  让我给你展示一下我的意思。

  例如,你可以向 GPT-4 提出这样的问题,即这两篇关于无监督学习和从人类反馈中学习的基础博客之间经过了多长时间?

  模型说过去了两个月。但这是真的吗?就像这些模型并不是 100%可靠一样,尽管它们每次提供一些反馈就会变得更好。但我们实际上可以使用 AI 进行事实检查。它可以检查自己的工作。你可以说,为我核实这一点。

  在这种情况下,我实际上给了 AI 一个新工具。这是一个浏览工具,模型可以发出搜索查询并点击网页。它实际上会在执行操作时写出整个思维链。它说,我要搜索这个,然后它会进行搜索。然后它找到了出版日期和搜索结果。然后它发出另一个搜索查询。它将单击博客文章。你可以做所有这些,但这是一项非常繁琐的任务。这不是人类真正想做的事情。坐在驾驶座上,处于这个管理者的位置,可以更有趣,如果你愿意,可以再次检查工作。

  引文出现,因此你可以轻松验证整个推理链的任何部分。

  结果实际上,两个月是错误的。

  (ChatGPT 核查后的答案)两个月零一周,正确的。

  03

  重新思考人机交互

  对我来说,整个过程最有趣的是它是人类和人工智能之间的多步协作。

  因为人类使用这个事实检查工具是为了为另一个人工智能生产数据,使其对人类更加有用。

  我认为这真正展示了一种我们期望在未来更为普遍的形式,即我们将人类和机器非常谨慎地设计成问题的一部分,以及我们希望解决该问题的方式。

  我们确保人类提供管理、监督、反馈,机器以可检查和值得信赖的方式运行。而通过合作,我们能够创造出更值得信赖的机器。随着时间的推移,如果我们正确地进行这个过程,我们将能够解决不可能解决的问题。

  多么不可能呢?

  我们将重新思考我们与机器交互的几乎每一个方面。

  例如,电子表格。

  自 40 年前的 VisiCalc 以来,它们以某种形式存在。我认为它们在那个时候并没有发生太多变化。

  在上面视频的演示中,Greg 在 ChatGPT 中上传了一个表格,记录了过去 30 年来 167000 篇 AI 领域论文的数据。ChatGPT 使用 Python 自动分析数据,理解表格的每一纵列意味着什么,并在 Greg 的指令下绘出了多个可视化图表。Greg 用非常口语化的文字表达对产出效果的不满,ChatGPT 理解了他的意思,并自动修改了图表。

  04

  人与机器的共同协作

  我们未来会怎样使用这项技术呢?

  在这页 PPT 上,一个人带着他生病的狗去看兽医,兽医却作出了错误的判断:「我们等等再看看吧。」

  如果狗主人听了这句话,那只狗就不会活到今天。与此同时,他向 GPT-4 提供了血液检测和完整的病历记录,GPT-4 说:「我不是兽医,你需要找专业人士,这里有一些假设。」

  他把这些信息带给了第二位兽医,后者利用这些信息挽救了狗的生命。

  这些系统并不完美。你不能过分依赖它们。但这个故事显示出,一个与医疗专业人员和 ChatGPT 一起进行头脑风暴的人,能够取得一个否则不可能实现的结果。

  我认为这是我们考虑如何将这些系统整合到我们的世界中时应该反思和思考的事情。

  我深信,让人工智能发挥作用需要大家的参与。这是为了决定我们希望它如何融入,为了制定规则,决定什么是人工智能会做和不会做的事情。

  如果听完演讲你只需要记住一句话,那就是:这项技术看起来与人们预期的完全不同。所以我们都必须变得精通。而这也是我们发布 ChatGPT 的原因之一。我相信,我们可以共同实现 OpenAI 的使命,确保人工智能的普及造福全人类。谢谢。

  05

  问答环节

  演讲结束后,TED 主席 Chris Anderson(简称 CA) 上台,与 Greg Brockman (简称 GB)做了一个简短的访谈,下面为访谈内容。

  CA:OpenAI 只有小几百名员工。Google 有数千名员工致力于人工智能。为什么是你们开发了这项震惊世界的技术?

  GB:事实上,我们都在巨人的肩膀上。毫无疑问,如果你看看算力的进步、算法的进步、数据的进步,所有这些都是整个行业共同努力的结果。

  但是在 OpenAI 内部,我们从早期开始就做出了许多非常明智的选择。

  第一个选择是要直面现实。

  我们认真思考了:要取得进展需要什么?我们尝试了许多行不通的方法,因此你只会看到那些有效的方法。我认为最重要的是让来自不同背景的人们和谐地协作。

  CA:什么时候意识到智能开始出现了?

  GB:深度学习,我们一直都觉得自己是一个深度学习实验室。

  如何做到(智能)?我认为在早期,我们不知道。

  我们尝试了很多事情,其中一个人正在训练一个模型来预测亚马逊评论中的下一个字符,他得到了一个结果——这是一个句法过程,你会期望模型会预测逗号放在哪里,名词和动词在哪里。

  但他实际上做出了一个最先进的情感分析分类器。这个模型可以告诉你一个评论是积极的还是消极的。

  今天我们听到这个,就觉得,得了吧,任何人都可以做到这一点。

  但这是你第一次看到这种语义从潜在的句法过程中出现的情况。从那时起,我们知道,你必须扩大这个东西,看看它会走到哪里。

  CA:我们很多人都有一个困扰。这东西(ChatGPT)被叫做预测(下一个词的)机器,但是从它展现的能力来看,它不可能只是一台预测机器。

  涌现思想的关键在于,当数量达到一定程度时,会出现意外的情况。像蚂蚁,一支蚂蚁到处跑和一群蚂蚁的行动是完全不同的。城市也是,房屋数量增加,会出现郊区、文化中心、交通拥堵。

  你能告诉我让你都大吃一惊的意外涌现是什么情况吗?

  GB:在 ChatGPT 中,如果您尝试添加 40 位数字,该模型将能够执行它,表明它已经学习了一个「内部电路」(internal circuit)来进行加法。然而,如果您让它做 40 位数字和一个 35 位数字的加法,它经常会出错。

  这表明虽然它正在学习这个过程,但它还没有完全泛化。

  它不可能记住 40 位数字的加法表,这比宇宙中所有原子的数量还要多。所以它必须学会一些基本规律,(这个案例表明)它还没完全学会,不能理解任意数字是如何相加的。

  CA:所以在这里发生的事情是,你让它扩大规模并分析了大量的文本。结果,它正在学习你没有预料到它能学到的东西。

  GB:嗯,是的,这也更加微妙。我们开始擅长的一门科学是预测新兴能力。

  要做到这一点,工程质量至关重要,而且这个领域经常被忽视。我们不得不重建整个堆栈,就像建造火箭一样,每个公差都必须非常小。

  在机器学习中也是如此,在进行预测之前,必须正确地设计每个堆栈的每个组件。有许多平滑的扩展曲线告诉我们智能的一些基本特征。你们可以在我们的 GPT-4 博客文章中看到这些曲线。

  现在,我们能够通过查看比例小 10000 或 1000 倍的模型来预测编码问题的性能。虽然现在还处于早期阶段,但这其中的一些特点是平稳的。

  CA: 一个大的担忧是随着规模的扩大,可能会出现一些你能够预测但仍然有可能让你惊讶的事情。这是正在发生的事情的基础。但为什么没有出现真正可怕的巨大风险呢?

  GB:我认为这些都是程度,规模和时间的问题。

  人们似乎忽视了与世界的整合作为一个非常强大和新兴的因素。这就是我们认为逐步部署非常重要的原因之一。

  目前,我的重点是提供高质量的反馈。对于我们今天所做的任务,检查它们很容易。例如,对于数学问题的答案为七,这很简单。然而,监督总结一本书等任务则很困难。你怎么知道书的总结是否好呢?你必须阅读整本书,但是没有人想这样做(笑)。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论