0°

使用 ChatGPT 刺激组织内部的创新

  到 2022 年底,ChatGPT 席卷了互联网。由OpenAI的GPT-3大语言模型提供支持的聊天机器人以其快速生成对多种类型问题的清晰回答的能力给数百万人留下了深刻的印象。这些所谓的基于变压器的语言模型已经可以用来帮助组织创建新的创新解决方案,Radboud大学的研究人员在今天发表在《产品创新管理杂志》上的一篇论文中认为。

  “在过去的几年里,我们一直在研究各种人工智能解决方案,发现它们已经可以由组织以多种有用的方式实施,”Radboud大学创新管理研究员,该论文的作者之一Vera Blazevic说。

  “当组织需要创新时,他们需要越来越多的不同想法——这通常会带来更高质量的想法。例如,通过正确的提示,GPT-3 等基于转换器的语言模型可以快速生成许多有助于原型设计的想法。

  加快知识提取

  “此外,GPT-3 可用于总结大型文本,或从这些文本中辨别情绪。例如,如果组织想要分析其产品的用户评论,他们可以使用此类工具来找出客户对哪些功能的反应最积极或最消极。这是人类可以完成的工作,但语言模型可以帮助加速这种知识提取,以便人类可以专注于实际使用获得的见解。

  GPT-3是由OpenAI创建的基于转换器的语言模型。从广义上讲,它是一个人工智能系统,已经研究了数百万个文本和主题,它使用这些数据根据用户的查询形成新的文本。在过去的几年中,GPT-3模型已被用于各种引起广泛关注的应用程序,例如ChatGPT,DALL-E(可以生成图像)和MuseNet(能够生成歌曲)。

  了解偏见

  布拉泽维奇警告说,至少目前,语言模型在创新过程中仍然发挥有限的作用。“一旦你需要想法来融合,GPT 并不是特别有用。人工智能无法判断哪些想法真正可行且有意义,以及哪些想法适合您工作的组织。对于这些情况,人类仍然是必不可少的。这就是为什么我们看到混合智能的空间:语言模型可以帮助启动会议或讨论,之后人类接管将这些想法带到终点线。

  选择使用人工智能产生想法的组织也应该认识到这些工具的偏见,因为语言模型是在现有的、经常有偏见的文本的大型数据集上训练的。

  Blazevic指出,“在混合智能团队中,人类可以检查潜在的偏见,作为该过程的一部分。这也需要对这些团队进行积极管理,例如,通过培训员工寻找和反思偏见。获得这些技能甚至可能帮助人类更加意识到自己的偏见,最终导致人类和人工智能相互学习。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论