0°

280 亿!亚马逊投了 OpenAI 最大敌人

  本文素材来自于网络,若与实际情况不相符或存在侵权行为,请联系删除。

  9月25日下午,亚马逊在公司官网宣布,将向大型建模公司Anthropic投资至多40亿美元,该公司因聊天机器人Claude而闻名,与ChatGPT竞争。

  云计算公司对大型模型公司进行了大量投资。今年2月,微软以100亿美元收购了微软云Azure的主要客户OpenAI以及ChatGPT的优先使用权,取得了开门红。现在看来,这笔交易对于微软来说是稳赚不赔的。自2月份以来,微软市值已增长40%。

  但半年过去了,大模型内部的上下游关系变得复杂起来。亚马逊对 Anthropic 的投资不仅仅是为了将客户“锁定”到 AWS,甚至不一定是为了大型模型。

  官方合作细节显示:Anthropic 将使用 AWS Trainium 和 Inferentia 芯片来构建、训练和部署其未来的基础模型。此外,两家公司还将合作开发未来的Trainium和Inferentia技术。值得注意的是,AWS Trainium是AWS于2020年底推出的定制ML(机器学习)训练芯片,Inferentia芯片是AWS于2019年推出的高性能机器学习推理芯片。

  通过投资Anthropic深化合作,亚马逊旨在加速自主研发AI芯片的开发。

  日前,The Information独家爆料,NVIDIA要向三大云厂商“收取手续费”——NVIDIA希望向云厂商租用NVIDIA服务器,这样就可以通过云向AI用户交付AI应用服务器或芯片。这些应用提供直接服务,也包括三大云提供商。

  然而,只有亚马逊拒绝了这一提议。

  现在看来,亚马逊拒绝英伟达的理由就是想办法加快自研AI芯片的升级。大模型时代,亚马逊稳定云计算市场第一的核心竞争力在于AI芯片。

  第一云平台出手,成OpenAI最大敌人

  对于此次合作,亚马逊表示最初将投资 12.5 亿美元购买 Anthropic 的少数股权。作为交易的一部分,亚马逊表示可以选择将对 Anthropic 的投资增加至 40 亿美元。

  作为扩展合作的一部分:

  Anthropic 将利用 AWS 的价格、性能、规模和安全性,使用 AWS Trainium 和 Inferentia 芯片来构建、训练和部署其未来的基础模型。两家公司还将在未来的 Trainium 和 Inferentia 技术上进行合作。

  AWS 将成为 Anthropic 的关键任务工作负载(包括安全研究和未来基础模型开发)的主要云提供商。 Anthropic 计划在 AWS 上运行大部分工作负载,进一步为 Anthropic 提供来自世界领先云提供商的先进技术。

  Anthropic 长期致力于为全球 AWS 客户提供通过 Amazon Bedrock 访问其下一代基岩模型的权限,Amazon Bedrock 是 AWS 上的一项完全托管服务,可提供对业界最佳基岩模型的安全访问。此外,Anthropic 还将为 AWS 客户提供独特的机会,让他们尽早获得模型定制和微调功能。

  亚马逊开发人员和工程师将能够通过 Amazon Bedrock 构建人类模型,将生成式 AI 功能融入到他们的工作中,改进现有应用程序,并在亚马逊各业务中创造新的客户体验。

  两家公司没有透露亚马逊投资 Anthropic 的估值。

  达里奥和丹妮拉·阿莫代|图片来源:Times

  Anthropic 由前 OpenAI 员工 Daniela Amodei 和 Dario Amodei 创立,他们是 OpenAI GPT2 和 GPT3 的核心开发人员。目前,Anthropic 拥有最受欢迎的聊天机器人之一,Claude。

  作为 ChatGPT 制造商 OpenAI 的挑战者,Anthropic 今年早些时候获得了谷歌 4 亿美元的投资,并在 3 月份获得 Spark Capital 的一轮融资后估值超过 40 亿美元。

  亚马逊会做什么?

  亚马逊向 Anthropic 投资高达 40 亿美元,到底想做什么?

  一个显而易见的原因是“抢”客户。作为云计算(未来)最大的客户,大型模型厂商和AI应用公司已经成为大型云厂商的必争之地。

  今年以来,谷歌、微软、AWS、甲骨文和英伟达都心照不宣地一致做了一件事——通过战略投资(花钱买客户)“锁定”客户,尽管这一操作在财务上存在争议。但事实上,Anthropic 自 2021 年以来一直是 AWS 的客户。AWS 通过 40 亿美元深化与 Anthropic 的合作,旨在获得更深层次的合作利益:大型模型,以及最重要的自研 AI 芯片。

  换句话说,通过战略性地投资这种学习,亚马逊正在学习如何构建大型模型。它还开发了AI芯片,甚至可以通过与OpenAI竞争的对手争论来颠覆NVIDIA GPU。毕竟,GPU 并不是为训练神经网络而设计的。依靠CUDA和各种技术逐个场景“神奇修改”是一种选择,但并不是最优方案。

  亚马逊首席执行官安迪·贾西(Andy Jassy)的演讲证实了这一点,他表示:“我们相信,通过更深入的合作,我们可以帮助改善许多短期和长期的客户体验。”

  短期和长期的客户体验对应的是亚马逊的大模型和自研的AI芯片。

  他进一步补充道:“客户对 Amazon Bedrock 和 AWS Trainium 感到非常兴奋。Amazon Bedrock 是 AWS 的新托管服务,使企业能够使用各种底层模型构建生成式 AI 应用程序,而 AWS Trainium 是 AWS 的 AI 训练芯片。AWS 的 AI 训练芯片以及我们与 Anthropic 的合作应该帮助客户从这两个功能中获得更多价值。”

  事实上,上半年亚马逊就推出了自己的大机型Titan,并公布了这款大机型的典型客户。但几天后,这位典型的顾客就跳了出来,并向媒体透露,亚马逊的大型号不太好用。

  可见亚马逊对于自研大机型的准备还不够充分。因此,亚马逊面向市场大力推广大型模型平台Amazon Bedrock,客户可以在该平台上调用包括Anthropic在内的其他常见大型模型制造商的服务。

  另一方面,亚马逊需要稳定其在云计算领域的基本面。

  大模型时代,云计算面临不同的工作负载,需要探索新技术以实现更快的推理。在这方面,亚马逊确实是先驱。自研数据中心芯片和服务器一度被认为是AWS为“区别于微软和谷歌”所做的“最重要的事情之一”。其服务器速度更快并且更省电。

  在AI专有芯片和服务器方面,亚马逊也是三大云厂商(微软云、谷歌云)中最早的。但其AI芯片的进展和性能并未单独发布。相反,它们被收集在服务器中并通过云服务交付给客户。因此,客户直接感知到的只是云计算的性能,而不是云计算中芯片的性能。

  现在,亚马逊需要了解哪些工作负载最适合哪些处理器,与 Anthropic 合作是实现这一目标的一种方法。

  目前,The Information 生成人工智能数据库中的 69 家公司中有 32 家使用亚马逊、26 家使用谷歌、13 家使用微软作为云提供商。当然,有些公司使用多个云提供商。

  大模型时代,云计算的协作与竞争,大模型和人工智能应用变得更加复杂。许久没有太大变化的云计算行业,终于迎来了变革的契机。

  免责声明:以上内容资料均来源于网络,本文作者无意针对,影射任何现实国家,政体,组织,种族,个人。相关数据,理论考证于网络资料,以上内容并不代表本文作者赞同文章中的律法,规则,观点,行为以及对相关资料的真实性负责。本文作者就以上或相关所产生的任何问题概不负责,亦不承担任何直接与间接的法律责任。

  文章内容如涉及作品内容、版权图片,侵权,谣言或其它问题请联系删除。最后,大家对于这个事件有什么不同的想法,欢迎评论区留言讨论!

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论