算力资源稀缺!OpenAI计划自研芯片:解决GPU卡脖子问题

  快科技10月6日消息,据国外媒体报道称,ChatGPT背后的OpenAI计划自研AI芯片,以解决其所依赖的AI芯片短缺以及成本高昂问题,甚至已经开始评估潜在的收购目标。

  据知情人士表示,OpenAI至少从去年就已经开始讨论各种方案解决AI芯片短缺问题,这些方案包括自研AI芯片、与英伟达等制造商展开更紧密合作、实现供应商多元化并最终超越英伟达等。

  目前英伟达主导了全球95%的Al训练领域市场,随着算力需求的激增,导致英伟达GPU“一卡难求”,再加上AI算力成本持续攀升,即便强如OpenAI也在寻找新方案,从而避免长期被“卡脖子”

  早在去年的时候OpenAI的首席执行官就公开抱怨英伟达GPU芯片稀缺,称公司发展受到GPU的严重限制。

  集邦咨询的报告显示,以英伟达A100显卡的处理能力计算,运行ChatGPT将可能需要使用到3万块英伟达GPU显卡,而国内可以买到的A100价格已涨至15万/张左右。

  根据华尔街投行伯恩斯坦的分析,ChatGPT单次查询的成本约为4美分,若ChatGPT的搜索量达到谷歌的1/10,OpenAI每年将需要大约价值481亿美元(约合3512亿元人民币)的GPU以及价值约160亿美元(约合1168亿元人民币)的芯片来维持运行。

  考虑到自研芯片的难度,OpenAI已经在考虑对潜在目标公司进行收购来加快进程。但定制AI芯片可能需要数年时间,并且投入数额也是十分巨大的,因此OpenAI是否会继续推进定制芯片计划仍然是个问号。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论