0°

OpenAI想要制造自己的AI芯片,能否成功?

  OpenAI是一家总部位于美国旧金山的人工智能研究实验室,由非营利组织OpenAI Inc和其营利组织子公司OpenAI LP所组成。OpenAI的目的是促进和发展友好的人工智能,使人类整体受益。OpenAI的使命是确保发展造福人类的通用人工智能(AGI),即在具有经济价值的任务中超越人类表现的高度自治系统。OpenAI最出名的产品是ChatGPT,一种能够生成逼真的文本和图像的生成型人工智能技术。ChatGPT已经被广泛应用于各种领域,如教育、娱乐、商业等。

  然而,运行ChatGPT等先进的人工智能技术需要大量的计算资源和专门的硬件。目前,OpenAI主要依赖于英伟达提供的图形处理单元(GPU)来驱动其人工智能应用程序。GPU是一种能够高效地执行大量并行计算的芯片,非常适合运行人工智能算法。英伟达是全球最大的GPU制造商,占据了80%以上的市场份额。

  但是,GPU也有其局限性和缺点。首先,虽然GPU具有强大的并行计算能力和高数据吞吐量,可以提高ChatGPT的训练效率和速度,但需要大量的计算资源和数据集,所以成本较高。据估计,ChatGPT单次查询的成本约为4美分,如果ChatGPT查询增长到谷歌搜索规模的十分之一,那么每年就需要价值约160亿美元的芯片来维持运行。其次,GPU并不是为人工智能而专门设计的,它们还需要与其他组件协调工作,这会增加复杂性和延迟。第三,GPU的性能也有其上限,它们可能无法满足未来更复杂和更强大的人工智能技术的需求。

  因此,OpenAI正在探索制造自己的AI芯片,以解决对昂贵的AI芯片的需求。据知情人士透露,OpenAI已经考虑了各种选择,包括构建自己的AI芯片,与其他芯片制造商更紧密地合作,以及使其供应商多样化。OpenAI甚至已经对一个潜在的收购目标进行了评估,但尚未决定是否继续推进。

  自研AI芯片可以帮助OpenAI在人工智能领域保持竞争优势,从而成为一小群大型科技公司之一,例如谷歌、亚马逊和微软等试图控制对其业务至关重要的芯片的设计。这些公司都在开发定制的AI芯片,以提高其人工智能服务和产品的效率和性能。

  例如,谷歌开发了张量处理单元(TPU),这是一种专门为机器学习而构建的定制应用专用集成电路(ASIC)。TPU是Google定制开发的特定于应用程序的集成电路(ASIC),旨在加速机器学习的工作量,专为谷歌的TensorFlow框架设计的,实际是一个用于神经网络的符号数学库。

  亚马逊也开发了自己的AI芯片,如Graviton和Inferentia等。Graviton:是亚马逊推出的首款自研Arm架构云服务器CPU,是主流的云计算服务商中第一家推出定制CPU的企业。Graviton是专门为云计算服务而设计的,可以提供更高的性能和更低的成本。Inferentia:是亚马逊推出的首款云端AI芯片,是一种高性能机器学习推理芯片,由AWS设计,旨在以最低的成本为深度学习推理应用程序提供高性能。Inferentia加速器可以帮助开发人员在两个AWS Inferentia加速器上部署模型并运行推理应用程序,从而进行自然语言处理、语言翻译、文本摘要、视频和图像生成、语音识别、个性化、欺诈检测等。

  然而,开发自己的AI芯片也不是一件容易的事情。首先,这需要大量的资金、人才和时间投入。据业内资深人士称,这样做一项重大投资,可能需要数年时间,且每年可能需要数亿美元。即使OpenAI为这项任务投入了资源,也不能保证成功。其次,这也需要与现有的硬件生态系统兼容和协调。如果OpenAI开发了自己独特的AI芯片架构和标准,它可能会面临与其他硬件供应商、软件开发者和客户之间的兼容性问题。第三,这也需要面对激烈的竞争和法律挑战。OpenAI可能会遭到英伟达等芯片巨头的反击,或者被指控侵犯他人的专利和知识产权。

  OpenAI想要自己的AI芯片,是一种既有理由又有挑战的愿望。OpenAI是否能够实现这一目标,还有待观察。但是,无论如何,OpenAI的芯片计划都反映了人工智能技术的发展和需求,以及芯片行业的变化和竞争。我们将继续关注这一领域的最新动态和趋势。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论