ChatGPT如何改变算力?

  由OpenAI开发的AI聊天机器人ChatGPT自去年11月推出后一路“狂飙”,行业的快速发展与商业的落地前景令人期待。

  01 芯片需求=量↑ x 价↑

  AIGC拉动芯片产业量价齐

  ChatGPT热潮席卷全球。ChatGPT(Chat Generative Pre-trained Transformer)是由OpenAI于2022年12月推出的对话AI模型,一经面世便受到广泛关注,其2023年1月月活跃用户达到1亿,是史上月活用户增长最快的消费者应用。在问答模式的基础上ChatGPT可以进行推理、编写代码、文本创作等等,这样的特殊优势和用户体验使得应用场景流量大幅增加。

  1)量:AIGC带来的全新场景+原场景流量大幅提高。

  ①技术原理角度:ChatGPT基于Transformer技术,随着模型不断迭代,层数也越来越多,对算力的需求也就越来越大;

  ②运行条件角度:ChatGPT完美运行的三个条件:训练数据+模型算法+算力,需要在基础模型上进行大规模预训练,存储知识的能力来源于1750亿参数,需要大量算力。

  2)价:对高端芯片的需求将拉动芯片均价。

  采购一片英伟达顶级GPU成本为8万元, GPU服务器成本通常超过40万元。支撑ChatGPT的算力基础设施至少需要上万颗英伟达GPU A100,高端芯片需求的快速增加会进一步拉高芯片均价。

  02 ChatGPT的“背后英雄”:芯片

  01 GPU:支撑强大算力需求

  由于具备并行计算能力,可兼容训练和推理,目前GPU被广泛应用于加速芯片。看好海光信息、景嘉微;

  02 CPU:可用于推理/预测

  AI服务器利用CPU与加速芯片的组合可以满足高吞吐量互联的需求。看好龙芯中科、中国长城。

  03 FPGA:可通过深度学习+

  分布集群数据传输赋能大模型

  FPGA具备灵活性高、开发周期短、低延时、并行计算等优势。看好安路科技、复旦微电、紫光国微。

  04 ASIC:极致性能和功耗表现

  AI ASIC芯片通常针对AI应用专门设计了特定架构,在功耗、可靠性和集成度上具有优势。看好寒武纪、澜起科技;

  05 光模块:容易被忽略的算力瓶颈

  伴随数据传输量的增长,光模块作为数据中心内设备互联的载体,需求量随之增长。看好德科立、天孚通信、中际旭创。

  风险提示

  1、AI技术发展不及预期2、版权、伦理和监管风险3、半导体下游需求不及预期

  本文源自券商研报精选

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论