0°

ChatGPT日耗电超50万度!AI的尽头竟是电力?

  相比之下,美国家庭平均每天使用约29千瓦时电力。

  也就是说,ChatGPT每天用电量是家庭用电量的1.7万多倍。

  相关数据显示,光是训练GPT3一次,就要消耗128.7万度电,这电量够我们300个家庭用一年的了。

  而且这还仅仅是训练阶段,如果是更先进的GPT4,消耗的电力将会更多,保守估计至少好几千万度电。

  也难怪,业界很多大佬对此忧心忡忡。

  特斯拉CEO马斯克表示,“一年多以前,短缺的是芯片,明年你会看到电力短缺,无法满足所有芯片的需求。”

  OpenAI创始人奥特曼也对外表示,“未来AI技术发展,取决于能源的后勤保障,需要更多的光伏和储能支持AI算力。”

  据说,奥特曼更是自掏腰包开电厂,向一家Helion公司注资3.75亿美金,豪赌他们家的可控核聚变技术。

  ChatGPT耗电

  有人可能不理解,为啥ChatGPT如此耗电?

  作为一款大型深度学习语言模型,ChatGPT是需要大量的计算资源,来进行推理和生成文本。

  在用户使用ChatGPT的过程中,实际的资源消耗主要集中在服务器端,比如CPU跟GPU。

  此外,训练一个大型语言模型可能需要数周或数月的时间,在此期间,数以千计的GPU会持续运行,消耗大量电力。

  SemiAnalysis数据显示,OpenAI需要3617台英伟达HGX A100、共28936个GPU来支持ChatGPT推理。

  ChatGPT每天需要响应1.95亿次请求,预计每天需要消耗564兆瓦时电力,每个请求大约2.9瓦时。

  举个形象的例子,哪怕你只是在ChatGPT随便敲几句话,OpenAI创始人奥特曼就得发愁了,电费账单又变长了!

  据美国Uptime Institute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%猛增到10%。

  而随着生成式AI的广泛应用,预计到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。

  毫不夸张的是,这种用电量,将与荷兰、瑞典、阿根廷等国的用电量一样。

  除了耗电,ChatGPT也会消耗水资源。

  这个很好理解,毕竟AI模型旺盛的算力需求,是需要与之匹配的散热能力才行,不然服务器恐怕要冒烟了。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论