咨询QQ:
      杂志订阅

      编辑

      网管

      培训班

      市场部

      发行部

电话服务:
 010-82024981
设为首页 | 收藏本页
AI烧钱,电费涨10倍,数据中心疯狂,未来堪忧
  • AI的智能背后是惊人的电力消耗:训练GPT-4耗电超五千万度,相当于旧金山运转三天;全球数据中心年耗电量将超日本全国用电量。"东数西算"工程正将算力需求导向西部清洁能源区,为AI发展寻找可持续动力。

    如今,人工智能,也就是我们常说的AI,已经悄悄地进入了我们生活的方方面面。
      
      无论是深夜里帮你修改论文的智能助手,还是几秒钟就能生成一幅精美画作的程序,它们带来的便利和惊喜,正在改变着我们的工作和娱乐方式。
      
      但是,当我们享受着这种“数字魔法”的时候,一个常常被忽略的问题正变得越来越突出:支撑这些强大功能运行的,是海量的电力消耗。
      
      这股看不见的能源洪流,正以前所未有的速度汇入全球各地的数据中心,引发了一个关乎未来的严肃疑问:我们赖以生存的电力,还能支撑这个越来越“聪明”的世界走多远?
      
      首先,我们得明白一个基本事实,AI的智能并非凭空产生,它的每一次思考、每一次回答,背后都是实实在在的物理运算。
      
      这些运算发生的地方,叫做数据中心。
      
      你可以把它想象成一个巨大的、专门存放超级计算机的仓库。
      
      仓库里,成千上万台服务器像书架一样排列着,每台服务器里都装着高速运转的芯片。
      
      当你向AI提出一个请求,比如“帮我写一首关于春天的诗”,这个指令就会通过网络传送到数据中心。
      
      在那里,无数芯片会同时被激活,它们根据已经学习过的海量知识,进行复杂的计算和匹配,最终生成你想要的诗句。
      
      这个过程,就像一个交响乐团为了演奏一首曲子,所有乐手都必须全力以赴一样。
      
      而驱动这一切的,就是源源不断的电力。
      
      那么,这个过程到底有多耗电呢?
      
      一些研究机构给出的数据可能会让我们感到惊讶。
      
      据估算,你让一个大型AI模型回答一个复杂问题所消耗的电量,大约是传统搜索引擎进行十次搜索的电量总和。
      
      这还仅仅是一次互动。
      
      现在,全球每天有数以亿计的人在使用各种AI工具,每天产生的请求数量更是达到了几十亿甚至上百亿的量级。
      
      这些看似微不足道的单次消耗,汇集在一起,就形成了一个天文数字。
      
      国际能源署预测,到2026年,全球数据中心的总耗电量可能会超过一万亿千瓦时,这个数字相当于整个日本一整年的用电量。
      
      而在这惊人的消耗中,AI驱动的计算所占的比例正在飞速增长。
      
      AI的电力消耗主要集中在两个环节,一个是“训练”,另一个是“推理”。
      
      我们可以用一个通俗的比喻来理解。
      
      所谓的“训练”,就像是把一个孩子培养成一个知识渊博的专家。
      
      你需要给他看无数的书,让他学习人类积累的几乎所有知识。
      
      对于AI模型来说,这个过程就是用海量的互联网数据去“喂养”它。
      
      为了完成这个任务,科技公司需要动用成千上万块顶级的、价格昂贵的显卡芯片,让它们组成一个巨大的计算网络,然后不分昼夜地运行好几个月。
      
      以著名的GPT-4模型为例,据估算,它在训练阶段一次性就消耗了超过五千万度电。
      
      这是什么概念呢?
      
      这些电量,足够支撑像美国旧金山这样的大城市正常运转三天,或者让一个普通家庭用上两百年。
      
      这还只是训练一个模型所付出的能源代价,而现在全球各大科技公司都在争相训练自己的大模型,这场竞赛背后燃烧的电力,可想而知。
      
      而“推理”,则是指这个“专家”学成之后,开始为我们工作,回答我们的问题、修改我们的文章、帮我们写代码。
      
      每一次我们使用AI,都是在进行一次推理。
      
      虽然单次推理的耗电量比训练要小得多,但它胜在频率高、数量大。
      
      全球几十亿次的使用请求,日积月累,形成了一种持续性的、巨大的能源消耗。
      
      这就好比制造一辆汽车(训练)本身就很耗费资源,但之后这辆汽车每天在路上行驶(推理)所消耗的燃油,总量可能更加惊人。
      
      更令人担忧的是,目前主导AI发展的科技巨头们,似乎并没有把能源效率放在首要位置。
      
      他们的竞争焦点,更多地集中在谁的模型更大、参数更多、能力更强上。
      
      这就像早期的汽车工业,大家都在比拼谁的发动机马力更足、速度更快,而很少有人去关心百公里油耗。
      
      因为在现阶段,更快、更准的AI能直接吸引用户、带来利润,而更节能的AI所能带来的商业回报,并不那么明显。
      
      此外,这些公司对于自己AI模型的具体能耗数据,大多讳莫如深。
      
      他们可能会宣传自己使用了多少比例的清洁能源,但当你问到训练某个具体模型到底用了多少度电,或者用户进行一次查询的具体功耗是多少时,往往得不到明确的答案。
      
      这种信息的不透明,使得外界很难准确评估AI发展所带来的真实能源压力,也给相关的监管和规划带来了巨大的困难。
      
      面对这个日益严峻的全球性挑战,不同的国家和地区正在探索不同的应对之道。
      
      在我们国家,一个名为“东数西算”的宏大工程,就为解决这个问题提供了一个富有远见的中国方案。
      
      这个方案的核心思想非常巧妙,就是进行全国范围内的算力资源与能源资源的优化配置。
      
      我们知道,我国东部地区经济发达,互联网企业集中,对算力的需求量极大,但土地和电力资源相对紧张。
      
      而广大的西部地区,比如内蒙古、贵州、甘肃等地,拥有丰富的风能、太阳能等清洁能源资源,电价也相对低廉。
      
      所谓“东数西算”,就是通过建设新的信息网络通道,将东部地区处理不过来的数据和计算任务,引导到西部的“云上”去完成。
      
      这就等于给那些耗电量巨大的数据中心,尤其是有大量AI计算需求的中心,在能源富集区找到了一个理想的家。
      
      它们可以直接使用当地充裕且便宜的绿色电力,既降低了运营成本,又极大地减少了碳排放。
      
      这不仅是一个技术工程,更是一种国家层面的战略布局,它体现了我们集中力量办大事的制度优势,将科技发展与国家能源安全、绿色转型的大战略紧密地结合在了一起。
      
      总而言之,人工智能为我们打开了一扇通往未来的窗,但我们也不能忽视窗外那个若隐若现的能源挑战。
      
      AI的每一次进步,都离不开背后强大的能源支撑。
      
      未来AI领域的竞争,将不仅仅是算法和模型的竞争,更是能源效率和可持续发展能力的竞争。
      
      如何让这个强大的工具在服务于人类的同时,不至于成为一个过度消耗地球资源的“电老虎”,是摆在全世界面前的一道必答题。
      
      这需要技术上的不断创新,比如研发更节能的芯片和算法;需要产业政策的正确引导,鼓励企业将能效作为核心指标;也需要我们每一个使用者建立起资源意识,明白每一次看似轻松的点击背后,都连接着这个星球的能源脉搏。
      
      编辑:Harris
      
      

    AI的智能背后是惊人的电力消耗:训练GPT-4耗电超五千万度,相当于旧金山运转三天;全球数据中心年耗电量将超日本全国用电量。"东数西算"工程正将算力需求导向西部清洁能源区,为AI发展寻找可持续动力。