0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大模型为何成耗能大户

现代电子技术 来源:经济日报 2024-04-29 17:25 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

随着人工智能技术快速发展,人工智能(AI)大模型的运行消耗问题受到越来越多关注。大模型为何成了耗能大户?能耗问题会不会成为人工智能发展的“绊脚石”?如何解决能耗问题?

耗电耗水量大

人工智能大模型到底有多耗能?据斯坦福人工智能研究所发布的《2023年AI指数报告》,AI大语言模型GPT-3一次训练的耗电量为1287兆瓦时,大概相当于3000辆特斯拉电动汽车共同开跑、每辆车跑20万英里所耗电量的总和。报告同时提出,AI大语言模型GPT-3一次训练,相当于排放了552吨二氧化碳。

国外研究显示,一次标准谷歌搜索耗电0.3瓦时,AI大语言模型ChatGPT响应一次用户请求耗电约2.96瓦时,在AI大模型驱动下的一次谷歌搜索耗电8.9瓦时。

除了耗电,另有研究显示,AI大语言模型GPT-3在训练期间耗水近700吨,每回答20个至50个问题就要消耗500毫升水。弗吉尼亚理工大学研究指出,Meta公司在2022年使用了超过260万立方米的水,主要作用是为数据中心提供冷却。

据了解,人工智能大模型GPT-4的主要参数是GPT-3的20倍,计算量是GPT-3的10倍,能耗也随之大幅增加。

华泰证券研报预测,到2030年,中国与美国的数据中心总用电量将分别达到0.65万亿千瓦时至0.95万亿千瓦时、1.2万亿千瓦时至1.7万亿千瓦时,是2022年的3.5倍和6倍以上。届时,AI用电量将达到2022年全社会用电量的20%和31%。

为何如此耗能

为什么人工智能大模型如此耗能?AI技术迅速发展,对芯片的需求急剧增加,进而带动电力需求激增。同时,对AI进行大量训练,也意味着需要更强的算力中心和与之匹配的散热能力。在AI快速迭代的道路上,电力和水资源的消耗也在快速增加。因为很多数据中心全年无休,发热量巨大,大规模电耗和水耗主要来自于冷却需求。

相关统计显示,数据中心运行成本的六成是电费,而电费里的四成多来自冷却散热,相应也会带来巨量冷却水的消耗。风冷数据中心六成多的耗电量都会用在风冷上,只有不到四成电力用在实际计算上。如今,全球数据中心市场耗电量是10年前的近10倍。

能耗问题会不会成为人工智能发展的“绊脚石”?英伟达首席执行官黄仁勋曾提到,AI和算力耗能巨大,但由于计算机性能飞速增长,计算会更加高效,相当于更节省能源。当前,我国实施严格的能耗双控政策,无论是AI大模型本身还是其应用行业,对单位GDP能耗来说均有明显降低作用。

从整体能耗来看,AI大模型带来的效率提升也会抵消一部分能耗增长。随着绿电广泛应用,再加上我国逐步由能耗双控向碳排放双控政策转变,可再生能源对未来AI大模型发展的支撑能力也会越来越强。

此外,相较于其他国家而言,中美等能源消费大国和数据大国,具备更好发展AI大模型的资源条件和基础。

怎样应对挑战

据预测,到2025年,AI相关业务在全球数据中心用电量中的占比将从2%增加至10%。到2030年,智能计算年耗电量将达到5000亿千瓦时,占全球发电总量的5%。因此,在大力发展AI大模型的同时,必须提前做好相关规划布局,以提供必要的电力和水资源等技术支撑。

有专家认为,人工智能的未来发展与状态和储能紧密相连。因此,不应仅关注计算力,而是需要更全面地考虑能源消耗问题。OpenAI创始人奥尔特曼认为,未来AI技术取决于能源突破,更绿色的能源尤其是核聚变或更便宜的太阳能以及储能的可获得性,是人工智能发展快慢的重要因素。

为降低电力和水资源消耗,很多企业在尝试采用各种方法为数据中心散热。例如,微软曾尝试部署海下数据中心,脸书(Facebook)数据中心选址北极圈附近,阿里云千岛湖数据中心使用深层湖水制冷等,我国很多企业则把数据中心布局在水电资源丰富的西南地区。

目前,可通过算法优化、开发和使用更高效的AI专用硬件、调整神经网络训练过程以优化计算资源等技术方式来降低AI大模型的能耗,并更多采用自然冷却、液冷、三联供、余热回收等新兴节能技术,提高制冷效率以降低数据中心能耗。从技术未来发展方向上看,光电智能芯片也有助于解决AI大模型的电耗和水耗问题。

AI大模型的发展,不能仅符合高端化、智能化的要求,更要符合绿色化的发展要求。为此,从国家和地方层面上看,为缓解AI大模型发展所带来的电力和水资源冲击,有必要将数据中心行业纳入高耗能行业管理体系,并提前做好相关规划布局。同时,加强资源整合,充分发挥人工智能大模型和数据中心的效能,通过使用效能下限设置等方式,确保其自身的电力和水资源使用效率。还应严格落实国家能耗双控及碳排放双控政策,并将其碳足迹与水足迹纳入行业考核范围,切实推动碳足迹与水足迹逐步降低,以应对日益增长的AI大模型电力和水资源需求。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    91

    文章

    41101

    浏览量

    302576
  • 语言模型
    +关注

    关注

    0

    文章

    575

    浏览量

    11341
  • 可再生能源
    +关注

    关注

    1

    文章

    761

    浏览量

    40745
  • 大模型
    +关注

    关注

    2

    文章

    3770

    浏览量

    5269

原文标题:大模型为何成耗能大户

文章出处:【微信号:现代电子技术,微信公众号:现代电子技术】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    为何医疗设备需要专用电源滤波器?

    为何医疗设备需要专用电源滤波器?
    的头像 发表于 04-07 10:52 321次阅读
    <b class='flag-5'>为何</b>医疗设备需要专用电源滤波器?

    科技云报到:“龙虾”入笼:为何金融行业不敢“养”?

    科技云报到:“龙虾”入笼:为何金融行业不敢“养”?
    的头像 发表于 03-27 09:38 347次阅读

    从“耗能大户”到“零碳标杆”:EMS3.0的逆袭之路

    一、零碳转型:工业园区的必答题,而非选择题 在“双碳”战略深入推进的今天,中国作为制造业大国,正迎来一场关乎产业命运的绿色变革。作为工业经济的核心载体,工业园区承载着全国近三的碳排放,既是减排攻坚
    的头像 发表于 02-12 14:28 432次阅读

    回馈式与MOSFET耗能型负载分析

    ,能量利用率可达95%以上。其优势在于高效能量循环利用,但依赖电网兼容性设计。 2. MOSFET耗能型功率负载 以功率MOSFET为核心,通过调节栅极电压控制导通状态,动态调整等效阻抗。采用PWM调制和数字反馈技术(如FPGA/DSP控制器),支持μs级动态
    的头像 发表于 10-23 10:09 711次阅读
    回馈式与MOSFET<b class='flag-5'>耗能</b>型负载分析

    供应哈默纳科减速机HPG断面模型使用的内部构造演示

    模型
    北京北成新控
    发布于 :2025年08月28日 11:26:27

    被误解的 “耗电大户”:铝电解电容其实是 “省电小能手” 的真相

    在电子元器件的世界里,铝电解电容常常背负着"耗电大户"的恶名。许多工程师和电子爱好者一提到铝电解电容,脑海中就会浮现出漏电流大、损耗高的印象。然而,这种认知可能存在着严重的偏差。事实上,现代铝电解
    的头像 发表于 08-15 16:01 1010次阅读
    被误解的 “耗电<b class='flag-5'>大户</b>”:铝电解电容其实是 “省电小能手” 的真相

    利用自压缩实现大型语言模型高效缩减

    随着语言模型规模日益庞大,设备端推理变得越来越缓慢且耗能巨大。一个直接且效果出人意料的解决方案是剪除那些对任务贡献甚微的完整通道(channel)。我们早期的研究提出了一种训练阶段的方法——自压
    的头像 发表于 07-28 09:36 653次阅读
    利用自压缩实现大型语言<b class='flag-5'>模型</b>高效缩减

    为何化工企业偏爱GUTOR UPS?

    为何化工企业偏爱GUTOR UPS?
    发表于 07-03 14:33

    make sence的XML文件能上传到自助训练模型上吗?

    make sence的XML文件能上传到自助训练模型上吗
    发表于 06-23 07:38

    FA模型卡片和Stage模型卡片切换

    卡片切换 卡片切换主要包含如下三部分: 卡片页面布局:FA模型卡片和Stage模型卡片的布局都采用类web范式开发可以直接复用。 卡片配置文件:FA模型的卡片配置在config.json中
    发表于 06-06 08:10

    从FA模型切换到Stage模型时:module的切换说明

    module的切换 从FA模型切换到Stage模型时,开发者需要将config.json文件module标签下的配置迁移到module.json5配置文件module标签下,具体差异
    发表于 06-05 08:16

    FA模型的ServiceAbility的切换介绍

    ServiceAbility切换 FA模型中的ServiceAbility对应Stage模型中的ServiceExtensionAbility。Stage模型
    发表于 06-05 07:24

    FA模型访问Stage模型DataShareExtensionAbility说明

    FA模型访问Stage模型DataShareExtensionAbility 概述 无论FA模型还是Stage模型,数据读写功能都包含客户端和服务端两部分。 FA
    发表于 06-04 07:53

    中国为何同时面临算力过剩与短缺 ?

    中国为何同时面临算力过剩与短缺 ?
    的头像 发表于 04-24 15:02 1552次阅读
    中国<b class='flag-5'>为何</b>同时面临算力过剩与短缺 ?

    KaihongOS操作系统FA模型与Stage模型介绍

    FA模型与Stage模型介绍 KaihongOS操作系统中,FA模型(Feature Ability)和Stage模型是两种不同的应用模型
    发表于 04-24 07:27