7 月 5 日,英国《金融时报》消息称,未来几个月英伟达将交付超过 100 万颗新款 H20 AI 芯片,这是英伟达针对中国市场推出的“特供”版本,目的是符合美国的出口管制新规。
每颗 H20 芯片的售价超过 12000 美元,意味着英伟达今年仅 H20 芯片就将产生超过 120 亿美元(当前约 873.93 亿元人民币)的销售额。
横向对比,在截至今年1月底的财报年度中,英伟达的整个中国区营收为103亿美元。这也意味着如果交付能够实现,光是H20显卡的销售额就将超过上一财年的所有营收,大幅提振该公司的中国区业绩,也为股价和业绩提供了重要支撑。
自从OpenAI发布ChatGPT并引发人工智能军备以来,英伟达的股价在过去18个月里一直强劲上涨。
美东时间6月17日周二,美股盘中,英伟达股价最高涨超4%,一举超越了此前占据市值榜首的微软。最终英伟达收涨3.51%,报135.58美元再刷历史新高,总市值达3.335万亿美元,一举超过了微软的市值3.32万亿美元和苹果的市值3.28万亿美元,登顶全球市值最高的上市公司。
AI热潮本质上属于芯片半导体的热潮,随着OpenAI、微软、Alphabet、亚马逊、Meta等公司对处理器的大量需求,在AI芯片市场占据主导地位的英伟达业务迅速增长。
最近一个季度,英伟达数据中心业务的营收同比增长了惊人的427%,达到了226亿美元,约占公司总销售额的86%。这一业绩的增长,得益于其H100加速器的强劲需求,该产品帮助数据中心运行人工智能应用所需的复杂计算任务。
AI装备竞赛催生出英伟达这样的超级新巨头,是一场全新的科技革命。不过很多人不了解的是,这些能力是建立在大量数据的训练之上,需要消耗大量的电力。
斯坦福人工智能研究所发布的《2023年人工智能指数报告》显示,1750亿参数的GPT-3在训练阶段的耗电量高达1287兆瓦时。随着模型参数的不断增加以及模型从单模态向多模态发展,耗电量还将进一步提升。
大模型不只是在训练阶段费电,推理阶段同样也相当费电。根据专家对ChatGPT的研究,每当ChatGPT试图响应一次提问,它需要消耗2.9瓦时的电量。ChatGPT平均每天需要处理约2亿个来自用户的对话请求,这意味着它单日消耗的电星就要超过564兆瓦时,相当于1.7万个美国家庭—天的用电量。
富国银行4月份发布的一份报告指出,随着人工智能革命的兴起、美国半导体和电池制造的扩张以及汽车行业的电动化,到2030年,美国电力需求将增长20%,长达10年的电力增长平台期即将告一段落。
富国银行预测,到2030年,仅AI数据中心就有望使美国电力需求增加约323太瓦时(1太瓦时=10亿千瓦时),比纽约市目前每年48太瓦时的用电量高出七倍。
所以,“AI的尽头是光伏和储能”在业界广泛流传。
根据施耐德电气的一份关于2024数据中心行业的研究报告,AlI类工作负载功耗2023年只占到8%,而到2028年会占15%-20%,总能耗预计会到15GW,相当于十三峡水电站的总装机容量22.5GW的70%。
AI热潮催生的用电需求,使得美国科技公司在全国范围内寻找电力供应。《华尔街日报》报道称,全美约1/3核电站所有者都在与科技公司就新建数据中心的电力供应进行谈判以满足人工智能需求。
近期,据知情人士透露,亚马逊云服务(Amazon Web Services,简称AWS)将与美国最大核电厂运营商星座能源达成协议由后者位于美国东海岸的一座核电站直接供电。今年3月,AWS还以6.5亿美元收购了宾夕法尼亚州的一座核电驱动的数据中心。
当下在AI应用热潮的推动下,算力需求井喷。数据中心作为承载AI应用的关键,在满足算力需求的同时面临能效问题的挑战,这使得数据中心的绿色低碳和可持续发展成为刚需。
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://www.iotsj.com//kuaixun/3463.html