1. 首页 > 快讯

AI=GPU?

AI 并不等于 GPU。随着 AI 推理市场未来的发展,传统x86甚至 FPGA 芯片都会登台炫舞。

随着人工智能的炒作,大多数人都默认所有人工智能工作负载都将在 GPU 上运行。随着更广泛的芯片投入使用,现实可能会有所不同。

需要明确的是,GPU 是为 AI 工作而设计的。我们所说的 AI 实际上是应用统计学,更具体地说是非常先进的统计回归模型。

这些模型的核心是矩阵代数,涉及相当简单的数学问题,比如一个数字乘以另一个数字,但要大规模完成。

GPU 设计为具有较小的核心(更简单的数学)和大量的核心(大规模)。因此,使用这些 GPU 而不是具有较少数量较大核心的 CPU 是合理的。

现在,这种情况变得有点模糊了。首先,GPU 已经变得更加昂贵。它们更擅长 AI 数学,但在某种程度上,从经济角度来看,切换到 CPU 开始变得合理。

AI 芯片市场实际上分为三个部分——训练、云推理和边缘推理。

目前,NVIDIA 基本把控了 AI 训练市场,但说实在的这只是整个 AI 市场的一小部分。

云推理将是一个更大的市场——随着越来越多的人使用这些 AI 模型,对推理的需求将会增长,而目前大部分工作将在云端完成。

对于许多公司来说,建设产能似乎将付出高昂的成本。但可以说,推理的费用很可能成为未来一年左右消费者采用 AI 的主要绊脚石。考虑到 GPU 的成本和相对稀缺性,许多公司将开始探索 GPU 的替代方案来运行推理工作负载,尤其是对于那些将这些 AI 结果与其他功能(如搜索或社交媒体)相结合的公司而言,这些工作负载仍然主要在 CPU 上运行效果最佳。

人工智能的经济性将需要更多的推理工作,以在边缘设备(如手机或笔记本电脑等设备)上进行。这意味着手机和个人电脑将需要拥有人工智能功能,这些人工智能将会由 CPU 或者移动端的 SoC 处理器进行支持。

我们看到,AMD 、INTEL、高通、APPLE.....这些企业都已把 AI 能力植入到处理器内部,并将其作为重要的营销点,在市场上大肆宣传——AI PC 这个概念在 2024 年刮起狂风。

还有公司在追求“专用 AI 芯片”的思路,寻求打造 AI 加速器——专为 AI 数学而设计的专用芯片。

但事实证明,这只适用于像谷歌这样控制所有软件栈的公司。

这些专用芯片的一大问题是,它们往往针对特定的一组工作负载或 AI 模型进行了过度设计,而当这些模型发生变化时,这些芯片就会失去性能优势。

所有这些都指向了半导体领域最不为人知的领域之一——FPGA。

这些是“可编程”芯片(“P”代表可编程),这意味着它们可以在生产后重新用于不同的任务。它们与专用 ASIC 完全相反,ASIC 专为 AI 加速器等特定任务而设计。

FPGA 已经存在多年了,但主要集中在工业和航空航天系统等小批量应用方面,FPGA 系统有一席之地良好。

因此,FPGA 无处不在,触及数十个终端市场,但我们对它们不太熟悉,因为它们通常不会出现在普通消费者每天使用的大批量电子产品中。

人工智能的出现稍微改变了这种计算。对于这些工作负载,FPGA 可能适合 AI 推理需求——因为底层模型经常变化。

需要明确的是,业内并不认为 FPGA 会成为使用数千个 GPU 的大规模 AI 系统的强劲竞争对手,但随着 AI 在电子产品中的进一步渗透,FPGA 的应用范围将会扩大。

目前业内已经有相关芯片企业涉足于此。赛灵思Versal ACAP集成了FPGA、CPU和AI引擎,支持高性能的AI推理。其采用的网络互连(NoC)架构大幅提升了数据传输速度,适合复杂的AI模型和大规模数据处理;英特尔Agilex SoC FPGA集成了多核Arm Cortex-A53处理器,适合高性能计算和AI推理任务。其灵活性和可编程性使其能够快速适应不同的应用需求;国内阿里巴巴在其云计算平台中使用FPGA进行AI推理,特别是在图像识别和自然语言处理等领域,提升了处理效率和响应速度。

GPU 很可能仍是 AI 领域的主要芯片,尤其是对于高知名度、高容量的模型而言。但除此之外,替代芯片的使用将成为生态系统的重要组成部分,这是一个比现在看起来更大的机会。

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://www.iotsj.com//kuaixun/3792.html

联系我们

在线咨询:点击这里给我发消息

微信号:666666