
AMD董事会主席及首席执行官 苏姿丰博士
毋庸置疑。人工智能(AI)是这个时代最重要的命题之一。在Advancing AI 2025大会上,AMD预测,到2028年,AI处理器的市场规模将超过5000亿美元。
疾风知劲草,以DeepSeek为代表的大模型的广泛应用,促进了算力迭代;路遥知马力,在全面铺开的AI长卷中,夯实算力这一基石,对于企业的数智化转型升级至关重要。
从底层技术的角度,充分发挥CPU的驱动力,助力千行百业更好赋能“人工智能+”,需要变中求进。笔者从大会上获悉,引人瞩目的AMD下一代EPYC CPU处理器 “Venice”,已经蓄势待发。未来,CPU究竟要如何变?又如何才能在AI落地企业的过程中继续发挥“中流砥柱”的作用?

CPU驱动高效发展 化解企业算力焦虑
大模型时代,DeepSeek锋芒毕露,一方面让我们认识到,通过技术创新能够极大地优化算力的使用效率;而另一方面,模型应用场景的不断扩展,又推动了算力需求的战略性增长。
工业和信息化部等六部门发布的《算力基础设施高质量发展行动计划》提出,到2025年,中国算力规模超过300 EFLOPS,其中智能算力占比达到35%。从现有智算中心的建设来看,算力缺口巨大,难以全面满足日益旺盛的AI应用需求。
大模型的应用将重塑CPU的应用范式,尤其是在架构适配、场景拓展、成本效益等维度提出了新的挑战。变则通,巨大的压力反而激发了人们无尽的潜能和创造力。举例来说,在DeepSeek-R1推出后,业界都在积极探索如何基于CPU进行优化部署。
只有想不到,没有做不到。AI的创新需要强大的CPU作为底层支撑。首先,面对深度学习、自然语言处理等复杂任务,CPU不仅要能够处理大量的数据,还要能高效地执行复杂的算法。为此,CPU需要在架构和设计上不断优化,以提高计算密度和计算速度。其次,为了承载AI应用中常见的并行计算需求,CPU需具备多核心与多线程的能力,允许CPU同时处理多个任务,同时在单个核心内也可以执行多个线程,从而提高整体处理效率,加速AI训练和推理过程;再次,更高的能效比意味着CPU在提供强大算力的同时,还能保持较低的功耗,以降低运行成本和对环境的影响,这就要求CPU在架构设计、制造工艺等方面更上一层楼;最后,在AI训练和推理过程中,CPU应具备强大的安全功能和故障检测机制,以避免数据受到攻击和泄露,从而确保系统的稳定运行。
面对多样化的AI应用需求,AMD EPYC处理器展现了出色的能力与适应性。首先,AMD EPYC处理器采用先进的Zen架构,以高性能的计算核心承载复杂的AI计算任务,确保AI应用的快速响应和高精度结果;其次,AMD EPYC处理器提供了多核心和多线程,能够同时处理多个AI任务,提高了整体的处理效率和吞吐量;最后,最新一代EPYC 9005系列处理器已采用先进的3/4nm制造工艺,在提高集成度的同时能够有效降低功耗,同时配合一系列先进的功能和安全技术,充分保障了AI应用的数据安全和系统稳定运行。
如今,AMD EPYC处理器已成为构建高性能AI系统的理想之选。
搭上AI推理快车 CPU凭的是硬实力
DeepSeek-R1推理大模型在数学、编程和推理等多个任务上可与OpenAI o1相媲美,引发了业内热烈追捧。技术突破、应用场景拓展,以及政策上的支持,让AI推理开始大行其道。
Bloomberg发布的《2025年生成式AI展望报告》显示,生成式AI市场发展迅猛,其焦点将从预训练模型转向推理模型,推理支出超过训练支出的时间可能提前三年,2032年推理市场整体规模将达到7350亿美元。
由于CPU能够有效平衡性能、延迟与成本,满足多样化的场景需求,因此在处理AI推理任务时游刃有余。具体来看,AI推理通常涉及大量矩阵运算,如卷积、矩阵乘法等,CPU需要具备较强的多核并行能力,这样才能在处理多个任务时加速计算;在AI推理过程中,CPU的频率是十分重要的性能指标,高主频的CPU意味着更快的计算速度;AI推理特别强调持续运算与低延迟,要求CPU具备高性能、低能耗、高性价比的特点;在AI推理应用中,CPU需要与各种软硬件平台兼容,以确保在不同应用场景中稳定运行,这就要求CPU具备广泛的兼容性与良好的适配性。

AMD EPYC以通用计算重塑推理效能,凭借高并发核心设计,全面覆盖碎片化的推理场景,成了AI推理服务器的主流选择。以第四代AMD EPYC处理器系列为例,它具有极致能效,并且采用专用指令集与架构优化,凸显了高并发处理能力,在金融风控、工业设备诊断等众多场景中为用户提供了良好体验。而第五代AMD EPYC处理器则可帮助用户实现更高效的推理,更充分地满足各类AI工作负载的需求,并适应不同模型大小。
具体来看,第四代EPYC能够在AI推理方面脱颖而出,主要得益于其先进的架构和创新的设计,它所采用的Zen 4架构具有显著的AI适应性。得益于单处理器最高可拥有96核心,第四代AMD EPYC处理器具业界领先的性能和能效。相比上一代产品,第四代AMD EPYC处理器可以提供高达2.8倍的性能,以及更少的电耗,并且提供完整的软硬件生态系统支持,从而更好地承载虚拟化、AI/ML、HPC等工作负载。特别值得一提的是,第四代AMD EPYC处理器还引入了对AI/ML应用程序至关重要的DDR5内存和第五代PCIe,大内存、大带宽的设计能够加快AI模型的训练和推理速度。另外,AMD 3D V-Cache技术的加持,进一步增强了第四代AMD EPYC处理器的多任务处理能力,并有效降低了延迟。
珠玉在前,第五代EPYC基于Zen 5架构,对AI的支撑能力更上一层楼。相比Zen 4,Zen 5核心架构不仅提供多达17%的更高每时钟指令数(IPC),还能为AI和HPC提供高达37%的更高IPC,从而提升了AI部署的洞察时间和部署速度。举例来说,64核的AMD EPYC 9575F可用于AI主机节点。在实际应用中,得益于5GHz的最大加速频率,AMD EPYC 9575F在一个由1000个节点组成的AI集群中,每秒可处理多达70万个推理令牌,极大地提高了处理效率。再比如,192核心的EPYC 9965 CPU可为包括TPCx-AI(衍生)在内的端到端AI工作负载提供更高的性能,在Meta Llama 3.1-8B的中小型企业级生成式AI模型中,EPYC 9965的吞吐量性能具有显著优势。
更具颠覆性的变革可能将于明年到来。笔者从大会上获悉,搭载了基于Zen 6架构的EPYC“Venice”CPU的机架级系统Helios已经整装待发,它的出现将大幅提升AI训练和推理能力。其中,EPYC“Venice”CPU将实现显著的IPC性能提升,并且具有更多核心数和更高能效,同时针对AI负载进行优化。
加速AI在企业中落地 赢在起跑线上
从最初的概念炒作到现在的商业化应用,AI正在各行各业引爆前所未有的变革。对于企业来说,如果选错CPU,可能意味着输在起跑线上。随着新兴的多样化的工作负载持续涌现,市场也在不断细分,从PC端到数据中心,从云计算到智能化应用,选择一款最适合的CPU,需要综合考虑多种因素,包括性能、能耗、成本等。
随着AI应用不断走向深入,它对CPU的处理性能、核心数量、稳定性等指标提出了更高的要求。由于AI任务通常需要强大的计算能力,所以CPU应具备强劲性能,多核心与强大的多核性能不可或缺,这是并行处理复杂计算任务所必须的。另外,AI任务很可能需要长时间运行,因此CPU的稳定性也格外重要,确保在长时间、高负荷运行状态下不会出现故障或性能下降,也是考量CPU的一个重要指标。

AMD EPYC处理器与时偕行,以架构的创新和升级为根基,在性能、能效、核心数量、内存支持以及软硬件协同优化等多个方面表现卓越,是AI时代的品质之选和信赖之选。从Advancing AI 2025大会上获得信息来看,AMD将按照既定的人工智能基础设施推进计划,不断创新和扩展架构,致力于将新的GPU架构、EPYC CPU以及Pensando NIC整合到完整的AI系统中,为AI的深入应用提供源源不断的算力。