英特尔与阿里云携手,为AI时代破解“内存墙”困局(阿里云对比) 99xcs.com

久久小常识(www.99xcs.com)™

在AI浪潮之下,当整个行业都在为算法和模型的迭代狂欢时,英特尔与阿里云却在2025年云栖大会上将目光投向了更深层次的挑战——横亘在算力与数据之间的“内存墙”。这场变革的具象化身是阿里云在云栖大会上推出的全球首款基于CXL 2.0 Switch技术的PolarDB数据库专用服务器。这并非一次简单的产品升级,而是一次由底层芯片架构创新,向上贯穿至云平台和数据库软件的全链路重构。

久久小常识(www.99xcs.com)™

▲英特尔数据中心与人工智能集团副总裁兼中国区总经理陈葆立先生

久久小常识(www.99xcs.com)™

▲阿里云数据库产品事业部产品管理与技术架构部负责人王远先生

为了探究这场变革的来龙去脉,《微型计算机》记者在本次云栖大会期间专门与两位核心人员——英特尔数据中心与人工智能集团副总裁兼中国区总经理陈葆立先生,以及阿里云数据库产品事业部产品管理与技术架构部负责人王远先生进行了一场对话,他们详细讲述了此次英特尔与阿里云携手创新的故事。

AI的数据洪流与“内存墙”下的集体焦虑

在过去的十几年中,数据中心见证了数据的爆炸式增长。英特尔数据中心及人工智能集团首席工程师龚海峰在此次云栖大会上分享了一组惊人的数据:全球数据中心的数据量在2024年已达到41.2ZB,并预计在未来五年以每年40%以上的速度增长,到2029年将达到228.9ZB 。在这“数据洪流”的背后,传统的服务器架构已显得力不从心。

如今,生成式AI正在重塑人与世界的交互方式。然而,这场智能革命的燃料是海量的数据。无论是训练一个万亿参数的大模型,还是运行一个能理解复杂上下文的智能体都离不开对内存容量和带宽的渴求。这使得一个长期存在的行业难题——“内存墙”——以前所未有的姿态摆在了从业者面前。

久久小常识(www.99xcs.com)™

“大家听到过一种说法,AI有的时候是卡内存,有内存墙。”陈葆立在采访中直言不讳,“很多时候数据来来回回,倒来倒去,结果内存不够,使得整个AI的性能,无论是推理还是训练都下降了。”这句话道出了当前AI算力建设的核心痛点,即处理器的计算速度早已远超内存的数据供给速度,计算单元常常处于“空等”数据的状态,造成了巨大的算力浪费。

王远则从数据库应用的角度为我们介绍更具体的挑战。他指出,AI时代数据库面临的负载发生了根本性变化。“现在进入AI时代,一个重要的趋势就是智能体,未来会有越来越多的智能体要访问数据库,智能体的数量会超越人的数量。”这些7×24小时不间断工作的智能体,其动态的行为模式高度不可预测,可能上一秒还在执行简单的查询,下一秒就开始进行复杂的数据分析和推理。这种负载的剧变对数据库的弹性、稳定性和资源调度能力提出了更高的要求。

久久小常识(www.99xcs.com)™

在传统的服务器架构中,内存通过内存通道与CPU紧密耦合,其容量和带宽都受限于单台服务器的物理规格。这导致了一些严重问题,比如资源孤岛与浪费,每台服务器的内存无法被其他服务器共享,导致整个数据中心内存在大量“内存碎片”,资源利用率低下,直接推高了总体拥有成本(TCO)。

在数据洪流与“内存墙”的双重压力下,行业似乎陷入了一种焦虑。寻找一种能够打破物理服务器界限,实现内存资源池化、解耦和动态调度的全新架构已经成为AI时代数据中心演进的当务之急。

英特尔的积淀至强6处理器与CXL 2.0技术的双重奏

面对行业的集体焦虑,英特尔作为数据中心处理器的领导者给出了一套深思熟虑的解决方案。这套方案的核心是全新推出的英特尔至强6处理器平台以及该平台原生支持的CXL 2.0互联技术。

久久小常识(www.99xcs.com)™

▲英特尔在2025年云栖大会现场展示的至强6处理器。

英特尔至强6处理器的设计理念本身就是对未来数据中心需求深刻洞察的结果,它的P核专为计算密集型和AI类业务打造,追求极致的单核性能,而E核则为高密度、横向扩展的云原生业务设计,提供最高的每瓦性能。

久久小常识(www.99xcs.com)™

这种差异化的设计使得一颗处理器能够灵活应对数据中心内的不同负载。阿里云巧妙地利用了至强6的RST关核特性,将一颗120核的处理器衍生出面向不同客户群体的三款实例产品:面向中小企业的u2i、主售的旗舰实例g9i(96核),以及适用于游戏等场景的高主频实例(72核)。这种灵活性极大地提升了云厂商的资源池效率和客户的弹性能力。

性能上,至强6处理器的P核产品最高可集成128个物理核心,支持多达12个内存通道和高达8800MT/s速率的DDR5内存,并集成高达504MB的L3缓存。同时,每个核心都内置了AMX、AVX-512等硬件加速器为AI计算提供强大的支持。相比上一代产品,其在高性能计算性能上提高了2.5倍。

久久小常识(www.99xcs.com)™

至强6处理器全面支持CXL 2.0协议,CXL是一种基于PCIe 5.0物理层的高速互联协议,它为CPU、加速器和内存设备之间的数据共享开辟了一条低延迟、高带宽的“高速公路”。与传统的RDMA(远程直接内存访问)技术相比,CXL的优势是压倒性的。王远在采访中做了生动的对比:基于RDMA的远程内存访问需要复杂的软件栈进行内存拷贝和数据交换,不仅延迟较高,还会产生影响业务稳定性的“毛刺”。而CXL则提供原生的load/store语义,让CPU访问远程内存池中的数据就像访问插在本地主板上的内存条一样简单、直接。

CXL 2.0标准的核心是引入了“内存池化”的能力。通过CXL Switch可以将大量内存设备组成一个共享的“内存池”,数据中心内的任何计算节点都可以按需从这个池子里“借用”内存资源。

“内存池化的概念我们讲了5~10年。”陈葆立回顾道,“我们说这是一个很好的愿景,云计算应该是资源可以自由分享,而不是说一个机器有多少CPU、多少内存就完全限制住了,CXL技术让这个愿景正在变为现实。”作为CXL标准的核心推动者,英特尔不仅在至强6处理器中内置了强大的CXL控制器和协议支持,更与阿里云这样的领先伙伴深度合作共同推动CXL生态的成熟。

阿里云PolarDB拥抱CXL完成进化

在软件创新方面,作为国内领先的云服务提供商,阿里云自主研发了新一代关系型云原生数据库PolarDB,它既拥有分布式设计的低成本优势,又具有集中式的易用性。PolarDB采用存储计算分离、软硬一体化设计,能够满足大规模应用场景需求。

阿里云PolarDB以其创新的“计算、存储、内存三层解耦”架构引领着云原生数据库的发展。不过在引入CXL 2.0技术之前,其内存层的解耦始终不够彻底,可以说是走完了99步,还差“最后一步”。

久久小常识(www.99xcs.com)™

在2025年云栖大会上,阿里云率先推出首款基于CXL 2.0的PolarDB数据库专用服务器。该专属机型利用了基于英特尔至强6处理器平台的CXL 2.0内存池化与动态扩展能力,帮助用户摆脱了单服务器的物理内存限制,可按需从内存池中动态获取内存,从而在性能和成本之间取得理想平衡。

“在RDMA的基础上,我们要花很大力气去做本地内存和远程内存的交换,以保证交换的稳定性。”王远详细解释了上一代架构的痛点,“但用了CXL技术之后,这个问题就会得到彻底解决,因为CXL 2.0协议能够保证远程内存和本地内存是一套访问方式、一套寻址原理。”

久久小常识(www.99xcs.com)™

这次,阿里云不仅在软件层面拥抱CXL,更在硬件层面进行了深度自研。在2025年云栖大会的展台上,阿里云展示了其与英特尔联合打造的“磐久CXL内存池化服务器”。这套系统由基于至强6处理器的计算节点、搭载自研CXL交换机芯片的交换节点以及可插入自研AliSCM持久化内存盘或标准DRAM内存盘的内存节点构成。

在这套全新的软硬一体化架构下,PolarDB的计算节点真正实现了“无状态化”(Stateless)。数据库的核心数据(如缓存池、元数据)全部存放在共享的CXL内存池中,计算节点只负责执行计算任务,自身不保持任何持久状态。当一个计算节点需要扩容或发生故障时,新的节点可以被瞬时拉起,直接连接到CXL内存池中获取数据和状态,从而继续提供服务。

与传统的RDMA高速网络相比,CXL技术将内存交互的性能提升了一个数量级,跨机交互延迟缩短至百纳秒级别。据阿里云透露,在相同配置下,PolarDB的扩展性提升了三倍,成本降低了50%,而且在业务高峰时,PolarDB能即刻获取所需内存资源,应对突发负载;在业务平稳时则能释放资源,显著降低TCO,同时保持数据库性能的稳定性与可预测性。可以说,CXL技术不仅帮助阿里云PolarDB走完了云原生架构的“最后一步”,更重新定义了云数据库的弹性、稳定性和成本效益标准。

数据库的AI雄心云原生与Data+ AI新特性

如果说CXL解决了数据库的“骨架”问题,那么英特尔至强6处理器强大的内置AI能力则为数据库注入了“智能的灵魂”。这推动了数据库的功能范式从传统的OLTP(在线事务处理)和OLAP(在线分析处理),向着一个全新的方向演进——OLIP(在线推理处理) 。

“我们认为算力应该靠近数据。”王远坚定地表达了“数据重力”(Data Gravity)的理念。将AI推理能力直接集成到数据库里,实现“模型算子能力”是这一理念的最佳实践。于是在2025阿里云PolarDB开发者大会上,阿里云PolarDB正式推出集成模型算子能力 (AI in SQL)的新版本,帮助个人和企业开发者快速部署并上线AI应用。

PolarDB AI版本的核心技术是“模型算子化”,它支持客户直接在数据库内部(In-DB)进行搜索推理优化,比如用户在编写SQL查询时,可以像调用一个普通函数一样直接调用AI模型进行推理。这一创新的软件能力与英特尔至强6处理器的硬件加速能力形成了完美结合。

“针对这个部分,像英特尔的AMX、AVX都可以加速这方面的能力。”王远介绍道。阿里云的测试数据显示,基于至强6和g9i实例,利用AMX FP16指令优化,PolarDB在运行基于DNN的在线推荐模型时,性能提升了30%;在运行更复杂的Transformer架构模型时,性能提升更是高达50%。

久久小常识(www.99xcs.com)™

除了模型计算,CXL的内存池架构也为AI推理带来了巨大价值。一般而言,大模型推理时需要一个巨大的KV Cache来缓存上下文信息,以加速后续token的生成。这个KV Cache往往会耗尽单台服务器的全部内存甚至显存。而现在,它可以被完整地部署在CXL内存池中,容量可以轻松扩展到TB级别,并且可以在多个推理节点间共享。

比如阿里云在2025年云栖大会上展示的一个例子:在一个智能医疗多轮对话的案例中,通过CXL DMP缓存KV Cache,线上推理效能提升了六七倍之多。这种软硬协同使得数据库不再仅仅是存储数据的仓库,更成为一个能够实时洞察数据、产生智能的强大引擎。

一场长达十五年的合作与共赢

站在2025年的时间节点回望,英特尔与阿里云的合作已走过十五个年头。从第一代飞天系统的诞生,到今天共同定义AI时代的内存新范式,双方的合作早已超越了简单的供需关系,演变为一种相互成就的战略协同。

陈葆立将阿里云视为全球创新的先行者:“阿里是首个完全使用CXL 2.0规范,把这个技术用得最领先的客户,不仅是中国领先,也是全球领先,这是双方团队共同努力的成果。”可见这场合作的成功根植于双方对技术趋势的共同判断和对开放生态的共同信念。英特尔坚持将CXL作为开放标准,能让所有伙伴共同创新;而阿里云则通过将前沿的硬件技术产品化、服务化,让广泛的用户能够享受到技术进步的红利,从而反哺和繁荣整个生态。

AI时代的竞争,归根结底是生态的竞争。英特尔与阿里云的联手不仅仅是推出了一款或者多款新产品,他们更是共同构建了一个从硬件底座到平台应用的创新范本。通过正面迎击并系统性解决“内存墙”的难题,英特尔和阿里云为未来数据中心的发展奠定了坚实的基石。

部分文章和图片来源于网络,若涉及版权问题,请及时与我们联系,我们将第一时间删除并致歉。