高通发布两款数据中心AI芯片,股价一度暴涨22%(高通发布最新手机) 99xcs.com

久久小常识(www.99xcs.com)™

当地时间10月27日,高通公司宣布推出其面向数据中心的新一代人工智(AI)推理芯片Qualcomm AI200 和 A250 ,以及基于这两款AI芯片的加速卡及机架级解决方案。

高通表示,凭借公司在 NPU 技术方面的领先优势,这些解决方案可提供机架级性能和卓越的内存容量,以极高的性价比实现快速的生成式 AI 推理,标志着在跨行业实现可扩展、高效且灵活的生成式 AI 方面迈出了重大一步。

受该利好消息影响,高通股价在10月27日的美股盘中一度暴涨近22%,收盘涨幅回落至11.09%。

具体来说,Qualcomm AI200 是一款专用机架级 AI 推理解决方案,旨在为大型语言和多模态模型 (LLM、LMM) 推理及其他 AI 工作负载提供低总拥有成本 (TCO) 和优化的性能。它支持每卡 768 GB LPDDR内存,可提供更高的内存容量和更低的成本,从而为 AI 推理提供卓越的扩展性和灵活性。

Qualcomm AI250 解决方案将首次采用基于近内存计算的创新内存架构,通过提供超过 10 倍的有效内存带宽和更低的功耗,为 AI 推理工作负载带来效率和性能的跨越式提升。这不仅支持分解式 AI 推理,还能高效利用硬件资源,同时满足客户对性能和成本的要求。

两种机架解决方案均采用直接液体冷却以提高热效率,采用 PCIe 进行纵向扩展,采用以太网进行横向扩展,采用机密计算以确保安全的 AI 工作负载,机架级功耗为 160 kW。

高通技术公司高级副总裁兼技术规划、边缘解决方案和数据中心总经理 Durga Malladi 表示:“凭借 Qualcomm AI200 和 AI250,我们正在重新定义机架级 AI 推理的可能性。这些创新的全新 AI 基础设施解决方案使客户能够以前所未有的总体拥有成本 (TCO) 部署生成式 AI,同时保持现代数据中心所需的灵活性和安全性。我们丰富的软件栈和开放的生态系统支持,使开发者和企业能够比以往更轻松地在我们优化的 AI 推理解决方案上集成、管理和扩展已训练的 AI 模型。凭借与领先 AI 框架的无缝兼容性和一键式模型部署,Qualcomm AI200 和 AI250 旨在实现无缝应用和快速创新。”

高通表示,其超大规模级 AI 软件栈,端到端覆盖从应用层到系统软件层,并针对 AI 推理进行了优化。该栈支持领先的机器学习 (ML) 框架、推理引擎、生成式 AI 框架以及 LLM/LMM 推理优化技术(例如分解式服务)。开发者可以通过 Qualcomm Technologies 的 Efficient Transformers Library 和 Qualcomm AI 推理套件,享受无缝模型导入和 Hugging Face 模型的一键部署。高通的软件提供即用型 AI 应用程序和代理,以及全面的工具、库、API 和服务,助力 AI 落地。

高通在新闻稿所嵌入的关于Qualcomm AI200 和 AI250 的详细资料的介绍页面目前尚未正式上线。

久久小常识(www.99xcs.com)™

不过,高通已经宣布,Qualcomm AI200 和 AI250 预计将分别于 2026 年和 2027 年实现商用。高通还承诺,致力于制定数据中心路线图,每年更新一次,专注于实现业界领先的 AI 推理性能、能效和业界领先的 TCO。

关于高通自研数据中心CPU和AI芯片的消息,其实高通早就已经对外预告。

久久小常识(www.99xcs.com)™

早今年5月13日,高通就宣布与沙特阿拉伯AI公司HUMAIN签署了一份谅解备忘录 (MOU),旨在达成战略合作,合作开发下一代人工智能数据中心、基础设施和云到边缘服务,以满足全球对人工智能快速增长的需求。其中,就包括开发和供应高通公司最先进的数据中心 CPU 和 AI 解决方案,为 HUMAIN AI 云基础设施中的数据中心提供支持。

随后在今年7月高通的第三财季(截至今年6月29日)财报会议上,高通CEO Cristiano Amon进一步指出,高通正在开发“通用的数据中心CPU”,并且“非常专注于超大规模企业”,因为“他们拥有兼容 Arm架构CPU的工作负载”。同时,高通还正在开发的另一款数据中心产品,并将描述为“推理集群的主机”。“我们一直在构建AI加速卡,我们还将构建一个机架。”Amon说道。

Amon当时还透露:“我们正在与一家领先的超大规模企业进行深入讨论。如果成功,我们预计(来自数据中心市场的)收入将在 2028 财年开始。”

编辑:芯智讯-浪客剑