CPU借AI熱潮重獲青睞,再度 “變酷”
受 AI 熱潮推動,如今熱銷的計算硬件不只有顯卡和 NAND 閃存。AMD 與英特爾高管均指出,X64 CPU 需求大幅上漲—— 這一方面源于整體 AI 算力基礎設施的大規模建設,更直接的原因則是AI 推理與智能體 AI(Agentic AI)負載的快速普及。
在此之前,GPU 一直是 AI 領域無可爭議的硬件主角。憑借強大的并行計算能力,GPU 能夠承擔現代神經網絡所需的繁重運算,尤其在模型訓練階段,擁有數千個核心的 GPU 可以高效完成將訓練數據轉化為權重參數所需的并行矩陣乘法。英偉達占據了數據中心市場的絕大部分份額,成為 AI 熱潮的最大受益者,并成為全球首家市值突破 5 萬億美元的公司。
2025 年初,首輪 AI 熱潮逐漸趨于理性,行業重心從AI 模型訓練轉向 AI 推理,同時智能體 AI這一全新工作負載開始崛起。一時間,AI 服務商需要并行運行成百上千個半自主 AI 智能體,這在基礎設施層面形成了新瓶頸:數據在內存與 GPU 之間來回傳輸的速度。對高帶寬內存(HBM)的巨大需求也波及了全球 NAND 閃存市場,導致 NVMe 硬盤短缺、價格大幅上漲。
在這一過程中,一向低調的 CPU 并未扮演主角。但隨著 AI 不斷演進,基礎設施的需求重新回到了CPU 最擅長的領域。
原因在于:盡管 CPU 通常不直接運行 AI 模型,但它們負責支撐現代神經網絡工作負載所需的大量關鍵任務,包括數據預處理、AI 模型編排、在大規模 GPU 集群中調度高算力任務等。這也是為什么英偉達、AMD 等廠商都在打造將 GPU(或其他 AI 加速芯片)與 CPU 融合在一起的 “超級芯片”。
在某些場景下,CPU 更是運行 AI 推理的首選硬件,尤其是在邊緣側運行的中小型模型。相比如今的大型 GPU,CPU 體積更小,功耗與散熱要求更低。隨著智能體 AI 革命加速,企業在部署 AI 時更傾向于在本地與邊緣端運行模型,而非大型云數據中心 —— 部分原因是為了減少數據傳輸,因為數據傳輸本身就會帶來高昂的計算成本。
“CPU 在今年重新變得吃香了,” 英特爾執行副總裁兼首席財務官戴維?津斯納上周在摩根士丹利科技、媒體與電信大會的小組討論中表示。“我們一直認為,在這些數據中心里,CPU 需要與 GPU 并肩發展。”
津斯納表示,2025 年 CPU 整體市場規模增長了 20% 至 30%,2026 年將繼續增長。
“我們開始看到客戶在這一領域尋求長期供貨協議,這說明這一趨勢具備持續性。他們著眼于未來三到五年,希望與我們鎖定供應。”
AMD 首席執行官蘇姿豐也在上周舊金山的摩根士丹利大會上表達了相同觀點。
“我對 GPU 業務感到非常興奮,” 蘇姿豐表示,“但CPU 業務的需求實際上遠超我的預期。”
她指出,2025 年底至 2026 年初,高性能計算需求極為旺盛,AMD 下一代 GPU——MI450 將于 2026 年下半年推出。但受 AI 推動,需求增長的芯片并不只有 GPU。
“坦白說,隨著推理需求上升,我們看到CPU 需求非常強勁。我們一直認為,計算架構是異構的,需要 CPU、GPU、FPGA 等各類組件。這一點在 2026 年真正成為現實。”
近日,在德國紐倫堡舉辦的2026 嵌入式世界博覽會上,英特爾與 AMD 均發布了面向邊緣 AI 負載的新款 CPU:
英特爾第二代酷睿系列(Core Series 2)專為需要更高多線程性能、更低延遲的工業與邊緣應用設計;
全新 AMD 銳龍 AI 嵌入式 P100 系列處理器則面向工業 PC、物理 AI 與醫療應用。
全球顯然需要更多 AI 加速芯片來承擔 AI 所需的繁重計算。數萬億美元正投入到支撐新興 AI 負載的基礎設施中,其中大部分資金將流向英偉達、AMD、英特爾等廠商的 GPU 與各類 XPU。但作為能夠承擔多樣化任務的通用處理器,低調的 CPU 在未來四年的數據中心建設浪潮中仍將占據重要地位。唯一讓人意外的,或許是這次 CPU 需求的爆發來得如此猝不及防。















評論