構建智能:RISC?V CPU在智能體AI基礎設施中的崛起
SiFive 新近宣布完成 4 億美元 G 輪融資,標志著面向智能體 AI 數據中心負載的高性能 RISC?V CPU 開發進入重要技術拐點。本輪融資后公司估值達 36.5 億美元,資金將專門用于加速下一代 CPU IP 研發、軟件生態成熟,以及支撐超大規模部署。這些舉措共同解決新興算力瓶頸 —— 傳統架構在日益異構的 AI 基礎設施中,難以兼顧調度效率、擴展性與功耗限制。
本次投資背后的核心技術驅動力,是 CPU 在智能體 AI 系統中的作用不斷提升。盡管 GPU 與專用加速器能為張量運算提供高吞吐量,但它們并不適合復雜控制流、任務調度與系統級協同。由多個交互推理環路、工具集成和動態決策樹組成的智能體模型,需要低延遲調度與高效上下文切換。具備可擴展指令集與可擴展向量能力的 CPU,非常適合處理這類負載。RISC?V 的模塊化架構允許廠商針對特定調度模式定制標量、向量與矩陣擴展,相比單片式傳統指令集架構效率更高。
從微架構角度看,其技術路線圖重點在于 將標量流水線與向量、矩陣計算單元深度集成。這種協同設計通過減少異構計算模塊之間的數據移動,降低內存帶寬開銷。通過將領域專用加速器直接嵌入 CPU 內部結構,RISC?V 可支持混合負載 —— 將控制密集型邏輯與本地數值計算交錯執行。這對于執行推理、規劃與迭代優化的 AI 智能體尤其重要,因為它們需要頻繁在符號運算與數值運算之間切換。這種集成也簡化了緩存一致性,并降低了獨立加速器卸載帶來的延遲損失。
功耗效率是另一大技術動機。隨著 AI 集群規模擴大,機房總功耗與熱密度成為限制因素。傳統架構常依靠高主頻與深度亂序執行提升性能,導致能耗劇增。而 RISC?V 設計可利用 面向負載的指令擴展 與 適度規模流水線 實現更優的每瓦性能。這種方案讓數據中心運營商能在現有功耗預算內擴展算力,這對呈指數級增長的 AI 訓練與推理需求至關重要。
融資中投向 軟件生態 的部分同樣關鍵。擴大對主流操作系統與加速框架的支持,可確保新硬件無需大量移植即可部署。對 Linux 發行版與 GPU 互聯技術的原生兼容,可構建由 RISC?V CPU 調度 GPU 加速計算的異構集群。這種緊密耦合提升調度效率,減少主機側瓶頸。此外,針對向量與矩陣擴展的標準化工具鏈與編譯器優化,對充分釋放硬件能力必不可少。軟件基礎設施的投入將加速 RISC?V 在超大規模廠商與企業用戶中的普及。
客戶支持舉措也體現出 協同設計 的行業大趨勢。超大規模運營商越來越需要定制化 CPU IP,以實現基礎設施差異化。與固定架構不同,RISC?V 支持集成私有加速器、專用內存層次結構與定制互連邏輯。這種靈活性縮短設計周期,并可根據不斷演進的 AI 負載快速迭代。隨著智能體 AI 系統日趨復雜,定制 CPU 功能(如硬件任務調度器、低延遲消息原語、領域專用向量單元)的戰略價值愈發凸顯。
RISC?V 的另一技術優勢在于 生態開放。開放標準促進半導體廠商、云廠商與軟件開發者之間的協作。這種協作模式通過各方獨立參與指令集擴展、驗證框架與性能優化工具,加速創新。長期來看,這將形成可與成熟架構媲美的強健生態,同時保持專用化靈活性。
總結
本輪融資支持三大相互關聯的技術目標:
推進高性能 RISC?V CPU IP 研發
擴大軟件兼容性
實現在 AI 數據中心的大規模部署
這些舉措共同解決智能體 AI 負載帶來的調度、效率與擴展性挑戰。隨著算力基礎設施向異構化、功耗受限方向演進,具備集成向量 / 矩陣能力、可定制的 CPU 架構,將在下一代 AI 系統中占據核心地位。










評論