AI 通常被定義為算力故事:更大的模型、更快的 GPU、布滿加速器的數據中心。但隨著系統持續擴容,真正的限制并非算力,而是數百、數千乃至數百萬處理器間的通信。圖一:人工智能數據中心規模擴展集群規模的演變。現代 AI 的核心是矩陣乘法,大型神經網絡可將運算分配至多個處理單元,并行計算成為提升性能的首選方案。但模型規模超過約 100 億參數后,小型本地計算域無法支撐擴容,工作負載需分配至多個圖形處理器(GPU),覆蓋板卡、服務器、機架,乃至跨建筑區域級光纖網絡。實際應用中,GPU 需協同如同一臺超大處理器,需
整合分散的算力資源,有望實現更節能的 AI 模型訓練人工智能能耗需求極高,AI 熱潮背后的數據中心碳足跡龐大,前沿 AI 模型訓練的碳排放持續攀升,這一問題尤為突出。因此,科技巨頭紛紛布局核能,期待以可靠、零碳能源支撐未來發展。但核電數據中心仍需多年才能落地,目前科研與產業界已采取行動遏制 AI 能耗增長。他們聚焦模型訓練這一生命周期中能耗最高的環節,推動去中心化技術落地。去中心化將模型訓練分配至網絡中的獨立節點,而非依賴單一平臺或供應商,讓算力就近匹配能源 —— 無論是實驗室閑置服務器,還是太陽能供電家
AI 加速器應用廣泛,從大語言模型訓練、基于大模型的推理預測,到自動駕駛中傳感器與攝像頭數據的實時處理、智能手機、相機、無人機等 AI 邊緣場景,甚至可加速疫苗研發過程。但 AI測試系統是一個全新課題,它涉及到高速接口、多處理器、深層存儲層級測試,還包含光接口測試,需要開展在裸芯片、堆疊模組(HBM)、最終測試、系統級測試及現場測試多個環節。這種多芯片、多接口測試需要 DFT 與測試方法創新,包括實施流式掃描,以及增加更多的在線應力測試和后硅化過程模塊測試,以全面捕捉所有潛在故障。隨著封裝尺寸增大,需要新
英特爾發布了最新基準測試成績,展現了其在 CPU 與 GPU 平臺上的最新人工智能推理能力。該結果作為 MLCommons 組織MLPerf Inference v6.0測試套件的一部分正式公布,凸顯了英特爾至強 6 處理器搭配英特爾銳炫 Pro B 系列 GPU,在工作站、數據中心與邊緣端部署場景下的性能表現。對于關注 AI 硬件平臺演進的工程師與開發者而言,這些結果清晰展現了英特爾在當前由專有 GPU 生態主導的市場中,如何布局開放、可擴展的推理系統。基準測試凸顯銳炫 Pro GPU 擴展能力MLPe
智能體 AI(Agentic AI)是當下最新的熱門方向,它建立在支撐 ChatGPT、Perplexity、Copilot 等聊天機器人的大語言模型(LLM) 基礎之上。聊天機器人通常接收文本提示并以文本回應,部分可以生成圖像甚至視頻。它們大多是獨立的交互系統,但想要在聊天環境之外真正執行操作,就需要依靠智能體 AI。智能體 AI 將大語言模型與現實世界相連總體而言,智能體 AI 通過多種接口和協議將 AI 模型與外部世界連接起來(見圖)。目前主流的協議之一是模型上下文協議(Model Context