DeepSeek V4發布前奏?已適配華為AI芯片
4月8日凌晨,DeepSeek迎來重要更新,在最新版本中DeepSeek輸入框上方新增“快速模式”與“專家模式”。系統提示:快速模式適合日常對話,即時響應;專家模式擅長復雜問題,高峰需等待。
不過,目前新版本還處于灰度測試中,并不是全量版本,可以在對話框里輸入“專家模式”,就會自動啟用新版本。

當然,將用戶自然分流至兩個入口,這本身也是一種算力調度策略,有助于實現限額限流、緩解峰值壓力。
根據當前測試與網友分析:快速模式背后可能調用了一個更輕量的V4 Lite模型;專家模式則疑似路由至更大、更強的模型,有猜測認為可能是DeepSeek V4正式版的某個形態。
值得注意的是,從2026年2月至今,DeepSeek錯過了多個發布窗口,至今V4仍未揭開神秘面紗。上月末,DeepSeek面向C端的產品服務多次中斷,或與模型迭代過程中進行灰度測試有關。業內猜測這次對話界面更新或許是V4版本發布的前奏,DeepSeek V4正式版將在本月發布,屆時仍可能保持開源領域最強性能。
DeepSeek V4.0等新一代模型有望將Engram融入已成熟的DSA+MoE架構,通過分層存儲關鍵常用信息實現Transformer架構中注意力層計算量的指數級下降,進而實現超長上下文處理,提升模型效率的同時精進代碼、Agent能力,補齊多模態短板。
數據顯示,國內日均AI Token調用量,從2024年初的1000億次,飆升至2026年3月的140萬億次,一年多時間增長超1000倍,海量算力需求僅靠進口芯片已無法滿足。同時,地方政策持續發力,上海明確新建智算中心國產芯片占比超50%,北京提出2027年實現智算中心建設100%自主可控,為國產算力發展提供政策助力。
與以往AI模型開發優先適配美系芯片的慣例不同,DeepSeek此次將國產芯片廠商置于優先位置。據美國科技媒體The Information2026年4月報道,DeepSeek團隊為完成適配優化,適當調整了發布節奏,過去數月與華為密切合作,對模型底層代碼進行了大量調整與重寫 —— 將新一代旗艦模型DeepSeek V4的底層代碼從英偉達的CUDA框架,全面遷移到華為自研的CANN框架,把昇騰芯片作為主力算力底座。

幾乎同一時期,3月21日,華為發布搭載全新昇騰950PR處理器的AI加速卡Atlas 350,單卡FP4精度算力達1.56P,為英偉達H20的2.87倍,加速卡內存帶寬達1.4TB/s,是國內率先實現FP4低精度推理規模化支持的產品。此外,該卡搭載華為自主研發的靈衢互聯協議,可實現數千張芯片高效集群互聯,有效破解傳統AI集群規模擴大后算力利用率下滑的行業痛點。
華為依托昇騰芯片+CANN框架+集群技術,打造完整算力生態,通過高效互聯技術實現多芯片集群協同,在萬卡級智算中心場景中,實測故障率低至0.3‰、訓練線性度達93.12%,彌補單芯片部分性能差距,滿足大模型訓練與推理需求。
昇騰950PR憑借優異性能,阿里巴巴、字節跳動、騰訊等科技巨頭,為應對DeepSeek V4等大模型上線需求,已提前下達數十萬顆訂單。
DeepSeek V4全面遷移昇騰芯片,標志著中國人工智能產業在算力自主化道路上取得實質性突破,將進一步推動全球AI技術競爭格局轉變。這一系列“換芯”與產品迭代動作,意味著國產AI芯片正加速從“可用”邁向“好用”,行業競爭也從單純拼單卡算力的硬件比拼,升級為“芯片+系統+軟件”的全生態較量。
曾幾何時,全球AI芯片市場被英偉達一家獨大,國產AI芯片長期處于技術落后、生態空白的困境,高端算力完全依賴進口。但短短兩年時間,市場格局已迎來明顯改寫:據市場研究機構IDC 2026年3月最新數據,2025年中國云端AI加速器市場中,本土GPU及AI芯片廠商市場份額占比達到近41%,曾經占據主導地位的英偉達市場份額較峰值大幅縮減。
雖然國產AI芯片實現突破性進展,但核心短板依然不容忽視:高端訓練芯片整體性能與英偉達頂尖產品仍有差距,軟件生態完善度、開發工具鏈成熟度有待提升,高端封裝、高帶寬內存(HBM)、核心EDA工具等產業鏈環節,仍未完全擺脫海外依賴,實現全產業鏈自主化仍需長期攻堅。













評論