日本最強AI被曝套殼DeepSeek
3月17日,日本互聯網巨頭樂天集團發布大模型Rakuten AI 3.0,并將其定義為在日本經濟產業省與新能源產業技術綜合開發機構(NEDO)推動的GENIAC項目框架下開發的“日本國內最大規模高性能AI模型”。
然后發布當天,這款日本最強大模型就“翻車”了。截至目前,樂天集團沒有任何公開回應。

根據樂天的官方新聞稿,Rakuten AI 3.0是"基于開源社區最優秀的模型,結合樂天獨自的高品質雙語數據、技術力和研究成果開發"的,對Deepseek只字未提。不過,模型上線后不久,技術社區很快發現Rakuten AI 3.0的底層配置與DeepSeek-V3高度一致。
中國一開源,日本就自研
樂天稱,該模型約為7000億參數的MoE架構,作為一款日語特化模型在多項日語基準超越GPT-4o,并以Apache 2.0許可在Hugging Face上免費開放。
樂天在Hugging Face發布的config.json文件中,architectures一欄寫的是DeepseekV3ForCausalLM,model_type則直接標注為deepseek_v3;而DeepSeek-V3官方倉庫的對應字段也是同樣寫法。

該模型權重上傳到Hugging Face之后,任何人點進去,切到Files and versions標簽頁,打開config.json就能看到。用戶發現模型的config.json文件中包含"model_type": "deepseek_v3"這樣的條目。architectures寫著DeepseekV3ForCausalLM,不是參考、不是借鑒,而是直接聲明了模型類別。
而繼續看模型信息就可以發現,hidden_size是7168,intermediate_size是18432,num_hidden_layers是61,n_routed_experts是256,vocab_size是129280。和DeepSeek V3的原版配置一模一樣。
雙方公開信息中的關鍵規格也幾乎完全重合:Rakuten AI 3.0在模型頁中寫明,總參數量671B、每個token激活參數37B;DeepSeek-V3官方倉庫對外公開的核心規格同樣是671B總參數、37B激活參數。所以樂天號稱參數量約7000億,因為DeepSeek-V3的參數量就是6710億,四舍五入約等于7000億,這個“約”字用得精髓。
這意味著,Rakuten AI 3.0并非外界通常理解的“從零打造的全新底座模型”,而更像是在DeepSeek-V3基礎上,進一步做了日語方向的訓練和優化。另一個引發討論的點是開源許可處理。DeepSeek-V3的公開倉庫顯示,其代碼文件采用MIT License,其中明確要求保留版權聲明和許可聲明。

而更為離譜的是,樂天一開始就沒有放入DeepSeek的MIT許可證文件,被指出之后,才默默以NOTICE為文件名補了上去,提交說明寫的是“Add the permission notice”,里面的版權聲明:Copyright (c) 2023 DeepSeek。
整體來看,Rakuten AI 3.0更準確的定位,或許不是“日本從零做出的7000億參數原創底座”,而是一個建立在DeepSeek-V3開源技術之上、面向日語做深度優化的超大模型版本。
翻車不是因為抄
從開源規則看,基于開源模型進行再訓練、微調和本地化并不罕見,本身也不必然構成問題。DeepSeek-V3是開源模型,許可證允許商業使用和二次開發,在開源模型基礎上做微調是行業通行做法,嚴格來說,雖然樂天在所有對外宣傳中刻意回避了DeepSeek的名字,在法律上確實沒有違規。
真正引發爭議的,是樂天在宣傳口徑上更強調“日本最大、最強”,卻沒有在最醒目的位置清楚交代底座來源。而在許可文件補充出現在模型上線之后的背景下,這場發布會也從一場日本本土大模型成果展示,迅速演變成一場圍繞開源透明度與技術歸屬的輿論風波。
樂天還特別強調,這個模型是GENIAC第三期的成果,學習費用部分由GENIAC提供的計算資源補助支持。GENIAC是經濟產業省與新能源產業技術綜合開發機構(NEDO)主導的項目,為日本的AI開發企業提供GPU利用方面的助力。說白了就是國家出錢、企業出力,目標是建立日本的自主AI能力。
但樂天為何會翻車?對于一家拿到日本政府GENIAC項目支持、同時以“日本最大規模”進行傳播的企業來說,這種表述被認為過于模糊,容易讓外界誤以為其底座能力主要來自內部原創研發。GENIAC項目的初衷是扶持日本自主AI能力,結果樂天拿到補助之后,下載了中國的開源模型,做了一層日語微調,然后號稱"日本國內最大規模的高性能AI模型"。
對此,有網友吐槽:DeepSeek現在都更新到V3.2了,樂天拿個舊版出來包裝,套殼都不挑個新的。值得注意的是,之前樂天發布RakutenAI-7B的時候,老老實實寫了"基于Mistral-7B開發"。這次突然改成"基于開源社區最優秀的模型"這種含糊說法,明顯是故意的。













評論