日本“最強AI”翻車:底層架構實為DeepSeek,網友集體失望
本文源自微信公眾號APPSO,作者聚焦明日產品探索,原標題為《日本“最強AI”塌房!代碼暴露源自DeepSeek,日本網友炸鍋》
近期,日本X平臺因樂天集團(Rakuten)的一則發(fā)布炸開了鍋。這家科技公司在日本經濟產業(yè)省(METI)GENIAC項目(日本AI政府資助計劃)的支持下,高調推出號稱“日本最大、性能最強”的7000億參數大模型Rakuten AI 3.0。
然而發(fā)布后不久,開源社區(qū)便發(fā)現,該模型的底層架構實際來自中國的DeepSeek-V3,樂天僅對其進行了日文數據的微調。
在知名AI開源平臺Hugging Face上,Rakuten AI 3.0的配置文件明確標注架構源自DeepSeek V3。

但在Rakuten AI 3.0的發(fā)布新聞稿中,卻未提及任何關于DeepSeek的信息,僅含糊表示“融合了開源社區(qū)的精華”,讓不少網友誤以為這是日本自主研發(fā)的成果。
更關鍵的是,樂天為掩蓋這一事實,在開源時悄悄刪除了DeepSeek的MIT開源協(xié)議文件。直到被社區(qū)實錘后,才以“NOTICE”文件名重新補充。

在Hugging Face上可查看項目文件的提交歷史,顯示相關修改記錄。
日本網友紛紛表示無法接受:拿著日本政府補貼,竟只是微調了中國的DeepSeek;還有人吐槽,用DeepSeek就算了,偷偷摸摸的行為實在丟人。
自欺欺人的“日本最強”
單看樂天發(fā)布的公關稿,這款模型確實可視為日本在大語言模型領域的一次重要發(fā)布。
它是一款約7000億參數的混合專家(MoE)模型,經開源社區(qū)確認,總參數671B、激活參數37B,與DeepSeek V3一致。樂天首席AI官Ting Cai稱其為“數據、工程與創(chuàng)新架構在規(guī)模上的出色結合”。
Ting Cai的名字聽起來不像日本人,有日本網友在評論區(qū)指出,使用DeepSeek已很過分,更過分的是主導該模型的負責人是移民強硬派。
經了解,Ting Cai曾在美國谷歌、蘋果公司任職,在微軟工作超15年,本科就讀于美國石溪大學計算機科學專業(yè)。他在采訪中提到,18歲首次出國去的就是日本,確實持移民強硬立場。
關于Rakuten AI 3.0的表現,官方公布的基準測試顯示,它在日語文化知識、歷史、研究生水平推理、競技數學及指令遵循等維度得分優(yōu)異,大有領先日本本土大模型之勢。

不過,其對比對象包括已下架的GPT 4o、僅1200億參數的GPT OSS,以及日本新興AI企業(yè)ABEJA基于千問開發(fā)的ABEJA QwQ 32b模型。
7000億參數對陣最多1200億參數,Rakuten AI 3.0自然優(yōu)勢明顯。同時,作為經產省GENIAC項目的重點扶持對象,樂天獲得了大量算力資源支持。
GENIAC項目的初衷是構建日本本土生成式AI生態(tài),緩解對海外巨頭技術的依賴焦慮。
憑借日本最大參數規(guī)模和“國家隊”背景,Rakuten AI 3.0一亮相就被寄予“本土希望”的厚望。
核心仍是DeepSeek
但這份光環(huán)褪去得比預期更快。
7000億參數、MoE架構的組合,在開源大模型領域指向性極強。開源社區(qū)開發(fā)者查看Hugging Face上的代碼配置文件后,發(fā)現直接標注了DeepSeek V3。
從底層邏輯看,這就是“中國架構+日本微調”:DeepSeek提供了經全球驗證的高效底層架構與推理能力,樂天則利用本土優(yōu)勢,通過高質量日文語料微調,使其更貼合日本文化。
客觀而言,基于開源模型進行本土化微調在技術圈十分常見且合理。比如作為對比的ABEJA QwQ 32b模型,直接沿用Qwen的代號。

日經新聞報道稱,日本公司開發(fā)的前十大模型中,有6個基于DeepSeek或Qwen二次開發(fā)。
若樂天此次坦誠使用DeepSeek底座,最多只是一次缺乏新意的“套殼”發(fā)布,或許還能借DeepSeek的熱度。
但他們選擇了隱瞞。
此前提及美團瀏覽器使用開源項目時曾介紹,DeepSeek采用的MIT協(xié)議是開源界“最寬松”的協(xié)議之一。
它允許用戶免費商用、修改甚至閉源盈利,唯一要求是保留原作者的版權與許可聲明。

Rakuten模型發(fā)布新聞稿|https://global.rakuten.com/corp/news/press/2026/0317_01.html
然而樂天不僅在發(fā)布博客中對DeepSeek只字不提,還在代碼庫中刪除了該協(xié)議文件,高調宣稱采用Apache 2.0協(xié)議開源。
盡管Apache 2.0同樣對商業(yè)友好,但更正式,常被大廠用于構建開源生態(tài)和專利護城河。

不同開源協(xié)議對比:MIT協(xié)議比Apache協(xié)議更寬松簡短;Apache 2.0在賦予自由的同時,明確包含專利授權保護和更嚴謹的責任免除條款,適合大型、需規(guī)避法律風險的商業(yè)項目|圖片來自互聯(lián)網
樂天的算盤很清晰:抹去DeepSeek的名字,套上自己的Apache 2.0協(xié)議,包裝成“開源7000億參數大模型”的日本AI救世主。
此前喊了一年多的歐洲版、美國版DeepSeek均未落地。
樂天也想做日本版DeepSeek,但在算力與訓練成本的壓力下,以及全球大模型快速發(fā)展的背景下,既想利用中國技術的高性價比,又放不下“本土巨頭”的身段,顯然難以兩全。
不如一起期待DeepSeek V4的到來。
本文僅代表作者觀點,版權歸原創(chuàng)者所有,如需轉載請在文中注明來源及作者名字。
免責聲明:本文系轉載編輯文章,僅作分享之用。如分享內容、圖片侵犯到您的版權或非授權發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com



