京東云“龍蝦天團”亮相 首次開源通用基礎(chǔ)大模型
3月24日,京東技術(shù)團隊正式發(fā)布京東云“龍蝦天團”:基于JoyAI大模型打造的OpenClaw(昵稱“龍蝦”)輕量云主機一鍵部署、一體機、云上SaaS版等產(chǎn)品,以及CodingPlan大模型套餐包同步推出。
據(jù)京東團隊數(shù)據(jù),“龍蝦”系列產(chǎn)品上線后,近一周token調(diào)用量環(huán)比飆升455%。

與此同時,京東首次開源通用基礎(chǔ)大模型JoyAI-LLM Flash的Instruct版本。該模型參數(shù)量達48B,激活3B參數(shù),性能測試結(jié)果優(yōu)于GLM-4.7 Flash(non-thinking)等同規(guī)模模型。
開源地址:
https://huggingface.co/jdopensource/JoyAI-LLM-Flash-Base
https://huggingface.co/jdopensource/JoyAI-LLM-Flash
數(shù)字人領(lǐng)域,京東自研JoyAvatar數(shù)字人視頻生成框架正式發(fā)布。該框架通過雙教師DMD后訓(xùn)練、動態(tài)CFG調(diào)制、歷史幀+偽幀專屬模型結(jié)構(gòu)三大創(chuàng)新技術(shù),解決了文本控制薄弱、多模態(tài)控制信號沖突、長視頻生成能力不足等行業(yè)痛點,性能已超越Omnihuman-1.5、KlingAvatar 2.0等國際SOTA模型。

具身智能方面,京東透露將成為全球最大的具身智能數(shù)據(jù)公司。計劃一年內(nèi)積累500萬小時人類真實場景視頻數(shù)據(jù),兩年內(nèi)積累超1000萬小時優(yōu)質(zhì)數(shù)據(jù),同步完成100萬小時采集機器人本體數(shù)據(jù)積累,并建成全球規(guī)模最大、場景最全的具身智能數(shù)據(jù)采集中心。
01.龍蝦一體機上線 輕量云主機預(yù)置OpenClaw鏡像
目前,京東云已在輕量云主機中預(yù)置OpenClaw應(yīng)用鏡像,支持三步快速部署,開發(fā)者無需手動搭建運行環(huán)境。最新數(shù)據(jù)顯示,京東云OpenClaw云服務(wù)用戶規(guī)模單周增長超300%,云端部署需求持續(xù)攀升。

針對中大型企業(yè)的OpenClaw部署需求,京東云推出OpenClaw一體機,具備三大核心優(yōu)勢:零代碼開箱即用,3分鐘即可投入使用;原生融合開源生態(tài);支持官方持續(xù)更新。
OpenClaw一體機提供三種硬件規(guī)格:
標準版型號1:滿足數(shù)據(jù)安全合規(guī)要求,支持超80人同時使用,日均處理Tokens超10億。
標準版型號2:面向追求高模型精準度與并發(fā)能力的中大型企業(yè),兼顧性能與隱私,支持50人同時使用,日均處理Tokens達5億+。
個人版:實現(xiàn)本地閉環(huán)運行OpenClaw及模型,適合5人及以下團隊使用,日均處理Tokens3.5億+。
02.通用基礎(chǔ)大模型開源 引入“纖維叢”數(shù)學(xué)工具
京東此次開源的JoyAI-LLM Flash Instruct版本,參數(shù)量48B、激活3B參數(shù),在公開測試基準上表現(xiàn)優(yōu)于GLM-4.7 Flash(non-thinking)等同規(guī)模模型。

算法層面,JoyAI-LLM Flash將幾何流形學(xué)中的“纖維叢”數(shù)學(xué)工具引入強化學(xué)習(xí),提出創(chuàng)新強化學(xué)習(xí)技術(shù)——FiberPO。

在保持3B激活參數(shù)的前提下,該模型通過動態(tài)稀疏路由提升計算效率,稀疏比例優(yōu)于GLM-4.7-Flash等模型。

代碼輔助方面,基于稀疏優(yōu)化與訓(xùn)推協(xié)同技術(shù),JoyAI-LLM Flash的響應(yīng)速度超越同級小參數(shù)量模型,支持程序員“邊寫邊調(diào)”。通過預(yù)訓(xùn)練與多輪微調(diào),模型對編程語法、多語言適配(如React/Vue)及代碼邏輯的理解精準,生成代碼可直接復(fù)用。
智能體應(yīng)用上,JoyAI-LLM Flash能低成本快速適配復(fù)雜業(yè)務(wù)場景。目前,京東JoyAI大模型技術(shù)已在2000+場景落地,融入京東“超級供應(yīng)鏈”,內(nèi)部運行的智能體數(shù)量超5萬個。
03.數(shù)字人框架達商用級 唇形同步等指標領(lǐng)先
京東自研的JoyAvatar數(shù)字人視頻生成框架,在分布匹配蒸餾(DMD)后訓(xùn)練框架中引入音頻、文本雙教師模型,實現(xiàn)“音視頻同步”與“文本控制”的分離監(jiān)督、融合學(xué)習(xí)。無需新增訓(xùn)練數(shù)據(jù),即可將通用視頻大模型的文本可控性遷移至數(shù)字人模型,讓數(shù)字人精準響應(yīng)復(fù)雜動作、鏡頭交互等指令。

該框架根據(jù)視頻生成的去噪時間步,動態(tài)調(diào)整文本、音頻的無分類器指導(dǎo)尺度:生成早期優(yōu)先通過文本控制信號確定動作框架,后期則優(yōu)先依據(jù)音頻信號確保唇形同步。
借助Frame pack歷史幀編碼模塊與偽最后一幀策略,框架構(gòu)建專屬長視頻生成模型結(jié)構(gòu),突破傳統(tǒng)數(shù)字人模型“生成時長短、幀閃爍、身份漂移”的限制,支持30秒以上長視頻生成,且全程保持身份穩(wěn)定、動作流暢。

客觀評測顯示,JoyAvatar在唇形同步、身份穩(wěn)定與動作自然度上達到商用標準。其中唇形同步相似度Sync-C達5.57,高于Omnihuman-1.5、KlingAvatar2.0及商用模型HeyGen;手部關(guān)鍵點置信度HKC為0.87,保障肢體動作自然流暢。

JoyAvatar可快速落地于電商服務(wù)、智能客服、內(nèi)容創(chuàng)作等核心場景:
京東內(nèi)部場景:數(shù)字人主播(支持直播間復(fù)雜動作、多主播互動)、智能客服(多角色智能問答)、京東云生態(tài)(為客戶提供數(shù)字人技術(shù)底座)等;
通用產(chǎn)業(yè)場景:影視動畫(快速生成卡通人物/非人類主體視頻)、線上會議(虛擬分身多輪對話)、教育科普(虛擬講師復(fù)雜動作演示)、文旅文創(chuàng)(數(shù)字文旅形象定制)等。
04.JoyInside開發(fā)平臺上線 提供一站式智能硬件方案
京東推出的JoyInside面向硬件終端提供智能化適配能力,支持擬人化交互與多人群適配。2026年初,該能力新增社交玩法并升級語音合成技術(shù),與京東京造聯(lián)動搭建跨品類智能硬件互聯(lián)體系,實現(xiàn)設(shè)備互通,還擴展至八大方言識別交互。目前,JoyInside已接入近百家家電家居品牌、超40家機器人及AI玩具廠商。
此外,京東推出“JoyInside開發(fā)平臺”,提供低代碼可擴展環(huán)境及“搭建環(huán)境+AI能力+硬件模組+產(chǎn)業(yè)資源”的一站式解決方案:
面向大眾與設(shè)計師:提供可視化工具與即插即用模組;
面向開發(fā)者:支持定制與外部Agent集成;
面向廠商:通過便捷API助力老硬件低成本智能化升級,并對接京東零售渠道與營銷資源。
05.結(jié)語:完整技術(shù)棧加速AI規(guī)?;涞?/strong>
依托累計超1700億元的技術(shù)投入,京東已構(gòu)建從京東云算力底座、JoyAI系列基礎(chǔ)模型,到智能體、數(shù)字人、具身智能的完整技術(shù)矩陣。這一立體化布局不僅推動京東內(nèi)部海量業(yè)務(wù)場景的智能化升級,更通過開放生態(tài)加速AI從技術(shù)突破走向普惠應(yīng)用。
本文來自微信公眾號“智東西”(ID:zhidxcom),作者:王涵,編輯:冰倩,36氪經(jīng)授權(quán)發(fā)布。
本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com



