DeepSeek無需成為救世主
本文來自微信公眾號(hào):未盡研究,作者:未盡研究,原文標(biāo)題:《DeepSeek不必是救世主 | 以Agent為馬》
去年春節(jié)前夕,DeepSeek發(fā)布的R1模型震撼硅谷、牽動(dòng)華爾街神經(jīng)。它為中國大模型廠商重新專注研發(fā)與訓(xùn)練驗(yàn)證了可行路徑,也開啟了中國開源模型陣營狂飆突進(jìn)的一年。
春節(jié)已成為新一年AI領(lǐng)域的前哨戰(zhàn)。近期,Kimi、智譜、MiniMax與豆包等廠商,都趕在春節(jié)前發(fā)布了旗艦?zāi)P?。外界猜測,它們擔(dān)心若發(fā)布滯后,會(huì)在品牌形象與市場競爭中落于下風(fēng)。
前沿模型“智能”水平排名

(根據(jù)ArtificialAnalysis,當(dāng)前美國最強(qiáng)模型來自Anthropic,中國最強(qiáng)模型來自智譜)
如今,市場的目光聚焦于DeepSeek,期待它延續(xù)春節(jié)“英雄”的角色,甚至承擔(dān)起中國AI生態(tài)“救世主”的重任。DeepSeek該如何回應(yīng)這份期待?或者說,它必須回應(yīng)嗎?
DeepSeek確實(shí)在醞釀新動(dòng)作。全新長文本模型結(jié)構(gòu)測試正在推進(jìn),支持最高100萬token上下文。這會(huì)是市場期待的DeepSeek-V4嗎?事實(shí)上,去年5月、8月、10月與12月,市場曾多次抱有類似期待,最終DeepSeek推出了DeepSeek-R1-0528、DeepSeek-V3.1、DeepSeek-V3.2-Exp與DeepSeek-V3.2。
在此期間,DeepSeek還嘗試了UE8M0 FP8、DSA、上下文光學(xué)壓縮、mHC與Engram等技術(shù)方向的探索,核心思路之一是“稀疏化”,讓“專家”“精度”“注意力”與“記憶”更具稀疏性。人們相信,即將到來的V4版本中,能看到這些改良技術(shù)的延續(xù)。
不過,市場的關(guān)注點(diǎn)已轉(zhuǎn)向智能體(AI Agent),更準(zhǔn)確地說是智能體化(Agentic AI)。這一方向追求自主決策、長期任務(wù)規(guī)劃、智能體間交互及端到端執(zhí)行的新范式。Anthropic表示,AI已能完成90%的代碼編寫,下一步便是實(shí)現(xiàn)90%端到端的軟件工程(SWE)?;鸨腛penClaw讓人們意識(shí)到,在獲得足夠權(quán)限后,Agentic應(yīng)用的強(qiáng)大與潛在風(fēng)險(xiǎn)。
2026年的旗艦大模型,將以原生Agentic大模型為主。美國方面,Anthropic的Claude Opus 4.6與OpenAI的GPT-5.3-Codex相繼上線,尤其是OpenAI推出的1000token/秒的Codex-Spark,將編碼競爭推向白熱化。國內(nèi),月之暗面的Kimi-K2.5、智譜的GLM-5、稀宇科技的MiniMax-M2.5以及字節(jié)跳動(dòng)的Doubao-Seed-2.0,都在宣傳自身的智能體能力。
其中,Kimi-K2.5引入智能體集群(Agent Swarm)技術(shù),提出并行智能體強(qiáng)化學(xué)習(xí)(PARL),實(shí)現(xiàn)更高準(zhǔn)確率與更短用時(shí);GLM-5在編程能力上與Claude Opus 4.5對(duì)齊,還提出異步智能體強(qiáng)化學(xué)習(xí)算法,使模型能從長程交互中持續(xù)學(xué)習(xí),以極少人工干預(yù)自主完成Agentic長程規(guī)劃與執(zhí)行;MiniMax-M2.5號(hào)稱是首個(gè)無需考慮使用成本、可無限使用的前沿模型,“1萬美元可讓4個(gè)Agent連續(xù)工作一年”。
DeepSeek-V3.1早已宣告邁向Agent時(shí)代,但其將如何定義當(dāng)下的Agentic時(shí)代?能否憑借推理效率、工具集成、記憶機(jī)制與極致經(jīng)濟(jì)性,在落地體驗(yàn)中再次樹立新標(biāo)桿?
或許,DeepSeek未必需要單獨(dú)的“R系列”。R象征推理與認(rèn)知,對(duì)標(biāo)OpenAI的o系列模型;而Agentic時(shí)代更強(qiáng)調(diào)執(zhí)行與工程,需對(duì)標(biāo)OpenAI的Codex。DeepSeek原本就有Coder與Math系列模型,編碼與數(shù)理證明是通往AGI(通用人工智能)的“元能力”,二者共同構(gòu)成模型的自我改進(jìn)系統(tǒng),加速遞歸式進(jìn)化。
市場也期待DeepSeek繼續(xù)驗(yàn)證國產(chǎn)算力生態(tài)協(xié)同的潛力。長期以來,其探索主線是在有限資源下通過架構(gòu)創(chuàng)新,最大化提升訓(xùn)練與推理效率。去年年底,DeepSeek-V3.2采用新架構(gòu)DSA,在長上下文場景中實(shí)現(xiàn)端到端顯著加速;今年年初,Engram的條件記憶有望“成為下一代稀疏大模型中不可或缺的基礎(chǔ)建模范式”。
OpenAI的Codex-Spark證明響應(yīng)速度至關(guān)重要,是創(chuàng)造價(jià)值的關(guān)鍵。它運(yùn)行在Cerebras晶圓級(jí)引擎上,而這正是國內(nèi)推理生態(tài)所缺乏的。DeepSeek能否用“算法”換“算力”,彌補(bǔ)硬件層面的差距?
而且,從算法入手精簡步驟,不僅能提升響應(yīng)速度(尤其是部分需高速精準(zhǔn)響應(yīng)的場景),還能減輕上下文壓力。此前,中國開源模型常因“冗長思考”不受制約、token消耗過高而被詬病,這會(huì)逐漸削弱成本優(yōu)勢(shì)。DeepSeek曾提到,未來將聚焦提升模型推理鏈的智能密度,以改善效率。
比推理更重要的是訓(xùn)練,預(yù)訓(xùn)練仍是后訓(xùn)練的起點(diǎn)。英偉達(dá)的Blackwell架構(gòu)正成為美國AI基礎(chǔ)設(shè)施中的訓(xùn)練主力,谷歌的TPUv7也將在Gemini 4的訓(xùn)練中發(fā)揮關(guān)鍵作用。即便H200能盡快在國內(nèi)部署,短期內(nèi)中國大模型訓(xùn)練的算力來源仍處于Hopper時(shí)代。目前,國內(nèi)AI芯片廠商的性能宣傳主要圍繞Hopper架構(gòu),但在大規(guī)模集群場景下的穩(wěn)定性與綜合效率表現(xiàn),尚未有充分實(shí)踐數(shù)據(jù)支持。
DeepSeek在論文中承認(rèn),因訓(xùn)練算力不足,DeepSeek-V3.2在世界知識(shí)覆蓋廣度上仍落后于領(lǐng)先的專有閉源模型。團(tuán)隊(duì)計(jì)劃在后續(xù)迭代中擴(kuò)大預(yù)訓(xùn)練算力規(guī)模,彌補(bǔ)這一知識(shí)差距。毋庸置疑,DeepSeek-V4發(fā)布時(shí),國產(chǎn)AI芯片會(huì)實(shí)現(xiàn)Day0深度全棧適配;但市場更期待其預(yù)訓(xùn)練基于國產(chǎn)AI芯片,再次改寫市場對(duì)英偉達(dá)敘事的定價(jià)。
人們欣賞DeepSeek的精致研究,也期待原生多模態(tài)的DeepSeek-V4。Gemini 3已是原生支持文本、圖像、音頻和視頻輸入的大模型,Kimi-2.5也強(qiáng)調(diào)文本與視覺的聯(lián)合優(yōu)化。要繼續(xù)對(duì)標(biāo)谷歌、OpenAI,DeepSeek似乎必須有所行動(dòng)。
然而,技術(shù)創(chuàng)新必須基于可驗(yàn)證的物理邊界,而非情緒邊界。芯片、能源、網(wǎng)絡(luò)及算法等整套生態(tài)決定了算力上限,而算力正限制中國開源模型進(jìn)一步追趕的后勁,這在預(yù)訓(xùn)練和后訓(xùn)練中已有所體現(xiàn)。任何“算法樂觀主義”在特定時(shí)間內(nèi),都只能在這一邊界內(nèi)優(yōu)化。AGI更是一項(xiàng)系統(tǒng)工程,遠(yuǎn)超單一大模型的參數(shù)規(guī)?;虬姹靖?。
DeepSeek的使命是探索AGI。僅做大模型(尤其是僅做語言大模型)無法實(shí)現(xiàn)AGI,其局限性日益明顯。現(xiàn)在更接近現(xiàn)實(shí)的AGI形態(tài)是知行合一的,具備認(rèn)知能力、執(zhí)行能力、長期約束、現(xiàn)實(shí)反饋閉環(huán)等。Claude大模型常被中國開源模型集體刷榜超越,但它的收入以每年十倍的速度增長,在編程這一通用功能領(lǐng)域的突破,為通往AGI開辟了新路徑。
或許,真正的長期主義期待是允許DeepSeek繼續(xù)深度探索,而非讓市場的所有焦慮與愿望在某一時(shí)刻集中投射到這一品牌上。公司創(chuàng)始人梁文鋒認(rèn)為,創(chuàng)新是昂貴且低效的,有時(shí)伴隨浪費(fèi),需要盡可能少的干預(yù)和管理,讓每個(gè)人有自由發(fā)揮的空間和試錯(cuò)機(jī)會(huì)。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽碓醇白髡呙帧?/p>
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com



