新AI模型為何剛推出就優(yōu)勢不再?
本文源自微信公眾號“Fast Company中文版”,作者C.Stokel-Walker,原標題為《為什么新AI模型剛一推出,就失去了優(yōu)勢?》
當下人工智能領(lǐng)域的競爭中,技術(shù)迭代速度已不再以年或月為單位,而是縮短至以周計算。
今年2月初,Anthropic發(fā)布的Opus 4.6曾是該公司的重要里程碑,在多個領(lǐng)域都達到了頂尖水準。但僅一周后,中國企業(yè)Z.ai就推出了對標Opus的GLM-5模型,且目前沒有證據(jù)顯示GLM-5存在復制或借鑒Opus的情況,社交媒體上不少人將其稱為“平替版Opus”。
然而Z.ai的優(yōu)勢也未持續(xù)太久,在Anthropic被GLM-5追平后不久,GLM-5便被迅速下載、壓縮,進而開發(fā)出可本地離線運行的版本。
外界對AI企業(yè)如何快速追趕甚至超越競爭對手,尤其是部分中國企業(yè)能在幾天或幾周內(nèi)推出媲美美國頂尖模型的產(chǎn)品,一直存在諸多爭議。谷歌長期以來都在警示“蒸餾”技術(shù)可能帶來的風險。
在“蒸餾”過程中,企業(yè)會向模型輸入大量提示詞,生成海量回復數(shù)據(jù)集,從中提取內(nèi)部推理模式與邏輯,再用這些數(shù)據(jù)訓練成本更低的復刻模型。有消息稱,曾有機構(gòu)向谷歌Gemini模型發(fā)送超10萬次提示,試圖破解其強大能力的背后原理。麻省理工學院專注人工智能政策研究的博士生Shayne Longpre表示:“我確實感覺技術(shù)壁壘正在消失?!?/p>
這種變化不僅體現(xiàn)在發(fā)布速度上,還涉及技術(shù)進步的本質(zhì)。Longpre指出,最頂尖的閉源模型與開放權(quán)重模型之間的前沿差距正急劇縮小,他引用非營利研究機構(gòu)Epoch AI追蹤模型發(fā)展的研究解釋:“目前這一差距大約只有三到六個月。”
差距縮小的原因在于,如今大部分技術(shù)進展是在模型發(fā)布后實現(xiàn)的。Longpre解釋,各家公司會“對這些系統(tǒng)進行不同的強化學習或微調(diào),或是提升測試時推理能力,或是支持更長的上下文窗口”,這些操作都大幅縮短了適配周期,“無需從頭開始預訓練全新模型”。
這些迭代式改進不斷放大速度優(yōu)勢?!八麄兠扛粢粌芍芫屯瞥龈鞣N變體版本,”他說,“就像給普通軟件打補丁一樣?!?/p>
但作為前沿技術(shù)的開拓者,美國AI公司對這類做法的批評聲越來越大。OpenAI在致美國國會議員的備忘錄中指控,DeepSeek通過蒸餾美國模型的輸出來訓練具有競爭力的系統(tǒng)。

即便不存在嚴格意義上的“竊取”行為,開放權(quán)重生態(tài)也在以前所未有的速度模仿前沿模型的有效創(chuàng)新。
阿姆斯特丹自由大學研究基礎(chǔ)模型競爭問題的法學副教授Thibault Schrepel認為,問題部分源于模型許可證對“開源”的定義?!拔覀兂B牭侥硞€系統(tǒng)是否開源的說法,”他表示,“但我覺得這種二元判斷非常局限?!?/p>
Schrepel補充道,仔細查看許可證實際條款很重要。“若認真研究所有模型的許可證,會發(fā)現(xiàn)它們對所謂‘開源’模型的使用方式施加了大量限制。”例如Meta的Llama 3許可證對超大型服務(wù)設(shè)置了觸發(fā)條款限制,小型服務(wù)則不受影響?!叭绻渴鸾o超過7億用戶,就必須申請許可?!盨chrepel說,這種雙層體系會形成灰色地帶,滋生可疑行為。

麻省理工學院的Longpre表示,市場很可能會走向分化。一邊是廉價、性能持續(xù)提升、可本地部署的模型,用于處理日常任務(wù);另一邊是用于高難度、高風險工作的高端前沿系統(tǒng)?!拔艺J為基礎(chǔ)水平正在整體提升,”他補充道,并預測“會出現(xiàn)更多價格親民、可本地部署、體積更小的通用模型”。但他也相信,在關(guān)鍵且專業(yè)的工作中,用戶仍會“傾向于使用OpenAI、谷歌和Anthropic的模型”。
Longpre還表示,完全阻止模型蒸餾幾乎不可能。他分析,每當新模型發(fā)布,競爭對手必然會嘗試提取并復制其最優(yōu)秀的特性?!皻w根結(jié)底,我認為這是一個無法避免的問題?!?/p>
本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com


