欧美三级电影完整|亚洲一二三四久久|性爱视频精品一区二区免费在线观看|国产精品啪啪视频|婷婷六月综合操人妻视频网站|99爱免费视频在线观看|美女一级片在线观看|北京熟女88av|免费看黄色A级电影|欧美黄色毛片儿

GPT-5.4核心內幕曝光:永久記憶或成真,極限推理能力狂飆

03-06 06:42

【導讀】GPT-5.4即將登場!目前已開啟測試,單次可生成6000行代碼,外媒爆料其具備極限推理模型,甚至可能擁有永久記憶功能。


若你覺得近期AI圈略顯平靜,缺乏刺激,那或許只是風暴來臨前的短暫寧靜。


據多方消息,GPT-5.4已蓄勢待發(fā)!



LMArena平臺上,GPT-5.4的身影已悄然出現。



就在剛剛,外媒The Information披露了GPT-5.4的諸多核心內幕。


消息足夠震撼:它擁有更長的上下文處理能力、更強大的極限推理模型,甚至可能具備永久記憶!



若傳聞屬實,這一代模型絕非簡單升級,而是能力形態(tài)的重大躍遷。


GPT-5.4提前測試,代碼能力驚艷


近期,GPT-5.4的相關信息不斷流出。



從Codex錯誤日志、GitHub PR到員工誤發(fā)截圖,短短幾天內,GPT-5.4至少被“曝光”三次。



這些信息均由OpenAI自身意外泄露。


最初,開發(fā)者Corey Noles使用OpenAI Codex時觸發(fā)網絡安全限制,系統(tǒng)返回的錯誤日志中出現一串長模型名稱:


  • gpt-5.4-ab-arm1-1020-1p-codexswic-ev3

其中最關鍵的是開頭的“gpt-5.4”。


這串字符可視為OpenAI的內部部署ID,表明這是一個真實部署、正在測試的GPT-5.4實驗版本。



隨后,OpenAI官方Codex倉庫出現兩個Pull Request:


一個PR寫道:


  • minimummodel version = (5,4)

另一個PR更直接:


  • toggleFast mode for GPT-5.4

看來OpenAI為GPT-5.4添加了“Fast Mode”開關。幾小時后,這兩個PR被強制推送刪除。


更具戲劇性的是,OpenAI Codex團隊員工Tibo在社交平臺發(fā)布截圖,模型選擇器中清晰顯示“GPT-5.4”。



不久后該帖子被刪除。


隨后有開發(fā)者報告在Codex錯誤信息中看到類似模型字符串,進一步證明GPT-5.4已部署在內部服務器,正在進行A/B測試。


單次提示生成6000行代碼?

部分測試者反饋,模型推理速度明顯提升,代碼生成長度增加,甚至單次提示可生成6000+行代碼!



這在以往難以實現。


還有用戶發(fā)現新特征“Fast Mode”,推測OpenAI可能在嘗試新的推理架構,如多級延遲管道或不同速度檔位模型。


此外,新模型界面特征也被發(fā)現:部分用戶表示,若在推理摘要(Chain-of-Thought summary)旁看到點贊或點踩按鈕,可能意味著賬戶已被分配到GPT-5.4測試模型。


極限推理模式,性能大幅提升


The Information的爆料與上述信息完全吻合。


此次爆料中最引人注目的是“極限推理模式(Extreme Reasoning Mode)”。


傳統(tǒng)模型思考時間有限,而該模式能讓模型性能拉滿,遇到難題時可花費更多時間、調用更多計算資源進行深層推理。


有趣的是,調查顯示許多普通ChatGPT用戶對推理功能興趣不大,從商業(yè)應用角度看,企業(yè)更希望AI快速給出答案。


因此OpenAI仍重視推理能力,動機顯得更為純粹。


不過,這對科研領域和部分企業(yè)客戶是重大利好。


在科研領域,許多用戶愿意讓模型在有價值的研究問題上運行數小時甚至數天;部分企業(yè)也需要GPT-5.4更強的推理能力和長周期任務表現,以構建能自動化復雜業(yè)務流程的AI智能體。


各方爆料稱極限推理模式將非常強大,這也拉滿了大家的期待。


上下文窗口翻倍,達100萬tokens

GPT-5.4的另一硬核升級是上下文窗口從40萬tokens提升至100萬tokens,超過當前GPT-5.2的兩倍(部分OpenAI模型如GPT-4.1支持100萬token,但5.2不支持)。


這意味著GPT-5.4可處理幾十萬字文檔、分析整本書籍或長代碼庫與數據,在長上下文能力上追平谷歌Gemini和Anthropic的Claude。


坊間甚至有更夸張的爆料稱上下文達到200萬tokens!



GPT-5.4更擅長“長任務”

爆料還提到GPT-5.4在持續(xù)數小時的任務上表現更優(yōu),能更好記住用戶請求細節(jié)、自身權限及避免錯誤。


這對OpenAI的Codex編程工具幫助極大,因為Codex正是用AI自動化復雜長時間任務;同時對AI Agent也很關鍵,Agent可自主讀取需求、查資料、寫代碼、修bug,無需每步人工提示。


GPT-5.4或具備永久記憶?


最瘋狂的傳聞是GPT-5.4可能擁有永久記憶!


一位工程師在X平臺爆料后,AI社區(qū)瞬間沸騰,硅谷投資大佬、YC創(chuàng)始人Garry Tan也迅速轉發(fā)。



爆料人介紹了GPT-5.4的“持久狀態(tài)”,Jeff Dean在latentspacepod播客中也提到相關方向,可見各大AI實驗室都在探索。


有人猜測OpenAI內部可能已找到大規(guī)模有效結合狀態(tài)空間模型(SSM)和Transformer的方法。SSM設計本身能在每步計算中持續(xù)傳遞隱藏狀態(tài),計算復雜度線性增長,不像Transformer隨上下文長度呈二次增長,這與上下文達200萬token的傳聞相呼應。



持久化狀態(tài)本質上讓AI模型從《記憶碎片》中依賴短期記憶的角色,轉變?yōu)椤队耆恕分袚碛蟹€(wěn)定持久記憶的角色,賦予其真正的長期記憶能力。若能實現,將是重大技術突破!



競爭壓力下,OpenAI開啟“月更”模式


GPT-5之后,OpenAI明顯加快模型更新節(jié)奏,今年已推出GPT-5.1、GPT-5.2,GPT-5.4也即將到來,更新頻率接近每月一次。


顯然,OpenAI是被競爭對手逼到了墻角。


目前ChatGPT周活躍用戶達9.1億,雖數字驚人,但未達OpenAI 10億WAU目標。谷歌、Anthropic等競爭對手在長上下文、Agent、推理能力上持續(xù)發(fā)力。


若GPT-5.4真具備100萬長上下文、極限推理、持久狀態(tài),AI形態(tài)可能變成持續(xù)工作的智能體;若能“記住事情”,或將成為大模型發(fā)展的關鍵節(jié)點。


奇點已至,我們正加速前行。你,準備好了嗎?


參考資料:


https://x.com/marmaduke091/status/2028604854143176958


https://www.theneurondaily.com/p/openai-leaked-gpt-5-4-three-times


https://x.com/daniel_mac8/status/2028849150368862416


https://www.theinformation.com/newsletters/ai-agenda/openais-next-ai-model-will-extreme-reasoning?rc=bfliih


本文來自微信公眾號“新智元”,編輯:Aeneas,36氪經授權發(fā)布。


本文僅代表作者觀點,版權歸原創(chuàng)者所有,如需轉載請在文中注明來源及作者名字。

免責聲明:本文系轉載編輯文章,僅作分享之用。如分享內容、圖片侵犯到您的版權或非授權發(fā)布,請及時與我們聯系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com