欧美三级电影完整|亚洲一二三四久久|性爱视频精品一区二区免费在线观看|国产精品啪啪视频|婷婷六月综合操人妻视频网站|99爱免费视频在线观看|美女一级片在线观看|北京熟女88av|免费看黄色A级电影|欧美黄色毛片儿

電費僅占5%,算力成本的真正“吞噬者”是誰?——算力成本深度拆解,電費之外的核心變量

03-30 06:30

近期,沐曦在行業(yè)分享中披露的一組數(shù)據(jù)中心成本分析圖表,引發(fā)了業(yè)內人士的廣泛關注。



這張圖拆解了一座1GW數(shù)據(jù)中心的成本賬——總擁有成本達550億美元,按四年折舊周期分攤后,GPU芯片占250億,供電散熱110億,網(wǎng)絡50億,存儲40億。而電費僅27.5億,占比5%。


這組數(shù)據(jù)推翻了圈內流傳兩年的“美好敘事”:此前不少人認為中國電價低于歐美,是AI時代的核心優(yōu)勢,畢竟大模型耗電巨大,低電價能帶來持續(xù)競爭力。但沐曦的圖表揭示了真相:在超大規(guī)模算力中心的成本結構中,電費在整體TCO(總擁有成本)里占比極低,對總成本影響有限,真正的成本大頭是繞不開的GPU芯片。


01 一座550億美元數(shù)據(jù)中心的成本流向


我們先細化這筆賬。


圖表中的550億美元,是基于1GW數(shù)據(jù)中心的全周期測算,周期設定為四年。選擇四年的原因是GPU折舊周期通常為四年,部分互聯(lián)網(wǎng)大廠甚至縮短至三年或兩年半——這并非會計保守處理,而是技術迭代的現(xiàn)實:新一代GPU推出后,老一代的單位算力成本與能效比會迅速失去競爭力。


550億總成本中,GPU采購占250億,占比45%,這還僅是芯片采購費用。供電和散熱系統(tǒng)110億,占比20%,這部分看似是“基礎設施”,實則大半成本由GPU功耗倒逼產生——一顆H100功耗達700瓦,下一代B系列更是突破1000瓦,數(shù)萬張卡集中部署時,供電與散熱系統(tǒng)的復雜程度遠超傳統(tǒng)數(shù)據(jù)中心。


網(wǎng)絡成本50億,存儲成本40億,兩者合計90億,占比16%。超大規(guī)模集群的網(wǎng)絡并非家用路由器,而是由數(shù)百公里光纖、幾十層交換機構成的“毛細血管網(wǎng)”,成本與復雜度隨GPU數(shù)量呈指數(shù)級增長。


四大硬件板塊(GPU、供電散熱、網(wǎng)絡、存儲)合計450億,占總成本的82%。電費僅27.5億,占比5%;其他運維成本7.5億,占比不足1.5%。


可見,電費便宜在這個賬本里幾乎可忽略不計。即便電價打五折,省下的十幾億美元在550億總盤子里掀不起水花。真正決定成本高低的,是GPU的選型、用量、集群互聯(lián)方式及供電散熱方案——這些都無法靠“低價”解決。


在AI算力的成本方程中,資源稟賦的權重遠低于預期,技術與供應鏈才是核心決定因素。


02 GPU價格為何“難下降”


那么,GPU價格能否下降?若能,是否就能解決大半成本問題?


答案是:能降,但短期內難有大幅下降,且降價空間不在中國手中。


AI芯片的成本構成遠比想象復雜。首先是制程,當前旗艦AI芯片均采用4nm或5nm工藝(如臺積電N4P、N5),單次流片費用3-5億美元起步,這是給代工廠的沉沒成本——流片失敗則資金打水漂,成功后還需幾個季度爬坡良率。


其次是HBM(高帶寬內存)。一顆H100配備80GB HBM3,僅內存成本就占芯片總成本的40%以上。HBM市場高度集中,海力士占大半份額,三星緊隨其后,美光追趕。HBM產能擴張遠跟不上AI芯片需求,近兩年價格持續(xù)上漲。即便GPU設計出色,若HBM拿貨難或成本高,整體芯片成本仍難下降。


還有先進封裝。當前AI芯片幾乎都采用CoWoS技術,該技術被臺積電壟斷。過去兩年,CoWoS產能緊張是AI芯片供應鏈的最大瓶頸,臺積電擴產速度直接決定英偉達、AMD及自研AI芯片廠商的出貨節(jié)奏。


先進制程、HBM、先進封裝這三大環(huán)節(jié),占據(jù)AI芯片BOM成本的大頭,且每個環(huán)節(jié)都被少數(shù)供應商壟斷。本土GPU設計公司即便設計能力追上,也需面對相同供應鏈現(xiàn)狀:流片依賴臺積電、三星或國內追趕中的先進產線,HBM短期依賴韓國廠商,先進封裝也以臺積電為主。這意味著,國產GPU的物料成本短期內難低于英偉達,甚至可能因采購量小、議價能力弱而更高。


更關鍵的是,英偉達GPU不僅是芯片,更是完整系統(tǒng)。從NVLink互聯(lián)到InfiniBand網(wǎng)絡,從CUDA軟件棧到開發(fā)者生態(tài),英偉達用十幾年構建了“軟硬一體”壁壘。購買英偉達GPU,部分費用是為“確定性”買單——確保能用、性能達標、快速部署,這種溢價初期難以避免。


03 窗口期已至,但挑戰(zhàn)更嚴峻


國產GPU是否就此無機會?


恰恰相反,2025-2026年是國產GPU的關鍵機遇期,核心原因是美國對華出口管制持續(xù)加碼。


這種壓力客觀上為國產GPU打開了“被迫導入”窗口:過去國內AI公司選英偉達是性能與生態(tài)的最優(yōu)解,如今最優(yōu)解被人為切斷,國產GPU從“備選”變?yōu)椤氨剡x”。


2025年下半年起,國內頭部互聯(lián)網(wǎng)公司與運營商加速部署國產算力集群:華為昇騰910B及后續(xù)型號在部分場景規(guī)模化落地;沐曦、壁仞、天數(shù)智芯等積極推動產品進入生產環(huán)境;百度昆侖、阿里平頭哥自研芯片也在內部大規(guī)模應用。


但挑戰(zhàn)同樣突出:


第一是性能差距。國產GPU單卡算力快速追趕,但集群效率、互聯(lián)帶寬、軟件棧成熟度仍落后英偉達。3000卡的國產集群,有效算力可能僅為同規(guī)模英偉達集群的60%-70%,完成相同訓練任務需更多卡、更長周期、更復雜并行優(yōu)化,最終轉化為成本。


第二是軟件生態(tài)的“隱形門檻”。CUDA經(jīng)十幾年積累形成龐大開發(fā)者生態(tài),算法工程師從校園開始學習CUDA,開源模型默認適配CUDA,算子庫、調優(yōu)工具、分布式框架均以CUDA為基準。國產GPU廠商雖推出自有軟件棧(華為CANN、沐曦MXMACA、壁仞B(yǎng)IRENSUPA),但生態(tài)建設需時間與投入,還需用戶“多走一步”。


第三是供應鏈“天花板”。國產GPU制造依賴國內先進制程產線,而國內產線在產能、良率、成熟度上與臺積電有差距;HBM方面,國內尚無HBM2E以上產品量產能力,短期仍依賴韓國供應商。即便設計能力提升,供應鏈自主可控程度仍有限。


回到沐曦的成本拆解圖,還有一個隱藏信息:成本優(yōu)化空間不僅在GPU本身。供電散熱占110億(20%),若壓縮30%可節(jié)省33億美元,遠超電費總額。液冷是當前最確定的優(yōu)化路徑。


傳統(tǒng)風冷數(shù)據(jù)中心PUE(電源使用效率)為1.4-1.5,液冷可降至1.1以下,不僅降低電費,還能大幅縮減供配電與散熱系統(tǒng)的初始投資。隨著GPU功耗突破1000瓦,風冷接近物理極限,液冷正從“可選”變“必選”。2025年下半年,國內運營商與云廠商新建智算中心的液冷滲透率明顯提升,有望將供電散熱占比從20%降至15%甚至更低。


網(wǎng)絡占50億(9%),超大規(guī)模集群中網(wǎng)絡成本隨GPU數(shù)量超線性增長——GPU需高速互聯(lián),傳統(tǒng)以太網(wǎng)在“大象流”“多打一”場景效率低。英偉達NVLink與InfiniBand的壁壘,很大程度源于集群互聯(lián)優(yōu)勢。但2025年,基于以太網(wǎng)的超大規(guī)模互聯(lián)方案逐漸成熟,Ultra Ethernet Consortium(UEC)的推進為降低網(wǎng)絡成本帶來希望,若路徑走通,網(wǎng)絡占比有望進一步壓縮。


存儲占40億(7%),AI訓練要求海量小文件讀寫與高帶寬吞吐,傳統(tǒng)分布式文件系統(tǒng)效率低。2025年以來,國內存儲廠商在AI原生存儲上的探索值得關注——通過軟硬協(xié)同優(yōu)化,可在同等性能下降低存儲節(jié)點配置需求,壓縮成本。


這些系統(tǒng)級優(yōu)化有一個共同邏輯:需對GPU集群有深入理解與掌控能力,并非簡單堆砌GPU,而是從芯片到系統(tǒng)、硬件到軟件的垂直整合。


這也是英偉達、谷歌、亞馬遜向“云-芯-端”一體化發(fā)展的原因:谷歌TPU為自家TensorFlow框架設計,亞馬遜Trainium和Inferentia深度綁定AWS服務,微軟雖大量采購英偉達GPU,仍自研芯片并與英偉達在系統(tǒng)層面深度合作。


國內情況類似:華為昇騰的優(yōu)勢之一是同時擁有芯片設計與通信技術積累,能在芯片互聯(lián)與集群組網(wǎng)層面深度優(yōu)化;阿里平頭哥、百度昆侖與各自云業(yè)務深度協(xié)同,也是同樣邏輯。


04 沒有捷徑可走


那張成本拆解圖的價值,不僅在于拆解成本結構,更在于打破思維慣性。


“靠電價優(yōu)勢實現(xiàn)AI算力賽道突破”的說法有市場,是因為符合“資源換優(yōu)勢”的舊邏輯——過去部分產業(yè)靠資源稟賦實現(xiàn)追趕。但AI算力本質是技術密集、資本密集、系統(tǒng)密集型產業(yè),資源稟賦的權重被大幅稀釋。


真正的競爭優(yōu)勢來自:GPU核心技術突破能力、先進封裝與HBM等關鍵環(huán)節(jié)的供應鏈掌控力、軟件生態(tài)的長期積累、系統(tǒng)級架構創(chuàng)新能力,以及商業(yè)模式與運營效率的持續(xù)進化。


這些都非易事,也無法靠“低價”獲得。


過去兩三年,國內智算中心建設迅速,但不少項目延續(xù)傳統(tǒng)IDC模式——以園區(qū)建設、硬件部署、算力租賃為核心。然而AI算力與傳統(tǒng)IDC商業(yè)邏輯差異明顯:GPU硬件迭代快、折舊周期短,項目收益高度依賴算力利用率。若僅將GPU作為標準化租賃資源,缺乏底層算法優(yōu)化、集群調度與運營能力,高昂硬件投入可能難以轉化為持續(xù)穩(wěn)定收益,還會帶來較大資產壓力。


好在產業(yè)界正回歸理性。2025年下半年起,互聯(lián)網(wǎng)大廠與運營商在算力投資上更務實——不再單純“堆卡”,而是關注實際有效算力、單位算力成本及軟硬協(xié)同的優(yōu)化空間。


沒有捷徑可走。這句話雖老套,但在AI算力賽道上,仍是殘酷且真實的底層邏輯。


本文來自微信公眾號 “半導體產業(yè)縱橫”(ID:ICViews),作者:方圓,36氪經(jīng)授權發(fā)布。


本文僅代表作者觀點,版權歸原創(chuàng)者所有,如需轉載請在文中注明來源及作者名字。

免責聲明:本文系轉載編輯文章,僅作分享之用。如分享內容、圖片侵犯到您的版權或非授權發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com