群狼環(huán)伺!黃仁勛剛解中國市場困局,最大對手已悄然逼近
黃仁勛終于盼來了期待已久的轉(zhuǎn)機(jī)。
本周美國政府正式批準(zhǔn)英偉達(dá)向中國及其他“經(jīng)批準(zhǔn)客戶”出口高端H200 GPU芯片,但需向美方繳納25%的銷售提成。這一比例同樣適用于AMD、英特爾等美國芯片巨頭。不過,英偉達(dá)最新的Blackwell系列及未來的Rubin系列GPU仍被禁止出口。
這標(biāo)志著黃仁勛數(shù)月游說的成功。過去半年,他頻繁往返佛羅里達(dá)與華盛頓,隨特朗普總統(tǒng)一道出訪、出席國宴,還為白宮宴會廳工程捐款,只為這一刻。上周,他再赴白宮會晤總統(tǒng),終于解鎖了禁運(yùn)限制。
利好消息一出,英偉達(dá)盤后股價(jià)應(yīng)聲上漲。受美國多輪芯片禁運(yùn)影響,過去兩年英偉達(dá)逐步失去高速增長的中國市場,AI GPU市場份額從95%驟降。核心數(shù)據(jù)中心業(yè)務(wù)中,中國市場營收占比也從四分之一大幅下滑。
兩個月前,黃仁勛曾公開訴苦:“我們已失去全球最大市場之一,在中國完全出局,份額歸零?!奔幢阋U納四分之一提成,對英偉達(dá)業(yè)績?nèi)砸饬x重大——中商產(chǎn)業(yè)研究院數(shù)據(jù)顯示,中國AI GPU市場今年規(guī)模預(yù)計(jì)達(dá)200億-300億美元。
然而,就在黃仁勛努力重啟中國市場時,后方已現(xiàn)危機(jī):谷歌、亞馬遜、微軟三大超大規(guī)模云服務(wù)商(Hyperscalers)正加速普及自研芯片,這些曾是英偉達(dá)最大的AI芯片客戶。
英偉達(dá)無疑是生成式AI時代的領(lǐng)軍者,憑借性能優(yōu)勢與CUDA平臺,在萬億級AI芯片賽道占據(jù)超八成市場份額,市值一度突破5萬億美元。
但英偉達(dá)數(shù)據(jù)中心業(yè)務(wù)暗藏隱患:客戶集中度極高,過度依賴幾大AI巨頭。前兩大客戶貢獻(xiàn)39%營收,前三客戶占比更是高達(dá)53%。
據(jù)媒體推測,英偉達(dá)前五大客戶為微軟、谷歌、亞馬遜、Meta和甲骨文。如今前三巨頭正加速轉(zhuǎn)用自研芯片,還拉攏第四大客戶Meta。這些自研芯片不僅會減少英偉達(dá)訂單,更可能在公開市場形成威脅。

AWS的低成本推理利器
上周拉斯維加斯re:Invent開發(fā)者大會上,云計(jì)算領(lǐng)頭羊亞馬遜AWS連發(fā)多款重磅產(chǎn)品,顯露在AI熱潮中主導(dǎo)市場的雄心。
最受矚目的是亞馬遜第三代自研AI芯片Trainium 3,被媒體稱為“對英偉達(dá)的直接宣戰(zhàn)”。自2022年起,這是亞馬遜第三代AI芯片,主打低成本與推理優(yōu)勢。
AWS CEO馬特·加曼宣布,Trainium 3訓(xùn)練速度較前代快4倍,成本減半,適配亞馬遜Nova 2模型家族,支持百萬芯片級集群。與英偉達(dá)同類GPU系統(tǒng)相比,訓(xùn)練費(fèi)用可省50%?,F(xiàn)場演示顯示,Trainium 3在Llama 3.1訓(xùn)練中,24小時完成的任務(wù)量相當(dāng)于H100集群一周的工作量。
低成本是核心賣點(diǎn),AWS將其定位為英偉達(dá)GPU的平價(jià)替代。官方表示,采用Neuron軟件棧和Trainium實(shí)例的客戶,大型模型訓(xùn)練及推理成本可比同類GPU集群降低約50%。
亞馬遜此次發(fā)布傳遞明確信號:要用自研芯片、自研模型、私有化部署及智能體全家桶,掌控從訓(xùn)練到推理、云端到本地、通用到定制模型的全AI賽道。云計(jì)算巨頭AWS押注自研,將深刻影響AI基礎(chǔ)設(shè)施市場走向。
目前AWS在云計(jì)算市場保持領(lǐng)先,為各類客戶提供云端AI算力,支持自由選擇大模型。Synergy Research數(shù)據(jù)顯示,AWS市場份額超三成,微軟、谷歌以20%和16%位居二、三位。
Anthropic、OpenAI、Meta等AI巨頭與創(chuàng)業(yè)公司廣泛使用AWS服務(wù)。上月OpenAI與AWS簽署七年協(xié)議,采購380億美元AI基礎(chǔ)設(shè)施。AWS還透露,Anthropic等初創(chuàng)公司已轉(zhuǎn)用Trainium,預(yù)算節(jié)省超三成。
谷歌拉攏Meta,搶占客戶
谷歌是行業(yè)自研芯片先驅(qū),2016年發(fā)布第一代TPU,成為挑戰(zhàn)英偉達(dá)的標(biāo)桿。上月Cloud Next大會上,谷歌發(fā)布第七代TPU v7 Ironwood,進(jìn)一步向英偉達(dá)施壓。

Ironwood核心優(yōu)勢是性能躍升:單芯片F(xiàn)P8計(jì)算能力達(dá)4.6 PFLOPS(每秒千萬億次浮點(diǎn)運(yùn)算),較第五代提升10倍,是第六代的4倍。
谷歌強(qiáng)調(diào),Ironwood專為“高吞吐、低延遲”推理優(yōu)化,適配Gemini 3等多模態(tài)模型。與英偉達(dá)Blackwell相比,能效領(lǐng)先20%,功耗僅300W/芯片,這得益于 systolic array架構(gòu)與自定義互連技術(shù),可專攻矩陣乘法等AI核心運(yùn)算。
谷歌TPU已形成全棧布局:從v1純訓(xùn)練芯片到v7原生支持FP8,覆蓋邊緣設(shè)備(Edge TPU)至超大規(guī)模Pod。戰(zhàn)略上,TPU不僅是硬件,更是云生態(tài)的“殺手锏”。
對英偉達(dá)而言,谷歌的威脅日益明顯。2025年谷歌AI芯片市場份額預(yù)計(jì)達(dá)8%,尤其在占AI算力80%的推理領(lǐng)域。SemiAnalysis分析稱,Ironwood“大幅縮小了與英偉達(dá)旗艦產(chǎn)品的浮點(diǎn)性能差距”。
谷歌聲稱,TPU可降低40%訓(xùn)練成本,吸引Meta等第三方客戶。據(jù)報(bào)道,Meta計(jì)劃2027年部署谷歌TPU,繞過英偉達(dá)芯片。谷歌Ironwood服務(wù)器由富士康代工,而Meta正是英偉達(dá)第四大客戶,這對英偉達(dá)是雙重打擊。
黃仁勛雖以樂觀態(tài)度應(yīng)對,強(qiáng)調(diào)英偉達(dá)多平臺兼容與供應(yīng)鏈優(yōu)勢,認(rèn)為巨頭自研難撼其“生態(tài)與軟件棧護(hù)城河”,但也承認(rèn)競爭會引發(fā)投資者擔(dān)憂。
微軟自研芯片遇挫,量產(chǎn)推遲
相比亞馬遜、谷歌的穩(wěn)步推進(jìn),微軟自研芯片之路暫遇挫折。2024年推出的首代Maia 100專為Azure AI優(yōu)化,今年開始大規(guī)模部署,但原計(jì)劃今年發(fā)布的Maia 200(代號Braga)量產(chǎn)已推遲至2026年。
今年10月,微軟宣布Maia 100已部署于Azure數(shù)據(jù)中心,支持OpenAI模型訓(xùn)練。該芯片由微軟與博通合作開發(fā),成本預(yù)計(jì)比英偉達(dá)H100低40%。未來三代(Braga、Braga-R、Cobalt)計(jì)劃覆蓋訓(xùn)練、推理與邊緣場景。

Maia芯片最大優(yōu)勢是與Azure原生集成——搭載DirectML框架,吸引企業(yè)客戶私有化部署。Maia系列聚焦多模態(tài)AI,如強(qiáng)化微軟Copilot的語音與視覺處理,單芯片BF16性能達(dá)2 PFLOPS。
微軟CTO凱文·斯科特表示,公司未來將“主要使用自研芯片”,目標(biāo)減少對英偉達(dá)的嚴(yán)重依賴。但Maia量產(chǎn)推遲給這一目標(biāo)蒙上陰影。報(bào)道稱,Maia 200延誤源于設(shè)計(jì)變更、仿真不穩(wěn)定等技術(shù)與內(nèi)部因素。
此外,臺積電產(chǎn)能瓶頸也是現(xiàn)實(shí)問題。臺積電先進(jìn)制程(如N3/N2/高級封裝)全球搶手,英偉達(dá)、蘋果、AMD等巨頭爭相預(yù)訂,產(chǎn)線排期緊張。
臺積電通常按訂單時間、技術(shù)節(jié)點(diǎn)、客戶戰(zhàn)略價(jià)值排產(chǎn)。微軟既非臺積電大客戶,芯片設(shè)計(jì)也未完善,只能排在非優(yōu)先級。雖減少對英偉達(dá)依賴是戰(zhàn)略必需,但芯片從設(shè)計(jì)到量產(chǎn)需長期供應(yīng)鏈競爭。
因在臺積電搶不到產(chǎn)能,微軟轉(zhuǎn)向英特爾18A節(jié)點(diǎn),計(jì)劃明年量產(chǎn)。延誤帶來高額額外開支:若Maia二代無法及時部署,微軟明年或需再投100億美元采購英偉達(dá)芯片。
性能與成本的終極較量
盡管英偉達(dá)仍主導(dǎo)AI芯片市場,但三大巨頭的自研浪潮正引發(fā)變局。2025年谷歌、亞馬遜、微軟相繼發(fā)布最新自研芯片,預(yù)示2026年將迎來“性能vs成本”的巔峰對決。
性能仍是英偉達(dá)核心優(yōu)勢,三大巨頭自研芯片多強(qiáng)調(diào)成本優(yōu)勢。今年英偉達(dá)Blackwell架構(gòu)B200 GPU單芯片F(xiàn)P8計(jì)算能力達(dá)20 PFLOPS,較前代H100提升4倍。
推理任務(wù)中,Blackwell能效比谷歌TPU高30%,得益于先進(jìn)NVLink互聯(lián)技術(shù)與Transformer引擎優(yōu)化。黃仁勛在GTC 2025大會上自信宣稱:“我們的GPU領(lǐng)先競爭對手整整一代。”
這種領(lǐng)先不僅體現(xiàn)在峰值性能,還包括軟件棧深度整合:CUDA平臺支持4000多個AI框架與庫,開發(fā)者生態(tài)“開箱即用”,這才是英偉達(dá)真正的護(hù)城河。相比之下,巨頭自研芯片常需額外適配,增加開發(fā)者遷移成本。
但成本是巨頭自研的最大賣點(diǎn)。亞馬遜Trainium3宣稱訓(xùn)練成本降至前代50%,谷歌Ironwood TPU推理能效比英偉達(dá)H100高20-30%。2026年,這一差距將進(jìn)一步擴(kuò)大。
此外,巨頭正通過“漸進(jìn)式”策略蠶食CUDA優(yōu)勢:谷歌JAX與PyTorch/XLA集成覆蓋70% AI工作負(fù)載;AWS Neuron SDK支持Llama、Stable Diffusion等開源模型;微軟DirectML無縫嵌入Visual Studio,吸引企業(yè)開發(fā)者。
亞馬遜AWS計(jì)劃在Trainium4集成NVLink兼容技術(shù),實(shí)現(xiàn)與英偉達(dá)GPU無縫混合部署,預(yù)計(jì)訓(xùn)練費(fèi)用再降40%。2027年商用的谷歌TPU v8將引入光子互聯(lián)與更先進(jìn)的systolic array架構(gòu),針對Gemini 4等多模態(tài)模型推理優(yōu)化,成本優(yōu)勢或超50%。
四分之一市場份額將被瓜分?
亞馬遜目標(biāo)明年自研芯片占比達(dá)50%,推動AWS AI云市場份額從31%升至35%。作為Anthropic最大投資者與云服務(wù)商,Anthropic大模型訓(xùn)練主要依賴AWS Trainium芯片。
谷歌TPU市場份額已悄然升至8%。今年起谷歌向外部客戶銷售原自用TPU,目前外部銷售占比達(dá)20%。2027年Meta轉(zhuǎn)用TPU后,英偉達(dá)將切實(shí)感受到谷歌的競爭壓力。
今年10月,Anthropic與谷歌簽署數(shù)百億美元協(xié)議,計(jì)劃使用100萬片TPU,其中40萬片為Ironwood,其余通過谷歌云租賃。如今AI大模型公司正推動芯片多元化,不再單一依賴英偉達(dá)GPU。
英偉達(dá)傳記作者史蒂芬·維特指出:“英偉達(dá)最大風(fēng)險(xiǎn)顯然是谷歌,若谷歌證明自研芯片可支撐領(lǐng)先AI開發(fā),將為其他巨頭樹立榜樣?!?/p>
即便加速自研,巨頭未來幾年仍會采購英偉達(dá)芯片。一個細(xì)節(jié)值得關(guān)注:谷歌、亞馬遜發(fā)布自研芯片前,都會提前通知英偉達(dá),希望維持良好關(guān)系以保證芯片供應(yīng)。

AMD CEO蘇姿豐對谷歌TPU評價(jià)頗高:“多年來谷歌在TPU架構(gòu)上表現(xiàn)出色,但TPU偏向特定用途,缺乏GPU的可編程性、模型靈活性及訓(xùn)練推理平衡能力。GPU結(jié)合高度并行架構(gòu)與可編程性,能實(shí)現(xiàn)快速創(chuàng)新。”
她認(rèn)為:“各類加速器都有生存空間,但未來五年GPU仍將占市場大部分份額——行業(yè)尚處早期,開發(fā)者需靈活實(shí)驗(yàn)新算法。因此ASIC類加速器(三大巨頭自研芯片均屬此類)占據(jù)20%-25%市場份額是合理的?!?/p>
也就是說,蘇姿豐預(yù)計(jì)三大巨頭自研芯片未來或奪走四分之一市場份額。同時,AMD計(jì)劃3-5年內(nèi)搶占兩位數(shù)份額,而英偉達(dá)在中國市場還需面對華為、寒武紀(jì)等本土對手。
本文來自微信公眾號“新浪科技”,作者:努力碼稿的小浪,36氪經(jīng)授權(quán)發(fā)布。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請?jiān)谖闹凶⒚鱽碓醇白髡呙帧?/p>
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com




