• |
  • 極速報價
  • |
  • etnet專輯
    etnet專輯
  • 會員
  • 產品服務 / 串流版
  • 設定

03/10/2025

NVIDIA霸權終結?4大雲端巨頭發動「去GPU化」革命!黃仁勳如何守住AI龍頭寶座?

  • 加入最愛專欄
  • 收藏文章
  • 方展策

    方展策

    少年時,曾研習 Geographic Information System,可惜學無所成,僥倖畢業。成年後,誤打誤撞進入傳媒圈子,先後在印刷、電子、網絡媒體打滾,略有小成。中年後,修畢資訊科技碩士,眼界漸擴,決意投身初創企業,窺探不同科技領域。近年,積極鑽研數據分析與數碼策略,又涉足 Location Intelligence 開發項目;有時還會抽空執教鞭,既可向他人分享所學,亦可鞭策自己保持終身學習。

    智城物語

  在生成式AI浪潮持續發酵下,輝達(NVIDIA)將不再是AI舞台上的唯一主角。Google、Meta、亞馬遜、微軟四大雲端巨頭,正加速製造自研ASIC晶片,意圖擺脫對NVIDIA GPU的依賴。這場「去GPU化」革命,不僅讓ASIC設計公司的角色愈顯重要,更揭示一門價值數百億美元的新興產業正在醞釀中。面對來勢洶洶的ASIC陣營,輝達執行長黃仁勳究竟有何良策?AI晶片產業版圖又會有甚麼翻天覆地的改變?

 

Read More

輝達AI帝國動搖?OpenAI百億投單博通,押注ASIC晶片,能否威脅NVIDIA GPU霸業?

黃仁勳雙重豪賭:千億押注OpenAI、50億金援Intel!解讀NVIDIA巨額投資背後的深遠布局!

稱霸AI晶片!NVIDIA吃掉9成AI利潤,科技巨頭尋找替代方案!未來競爭格局將面臨巨變?

 

ASIC市場規模達300億美元

 

  「ASIC」意指「特殊應用積體電路」(Application Specific Integrated Circuit),有別於通用型晶片如CPU(中央處理器)和GPU(圖形處理器),ASIC是專為應付特定任務而設計的客製化晶片。

 

  追溯ASIC的發展脈絡,最早始於1970年代,到了1980至1990年代曾風光一時,但因設計門檻高、成本昂貴,後來被更具彈性的通用型晶片取而代之。隨著近年生成式AI爆紅,全球對AI晶片的需求急增,ASIC開始再受重視。摩根大通評估,2025年全球適用於AI運算的ASIC市場規模,將成長至300億美元(約2,340億港元),更預測未來每年平均增長率將逾30%。

 

  雖然GPU在AI運算上具有強大效能,但面對日益多樣化與專業化的AI應用,ASIC能針對特定任務量身訂做的優勢開始顯露出來。例如在AI模型的推論過程中,ASIC可以展現出更高的運算效率與更佳的能耗表現;加上大規模部署後可分攤開發成本,使其總體擁有成本有機會低於NVIDIA GPU。

 

Google自研ASIC進度領先

 

  NVIDIA GPU擅長平行運算,優於AI模型訓練和推論,而其專屬AI開發工具平台《CUDA》,現已成為AI開發上不可或缺的底層軟件,讓AI工程師離不開「GPU + CUDA」的黃金組合。因此,無論是科技巨頭或初創公司,若要開發AI模型,均首選NVIDIA GPU,以致在供貨和議價方面長期居於下風。

 

  為減少對NVIDIA GPU依賴和壓低採購成本,Google、Meta、亞馬遜(Amazon)、以及微軟(Microsoft),已先後研發自家ASIC晶片,掀起一場「去GPU化」革命。在ASIC賽道上,Google以先行者的姿態暫時領先。

 

  Google早於2015年已秘密研發可供AI使用的ASIC晶片,名稱為「TPU」(Tensor Processing Unit);2016年,首次在公開場合介紹TPU的存在。來到2025年,Gemini模型75%運算工作已由TPU執行,在四大雲端巨頭中對NVIDIA GPU的依賴最少。2026年下半年,由博通(Broadcom)與聯發科攜手設計的第七代TPU v7將大量投入使用,可望進一步降低對輝達的依賴。

 

  

 Google第七代TPU的代號為「Ironwood」,是旗下首款專為AI推論而設計的自研晶片,將於2026年下半年量產。(圖片來源:Google Cloud官方網誌)

 

Meta、微軟研發進程稍為落後

 

  Amazon自研AI晶片「Trainium」現已發展至第二代,根據摩根士丹利的研究,Trainium在執行AI推論時,成本比NVIDIA H100 GPU低上30%至40%。可是,其AI雲端平台75%運算力都來自NVIDIA GPU,對輝達依賴程度依然偏高。第三代Trainium3由世芯電子與邁威爾(Marvell)合作設計,其效能將是前代的兩倍,耗電量亦減少50%,預計於2026年量產。

 

Amazon旗下超級電腦「Rainier」是由數十萬顆Trainium晶片組成的超大型AI運算平台,可用於支援Anthropic Claude大型語言模型訓練。(圖片來源:Amazon官網)

 

  相較之下,Meta與微軟較晚加入自研晶片行列,所以進度稍為落後。Meta的ASIC晶片「MTIA」只佔自家平台運算力約15%,對NVIDIA GPU存有高度依賴。第二代MTIA v2由博通設計,運算速度較前代提升3倍,能支援更高運算密度,預計2025年下半年量產。

 

  微軟對NVIDIA GPU的依賴程度最高,運算力佔比高達90%,自研晶片「Maia」僅佔10%。微軟技術長凱文·斯科特(Kevin Scott)表示,長遠目標是希望旗下數據中心以自研晶片為運算主力,務求擺脫對輝達的依賴。第二代Maia 200由博通設計,針對微軟新一代數據中心架構進行優化,原計劃在2025年投產,惟傳出將延後至2026年。

 

  

微軟技術長斯科特表示,雖然NVIDIA GPU是性價比最高的解決方案,但為確保未來有足夠運算力可供使用,未來微軟數據中心將使用自研晶片為主。(圖片來源:維基百科)

 

開放NVLink拉攏ASIC設計商

 

  日本野村證券預估,2025年Google TPU出貨量將達到150萬至200萬顆,亞馬遜ASIC出貨量則為140萬至150萬顆,兩者合計已相當於NVIDIA GPU每年供應量的一半。及至2026年,Meta與微軟的自研晶片陸續供貨,AI ASIC總出貨量有望超越NVIDIA GPU。

 

  面對「去GPU化」危機,黃仁勳的應對方法是推出「NVLink Fusion」策略,藉此向業界開放其獨門NVLink互連技術協定,容許第三方CPU或ASIC能夠輕易連接NVIDIA GPU,讓其他業者可以利用NVLink,創建半客製化的AI基礎架構。高通(Qualcomm)、邁威爾、聯發科、世芯電子、以及富士通(Fujitsu)等主要ASIC設計商,都已成為合作夥伴。

 

  此舉被視為拉攏ASIC設計商加入NVIDIA GPU陣營,以防止四大雲端巨頭完全撤出輝達AI運算平台。須知道Google、Meta、亞馬遜、微軟的強項是軟件開發,如要實現自研晶片,非要有ASIC設計商的協助不可;當大部分設計公司積極擁抱NVLink Fusion,其客戶(雲端巨頭)也會留在輝達生態系統之內。

 

投資OpenAI掌控AI基建發展

 

  事實上,輝達以最強運算力的GPU硬件,配搭最成熟的開發軟件《CUDA》,得以凝聚全球最龐大的AI開發者社群;這個由黃仁勳精心打造逾15年的生態系統,絕非ASIC陣營可以在短期內攻克。因此,NVIDIA GPU在AI領域始終有無可替代的角色,在NVLink對外開放後,將會深化GPU與ASIC之間的互補關係,預計未來在AI伺服器部署上將出現雙軌並行的情況。

 

  更重要的一著棋是,NVIDIA向OpenAI投資1,000億美元(約7,800億港元),等於繞過微軟,直接跟後者結盟,成為其核心策略夥伴,足以左右其AI基建發展路徑——OpenAI已承諾興建規模達10GW的GPU數據中心。如此一來,即使雲端巨頭加速自研晶片,輝達依然能穩居AI生態鏈的關鍵位置。

 

   

黃仁勳強調,AI市場競爭的關鍵不是「哪顆晶片比較便宜」,而是「哪家AI工廠比較賺錢」。NVIDIA正在做的是設計和建造「AI工廠」,內裡包含GPU、CPU、NVLink、以及《CUDA》。(圖片來源:NVIDIA官網)

 

  然而,輝達的市場份額卻難免受到影響。市調機構TrendForce評估,在基於GPU的AI伺服器市場,NVIDIA現握有逾90%市佔率;隨著AI ASIC出貨量不斷增加,未來輝達市佔率可能下滑到70%至80%,ASIC佔比則有機會攀升到20%或以上。表面看來,NVIDIA似乎流失了市場份額,其實這只是大家一起把AI市場的餅做大了,再重新分配佔比;實際上,輝達的獲利和主導地位不見得受損,依然可以穩坐在AI龍頭寶座之上。

 

 

 《經濟通》所刊的署名及/或不署名文章,相關內容屬作者個人意見,並不代表《經濟通》立場,《經濟通》所扮演的角色是提供一個自由言論平台。

【你點睇?】美國聯邦政府再停擺或令關鍵經濟數據無法按時發布,你認為會否對股市造成負面影響?► 立即了解

我要回應

你可能感興趣

版主留言

放大顯示
精選影片
最緊要健康
精選文章
  • 生活
  • DIVA
  • 健康好人生
專業版
HV2
精裝版
SV2
串流版
IQ 登入
強化版
TQ
強化版
MQ