AI算力爭奪戰:雲端巨頭自研晶片,Google可能成台積電第二大客戶

AI算力爭奪戰:雲端巨頭自研晶片,Google可能成台積電第二大客戶

文章目錄

HBM4供應瓶頸為何影響AI晶片

在AI運算架構中,HBM(High Bandwidth Memory)幾乎可以說是GPU的最佳搭檔。

原因很簡單:AI模型需要大量資料吞吐量,而HBM提供的頻寬遠高於傳統記憶體。

記憶體類型主要用途頻寬
DDR一般伺服器
GDDR顯示卡
HBMAI GPU極高

但HBM製造難度非常高,不僅需要先進製程,也需要先進封裝技術。

因此一旦供應鏈出現任何變動,就會影響整個AI晶片市場。

Rubin GPU與Blackwell平台差異

市場原本預期,Rubin GPU將在2026年逐步取代Blackwell平台。

GPU平台推出時間主要特色
Blackwell2024AI運算能力大幅提升
Rubin預計2026新一代AI架構

然而HBM4供應限制,使Rubin量產節奏可能延後。

AI GPU供應鏈結構

AI GPU其實是一個高度複雜的供應鏈整合產品。

供應鏈環節代表廠商
GPU設計NVIDIA
晶圓代工TSMC
HBM記憶體SK海力士、三星
封裝CoWoS先進封裝

雲端巨頭ASIC晶片崛起

在AI GPU高度集中於NVIDIA的情況下,雲端服務商開始尋找替代方案。

這些公司希望透過自研晶片降低成本,同時提高算力控制權。

TPU與MTIA競爭

公司AI晶片用途
GoogleTPUAI訓練
MetaMTIA推薦系統
AWSTrainium雲端AI
MicrosoftMaiaAI運算

台積電先進製程產能競局

AI晶片需求暴增,使的先進製程產能變得更加搶手。

製程量產時間
3奈米2024
2奈米2025

CoWoS先進封裝的重要性

AI晶片的另一個關鍵技術,就是先進封裝。

其中CoWoS技術能讓GPU與HBM記憶體高速連接,是AI伺服器的核心。

AI晶片產業未來趨勢

  • HBM需求持續增加
  • ASIC晶片加速發展
  • 先進封裝需求大幅成長
  • 2奈米製程成為下一個競爭焦點

結論

AI算力競賽仍然在加速,但供應鏈瓶頸開始逐漸浮現。

HBM4供應限制、先進製程產能競爭,以及雲端巨頭ASIC晶片崛起,都將重新塑造半導體產業格局。

未來幾年,誰能掌握製程、封裝與記憶體資源,誰就更有機會在AI晶片競賽中取得優勢。