Google TPU 7 與 EMIB:雲端推論、先進封裝與自研 ASIC 的新分野

2025.12/04

|

產業趨勢探勘

Google TPU 7 與 EMIB:雲端推論、先進封裝與自研 ASIC 的新分野

TPU 7確認採用 TSMC CoWoS,未來 TPU GAI 系列也不可能轉向 EMIB

  1. Google 近期於官方公告中正式揭露了TPU 7(Ironwood TPU)的完整規格,提供 4,614 TFLOPS 的計算性能、192GB 記憶體容量與7.2TB/s 的記憶體頻寬,並可擴展至高達 9,216 顆晶片的叢集架構。
  2. TPU 7 已確認持續採用 TSMC的CoWoS 大型矽中介層封裝,而非 Intel EMIB。這一點並不令人意外,因為 TPU 7的架構本質仍屬於超大型AI加速器,必須面對 NVIDIA H100/B100 與 AMD MI300 等旗艦級產品的直接競爭。
  3. 由於Google Gemini、搜尋、YouTube、Ads 等核心服務全面導入生成式 AI,TPU 7 將在雲端訓練與高階推論中持續擔任主力角色,因此產品具備充分放量的基礎動能。
  4. TPU 7 之所以只能採用 CoWoS,關鍵在於其硬體需求遠超過 EMIB 所能承載。TPU 7 使用多顆 HBM、超大型 die、複雜的 chip-to-HBM routing、及TB/s級頻寬配合高熱密度組態,這些條件皆必須依賴大型2.5D矽中介層,完全不符合 EMIB 以「局部矽橋」為主的設計邏輯。
  5. 隨著 Gemini Ultra、Gemini 2 以及長序列推論(100K–1M tokens)與多模態影片模型規模持續上升,未來的 TPU GAI 系列需要更多 HBM 堆疊與更高頻寬,因此也將延續 CoWoS / SoIC / Hybrid Bonding 系列封裝,而不可能改採 EMIB。
  6. 全球 GPU 供應吃緊,Google 在內部AI服務端勢必需要降低對 GPU 的依賴,使 TPU 7 更具大規模部署的必然性。TPU 7其封裝架構已確立仍屬 CoWoS 陣營,且未來 GAI TPU 也不會偏離此方向。

 

Google 晶片產品線中,分工應用較可能採用 Intel EMIB

  1. 儘管TPU依舊維持在 CoWoS 架構,但 Google 自研晶片產品線正在快速擴張,並逐漸形成「大型訓練採CoWoS 、中型推論和基礎設施 ASIC可採用 EMIB」的分工走向。
  2. 從封裝需求、成本結構與出貨量級來看,最有可能採用 EMIB 的族群,是 Google 未來規劃的「地端推論 Server 用晶片」。
  3. 此類 ASIC 主要支援 7B–70B 模型推論、RAG、embedding、向量搜尋、與企業私有雲邊部署,並同時涵蓋 Google 內部 Search、Ads、YouTube 的推論需求。
  4. 由於此類晶片只需中等頻寬(1–2 堆 HBM 或 LPDDR + 大 SRAM),不需 7TB/s 等級的大型 HBM 平台,加上成本壓力較大、出貨量可觀,因此 chiplet 化之後以 EMIB 互連是合理選擇,可視為 Google 在 TPU 之外最真實、最接近落地的 EMIB 標的。
  5. 除了地端推論晶片之外,Google日後若推出自研資料中心 CPU(類似 AWS Graviton)並搭配 AI NPU 形成 chiplet 式伺服器 SoC,也極可能採用 EMIB。
  6. 此類設計通常含 CPU tile、NPU tile、I/O/SerDes tile,有時搭配少量 HBM,因此需要高頻寬、低延遲且成本優於 CoWoS 的 chiplet 互連方式。
  7. Google Cloud 在網路與資料平面(Data Plane)上的自研 ASIC,如負載均衡、加解密、Zero Trust 安全加速器、SmartNIC/DPU 與分散式儲存控制 ASIC,也以高 I/O、多 SerDes 與中高頻寬 compute tile 為特性,而不需使用 2.5D HBM 封裝,使 EMIB 成為自然選擇。
  8. Google 內部大量用於 Search、Ads、YouTube 推薦系統的推論加速 ASIC,由於大規模部署、成本敏感且不需巨型 interposer,也非常適合採用 EMIB。
  9. 若將 Google 各類晶片依 EMIB 適配度排序:大型 TPU 訓練晶片(v5/v6/v7/GAI)幾乎不可能使用 EMIB;TPU 推論版(v4i 後繼)則有中度可能性;真正高機率採用 EMIB 的,則是地端推論 ASIC、伺服器 CPU+AI SoC 與 DPU/SmartNIC 等基礎設施晶片。整體判斷,未來會導入 EMIB 的主力並非 TPU本身,而是 Google 內部更廣、更大量的自研 ASIC 族群。

 

Intel EMIB 的延伸戰場,自研 ASIC 可成為關鍵機會

  1. 事實上,Intel EMIB 的戰略定位並非取代 CoWoS,而是補位於「中高頻寬 × chiplet 架構 × 大量部署 × 成本敏感」的龐大市場空白區域。
  2. 從全球 CSP(雲端服務業者)的晶片趨勢來看,接下來五年 EMIB 的實際成長戰場將集中在三大類 ASIC。第一類是各家 CSP 的中大型推論 ASIC,包括 AWS Inferentia 後繼產品、Microsoft Athena 推論版與 Meta MTIA v3/v4 等。這些推論 ASIC的需求量遠比訓練晶片高,頻寬需求居中且具極高部署密度,是 EMIB 的典型切入點。第二類是 CXL 記憶體池化與超大規模 SSD 控制 ASIC,此類控制器需要高速 chiplet 互連,但總頻寬需求不至於達到 TB/s HBM 等級,因此本身就適合 EMIB。第三類是雲邊推論(Edge-to-Cloud Hybrid)的中型 AI 加速器,例如搭配 64GB DRAM、多 tile compute,以及中等規模 NLP/語音/影像推論的 ASIC,這些產品需要高密度互連但不需 CoWoS,也非常適合 EMIB。
  3. Intel IFS 也有機會在此趨勢中迎來五年級距的雲端自研 ASIC 成長紅利。在台灣供應鏈方面,ABF載板、OSAT高階封測、SerDes與伺服器ODM等領域均可因 EMIB 的擴張獲益,尤其推論 Server 有望成為 GPU 伺服器之外的第二條成長主軸。
  4. TPU 7已確認採 CoWoS,未來 TPU GAI 系列也不會改用 EMIB,而真正屬於 EMIB 的戰場,是 Google 可能推出的地端推論 Server ASIC、伺服器 SoC 與 DPU/NIC 等中型高量晶片。EMIB 的成長預期將源自雲端大規模推論與基礎設施晶片在未來五年的快速擴張。

 

GoldON 投資方向思考

  1. 從投資角度觀察,未來的封裝市場結構已逐漸明朗:CoWoS 主導訓練級 AI 晶片,而 EMIB 主導中大型推論 ASIC、伺服器 SoC 與各類 DPU。TPU 需求數量有限,但中型推論 ASIC 顆數可能遠高於 TPU/GPU 3–10 倍,使 EMIB 的需求具備長期成長潛力。
  2. Intel EMIB 的核心結構是嵌入式矽橋,其封裝形式本質仍屬於高階多晶粒 2.5D 封裝,需依賴高層數、高密度的 ABF 載板承載高頻寬訊號。台灣ABF 載板三雄欣興、南電、景碩是最直接受惠 EMIB 成長的族群。
  3. 欣興是唯一在公開資訊中明確提到「EMIB 載板」的台廠。公司管理層曾透露,旗下 EMIB 專用載板預計進入量產,被市場普遍解讀為 Intel 與其他採用 EMIB 的大型客戶訂單,這使欣興成為 EMIB 封裝最核心、最具明確性的一線受惠標的
  4. 南電(8046)與景碩(3189)雖未公開點名與 EMIB 直接合作,但其在高階 IC Substrate 的技術、產能與客戶結構中,均高度集中在 AI/HPC 伺服器 CPU、GPU 與 ASIC,因此 EMIB 一旦持續放量,ABF 載板需求將同步擴張,南電與景碩自然成為結構性受惠者。
  5. 在封裝執行端,Intel 已啟動「OSAT 模式」,也就是未來 EMIB 封裝不再僅由 Intel 自家封裝廠處理,而是可能外包給大型封測廠。以台灣廠商來看,日月光投控具備先進封裝(2.5D、SiP、Fan-out 等)量產能力、與全球最大 OSAT的產能與經驗,是最有機會成為 Intel EMIB 亞洲外包夥伴的候選者。由於具備封裝+測試一站式能力,其切入點將可能從封裝延伸至封裝後測試。
  6. 雖然目前無公開資料證實哪一家測試廠直接承接 EMIB 測試訂單,但依照 Intel 推動 OSAT 模式、外包測試以擴張產能的趨勢,台灣主要測試廠都具備承接潛力。
  7. 京元電為台灣 IC 測試龍頭,專注晶圓測試與成品測試,在 AI GPU 與高階 ASIC 測試需求持續上升之下,最有可能承接 EMIB 封裝後的 Final Test 與 SLT。
  8. 閎康與矽格為第二順位,技術成熟且在高階邏輯 IC、車用與通訊晶片測試具備經驗,若台灣晶圓廠或美系客戶有意將 EMIB 晶片送往第三方測試,這兩家廠商亦具備承接機會。

 

閱讀更多前驅投資文章

https://goldoninvest.com/

關於本篇

前驅投資週報2025-032

Processor: Shawn Hung