Google Gemini、TPU 與台灣供應鏈解析—為什麼這波熱度會持續?概念股怎麼看?

瀏覽次數:5312

2024→2025 年間,Google 將 Gemini 系列模型擴展為完整 AI 生態(含語音、影像、代理人功能與開發者 API),同時在訓練端大量採用自家設計的 TPU(Tensor Processing Unit)與傳統 GPU 混合運算。這帶動了伺服器、PCB、散熱與高頻材料等台灣供應鏈的需求成長。本篇整合已公開資料與供應鏈報導,分 A/B/C 三組說明「誰最有可能吃到 Google 的訂單」,並給出實務型的投資觀點。

1|Google Gemini 到底是什麼?

Gemini 是 Google 推出的多模態大型模型家族(可處理文字、圖像、影片、語音、程式碼),定位是直接對標 OpenAI GPT 系列。

2024~2025 年,Google 逐步把 Gemini 打造成完整 AI 生態系,包括:

  • Gemini 2.x 系列大型模型
  • AI 代理人(可在 Gmail / Docs / Android 上自動處理任務)
  • 影片生成模型 Veo
  • Pixel、Chromebook 等硬體直接整合 Gemini
  • 使用 Google 自家 TPU 大規模訓練

重點:Gemini 不再是一個模型,而是一個完整 AI 平台。

2|為什麼 Google Gemini 這麼紅?

(1)能力大幅進步、成本下降

2024 下半年開始,Gemini Ultra / Gemini 2.x 系列性能已能與 GPT-4o / GPT-5 同級,在許多任務中具速度快、成本低的優勢。

(2)Google 把 AI 內建到每個服務

使用者不必「特別開 AI」,而是在用 YouTube、Gmail、Docs、Android 的同時,就已經在使用 Gemini。

Google 生態本身的巨大用量,讓 Gemini 使用率自然爆發。

(3)Google 大量採用自家 TPU,訓練效率高度提升

TPU(Tensor Processing Unit)是 Google 自己設計的 AI 訓練晶片。

Google 表示相較早期架構,新的 TPU 大幅提升訓練效率,讓 Gemini 模型更新與迭代速度更快。

→ 這點直接帶動 台灣伺服器、PCB、散熱、ABF 載板等供應鏈需求增加。

3|TPU 是什麼?與 GPU 有何不同?

TPU(Tensor Processing Unit)是 Google 針對 AI 訓練與推論設計的專用晶片(ASIC)。

它不是 CPU,也不是 GPU,而是:

  • 專攻矩陣乘法(AI 訓練最重要的運算)
  • 能在大規模並行運算時展現高效率
  • 成本、功耗、密度通常比 GPU 更具優勢
  • Google 可依訓練需求量身定制(模型越大,TPU 越有利)

TPU 目前已進化到 v4 → v5e / v5p → v6 系列。

4|Google 不靠 Nvidia,也能自己養大 AI 嗎?

✔ Google 能用自家 TPU 訓練 Gemini,不必完全依賴 Nvidia

Gemini 模型主要在 Google 自家資料中心、以 TPU SuperPod 進行訓練。

TPU 設計由 Google,製造則被多家產業報導指向 TSMC(台積電)代工。

❌ 但 Google 不是「完全不用」 Nvidia

仍需要:

  • x86 CPU(多為 Intel)作為伺服器控制端
  • Google Cloud 仍大量提供 NVIDIA GPU(H100 / H200 / B200 等)產品線
  • 某些訓練 / 推論工作負載仍使用 GPU
  • 在混合架構(Hybrid Training)中 TPU 與 GPU 並存

更精準說法是:

Google 透過 TPU 降低對 Nvidia 的相對依賴,但不是完全取代。

5|最完整 Google TPU × 台灣供應鏈(A / B 組)

下方分類是依「公開資訊可信度」整理,而非由公司官方證實。

也因此:

A 組=多家媒體/法人提及、角色明確

B 組=技術吻合但缺乏直接 Google 訂單證據

核心+高度可信供應鏈(A 組)

公司 (代號) 供應鏈角色 / 為何列入 近期被點名次數 風險評估
台積電 (2330) TPU v7e / v7p 晶圓代工;3 nm 製程量產,Google 自研晶片重要代工廠。 多次
金像電 (2368) 高階伺服器主板 (高層數/高階 PCB) 供應商,是 Google TPU v7 的主力供應商之一。 多次
台光電 (2383) 提供高階 CCL 材料 (M7/M8) — 對應 TPU 或高頻高速訊號需求,是高階 PCB/載板重要材料來源。 多次
欣興 (3037) ABF 載板/高階 PCB,在 TPU/AI 伺服器用載板與高階材料供應鏈中被法人點名。 多次
勤誠 (8210) 伺服器機殼與結構件 (機殼、Switch Tray 等) 供應商,2025 Q4 放量,為 TPU/ASIC 伺服器重要機構件來源。 數次
奇鋐 (3017) 散熱模組(氣冷、水冷/3D VC/液冷)供應商 — TPU 功率高,液冷需求上升,供應鏈地位明確。 數次

次級、潛力供應鏈(B / C 組)

公司 (代號) 潛力角色 / 注意項目 近期被點名次數 風險評估
聯發科 (2454) 取得 Google TPU v7e 設計大單,ASIC 晶片設計核心之一。 數次
智邦 (2345) 網路交換器 / 高速資料中心設備供應商,隨 TPU 叢集建置需求成長。 數次
旺矽 (6223) 探針卡/測試介面供應商,高頻、高功耗 AI 晶片封裝測試需求。 少數
邁科 (6831) 散熱模組 (氣冷 / 水冷) — 已對 Google TPU 水冷模組送樣認證,2026 可能放量。 少數
富世達 (6805) 水冷模組轉接頭或配件供應商,水冷普及化下可能受惠。 少數

📈 近期觀察/補充趨勢與動向

  • 多家法人/產業報告提到 2025 Q4 開始,有不少供應鏈公司出貨放量,預期 2026 年將是「收割年」。
  • 與過去以 GPU 為主的 AI 加速器世代相比,TPU/ASIC 的崛起使供應鏈結構改變,對「高階封裝、高階材料、高效散熱、高密度機櫃/機構件、高速網通」的需求明顯上升 — 這讓像 PCB/載板、散熱、機殼設計、水冷、網通設備等廠商變成焦點。
  • 與這波浪潮相關的,不只是傳統大型代工/封裝/PCB,而是整個「從設計、封裝、散熱、機構、網通到測試」的完整供應鏈,意味著若要布局「AI 概念股」,僅買單一環很可能不如分散在多個供應鏈環節較穩健。

6|Google 概念股還能買嗎?投資策略怎麼看?

1️⃣ 市場背景

Google TPU + Gemini 3 生態:Google 以自研 TPU 與軟硬整合策略,逐步挑戰 Nvidia 的 AI 加速器壟斷,帶動 AI 供應鏈重新洗牌。

台股受益族群:

  • 核心供應鏈:台積電、金像電、台光電、欣興、勤誠、奇鋐 → 供應鏈角色明確、訂單穩定
  • 次級潛力股:聯發科、智邦、旺矽、邁科、富世達 → 受訂單與認證影響大,波動高

近期行情:

  • 聯發科 罕見漲停 → IC 設計族群比價效應
  • PCB、散熱、機殼類股走強
  • 資金流向 AI 高階晶片供應鏈,短線人氣熱度高

2️⃣ 投資策略思路

(A) 核心供應鏈(低風險、穩定受益)

標的:台積電、金像電、台光電、欣興、勤誠、奇鋐

策略:

  • 分批布局:可依盤面回檔分批買入,不必一次買滿。
  • 長線持有:核心供應鏈穩定受 TPU / AI 伺服器訂單支撐,業績成長可望持續。
  • 留意法說 / 出貨量:觀察是否有 AI 訂單放量訊號,可作加碼依據。

(B) 次級潛力股(高風險、高報酬)

標的:聯發科、智邦、旺矽、邁科、富世達

策略:

  • 小比例投資:以觀察/題材性布局為主,控制風險。
  • 注意認證與出貨消息:真正量產、放量前風險高,短線可能漲跌劇烈。
  • 設定停損點:避免因市場情緒過熱而追高被套牢。

(C) 風險管理

  • AI 概念股短期容易 題材炒作 → 追高容易套牢
  • TPU / AI 伺服器市場競爭激烈 → 部分潛力股可能無法真正受惠
  • 建議 資金分散、核心供應鏈多、潛力股少
  • 可搭配 美股 / ETF 配置,降低單一市場風險

3️⃣ 操作建議範例(以台股 100% 為例)

類型 配置比例 說明
核心供應鏈 60–70% 長線穩健,主要受 Google TPU 訂單與 AI 伺服器需求支撐
次級潛力股 15–20% 觀察題材性、量產認證消息後加碼
現金 / 防禦性 10–25% 留作低點布局或突發行情應對

💡 總結:

Google 概念股仍值得關注,但需分清核心 vs 潛力股。

核心供應鏈長線持有,波動小;潛力股短線觀察 / 小額布局。

短線追高風險高 → 可等待回檔或出貨放量消息再加碼。

搭配定期投資 / 美股 ETF → 分散風險、捕捉 AI 長期成長。

返回上一頁