Meta AI 算力需求擴張,台灣供應鏈如何受惠? | Cmnews

Meta重返AI模型競賽,算力需求成供應鏈成長動能

Meta 推出自研 AI 模型 Muse Spark,正式宣告重返 AI 模型競賽。Meta 的加入,進一步鞏固了市場對於 AI 算力需求的預期,這波浪潮中,台灣作為 AI 伺服器與零組件的核心供應鏈,將直接從中受益。Meta 預估 2026 年在 AI 相關的資本支出將達到 1,150 億至 1,350 億美元,約為去年的兩倍,顯示其擴張 AI 基礎建設的決心。

台灣供應鏈受惠於Meta資本支出增加

Meta 大規模擴張 AI 基礎建設,將直接帶動 AI 伺服器、散熱、HBM 記憶體、電源模組等供應鏈的需求,而台灣相關廠商將成為最直接的受益者。此外,Muse Spark 整合 Instagram、Facebook、WhatsApp 等平台,其龐大的推論流量將持續拉動算力消耗,這對 GPU 伺服器代工與 ODM 廠商來說,無疑是一大利多。

廣達作為Meta核心代工廠,營收具成長潛力

廣達是 Meta AI 伺服器的核心代工廠商之一,隨著 Muse Spark 的推論需求大規模導入 Instagram、Facebook、WhatsApp 等平台,伺服器出貨量能見度也隨之提高。考量 Meta 在 2026 年的資本支出上看 1,350 億美元,廣達作為直接受益廠商,其業績成長動能相當明確。廣達旗下雲達(QCT)更是輝達 GB200/GB300 的主要組裝商,客戶涵蓋 Meta、Google、AWS 等大型雲端平台。法人預估廣達 2026 年的 EPS 可達 22.22 元,AI 伺服器營收占比上看八成,訂單能見度已延伸至 2027 年,目標價上看 400 元。

奇鋐握有關鍵技術,可望長期受惠

另一個值得關注的廠商是奇鋐。由於 AI 伺服器算力密度持續提升,散熱已成為整機系統的核心瓶頸。奇鋐在液冷模組(水冷板、MCCP 方案)方面,具備高技術門檻與規模優勢,是少數能同時滿足 GPU 伺服器與 ASIC 伺服器液冷需求的台灣廠商。隨著 Meta 擴張 AI 算力,液冷需求同步增溫,在各大 AI 伺服器廠積極擴產的背景下,奇鋐的訂單能見度持續走強,且高單價液冷產品佔比提升,有助於改善毛利率。

投資策略:掌握轉強與資金動向

整體而言,Meta 推出 Muse Spark,代表其正式重返 AI 模型競賽,AI 算力資本支出擴張趨勢不變,台灣 AI 供應鏈的受惠邏輯也持續強化。對台股投資人而言,這波題材最直接的受益方向仍是 AI 伺服器 ODM 與散熱模組。然而,投資人仍需留意 Meta 模型競爭力尚未完全驗證,加上總體經濟環境仍存在不確定性,操作上應回歸紀律與節奏。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容