在全球 AI 競賽從訓練階段邁入推理時代之際,谷歌正準備在 AI 算力版圖上打出關鍵一擊。
根據《智通財經》報導,谷歌打算本周在拉斯維加斯舉行的 Google Cloud Next 大會上,宣布新一代客製化 AI 晶片——張量處理器 (TPU),藉此強化自身在推理市場的話語權。
負責谷歌 AI 算力基礎設施與晶片研發的 Amin Vahdat 雖拒絕針對專攻推理速度的晶片計畫置評,但暗示「在相對不久的將來」將有更多消息釋出。
谷歌此舉背後是全球 AI 算力競爭結構性轉移;從以模型訓練為核心,轉向以大規模推理為主導。
隨著 AI 應用與智能體 (AI Agent) 普及,衡量算力的指標已由「峰值性能」轉向「單位 token 成本、延遲與能效」,而這正是 TPU 等 AI ASIC(特殊應用積體電路)路線的優勢所在。
短短數月內,谷歌獨家研發並部署於自家數據中心的 TPU 已成為科技業炙手可熱的商品,包括競爭對手在內的頂尖 AI 開發商紛紛搶購,試圖在推理時代鞏固競爭力。
目前,輝達在 AI 晶片市占率約八至九成,但谷歌正以 TPU 體系正面挑戰其霸權。
博通、邁威爾等晶片大廠也攜手亞馬遜、微軟與谷歌,打造量身訂做的 ASIC 算力集群,相關業務已成為營收與股價的重要支柱。
經濟性與電力限制,讓科技巨頭紛紛押注 ASIC,以壓低單位成本並提升能效,如微軟、亞馬遜與 Meta 都投入自研晶片,以降低對輝達 GPU 的依賴,並在採購談判與毛利率上取得主動權。
TPU 的崛起並非一朝一夕。早在去年 10 月,Anthropic 便宣布擴大與谷歌合作,取得最多一百萬顆 TPU 的使用權,隨後谷歌推出 Gemini 3 模型,並在部分 TPU 平台上完成訓練與運行,效能獲得好評。Meta 也簽署數十億美元的協議,透過 Google Cloud 使用 TPU,並評估其在推理任務上的優勢。
金融機構 Citadel Securities 則打算在本周大會上展示 TPU 在訓練大模型上的速度優勢。
阿布達比科技集團 G42 亦與谷歌就 TPU 應用進行多次磋商,顯示 TPU 已從谷歌內部自用工具蛻變為全球硬通貨。
技術層面上,TPU 的演進與谷歌 AI 研究同步。2017 年,谷歌的論文催生了今日的大語言模型 (LLM),也促使 TPU 團隊聚焦於訓練更大模型的晶片設計。後來,DeepMind 與晶片團隊發現,TPU 在強化學習任務中常有閒置,遂調整半導體間的網路連接以提升數據流動效率。
如今,谷歌仍在權衡單一 pod 內的晶片數量與精度配置,以降低成本並提升效能。
谷歌首席科學家 Dean 坦言,即便擁有 TPU,仍需採購輝達 GPU 以滿足通用計算需求,因 CPU 性能提升放緩,而 AI 工作負載日益龐大。
然而,TPU 的快速普及也帶來挑戰。晶片開發週期約三年,但 AI 模型演進速度遠快於此,使得預測未來需求變得困難。此外,軟硬體緊密結合的設計可能形成「技術孤島」,限制生態多樣性。
供應鏈方面,谷歌面臨與輝達類似的產能瓶頸,部分新創公司抱怨 TPU 供給優先分配給頂尖團隊,如 Anthropic,導致其他用戶取得不易。
未來,AI 資料中心很可能走向異構算力時代,也就是前沿訓練與廣義雲算力仍以 GPU 為主,超大規模內部推理、Agent 工作流與固定高頻負載則加速轉向 ASIC。
谷歌正致力於打破孤島效應,開放 TPU 支援 PyTorch 等外部工具,並測試讓客戶在自己的數據中心運行 TPU。這些舉措不僅改變外界對 TPU 的定位,也預示著 AI 晶片市場將進入多元競爭的新階段。
隨著推理時代全面來臨,誰能在成本、能效與生態開放上取得平衡,誰就能在下一代 AI 戰場上佔據制高點。
新聞來源 (不包括新聞圖片): 鉅亨網