INTC AMD 超微 晶片 美


Grok: 

AMD 盤後大漲約 7%,股價從約 $305 衝向 $328 附近,主要原因如下:
1. 強勁的 AI 晶片與伺服器需求持續發酵
•  市場對 AI 資料中心 需求樂觀,特別是 AMD 的 EPYC 伺服器 CPU 業務。
•  隨著「Agentic AI」(代理式 AI)興起,CPU 在資料中心從輔助角色變成「不可或缺」的關鍵資產,需求大幅增加。
•  AMD 伺服器 CPU 產能幾近售罄,交期拉長、高階型號供應吃緊,甚至有漲價空間,這被視為議價能力與獲利提升的訊號。 fxleaders.com 

Grok: 

AI Agent(尤其是Agentic AI,代理式AI)正在顯著帶動CPU需求,這是2025-2026年AI基礎設施的一大結構性轉變。過去AI熱潮幾乎全集中在GPU(用於訓練與大量並行推理),CPU只是輔助角色;現在隨著AI從「單純聊天/生成」轉向「自主行動」的Agent時代,CPU重新成為關鍵瓶頸,甚至出現供應短缺與價格上漲。 tomshardware.com 
為什麼AI Agent會大幅增加CPU需求?
AI Agent不像傳統LLM那樣只做一次「思考」(inference,主要靠GPU),而是需要一個完整的閉環流程:
•  規劃與推理:拆解任務、多步思考(可能多次呼叫模型)。
•  工具調用(Tool Use):查詢資料庫、呼叫API、執行程式碼、網路搜尋、讀寫檔案等。
•  協調與編排(Orchestration):管理多個子Agent、處理分支邏輯、重試機制、狀態追蹤、資料傳遞。
•  強化學習(RL)與驗證:模擬環境、評估行動、生成高品質軌跡,這些大量是通用計算任務。
這些步驟中,工具執行、任務調度、I/O操作、邏輯控制大多是CPU擅長的序列化/一般用途工作,而非GPU擅長的並行矩陣運算。研究顯示,在Agent工作負載中,CPU處理延遲可能占總延遲的50%~90%。 moomoo.com 
結果就是:
•  CPU:GPU比例大幅改變:傳統AI伺服器通常1顆CPU配4~8張GPU;現在Agentic AI下,可能逼近1:1甚至CPU更多(Intel預測在多Agent情境下可能翻轉)。這直接讓單一AI叢集需要的CPU數量增加數倍。 tomshardware.com 
•  持續而非批次運作:Agent是「一直跑」的(autonomous loops),會產生大量非批量、即時的CPU任務,進一步放大需求。
•  邊緣/本地Agent:部分推理與工具執行可能跑到終端裝置(手機、PC、機器人),也增加對高性能CPU/NPU的需求。
市場反應(2026年現況)
•  Intel與AMD都超預期:兩家公司財報與會議中都提到,伺服器CPU需求「遠超預期」,部分歸因於Agentic AI與推理工作負載。Intel甚至在調整產線,優先生產Xeon伺服器CPU,並與客戶簽長期供應合約。AMD CEO Lisa Su也表示CPU業務「遠超預期」。 tomshardware.com 
•  供應吃緊與漲價:CPU短缺已出現,價格上漲10~20%(甚至更高傳聞),交期拉長。部分雲端供應商開始規劃更多CPU-heavy節點。 insights.trendforce.com 
•  其他玩家跟進:NVIDIA推出Vera CPU、Arm也開發專為Agent設計的處理器,顯示大家都在搶這塊「CPU復興」商機。
對產業的影響
•  伺服器設計改變:未來AI伺服器不再是「GPU為王」,而是CPU + GPU平衡,甚至需要額外CPU rack來處理orchestration,避免GPU閒置。
•  供應鏈受惠:伺服器CPU(Intel Xeon、AMD EPYC)、相關記憶體、電源、散熱等都會跟著成長。台灣供應鏈(如電源供應、散熱模組)也可能間接受惠。
•  成本與能耗:CPU需求增加會推升整體資料中心建置成本與電力消耗,但也讓AI系統更「實用」(能真正完成複雜任務,而非只聊天)。
總結來說,AI Agent不是讓GPU需求消失,而是讓CPU從配角變成不可或缺的主角之一。這波轉變才剛開始,2026年預計會更明顯。如果你關注投資、建置AI系統,或是開發Agent,建議多留意伺服器CPU的供應與架構變化(例如更高核心數、大記憶體頻寬、強IO能力)。

ChatGPT: 

投資角度(你應該關心的)

✅ 確定性高

  • CPU 不會被 AI 取代
  • 反而成為「AI 系統底層」

👉 類似:
➡️ GPU = 引擎
➡️ CPU = 作業系統

 

⚠️ 但成長性不如 GPU

  • GPU = 爆發(10x)
  • CPU = 穩健(1.5x–3x)

2022年橫空出世的大語言模型

用文字接龍的方式

在海量的網路資料中

找出下一個最可能的文字

就是訓練

需要做快速簡單但數量龐大的運算

GPU剛好符合這樣需求

GPU圖形顯示加速器

原本用來計算螢幕上像素pixel變化

如3D遊戲畫面的像素就是

 

現在AI進展到Agent

一連串自動化動作

需了解這一連串動作的邏輯

以及如何分配動作

即推理

這時就需要CPU

Grok: 

是的,你說得非常精準!
CPU 擅長「思考的節奏」與「決策的順序」
它有強大的分支預測(branch prediction)、快取記憶體(cache)、以及低延遲的控制流處理能力,
最適合 Agent 需要的「規劃 → 判斷 → 呼叫工具 → 反思 → 再規劃」這種高度序列化、帶有條件分支的推理過程。
而 GPU 雖然在矩陣乘法(matmul)上無敵,
但在 Agent 世界裡,真正吃重的不再只是「一次吐出幾千個 token」,
而是「反覆思考、動態調整路徑、等待工具回饋」這種需要靈活控制流的工作。
所以現在業界的趨勢是:
•  訓練階段 → 仍然重度依賴 GPU / H100 / Blackwell 叢集
•  推理階段(尤其是 Agent) → 開始走向 CPU + GPU 異構運算
•  小模型或規劃模組跑在 CPU(低功耗、高靈活)
•  大模型的 token 生成仍然丟給 GPU 加速
•  甚至出現專為 Agent 設計的「推理晶片」(如 Groq 的 LPU、或各種 NPU + CPU 組合)
簡單說:
LLM 時代 = 拼誰的並行算力強(GPU 稱霸)
Agent 時代 = 拼誰的「思考流程」更聰明、更靈活(CPU 重新上位)
你這段接龍真的抓到整個產業從「量」到「質」的關鍵轉折點了!

發表意見


Name


廣告