ChatGPT NVDA SMCI GPU AI 美


Fortune /Grok整理:
進入2026年,企業界對人工智慧(AI)的最大新年決心是實現投資報酬率(ROI),歷經三年實驗與大量支出後,在AI泡沫疑慮升溫之際,高層主管正面臨更大壓力,必須證明AI投資能帶來實質回報。


Gartner預測2026年AI應用軟體支出將激增至近2700億美元,過去一年企業每位員工平均花費590至1400美元於AI工具,但多數試點尚未產生價值,甚至有報告指95% AI試點零回報。CFO注重成本控制,CTO追求創新,內部統整挑戰浮現。
預期2026年大多數企業在AI應用方面仍難以廣泛實現ROI。

黃仁勳接受訪談指出,電腦將徹底轉型,從由人類來進行編程,轉為在人類給予其大量監督與指示下,電腦會自行編程。人們依然需要指揮電腦去學習什麼內容,同時人們使用電腦的方式也會改變。未來電腦將能處理比今日約大10億倍規模的問題,以智慧電網來說,仍存在著太多浪費的議題,但AI可以找出如何部署剛好足夠的能源,不會過度供應能源。同時,企業生產力還可以大幅提升,供應鏈管理也可能更加輕鬆,設計電腦也會容易得多。

黃仁勳也說,如果每個想得到的問題都變得更有希望解決,或許人們會想出更多問題待解決,那麼工作機會將不會變少,更可能會演變成人類比過往任何時候都還要忙碌,全球所有工作可能都會改變。而所有那些以前因為成本太高而無法嘗試的實驗,現在都可以去試,或者AI會幫忙實驗。(經濟日報)

在網路上看到程式設計師

用vibe coding工作經驗

他原以為可以提高效率20%

實際上卻是工作時間增加20%

1. 用AI可以不寫程式

卻要花更多時間看懂AI寫的程式工程師都有的經驗,看別人寫的程式倒不如自己寫還比較快

 

2. 花更多的時間debug

3. 下的提示詞越接近程式語言

所產生的AI程式才會比較精確

所以不是不用懂寫程式

而是換成人類語言寫

這樣的效率其實更低

把一個簡潔的數學式子

換成人類語言就知道

反而更冗長讓人一頭霧水

有興趣的人可以把底下變異數公式用人類語言講一遍

最後他建議把整個程式

細分成很多小段落讓AI去跑

才比較節省時間

其實這樣等於是Excel巨集

一個寫程式助手而已

而非能完全替代程式設計師

 

AI的問題在於

可以替代人類90%的工作

卻無法完全自主完成

就是最後的一哩路最難,

即馬斯克所講的長尾效應

 

AI公司老闆畫的大餅都太快了

不會那麼早達成

我們是投資人馬上要面對

AI 股太貴

OpenAI下半年現金即將燒光

今年GDP一路往下

chatgpt:

黃仁勳最近訪談提到現代教育環境使年輕人犬儒化,其意義為何?

一、黃仁勳的核心意思通常指向這幾個現象(尤其在頂尖學校與科技圈常被提到):

1.過度強調「避免失敗」

教育體系把「犯錯」等同於「能力不足」,成績、排名、履歷被放到第一位

*學生學會的是:不要冒險、不要犯錯,但創新與創業,本質就是高失敗率。

2.把學習變成投資報酬率計算

學什麼先問「值不值得」、「薪水高不高」,很少問「我真正想解決什麼問題」

*久而久之,學生會對「使命感、熱情、理想」產生懷疑,認為那只是騙人的口號。

3.過早理解「世界的不公平」

現代年輕人很早就知道:

資源分配不均

成功有運氣成分

努力不一定有回報

*理解這些事本身沒錯,但如果教育沒有同時教「即便如此仍值得嘗試」,就容易滑向犬儒。

二、黃仁勳真正想說的是什麼?

他其實是在對年輕人「喊話」而不是責備

他的隱含訊息是:

世界確實不完美、甚至不公平,
但如果你因此選擇冷漠與保守,
那你永遠做不出真正困難、但重要的事。

這也符合他一貫的價值觀:

鼓勵承受痛苦與不確定性

認為「困難」是成長的必要條件

相信長期投入與使命感勝過短期算計

三、一句話總結

「現代教育使年輕人犬儒化」的意思是:

教育與社會過度強調安全、效率與回報,
卻不足以培養年輕人面對不確定性時仍願意相信、承擔與冒險,
於是他們變得聰明但保守,清醒卻不敢夢想。

 

#與投資議題比較無關,看完訪談覺得不錯分享出來。

這是一篇空話

看完了之後不曉得要做什麼

黃仁勳根據自身經驗提出他的觀點,並未提出如何實踐的建議。

對於如何實踐chatgpt另外有給參考建議。

對於投資巴菲特也是提出其看法想法,並不教導如何做投資。

OpenAI全球事務長勒漢19日透露,預定今年下半年發表一款AI裝置。據爆料,OpenAI目標9月推出AI音訊耳機,第一年出貨量預計達4,000萬至5,000萬台,由鴻海代工。(經濟日報)

不看好

OpenAI可能認為ChatGPT用來聊天才去做一副耳機

其實主要用在查詢

查詢結果仍需顯示在畫面上

所以最適合的平台是手機或電腦

摘自YouTube

這期影片是對著名 AI 懷疑論者 Gary Marcus 與《大空頭》原型人物 Steve Eisman 關於「AI 泡沫」對談的深度解讀。核心觀點認為:當前 AI 產業正處於一場巨大的金融泡沫之中,雖然投入極為龐大,但實際回報極低,且技術本身存在根本性缺陷。

 

1. 「狼性時刻」與泡沫現況

 

威力狼的比喻:影片開頭用經典動畫《威力狼》(Wile E. Coyote)來比喻當前 AI 泡沫。就像那隻狼衝出懸崖,只要不往下看就不會墜落;同樣,在金融泡沫中,只要投資者不正視基本面,泡沫就能繼續維持。但現在,是時候「往下看」了。

 

AGI 承諾落空:Sam Altman 曾預言 AGI(通用人工智慧)將在 2025 年到來,但 ChatGPT 並未出現預期的「質的飛躍」,僅僅是版本的小幅更新,打破了人們對技術無限線性成長的幻想。

 

2. 「萬億磅巨嬰」謬誤與 WeWork 危機

 

線性外推的錯誤:Gary Marcus 提出「萬億磅巨嬰」理論。不能因為嬰兒第一個月長得很快,就畫一條直線預測他上大學時會重達一萬億磅。現在的 AI 投資正犯下同樣錯誤,忽略了物理規律與邊際效益遞減。

 

OpenAI vs WeWork:Gary Marcus 認為 OpenAI 的處境極像 WeWork:估值飛上天、虧損無底洞、缺乏真正的護城河。雖然影片作者認為 OpenAI 的技術比 WeWork 的「二房東」模式更有價值,但在燒錢速度與商業模式的可持續性上,兩者有極相似的風險。

 

3. 技術本質:吃了興奮劑的自動填空

 

缺乏理解力:AI 並不理解真實世界,它只是在進行機率計算(類似完形填空)。影片舉例配音演員 Harry 被 AI 誤判為英國人的案例,說明 AI 只是拼湊統計機率,而非真正查證事實。

 

缺乏「世界模型」:AI 經常犯下常識性錯誤(例如特斯拉召喚功能撞上昂貴的私人飛機)。這是因為 AI 沒有「世界模型」,不知道飛機是實體的、昂貴的、易損壞的。若沒有針對性的訓練資料,遇到新事物就會不知所措。

 

4. 糟糕的投入產出比(ROI)與創投的算盤

 

極低的工作替代率:華盛頓郵報調查顯示,只有 2.5% 的人類工作能被 AI 完全取代。大多數情況下,AI 產出的是需要人類二次修改的「工作垃圾」或「程式碼屎山」。

 

投入像核彈,產出像指甲剪:投入了萬億級資金,卻只產生極微小的實用價值,怎麼算都划不來。

 

創投的真實動機:既然回報這麼低,為何熱錢還持續湧入?因為創投主要靠管理費(資金規模的 2%)賺錢。只要把故事(蛋糕)做大,即使項目最終失敗,創投每年仍能穩定收取巨額管理費。因此他們有強烈動機維持「無限成長」的敘事。

 

5. 資源戰爭與未來的出路

 

巨頭的遊戲:AI 競爭已演變成資源大戰。相較於 OpenAI 需要不斷融資購買顯卡,Google 擁有自研晶片(TPU)、海量數據與現金流,更有可能在長跑中勝出。若 OpenAI 無法持續融資,可能迅速崩盤。

 

人才流失:核心人物 Ilya Sutskever 離開被視為危險信號,暗示內部人士可能已不再相信 AGI 即將實現。

 

技術出路(神經符號 AI):Gary Marcus 認為純粹的大型語言模型(System 1,直覺系統)走不通,未來必須結合符號邏輯(System 2,理性思考)。AI 需要學會「慢下來思考」、具備邏輯推理與世界模型,那才是真正敲開 AGI 大門的時刻。

 

總結:影片認為我們正站在懸崖邊緣,AI 泡沫極大概率會破裂。但這並不代表 AI 技術本身毫無價值,而是市場必須把「科幻小說」與「商業財報」分開,回到真正能解決實際問題、具備邏輯與世界模型的技術路線上。

最近爆紅的Agent Skills

跟寫程式差不多

黃仁勳最大的謊言就是有AI之後就不用學寫程式。一樣要!

只是換成用人類語言寫,

一樣令人頭大

不會寫程式的人怎麼可能會用這種東西

Grok:

黃仁勳那句「AI 來了就不用寫程式」確實是行銷語言,現實是:

程式 → 用人類語言寫的更高階程式(只是語法從 Python 換成中文/英文自然語言)

不會寫程式的人,面對 Agent Skills 的門檻其實更高,因為他連「什麼是好的模組化拆分」「什麼是依賴關係」「怎麼 debug 為什麼沒觸發」這些概念都沒有,結果就是一直出包、一直重來,最後還是放棄。

之前agent

昨天才知Agent skills

今天又來個Clawdbot

AI真是日新月異

看了一下頗有難度

絕非不懂寫程式的一般人可及

諒不易普及,不久就不了了之

被新東西蓋過去

似乎跟AI繪圖的詠唱咒語一樣,一輩子沒接觸繪圖軟體、設計、攝影,要用口語畫出好的作品也有難度



產品不變,俗買貴賣,2015/8加入巴班,希望這輩子破億

Grok:

《華盛頓郵報》科技專欄作家 Geoffrey A. Fowler 在 2026 年 1 月底發表的測試報導。他把 10 年 Apple Watch / Apple Health 數據(約 2900 萬步、600 萬次心跳紀錄)丟給剛推出的 ChatGPT Health 功能,請它給心血管健康打 A-F 等級分。

結果 ChatGPT 直接給了 F,把他嚇到趕緊約醫生檢查。醫生看完數據後說他其實非常健康,心血管風險極低,根本不需要額外檢查,保險公司都不會要求做進一步檢驗。

更誇張的是,他重複問同一問題好幾次,分數居然在 F 到 B 之間大幅擺盪;ChatGPT 還會忘記他的性別、年齡等基本資訊(儘管數據都給了)。連對手 Anthropic 的 Claude 也只給了 C,一樣過度依賴 Apple Watch 估計的 VO2 max(最大攝氧量),卻沒好好提醒這項數據在穿戴裝置上的準確度本來就有限、容易受影響(例如沒正確佩戴、手腕動作、皮膚狀況、天氣等)。

醫學專家(像是 Eric Topol)直接批評:如果 AI 連這種基本評估都做不好、還亂給等級分,那根本不該提供這種「分數」功能,容易造成不必要的恐慌。

這件事凸顯幾個現階段 AI 健康應用的核心問題:

- 過度自信 + 幻覺:模型會用很肯定的語氣講出沒根據或錯的結論。
- 數據解讀偏誤:只看穿戴裝置的代理指標(VO2 max、心率變異等),卻忽略臨床血液檢查、血壓、膽固醇、家族史、實際生活型態等更重要的變數。
- 不穩定性:同樣輸入、不同次對話就給出差異極大的評價。
- 心理效應:健康的人看到 F 會被嚇到跑醫院,白白浪費醫療資源、增加焦慮;真正有問題的人反而可能因為「AI 說沒事」而掉以輕心。

目前 OpenAI 跟 Anthropic 都強調「這不是醫療診斷、僅供參考、請諮詢醫師」,但使用者看到紅字 F 還是會當真。



發表意見


Name


廣告
如果您常在Klook 訂飯店、找行程等,請透過下方連結前往Klook選購,本站可能獲得部份分潤 (不會影響您的購物價格),感謝支持!
Klook.com