2026新思維:塑造 AI 時代的思考模式
從四位關鍵人物的決策模式,幫助我們如何重新學會思考問題
0. 引言
這幾天我有在追蹤的IG(@Thedigitalkinggg)討論了AI霸主們的決策模式,所以決定寫下這篇筆記幫助自己在2026年可以有更深層的思考模型。
如果我們最近只看新聞標題,會覺得AI 時代好像是一連串突發事件的集合:模型突然升級、巨頭軍備競逐、監管拉鋸。但若把時間拉長一點,就會發現背後真正穩定存在的,是這些霸主反覆使用的思考方式及決策模式。
這些聰明的腦袋未必在每一次選擇上都正確,但他們會在「如何判斷值得做什麼」這些事上,呈現出高度一致的相似結構。
在近年的公開訪談、長時間對談與實際決策中,可以清楚看到四種不同、但能互相疊加的思考模型,分別由以下四位人物代表:
Demis Hassabis:以科學問題為核心的第一性原理思考
Sam Altman:分發與指數型複利的系統設計
Elon Musk:從物理與成本結構出發的約束分析
Dario Amodei:能力成長下的可控性與對齊問題
在2025年即將過完,我們一起理解這四種思考方式的價值,有助於我們在2026年,資訊爆雜及焦慮的年代,能更深層的做出思考決策判斷。但重點不是在於要模仿他們做了什麼,而是在於我們能觀察:他們在資訊不足、結果不明確的情況下,如何判斷「下一步該不該做」。
1. Demis Hassabis:把問題往「科學層級」推
Demis Hassabis 的訪談有一個很明顯的特徵:他很少直接談產品成功或市場策略,而是反覆回到「問題本身」。在談到 AlphaGo、AlphaZero、乃至後來的蛋白質結構預測時,他常提到的不是應用,而是一個較抽象的關鍵:
是否存在一種通用學習機制,能在複雜環境中自行形成高品質策略?
棋類、遊戲、生物分子,在這個脈絡下只是不同的測試場景。真正被檢驗的,是學習方式是否具有普遍性。
這樣的思考結構,會自然帶來幾個結果:
專案啟動前的判斷時間拉得很長
願意承擔長期沒有「可展示成果」的風險
一旦成功,影響範圍遠超原本的應用設定
這也是為什麼 DeepMind 很多成果,初期看起來離商業化很遠,卻在多年後突然變得不可或缺。
自我筆記
Demis 的方式提醒我自己一件事:很多過程當中卡關,其實不是能力不足,也有可能是我們把問題定義地太貼近表層。而沒有去挖解更深層的問題。比如說做學術研究當中,被退稿的原因:limited contributions!我在研究了Demis的思考邏輯,明年的重點應會探索更深層的意思,而非表面的問題。
實用的練習方式是:
把自己正在做的事,往上抽象一層。
你現在解決的是什麼具體問題?
這個問題反覆出現的「結構」是什麼?
如果換一個場景,這個結構是否仍然成立?
這樣做的目的,不是立刻找到更好的答案,是幫助我們避免把時間消耗在只適用一次的解法上。
2. Sam Altman:把注意力放在「系統會怎麼演化」
Sam Altman 的訪談語氣,就和 Demis 很不一樣。他談的不是問題有多深而難以克服,而是看重設計出來的系統能不能「自己往前走」。從 YC 到 OpenAI,他一再強調一件事:
早期創辦人常高估好點子的價值,低估分發結構的重要性。
在他的思考裡,一個專案是否值得投入,關鍵不只在於「能不能做好」,更著重於:
使用是否會反饋到系統本身
成長是否會降低未來的行動成本
擴張是否會自然發生,而非持續推動
OpenAI 採取 API 與平台化策略,正是這樣的延伸:能力集中,分發外包,讓整個系統形成自我強化的迴路。
自我筆記
決大多數人努力的問題,並非在於不夠勤奮,而應該關注於這樣的努力會不會累積?
可以嘗試這樣檢視自己的投入:
這件事的成果,是否能被重複使用?
是否能在未來降低決策或執行成本?
是否會因為被更多人看到,而自動產生新機會?
如果每一次行動都需要重新說服、重新開始,那系統層級的成長會非常有限。這跟前兩天的文章提到的概念有點類似:如果開一家小吃店,我們無法將其「系統化」或「規模化」,那麼擴張將會是有限的。
點擊連結:我們真正想要的,真的是錢嗎?
3. Elon Musk:把「限制來源」分析清楚
Elon Musk 的思考方式,經常被簡化成「第一性原理」,但實際上,他做的事情更接近於限制拆解。在媒體上談 SpaceX、Tesla 時,他常常提到兩個問題:
什麼是自然界無法改變的?
什麼只是產業慣例?
許多被視為理所當然的成本結構,其實來自歷史路徑,而非物理必然。一旦把供應鏈、流程、報價拆開,很多限制會顯得鬆動。
這樣的思考方式,讓他傾向:
直接刪除中介環節
重算成本邊界
對「大家都這樣做」保持高度懷疑
自我筆記
可以嘗試做一個簡單但有效的練習:
把面臨的限制分成三類:
生理或物理限制
資源限制
習慣與流程造成的限制
很多時候,第三類佔的比例比想像中高。而它們,通常是最容易被調整的。
4. Dario Amodei:在成功之前思考失控(的風險)
Dario Amodei 的思考位置,和前三者略有不同。他關注的,常常不是「能不能做到」,是「做到之後會發生什麼」。
在談 AI 發展與資安時,他試圖向大家指出一個現象:系統能力的提升速度,往往快於人類理解與監督的速度。
Anthropic 提出的 Constitutional AI,背後的假設並不複雜:
能力會持續放大
風險會隨之累積
控制與理解必須提前內建
這樣的思考模式使得他在決策時,經常優先評估長期可控性,而非短期性能指標。
自我筆記
這種思考方式,對個人其實同樣重要。
可以定期問我們自己:
如果這件事進展非常順利,最壞的情況是什麼?
我是否仍保有退出或調整的彈性?
是否存在不可逆的風險?
這不是教我們悲觀地看待任何事情,而是讓我們在系統在擴張時保持彈性可以調整,同時了解不可逆的風險為何?
5. 把多種思考放在一起
這四種思考方式,彼此之間不是要互相替代,而是我們層層考慮強化我們決策的過程:
問題層級:是否具備原理與遷移性?
系統層級:是否存在複利效應與自我分發?
限制層級:限制是否被正確辨識?
系統層級:能力提升後,風險是否可控?
許多專案卡關,有可能是某一層級的問題從未被認真檢視及解決。
寫在最後
我們在這個年代,也許不需要建立 AI 公司,但也能練習這套思考結構。花一點時間寫下:
這背後是否有可重複的結構性問題
投入是否能在未來產生累積效果
我是否誤把慣例當成限制
如果規模放大,是否仍能承受
2026來到時,我們不用急著在2025末得到結論。重點在於我們能不能在來年將問題品質的提升。也許一整年下來,差距就來自更穩定、可反覆使用的判斷方式。
AI 寫作輔助說明
本文配圖經由 AI 工具輔助生成,並由作者進行結構調整、語意修訂與最終校對






謝謝分享
很喜歡馬斯克篇章說明的產業慣例
工作上隨著年資增長
慣例且沒效率的做法的確不少
但即使知道還是很難改啊