決定 AI 未來的,不是演算法——是我們內心相信的東西
2026 Mar 03 AI 學習 商業分析
決定 AI 未來的,不是演算法——是我們內心相信的東西
從一篇論文到 8400 億美元帝國,幫我們局外人畫一張 AGI 權力地圖
每隔兩三天,我的資訊流就會冒出一篇矽谷 AI 重要人物的訪談:
Sam Altman 說 AGI 很快就到;Dario Amodei 說 AI 風險被低估了;Yann LeCun 說你們都在誇大;吳恩達說別怕,先學會用它。
每一個人都講得頭頭是道,邏輯自洽,但方向完全不同。把我的FOMO變得更焦慮了。
我內心有個感覺:看得頭昏眼花,可能不是我硬知識不夠的問題,是我們缺一張地圖。
半導體世界我們有脈絡可循——從 Fairchild 八叛徒到英特爾到台積電,科技史教過,產業邏輯也清楚。
但 AI 世界呢?Sam Altman 之外的這些名字到底是誰?他們之間的恩怨分合意味著什麼?為什麼同一間辦公室出來的人,現在站在完全對立的立場?
我把這些人的選擇攤開來看,發現一件事:技術差異其實是表象。真正的分歧在更深的地方——他們對「AI 應該成為什麼」的信仰,完全不同。
於是我試著畫一張地圖給自己看,想回答的是:掌握天火的這群人,內心相信的是什麼。
那篇改變一切的論文
2017 年,Google 內部一群研究員發表了一篇叫《Attention Is All You Need》的論文。標題致敬披頭四〈All You Need Is Love〉,「Transformer」這個名字是因為其中一位作者覺得它聽起來很酷。這篇論文提出的架構,後來成了 ChatGPT、Claude、Gemini——幾乎所有你用過的 AI 產品——的地基。被引用超過 19 萬次,是近十年最具影響力的電腦科學論文之一。
八位作者,全部離開了 Google。而且他們走的方向截然不同。
與此同時,另一群從 OpenAI 出走的人,也在用各自的方式重塑 AI 的未來。這兩條線——Transformer 發明者和 OpenAI 離散者——構成了今天 AI 世界的權力版圖。
在展開信仰光譜之前,先看一張快照:同一篇論文、同一間辦公室出來的八個人,現在在哪裡、相信什麼。
Transformer 八位作者現況
| 作者 | 離開時間 | 現在在哪 | 一句話描述他的信仰 | 估值/狀態 |
| Noam Shazeer | 2021→2024 回歸 | Google DeepMind(領導 Gemini) | AI 應該有人格,能陪伴每個人 | 被 Google 以 ~27 億美元 acqui-hire 買回 |
| Aidan Gomez | 2021 | Cohere CEO | AI 是基礎設施,要讓全球企業都用得起 | 估值 ~70 億美元 |
| Jakob Uszkoreit | 2021 | Inceptive 創辦人 | AI 最大的價值在改寫生命的程式碼 | 生技領域,未公開估值 |
| Llion Jones | 2023 | Sakana AI CTO(東京) | Transformer 已到瓶頸,要用演化找到下一代 | 估值 ~26.5 億美元 |
| Łukasz Kaiser | 2021 | OpenAI 研究科學家 | 留在技術最前沿繼續挖,不創業 | 唯一沒創業的作者 |
| Illia Polosukhin | 2017 | NEAR Protocol CEO | 用去中心化解決 AI 的權力集中問題 | 最早離開,跨界區塊鏈 |
| Ashish Vaswani | 2021 | Essential AI → 動態待確認 | 讓 AI 成為自動化商業流程的數位員工 | 公司被 Adept 收購(2023) |
| Niki Parmar | 2021 | Anthropic 技術成員 | 從創業回到研究,選擇「安全優先」的陣營 | 2024 年底加入 Anthropic |
從「AI 是陪伴」到「AI 是藥物」到「AI 需要被去中心化」——同一篇論文的共同作者,信仰光譜之寬,本身就是一個關於技術與人性的寓言。
信仰光譜——五種回答
當你問「AI 應該成為什麼」,這群人給出了五種根本不同的答案。以下每一種信仰,我都用三層來拆解:他們相信什麼、用什麼技術支撐這個信仰、資本怎麼投票。
1.「AI 是帝國」——相信規模和速度決定一切
代表人物:Sam Altman(OpenAI)、Noam Shazeer(回歸 Google)
Sam Altman 的路線清晰到殘酷:AGI 必須由一個擁有絕對資源的組織率先做出來,否則就是讓更不負責任的人先做到。
在這個邏輯下,OpenAI 從非營利翻轉為商業巨頭不是背叛理想,而是理想的必要代價。2026 年 2 月,OpenAI 完成 1100 億美元融資,估值達到 8400 億——這是人類歷史上最大的私人融資。Stargate 計畫要砸超過千億美元建造超級電腦叢集,規模已經超越多數國家的基礎建設預算。
Altman 在 2026 年 2 月接受 Big Technology Podcast 訪談時談到了 IPO 計畫,語氣平靜得像在討論下季度的產品路線圖。對他來說,上市不是終點,是取得更多資源的手段。
Noam Shazeer 的故事則是帝國邏輯的另一面。他是 Transformer 論文的靈魂人物之一,離開 Google 是因為公司不願發布他開發的聊天機器人 LaMDA。他帶著 Niki Parmar 創辦了 Character.AI,主打有人格的 AI 夥伴。結果呢?2024 年 8 月,Google 花了大約 27 億美元把他 acqui-hire 回來領導 Gemini。
發明者出走,帝國用金錢把他買回——這個故事本身就是一個關於權力和才華的寓言。你可以逃離帝國,但帝國有能力讓你回來。
2.「AI 需要憲法」——相信安全比速度重要
代表人物:Dario Amodei(Anthropic)、Ilya Sutskever(SSI)、Niki Parmar(加入 Anthropic)
Dario Amodei 和他的妹妹 Daniela 從 OpenAI 帶走核心員工創立 Anthropic 時,矽谷很多人覺得他們在自毀前程。離開全球最熱的 AI 公司,只因為覺得「安全做得不夠」?聽起來像是理想主義者的自殺式選擇。
但三年後的數字打了所有人的臉。Anthropic 在 2026 年 2 月完成 300 億美元融資,估值達到 3800 億。年營收從 2024 年的不到 10 億暴增到 2025 年約 90 億,2026 年目標 260 億。這不是慈善機構的成績單,這是一家用「安全」作為差異化武器的商業機器。
Anthropic 的核心技術叫 Constitutional AI(憲法 AI),它揭示了一種根本不同的 AI 訓練思維。
傳統做法是請大量人類標註員逐條審查 AI 的回答,標記哪些好、哪些壞,再用這些標記來訓練模型。這個方法有三個問題:標註員要接觸大量有害內容(心理負擔極大)、不可規模化(模型越強,人類越跟不上)、而且標註員的個人偏見會滲入模型。
Constitutional AI 的做法完全不同。它給 AI 一套「憲法」——源自聯合國人權宣言、其他 AI 實驗室的安全原則、以及 Anthropic 自己的測試經驗——大約十條核心原則。然後分兩個階段訓練:第一階段,讓模型對有害提問產生回應,再讓模型自己根據憲法批評自己的回應,然後修改。這個「自我批評→自我修正」的循環反覆進行,最後用修正後的回應來微調模型。第二階段,從微調後的模型中取樣,讓另一個 AI 判斷哪個回應更好,據此訓練偏好模型,再用 RLAIF(AI 回饋的強化學習)進行最終訓練。(相對於RLHF, 人類回饋的強化學習)
本質上,這是「用 AI 監督 AI」——不是取消人類監督,而是把人類的監督從「逐條審查」提升到「制定原則」的層次。人類不再當檢查員,而是當立法者。
Ilya Sutskever 的故事是這條信仰線的極端版本。他曾是 OpenAI 的首席科學家,2023 年底參與了那場震驚矽谷的「政變」——試圖罷免 Altman。政變失敗後,他離開 OpenAI 創立了 Safe Superintelligence Inc.(SSI),公司名字就是使命宣言。SSI 不做產品、不追營收,只做一件事:確保超級智慧是安全的。
而 Niki Parmar——Transformer 八位作者之一——在輾轉創辦了兩家公司之後,2024 年底選擇加入 Anthropic。這個選擇本身就是一個信號:Transformer 的共同發明者,最終站到了「安全優先」這一邊。
Amodei 在 2026 年 2 月的 Dwarkesh Podcast 訪談中預測了 AI 的進展路徑。他的核心張力始終一致:不是反對 AI 變強,而是相信「沒有對齊價值觀的強大 AI」比「沒有 AI」更危險。
3.「AI 是基礎設施」——相信技術要為所有人服務
代表人物:Aidan Gomez(Cohere)、Łukasz Kaiser(OpenAI)、吳恩達(DeepLearning.AI / AI Fund)
這三個人的切入點完全不同,但信仰的根源一致:技術本身還沒做完,也還沒普及,現在談商業版圖或末日風險都太早了。重要的是把底層做好,讓更多人用得起、學得會。
Aidan Gomez 發表 Transformer 論文時只是實習生,現在是估值近 70 億美元Cohere公司的 CEO。Cohere 不做消費者產品,專攻企業級 AI 部署,核心技術是 RAG(檢索增強生成)的極致優化和 Aya 多語言計畫,支援超過 23 種語言。Gomez 公開說過一句話:如果 AI 只對說英語的人有效,那我們在蓋一個排除數十億人的技術。在 2025 年 11 月的 No Priors Podcast 訪談中,他闡述了 Cohere 的企業策略——不跟 OpenAI 搶消費者入口,而是做企業客戶的 AI 引擎。
Łukasz Kaiser 是八位 Transformer 作者中唯一沒有創業的人。他 2021 年加入 OpenAI,參與了 o1、o3 推理模型和 GPT-4/5 的核心研發。當所有共同作者都在建立自己的王國時,他選擇留在技術最前沿當研究者。他在 2025 年 11 月的 MAD Podcast 訪談中解釋了推理模型的運作原理——這些模型不只是更大的語言模型,而是學會了「思考」的過程,能把複雜問題拆解成步驟逐一推演。Kaiser 的選擇本身就是一種信仰表達:不是所有技術人才都需要當 CEO,有人需要留在引擎室。
吳恩達則代表了「基礎設施」信仰的另一個維度:教育普及。他共同創辦了 Coursera、創立了 DeepLearning.AI,超過 700 萬人透過他的課程學習 AI。他的核心信念是「AI 是新電力」——不談末日,只談普及。2025 年推出的 Agentic AI 課程教開發者如何用四種設計模式(反思、工具使用、規劃、多代理協作)建構自主工作流程,標誌著他從「教你認識 AI」走向「教你用 AI 做事」的關鍵轉向。而他的 AI Fund 則投資早期 AI 應用公司,形成「教育→人才→應用」的飛輪。
三個人加起來的估值,比不上 OpenAI 的零頭。Cohere 估值 70 億、吳恩達的 AI Fund 管理數億美元、Kaiser 在 OpenAI 領薪水。但他們的邏輯是一樣的:如果 AI 不能被大規模採用,那些天價估值終究是空中樓閣。
4.「AI 要跨出文字」——相信語言模型只是起點
代表人物:Jakob Uszkoreit(Inceptive)、Llion Jones(Sakana AI)、李飛飛(World Labs)
這群人的共同信仰:文字聊天只是 AI 的嬰兒期。真正的革命在於讓 AI 理解物理世界——從分子結構到三維空間。
Jakob Uszkoreit 把 Transformer 帶進了一個大多數 AI 從業者沒想過的領域:RNA 藥物設計。他創辦的 Inceptive 用 AI 設計 RNA 分子序列,目標是讓藥物開發從「碰運氣」變成「寫程式」。2025 年的 TED Talk 中,他展示了 AI 如何繞過傳統科學方法——不是理解為什麼某個分子有效,而是直接找到有效的分子。這聽起來像是作弊,但他的論點是:生物學的複雜度已經超出人類直覺能處理的範圍,AI 不是取代科學家,是給科學家一個超人類尺度的搜索引擎。
Llion Jones 是最晚離開 Google 的 Transformer 作者之一(2023 年),他去了東京,和前 Google Brain 研究員 David Ha、伊藤練共同創辦了 Sakana AI。Sakana 的核心技術叫 Evolutionary Model Merge(演化式模型合併),原理本身就像一個隱喻:不是從頭訓練更大的模型,而是用演化算法自動雜交現有的開源模型。
具體來說,它用一種叫 CMA-ES 的演化策略,在兩個空間裡搜索最佳合併方式:參數空間(模型的權重怎麼混合)和數據流空間(模型的層怎麼重新排列)。透過數百代的演化——表現好的配方存活,表現差的淘汰——算法能找到人類直覺完全想不到的合併方式。比如,把一個日語語言模型和一個英語數學模型合併,演化出一個日語數學模型,而這兩個原始模型各自都做不到這件事。
這篇論文已被 Nature Machine Intelligence 接收發表。Sakana 還發表了 AI Scientist——全球第一個能自動完成完整科學研究流程的系統,從假設生成到論文撰寫,每篇成本約 15 美元。
資本也在下注。Sakana 的 2025 年 11 月 B 輪融資引入了三菱 UFJ、Khosla Ventures,以及最耐人尋味的投資者——In-Q-Tel,美國情報機構的投資臂膀。總融資超過 4.79 億美元,估值約 26.5 億。
李飛飛則離開學術象牙塔創辦了 World Labs,推動 AI 從語言進入空間智能。她在 2025 年 11 月的 Lenny's Podcast 訪談中描述了一個願景:AI 不只是讀文字、看圖片,而是理解三維空間中物體的關係、物理規律、和因果邏輯。
但這裡有一個殘酷的數字:Uszkoreit 的 Inceptive 專注生技(未公開估值)、Sakana 估值 26.5 億、World Labs 也在早期階段。這些公司的估值加起來,不到「帝國派」和「憲法派」的 5%。資本對「跨出文字」的耐心,遠不如對文字聊天入口的狂熱。
5.「AI 不該被壟斷」——相信開放比封閉更安全
代表人物:Illia Polosukhin(NEAR Protocol)、Yann LeCun(Meta)
Illia Polosukhin 是八位 Transformer 作者中最早離開 Google 的人——2017 年,論文發表的同一年。但他沒有去做 AI 公司,而是跨界到區塊鏈,創辦了 NEAR Protocol。這在當時看起來像是一次不相干的職涯轉彎,但現在回頭看,他的邏輯一直沒變:數據主權。
他的技術路線是用區塊鏈加上零知識證明(ZK proofs)和多方計算(MPC),建構一個「使用者擁有自己 AI」的基礎架構。在這個架構下,你的數據不需要離開你的設備,AI 模型的運算可以被驗證但不被窺探。2025 年 3 月的 NVIDIA GTC 演講中,他展示了去中心化機密 AI 運算的原型。
Yann LeCun 則從另一個方向到達同樣的結論。作為 Meta 的首席 AI 科學家和深度學習三巨頭之一,他在 Meta 內部推動了 Llama 系列模型的開源,並且是 AI 圈裡最高調的「風險被誇大」論者。在 Lex Fridman Podcast 的訪談中,他公開主張:封閉系統才是通往災難的最短路徑。當所有的 AI 能力都集中在兩三家公司手裡,真正的風險不是 AI 太強,而是權力太集中。
安全派認為開源等於把武器發給所有人;開源派認為壟斷才是通往災難的最短路徑。這場辯論目前沒有答案,但 Meta 在開源上的投入規模已經是一個事實:Llama 的下載量以億計算,但不直接產生營收。Polosukhin 的 AI + Web3 路線更是所有信仰中最另類的賭注——用一個大多數 AI 從業者不信的技術(區塊鏈),解決一個大多數 AI 從業者還沒意識到的問題(數據主權)。
天火之後——資本的投票與信仰的代價
拉遠一步,看看資本怎麼對這五種信仰下注。
2025 年全球 AI 新創融資達到 2380 億美元,佔全球創投的 47%。但錢的流向極度集中:前 10 大公司吃掉了 76% 的資金,光是 OpenAI 和 Anthropic 兩家就佔了全球創投的 14%。基礎模型公司捕獲了約 800 億,佔 AI 融資的 40%。
把五種信仰的估值攤開,畫面更清楚:
| 信仰 | 代表公司 | 估值量級 |
| AI 是帝國 | OpenAI | 8400 億美元 |
| AI 需要憲法 | Anthropic | 3800 億美元 |
| AI 是基礎設施 | Cohere | 70 億美元 |
| AI 要跨出文字 | Sakana AI | 26.5 億美元 |
| AI 不該被壟斷 | NEAR Protocol | 區塊鏈經濟體,非直接可比 |
資本明顯傾斜到「帝國派」和「憲法派」——能快速變現或有明確護城河的路線。「跨出文字」和「反壟斷」的估值加起來不到前兩者的 5%。這不代表後者是錯的,但資本的耐心確實有限。
而即使是最受資本寵愛的 OpenAI,年虧損仍超過 50 億美元。信仰可能很美,但要在資本失去耐心錢撐住。
下次我再看到一篇 AI 大人物的訪談,或是工作流(例如昨天紅遍全網的Anthropic各單位工作現況)不用急著判斷誰對誰錯。先問一個問題:這個人內心最深處,相信的是什麼?而你相信的又是什麼。
他的信仰,決定了他怎麼用技術、資本怎麼跟、以及你作為使用者會得到什麼樣的 AI。我們的信仰,決定了我們麻瓜們在此刻如何站隊,如何面對技術,以及...如何其實不需要FOMO。
普羅米修斯把火帶給人類之後,希臘神話的重點從來不是火有多熱——而是拿到火的人,選擇拿它來做什麼。
📌 關鍵數字
- OpenAI 估值 8400 億美元(2026 年 2 月),一篇 2017 年的 15 頁論文開啟了這一切
- 2025 年全球 AI 融資 2380 億美元,前 10 大公司吃掉 76%
- Transformer 八位作者全部離開 Google,走向八條完全不同的路
如果你覺得這種「先搞清楚人,再看懂趨勢」的分析方式有共鳴,跟我說,鼓勵我多寫~
這張地圖一定有遺漏——你最近被哪個 AI 人物的訪談打到?留言告訴我。
延伸閱讀:訪談索引
| 人物 | 訪談/文章 | 時間 | 核心主題 |
| Sam Altman | Big Technology Podcast | 2026.02 | OpenAI IPO 計畫與 AI 競爭 |
| Dario Amodei | Dwarkesh Podcast | 2026.02 | AI 進展預測與安全路線 |
| Dario Amodei | 《The Adolescence of Technology》 | 2026.01 | AI 風險論述 |
| Ilya Sutskever | Dwarkesh Podcast | 2025.11 | 從 scaling 到 research 的轉移 |
| Łukasz Kaiser | MAD Podcast | 2025.11 | 推理模型原理與 AI 進展曲線 |
| Aidan Gomez | No Priors Podcast | 2025.11 | Cohere 企業策略 |
| 吳恩達 | Y Combinator Podcast | 2025.07 | AI 加速建構與代理工作流 |
| Jakob Uszkoreit | TED Talk | 2025.03 | AI 如何繞過傳統科學 |
| Llion Jones | What's Your Problem? Podcast | 2025.07 | AI 於醫藥的應用 |
| Illia Polosukhin | NVIDIA GTC 演講 | 2025.03 | 去中心化機密 AI 運算 |
| 李飛飛 | Lenny's Podcast | 2025.11 | AI 工作、機器人與世界模型 |
| Yann LeCun | Lex Fridman Podcast #416 | 2024 | Meta AI、開源、AGI 未來 |
如果應用上有任何回饋,歡迎來信 erica.yojuhsu@gmail.com

