• 關於我
  • Erica 的商業策略與行銷洞察 | yojuhsu.com 部落格
  • 聯絡我們
  • 關於我
  • Erica 的商業策略與行銷洞察 | yojuhsu.com 部落格
  • 聯絡我們
  • 文章總覽
  • 分類
  • 自己學習 (54)
    • 書單 (43)
      • 行銷 (32)
        • 談判 (4)
          • 電信冷知識
            • 小訪談
              • 生活 (28)
                • AI 學習 (17)
                  • 商業分析 (6)
                    徵文 (0) 書單 (0) 楊斯棓 (1) 胡志明市 (0) 飛車搶劫 (0) Grab (0) 一談就贏 (2) 談判 (1) facebook (0) skin-care (0) 社群 (0) 信用貸款 (0) 利率 (0) 小額貸款 (0) 得到 (2) 數位金融 (0) 風險 (1) 香帥 (0) 終身學習 (2) 4A (2) 5A (2) AIDA (2) Funnel (1) Kotler (2) Marketing4.0 (1) 口碑 (2) 行銷4.0 (1) 轉換率 (2) 品牌行銷 (5) 廣告文案 (1) 故事學 (0) 行銷 (9) 成長心態 (0) 賽斯高汀 (0) Branding (1) PMO (1) position (1) 品牌 (5) 品牌無用 (1) 定位 (1) 劉潤 (1) 得到app (1) 創業 (1) 矽谷 (1) 臉書 (1) 大數據 行銷 演算法 恐怖谷 周哈里窗 (1) FMCG (1) 創投 (1) 消費性產業 (1) 生鮮 (1) 1984 (1) Apple (1) 品牌個性 (1) 品牌理念 (1) 品牌符號 (1) 品牌訊息 (1) 行銷學 (6) 千禧世代 (1) 嬰兒潮世代 (1) 數位行銷 (1) 價格 (0) 定價 (0) 廣告 (0) 文案 (0) NGO (1) 理財 (1) Alex Cheng (1) 銷售漏斗 (1) 銷售贏家 (1) 橘玲 (3) 生存策略 (2) 社會不公 (2) 數據分析 (1) 數據洞察 (1) Zozo (1) 信念 (1) 前澤友作 (1) 商業決策 (1) 國民品牌 (1) 日本企業 (1) 環球影城 (1) 迪士尼 (1) 國際英語,線上會議,自我介紹與打招呼,Small_Talks,主持,派工,開會的技巧 (0) 邱強博士,零錯誤,SOP優化,創意工作者,知識工作者,五顆彈珠,驢子都能執行的SOP,五個比兩個好, (1) 社會生存力 (Social Survival Skills),哈佛教育 (Harvard Education),快速寫作 (Qu (1) Amy Edmondson (1) 團隊動力學 Team Dynamics (1) 團隊自信 Team Confidence (1) 心理安全感的力量 (1) 無畏的組織 Fearless Organization (1) 賦能 Empowerment (1) 領導 Leadership (1) 得到app,羅振宇,羅胖,時間的朋友,自我賦能,轉型,科技未來,AI影響,個人成長,克服行業挑戰,逆境中保持動力 (1) 二手銷售 (1) 經營策略 (1) KeithDevlin (0) 吳軍 (0) 數學思維 (0) 數學教育 (0) 邏輯思考 (0) 台灣史 (1) 平路 (1) 身份認同 (1) PDCA (1) 安藤廣大 (1) 指標 (1) 數值化 (1) 老手 (1) 行動量 (1) 現代孤立 (1) 經濟不平等 (1) DevOps (1) IT運營 (1) Remove term: DevOps (1) 合作 (1) 效率提升 (1) 敏捷 (1) 現代開發 (1) 生產力 (1) 運營管理 (1) 開發與運維 (1) 非IT人員 (1) 鳳凰專案 (1) 21世紀資本論 (1) 何帆 (1) 社會經濟不平等 (1) 簡化經濟學 (1) 經濟學 (1) 經濟學入門 (1) 經濟學導讀 (1) 經濟學理解 (1) 資本不平等 (1) 資本主義分析 (1) 資本主義批判 (1)
                    1. 首頁
                    2. 部落格
                    3. 決定 AI 未來的,不是演算法——是我們內心相信的東西

                    決定 AI 未來的,不是演算法——是我們內心相信的東西

                    2026 Mar 03 AI 學習 商業分析
                    內容目錄
                    1. 那篇改變一切的論文
                      1. Transformer 八位作者現況
                    2. 信仰光譜——五種回答
                      1. 1.「AI 是帝國」——相信規模和速度決定一切
                      2. 2.「AI 需要憲法」——相信安全比速度重要
                      3. 3.「AI 是基礎設施」——相信技術要為所有人服務
                      4. 4.「AI 要跨出文字」——相信語言模型只是起點
                      5. 5.「AI 不該被壟斷」——相信開放比封閉更安全
                    3. 天火之後——資本的投票與信仰的代價
                      1. 延伸閱讀:訪談索引

                    決定 AI 未來的,不是演算法——是我們內心相信的東西

                    從一篇論文到 8400 億美元帝國,幫我們局外人畫一張 AGI 權力地圖


                    每隔兩三天,我的資訊流就會冒出一篇矽谷 AI 重要人物的訪談:

                    Sam Altman 說 AGI 很快就到;Dario Amodei 說 AI 風險被低估了;Yann LeCun 說你們都在誇大;吳恩達說別怕,先學會用它。

                    每一個人都講得頭頭是道,邏輯自洽,但方向完全不同。把我的FOMO變得更焦慮了。

                    我內心有個感覺:看得頭昏眼花,可能不是我硬知識不夠的問題,是我們缺一張地圖。

                    半導體世界我們有脈絡可循——從 Fairchild 八叛徒到英特爾到台積電,科技史教過,產業邏輯也清楚。

                    但 AI 世界呢?Sam Altman 之外的這些名字到底是誰?他們之間的恩怨分合意味著什麼?為什麼同一間辦公室出來的人,現在站在完全對立的立場?

                    我把這些人的選擇攤開來看,發現一件事:技術差異其實是表象。真正的分歧在更深的地方——他們對「AI 應該成為什麼」的信仰,完全不同。

                    於是我試著畫一張地圖給自己看,想回答的是:掌握天火的這群人,內心相信的是什麼。


                    那篇改變一切的論文

                    2017 年,Google 內部一群研究員發表了一篇叫《Attention Is All You Need》的論文。標題致敬披頭四〈All You Need Is Love〉,「Transformer」這個名字是因為其中一位作者覺得它聽起來很酷。這篇論文提出的架構,後來成了 ChatGPT、Claude、Gemini——幾乎所有你用過的 AI 產品——的地基。被引用超過 19 萬次,是近十年最具影響力的電腦科學論文之一。

                    八位作者,全部離開了 Google。而且他們走的方向截然不同。

                    與此同時,另一群從 OpenAI 出走的人,也在用各自的方式重塑 AI 的未來。這兩條線——Transformer 發明者和 OpenAI 離散者——構成了今天 AI 世界的權力版圖。

                    在展開信仰光譜之前,先看一張快照:同一篇論文、同一間辦公室出來的八個人,現在在哪裡、相信什麼。

                    Transformer 八位作者現況

                    作者 離開時間 現在在哪 一句話描述他的信仰 估值/狀態
                    Noam Shazeer 2021→2024 回歸 Google DeepMind(領導 Gemini) AI 應該有人格,能陪伴每個人 被 Google 以 ~27 億美元 acqui-hire 買回
                    Aidan Gomez 2021 Cohere CEO AI 是基礎設施,要讓全球企業都用得起 估值 ~70 億美元
                    Jakob Uszkoreit 2021 Inceptive 創辦人 AI 最大的價值在改寫生命的程式碼 生技領域,未公開估值
                    Llion Jones 2023 Sakana AI CTO(東京) Transformer 已到瓶頸,要用演化找到下一代 估值 ~26.5 億美元
                    Łukasz Kaiser 2021 OpenAI 研究科學家 留在技術最前沿繼續挖,不創業 唯一沒創業的作者
                    Illia Polosukhin 2017 NEAR Protocol CEO 用去中心化解決 AI 的權力集中問題 最早離開,跨界區塊鏈
                    Ashish Vaswani 2021 Essential AI → 動態待確認 讓 AI 成為自動化商業流程的數位員工 公司被 Adept 收購(2023)
                    Niki Parmar 2021 Anthropic 技術成員 從創業回到研究,選擇「安全優先」的陣營 2024 年底加入 Anthropic

                    從「AI 是陪伴」到「AI 是藥物」到「AI 需要被去中心化」——同一篇論文的共同作者,信仰光譜之寬,本身就是一個關於技術與人性的寓言。


                    信仰光譜——五種回答

                    當你問「AI 應該成為什麼」,這群人給出了五種根本不同的答案。以下每一種信仰,我都用三層來拆解:他們相信什麼、用什麼技術支撐這個信仰、資本怎麼投票。

                    1.「AI 是帝國」——相信規模和速度決定一切

                    代表人物:Sam Altman(OpenAI)、Noam Shazeer(回歸 Google)

                    Sam Altman 的路線清晰到殘酷:AGI 必須由一個擁有絕對資源的組織率先做出來,否則就是讓更不負責任的人先做到。

                    在這個邏輯下,OpenAI 從非營利翻轉為商業巨頭不是背叛理想,而是理想的必要代價。2026 年 2 月,OpenAI 完成 1100 億美元融資,估值達到 8400 億——這是人類歷史上最大的私人融資。Stargate 計畫要砸超過千億美元建造超級電腦叢集,規模已經超越多數國家的基礎建設預算。

                    Altman 在 2026 年 2 月接受 Big Technology Podcast 訪談時談到了 IPO 計畫,語氣平靜得像在討論下季度的產品路線圖。對他來說,上市不是終點,是取得更多資源的手段。

                    Noam Shazeer 的故事則是帝國邏輯的另一面。他是 Transformer 論文的靈魂人物之一,離開 Google 是因為公司不願發布他開發的聊天機器人 LaMDA。他帶著 Niki Parmar 創辦了 Character.AI,主打有人格的 AI 夥伴。結果呢?2024 年 8 月,Google 花了大約 27 億美元把他 acqui-hire 回來領導 Gemini。

                    發明者出走,帝國用金錢把他買回——這個故事本身就是一個關於權力和才華的寓言。你可以逃離帝國,但帝國有能力讓你回來。

                    2.「AI 需要憲法」——相信安全比速度重要

                    代表人物:Dario Amodei(Anthropic)、Ilya Sutskever(SSI)、Niki Parmar(加入 Anthropic)

                    Dario Amodei 和他的妹妹 Daniela 從 OpenAI 帶走核心員工創立 Anthropic 時,矽谷很多人覺得他們在自毀前程。離開全球最熱的 AI 公司,只因為覺得「安全做得不夠」?聽起來像是理想主義者的自殺式選擇。

                    但三年後的數字打了所有人的臉。Anthropic 在 2026 年 2 月完成 300 億美元融資,估值達到 3800 億。年營收從 2024 年的不到 10 億暴增到 2025 年約 90 億,2026 年目標 260 億。這不是慈善機構的成績單,這是一家用「安全」作為差異化武器的商業機器。

                    Anthropic 的核心技術叫 Constitutional AI(憲法 AI),它揭示了一種根本不同的 AI 訓練思維。

                    傳統做法是請大量人類標註員逐條審查 AI 的回答,標記哪些好、哪些壞,再用這些標記來訓練模型。這個方法有三個問題:標註員要接觸大量有害內容(心理負擔極大)、不可規模化(模型越強,人類越跟不上)、而且標註員的個人偏見會滲入模型。

                    Constitutional AI 的做法完全不同。它給 AI 一套「憲法」——源自聯合國人權宣言、其他 AI 實驗室的安全原則、以及 Anthropic 自己的測試經驗——大約十條核心原則。然後分兩個階段訓練:第一階段,讓模型對有害提問產生回應,再讓模型自己根據憲法批評自己的回應,然後修改。這個「自我批評→自我修正」的循環反覆進行,最後用修正後的回應來微調模型。第二階段,從微調後的模型中取樣,讓另一個 AI 判斷哪個回應更好,據此訓練偏好模型,再用 RLAIF(AI 回饋的強化學習)進行最終訓練。(相對於RLHF, 人類回饋的強化學習)

                    本質上,這是「用 AI 監督 AI」——不是取消人類監督,而是把人類的監督從「逐條審查」提升到「制定原則」的層次。人類不再當檢查員,而是當立法者。

                    Ilya Sutskever 的故事是這條信仰線的極端版本。他曾是 OpenAI 的首席科學家,2023 年底參與了那場震驚矽谷的「政變」——試圖罷免 Altman。政變失敗後,他離開 OpenAI 創立了 Safe Superintelligence Inc.(SSI),公司名字就是使命宣言。SSI 不做產品、不追營收,只做一件事:確保超級智慧是安全的。

                    而 Niki Parmar——Transformer 八位作者之一——在輾轉創辦了兩家公司之後,2024 年底選擇加入 Anthropic。這個選擇本身就是一個信號:Transformer 的共同發明者,最終站到了「安全優先」這一邊。

                    Amodei 在 2026 年 2 月的 Dwarkesh Podcast 訪談中預測了 AI 的進展路徑。他的核心張力始終一致:不是反對 AI 變強,而是相信「沒有對齊價值觀的強大 AI」比「沒有 AI」更危險。

                    3.「AI 是基礎設施」——相信技術要為所有人服務

                    代表人物:Aidan Gomez(Cohere)、Łukasz Kaiser(OpenAI)、吳恩達(DeepLearning.AI / AI Fund)

                    這三個人的切入點完全不同,但信仰的根源一致:技術本身還沒做完,也還沒普及,現在談商業版圖或末日風險都太早了。重要的是把底層做好,讓更多人用得起、學得會。

                    Aidan Gomez 發表 Transformer 論文時只是實習生,現在是估值近 70 億美元Cohere公司的 CEO。Cohere 不做消費者產品,專攻企業級 AI 部署,核心技術是 RAG(檢索增強生成)的極致優化和 Aya 多語言計畫,支援超過 23 種語言。Gomez 公開說過一句話:如果 AI 只對說英語的人有效,那我們在蓋一個排除數十億人的技術。在 2025 年 11 月的 No Priors Podcast 訪談中,他闡述了 Cohere 的企業策略——不跟 OpenAI 搶消費者入口,而是做企業客戶的 AI 引擎。

                    Łukasz Kaiser 是八位 Transformer 作者中唯一沒有創業的人。他 2021 年加入 OpenAI,參與了 o1、o3 推理模型和 GPT-4/5 的核心研發。當所有共同作者都在建立自己的王國時,他選擇留在技術最前沿當研究者。他在 2025 年 11 月的 MAD Podcast 訪談中解釋了推理模型的運作原理——這些模型不只是更大的語言模型,而是學會了「思考」的過程,能把複雜問題拆解成步驟逐一推演。Kaiser 的選擇本身就是一種信仰表達:不是所有技術人才都需要當 CEO,有人需要留在引擎室。

                    吳恩達則代表了「基礎設施」信仰的另一個維度:教育普及。他共同創辦了 Coursera、創立了 DeepLearning.AI,超過 700 萬人透過他的課程學習 AI。他的核心信念是「AI 是新電力」——不談末日,只談普及。2025 年推出的 Agentic AI 課程教開發者如何用四種設計模式(反思、工具使用、規劃、多代理協作)建構自主工作流程,標誌著他從「教你認識 AI」走向「教你用 AI 做事」的關鍵轉向。而他的 AI Fund 則投資早期 AI 應用公司,形成「教育→人才→應用」的飛輪。

                    三個人加起來的估值,比不上 OpenAI 的零頭。Cohere 估值 70 億、吳恩達的 AI Fund 管理數億美元、Kaiser 在 OpenAI 領薪水。但他們的邏輯是一樣的:如果 AI 不能被大規模採用,那些天價估值終究是空中樓閣。

                    4.「AI 要跨出文字」——相信語言模型只是起點

                    代表人物:Jakob Uszkoreit(Inceptive)、Llion Jones(Sakana AI)、李飛飛(World Labs)

                    這群人的共同信仰:文字聊天只是 AI 的嬰兒期。真正的革命在於讓 AI 理解物理世界——從分子結構到三維空間。

                    Jakob Uszkoreit 把 Transformer 帶進了一個大多數 AI 從業者沒想過的領域:RNA 藥物設計。他創辦的 Inceptive 用 AI 設計 RNA 分子序列,目標是讓藥物開發從「碰運氣」變成「寫程式」。2025 年的 TED Talk 中,他展示了 AI 如何繞過傳統科學方法——不是理解為什麼某個分子有效,而是直接找到有效的分子。這聽起來像是作弊,但他的論點是:生物學的複雜度已經超出人類直覺能處理的範圍,AI 不是取代科學家,是給科學家一個超人類尺度的搜索引擎。

                    Llion Jones 是最晚離開 Google 的 Transformer 作者之一(2023 年),他去了東京,和前 Google Brain 研究員 David Ha、伊藤練共同創辦了 Sakana AI。Sakana 的核心技術叫 Evolutionary Model Merge(演化式模型合併),原理本身就像一個隱喻:不是從頭訓練更大的模型,而是用演化算法自動雜交現有的開源模型。

                    具體來說,它用一種叫 CMA-ES 的演化策略,在兩個空間裡搜索最佳合併方式:參數空間(模型的權重怎麼混合)和數據流空間(模型的層怎麼重新排列)。透過數百代的演化——表現好的配方存活,表現差的淘汰——算法能找到人類直覺完全想不到的合併方式。比如,把一個日語語言模型和一個英語數學模型合併,演化出一個日語數學模型,而這兩個原始模型各自都做不到這件事。

                    這篇論文已被 Nature Machine Intelligence 接收發表。Sakana 還發表了 AI Scientist——全球第一個能自動完成完整科學研究流程的系統,從假設生成到論文撰寫,每篇成本約 15 美元。

                    資本也在下注。Sakana 的 2025 年 11 月 B 輪融資引入了三菱 UFJ、Khosla Ventures,以及最耐人尋味的投資者——In-Q-Tel,美國情報機構的投資臂膀。總融資超過 4.79 億美元,估值約 26.5 億。

                    李飛飛則離開學術象牙塔創辦了 World Labs,推動 AI 從語言進入空間智能。她在 2025 年 11 月的 Lenny's Podcast 訪談中描述了一個願景:AI 不只是讀文字、看圖片,而是理解三維空間中物體的關係、物理規律、和因果邏輯。

                    但這裡有一個殘酷的數字:Uszkoreit 的 Inceptive 專注生技(未公開估值)、Sakana 估值 26.5 億、World Labs 也在早期階段。這些公司的估值加起來,不到「帝國派」和「憲法派」的 5%。資本對「跨出文字」的耐心,遠不如對文字聊天入口的狂熱。

                    5.「AI 不該被壟斷」——相信開放比封閉更安全

                    代表人物:Illia Polosukhin(NEAR Protocol)、Yann LeCun(Meta)

                    Illia Polosukhin 是八位 Transformer 作者中最早離開 Google 的人——2017 年,論文發表的同一年。但他沒有去做 AI 公司,而是跨界到區塊鏈,創辦了 NEAR Protocol。這在當時看起來像是一次不相干的職涯轉彎,但現在回頭看,他的邏輯一直沒變:數據主權。

                    他的技術路線是用區塊鏈加上零知識證明(ZK proofs)和多方計算(MPC),建構一個「使用者擁有自己 AI」的基礎架構。在這個架構下,你的數據不需要離開你的設備,AI 模型的運算可以被驗證但不被窺探。2025 年 3 月的 NVIDIA GTC 演講中,他展示了去中心化機密 AI 運算的原型。

                    Yann LeCun 則從另一個方向到達同樣的結論。作為 Meta 的首席 AI 科學家和深度學習三巨頭之一,他在 Meta 內部推動了 Llama 系列模型的開源,並且是 AI 圈裡最高調的「風險被誇大」論者。在 Lex Fridman Podcast 的訪談中,他公開主張:封閉系統才是通往災難的最短路徑。當所有的 AI 能力都集中在兩三家公司手裡,真正的風險不是 AI 太強,而是權力太集中。

                    安全派認為開源等於把武器發給所有人;開源派認為壟斷才是通往災難的最短路徑。這場辯論目前沒有答案,但 Meta 在開源上的投入規模已經是一個事實:Llama 的下載量以億計算,但不直接產生營收。Polosukhin 的 AI + Web3 路線更是所有信仰中最另類的賭注——用一個大多數 AI 從業者不信的技術(區塊鏈),解決一個大多數 AI 從業者還沒意識到的問題(數據主權)。


                    天火之後——資本的投票與信仰的代價

                    拉遠一步,看看資本怎麼對這五種信仰下注。

                    2025 年全球 AI 新創融資達到 2380 億美元,佔全球創投的 47%。但錢的流向極度集中:前 10 大公司吃掉了 76% 的資金,光是 OpenAI 和 Anthropic 兩家就佔了全球創投的 14%。基礎模型公司捕獲了約 800 億,佔 AI 融資的 40%。

                    把五種信仰的估值攤開,畫面更清楚:

                    信仰 代表公司 估值量級
                    AI 是帝國 OpenAI 8400 億美元
                    AI 需要憲法 Anthropic 3800 億美元
                    AI 是基礎設施 Cohere 70 億美元
                    AI 要跨出文字 Sakana AI 26.5 億美元
                    AI 不該被壟斷 NEAR Protocol 區塊鏈經濟體,非直接可比

                    資本明顯傾斜到「帝國派」和「憲法派」——能快速變現或有明確護城河的路線。「跨出文字」和「反壟斷」的估值加起來不到前兩者的 5%。這不代表後者是錯的,但資本的耐心確實有限。

                    而即使是最受資本寵愛的 OpenAI,年虧損仍超過 50 億美元。信仰可能很美,但要在資本失去耐心錢撐住。


                    下次我再看到一篇 AI 大人物的訪談,或是工作流(例如昨天紅遍全網的Anthropic各單位工作現況)不用急著判斷誰對誰錯。先問一個問題:這個人內心最深處,相信的是什麼?而你相信的又是什麼。

                    他的信仰,決定了他怎麼用技術、資本怎麼跟、以及你作為使用者會得到什麼樣的 AI。我們的信仰,決定了我們麻瓜們在此刻如何站隊,如何面對技術,以及...如何其實不需要FOMO。

                    普羅米修斯把火帶給人類之後,希臘神話的重點從來不是火有多熱——而是拿到火的人,選擇拿它來做什麼。


                    📌 關鍵數字

                    • OpenAI 估值 8400 億美元(2026 年 2 月),一篇 2017 年的 15 頁論文開啟了這一切
                    • 2025 年全球 AI 融資 2380 億美元,前 10 大公司吃掉 76%
                    • Transformer 八位作者全部離開 Google,走向八條完全不同的路

                    如果你覺得這種「先搞清楚人,再看懂趨勢」的分析方式有共鳴,跟我說,鼓勵我多寫~

                    這張地圖一定有遺漏——你最近被哪個 AI 人物的訪談打到?留言告訴我。


                    延伸閱讀:訪談索引

                    人物 訪談/文章 時間 核心主題
                    Sam Altman Big Technology Podcast 2026.02 OpenAI IPO 計畫與 AI 競爭
                    Dario Amodei Dwarkesh Podcast 2026.02 AI 進展預測與安全路線
                    Dario Amodei 《The Adolescence of Technology》 2026.01 AI 風險論述
                    Ilya Sutskever Dwarkesh Podcast 2025.11 從 scaling 到 research 的轉移
                    Łukasz Kaiser MAD Podcast 2025.11 推理模型原理與 AI 進展曲線
                    Aidan Gomez No Priors Podcast 2025.11 Cohere 企業策略
                    吳恩達 Y Combinator Podcast 2025.07 AI 加速建構與代理工作流
                    Jakob Uszkoreit TED Talk 2025.03 AI 如何繞過傳統科學
                    Llion Jones What's Your Problem? Podcast 2025.07 AI 於醫藥的應用
                    Illia Polosukhin NVIDIA GTC 演講 2025.03 去中心化機密 AI 運算
                    李飛飛 Lenny's Podcast 2025.11 AI 工作、機器人與世界模型
                    Yann LeCun Lex Fridman Podcast #416 2024 Meta AI、開源、AGI 未來

                    如果應用上有任何回饋,歡迎來信 erica.yojuhsu@gmail.com

                      • 分享此文章
                      0則留言

                      相關文章

                      從謠言學文案結構

                      • 2020 Mar 01

                      《獲利優先》讀書心得

                      • 2019 Nov 05

                      如何加快讀書速度?

                      • 2018 Dec 04

                      [學習] 非銷售人員了解銷售人員在做什麼的一門課

                      • 2018 Apr 16

                      《擁抱次貸:金融科技化解中國危局》讀後心得

                      • 2019 Apr 22

                      秒懂RAG與ReAct, Google Gen AI Leader 必考題

                      一直聽過 RAG 與 ReAct,卻說不清差別?我在準備 AI 考試時,反覆拷問模型它們的定義與實際用途,才發現這兩個架構真正解決的是「記憶」與「行動」的問題。

                      • 2026 Jan 20

                      關於我

                      • 關於我_Erica 許幼如

                      聯絡我們

                      • 隱私權政策
                      COPYRIGHT© All rights reserved | Powered by 路老闆