• 商業分析
  • AI實戰筆記
  • 行銷洞察
  • 閱讀與思考
  • 關於我
  • 商業分析
  • AI實戰筆記
  • 行銷洞察
  • 閱讀與思考
  • 關於我
AI 實戰筆記
  • 文章總覽
  • 分類
  • 閱讀與思考 (128)
    • 自己學習 (53)
    • 談判 (4)
    • 電信冷知識
    • 小訪談
    • 生活 (28)
  • 行銷洞察 (32)
    • AI 實戰筆記 (19)
      • 商業分析 (17)
        徵文 (0) 書單 (0) 楊斯棓 (1) 胡志明市 (0) 飛車搶劫 (0) Grab (0) 一談就贏 (2) 談判 (1) facebook (0) skin-care (0) 社群 (0) 信用貸款 (0) 利率 (0) 小額貸款 (0) 得到 (2) 數位金融 (0) 風險 (1) 香帥 (0) 終身學習 (2) 4A (2) 5A (2) AIDA (2) Funnel (1) Kotler (2) Marketing4.0 (1) 口碑 (2) 行銷4.0 (1) 轉換率 (2) 品牌行銷 (5) 廣告文案 (1) 故事學 (0) 行銷 (9) 成長心態 (0) 賽斯高汀 (0) Branding (1) PMO (1) position (1) 品牌 (5) 品牌無用 (1) 定位 (1) 劉潤 (1) 得到app (1) 創業 (1) 矽谷 (1) 臉書 (1) 大數據 行銷 演算法 恐怖谷 周哈里窗 (1) FMCG (1) 創投 (1) 消費性產業 (1) 生鮮 (1) 1984 (1) Apple (1) 品牌個性 (1) 品牌理念 (1) 品牌符號 (1) 品牌訊息 (1) 行銷學 (6) 千禧世代 (1) 嬰兒潮世代 (1) 數位行銷 (1) 價格 (0) 定價 (0) 廣告 (0) 文案 (0) NGO (1) 理財 (1) Alex Cheng (1) 銷售漏斗 (1) 銷售贏家 (1) 橘玲 (3) 生存策略 (2) 社會不公 (2) 數據分析 (1) 數據洞察 (1) Zozo (1) 信念 (1) 前澤友作 (1) 商業決策 (1) 國民品牌 (1) 日本企業 (1) 環球影城 (1) 迪士尼 (1) 國際英語,線上會議,自我介紹與打招呼,Small_Talks,主持,派工,開會的技巧 (0) 邱強博士,零錯誤,SOP優化,創意工作者,知識工作者,五顆彈珠,驢子都能執行的SOP,五個比兩個好, (1) 社會生存力 (Social Survival Skills),哈佛教育 (Harvard Education),快速寫作 (Qu (1) Amy Edmondson (1) 團隊動力學 Team Dynamics (1) 團隊自信 Team Confidence (1) 心理安全感的力量 (1) 無畏的組織 Fearless Organization (1) 賦能 Empowerment (1) 領導 Leadership (1) 得到app,羅振宇,羅胖,時間的朋友,自我賦能,轉型,科技未來,AI影響,個人成長,克服行業挑戰,逆境中保持動力 (1) 二手銷售 (1) 經營策略 (1) KeithDevlin (0) 吳軍 (0) 數學思維 (0) 數學教育 (0) 邏輯思考 (0) 台灣史 (1) 平路 (1) 身份認同 (1) PDCA (1) 安藤廣大 (1) 指標 (1) 數值化 (1) 老手 (1) 行動量 (1) 現代孤立 (1) 經濟不平等 (1) DevOps (1) IT運營 (1) Remove term: DevOps (1) 合作 (1) 效率提升 (1) 敏捷 (1) 現代開發 (1) 生產力 (1) 運營管理 (1) 開發與運維 (1) 非IT人員 (1) 鳳凰專案 (1) 21世紀資本論 (1) 何帆 (1) 社會經濟不平等 (1) 簡化經濟學 (1) 經濟學 (1) 經濟學入門 (1) 經濟學導讀 (1) 經濟學理解 (1) 資本不平等 (1) 資本主義分析 (1) 資本主義批判 (1)
        1. 首頁
        2. 部落格
        3. Karpathy AI 知識庫實作|用 Claude Cowork 從散落筆記蓋出 51 張知識卡片

        Karpathy AI 知識庫實作|用 Claude Cowork 從散落筆記蓋出 51 張知識卡片

        2026 Apr 06 AI 實戰筆記
        內容目錄
        1. 先回答一個問題:為什麼要做這件事?
        2. 你需要準備什麼
        3. 全流程六步驟
          1. STEP 1 資料清理:先整理檔案,再做任何事
          2. STEP 2 知識點萃取:請 AI 做卡片和 Wiki
          3. STEP 3 補遺:你一定會發現少了什麼
          4. STEP 4 再萃取:第二輪快很多,但有格式限制
          5. STEP 5 Dashboard:讓你的知識庫「可視化」
          6. STEP 6 排程維護(規劃中)
        4. 我踩到的坑,你可以注意一下
        5. 給第一次嘗試的人的建議
        6. 最終成果
        7. 跟 Karpathy 方法的差異
        AI 實戰筆記
        Karpathy 的 AI 知識庫概念
        我用 Claude Cowork 實作了一版
        51
        知識卡片
        206
        雙向連結
        9
        知識主軸
        2天
        完成時間
        DATA ANALYST WORKFLOW
        🧹 資料清理 = Data Cleaning
        1 整理檔案:掃描四區、分類、去重複
        💡 最大心得
        花了一天半,但這一步決定了後面所有卡片的品質。Garbage in, garbage out。
        ⚙️ 分析 = 建模+跑運算
        2 知識點萃取:AI 做卡片、建雙向連結
        3 補遺:找回遺漏的素材
        4 再萃取:第二輪快很多
        📊 解讀與洞察 = 視覺化+找 Pattern
        5 Dashboard:儀表板+知識網絡圖
        6 排程維護:定期更新+討論洞察
        🔗 最大驚喜
        跨領域的連結才是真正的價值,不是卡片本身。

        這不是一篇「AI 好棒棒」的推廣文。這是我花了兩天,用 Claude Cowork 把散落在四個地方的十幾年筆記,整理成 51 張知識卡片和一座可搜尋的個人 Wiki 的完整紀錄。過程中踩了不少坑,AI 也卡關過一個多小時。但最終成果讓我覺得值得寫下來。

        先回答一個問題:為什麼要做這件事?

        2026 年 4 月初,Andrej Karpathy 在 X 上發了一篇「LLM Knowledge Bases」,描述他怎麼用 AI 把原始素材編譯成一座會自己長大的個人知識 wiki。文章出來後學習圈大熱,很多朋友來問我:「你有沒有這樣做?」

        老實說我沒有仔細去讀 Karpathy 的原文。但這件事我本來就介在想做跟拖延之間很久了,朋友們一直問,我就動手了。


        我是一個輸入很多、輸出比例偏低的人。

        讀書會筆記、產業分析簡報、讀書心得、工作上的 PPT,這些東西散落在 Google Drive 的不同資料夾、電腦桌面、下載區、文件夾裡。每次想找某個觀點的時候,我知道「我以前想過這件事」,但就是找不到在哪裡。

        怎麼辦?重做就好,重做反而比較快。這是我的自嘲也是生存之道。

        如果真的給我一個 wiki,我想要的不是一個檔案管理系統,而是一張知識的地圖:讓我看到自己到底懂了什麼、哪些概念之間有關聯、哪些領域我其實一直在重複輸入但還沒有產出。

        隱約覺得這是 Zettelkasten(卡片盒筆記法)要解決的問題,但我用過 Logseq,手動做卡片筆記太慢了,做完天都亮茶都涼了,所以我拜託 AI 幫我。

        你需要準備什麼

        工具:

        • Claude Desktop(Cowork 模式)
        • 你的檔案,放在電腦上任何地方都行,但你要知道大概在哪幾個地方

        要不要先裝什麼 Skill?

        不用。 你只要開 Claude Desktop 就可以開始。

        Claude 內建會自動處理常見格式(pptx、docx、pdf、xlsx),不需要你另外安裝。如果你以後用得熟了、想把「你的格式偏好」存下來讓 AI 每次都記得,再考慮做一個自己的 custom skill,但那是進階玩法,第一次做完全不需要。

        要用 Opus 還是 Sonnet?

        建議 Opus,原因是這個任務的真正價值在「跨領域的連結」(例如發現皮凱提的 r > g 跟平台抽成是同一個結構)。這種合成能力 Opus 明顯比較強。Sonnet 做機械萃取也 OK,但跨卡片的連結品質會差一截。

        如果你只是想快速測試流程、或你的素材不多,用 Sonnet 試水溫也沒問題。

        心理準備:

        • 這不是「一鍵生成」。你需要跟 AI 來回校準,像帶一個很快但不了解你的新同事
        • 第一次做大概要 1-2 天。之後的維護就快了
        • AI 會犯錯、會讀不了某些格式、會搜不到你確定存在的檔案。這些都是正常的

        全流程六步驟

        如果你做過數據分析,這個流程你會覺得很熟悉。蓋知識 Wiki 的底層邏輯,跟數據分析師的標準工作流是同一回事:

        階段 數據分析師在做的事 蓋 Wiki 你在做的事 對應步驟
        資料清理整理原始數據、去重複、統一格式、處理缺漏值整理散落的檔案、去重複、統一分類、淘汰過時素材STEP 1
        分析建模、跑運算、產出結果萃取知識卡片、建立雙向連結、跑出主題地圖STEP 2-4
        解讀與洞察視覺化、找 pattern、產出 insight看儀表板、發現知識結構的密與疏、設定持續更新STEP 5-6

        數據分析裡有一句老話:garbage in, garbage out。蓋 Wiki 也是。如果你跳過資料清理直接讓 AI 做卡片,結果就是一堆品質參差的卡片混在一起。所以整個流程的重點是:先清理,再萃取,最後解讀。

        STEP 1 資料清理:先整理檔案,再做任何事

        這是整個流程最容易被跳過、但最不該跳過的一步。

        你可能很想直接讓 AI 開始做卡片,但請忍住。如果你的素材還是一團亂,重複的檔案、不知道從哪來的簡報、五年前存的東西跟現在完全無關,AI 做出來的卡片品質也會是一團亂。

        先清理,再萃取。順序不能反。

        我沒有先想格式、沒有設計分類架構、沒有畫任何流程圖。我做的第一件事就是請 AI 去看我放檔案的四個地方:桌面、下載區、文件夾、Google Drive。請先試著分類,然後做這些事:

        1. 設計一個統一的分類邏輯,跟我確認
        2. 列出所有跟「知識」有關的檔案(筆記、PPT、文章、讀書心得)
        3. 找出重複的檔案、過時的素材

        實際體驗:

        這一步我花了大約一天半,但不是因為慢,而是 AI 在掃描的過程中會給你一些很有趣的回饋:

        • 「你某個主題寫了很多篇,但都是輸入(讀書筆記),沒有輸出(你自己的分析)」
        • 「這幾份素材是五年前的了,跟你現在關注的方向不太相關」
        • 「你有三份檔案內容幾乎一樣,只是檔名不同」

        這些回饋本身就很有價值。我因此發現自己在經濟學和金融領域一直在「吸收」,但很少整理成自己的觀點,輸入跟輸出不成比例。

        你要做的事:

        根據 AI 的掃描結果,決定哪些檔案留、哪些刪、哪些合併。AI 提出分類邏輯之後,你來回調整。比如它可能把「讀書會簡報」和「自己寫的分析文」放在同一類,但你知道這兩者的深度完全不同。這種判斷只有你能做。

        清理完之後,你手上應該有一份乾淨的素材清單和確認好的分類架構。我做完就覺得一陣清爽,難怪所有人跟龍蝦合作的起手式都是整理檔案。這才是開始做卡片的起點。

        STEP 2 知識點萃取:請 AI 做卡片和 Wiki

        素材整理好了,這一步反而是最快的。

        這時候才需要跟 AI 討論「卡片長什麼樣」。我告訴它:「幫我把這些素材做成可以索引的卡片跟互相串聯的 wiki。」就這樣,一句白話。

        AI 會主動提議一個格式給你看。例如它可能會說:「我建議每張卡片包含:核心概念、我的觀點、可複用模式、以及跟其他卡片的連結。這樣設計是因為⋯⋯你覺得這樣 OK 嗎?」

        這時候你的工作不是設計格式,而是判斷格式。你看了覺得順就說「好」,覺得哪裡怪就說「我不要『可複用模式』這一欄,改成『我想反問的問題』」。格式是聊出來的,不是規劃出來的。

        格式確認後,AI 就從我自己寫的文章那區開始,自己找檔案、自己寫卡片、自己建立卡片之間的交叉引用。

        我以前用 Logseq 的時候是先做讀書筆記,但這次 AI 叫我先做自己寫的東西。為什麼先做自己寫的東西?事後想想,因為自己的文章和分析裡已經有「我的觀點」。AI 萃取出來的卡片品質會最高。讀書筆記和別人的簡報是補充素材,品質會比較參差,那些留到後面再處理。

        實際產出:

        我的第一批是 39 張卡片,來自我自己寫的十幾篇文章(電商搜尋分析、Uber vs Bolt 市場分析、美團三部曲、出版業分析等等)。AI 一個晚上不到就跑完了。

        它還自動幫我建了一份 MOC(Map of Content,主題地圖),把 39 張卡片分成七個「知識主軸」,例如:搜尋與發現、平台競爭與定價、內容產業生存邏輯等等。這時候我已經開心的不得了了「我也是個有知識庫的人類了」,但想想這才是開始,沒有 CI/CD 只是 Lab,無法維護只是玩具。

        品質校準(很重要!):

        AI 跑完之後,你一定要看。我在這一步做了不少修正:

        • 「這份簡報不是我做的,不算我的知識,拿掉」
        • 「這個主題的卡片寫得太淺,你漏掉了我文章裡最重要的論點」
        • 「這兩張卡片其實在講同一件事,合併」

        這個來回校準的過程,就是讓 Wiki 變成「你的」而不是「AI 寫的」的關鍵。

        STEP 3 補遺:你一定會發現少了什麼

        做完第一輪之後,我有一種奇怪的感覺:「等等,怎麼這麼順利,我那個 XX 的筆記呢?」

        這很正常。因為我的素材散落在太多地方了。這一步有點繁瑣,但非做不可。

        我的經驗:

        第一輪做完 39 張卡片之後,我想起 Google Drive 裡還有一批讀書筆記(21世紀資本論)、讀書會的簡報(晶片戰爭、赤字迷思、聯準會)、還有一些經濟學的手繪心智圖。

        我請 AI 去 Google Drive 找,它找到了一些,但 Google Drive 的搜尋有不少限制(詳見後面的「踩坑」段落)。我最後是自己手動從 Google Drive 下載,再讓 AI 從本機讀取。

        建議:

        與其讓 AI 去搜尋你的雲端硬碟(容易搜不到),不如你自己先把覺得重要的檔案下載到一個資料夾,再讓 AI 統一處理。人找檔案、AI 做摘要,分工比較清楚。

        STEP 4 再萃取:第二輪快很多,但有格式限制

        把補遺的素材丟給 AI,請它繼續做卡片。第二輪的速度快很多,因為:

        • 格式已經定了(AI 知道你要什麼樣的卡片)
        • 分類邏輯已經有了(新卡片會自動歸入既有的主軸,或開新主軸)
        • 交叉引用有基礎了(AI 會自動把新卡片連結到舊卡片)

        但你會遇到格式限制:

        格式 AI 能讀嗎 備註
        .pptx能,文字部分圖片裡的文字讀不到
        .docx能最順的格式
        .pdf能掃描件效果差
        .key (Keynote)不能需要先匯出成 pptx 或 pdf
        .png/.jpg有限能看圖但讀不出手繪文字
        Google Docs能透過 Google Drive 連接
        Google Slides不能直接搜到要手動下載

        我的心態:

        有些簡報是全圖片的(例如我有一份「好策略壞策略」的讀書會 PPT,15 張投影片只有 1 張有文字),這種就跳過。不要追求 100% 涵蓋率,反正做了都比沒有多。

        STEP 5 Dashboard:讓你的知識庫「可視化」

        我比較是數字人,看到數量比較有感。所以卡片做到一定數量之後,我就請 AI 做了一個 HTML 儀表板,裡面包含:

        • KPI 總覽:51 張卡片、206 條雙向連結、9 個知識主軸、13 個分析 DNA 模式
        • 主軸分佈圖:哪個領域的卡片最多、哪個最少
        • 樞紐卡片排名:哪些概念被引用最多次(我的是「確定性溢價」和「平台作為基礎設施收租者」,各被引用 17 次)
        • 知識網絡圖:所有卡片的連結關係,像一個星座圖,大家很喜歡的「點點宇宙」
        • 待補清單:AI 列出的「你還沒整理但應該整理的素材」,等於是 AI 給我的功課

        這個儀表板不只是好看。它讓我第一次看到自己的知識結構長什麼樣,哪些區域很密(平台經濟、金融貨幣),哪些區域很稀疏(醫療經濟只有 2 張卡),哪些概念是真正的「樞紐」。

        STEP 6 排程維護(規劃中)

        理想狀態是設定每週排程,讓 AI 定期做以上的事情:

        • 有沒有新素材需要整理
        • 既有卡片的連結是否需要更新
        • 根據最近的閱讀和寫作,跟我討論新的洞察

        這一步我還在設定中,尚未完成(詳見後面的「踩坑」段落)。但即使沒有自動排程,每週手動花 30 分鐘跟 AI 對話更新一下,也比完全不維護好。

        我踩到的坑,你可以注意一下

        1. Cowork 不會自動看到你所有的檔案。

        你要自己選哪些資料夾讓 AI 讀取。我一開始以為它會像 Spotlight 一樣掃全機,結果它只看得到你掛載的資料夾。開工前先把你放素材的地方都選進去。

        2. Google Drive 連接有點麻煩,但值得。

        需要透過 MCP connector 連上 Google Drive,設定過程不太直覺,反正就是叫 AI 教你。連上之後 AI 可以搜尋和讀取裡面的 Google Docs 和資料夾,但有一個大坑:它搜不到 Google Slides 和你上傳的 .pptx 檔案。我最後是自己手動下載,再讓 AI 從本機讀取。

        3. Google Play Books 的畫線筆記基本上不能用。

        匯出之後打開來全部顯示「無法顯示您所標明的文字」。這是 Google 的已知限制,不是 AI 的問題。如果你有大量電子書筆記存在 Google Play Books 裡,目前沒有好的解法。但至少他知道標題:你讀過哪些書是有記錄的。

        4. 全圖片的簡報,AI 讀不太動。

        .pptx 的文字部分 AI 讀得了,但如果你的簡報是「一頁一張大圖加幾個字」那種(我的讀書會 PPT 很多這樣),AI 擷取不到什麼有用的東西。Keynote 更慘,完全不支援,要先匯出成 pptx 或 pdf。

        5. AI 的分類不一定對,你的判斷才是最終版。

        AI 可能會把「讀書會簡報」和「自己寫的分析文」歸在同一類,但你知道這兩者的深度差很多。它也可能把不是你寫的素材當成你的知識。每一輪跑完都要花時間校準,這個時間不能省。

        6. 排程功能目前還不穩定。

        我想讓 AI 每週自動跑一次更新,結果它卡了一個多小時還沒搞定。這個功能理論上可行,但實際設定比想像中麻煩。目前的替代方案是每週手動花 30 分鐘跟 AI 對話更新。

        給第一次嘗試的人的建議

        1. 不要一次做完,分兩天。

        第一天做 STEP 1-2(清理、第一輪萃取)。睡一覺之後,你會自然想起「啊那個檔案忘了」,第二天再做 STEP 3-5。

        2. 你的判斷比 AI 的效率更重要。

        AI 跑得很快,但它不知道哪些是你真正在乎的知識、哪些只是當時隨手存的。每一輪產出之後花時間看過,刪掉不要的、修正不準的。這個「人工校準」的時間不能省。

        3. 先清理,再萃取。

        這是我做完之後最大的心得。如果你跳過資料清理直接讓 AI 做卡片,結果就是一堆品質參差不齊的卡片混在一起,之後你要花更多時間回頭整理。先把素材理乾淨、分好類,卡片的品質會好非常多。

        4. 接受不完美。

        有些檔案讀不了(Keynote)、有些內容是圖片沒辦法擷取、有些 Google Drive 的東西搜不到。不要為了 100% 涵蓋而卡住。反正做了都比沒有多,先做完,剩下的慢慢補。

        5. 最有價值的不是卡片本身,而是連結。

        51 張獨立的卡片只是 51 篇摘要。但 206 條雙向連結讓它變成一個網絡,你會發現皮凱提的 r > g 跟平台經濟的抽成邏輯是同一個結構、明斯基的泡沫理論跟內容護城河的崩塌速度有相似模式。這些跨領域的連結,才是知識 Wiki 真正的價值。

        r > g

        《21世紀資本論》書中皮凱提的核心論點:資本收益率(r)長期高於經濟成長率(g),這不是異常,而是資本主義的常態。

        明斯基時刻——泡沫發生的四個條件

        1. 移變(Displacement):技術進步讓人對未來抱持過大希望
        2. 信貸寬鬆(Credit Expansion):企業有花不完的錢
        3. 健忘(Amnesia):人們忘記上一次泡沫的教訓
        4. 失去指南針(Lost Compass):過去的估值指標不再被採用(「本夢比」取代本益比)

        最終成果

        回到開頭那張數據分析師的工作流。兩天跑完三個階段之後,我的知識庫長這樣:

        資料清理階段(STEP 1):掃描了四個存放區,淘汰重複與過時檔案,建立統一分類架構。花了一天半,但這一天半決定了後面所有卡片的品質。

        分析階段(STEP 2-4):從 20 多份文章、簡報、筆記中萃取出 51 張知識卡片,產生 206 條雙向連結,自動歸入 9 個知識主軸。AI 還辨識出我的寫作裡反覆出現的 13 個分析 DNA 模式。第一輪(自己寫的文章)一個晚上不到就跑完,第二輪(讀書筆記和簡報)更快。

        解讀與洞察階段(STEP 5-6):儀表板讓我看到整座知識庫的結構。平均每張卡連結 4.9 條,被引用最多的樞紐概念是「確定性溢價」和「平台作為基礎設施收租者」。我也第一次看到自己的知識盲區:平台經濟寫了一堆,醫療經濟只有 2 張卡。

        Garbage in, garbage out。反過來說,如果你願意花時間把資料清乾淨,AI 給你的分析品質會超出預期。

        跟 Karpathy 方法的差異

        我沒有仔細讀 Karpathy 的原文,但從朋友的轉述和討論裡,可以看出幾個差異:

        Karpathy 是「從零收集,邊收邊編譯」。 他把新看到的文章、論文丟進 raw/ 資料夾,AI 每次消化一份新素材,wiki 持續長大。

        我是「先清理舊檔,再批量萃取」。 我的素材已經存在十幾年了,散落在四個地方,品質參差,有些根本過時了。所以我多了一個他大概不需要的步驟:資料清理。而這個步驟反而花了最多時間(一天半),卻也決定了後面所有卡片的品質。

        工具選擇也不同。 Karpathy 用 Obsidian 當前端,搭配 Claude Code 或其他 LLM agent 來維護。我用 Claude Cowork(桌面版),直接讓 AI 讀我電腦上的檔案。核心邏輯應該差不多,但 Cowork 對不寫程式的人更友善。

        如果你跟我一樣是要整理既有素材,而不是從零開始建庫,這篇應該比較適合你。 如果你是從零開始,建議直接看 Karpathy 的原文和 GitHub Gist,他的流程會比我的更簡潔。


        這篇文章本身就是用 AI 協作完成的。我提供流程回憶和踩坑經驗,AI 負責結構化和補充細節。如果你也想試試,最低門檻就是:打開 Claude Desktop,選一個放了你筆記的資料夾,跟它說「幫我整理成知識卡片」。然後你們就會開始對話了。

        延伸閱讀:

        Andrej Karpathy 原始推文:LLM Knowledge Bases

        Karpathy 完整架構說明:GitHub Gist - llm-wiki

        狐說八道:AI 大神 Karpathy 的 AI 筆記流,一般人也能做到八成

        Vista 電子報:從 Karpathy 的 Wiki 到我的 Muse——透過 Vibe Coding 打造 AI 第二大腦

        我的相關文章:RAG 跟 ReAct,我終於搞懂了

          • 分享此文章
          0則留言

          相關文章

          用 AI 寫作後,我獲得的不只是「效率」,更是「我才是那個要對內容負責的傢伙」

          一開始其實是我受不了自己。腦袋裡、電腦中,永遠有一堆“快好了但永遠不會完成”的半成品,所以姑且試試把它們丟給 AI 試試看:會不會終於能把半成品變成可以見人的作品? 結果意外體會到AI的美好:速度真的快得離譜。 但是,就是那個但是:

          • 2025 Dec 23

          《跟華杉學品牌營銷30講》:留下最簡單的,最深入人心

          • 2020 Feb 03

          各行各業的成長駭客模型與行銷漏斗AARRR

          AARRR成長駭客模型如何應用在不同產業?完整拆解獲取、活躍、留存、推薦、收益五大階段,分析電商、SaaS、內容平台的漏斗策略差異。實戰案例與優化技巧,適合產品經理與行銷人員。

          • 2021 Jul 05

          消費者什麼時候想從眾什麼時候想耍個性?這個發現只跟你說...

          • 2020 Mar 01

          《咬一口馬克思的水煎包》心得:這社會對性別與階級都不公義?那就來口水煎包吧

          • 2020 Jan 28

          為什麼我的朋友都在買 Montbell ? —— 我們消費者在都市機能服飾的跨境套利

          為什麼越來越多人去日本買 Montbell?這不只是機能服飾流行,而是一場供應鏈效率與中產階級拒絕品牌稅的現實選擇。

          • 2026 Jan 18

          關於我

          • 關於我_Erica 許幼如

          聯絡我們

          • 隱私權政策
          COPYRIGHT© All rights reserved | Powered by 路老闆