AI 學習紀錄
今日最有感的事
從工具使用升級到工作流設計:AI 真正的價值在於建立可持續運作的系統
今天最有感的一個共通主題,不是某一個單獨的新功能,而是好幾個案例都指向同一件事:AI 最強的地方,不是幫你做單次任務,而是幫你把重複性工作變成可持續運作的流程。
最有代表性的例子,是看到有人把 Claude + RSS + Zotero + Obsidian 串起來,建立半自動文獻學習系統。做法不是單純叫 AI 幫忙摘要 paper,而是先把自己的期刊 RSS feed 清單交給 AI,再把 Zotero 裡既有收錄的文獻一起給 AI 比對,讓 AI 反過來檢查目前的 RSS 架構是否有缺漏。結果文獻來源覆蓋率從 14% 提升到約 85%。這個案例真正厲害的地方,在於它不是讓 AI 替你「想」,而是先替你整理資訊流,讓新知可以穩定、持續地流進知識庫。
這個思路跟今天看到的 OpenClaw 進階教學其實高度一致。OpenClaw 影片裡講的 Persistent Agent、Sub-Agent、ACP Agent,表面上像是在比較不同 agent 類型,但更深一層看,它其實是在講:怎麼把任務拆對、把工具放對位置,讓整個系統更有效率。 長期角色用 Persistent Agent,短期平行任務用 Sub-Agent,需要外部 coding 工具就用 ACP 去橋接 Claude Code 或 Codex。重點從來不是「哪個模型最強」,而是怎麼做對 orchestration。
Firecrawl 也是同一類思維的代表。它的價值不只是在抓網頁,而是在把網站轉成 LLM-ready 的資料層:可以 crawl 整站、抽 markdown、抽結構化 JSON、處理動態頁面、做 batch 與變更監控。這代表未來真正有價值的,不只是聊天模型本身,而是誰能先把資料入口、清理、結構化、索引、引用這整條鏈串起來。只要資料層整理好,後面的 agent、RAG、知識問答、工作流自動化才有穩定基礎。
把這三個案例放在一起看,今天最大的體會是:AI 正在從「工具時代」進入「工作流時代」。 單點能力像摘要、翻譯、寫 code,已經逐漸不是稀缺資源;真正稀缺的是你能不能把資料源、知識庫、模板、排程、摘要、輸出格式整合成一條會自己跑的 pipeline。對醫療工作尤其如此,因為知識更新太快,靠意志力硬撐的學習系統很難久。未來比較有效率的方式,會是讓 AI 先幫忙完成來源整理、結構分類、摘要輸出與週期回顧,人只保留最後的判斷與整合。
從自己的需求來看,不管是急專考試、Roam 筆記、部落格寫作,甚至未來想做 Smith ECG 評論助手,本質上都在走向同一件事:把零散資訊變成可追蹤、可檢索、可引用、可持續更新的知識系統。
今日收集的資源
- OpenClaw 進階用法教學(YouTube) — AILA 介紹 OpenClaw 的進階工作流,重點涵蓋 Persistent Agent、Sub-Agent、ACP Agent 的分工與選型
- OpenClaw Agent Tutorial 筆記 — 上述影片對應的文字筆記,適合快速回顧
- Claude + RSS + Zotero + Obsidian 半自動文獻學習系統(Threads) — 用 AI 審視 RSS feed 結構與 Zotero 既有文獻,讓來源覆蓋率從 14% 提升到約 85%,再串接 Obsidian 建立長期知識庫
- Firecrawl GitHub Repo — 把網站轉成 LLM-ready data 的 Web Data API,支援 scrape、crawl、map、JSON extraction、browser actions 與 change tracking
- Claude 一鍵搬家功能討論(Facebook) — 討論 Claude 產生交接 prompt、轉給其他 AI 工具接手任務的實際可行性
- Gemini in Chrome 支援中文(Facebook) — Chrome 內建 Gemini 擴大支援語言與國家,中文使用者終於能更自然使用
- 把網站轉成 AI 可用資料的工具(Facebook) — 介紹一種將整站內容清理成適合 AI 使用資料的工具概念,與 Firecrawl 類似