今日最有感的事 今天收進來的幾個 AI 素材表面上很分散:有 Claude Code CLI 接法、Gemini 生圖、PersonaPlex 語音 agent,還有 Bear 直接在 Discord 裡測試 model 與 routing。但把它們放在一起看,核心其實是同一件事:現在真正拉開差距的,已經不是單一模型多厲害,而是你能不能把模型穩定接進自己的工作流。 最有感的是那張在討論 Claude 訂閱與第三方調用的圖。重點不是「找到漏洞把訂閱榨乾」,而是重新確認一個比較健康的方向:如果想把 Claude 放進 agent workflow,與其依賴灰色轉接,不如走官方 CLI/本機已登入工具,再由 OpenClaw 這類系統接起 …
閱讀更多今日最有感的事 今天最有感的,不是單一新工具有多強,而是工作模式正在明顯換軌:從「我開口,AI 回答」變成「我給方向,AI 在背景持續跑」。Discord 收件匣今天累積的幾個案例,其實都指向同一個變化。Claude Cowork 的亮點不是它會總結,而是它能排程、自動蒐集資料、跨工作區整理脈絡,甚至把手機變成遠端 dispatch 入口;Claude Code 的 /insights 則讓 AI 不只幫你寫,而是回頭分析你過去一個月怎麼用它、卡在哪裡、該怎麼優化工作流;另一條線是 NanoBanana MCP,把圖片生成直接接進 Claude Code,等於把文字、流程、視覺都拉進同一個工作台。 這些看起來分散,其實核心是一樣的 …
閱讀更多今日最有感的事 今天看到 OpenClaw 中文社群分享一篇貼文,講的是 AI 最大的硬傷:session 結束,記憶清空。他們花了幾個月建了三層架構來解決這個問題:Auto Memory(AI 自動累積)、CLAUDE.md(硬性行為準則)、Memory Files(主題式索引)。 看到這個,我第一個反應是:這不就是我現在用的系統嗎?AGENTS.md 就是行為準則,MEMORY.md + LanceDB 就是知識索引,架構上一模一樣。 但仔細想,缺口在 Auto Memory——我的 AI 助理還是太被動。任務完成了,如果我不主動說「把這個記下來」,它不會主動去存踩坑記錄。就像急診的 handover,再好的交班格式,如果住院醫 …
閱讀更多今日最有感的事 今天沒有刻意去「學 AI」,但 AI 在幫我「學急診」。 這幾個月我在 Roam 裡默默積累了大量 ECG 觀念筆記——但那些筆記都是零碎的,像是從不同地方撿回來的碎片。今天 OpenClaw 把其中幾個觀念「重新組裝」了,補上了我沒想到的角度。 最有感的是這個認知:V1/V2 Lead Misplacement 不是技術問題,是診斷問題。 我知道 V1/V2 放太高會讓 ECG 出現假象,但我從來沒有把它連結到「風險最高的病患,往往 ECG 品質最差」這個系統性矛盾。躁動的老人、焦慮的胸痛病患——護理師貼電極時最難貼準,而這些人又是最需要準確 ECG 的人。 AI 的價值不是告訴我「要檢查 V1/V2 位置」(我已 …
閱讀更多今日最有感的事 王介立醫師說「資料庫不放 PDF」這句話,是整個工作流的核心。 急診有個概念叫 "clear the queue"——別讓病人在走廊上積著,要把每個人分流到對的地方。PDF 也是一樣,它是「原始資料」,不是「可查詢知識」。進庫前要先轉換:MinerU 是分診台,Claude 是主治醫師,Zotero 是病歷室。PDF 在這個流水線裡只是暫時停留的原料,不是終點。 這個思路讓我想到今天自己動手做的事:把 IG reel 自動存到 YouTube。看起來是兩件不相關的事,但背後邏輯一樣——把「零散散落在網路各處的內容」轉成「我的知識庫可以管理的格式」。IG reel 是原料,YouTube 不公開收藏 …
閱讀更多今日最有感的事 今天看到兩件事,講的其實是同一個道理:連續性(continuity)有多重要。 張維峰的貼文在介紹 Claude Cowork 新的 Projects 功能。他用了一個很貼切的比喻:舊的 Folder 是「檔案櫃」,新的 Project 是「辦公室」。差別在哪?檔案櫃有資料,但助理每天早上來上班都忘記昨天在做什麼。辦公室裡有白板(記憶)、行事曆(排程)、牆上的工作說明(自訂指令),每次走進來所有東西都還在原位。 這個比喻讓我想到急診的一個老問題。我們常說 Triage ECG 正常,但「正常」是什麼意思?是那一秒鐘的電氣活動正常。但病患主訴的是「過去 2 小時的胸痛」——那段時間內,冠脈可能已經閉了又通好幾次。我們用 …
閱讀更多今日最有感的事 今天在 Facebook 看到王介立醫師(腎科,已驗證帳號)分享他的 AI 學習流程,讓我印象深刻——不是因為它多炫,而是因為它極度務實。 他的產線:Grok 追最新期刊(NEJM/Science/Nature)→ Claude 建議優先閱讀順序 → Claude 連 Zotero 建檔 → open access 全文自動轉 md + 翻譯 + 筆記。 他說省掉了 70% 的爬網和建檔時間。 這讓我想到兩件事: 1. 為什麼是 Grok? 他明確說:「只有它能直接連上這些期刊官網,其他 AI 都卡住。」這是一個清醒的工具選擇——不是因為 Grok 最強,而是它在這個任務上有特定優勢(即時搜尋、可連期刊)。 2. 「 …
閱讀更多今日最有感的事 今天讀完 @minchunyen 的三個月 Claude 實戰紀錄,有一句話讓我印象深刻: 「真正的效率,來自於理解每個工具『做不到什麼』。」 這和我在急診的經驗很像。很多住院醫師拿到一個病人,直接衝上去用他最熟悉的那一招——就像 vibe coding 那樣,直接叫 AI 開始做,結果問題越滾越大。 @minchunyen 的故事更有說服力:他是電子工程師,不懂 Python。程式寫出來有 bug,一般人的做法是「把錯誤貼給 AI 叫它修」——結果越修越亂。 他的頓悟是:不需要看懂程式碼。只需要: 定義 Schema(這是正確的輸出格式,等同於「標準答案」) 指出哪裡錯了(JSON 裡哪個欄位對不上) 讓 …
閱讀更多- 今天最有感的是:AI 相關資訊真正稀缺的不是消息本身,而是查證、時區換算與把錯誤資訊修正成可執行 workflow 的能力。
閱讀更多 今日最有感的事 今天最有感的,不是單一功能更新,而是更清楚看到:AI 正在從「會回答問題的聊天工具」,變成「可以接進真實工作流的系統元件」。 這個感覺其實來自三條線同時出現。 第一條線,是 本機模型與 agent 工作流的接軌。今天看到有人分享,如何把 Claude Code 的後端改接到本機 LLM,透過 llama.cpp / llama-server 和環境變數,就能讓原本依賴雲端 API 的 coding workflow,改成更低成本、甚至接近免費的本地執行模式。這件事的意義不只是省錢,而是讓「大量 agentic loop」第一次變得更可長可久。當模型跑在本機,資料不離開裝置、試錯成本下降,很多原本覺得太貴或太重的自動化 …
閱讀更多