今日最有感的事 今天最有感的,不是單一功能更新,而是更清楚看到:AI 正在從「會回答問題的聊天工具」,變成「可以接進真實工作流的系統元件」。 這個感覺其實來自三條線同時出現。 第一條線,是 本機模型與 agent 工作流的接軌。今天看到有人分享,如何把 Claude Code 的後端改接到本機 LLM,透過 llama.cpp / llama-server 和環境變數,就能讓原本依賴雲端 API 的 coding workflow,改成更低成本、甚至接近免費的本地執行模式。這件事的意義不只是省錢,而是讓「大量 agentic loop」第一次變得更可長可久。當模型跑在本機,資料不離開裝置、試錯成本下降,很多原本覺得太貴或太重的自動化 …
閱讀更多