Anthropic 在 2026 年 4 月 16 日推出 Claude Opus 4.7,作為新一代旗艦模型。這篇文章整理 Opus 4.7 的程式與視覺能力升級(CursorBench 從 58% 跳到 70%、Rakuten-SWE-Bench 解題量為 4.6 的 3 倍)、與 Opus 4.6 的價格、上下文、新功能對照,以及 Anthropic 罕見公開承認的「故意降能」設計——Opus 4.7 是同期 Mythos Preview 模型刻意抑制資安攻擊能力後的釋出版本,背後的考量值得一起了解。
Claude Opus 4.7 全面解析|程式能力、價格、上下文升級重點,與 Mythos 背後故事
Harness Engineering|AI Agent 從提示詞工程、上下文工程演進的新顯學
Harness Engineering(駕馭工程)是 AI Agent 開發的最新顯學,承接了 Prompt Engineering(提示詞工程)與 Context Engineering(上下文工程)兩個世代留下的成果。這篇用三個時期的脈絡,講清楚 Harness Engineering 為什麼出現、解決哪些 Prompt 跟 Context 處理不了的問題,並說明舊名詞淡出不是退流行,而是成熟地融入產品,過去學的知識從來不會浪費。
Anthropic 免費送禮!Claude 額外用量額度教學|Pro、Max、Team 方案免費 Credit 一次搞懂
Anthropic 在 2026 年 4 月針對 Claude 付費方案推出限時 Extra Usage Credit 額外用量額度促銷,Pro 方案可領 20 美元、Max 5x 領 100 美元、Max 20x 與 Team 最高可領 200 美元免費額度。這篇文章整理各方案額度金額對照、領取資格條件、啟用 Extra Usage 與 Claim 操作步驟,以及 90 天到期等注意事項,幫助 Claude 使用者在 4 月 17 日截止前順利領取,額度可用於 Claude、Claude Code 等所有產品。
MacBook Pro M2 Pro 跑 Gemma 4 實測|Apple Silicon 本地 LLM
在 MacBook Pro M2 Pro 16GB 上用 Ollama 跑 Gemma 4 到底有多快?跟 RTX 3070 8GB 相比誰贏?這篇把 Apple Silicon 統一記憶體架構放進本地 LLM 的實戰對比,從 TPS、TTFT、長 prompt 塞滿 128K context 一路測到 Ollama 對 e2b 偷偷開 thinking 的 bug 跨平台重現,並給出 num_ctx 跟真實 prompt 長度兩個容易被混淆的觀念說明,幫筆電族開發者找到本地 LLM 的實用上限。
Gemma 4 E2B vs E4B 完整實測|Thinking 模式的祕密與本地小模型最佳實踐
Gemma 4 的 E2B 和 E4B 兩個邊緣模型誰比較強?參數較小的 E2B 反而比 E4B 慢 10 倍是怎麼回事?這篇用 RTX 3070 跑了完整的 TPS、TTFT、品質對比 benchmark,並追到 Ollama renderer 層級找出 thinking 模式預設啟動的真相,順便整理本地小模型最佳實踐與 thinking、temperature、top_k、top_p 等參數說明。
本地跑 Claude Code 實戰|Ollama + Gemma 4 + RTX 3070 使用心得與踩坑筆記
想用本地 LLM 跑 Claude Code 省下雲端 API 費用?這篇分享在 Windows 11 + RTX 3070 8GB VRAM 上用 Ollama 接 Gemma 4 跑 Claude Code 的真實心得,包含安裝流程、Context length 設定、中文輸入只回英文的怪事、settings.json 被覆蓋的踩坑經驗,以及本地小模型真正適合做什麼自動化任務。
Google Gemma 4|多模態開源模型大更新,手機 1.5GB 就能跑、電腦端效能翻倍再翻倍
Google DeepMind 發佈 Gemma 4 開源模型家族,採用 Apache 2.0 授權,提供 31B Dense、26B MoE、E4B、E2B 四種尺寸。31B 在 Arena AI 排名開源模型第三,26B MoE 只用 3.8B 參數就達到接近表現。支援圖片、影片、語音多模態輸入,原生 function calling 與 agent 工作流,E2B 僅需 1.5GB 記憶體就能在手機和 Raspberry Pi 上跑。
Claude Code 終端機指令安全判斷教學|選擇 Allow 還是 Deny 的實用指南|Codex Gemini CLI 也通用
使用 Claude Code 的時候,它經常會跳出一段指令問你要不要執行,但如果你不熟終端機,根本看不懂那串文字在做什麼,也不知道該按 Allow 還是 Deny。這篇文章會教你快速看懂指令的結構,並用紅燈、黃燈、綠燈分類法,幫你判斷 Claude Code 想執行的指令是否安全,從讀取檔案、安裝套件到 Git 操作,每一類都會告訴你該注意什麼。
Claude Code 入門使用教學|終端機 AI 程式助手指南
AI 程式輔助工具這幾年變化非常快,從最早的自動補完、到 IDE 內的 Chat 助手、再到現在的 Agent 模式,每一代都讓開發者的工作方式有很大的改變。Anthropic 推出的 Claude Code 走了一條不同的路——它直接在終端機裡運作,能自己讀寫檔案、執行指令、管理 Git,就像一個住在 terminal 裡的工程師隊友。這篇文章會從安裝開始,一步步教學 Claude Code 的使用方式,到自訂指令、進階功能都會涵蓋。
GitHub Copilot Agent 設定教學|用 .github 資料夾打造你的 AI 開發助手
GitHub Copilot 已經不只是自動補完程式碼的工具了,現在的 Copilot 支援 Agent Mode,可以理解整個專案的結構、自動執行指令、甚至幫你開 Pull Request。不過要讓 Copilot Agent 真正好用,關鍵在於告訴它你的專案長什麼樣子、該怎麼做事。這些設定都放在儲存庫的 .github 資料夾底下,本文會教學各個子資料夾的用途與設定方式,讓你快速上手 Copilot Agent。