Anthropic 免費送禮!Claude 額外用量額度教學|Pro、Max、Team 方案免費 Credit 一次搞懂

Anthropic 在 2026 年 4 月針對 Claude 付費方案推出限時 Extra Usage Credit 額外用量額度促銷,Pro 方案可領 20 美元、Max 5x 領 100 美元、Max 20x 與 Team 最高可領 200 美元免費額度。這篇文章整理各方案額度金額對照、領取資格條件、啟用 Extra Usage 與 Claim 操作步驟,以及 90 天到期等注意事項,幫助 Claude 使用者在 4 月 17 日截止前順利領取,額度可用於 Claude、Claude Code 等所有產品。

MarkItDown 教學|微軟開源文件轉 Markdown 工具,LLM 與 RAG 必備

MarkItDown 是微軟開源的 Python 工具,能將 PDF、Word、Excel、PowerPoint、圖片、音訊、HTML 等超過 29 種格式轉換成 Markdown。對於需要建立 RAG 知識庫、餵資料給 LLM 分析、或是批次處理大量文件的開發者來說,MarkItDown 提供了簡單的 CLI 與 Python API,幾行程式碼就能完成轉換,還支援 OCR 與語音轉文字等進階功能。

MacBook Pro M2 Pro 跑 Gemma 4 實測|Apple Silicon 本地 LLM

在 MacBook Pro M2 Pro 16GB 上用 Ollama 跑 Gemma 4 到底有多快?跟 RTX 3070 8GB 相比誰贏?這篇把 Apple Silicon 統一記憶體架構放進本地 LLM 的實戰對比,從 TPS、TTFT、長 prompt 塞滿 128K context 一路測到 Ollama 對 e2b 偷偷開 thinking 的 bug 跨平台重現,並給出 num_ctx 跟真實 prompt 長度兩個容易被混淆的觀念說明,幫筆電族開發者找到本地 LLM 的實用上限。

Google Gemma 4|多模態開源模型大更新,手機 1.5GB 就能跑、電腦端效能翻倍再翻倍

Google DeepMind 發佈 Gemma 4 開源模型家族,採用 Apache 2.0 授權,提供 31B Dense、26B MoE、E4B、E2B 四種尺寸。31B 在 Arena AI 排名開源模型第三,26B MoE 只用 3.8B 參數就達到接近表現。支援圖片、影片、語音多模態輸入,原生 function calling 與 agent 工作流,E2B 僅需 1.5GB 記憶體就能在手機和 Raspberry Pi 上跑。

Claude Code 原始碼意外洩漏|512,000 行程式碼揭露的架構、Bug 與隱藏功能

2026 年 3 月底,Anthropic 在發佈 Claude Code npm 套件時意外夾帶了 source map 檔案,導致 512,000 行 TypeScript 原始碼全部曝光。安全研究員與開發者迅速從中挖出 token 消耗過快的 autocompact bug、Permission system 安全漏洞,以及 KAIROS 常駐代理、BUDDY AI 寵物等隱藏功能。這篇文章整理洩漏的原因、原始碼揭露的架構設計、已知 Bug、爭議功能。

Claude Code 入門使用教學|終端機 AI 程式助手指南

AI 程式輔助工具這幾年變化非常快,從最早的自動補完、到 IDE 內的 Chat 助手、再到現在的 Agent 模式,每一代都讓開發者的工作方式有很大的改變。Anthropic 推出的 Claude Code 走了一條不同的路——它直接在終端機裡運作,能自己讀寫檔案、執行指令、管理 Git,就像一個住在 terminal 裡的工程師隊友。這篇文章會從安裝開始,一步步教學 Claude Code 的使用方式,到自訂指令、進階功能都會涵蓋。

GitHub Copilot Agent 設定教學|用 .github 資料夾打造你的 AI 開發助手

GitHub Copilot 已經不只是自動補完程式碼的工具了,現在的 Copilot 支援 Agent Mode,可以理解整個專案的結構、自動執行指令、甚至幫你開 Pull Request。不過要讓 Copilot Agent 真正好用,關鍵在於告訴它你的專案長什麼樣子、該怎麼做事。這些設定都放在儲存庫的 .github 資料夾底下,本文會教學各個子資料夾的用途與設定方式,讓你快速上手 Copilot Agent。

Ollama 入門教學|本地大語言模型新手指南(Windows/Linux/macOS)

近年 AI 大語言模型(LLM)百花齊放,大多數人接觸到的方式仍是透過雲端 API,例如 ChatGP、Gemini、 Claude、Grok、Deepseek等,雖然方便,但可能會受限於費用、額度、網路延遲,資料隱私等問題,希望可以在自己的電腦上執行。Ollama 讓我們能在自己的電腦上直接執行 LLM,不需要依賴雲端輕鬆體驗離線大模型,之後還能結合 AI Agent、MCP 或是 AnythingLLM 整合介面。這篇文章會教學在 Windows / Linux / macOS 安裝 Ollama、下載模型,選適合自己電腦的模型大小。