Gemma 4 的 E2B 和 E4B 兩個邊緣模型誰比較強?參數較小的 E2B 反而比 E4B 慢 10 倍是怎麼回事?這篇用 RTX 3070 跑了完整的 TPS、TTFT、品質對比 benchmark,並追到 Ollama renderer 層級找出 thinking 模式預設啟動的真相,順便整理本地小模型最佳實踐與 thinking、temperature、top_k、top_p 等參數說明。
Gemma 4 E2B vs E4B 完整實測|Thinking 模式的祕密與本地小模型最佳實踐
本地跑 Claude Code 實戰|Ollama + Gemma 4 + RTX 3070 使用心得與踩坑筆記
想用本地 LLM 跑 Claude Code 省下雲端 API 費用?這篇分享在 Windows 11 + RTX 3070 8GB VRAM 上用 Ollama 接 Gemma 4 跑 Claude Code 的真實心得,包含安裝流程、Context length 設定、中文輸入只回英文的怪事、settings.json 被覆蓋的踩坑經驗,以及本地小模型真正適合做什麼自動化任務。
Google Gemma 4|多模態開源模型大更新,手機 1.5GB 就能跑、電腦端效能翻倍再翻倍
Google DeepMind 發佈 Gemma 4 開源模型家族,採用 Apache 2.0 授權,提供 31B Dense、26B MoE、E4B、E2B 四種尺寸。31B 在 Arena AI 排名開源模型第三,26B MoE 只用 3.8B 參數就達到接近表現。支援圖片、影片、語音多模態輸入,原生 function calling 與 agent 工作流,E2B 僅需 1.5GB 記憶體就能在手機和 Raspberry Pi 上跑。
Claude Code 終端機指令安全判斷教學|選擇 Allow 還是 Deny 的實用指南|Codex Gemini CLI 也通用
使用 Claude Code 的時候,它經常會跳出一段指令問你要不要執行,但如果你不熟終端機,根本看不懂那串文字在做什麼,也不知道該按 Allow 還是 Deny。這篇文章會教你快速看懂指令的結構,並用紅燈、黃燈、綠燈分類法,幫你判斷 Claude Code 想執行的指令是否安全,從讀取檔案、安裝套件到 Git 操作,每一類都會告訴你該注意什麼。
Claude Code 入門使用教學|終端機 AI 程式助手指南
AI 程式輔助工具這幾年變化非常快,從最早的自動補完、到 IDE 內的 Chat 助手、再到現在的 Agent 模式,每一代都讓開發者的工作方式有很大的改變。Anthropic 推出的 Claude Code 走了一條不同的路——它直接在終端機裡運作,能自己讀寫檔案、執行指令、管理 Git,就像一個住在 terminal 裡的工程師隊友。這篇文章會從安裝開始,一步步教學 Claude Code 的使用方式,到自訂指令、進階功能都會涵蓋。
GitHub Copilot Agent 設定教學|用 .github 資料夾打造你的 AI 開發助手
GitHub Copilot 已經不只是自動補完程式碼的工具了,現在的 Copilot 支援 Agent Mode,可以理解整個專案的結構、自動執行指令、甚至幫你開 Pull Request。不過要讓 Copilot Agent 真正好用,關鍵在於告訴它你的專案長什麼樣子、該怎麼做事。這些設定都放在儲存庫的 .github 資料夾底下,本文會教學各個子資料夾的用途與設定方式,讓你快速上手 Copilot Agent。