由於被同事質疑在某專案中引用的 Library 太多未使用到的方法,決定自行開發一個減肥程式。
今天趁著連假,在家沒事就拿起 Macbook M1 Pro 16GB RAM的舊筆電,執行 ollama launch claude --model gemma4:e2b ,這樣的記憶體需求小,但為了怕 context 不足,在執行 Ollama 時要設定 OLLAMA_CONTEXT_LENGTH=65536 ,至少要設定 32768才足夠寫程式。 雖然筆電不快但是使用Gemma4最小的模型,能夠讓 Claude Code 自主使用 Rust 寫出Native GUI 的 貪食蛇,真不是普通的強。有興趣的朋友,可以在有8GB 以上VRAM的顯卡試試,這代表著地端Coding時代到了! 以我的 Macbook 16GB 為例,執行 Gemma4:e4b 沒有壓力,效果比e2b更好一些。 無論使用何種模型, 想要LLM Coding效果好必須要留足夠的RAM給作業系統與Context,Happy Coding! 後記:看到 Agentic Coding 基準測試 排行,可證明我說的沒錯,Gemma4相當能打,在Jetson Thor上跑Gemma4-31B就是地端的首選。若使用5090搭配Gemma4,我會選擇26B模型,把 Context盡可能拉大,這樣才會跑得順。