今天趁著連假,在家沒事就拿起 Macbook M1 Pro 16GB RAM的舊筆電,執行 ollama launch claude --model gemma4:e2b ,這樣的記憶體需求小,但為了怕 context 不足,在執行 Ollama 時要設定 OLLAMA_CONTEXT_LENGTH=65536 ,至少要設定 32768才足夠寫程式。 雖然筆電不快但是使用Gemma4最小的模型,能夠讓 Claude Code 自主使用 Rust 寫出Native GUI 的 貪食蛇,真不是普通的強。有興趣的朋友,可以在有8GB 以上VRAM的顯卡試試,這代表著地端Coding時代到了! 以我的 Macbook 16GB 為例,執行 Gemma4:e4b 沒有壓力,效果比e2b更好一些。 無論使用何種模型, 想要LLM Coding效果好必須要留足夠的RAM給作業系統與Context,Happy Coding!