很多人可能不太懂,為什麼我老是強調 AI 模型的「指令遵循性」(Instruction Following)有多重要。昨天剛好發生了一件血淋淋的慘案,決定寫下來作為證明。
因為我有訂閱 Google AI Pro,每天 Antigravity 的 Token 點數不用白不用,昨天閒著沒事,就叫它用 Gemini 3 Flash 幫我把手上一個舊專案補上註解。我的指令非常簡單,只有三條:
- 只加繁體中文註解;如果原本就有繁中註解,請不要動它。
- 遇到英文註解,請翻譯成繁體中文。
- 嚴禁修改任何程式碼。
剛開始一切正常,結果跑到一個義大利麵式 、長達 3000 行的程式檔時,AI 就開始暴走了。它不只把註解改得「更漂亮」,後來甚至看參數名稱不順眼,直接幫我重新命名。這也就算了,最後最扯的是,它竟然覺得有些邏輯寫得不對,擅自改動了幾行程式碼!
如果我沒人工核對就直接 Push 到 Git,之後大概會修 Bug 修到懷疑人生。所以說,指令遵循性真的太關鍵了——只有聽得懂人話、乖乖守規矩的模型,在呼叫 Tool 或 Agent 時才會精準,產出真正可用的結果。
在地端執行的小模型 8B ~ 12B,多半都敗在指令遵循性,而不是不夠聰明。就算是 gpt-oss:120b,遇到這個任務的第一反應居然是直接偷懶,寫一個 python 程式唬爛加一句「此註解由AI自動產生」呼弄過去。而 qwen3-coder:30b 在此任務也會常出問題,無法正確地修改註解。
因此,選擇模型時,我的第一個標準是夠聰明,第二個標準即是指令遵循性要高。
留言