這兩年 AI 的進步實在太快,想寫些什麼又怕誤人子弟。但一直拖著沒寫又怪怪的,就寫點心得吧。
我的AI經歷
年輕時就對AI很有興趣,所以小時候就學了 Prolog 與 Lisp,但那都太過於原始實在很難用。後來又學一點專家系統的皮毛。當時的類神經網路都只有單層,效果實在太糟,看了後也就沒有再觀注。當完兵工作後直到2016年才又開始學習Tensorflow,但由於工作性質的關係,也只能摸一下就放著。
在20世紀末時有一個說法:『21世紀是水瓶世紀,所有的事情變化很快』。如今看來確實不假,我們只能快速學習並快速適應新的工具,才能在社會上存活。
大型語言模型
從 ChatGPT 面世以來,LLM 一直受到高度關注,但它不是真正的 AGI ,所以幻覺問題一直造成極大的困擾。市面上出現不少教如何使用 ChatGPT 或是如何下提示詞(提示工程)的書。買書學使用方法絕對有用,但很可能用不久,到下一版本的語言模型發行後,很可能就不適用。
目前雖然 DeepSeek R1 和 Gemini 2.0 都發布,但是實際使用上 DeepSeek 與 Gemini 的體驗都遠不如 ChatGPT,只有 Claude 還有一戰的能力,可惜對我這種免費仔來說 Claude 免費的額度實在太少。使用大型語言模型聊天機器人最重要的是必須注意幻覺問題,尤其是股溝的雙子星,實在太可怕了。 ChatGPT 有非常強的 Agent 在背後支持,用 API 呼叫和 ChatGPT的結果天差地遠,一般使用還是推薦ChatGPT,再來就是Perplexity。
RAG
去年有不少公司來推銷他們的落地RAG產品,不僅價格不菲,維護費20%,功能上與OpenAI的差距也不小;而我們最擔心的卻是AI版本迭代太快,可能隔兩年又要買新版本。
自幹本地 RAG 我也試過了,需要這方面知識的朋友可以參考 ihower 大大的文章,正如同他所寫,本地語言模型的Word embedding(也有人稱text embedding) 能力與線上商用模型差一大截,更不用說推論時使用的大型語言模型(LLM)能力差距更大;由於敝公司長官對於雲端的安全性存疑不想使用雲端LLM,所以最後還是先擱下等待時機成熟。
目前狀況
在公司沒辦法使用AI,我個人就先使用 Github Copilot 免費版與 Codeium/WindSurf,讓Coding速度加倍,希望能夠在AI時代再混20年。
留言