【實測紀錄】Openclaw LLM 大腦進化史
看完前面這幾個主流模型的分析,你可能會問我:「那實測起來到底感覺如何?」 說實話,自從我加入 Google 家庭群組後,就順勢退掉了 ChatGPT 的訂閱,所以 Gemini 3 一直是我最常用的「大腦」。但這次實測下來,我發現它有個致命傷:價格資訊經常給錯。這真的很嚴重,導致我初期在規劃成本時產生了不少誤判。 在與 OCI (Oracle Cloud) 權限地獄搏鬥的過程中,我的 Openclaw 小秘書經歷了幾次「大腦移植」。以下是這 24 小時的血淚進化史: 1. Gemini 1.5 Flash / 2.0 Flash|初期拓荒:出師不利 實測狀況:作為最早嘗試在 OCI 主機串接的先鋒,這兩個版本讓我吃足了苦頭。頻繁遭遇 404 連線失敗,或是 Session 紀錄在數據庫中出現死鎖(Deadlock),導致系統整台動彈不得。 最終結果:在環境設定與權限地獄(Permission Hell)的雙重夾擊下,為了不讓進度卡死,我果斷決定先跳過這個版本,另尋出路。 2. Gemini 2.5 Flash-Lite|初次接通:0 元生存戰的曙光 實測狀況:在解決了 OCI 權限與 Docker 報錯後,這款模型成了第一個成功在主機上「活過來」的大腦。 最終結果:作為 Telegram 機器人的初始大腦,它的價格極其親民,僅為 2.0 版的十分之一。它幫我驗證了整個自動化流程的連通性,讓計畫從「理論」正式進入「實作」。 碎碎念:不過,實測發現她真的太笨了 XD。 3. Gemini 2.5 Flash|穩定運作期:負重前行的數據累積 實測狀況:這是 2/21 實測中的主力軍,單日跑了將近 95 萬個 Token。從數據中我發現一個驚人的事實:由於 LLM 的無狀態特性,每次呼叫都要重傳高達 19,158 字元 的 System Prompt,導致 Input 與 Output 的比例高達 81:1。 ...