本來就有在用 Google Gemini、GitHub Copilot、OpenAI Codex,最近為了研究一些東西也入手了 Claude Code。
老實說,Claude Code 燒 token 跟鬼一樣,所以如果要拿來做 coding 或 code review,強烈建議把內建的 LSP 功能打開。
直接用 /plugin 安裝幾個常用插件:
- code-review
- context7
- skill-creator
- php-lsp
- pyright-lsp
- typescript-lsp
LSP 設定
要讓這些 LSP plugin 正常運作,你本機還是要有對應的 language server:
npm i -g intelephense pyright typescript typescript-language-server
這一段其實是關鍵。
因為 LSP 提供的是「結構化程式資訊」(symbol、type、reference),不是單純把整份 code 丟給模型讀。
簡單講就是:
- 沒有 LSP → 靠 token 硬吃整包 code
- 有 LSP → 精準抓需要的 context
這會直接影響兩件事:
- token 使用量
- 回答準確度
Claude Code 的優勢
目前「內建 LSP connector」這件事,是 Claude Code 跟其他模型最大的實用差異。
你會很明顯感覺到:
- context 更乾淨
- hallucination 比較少
- 大型專案比較撐得住
各家工具怎麼用(我的定位)
因為我自己有一套 agentic workflow,所以不太會去爭哪個模型最強,而是看它「適合做什麼」。
Claude Code
專門拿來 coding / deep code review
優點:
- LSP 整合完整
- 結構理解能力強
缺點:
- token 消耗偏高
Google Gemini
基本上是萬用工具人
- 跟 Google 生態整合很深
- UI 我自己最喜歡
- daily reset,沒有 weekly limit,用起來壓力小
我很多生活雜事都丟給它做。
另外裝了 code-review extension 之後,我實測:
👉 它的 /review 品質其實可以逼近 Claude Code(Sonnet)
OpenAI Codex
目前我的 coding 主力
有幾次經驗是:
- Claude Sonnet 解不出來
- 換 Opus 還是不行
- Codex 直接解掉
不確定是不是剛好遇到所謂「降智期」,但整體體驗真的很順。
另外它的 image-2 也蠻驚艷的。
GitHub Copilot
本質是「model switch + 強 context engineering」
重點不在模型本身,而是:
- IDE 整合超強
- context 處理很聰明
所以我只要回到 IDE workflow,就會開 Copilot。
我目前的使用方式
我不會只用一個模型,而是讓它們各自做擅長的事。
例如寫文章:
- 用 Gemini 查資料(準確、快)
- 用 Codex 發散(寫得很順)
- 用 Claude 收斂(結構整理、修正)
讓模型分工,其實比「找一個最強模型」還有效。
總結
我自己的結論很簡單:
沒有最強的模型,只有適不適合你 workflow 的工具
如果你願意花時間理解每個工具的設計哲學,再把它們組合起來用,體驗會差很多。
沒有留言:
張貼留言