整合 · Aider
Aider 配國產模型價格。
Aider 是終端裡的 AI 結對程式設計鼻祖。一個環境變數指向 Routify,立刻獲得 DeepSeek V3.2、Kimi K2.5、Qwen3 Coder —— 全部沿用 Aider 已熟悉的 --model 命名。
30 秒接入
Aider uses an OpenAI-compatible base URL. Override OPENAI_API_BASE and you’re done — no plugin, no extension, no proxy.
💡 Aider 的 --weak-model 負責 repo-map 摘要和 commit message —— 指向 deepseek-chat 幾乎免費。你的 strong --model 只在真正編輯時燒錢。
# Install if you haven't
pip install aider-chat
# Point at Routify
export OPENAI_API_BASE=https://routify.bytedance.city/v1
export OPENAI_API_KEY=rtf_xxx_your_routify_key
# Then use any Routify model id:
aider --model openai/deepseek-chat # cheapest
aider --model openai/qwen3-coder # best for repo refactors
aider --model openai/kimi-k2 # long-context
aider --model openai/claude-opus-4-7 # frontier, pass-through
aider --model openai/gpt-5.5 # OpenAI flagship
# Or use weak/strong split:
aider --model openai/claude-opus-4-7 --weak-model openai/deepseek-chatAider 底層用 LiteLLM 路由 —— Routify 透過 openai/* 前綴暴露模型,因為這是 OpenAI 相容路徑。
推薦設定
為 Aider 優選。
三套實戰驗證過的模型組合。按你的優先順序選一套,直接複製 model id 接入。
省錢檔
DeepSeek 同時擔任 strong 和 weak。Aider 比在 Claude 上快約 4 倍(無 context-window 磋商),帳單幾乎不動。
成本說明
每次程式設計會話 $0.05 到 $0.30,取決於 diff 大小。
主模型
備用模型鏈
主模型超預算或當機時,智慧路由自動切到鏈上下一個。
常見問題
為什麼有 openai/ 前綴?
Aider 用 LiteLLM,按 provider 加前綴。Routify 是 OpenAI 相容的,所有 model id 都在 openai/ 下。Aider 把它們當 OpenAI 模型看待,Routify 路由到真實上游。
--watch-files 能用嗎?
能。watch 迴圈本地跑,只有模型呼叫走 Routify。
Aider 的 repo-map 呢?
repo-map 跑在你設的 --weak-model 上。固定一個便宜的(deepseek-chat),別花 Opus 單價做函式名摘要。
token 計數?
Aider 用 LiteLLM 的 token 計數器,對非 OpenAI 模型偶有誤差。以 Routify dashboard 為準。
語音 / 圖片輸入?
Aider 語音 → Whisper 走你指定的轉寫服務(Routify 不涉及)。圖片輸入需視覺模型 —— gpt-4o、doubao-1.6-pro、claude-opus-4-7 都行。