集成 · Aider
Aider 配国产模型价格。
Aider 是终端里的 AI 结对编程鼻祖。一个环境变量指向 Routify,立刻获得 DeepSeek V3.2、Kimi K2.5、Qwen3 Coder —— 全部沿用 Aider 已熟悉的 --model 命名。
30 秒接入
Aider uses an OpenAI-compatible base URL. Override OPENAI_API_BASE and you’re done — no plugin, no extension, no proxy.
💡 Aider 的 --weak-model 负责 repo-map 摘要和 commit message —— 指向 deepseek-chat 几乎免费。你的 strong --model 只在真正编辑时烧钱。
# Install if you haven't
pip install aider-chat
# Point at Routify
export OPENAI_API_BASE=https://routify.bytedance.city/v1
export OPENAI_API_KEY=rtf_xxx_your_routify_key
# Then use any Routify model id:
aider --model openai/deepseek-chat # cheapest
aider --model openai/qwen3-coder # best for repo refactors
aider --model openai/kimi-k2 # long-context
aider --model openai/claude-opus-4-7 # frontier, pass-through
aider --model openai/gpt-5.5 # OpenAI flagship
# Or use weak/strong split:
aider --model openai/claude-opus-4-7 --weak-model openai/deepseek-chatAider 底层用 LiteLLM 路由 —— Routify 通过 openai/* 前缀暴露模型,因为这是 OpenAI 兼容路径。
推荐配置
为 Aider 优选。
三套实战验证过的模型组合。按你的优先级选一套,直接复制 model id 接入。
省钱档
DeepSeek 同时担任 strong 和 weak。Aider 比在 Claude 上快约 4 倍(无 context-window 磋商),账单几乎不动。
成本说明
每次编程会话 $0.05 到 $0.30,取决于 diff 大小。
主模型
备用模型链
主模型超预算或宕机时,智能路由自动切到链上下一个。
常见问题
为什么有 openai/ 前缀?
Aider 用 LiteLLM,按 provider 加前缀。Routify 是 OpenAI 兼容的,所有 model id 都在 openai/ 下。Aider 把它们当 OpenAI 模型看待,Routify 路由到真实上游。
--watch-files 能用吗?
能。watch 循环本地跑,只有模型调用走 Routify。
Aider 的 repo-map 呢?
repo-map 跑在你设的 --weak-model 上。固定一个便宜的(deepseek-chat),别花 Opus 单价做函数名摘要。
token 计数?
Aider 用 LiteLLM 的 token 计数器,对非 OpenAI 模型偶有误差。以 Routify dashboard 为准。
语音 / 图片输入?
Aider 语音 → Whisper 走你指定的转写服务(Routify 不涉及)。图片输入需视觉模型 —— gpt-4o、doubao-1.6-pro、claude-opus-4-7 都行。