结论
- 成本优先:DeepSeek。
- 国内直连优先:通义千问、硅基流动、智谱。
- 速度优先:Groq。
- 多模型市场:OpenRouter,但有平台加价。
怎么做
- 在代码里找到 OpenAI client 初始化位置。
- 把 model、base_url、api_key 都改成环境变量。
- 加一个 provider model map,不要把 gpt-* 写死在业务逻辑。
- 用同一组 prompt 同时跑旧 provider 和新 provider。
- 上线前验证 streaming、tool calls、JSON mode、embedding、错误格式。
推荐路径对比
| 平台 | 免费/额度 | 适合 |
|---|---|---|
| DeepSeek | $5 注册额度 | 低成本 OpenAI SDK 迁移 |
| 通义千问 | 7000 万 tokens | 国内、代码、长上下文 |
| 硅基流动 | 免费模型 + ¥14 额度 | 国内开源模型 API |
| Groq | 开发者免费限额 | 低延迟推理 |
| OpenRouter | 免费模型 | 一个 API 试很多模型 |
自有平台承接
需要一个端点覆盖多个模型家族?
当你需要 GPT、Claude、Gemini、DeepSeek、Qwen 兜底,又不想写多套 provider adapter,可以用 OpenAI 兼容统一端点。
FAQ
OpenAI 兼容等于完全一样吗?
不是。Chat Completions 通常接近,但流式事件、工具调用、JSON mode、图像输入、错误码都可能不同。必须测自己的功能。
还能用 OpenAI Python / JS SDK 吗?
通常可以。把 provider key 和 base_url 传给同一个 SDK client,再换模型名即可。
国内用哪个兼容 API 更稳?
通义千问、硅基流动、DeepSeek、智谱通常比海外 API 更适合国内直连。
怎么避免再次被锁定?
做一个很薄的 provider adapter,记录每个任务的质量/成本,并保留至少一个可用兜底 provider。