Cloudflare Workers AI完全指南:每天10000次免费调用
Cloudflare Workers AI 是一个容易被忽视的免费 AI 资源。每天 10000 次免费推理调用,全球边缘节点部署,国内可直连——这些条件组合在一起,对开发者来说相当有吸引力。
Workers AI 是什么?
Cloudflare Workers AI 是 Cloudflare 在其全球边缘网络上提供的 AI 推理服务。简单说,就是在 Cloudflare 的服务器上跑 AI 模型,你通过 API 调用。
与 OpenAI、DeepSeek 等平台不同,Workers AI 的模型运行在离用户最近的边缘节点上,延迟更低。而且它与 Cloudflare 的 Workers(Serverless 函数)、R2(对象存储)、D1(数据库)等服务无缝集成。
免费额度详情
Workers AI 的免费额度非常慷慨:
| 项目 | 免费额度 |
|------|---------|
| 推理请求 | 10000 次/天 |
| 文本生成 | 10000 次/天 |
| 文本分类 | 10000 次/天 |
| 翻译 | 10000 次/天 |
| 图片分类 | 10000 次/天 |
| 嵌入生成 | 10000 次/天 |
| 语音转文字 | 10000 次/天 |
注意:这是每天的额度,不是每月。每天重置,不累积。
不需要信用卡,注册 Cloudflare 免费账号即可使用。
支持的模型
Workers AI 支持多个开源模型,主要包括:
文本生成
| 模型 | 参数量 | 特点 |
|------|--------|------|
| @cf/meta/llama-3.1-8b-instruct | 8B | 通用对话,质量不错 |
| @cf/mistral/mistral-7b-instruct-v0.2 | 7B | 多语言,速度快 |
| @cf/qwen/qwen1.5-7b-chat | 7B | 中文优化 |
| @cf/google/gemma-7b-it | 7B | Google 开源 |
文本嵌入
| 模型 | 维度 | 特点 |
|------|------|------|
| @cf/baai/bge-base-en-v1.5 | 768 | 英文嵌入 |
| @cf/baai/bge-large-en-v1.5 | 1024 | 高质量英文嵌入 |
其他任务
- 翻译:@cf/meta/m2m100-1.2b
- 图片分类:@cf/microsoft/resnet-50
- 语音转文字:@cf/openai/whisper
快速接入指南
方式一:通过 Workers 脚本调用
最推荐的方式是在 Cloudflare Workers 中直接调用:
export default {
async fetch(request, env) {
const response = await env.AI.run(
"@cf/meta/llama-3.1-8b-instruct",
{
messages: [
{ role: "system", content: "你是一个有帮助的助手。" },
{ role: "user", content: "用一句话解释什么是边缘计算" }
]
}
);
return new Response(JSON.stringify(response), {
headers: { "content-type": "application/json" }
});
}
};
在 wrangler.toml 中添加 AI 绑定:
[ai]
binding = "AI"
方式二:通过 REST API 调用
如果不想写 Workers,也可以直接用 REST API:
curl https://api.cloudflare.com/client/v4/accounts/{account_id}/ai/run/@cf/meta/llama-3.1-8b-instruct \
-H "Authorization: Bearer {api_token}" \
-d '{
"messages": [
{"role": "system", "content": "你是一个有帮助的助手。"},
{"role": "user", "content": "你好"}
]
}'
方式三:通过 Python SDK
import requests
API_BASE = "https://api.cloudflare.com/client/v4/accounts/{account_id}/ai/run"
headers = {"Authorization": "Bearer {api_token}"}
response = requests.post(
f"{API_BASE}/@cf/meta/llama-3.1-8b-instruct",
headers=headers,
json={
"messages": [
{"role": "system", "content": "你是一个有帮助的助手。"},
{"role": "user", "content": "你好"}
]
}
)
print(response.json())
实际使用体验
速度
Workers AI 的响应速度取决于你离 Cloudflare 节点的距离:
| 地区 | 首 token 延迟 | 生成速度 |
|------|-------------|---------|
| 中国大陆 | 0.3-0.8s | 30-50 token/s |
| 东南亚 | 0.2-0.5s | 40-60 token/s |
| 美国 | 0.1-0.3s | 50-70 token/s |
速度不算顶级(比不上 Groq),但对于免费服务来说已经很不错。
模型能力
Workers AI 目前主要支持 7B-8B 级别的模型,能力上有明显天花板:
- 简单任务(分类、摘要、翻译):表现良好
- 中等任务(一般对话、简单代码):基本够用
- 复杂任务(长文写作、复杂推理):力不从心
如果你需要 GPT-4o 级别的能力,Workers AI 不是正确的选择。但如果你的需求是轻量级 AI 功能,它完全够用。
稳定性
Cloudflare 的基础设施稳定性毋庸置疑。在我们的测试中,Workers AI 的可用性接近 99.9%,几乎没有遇到过服务不可用的情况。
最佳实践
1. 选对模型
不同任务选不同模型:
- 中文对话 → Qwen 1.5 7B
- 英文通用 → Llama 3.1 8B
- 多语言翻译 → M2M100
- 文本嵌入 → BGE 系列
2. 控制输入长度
7B 模型的上下文窗口有限(通常 4K-8K token)。长文本需要先分段处理。
3. 搭配 Workers 生态
Workers AI 的最大优势是与 Cloudflare 生态的集成:
用户请求 → Workers(路由逻辑)→ Workers AI(推理)
→ D1(存储结果)
→ R2(存储文件)
→ KV(缓存)
一个完整的 AI 应用可以全部跑在 Cloudflare 上,免费额度覆盖所有组件。
4. 缓存重复请求
对于相同的输入,可以用 Cloudflare KV 缓存结果,减少 AI 调用次数:
export default {
async fetch(request, env) {
const body = await request.json();
const cacheKey = JSON.stringify(body.messages);
// 检查缓存
const cached = await env.KV.get(cacheKey);
if (cached) return new Response(cached);
// 调用 AI
const result = await env.AI.run("@cf/meta/llama-3.1-8b-instruct", body);
const response = JSON.stringify(result);
// 写入缓存(1小时过期)
await env.KV.put(cacheKey, response, { expirationTtl: 3600 });
return new Response(response);
}
};
5. 合理分配每日额度
10000 次/天看起来很多,但如果不注意也会用完:
- 避免在循环中调用 AI
- 批量处理时控制并发
- 非关键请求用缓存兜底
与其他免费方案对比
| 维度 | Workers AI | DeepSeek | Groq | Google AI Studio |
|------|-----------|----------|------|-----------------|
| 免费额度 | 10000次/天 | $5赠金 | 每日限额 | 1500次/天 |
| 模型能力 | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ |
| 速度 | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ |
| 国内直连 | ✅ | ✅ | ❌ | ❌ |
| 生态集成 | ⭐⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐ | ⭐⭐⭐ |
Workers AI 的独特优势在于边缘部署 + 生态集成 + 国内可用。如果你已经在用 Cloudflare,Workers AI 是最自然的选择。
适用场景
推荐使用
- 网站/应用的轻量级 AI 功能(智能搜索、自动摘要、内容分类)
- 全球化应用(利用边缘节点降低延迟)
- Cloudflare 生态内的 AI 集成
- 个人项目和原型开发
不推荐使用
- 需要顶级模型能力的场景(用 DeepSeek 或 GPT-4o)
- 需要极致速度的场景(用 Groq)
- 需要多模态的场景(用 Google AI Studio)
- 大规模生产环境(免费额度可能不够)
总结
Cloudflare Workers AI 是一个被低估的免费 AI 资源:
- 每天 10000 次免费调用,额度充足
- 国内可直连,无需代理
- 与 Cloudflare 生态无缝集成
- 零成本起步,不需要信用卡
它不是最强的,但可能是最实用的免费 AI 方案之一。特别是如果你已经在用 Cloudflare 的其他服务,Workers AI 几乎是零成本的加分项。