硅基流动免费模型完整列表:2026年最新整理与使用指南
硅基流动(SiliconFlow)作为国内领先的AI算力平台,凭借其丰富的模型库和慷慨的免费额度,吸引了大量开发者和AI爱好者。然而,平台上的模型种类繁多,哪些是真正免费可用的?免费额度如何分配?如何高效调用?本文为你提供一份完整的免费模型清单,并附上详细的使用步骤和代码示例,助你零成本上手主流AI模型。
硅基流动免费模型一览
截至2026年4月,硅基流动平台提供数十款免费模型,覆盖文本生成、代码、图像、语音等多个领域。以下为精选的免费模型完整列表,按类型分类:
| 模型名称 | 类型 | 上下文长度 | 免费额度(每月) | 备注 |
|---------|------|-----------|----------------|------|
| Qwen2.5-72B-Instruct | 文本生成 | 128K tokens | 200万 tokens | 阿里通义千问系列,中文优化 |
| DeepSeek-V3 | 文本生成 | 128K tokens | 100万 tokens | 深度求索出品,推理能力强 |
| GLM-4-9B-Chat | 文本生成 | 128K tokens | 500万 tokens | 智谱AI,轻量级模型 |
| CodeLlama-34B-Instruct | 代码生成 | 16K tokens | 100万 tokens | Meta出品,专注代码 |
| Stable Diffusion 3.5 | 图像生成 | 512x512 | 100张图片 | 开源图像生成模型 |
| Whisper-large-v3 | 语音转文字 | 无限制 | 1000分钟 | OpenAI开源的语音模型 |
| BGE-M3 | 文本嵌入 | 8192 tokens | 1000万 tokens | 检索增强生成(RAG)专用 |
> 注意:免费额度按月更新,未使用部分不累积。部分模型(如DeepSeek-V3)虽标注免费,但高峰时段可能限流,建议错峰使用。
如何获取并使用免费模型
#### 1. 注册与获取API密钥
访问硅基流动官网,点击“注册”并完成实名认证(需手机号)。注册成功后,进入“控制台” -> “API密钥”页面,点击“创建密钥”,复制生成的密钥字符串(格式如sk-xxxx)。请勿泄露密钥,建议存储到环境变量中。
#### 2. 查看实时免费模型列表
平台免费模型会动态调整,建议定期检查官方文档或使用API查询。执行以下Python代码即可获取当前所有免费模型:
import requests
替换为你的API密钥
api_key = "YOUR_API_KEY"
headers = {"Authorization": f"Bearer {api_key}"}
获取模型列表
response = requests.get(
"https://api.siliconflow.cn/v1/models",
headers=headers
)
models = response.json()
筛选免费模型(free字段为true)
free_models = [m for m in models["data"] if m.get("free", False)]
for m in free_models:
print(f"模型ID: {m['id']}, 名称: {m['name']}")
输出示例:
模型ID: Qwen/Qwen2.5-72B-Instruct, 名称: Qwen2.5-72B-Instruct
模型ID: deepseek-ai/DeepSeek-V3, 名称: DeepSeek-V3
模型ID: THUDM/glm-4-9b-chat, 名称: GLM-4-9B-Chat
...
#### 3. 调用文本生成模型(以Qwen2.5为例)
硅基流动兼容OpenAI API格式,使用Python的openai库即可调用。以下为完整示例:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.siliconflow.cn/v1"
)
response = client.chat.completions.create(
model="Qwen/Qwen2.5-72B-Instruct",
messages=[
{"role": "system", "content": "你是一个有用的助手。"},
{"role": "user", "content": "请用中文解释什么是机器学习。"}
],
max_tokens=500,
temperature=0.7
)
print(response.choices[0].message.content)
参数说明:
model:必须使用完整模型ID(如上表所示)。max_tokens:单次生成最大token数,免费模型通常限制为4096。temperature:控制输出随机性,0-2之间,创意任务可设0.8-1.0。
#### 4. 调用图像生成模型(Stable Diffusion 3.5)
图像生成需使用专用端点,请求格式略有不同:
response = client.images.generate(
model="stabilityai/stable-diffusion-3.5-large",
prompt="一只穿着宇航服的猫在火星上散步,数字艺术风格",
n=1,
size="512x512"
)
image_url = response.data[0].url
print(f"生成图片URL: {image_url}")
可进一步下载图片
import requests
img_data = requests.get(image_url).content
with open("output.png", "wb") as f:
f.write(img_data)
免费额度管理与优化技巧
#### 1. 免费额度消耗计算
- 文本模型:按token计费。中文约1.5个汉字/ token,英文约0.75个单词/ token。假设你每天调用Qwen2.5-72B生成5000 tokens(约7500汉字),每月消耗约150万 tokens,低于200万免费额度。
- 图像模型:每张图消耗1次免费次数,每月100张。
- 语音模型:按音频时长计费,每分钟约消耗1次免费额度。
#### 2. 避免超额的策略
- 使用轻量模型:对于简单任务(如文本分类),优先选择GLM-4-9B-Chat(500万免费额度)而非Qwen2.5-72B。
- 限制输出长度:设置
max_tokens=200可大幅节省token,适合简短回答。 - 批处理请求:合并多个问题到一次请求中,减少API调用次数。
#### 3. 监控使用量
登录硅基流动控制台 -> “用量统计”,可查看每日/每月消耗。建议设置“用量告警”,当使用量达到80%时自动邮件通知,避免意外超额。
常见问题(FAQ)
Q1:硅基流动免费模型是否支持商用?
A:免费模型多为开源模型(如Qwen、DeepSeek),其开源协议通常允许商用,但需遵守各自许可(如Apache 2.0或MIT)。建议商用前查阅模型官方文档。
Q2:免费额度用完后会怎样?
A:额度耗尽后,API调用会返回429 Too Many Requests错误。若需继续使用,可充值购买按量付费套餐(约0.5元/百万 tokens),或等待下月额度重置。
Q3:为什么有些模型在列表里但调用时报错?
A:可能原因:1)模型ID不完整(需包含组织名,如Qwen/Qwen2.5-72B-Instruct);2)免费模型已下线,请用上述代码重新查询;3)API密钥权限不足,检查是否创建了正确的密钥。
Q4:能否同时使用多个免费模型?
A:可以。免费额度按模型独立计算,例如你可以同时调用Qwen2.5-72B和GLM-4-9B,分别消耗各自的200万和500万 tokens。
Q5:硅基流动和OpenAI API兼容吗?
A:完全兼容。只需将base_url改为https://api.siliconflow.cn/v1,即可使用OpenAI SDK调用硅基流动模型。对于需要中转多平台API的场景,推荐访问openllmapi.com,它提供一站式API中转,统一管理不同厂商的模型调用。
总结与延伸阅读
硅基流动的免费模型覆盖了从文本到图像的主流需求,每月数百万tokens的额度足以支撑个人项目和小型应用。合理利用轻量模型和token限制,可以长期零成本运行。若需更多免费额度信息,推荐访问yangmao.ai 免费额度汇总,那里整理了各大平台的免费资源对比。对于追求更低成本或统一API调用的开发者,AI API 省钱方案提供了实用的策略,包括利用openllmapi.com进行多模型负载均衡,进一步降低使用成本。