硅基流动免费模型完整列表:2026年最新整理与使用指南

硅基流动(SiliconFlow)作为国内领先的AI算力平台,凭借其丰富的模型库和慷慨的免费额度,吸引了大量开发者和AI爱好者。然而,平台上的模型种类繁多,哪些是真正免费可用的?免费额度如何分配?如何高效调用?本文为你提供一份完整的免费模型清单,并附上详细的使用步骤和代码示例,助你零成本上手主流AI模型。

硅基流动免费模型一览

截至2026年4月,硅基流动平台提供数十款免费模型,覆盖文本生成、代码、图像、语音等多个领域。以下为精选的免费模型完整列表,按类型分类:

| 模型名称 | 类型 | 上下文长度 | 免费额度(每月) | 备注 |

|---------|------|-----------|----------------|------|

| Qwen2.5-72B-Instruct | 文本生成 | 128K tokens | 200万 tokens | 阿里通义千问系列,中文优化 |

| DeepSeek-V3 | 文本生成 | 128K tokens | 100万 tokens | 深度求索出品,推理能力强 |

| GLM-4-9B-Chat | 文本生成 | 128K tokens | 500万 tokens | 智谱AI,轻量级模型 |

| CodeLlama-34B-Instruct | 代码生成 | 16K tokens | 100万 tokens | Meta出品,专注代码 |

| Stable Diffusion 3.5 | 图像生成 | 512x512 | 100张图片 | 开源图像生成模型 |

| Whisper-large-v3 | 语音转文字 | 无限制 | 1000分钟 | OpenAI开源的语音模型 |

| BGE-M3 | 文本嵌入 | 8192 tokens | 1000万 tokens | 检索增强生成(RAG)专用 |

> 注意:免费额度按月更新,未使用部分不累积。部分模型(如DeepSeek-V3)虽标注免费,但高峰时段可能限流,建议错峰使用。

如何获取并使用免费模型

#### 1. 注册与获取API密钥

访问硅基流动官网,点击“注册”并完成实名认证(需手机号)。注册成功后,进入“控制台” -> “API密钥”页面,点击“创建密钥”,复制生成的密钥字符串(格式如sk-xxxx)。请勿泄露密钥,建议存储到环境变量中。

#### 2. 查看实时免费模型列表

平台免费模型会动态调整,建议定期检查官方文档或使用API查询。执行以下Python代码即可获取当前所有免费模型:

import requests

替换为你的API密钥

api_key = "YOUR_API_KEY"

headers = {"Authorization": f"Bearer {api_key}"}

获取模型列表

response = requests.get(

"https://api.siliconflow.cn/v1/models",

headers=headers

)

models = response.json()

筛选免费模型(free字段为true)

free_models = [m for m in models["data"] if m.get("free", False)]

for m in free_models:

print(f"模型ID: {m['id']}, 名称: {m['name']}")

输出示例:

模型ID: Qwen/Qwen2.5-72B-Instruct, 名称: Qwen2.5-72B-Instruct

模型ID: deepseek-ai/DeepSeek-V3, 名称: DeepSeek-V3

模型ID: THUDM/glm-4-9b-chat, 名称: GLM-4-9B-Chat

...

#### 3. 调用文本生成模型(以Qwen2.5为例)

硅基流动兼容OpenAI API格式,使用Python的openai库即可调用。以下为完整示例:

from openai import OpenAI

client = OpenAI(

api_key="YOUR_API_KEY",

base_url="https://api.siliconflow.cn/v1"

)

response = client.chat.completions.create(

model="Qwen/Qwen2.5-72B-Instruct",

messages=[

{"role": "system", "content": "你是一个有用的助手。"},

{"role": "user", "content": "请用中文解释什么是机器学习。"}

],

max_tokens=500,

temperature=0.7

)

print(response.choices[0].message.content)

参数说明

  • model:必须使用完整模型ID(如上表所示)。
  • max_tokens:单次生成最大token数,免费模型通常限制为4096。
  • temperature:控制输出随机性,0-2之间,创意任务可设0.8-1.0。

#### 4. 调用图像生成模型(Stable Diffusion 3.5)

图像生成需使用专用端点,请求格式略有不同:

response = client.images.generate(

model="stabilityai/stable-diffusion-3.5-large",

prompt="一只穿着宇航服的猫在火星上散步,数字艺术风格",

n=1,

size="512x512"

)

image_url = response.data[0].url

print(f"生成图片URL: {image_url}")

可进一步下载图片

import requests

img_data = requests.get(image_url).content

with open("output.png", "wb") as f:

f.write(img_data)

免费额度管理与优化技巧

#### 1. 免费额度消耗计算

  • 文本模型:按token计费。中文约1.5个汉字/ token,英文约0.75个单词/ token。假设你每天调用Qwen2.5-72B生成5000 tokens(约7500汉字),每月消耗约150万 tokens,低于200万免费额度。
  • 图像模型:每张图消耗1次免费次数,每月100张。
  • 语音模型:按音频时长计费,每分钟约消耗1次免费额度。

#### 2. 避免超额的策略

  • 使用轻量模型:对于简单任务(如文本分类),优先选择GLM-4-9B-Chat(500万免费额度)而非Qwen2.5-72B。
  • 限制输出长度:设置max_tokens=200可大幅节省token,适合简短回答。
  • 批处理请求:合并多个问题到一次请求中,减少API调用次数。

#### 3. 监控使用量

登录硅基流动控制台 -> “用量统计”,可查看每日/每月消耗。建议设置“用量告警”,当使用量达到80%时自动邮件通知,避免意外超额。

常见问题(FAQ)

Q1:硅基流动免费模型是否支持商用?

A:免费模型多为开源模型(如Qwen、DeepSeek),其开源协议通常允许商用,但需遵守各自许可(如Apache 2.0或MIT)。建议商用前查阅模型官方文档。

Q2:免费额度用完后会怎样?

A:额度耗尽后,API调用会返回429 Too Many Requests错误。若需继续使用,可充值购买按量付费套餐(约0.5元/百万 tokens),或等待下月额度重置。

Q3:为什么有些模型在列表里但调用时报错?

A:可能原因:1)模型ID不完整(需包含组织名,如Qwen/Qwen2.5-72B-Instruct);2)免费模型已下线,请用上述代码重新查询;3)API密钥权限不足,检查是否创建了正确的密钥。

Q4:能否同时使用多个免费模型?

A:可以。免费额度按模型独立计算,例如你可以同时调用Qwen2.5-72B和GLM-4-9B,分别消耗各自的200万和500万 tokens。

Q5:硅基流动和OpenAI API兼容吗?

A:完全兼容。只需将base_url改为https://api.siliconflow.cn/v1,即可使用OpenAI SDK调用硅基流动模型。对于需要中转多平台API的场景,推荐访问openllmapi.com,它提供一站式API中转,统一管理不同厂商的模型调用。

总结与延伸阅读

硅基流动的免费模型覆盖了从文本到图像的主流需求,每月数百万tokens的额度足以支撑个人项目和小型应用。合理利用轻量模型和token限制,可以长期零成本运行。若需更多免费额度信息,推荐访问yangmao.ai 免费额度汇总,那里整理了各大平台的免费资源对比。对于追求更低成本或统一API调用的开发者,AI API 省钱方案提供了实用的策略,包括利用openllmapi.com进行多模型负载均衡,进一步降低使用成本。