免费的模型API平台盘点

简介: 本文盘点了当前可免费使用的大模型 API 平台,涵盖主流模型、调用限制与适用场景,助你低成本体验和集成各类 AI 能力。

我的个人博客:https://tianhw.top/、

什么是 API

在开始之前,让我们先搞懂一个概念:什么是模型 API?

简单来说,模型 API 就是别人把大模型(比如 Claude、Gemini、Qwen、DeepSeek、Grok 等)部署在云端服务器上,然后给你一个 HTTPS 地址。你只需要像调用普通网页接口一样,发一个 JSON 过去,带上你的消息内容,它就给你返回模型的回复。

例如在 Cherry Studio 里,你只需要在设置里填上 base URL 和 API Key,选择好模型,就能让你不必忍受本地部署的小模型的弱智,瞬间调用千亿参数的模型。

所以简单来说,就是把跑模型的重活扔给云端,把知识库一类的轻活留给本地。

下面我把目前我使用的免费平台列出,省的大家重复造轮子了。

这里不是指那些注册送几千万 tokens 或者赠费的平台,因为这些本质上只是一种试用,下面列出的都是真正持久免费的。


免费平台盘点

魔搭社区

通过API接口进行标准化,能让开源模型以更加轻量和迅速的方式被开发者使用起来,并集成到不同的AI应用中。魔搭通过API-Inference,支持广大开发者无需本地的GPU和环境设置,就能轻松的依托不同开源模型的能力,展开富有创造力的尝试,与工具结合调用,来构建多种多样的AI应用原型。

支持的模型

覆盖大语言模型、多模态模型、文生图等多个领域。例如:

  • GLM-4.5
  • GLM-4.6
  • DeepSeek-R1-0528
  • DeepSeek-V3.1
  • DeepSeek-V3.2-Exp
  • MiniMax-M1-80k
  • QwQ-32B
  • QVQ-72B-Preview
  • Qwen3-235B-A22B-Thinking-2507
  • Qwen3-235B-A22B-Instruct-2507
  • Qwen3-VL-235B-A22B-Instruct
  • Qwen3-Coder-480B-A35B-Instruct
  • Qwen3-Embedding-8B
  • ...

使用限制

  • 每日免费额度为 2000 次 API-Inference 调用,每个单模型额度上限为 500 次。
  • 平台未明确限制请求速率,原则上保障开发者单并发正常使用。

部分热门或大规格模型可能会有更严格的单独限制。例如 deepseek-ai/DeepSeek-V3.2-Exp 目前每天仅限 100 次调用,且该限制会动态调整。

由于免费推理 API 由阿里云提供算力,所以你的 ModelScope 账号必须首先绑定阿里云账号。对应云账号还需要先通过实名认证后才能使用 API-Inference。

官网

ModelScope 魔搭社区


智谱 AI

智谱大模型开放平台 bigmodel.cn,提供功能丰富、灵活易用、高性价比的大模型 API 服务,支持智能体开发与模型精调、推理、评测等,致力于构建高效通用的“一站式模型即服务” AI 开发新范式。

智谱旨在让 AI 技术惠及更广泛的用户群体,提供了一些免费的 flash 模型。

支持的模型

智谱 AI 开放平台支持的模型有:

  • GLM-4.5-Flash
  • GLM-4.1V-Thinking-Flash
  • GLM-4-Flash-250414
  • GLM-4V-Flash
  • Cogview-3-Flash
  • CogVideoX-Flash

使用限制

模型名称 并发数限制
GLM-4.1V-Thinking-Flash 5
GLM-4V-Flash 10
GLM-4.5-Flash 2
GLM-4-Flash-250414 20
CogView-3-Flash 5
CogVideoX-Flash 3

[!NOTE]
GLM-4-Flash 当请求的上下文超过 8K 时,系统将限制并发为标准速率的 1%。

官网

智谱 AI 开放平台

GitHub Models

GitHub Models 是一个降低企业级 AI 采用门槛的工作区。 它通过将 AI 开发直接嵌入到熟悉的 GitHub 工作流,帮助你突破独立试验。 GitHub Models 提供了工具来测试大型语言模型 (LLM)、优化提示、评估输出并根据结构化指标做出明智的决策。

支持的模型

  • OpenAI o3
  • OpenAI o3-mini
  • OpenAI o4-mini
  • OpenAI o1-preview
  • OpenAI gpt-5
  • OpenAI gpt-5-mini
  • Llama-3.1-405B-Instruct
  • Llama 4 Scout 17B 16E Instruct
  • DeepSeek R1 0528
  • Grok 3
  • Grok 3 Mini
  • Phi-4-reasoning
  • Phi-4-multimodal-instruct
  • Codestral 25.01
  • ...

    使用限制

    模型速率限制分为两档:低或高。你可以在GitHub Marketplace 中的模型信息页面查看。但还有部分模型有更加严格的速率限制,如果你拥有Copilot Pro等可以获得更高的配额,具体参考下方表格。
速率限制层 速率限制 Copilot 免费版 Copilot Pro Copilot Business Copilot Enterprise
每分钟请求数 15 15 15 20
每天请求数 150 150 300 450
每个请求的令牌数 8000 输入,4000 输出 8000 输入,4000 输出 8000 输入,4000 输出 8000 输入,8000 输出
并发请求 5 5 5 8
每分钟请求数 10 10 10 15
每天请求数 50 50 100 150
每个请求的令牌数 8000 输入,4000 输出 8000 输入,4000 输出 8000 输入,4000 输出 16000 输入,8000 输出
并发请求 2 2 2 4
嵌入 每分钟请求数 15 15 15 20
每天请求数 150 150 300 450
每个请求的令牌数 64000 64000 64000 64000
并发请求 5 5 5 8
Azure OpenAI o1-preview 每分钟请求数 不适用 1 2 2
每天请求数 不适用 8 10 12
每个请求的令牌数 不适用 4000 输入,4000 输出 4000 输入,4000 输出 4000 输入,8000 输出
并发请求 不适用 1 1 1
Azure OpenAI o1、o3 和 gpt-5 每分钟请求数 不适用 1 2 2
每天请求数 不适用 8 10 12
每个请求的令牌数 不适用 4000 输入,4000 输出 4000 输入,4000 输出 4000 输入,8000 输出
并发请求 不适用 1 1 1
Azure OpenAI o1-mini、o3-mini、o4-mini、gpt-5-mini、gpt-5-nano 和 gpt-5-chat 每分钟请求数 不适用 2 3 3
每天请求数 不适用 12 15 20
每个请求的令牌数 不适用 4000 输入,4000 输出 4000 输入,4000 输出 4000 输入,4000 输出
并发请求 不适用 1 1 1
DeepSeek-R1、DeepSeek-R1-0528 和 MAI-DS-R1 每分钟请求数 1 1 2 2
每天请求数 8 8 10 12
每个请求的令牌数 4000 输入,4000 输出 4000 输入,4000 输出 4000 输入,4000 输出 4000 输入,4000 输出
并发请求 1 1 1 1
xAI Grok-3 每分钟请求数 1 1 2 2
每天请求数 15 15 20 30
每个请求的令牌数 4000 输入,4000 输出 4000 输入,4000 输出 4000 输入,8000 输出 4000 输入,16000 输出
并发请求 1 1 1 1
xAI Grok-3-Mini 每分钟请求数 2 2 3 3
每天请求数 30 30 40 50
每个请求的令牌数 4000 输入,8000 输出 4000 输入,8000 输出 4000 输入,12000 输出 4000 输入,12000 输出
并发请求 1 1 1 1

官网

GitHub Models

心流开放平台

iFlow CLI 是一款终端AI助手,可以分析代码、执行编程任务、处理文件操作。本指南帮您快速上手核心功能。

心流 API 提供与 OpenAI 100% 兼容的接口服务,让您可以无缝切换到我们的 AI 服务,享受更高性能和更具成本效益的解决方案。

支持的模型

  • tstars2.0
  • qwen3-coder-plus
  • qwen3-max
  • qwen3-vl-plus
  • qwen3-max-preview
  • kimi-k2-0905
  • glm-4.6
  • kimi-k2
  • deepseek-v3.2
  • deepseek-r1
  • deepseek-v3
  • qwen3-32b
  • qwen3-235b-a22b-thinking-2507
  • qwen3-235b-a22b-instruct
  • qwen3-235b

使用限制

所有模型完全免费使用,并发请求数为1

官网

心流开放平台API

硅基流动

[!NOTE]
硅基流动的免费模型参数量都较小,对话也就当个快速模型用还行,不过免费的嵌入与重排序模型做知识库不错

作为集合顶尖大模型的一站式云服务平台,SiliconFlow 致力于为开发者提供更快、更全面、体验更丝滑的模型 API,助力开发者和企业聚焦产品创新,无须担心产品大规模推广所带来的高昂算力成本。

支持的模型

  • THUDM/GLM-4.1V-9B-Thinking
  • deepseek-ai/DeepSeek-R1-0528-Qwen3-8B
  • THUDM/GLM-Z1-9B-0414
  • THUDM/GLM-4-9B-0414
  • deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
  • BAAI/bge-m3
  • netease-youdao/bce-embedding-base_v1
  • ...

    使用限制

    大多数是
用量级别 RPM TPM
L0 1,000 50,000

官网

硅基流动 SiliconFlow

目录
相关文章
|
2月前
|
人工智能 安全 机器人
2026 年 19 款最佳 AI 生产力工具:分级排名
还记得 2023 年吗?那时候,仿佛每隔 45 分钟就有一款新的“颠覆性” AI 工具横空出世。 而到了今天,我们都有过在某个令人抓狂的周二下午,跟一个死不认错的聊天机器人争论不休的经历。现在,我们正经历着“订阅疲劳”,面对着那些已经好几个月没碰过的工具账单感到厌倦。 但当我们展望 2026 年时,风向已经变了。早期的惊奇与憧憬已烟消云散,取而代之的是一个简单而急切的问题:这些工具真的能帮我们搞定日常工作吗?
1354 9
|
2月前
|
人工智能 Rust 运维
这个神器让你白嫖ClaudeOpus 4.5,Gemini 3!还能接Claude Code等任意平台
加我进AI讨论学习群,公众号右下角“联系方式”文末有老金的 开源知识库地址·全免费
4463 20
|
27天前
|
人工智能 JavaScript Linux
【Claude Code 全攻略】终端AI编程助手从入门到进阶(2026最新版)
Claude Code是Anthropic推出的终端原生AI编程助手,支持40+语言、200k超长上下文,无需切换IDE即可实现代码生成、调试、项目导航与自动化任务。本文详解其安装配置、四大核心功能及进阶技巧,助你全面提升开发效率,搭配GitHub Copilot使用更佳。
14139 22
|
1月前
|
机器学习/深度学习 测试技术 数据中心
九坤量化开源IQuest-Coder-V1,代码大模型进入“流式”训练时代
2026年首日,九坤创始团队成立的至知创新研究院开源IQuest-Coder-V1系列代码大模型,涵盖7B至40B参数,支持128K上下文与GQA架构,提供Base、Instruct、Thinking及Loop版本。采用创新Code-Flow训练范式,模拟代码演化全过程,提升复杂任务推理能力,在SWE-Bench、LiveCodeBench等基准领先。全阶段checkpoint开放,支持本地部署与微调,助力研究与应用落地。
814 2
|
20天前
|
人工智能 运维 前端开发
Claude Code 30k+ star官方插件,小白也能写专业级代码
Superpowers是Claude Code官方插件,由核心开发者Jesse打造,上线3个月获3万star。它集成brainstorming、TDD、系统化调试等专业开发流程,让AI写代码更规范高效。开源免费,安装简单,实测显著提升开发质量与效率,值得开发者尝试。
|
13天前
|
人工智能 自然语言处理 Shell
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
本教程指导用户在开源AI助手Clawdbot中集成阿里云百炼API,涵盖安装Clawdbot、获取百炼API Key、配置环境变量与模型参数、验证调用等完整流程,支持Qwen3-max thinking (Qwen3-Max-2026-01-23)/Qwen - Plus等主流模型,助力本地化智能自动化。
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
Z-Image:冲击体验上限的下一代图像生成模型
通义实验室推出全新文生图模型Z-Image,以6B参数实现“快、稳、轻、准”突破。Turbo版本仅需8步亚秒级生成,支持16GB显存设备,中英双语理解与文字渲染尤为出色,真实感和美学表现媲美国际顶尖模型,被誉为“最值得关注的开源生图模型之一”。
3557 9
|
10天前
|
人工智能 机器人 Linux
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
OpenClaw(原Clawdbot)是一款开源本地AI智能体,支持飞书等多平台对接。本教程手把手教你Linux下部署,实现数据私有、系统控制、网页浏览与代码编写,全程保姆级操作,240字内搞定专属AI助手搭建!
4953 17
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
|
17天前
|
人工智能 API 开发者
Claude Code 国内保姆级使用指南:实测 GLM-4.7 与 Claude Opus 4.5 全方案解
Claude Code是Anthropic推出的编程AI代理工具。2026年国内开发者可通过配置`ANTHROPIC_BASE_URL`实现本地化接入:①极速平替——用Qwen Code v0.5.0或GLM-4.7,毫秒响应,适合日常编码;②满血原版——经灵芽API中转调用Claude Opus 4.5,胜任复杂架构与深度推理。
9514 14