本博客日IP超过2000,PV 3000 左右,急需赞助商。
极客时间所有课程通过我的二维码购买后返现24元微信红包,请加博主新的微信号:xttblog2,之前的微信号好友位已满,备注:返现
受密码保护的文章请关注“业余草”公众号,回复关键字“0”获得密码
所有面试题(java、前端、数据库、springboot等)一网打尽,请关注文末小程序
【腾讯云】1核2G5M轻量应用服务器50元首年,高性价比,助您轻松上云
free-claude-code 登上 GitHub 周榜超 1.6 万 Star。
今天,我关注到 GitHub 周榜上有一个新项目,Star 数正在狂飙,不到一周时间获得 1.6 万 Star。
这个项目叫 free-claude-code,顾名思义有点免费使用 Claude Code 以及 Claude AI 的意味。我们经常幻想着零成本用上 Claude Code,这个 GitHub 爆火项目,是不是正在改写 AI 编程的成本公式呢?
接下来,本文就试图揭开她的面纱。
话说,Claude Code 是 2026 年最炙手可热的 AI 编程工具之一,甚至是没有之一。但它的官方 API 价格不菲,且国内访问受限。因此,free-claude-code 这个开源项目迅速蹿红是有原因的。它通过本地代理的方式,让 Claude Code 零成本对接 NVIDIA 免费 API、OpenRouter、DeepSeek 甚至本地模型,完全无需修改 Claude Code 本身。
Claude Code 为什么火?
众所周知,Claude Code 是 Anthropic 推出的终端级 AI 编程助手,它不仅能写代码,还能理解整个代码库、执行 Git 操作、管理多文件重构,甚至通过自然语言指令完成复杂的工程任务。自 2026 年初以来,它迅速成为 GitHub Trending 讨论的常客,围绕它的插件生态(如 obra/superpowers、claude-mem 等)也层出不穷。
但问题来了:
- 成本高:Claude 官方 API 按量计费,重度使用下来账单可观;
- 访问难:国内开发者直连 Anthropic 服务并不顺畅;
- 模型锁:官方版本绑定 Anthropic 自家模型,灵活性不足。
正是在这个背景下,free-claude-code 应运而生。
free-claude-code
free-claude-code,是一个“偷梁换柱”的代理层,不怕被 Claude AI 封禁。
文章配图参见 https://mp.weixin.qq.com/s/y8R4GsFj_y9pbpLswYkhUw。
项目简介
free-claude-code(GitHub: Alishahryar1/free-claude-code)是一个基于 Python/FastAPI 的轻量级代理服务。它的核心思路非常巧妙,如下所示。
┌─────────────────┐ ┌──────────────────────┐ ┌──────────────────┐
│ Claude Code │───>│ Free Claude Code │───>│ 真实 LLM 供应商 │
│ CLI / VSCode │<───│ 本地代理 (:8082) │<───│ NIM / OR / 本地 │
└─────────────────┘ └──────────────────────┘ └──────────────────┘
Anthropic API 格式 OpenAI 兼容格式 (SSE)
简单说,它在本地启动一个代理服务器,拦截 Claude Code 发往 Anthropic 的请求,转发给其他免费或低成本的 LLM 供应商,再把返回结果转换成 Claude Code 能读懂的格式回传。Claude Code 完全“无感”,以为自己还在和官方 API 通信。
为什么登上 GitHub 榜单?
根据 GitHub Trending 的观察数据,2026 年 4 月的趋势榜单中,“AI Agent 工具链爆发”是最显著的主题,超过 70% 的热门项目与 AI Agent 直接相关,开发者关注点已从“AI 能否编程”转向“如何让 AI 可靠、高效、低成本地融入工程流程”。
而这个free-claude-code就恰好踩中了这其中的三个痛点。
| 痛点 | 解决方案 |
|---|---|
| 成本高 | 对接 NVIDIA NIM 免费层(40 req/min,无需信用卡)、OpenRouter 免费模型、本地模型 |
| 访问难 | 完全本地代理,不依赖 Anthropic 官方网络 |
| 模型锁 | 支持 6 家 Provider,可混合使用不同模型 |
此外,项目本身设计精良。
- 零侵入:只需设置 2 个环境变量,无需修改 Claude Code CLI 或 VSCode 扩展;
- 思考链保留:自动解析
<thinking>标签和reasoning_content,让 DeepSeek R1、GLM 等模型的思考过程完美显示; - 工具调用修复:开源模型常输出不规范的 Tool Call,代理内置启发式解析器自动修正;
- 智能限流:内置并发控制和 429 退避机制,免费 API 也不容易被封。
六大供应商全覆盖
项目目前支持 6 种模型提供商,覆盖从“完全免费”到“完全本地”的全谱系。
| 供应商 | 成本 | 速率限制 | 适用场景 |
|---|---|---|---|
| NVIDIA NIM | 免费 | 40 req/min | 日常主力,模型质量高 |
| OpenRouter | 免费/付费 | 视模型而定 | 模型种类多,适合 fallback |
| DeepSeek | 按量计费 | 视套餐 | 价格低,Anthropic 兼容接口 |
| LM Studio | 免费(本地) | 无限制 | 隐私要求高、离线环境 |
| llama.cpp | 免费(本地) | 无限制 | 轻量级本地推理 |
| Ollama | 免费(本地) | 无限制 | 最易上手的本地方案 |
注意,NVIDIA NIM是目前社区最推荐的免费方案。NVIDIA 在 build.nvidia.com 上提供了大量开源模型的免费推理服务,包括 Qwen 3.5、GLM 5、Kimi K2.5、MiniMax M2.5 等强代码模型,注册即可获取 nvapi- 开头的 API Key,无需绑定信用卡。
更妙的是,free-claude-code 支持按模型层级路由。你可以把 Claude Opus 的请求发给一个模型,Sonnet 的请求发给另一个,Haiku 的请求再发给第三个,实现“混搭式”配置 。
10 分钟上手
根据社区实践,完整上手流程大约需要 10 分钟,从安装到跑通。
第一步,推荐获取 NVIDIA NIM API Key。
- 访问
build.nvidia.com,注册免费账号; - 完成手机验证;
- 在任意模型页面点击“Get API Key”,创建并复制 Key(格式如
nvapi-xxx)。
第二步,克隆项目并配置。
# 安装 uv(Python 包管理器)
curl -LsSf https://astral.sh/uv/install.sh | sh
uv python install 3.14
# 克隆项目
git clone https://github.com/Alishahryar1/free-claude-code.git
cd free-claude-code
cp .env.example .env
第三步,编辑 .env 文件。
NVIDIA_NIM_API_KEY="nvapi-你的Key"
# 模型映射:Claude 的三个层级都指向 NVIDIA NIM 的模型
MODEL_OPUS="nvidia_nim/z-ai/glm-5.1"
MODEL_SONNET="nvidia_nim/z-ai/glm-5.1"
MODEL_HAIKU="nvidia_nim/z-ai/glm-5.1"
MODEL="nvidia_nim/z-ai/glm-5.1"
ENABLE_MODEL_THINKING=true
第四步,启动代理。
uv run uvicorn server:app --host 0.0.0.0 --port 8082
第五步,配置 Claude Code。
编辑 Claude Code 的 settings.json(路径因系统而异)。
{
"env": {
"ANTHROPIC_BASE_URL": "http://localhost:8082",
"ANTHROPIC_AUTH_TOKEN": "freecc"
}
}
最后,开跑,开始使用 claude code。
claude
输入“你好”测试,如果看到模型正常回复,说明代理已生效。整个过程中,Claude Code 的界面、交互、功能完全不变——只是背后的“大脑”已经换成了 NVIDIA 的免费模型。
同时,针对VSCode 扩展用户也可以在settings.json中加入同样的环境变量配置,实现 IDE 内零成本使用。
进阶玩法
除了基础的 CLI/VSCode 代理,free-claude-code 还支持 Discord 机器人与多模型切换,同时也提供了两个有趣的进阶功能。
Discord / Telegram 机器人
我们可以把 Claude Code 变成一个远程可控的 Discord Bot。
- 支持树状消息线程(回复消息即可 fork 对话)
- 会话持久化(重启服务器后对话不丢失)
- 实时流式输出思考过程和工具调用结果
- 语音消息自动转录(支持本地 Whisper 或 NVIDIA NIM)
配置方式也很简单,在 .env 中设置 MESSAGING_PLATFORM=discord 和 DISCORD_BOT_TOKEN,即可实现“远程指挥 AI 写代码”。
交互式模型选择器 claude-pick
不想每次改.env换模型?该项目提供了一个claude-pick 脚本,配合 fzf 实现交互式模型选择,每次启动 Claude Code 时动态挑选模型,无需手动编辑配置。
为什么开发者愿意给它点 Star?
从社区讨论来看,free-claude-code 的口碑主要集中在以下几点。
- 成功率高于同类方案:相比早期的 CC Switch 等工具,
free-claude-code的模型名称格式统一、请求转换完整、配置更干净,避免了手动填模型名容易出错的问题; - 文档详尽:从
.env的每个字段到 Provider 的对接细节,README 写得非常清楚,降低了上手门槛; - 持续更新:项目活跃维护,不断新增 Provider 和功能(如最近新增的 Ollama 原生 Anthropic API 支持);
- MIT 协议:完全开源,可自由修改和二次开发。
当然,也有开发者提醒,替换的模型毕竟不是原生 Claude,在超长上下文理解、复杂多步工具调用、深度代码重构等场景下,效果会因模型能力而异。但对于日常编码、单文件编辑、代码解释等任务,免费模型已经能胜任大部分工作。
总结
free-claude-code是一个典型的“以巧破力”式开源项目。没有试图复制 Claude Code,毕竟那将是一个极其庞大的工程。它聪明地利用了 Claude Code 开放的 API 接口设计,搭了一个“中间层”,让开发者可以用任意模型驱动这套强大的编程工具链。
在 AI 编程助手越来越像“基础设施”的今天,谁来提供算力、以什么成本提供算力,将成为开发者生态的关键变量。free-claude-code的出现,正是对这一趋势的精准回应。
目前,该项目的 Star 还在持续提升中,fork 也是惊人的高。

最后,欢迎关注我的个人微信公众号:业余草(yyucao)!可加作者微信号:xttblog2。备注:“1”,添加博主微信拉你进微信群。备注错误不会同意好友申请。再次感谢您的关注!后续有精彩内容会第一时间发给您!原创文章投稿请发送至532009913@qq.com邮箱。商务合作也可添加作者微信进行联系!