王炸来袭!Claude Code 本地无限量 Token 攻略
📝 导读:Claude Code 太强了,但 Token 消耗让人心疼!现在终于支持本地模型了,配置简单,unlimited Token 时代来临!
引言
Claude Code 作为一款强大的 AI 编程助手,其 Token 消耗一直是用户的痛点。但现在,好消息来了!Claude Code 可以连接本地模型工作了,不仅配置简单,还能实现无限量 Token 使用。本文将为你详细介绍如何在本地部署 Claude Code,让你彻底告别 Token 焦虑。
硬件推荐
在开始之前,先聊聊硬件选择。当下时代,如果玩桌面 AI,强烈建议入手Mac M 系列小主机,如:
💡 提示:这些设备堪称个人桌面 AI 神器,能够流畅运行各种本地模型。当然,Windows 环境也是可以的,只是在 Mac 上的体验会更好。
软件准备
1. 安装 LM Studio
首先,需要把 LM Studio 升级到最新版,也就是 0.4.1,因为最新版添加了对 Claude Code 的支持。当然,Ollama 也是可以的,根据个人喜好选择。
LM Studio 下载地址:https://lmstudio.ai/
2. 选择本地模型
你可以使用任意开源模型,只要你的设备内存足够。本文以
gpt-oss-20b-mlx 为例,这是一个 OpenAI 的开源模型。
⚠️ 重要提示:
- Context length 拉满:上下文长度拉到模型支持的最大,因为智能体多轮任务的表现非常依赖上下文的长度,小了不行
- 这个参数也要根据你的设备内存以及模型的推理速度来平衡调整
- Mac 环境:优先下载 MLX 格式的模型,推理速度要比 GGUF 格式的模型快
安装与配置
1. 配置环境变量
在命令行终端中执行以下命令:
Mac/Linux:
bash
export ANTHROPIC_AUTH_TOKEN=lmstudio
export ANTHROPIC_BASE_URL=http://localhost:1234Windows (PowerShell):
powershell
$env:ANTHROPIC_AUTH_TOKEN="lmstudio"
$env:ANTHROPIC_BASE_URL="http://localhost:1234"2. 安装 Claude Code
执行以下命令安装 Claude Code 本体:
bash
npm install -g @anthropic-ai/claude-code📌 注意:需要先安装 Node.js 和 npm
3. 启动 Claude Code
使用以下命令启动 Claude Code,并指定使用的模型:
bash
claude --model gpt-oss-20b-mlx这时,Claude Code 会调用你本地的模型来输出,实现无限量 Token 使用。
VS Code 配置
除了在终端使用外,还可以在 VS Code 中使用 Claude Code,配置方法如下:
json
{
"claudeCode.environmentVariables": [
{ "name": "ANTHROPIC_BASE_URL", "value": "http://localhost:1234" },
{ "name": "ANTHROPIC_AUTH_TOKEN", "value": "lmstudio" }
]
}模型能力对比
使用本地模型的 Claude Code 还是那个 Claude Code 吗?
| 模型 | 能力评级 | 适用场景 |
|------|---------|---------|
| gpt-oss-20b-mlx | ⭐⭐⭐ | 日常编程辅助 |
| Kimi K2.5 (本地部署) | ⭐⭐⭐⭐⭐ | 复杂任务处理 |
| Claude Opus 4.5 (官方) | ⭐⭐⭐⭐⭐ | 专业级应用 |
💡 说明:gpt-oss-20b-mlx 模型能力当然无法跟 Opus 4.5 相提并论,但是,如果你本地环境部署了 Kimi K2.5,目前看来,能力是丝毫不逊 Opus 4.5。
总结
通过本文的教程,你已经掌握了如何在本地部署 Claude Code,实现无限量 Token 使用。这样不仅可以节省成本,还能获得更快速的响应速度。
现在,你可以根据自己的硬件条件选择合适的本地模型,开始享受 Claude Code 带来的编程便利了!
常见问题
Q1: 我的设备内存不够大,怎么办?
A: 可以选择更小参数量的模型,或者调整上下文长度,在性能和内存使用之间找到平衡。
Q2: Windows 环境下的配置和 Mac 有什么不同?
A: 基本步骤相同,只是在环境变量设置上可能需要使用 Windows 的方式,比如在命令提示符中使用
set 命令,或者在 PowerShell 中使用 $env: 语法。
Q3: 除了 LM Studio,还有其他选择吗?
A: 是的,Ollama 也是一个不错的选择,配置方法类似。
Q4: 本地模型的效果如何?
A: 取决于你选择的模型。小模型适合简单任务,大模型(如 Kimi K2.5)可以媲美官方模型。
🎉 希望本文对你有所帮助,祝你编程愉快!
💬 评论区 (0)
暂无评论,快来抢沙发吧!