王炸来袭!Claude Code本地无限量Token攻略

王炸来袭!Claude Code 本地无限量 Token 攻略



📝 导读:Claude Code 太强了,但 Token 消耗让人心疼!现在终于支持本地模型了,配置简单,unlimited Token 时代来临!


引言



Claude Code 作为一款强大的 AI 编程助手,其 Token 消耗一直是用户的痛点。但现在,好消息来了!Claude Code 可以连接本地模型工作了,不仅配置简单,还能实现无限量 Token 使用。本文将为你详细介绍如何在本地部署 Claude Code,让你彻底告别 Token 焦虑。




硬件推荐



在开始之前,先聊聊硬件选择。当下时代,如果玩桌面 AI,强烈建议入手Mac M 系列小主机,如:
  • Mac Mini 4
  • Mac Mini 4 Pro
  • M3 Ultra
  • M4 Max


  • 💡 提示:这些设备堪称个人桌面 AI 神器,能够流畅运行各种本地模型。当然,Windows 环境也是可以的,只是在 Mac 上的体验会更好。





    软件准备



    1. 安装 LM Studio



    首先,需要把 LM Studio 升级到最新版,也就是 0.4.1,因为最新版添加了对 Claude Code 的支持。当然,Ollama 也是可以的,根据个人喜好选择。

    LM Studio 下载地址:https://lmstudio.ai/

    2. 选择本地模型



    你可以使用任意开源模型,只要你的设备内存足够。本文以 gpt-oss-20b-mlx 为例,这是一个 OpenAI 的开源模型。

    ⚠️ 重要提示

    - Context length 拉满:上下文长度拉到模型支持的最大,因为智能体多轮任务的表现非常依赖上下文的长度,小了不行

    - 这个参数也要根据你的设备内存以及模型的推理速度来平衡调整

    - Mac 环境:优先下载 MLX 格式的模型,推理速度要比 GGUF 格式的模型快





    安装与配置



    1. 配置环境变量



    在命令行终端中执行以下命令:

    Mac/Linux:
    bash
    export ANTHROPIC_AUTH_TOKEN=lmstudio
    
    export ANTHROPIC_BASE_URL=http://localhost:1234


    Windows (PowerShell):
    powershell
    $env:ANTHROPIC_AUTH_TOKEN="lmstudio"
    
    $env:ANTHROPIC_BASE_URL="http://localhost:1234"


    2. 安装 Claude Code



    执行以下命令安装 Claude Code 本体:

    bash
    npm install -g @anthropic-ai/claude-code


    📌 注意:需要先安装 Node.js 和 npm


    3. 启动 Claude Code



    使用以下命令启动 Claude Code,并指定使用的模型:

    bash
    claude --model gpt-oss-20b-mlx


    这时,Claude Code 会调用你本地的模型来输出,实现无限量 Token 使用。




    VS Code 配置



    除了在终端使用外,还可以在 VS Code 中使用 Claude Code,配置方法如下:
  • 首先安装 Claude Code for VS Code 插件
  • 然后在 VS Code 设置中添加环境变量:


  • json
    {
    
    "claudeCode.environmentVariables": [
    { "name": "ANTHROPIC_BASE_URL", "value": "http://localhost:1234" },
    { "name": "ANTHROPIC_AUTH_TOKEN", "value": "lmstudio" }
    ]
    }





    模型能力对比



    使用本地模型的 Claude Code 还是那个 Claude Code 吗?

    | 模型 | 能力评级 | 适用场景 |
    |------|---------|---------|
    | gpt-oss-20b-mlx | ⭐⭐⭐ | 日常编程辅助 |
    | Kimi K2.5 (本地部署) | ⭐⭐⭐⭐⭐ | 复杂任务处理 |
    | Claude Opus 4.5 (官方) | ⭐⭐⭐⭐⭐ | 专业级应用 |

    💡 说明gpt-oss-20b-mlx 模型能力当然无法跟 Opus 4.5 相提并论,但是,如果你本地环境部署了 Kimi K2.5,目前看来,能力是丝毫不逊 Opus 4.5。





    总结



    通过本文的教程,你已经掌握了如何在本地部署 Claude Code,实现无限量 Token 使用。这样不仅可以节省成本,还能获得更快速的响应速度

    现在,你可以根据自己的硬件条件选择合适的本地模型,开始享受 Claude Code 带来的编程便利了!




    常见问题



    Q1: 我的设备内存不够大,怎么办?

    A: 可以选择更小参数量的模型,或者调整上下文长度,在性能和内存使用之间找到平衡。

    Q2: Windows 环境下的配置和 Mac 有什么不同?

    A: 基本步骤相同,只是在环境变量设置上可能需要使用 Windows 的方式,比如在命令提示符中使用 set 命令,或者在 PowerShell 中使用 $env: 语法。

    Q3: 除了 LM Studio,还有其他选择吗?

    A: 是的,Ollama 也是一个不错的选择,配置方法类似。

    Q4: 本地模型的效果如何?

    A: 取决于你选择的模型。小模型适合简单任务,大模型(如 Kimi K2.5)可以媲美官方模型。




    🎉 希望本文对你有所帮助,祝你编程愉快!

    标签:

    💬 评论区 (0)

    暂无评论,快来抢沙发吧!