Claude CodeをLM Studio + Gemma 4で完全ローカル無料で動かす
はじめに
Claude Code は Anthropic の AI コーディングアシスタント CLI ですが、通常は Anthropic API キー(有料)が必要です。
実は ANTHROPIC_BASE_URL という環境変数を設定するだけで、バックエンドを任意のローカル LLM に差し替えることができます。本記事では LM Studio と Gemma 4 を使って、完全ローカル・完全無料で Claude Code を動かす手順をまとめます。
なぜローカルで動かすのか
コスト削減
Anthropic API は従量課金のため、頻繁に使うと費用がかさみます。ローカル LLM に切り替えると API 課金がゼロになり、個人開発や学習用途で気兼ねなく試せます。
プライバシー・機密情報の保護
ソースコードや設計ドキュメントが外部サーバーに送信されません。社内コンプライアンスの要件がある職場でも、ローカル構成なら導入を検討しやすくなります。
オフライン環境での利用
社内ネットワーク、飛行機内、インターネット接続が不安定な場所でも動作します。
必要なもの
動作環境
- OS: macOS / Windows / Linux
- RAM: 最低 16GB、推奨 32GB 以上(Gemma 4 の量子化モデルを使う場合)
- ディスク: モデルファイル用に 15〜20GB 程度の空き容量
- Node.js: v18 以上(Claude Code の実行に必要)
- GPU: 必須ではないが、あると大幅に高速化(NVIDIA / AMD / Apple Silicon)
手順
1. LM Studio のインストール
LM Studio 公式サイトからお使いの OS 向けインストーラーをダウンロードして実行します。macOS・Windows・Linux に対応しています。
インストール後、LM Studio を起動して初期設定を完了させてください。
2. Gemma 4 モデルのダウンロード
LM Studio の検索バーに gemma-4 と入力してモデルを検索します。
Gemma 4 について
Google DeepMind がリリースしたオープンモデルです。マルチモーダル対応(テキスト・画像)で、コーディングや推論タスクでも高い性能を発揮します。Claude Code との組み合わせでは Function Calling の精度が重要になるため、Gemma 4 は有力な選択肢です。
検索結果から適切な量子化モデル(Q4_K_M など)を選び、ダウンロードボタンをクリックして待ちます。
3. ローカルサーバーの起動
- LM Studio 左メニューの 「Local Server」 タブを選択
- ダウンロードした Gemma 4 モデルを選択
- 「Start Server」 ボタンをクリック
デフォルトでは http://localhost:1234/v1 でサーバーが起動します。
起動確認:
curl http://localhost:1234/v1/models
モデル一覧が JSON で返ってくれば成功です。
4. Claude Code のインストール
Node.js v18 以上がインストールされている前提で、以下を実行します。
npm install -g @anthropic-ai/claude-code
claude --version
5. 環境変数の設定
ここが本記事の核心です。環境変数 2 つを設定するだけで Claude Code のバックエンドがローカルの LM Studio に向きます。
Bash / Zsh:
export ANTHROPIC_BASE_URL=http://localhost:1234/v1
export ANTHROPIC_API_KEY=dummy
PowerShell:
$env:ANTHROPIC_BASE_URL = "http://localhost:1234/v1"
$env:ANTHROPIC_API_KEY = "dummy"
ANTHROPIC_API_KEY にダミー文字列が必要な理由は、Claude Code の内部チェックで「キーが存在するか」を確認しているためです。ローカルサーバーへのリクエスト自体にはキーの値は使われません。
設定を永続化する場合は .bashrc や .zshrc に上記の export 行を追記してください。
6. 起動・動作確認
プロジェクトのディレクトリに移動して Claude Code を起動します。
cd /path/to/your-project
claude
起動後、次のようなプロンプトを試してみてください。
このディレクトリの構造を説明してください
ローカルモデルから応答が返ってくれば成功です。
制限事項・注意点
能力差
商用の Claude モデルと比べると、コードの精度や長い文脈の理解が劣る場合があります。複雑なリファクタリングや大規模な設計タスクでは意図どおりに動かないことがあります。
コンテキスト長
LM Studio のモデル設定やモデル自体のコンテキスト長に依存します。大規模なコードベースをまるごと読み込む操作には不足するケースがあります。
Function Calling の互換性
Claude Code はファイル操作などを Function Calling(ツール呼び出し)で実行します。Function Calling の精度が低いモデルでは誤動作することがあります。Gemma 4 は比較的安定していますが、動作しない操作が出ることもあります。
速度
GPU のない CPU 環境では応答が遅くなります。Apple Silicon Mac(M1 以降)や NVIDIA GPU 搭載環境では快適に動作します。
まとめ
Claude Code をローカル LLM で動かすための設定は、環境変数 2 つだけです。
- LM Studio をインストールして Gemma 4 をダウンロード
- LM Studio のローカルサーバーを起動(ポート 1234)
ANTHROPIC_BASE_URL=http://localhost:1234/v1を設定ANTHROPIC_API_KEY=dummyを設定claudeで起動
プライバシーを重視する用途や、API コストを抑えたい試験的な開発にはローカル構成が有効です。精度が必要な本番用途では商用 API との使い分けがおすすめです。
まずは手元の環境で試してみてください。