AI-Chain

用本地模型跑 Claude Code:Ollama 實戰安裝到一鍵啟動(進階教學)

整理一套進階開發者可直接落地的本地 Claude Code 流程:從 Ollama 安裝、模型選擇到一鍵啟動與手動設定,並說明上下文與硬體取捨。

分享:
用本地模型跑 Claude Code:Ollama 實戰安裝到一鍵啟動(進階教學)

用本地模型跑 Claude Code:Ollama 實戰安裝到一鍵啟動(進階教學)

我最近整理一套「完全本地化」的 Claude Code 工作流:模型跑在自己的機器上、依然保留 Claude Code 的指令與工具體驗,但不需要雲端 API 成本。關鍵是 Ollama 的 Anthropic 相容 API,讓 Claude Code 能直接對接本地模型。

這篇會用進階開發者的角度,走完兩條路線:

  • A 路線:ollama launch claude 一鍵啟動(最快)
  • B 路線:手動設定環境變數 + claude --model ...(最可控)

0. 先選好模型

Ollama 官方文件列出 Claude Code 的本地建議模型,包括 qwen3-codergpt-oss:20b

我會用下面三個當作進階工作流的常見選擇(體積與上下文以 Ollama 模型頁為準):

  • qwen3-coder:256K context,約 19GB。
  • gpt-oss:20b:128K context,約 14GB。
  • glm-4.7-flash:198K context,約 19GB。

1. 安裝 Ollama + 拉模型

先裝好 Ollama,接著直接拉模型(以 qwen3-coder 為例):

ollama pull qwen3-coder

其他常見選項:

ollama pull gpt-oss:20b
ollama pull glm-4.7-flash

2. 安裝 Claude Code(官方腳本)

Ollama 官方文件提供 Claude Code 的安裝指令:

curl -fsSL https://claude.ai/install.sh | bash

3A. 一鍵啟動路線:ollama launch claude

Ollama 的 launch 指令會引導你選模型並啟動整合工具(包含 Claude Code)。

ollama launch claude

Ollama 官方部落格也提到 ollama launch 需要 v0.15+ 版本。


3B. 手動設定路線:可控、可重現

如果你希望把設定寫進 shell profile 或 CI/腳本中,可以用官方文件的手動方式:

export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434
claude --model gpt-oss:20b

也可以寫成單行指令:

ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_BASE_URL=http://localhost:11434 claude --model qwen3-coder

4. 上下文長度(進階開發者最容易忽略的坑)

Claude Code 需要長上下文。Ollama 文件建議至少 32K;而 ollama launch 的官方文章則建議至少 64K 以適配 coding tools。citeturn0search0turn0search1

Ollama 的預設 context 長度是 4096。

你可以用 CLI 調整:

OLLAMA_CONTEXT_LENGTH=32000 ollama serve

更大的 context 會吃更多記憶體,這是本地模型最容易踩到的瓶頸。


5. 我的實務取捨(給進階開發者)

我不會把本地模型神化,它們不可能完全追上雲端最強模型,但在工程實務上很有價值:

  • 成本可控:大量小修小補不必計較 API 成本
  • 可控性高:模型完全跑在本地
  • 工作流短迴路:小 patch 或小 refactor 用本地模型很順

我的實際選擇策略:

  • 小任務快速修補:gpt-oss:20b
  • 長上下文、大 repo:qwen3-coder
  • 想測 30B 級別:glm-4.7-flash

結語

本地 Claude Code 不是「替代品」,而是工程化的選擇

當你需要低成本、可控、安全、快速迭代時,它是很實用的第二引擎。


參考資料

  • Ollama × Claude Code 整合與環境變數(官方文件)

- https://docs.ollama.com/integrations/claude-code

  • ollama launch 官方部落格(2026-01-23)

- https://ollama.com/blog/launch

  • Ollama context length 設定(官方文件)

- https://docs.ollama.com/context-length

  • qwen3-coder 模型頁

- https://ollama.com/library/qwen3-coder

  • gpt-oss 模型頁

- https://ollama.com/library/gpt-oss

  • glm-4.7-flash 模型頁

- https://ollama.com/library/glm-4.7-flash