用本地模型跑 Claude Code:Ollama 實戰安裝到一鍵啟動(進階教學)
整理一套進階開發者可直接落地的本地 Claude Code 流程:從 Ollama 安裝、模型選擇到一鍵啟動與手動設定,並說明上下文與硬體取捨。
用本地模型跑 Claude Code:Ollama 實戰安裝到一鍵啟動(進階教學)
我最近整理一套「完全本地化」的 Claude Code 工作流:模型跑在自己的機器上、依然保留 Claude Code 的指令與工具體驗,但不需要雲端 API 成本。關鍵是 Ollama 的 Anthropic 相容 API,讓 Claude Code 能直接對接本地模型。
這篇會用進階開發者的角度,走完兩條路線:
- A 路線:
ollama launch claude一鍵啟動(最快) - B 路線:手動設定環境變數 +
claude --model ...(最可控)
0. 先選好模型
Ollama 官方文件列出 Claude Code 的本地建議模型,包括 qwen3-coder 與 gpt-oss:20b。
我會用下面三個當作進階工作流的常見選擇(體積與上下文以 Ollama 模型頁為準):
qwen3-coder:256K context,約 19GB。gpt-oss:20b:128K context,約 14GB。glm-4.7-flash:198K context,約 19GB。
1. 安裝 Ollama + 拉模型
先裝好 Ollama,接著直接拉模型(以 qwen3-coder 為例):
ollama pull qwen3-coder其他常見選項:
ollama pull gpt-oss:20b
ollama pull glm-4.7-flash2. 安裝 Claude Code(官方腳本)
Ollama 官方文件提供 Claude Code 的安裝指令:
curl -fsSL https://claude.ai/install.sh | bash3A. 一鍵啟動路線:ollama launch claude
Ollama 的 launch 指令會引導你選模型並啟動整合工具(包含 Claude Code)。
ollama launch claudeOllama 官方部落格也提到 ollama launch 需要 v0.15+ 版本。
3B. 手動設定路線:可控、可重現
如果你希望把設定寫進 shell profile 或 CI/腳本中,可以用官方文件的手動方式:
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434
claude --model gpt-oss:20b也可以寫成單行指令:
ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_BASE_URL=http://localhost:11434 claude --model qwen3-coder4. 上下文長度(進階開發者最容易忽略的坑)
Claude Code 需要長上下文。Ollama 文件建議至少 32K;而 ollama launch 的官方文章則建議至少 64K 以適配 coding tools。citeturn0search0turn0search1
Ollama 的預設 context 長度是 4096。
你可以用 CLI 調整:
OLLAMA_CONTEXT_LENGTH=32000 ollama serve更大的 context 會吃更多記憶體,這是本地模型最容易踩到的瓶頸。
5. 我的實務取捨(給進階開發者)
我不會把本地模型神化,它們不可能完全追上雲端最強模型,但在工程實務上很有價值:
- 成本可控:大量小修小補不必計較 API 成本
- 可控性高:模型完全跑在本地
- 工作流短迴路:小 patch 或小 refactor 用本地模型很順
我的實際選擇策略:
- 小任務快速修補:
gpt-oss:20b - 長上下文、大 repo:
qwen3-coder - 想測 30B 級別:
glm-4.7-flash
結語
本地 Claude Code 不是「替代品」,而是工程化的選擇:
當你需要低成本、可控、安全、快速迭代時,它是很實用的第二引擎。
參考資料
- Ollama × Claude Code 整合與環境變數(官方文件)
- https://docs.ollama.com/integrations/claude-code
- ollama launch 官方部落格(2026-01-23)
- https://ollama.com/blog/launch
- Ollama context length 設定(官方文件)
- https://docs.ollama.com/context-length
- qwen3-coder 模型頁
- https://ollama.com/library/qwen3-coder
- gpt-oss 模型頁
- https://ollama.com/library/gpt-oss
- glm-4.7-flash 模型頁
- https://ollama.com/library/glm-4.7-flash