找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 54|回复: 0

Ollama 提供了一个新的命令行: ollama launch,不用设置环境变量,就能让 Claude Code、Codex、OpenCode 支持 ollama 的本地模

[复制链接]

4

主题

0

回帖

12

积分

新手上路

积分
12
发表于 2026-2-10 20:38:08 | 显示全部楼层 |阅读模式
Ollama 提供了一个新的命令行: ollama launch,不用设置环境变量,就能让 Claude Code、Codex、OpenCode 支持 ollama 的本地模型.


操作十分简单,只需两步

1.  打开本地终端(例如 PowerShell),输入:ollama pull [模型名称] 下载你想要使用的本地模型。

推荐:
glm-4.7-flash
qwen3-coder
gpt-oss:20b

2. 为 Claude Code 设置默认模型,输入: ollama launch cluadecode --config

两个小提示:

1. Claude Code 调用本地模型不支持 /init 指令,可以手动在项目文件夹中创建一个  CLAUDE.md 文件。

2. 即便使用本地模型,Claude Code 仍旧会调用 Anthropic marketplace,并报错,可以在 CLAUDE.md 中进行以下设置将其关闭。

# Claude Code config
disable_marketplace: true

#HOW I AI##AI技术[超话]##AI编程##ClaudeCode##AI创造营# http://t.cn/AXqLHbn1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|一起港湾 ( 青ICP备2025004122号-1 )

GMT+8, 2026-2-23 21:42 , Processed in 0.087994 second(s), 20 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表