登录
首页 >  科技周边 >  人工智能

WorkBuddy部署Ollama模型方法

时间:2026-04-23 12:09:24 491浏览 收藏

本文详细解析了在 WorkBuddy 中成功部署并调用本地 Ollama 模型的关键配置要点与常见陷阱:必须显式设置 OLLAMA_HOST 环境变量为 `0.0.0.0:11434` 以突破 Electron 沙盒限制,WorkBuddy 中的模型 URL 必须严格为 `http://127.0.0.1:11434/v1/chat/completions`、ID 必须精确匹配含标签的完整模型名(如 `qwen3.5:4b-q4_K_M`),且所有配置更改后需彻底退出并重启应用——任何“保存即生效”或“热加载”的预期都会导致连接失败;文末还提供了三步高效调试法,直击 90% 用户卡点,帮你快速验证服务监听、API 可达性与前端报错根源,真正实现开箱即用的本地大模型协同体验。

WorkBuddy 如何部署本地 Ollama 模型进行调用?

ollama 模型在 WorkBuddy 中不是“自动识别即用”的,必须显式配置服务地址和模型 ID,否则即使 ollama 正在运行,WorkBuddy 也会报连接失败或模型未找到。

确认 Ollama 服务监听地址是否对外可访问

默认情况下,ollama 只监听 127.0.0.1:11434,这会导致 WorkBuddy(尤其是新版 Electron 架构)因跨进程/沙盒限制无法访问。必须强制它绑定到 0.0.0.0

  • Windows:在系统环境变量中新增 OLLAMA_HOST=0.0.0.0:11434,然后重启命令行和 ollama 服务
  • macOS/Linux:执行 export OLLAMA_HOST=0.0.0.0:11434,再运行 ollama serve(推荐写入 ~/.zshrc~/.bash_profile 持久化)
  • 验证方式:在浏览器打开 http://localhost:11434 应返回 {"status":"ok"};若打不开,说明监听未生效

WorkBuddy 添加自定义模型时的 URL 和 ID 必须严格匹配

WorkBuddy 的 Ollama 集成依赖标准 OpenAI 兼容接口,但只认特定路径和字段。常见错误是填错 urlid

  • url 必须为 http://127.0.0.1:11434/v1/chat/completions(不能少 /v1/chat/completions,也不能写成 /api/chat
  • id 必须与你实际运行的模型名完全一致,包括标签(tag),例如 qwen3.5:4b-q4_K_Mqwen3.5gemma4:26b-moegemma4
  • 如果使用 models.json 手动编辑(路径:C:\Users\{username}\.workbuddy\models.json),确保 JSON 格式合法,且 "disabled": false

添加后必须完全退出并重启 WorkBuddy

WorkBuddy 不支持热加载模型配置,仅点击「保存」或「刷新」无效:

  • 任务管理器中结束所有 WorkBuddy.exe 进程(Windows)或活动监视器中杀掉 WorkBuddy(macOS)
  • 重新启动应用,而非从 Dock / 开始菜单「恢复」——恢复会沿用旧配置
  • 重启后,在模型选择器中看到带 (Ollama) 后缀的条目才算成功,如 Qwen3.5 4B (Ollama)
  • 首次调用可能延迟 3–8 秒,这是模型首次加载权重到内存的过程,非错误

调试连接失败最有效的三步检查法

当模型显示「不可用」或对话框提示 Failed to fetch 时,按顺序排查:

  • 在终端执行 ollama list,确认目标模型已下载且状态为 created
  • 在另一终端执行 curl -X POST http://127.0.0.1:11434/v1/chat/completions -H "Content-Type: application/json" -d '{"model":"qwen3.5:4b-q4_K_M","messages":[{"role":"user","content":"hi"}]}',看是否返回 JSON 响应(注意替换真实模型 ID)
  • 检查 WorkBuddy 日志:打开开发者工具(Ctrl+Shift+I → Console 标签),触发一次模型调用,观察是否有 ERR_CONNECTION_REFUSED404 Not Found 报错
WorkBuddy 对 Ollama 的集成本质是 HTTP 代理,不涉及模型文件路径或本地 GGUF 加载逻辑。最容易被忽略的是 OLLAMA_HOST 环境变量未设、url 路径少写 /v1/...、以及重启不彻底——这三个点卡住 90% 的部署失败。

今天关于《WorkBuddy部署Ollama模型方法》的内容就介绍到这里了,是不是学起来一目了然!想要了解更多关于的内容请关注golang学习网公众号!

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>