登录
首页 >  科技周边 >  人工智能

HermesAgent集成DeepSeek,国产大模型新选择

时间:2026-05-16 14:33:40 284浏览 收藏

Hermes Agent正式支持DeepSeek系列国产大模型,为开发者提供高性能、低延迟、强中文能力且成本显著低于海外主流模型的新选择;无论你是想通过交互式向导一键接入、手动编辑配置精细调优、用环境变量临时切换、命令行动态添加端点,还是本地运行Ollama实现零费用私有化部署,五种灵活配置方式均开箱即用,让国产大模型真正落地于日常开发与智能代理场景。

HermesAgent配置DeepSeek模型:国产大模型新选择

如果您已部署 Hermes Agent,但希望接入高性能、低延迟、强中文能力的国产大模型,则 DeepSeek 系列模型是一个成熟可靠的新选择。DeepSeek-V3 与 DeepSeek-Coder 在代码理解、长文本推理及中文语义生成方面表现突出,且 API 成本显著低于主流海外模型。以下是多种可行的配置路径:

一、通过内置交互式模型选择器快速配置

该方式利用 Hermes Agent 官方 CLI 提供的向导流程,自动完成密钥注入、端点注册与默认模型绑定,适合首次使用者或需快速验证连通性的场景。

1、在终端中执行 hermes 命令启动交互式配置界面。

2、当提示 “Select your inference provider” 时,输入 deepseek 并按回车。

3、访问 https://platform.deepseek.com/api_keys 登录后创建新 API Key,并完整复制该密钥。

4、在终端中粘贴密钥并确认,Hermes 将自动写入 ~/.hermes/config.yaml 并完成初始化。

5、重启 Hermes Agent 后,系统将默认调用 deepseek-chat 模型响应常规请求。

二、手动编辑 YAML 配置文件实现精细控制

该方式允许用户自定义 base_url、model 名称、temperature、max_tokens 等参数,适用于需对接私有化部署的 vLLM/SGLang 服务,或需复用已有 DeepSeek 兼容接口的进阶用户。

1、使用文本编辑器打开配置文件:nano ~/.hermes/config.yaml

2、在 model: 区块下填入以下内容:

provider: deepseek

api_key: sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

model: deepseek-chat

base_url: https://api.deepseek.com/v1

3、保存并退出编辑器,执行 hermes config reload 使配置生效。

三、使用环境变量临时覆盖模型参数

该方式不修改任何持久化配置,所有设置仅在当前 shell 会话中有效,适用于调试、CI/CD 流水线或多人共用服务器时的隔离运行。

1、导出 DeepSeek API 密钥:export DEEPSEEK_API_KEY=sk-xxx

2、导出目标模型标识符:export DEEPSEEK_MODEL=deepseek-coder-6.7b-instruct

3、导出基础 URL(若使用官方 API):export DEEPSEEK_BASE_URL=https://api.deepseek.com/v1

4、直接运行 hermes,Agent 将优先读取环境变量并启用对应模型。

四、通过 hermes model 命令行工具动态添加自定义端点

该方式基于 Hermes 内置的模型管理模块,支持手动输入任意 OpenAI 兼容服务地址,无需编辑 YAML 文件,操作轻量且可逆,适合频繁切换模型或测试多个服务商的用户。

1、执行命令启动模型配置向导:hermes model

2、选择 More providers,再选择编号进入 Custom endpoint (enter URL manually)

3、输入 DeepSeek 官方 API 地址:https://api.deepseek.com/v1

4、粘贴您的 API Key(输入过程不可见,但已记录)。

5、从返回的可用模型列表中选择 deepseek-chatdeepseek-coder 对应编号并确认。

6、完成配置后,输入 hermes 即可开始对话验证。

五、本地运行 Ollama + DeepSeek 兼容模型实现零费用接入

该方式完全脱离网络请求与 API 计费机制,在本地设备上直接加载量化后的 DeepSeek 衍生模型(如 qwen2.5:7b),适用于对隐私敏感、网络受限或追求极致成本控制的用户。

1、安装 Ollama:curl -fsSL https://ollama.com/install.sh | sh

2、拉取轻量级中文优化模型:ollama pull qwen2.5:7b

3、配置 Hermes 使用 Ollama 作为提供者:hermes config set model.provider ollama

4、指定具体模型名称:hermes config set model.model qwen2.5:7b

5、启动 Hermes Agent,系统将自动连接本地 Ollama 实例并路由请求。

本篇关于《HermesAgent集成DeepSeek,国产大模型新选择》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于科技周边的相关知识,请关注golang学习网公众号!

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>