登录
首页 >  科技周边 >  人工智能

OpenClaw AI Agent搭建指南

时间:2026-05-15 13:36:39 120浏览 收藏

本文详细介绍了从零开始本地部署OpenClaw AI Agent的完整流程,涵盖Git与Node.js环境搭建、Ollama服务安装与启动、qwen2.5或glm4等轻量中文大模型的拉取与验证、OpenClaw主程序的自动化安装,以及关键的模型连接配置与功能验证——手把手带你绕过常见坑点(如依赖缺失、服务未启动、配置未生效),只需五步即可在个人电脑上跑起一个能真实调用文件系统等本地工具的智能AI代理,无论是技术爱好者想深度体验AI Agent工作原理,还是开发者寻求可扩展的本地化智能体框架,这都是一份清晰、可靠、开箱即用的实战指南。

OpenClaw AI Agent搭建教程

如果您希望在本地或云端快速启动一个功能完整的OpenClaw AI Agent系统,但尚未完成基础环境配置与主程序安装,则可能是由于依赖组件缺失、模型未就位或连接参数未正确设置所致。以下是搭建OpenClaw AI Agent平台的具体步骤:

一、安装核心运行时依赖

OpenClaw需依托Git和Node.js构建并运行,二者缺一不可。Git用于拉取项目代码及更新技能模块,Node.js(v24.x)为OpenClaw主进程提供JavaScript运行环境,版本过低将导致Agent无法启动或技能加载失败。

1、访问 https://github.com/git-for-windows/git/releases/download/v2.53.0.windows.1/Git-2.53.0-64-bit.exe 下载Git安装包,双击执行默认安装。

2、前往 https://nodejs.org/dist/v24.14.0/node-v24.14.0-x64.msi 下载Node.js v24.14.0 MSI安装包,运行后勾选“Add to PATH”,完成安装。

3、打开终端(Windows PowerShell / macOS Terminal / Linux Bash),依次执行:
node -v
npm -v
git --version

4、确认三者输出均显示有效版本号,若任一命令报错或返回“command not found”,需重新检查PATH环境变量或重装对应组件

二、部署本地大模型运行环境(Ollama)

Ollama是OpenClaw调用本地大模型的底层服务,负责模型加载、推理调度与API暴露。不安装Ollama或未启动服务,OpenClaw将无法获取LLM响应,所有Agent任务均会卡在“思考”阶段。

1、访问 https://ollama.com/download 下载对应操作系统的Ollama安装包(Windows为.exe,macOS为.dmg,Linux为.tar.gz)。

2、完成安装后,在终端中执行 ollama --version,确认返回类似 0.4.12 的版本信息。

3、执行 ollama serve 命令启动后台服务(Windows用户可跳过此步,安装后自动注册为系统服务)。

4、新开终端窗口,执行 ollama list,若无任何输出,说明服务未运行;此时需手动启动或重启Ollama服务

三、拉取并验证本地大模型

OpenClaw需绑定具体大模型才能执行推理。推荐使用轻量、中文强、本地适配好的qwen2.5或glm4,二者均支持函数调用与工具执行,且显存占用低于6GB,核显设备亦可流畅运行。

1、在终端中执行 ollama pull qwen2.5 启动下载,全程约需5–12分钟(取决于网络带宽)。

2、下载完成后,执行 ollama run qwen2.5 进入交互式对话界面。

3、输入“你好”,等待模型返回合理中文回复;随后输入 /bye 退出。

4、重复步骤1–3,执行 ollama pull glm4 并完成测试,确保至少一个模型能稳定响应,否则后续OpenClaw配置将无法通过验证

四、安装OpenClaw主程序

OpenClaw提供图形化安装包与脚本化安装两种路径,二者最终效果一致。脚本方式更利于版本追踪与批量部署,图形包则对纯新手更友好。无论选择哪一种,安装过程均不涉及外部联网下载主体逻辑,全部资源已内置于安装介质中。

1、Windows用户:以管理员身份打开PowerShell,粘贴并执行:
iwr -useb https://openclaw.ai/install.ps1 | iex

2、macOS/Linux用户:在终端中执行:
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash

3、安装完成后,执行 openclaw doctor 检查依赖完整性,重点关注“Ollama connection”与“Model provider”两项状态。

4、执行 openclaw status,确认输出中 “Gateway: running” 与 “Agent: idle” 均为绿色状态,若出现红色failed提示,需根据错误码回溯前三步操作是否遗漏

五、配置模型连接并启用首个Agent

OpenClaw默认不绑定任何模型,必须手动指定Ollama服务地址与模型名称,否则所有消息将返回“模型未就绪”错误。该配置保存于 ~/.openclaw/config.json,修改后必须重启服务才生效。

1、启动OpenClaw图形界面(Windows开始菜单 / macOS Launchpad / Linux桌面快捷方式)。

2、点击左下角齿轮图标进入Settings → Model Settings。

3、在Provider下拉菜单中选择 Ollama;API URL填写 http://localhost:11434;Model Name填写 qwen2.5(或您已下载的其他模型名)。

4、点击 Save,随后关闭窗口并执行 openclaw restart 命令强制重启全部进程。

5、重启完成后,在聊天框输入“列出当前目录下的所有文件”,若返回真实文件列表而非报错,即代表首个Agent已成功激活并具备基础工具调用能力

本篇关于《OpenClaw AI Agent搭建指南》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于科技周边的相关知识,请关注golang学习网公众号!

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>