Core本地部署全流程,零基础搭建智能助手
时间:2026-05-13 20:00:39 451浏览 收藏
本文详细介绍了零基础用户如何在本地完整部署一个自主可控、数据不出域的智能助手系统(Core),涵盖从运行时环境(Node.js或Bun)搭建、Ollama本地大模型(如DeepSeek-R1)拉取与运行、Docker化Open WebUI前端配置,到Shell/文件系统等本地插件集成,最后通过systemd实现服务统一管理的全流程实操指南——无需依赖云服务,不上传任何数据,真正把AI能力握在自己手中。

如果您希望在本地环境中构建一个完全可控、数据不出域的智能助手系统,则需要完成从运行时环境搭建、模型加载到交互界面配置的完整链路。以下是实现Core本地部署的全流程操作指南:
一、准备基础运行环境
本地智能助手依赖稳定且兼容性良好的底层运行时,Node.js v20+ 提供了对ES模块和顶层await的原生支持,是当前最适配轻量级Agent架构的JavaScript运行时。选择Bun作为替代方案可进一步提升依赖安装速度与启动性能。
1、确认系统已安装curl与wget工具,用于后续脚本下载。
2、执行命令安装Node.js v20 LTS版本:curl -fsSL https://deb.nodesource.com/setup_lts.x | sudo -E bash - && sudo apt-get install -y nodejs。
3、验证安装结果:运行node --version与npm --version,输出应分别为v20.x.x与9.x.x或更高版本。
4、如需启用Bun,执行安装命令:curl -fsSL https://bun.sh/install | bash,并按提示将Bun加入PATH。
二、部署本地大模型服务
Ollama为本地模型提供标准化的拉取、运行与管理接口,支持多种量化格式的模型一键加载,适用于7B至14B参数规模的主流开源模型,如DeepSeek-R1、Qwen2等。
1、执行Ollama安装脚本:curl -fsSL https://ollama.com/install.sh | sh。
2、启动Ollama服务:sudo systemctl start ollama,并设置开机自启:sudo systemctl enable ollama。
3、拉取DeepSeek-R1模型:ollama pull deepseek-r1:1.5b-q4_k_m(适用于4GB内存设备)或ollama pull deepseek-r1:7b-q5_k_m(推荐16GB内存及以上)。
4、验证模型可用性:运行ollama list,确认模型名称与状态为unchanged。
三、配置可视化交互前端
Open WebUI提供无需编码的图形化访问入口,支持多会话管理、上下文记忆及插件扩展能力,其后端通过HTTP调用Ollama API,前端以PWA形式运行于本地浏览器中。
1、使用Docker启动Open WebUI:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main。
2、若未安装Docker,先执行:sudo apt-get update && sudo apt-get install docker.io docker-compose。
3、修改Docker镜像源以加速容器拉取,在/etc/docker/daemon.json中写入国内镜像地址列表,例如:"https://mirror.baidubce.com"。
4、重启Docker服务:sudo systemctl restart docker,再重新运行上述docker run命令。
四、集成通讯网关与插件系统
为使本地助手具备真实工作流执行能力,需接入终端控制、文件读写及即时通讯协议等原子能力。Personal AI Assistant项目提供的插件系统采用TypeScript编写,所有插件均运行于本地Node.js进程内,不依赖外部API。
1、克隆插件仓库:git clone https://github.com/personal-ai-assistant/plugins.git。
2、进入目录并安装依赖:cd plugins && npm install。
3、启用Shell插件:编辑plugins/shell/index.ts,取消注释execSync调用语句,并确保当前用户具有/bin/bash执行权限。
4、在主程序配置文件中添加插件路径:"plugins": ["./plugins/shell", "./plugins/filesystem"]。
五、启动与服务绑定
完成全部组件部署后,需建立统一入口并确保各服务间网络可达。主服务监听默认端口8080,Ollama服务默认暴露在11434端口,Open WebUI则通过反向代理方式接入主流程。
1、创建systemd服务文件/etc/systemd/system/ai-core.service,内容包含ExecStart指向主程序启动脚本。
2、赋予可执行权限:sudo chmod 644 /etc/systemd/system/ai-core.service。
3、重载服务配置:sudo systemctl daemon-reload。
4、启动核心服务:sudo systemctl start ai-core,并检查状态:sudo systemctl status ai-core。
好了,本文到此结束,带大家了解了《Core本地部署全流程,零基础搭建智能助手》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多科技周边知识!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
223 收藏
-
185 收藏
-
464 收藏
-
491 收藏
-
451 收藏
-
440 收藏
-
442 收藏
-
409 收藏
-
474 收藏
-
381 收藏
-
297 收藏
-
413 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习