登录
首页 >  科技周边 >  人工智能

Core本地部署全流程,零基础搭建智能助手

时间:2026-05-13 20:00:39 451浏览 收藏

本文详细介绍了零基础用户如何在本地完整部署一个自主可控、数据不出域的智能助手系统(Core),涵盖从运行时环境(Node.js或Bun)搭建、Ollama本地大模型(如DeepSeek-R1)拉取与运行、Docker化Open WebUI前端配置,到Shell/文件系统等本地插件集成,最后通过systemd实现服务统一管理的全流程实操指南——无需依赖云服务,不上传任何数据,真正把AI能力握在自己手中。

Core本地部署全流程解析_零基础搭建私有化智能助手

如果您希望在本地环境中构建一个完全可控、数据不出域的智能助手系统,则需要完成从运行时环境搭建、模型加载到交互界面配置的完整链路。以下是实现Core本地部署的全流程操作指南:

一、准备基础运行环境

本地智能助手依赖稳定且兼容性良好的底层运行时,Node.js v20+ 提供了对ES模块和顶层await的原生支持,是当前最适配轻量级Agent架构的JavaScript运行时。选择Bun作为替代方案可进一步提升依赖安装速度与启动性能。

1、确认系统已安装curl与wget工具,用于后续脚本下载。

2、执行命令安装Node.js v20 LTS版本:curl -fsSL https://deb.nodesource.com/setup_lts.x | sudo -E bash - && sudo apt-get install -y nodejs

3、验证安装结果:运行node --versionnpm --version,输出应分别为v20.x.x与9.x.x或更高版本。

4、如需启用Bun,执行安装命令:curl -fsSL https://bun.sh/install | bash,并按提示将Bun加入PATH。

二、部署本地大模型服务

Ollama为本地模型提供标准化的拉取、运行与管理接口,支持多种量化格式的模型一键加载,适用于7B至14B参数规模的主流开源模型,如DeepSeek-R1、Qwen2等。

1、执行Ollama安装脚本:curl -fsSL https://ollama.com/install.sh | sh

2、启动Ollama服务:sudo systemctl start ollama,并设置开机自启:sudo systemctl enable ollama

3、拉取DeepSeek-R1模型:ollama pull deepseek-r1:1.5b-q4_k_m(适用于4GB内存设备)或ollama pull deepseek-r1:7b-q5_k_m(推荐16GB内存及以上)。

4、验证模型可用性:运行ollama list,确认模型名称与状态为unchanged

三、配置可视化交互前端

Open WebUI提供无需编码的图形化访问入口,支持多会话管理、上下文记忆及插件扩展能力,其后端通过HTTP调用Ollama API,前端以PWA形式运行于本地浏览器中。

1、使用Docker启动Open WebUI:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

2、若未安装Docker,先执行:sudo apt-get update && sudo apt-get install docker.io docker-compose

3、修改Docker镜像源以加速容器拉取,在/etc/docker/daemon.json中写入国内镜像地址列表,例如:"https://mirror.baidubce.com"

4、重启Docker服务:sudo systemctl restart docker,再重新运行上述docker run命令。

四、集成通讯网关与插件系统

为使本地助手具备真实工作流执行能力,需接入终端控制、文件读写及即时通讯协议等原子能力。Personal AI Assistant项目提供的插件系统采用TypeScript编写,所有插件均运行于本地Node.js进程内,不依赖外部API。

1、克隆插件仓库:git clone https://github.com/personal-ai-assistant/plugins.git

2、进入目录并安装依赖:cd plugins && npm install

3、启用Shell插件:编辑plugins/shell/index.ts,取消注释execSync调用语句,并确保当前用户具有/bin/bash执行权限。

4、在主程序配置文件中添加插件路径:"plugins": ["./plugins/shell", "./plugins/filesystem"]

五、启动与服务绑定

完成全部组件部署后,需建立统一入口并确保各服务间网络可达。主服务监听默认端口8080,Ollama服务默认暴露在11434端口,Open WebUI则通过反向代理方式接入主流程。

1、创建systemd服务文件/etc/systemd/system/ai-core.service,内容包含ExecStart指向主程序启动脚本。

2、赋予可执行权限:sudo chmod 644 /etc/systemd/system/ai-core.service

3、重载服务配置:sudo systemctl daemon-reload

4、启动核心服务:sudo systemctl start ai-core,并检查状态:sudo systemctl status ai-core

好了,本文到此结束,带大家了解了《Core本地部署全流程,零基础搭建智能助手》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多科技周边知识!

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>