文章目录
- 不挑电脑、不用技术,云服务器 + API 轻松搭建专属聊天系统,对接 200 + 模型,数据全在自己服务器,安全超高
- 一、前置准备:3 分钟快速上手指南
- 云服务器准备
- 相关账号注册
- 二、手把手部署教程(含代码块)
- 1.部署宝塔面板
- 什么是宝塔面板
- 一键安装宝塔面板
- 如何放行13012端口?
- 2.登录宝塔面板
- 3.基于docker安装Openwebui
- 使用宝塔面板安装docker+Openwebui
- 安装docker
- 安装Openwebui
- 在服务器命令行直接安装docker+Openwebui
- docker命令安装
- OpenWebUI 命令部署
- 服务器安全组放行3003端口
- 访问Openwebui
- 4.Openwebui使用
- 注册管理员账号
- 1. 硅基流动 API 集成(实现2000万tokens内免费使用)
- 2. OpenRouter 接入
- 三、后话
- 利用flux进行文生图
- 调用本地Deepseek+comfyui服务进行文生图
- 调用纯文本模型进行文生图
- 联网进行搜索并结合语言模型输出结果
不挑电脑、不用技术,云服务器 + API 轻松搭建专属聊天系统,对接 200 + 模型,数据全在自己服务器,安全超高
在人工智能浪潮汹涌的当下,与 AI 对话已成为许多人获取信息、激发灵感的重要方式。然而,常见的 AI 聊天工具往往存在数据隐私担忧,毕竟个人对话数据在他人服务器流转,总让人心里不踏实。你是否渴望拥有一个完全属于自己的聊天系统,既能畅享丰富多样的 AI 模型交互体验,又能将数据安全牢牢掌控在手中?现在,无需担忧复杂的技术难题,也不用购置高端电脑设备,借助云服务器与 API,哪怕是技术小白,也能轻松搭建起专属聊天系统,无缝对接 200 + 强大的语言模型。接下来,就一同开启这场零门槛、高安全的专属 AI 聊天系统搭建之旅吧。
这篇文章,我就想跟大伙唠唠,怎么利用现有的资源,搭建一个私有聊天平台。既安全,又能不断扩展,还特别实用的 AI 应用平台,把我这一路技术探索的成果,变成大家都能用得上的解决方案。
最最重要的是:API调用 免费!!!免费!!!免费!!!
机不可失,大家快跟我冲!
一、前置准备:3 分钟快速上手指南
云服务器准备
我个人使用的是 【阿里云】的云服务器,配置为:2核(vCPU)2 GiB 带宽为3M。之前99活动的时候购入的,99元/年。
这是轻量级的服务器,咱们来玩基本上就够用了,而且一年不到100元的费用,也是非常良心了,最主要的是阿里云的服务器相对来说也稳定一些。
关于云服务器,如果是没有使用过的小伙伴,大都可以申请免费试用一两个月的,操作也不复杂,只是到期之后续费比较贵,挺坑,喜欢折腾的小伙伴可以自己搞一搞,反正是白嫖。
如果已经有云服务器的小伙伴,那应该是有一定的技术基础的,照着本文的教程依葫芦画瓢,应该也可以成功部署起来。
需要购买阿里云服务器的小伙伴,可以点击进行购买:点击直达。
这个链接是我在平台申请推广大使。然后给出的推广链接,通过这个链接进入购买,可以享受8.5折优惠。我自己已经对比过了,这个性价比确实还可以。
进来页面之后,点击立即领取,领取到8.5折优惠券
领取到优惠券之后,会提示需要实名认证,这里需要进行认证,否则无法正常购买使用云服务器。大家常规进行个人认证就可以,认证过程也很简单,照着步骤来就可以了。
之后在页面可以看到很多服务器,有能力的小伙伴自己根据自己的情况进行选购即可。不懂的直接无脑选99元/年的,我已经帮你们试过了:
配置相对68元的好一些,跑起来应用表现也好一些,另外续费也是同样的价格,不容易被续费刺客。
点击立即购买,然后进行相应的填写和支付就可以开通了,这里要记住自己的服务器用户名和密码,等会儿登录的时候要用到。
在购买完之后,ESC服务里面应该就可以看到自己的云服务器实例,
点击进入之后,然后点击远程连接:
点击立即登录,然后就进入到登录界面
这里输入购买时候填写的用户名和密码,然后就可以登录进入。
进入之后就可以在服务器输入命令,进行操作了。输入以下命令,并且回车:
lscpu
这个命令是查看服务器配置的,如果返回下图类似的结果,说明服务器已经可以成功执行命令了,就可以进入下一步了!
购买完云服务器不会操作的小伙伴,可以私信我,我来指导帮你操作。
注:此处我只是提供一个购买渠道,给没有渠道的小伙伴们提供个方便,如果有行家,对服务器很了解,就自行搞定即可。
相关账号注册
- 硅基流动 API 密钥获取
目前硅基流动的赠送token活动还在有效期,有效期内,通过邀请链接注册的新用户,可以立刻获得 2000万 Tokens。
趁着活动还没过,大家抓紧时间冲!
专属邀请链接:https://cloud.siliconflow.cn/i/vw3nVPPI
重要!如果界面上没有展示出来邀请码,记得手动填写:
邀请码:vw3nVPPI
注册成功之后,就可以登录进入,然后获取自己的apikey了。
记好自己的apikey,后续会用到。
硅基流动提供了 40+模型,可以直接调用api进行使用,在你的2000万token没有消耗完之前,都是免费的。(如果不是大批量的使用,2000万token挺耐用的!)
- OpenRouter 免费账号注册(可选)
如果你觉得模型种类不够,还想用更多,OpenRouter 平台是个不错的选择,它目前囊括了350个模型,其中有一些模型还是可以免费使用的,非常不错。但是相对来说,使用门槛也较高,需要有VISA信用卡进行绑定,然后才可以使用,并且需要能科学上网才能正常访问这个网站。如果有需要的小伙伴,可以直接私信我,如果需要的人多的话,我到时候再做个专题,专门讲解一下。
二、手把手部署教程(含代码块)
1.部署宝塔面板
什么是宝塔面板
宝塔面板(BT-Panel)是一款在中国非常流行的服务器管理软件,它为用户提供了一个简单、高效的服务器管理解决方案。宝塔面板支持多种操作系统,如CentOS、Ubuntu、Debian等,并且适用于虚拟主机、VPS、独立服务器等多种服务器环境。以下是宝塔面板的一些主要特点和功能:
- 图形化操作界面:宝塔面板提供了一个直观的Web界面,用户可以通过浏览器轻松管理服务器,无需繁琐的命令行操作。
- 一键式安装:宝塔面板支持一键安装常见的服务和应用,如Apache、Nginx、PHP、MySQL、FTP等,极大地简化了部署流程。
- 软件管理:用户可以通过宝塔面板轻松管理服务器上的软件,包括安装、卸载、更新等操作。
- 网站管理:宝塔面板允许用户快速创建和管理多个网站,支持一键部署SSL证书,实现网站的HTTPS化。
- 安全管理:提供防火墙、安全组、登录日志等安全功能,帮助用户保护服务器不受外部攻击。
- 备份与恢复:宝塔面板支持网站数据和服务器系统的备份,可以在出现问题时快速恢复。
- 监控与统计:提供服务器资源使用情况的实时监控,包括CPU、内存、磁盘空间、网络流量等,以及网站访问统计。
- 扩展性强:宝塔面板支持插件扩展,用户可以根据需要安装额外的功能模块。
- 跨平台支持:宝塔面板不仅支持Linux系统,还推出了Windows版本的宝塔面板,满足不同用户的需求。
宝塔面板因其易用性和强大的功能,受到了许多服务器管理员和开发者的欢迎,特别是对于那些希望简化服务器管理流程的用户来说,宝塔面板是一个非常好的选择。
总结起来就是说,只要安装了这个宝塔面板,就算是运维小白,基本也可以将服务器玩转啦! 那么具体怎么安装呢?
一键安装宝塔面板
宝塔官网提供了多种系统的一键安装命令:
使用以下命令进行一键安装:
if [ -f /usr/bin/curl ];then curl -sSO https://download.bt.cn/install/install_panel.sh;else wget -O install_panel.sh https://download.bt.cn/install/install_panel.sh;fi;bash install_panel.sh ed8484bec
安装效果:
根据指引,确认后,输入y进行安装,稍等几分钟就安装完成了。
安装完成后,里面有一些提示,大家根据需要调整即可。上图圈住的两个地方需要特别注意:
- 一个是外网面板地址,这个就是可以访问到宝塔面板的公网地址。(前提是必须在服务器的安全组放行13012端口)
- 另外一个就是宝塔面板的用户名(username)和密码(password)了。
如何放行13012端口?
首先登录到服务器控制台,根据下图操作进入到安全组配置页面
点击管理规则,然后进入到规则配置页面,选择 入方向规则,选择手动添加,然后将端口 13012配置到其中,确定即可。
如下图所示:
然后点击保存即可。
2.登录宝塔面板
在浏览器输入宝塔面板的外网面板地址,然后回车进行访问。(可能会提示不安全的链接,点击高级,选择继续访问即可)
这里在宝塔面板安装完成的时候,也给过我们相应的操作提示。
访问成功后,页面为:
输入自己的用户名和密码,即可进行登录。
登录成功后,同意协议即可正常进入面板。
进入面板后,绑定完自己的账号,就会弹窗让你选择常用的环境进行安装。
这里我选择推荐的LNMP四件套,点击一键安装,然后就耐心等待安装完成。
安装完成之后,网站需要的基本的环境基本就都有了,正所谓:工欲善其事必先利其,咱们已经把工具都准备好了,接下来就可以搭建自己需要的服务或者网站啦!
至此,宝塔面板搭建完成,进度已经一大半了,终于要到最关键的部分了!大家加把劲!
3.基于docker安装Openwebui
使用宝塔面板安装docker+Openwebui
安装docker
在宝塔面板中,左边的菜单栏里面有docker一项,点击进入页面,如果尚未安装docker,会提示进行安装,点击之后就可以一键安装,稍微等一会儿就安装成功了。
安装Openwebui
安装成功后,在里面的应用商店,搜索openwebui。可以看到两个搜索结果,因为我们只需要Openwebui+apikey,并不需要ollama本地运行大模型,所以选择第二个。点击安装,进行相应的配置:
直接使用默认值安装即可,但是此处为了让大家有参与感,将web端口那里改为3003,然后点击确定即可。
稍等一会儿,容器就启动成功了,显示为运行中的话,就说明已经启动完毕了,服务就已经可用了。
在服务器命令行直接安装docker+Openwebui
当然,有的小伙伴不想安装宝塔面板,那就可以直接在命令行进行安装docker以及 Openwebui ,这个大家量力而行,如果是小白用户,建议直接安装有界面的进行操作安装。
docker命令安装
在云服务器的操作界面中,打开命令行终端,复制以下代码并回车运行:
curl -fsSL https://get.docker.com | bash -s docker
这行代码会通过官方脚本快速安装 Docker 环境,为后续的部署做好准备。请确保在云服务器上执行此步骤,避免在本地环境中出现兼容性问题。
OpenWebUI 命令部署
Docker 环境安装完成后,继续在命令行终端输入以下代码进行 OpenWebUI 的一键部署:
docker run -d -p 3003:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
这段代码会在后台运行一个容器,将容器的 8080 端口映射到云服务器的 3003 端口,并设置了数据卷挂载和容器名称等参数。
服务器安全组放行3003端口
和之前的操作一样,由于我们需要让Openwebui在3003端口上运行,所以需要在服务器的安全组放行这个端口,之前已经做过一次了,不废话,直接上图:
这里添加好了之后,我们的服务就准备好了!
访问Openwebui
访问你自己的 服务器公网ip:端口号
, 就可以看到openwebui已经可以成功访问了!
如我的服务器公网ip是:126.7.21.8,咱们刚配置的端口号是3003,那么就直接在浏览器访问:126.7.21.8:3003,就可以看到Openwebui的界面了,这步就成功了!
4.Openwebui使用
注册管理员账号
点击开始使用,然后进行注册,登录即可使用。首次注册的账号即为管理员账号。
注册成功之后,就可以用管理员账号登录进入,然后配置api进行调用了!
此处可以看到,模型选择的列表,目前是空的,没有可用的模型进行对话,接下来我们就开始集成我们的API
1. 硅基流动 API 集成(实现2000万tokens内免费使用)
依次进行操作:
点击头像-选择管理员面板
在管理员面板中,找到设置-外部连接这个页面
然后将OpenAIAPI打开,Ollama API关闭,然后点击OpenAI API后面的设置按钮,如下图所示:
打开编辑连接页面,将硅基流动的baseurl和apikey填入其中:
baseurl:
https://api.siliconflow.cn/v1
APIkey:你自己之前申请的APIkey
添加模型的那里,可以不填,不填的话默认就是加载所有模型,如果你觉得模型太多了,就可以在这里填入模型名称,然后就只会显示你填入的模型。
比如,我这里先不填模型,然后保存,然后新建对话,可以看到模型列表已经出来很多可选的模型了,其中就有Deepseek系列的,以及通义千问系列的。
这里我先选择Deepseek2.5进行对话,可以看到效果如下:
配置一下自己喜欢的模型,不然每次选择模型都很麻烦。
在硅基流动平台的模型广场页面,选择自己喜欢的模型,然后点击复制按钮,即可复制模型的名称:
然后粘贴到模型中,先点击+号,再点击保存即可。
这样在对话的时候,可以选择的就只有这里添加的模型了。
下面的Arena Model模型,不是个真实的模型,是根据用户使用的模型情况,自动选择用户使用反馈比较好的模型,一般可以不用。
2. OpenRouter 接入
知道了硅基流动API的接入,Openrouter的APIkey接入也是如出一辙,难点在于如何获取Openrouter的APIkey,这里就不展开讲了,以免偏题。
只提一下,Openrouter支持的模型更多,目前已有350个模型,包括OpenAI的接口以及谷歌的接口,国外的主流接口都有,而且调用API都无需魔法,在国内可以直接进行调用,也很丝滑。
三、后话
至此,任务已经成功达成! 撒花~
Openwebui还有很多不错的功能,我把我探索到的,放到下面,可以一起进行学习,探索,欢迎大家一起来讨论!
利用flux进行文生图
调用本地Deepseek+comfyui服务进行文生图
调用纯文本模型进行文生图
可以实现聊天和生图同时进行
联网进行搜索并结合语言模型输出结果
可以实现本地部署的模型也可以实现联网功能,或者调用api的模型也可以实现联网功能。
这些都只是表面的冰山一角,如果潜心进行研究的话,可以搭建出不亚于deepseek官方网站的功能,甚至可以有更多的功能!
语音播报,知识库,工作流等等,都是支持的,等着我们去研究~
更多精彩内容,下期再见~