侧边栏壁纸
博主头像
是羊刀仙啊博主等级

闲不下来!

  • 累计撰写 122 篇文章
  • 累计创建 38 个标签
  • 累计收到 1 条评论

目 录CONTENT

文章目录

别本地部署DeepSeek了!威联通NAS部署最强AI大模型前端,体验飞起来!

羊刀仙
2025-02-10 / 0 评论 / 0 点赞 / 132 阅读 / 6096 字
温馨提示:
本文最后更新于 2025-02-11,若内容或图片失效,请留言反馈。部分素材来自网络,若不小心影响到您的利益,请联系我们删除。

碎碎念

最近DeepSeek真的太火,文章视频全随便一刷全都是。我平时基本都在用OPAI,听说DeepSeek后,也穿插着使用到现在。

目前DeepSeek在线是V3版本,确实很有意思,他具备最重要的思考能力,给出的回答真的让人感觉他确实在思考,有时候甚至会被逗乐,不知道大家在使用时是否会有类似体验。

关于大模型的本地部署案例,不仅仅DeepSeek,其他大部分也都是依靠本地Ollama,然后再部署个前端UI接入来进行使用。

本地模型的部署十分吃配置,一般来说都要配置独立显卡,经过实际体验测试14B的命中率低到我个人无法忍受的程度,但折中来说32B(需独显16G显存以上)就非常不错了。我们以DeepSeek为例来看看所需配置。

DeepSeek-R1-Distill-Qwen-1.5B(约 1 GB GTX 1050 及以上)

DeepSeek-R1-Distill-Qwen-7B(约 4 GB RTX 3060 及以上)

DeepSeek-R1-Distill-Llama-8B(4.5 GB RTX 3070 及以上)

DeepSeek-R1-Distill-Qwen-14B(约 8 GB RTX 4070 及以上)

DeepSeek-R1-Distill-Qwen-32B(约 18 GB RTX 4080 及以上)

DeepSeek-R1-Distill-Llama-70B(约 40 GB RTX 4090 或 A100)

所以想玩的朋友要么拿起手头的显卡,要么部署前端调用API。在我个人看来,NAS作为本地容器部署就是个乐子(除非能插独显!),部署一个好用的前端才是市面上正经消费级NAS该干的活儿。虽说我的TS-673A插了一块1050Ti,但这种性能本地部署意义的确不是太大,如果大家感兴趣,后面也会出一期。

本篇文章会分享在威联通NAS上,通过Docker部署目前来说应该最牛的开源AI聊天框架:Lobe Chat数据库版的流程,API选择硅基流动提供的DeepSeek。

Lobe Chat 是一个基于 开源大模型 的 AI 对话平台,支持自定义 AI 角色、插件扩展,并提供可视化的工作流设计。它适用于私人助手、企业客服、AI 研究 等场景,支持 本地部署,也可集成 (OPAI / Claude 3 / Gemini / Ollama / Qwen / DeepSeek)等大模型,提供高效、安全的 AI 交互体验。

截屏2025-02-10 13.36.54.png

前期准备

Lobe Chat 支持的部署场景:

本地模式(默认):仅能在本地访问,不支持局域网 / 公网访问,适用于初次体验;

端口模式:支持局域网 / 公网的 http 访问,适用于无域名或内部办公场景使用;

域名模式:支持局域网 / 公网在使用反向代理下的 http/https 访问,适用于个人或团队日常使用;

这里选择第三种,域名模式部署通过HTTPS访问。

✅ 注册硅基流动账户

点我跳转注册。目前新账户注册会送14块的余额,能体验蛮久的。但是要注意白P的现在的确很多,大家共用一个服务,响应时间可能会慢。

截屏2025-02-10 13.31.28.png

如果大家已经本地部署了大模型,或者有其他服务商的API则无需注册。

注册完毕后登陆,可以看到余额已经到账。

截屏2025-02-10 13.32.56.png

左侧栏点击API密钥,然后新建API密钥。密钥可以直接点击复制,创建个txt文档复制下来放一边备用。如下图所示。

截屏2025-02-10 13.34.21.png

✅ 反向代理

这里建议使用Lucky进行反代。具体操作请查看往期Lukcy使用教程。

端口占用:确保 3210、8000、9000、9001 端口可用。如果你的端口已经被占用,可以改成其他端口,这里我们就先选择未占用端口,下文部署时会提示修改。

参照下图进行反代。

截屏2025-02-10 13.46.51.png

QQ20250210-134415.png

这一步搞定后,把这几个域名COPY下来放进上面的密钥文件一起备用。

开始部署

此阶段全程通过SSH连接NAS后台解决。

以往我们都是通过Docker Compose在Container Station中自定义部署,但这次考量之后还是通过官方脚本部署更为便捷,可以省去配置数据库和对象存储等步骤。

下面就一起来操作,最后会截图展示操作流程。

# SSH连接NAS,非22默认端口自行查找命令

ssh admin@192.168.200.132 

# 创建目录,存放配置文件和数据库文件

mkdir /share/Container/lobe-chat-db && cd /share/Container/lobe-chat-db

# 手动切换到 bash,因为默认 Shell 仍然是 sh

echo $SHELL 
bash

# 执行部署脚本

bash <(curl -fsSL https://lobe.li/setup.sh) -l zh_CN

# 输入1并回车,选择中文模式
# 等待下载三个文件
# 接着输入0并回车,选择域名模式
# 输入y并回车,选择https协议
# 依次输入前面反代好的二级域名,一步一回车。包含端口的也要填写端口,参考图片
# 输入n,不重新生成密码,因为脚本缺失,但后面可以进web改,这个无所谓

# 如果你的端口被占用,务必执行这一步提前修改!环境变量文件中3210、8000、9000、9001四个端口,docker compose.yaml文件中的5432数据库端口。
# 另外环境变量文件中的域名在脚本自动修改后可能出现乱码,也注意一下

vim .env
vim docker-compose.yml

# 英文输入状态下。i进入编辑模式修改,esc退出。同时按SHIFT和冒号,输入wq保存退出。

# 启动Docker

docker compose up -d

截屏2025-02-08 14.59.05 拷贝.png

等待部署,测试过好几台威联通NAS,不出意外大家应该都会部署成功。

# 查看日志,输出如图片所示则意味着成功
docker logs -f lobe-chat

截屏2025-02-10 14.12.53.png

访问并配置

此时web输入lobe前缀的域名,即可访问lobe chat界面。但是使用功能则需要登陆才行,账户密码:user/123。这里先别急着登陆。

截屏2025-02-10 14.30.27.png

以防万一,先进入Casdoor填写个重定向地址,防止LobeChat 与 Casdoor 通讯出现错误。根据上文默认账号密码:admin/123。

截屏2025-02-10 14.38.21.png

在 Casdoor 的 Web 面板中,身份认证 -> 应用 -> <应用ID,默认为 app-built-in> -> ,点击编辑重定向URL 中添加一行:https://域名/api/auth/callback/casdoor。 这里的域名就是Casdoor的访问域名。

截屏2025-02-10 14.55.37.png

保存即可,关于这里的账户大家可以新建一个,不用admin账户。如果你有组织相关,可以深入研究一下,作为个人账户使用的话基本没啥需要设置的。

再回到上面lobe chat界面,跳转登陆。

截屏2025-02-10 15.09.08.png

上图中点击右上的≡(会话设置)。来配置AI服务,把前面生成的API接入进去。

如下图。左侧栏选择对应的服务商,本篇虽然用DeepSeek演示,但提供API的是硅基流动。箭头所示先启用,粘贴进准备好的API Key,关于代理地址可在各家的使用文档中找到。检查连通性无误后,可以适当对下面的模型进行搜索筛选,点击关闭即可。

截屏2025-02-10 15.15.56.png

系统助手这边默认为OPAI,可以一并改掉,可以选择自己认为最符合使用习惯的那个。

截屏2025-02-10 15.22.56.png

现在就可以开唠了,选择喜欢的大模型,进行提问。还可以设置专属机器人,加上一堆有趣的设定。
好像还不错~

截屏2025-02-10 16.22.33.png

这里还有很多插件以及来源网络的现成助手,大家可以尝试下载使用。

截屏2025-02-10 16.25.09.png

我们也可以自己上传知识库,因为大模型API有滞后性,不断的更新和补充知识库会让你的使用体验更加舒适。

截屏2025-02-10 16.26.31.png

不同的模型对于各种功能支持不同,例如上传图片要选择这种带小眼睛的,图中为通义千问。大家想实现不同功能时,可以考虑不同的大模型和插件进行组合。

截屏2025-02-10 16.29.26 拷贝.png

最后

杭州的确牛啊,最早的印象就是电商家大业大,前脚黑猴,这又冒出个DeepSeek,平地惊雷。

在线使用DeepSeek这些日子,也的确感受到他的强大。看得到的思考过程,活泼的回答形式,巨便宜的价格,让身边的朋友都感到欣喜和自豪。目前官网的API还没开放购买,可能是算力过于紧缺吧,希望能多搞点设备早日用上官方API~

以上就是本篇全部内容,祝大家用的开心,感谢观看,本文完。

0

评论区