司波图7月前
拼好机!2500元装一台AI服务器!vLLM张量并行性能暴涨 💥2400元预算挑战AI算力天花板!本期视频,我们解决了Radeon VII / MI50 等 gfx906 架构显卡长期以来无法使用 vLLM 张量并行的痛点! 我们将全程展示如何用两张“过气”Radeon VII显卡,搭配X99“洋垃圾”平台,组装一台总价仅2397元的AI算力服务器。通过社区大神 nlzy 提供的特制Docker容器,我们成功解锁了vLLM的张量并行功能,在Qwen3 32B量化模型上实现了98 tokens/s的并发推理速度,性能是Ollama的6倍以上! 视频最后,我们还将通过Open WebUI,实战演示8个用户同时访问这台服务器的流畅体验! 本期硬件配置清单 (总计: ~2397元) 显卡 (GPU): AMD Radeon VII 16GB x 2 (二手 ~1600元) 主板 (Motherboard): 精粤 X99M-PLUS (~300元) 处理器 (CPU): Intel Xeon E5-2680 v4 (56元) 内存 (RAM): 海力士 ECC REG DDR4 8GB x 4 (176元) 硬盘 (Storage): 512GB NVMe SSD (~150元) 电源 (PSU): 额定850W 金牌认证电源 (二手 115元) 【本期方案超详细文字版教程】 为了方便大家复现,我们已经把今天所有用到的命令、链接,以及一份超详细的文字版部署教程,全部整理好,放到了UP主的Gitee主页上! 直达链接:https://gitee.com/spoto/R7vllm 如果觉得本期视频对你有帮助,请务-务-务必 点赞、投币、收藏 三连支持一下UP主!你们的支持是我爆肝更新的最大动力!感谢大家! #AI #AMD #vllm #服务器 #装机
00:00 / 07:59
连播
清屏
智能
倍速
点赞5335
00:00 / 00:59
连播
清屏
智能
倍速
点赞1639
Qwen3 Embedding 4B模型+n8n工作流结合 🚀🚀🚀视频简介: ✅AI知识库搭建终极指南!Qwen3 Embedding模型性能超越同类产品,结合N8N工作流平台实现文档自动处理、向量存储、智能问答一站式解决方案 ✅本视频详细演示了如何使用阿里巴巴最新发布的Qwen3 Embedding 4B模型,结合n8n工作流平台,无需编程基础即可快速构建强大的个人AI知识库。 🚀 核心亮点: - Qwen3 Embedding系列:支持0.6B、4B、8B三种参数规格,在MTEB多语言排行榜排名第一,检索准确率高达95%,支持100多种语言和32K上下文长度 - N8N工作流平台:零代码可视化操作,支持500多种服务集成,提供灵活的部署方案 📋 实操步骤: 1. 安装Ollama和Node.js环境 2. 下载并导入Qwen3 Embedding 4B量化模型 3. 使用N8N构建两个核心工作流: - 📁 文件读取→向量化存储工作流 - 🔍 智能检索→问答工作流 💡 技术特色: - 支持中英文混合文档处理 - 递归文本分割和向量存储 - 实时检索验证效果显著 完全开源免费的解决方案,让每个人都能拥有专属的智能知识助手!🤖✨ 🔥🔥🔥时间戳: 00:00 - 阿里巴巴Qwen3 Embedding系列模型介绍 00:48 - Qwen3 Embedding模型优势详解 01:28 - n8n工作流平台优势介绍 02:20 - 环境准备:安装Ollama和Node.js 02:41 - 下载并导入Qwen3 Embedding 4B模型到Ollama 04:07 - 安装并启动n8n工作流平台 04:25 - 构建知识库工作流:添加文件读取和循环组件 05:56 - 配置向量数据库和嵌入模型 08:38 - 构建检索工作流:配置AI Agent和向量存储工具 10:33 - 测试个人知识库检索功能 11:26 - 检索结果展示和总结 #n8n #qwen3 #qwen #RAG #知识库
00:00 / 11:45
连播
清屏
智能
倍速
点赞275