司波图8月前
拼好机!2500元装一台AI服务器!vLLM张量并行性能暴涨 💥2400元预算挑战AI算力天花板!本期视频,我们解决了Radeon VII / MI50 等 gfx906 架构显卡长期以来无法使用 vLLM 张量并行的痛点! 我们将全程展示如何用两张“过气”Radeon VII显卡,搭配X99“洋垃圾”平台,组装一台总价仅2397元的AI算力服务器。通过社区大神 nlzy 提供的特制Docker容器,我们成功解锁了vLLM的张量并行功能,在Qwen3 32B量化模型上实现了98 tokens/s的并发推理速度,性能是Ollama的6倍以上! 视频最后,我们还将通过Open WebUI,实战演示8个用户同时访问这台服务器的流畅体验! 本期硬件配置清单 (总计: ~2397元) 显卡 (GPU): AMD Radeon VII 16GB x 2 (二手 ~1600元) 主板 (Motherboard): 精粤 X99M-PLUS (~300元) 处理器 (CPU): Intel Xeon E5-2680 v4 (56元) 内存 (RAM): 海力士 ECC REG DDR4 8GB x 4 (176元) 硬盘 (Storage): 512GB NVMe SSD (~150元) 电源 (PSU): 额定850W 金牌认证电源 (二手 115元) 【本期方案超详细文字版教程】 为了方便大家复现,我们已经把今天所有用到的命令、链接,以及一份超详细的文字版部署教程,全部整理好,放到了UP主的Gitee主页上! 直达链接:https://gitee.com/spoto/R7vllm 如果觉得本期视频对你有帮助,请务-务-务必 点赞、投币、收藏 三连支持一下UP主!你们的支持是我爆肝更新的最大动力!感谢大家! #AI #AMD #vllm #服务器 #装机
00:00 / 07:59
连播
清屏
智能
倍速
点赞5863
AI超元域10月前
企业级最强开源大模型Qwen3震撼发布!本地部署+客观测评 🚀企业级最强开源大模型Qwen3震撼发布!本地部署+全面客观测评!Qwen3-235B-A22B+Qwen3-32B+Qwen3-14B谁是最强王者?ollama+LM Studio+vLLM本地部署 🚀🚀🚀视频简介: ✅【本地部署+真实测评】阿里巴巴Qwen3最强模型对决:从235B混合专家到14B本地部署,全方位能力测试从JSON格式化到Python编程,从SQL查询到矩阵运算,从Ollama到LM Studio到vLLM全平台部署教程 📢 本视频详细演示了阿里巴巴最新发布的Qwen3系列模型,包括混合专家架构模型(235B/22B和30B/3B)以及32B、14B、8B、4B、1.7B、0.6B等多种参数版本。📊 ⚙️ 视频分为两大部分:首先展示了如何在不同平台部署Qwen3模型,包括Windows/macOS用户使用Ollama和LM Studio进行简易部署,以及企业用户使用vLLM在Ubuntu系统进行高性能部署的完整流程。🖥️ 🔍 第二部分进行了全面的性能测试,重点对比了235B、32B和14B三个版本在知识库截止日期、幻觉问题、规律识别、JSON格式化、代码理解、SVG生成、提示词遵循、SQL能力、农夫过河问题、文档分析以及Python编程等多个维度的表现。🧠 💡 测试结果显示,开启思考模式的14B参数模型在多项测试中表现优于不开启思考模式的32B甚至235B模型,为用户选择最适合自己需求的模型版本提供了宝贵参考。✨ #Qwen3 #Qwen #AI #ollama #AIGC
00:00 / 15:39
连播
清屏
智能
倍速
点赞314
00:00 / 01:07
连播
清屏
智能
倍速
点赞76