00:00 / 01:07
连播
清屏
智能
倍速
点赞71
00:00 / 03:16
连播
清屏
智能
倍速
点赞88
司波图3月前
拼好机!2500元装一台AI服务器!vLLM张量并行性能暴涨 💥2400元预算挑战AI算力天花板!本期视频,我们解决了Radeon VII / MI50 等 gfx906 架构显卡长期以来无法使用 vLLM 张量并行的痛点! 我们将全程展示如何用两张“过气”Radeon VII显卡,搭配X99“洋垃圾”平台,组装一台总价仅2397元的AI算力服务器。通过社区大神 nlzy 提供的特制Docker容器,我们成功解锁了vLLM的张量并行功能,在Qwen3 32B量化模型上实现了98 tokens/s的并发推理速度,性能是Ollama的6倍以上! 视频最后,我们还将通过Open WebUI,实战演示8个用户同时访问这台服务器的流畅体验! 本期硬件配置清单 (总计: ~2397元) 显卡 (GPU): AMD Radeon VII 16GB x 2 (二手 ~1600元) 主板 (Motherboard): 精粤 X99M-PLUS (~300元) 处理器 (CPU): Intel Xeon E5-2680 v4 (56元) 内存 (RAM): 海力士 ECC REG DDR4 8GB x 4 (176元) 硬盘 (Storage): 512GB NVMe SSD (~150元) 电源 (PSU): 额定850W 金牌认证电源 (二手 115元) 【本期方案超详细文字版教程】 为了方便大家复现,我们已经把今天所有用到的命令、链接,以及一份超详细的文字版部署教程,全部整理好,放到了UP主的Gitee主页上! 直达链接:https://gitee.com/spoto/R7vllm 如果觉得本期视频对你有帮助,请务-务-务必 点赞、投币、收藏 三连支持一下UP主!你们的支持是我爆肝更新的最大动力!感谢大家! #AI #AMD #vllm #服务器 #装机
00:00 / 07:59
连播
清屏
智能
倍速
点赞3878
一川AI2月前
今日AI新闻2025.08.07 1. 阿里推出 Qwen3-4B 模型 —— 手机端运行的小型语言模型,性能接近 30B 级大模型,数学推理能力突出。同系列 Qwen3-4B-Instruct-2507 已超越 GPT-4.1-nano 表现。 2. 小红书开源多模态模型 dots.vlm1—— 集成 NaViT 视觉编码器,支持动态分辨率处理,在 STEM 数学推理任务中接近 Gemini2.5Pro 水平。其训练集经过精细清洗,显著提升图文对齐质量。 3. MiniMax 发布 Speech2.5 语音模型 —— 支持 40 种语言无缝切换,音色复刻精度达行业顶级,可保留方言口音特征。中文表现保持全球领先,英文及其他语种生成质量同步提升。 4. Midjourney 推出 HD 视频模式 —— 专业级影像生成工具,分辨率较标准版提升 3 倍,但生成成本增加 2.2 倍。该功能直接对标 OpenAI 的 Sora 视频模型。 5. Cursor1.4 版本上线 —— 强化异步任务处理能力,可后台管理代码库索引任务。针对百万行级代码库优化搜索效率,推动 AI 编程向全自动化转型。 6. MiniCPM-V4.0 开源 —— 手机端多模态模型,仅 4.1B 参数却具备 GPT-4V 级图像理解能力。在 iPhone16Pro Max 实测响应速度达 17token / 秒,首次延迟低于 2 秒。 7. 硬件厂商拥抱开源 ——AMD 锐龙 AI Max+395 成为首款支持 gpt-oss-120b 的消费级处理器,高通同期演示骁龙平台运行 gpt-oss-20b 模型。 8. 腾讯开源复杂文档解析神器WeKnora,可处理 PDF/Word/ 图片混合内容。内置大模型交互功能,支持通过自然语言查询提取结构化数据。 9. FlowSpeech 面世 —— 首个专注书面语转口语的 TTS 工具,能自动调整新闻稿等正式文本为口语化表达。即将推出个性化音色定制服务。#今日AI新闻#qwen #minimax #cursor#人工智能
00:00 / 02:13
连播
清屏
智能
倍速
点赞6
00:00 / 00:34
连播
清屏
智能
倍速
点赞411
00:00 / 01:33
连播
清屏
智能
倍速
点赞162