00:00 / 03:57
连播
清屏
智能
倍速
点赞112
00:00 / 07:54
连播
清屏
智能
倍速
点赞694
千问3.5多模态大模型性能屠榜,手把手教你免费本地部署 就在刚刚,千问正式发布了最新的开源模型——千问3.5多模态系列!这波真的是全面迈向原生多模态智能体,在开源领域性能几乎无敌,连马斯克都在社交媒体上点赞评论! 本期视频不仅为你深度解析千问3.5的强大功能,还带你实战零门槛本地部署,小白也能轻松拿下! 💡 千问3.5到底有多强? 📏 尺寸全覆盖:从0.8B、2B、4B到最高122B,小尺寸推流速度极快,适合移动/边缘设备;大尺寸媲美GPT,完美平衡性能与资源消耗! 🚀 创新混合架构:总参数量高达3970亿,但每次仅激活170亿参数,保持超强能力的同时大大优化了速度和成本! 🤖 全能多模态 Agent:能边思考边搜索边调用工具!可以把草图直接转成结构清晰的前端代码,协助网页游戏开发;还能作为视觉智能体自主操作手机和电脑,处理跨应用的复杂任务,极大提升工作效率! 👁️ 地表最强视觉推理:原生支持代码级的图像处理,自动裁剪放大细节,在物理空间关系和视觉逻辑推理上表现极其稳健! 💻 保姆级本地部署实战: 在视频后半段,我会手把手教你如何使用 Ollama 进行本地部署,并教你对接到 Open WebUI 和 Telegram 机器人! 划重点:完全本地运行保证数据安全,完全免费,不需要消耗任何 Token!配置成功后,你就可以随时随地在手机上调用你的专属私人大模型了! 👇 部署所需的全部资料和指令都已经准备好了!赶紧点赞、收藏,跟着视频实操起来吧!遇到问题欢迎在评论区留言交流~ 🏷️ 话题标签: #AI大模型 #通义千问 #千问3.5 #本地部署教程 #Ollama #人工智能 #程序员必备 #黑科技 #零度解说 #多模态大模型
00:00 / 06:02
连播
清屏
智能
倍速
点赞31
00:00 / 01:13
连播
清屏
智能
倍速
点赞34
00:00 / 01:15
连播
清屏
智能
倍速
点赞40
00:00 / 01:18
连播
清屏
智能
倍速
点赞12
00:00 / 01:45
连播
清屏
智能
倍速
点赞25
00:00 / 00:30
连播
清屏
智能
倍速
点赞1
突发:千问技术负责人离职 就在Qwen 3.5版本发布仅一天后,阿里通义千问(Qwen)核心团队迎来了剧烈的人事动荡。技术负责人林俊旸(Junyang Lin)昨日宣布离职,而从同事陈诚(Chen Cheng)的公开回复——“我知道离开并非你的选择”——可以看出,这并非一次主动的功成身退。在随后的24小时内,Binyuan Hui、Kaixin Li等核心贡献者也相继离职。时间点的微妙与人员的密集变动,标志着这是一次自上而下、经过协调的组织架构重组,而非单纯的个人职业选择。 缔造开源帝国的“非凡者”与他的成绩单 要理解这次动荡的分量,首先要认识林俊旸其人。作为北京大学语言学博士,年仅32岁的他是阿里巴巴最年轻的P10(最高技术职级)之一。他带领团队从零开始,硬生生将Qwen打造成了全球下载量最高的开源模型家族。 这支团队以“凌晨6点还在协作上线模型”的极客精神著称,而他们取得的成就堪称AI开源史上的里程碑: 10亿+ 全球累计下载量。 2000万+ 基于Qwen构建的衍生大模型。 占据全球开源模型下载量的 70%以上。 霸榜Hugging Face(2026年2月数据),且在HF排名前十的模型中,有8个是中国模型(绝大多数基于Qwen底座)。 林俊旸个人拥有超过 42,000次 Google Scholar学术引用。 这绝对不是一个因为业绩平庸而被替换的团队,而是一群被突然移除的世界级技术先驱。 表面重组与深层矛盾:DAU vs. 开发者生态 官方将此次变动定义为“组织架构调整”,但更深层的原因在于评估体系的致命错位。 据悉,阿里云开始采用C端消费者应用的KPI——日活跃用户量(DAU)来衡量Qwen团队的产出。在这一标准下,矛盾被彻底激化:Qwen Chat的DAU约为306万,而作为对比,字节跳动的豆包(Doubao)DAU高达1.7亿。 在传统的企业财务报表中,Qwen的全球生态影响力、在开发者群体中的极高信任度以及学术界的统治力,其账面价值几乎被等同于“零”。用评估“移动端App”的财务和增长指标,去考核一个“基础大模型”的研究团队,这种结构性矛盾最终走向了不可调和。 科技巨头的通用设计缺陷:两种不可调和的价值观 这一事件揭示了大型科技公司在评估AI研究时的一个根本性设计缺陷。
00:00 / 00:39
连播
清屏
智能
倍速
点赞11
00:00 / 00:35
连播
清屏
智能
倍速
点赞9
00:00 / 00:41
连播
清屏
智能
倍速
点赞13