00:00 / 14:17
连播
清屏
智能
倍速
点赞258
00:00 / 02:25
连播
清屏
智能
倍速
点赞18
00:00 / 00:09
连播
清屏
智能
倍速
点赞5
00:00 / 14:23
连播
清屏
智能
倍速
点赞880
00:00 / 00:22
连播
清屏
智能
倍速
点赞7
今天我们聊聊华盛顿大学开源多模型协同框架“MoCo” 我们现在的AI发展有一个新趋势:与其拼命把单个AI模型做大做强,不如让多个各有特点的小模型“组团打怪”,互相配合去解决问题。 华盛顿大学和斯坦福、哈佛等团队为此搞出了一个叫MoCo的开源框架,可以理解为是一个“AI团队组建与协作”的工具箱。 为什么要让模型“组团”? 研究发现,组建一个多样化的AI团队(比如让擅长推理的、擅长写作的、擅长代码的不同模型一起干),效果往往比一堆同类型的模型更好,能够取长补短。更重要的是,这种协同系统有时能解决连组内最强的单个模型都解决不了的问题,展现出“1+1>2”的涌现能力。 怎么协作? MoCo提供了四种主要的“队形”: 排班制(API层级):根据任务不同,像调用不同API一样,自动选择最合适的模型上阵。 开会制(文本层级):几个模型像开会讨论一样,通过相互对话、辩论、提反馈来共同优化答案。 投票制(Logit层级):每个模型先给出自己的“第一选择”,系统把所有选择汇总,按最高票数决定最终输出。 融合制(权重层级):把不同模型的“大脑”(模型参数)以某种方式融合在一起,生成一个全新的、能力更强的模型。 MoCo框架有啥用? 它把这些复杂的协作方法都集成到了一个工具里,让研究者能很方便地做实验。比如,可以测试用8个不同的小模型协作,效果是不是比用1个大模型更好、更省钱。它的最终目标,是推动未来AI向模块化、去中心化的方向发展,让每个人都能贡献和组合自己训练的小模型,共同构建一个开放的AI生态。
00:00 / 08:18
连播
清屏
智能
倍速
点赞11
00:00 / 14:23
连播
清屏
智能
倍速
点赞28
00:00 / 02:45
连播
清屏
智能
倍速
点赞22
00:00 / 02:47
连播
清屏
智能
倍速
点赞22
00:00 / 01:24
连播
清屏
智能
倍速
点赞19
00:00 / 00:55
连播
清屏
智能
倍速
点赞479
00:00 / 14:23
连播
清屏
智能
倍速
点赞110