00:00 / 00:32
连播
清屏
智能
倍速
点赞21
00:00 / 07:16
连播
清屏
智能
倍速
点赞60
00:00 / 17:07
连播
清屏
智能
倍速
点赞3
00:00 / 02:35
连播
清屏
智能
倍速
点赞10
00:00 / 03:42
连播
清屏
智能
倍速
点赞13
00:00 / 07:05
连播
清屏
智能
倍速
点赞18
00:00 / 03:52
连播
清屏
智能
倍速
点赞12
MIT RLM颠覆长文本,让大模型“翻书”不“背书”! @王兴波(Ra·Zero) 大模型行业长期陷入 “上下文窗口扩容” 的内卷困局,窗口从 8000 Token 飙升至百万 Token 级别,但实际应用中却面临回答含糊、性能下滑、成本攀升、“失忆跑偏” 等核心痛点。 MIT 与 Prime Intellect 提出的递归语言模型(RLM) 另辟蹊径,跳出 “堆窗口、堆参数” 的传统思路,颠覆模型处理海量文本的底层逻辑。RLM 不要求模型一次性 “吞掉” 所有文本,而是将文本转化为可探索的外部 “工作区”,主模型如同人类查阅资料般按需检索、提取关键信息,还能调用小型模型处理细分任务,通过 “导航信息” 替代 “记忆信息”,彻底打破输入规模的瓶颈。 实验数据验证了 RLM 的显著优势:在 LongBench V2 代码问答、ULong Pairs 成对聚合等复杂任务中,RLM 框架下的 GPT-5 准确率大幅提升,成本反而低于传统全量输入模式;Prime Intellect 基于 RLM 打造的 RLMNV 系统,通过分工明确的架构设计(主模型决策、小模型执行脏活)、批量处理技术,进一步实现效率与可控性的平衡。尽管 RLM 目前存在递归深度有限、未实现并行操作等局限,但其核心思路为大模型突破上下文困境提供了全新方向 —— 未来的竞争焦点将从 “窗口大小” 转向 “信息导航能力”。#人工智能产业链联盟 #人工智能 #编程 #大模型 #科技
00:00 / 09:17
连播
清屏
智能
倍速
点赞6
OpenAI前首席科学家一句话让AI回答质量翻倍 #OpenAI #AI #karpathy #提示词 #skills OpenAI 前首席科学家 Andrej Karpathy 发了一个推特 看到那一刻,我感觉我半年的探索都白费了 我用了这个办法,AI 回答质量翻倍 以前为标题卡壳的时候,我的办法是什么呢?写提示词 写了很长很长的提示词——什么数字要、情绪词要、对比要、反常识要,一大堆 输入进去,AI 出来一堆标题,选一个还不错的 但我现在的做法不一样了 我直接问:"最强大脑怎么写标题?" 差异是什么?长提示词能给我一堆还不错的选项 但这个问法,AI 会自动召唤咪蒙、召唤李教授——那些真正懂标题的人 质量反而比我写一大堆提示词出来的东西还更好 写代码的时候也一样 遇到问题,我现在不是问"怎样优化这个函数",而是问"最强大脑怎么处理这个代码问题" 效果?同样有效 有时候我遇到产品问题,说实话,我不知道怎么去思考 那我就问:"最强大脑怎么思考这个产品问题?" 结果非常好 AI 给出来的思路,完全不同于我自己能想到的东西 最有意思的是人生焦点问题 当我遇到一些问题,我想要去深度思考的时候,我现在不会再满足于我原来写的那些提示词了 我直接问:"最强大脑会怎么思考?" 结果呢?AI 自动召集一些我根本不知道的人,给出来的答案非常好 Karpathy 发的那个推特,核心意思是这样的: 不要把 LLM 当成一个有想法的实体,而是把它当成一个能模拟任何人的模拟器 LLM 本身没有'观点',但它能呈现出任何人的思维方式 当你问'你怎么看'的时候,你实际上是在触发 AI 的某种'平均观点' 但当你问'某个大师会怎么说'的时候,你就是在让 AI 模拟那个人的真实思维方式 一个是模糊的综合,一个是精准的深度 这就是我半年探索都没想明白的东西 长提示词做什么呢?它在限制 AI 的模拟能力 你给 AI 设定了一堆规则——必须包含数字、必须有反差、必须有情绪——然后 AI 按照你这些规则去综合,出来的东西就是在你的框架内的最优解 但"最强大脑"这个问法不一样 它没有限制,反而是在激发 AI 的模拟能力 它让 AI 直接呈现出那个领域最强的人会怎样思考、怎样处理这个问题 一个是"指导",一个是"模拟" 指导有上限,模拟没有上限
00:00 / 02:21
连播
清屏
智能
倍速
点赞6321