00:00 / 02:51
连播
清屏
智能
倍速
点赞19
00:00 / 02:54
连播
清屏
智能
倍速
点赞21
00:00 / 02:54
连播
清屏
智能
倍速
点赞2
00:00 / 33:32
连播
清屏
智能
倍速
点赞918
00:00 / 01:42
连播
清屏
智能
倍速
点赞1
00:00 / 02:54
连播
清屏
智能
倍速
点赞2
00:00 / 02:54
连播
清屏
智能
倍速
点赞15
00:00 / 01:05
连播
清屏
智能
倍速
点赞59
00:00 / 02:55
连播
清屏
智能
倍速
点赞1
00:00 / 00:53
连播
清屏
智能
倍速
点赞5
00:00 / 02:35
连播
清屏
智能
倍速
点赞10
00:00 / 00:26
连播
清屏
智能
倍速
点赞4
OpenAI前首席科学家一句话让AI回答质量翻倍 #OpenAI #AI #karpathy #提示词 #skills OpenAI 前首席科学家 Andrej Karpathy 发了一个推特 看到那一刻,我感觉我半年的探索都白费了 我用了这个办法,AI 回答质量翻倍 以前为标题卡壳的时候,我的办法是什么呢?写提示词 写了很长很长的提示词——什么数字要、情绪词要、对比要、反常识要,一大堆 输入进去,AI 出来一堆标题,选一个还不错的 但我现在的做法不一样了 我直接问:"最强大脑怎么写标题?" 差异是什么?长提示词能给我一堆还不错的选项 但这个问法,AI 会自动召唤咪蒙、召唤李教授——那些真正懂标题的人 质量反而比我写一大堆提示词出来的东西还更好 写代码的时候也一样 遇到问题,我现在不是问"怎样优化这个函数",而是问"最强大脑怎么处理这个代码问题" 效果?同样有效 有时候我遇到产品问题,说实话,我不知道怎么去思考 那我就问:"最强大脑怎么思考这个产品问题?" 结果非常好 AI 给出来的思路,完全不同于我自己能想到的东西 最有意思的是人生焦点问题 当我遇到一些问题,我想要去深度思考的时候,我现在不会再满足于我原来写的那些提示词了 我直接问:"最强大脑会怎么思考?" 结果呢?AI 自动召集一些我根本不知道的人,给出来的答案非常好 Karpathy 发的那个推特,核心意思是这样的: 不要把 LLM 当成一个有想法的实体,而是把它当成一个能模拟任何人的模拟器 LLM 本身没有'观点',但它能呈现出任何人的思维方式 当你问'你怎么看'的时候,你实际上是在触发 AI 的某种'平均观点' 但当你问'某个大师会怎么说'的时候,你就是在让 AI 模拟那个人的真实思维方式 一个是模糊的综合,一个是精准的深度 这就是我半年探索都没想明白的东西 长提示词做什么呢?它在限制 AI 的模拟能力 你给 AI 设定了一堆规则——必须包含数字、必须有反差、必须有情绪——然后 AI 按照你这些规则去综合,出来的东西就是在你的框架内的最优解 但"最强大脑"这个问法不一样 它没有限制,反而是在激发 AI 的模拟能力 它让 AI 直接呈现出那个领域最强的人会怎样思考、怎样处理这个问题 一个是"指导",一个是"模拟" 指导有上限,模拟没有上限
00:00 / 02:21
连播
清屏
智能
倍速
点赞6792
1月6日 (3) 2026年才刚开始(当前日期为2026年1月6日),InterLink Labs Network(以下简称InterLink Network)的主要活动集中在年初的过渡和规划阶段。以下是基于最近事件和公告的总结,主要聚焦于已发生的里程碑事件,以及从2025年延续而来的早期进展。InterLink Network作为一个专注于人类验证网络、区块链和AI的Web3项目,正在从2025年的基础建设转向2026年的大规模采用。 关键事件与成就 举办全球直播事件“The Next Era: 2026”:2026年1月3日,InterLink Network在加州Newport Beach总部举办全球直播活动,由CEO Kenneth A. Timmering主讲。这标志着项目正式进入“大规模采用阶段”,回顾了2025年的基础(如ITLX钱包推出、人类信用评分系统HCS引入、安全组成立),并公布2026年路标,包括InterLink Chain升级(更快、更可扩展的L1,支持即时结算和近零费用)、生态系统扩展(更多节点、支付应用和QR商户整合)、超过500万验证用户向10亿人类节点推进,以及机构采用(如$ITL作为国库资产,Q1/Q2目标顶级交易所上市)。这一事件被视为2026年的开端性成就,强调从加密到日常人类应用的桥梁。 用户与网络增长延续:截至2026年初,用户基数已从2025年底的约530万验证用户(包括真实人类节点)持续增长,强调防机器人和证明人格(Proof of Personhood)的机制。该项目报告了机构势头增强,包括$ITL被全球玩家确认为国库资产,以及社区DAO投票推动的交易所上市准备。这反映了2026年早期在用户验证和生态稳定性上的进展。 机构与生态采用初步推进:2026年计划中的部分已启动,包括向180个国家扩展、AI资助的通用基本收入(UBI)举措,以及开发者社区建设(提供财务、市场和技术支持)。早期报告显示,9家国库伙伴从2025年延续,并目标在2026年达到100+家公司采用$ITL作为储备资产。同时,项目完成了领先审计公司的全面审计,并满足SEC要求,为美国股票交易所上市做准备。这些是2026年机构级成就的起点。 整体展望 InterLink Network在2026年的重点从2025年的产品交付(如核心应用、面部识别升级、代币上市)转向AI优
00:00 / 04:13
连播
清屏
智能
倍速
点赞31
00:00 / 01:09
连播
清屏
智能
倍速
点赞7
DeepMind提出“嵌套学习”新范式 DeepMind提出“嵌套学习”新范式,或将开启AGI持续学习时代 谷歌DeepMind团队近期提出的“嵌套学习”(Nested Learning)框架引发业内广泛关注,被多位专家评价为可能超越Transformer的下一代AI核心架构。该研究试图解决长期困扰AI领域的“灾难性遗忘”难题,为真正的持续学习奠定基础。 从“联想记忆”重构AI学习机制 研究指出,当前Transformer架构存在根本局限:模型无法将短期上下文信息转化为长期知识,如同患有“顺行性遗忘症”。团队基于人类“联想记忆”机制,提出MIRAS统一框架,将注意力、记忆模块和优化器视为不同形式的联想记忆系统,通过元学习让模型自主构建知识关联。 嵌套学习:多时间尺度的协同进化 核心创新在于构建多层级嵌套系统,各模块拥有独立参数、上下文和优化目标,按更新频率形成“快-慢”协同。快模块(如RNN状态)高频处理即时信息,慢模块(如预训练权重)低频整合长期知识,通过梯度反传、参数生成等机制实现跨层知识传递。这种设计使AI能在使用过程中持续积累经验,突破静态训练范式。 HOPE架构验证性能突破 基于该理论构建的HOPE架构在多项测试中展现优势:在16K长度“大海捞针”任务中实现100%准确率,语言建模困惑度降至10.08,显著优于Transformer++等基线模型。特别是在需要长期记忆的推理任务中,其性能接近或超越现有最佳模型。 DeepMind联合创始人Shane Legg透露,该技术已具备持续学习能力,因安全考量暂未全面开放。若嵌套学习能真正实现AI的终身学习,将推动AI从被动执行工具向自主进化系统转变,为AGI发展开辟全新路径。
00:00 / 11:53
连播
清屏
智能
倍速
点赞2
00:00 / 03:49
连播
清屏
智能
倍速
点赞41