00:00 / 00:14
连播
清屏
智能
倍速
点赞86
00:00 / 00:10
连播
清屏
智能
倍速
点赞197
00:00 / 01:06
连播
清屏
智能
倍速
点赞21
00:00 / 04:37
连播
清屏
智能
倍速
点赞147
DeepMind联创预警:AGI只剩2年! @王兴波(Ra·Zero) 谷歌DeepMind联合创始人、首席AGI科学家沙恩·勒的一条推特,引发全网对“谷歌是否即将实现AGI(通用人工智能)”的热议。他明确表示AGI已近在眼前,将颠覆经济等多个领域,并紧急招聘高级经济学家研究“后AI时代的经济学”,此举被视为谷歌为AGI落地提前布局的实锤信号。沙恩·勒多年来始终坚持预判:2028年实现基础AGI的概率为50%,目前观点未变,而基础AGI指具备入门级认知能力的智能系统,并非完全类人的终极AGI。 沙恩·勒的预判有着扎实的技术依据,谷歌DeepMind的Alpha Geometry在国际数学奥林匹克竞赛中,解题成绩接近金牌得主水平,展现出AI在复杂推理与洞察力上的突破性进展,让他更坚信AGI落地已进入倒计时。不过行业内对AGI的时间线存在争议:部分高管认为2026-2027年可能上线,也有观点认为还需5-10年,核心取决于推理、长期记忆、创造性等关键技术的突破。 AGI的潜在到来,将彻底颠覆传统经济模式与劳动力市场,传统经济学理论可能失效,价值分配、税收等规则需重新构建。目前谷歌正通过大规模招聘AGI相关岗位加速布局,而AGI的终极判断标准,不仅是稳定完成各类认知任务,更在于能否自主提出科学假设与创新成果,这也是当前AI仍存在的核心短板。#人工智能产业链联盟 #人工智能 #AGI #前沿 #科技
00:00 / 07:39
连播
清屏
智能
倍速
点赞30
00:00 / 00:04
连播
清屏
智能
倍速
点赞44
00:00 / 03:39
连播
清屏
智能
倍速
点赞4449
OpenAI前首席科学家一句话让AI回答质量翻倍 #OpenAI #AI #karpathy #提示词 #skills OpenAI 前首席科学家 Andrej Karpathy 发了一个推特 看到那一刻,我感觉我半年的探索都白费了 我用了这个办法,AI 回答质量翻倍 以前为标题卡壳的时候,我的办法是什么呢?写提示词 写了很长很长的提示词——什么数字要、情绪词要、对比要、反常识要,一大堆 输入进去,AI 出来一堆标题,选一个还不错的 但我现在的做法不一样了 我直接问:"最强大脑怎么写标题?" 差异是什么?长提示词能给我一堆还不错的选项 但这个问法,AI 会自动召唤咪蒙、召唤李教授——那些真正懂标题的人 质量反而比我写一大堆提示词出来的东西还更好 写代码的时候也一样 遇到问题,我现在不是问"怎样优化这个函数",而是问"最强大脑怎么处理这个代码问题" 效果?同样有效 有时候我遇到产品问题,说实话,我不知道怎么去思考 那我就问:"最强大脑怎么思考这个产品问题?" 结果非常好 AI 给出来的思路,完全不同于我自己能想到的东西 最有意思的是人生焦点问题 当我遇到一些问题,我想要去深度思考的时候,我现在不会再满足于我原来写的那些提示词了 我直接问:"最强大脑会怎么思考?" 结果呢?AI 自动召集一些我根本不知道的人,给出来的答案非常好 Karpathy 发的那个推特,核心意思是这样的: 不要把 LLM 当成一个有想法的实体,而是把它当成一个能模拟任何人的模拟器 LLM 本身没有'观点',但它能呈现出任何人的思维方式 当你问'你怎么看'的时候,你实际上是在触发 AI 的某种'平均观点' 但当你问'某个大师会怎么说'的时候,你就是在让 AI 模拟那个人的真实思维方式 一个是模糊的综合,一个是精准的深度 这就是我半年探索都没想明白的东西 长提示词做什么呢?它在限制 AI 的模拟能力 你给 AI 设定了一堆规则——必须包含数字、必须有反差、必须有情绪——然后 AI 按照你这些规则去综合,出来的东西就是在你的框架内的最优解 但"最强大脑"这个问法不一样 它没有限制,反而是在激发 AI 的模拟能力 它让 AI 直接呈现出那个领域最强的人会怎样思考、怎样处理这个问题 一个是"指导",一个是"模拟" 指导有上限,模拟没有上限
00:00 / 02:21
连播
清屏
智能
倍速
点赞7769
00:00 / 00:47
连播
清屏
智能
倍速
点赞735
00:00 / 00:25
连播
清屏
智能
倍速
点赞48
00:00 / 00:10
连播
清屏
智能
倍速
点赞131
00:00 / 00:07
连播
清屏
智能
倍速
点赞722