00:00 / 08:47
连播
清屏
智能
倍速
点赞5
00:00 / 02:25
连播
清屏
智能
倍速
点赞153
就在周四,AI领域又扔下一颗重磅炸弹。Anthropic发布了他们迄今为止最强的模型Claude Opus 4.6,这一次,枪口直接对准了金融研究——一个曾经被认为是高薪、高门槛、不可替代的黄金赛道。结果呢?消息一出,华尔街直接"腿软"了。FactSet股价一度暴跌10%,创下2020年3月以来的新低;汤森路透跌超8.5%,标普全球、穆迪、纳斯达克这些金融数据巨头无一幸免,股价纷纷走低。 这已经不是Anthropic第一次让华尔街"心惊肉跳"了。就在几天前,他们推出的法律服务工具已经引发了一轮软件股抛售潮。如今金融AI又来了,市场不禁要问:这些靠卖数据、卖研报、卖分析工具生存的公司,护城河还在吗? 我们先来看看这个Claude Opus 4.6到底能干些什么。据Anthropic官方介绍,这款模型能够检视企业数据、监管备案文件和市场信息,生成详细的金融分析报告。过去需要分析师团队耗时数天才能完成的活儿,现在可能只需要几分钟。更夸张的是,它现在直接集成进了Excel和PowerPoint,你可以在表格里扔给它一堆复杂数据,转眼就能生成一份排版精美的演示文稿,连字体和模板都能对齐。 但这还不是最吓人的。这次更新的核心亮点是"AI代理团队"功能。简单来说,你可以让多个AI像一支训练有素的团队那样协同工作:一个当"组长"负责任务拆解和协调,其他"组员"各自领活儿去干,它们之间还能互相发消息讨论技术细节,最后只把结果汇总给你。如果信不过,你还可以让它们互相"辩论",交叉验证结论。Anthropic的产品主管斯科特·怀特打了个比方:这相当于有一支才华横溢的人类团队为你打工。 华尔街的恐慌是有道理的。你看FactSet这家公司,财报里白纸黑字写着:他们的核心卖点是"AI驱动的金融智能平台"。可问题是,如果Anthropic能直接提供一个更强大的AI,FactSet的平台价值在哪里?这就好比有人免费发更好的渔具,谁还愿意花钱买你手里那根旧鱼竿? #anthropic #垂直模型 #agent #AI应用 #商业逻辑
00:00 / 04:30
连播
清屏
智能
倍速
点赞358
【正片】对话朱广翔:Vibe Coding下半场 ➤ 2026 年,伴随着 Claude Opus 4.5 的进步,解锁出 OpenClaw 全球刷屏,Vibe Coding 赛道也进入下半场,分裂成两个阵营:一边是继续以代码和 IDE 为中心,押注程序员的极致提效;另一边则开始以“意图”为中心,试图让软件变成表达的自然结果。 本周「十字路口」的嘉宾是朱广翔,百度秒哒产品总经理。他是清华强化学习博士,写了 20 年代码,却在百度做出了一个「不让任何人写代码」的产品。用他同事的话说:他造了一个车轮,碾过了自己的过去 20 年。 2024 年下半年,当所有人都在卷 IDE、追 Cursor 的时候,秒哒选择了一条略显"异端"路线——No Code。广翔说,当时"基本上没人信"。 在这期节目中,我们聊了: ➤ 路线之争:为什么 IDE 像"两人三足",No Code 像"人机接力赛"?为什么广翔认为 Cursor 们可能最终被大模型吃掉? ➤ 实战案例:50 岁医生用秒搭做医院官网、超级个体用秒哒年入十几万、12 人小公司一个月交付两个项目赚 70 万——他们不是程序员,但比程序员更懂业务 ➤ 反常识的商业模式:秒哒不看自己的 ARR,只看用户的 ARR。"倒金字塔"理论——只要用户能赚到钱,平台早晚能赚到钱 ➤ Claude Skill:"Claude Skill 就是把我们去年的 trick 公开出来了"——上下文管理的本质是什么? ➤ 15 度夹角理论:AI 产品如何在"被模型吃掉"和"享受模型红利"之间找到生存空间? ➤ 作为百度 93 年的骨干少将,广翔如何评价自己在百度做产品的真实体验?——摩擦力和助力分别在哪?「起大早赶晚集」会延续吗? 贯穿全程的一个观点是:历史从来都是用车轮碾自己的。汇编碾过了机器语言,高级语言碾过了汇编,而自然语言正在碾过高级语言。如果广翔重新读一遍大学,他说自己可能不会再学计算机——"幼儿园学秒哒就够了,大学应该去学一个真正懂业务的垂直专业。" #十字路口 #视频播客 #朱广翔 #秒哒 #视频播客扶持计划
00:00 / 54:54
连播
清屏
智能
倍速
点赞737
00:00 / 08:51
连播
清屏
智能
倍速
点赞17
碎片化与验证难题:阻碍 AGI 进入办公室的最后两公里 如果说 AI 是“蒸汽”和“钢铁”,那么为什么我们现在还没能住在“全自动的云端摩天大楼”里? Ivan指出,尽管大语言模型(LLM)已经展现出惊人的智力,但在真正的知识工作领域,依然存在两座阻碍 AGI(通用人工智能)落地的“大山”。 1. 第一座大山:上下文的碎片化(Fragmentation of Context) AI 就像一个智商 160 但却“间歇性失忆”的天才。它能写出完美的诗歌,却不知道你昨天在 Slack 里跟同事讨论了什么。 信息的孤岛:你的工作散落在 Notion 的文档、Slack 的聊天记录、GitHub 的代码库以及 Figma 的设计稿中。 “无米之谈”:当你在一个空白的对话框里问 AI “我接下来该做什么”时,它无法给出有效建议,因为它缺乏上下文(Context)。 Ivan 的解决方案:这也是为什么 Notion 如此执着于做“全能工作空间”(All-in-one Workspace)。只有当信息都在同一个“容器”里,AI 才能获得上帝视角。没有上下文的 AI 只是一个计算器,拥有全量上下文的 AI 才是你的分身。 2. 第二座大山:结果的不可验证性(The Verification Problem) 这是 Ivan 提出的一个非常辛辣且深刻的观点:为什么程序员最先被 AI 改变,而市场总监却还没被改变? 答案在于 $Verification$(验证)。 代码的确定性:AI 写了一段代码,运行一下就知道对不对。编译器是完美的裁判,这种“闭环反馈”让 AI 在编程领域进化极快。 策略的模糊性:AI 为你写了一个“进入日本市场的营销方案”。这个方案好吗?可能需要半年时间、投入数百万美元后你才知道结果。 对于这种“不可验证”的工作,人类目前还不敢完全放手给 AI。这种不确定性,导致 AI 在决策层面的渗透远慢于执行层面。 #Gitmeai #Agent #Notion #AGI #LLM
00:00 / 07:32
连播
清屏
智能
倍速
点赞37
在弗里德曼博客里,雷克斯·弗里德曼、塞巴斯蒂安·拉斯卡和内森·兰伯特,三位对技术有着独到见解的思想家,分别从不同的角度审视了AI编程工具Cursor、Claude Code和VS Code Codex的使用体验。 我是科普知识搬运工周教授,为大家精修翻译、引介这次访谈。假如您需要进一步的信息,请在下方评论区留言。 雷克斯强调使用LLM(大型语言模型)进行编程的乐趣,他提倡在宏观层面引导而非微观管理代码生成过程。这种观点如同一位舵手,驾驭着技术的巨轮,追求的是一种更为广阔的视野。与之相对的是Cursor和Claude Code提供的不同体验。Cursor更侧重于细节管理,犹如一位工匠,精雕细琢每一个编程细节;而Claude Code则更主动地完成项目,仿佛一位建筑师,勾勒出宏观层面的框架。 然而,这种技术工具的选择和使用,实则反映了个人对控制与依赖之间的平衡的焦虑。正如内森在《从零开始构建大型语言模型》和《从零开始构建推理模型》中所提到的,编码是验证概念正确性的准确方法,因为代码不会说谎,它基于数学和逻辑。这种严谨的态度,使得人们在面对技术时,不禁思考:如何在享受便利的同时,保持对技术的敬畏之心? 在数字化时代,人们对于如何保持专注和结构化学习的担忧愈发凸显。使用LLM进行编程可能导致的分心问题,以及如何避免过度依赖AI而忽视人类思考和创造力的危机,成为了我们不得不面对的挑战。 Cursor、Claude Code和VS Code Codex的出现,如同三把利剑,分别代表了技术乐观主义、人文精神危机和文明的抉择。 Cursor强调细节管理,体现了对技术的敬畏;Claude Code则更注重宏观思考,倡导在技术发展中寻求平衡;而VS Code Codex作为一款集成开发环境,更是将技术与人类创造力相结合。 在这场辩论中,我们看到了不同视角的碰撞。技术乐观主义者认为,Cursor、Claude Code和VS Code Codex等AI编程工具将极大地提高编程效率,推动技术进步;而人文精神危机论者则担忧,过度依赖这些工具将导致人类创造力的退化。 然而,无论是 Cursor、Claude Code还是VS Code Codex,它们的出现都预示着文明的抉择。在享受技术带来的便利的同时,我们应保持对技术的敬畏之心,关注人类精神的成长,寻求技术与人文的和谐共生。
00:00 / 28:24
连播
清屏
智能
倍速
点赞0
00:00 / 42:14
连播
清屏
智能
倍速
点赞2
00:00 / 01:39
连播
清屏
智能
倍速
点赞68
00:00 / 02:39
连播
清屏
智能
倍速
点赞12
00:00 / 13:29
连播
清屏
智能
倍速
点赞135
00:00 / 05:53
连播
清屏
智能
倍速
点赞15
麦丰10243天前
微软最新推出的AI芯片Maia 200及其在推动 AI 变革中的核心作用。 1. Maia 200芯片的核心发布 定位与优化:Maia 200是专门为大模型推理优化的新型AI芯片,特别针对推理、思维链(Chain of Thought)模型以及 OpenAI等大型语言模型进行了设计。 性能强劲:提供10 Petaflops的计算能力,并配备海量高带宽内存(HBM),使大模型能够紧贴计算资源运行。它支持FP8和FP4指令集,显著提升了性能。 成本优势:Maia 200的成本比目前市场上任何其他AI芯片都便宜30%。 2. 技术创新与可持续性 液冷设计:该芯片采用水冷散热系统,比传统的风冷数据中心更高效,实现了零水资源浪费,有助于保护环境和当地社区。 多模态支持:其设计前瞻性地考虑了未来场景,不仅支持文本,还支持声音、图像、视频等多模态任务,以及更深层次的推理和自主智能体(Agent)技术。 3. 基础设施战略 代币工厂(Token Factories):微软正在投资建设被称为“代币工厂”的超优化数据中心,专门用于AI处理。 核心目标:通过像Maia这样自研的芯片方案,微软旨在实现 “每瓦、每美元产出最高代币数量”(best token per watt per dollar),以最低的成本交付性能最强的模型。 Maia 200是微软端到端 AI 基础设施战略的关键一环,旨在通过自研硬件降低AI使用门槛,同时提升计算效率和环保标准。
00:00 / 02:12
连播
清屏
智能
倍速
点赞4