00:00 / 02:28
连播
清屏
智能
倍速
点赞656
00:00 / 01:11
连播
清屏
智能
倍速
点赞27
00:00 / 04:23
连播
清屏
智能
倍速
点赞49
兄弟们,DeepSeek-V4 昨天发布了。 这次你别看热闹。 我觉得它不是一次普通模型更新。 它更像是中国 AI 的一次“越狱”。 因为过去几年,美国想用三把锁,把中国 AI 锁死。 芯片,卡你的算力。 CUDA,卡你的生态。 闭源模型,卡你的能力入口。 但 DeepSeek-V4 这次出来,相当于直接告诉他们一句话: 你卡不住。 第一把锁,国产芯片。 这次 V4 跑在华为国产芯片上。 这个事吧,很多人一听就过去了。 但它不是把英伟达显卡拔下来,换一张华为芯片插上去,就完事了。 不是这么回事。 英伟达真正牛的,不只是卡强,而是 CUDA。 CUDA 你可以理解成 AI 世界里的操作系统,或者说高速公路。 过去十几年,全世界大量 AI 工程师,模型训练、推理优化、算子开发,基本都是围着 CUDA 写的。 国内很多头部模型,像通义千问、智谱、豆包,当然都很强。 但过去它们的训练和推理体系,很大程度上也绕不开英伟达 GPU 和 CUDA 生态。 这不是哪家公司不努力。 是整个行业过去十几年,默认就跑在这条路上。 所以从 CUDA 迁到华为昇腾 CANN,不是换芯片。 是把原来写给英伟达那套系统的软件,重新改到华为这套系统上跑。 底层大量代码、算子、推理框架,都要重新适配。 这才是 DeepSeek-V4 真正难的地方。 它不是在英伟达那条高速路上跑得更快。 它是在尝试自己修路。 第二把锁,长上下文。 V4 支持单次会话 100 万 token。 我给你翻译成人话。 以前的大模型,像一个嘴特别会说、但记性很差的人。 你给它三页资料,它挺聪明。 你给它十页 Word,它开始漏。 你给它一本书,它就开始编。 你给它一个代码库,它看两个文件,就开始胡说八道。 很多 AI 幻觉,不是它不会说。 是它根本没看全。 100 万上下文意味着什么? 意味着你终于可以让 AI 先把完整资料吃进去,再让它说话。 一部长篇小说、一整份合同、一个中型代码库、几个月会议记录,它可以一次性装进去。 这不是参数好看。 这是 AI 从聊天机器人,变成干活系统的门票。 没有长上下文,Agent 就是假的。#人工智能 #ai #ai技术 #一人公司 #创业
00:00 / 03:35
连播
清屏
智能
倍速
点赞28
00:00 / 01:56
连播
清屏
智能
倍速
点赞6
00:00 / 01:51
连播
清屏
智能
倍速
点赞968
00:00 / 00:45
连播
清屏
智能
倍速
点赞14
00:00 / 00:52
连播
清屏
智能
倍速
点赞33