粉丝5836获赞15.9万

这两天,很多人发现自己的 deepsea 好 像变聪明了,我第一时间测了一下,问他你的上下门长度是多少?他直接回我, e m。 知识库截止到了二零二五年的五月。哎,别急,往后看我会告诉你怎么操作更新 deepsea 的 最新版本。大家好,我是杜宇,带你看懂 ai 赛道的钱和事儿。先说重点,来,手把手带大家操作一下怎么更新。 第一步,大家可以先给 deep 提问,你的上下文长度是多少?如果回答是六十四 k 或者一百二十八 k, 说明不是最新版本。如果回答是 e m, 那 么恭喜你,已经是最新版本了。 第二步,回答六十四 k 或者一百二十八 k 的 同学,请移步到手机 app store, 点击 deep 的 更新按钮,确保更新到了十七点四这个最新的版本。 第三步,然后你再问 deepsea 同样的问题,会发现它的回答是 e m, 而且你还可以问它知识库的截止时间,会发现更新到了二零二五年的五月,而不是二零二五年的一月或者二零二四年。 这事其实挺有意思的, deepsea 这次悄悄辉度测试,没开发布会,没发公告,就这么不声不响的把能力提升了将近十倍。我立马又去测了豆包和 kimi, 豆包倒是挺硬气的,不公布上下文长度。但知识库更新到了二零二五年的十月,比 deepsea 还要新。 kimi 的 上下文是二十五点六万 token, 换算过来差不多二十万。汉字芝士酷截止二零二五年的一月,相对旧一些,但你知道最炸的是什么吗?我又去查了国外那些大厂, 谷歌的 gemini 二点零 pro 上下文是二 m, 对, 你没听错,是 deepsea 的 两倍。 gemini 二点零 flash 也有, em cloud 的 最新的 opus 系列也刚升到了 em。 所以 deepsea 这次 e m 上下文的更新,放在全球来看,其实是刚刚追平第一梯队,还没到碾压的程度。有人可能要问了,这个上下文长度到底有啥用?我给你举几个特别实在的例子。 比如你是做法律的,以前审一份几百页的合同,得把文档切成好几段位给 ai。 现在 e m 的 上下文,意味着你能直接把整个合同扔进去,让 ai 一 次性找出所有风险点。再比如,程序员 以前看开源项目的代码库,只能一个文件一个文件问 ai, 现在直接把整个代码库几万行的那种啊,一股脑扔给他,让他分析架构,找 bug, 甚至帮你写新功能,还有做研究的,一口气扔进去十几篇论文啊,让 ai 给你做文献综述,这些以前都是天方夜谭,现在都成了现实。 而且我发现一个特别有意思的点,就是知识库截止时间这件事。你看豆包知识库到了二零二五年的十月, deepsea 到五月, kimi 到一月,这个差距意味着什么呢?假如你要问二零二五年下半年某个热点事件,豆包可能直接给你答案, deepsea 就 得开联网模式了。 所以我平时的使用习惯是,需要最新信息的话,找豆包要推理能力,找 deepseek 长文档处理,看谁的上下文够长。哎,对了,如果你要的信息特别新,那就别管知识库了,直接点联网模式最保险。说到这,咱们得聊点干货了, 这一波上下文的升级,到底给咱们带来了哪些搞钱的机会?我和同事对齐了一下最近看的项目,发现几个哎,特别值得关注的方向。 第一个是企业服务这块。你想, e m 上下文能处理的信息量是原来的几十倍,这对企业来说意味着什么?意味着以前需要人工花好几天整理的财务报表、项目文档、客户反馈,现在 ai 几分钟就能给你生成洞察报告。我看到有创业公司啊,专门做企业知识库管理的, 用长上下文模型,帮公司把散落在各个系统里的文档、邮件、会议记录全部打通,做成了一个企业大脑。员工问个问题, ai 直接从海量信息里调取相关的内容给答案,这个效率提升是实打实的。 第二个是代码辅助开发,这个领域现在特别卷,但长上下文给了新玩法。比如有团队在做的 ai 代码审查员,能一次性分析整个项目的代码质量、安全漏洞、性能瓶颈,甚至还能基于公司的历史代码风格给出修改建议, 这比那些只能看单个文件的工具高到不知道哪去了。而且据我了解啊,有的大厂内部已经在用类似的工具了,效果好得让人怀疑人生。以前呢,需要高级工程师 review 一 周的代码,现在 ai 半天就能给出详细报告。 第三个方向是内容创作。这跟咱们做自媒体的关系最大了。长上下文意味着你能把自己过去所有的视频、文案、 用户评论、数据分析全部为 ai, 让他学习你的风格,然后帮你生成新的内容。而且因为上下文够长,他能记住你整个系列视频的逻辑线,做出来的东西,不会前后矛盾。我最近就在测这个啊,效果确实比以前那种一次性生成的方式好太多了不。 话说回来,长上下文也不是万能的,有几个坑你得注意。第一个是成本问题,上下文越长,意味着 api 调用越贵。很多人啊疯狂的塞信息进去,结果账单一看傻眼了。 所以我的建议是,能精简就精简,别把无关紧要的东西都扔进去。第二个是信息过载,有时候你给 ai 的 信息太多,他反而抓不住重点,给你的答案变得又长又水。这个时候你得学会用好提示词,明确告诉他你要的是什么。 还有一个更关键的点就是不同模型的长上下的能力是不一样的。有些模型虽然号称支持一百万投坑,但实际上处理到后半段就开始失忆, 前面说的事,后面完全不记得。这就是为什么有些人用了觉得特别好,但有些人用了觉得嗯,是智商税。所以我的经验是啊,你得针对具体任务去测试,看看哪个模型最靠谱。 哎,说到这,弹幕区的朋友们可以扣个一或者二。你们平时用 ai 的 时候,更看重上下文长度的扣一,更看重模型的推理能力的扣二,咱们看看大家更关心哪个?最后咱们拔高一点,聊聊这个事的意义。 deepsea 这次更新,表面上看是上下文长度的提升,但本质上是国产大模型在基础能力上的一次追赶。你要知道啊,一年前国内模型的上下文普遍还在三十二 k、 六十四 k 这个级别,现在直接干到 e m, 这个进步速度是相当惊人的。而且更重要的是, deepsea 这次还把知识库更新到了二零幺五年五月,说明它们的数据工程能力也在快速提升。 但是咱们也得清醒地看到差距,谷歌的 gm 二点零 pro 已经二 m 呢,而且人家在多模态、长视频理解这些方面还有优势。所以对于国产大魔性来说,这场竞赛远没有结束,反而是刚刚开始,接下来肯定还会有更多的军备竞赛。谁能在长上下文、 推理能力、多模态这些维度上都做到领先,谁就能在商业化上占据主动。对于咱们普通用户和创业者来说啊,这波技术升级带来机会窗口大概就是这半年到一年,因为等所有模型都升级到 e m 甚至更高,那这个能力就又不稀缺了。 所以,如果你有想法,现在就是最好的时机,赶紧找准一个垂直场景,用长上下文的优势去解决实际问题,把产品跑起来,等市场成熟了,你就是先行者。 好了,今天的内容就到这,如果你觉得有收获,记得点个关注,咱们这个系列会持续更新 ai 赛道的最新动态和变现机会,点关注,不迷路, ai 搞钱,我带路,我是杜宇,咱们下期见!

国产之光 deepsea 那 可是真争气啊,刚才也毫无征兆的偷跑出了新模型,一次 v 四 preview, 很多人还在等官方发布会,聪明人其实早就偷通用它了,这波更新就差把国产最强四个字贴在脑门上了, 直接隔空喊话,谁才是全球的性价比之王?大家赶紧去确认一下。现在打开 deepsea app, 只要收到这个更新的模型了,官网也已经同步更新了。 这次更新有多离谱?上下文直接从一百二十八 k 升级到了一百万,整整提升了十倍! gemini 吹了半天的超长文本咱也不知道有没有,反正 deepsea 是 直接能够塞下一整套三体三部曲,这种吞吐量真的让国外大魔性,压力山大。更狠的是,他的知识库直接更新到了二零二五年的五月份, 不像某些模型还在用二四年的老资料身边开发者呢。实测这次前端的响应速度和逻辑完全能媲美 k、 kimi 二点五和 germanium pro。 而且他说话的风格也变了,不再是那种冷冰冰的极度感,用他自己的话说呢,就是变得更热情更细腻,这种活泼的风格比 germanium 那 种端着的感觉还要亲切。 不过 d s 还是那个直男脾气,虽然文本和语音能够强到离谱,但是这次依然呢 没给视觉理解,大家都在选多模态,选看图,他却在纯文本赛道。此刻到底有人说他是一种偏科生,但我倒觉得这才是要把基础模型彻底做透的节奏。到底谁更猛,咱评论区见!

deepsea 更新了,现在在移动端开启了会读测试,然后他有超强的一百万上下文,还有他知识库更新到二零二五年的五月份,不知道是不是 v 四模型,但是根据以往的经验呢,我估计不是 啊,可能在大年大年的时候会发布一个更强更新的模型,然后之前有据可靠消息呢,这次增强了啊,因为所有的模型都在卷这个方向增强这个编码。