下周国内用户就能下载 DeepSeek V4 了。而我现在已经在测试它了,有人告诉我,它真正的亮点在于超大参数量级。 我直接把一整套完整的 SDK 丢给它——你可以想象成上百万个组件模块,再加上一个复杂的需求,让它构建出一套完全可用、零故障运行的解决方案。 我们都知道,大模型通常只会做“高概率预测”,因此想得到完美输出几乎是不可能的。 但 DeepSeek V4 能承载如此庞大的信息量,所以它具备自我迭代能力。 只要给它几次机会,它会自行修正错误,真的能做出全新且能正常运行的东西。你根本不用管它内部是怎么实现的、为什么能跑起来,你只要把报错反馈给它,它就会自己修复! 这种超大容量规模,才是真正实现创造的关键。 即便 MiniMax 有着国内 AI 市场最高的年度经常性收入,依然没法做到同等水平的创新。 我只能说,现在大多数普通人可能还感受不到 DeepSeek V4 带来的震撼,但程序员、律师这类职业,这些在旧体制驱动下的“白领们“,可能会比你想象中更快被替代。 许多中国人正在准备高考。然而,人工智能说他们在浪费时间。但是,能做什么呢?人工智能“蓬勃发展”得太快了,等不及了......中国领先于世界;如果我们等待,中国就没有机会赶上了。所以我相信北京做出了正确的决定;没有必要等待,兄弟! #程序员#deepseek #高考 #openclaw #ai
00:00 / 02:18
连播
清屏
智能
倍速
点赞54
Qiuming1月前
疑似DeepSeek V4基准测试泄露 疑似DeepSeek V4基准测试泄露,AI社区反响热烈但真实性存疑 昨日晚间,一张据称是DeepSeek V4模型的基准测试成绩图在网络上疯狂传播,迅速引爆了全球AI社区的讨论。泄露信息显示,DeepSeek V4在关键的代码能力评估集SWE-bench Verified上取得了惊人的83.7% 的得分,一举超越了Claude Opus 4.5(80.9%)和GPT-5.2(80%),被许多网友誉为“新王归来”。 除了编程能力的显著提升,泄露的图表还显示V4在数学推理方面同样表现卓越,例如在AIME 2026上得分高达99.4%,在极具挑战性的FrontierMath Tier 4上的得分更是达到了GPT-5.2的11倍。综合网络传闻,DeepSeek V4预计将支持高达100万的超长上下文窗口,并引入名为“Engram”的记忆机制,以实现真正的全仓库级代码推理能力。传闻发布时间锁定在所谓的“春节”期间,即今天(2月16日)或明天。 然而,这份引发狂欢的“成绩单”很快遭到了业内人士的质疑。有证据指出,泄露图中的AIME分数存在逻辑漏洞,因为官方评分系统无法得出99.4%这样的分数。更重要的是,评测数据集FrontierMath的所有方Epoch AI已明确确认,相关数据系伪造,因为仅有他们和OpenAI有权进行评估。这两个关键疑点使得泄露图的真实性大打折扣。 尽管“泄露”事件可能是场乌龙,但业内普遍认为,DeepSeek正在酝酿重大更新。近期,DeepSeek官网及应用已开始灰度测试一个新版本模型,其最大亮点是支持了高达100万token的超长上下文,可一次性处理《三体》三部曲体量的长文本。结合此前Information关于DeepSeek将于2月中旬发布新一代编程能力极强模型的爆料,此次灰度测试被看作是为V4正式版上线进行的“试点”。尽管真假消息混杂,但无疑再次将DeepSeek推向了全球AI爱好者关注的焦点。
00:00 / 03:35
连播
清屏
智能
倍速
点赞13
00:00 / 00:12
连播
清屏
智能
倍速
点赞638
00:00 / 02:04
连播
清屏
智能
倍速
点赞17
00:00 / 01:41
连播
清屏
智能
倍速
点赞77
00:00 / 01:21
连播
清屏
智能
倍速
点赞132
00:00 / 00:55
连播
清屏
智能
倍速
点赞252
00:00 / 00:55
连播
清屏
智能
倍速
点赞50
00:00 / 00:13
连播
清屏
智能
倍速
点赞NaN
00:00 / 02:57
连播
清屏
智能
倍速
点赞4
00:00 / 00:06
连播
清屏
智能
倍速
点赞191
00:00 / 01:29
连播
清屏
智能
倍速
点赞163
00:00 / 01:06
连播
清屏
智能
倍速
点赞43
00:00 / 01:50
连播
清屏
智能
倍速
点赞38
00:00 / 02:37
连播
清屏
智能
倍速
点赞9
00:00 / 02:45
连播
清屏
智能
倍速
点赞29