00:00 / 00:38
连播
清屏
智能
倍速
点赞72
00:00 / 04:52
连播
清屏
智能
倍速
点赞NaN
00:00 / 13:37
连播
清屏
智能
倍速
点赞NaN
00:00 / 00:53
连播
清屏
智能
倍速
点赞1
00:00 / 01:16
连播
清屏
智能
倍速
点赞89
00:00 / 00:22
连播
清屏
智能
倍速
点赞1250
00:00 / 02:49
连播
清屏
智能
倍速
点赞203
00:00 / 05:24
连播
清屏
智能
倍速
点赞34
Deepseek 模型更新了! ✅ 已灰度上线:核心能力跃升 1M超长上下文:这是目前最显著的升级。上下文窗口从之前的128K直接提升至1M Token(约提升8倍),可以一次性处理《三体》三部曲或《简爱》全文这样的超长文本,在复杂文档分析、长代码库理解上能力大幅增强。 知识库新鲜度更新:知识截止时间已更新至2025年5月,相比之前提升了约10个月,对2024下半年至2025年初的事件有了认知基础。 交互体验优化:新版本的语言风格被评价为更“热情而细腻”,前端响应质感有提升。 未包含能力:本次更新依然未支持多模态视觉理解,仍聚焦纯文本与语音交互。 🔮 关于下一代模型(V4)的预期 目前灰度版本很可能并非万众期待的“V4”,更像是V3系列的终极进化版,为V4做铺垫。关于V4,目前有以下未经官方证实的行业预测: 创新技术架构:据野村证券报告预测,V4可能引入mHC(流形约束超连接) 和Engram(条件记忆模块) 两项新技术,旨在从算法层面突破算力芯片与HBM内存的硬件瓶颈。 性能与成本:内部测试显示其在编程任务上已超越Claude及GPT同代模型;核心商业价值是进一步压缩训练与推理成本,推动AI应用商业化。 参数规模:真正的下一代旗舰预计是万亿参数级别的基础模型,但因规模跃升,训练速度放缓,发布有所延后
00:00 / 00:51
连播
清屏
智能
倍速
点赞8
00:00 / 02:49
连播
清屏
智能
倍速
点赞21
好诗书1周前
DeepSeek春节再扔王炸? 2月13日,澎湃新闻记者获悉,DeepSeek 网页/ APP 正在测试新的长文本模型结构,支持 1M 上下文。其API 服务不变,仍为 V3.2,仅支持 128K 上下文。 这也被外界认为,DeepSeek或将在今年春节再次“炸场”发布新模型,复刻去年春节现象级轰动。 今年1月12日,DeepSeek曾发布一篇新论文《Conditional Memory via Scalable Lookup:A New Axis of Sparsity for Large Language Models》(基于可扩展查找的条件记忆:大语言模型稀疏性的新维度),梁文锋位列作者名单中,这篇论文为北京大学和DeepSeek共同完成。据分析,这篇论文的核心直指当前大语言模型存在的记忆力“短板”,提出了“条件记忆”这一概念。 当时行业就普遍猜测,DeepSeek的下一代模型V4或将在今年春节前后正式发布。 去年12月1日,DeepSeek曾经同时发布两个正式版模型:DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale,官方网页端、App和API均已更新为正式版 DeepSeek-V3.2,Speciale版本目前仅以临时API服务形式开放,以供社区评测与研究。 据介绍,DeepSeek-V3.2的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用Agent(智能体)任务场景。在公开的推理类Benchmark测试中,DeepSeek-V3.2达到GPT-5的水平,仅略低于Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2的输出长度大幅降低,显著减少计算开销与用户等待时间。 作为当之无愧的大模型风向标,DeepSeek一举一动都受到行业整体关注。网易有道词典发布2025年度词汇——“deepseek”以 8672940次年度搜索量成功当选。据有道词典负责人介绍,“deepseek”在词典内部的搜索曲线呈现明显的爆发式特征,从年初因“低成本”突破算力封锁起,几乎每个重要进展都会带动搜索量上涨。#DeepSeek #科普冷知识 #有AI相伴一起过年 #ai @抖加🔥上热门🔥dou+🔥热点宝 @上热门🔥🔥🔥 @DOU+小助手 @好诗书
00:00 / 01:59
连播
清屏
智能
倍速
点赞3