全球算力再度地震, deep six v 四正式定档二月春节震撼发布导弹记忆底层屠杀,不缺算力,更不缺钱换方量化大杀四方,拿钱砸命 科研发以战养战,中国速度硅谷巨头全员破防,这场硬仗看他杀疯,二月春节见证神迹!
粉丝94获赞749

deepsea v 四开源发布,国产大模型超越海外免费商用无限制 二零二六年三月八日,深度求索正式发布 deepsea v 四开源大模型,参数、规模、推理速度、准确率多,模态能力全面超越 g p p four turbo、 cloud three opus, 登顶全球开源大模型第一,且完全免费商用,无任何限制,支持本地部署二次开发,全场景应用瞬间引爆 ai 圈。很多开发者表示,国产大模型终于实现反超 免费商用,让中小企业、个人、开发者都能用上顶尖 ai, ai 普及不再是口号,中国 ai 正式领跑全球。 epson v 四的核心优势在于性能拉满加完全开源加免费商用三大王炸组合。性能方面,在全球权威大模型测试精准中, epson v 四得分全面领先国际推语、代码编辑、创意创作、语言理解能力远超海外顶尖模型,支持三十二 k 超长上下文,能处理百万字文档长宽代码,高清图片,响应速度比 gdp 四快两倍。 开源方面,完全开放模型权重训练代码部署工具,开发者可以随意修改优化二次开发,不用依赖官方打造专属 ai 模型。 商用方面,彻底免费,个人、企业、机构都能无偿使用,不用支付返钱费、使用费,降低 ai 使用门槛。 对于开发者来说,第四一四的开源是天大的福利。此前顶尖大模型都被海外垄断,要么闭园收费,要么限制商用,中小企业和个人开发者难以承受高昂成本。 第四一四免费开源,让所有人都能用上顶尖 ai, 不 管是开发 ai 助手、智能客服创作工具,还是工业应用、教育、医疗都能零成本接入,快速实现产品智能化? 同时,国产大模型支持中文语境优化,对中文理解更精准,更贴合国内用户需求,体验远超海外模型。对于企业来说, deepsea v 四能大幅降低智能化转型成本。传统企业智能化改造需要投入数百万、数千万, 接入海外大模型还要支付高额服务费。而 deepsea v 四完全免费本地部署,还能保证数据安全, 不用把数据上传到云端,彻底解决隐私顾虑。小微企业、个体户也能借助 ai 实现降本增效。比如自动生成文案、整理数据、回复客户、制作海报,一个人就能干十个人的活,提升竞争力。 行业层面, deepsea 微视的发布,标志着中国大模型从跟跑到临跑,打破海外技术垄断和价格垄断, 海外大模型厂商被迫下调价格开放权限,全球 ai 市场格局彻底改写。同时,完全开源免费会加速 ai 普及速度,催生海量 ai 应用落地, 推动千行百业智能化升级,形成完整的国产 ai 生态。国家也大力支持国产大模型发展,出台政策鼓励开源共享,让中国 ai 成为全球标杆。当然,也有人担心免费开源会影响模型后续迭代, 深度求索。官方表示会持续投入研发,不断优化模型性能,推出更强版本,依靠生态服务实现盈利,而不是靠模型收费。国产大模型的崛起,靠的是技术实力,靠的是开放共享,靠的是服务用户。 deep sec v 四只是一个开始,未来还会有更多国产顶尖大模型落地,让中国 ai 走向世界,服务全人类。

deepsea 威斯要来了,九号凌晨已经发布了终极技术报告。怎么说呢,他已经和华为深层国产算力配合有一段时间了。反正国产最好的东西肯定是要找华为合一下的,更何况 deepsea 还不止国产最好。我得到的消息是计划今明两天发布,最迟三月十五号。

随着二零二六年三月来临,全球 ai 社区的目光都聚焦到了同一个搜索词, deep seek v 四 release date。 据知, deep seek v 四将于二零二六年三月上旬正式发布,这不仅是一次模型版本的迭代,更是国产 ai 试图彻底摆脱 c u d a 依赖,实现算力与算法深度自足的里程碑。 最新的信息显示, v 四的内部开发系列代号为 silicon light, 这个代号暗示了 deep seek 对 新模型灵活性与海洋级吞吐量的追求。 与 v 三相比, v 四不再只是一个强大的文本模型,而是一个原生多模态巨兽,尤其在深层高精度 svg 图形和理解复杂视觉逻辑方面展现出了跨代级的统治 力。为了应对不确定的算力封锁, deepsea 团队巨船已与华为达成战略级合作。 v 四在训练阶段就针对升腾算子库进行了原生重构。 这种软硬一体的深度垂直优化,使得 v 四在华为芯片上的运行效率理论上能达到甚至超过同规格模型在 h 一 百上的表现。即将出现的 deepseek v 四,标志着国产大模型正在从追赶者变为定义的制定者。

正月十三号,我是数码博主文澜公子,今天咱们聊一个,二零二六开年 ai 圈最大炸弹 deepsea v 四全亮铺光, 不管是技术参数、性能、跑分,还是战略选择,都直接改写国产大模型的格局,甚至让海外巨头都坐不住。 先把时间线说清楚。二月十一日已经开启辉度测试,网页端和 app 都上线了,百万上下文体验版正式发布定在二零二六年三月第一周,节奏非常快,这次不是单款模型,而是双版本齐发。轻量版 v 四 light, 代号 c i n 杠 light 海石清亮版,现在闭门内侧,后面再上完整版 v 四旗舰版,一清一主,覆盖个人用户与企业场景。最炸的还不是发布节奏,是技术直接拉到全球顶流。第一个突破一百万 tokins 超长上下文,直接是上一代 v 三点二的近八倍, 普通人不用记数字,我翻译一下能一口气吞掉一整本书。三十万行完整代码,酷,全程不丢信息,逻辑不乱, 读得完记得住,答得准,不管是律师看卷宗、程序员改项目,学生读论文,直接一步到位。第二个突破,编程能力全球登顶,内侧 s w e 杠 bench verified, 跑分百分之八十三点七,直接超过 g p 杠五点二, koopas 四点五, 这是国产大模型第一次在权威编程基础上压过海外顶流。不止跑分高,复杂工程调试、跨文件关联、漏洞定位、字动生成、测试用力,全都是企业级刚需程序员,直接多了个全能队友。 第三个突破,三大底层架构创新,听着专业,我用大白话讲杠,流行约束,超连接 mhc, 让大模型跑得更稳更大, 还不诈算力杠、印记条件、记忆 ngram 给模型装了超级海马体常文本,不忘精准调取杠,稀疏注意力,制定关键信息,速度更快、成本更低、响应更跟手。三者合一,不是堆参数, 是从架构上重新做模型,效率、成本、稳定性全面升级。第四个突破,原生多模态文本、图片、文档、图标、代码截图,一起输入 osr 精准识别图标,直接解读截图,秒转代码不用切,工具不用拆,步骤一站式搞定,办公、学习、开发都更顺滑。 但这次最有分量、最有态度的不是技术,是战略转向。以往大模型更新,都会先给英伟达、 a m d 等海外芯片厂预发布版本,优先适配海外硬件。但 deepsea v 四完全反过来,先开放给华为等国内芯片厂商 深度适配、联合优化,没给美系芯片厂商权限,这一步意义太大。国产大模型加国产算力,芯片从被动兼容变成主动协调,算力利用率、推理效率、成本全面优化,真正走向自主可控、软硬一体, 不再被卡脖子。再看性价比,直接卷死行业。 a p i 定价网传每百万 t 仅零点二七美元,差不多是海外顶级模型的四十分之一。企业用得起,个人用得爽,彻底打破好用就贵的惯例。 同时, svg 使量图生成、企业级 a p i 集成,多端适配全都拉满。 gigahub 近期密集更新,明显是为大规模商用做准备。我给大家总结一下, deepsea v 四到底意味着什么。第一, 技术上不追平,直接超越,在掌上下文、编程能力这两个核心赛道站稳全球第一梯队。第二, 生态上换赛道,带头走国产模型加国产算力的闭环,给整个行业打样。第三,普会上降门槛, 用极致低价把顶级 ai 能力放开,让中小团队、个人开发者都能用得起。以前我们总说国产 ai 在 追赶,这一次 deep cq 一 四直接从跟跑跳到领跑,不只是参数好看,是真解决痛点,真建立壁垒,真扛起自主可控的大旗。 二零二六年注定是国产 ai 爆发的一年,而 deep seek v 四就是开年第一声惊雷,正月十三,顺心顺意。你平时用 ai 最多是写文案、写代码还是读长文档?期待 v 四正式上线吗? 评论区一起聊聊!

海外科技媒体的日常留言又来了。这一次,他们信誓旦旦地宣布, deepsea 将在三月四号发布下一代技术模型 v 四,不仅支持一百万头肯长上下文推理,还将具备图片生成与视频生成的多模态等。 同时, deepsea 还将使用华为、升腾、韩五 g 等国产 ai 芯片对 v 四新模型进行优化。对此,我的判断恰恰相反, deepsea v 四不应该也不需要是一款包含多模态能力的全能模型。长上下文才是 deepsea 真正应该压住的战略方向。 首先, deepsea 的 核心竞争力是极低的成本做到了接近顶尖的推理输出质量,这背后依靠的是高效的混合专家架构、极致的工程优化,以及在数学、代码等逻辑推理场景上的深度打磨, 本质上是用更少的算力撬动更强的智能。这是一场效率游戏,而不是规模游戏。长上下文推理正是 deepsea 能力的自然延伸。而多媒体生成就是主动放弃自身优势,去别人擅长的战场应聘的战略冒险。其次,多媒体生成是海量数据与算理对联。 sora cds、 可琳已经在这条赛道上投入了天亮的资源。这个赛道遵循赢家通吃的定律,用户永远只会选择视频效果最好的那一个,而不是每项功能都平平无奇的全能模型。 两年前, open air 发布 sora, 全球科技媒体近乎现实不存在了。然而两年后,现实给出了冷酷的答案, sora 社区的用户留存率在第三十天仅剩百分之一,而 open air 每天要为此支付约一千五百万美元的算力成本。 视频生成模型的竞争模式略显残酷,即便你做出了产品排名第二,也几乎没有什么商业价值。 tiffany 真的 有把握在自己 a cds 的 主场胜出吗?最后,长上下文的商业价值在目前阶段是被严重低估的。长上下文并不简单,意味着能处理更多的 token。 它的真正价值在于 不需要依赖 rgg 技术的企业级知识库全量解锁、超长代码仓库的整体理解与重构,以及跨文献的科研推理, 这些都是用户付费意愿极强的高价值投币场景。根据 openroute 的 统计, ai code 已经成为 token 消耗增速最快的场景,占所有 ai 应用 token 用量的接近百分之四十。 最重要的,实现百万 token 以上的有效长上下文深度推理技术难度极高,需要系统性的解决注意力机制的计算复杂度、位置编码的长城外推能力,以及长距离信息的有效解锁等一系列的深层出问题。这些问题一旦被突破,将成为 deepsega 最强大的技术护城河。

反正 d p 大家都在等他,你不管是 v 四版本出来,他肯定会出来,大家可能还是耐心再等一等。我觉得他现在最主要的问题是没有算力。什么道理?就第一个,如果他把模型发布出来,如果他的效果很好, 那么用的人很多的结果是什么?用的人很多的结果就是他的算力根本就不够。中国目前国产算力还是不行,还没有量产的问题在这,像最近那个 glm 五,它发布了这个模型,应该来讲在开元界还是属于 比较好的那些模型之一。他发布了之后他会发现他的算力根本就不够,所以他不是给很多人道歉,说他有些买了他会员的那些什么用户啊,他可能就没有办法用什么 g l m 五,这临时不能用,所以让他们去退款这个道理。算力不够,我觉得 g p c 如果真的要发出来,他随时随地应该是可以发出来, 只是他还是要准备好。我之前记得他们去年春节发布的时候,这样的根本就算力就不够,一会能用一会不能用,体验是非常糟糕的。

你敢信, deepsea 下周要发布的 v 四,简直是 ai 圈的鲁路修,直接掀翻整个行业的旧规则!各位深耕财经科技的朋友们, 今天给你们带来英国金融时报刚爆出的大料, deepsea 的 最新多模态大模型 v 四下周就要正式亮相了! 这可不是普通的模型更新,这简直是鲁路修士的布局。就像鲁路修用 kiss 打破布里塔尼亚的统治一样, deepsea v 四带着三个绝对能力来改写 ai 的 游戏规则。第一个能力是他的大局谋略,百万级 token 的 上下文窗口, 啥概念?就是能一次性读完一整本长篇小说,甚至一整个几十万行的代码库。就像鲁路修站在战场最高处,一眼看透所有战局。 不管你是要分析几百页的金融年报,还是梳理一整套法律合同,他都能给你整的明明白白。 第二个能力是他的多模态 guess 原声支持图片视频文本深沉。不管你是要做设计、剪视频,还是写方案,他都能像鲁鲁修的绝对服从指令一样,精准完成你的需求,没有那种差一口气的感觉。最关键的是他的先地板战术, 就像鲁鲁修在战场上炸地面,打乱敌军阵形一样。 deepsea 这次直接打破了行业惯例,以前 ai 大 厂发新模型,都得先给英伟达这些国外芯片厂商提前测试, 这次 deepsea 偏不优先给华为等国产芯片开放,直接把 ai 的 算力底座攥在自己手里, 外网爆料,训练速度提升百分之四十,部署成本降低百分之二十五,这简直是用智慧把国外的算力封锁给砸开了。就像鲁路修说的,错的不是我们,是旧的规则, 以前的 ai 规则都是国外厂商定的,国产 ai 只能跟着他们的脚步走。但这一次 deep 说不,我们要自己制定规则。这一次国产 ai 不 再是追赶者, 而是像鲁路修一样成为了规则的制定者,用智慧打破枷锁,用谋略创造新的秩序。这就是 deepsea v 四带来的鲁路修士逆袭,也是我们国产科技该有的样子。

朋友们,现在已经是二零二六年三月份了啊, deep sec v 四的模型正式发布日期呢,还没有对外公布哎,网传呢, v 四的 live 版本呢,已经在测试了哎,有测试人员声称呢,这款模型的综合能力啊,非常非常的强悍, 一次性呢,能处理一百万 toc 的 数据量,哎,一部九十万字的小说呢,可以进行完整的一个阅读。据传这款大模型呢,首发将搭载在网页端跟 app 上,它不会出现大面积的网络攻击,哎,这一点呢,非常非常的友好。 据说这款模型的上下文理解能力呢,哎,来到了惊人的一百万逃坑,九十万字的小说呢,他可以无缝的进行上下文的阅读,他将会适配咱们国产的芯片,也就是华为的升腾 ai 芯片呢, 算力成本非常的低,但是效果呢,很惊人。具体上线了以后,这款大模型会给我们带来哪些生活上,工作上的帮助呢?我们拭目以待呀。

朋友们,见证历史的时刻又要到了, deepsea 微四预计下周正式登场!距离上次 deepsea 发布重大模型 r 一, 已经过去了整整一年。这一年里, ai 行业如火如图, open ai 连推、数代 gbt cloud 杀入顶级阵营,谷歌杰米奈疯狂迭代,整个硅谷都在疯狂烧钱。 而 deepsea 呢?他安安静静的待在杭州,不开发布会,不做路演,不搞炒作,创始人梁文峰也几乎不在任何公众场合露面,他甚至拒绝了自然杂志的官方采访请求, 苦心孤注一年,就是为了 deepsea 微视。据说这将是一款支持图片、视频和文本生成的原声多模态大模型。过去, deepsea 模型主要是文字选手, 写代码写文案一流,做推理一绝,但图像和视频能力一直是短板,而微视将能够同时理解和生成图片、视频和文本,不仅强,它还开源。 去年 deepstack r 一 模型发布时,不仅核心模型完全开放,还发布了一份内容极其丰富的说明书,详细公布了自己的技术架构、训练过程和训练数据配方, 直接让全球 ai 玩家都惊掉了下巴。这等于是在说,想学吗?想学我教你啊!这份从容以自信。据说这次微四的发布仍将延续。 更炸裂的是,微四没有选择跟英伟达做优化适配,而是优先与国产芯片厂商合作,针对国产 ai 芯片进行了深度调优。这是微四最具战略意义的突破。 据路特社的报道, deepsea 这次根本没有向这家美国芯片巨头提供接入权限,这打破了 ai 行业长久以来的惯例。过去,任何一个顶级大模型发布前,都会先跟英伟达做性能优化。这一次, deepsea 直接反向操作,明明白白的告诉全世界,我不挑芯片,也能跑出世界一流的模型。 消息传出后,周二英伟达的股价盘中跌幅一度超过百分之三。他们靠着天价芯片和故事堆起来的万亿市值,搞不好又要它。毕竟这种被掀桌子的剧痛,他们不是没有体验过。 去年 deepsea 二一发布的当天,英伟达股价单日暴跌百分之十七,市值蒸发约六千亿美元,创下美股历史最大单日跌幅。 如今微股历史最大单日跌幅。如今微股的出口管制政策 来了个啪啪打脸。 deepsea 等于在说,你不是不给我最顶级的芯片吗?那就是在逼着我思考更聪明的方法,更高效的训练策略,更精妙的价格设计、更极致的资源优化。而这些创新一旦形成,就是你的末日。下周,我们将拭目以待。

当整个 ai 圈还在为千亿参数模型的算力消耗叫苦不迭时, deepsea v 四抛出了一枚重磅炸弹。 万亿总参数加三百二十亿激活参数的末混合专家架构,直接改写了大模型的发展规则,这背后是对传统稠密模型的根本性颠覆。过去大模型陷入 参数竞赛的死循环,要提升性能就必须扩大参数量。但筹密模型每次推理都要激活全部参数, 导致计算成本延迟与参数量呈限性增长。训练一个千亿参数筹密模型需要数千张 a 一 零零 gpu 运行数月,单条推理请求的算理消耗堪比普通用户一年的用电总量。而末架构的核心魔法在于 吸出激活,将模型拆分为数百个独立的专家网络,通过门控网络动态选择与当前任务最相关的一到二个专家参与计算。就像医院的专科门诊, 感冒无需惊动外科专家。 deep c v 四的万亿参数是全科医疗资源库,而三百二十亿激活参数是 对症的专科团队。这种设计让它的总餐数量达到 g p t 四的五倍以上,实际计算量却仅为传统稠密模型的三分之一, 推理效率提升三倍以上。更关键的是, deepsea v 四采用了二零二六年最新的流行约束超连接 m h c 门控技术,让专家匹配精度提升百分之四十,彻底解决了早期某模型专家闲置的负荷均衡难题。 这意味着它的万亿参数不是虚有其表的数字,而是真正能被高效调用的潜在智慧。如果说末架构是效率革命, 那么一百万 tucker 上下文窗口加原生多模态,则让大模型的能力边界实现了次元突破。先看一组震撼的数据, 一百万 tok 相当于七百五十万字的巨著,是 g p t 四上下文窗口的二十倍,足以容纳整部红楼梦加三国演义的文本量,或是十小时的会议录音,转写 一千页的科研论文、完整的工业设计图纸集,这背后攻克了三大技术难关。计算复杂度突破。通过分块处理与注意力缓存技术, 将 transformer 的 o n 平方复杂度优化为近似线性,避免了百万级叙略所需的 r t b 显存占用。长距离依赖建模。采用动态位置编码与关键信息铆定机制, 让模型能精准关联五百亿前的细节,解决了长文本处理中的信息衰减问题。数据训练创新构建了全球首个百万 tok 级高质量语料库,含盖学术、工业、医疗等领域, 确保模型在超长文本场景下的连贯性与准确性。而原生多模态则彻底告别了 文本加图像的简单拼接。 deep c v 四的多模态能力从预训练阶段就深度融合文本、图像、音频、视频、数据共享同一套专家网络,能够理解图表中的数据趋势加报告中的文字结论 加演示视频中的场景细节,真正实现了跨模态场景重构。例如,它能直接解析一段包含实验视频数据表格、论文、论文的科研资料,自动生成完整的实验复盘报告, 这是传统多模态模型无法企及的高度。 deepsea v 四的技术突破正在引发全产业链的连锁反应,其核心影响在于 高性能与低成本的结偶。对于企业用户而言,最直观的改变是成本革命。根据 deep speed mod 的 实测数据, 同等性能下, mod 模型的训练成本降低五倍,推理成本降低九倍。这意味着中小企业无需再为使用大模型支付天价 a p i 费用,百万滔滔的长文档分析成本从数千元降至百元起。工业场景中 ai 质检、 设备运维等实时性要求高的任务,可通过端测部署梦模型实现毫秒级响应,功耗降低百分之四十。科研机构能以极低成本处理基因组学、 天体物理等领域的超长系列数据,加速前沿研究进程。具体到落地场景, 三大变更已经显现,办公领域处理一千页的合同文本,自动提取关键条款、识别风险点,效率提升十倍。医疗行业整合患者完整病 历、文字影像检验数据,生成个性化诊疗方案,解决多元数据割裂问题。工业制造解析整套设备图纸加运维、日制 加实时传感器数据,预测故障风险,并给出维修指导,停机时间缩短百分之五十。更重要的是, deepsea v 四宣布优先向华为等国内供应商开放测试, 推动算力与模型的自主可控。这意味着中国 ai 产业将在某架构的赛道上实现换道超车,无需重复传统稠密模型的算力依赖,直接进入效率驱动的发展新阶段。 deepsea v 四的发布,标志着大模型从参数均被禁赛, 进入效率革命时代。其核心启示在于,模型的强大不在于参数多少,而在于参数的利用效率。当万亿参数可以被三百二十亿激活,参数高效驱动,当百万 token 上下文成为标配。当原生多模态打破数据壁垒, 大模型将真正从实验室工具走向普惠性基础设施。未来我们可能会看到,单侧 ai 设备搭载轻量化梦模型,实现离线处理超长文本与多模态数据。行业大模型的训练成本降至现在的十分之一, 每个吸粉领域都能拥有专属的高性能模型,跨领域协调成为常态。 ai 能同时处理法律文档、工程图纸、医疗影像等多类型数据,成为真正的通用智能助手。当然,挑战依然存在, 百万滔氣场景的推理延迟优化、多模态数据的隐私保护、行业及专家网络的定制化开发都是需要持续攻克的难题。但不可否认的是, deepsea v 四已经为大模型的发展指明了方向,效率才是 ai 规模化落地的核心密码。 当技术的翻离被打破,大 ai 的 能力与成本达到平衡,一个万物智能的新时代正在加速到来。

兄弟们,今天二月二十七号, deepsea v 四正式进入发布倒计时,辉度测试代号 c o n light 已经外泄。上次 v 三发布,英伟达单日蒸发五千八百九十亿美元,这次 v 四三大黑科技全部提前泄露。今天我把这些料全摊给你,它到底颠覆的是什么?这次谁最该紧张? 讲 v 四之前,先把 v 三的基准线说清楚,因为不知道起点有多高,就感受不到 v 四突破有多狠。 v 三六百七十一亿参数的混合专家架构,激活参数只有三十七亿,效率极致。 推理成本每百万 token 只要零点一四美元, g p t 五点三要十五美元以上,差了一百倍。看右边这张成本对比图, v 三那根条有多短,竞品的条有多长,这就是 v 三答出来的价格体系。 v 三发布当天,英伟达蒸发近六千亿, v 四预计保持同样的成本优势,但性能要在跨一个档位。 v 四三大核心突破,全部来自已发表的研究论文,不是空穴来风。第一, ngram 条件记忆, 你看页面上这两个对比,就方式,找信息要逐个扫描,像翻书。 ngram 直接一步定位,查找效率从 o 嗯变成 o 一 规模无关速度恒定。一百万行代码查起来和查一百行一样快。第二, mhc 流行约束超连接, 简单说让多个专家同时处理同一段逻辑,跨文件推理能力提升百分之三百。以前 ai 改一个功能经常顾此失彼, v 四把这个问题在架构层彻底解决了。 第三, em token 上下文,你看下方那个容量对比, v 三是幺二八 k, v 四是 em, 整整八倍,换成实际场景二百页 pdf, 整个项目代码库一次性全色进去,它真的能读完再回答你。 来看最新数据, swbench verified, 这是衡量 ai 处理真实软件工程任务的精准。 g p t 五点三目前约百分之八十二, cloud opus 四点五是百分之八十点九。第一个突破百分之八十的模型 gemini 三 pro 是 百分之七十六点二。 v 四的预期区间是百分之九十以上,但单看跑分还不够,你看页面底部那行字, v 四的差异化不是分数最高,是分数最高的同时成本只有 g p t 五点三的十五分之一,这才是真正的降维顶级性能,加急低成本,这个组合目前没有对手 技术。聊完说你最关心的, v 四发布之后,你能直接用上什么?第一,整个项目代码库扔进去,直接问 e m tokin, 大 概是十万行代码,你把整个项目丢给他,问这个 bug 的 根音在哪,他真的看完了,不是假装。第二,二百页行业报告一次性分析完, 季报、招股书,竞品调研,不用再分段位,直接出结论。第三, mit 开源私有部署零障碍,企业数据不出,网络金融、医疗政务客户直接本地跑,合规没问题。 顺带提一下, v 四发布前把优先适配权给了华为升腾,国产芯片加国产模型的闭环生态正在成型。这个话题太大,下期单独一期。 记住这句话, deep seek 每次发布不只是在发布一个模型,是在重新定价整个 ai 行业。 v 三让全球 ai 价格体系崩了一遍。 v 四如果三大黑科技全部兑现,会再崩一遍, 而每次崩受益的是你每个普通用户,每个享用 ai 提效的人。如果你觉得今天内容有收获,欢迎点赞关注,点关注不迷路,下期见!

deepsea v 四下周就要发布了,即将成为第一个不需要外国芯片也能跑的世界级 ai 模型。作为原生多模态大模型,能同时处理图片、视频和文字,而且专门针对国产芯片做深度优化。你可能还记得去年 deepsea 发布 r 一 的那天,英伟达股价暴跌百分之十七,一天蒸发了将近六千亿美元, 创下美股单家公司历史最大单日跌幅。当时华尔街的人都在问一个问题,如果一家中国公司用十分之一的成本就能做出同等水平的模型,那美国科技巨头每年砸下去的几百亿美元还值吗?这个问题到现在都没有答案,而 v 四来了,问题可能会变得更尖锐。为什么这么说? 第一, v 四是真正的多模态。过去 deepsea 主要是文字选手,写代码推底一流,但图像视频能力是短板, v 四直接补齐了这块,能同时理解和生成图片、视频文本。 第二,上下文窗口据说达到了一百万头,啃什么概念?相当于能一次性读完好几本书,还记得住内容。第三,也是最关键的,它绕开了英伟达。 过去 ai 行业有个不成文的规矩,任何顶级大模型发布前,都要先跟英伟达做性能优化。这次 deepsea 反向操作,优先跟国产芯片厂商合作。 这意味着什么?中国 ai 正在从用别人的芯片刨自己的模型,走向用自己的芯片刨自己的模型。更有意思的是,就在 v 四快发布的时候,美国那边也没闲着, astropics 跳出来指控 deepsea 搞工业及政流攻击,说他们偷了 cloud 的 能力,结果网友发现了一个 bug, 用中文问 cloud, 你 是什么模型?他居然回答,我是 deepsea。 v 三, 你刚指控别人抄你,转头你的模型就在中文环境下认了别人当爹。那条推文下面几千条评论,超过七成都在嘲讽。但这种舆论战的意图很明显,就是在 v 四发布前,先埋下他们只会抄袭的框架。不管 v 四表现多好,都想引导到负面解读上。 为什么他们这么紧张?因为如果 v 四再次验证 deepsea 的 效率优势,用更少的计算资源达到世界一流水平,那胡尔杰就要再次面对那个令人不安的问题。 还有人爆料说, v 四的 api 成本会比竞争对手便宜五十多倍,这是什么概念?就是别人花五十块钱能做的事,用 v 四只需要花一块钱,这才是真正让人害怕的地方。回头看, deepsea 这一年多的路径其实很有意思。 r 一 发布后,他们进入了静默模式,没有新的旗舰模型,没有发布会,没有路演,没有炒作,就在杭州安安静静的磨刀,一次次小版本迭代,把 v 三和 r 一 的能力融合,引入稀疏注意力机制验证、自验证技术、发布架构。论文每一步都在为 v 四铺路。美国的出口管制,试图用卡脖子的方式遏制中国 ai 发展, 但 deepsea 的 存在,本身就是对这种策略最有利的回应。当你无法获取最顶级的芯片时,就被迫去思考更聪明的办法,更高效的训练策略、更精妙的架构设计、更极致的资源优化。而这些创新一旦形成,价值远超任何一款芯片,有竞争对手阵营的研究人员私下承认, v 四可能一发布就是登顶开元第一。 但真正值得铭记的是一个古老的道理,再次被验证。封锁从来不会杀死创新,反而迫使创新在中国大地上野蛮生长,结出属于自己的果实。下周的 v 四发布,全世界都在看,而中国 ai 已经不需要别人的目光来确认自己的方向。

兄弟们,下周最重要的事儿, deep sec v 四要来了!原生多模态支持百万级上下玩儿清北联合 du pass 架构,深度适配国产芯片。 前段时间这个 openai 的 ceo 三毛奥特曼不是指控 deep sec 蒸馏自家的 gbt 五点二吗?这次能不能给鸭啪啪打脸?


deepsea v 四最快将于下周发布,已进入随时可能官宣的临界状态。二月二十六日,据智东西报道, deepsea v four lite 已经开始测试了,而且效果真的很炸裂。据对 information 等远影知情人士透露, deepsea v 四的编程能力 内部测试超越 clodopus 四点五和 gpt 五点二,参数规模约一万亿。使用成本方面,预计比 clodopus 四点六便宜二十至四十倍。 deepsea 抵御近期将重大更新版本 v 四,向华为等国内供应商提供提前访问权,以支持其优化处理器软件,确保模型在硬件上高效运行,但英伟达、 amd 等芯片厂商还未获得权限。总之, deepsea v 四正处于万事俱备、只待官宣的状态, 其技术储备已通过论文和灰度测试释放,但官方保持一贯的低调突袭风格,不预热、不确认突然上线。考虑到去年二一的春节发布引发了全球科技圈地震, v 四的发布可能也在评估市场冲击。从哈林 face 上超过七千五百万次的累计下载量来看, deepsea 依然是全球开源 ai 领域最受瞩目的存在。