deepsea v 四要来了,华尔街又开始提前世免资本市场有时候真的很像一群条件反射过度的猫,灯还没亮,它们已经炸毛。这次让它们集体神经紧绷的,是一家中国 ai 初创公司的 deepsea。 据 cnbc 报道, deepsea 的 下一代模型 v 四可能即将发布。消息一出,纳斯达克投资人条件反射式回忆起二零二五 年一月二十日那一天,那一天 deepseek 发布二一,然后 invadia 单日市值蒸发五千九百三十亿美元。不是五亿,不是五十亿,是五千九百三十亿。 reuters 直接写成了历史级别的市场损失。纳斯达克跌百分之三,博通暴跌百分之十七点四, 被称半导体指数创二零二零年三月以来最差单日表现。这不是技术新闻,这是资本。 p t s d。 现在 v 四要来了,华尔街不焦虑才怪。为什么纳斯达克会怕我?说句难听点的,那斯达克过去两年 靠的是什么?靠 ai 基建的宏大旭日?微软 alfa、 亚马逊每塔承诺数千亿美元资本开支, gpu 成为卖铲子的黄金逻辑,只要模型越烧钱,芯片越紧缺, 估值就越安全。但如果出现一个变量,开源加高性能加低成本加中国团队,那资本就会开始问一个问题,我们是不是高估了稀缺性市场?最怕的不是坏消息,是稀缺性神话被拆穿。
粉丝670获赞6390

还记得吗?去年 deepsea 刚刚发布的时候,给他卖产值的公司直接一飞冲天,而英伟达却在当日下跌了百分之十七。 今年 deepsea 的 最新版本最早在下周发布,比去年初的版本已经强了二十倍,而英伟达也已经率先掉头向下了。给他卖产值的公司以往复刻去年的表现吗?那么深度绑定 deepsea 微四的产值公司又有哪些呢? 排名不分先后,下面咱们来做一个详细的文字分析,大家一定要记得点赞收藏,以免找不到。一、运泽科技。二、拓维信息。 三、含五 g。 四、并行科技。五,高新发展。

全世界都在等的 deepsea 微四版本终于快来了,它会是 ai 时代的拼多多吗?大家好,这是动力枪极速版,一个直讲前沿科技的账号。就在昨天著名的 ai 开发的社区 l 站上,有博主发帖称,自己正在内测的 deepsea 微四 light 测试版在本周二悄悄升级到了零三零二版,公开测试的部分成绩已经接近了美国 astonropac 公 此基建模型 cloudsonnet 四点六,可以轻松地写出我的世界风格的游戏,相关的前端代码也非常的风格化。其他的测试人员也表示, deepsea v 四将在 app 和网页版首发,大概也是考虑到去年用户量激增对中国云基建产生的冲击, api 接口将暂缓发布,优先保证用户体验,要不然接口开了所有人一起用的话,又得跟去年一样挡机了。 那么问题来了, deepsea v 四能不能成为下一个国运级的 ai 产品呢?答案是肯定的,因为大众对它的期待已经达到了历史的新高度,公众已经不允许它失败了。 我们来看一组晚点统计的数据啊, deepsea 的 中国用户粘性非常夸张,在春节期间红包大战和 cds 二零的冲击之下, deepsea 的 用户使用时长在短时间内是暴跌的。但是随着其他厂家春节活动的结束, deepsea 的 人均使用时长和使用频次又再次回升,回到了绝对第一的位置。 再加上去年中国正体市场的推广,让大量的人手机里面都装上了 deepsea, 这样的数据足以说明 deepsea 在 中国是有绝对的基本盘优势的。 第二就是 deep stack, v 四版本的能力没有拉垮,早在上个月的 ai 混战中, deep stack 就 已经完成开发了,开始闭门测试了,有开发者和云浮厂商参与测试。根据测试人员透露信息,参数模型方面, v 四 light 版本估计为两千亿,而完整版的 v 四参数量可能突破一万亿,同时呢,也支持一百万 token 的 上下文知识库也更新到了去年的九月份, 在任务完成方面表现得更加出色。相关的测试也反馈啊,该版本在深层复杂的 svg、 矢量图形等高难度任务上表现惊艳。 v 四版的性能明显是优于现有的网页端和 app 端的模型的 各项泄露的跑分可以说是遥遥领先,然而却迎来了行业打假。部分媒体对流传的测试数据提出了质疑。新智源和多位技术博主的指出啊,网传跑分途中的数据存在硬伤,比如说这个数据竞赛得分在统计上是不合理的,权威机构也确认网传的数据是伪造的。然而面对泄露的信息和跑分传言, dpc 的 团队选择沉默,没有进行任何回应。 刚才我觉得啊 deepsea 团队还是一如既往的低调,他们是拿产品说话的。在过去两代模型里边, deepsea 一 直在做一件事,那就是用工程能力把成本给打下来。在中美 ai 技术竞赛中,中国从一开始的技术追随者在两段时间内就走出了完全不同的路线。美国现在走的呢,是以 open ai、 algorithmic 和谷歌主导的高端技术路线, 模型更大,训练成本更高,系统更封闭,但是呢,价格要更贵一些,可以理解为是资本密集型 ai。 而像 deepsea, deepsea、 kimi, mini max 等公司在遭遇算力紧张的大背景下, 思考如何优化成本。他们用上了专家混合模型架构,压缩推理成本,优化训练效率,最终结果就是百万投放的成本已经降到了接近一到两块钱人民币。虽然说相关模型的性能可能只有国外旗舰模型的百分之九十,但是它的成本却只有对方的百分之十, 深受普通用户和重要企业的欢迎。所以啊,这个事就非常的,中国制造不拼谁最强,拼的是谁最便宜。好用这种方法呢,也打破了很多人的陈旧认知,美国在定义 ai 的 上限,而中国正在定义 ai 的 价格。 东方商业历史,决定行业规模的不是上限,而是价格,这跟拼夕夕的逻辑是一模一样的,只有让更广大的用户用上了 ai, 才能够继续谈 ai 技术突破和市场规模的事。所以啊, deepsea 微四版本,我既希望他快点来,又希望他不要那么着急。各位,你们期待 deepsea 微四吗?欢迎在评论区里面一起交流哦,记得点关注我们,下次见,拜拜!

我跟你讲啊,这个深度求索 deepsea 微四要来了,这一次啊,直接让美国的英伟达这些顶级的芯片公司坐了一次冷板凳啊。 因为呢,有业内人士透露啊, deepsea 微四的版本在现在的预览发布阶段,直接跳过了英伟达和 amd 等美国的这些 ai 芯片公司,而让国内的华为、韩五 g 等厂商提前至少两到三周进场来进行深度的适配。 这个为什么这么重要呢?以前呢,都是国产的人工智能啊,追着英伟达的模型去跑啊,人家出了一个模型呢,我们的国产模型就赶紧去跟进。 而现在呢,轮到了我们的国产的模型,在我们国产的芯片上去提前预热了。而且根据预测啊,国产的芯片的软硬件性能效率飙升之后的话,算力的利用率将从百分之六十提升到百分之八十五, 部署的成本呢,砍到了英伟达方案的三分之一。所以啊,这不光是一个大模型的升级,更是我们国产算力的一次商业突破呀。 另外呢, deepsea v 四作为一个多模态的模型,支持图片、视频和文本的生成,而且关键在于说,通过国产芯片的适配,它在华为的升腾、韩五 g 等芯片上面跑出来了,高效率推理的成本大幅度的降低。 而之前呢,有消息透露的测试就已经显示了, v 四在代码优化和视觉还原上的表现非常惊艳。所以这就证明了,国产芯片不光能够接得住我们的国产大模型,而且能够超预期地跑出点火花来。 所以啊, deepsea 这一次呢,是在全世界的面前放了一颗亮亮的信号弹,明确地表示,我们的国产大模型可以完全抛弃掉英伟达的 ai 芯片。 而在过去的一段时间里面呢,总有人表示啊,如果说 ai 离开了英伟达的芯片,那么 ai 就 玩不出什么花样。而现在呢,我们国产的 ai 芯片用实力去打脸了。而且啊,这次我们还让外媒给盯上了,他们就表示呢,这说明国产的芯片和大模型很有可能会一起联手走向一个新的生态闭环。 所以啊,这就已经不再是一个追赶的游戏了,而是我们中国 ai 定规则的开端。今年的年初呢,中国大模型的掉油量已经碾压了美国,全球前五大的模型当中,中国占据了四席。 而为了实现这一点呢,很重要的原因就是模型加芯片的自主闭环,国产芯片从低端市场突围,现在更是直接卡位了 ai 大 模型所需要的高端算力。所以啊,之前英伟达一家独大不可战胜的神话,似乎啊,已经完全被动摇了。 国产芯片厂商硬钢英伟达其实是一场不动声色却又波澜壮阔的革命啊。所以说,真的啊,国产芯片的时代真的要来了,你们同意吗?别忘了点点关注,文案内容来自我们公司自研的科研 asv 体,科研 asv 体,打造有价值的自媒体。

朋友们,你敢相信吗? deepsea 微四要来了!这次不光性能炸裂,最关键的是,它直接绕开了英伟达芯片,优先适配咱们自己的国产算力,尤其是华为的芯片。 消息一出,美国慌了,整个科技圈都沸腾了。以前几乎所有做人工智能的公司,发布新模型前,都要先找英伟达帮忙调优,因为全球百分之九十以上的 ai 训练都依赖它的高端显卡。可这次, deepsea 没走老路, 而是把手批测试机会给了国产芯片厂商。这不只是换个合作对象那么简单,而是一个强烈的信号,我们不再被卡脖子了。 过去几年,中国 ai 最大的痛点就是芯片,美国一直禁令不让卖 a 一 百、 h 一 百这些顶级芯片,连阉割板都要严加管控。他们的想法很直接,只要掐住算力,中国 ai 就 永远追不上。很多人一度也信了,但中国人有个特点,越是被逼到墙角,越能激发出创造力。你不让我用,我就自己造一个更好的。 还记得去年的 deepsea 二一吗?用极低的成本干出了世界级的效果,直接让英伟达股价一天暴跌百分之十七,市值蒸发近六千亿美元,那是第一季重拳。现在 v 四来了,而且和华为联手。 据提前流出的消息,它有两个版本,小的约两千亿参数,大的高达一点四万亿参数,上下文窗口更是达到惊人的一百万字, 相当于一整本红楼梦,扔进去他也能一口气读完,理解透。更厉害的是,他原生支持图像、文字等多种信息一起推理,能力直追国际顶尖模型。最让人振奋的是,已经有国内服务商拿到了测试权限,效果好到藏不住, 据说完整版一周内就会上线。如果 v 四真如传言所说那么强,那就不只是技术突破,更是一次战略翻身。全球每年花几千亿美元买英伟达芯片的逻辑可能要被重新审视了。 不是说英伟达会倒下,而是他的唯一选择地位正在被打破。中国 ai 走的不是堆钱堆芯片的路,而是靠极致优化、工程巧思和自主创新。 deepsea 加华为如果真跑通了这条路,就意味着我们彻底撕掉了芯片卡脖子的标签。 历史告诉我们,封锁从来挡不住进步,反而会催生更强的自立。今天的中国 ai 正站在真正独立自主的起点上。 你觉得这次 deepsea 微四能不能成为国产 ai 的 高光时刻,让我们彻底摆脱芯片限制?欢迎在评论区聊聊你的看法。我是率先在全球提出硅基生命与硅基文明的硅基智能创始人司马华鹏,关注我,每天传播正能量,带你解锁更多硬核科技!

随着二零二六年三月来临,全球 ai 社区的目光都聚焦到了同一个搜索词, deep seek v 四 release date。 据知, deep seek v 四将于二零二六年三月上旬正式发布,这不仅是一次模型版本的迭代,更是国产 ai 试图彻底摆脱 c u d a 依赖,实现算力与算法深度自足的里程碑。 最新的信息显示, v 四的内部开发系列代号为 silicon light, 这个代号暗示了 deep seek 对 新模型灵活性与海洋级吞吐量的追求。 与 v 三相比, v 四不再只是一个强大的文本模型,而是一个原生多模态巨兽,尤其在深层高精度 svg 图形和理解复杂视觉逻辑方面展现出了跨代级的统治 力。为了应对不确定的算力封锁, deepsea 团队巨船已与华为达成战略级合作。 v 四在训练阶段就针对升腾算子库进行了原生重构。 这种软硬一体的深度垂直优化,使得 v 四在华为芯片上的运行效率理论上能达到甚至超过同规格模型在 h 一 百上的表现。即将出现的 deepseek v 四,标志着国产大模型正在从追赶者变为定义的制定者。

大家还记得二零二五年年初那个震惊了全球金融圈的日子吗?英美达的市值一天蒸发了近六千亿美元。让华尔街恐慌的不是某家美国科技巨头的财报,而是 deepsea。 二一。就在前几天,一篇来自 deepsea 团队的技术论文再次震惊了全球科技圈。 为什么?因为这篇论文实际上是在说一件事,美国人引以为傲的算力护城河很可能即将被我们给填平了。 过去三年,美国对我们的逻辑很简单,封锁高端显卡,锁死待宽,让你算力永远不够,你的 ai 就 永远比我笨。 这是一场看似无解的暴力美学竞赛,但是这篇论文的出现,直接掀翻了桌子,他告诉世界,谁说搞 ai 一定要几万张 h 一 百?如果你换个脑子思考,普通的电脑也能跑出超级智能, 那么 deepsea 这篇论文到底说了什么?即将到来的 deepsea v 四,为什么让硅谷如此焦虑?首先,我们要听懂一个核心概念,叫 ngram 条件记忆。 以前的大语言模型呢?就像是一个死读书的书呆子,你问他李白是谁?他必须调动几千亿个参数,在大脑里进行疯狂的运算,把李白这两个字给算出来,这非常浪费, 因为李白是诗人。这是一个静态知识,它不需要推理,它只需要记忆。但传统的 ai 模型没有记忆体,它只有计算体。所以呢,它必须用昂贵的显卡算力去模拟记忆。而 deepsea 的 工程师做了一个聪明的决定,他们呢,给 ai 配了一本字典。这就是 deepsea v 四的核心, 它把大量死记硬背的知识,从昂贵的神经网络里给剥离了出来,存成了一张巨大的电脑内存里边,而不是几万块钱一张的显存里边。 当大语言模型遇到知识类问题,他不再思考,而是直接查表。专业术语呢,就叫 o 一 复杂度的知识解锁。说人话就说,不管这书有多厚,他翻开就能找到那一页,不需要从头读到尾。这项技术直接绕开了美国制裁的核心, 高贷款显存,等于说是用几百块钱人民币的内存条,干了几万块钱美金的显卡才能干的事。这个技术路线一旦跑通,游戏规则就全变了。 以前呢,你想用最强的 ai, 必须联网,必须把数据传给美国的服务器,因为只有他们的超算中心才能跑得动。但现在,因为 deepseek 把对显卡的依赖降到了极致,于是即将出现一个惊人的现象,侧端 ai 的 爆发, 传闻中的小米旋界、 o 二芯片,还有华为即将更新的鸿蒙 os。 为什么敢说把达模型装进手机,就是因为这个原理。 想象一下,如果你的手机里住着一个不需要联网的超级大脑,他呢,能看懂你所有的本地文档、微信聊天记录,帮你处理最隐私的事。而这一切数据,哪怕一个字都不会传到云端。这不仅仅是省钱,这是数据主权的回收。 美国呢,封锁了云端的算力,那我们就把算力分散到每一个人的口袋里,这就是中国式的人民战争。更让西方国家头疼的是 deep sea 的 开元外交策略。 微软呢,最近出了一份报告,在这份报告里,他们发现了一个恐怖的事实,在非洲、南美洲,在东南亚,甚至是在被制裁的俄罗斯和伊朗, deepsea 的 市场占有率正在呈指数级上升。 为什么?因为硅谷的 ai 太贵了,而且太封闭了。而 deepsea 呢?开源便宜又好用。对于这些发展中国家来说, deepsea 不 仅仅是一个工具,它是唯一一个能让他们用得起顶级 ai 的 船票。这正在形成一种农村包围城市的全球格局。 当全世界的年轻工程师都在用 deepsea 的 代码架构,都在用中国的标准开发应用的时候,硅谷构建的那个封闭花园实际上已经被孤立了。 技术无国界,但技术标准有国籍。回过头看, deepsea 的 成功确实带有一种悲壮的色彩。如果我们能轻易买到无限的 h 一 百显卡,我们可能也会像 openai 一 样去搞什么大力出奇迹,去堆算力。正是因为匮乏,正是因为被逼到了墙角,我们才被迫去压榨算法的极限,去寻找那条没有人走过的路。 他们封锁了硬件,我们就重构软件。他们封锁了道路,我们就重造地基。 deepsea 证明了一件事,这个世界没有所谓的技术天花板,只有被锁死的思维。当中国工程师决定不再死记硬背别人的规则,而是去改写规则的时候,封锁线就成了一张废纸。 二零二六年, ai 的 下半场才刚刚开始,这一次,我们不再是追随者,我们手里拿着的是通往下一个时代的入场券。致敬每一位在封锁中突围的中国科研人。好了,这里是 ai 探索新思路,关注我,带你在未来生存!

海外科技媒体的日常留言又来了。这一次,他们信誓旦旦地宣布, deepsea 将在三月四号发布下一代技术模型 v 四,不仅支持一百万头肯长上下文推理,还将具备图片生成与视频生成的多模态等。 同时, deepsea 还将使用华为、升腾、韩五 g 等国产 ai 芯片对 v 四新模型进行优化。对此,我的判断恰恰相反, deepsea v 四不应该也不需要是一款包含多模态能力的全能模型。长上下文才是 deepsea 真正应该压住的战略方向。 首先, deepsea 的 核心竞争力是极低的成本做到了接近顶尖的推理输出质量,这背后依靠的是高效的混合专家架构、极致的工程优化,以及在数学、代码等逻辑推理场景上的深度打磨, 本质上是用更少的算力撬动更强的智能。这是一场效率游戏,而不是规模游戏。长上下文推理正是 deepsea 能力的自然延伸。而多媒体生成就是主动放弃自身优势,去别人擅长的战场应聘的战略冒险。其次,多媒体生成是海量数据与算理对联。 sora cds、 可琳已经在这条赛道上投入了天亮的资源。这个赛道遵循赢家通吃的定律,用户永远只会选择视频效果最好的那一个,而不是每项功能都平平无奇的全能模型。 两年前, open air 发布 sora, 全球科技媒体近乎现实不存在了。然而两年后,现实给出了冷酷的答案, sora 社区的用户留存率在第三十天仅剩百分之一,而 open air 每天要为此支付约一千五百万美元的算力成本。 视频生成模型的竞争模式略显残酷,即便你做出了产品排名第二,也几乎没有什么商业价值。 tiffany 真的 有把握在自己 a cds 的 主场胜出吗?最后,长上下文的商业价值在目前阶段是被严重低估的。长上下文并不简单,意味着能处理更多的 token。 它的真正价值在于 不需要依赖 rgg 技术的企业级知识库全量解锁、超长代码仓库的整体理解与重构,以及跨文献的科研推理, 这些都是用户付费意愿极强的高价值投币场景。根据 openroute 的 统计, ai code 已经成为 token 消耗增速最快的场景,占所有 ai 应用 token 用量的接近百分之四十。 最重要的,实现百万 token 以上的有效长上下文深度推理技术难度极高,需要系统性的解决注意力机制的计算复杂度、位置编码的长城外推能力,以及长距离信息的有效解锁等一系列的深层出问题。这些问题一旦被突破,将成为 deepsega 最强大的技术护城河。

英伟达有点危险了,因为 deepsea 要出新的模型了。你还记得去年 deepsea 出新模型的时候,英伟达有多惨吗?今年大家说,哎,好像没有去年那么爆炸。但是英伟达处的社会地位也不一样了呀,他现在也是前有狼后有虎啊,怎么讲?因为之前英伟达是推理训练两条腿走路的, 都得用他家的模型,但是现在推理特因为云服务商的出现,已经不那么依赖于他的显卡了。为什么?因为云服务商直接就把库大这个事情给绕开了啊?上一次我跟大家说绕开,去年春节的时候大家说不信是吧?现在是实实在在在推理特啊, 库达没那么重要了,你不管是你有什么样的模型,往上一提,接口一交,然后完了之后,你说你去找 gbt, 那 你去找 gbt, 你 说你去找 kimi, 你 去找 mate max 都没问题,然后完了之后剩下的就压根不用你管,你知道吗? 更不用说他后边这个硬件到底是英伟达还是升腾,根本不用你管。那现在就变成两条路了,第一条路啊,我直接走国产这个模型啊,比如说我用的提米,然后完了之后, 我用的背后用的英伟达卡也好,升腾卡也好,最后完了在中国的这个供电系统下,然后完把这个东西算完了,他便宜不便宜?那当然便宜了,我们的成本连模型带算力带电力全加在一起,也就是美国那边的十分之一。 那你十分之一在啊,前段时间大家发酵那个什么 openclaw 那 个龙虾是吧? 大量的用 agent 消耗算力的情况下,美国人你也花不起啊。所以完了之后再推理测,就是春节期间,大家知道有两个我们港股上市的公司,然后涨得非常猛,为什么?因为大家在用这个 agent 的 时候发现,哎呀,国外也太贵了, 外国人都跑到中国来用这个模型来了。所以完了之后推理测,他现在英伟达并不是那么占优。那还好,所有的这种好,不管你是 kimi 也好还是 jpg 也好,大部分现在训练你其实还得用英伟达的卡, 你别管你说禁令不禁令是吧?我偷偷用我也得用啊,毕竟训练啊,得用大规模的卡的提成,然后不容得一得插破是吧?大部分还是在用英伟达固氮再去练, 但是最近一个消息,对不?这个新出来的这个微四模型,我不准备先去给英伟达和 amd 做优化了。那什么意思? 那这就引人遐想啊,有两种可能啊,第一种可能说,哎,你还是用英伟达的卡训练的,然后,但是呢,为了让国产厂商能够跟英伟达一样的这种起跑线,是吧,我也给升腾去做一些适配。 但还有一种可能,还有一种可能就是压根我训练就没用。因为啥?为什么呢?毕竟这个是全球瞩目的一款模型,那全球瞩目的模型,然后完了之后, 每一次出来之后,他都是以小而美而著称的,而这个小而美如果再配上用的国产算力去做的训练, 那他真的又要炸一次了。他这个炸在两个方面,第一个方面,你训练如果都不用因为他了,那就因为他是不是另一条腿就立马又给打折啊? 然后大家说那没没问题啊,美国那些人还在用英伟达呢。美国人现在喜欢用英伟达吗?你去看一看 jimmy 是 不是自己用自己的显卡在他的训练他用一部分。 ok 啊,他用一部分,英伟达大部分还是用他自己的吧。然后你再去看大模型 grog, grog 那 个 马斯克自己也在想着去建芯片呢。然后你再去看 open ai, 之前跟那个英伟达应该签的是一千亿的合同,现在缩减到三百亿了啊。分批这一系列的一系列,指向的就是英伟达。现在是前有狼后有虎, 就等着对能不能给出一击暴击的暴刺来了。嗯,我们拭目以待。到时候去,拜拜。

呃,就在大家准备年夜饭的时候呢,那个让英伟达市值一夜蒸发一万亿的价格屠夫呢?他可能要回来掀桌子。传闻 deepsea v 四将在初期的初期发布,硅谷大厂呢?其实最怕 deepsea v 又一次的可能成为价格屠夫再次冲击呢,西方的大厂耗资数亿美金建立的算力护城河, 呃,当别人还在卷算力,中国的 ai 呢,持续在玩算法和架构的降维。为什么 deepsea v 总是呢,给大家提前做个 deepsea v 四的创新点的预测。 第一点, ingram 的 存储架构,这是 v 四呢最受关注的创新,该架构通过分离呢静态知识存储与动态的 gpu 推理。呃,讲人话就是实现了海量知识的高速解锁,这使得模型呢,以极低的成本能够在本地或者主流的工作站上运行。万亿模型参数 非常厉害,对吧?第二点就是 model one 的 混合架构。呃,根据 deepsea 在 github 泄露的代码来看的话,该架构呢,其实采用了五幺二维的注意力头和分层的 k v 缓存存储,简单来讲就是可显著的减少至少百分之四十的内存占用,呃,并提升极大的提升的训练速度。第三点呢,就是代码原生 这一点的优化。 v 四呢,预计将编程能力呢?呃作为核心的突破口,内部测试显示,其在呃 human, able 等编程指标上呢,超越了同期的 cloud 和 gdp 系列。呃,预计超过支持一百万 token 的 上下文的处理能力。嗯,那就意味着它可以在很大程度上呢,作为呃 cosine 这种呃 cosine 的 替代品。 第四点呢,就是万亿级稀疏参数激活的 m o e 架构,传闻 v 四呢,参数达到一万亿就一 t, 但通过优化的专家混合架构 m o e 呢,每次推理仅激活三百二十亿至三百七十亿参数。呃,这个呢,可在保持顶级性能同时呢,大幅降低推理能。呃,能源消耗。 第五点呢,就多模态的增强。 v 四呢,呃,预测将在 v 三的基础上,呃进一步整合多模态能力,支持图像、视频以及音频的直接的输入处理, 目的是对标 gemini、 kimi 等顶级模型。呃,这次 v 四最核心的秘密,我们呃可以认为是 ingram 架构的这个能力,翻译成大白话呢,现在的 ai 就 像个死记硬背的学生啊,为了考高分,非要把整个图书馆塞进脑回路,也就是呃 gpu 的 显存液,这样的话,会导致硬件极其吃力,消耗巨大的这个能源,对吧? 这也是为什么 hbm 显存那么贵的原因。把英伟达呢?呃,按在这个躺在功劳铺上收费是吧?但 deepsea 拆解了低星原理以后呢,它 ai 的 思考就会变得很快。呃,它的原理呢,就说因 gram 架构把 ai 的 知识和逻辑分家了, 它把百分之九十的静态常识呢,扔进便宜的内存,也就是我们之前常用的这个 ram, 只把最核心的推理模块留在昂贵的显存里。这就像你考试的时候呢,允许带一本无限放大的开卷指南,你不需要背书,只需要学会如何逻辑推理。 内部数据显示呢, v 四在代码能力上已经刷爆了测试榜,甚至在一百万长度的长上下文测试中呢,把 cloud 四点五呢,呃,力压了一头,这可能就是典型的中国式智慧吧,计算力被卡脖子,那我们就从数学架构局这些维度上呢去打破瓶颈。 那 deep v 四的出现呢?标志着 ai 竞赛进入了第三条路,不拼资源,拼工程,拼算法,拼天才是吧?拼工程天才!如果你是开发者,千万别错过这波端测大模型。拼天才,是吧?拼工程天才!如果你是开发者,千万别错过这波端测大模型的红利,因为顶级模型 ai 不 再只是呃,超级算力实验室的奢侈品, 它会逐渐地在端测满足,在工作站桌面去解放巨大的生产力。那我们期待今晚这个除夕夜, deepsea 呃,拭目以待它的这个发布。呃,我们到时候会第一时间实测,告诉大家它带给我们的惊喜。我是 linus, 关注我,带你洞察 ai 科技生产力。

今天呢,陆续刷到不少和 deepsea 微四相关的信息,一开始呢,我真没太注意,结果越扒越觉得这事不简单。之前全网都在传 deepsea 微四春节可能要上线, 就因为这个消息,多少互联网公司的 ai 部门直接逆向过年,全员春节不回家,在公司轮班蹲发布,就怕错过这波行业大地震。 要知道腾讯的元宝是怎么起来的,他可是全网第一个接 deepsea 的, 结果呢?大家熬完春节刚结束调休返岗,这事居然可能爆出准信了。 据多方权威媒体进行实锤, deepsea v 四可能根本没打算春节发,而是本周有可能就要进行亮相了,最早可能就在十几个小时以后。更关键的是,这次发布时间刚好撞上全国两会重要窗口, 这时间点的分量不言而喻吧。今天三句话给你们扒透这次 v 四王炸硬货,全是行业最关心的核心亮点。 第一,一万亿参数,旗舰架构,直接拉满一百万 token, 超长上下文,整个项目代码库,长篇文档一次性喂进去, 就能精准处理泄露跑分里代码能力直接超过 gpt 和 cloud。 第二,独家 ingram 记忆黑科技, 把 ai 的 知识记忆和推理计算彻底分开,直接绕过高端 gpu 显存限制,还专门为华为含五这些国产芯片做了深度优化, 卡脖子也能跑出世界级性能。第三,性能冲顶流,价格却打骨折。此前 deepsea 的 api 报价只有海外大模型的二十分之一,甚至五十分之一, 这次 v 四大概率会延续这个超高性价比。所以说,这已经不是一次简单的模型更新,是国产 ai 在 关键节点向世界亮出的技术底气。 你觉得 v 四能不能正面硬钢 cloud 评论区,一起聊一聊?关注我,每次聊点不一样的。

deepsea v 四即将发布,国产 ai 彻底变天! deepsea 这一年多起子一再憋大招,继 r 一 发布后就进入禁锢期,不炒作不露言,默默把 v 三和 r 一 的能力融合,搞吸塑注意力,自研技术,每一步都在为 v 四铺路。 我们都知道,去年 deepsea 二一已亮相英伟达,单日股价暴跌百分之十七,蒸发六千亿美元, 创美股历史记录。华尔街当时就懵了,发出了灵魂拷问,中国公司用十分之一的成本做出通金模型,而我们每年砸几百亿还值吗? 这次的 b 四有几个重点,一是原生多模态的彻底补漆,不再是文本加视觉外挂的拼接,而是从底层打通文本图像视频,真正的实现跨模的一体化,一句话就能搞定文本图像的创作。 第二是一百万头盔的上下文封神,相当于一口气读完三题的全本,记忆力的准确率高达百分之九十八点二。三是四配国产芯片优先,四配华为升腾含糊机,而且推理速度提高三十五倍, 彻底打破英伟达 gpu 的 垄断。更狠的是成本革命了,推力成本降低至 gpt 四的七十分之一,比 api 便宜五十倍,真正的做到了便宜又好用。这一年,迪拜是一个没丑陋没画饼,默默打磨自己的架构, 就是为了这一刻。他证明了不靠追硬件,用聪明的算法,中国 ai 一 样能够做到世界一流。中国的 ai 已经不需要别人的眼光来劝自己的方向,让我们来一起见证中国的技术如何改写全球。

近日, ai 大 模型厂商 deep sec 宣布,其最新旗舰模型 deep sec v 四将优先适配华为升腾生态, 暂不向英伟达、 amd 等国际芯片厂商开放早期测试。这一决策标志着中国 ai 产业从备胎到主赛道的战略转折点,或将推动中国版 qd 生态的加速形成。 据多家媒体报道, deep sec v 四的发布打破了行业惯例,以往 ai 大 模型通常优先适配英伟达 gpu, 而 deep sec 此次选择将 v 四模型优先授权给华为升腾芯片,让硬件迁就软件,而非软件迁就硬件。 这一战略选择被认为是中国 ai 产业在硬件生态上实现自主可控的重要一步。华为云 modelars studio maas 平台已引入 升腾适配版的 deepsea 二 e 蒸馏模型,包括 deepsea 二 e distil 朗玛八 b 模型、 deepsea 二 e distil quinn 十四 b 模型 和 deepsea 二 e distil q wind 三二 b 模型,这些模型的部署与体验已开放给用户,为国产 ai 生态的构建提供了实际支撑。业内分析认为, deepsea v 四的这一策略将加速国产算力产业链的完善, 华为升腾芯片作为国产 ai 算力的重要,在内体,将获得更丰富的 ai 模型支持。同时, deepsea 也能够通过优先适配国产硬件,减少对国际芯片的依赖。 随着 deepsea v 四的推出,中国 ai 产业正在从备胎向主赛道转变,这一转变不仅体现在技术适配上,更体现在整个 ai 产业链的构建上。通过优先适配华为升腾, deepsea 正推动国产 ai 从应用层向硬件层的全站闭环发展。 目前, deepsea v 四的发布时间已临近,预计将引发国产 ai 生态的进一步活跃。这一事件反映了中国 ai 产业在面对国际技术封锁时, 正通过自主创新和生态构建寻找新的发展路径。业界普遍认为, deep sec v 四的发布是国产 ai 产业迈向自主可控的关键一步,将为未来中国 ai 产业的健康发展奠定基础。随着国产算力和 ai 模型的协调发展, 中国 ai 产业有望在国际竞争中占据更加有利的位置,推动中国 ai 生态实现真正的自主可控。