欢迎收看科技星探局, ai 圈本周迎来重磅消息, deepsea v 四即将正式亮相,预计本周发布原声多模态大模型。 这款新一代大模型从底层原声支持图片、视频、文本全模态生成,告别传统拼接式方案,跨模态理解更精准, 不管是图文创作还是视频内容都能一站式搞定。更值得关注的是, deepsea v 四还对国产算力提供深度支持,优先适配国产 ai 芯片,从底层完成协调优化,大幅提升国产硬件运行效率,助力 ai 软硬件自主可控, 从文本到多模态全能,从通用适配到国产算力深度优化, deepsea v 四有望成为国产大模型又一里程碑。更多上线细节与实测表现,科技星探局将持续关注。
粉丝421获赞777

deepsea v 四开源发布,国产大模型超越海外免费商用无限制 二零二六年三月八日,深度求索正式发布 deepsea v 四开源大模型,参数、规模、推理速度、准确率多,模态能力全面超越 g p p four turbo、 cloud three opus, 登顶全球开源大模型第一,且完全免费商用,无任何限制,支持本地部署二次开发,全场景应用瞬间引爆 ai 圈。很多开发者表示,国产大模型终于实现反超 免费商用,让中小企业、个人、开发者都能用上顶尖 ai, ai 普及不再是口号,中国 ai 正式领跑全球。 epson v 四的核心优势在于性能拉满加完全开源加免费商用三大王炸组合。性能方面,在全球权威大模型测试精准中, epson v 四得分全面领先国际推语、代码编辑、创意创作、语言理解能力远超海外顶尖模型,支持三十二 k 超长上下文,能处理百万字文档长宽代码,高清图片,响应速度比 gdp 四快两倍。 开源方面,完全开放模型权重训练代码部署工具,开发者可以随意修改优化二次开发,不用依赖官方打造专属 ai 模型。 商用方面,彻底免费,个人、企业、机构都能无偿使用,不用支付返钱费、使用费,降低 ai 使用门槛。 对于开发者来说,第四一四的开源是天大的福利。此前顶尖大模型都被海外垄断,要么闭园收费,要么限制商用,中小企业和个人开发者难以承受高昂成本。 第四一四免费开源,让所有人都能用上顶尖 ai, 不 管是开发 ai 助手、智能客服创作工具,还是工业应用、教育、医疗都能零成本接入,快速实现产品智能化? 同时,国产大模型支持中文语境优化,对中文理解更精准,更贴合国内用户需求,体验远超海外模型。对于企业来说, deepsea v 四能大幅降低智能化转型成本。传统企业智能化改造需要投入数百万、数千万, 接入海外大模型还要支付高额服务费。而 deepsea v 四完全免费本地部署,还能保证数据安全, 不用把数据上传到云端,彻底解决隐私顾虑。小微企业、个体户也能借助 ai 实现降本增效。比如自动生成文案、整理数据、回复客户、制作海报,一个人就能干十个人的活,提升竞争力。 行业层面, deepsea 微视的发布,标志着中国大模型从跟跑到临跑,打破海外技术垄断和价格垄断, 海外大模型厂商被迫下调价格开放权限,全球 ai 市场格局彻底改写。同时,完全开源免费会加速 ai 普及速度,催生海量 ai 应用落地, 推动千行百业智能化升级,形成完整的国产 ai 生态。国家也大力支持国产大模型发展,出台政策鼓励开源共享,让中国 ai 成为全球标杆。当然,也有人担心免费开源会影响模型后续迭代, 深度求索。官方表示会持续投入研发,不断优化模型性能,推出更强版本,依靠生态服务实现盈利,而不是靠模型收费。国产大模型的崛起,靠的是技术实力,靠的是开放共享,靠的是服务用户。 deep sec v 四只是一个开始,未来还会有更多国产顶尖大模型落地,让中国 ai 走向世界,服务全人类。

deepsea 威斯要来了,九号凌晨已经发布了终极技术报告。怎么说呢,他已经和华为深层国产算力配合有一段时间了。反正国产最好的东西肯定是要找华为合一下的,更何况 deepsea 还不止国产最好。我得到的消息是计划今明两天发布,最迟三月十五号。

全世界都在等的 deepsea 微四版本终于快来了,它会是 ai 时代的拼多多吗?大家好,这是动力枪极速版,一个直讲前沿科技的账号。就在昨天著名的 ai 开发的社区 l 站上,有博主发帖称,自己正在内测的 deepsea 微四 light 测试版在本周二悄悄升级到了零三零二版,公开测试的部分成绩已经接近了美国 astonropac 公 此基建模型 cloudsonnet 四点六,可以轻松地写出我的世界风格的游戏,相关的前端代码也非常的风格化。其他的测试人员也表示, deepsea v 四将在 app 和网页版首发,大概也是考虑到去年用户量激增对中国云基建产生的冲击, api 接口将暂缓发布,优先保证用户体验,要不然接口开了所有人一起用的话,又得跟去年一样挡机了。 那么问题来了, deepsea v 四能不能成为下一个国运级的 ai 产品呢?答案是肯定的,因为大众对它的期待已经达到了历史的新高度,公众已经不允许它失败了。 我们来看一组晚点统计的数据啊, deepsea 的 中国用户粘性非常夸张,在春节期间红包大战和 cds 二零的冲击之下, deepsea 的 用户使用时长在短时间内是暴跌的。但是随着其他厂家春节活动的结束, deepsea 的 人均使用时长和使用频次又再次回升,回到了绝对第一的位置。 再加上去年中国正体市场的推广,让大量的人手机里面都装上了 deepsea, 这样的数据足以说明 deepsea 在 中国是有绝对的基本盘优势的。 第二就是 deep stack, v 四版本的能力没有拉垮,早在上个月的 ai 混战中, deep stack 就 已经完成开发了,开始闭门测试了,有开发者和云浮厂商参与测试。根据测试人员透露信息,参数模型方面, v 四 light 版本估计为两千亿,而完整版的 v 四参数量可能突破一万亿,同时呢,也支持一百万 token 的 上下文知识库也更新到了去年的九月份, 在任务完成方面表现得更加出色。相关的测试也反馈啊,该版本在深层复杂的 svg、 矢量图形等高难度任务上表现惊艳。 v 四版的性能明显是优于现有的网页端和 app 端的模型的 各项泄露的跑分可以说是遥遥领先,然而却迎来了行业打假。部分媒体对流传的测试数据提出了质疑。新智源和多位技术博主的指出啊,网传跑分途中的数据存在硬伤,比如说这个数据竞赛得分在统计上是不合理的,权威机构也确认网传的数据是伪造的。然而面对泄露的信息和跑分传言, dpc 的 团队选择沉默,没有进行任何回应。 刚才我觉得啊 deepsea 团队还是一如既往的低调,他们是拿产品说话的。在过去两代模型里边, deepsea 一 直在做一件事,那就是用工程能力把成本给打下来。在中美 ai 技术竞赛中,中国从一开始的技术追随者在两段时间内就走出了完全不同的路线。美国现在走的呢,是以 open ai、 algorithmic 和谷歌主导的高端技术路线, 模型更大,训练成本更高,系统更封闭,但是呢,价格要更贵一些,可以理解为是资本密集型 ai。 而像 deepsea, deepsea、 kimi, mini max 等公司在遭遇算力紧张的大背景下, 思考如何优化成本。他们用上了专家混合模型架构,压缩推理成本,优化训练效率,最终结果就是百万投放的成本已经降到了接近一到两块钱人民币。虽然说相关模型的性能可能只有国外旗舰模型的百分之九十,但是它的成本却只有对方的百分之十, 深受普通用户和重要企业的欢迎。所以啊,这个事就非常的,中国制造不拼谁最强,拼的是谁最便宜。好用这种方法呢,也打破了很多人的陈旧认知,美国在定义 ai 的 上限,而中国正在定义 ai 的 价格。 东方商业历史,决定行业规模的不是上限,而是价格,这跟拼夕夕的逻辑是一模一样的,只有让更广大的用户用上了 ai, 才能够继续谈 ai 技术突破和市场规模的事。所以啊, deepsea 微四版本,我既希望他快点来,又希望他不要那么着急。各位,你们期待 deepsea 微四吗?欢迎在评论区里面一起交流哦,记得点关注我们,下次见,拜拜!

随着二零二六年三月来临,全球 ai 社区的目光都聚焦到了同一个搜索词, deep seek v 四 release date。 据知, deep seek v 四将于二零二六年三月上旬正式发布,这不仅是一次模型版本的迭代,更是国产 ai 试图彻底摆脱 c u d a 依赖,实现算力与算法深度自足的里程碑。 最新的信息显示, v 四的内部开发系列代号为 silicon light, 这个代号暗示了 deep seek 对 新模型灵活性与海洋级吞吐量的追求。 与 v 三相比, v 四不再只是一个强大的文本模型,而是一个原生多模态巨兽,尤其在深层高精度 svg 图形和理解复杂视觉逻辑方面展现出了跨代级的统治 力。为了应对不确定的算力封锁, deepsea 团队巨船已与华为达成战略级合作。 v 四在训练阶段就针对升腾算子库进行了原生重构。 这种软硬一体的深度垂直优化,使得 v 四在华为芯片上的运行效率理论上能达到甚至超过同规格模型在 h 一 百上的表现。即将出现的 deepseek v 四,标志着国产大模型正在从追赶者变为定义的制定者。

哎呀,圈啊,又出大消息,海外网友爆料啊, deepsea v 四轻量版的海思正在偷偷内测,还没发布呢,就已经把国产国行格局彻底改写。今年春节前后,智普 mini max、 mini 扎堆发新版,智普呢,深耕智能体, mini max 搞内容生产,拼命冲脱更亮。只有 deepsea 最反常,这次海思最狠的不是多模态,而是百万级的上下文加超强的推理,还干了一件颠覆行业的事,优先给华为等国产芯片做了适配, 没有给英伟达 imd 放预览版这部戏呢,太绝了!以前国产的大模型都是先适配海外硬件,再往国产芯片上去读, 性能打折扣。现在的 deepsea 直接从底层的原生适配升腾,相当于啊,给国产顺利量身定做,一旦跑通呢,就是全占国产 i r 商业化的里程碑。 看现在,差距还在 open a r, hyperpig 依然是天花板,但中美的 a r 已经走了两条路,我们呢,拼开源效率,产业落地。 deepsea 正好产在中国路线的最核心,绑定国产算力,重新定义 a r 的 基础设施,从拼参数到拼落地,谁先扎进真实业务,谁就拿到第一张船票。大家觉得 deepsea 这是能重创海外生产的垄断吗?

朋友们,现在已经是二零二六年三月份了啊, deep sec v 四的模型正式发布日期呢,还没有对外公布哎,网传呢, v 四的 live 版本呢,已经在测试了哎,有测试人员声称呢,这款模型的综合能力啊,非常非常的强悍, 一次性呢,能处理一百万 toc 的 数据量,哎,一部九十万字的小说呢,可以进行完整的一个阅读。据传这款大模型呢,首发将搭载在网页端跟 app 上,它不会出现大面积的网络攻击,哎,这一点呢,非常非常的友好。 据说这款模型的上下文理解能力呢,哎,来到了惊人的一百万逃坑,九十万字的小说呢,他可以无缝的进行上下文的阅读,他将会适配咱们国产的芯片,也就是华为的升腾 ai 芯片呢, 算力成本非常的低,但是效果呢,很惊人。具体上线了以后,这款大模型会给我们带来哪些生活上,工作上的帮助呢?我们拭目以待呀。

据可靠消息, deep c k v 四将在三月份正式发布,以下四个方面值得关注,一、跳过英伟大首批访问权限给了国产芯片,内部指定华为优先适配。二、 极致优化,专为代码生成和复杂软件工程任务设计,对标科 out opus 四点六三、超强性能,采用末架构延伸多模态推理,百万级 tokens 上下文窗口。 四、成本压榨,延续高性价比路线, a p i 定价也低于同级闭源模型。看今天的行情,资本市场已提前给出效果预期。

正月十三号,我是数码博主文澜公子,今天咱们聊一个,二零二六开年 ai 圈最大炸弹 deepsea v 四全亮铺光, 不管是技术参数、性能、跑分,还是战略选择,都直接改写国产大模型的格局,甚至让海外巨头都坐不住。 先把时间线说清楚。二月十一日已经开启辉度测试,网页端和 app 都上线了,百万上下文体验版正式发布定在二零二六年三月第一周,节奏非常快,这次不是单款模型,而是双版本齐发。轻量版 v 四 light, 代号 c i n 杠 light 海石清亮版,现在闭门内侧,后面再上完整版 v 四旗舰版,一清一主,覆盖个人用户与企业场景。最炸的还不是发布节奏,是技术直接拉到全球顶流。第一个突破一百万 tokins 超长上下文,直接是上一代 v 三点二的近八倍, 普通人不用记数字,我翻译一下能一口气吞掉一整本书。三十万行完整代码,酷,全程不丢信息,逻辑不乱, 读得完记得住,答得准,不管是律师看卷宗、程序员改项目,学生读论文,直接一步到位。第二个突破,编程能力全球登顶,内侧 s w e 杠 bench verified, 跑分百分之八十三点七,直接超过 g p 杠五点二, koopas 四点五, 这是国产大模型第一次在权威编程基础上压过海外顶流。不止跑分高,复杂工程调试、跨文件关联、漏洞定位、字动生成、测试用力,全都是企业级刚需程序员,直接多了个全能队友。 第三个突破,三大底层架构创新,听着专业,我用大白话讲杠,流行约束,超连接 mhc, 让大模型跑得更稳更大, 还不诈算力杠、印记条件、记忆 ngram 给模型装了超级海马体常文本,不忘精准调取杠,稀疏注意力,制定关键信息,速度更快、成本更低、响应更跟手。三者合一,不是堆参数, 是从架构上重新做模型,效率、成本、稳定性全面升级。第四个突破,原生多模态文本、图片、文档、图标、代码截图,一起输入 osr 精准识别图标,直接解读截图,秒转代码不用切,工具不用拆,步骤一站式搞定,办公、学习、开发都更顺滑。 但这次最有分量、最有态度的不是技术,是战略转向。以往大模型更新,都会先给英伟达、 a m d 等海外芯片厂预发布版本,优先适配海外硬件。但 deepsea v 四完全反过来,先开放给华为等国内芯片厂商 深度适配、联合优化,没给美系芯片厂商权限,这一步意义太大。国产大模型加国产算力,芯片从被动兼容变成主动协调,算力利用率、推理效率、成本全面优化,真正走向自主可控、软硬一体, 不再被卡脖子。再看性价比,直接卷死行业。 a p i 定价网传每百万 t 仅零点二七美元,差不多是海外顶级模型的四十分之一。企业用得起,个人用得爽,彻底打破好用就贵的惯例。 同时, svg 使量图生成、企业级 a p i 集成,多端适配全都拉满。 gigahub 近期密集更新,明显是为大规模商用做准备。我给大家总结一下, deepsea v 四到底意味着什么。第一, 技术上不追平,直接超越,在掌上下文、编程能力这两个核心赛道站稳全球第一梯队。第二, 生态上换赛道,带头走国产模型加国产算力的闭环,给整个行业打样。第三,普会上降门槛, 用极致低价把顶级 ai 能力放开,让中小团队、个人开发者都能用得起。以前我们总说国产 ai 在 追赶,这一次 deep cq 一 四直接从跟跑跳到领跑,不只是参数好看,是真解决痛点,真建立壁垒,真扛起自主可控的大旗。 二零二六年注定是国产 ai 爆发的一年,而 deep seek v 四就是开年第一声惊雷,正月十三,顺心顺意。你平时用 ai 最多是写文案、写代码还是读长文档?期待 v 四正式上线吗? 评论区一起聊聊!

当整个 ai 圈还在为千亿参数模型的算力消耗叫苦不迭时, deepsea v 四抛出了一枚重磅炸弹。 万亿总参数加三百二十亿激活参数的末混合专家架构,直接改写了大模型的发展规则,这背后是对传统稠密模型的根本性颠覆。过去大模型陷入 参数竞赛的死循环,要提升性能就必须扩大参数量。但筹密模型每次推理都要激活全部参数, 导致计算成本延迟与参数量呈限性增长。训练一个千亿参数筹密模型需要数千张 a 一 零零 gpu 运行数月,单条推理请求的算理消耗堪比普通用户一年的用电总量。而末架构的核心魔法在于 吸出激活,将模型拆分为数百个独立的专家网络,通过门控网络动态选择与当前任务最相关的一到二个专家参与计算。就像医院的专科门诊, 感冒无需惊动外科专家。 deep c v 四的万亿参数是全科医疗资源库,而三百二十亿激活参数是 对症的专科团队。这种设计让它的总餐数量达到 g p t 四的五倍以上,实际计算量却仅为传统稠密模型的三分之一, 推理效率提升三倍以上。更关键的是, deepsea v 四采用了二零二六年最新的流行约束超连接 m h c 门控技术,让专家匹配精度提升百分之四十,彻底解决了早期某模型专家闲置的负荷均衡难题。 这意味着它的万亿参数不是虚有其表的数字,而是真正能被高效调用的潜在智慧。如果说末架构是效率革命, 那么一百万 tucker 上下文窗口加原生多模态,则让大模型的能力边界实现了次元突破。先看一组震撼的数据, 一百万 tok 相当于七百五十万字的巨著,是 g p t 四上下文窗口的二十倍,足以容纳整部红楼梦加三国演义的文本量,或是十小时的会议录音,转写 一千页的科研论文、完整的工业设计图纸集,这背后攻克了三大技术难关。计算复杂度突破。通过分块处理与注意力缓存技术, 将 transformer 的 o n 平方复杂度优化为近似线性,避免了百万级叙略所需的 r t b 显存占用。长距离依赖建模。采用动态位置编码与关键信息铆定机制, 让模型能精准关联五百亿前的细节,解决了长文本处理中的信息衰减问题。数据训练创新构建了全球首个百万 tok 级高质量语料库,含盖学术、工业、医疗等领域, 确保模型在超长文本场景下的连贯性与准确性。而原生多模态则彻底告别了 文本加图像的简单拼接。 deep c v 四的多模态能力从预训练阶段就深度融合文本、图像、音频、视频、数据共享同一套专家网络,能够理解图表中的数据趋势加报告中的文字结论 加演示视频中的场景细节,真正实现了跨模态场景重构。例如,它能直接解析一段包含实验视频数据表格、论文、论文的科研资料,自动生成完整的实验复盘报告, 这是传统多模态模型无法企及的高度。 deepsea v 四的技术突破正在引发全产业链的连锁反应,其核心影响在于 高性能与低成本的结偶。对于企业用户而言,最直观的改变是成本革命。根据 deep speed mod 的 实测数据, 同等性能下, mod 模型的训练成本降低五倍,推理成本降低九倍。这意味着中小企业无需再为使用大模型支付天价 a p i 费用,百万滔滔的长文档分析成本从数千元降至百元起。工业场景中 ai 质检、 设备运维等实时性要求高的任务,可通过端测部署梦模型实现毫秒级响应,功耗降低百分之四十。科研机构能以极低成本处理基因组学、 天体物理等领域的超长系列数据,加速前沿研究进程。具体到落地场景, 三大变更已经显现,办公领域处理一千页的合同文本,自动提取关键条款、识别风险点,效率提升十倍。医疗行业整合患者完整病 历、文字影像检验数据,生成个性化诊疗方案,解决多元数据割裂问题。工业制造解析整套设备图纸加运维、日制 加实时传感器数据,预测故障风险,并给出维修指导,停机时间缩短百分之五十。更重要的是, deepsea v 四宣布优先向华为等国内供应商开放测试, 推动算力与模型的自主可控。这意味着中国 ai 产业将在某架构的赛道上实现换道超车,无需重复传统稠密模型的算力依赖,直接进入效率驱动的发展新阶段。 deepsea v 四的发布,标志着大模型从参数均被禁赛, 进入效率革命时代。其核心启示在于,模型的强大不在于参数多少,而在于参数的利用效率。当万亿参数可以被三百二十亿激活,参数高效驱动,当百万 token 上下文成为标配。当原生多模态打破数据壁垒, 大模型将真正从实验室工具走向普惠性基础设施。未来我们可能会看到,单侧 ai 设备搭载轻量化梦模型,实现离线处理超长文本与多模态数据。行业大模型的训练成本降至现在的十分之一, 每个吸粉领域都能拥有专属的高性能模型,跨领域协调成为常态。 ai 能同时处理法律文档、工程图纸、医疗影像等多类型数据,成为真正的通用智能助手。当然,挑战依然存在, 百万滔氣场景的推理延迟优化、多模态数据的隐私保护、行业及专家网络的定制化开发都是需要持续攻克的难题。但不可否认的是, deepsea v 四已经为大模型的发展指明了方向,效率才是 ai 规模化落地的核心密码。 当技术的翻离被打破,大 ai 的 能力与成本达到平衡,一个万物智能的新时代正在加速到来。

朋友们,见证历史的时刻又要到了, deepsea 微四预计下周正式登场!距离上次 deepsea 发布重大模型 r 一, 已经过去了整整一年。这一年里, ai 行业如火如图, open ai 连推、数代 gbt cloud 杀入顶级阵营,谷歌杰米奈疯狂迭代,整个硅谷都在疯狂烧钱。 而 deepsea 呢?他安安静静的待在杭州,不开发布会,不做路演,不搞炒作,创始人梁文峰也几乎不在任何公众场合露面,他甚至拒绝了自然杂志的官方采访请求, 苦心孤注一年,就是为了 deepsea 微视。据说这将是一款支持图片、视频和文本生成的原声多模态大模型。过去, deepsea 模型主要是文字选手, 写代码写文案一流,做推理一绝,但图像和视频能力一直是短板,而微视将能够同时理解和生成图片、视频和文本,不仅强,它还开源。 去年 deepstack r 一 模型发布时,不仅核心模型完全开放,还发布了一份内容极其丰富的说明书,详细公布了自己的技术架构、训练过程和训练数据配方, 直接让全球 ai 玩家都惊掉了下巴。这等于是在说,想学吗?想学我教你啊!这份从容以自信。据说这次微四的发布仍将延续。 更炸裂的是,微四没有选择跟英伟达做优化适配,而是优先与国产芯片厂商合作,针对国产 ai 芯片进行了深度调优。这是微四最具战略意义的突破。 据路特社的报道, deepsea 这次根本没有向这家美国芯片巨头提供接入权限,这打破了 ai 行业长久以来的惯例。过去,任何一个顶级大模型发布前,都会先跟英伟达做性能优化。这一次, deepsea 直接反向操作,明明白白的告诉全世界,我不挑芯片,也能跑出世界一流的模型。 消息传出后,周二英伟达的股价盘中跌幅一度超过百分之三。他们靠着天价芯片和故事堆起来的万亿市值,搞不好又要它。毕竟这种被掀桌子的剧痛,他们不是没有体验过。 去年 deepsea 二一发布的当天,英伟达股价单日暴跌百分之十七,市值蒸发约六千亿美元,创下美股历史最大单日跌幅。 如今微股历史最大单日跌幅。如今微股的出口管制政策 来了个啪啪打脸。 deepsea 等于在说,你不是不给我最顶级的芯片吗?那就是在逼着我思考更聪明的方法,更高效的训练策略,更精妙的价格设计、更极致的资源优化。而这些创新一旦形成,就是你的末日。下周,我们将拭目以待。

哈喽,大家好,欢迎收听我们的播客。然后今天呢,我们要聊的呢是这个 deepsea v 四这个多模态的大模型 马上要发布了,而且呢它是深度适配了华为和韩五 g 的 这些国产的芯片。我们会在今天的节目当中给大家聊一聊这个 v 四到底有哪些升级的地方,尤其是在多模态和对国产算力的这个适配上面。我们会再聊一聊背后的一些技术的提升啊,是哪几个技术提升带来了这样的效率的提升。 最后呢,我们也会给大家聊一聊这个东西的发布,对于整个产业链,包括对于投资可能会带来什么样的影响。 ok, 那 我们就开始今天的内容吧。我们先来聊第一个部分啊,就是这个 v 四的这个亮点揭秘啊,多模态和这个国产算力的适配升级。 咱们先问第一个问题啊,就是这个 deepsea v 四在多模态方面到底有哪些突破性的表现?这个 v 四它最大的一个特点就是它是原生的,支持文本、图像和视频的 多模态的输入和输出,就是它把这三个东西在底层就打通了。对,它不再是说像以前一样,你要靠一些外挂的东西把它拼在一起,对,它是真正的一体化的。哦,那这个确实是比 比那种拼拼凑凑的方式要强多了。对,没错,然后它在这个图片加文字的这种联合的处理上面是非常强的,你无论是做这种 ui 的 设计稿转代码,还是做这种复杂的分析,它的准确率都是比 g p t 五三 codex 要高的, 它甚至可以做到根据一段描述直接生成高清的图像或者视频,它的这个上下文的窗口可以支持到一百万 tokens, 所以 它可以处理非常非常长的这种 输入,而且它的这个多模态的应用场景就非常非常的广泛了。然后这个新的这个模型在跟咱们国产芯片的适配上面有哪些具体的进展?这个它这次是专门跟华为的升腾还有韩五 g 还有海光它们几件做了深度的适配。 然后他的这个适配率啊,在常用的这些国产的芯片上面都可以达到百分之八十五以上,就非常非常高了。这个就已经是那这个实际运行起来效果怎么样?在升腾九一零 b 上面的话,他的这个推理速度可以达到八十托克斯每秒, 然后他的这个显存的占用也减少了百分之六十,他的这个整体的成本是使用英美达的方案的三分之一,甚至可以更低, 所以这个就是真正的让企业可以大规模的去使用这种国产的算力,而不需要再依赖进口的这种高端的芯片了。那就是说这个 deepsea 微四到底给行业和社会带来了哪些真正的价值呢? 就这个模型他跟我们国产的芯片做了深度的适配之后,就可以让政企、金融制造这些关键的行业彻底的摆脱对国外的这种硬件和算法的依赖,然后 数据的安全和自主可控就大大提升了。那对于一些比较小的公司呢,或者说一些创新型的团队呢,就是因为它的这个推理的成本降低到了 g p t 四的十分之一以下, 所以就是说中小公司也可以用得起这种高级的 ai 了,然后创业门槛也大幅的降低了,就是这个整个的国产的这个 ai 产业链的竞争力和想象空间也被打开了。我们接下来就聊一聊这个技术底牌啊,就是这个 v 四到底是靠哪些技术 大幅的提升了效率?对,那我想这里面就不得不提的就是这个 ingram 这个条件记忆架构到底它带来了哪些具体的性能上的变化?这个其实就像是给这个大模型外挂了一个超大容量的,而且是高速的这种知识库,就是它把这个大部分的这种静态的知识都存到了这个 呃便宜的内存里面,然后让这个 gpu 可以 专注地去做这个推理,所以就是说它的这个硬件的压力就小了很多,所以说就是说这个模型的这个反应速度和这个内存的使用都有很大的提升。没错没错,就是它这个呃 十亿参数的这种大模型,你也可以在普通的消费级的显卡上面去运行了,然后他的这个推理的成本也下降了九成,这个查找的速度也几乎是不随这个知识库的大小而变化的。对,就是他可以支持这种非常大的上下文的这种任务,也会非常的稳。 它的这个在这种长文本的这种测试里面,它的准确率是比同类的这种模型要高出来一大截的。然后呢这个 mhc 这个流行约束超连接,这又是个什么黑科技?它到底给这个模型带来了哪些具体的提升?这个技术其实它就是一种 高速公路的这种机制啊,就是他可以让这个信息在这个深度网络里面可以非常高效的去穿梭,嗯,然后他也可以自动的去防止这个信号变得过大,或者是说这个训练变得不稳定,所以他就是让这个模型可以非常稳定的去学习到非常复杂的一些关系, 听上去就像是给这个模型的这个大脑加装了一个稳定器,没错没错,而且他不光是这个呃跨文件的这种推理的能力是翻了三倍,他的这个 训练的过程也更加的平稳,然后他的这个对算力的利用也更加的充分,他可以把这个硬件的这个潜能都压榨出来。嗯,是模型的这个准确率和实用性都是有大幅的跃升的。 这个所谓的双轴稀疏架构和这个深度的国产芯片的适配,这又给我们带来了哪些具体的性能和实用性上面的变化呢?这个双轴稀疏架构呢?其实他就是,嗯把这个模型的这个静态的记忆 和这个动态的计算啊分得更清楚。嗯,然后他会让这个模型在做这个推理的时候啊,只激活他真正需要的那一小部分的参数,所以他的这个效率会更高, 同时呢他的这个能耗也会下降非常的明显啊。嗯,他的这个训练的能耗是可以降到原来的三分之一,嗯,推理的速度是可以比这个 传统的这种稠密的模型要快两倍以上,听起来对于实际应用来说,这个效果应该很直观,没错,而且他跟这个国产的芯片做了深度的适配之后啊,嗯,这个算力的利用率是可以飙到百分之八十五以上, 就是他的这个推理的成本是可以压到这个国际上的这种主流的大模型的七十分之一啊,就他既可以省钱,然后又可以让这个本地的部署啊,包括这个产业的落地啊,都变得容易了非常多。 咱们来来到第三个主题啊,咱们来聊一聊这个 v 四的发布,到底给这个产业链带来什么样的资本的震动。首先第一个问题啊,就是这个大模型的升级,到底是怎么 让这个国产的这个算力的生态一下子就破局了?这个我觉得就是以前大家做这种大模型的适配,都是先把英伟达的那一套弄好了,然后再考虑国产芯片。但是这次呢,这个 deepsea v 四,它是一开始就在国产的平台上做的底层的优化, 就他的这个算子啊,包括他的这个推理框架,都是为了华为的升腾含五 g 的 思源这些芯片量身定做的,所以他的这个效率是可以直接提升几倍甚至几十倍的啊,这个 就直接把这个国产算力的这个性能天花板就给打开了,这听上去已经不只是技术突破了,感觉像是产业格局的重塑。对,因为以前就是大家虽然说有这个大模型去协同,所以你始终是一个配角, 但是现在就是相当于这个旗舰的大模型跟你这个国产的芯片深度绑定之后,你这个算力的利用率一下子从百分之六十提升到了百分之八十五以上。然后呢,这个企业的部署成本一下子就减少了将近三分之一, 大家也不用再去等这个英伟达的那一套了,就可以直接去推动这个硬件和这个模型一起去升级,就彻底的把这个主动权就掌握在了自己手里。就是说这个 deepsea v 四的发布,具体会让产业链上哪些公司最先尝到甜头?最直接的就是芯片端,就是华为的升腾, 还有这个韩五 g, 还有海光信息这几个就是大家的这个订单和出货量都是跟着飙升的,然后包括这个思源的这个五百九十,还有这个 d c u 这一些 就是国产的这个高端的芯片在多模态推理上面性能也是翻了几倍。服务器和这个硬件层面的服务器的话,就是整机的厂商,像华坤振宇,然后还有这个拓维信息, 还有这个神舟数码,他们都是这个出货量大幅增长。那当然这个配套的这个零部件,像这个高速的连接器光模块,还有这个液冷散热 这些也是跟着一起量价齐升的。软件端的话就是这个软通动力,还有这个金山办公,还有这个科大讯飞, 他们都是在这个大模型和行业应用的融合上面是收益非常明显的。就是说这个 deepsea v 四的发布到底给这个整个资本市场带来什么样的新的变化,就是这个国产的这个算力产业链,因为这个消息就是全面爆发嘛, 就从这个芯片到服务器到这个应用这一条龙的,这个龙头公司的股价都是大幅上涨,然后大家的这个订单和业绩都是有很明显的提升, 这整个板块都被带动起来了,这会不会彻底改变国内的这个 ai 投资的格局呢?完全会啊,就之前大家都是围着这个英伟大转嘛,现在大家就是说国产的这个算力的公司变成了主角,然后大家的这个资金和这个技术都在往这个 本土的这个生态去聚拢。所以大家就是说这个自主可控和生态的卡位会成为接下来几年的一个新的主线,所以就会有很多的投资机会不断地涌现出来。对,今天我们聊了这个 deepsea 微四的这个多摩态的能力,聊了他对国产算力的这个推动, 然后聊了他可能会带来的一些产业和投资的机会。那其实说白了,这一波升级它不仅仅是技术的进步,它更是中国的 ai 产业在主权和生态上面的一次全新的洗牌。 所以说这个东西到底能不能够真的去重定义这个 ai 的 边界,我们其实是可以期待一下的。好了,那么这期节目咱们就到这里了,然后感谢大家的收听,咱们下期再见。拜拜。

deepsea v 四下周就要发布了,即将成为第一个不需要外国芯片也能跑的世界级 ai 模型。作为原生多模态大模型,能同时处理图片、视频和文字,而且专门针对国产芯片做深度优化。你可能还记得去年 deepsea 发布 r 一 的那天,英伟达股价暴跌百分之十七,一天蒸发了将近六千亿美元, 创下美股单家公司历史最大单日跌幅。当时华尔街的人都在问一个问题,如果一家中国公司用十分之一的成本就能做出同等水平的模型,那美国科技巨头每年砸下去的几百亿美元还值吗?这个问题到现在都没有答案,而 v 四来了,问题可能会变得更尖锐。为什么这么说? 第一, v 四是真正的多模态。过去 deepsea 主要是文字选手,写代码推底一流,但图像视频能力是短板, v 四直接补齐了这块,能同时理解和生成图片、视频文本。 第二,上下文窗口据说达到了一百万头,啃什么概念?相当于能一次性读完好几本书,还记得住内容。第三,也是最关键的,它绕开了英伟达。 过去 ai 行业有个不成文的规矩,任何顶级大模型发布前,都要先跟英伟达做性能优化。这次 deepsea 反向操作,优先跟国产芯片厂商合作。 这意味着什么?中国 ai 正在从用别人的芯片刨自己的模型,走向用自己的芯片刨自己的模型。更有意思的是,就在 v 四快发布的时候,美国那边也没闲着, astropics 跳出来指控 deepsea 搞工业及政流攻击,说他们偷了 cloud 的 能力,结果网友发现了一个 bug, 用中文问 cloud, 你 是什么模型?他居然回答,我是 deepsea。 v 三, 你刚指控别人抄你,转头你的模型就在中文环境下认了别人当爹。那条推文下面几千条评论,超过七成都在嘲讽。但这种舆论战的意图很明显,就是在 v 四发布前,先埋下他们只会抄袭的框架。不管 v 四表现多好,都想引导到负面解读上。 为什么他们这么紧张?因为如果 v 四再次验证 deepsea 的 效率优势,用更少的计算资源达到世界一流水平,那胡尔杰就要再次面对那个令人不安的问题。 还有人爆料说, v 四的 api 成本会比竞争对手便宜五十多倍,这是什么概念?就是别人花五十块钱能做的事,用 v 四只需要花一块钱,这才是真正让人害怕的地方。回头看, deepsea 这一年多的路径其实很有意思。 r 一 发布后,他们进入了静默模式,没有新的旗舰模型,没有发布会,没有路演,没有炒作,就在杭州安安静静的磨刀,一次次小版本迭代,把 v 三和 r 一 的能力融合,引入稀疏注意力机制验证、自验证技术、发布架构。论文每一步都在为 v 四铺路。美国的出口管制,试图用卡脖子的方式遏制中国 ai 发展, 但 deepsea 的 存在,本身就是对这种策略最有利的回应。当你无法获取最顶级的芯片时,就被迫去思考更聪明的办法,更高效的训练策略、更精妙的架构设计、更极致的资源优化。而这些创新一旦形成,价值远超任何一款芯片,有竞争对手阵营的研究人员私下承认, v 四可能一发布就是登顶开元第一。 但真正值得铭记的是一个古老的道理,再次被验证。封锁从来不会杀死创新,反而迫使创新在中国大地上野蛮生长,结出属于自己的果实。下周的 v 四发布,全世界都在看,而中国 ai 已经不需要别人的目光来确认自己的方向。

我跟你讲啊,这个深度求索 deepsea 微四要来了,这一次啊,直接让美国的英伟达这些顶级的芯片公司坐了一次冷板凳啊。 因为呢,有业内人士透露啊, deepsea 微四的版本在现在的预览发布阶段,直接跳过了英伟达和 amd 等美国的这些 ai 芯片公司,而让国内的华为、韩五 g 等厂商提前至少两到三周进场来进行深度的适配。 这个为什么这么重要呢?以前呢,都是国产的人工智能啊,追着英伟达的模型去跑啊,人家出了一个模型呢,我们的国产模型就赶紧去跟进。 而现在呢,轮到了我们的国产的模型,在我们国产的芯片上去提前预热了。而且根据预测啊,国产的芯片的软硬件性能效率飙升之后的话,算力的利用率将从百分之六十提升到百分之八十五, 部署的成本呢,砍到了英伟达方案的三分之一。所以啊,这不光是一个大模型的升级,更是我们国产算力的一次商业突破呀。 另外呢, deepsea v 四作为一个多模态的模型,支持图片、视频和文本的生成,而且关键在于说,通过国产芯片的适配,它在华为的升腾、韩五 g 等芯片上面跑出来了,高效率推理的成本大幅度的降低。 而之前呢,有消息透露的测试就已经显示了, v 四在代码优化和视觉还原上的表现非常惊艳。所以这就证明了,国产芯片不光能够接得住我们的国产大模型,而且能够超预期地跑出点火花来。 所以啊, deepsea 这一次呢,是在全世界的面前放了一颗亮亮的信号弹,明确地表示,我们的国产大模型可以完全抛弃掉英伟达的 ai 芯片。 而在过去的一段时间里面呢,总有人表示啊,如果说 ai 离开了英伟达的芯片,那么 ai 就 玩不出什么花样。而现在呢,我们国产的 ai 芯片用实力去打脸了。而且啊,这次我们还让外媒给盯上了,他们就表示呢,这说明国产的芯片和大模型很有可能会一起联手走向一个新的生态闭环。 所以啊,这就已经不再是一个追赶的游戏了,而是我们中国 ai 定规则的开端。今年的年初呢,中国大模型的掉油量已经碾压了美国,全球前五大的模型当中,中国占据了四席。 而为了实现这一点呢,很重要的原因就是模型加芯片的自主闭环,国产芯片从低端市场突围,现在更是直接卡位了 ai 大 模型所需要的高端算力。所以啊,之前英伟达一家独大不可战胜的神话,似乎啊,已经完全被动摇了。 国产芯片厂商硬钢英伟达其实是一场不动声色却又波澜壮阔的革命啊。所以说,真的啊,国产芯片的时代真的要来了,你们同意吗?别忘了点点关注,文案内容来自我们公司自研的科研 asv 体,科研 asv 体,打造有价值的自媒体。

ai 圈大地震, deepseek v 四官宣下周上线,这一次不是简单升级,是降维打击, 原生多模态文本图像视频一站式搞定,不再是插件拼接百万上下文一百万偷看窗口整本书几小时视频随手拿捏。 国产逆袭,全面适配华为升腾等国产算力打破垄断家人们,国产 ai 终于站起来了,这波红利必须吃满!准备好迎接 v 四了吗?

hello, 兄弟们,看到新闻没有?金融时报 n c b c 发布了一个新闻, deepsea v 四即将在下周登场。首先呢,会不会一定在下周登场?不确定啊,有可能这个 deepsea 就 就不顺着老外呢,是不是可能推迟啊?也有可能 有别的想法,都是有可能的啊,这个模型呢,是一个原生的多模态大模型。什么叫原生多模态呢?以前呢,我们要完成一个多模态任务, 他,他的前端可能是个 ocr, 中间是个大圆模型,后端呢是一个。呃, defilient 全层膜,是一个扩散模型啊,深层次的模型 啊,它由多个模型组成的。那原生的呢?就是整个多模态的这个过程都在同一个网络结构里面啊,这就是有点像这个。嗯,这个自驾方案里面的端到端啊,那原生多模态模型呢?它可以做很好的。呃,这个什么呃优化啊,可以 可以去啊,这个叫什么?压缩模型的尺寸啊,可以做同步的优化。当然这里面难的是什么?就像我之前说的 dipstick 为什么会推迟啊?这是有一点点推迟的。第一个呢,算力可能不够。第二个 啊,就是你做多模态的模型啊,这个数据啊,包括我们叫呃语言模型和多模态之间的对齐,问题是要花更多的时间和成本的。那么 deepsea 微四啊,即将发布,它带来了什么东西呢?首先我看到网络上说第一个它的成本会特别低啊,是世界主流模型的 啊,比世界主流模型要低五十倍,那这个可想而知。那这些像 open club 这种龙虾啊,龙虾这种 agent 会火起来,因为龙虾大家都知道,非常的好 talk 呢,第二个呢就是,呃,它是一个 优先对国产芯片进行了优化的模型啊,国产芯片,那国产芯片可能有华为、韩五 g, 海光,包括昆仑星啊,好多家国产国产芯片,虽然没有说他到底有没有跟英伟达芯片是不是绝对没有优化,但是他这一次优先 优化了,适配了国产芯片。我在去年的某个视频说了 d p c 给他,下一阶段的视频中啊,下半 d p c 给他,下一个模型中就必须要针对国产模型进行优化,你们可以去翻一下我的视频啊。另外一个呢,就是 这个东西呢,可以向大家可以什么像展示了一下,我们就像华为去发布它的超级电一样,算是展现展现了一个我们中国人的聪明才智啊,我们在有限的算力资源的支持下做出了更好的 啊,至少是不弱于他们顶级模型的模型啊,这个确实非常提气,呃,按照去年过年的时候的那个状态啊,这个纳斯达克是不是又要受一点点冲击,有没有可能会哎,抖一抖啊,至少要抖一抖啊 啊。然后 deep tech 我 们看到今年做了很多优化,什么 mhc 啊,流行约束超连接啊,什么 ngram 呢,是吧?什么 mla 啊,这一步一步都会用在它的新模型里面。确实, 另外一个甚至已经有人爆出来用 deepsea v 四 light 一个版本进行了这个多模态的生成,它生成的效果还相当的不错,那有可能是 deepsea 大 版本 v 四版本下面的某个小模型,某个,呃,这个蒸馏模型啊,那 这个就变得非常的真了啊,所以,所以我觉得他说的在编码能力比 gpt 和 cloud, 就是 andropic 的 那个 cloud 更强,这是有迹可循的啊,这是有迹可循的。另外啊,我比较好奇的一件事情是,为什么这类新闻或者这类信息老外都先知道, 哎,这个比较好奇啊,可能是因为我们村内这个没办法说,大家可能都知道,也不,也不太愿意说啊,不太敢说,但是,呃,基本上可以确定这个 dc 飞四会在最近的时间内发布,嗯,希望大家期待啊,这样对国产的 ai 应用, 对 ai agent, 或者说对我们国产的 ai 的 硬件,我觉得都是极大的有好处的啊,因为啊,现在我们国产芯片, 特别是推理芯片啊,也是急需要更多的应用场景去落地啊,这么多芯片公司也上市了这么多公司,包括我们中兴国际的产能,包括我们中兴国际现在对 ai 芯片,大尺寸的 ai 芯片的这个 生产的能力啊,也慢慢的在我个人猜测啊,在慢慢的这个提升,所以今年是我们国产芯片 ai 芯片 ai 应用的一个。我不说元年吧,爆发年也好像也不贴切啊,至少是一个很爽的一年啊,谢谢大家。

dsv 四明天二十四点大厂发布,万亿参数加百亿上下文加原生多模态加深度适配国产算力。这波 ai 主线要彻底引爆,我直接把核心收益标的按产业链给你梳理好。一 核心绑定加股权。二国产算力三 ai 应用。