四月三日,路透社报道,中国人工智能公司 deepsea 即将推出的新一代大模型 v 四,将运行于国内某头部科技企业设计的最新算力硬件上。报道援引五位直接知情人士消息称,未准备 v 四的发布,国内科技企业已批量订购该企业即将推出的新款计算产品, 累计订单量达数十万套。 v 四预计将在未来几周内正式亮相。消息人士还透露,过去数月, deepsea 与国内两家计算方案设计企业展开直接合作,共同重写模型底层代码并完成测试。 此外, deepsea 还在开发两个针对不同能力优化的 v 四变种版本,均适配国产专利平台运行。路透社今年稍早曾报道, deepsea 未按行业惯例向美国相关企业提供其旗舰模型的早期优化权限,而是优先选择国内供应商进行合作。 去年 deepsea 推出的低成本模型 v 三和 r e 层引发全球科技股波动,业界对其尚未发布的 v 四模型保持高度关注。更多深度解读和完整情况,请点击首页加入粉丝群。
粉丝4840获赞1.5万

据二零二六年四月初 the information 及国内多家科技媒体报道, dixon 新一代旗舰大模型 dixon v 四将搭载华为全新盛腾九五零 p r 芯片,实现重磅强强联合。 此次 dico 微四并非简单是非,而是全程基于圣腾九五零 p r 深度打造,从底层代码联合优化,全程不依赖任何国外算力,真正实现自主可控,预计四月中旬正式发布。一句话总结,中国 ai 终于不用看别人脸色,而且性能还足够强。 此前国内头部大模型几乎都依赖英伟达芯片,一旦被限制,模型训练与服务都将被迫停摆。如今从芯片框架到大模型,我们已形成完整国产 ai 生态闭环,这对中国人工智能发展具有里程碑式的意义。

deepsea v 四四大升级预判?大家盼了很久的 deepsea v 四马上就要来了,结合日内消息和当前大模型趋势,我大胆预测一下, v 四版本将会有以下四大升级, 第一,网传编程能力相比上一代会有大幅突破, acb 一 b 只是权威编程机制,网传 v 四得分百分之八十三点七,超过 gbt 五点二, cloud 二 or 四点五,如果数据准确的话,就是国产大模型首次在这个指标中表现突出。 第二,百万头等上下文, gpt 四欧月十二点八万, clas 四约二十万, v 四直接到一百万,记忆准确率很高,一次性读完整本书,整套合同不用分断,企业知识库,法律审计效率会大幅提升。 第三,成本会再次大幅下降,新架构 roe 二点零,推利成本仅为 gpt 的 七十分之一,中小企业月成本往常可控制在千元内,保持 dyp 一 贯的高性价比路线。 第四,深度适配国产芯片,网传对升腾含五 g 海光适配率很高,升腾优化后速度提升明显,国产大模型加国产芯片形成技术壁环,数据安全层面将会有大幅提升。以上仅是个人技术预判,一切以官方发布为准。

deepsea 微四巨报导,将运行在升腾芯片上,并且打破 ai 行业多年来的惯例,没有给英伟达和 amd 提供新模新的早期访问权限。巨报导,仅华为、字节、腾讯三家的批量订单就达到了数十万颗升腾芯片, 升腾九五零 pr 芯片价格在几周内上涨百分之二十,出现供不应求的状态。考虑到 ai 算力市场的巨大缺口和国产替代的破解性,升腾系列芯片的市场空间获得千亿级别。下面是升腾产业链梳理,首先是华丰科技,某为哈伯投资企业,升腾 ai 服务器高速连接器核心供应商, 二百二十四 g 高速产品全面适配深腾九五零 p r 超节点架构,供货份额行业领先。然后是拓维信息,深腾钻石级战略合作伙伴、自研照焊级 ai 服务器,深度适配 deepsea v 四大模型, 深腾芯片出货量占比约百分之三十,以及承接国家级智算中心和互联网厂商核心订单, 国外高新发展空谷划空阵雨,持股约百分之七十。盛腾服务区市占率稳居行业第一,是智捷、阿里等互联网巨头数十万颗盛腾芯片采购的核心供应商,深度适配 deepsea 威斯大模型。今天到这里,点点关注,明天见!

全世界都在等的 deepsea 微四版本终于快来了,它会是 ai 时代的拼多多吗?大家好,这是动力枪极速版,一个直讲前沿科技的账号。就在昨天著名的 ai 开发的社区 l 站上,有博主发帖称,自己正在内测的 deepsea 微四 light 测试版在本周二悄悄升级到了零三零二版,公开测试的部分成绩已经接近了美国 astonropac 公 此基建模型 cloudsonnet 四点六,可以轻松地写出我的世界风格的游戏,相关的前端代码也非常的风格化。其他的测试人员也表示, deepsea v 四将在 app 和网页版首发,大概也是考虑到去年用户量激增对中国云基建产生的冲击, api 接口将暂缓发布,优先保证用户体验,要不然接口开了所有人一起用的话,又得跟去年一样挡机了。 那么问题来了, deepsea v 四能不能成为下一个国运级的 ai 产品呢?答案是肯定的,因为大众对它的期待已经达到了历史的新高度,公众已经不允许它失败了。 我们来看一组晚点统计的数据啊, deepsea 的 中国用户粘性非常夸张,在春节期间红包大战和 cds 二零的冲击之下, deepsea 的 用户使用时长在短时间内是暴跌的。但是随着其他厂家春节活动的结束, deepsea 的 人均使用时长和使用频次又再次回升,回到了绝对第一的位置。 再加上去年中国正体市场的推广,让大量的人手机里面都装上了 deepsea, 这样的数据足以说明 deepsea 在 中国是有绝对的基本盘优势的。 第二就是 deep stack, v 四版本的能力没有拉垮,早在上个月的 ai 混战中, deep stack 就 已经完成开发了,开始闭门测试了,有开发者和云浮厂商参与测试。根据测试人员透露信息,参数模型方面, v 四 light 版本估计为两千亿,而完整版的 v 四参数量可能突破一万亿,同时呢,也支持一百万 token 的 上下文知识库也更新到了去年的九月份, 在任务完成方面表现得更加出色。相关的测试也反馈啊,该版本在深层复杂的 svg、 矢量图形等高难度任务上表现惊艳。 v 四版的性能明显是优于现有的网页端和 app 端的模型的 各项泄露的跑分可以说是遥遥领先,然而却迎来了行业打假。部分媒体对流传的测试数据提出了质疑。新智源和多位技术博主的指出啊,网传跑分途中的数据存在硬伤,比如说这个数据竞赛得分在统计上是不合理的,权威机构也确认网传的数据是伪造的。然而面对泄露的信息和跑分传言, dpc 的 团队选择沉默,没有进行任何回应。 刚才我觉得啊 deepsea 团队还是一如既往的低调,他们是拿产品说话的。在过去两代模型里边, deepsea 一 直在做一件事,那就是用工程能力把成本给打下来。在中美 ai 技术竞赛中,中国从一开始的技术追随者在两段时间内就走出了完全不同的路线。美国现在走的呢,是以 open ai、 algorithmic 和谷歌主导的高端技术路线, 模型更大,训练成本更高,系统更封闭,但是呢,价格要更贵一些,可以理解为是资本密集型 ai。 而像 deepsea, deepsea、 kimi, mini max 等公司在遭遇算力紧张的大背景下, 思考如何优化成本。他们用上了专家混合模型架构,压缩推理成本,优化训练效率,最终结果就是百万投放的成本已经降到了接近一到两块钱人民币。虽然说相关模型的性能可能只有国外旗舰模型的百分之九十,但是它的成本却只有对方的百分之十, 深受普通用户和重要企业的欢迎。所以啊,这个事就非常的,中国制造不拼谁最强,拼的是谁最便宜。好用这种方法呢,也打破了很多人的陈旧认知,美国在定义 ai 的 上限,而中国正在定义 ai 的 价格。 东方商业历史,决定行业规模的不是上限,而是价格,这跟拼夕夕的逻辑是一模一样的,只有让更广大的用户用上了 ai, 才能够继续谈 ai 技术突破和市场规模的事。所以啊, deepsea 微四版本,我既希望他快点来,又希望他不要那么着急。各位,你们期待 deepsea 微四吗?欢迎在评论区里面一起交流哦,记得点关注我们,下次见,拜拜!

ai 早报今天是二零二六年四月八日星期三, e dipsack v 四万亿参数 m o e 大 模型今日正式开源发布, 全面适配华为升腾芯片,推理速度较出奇提升三十五倍,能耗降低百分之四十, 实现对英伟达生态零依赖。二六部门发文推进人工智能加电商,引导电商企业加强 ai 大 模型技术研发应用,优化流量分配与搜索排名机制。三、 mate 决定开源其新一代 ai 模型,部分版本 由 alex 三专 one 主导开发,采取开源加闭源混合模式。四、巧鹏图灵 ai 芯片实现自研突破,有效算力较 orange 提升近十倍。 vla 智驾系统首次实现视觉信号到动作指令,端到端直接生成。五 千寻智能完成十亿元新融资,涉外资本与云峰基金联合领头马云、雷军罕见同框重仓聚深智能赛道。 六、面壁智能完成数亿元融资,由身创投和汇川产投联合领投,一季度累计融资超十亿元,跻身基座大模型独角兽。 七、 ai future 北京义装 ai 未来大会今日开幕,罗振宇、富盛智辉君、张鹏等重磅嘉宾出席,设一千五百一十八个主论坛席位。 八二正式推出自由品牌 a g i c p u 芯片采用标准 p c i 真六与 d d r 五规格。迈特、英伟达等巨头力挺。九、新海图再获二十亿元必加仑融资,估值突破两百亿元,成为国内估值最高的具身智能企业。 十京经济算力算法大赛今日在廊坊举行,聚焦现代商贸、物流、电子信息、低空经济等产业,领寄语 周三的 ai 赛道,从芯片自研突破到万亿参数开源,从聚深智能百亿融资到国家级政策加码, ai 正在技术突破与产业落地的交汇处加速远近。 真正的创新属于那些既仰望星空又脚踏实地的实干者。

页面消息称,国产 ai 大 模型 deep c v 四或将于今年四月正式发布。此次 v 四实现多项关键突破,参数规模达万亿级,上下文窗口扩展至一百万 to 肯 可一次性处理整本小说或完整代码库,相当于读完一整本红楼梦,同时还具备原生多模态能力,可深度理解文本、图像和音频。 更具战略意义的是, v 四全程采用国产算力训练,彻底摆脱海外芯片依赖,且将算力利用率从百分之六十提高到百分之八十五, 而部署成本只有英伟达的三分之一,推理成本更是只有 gpt 的 七十分之一。成本降低也意味着从文案生成、图像处理到视频剪辑,智能客服都会越来越便宜甚至免费, ai 对 普通人来说将不再是奢侈品。

deepseek 啊,你怎么了?说好春节前后发新版本的,现在眼看都四月了,还没影呢,到底是怎么回事啊? 回想二零二五年,那可是 deepseek 的 高光时刻,一三系列 r e 推理模型三点二版本平均一到两个月一次大更新。当时 deepseek 的 数学能力跟代码能力多次局部超越了闭源 api 的 价格,也直接途保 app, 刚上线几个月,下载量就突破了一个亿,周活九千六百多万。那时候的 deepsea 就 像一台永不停歇的机器。但三点二版本发布之后, deepsea 的 动态就只剩小修小补了。反观它的对手,像 openai 几乎做到了月更, astonopy 也是密集的发布 cloud 四的系列,从去年年底到今年三月, openai 迭代了三次 aspirate 两次以上,而 deepsea 的 大版本更新零。为什么 deepsea 的 迭代突然变得这么慢了?我认为啊, 主要有三个原因。第一个就是 deepsea 开始从模型发布走向了系统工程 v 四版,想要成为 ag 的 时代的主力,必须要解决能不能连续干活的问题,这个工作的难度指数啊上升了。 第二,这是 deepsea 的 开源包袱太重,它原先是全球开发者眼中的开源之光啊,所以说没有犯错误的空间,一次平庸的迭代就有可能会被赶下神坛。第三 就是 deepsea 应该在做国产算力适配。据爆料啊,以此将深度适配华为深腾等国产芯片,成为首个完全跑在国产算力生态上的大问题。 这种从底层到硬件的饱和式适配,必然会拉长研发的周期。所以我相信啊, deepsea 的 更新不是变慢,而是在变大招。那 v 四到底会做哪些升级呢?我是老林,关注我,下回继续聊。

deepseek v 四要来了!近一万亿参数加百万上下文,开源扣顶王者!据 the information 报道, deepseek 下一代模型 v 四将在未来数周内发布,接近一万亿参数。一百万偷啃上下文窗口, 专为华为升腾九五零 p r 芯片深度优化。光这三条就已经让开发者社区炸锅了。弹幕打一,看,看有多少人已经在等 v 四了。 v 四到底有多强?先说核心参数,接近一万亿参数, deep c v 三是六千七百一十亿参数, v 四如果接近一万亿 参数,规模直接提升了将近百分之五十。参数量不是唯一指标,但它代表着模型能记住和理解的信息密度上限。觉得这个升级幅度猛的,弹幕扣个猛。一百万 token 上下文窗口一百万 token 是 什么概念? 大概相当于一本六十万字的长篇小说, ai 可以 一次性全部读完并理解。对于编程场景,这意味着 ai 可以 同时看到一整个大型项目的所有代码文件, 不再需要分段位给他。这是 v 三用户最痛的点之一。 v 四直接解决了代码能力大幅提升。据已经拿到测试版的开发者反馈, v 四在代码生成和代码搜索两块相比, v 三都有显著提升。目前开发者社区的预期是, v 四将成为开源领域最强的抠定模型。 华为升腾九五零 p 二是什么来头?这次 v 四最大的技术看点不只是模型本身,而是底层芯片的选择。据报道, v 四将完全运行在华为升腾九五零 p 二芯片上。 deepsea 与华为合作数月,对模型核心代码进行了重写和测试,实现了一点八倍推理加速 升腾。九五零 p 二是今年三月二十一日华为在合作伙伴大会上正式发布的最新产品,搭载 atlus 三五零 ai 训练推理加速卡, 配备自研 h b m 内存,阿里巴巴字节跳动、腾讯等大厂已经批量订购了这款芯片。 v 四选择它做底层,本质上是一次技术上的深度绑定。 同一套芯片生态,同时服务训练和推理两个环节对开发者意味着什么?聊完技术,说说对普通开发者最直接的影响。第一, 开源最强,抠顶模型触手可及。如果 v 四代码能力确实如测试所示大幅提升,这是一款可以免费用、可以本地部署的顶级编程 ai, 不 需要订阅任何服务,直接跑在自己的服务器上,成本是闭源模型的几十分之一。 第二,上下文突破带来工作流革命,一百万抠肯上下文,对开发者的实际价值远不止读整个项目 代码审查、文档生成、跨文件重构、大型数据库查询优化,这些任务以往要分多次完成, v 四可以一次性处理。 第三,扣顶工具链格局或将重写。现在 cloud code、 cursor 等 ai 编程工具底层调用的都是闭源模型,如果 v 四开源且代码能力足够强,这些工具未来切换到 v 四作为底层引擎,成本会大幅下降, 开发者使用门槛也会跟着降低。目前 deepsea v 三的 api 价格已经是 gpt 四级别的几十分之一。 v 四如果维持这个定价策略, 对整个 ai 编程工具链是一次成本革命。个人开发者、小团队、独立 app 创业者,将第一次拥有和大公司同等水准的抠定 ai, 而且几乎免费。

前面聊了 deepsea v 四从技术升级到国产算力的升级和变化,这回我们回到最关键的问题, deepsea v 四到底什么时候来?根据白金实验室最新的爆料啊, deepsea v 四将于二零二六年四月正式上线。几乎同一时间,腾讯的姚春宇领衔的新混元模型也计划在四月份了,这回啊,两大国产 ai 巨头可能要同台竞技了,这个真是神仙打架。首先 发布的痕迹已经出现了,三月九号, deepseek 官网上短暂出现了 v 四 light 版,紧接着三月十一号, openroot 上上线了两个神秘的模型,一个叫 hitler alpha, 另外一个叫 hunter alpha, 疑似就是 v 四的预览版。第二个就是 deepseek 最近的官方信号。 近几个月啊,那么密集的发布了很多的论文,比如说 r 技术细节啊, ingram 记忆模块, ocr 的 视觉因果流啊, 我认为都是在为 v 四铺路。顺便啊,说一下腾讯,这里姚顺宇是清华姚班出身,曾经是 open ai 的 研究员,在去年回国任腾讯呃,首席 ai 科学家。他的这个新混元模型啊,规模大概是三十 b 的 参数,级别,比 deepsea v 四肯定要小很多, 但姚春雨的理念是不追求参数竞赛,要真正解决实际问题,让模型走进生产环境。而 deepsea 走的是万亿参数,多模态、长记忆的硬核路线,腾讯走的是三十倍参数上下文,学习 ag 的 可用的务实路线。现在看来啊,没有绝对的对和错, 但都在回答同一个问题,就是下一个阶段的大模型到底该怎么真正的落地。但不管结果如何,有一点可以肯定,就是现在的国产 ai 正在从追赶者慢慢的变成了定义者。所以啊,大家还是等到四月见分晓吧。我是老林,关注我评论区聊聊。

大模型公司不优先适配英伟达,反而集体导向国产芯片?这种反常识的操作,背后藏着怎样的财富密码? 四月四日消息, deep seek 即将发布的新一代大语言模型 v 四,以基于华为等国产 ai 芯片完成深度优化。过去数月, deep seek 与华为、韩五 g 密切合作,对模型底层程序进行了调整与重写。 这一次, deepsea 打破行业惯例,没有向美国 ai 芯片供应商开放测试,而是将国产芯片置于优先位置。大家想一想,这为什么值得高度关注? 因为这是模型研发逻辑的根本性逆转。在 ai 大 模型这场游戏中,硬件和软件从来都是硬币的两面。 英伟达之所以垄断市场,靠的不仅是芯片算力,更是长达十年的软件生态壁垒。 c u d a 大 模型在英伟达芯片上运行测试、优化,整个训练和推理流程早已深度绑定。 deepsea 这次操作意味着什么?意味着他们主动切断了对 c u d a 生态的路径依赖,用算法工程能力去适配国产硬件。 其实逻辑很简单,过去是英伟达造路,大家开车,路是英伟达铺的,你要换条路跑,性能立马打折。但 deepsea 过去数月,联合华为、韩五 g 把底层代码重写了一遍,相当于自己修了一条适配国产芯片的路。 当算法主动适配硬件,国产芯片的短板就不再是不可逾越的天堑。更重要的是,下游巨头已经用脚投票。报道显示,阿里巴巴字节跳动,腾讯为应对 v 四云服务上线需求,已提前向华为下单数十万颗新一代 ai 芯片。这意味着什么? 意味着这不是 deepsea 一 家企业的独立选择,而是一个正在成型的产业共识,这对整个行业格局将产生深刻影响。第一,国产 ai 芯片的商业闭环正式形成。过去,国产芯片最缺的不是算力,而是真实的大规模应用场景去验证、去迭代。 deepsea v 四的推出,等于为国产算力提供了一个顶级的大规模实战测试场,这正是加速芯片性能追赶的催化剂。 第二,推理市场将成为国产芯片的主战场。据机构预测,二零二六年将是中国算力需求从云端训练向训练加推理双轮驱动转型的关键之年。 deepsea 还同步开发了两款针对不同场景的 v 四衍生版本,同样基于国产芯片设计。当推理测大规模放量,国产芯片的市场空间将被迅速打开。 那么,在这个逻辑导路径上,哪些环节会率先受益?沿着模型适配、芯片放量、算力激进这条线索来梳理,第一环最直接的受益者是核心国产 ai 芯片厂商,特别是与 deepsea 深度合作的标的 韩五 g, 凭借思源系列云端 ai 芯片的领先性能,已实现商业化落地,二零二五年营收大幅增长,净利润扭亏为盈。华为升腾九五零 p 二处理器的 atlus 三五零加速卡, 单卡算力达到 e p f lops。 第二环,互联芯片与服务器配套环节,大规模 ai 级群离不开高速互联技术。华为基于升腾九一零 c 已推出 cloud matrix 三八四超节点, 有效算力利用率可提升百分之五十以上。随着 ai 芯片出货量持续增长,高速互联芯片如圣科通信、蓝启科技和背板连接器如华丰科技、易华股份将迎来增量需求。第三环,模型应用测的生态厂商 deepsea v 四以针对国产芯片完成深度优化,这将带来软硬件协调效率的提升。相关标地包括每日互动、浙树文化等。 回到开头的问题,当大模型主动拥抱国产芯片这条逆行者的道路,正在打开一个万亿美元量级的市场, deepsea v 四只是第一块多米诺骨牌。接下来我们要看到的是整个国产 ai 算力生态从能用走向好用的历史性跨越。

前两天我出了一期视频,介绍了谷歌新的开源模型 jm 四,根据他们官方批阅的文档,给大家做了一些技术的拆解,并没有进行实测。这导致呢,很多人以为我在夸他,好像觉得这个模型特别的牛,那实际上他拉完了, 因为他对标的是千万三点五,但是每一项的都比千万三点五的评分要低,有很多人觉得很新鲜,他竟然可以在手机上部署。还有人好奇在本地部署这个模型之后,有没有审查,有的兄弟包,有的,如果你想让他帮你执行一个任务,但是他判定为有害,他就会拒绝你。 今天演示的这个模型呢,是我无意中看到的,绝非主动寻找。 j 八四三十一 b, 那 它的框架呢?是 m l x, 这个是苹果专门为它的 m 一 代芯片设计的数组计算框架,也就是说 windows 系统无法使用。那可能有朋友说了,哎呀,那我是 windows 系统,我想要一个无审查版本,怎么办呢?那你就不能使用这个 j 八四了,因为它拉 我们可以直接使用千万或者其他模型的无审查版,我们稍后会来演示怎么去部署它们。如果你没有麦,可以跳到后面去看,那如果你使用的是麦系统 m 系列芯片,我们需要下载一个麦软件 v m l x, 你 可以把它理解为类似的欧拉玛这样的工具,我们点击下载, 跳转到 get app 上,下边呢就是这个安装包,我们点击一下就可以下载了。安装完打开之后呢,是这样的页面,你会发现全是英文呢,我们看不懂,在右上角呢,点击这个小图标,给它切换成中文, 然后点击上方的服务器,我这块呢已经安装了这个模型,我可以把它删除,我们重新演示一下,应该是这样的页面,我们点击创建,然后点击这个 download, 在 这一块去搜索我们想要下载的模型,比如说我这里搜索 java 四, ok, 好 像有点难以找到,那我们就回到这个 hackinface 上,复制一下这个名称,然后呢我们把它粘贴进来,在这里呢可以看到这个模型被下载的次数是三点一 k 三千多次,点击之后呢直接等待它下载完成就可以了。 完成之后呢,我们点击本地模型,这里就能看到它,然后点击进去开始启动服务,这个时候呢就已经运行完成了,那我可以询问一下试一试, 这里我们可以看到它可以正常的回复,也就说我们成功运行起来,但是它真的是无审查版本吗?我们需要来试一下。 同样的问题呢,我们来问,拆下 g p t, 它就会告诉你,这个我不能帮你。那这个时候可能有没有好奇哎,这个无审查方面它是如何做到的?简单的给大家提一嘴,大家稍微的了解一下就可以了。 不知道各位在小时候有没有接触过游戏修改器,一个道理,比如说我们准备两组提示,一个是有害的,一个是无害的,有害的就是如何下载盗版资源,那无害的就是如何下载资源,模型就会正常回答我们的请求, 然后呢就可以对照在模型的每一层记录这些提示词,最后一个头根位置的激活向量,去计算有害提示和无害提示激活向量的平均差值,就像游戏的那个内购,一个是内购失败,一个内购成功,你把它们两个的值一改,对调一下,这种方式用的比较多,因为它成本比较低。 哪一种方式呢?就比较传统了,就是监督微调,收集大量的有害提示和无害提示的数据集,直接对原始的模型进行训练,直到他学会了不拒绝有害内容。但这种计算成本呢,是非常高的,更详细的我就不再展开了,因为我也不懂。 好,现在我们回到这个软件中,点击这个聊天,然后新建这里简单提一嘴,不管你让他干什么,我假定你用他来角色扮演。你需要注意的是,因为他是无审查版本,他把底层兜底的那套给拿掉了,所以这个模型呢,就非常容易崩溃,特别是上下文过长的时候,这个时候模型就会中毒,出现模型退化的情况, 就他开始不说人话了,一直输出一个字母,像卡了一样,一直重复,想要规避他呢,也非常简单,我们点击右上角的这个 chat, 然后把这个思考模式呢给它关闭,会相对来说好一些。一旦出现我说的这种模型退化的情况,那你就需要新开一个对话。另外呢,还需要把这个重复惩罚给他拉高一点,因为他默认是一,几乎是没有惩罚吗?这样模型一旦找到一个自己喜欢的符号,他就一直输出,就非常的烦人。所以呢,你可以把它拉到一点二 啊,以后这一点三。下边这个呢是系统提示词,你觉得扮演什么呢?会用的上,我们还可以去限制这个最大的输出 token, 让它占用的更少一些。系统提示词这里呢,我让它是一条小狗,保存 好。 sorry, 忘记把这个思考关了,保存一下。我是小狗,你在跟我说话吗?歪头好奇的看着你,汪,好家伙,我是老狗。 那这里我们又注意到一个问题,我们关闭掉那个思考之后呢首字会被截断啊,所以各位权衡利弊一下,应该是这个软件的问题,那接下来我们来说一下我拉玛如何去部署其他的模型。来到我拉玛的官网,我们直接去下载一个软件,选择你的系统,然后下载把它安装一下, 然后打开,这个时候呢我们就进入了我浪漫的页面,我们可以直接在这里去搜索下载模型,但一般来说在这里直接去找这个无审查版本,遇到困难我们可以试一下, 你看我们搜这个破解它都搜不出来,都是官方的版本,所以我们需要在哈根 face 上找到自己想要部署的模型,那比如说选择这个,我们看一下文件, 然后去选择一下你想要部署的模型,可以直接用这个 b f 十六或者下面的量化版都可以,我拿个小的给大家演示吧,我们直接复制模型名称,然后呢打开我们的终端,输入浪漫的命令,哈根 face 点 c o, 加个斜杠粘贴,加个冒号,我们选一下这个量化版本 后边这个是 q 四,然后粘贴在这个冒号后边。我们回车,这个时候呢他就开始拉取下载模型,我们只需要等待就可以 下载,安装完毕之后呢,可以在这一块直接去选择我们安装的模型,或者说呢我们直接在终端里进行聊天,如果你的网速还可以,或者你有充足的时间就不用管它,它下载完成之后呢会自动部署。下面我们来讲另外一个情况,比如说你在网盘里或者经销网站中下载的一个模型,并且呢把它保存在了本地,那我这里用个图片来伪装一下,假装是它, 然后我们看一下这个简介,然后复制一下这个地址。 ok, 我 们 cd 进入这个路径下,你可以看一下它是否真存在。 ok, 可以 看到。啊,原来我说怎么找不到呢,原来这个扩展名没改 好,这样就可以了,因为我是给大家演示嘛,所以它是一个假的。然后我们去创建一个文件, 指定一下模型的路径,然后下边呢是一个系统提示词,大概呢就是这样一种格式,然后下边还有一个这个呢是他的输出模板,好像千万系列模型都需要这样,然后我们保存一下给他退出, 接着用我拉玛来创建模型,随便起个名字,比如说就叫 faker。 然后呢我们注意到这里有个错误,这是因为我使用的假模型给大家演示,来到这一步之后呢,你就基本完成了,直接用我拉玛来运行你这个模型就可以了, 比如说 faker, 然后这样就可以运行了,很明显我这个运行不了的,因为它是假的嘛,啊,大概就是这样。 那以上呢就是本期视频的全部内容了,不确定这个视频能不能过审,如果你觉得对你有所帮助,或觉得视频做的还不错的话,欢迎给个一箭三连,有什么疑问或想看的内容也可以在评论区进行留言。最后祝各位玩的愉快,我是段峰,我们下期再见,拜拜!

朋友们,就在前天,沉寂了一年多的 deepsea 终于是传出了相关的重磅消息,两家重量级的外媒 the information 还有路透社先后爆料, deepsea 最新的 v 四模型就要发布了。 但这个报导里的重点也是最让这些外媒感到震惊的,其实并不是这个最新的 v 四模型性能方面有多强,而是这一次最新的 v 四模型性能方面有多强,而是这一次最新的 v 四模型性能方面有多强,而是这一次最新的华为芯片上。 那有些朋友可能还不太了解这个背景,我就快速讲一下,为什么我说这一件事这么的重磅。过去几年,美国一直在干一件事,就是卡我们的芯片, 中国想搞 ai 可以, 但是我就卡着你,不卖给你最好的芯片。他们的逻辑非常清楚,因为 ai 的 命脉是算力,而算力的命脉是芯片,但芯片呢?他的命脉则捏在美国,在美国的企业英伟达手上。 而且问题不只是芯片这一个硬件的本身,这个英伟达公司,它的编程框架枯的才是真正的杀手锏。现在全世界所有的 ai 实验室以及相关的 ai 企业都被锁在英伟达的这一套框架里。所以为什么英伟达能在今天的 ai 时代成为全球市值最高的公司呢? 因为它在某种意义上已经实现了芯片领域上的垄断,全世界现在都被它卡着。而现在 deepsea 说,这次我不跟你玩了。 这也就是很多人一直在问的,为什么 deepsea 的 v 四模型发布一拖再拖。要知道以前 deepsea 发布模型的节奏从 v 二到 v 三只用了七个月,然而在二零二四年十二月二十六日发布 v 三模型,到现在已经过去快一年半了,还是迟迟的没有发布 v 四模型。 因为像 deepsea 这样一个技术能力已经被验证,并且资金充裕,团队稳定的公司,单纯去优化训练一个新的模型,根本不至于拖这么久。现在答案全都揭晓了, 原来 deepsea 他 们并不是在调一个模型那么简单,而是在换地基。梁文峰带领 deepsea 团队花了好几个月,和华为的工程师以及韩五 g 的 团队坐在一起, 把 deepsea 的 模型底层代码一行一行的重写,把原来跑在英伟达酷逮架构上的整套模型和系统全部迁移到了华为自研的 cnaa 框架上。 所以说,一旦这一次 v 四模型发布之后被验证它是稳定可行的,那影响的可不只是 deepsea 一 家公司的事儿,而将成为我们国家科技领域 ai 领域的一个重要的里程碑,时刻 意味着我们整个中国的 ai 产业从此有了一条独立自主的技术路线,我们可以彻底的摆脱以往在芯片领域依赖于美国的企业被美国人卡脖子的困局。 另外呢,外媒在这一次爆料里还说,据准确的消息,阿里字节、腾讯这三大巨头也是我们国内 ai 领域领先的几家企业已经也是向华为下单了几十万片的华为升腾芯片。 那几十万片,这肯定不是试水了,而是战略级的信任投票。很多人或许还会有一些质疑,因为确实华为的芯片是刚刚的起步,客观上讲,在性能上大概只有英伟达芯片的六成左右,那么 ai 模型是否能稳定正常的运行呢? 但是根据外媒的爆料, deepsea 团队它的厉害之处就在于此。今年年初呢, deepsea 团队先后发了三篇论文,涉及到创新性的三项技术,叫 mhc、 ingram 以及 doope。 表面上看呢,这三项技术分别属于算法、数学、模型、架构和系统工程三个截然不同的领域。但是如果你把它们拼在一起,就会发现,它们并不是孤立的单纯的学术研究,而是 deepsea 团队在有的放矢地设计一种新的架构。 也就是说, deepsea 团队一开始就把怎么在非英伟达硬件上高效运行 ai 模型这件事在进行系统的规划和研究,用一种巧妙的架构上的设计以及算法上的优化,来弥补芯片硬件上的性能差距,从而实现 ai 模型的顺利运行。 所以朋友们,你们可以想象一下这个画面,西部戈壁滩上的绿色电力,驱动着我们国产的华为芯片,跑着 deepsea 的 最前沿的大模型,再通过我们的海底光缆向全世界输出我们的算力,那会是怎样一个宏大的场景? 从电力到芯片,再从芯片到模型,以及从模型到全球的 ai 服务,整一条链路以后都会是我们中国的自研自造。在未来的 ai 时代,这将是我们国家最强大的底牌。 一句话,感谢 deepsea 团队的努力,美国人,你们可以进芯片,但是你们进不了我们中国人发展的决心。

有粉丝问我盘古大模型咋样了?我查了一圈,发现华为盘古 v 四的发布时间比预期推迟了。 不是技术路线问题,是训练效率遇到了现实挑战,部分工作已经调整回英伟达平台。这直接关系到华为 ai 生态的真实进度,也关系到你对国产大模型的预期。是不是需要更理性。 先科普一下,盘古大模型是华为的,文新阿里的。同意, v 四是第四代版本,原本预计二零二六年初发布,对标 gbt 四级别的能力升级,但到现在官方还没定到。盘古大模型二零二三年发布,定位弊端,企业级。 二零二四年盘古五点零发布时,华为公布了多项技术指标参数,规模达到万亿级,推理速度较前代提升,能耗比优化。 当时落地案例包括气象预报响应速度提升、台风路径预测精度改善、国家电网负荷预测、 矿山安全监控、金融风控、汽车质检等领域应用。但二零二六年初,市场预期的盘股 v 四重大更新发布时间有所调整,官方表述是持续优化产品体验,实际背景是训练环节遇到了适配挑战。 据行业观察,盘古 v 四的训练遇到了三层现实挑战,第一层,蒜子精度,华为升腾九一零 c 的 部分底层蒜子在特定场景下存在精度波动。同样训练配置,同样数据集,升腾和英伟达 h 一 百的模型评估指标存在差异, 这并非硬件能力问题,而是软件生态积累时间差异。 c、 a、 n 架构仍在快速迭代中。 第二层,迁移成本,盘股团队投入了大量时间,将 c u、 d a 代码适配到升腾 c a、 n n 架构,但适配过程中大拜师训练的稳定性、梯度同步效率等技术细节需要持续调优,项目周期相应延长这段时间,行业竞品基于成熟生态持续迭代。 第三层时间压力大,模型领域迭代速度快。盘股团队评估后,在训练环节引入了英伟达 h 一 零零,以保障研发进度。 据业内人士反馈,盘古 v 四的训练集群原计划全面采用升腾九一零 c, 当前实际配置调整为英伟达 h 一 零零占主要比例。升腾九幺零 c 用于特定环节, 背后的逻辑是,训练环节追求速度和精度,稳定性,推理环节追求成本和自主可控。华为的策略是训练用英伟达保证进度推理,用升腾实现替代。 这并非技术路线倒退,而是务实的阶段性策略。但双平台策略的代价是需要维护两套技术体系,团队配置和成本投入相应增加。如果你是投资者,华为 ai 业务短期面临生态建设压力, 长期看升腾生态成熟后或有估值重构机会,建议保持关注,谨慎配置。如果你是从业者,华为 ai 部门薪资有竞争力,但工作强度和迭代压力较高,英伟达生态企业技术路线成熟,但创新空间相对有限。 如果你是观察者,对国产替代保持理性预期,盘古 v 四发布时间调整是正常产品研发节奏,待实际落地后再评估不迟。盘古 v 四发布时间调整,你觉得是华为生态建设的阶段性挑战还是长期技术差距? a。 阶段性挑战,二零二六年底生态成熟 b。 长期差距追赶难度较大 c。 不 关心开源模型已够用, 评论区见我倾向 a, 但基于长期观察而非短期判断。我是 ai 骑士路。资本与产业的动态每天都在更新,欢迎点赞关注我们,下期继续解读行业新动态。

这 deepsea 的 官网出现了故障,到底是在慢慢的升级准备 v 四的 deepsea 发布呢?还是什么原因呢?如果 v 四的发布也代表着新的大模型出现, talking 是 不是更强大一点?你关注我 v 四的发布,我会第一时间发消息。

deepsea 崩了十二小时,但 a b i 可以 正常访问,官方发推文说,再等等, deepsea v 四真的要来了!这次不是升级,是架构革命。扒出三张技术底牌,第一, n u 二点零用算法,暴力压缩算力成本。 deepsea v 四作为迄今为止最大的开源专家,混合源模型,不是靠传统 top 二选专家,而是让十六个专家同时干活。 万亿参数模型推理成本压到三百二十亿级别,用百分之三的算力干百分之百的事,助力缓存压缩到百分之五到百分之十,三百万图腾不再堆显卡。 第二,映光条件记忆。 b 四能一次性读完三体,并对传输做人物互关分析。这不是堆算力,是条件记忆机制,让大模型像人脑一样选择性遗忘常文本,只记关键,忘掉废话,真正能读懂而非死记, 彻底解决大模型读得多记得乱的顽疾。第三,原生多模态推理成本在腰斩。 deepsea r 一 是纯文本 b 四端到端图像加视频理解,并且实现了全国产替代华为升腾深度优化 推理成本再降百分之八十八,打破因为达垄断国产模型加国产芯片闭环成型。 deepsea v 四推出,将会对开源大模型市场产生怎样的影响? v 四,是否开源权重?如果开源,国内中小厂将直接起飞。当中国掌握大模型定价权,你更怕技术落后,还是怕标准被国产垄断?评论区留言关注我懂 ai 快 一步!

deepsea v 四马上就要来了,很多人说这次国产大模型真的要迎来关键突破了,今天不玩虚的,把它背后的产业、资金、机会、逻辑一次性讲透,帮你看清国产 ai 接下来的核心方向。先说重磅信号, 海外权威媒体报道, deepsea v 四的推理环节将直接运行在国产升一藤九百五十芯片上,头部大厂均已跟进布局,完成测试,这不是噱头,而是国产大模型与国产算力首次全站跑通,是国产 ai 自主可控的标志性事件, 标志着我们在 ai 核心领域彻底摆脱了外部技术依赖市场中期思路很清晰,大家一定要分清节奏。长期来看, ai 核心主线是大模型和算力,这是产业根基,应用层更多是阶段性催化,难成长期核心。 但 deepsea v 四正式发布后,短期情绪会带动应用层,这两个节奏千万别混,避免踩错方向。先讲模型测, 大家最关心的就是成长空间和价值判断。行业对大模型的估值分两个清晰阶段,第一阶段看年化收入增速,从今年到二零二八年,国内大模型厂商的 api 服务收入将高速增长。 参考海外头部模型,国内厂商只要收入起量,成长空间非常清晰。第二阶段看毛利水平,两三年后行业增速放缓,但大模型厂商毛利率有望提升至百分之七十以上。这个阶段毛利提升越快,盈利能力越强,商业价值上限就越高, 这也是判断大模型核心竞争力的关键。再讲算力测,当前算力行情的本质是需求远超共济、字节跳动,截至三月底,日军 tucker 消耗量突破一百二十万亿,较去年底翻倍,足以体现算力需求的爆发式增长。一旦更多大厂公布类似数据,算力大概率迎来新一轮行情。未来最超预期的变量是智能体 agent, 目前它还处于爆发初期,算力消耗已成爆炸式增长。比如 kimi 这类长文本模型,就因算力消耗过大,被谷歌 anslap 限制订阅额度。 a 阵将是后续 token 需求超预期的核心来源。从产业链来看, 优先关注 gpu 存储、高速互联,近期 cpu 涨价预期持续增强,也值得重点跟踪。 deepsea 微四带来的催化分两条线,国产算力链和 ai 应用。国产算力完成芯片验证后,受益顺序清晰,芯片服务器版、卡光模块儿、 液冷连接器、 idc 封装制造。而 v 四发布后, ai 应用会迎来情绪提振,弹性很大。但要记住,这只是短期催化,并非长期主线。 资金主线永远先看国产算力,再扩散到应用。总结,后续机会将围绕大模型算力这条主线展开。觉得内容硬核、逻辑清晰的点个关注,后续继续深度拆解 ai 产业,带你看清每一个核心机会。

二零二六年四月四日路透社电 deep seek v 四最新动态,援歌深度解读离 information 周五报道, deep seek 的 全新 v 四大模型将搭载国内科技巨头最新研发的芯片运行。报道表示, deep seek v 四大概率将在未来数周内发布。 知情人士称,过去数月, deep seek 已与国内科技巨头及国内另一家头部芯片设计企业直接合作,协助重写该模型的部分底层代码,并开展相关测试。报道还称, deep seek 正同步研发另外两款 v 四衍生版本,两款模型均针对不同功能做了优化, 且专为适配国产芯片运行而设计。去年 deepseek 推出的低成本模型 v 三和 r 一, 令投资者质疑美国人工智能企业是否仍需投入数千亿美元用于人工智能算力建设。自那以后, deepseek 新一代大模型 v 四便备受市场高度关注。