不用担心 deep seek 弄初稿会编假文献了,最近 deep seek v 四出来了,想着试试它能不能找几篇文献,结果真给我扒拉出来了,还都是如假包换的真货,不是什么瞎编的。 然后又让它给我列个三级大纲,说实话,比自己弄得强太多了,那逻辑顺滑结构也一点毛病没有。又让它按着不同的难度 本科硕士博士三个档次整大纲。好家伙,难度还真给你拉开差距了。这波升级的没毛病,完全可以直接拿着这份大纲去攒出稿。但你千万别以为我是一个字一个字敲的,你也太看得起我了!纯甩手掌柜来的,基本信息一填, 把刚才他扒拉来的文献和大纲全给塞进去。文献不够还能直接在这里添加,中英文的都有。想要图表、表格、公式代码, 简单就戳一下这小按钮,完事儿。最后看一眼成品排版,整整齐齐,内容还挺像那么回事儿。去查了一下, ai 率也在合格范围内。得了,不用废话了,现在就可以去把豆包扫地出门了。
粉丝4306获赞19.1万

这几天体验了一下 deepsea 微四,还别说,是真的好用,我让他帮忙找文件,给的都是能查到的真实文件, 靠谱不糊弄。再让他帮我梳理论文三级大纲,不管是逻辑条理还是整体框架都挑不出毛病,而且还能按专科、本科、硕博不同时历定制对应难度的大纲。本来你以为接下来我要自己手敲论文了,那你可太高看我了。我直接把基本信息填好, 再把 deepsea 整理好的文件大纲一并倒进 paper 写里面,自己手里有调研数据、案例资料, 直接往里补充就行。想要图标表格、公式、代码、流程图这些也不用自己费劲画,点一下对应功能按钮, 一键就能生成。最后看成品效果,格式排版整整齐齐,内容逻辑也很顺畅,出稿直接就成型了。说实话,体验完这一套,是时候准备和豆包绝交了。

大家好,我是瑞克老张啊,今天咱们聊一个特别硬核的话题啊,就是 deepsea。 微四发布以后,各种分析铺天盖地的,我仔细研究了一个技术报告啊,又对比了其他几家的前沿大模型的表现,有了一个感受越来越强烈,就是 deepsea 在 底层技术上 至少领先整个行业。我说的是整个行业,包括美国的大母鸡在内,半年这个词在 ai 以周围单位的迭代行业里面是个巨大的鸿沟。我用我自己的观察,今天给你解读和深挖一下,这个半年到底体现在哪。 其中纠正一个常见的误解,很多人说 v 四的编程没有到那种顶尖的地方啊,跟欧普拉斯四点五啊,智普的 gm 五点一啊,什么都打平了。但我的看法恰恰相反,如果 deepsea 真的 死磕编程,它完全可以把性能推到业界顶尖,但代价呢,是牺牲了通用能力。 v 四这次的核心升级是常温稳能力和通用世界知识。 这其实 ai 领域最难啃的骨头是为了实现 a、 d、 i 准备的,因为你没法通过强化学习去优化常识,没有标准答案。这 恰恰说明 deepsea 的 野心极大,他不愿意只做一个编程很强的工具,而是要跟谷歌 open a 一 样, open ai 一 样,探索通用智能的极致,去追求 agi。 那 具体的技术领先体在哪呢?我猜三个最惊艳的点啊,第一个就是 csa 和 hca 的 混合压缩注意力机制, 过于大家都琢磨怎么更高效的管理缓存,哪怕你说有一兆的啊,就一百万的这个上下文,其实大部分都是二十几万字,剩下东西都是纯靠猜,大模型纯靠猜,让模型自己去学习缓存什么样。 deep 这个的思路是这个,它变成了可训练的参数,决定该记住什么,忘掉什么。这在注意力机制上,底层逻辑直接动了刀。 第二层呢,就是 q a t 的 场量化感知。传统做法是模型训练完之后再量化,肯定有性能折损,但 deep 这个在训练阶段就预判了推理的量化误差,把它们当做训练的部分,结果是模型天生就适应有损害的环境,抗干扰能力极强。 据我观察的话呢,如果不做 q a t, 它在类似架构上的训练性能却会断崖式的下降。第三呢,就是容器, d s c 的 容器技术。 这是让我特别震撼的一个细节,它内部有一套极其独创的容器技术,速度极快,而且可以在训练时随时给整个系统状态拍张照片,一旦后续方向走偏,就能瞬间闪回重来。 这种工程灵活度在我在国内第二家公司都没有见过,而且我敢说国外大厂也做不到。他们根本没有意识到这个技术对 a 人的训练的重要性。我是训练过模型的,我知道 vc 的 意义,不是技术本身, 是在于它对整个产业的冲击。最重要的一个信息是它的技术报告第三点一节明确写了,我们在英伟达 g p u 和华为生腾的 n p u 两个平台上均验证了细粒、颗粒度一批方案,这是说它的训练在英伟达和生腾上全部都做了。 这是 deepsea 官方第一次把华为升腾和英伟达并列写进硬件验证的清单,实测数据非常惊人,在升腾九五零 p r 上, v 四单卡推力性能达到英伟达特供版相关的这个 h 二零的二点七八 t 倍,推力速度已经达到了 h 两百的水平啊,较初期的设备版本提升了百分之三十五倍。 c n n 有 升思的框架以实现百分之九十五的扩展。代码兼容,配合一键迁移工具,代码重构从按月计划缩到了按小时计。更关键的是呢,就了解了行业信息,国内第一梯队的国行厂商现在预训练已经部分可以用升腾替代英美达了, 这在前两两三年前是完全不敢想象的。但然后训练的国产卡还正在替代中啊。因为后训练需要模型在训练和推理之间高速切换,对训推一体一致性和极限响应速度要求更高。目前我们的生态和算子失配不成熟。所以说 deepsea 这次难产, 重点就在后续炼成,做了很多的华为的奢侈的算子啊,现在正在用这个东西去弥补啊。以前适配国产芯片要靠工程师写代码,现在 ai 能适配代码,而且写得越来越好,这意味着国产算力替代的速度正在指数级加快。 diffseek 每次不仅验证了万亿级参数模型在国产算力架构下的可疑性,更打通了从训练到部署的全流程啊!这是第一次万亿参数模型在主流生态之外完成了完整闭环,国产芯片加国产模型加国产框架,真正实现了算力自主、模型自主、生态自主。 所以回头看我黄仁勋说那句话就更能理解了, diffseek 如果选择在华为芯片上完成首发,对美国来说是一场灾难,对吧?它不是在夸张,它在陈述一个正在发生的事情。 当你把技术拆解、实测路径和国产算力放在一起的时候,你会发现一个清晰的趋势啊,就是 ai 产业的竞争已从单一的技术比拼升级到了技术、算力、生态的综合博弈,谁在这三个维度上都能站住脚,谁就是下一个时代的真正赢家。如果你对硬科技和产业趋势感兴趣的话,如, 如果你真的想了解这个意味着国产算力到底什么样的变化,可以加入到老张的季度会员的这个计划里头,咱们的科普课啊,咱们的九天四十五个视频,八场专门的直播,我们中间安排两到三个相关的视频, 深度的去解读一下 deepsea 带给整个算力和大模型市场的震撼,以及它引发的变化。这个部分我相信对所有人来说都是非常有用的啊,提升认知,你就是在一个市场中真正获得的武器防御的力量。好 哇,不需要真的好好看一下,而且因为咱们比较优质,六幺八期间有活动啊,一个是三七,有的平台三七免息,有的平台三七免息,还有一个平台给了几十块钱补贴,大家老让利,原本我们应该是就八百多将近九百块钱呢,因为我们 那个月卡两百多将近三百块钱啊,虽然到现在我们补完了以后是六百多块钱,非常超值啊。如果需要好好看一下链接,就在底下点击即可啊。另外说一句,一定记得接助教老师电话,不然你不知道该怎么看课。好,今天到这,我是瑞小张,关注掌握投资的视角,看科技背后的精彩,我们下期见,拜拜!

对于研究生来说, deepsea 为四最值得看的其实并不是发布了一个新的模型,也不是跑分,而是一笔链的上下文,听着很急速是吧?但是放到科研里,其实他就一划, 他可以看到你更多的科研现场,比如说论文代码、实验记录、报错日期、审核意见这些。以前那些东西都是散的,你问 ai 一 段,他答一段,问到最后,他其实已经不知道你整个项目发生了什么。你问的地方不是把十几篇论文丢进去给他总结,太浪费了。更好的问法是,我的实验为什么不稳定?论文方法和代码时间有没有对不上的地方, 这才是研究生真正需要的。但也别神话它长,上下文并不是魔法,你丢进去一堆烂材料,它也只能整理出一堆看起来很合理的烂结论。所以说,以后研究生使用 ai 的 分水岭,可能并不是谁的 problem 写的更好,而是谁把自己的科研现场整理的更清楚, ai 最能看得懂,但最后的判断还是要自己来做。如果你有移民念的上下文,你最想丢进去什么?

各位网文作者们,你们催更的对比视频又来了,前两天呢,我发了一个视频,对比了我们新出的 deepsea 微四和我们的细腻版本到底谁更香, 结果评论区里直接就炸了,好多朋友都在刷氛围版呢,氛围版也很好用。今天呢,我们就来对比一下我们的新宠 deepsea 微四和我们的写作王者 氛围版的写作风格,并且还有整理好的 deepsea v 四注意的使用文档以及避坑要害,想要的朋友们可以点赞评论区留言。我们都知道 deepsea v 四写作的逻辑很严密,剧情不崩, 而且擅长构建清晰的故事框架,角色卡和世界观,适合长篇小说后期的稳定发展。而且大缸和细缸的能力很突出,优势就在于它可以处理超长的上下文, 适合多线的叙述和大量的伏笔。既然他写角色卡的能力很突出,我们今天就来看一下用 deepsea 微四写出来的角色卡以及他的写作正文文风和我们的氛围版到底有什么不同。 我们在这里呢找到我们的创作工具箱,里面有一个人设生成器模型呢,选择 deepsea 微四,我们就拿末日丧尸题材来说,写一个女主重生后自带系统,而且我给了他第一二张的大纲,让我们来看一下他的生成效果。 很快啊,女主和女二的基本信息都已经出来了,而且还有我们的人物目标和人物湖光,甚至连女主的天赋技能以及口头禅都已经整理好了,我们复制到我们的备忘录里面,方便我们以后的使用。就拿我写了一半的末日文来说吧, 首先呢就要创建我们的角色,在这里找到我们的角色库,把我们刚才复制的内容在这里一键识别。第一个呢就是要测我们的 deepsea v 四的写作能力,我们 ai 模型选择我们的 deepsea v 四版本选择的是末日丧尸选择我们要出场的角色卡, 刚才我们已经建立了,这样非常方便。本章剧情呢,就输入我们的第一章的大纲提示词,选择已完成新老师的我们一键生成。你们看生成速度也是很快啊,看一下他给我们生成的内容,开头就是一个紧张刺激的环节,直接是交代了人物时间和背景, 而且后面的剧情一点也没有拖拉,非常的细节。哦,这里呢还会提示,我们到这里就已经写到了两千字了,这是系统更新了一个新功能啊,很贴心。整体看下来剧情也是非常的紧密, 跟我们的大纲内容完全是非常符合的。但是我们看一下他的文风,非常的简洁,基本上没有什么人物的心理描写,就只是简单对话和推动剧情的文字,并没有什么代入感。你看那你路上小心 顾寒清挂断电话就非常的简洁,感觉就像是在机械写作一样,给我的整体感觉没有什么代入感,我只是一个第三视角看故事的人,而且写作的文风还是比较 ai 机械的, 整体读下来的感受就是为了推动剧情而去推动剧情,少了一些对人物的形象刻画, 而且结尾的钩子感觉留的也不是很好,观众看到这里应该就已经走掉了,但是如果你要是写简约风,剧情不拖沓的文风还是比较合适的,像这类风格的网文作者可以选择我们的 deepsea 微四。 好了,接下来呢,就看我们的写作王者氛围版本依旧是故事题材,角色卡和本章内容,这些我都没有动,我们来看一下它的生成效果。哇塞,单看开头就已经看出来,文风确实是相差很大了, 时间、地点、人物都已经交代了,而且还有详细的细节描写和人物的心理描写,你们看他说话时的动作描写以及心理描写,文风非常的细腻啊。不同于 deepsea 微四的就是他的文风很细腻,交代的事情也很完整,而且在读的时候很有代入感, 脑海里就直接浮现了他们的动作神态以及紧张的氛围。结尾的这个沟字留的也是比较好的,叫人有想读下去的冲动,而且生成的字数也要比 deepsea v 四生成字数要多。总结来说呢, deepsea 偏简约风,文笔风格一般是偏直白和机械, 少的心理描写和细节的刻画,但是它的节奏快,剧情也是不拖沓,适合纯推动剧情。虽然代入感弱,结尾的勾也不是很吸引人,但是如果你要是写文风比较简洁的作者,可以去使用我们的 deep sake。 而氛围版的文风是比较细腻的,人物的动作、神态、心理活动都很到位,而且给人的画面感很强,让人读起来非常有沉浸感, 结尾的悬念也留的非常好,能够勾住读者继续往下写。简单来说呢,如果你要是写快节奏和剧情爽的,可以选择我们的 deepsea, 文笔要细腻且注重带入感的可以选择我们的氛围版。想要同款创作工具的可以点赞关注,私信我即可。

deepsea v 四 pro 王炸来袭啊!朋友们,万众期待的 v 四版本终于发布了,那么 deepsea v 四 pro 的 网文写作能力,写小说能力到底如何呢?今天我一条视频全部告诉你, 并且我整理了关于 deepsea v 四写作能力的注意事项文档,感兴趣的朋友们,我们评论区见。话不多说,我们直接进入正题啊,今天我从正文、大纲、审稿三个方向给大家来分析一下 deepsea v 四的写作能力到底是怎样的 啊。我先说结论吧,综合对比来讲是比之前的 deepsea 好 太多了,但是整体能力还是不如智慧版,细腻版还有氛围版,包括奇想版的整体效果。 直接来给大家展示一下生产的实际案例就明白了。我们可以看到啊, deepsea v 四 pro 已经上了二十四号刚刚发布的 deepsea v 四版本,那么我总结了一下呢啊,它有一个比较强的优势,就是发散能力比较恐怖,不过换句话说就是它不会做关于网文事项的正确判断,需要大家增添主要的大纲内容加以辅助。 我们直接跳转到创意工具箱里的大缸生成器啊!在这里呢,我们从 ai 模型里面选择我们的 deepsea v 四 pro, 给大家来实际操作一下,这里有很多大佬们预制好的提示词供大家选择,大家可以自行去尝试选择一个最适合自己的提示词 啊。我们这里拿以文成新老师的这个提示词来举例,比如说我去创作一个历史脑洞题材的小说大缸,大概的灵感呢?我们可以减速一下,比如说携带超市便利店系统穿越到 大明王朝这个世界观人设,这里我们就写一个两界导爷吧,这里我们都可以根据你自行的需求去填写,我这里就先不添了,直接给大家生成一下,展示一下 deepsea v 四 pro 的 实际生成效果。 可以看到啊,他现在就已经开始进行大缸生成了,那么主要的核心设定也给出来了,大家可以仔细的看一下。有很多朋友问,为什么我用官方的 deepsea v 四去生成的效果,很核心的一个点就是因为星月有非常多所适配的提示词, 这是直接去官方生成你没法拥有的,这也是 ai 写作真正的核心。如果说你让 deepsea v 四直接为你生成一部小说,基本上不可能的啊, 可以看到啊,世界观也给出了非常详细的内容,还给出了我们的主要势力,包括主角的设定以及反派的设定,全部都给出来了,这是我们之前所说的 deepsea v 四擅长的就是 已有信息点进行发散,比方说我们可能之前智慧啊,细腻啊,可能只给出两到三个角色, t c f a 四可能给到五到六个角色。我们再来看一下他的故事梗概啊,其实整体的内容呢啊,因为我给的题材并没有什么太多的创新点,所以说整体的内容我们可以看到还是比较平淡的。已 经开始到了卷钢规划,可以看到生成的字数是非常多的,来到了第一卷,包括的卷钢剧情也是给出来了,那我们就来等他生成完毕, 可以看到到现在为止他还在生成,那我们已经到了十一章的章纲了,我们这里就直接停止,目前为止他已经生成了一万三千三百一十七字,他还可以再根据这些文本接着往下生成,也是我们提到的他的发散能力非常强,我们这里呢,直接把它推送到我们的备忘录里, 这样我们之后就可以关联好我们的大纲,我们直接跳转到我们的作品页面啊,新建一个章节,来看一看他的正文字到底如何 啊,这里我也提到了啊,它的正纹生成的优点就是语言自然,长线稳定,量产高效,也是它生成的字数会非常的多,但是呢,它缺乏智慧版、细腻版、奇想版的人化感情,也就是我们所说的真人味儿,它容易越写越平, ai 味比较浓重,这也是 deepsea 最大的缺点,我们直接从 ai 写作这里选择我们的 deepsea v 四, 我们就不关联最近的章节了啊,因为我们前面的章节是与文本句型无关的,我们先选择好我们刚才生成好的备忘录, delete v 四,选择一套喜欢的句子,我们直接从本章句型这里简单来概括一下吧。根据大纲内容直接生成 番茄小说黄金开篇内容啊,在本章剧情这里,应该是放我们的戏纲或者是我们的章节主要内容啊,我所给的这些内容呢,一般是我们要加一个括号,在前面加上我们的主要剧情,这样的话生成的内容会更加好。我这里就不填写主要剧情了,直接让它生成,看一看效果。点击生成 我们使用的 deepsea v 四版本,这里的中文呢,就生成完了,我们直接把它复制到中文的面板里,我们来看一下中文生成的内容,可以看到所生成的内容属于是我们 ai 的 通病了,像这段的多余的形容词描述都是可以直接删除的,包括我们让他开篇对话入局也没有达到, 不过我们往下接着看,形容描述还是太多了,不过整体的剧情人设好像是立住了,包括这里我们的对话 他肯定也是完成了我们的要求,多对话内容。那整体往下看呢?系统出现的还是比较早的,生成的内容呢,可以说是中规中矩啊,不过 情绪拉扯给的还是挺到位的,我们简单可以看一下实际内容,缺点也是很明显,都不需要我多说,大家就明白了,我们一直放到最后,整体的文章是不是比较平淡,我们这里再用智慧版去生成一下,看一下和 deepsea v 四对比下来有什么区别。我们选择智慧版,点击使用 生成。智慧版一生成出来,我甚至还没往下看,但是开头我就已经感觉到了巨大的区别了啊,大家可以看一下这情绪冲突和生成的文本质量。所以说整体来说呢,智慧版、吉祥版和新一版还是要优于 deepsea v 四的生成能力的, deepsea v 四可以去处理一些我们接下来要提到的内容, 等它生成完毕,看一下生成的内容,进行一个对比。好,这里智慧版所生成内容也生成完毕了,大家看一下啊,生成效果我就不用多说了吧,对话的情绪,真人感,还有行文之间的剧情连接,包括情绪起伏,更加牛逼, 大家可以自行看一下效果。所以说推荐大家在生成正文的时候呢,还是去使用我们的智慧版、吉祥版、细腻版这些比较大热的模型,我们可以简单看一下生成的正文效果啊,非常牛逼,非常牛逼, 我真的不用多说了,大家自己看就能看出来,对比出来效果,只要你是懂网文的朋友。那么 g p c v 四我们可以用来干嘛呢?我们可以用来进行 ai 审稿, v 四的逻辑能力虽然比不上智慧版,但是它在审稿上有自己的键数,我来生成一下大家就明白了,我们直接从这里呢选择一个,呃,选择一个打分版, 来看一下这四个 v 四给我们这个智慧版生成的内容能评到多少分。可以看到啊, v 四的评分已经出来了,它给这篇文章综合评分给到了一个六十八,会根据我们的内容进行分向扒皮,包括我们的扣分点在哪,以及我们的爽点密度节奏的分析,包括信息节奏与趋势效率等等,这些内容 我们都可以根据他所诊断的内容进行更改,后面还会对开篇的核心段落进行一些改稿修正,我们都可以选择自己 喜欢的内容放到中文里,还会给你指出必改的硬指标。所以说每个模型都有自己的特点和优势,大家可以根据自己的喜好去选择,根据自己文章所需要的文风去选择搭配不同的提示词呢,则有不同的生成效果。对 a i c 所感兴趣的关注私信我即可。

这几天体验了一下 deepsea v 四,还别说,确实好用,我让他帮我找文件,也能给我找到并且是真实的文件。然后我又让他帮我整理三级大纲,总体来看是要比我脑子想的要好很多,逻辑性和整体结构看都是没问题的,并且还让他根据不同学历写出的大纲,难度也是不一样的。 接下来你以为我要手敲内容了,那你真的太高看我了,我直接上传基本信息,把刚刚 deepsea 整的文件和大纲放进去,你要是有数据啥的,只管往里塞。 当然了,想要这种图标表格、公式代码流程图的,我们也只需要在这里点一下这个小按钮,我们来看看最终效果。格式排版整齐,整体内容还是很不错的。好了,接下来我要去卸载豆包了。

最近 deepsea 不是 发了 v 四版本吗?一听能降 ai 率,立马就动起小心思了,直接把初稿一股脑全丢进去。 结果测完一看, ai 率不减反增。不是 deepsea 不 行,是你方法用错了。正确方法其实是这样的,先打开专家模式,再把深度思考打开,最后一定记得关闭联网搜索,再配合提示词,让它重点去调整句式 语气和表达逻辑。虽然改的会慢一点,基本两三分钟才能顺完一段,但效果确实比直接硬改强很多。不过要是觉得一点一点搞太慢了,可以直接把整篇内容丢到呸泡鞋里面。他早就适配了维普、 格子、达之网等所有主流检测平台的 ai g c 算法,既保留原文核心逻辑和内容,又能彻底淡化 ai 痕迹,改完之后再去检测, ai 率也是稳稳降到合格线。

deepsea 的 影响力还在继续放大,今天一早呢, open call 最新版本就把 deepsea vs flash 作为它的默认大模型了,这是在 vs flash 这样的性能和成本,基本上是独立党的存在,对于龙虾这种非常消耗 token 的 这种场景,如果是我也会做第一选择, 所以呢,瞬间呢,其他的一些国产模型呢,在 deepsea 面前也不香了。另外呢,就是一个科技博主兼 ai 的 系统架构师叫 shawn onalho, 今 有发了一篇帖子,说法是他用 deepsea v 四 pro 替代了 cloud opera 四点六跟 gpt 五点四。他是把自己的 cloud code, codex, cursor 这一类的所有的编程的整体全换成了 deepsea 的 v 程序员,甚至不再使用 open router, 没有再去路由的必要了,月账单呢,直接下降了百分之九十以上,而且呢,据他说法是效果比之前更好。 所以我也来深度的分享一下 deepsea v 四的技术报告,就他的 tech report。 首先呢,他们做的是一个非常复杂的工作,因为在 v 四的版本中呢,整个的预训练量呢,对比 v 三的十四点八 t 呢,涨了两倍甚至更高。 v 四 flash 是 三十二 t, v 四 pro 是 三十三 t。 就 他们的预训练的两个版本,其实都有些区别, 因为参数翻倍,数据翻倍,所以训练稳定性的难度呢,也上了一个亮起。报告中呢, deepsea 明确指出,训练稳定性是一个他们在面临的挑战, 运行的过程中, d p c 用哪些方法呢?它用两个很有意思的提升它的稳定性的方式。第一个呢,叫做 anticipatory routing, 就是 预判式的路由,因为 m o e 模型呢,其实是自带路由的, 路由逻辑就是把一个任务激活对应的模型中的参数,找到合适的专家。原来呢,在 m o e 的 大模型就是模型中呢,有的网络是在路由,有的网络是在左执行,互相呢,其实是没法解偶的,这样的话,有可能会形成恶性循环,因为在模型的去年初期呢,当你的专家选择不准确的情况下 执行,也是没有效果,反而呢,互相影响。 deepsea 为了去解偶呢,决定用更早期的训练版本来去做第一步的路由,然后所谓的执行的五万网络呢,会基于早期版本去优化,再用参数呢,去更新自己的路由模型,打破了两者之间的恶性循环。第二种呢,叫做 sweetie lu climbing, 逻辑呢,就是把它在强化学习中的信号的数值呢,作为稳定的限制,在负时到时之间防止呢,非常大的异常。数学呢,影响了整个的 mo e 的 专家都有的选择,这个呢,虽然会影响一些准确性,但是呢,是在提升它的稳定性。那 deepsea 的 论文措辞呢,也很保守,说的是 may improve training stability。 所以说明在万亿参数的 m o e 模型的运行率中,没有什么是百分之百可靠的。说完运行率之后呢,说一下 deepsea v 四的中训练和后训练,所谓的中训练叫 mid training, 后训练公司呢,这部分呢,横列叫 continuous pre training, 它注入了海量的阳性 data。 换句话说呢,原来很多的模型是先做一个聊天的模型,再用聊天模型去适配智能体, 那 deepsea 呢?他一上来呢,就像梁文峰之前说的,这版模型就是为智能体而生的,所以他在基础学习阶段就见过非常的长,任务链环境反馈和协调 oxygen 工作,剩下就是他的后训练。 做训练呢,其实很有意思,跟我前面的视频和我们自己公司的做法是很相似的。两个重要的逻辑,一个是关于它的 reward model, 第一次选择引用了一个叫 generative reward model g r m 的 模型。这个呢,在我们公司呢,就叫 u b universalifier。 它呢,其实是针对一些难以验证的任务,就 how to verify 任务。所谓这种比较主观任务,没有用传统的 scale reward model, 类似数学变成这种可以验证的快速的直接给答案的这种可以分数的模型。而是呢,通过预设的 rubric, 就是 评估选择生成一个详细的评估报告,并从多维度呢去做打分。那 这个报告呢,反过来呢,也能给模型指出正确的发展方向,这是 deepsea 内部的回报方程的优化。在这样的回报方式之下呢, v 四的后训练用的一个很重要的方法叫做 multi teacher on policy generation, 就是 多教师在线策略抷瘤。它的所谓抷瘤呢,并不是抷瘤 cloud 这样的速断模型, 而是分两步。第一步呢,针对不同领域训练自己的 specialist, 就是 专家模型,包括数学专家、代码专家、 a 政专家以及办公专家、执行专家等。再通过多个专家去抷瘤到自己的 mo 大 模型里, 那其实如果没有 mo e 的 这种极大程度的大模型的话,它也可以通过多个专家通过手动路由来完成任务。那 mo e 的 逻辑呢,就是把这份路由的工作内化到模型内部,同时呢,再通过 shared experts 实现一些涌现能力。 另外重点就是 mo e 的 去年过程中呢,其实 v 四并没有缓存专家模型的 largest, largest 呢,就是最后的 to token 的 给出的 token 概率,这其实是一个显性的展示,而缓存了专家模型最后层的 hidden state, 就是深度学习网络的最后一层更隐性化的内容。训练时呢,按需呢,通过 prediction head 来重建到,这相当于它不是在缓存这个答案,而是缓存了得到答案的步骤。这步骤呢,比答案的它的整个的空间 space 会小很多,你最后需要答案的时候,你再去做一层计算就好了,这样的话,它的整个的可以生产的专家数量就会多很多, 这是一个很有效的性能的提升。在 a 阵层面呢, deepsea 也为 vce 呢专门做了一些优化。第一个叫做 deepsea 的 a 阵能力呢,在中训练后训练强化学习阶段呢, deepsea 搭建了一个数十万的并发的 sandbox 沙盒的实力,所以呢,它是可以有几十万台虚拟的电脑来跑代码,测 bug, 来不断地生成强化学习的训练反馈的,这是 一个基建的知识。第二呢叫 moe, 这个呢是一个属于通信计算一体化逻辑,因为在 moe 的 架构中呢,其实很多的时间是消耗在通讯阶段的,因为 它需要寻找合适专家,需要路由真正的计算的 g p u 的 掉量呢,其实很多时候在爱豆阶段就是它的很多时候,其实空闲的 deepsea 呢,尝试把通信跟计算都融进一个 single, 一个 hyperline column, 一 边传送一边计算,防止呢 g p u 在 中间中没有有效的发挥,基本上是把 g p u 的 功耗给炸满了, 像一边看食谱一边烧菜,而不是食谱看完之后再烧的一个逻辑。再者就包括他们自研的 d s m l, 是 deepsea 自己设计了一套类似 x m l 的 领域特定语言啊,这个就跟我们公司之前说的 code agents 逻辑是一样,用来替代他们 agent 之间的沟通协议,包括替代 j s 的 沟通方式。这样呢,把工具调用的成功率提升了一个档次。 因为本身 j s m l 这样的格式呢,其实是对人类看的比较稳定,但对 ai, 特别是大模型来说,并没有类似 x m l 这样的,通过定义跟 markdown 标注更加稳定。其他的一些 table 里面,技巧包 或 reasoning effort 分 模型训练,比如说不思考的 non think 模式, high max 模式分别训练,目的就是做到能省则省,该狠则狠,以及 interleave thinking 就是 miss 呢,是在 to calling 观念下呢,保留了完整的跨认知的推理历史,不是只做模型的推理能力的优化,而是包括各种工具的使用,跨维度的,长期的信息保持连贯性, 防止用户二次使用时候丢失它的记忆信息。以上呢,就是我们看到的 deepsea 在 tech report 里面做出的一些很重要的预训练跟中后训练的一些技能提升的技巧。

不是,这都什么年代了, deepsea v 四的标题还是百万头衔上下文, jimmy 一 点五不是两年前就支持了吗?同年的 kimi 号称两百万上下文,拉玛四更是整出了一千万上下文的绝活。但是别急,大模型上下文长度水可太深了,咱就问你们这些长度 保真吗?因为拿到论文就实测出所有大模型上下文,但真正能用的也就十六 k, 缩水了 百分之九十八。那是上下文长度到底有什么门道?真正的依照上下文为什么难做? deepsea 这回放到标题里,又有什么新花样呢? 大模型其实没有记忆,之所以能跟它对话,是因为平台每次都会把你们所有的对话全部发给大模型来声证回答。 这些对话加一起就是所谓的上下文,一旦超出模型能支持的长度,那就必须得重开窗口了,对话一停,感情清零。但这还不是最致命的, v 四论文的第一句话就点出了推理模型。现在的大模型普遍是推理模型这玩意,回答之前要思考半天,要是上下文窗口太短,哪 哪怕模型有潜力解决难题,但是思考空间不够,被卡脖子了也只能攻败垂成。再加上 agent 处理的任务越来越复杂,猛烧 token 轻松打爆上下文。为了让大模型不清零持续运行,人们搞出了很多机制, 上下文压缩 memory, 但是都是会损失很多细节。像 cloud code, 每次压缩完上下文都感觉一下子变准了。所以理论上上下文窗口越长,模型的能力越好。百万头盔有多长呢?对应五十万到七十万汉字,大约是一本红楼梦,所以理论上你已经可以用大模型写出这种草蛇灰线伏脉千里的小说了。 但实际上,那些号称支持了百万头盔上下文的模型,他们的体验别说伏笔了,我用 jimmy 三当心理医生聊了四十万头盔,他连我有什么病都经常忘。 超长上下文的体验为什么这么差?一个原因是,现在的百万头盔上下文从训练源头开始就是虚标的。比如 deepsea v 三,他会先用四 k 上下文完成百分之九十五以上的训练, 再花仅仅两千步把上下文扩展到一百二十八 k。 研究就发现,大模型对长上下文的开头和结尾印象还算深刻,但是中间会严重遗忘。 那么为什么不在训练阶段就搞原生的百万上下文呢?你肯定知道,大模型的核心机制叫 attention, 每个头肯要和其他所有头肯算 attention。 当文本变长,计算量就不是限行增长,而是平方增长。也就是说,上下文长度从四 k 长到一兆,这是二百五十倍。 但是计算量是二百五的平方六万两千五百倍,财神爷也训练不起啊!这还没完,就算训练阶段是扩展的,一照上下文,但是推理阶段也就是上线运行,用户要真往一照去用,你不还是炸了吗?有的观众不信了,说照你这说法,越往后用计算量平方增长,那不越卡越慢吗? 但实际用着没感觉啊。这是因为大模型能够商用。还有一项最重要的技术, k v cash。 大 模型的生成是不断的文字接龙,中间有很多计算是重复的。 所谓 k v cash, 就是 把很多中间计算结果别扔了,保存到显存里,这样即便上下文长了,但是因为可以在显存里直接找到之前算好的结果,不用重新算了, 计算量省了不少,但代价是显存爆了 k v cash 多太多了,那显存也不是地里长的呀。所以 jammer 和小米都是阶梯级价, token 越多反而越贵。我算了一下啊,即便是一个八 b 的 小模型,用到一兆 token, 显存占用也能达到一百四十四 g b。 那现在咱们来看 deep seek v 四的解法。其实开头我放了一个障眼法啊,论文的提眼其实不是百万 token, 而是 highly efficient 高效率 deep seek 要把百万 token 上下文的价格降低到日常能耗的水平。这就得解决前面说的 k v cash 显存爆炸以及原声训练计算量爆炸的问题。 其实业界也都在做这些事,那 deep seek 每次进化都伴随着一些些事那 deep seek 每次进化都伴随着一些计算量爆炸的问题,其实业界也都在做这些事,那 deep seek 每次进化都伴随着一些 k v cash 降低到了传统方案的百分之二。另一方面, v 四也不再像 v 三那样临时抱佛脚,而在训练的时候早早就开始扩展上下文长度, 训练数据量也和 v 三比翻倍了,而且特别重视长文党的争议,这就带来了更原生的更强的长上下文性能。榜单里有两个百万头根的测评项, deepsea v 四落后于 opus 四点六,但是超越了 gemini 三点一。 那这是怎么做到的呢? deepsea v 四的升级啊,是系统性的点特别多,咱们就说其中最核心的两点啊, csa 和 hca 这两个 a 呢,都是 a tsa, 说明对核心的 a tsa 进行了优化,主要靠的是疯狂的压缩,那同时这两个模块打配合, c s a 负责抓重点, h c a 负责看大局。 c s a 啊,是把一百万头梗的 k v cash 压缩成二十五万条,再挑出最有用的一小部分计算了 temperature, 但这么砍,重要信息不也砍没了吗?所以 h c a 是 和它互补的大局视角, 它压缩得更狠,一百万 token 压成了只有七千八百条,但接下来不挑选全部做完整的弹审,保证大局覆盖。这两种互补的机制交替出现,结果是,和前代的 v 三点二相比啊, v 四 pro 的 推理计算量降低到百分之二十七, k v cash 降低到百分之十。 轻量版的 v 四 flash 更夸张,计算量是百分之十, k v cash 只有百分之七,差出数量级了,但是整体性能相比 v 三点二又是全面提升。这么极致降本也是 deepsea 的 老手艺了,二四年的 v 二就提出了业界著名的 m l a k v cash 降低了百分之九十三。 v 三 v 四都在沿用二五年二月的 n i c 啊。这篇论文我当时还解读过, 对有 temperature 进行了改造,在六十四 k 的 上下文里取得了十一点六倍的加速。二五年底的 v 三点二又对有 temperature 进一步改造,在真正上线的模型上落了地,所有这些道路通向了 v 四,他把百万头衔上下文的价格打下来了。在我制作视频的时候, deepsea 突然来了波丧心病狂的二点五折, 折扣的价格大概是预三家的百分之五左右,在国内的大模型里也算是最便宜的一档了。有了这样足够便宜的百万头盔上下门,各种推理模型,各种 agent, 各种复杂任务,就有了更大的想象空间。以上就是主要内容了,如果你喜欢这样的视频,可以通过各种形式的互动表达你的支持,我们下期再会。

最近被 defc 威斯搞的有点无奈啊,就我目前呢是一边用 ai 写文章,一边用 ai 写代码,对吧?写代码写的是一个写作业的,我写文章用的就是那个写作 a 阵台写的两边的模型都是 defc 威斯,然后首先在代码这边, 这次这这个 v 四的表现呢?我觉得跟 glm 五点一没有起赶上的区别啊,就是所有简单任务全是一遍过,然后所有复杂任务呢?最多两遍啊,最多两次,几十次就完了,然后到目前为止没有犯过任何就是比较堆积的错误啊,什么都没有, 非常厉害。但是咱写作这边出问题了,哎,就是他写一篇文章,然后我觉得不好,我让他改,改完了我觉得还不好,再让他改,改了我感觉受不了了。我,我把整篇文章全删了,让他重新写, 结果他写出来是完全一样的内容,就我已经明确告诉他刚才写的不好了,对,也不要那样写了,然后他还是,然后他输出的还是完全一样的内容, 然后呢?我就继续删,然后再让他写他写的还是一样的内容。然后我就换了一种策略,我就说一段一段写,我不让你一次性输出一整篇文章,一段一段写。好,先写第一段,写完了我让他改,结果他没有改第一段,他又输出了后面的内容, 然后我就直非常直接的问了他一下,我非常直接的问了他一下。 无奈了,无奈了。

最近 deep seek v 四大模型出来了,用它整出稿的速度确实快了不少,也让不少同学打起了走捷径的歪心思。但真心不建议大家直接用它整论文。 一份合格的出稿,不仅要有规范排版、完整大纲,还要内容充实, ai 查重率达标。虽说 deep seek v 四产出的语句规整流畅,但模板痕迹太重,导师都不带开护眼模式的。 虽说新版本新增了联网解锁功能,能匹配到真实参考文献,但归根结底它只是大模型,很难贴合专业出稿的写作逻辑。如果想省心偷懒,还想稳稳通过审核,正确做法应该是自己去织网找文献。用关键词检查后,文献质量参差不齐,没必要逐篇点开细看,直接在左侧筛选栏勾选主次要主题, 时间限定近五年。再点击右上角的填字格,文献的摘要、关键词、年份、作者全都清晰可见。挑个十几二十篇导出,查新引文格式, 存好备用。然后就把专业的事交给专业的工具来干。选上学校的格式模板,最繁琐的一点就这么解决了。接着把参考文献复制粘贴,要是你需要图标公式或者代码,右边顺手一勾就行,剩下的等着就完了。一份结构清清楚楚,格式规规矩矩,一看就没少干活的初稿直接就完成了。

如何快速完成一篇硕士初稿?最近正好 deepsea 微视出来了,看看初稿质量怎么样。原先最怕 ai 瞎编参考文献,这次让微视定位了几篇相关文献,去知网一查,结果每一条引用都能在数据库里对上,偏偏有出处, 完全不搞无中生有那一套。然后顺手让他根据这些文献搭建了一个初稿框架。你别说,你还真别说,这确实有一套,让我有点意外。不过这个框架到手了,准备让他一节一节填内容时,却有点小问题。 骨架是立住了,但每段的内容明显不够丰满,段落之间的逻辑衔接也有点生硬,需要自己花功夫去润色和补充衔接句。所以微视限阶段能帮的忙还是先把框架搭起来。不过比起以前编文献已经好太多了, 至于内容还是需要自己填。要是没时间嫌麻烦,就把小题、信息、文献大纲一并喂进去,直接给你一整篇初稿。 文献不够,这里还能中英文在线补充,需要图标、数据、公式,点击对应按钮就能加上最后的出稿,排版整齐,内容像样,拿到手的就是一篇稍微修改就能用的出稿。

哎,兄弟们,一次一个 v 四刚好卡在五一前台上来,那这波红利不纯纯往嘴里塞,摆明了让咱结钱把出稿全部搞定,假期直接舒服躺完!必须跟上版本节奏,先充值,往高级解锁 打上两三个核心主题,年限锁定近五年。 pdf 都用上 v 四的了,文献不也得整最新的才配得上咱们新鲜出炉的出稿。快速筛选出十几篇文献,导出查新引文格式,再拿去找那条金鱼号称能跟贵他几十倍的模型掰掰手腕, 哈哈,我来尝尝咸淡黏贴近文献资料,让它梳理出一套逻辑扎实的三级大纲。最后的神级操作来了, 填好出稿标题之类的基础信息,只网整理好的参考文献一丢, deepseek 整的大纲也一丢,需要数据图表公式啥的,直接一键勾选添加最后 showtime 一 篇。内容逻辑严谨,学术氛围感拉满,段落内容饱满,图表公式一应俱全, ai 重复率双双稳,过关的出稿就到手了,我先去造后,五一了啊!

最近 deepsea 微四大模型出来了,用它整出稿的速度确实快了不少,很多人就动起了歪心思。但诗歌还是不建议用来整正文,因为合格的出稿要有规范的格式、完善的大纲、丰富的内容以及合格的 ai 率。 虽然 deepsea 整出来的出稿句式更标准了,但也更像模板化了,导师不用开护眼模式就知道是模型写的, 妥妥的 ai 率爆缸。当然了, deepsea v 四增加了联网模式,可以搜到真实的参考文献,但也不可否认,它只是个大模型,还是会胡编乱造。有着查验参考文献真实性的功夫, 师哥我早就去织网找全所需的资料了,然后就把专业的事交给专业的工具来干,选上学校的格式模板, 最繁琐的一点就这么解决了。接着把参考文献复制粘贴,整出一份贴合的研究方向的大纲拿去,跟导师敲定一下整篇出稿的框架不就确认了。 最后再勾选上几张图表,公式丰富一下。论文不到二十分钟,这一篇格式合规、框架完善、内容丰富且低 ai 率的出稿你就整完了,导师想找茬都挑不出毛病。

deepsea 微四 pro 王炸来袭,万众期待的微四全新版本终于正式发布了,想必很多做网文写作、小说创作的朋友都很好奇它的真实写作能力到底怎么样? 今天这条视频我就带大家把 deepsea 写作能力拔的明明白白,而且我还整理了一份 deepsea 微四的写作避坑加使用注意事项的完整文档,想要这份文档的朋友们,我们评论区见。话不多说,我们直接进入实测的环节, 我会从小说的大纲生成这门写作 ai 审稿、改稿的三个核心方向,带大家彻底看清 deepsea v 四的真实水平。 咱们先把结论放在前面,对比老版的 deepsea v 四的提升确实很大,各方面的能力都有明显的优化,但如果综合网文的整体创作实力来看,它还是比不上咱们常用的智慧版、细腻版、氛围版以及我们的吉祥版, 具体差距在了哪里?先来看我们的第一个核心小说的大纲生成能力。我直接在创意工坊里面的大纲生成器里选择 deepsea v 四 pro 版本给大家实操研制平台。还有很多网文大佬提前已经写好了预示的提示词,大家可以根据自己的创作需求随便选。 这里我就用以文成新老师的提示词举例。我们设定一个题材是比如说丧尸末日,灵感就是主角带着重生系统以及他无限的空间储存能力重生。到了末日发生前的前两天,我们直接点击生成给大家看最真实的效果。 大家可以看到大纲已经快速生成了核心设定、核心卖点以及爽点的定位,还有我们的世界观以及主角的设定, 主角人设、反派设定都一一罗列出来了,内容非常的全面。这里必须说一下 deepsea v 四 pro 的 最大的优势就是它的发色能力很恐怖,你只要给他一个基础的灵感,他就能无限的去延伸拓展, 生成大量的相关内容。就比如说我们的角色设定来说,智慧版本和细腻版本这些模型通常只会给出两到三个核心的角色,但是我们的 deepsea v 四就能直接给出 到六个甚至是更多的细节设定。但是它的缺点也非常明显,它缺乏网文的创作和专业的判断力, 虽然能够发散内容,但是剧情容易变得散乱,而且题材没有创新,整体故事的梗概会变得非常的平淡,必须要用我们自己手动去补充革新的大纲内容, 才能把它发散的内容整理和规划。但是有很多朋友问,为什么自己用官方的 deepsea 微四生成的效果远远不如我?演示的 核心的原因就是星月写作有专属的平台适配的提示词,这是直接用官方模型完全比不了的,也是 ai 写作创作的核心关键,单纯靠官方的模型很难生成高质量的内容,好生成的大纲我们也可以直接保存到备忘录,方便后续的关联章节写作。 接下来呢,我们就测试第二个重点,正文的写作能力。我们先来说说 deepsea 微四写正文的优点,它的语言表达是比较自然的,长线生成的内容也很稳定,出稿效率也非常高, 单次生成大量文字,也基本上能立住人物的设定和基本的缓解情绪拉扯,也能做到基础到位。但是 致命的缺点也非常突出, ai 的 味道实在太浓了,完全缺少真人的情感,没有细腻版和智慧版这种比较细腻的人格情绪和真实的文笔质感,写着写着剧情就会变得非常平淡,没有起伏。 他就只生成简单的人物对话,并没有描述人物当时对话的情绪和情节内容,这很难做到番茄小说要求的黄金开篇以及对话入局,完全达不到优质的网文创作要求。为了让大家更直观的看到差距,我用相同的剧情要求切换到细腻版模型,生成正文, 大家光看开头就能够感觉得到巨大的差别。细腻版生成的内容情绪冲突拉满,剧情衔接流畅,文笔非常的细腻,而且真人感十足, 不管是对话的张力还是剧情的节奏,全方位的都碾压 deepsea 为四。所以这里明确的告诉大家,如果你想 写好小说的正文,写好黄金开篇,一定要优先选择智慧版、细腻版以及奇像版,这些模型, deepsea v 四完全不适合作为正文字作的主力模型。最后呢,咱们来讲一讲 deepsea v 四最适合它的定位, ai 神稿和改稿。 虽然它的逻辑创作能力比不上细腻版本,但是神稿这件事情上它有着独特的优势。 我们给他的细腻版本生成了优质的政文,做测评打分,把文章的内容都说的明明白白,甚至还会针对核心的段落给出改稿的修正方案, 标出必须要修改的硬质标,我们可以完全根据他的诊断意见去优化,我们的政文实用性是非常强的,所以总结下来呢,每个 ai 模型都有自己的专属优势,大家一定要学会分工使用,写大纲,做内容发散。 v 四, 写正文,做优质开篇,刻画人物情绪,用我们的细腻版本、形象版本或者是智慧版本,写完正文找问题做测试改稿,我们再用回我们的 deepsea 微四。 但是一定要记住,要搭配专属的提示词,才能让模型发挥到更大的实力,不同的提示词生成的效果简直是天差地别,所以对 ai 写作感兴趣的朋友们赶紧去试试我们新上线的 deepsea 微四,对 ai 写作感兴趣的朋友们可以点赞关注。

一百二十八 g 的 mac 现在是最便宜的 deepsea v 四满血推力方案 reddit 支付推出开源的 d s 四,把 mac 的 算力和统一内存发挥到极致,最绝的是首创的十盘 k v 缓存, 轻松跑一百万超长上下文三万多买台 mac, 超低功耗全天候跑代码 tucker, 从此彻底自由。你之前买显卡的钱可能真白花了。 mac 要取代算力卡了吗?你怎么看?

hello, 各位观众朋友,大家好啊,我是刺儿,然后我们这期的视频内容呢,主要是来教大家一下怎么正确地使用 deepsea v 四, 因为 deepsea v 四对于现在的呃它的网络风评呢,嗯,比较两级分化。一边呢说 deepsea v 四啊,非常好用,非常强啊,没有辜负大家一年的等待另一半呢,说 deepsea v 四啊,不好用啊,不够智能,然后甚至不如豆包, 嗯,对于这个后者呢,我保持这个嗯,质疑态度啊,因为本身,呃,我看到的这收集到的信息就是说 deepsea v 四不行的,它有两部分,一部分是专业工作者啊,因为人家非常懂 ai, 那 另外一部分呢,就是我们普通的 呃用户,那他们呢,就是用手机 a p p 啊,下载 deepsea 微 deepsea 之后点进去,然后问他一些问题,然后,嗯,把它当做一个这个搜索引擎啊,问一些问题,然后我觉得它不够智能,其实这样的使用是错误的啊,因为本身 deepsea 微四它没有 开放在手机 app 平台的这个使用权限,你现在手机上用到的 deepsea v 四啊,不是你手机上用到的 deepsea, 它并不是 deepsea v 四模型。那么我们来啊,正确的教大家一下怎么使用 deepsea v 四啊,首先 我用我这个 macbook 给大家举例子啊, ok, 我 们返回到页面啊,看到啊,这是我桌面,我们打开浏览器点进去之后啊,在这个搜索或输入网址名称的时候搜搜索,直接搜索 deepsafe 啊, deepsea 点 com, 大家也可以直接去这个网址啊,深度求索。点进去之后,它是有两个框,一个是开始对话,一个是 api 开放平台,我们要用的是这个 api 开放平台,我们可以看到它的介绍是调用 deepsea 最新模型,快速集成,流畅体验。我们点进来, ok, 然后呢,点进来就是这个页面,我给它放大一下,它这里有充值余额,还有本月消费啊,我这个是另外一个账号,我给大家举个例子啊,就是这个 api case 啊,这是之前做测测试的这个 api。 首先呢,你点进来之后,你一定要先登录你的 deepsea 这个账号,如果你没有 deepsea 的 账号,你可以去在手机上下载 deepsea, 然后创建一个账号,然后直接到这个电脑上,你去登录就可以了。 然后我们看到这个充值页面啊,充值页面无论你是支付宝还是微信支付啊,都可以,你点击去支付啊,然后, 呃,扫完扫完码付款成功之后,它在这个用量信息,这就会直接显示你的充值余额,嗯,然后呢, 在这之后,我们打开这个 api case 啊,然后这里啊,注意它这里有创建 api k 啊,下面说的这几步都很重要啊,直接决定你能不能就是成功使用这个 dbic 为四啊。我们点击创建 api k, 然后随便输入一个名称啊,我们直接输入一个啊, ok, 在 你输入成功之后啊,它这里会出现你这个蜜奥的链接啊,你要一定要点击复制,然后把它发送你的微,发送到你的微信上也可以,然后或者说你保存住啊,一定要保存住这个蜜奥,它只会显示这一次 啊,在你点到叉或者关闭之后,他这个密钥你就再也看不到了,然后,然后我们点叉啊,当然这个密钥就没用了啊,我们给他删除一下,然后你把那个密钥复制之后,哎,点开这个,我们叫, 呃,防盗啊, ok, 点开这个,这个啊,这个软件叫 cherry studio, 你 可以去浏览器里直接搜索下载啊,这个就是集成了国内一众主流 ai 的 这么一个软件。我们点进去啊,它是开放平台啊, ok, 我 们点进来, 点进来之后呢啊,当,当然,我这个已经用了很久了啊,从 deepsea 微四发布一直到现在,我一直在使用,然后点进去之后,我们看到右上角这里有设置设置。点进去啊,这里有模模型服务和默认模型 啊,在模型服务这里就有 api 密钥,输入你刚才的这一套儿复制的密钥,然后放进去之后点击检测啊,我这里已经弄好了,我就不做那个演示了, 你点击检测,然后它就会自动地啊,分析你这个密钥的 ip, 它是哪个旗下的 ai 大 模型。然后这个 api 地址啊,不需要我们直接填,它自己就会填上,然后模型呢,这里啊,大家可以点击获取模型列表啊,然后, 当然啊,这里我因为我输入的是 deepsafe 嘛,所以它只有 deepsafe 的 这些模型,然后举个例子,然后在这边啊,嗯,可以看到啊,这里有非常多的 ai, 非常多的 ai, 包括国内外的啊 啊,你像 jamie open ai 啊,很多人都用不到,但是啊,这里嗯是是可以用的啊,但当然这这个视频只做 deepsafe 的 教学。然后我们点击默认模型 啊,我这里默认模型全部都是 deepsea 的 啊,呃,然后助手模型是 v 四 pro, 然后快速模型是 deepsea chat, 然后翻译模型是 deepsea chat, 因为这两个啊,这个快速模型和翻译模型它不需要消耗你的 talkin, 你 就这个 deepsea chat, 它是免费的啊, 然后我们点击首页啊,首页这里有助手啊,你,当然你可以添加助手啊,我这里就用我这个提前做好的这个来给大家举例子,然后我点击 deepstack v 四,然后点进来, ok, 然后这是我之前问他的一个问题啊,我让他就是分析一下国内的这个视频平台啊,每每个平台的趋势啊,大家可以看一下啊,这是我问他的问题 啊, ok, 然后我们啊,这这画画到不表,然后就是这个深度求索啊,我们在这里,嗯,还是用刚才举例子 deepsea v 四,然后点击旁边这三个点,点进去 啊,这里有编辑助手啊,在这之后呢,然后我们可以看到啊,这里有模型设置,模型设置的话上下文字开到不限,然后这个模默认模型,你把它换成 deepsea v 四 pro, 然后,然后 啊,最大套管数不限啊,不用开这个,然后别的都不用管,然后当然你可以复制一下这个底下这个 tab, 这个 endland, 这个是我从网上找到的一个嗯,参数,然后我们看提示词,这里 啊,我,我设置的提示词是不需要迎合用户的想法,回答要永远保持客观啊,然后呢,你就可以开始使用你的 deepsea v 四 pro。

大部分人把 deepsafe 用错了, v 四版本综合能力现在重回国产第一,今天直接给你出 v 四保姆级教程,先带你看它现在到底强到什么程度。二 零二六年四月二十四号刚发布的 v 四系列,发布仅三天,第三方 super 四 lue 精准实测结果就直接炸场。 pro 版以七十点九八分登顶国产大模型综合榜第一, flash 版以六十八点八二分紧随其后拿下国产第二。 双版本直接包揽了国产榜单的前两名,把一众老牌大模型都甩在了身后。六大核心能力的硬核增幅直接给你摆明白。智能体任务规划能力 七十七点四九分,国产第一,比上一代暴涨二十点八七分,是这次升级最大的杀招,大白话讲就是他能自己拆解任务规划步骤,不用你一步步盯着叫。数学推理能力八十七点三九分,同样登顶国产第一, 硬核数理能力直接拉满,从小学算数到考研高数,没有他解不明白的题。幻觉控制。八十点六八分,国产第三, 仅次于 glm 五和千问三点五,意味着他瞎编乱造的概率极低,给你的答案靠谱度很高。科学推理七十九点二七分,国产第二,仅次于豆包专家模式,专业领域的内容拆解、逻辑推演,他都能精准拿捏代码生成。六十三点二四分,国产第三, 似于 kimi 二点五和豆包专家模式,稳居开源模型里的代码能力第一梯队,开发者和普通职场人都能用精确指令遵循。 三十七点八四分,国产第三,比上一代暴涨十一点八九分,从之前的国产垫底,直接冲进第一梯队,你让他干什么,他就严格按你的要求来,不会跑偏,不会露相,实现了全维度无短板。那这么强的能力, 为什么你用着总觉得不好用?核心原因只有一个,你从跟上就把它的两个模式用反了。很多人用了一年 deepsea, 根本没搞懂哪个模式适合干什么,回头还骂他能力不行,这完全是把屠龙刀拿来切菜了。快速模式运行的是 v 四 flash 版本,主打响应快、成本低,全功能免费无门槛。它适配日常闲聊、简单提问、清亮文本处理、基础信息查询, 用它完全够用。但你要是拿它解高数,做复杂报告、写代码,那肯定会觉得它能力不行,这不是它的问题,是你用错了场景。而专家模式运行的是 v 四 pro 版本,是这次升级的核心杀招。佛有登顶榜单的硬核能力, 全在这个模式里,这才是你真正应该学会使用的方法。下面这三大专属用法,普通人直接照着用,效率拉满十倍。第一个,用它做全场景数学问题解答,学生党,职场人刚需中的刚需。他有着国产第一的数学推理能力, 不管是中小学数理化作业公式推导、大学高数微积分考研考公的数量关系题,还是职场人需要的数据分析、财务核算,他都能精准搞定。他不仅能给你标准答案, 还会拆解每一步解析思路,标注易错点,讲透底层逻辑,甚至给你同类型题的通用解析技巧,比网课老师讲的还细致。给你一个直接就能用的指令模板,我需要你讲解这道题,先给出标准答案, 再一步步拆解解析步骤,标注核心考点和易错点。最后给我三道同类型的练习题,附带答案和解析,直接复制粘贴就能用。第二个,用它的科学推理能力做内容校准, 做自媒体写报告的人,靠它彻底避免翻车。不管是视频内容的技术参数核对、 ai 测评、数据校准, 还是行业报告的深度拆解、数据交叉验证,又或是科普内容的真实性核实,独家细节挖掘,他都能精准排查数据错误,核实内容真实性,挖出同行没注意到的信息差,直接把文案丢给他,说帮我核对这篇文案里的所有数据 错误,给出正确数据和权威来源补充三个差异化独家细节,直接优化出有干货、有爆点的文案。最后给你一个高级玩法,用它的顶级智能体能力搭建你的专属数字员工。很多人到现在都不知道智能体到底是什么, 说白了,他就是把 ai 从你让他干什么他才干什么的被动工具,变成了你告诉他要什么结果他自己想办法干完的 主动执行者。之前你用 ai 做报告,得一步步给指令盯着改,随时纠错,前前后后要折腾十几轮。现在用 deepsea v 四的智能体能力,你只需要定一个最终目标,它会自己拆解任务 规划步骤,调用工具自主纠错,最后直接给你交付成品,全程不用你定 deepsea v 四在闲聊、语音交互、创意文案商品选择上,不如豆包千问顺手。本地部署对新手也有门槛,所以选对场景是你最应该注意的。 最后问你两个问题,你已经用上 deepsea v 四了吗?最让你惊艳的是哪个能力?评论区告诉我!收藏转发这条保姆级教程,下期带你解锁更多 ai 提效的隐藏玩法!