粉丝2931获赞2.5万

好一个良渥的恩情还不完了,三亿 toon 只用了不到十九块钱。不过纯烧 toon 氧 hems 和 openclaw 这种智能体的话还是有点兜不住。我用 cloud code 接 deepseek 的 ipi 做两个软件,一个是在前端监测癌症的画 cid 图的软件, 还加入了基础的绘图功能,能自己去改一改图。另一个是 doident 的 管理面板和监测面板,还加入了聊天弹窗功能。就这两个软件,一共差不多才用了一亿的 token, 只花了差不多七块钱。做完之后,我这的 token 显示只有一亿多,余额还有十二块多。但是我的 ident 在 做东西的时候犯的错有点多,我就训了他一会, 不到一个小时,回来一看 token 直接飙到了两亿多,余额直接剩了四块,直接扣走了我八块钱。虽然一亿 token 八块钱也很便宜,但是这种纯聊天儿的消耗速度也有点兜不住。所以我比较推荐的方案是在养 openclock 和 hermes 的 时候 也备一个 mini max 的 ipi。 mini max 蹦归蹦,但是量大管饱,再加上这样的一个快速切换,训练对话的时候用 mini max, 正经做任务的时候切换成 deepsea, 也不用担心 太笨的模型会把你的智能体给养傻。这些智能体本质上就是本地的文文档,然后发给大模型去处理,不管你对话过程中是怎么样的,只要你最后写进记忆文件的文本是对的,它就没问题。

各位网文作者们,你们催更的对比视频又来了,前两天呢,我发了一个视频,对比了我们新出的 deepsea 微四和我们的细腻版本到底谁更香, 结果评论区里直接就炸了,好多朋友都在刷氛围版呢,氛围版也很好用。今天呢,我们就来对比一下我们的新宠 deepsea 微四和我们的写作王者 氛围版的写作风格,并且还有整理好的 deepsea v 四注意的使用文档以及避坑要害,想要的朋友们可以点赞评论区留言。我们都知道 deepsea v 四写作的逻辑很严密,剧情不崩, 而且擅长构建清晰的故事框架,角色卡和世界观,适合长篇小说后期的稳定发展。而且大缸和细缸的能力很突出,优势就在于它可以处理超长的上下文, 适合多线的叙述和大量的伏笔。既然他写角色卡的能力很突出,我们今天就来看一下用 deepsea 微四写出来的角色卡以及他的写作正文文风和我们的氛围版到底有什么不同。 我们在这里呢找到我们的创作工具箱,里面有一个人设生成器模型呢,选择 deepsea 微四,我们就拿末日丧尸题材来说,写一个女主重生后自带系统,而且我给了他第一二张的大纲,让我们来看一下他的生成效果。 很快啊,女主和女二的基本信息都已经出来了,而且还有我们的人物目标和人物湖光,甚至连女主的天赋技能以及口头禅都已经整理好了,我们复制到我们的备忘录里面,方便我们以后的使用。就拿我写了一半的末日文来说吧, 首先呢就要创建我们的角色,在这里找到我们的角色库,把我们刚才复制的内容在这里一键识别。第一个呢就是要测我们的 deepsea v 四的写作能力,我们 ai 模型选择我们的 deepsea v 四版本选择的是末日丧尸选择我们要出场的角色卡, 刚才我们已经建立了,这样非常方便。本章剧情呢,就输入我们的第一章的大纲提示词,选择已完成新老师的我们一键生成。你们看生成速度也是很快啊,看一下他给我们生成的内容,开头就是一个紧张刺激的环节,直接是交代了人物时间和背景, 而且后面的剧情一点也没有拖拉,非常的细节。哦,这里呢还会提示,我们到这里就已经写到了两千字了,这是系统更新了一个新功能啊,很贴心。整体看下来剧情也是非常的紧密, 跟我们的大纲内容完全是非常符合的。但是我们看一下他的文风,非常的简洁,基本上没有什么人物的心理描写,就只是简单对话和推动剧情的文字,并没有什么代入感。你看那你路上小心 顾寒清挂断电话就非常的简洁,感觉就像是在机械写作一样,给我的整体感觉没有什么代入感,我只是一个第三视角看故事的人,而且写作的文风还是比较 ai 机械的, 整体读下来的感受就是为了推动剧情而去推动剧情,少了一些对人物的形象刻画, 而且结尾的钩子感觉留的也不是很好,观众看到这里应该就已经走掉了,但是如果你要是写简约风,剧情不拖沓的文风还是比较合适的,像这类风格的网文作者可以选择我们的 deepsea 微四。 好了,接下来呢,就看我们的写作王者氛围版本依旧是故事题材,角色卡和本章内容,这些我都没有动,我们来看一下它的生成效果。哇塞,单看开头就已经看出来,文风确实是相差很大了, 时间、地点、人物都已经交代了,而且还有详细的细节描写和人物的心理描写,你们看他说话时的动作描写以及心理描写,文风非常的细腻啊。不同于 deepsea 微四的就是他的文风很细腻,交代的事情也很完整,而且在读的时候很有代入感, 脑海里就直接浮现了他们的动作神态以及紧张的氛围。结尾的这个沟字留的也是比较好的,叫人有想读下去的冲动,而且生成的字数也要比 deepsea v 四生成字数要多。总结来说呢, deepsea 偏简约风,文笔风格一般是偏直白和机械, 少的心理描写和细节的刻画,但是它的节奏快,剧情也是不拖沓,适合纯推动剧情。虽然代入感弱,结尾的勾也不是很吸引人,但是如果你要是写文风比较简洁的作者,可以去使用我们的 deep sake。 而氛围版的文风是比较细腻的,人物的动作、神态、心理活动都很到位,而且给人的画面感很强,让人读起来非常有沉浸感, 结尾的悬念也留的非常好,能够勾住读者继续往下写。简单来说呢,如果你要是写快节奏和剧情爽的,可以选择我们的 deepsea, 文笔要细腻且注重带入感的可以选择我们的氛围版。想要同款创作工具的可以点赞关注,私信我即可。

大部分人把 deepsafe 用错了, v 四版本综合能力现在重回国产第一,今天直接给你出 v 四保姆级教程,先带你看它现在到底强到什么程度。二 零二六年四月二十四号刚发布的 v 四系列,发布仅三天,第三方 super 四 lue 精准实测结果就直接炸场。 pro 版以七十点九八分登顶国产大模型综合榜第一, flash 版以六十八点八二分紧随其后拿下国产第二。 双版本直接包揽了国产榜单的前两名,把一众老牌大模型都甩在了身后。六大核心能力的硬核增幅直接给你摆明白。智能体任务规划能力 七十七点四九分,国产第一,比上一代暴涨二十点八七分,是这次升级最大的杀招,大白话讲就是他能自己拆解任务规划步骤,不用你一步步盯着叫。数学推理能力八十七点三九分,同样登顶国产第一, 硬核数理能力直接拉满,从小学算数到考研高数,没有他解不明白的题。幻觉控制。八十点六八分,国产第三, 仅次于 glm 五和千问三点五,意味着他瞎编乱造的概率极低,给你的答案靠谱度很高。科学推理七十九点二七分,国产第二,仅次于豆包专家模式,专业领域的内容拆解、逻辑推演,他都能精准拿捏代码生成。六十三点二四分,国产第三, 似于 kimi 二点五和豆包专家模式,稳居开源模型里的代码能力第一梯队,开发者和普通职场人都能用精确指令遵循。 三十七点八四分,国产第三,比上一代暴涨十一点八九分,从之前的国产垫底,直接冲进第一梯队,你让他干什么,他就严格按你的要求来,不会跑偏,不会露相,实现了全维度无短板。那这么强的能力, 为什么你用着总觉得不好用?核心原因只有一个,你从跟上就把它的两个模式用反了。很多人用了一年 deepsea, 根本没搞懂哪个模式适合干什么,回头还骂他能力不行,这完全是把屠龙刀拿来切菜了。快速模式运行的是 v 四 flash 版本,主打响应快、成本低,全功能免费无门槛。它适配日常闲聊、简单提问、清亮文本处理、基础信息查询, 用它完全够用。但你要是拿它解高数,做复杂报告、写代码,那肯定会觉得它能力不行,这不是它的问题,是你用错了场景。而专家模式运行的是 v 四 pro 版本,是这次升级的核心杀招。佛有登顶榜单的硬核能力, 全在这个模式里,这才是你真正应该学会使用的方法。下面这三大专属用法,普通人直接照着用,效率拉满十倍。第一个,用它做全场景数学问题解答,学生党,职场人刚需中的刚需。他有着国产第一的数学推理能力, 不管是中小学数理化作业公式推导、大学高数微积分考研考公的数量关系题,还是职场人需要的数据分析、财务核算,他都能精准搞定。他不仅能给你标准答案, 还会拆解每一步解析思路,标注易错点,讲透底层逻辑,甚至给你同类型题的通用解析技巧,比网课老师讲的还细致。给你一个直接就能用的指令模板,我需要你讲解这道题,先给出标准答案, 再一步步拆解解析步骤,标注核心考点和易错点。最后给我三道同类型的练习题,附带答案和解析,直接复制粘贴就能用。第二个,用它的科学推理能力做内容校准, 做自媒体写报告的人,靠它彻底避免翻车。不管是视频内容的技术参数核对、 ai 测评、数据校准, 还是行业报告的深度拆解、数据交叉验证,又或是科普内容的真实性核实,独家细节挖掘,他都能精准排查数据错误,核实内容真实性,挖出同行没注意到的信息差,直接把文案丢给他,说帮我核对这篇文案里的所有数据 错误,给出正确数据和权威来源补充三个差异化独家细节,直接优化出有干货、有爆点的文案。最后给你一个高级玩法,用它的顶级智能体能力搭建你的专属数字员工。很多人到现在都不知道智能体到底是什么, 说白了,他就是把 ai 从你让他干什么他才干什么的被动工具,变成了你告诉他要什么结果他自己想办法干完的 主动执行者。之前你用 ai 做报告,得一步步给指令盯着改,随时纠错,前前后后要折腾十几轮。现在用 deepsea v 四的智能体能力,你只需要定一个最终目标,它会自己拆解任务 规划步骤,调用工具自主纠错,最后直接给你交付成品,全程不用你定 deepsea v 四在闲聊、语音交互、创意文案商品选择上,不如豆包千问顺手。本地部署对新手也有门槛,所以选对场景是你最应该注意的。 最后问你两个问题,你已经用上 deepsea v 四了吗?最让你惊艳的是哪个能力?评论区告诉我!收藏转发这条保姆级教程,下期带你解锁更多 ai 提效的隐藏玩法!

兄弟们,我又来了,我是没有想到呀,昨天我发了一个抖音,没想到评论区惊现了一位大佬在推广他的编程智能体,我就下载了, 于是我今天就试了一下,就是他 deepsea renaissance, 他 是 deepsea 原生的代码智能体,这个作者游戏出身,代码功底应该非常的扎实, 整个架构也非常非常的厉害。他有一个非常省钱的技术,就是可以让大量 token 乖乖的命中缓存。而这边呢,就是这两天比较火的 deepsea, 它虽然支持中文,但是呢不是原生中文,有的时候呢会不太方便。另外我使用下来,这个 token 消耗还是比较大的,我甚至都不敢用 pro 模型, 但是他从设置到配置全部都是中文的。他有一个我非常喜欢的地方,就是这里有一个 web 界面,我打开给大家看一下, 在这里大家看到了吗?这里我的对话是同步的,这里 这里是一个突兀的镜像,这边这里也可以实时的去调整一些强度啊,模式啊之类的, 然后这里有很多的,你可以去设置,这里可以获取余额啊,比如说像这里,我今天小跑了一下,那缓存的命中率是百分之九十五, 非常的强大。还有工具啊,基本上呃该有的都有了,非常好用, 虽然没那么火,但是我觉得这个项目的潜力也是非常巨大的。另外给大家看一下这两个呃, get up 的 地址,这个是兔翼的, 这个是 reasonx 的, 我个人觉得这个名字取得非常的不好,如果叫做 deep sea, cold 之类的名字,可能会比现在要火的多啊。哦,这是吐译作者,这是经常出现在新闻上 这个 reason 的 作者主页,他,他是游戏出身的,这是他做的一个框架,应该是一个关于游戏的,这是一个游戏框架, 这个作者大部分项目都是 ps 研,推荐给大家,大家可以试一试,支持国产作者。

我用国产的 web 克令工具,然后配合国内的大摩天 dvd 为四做了一个量化交易的呃工具。呃,现在整个量化交易的系统呢,已经全部呃比较完善了,包括那个策略的编制,然后因子的挖掘,全生命周期的管理,然后到选股实施选股。呃, 然后呢我们对自己的策略或者是因子呢可以进行回测啊,进行回测。这两天呢,我们,嗯正在对自己的第一个策略进行进行那个啊量化的一个处理,嗯,然后对回测数据比较好的 策略或者多因子多因子组合呢,我们会把它部署到我们的模拟盘里面去啊,部署到部署到模拟盘里面去去自动去执行。那模拟盘里面呢?策略呢?我们可以对策略进行进行一些管理,嗯,然后也可以部署一些新的策略, 我们可以把因子多因子和策略啊,传统的选股的策略和多因子组合进行一些啊编制,嗯,然后我现在正在我选择的第一个, 嗯,策略就是这个啊,空中加油的一个,这是我们传统的交易模式里面的一个,嗯,比较经典的打法,他,嗯比那个就是有资的涨停敢死队的方法比较更加的,嗯,接近趋势和就是没有那么激进的一种,嗯, 方法,但是它的效果还是蛮好的,在实战的时候,就是啊,实际实际上操作的时候,他可以对一些啊,比较强势股,对,嗯,就会比较能挖掘出来啊,当然了这里面也有一些可能会引起亏损的一些规格。那我们会在实际在交易的时候呢,那我们就会啊,根据各股的这种表现啊,形态啊,对它进行选择,然后 我们呢会尽量的,就是啊,想法呢,就是用量化的方法能够啊吃到后面的涨幅,但是规避掉啊,盘中被洗出来的这种问题。我们在如果我们用嗯就是 炒股软件去去测试他的无论是成功率啊,还是还是一些那个基础的数据,我们觉得他整体的表现是非常不错的。嗯 啊,利润整体的利润表现都是非常不错的。嗯,即使以今年今年的数据来作为参考啊,但是呢我们现在遇到了一个很大的问题就在于啊,我们如何把传统的啊,传统的指标进行量化处理啊,那量化处理以后我们的结果呢?我我大概测试了一下 啊,回测了一下,回测了一下,我们回测的方法呢,也解决了这个啊,交叉验证的啊,随机随机验证的这个选择,那时间周期呢?我们进行,然后我们可以呃采取这个策略啊,用不同的策略和这个多因子组合的方式进行回测,但是我们测出来的结果呢,跟我的预期差异非常大。 嗯,今天呢我们主要想介绍一下,就是就是我们呃讨论比较多的,这个很多人认为啊,我用量化工具没有办法 帮助我实现盈利,就是你用自动化的交易工具啊,你,你自己去编制一些策略啊,没有办法去营去盈利,因为我们的方法,我们跟机构的这种,嗯,多因子的这种挖掘, alpha 因子的挖掘还不太一样啊,我,我个人觉得就是从我作为股民的角度去考虑这个问题的话,我是认为从传统的啊 方式里面去挖掘这些因子可能是一个比较务实的啊,也是很多机构在用的一些。嗯,方式,嗯,其实从过去就是我们,嗯很多传统的因子到现在也一直在使用着,但是我个人呢就觉得我们是必须要嗯 把量化的思路跟我们过去的啊,做股票的一种习惯和方法要进行结合,嗯,进要进行一个一定的就是规范, 只有这样的话才能够应对。现在就是量化交易对于我们整个市场的啊影响,因为量化交易已经重塑了我们整个市场,如果你还是用传统的这种方法的话,我觉得是,嗯可能会被吊打, 嗯,我们也我们也知道那个像机构他们挖掘因子的话可能都是数以万计的,然后这些因子的话也在不断的失效。其实我们传统的方法也是一样的啊,也是要不断的去升级的。如果你,嗯, 就像我们前段时间很多油脂反应啊,现在打板已经不灵了啊,打板的方法已经为什么没有没有超额的那种收益了。嗯,其实我们如果从啊量化交易的就是量化的角度去考虑这个问题的话,嗯我们就会发现什么呢?就是,嗯,举个例子吧,就说展厅干死队他们的方法, 嗯,用量化去去去考虑的话,他是什么样什么样的一种东西呢?他其实,嗯,我们可能会说,啊什么啊,什么二板钉龙头啊,可能要找市场最强的龙头啊,不要去抓杂毛呀。其实他在呃可量化的, 可量化的这个角度去考虑的话,它其实可以被裁剪为非常多的因子,这些因子的话啊,本身是不是具备一定的预测能力?本身具备一定的,呃呃,在 r c r 二的方面可能表现的本身就比较好。 嗯,那比举个例子吧,比如说像啊,我们市场抓整个市场的情绪啊,会推动龙头去快速的上涨啊,连续的上涨啊,那它的动量是比较充足的,那我们把它裁剪成 机构的因子,他可能就是啊,就比如说短期的动量因子啊,涨停涨停基因的因子呀啊,或者是封板封板因子呀啊,封板强度因子呀,那这些这些因子可能机构他们已经也在挖掘, 那这些挖掘出来的因子,他们进行组合用,用一些啊,统计学的一些神经学的一些方法啊,递进的那种学习方法,进行不断的组合以后, 他们会从里面找出来这种超额的收益,那找出来这种超额的收益的话啊,就会使这些因子就是大量的资金涌入到这些涨停板里面去,那可能传统的这种涨停涨停的这种思路可能就就会慢慢的开始失效,方法开始失效,你必须要再再去寻找新的方法。那从量化的角度来考虑的话,就是你要再去寻找新的因子 啊,这种阿尔法因子能够啊,能够在短期内啊获得比较好的那种 ic 值。嗯,真正的啊是可以可以预测获得超额收益的啊,这一部分因子, 那这个就是啊量化对我们传统的这种交易的影响,所以我们如果就是不使用量化工具的话,或者你对电话完全去摆脱,还用过去的方式去做股票的话,我觉得是有问题的。嗯,但在实战中到底什么样子,我们还要不断的摸索啊。 这话再说回来,我们这个叫我们这个系统,我们系统的话现在整个流程已经全部都走通了,虽然界面非常的粗糙,嗯,用起来很难用啊,但是整个完整的流程就是实战流程,我们是已经全部跑通啊,现在我们开始挖掘这个,就是把策略啊,传统的颧骨策略,把它进行啊,因子化、多因子化或者是量化,嗯, 这样去做,但是非常困难,大家啊,我反正需要,嗯,慢慢的去,一步一步的去,嗯,了解这个原因,然后一般一步一步的去改善,直到能够啊,在这些里面去就是利用传统的这种公式,传统的这种啊,效果很好的这种啊,这种, 嗯,思路里面去挖掘出来可以啊,用于实战的啊,用于用于自动化交易的这种啊策略,嗯,这个是我未来一段时间要做的事情, 大家如果有什么好的选股的思路和方法,或者是你能够在实战中确实是能够长期稳定盈利的,那它背后一定隐藏着很多啊,就是数学上的啊, 那种金融,金融学,从金融学或者从数学上它是可以解释的通的,它一定是有,背后一定是有比较深层次的数学原因的。那我们把它挖掘出来啊,重新进行组合,就可能会获得一些稳定的啊,超额收益。

现在 code 可以 直接使用 dc v 四了, code 确实好用,但是额度真的是不经烧,随便几个问题直接就清空了,又得等五个小时。所以我试着把 dc v 四接进去,烧了四 e token 之后,发现操作竟然很丝滑,体验也完全不输原版,关键是真的大碗便宜, 后面我会带你一步步接好。其实步骤是非常简单的,就三样东西, c c 叉, d c 的 a p i, 还有 c c switch, 而且工具我都已经整理好,你照着我这几部点,基本几分钟就可以搞定。 解压后先打开 c c 叉的文档,然后打开 emv 文件,里面会有一个密钥,这里你可以保持默认,也可以自己去修改一个。改完之后记得先保存,然后启动 c c 叉,它会弹出一个终端,你找到这个管理界面的地址, 然后按住 ctrl 键再点击,就会来到这个页面。进去之后把刚才 e v m 里面的密钥粘进去,就能够进入到后台,这里你可以顺手切成中文就行,这部分就基本搞定了。接下来我们去到 d c 的 官网,点击 api 开发平台,第一次进来得先注册一下,然后点击左边的 api key, 新建一个 key, 名字可以随便填。创建完记得先保存好,因为它只会显示一次。然后回到 c c 叉上面,选择 code, 中间点击添加频道,这里就可以直接把这个文档粘进去。最下面把刚才复制的 a p i 粘进去,创建就算成功了。记得顺手做两个设置,一个是选一下 openchain, 另外一个是把规范化,非常健 打开。这一步搞定, d c 其实已经接近来了,然后打开 cc switch, 点击上面的这个标志,右边新增一个配置,具体的参数你可以按照这个来就好。这里有三点是需要注意一下, 首先,这里的 api key 不是 d c 的 那个,是一开始 emv 里面的那个密钥。第二点,点击一下这个获取模型列表,就不用自己手动去填写了。第三点,把 e m 上下文窗口勾上,这样子才能全力去跑,下面这些都不用管,填完之后直接点击保存, 然后点击启动,最后把 codex 安装或重启一下,到了这一步就已经接好了。打开之后, codex 这里不是显示 d c, 它只会显示自定义。别慌,这个时候你随便发一句话,先试试能不能是正常使用。然后直接去看看 cc switch 的 使用记录,你会看到模型这一栏已经变成了 d c v 四 pro, 来源是 codex, 那 说明已经是链接成功了,也就是说后台真正在跑的已经是 deepsea 了。最后我补两个词,已踩过的坑。第一个坑是 cc switch 最新的版本,现在有 bug 会连不上 codex, 所以 别手痒去更新,直接用包里面的版本就行。 第二个坑是 d c v 四没有视觉能力,所以一旦你平时有看图识图这类型的需求,进来之后可能会有部分的能力用不上。不过好消息是这套流程本身是通用的,你可以直接换成其他的多模态模型,思路也是一样的。我是木马,陪你一起玩 air 赛博达子,咱们下期见,拜拜!

跳跳许久的 v 四终于来了。很多人看到 v 四发布,第一反应就是去看它的参数模型,一点六万亿的总参数,支持百万字超长文本。 这些数字听起来确实唬人,但如果你只看模型,那就错过了 v 四真正的杀手锏。现在的大模型都在比拼,谁能一口气吃下更多的文件。比如这次的 v 四,它能一次性处理一百万 token 的 超长文本, 相当于好几本厚厚的长篇小说。但很多人不知道,让 ai 读长文有一个致命的痛点,极度消耗算力和内存。 文章越长,模型随身携带的记忆包袱就越重,思考生成一个字的速度就越慢,成本也成指数级飙升。那为了解决这个痛点,在 v 四的官方技术主页上,研发团队公布了一套全新的混合计算框架。 官方数据显示,和上一代模型相比, v 四在阅读同样一百万文字的长文时,每生成一个新的字所消耗的计算量仅仅是原来的百分之二十七。而它用来存储这些上下文工作记忆的内存空间,更是被极致压缩到了原来的百分之十。 打个比方,以前的 ai 读完一个图书馆的资料,再回来回答问题,就像是背着一座山在跑步,非常吃力。而现在的 v 四,掌握了一种极简的记忆法,把沉重的书本化繁为简, 只带着最核心的几页纸轻装上阵。用武侠小说的话来说,这叫天下武功,唯快不破。 为什么说这点效率提升是 deepsea 的 杀手锏?因为这直接决定了人工智能能不能真正成为落地帮我们干活的支撑体。未来的 ai 需要帮你一口气看完几十份融长的合同,或者一整个庞大的代码库, 还要不停地查询资料、修改结果。如果运行成本太高,反应太慢,那这种 ai 助手别说个人了,企业可能都拥挤。 v 四砍掉了海量的计算和内存损耗,就是为了让自己成为更稳、更快也更便宜的干活底座。实测证明,你让他去写一个复杂的代码程序,他能像老程序员一样清晰拆解任务,直接给你升出一个成品。当然了, v 四限阶段也有局限,他暂时 缺乏直接看图看视频的能力,如果你想让他处理复杂的截图或者视频,他有可能还有点力不从心。总而言之, deepsea v 四传递了一个明显的信号,大模型的较量已经从单纯的比拼谁更聪明,进化到了谁能把工程效率做到极致。 不盲目追求花哨的概念,而是把算一账算到极致,或许这才是最务实的路径。好了,我是老宋,关注我,带你了解更深度的 ai!

大家最近使用 codex 时,额度是不是又不够用了?或者你是一个小白,还不会配置上网环境,连切记 gpt 账号都注册不了, 那么这期视频我会手把手教你,将性价比之王 deepstack v 四接入 codex 中,国内用户直连兼具经济和性能于一体,可以说是国内入门编程者上手的最优解,我们直接从零到一进行教学。首先打开网页,输入 node js, 点击进入,进入官网后我们点击获取 note g s, 之后选择对应的操作系统,点击安装程序,国内直联的话下载速度很慢,大家耐心等待。下载完成后,我们打开安装包,最后一路点击同意完成最终的安装。 下一步呢,我们搜索 codex 桌面端下载,点击第一个我这里以 windows 系统下载为例,我们找到微软应用商店,点击下载之后打开下载的程序, 下载完成后就会出现 codex 桌面端登录的一个页面,然后我们先不用管它,我们还需要 c c x 和 c c switch 这两个工具,有需要我飞书的小伙伴点赞评论加关注,我也会把我的飞书链接分享给大家。 我们将这两个安装包解压,解压之后点击这个 c c x, 然后这里有一个环境配置文件,这里可以看到我们的这个 s k 是 一二三四五六,这个大家记一下之后点击下面这个程序,然后我们找到这个管理界面,把这个链接复制粘贴到网页端, 打开之后我们在这里输入刚才的那个 s k 就是 一二三四五六, 然后我们点击这里切换到简体中文,然后我们点击这个 codex, 点击添加渠道,之后我们进入 deepsafe 的 官网, 点击 api 开放平台,然后我们自行登录之后找到这个接口文档,我们将这个 baseurl 进行复制,然后返回在这里粘贴。之后我们在 deepsafe 的 apikey 里点击创建 apikey, 这里随便命名, 然后点击创建,之后进行复制,同样在这里进行一个粘贴,然后呢我们点击右上角的详细配置,在这里把服务类型选择成 open i chat, 然后我们下滑,找到这个规范化非常键,我们将这个进行开启,之后点击创建渠道即可。接下来我们找到刚才解压的 cc switch 这个软件,我们同样的进行登录, 安装成功后,我们打开 cc switch, 然后在这里选择呃切的 gpt open i, 我 们点击右上角的添加, 选择自定义配置供应商名称,随便起一个名字,这个 api k 还是我们的环境配置的 k, 就是 一二三四五六。 之后 api 请求地址呢,我们就返回 c c x 中的这个 api 地址,我们将这个地址进行复制,然后在这里进行粘贴,之后点击获取模型列表, 这里我们就可以看到我们已经获取了 deepsea 的 v, 已经获取了 deepsea v 四的两个模型,然后我们往下滑,把这个一百万上下窗口进行打开,然后点击添加, 之后我们关闭 codex 进行重启,这里大家稍等片刻,因为是国内网络的指令,所以说它会有一些延迟。重新打开之后呢,我们选择这个 enter api, 然后输入一二三四五六。 进入之后呢,我们点击上面的 file, 然后点击 settings, 我 们在 general 下面往下滑,然后找到呃这个 language, 进行一个汉化,然后我们在这儿选择中文。进入之后,我们输入对话, 可以看到我们的 deepsafe 已经接入到 codex 中了,我们也可以直接让 codex 帮我们安装 skills, 比如我视频开头制作的 ppt, 就是 用这个 ppt skills 制作的。我们只需要在网页上输入我们想要的一个 skills, 找到 github 的 原始仓库,我们打开, 然后将这个链接地址复制到 codex 里,让它帮我安装这个网页里的 skills, 然后它就会一步一步自动化地去执行我们的操作,最终帮我们安装上了这个 skills。 然后我们之后制作 ppt 的 时候,它就会自动调用这个技能,帮我们生成这样风格的一个 ppt。 这个是 skills 的 一个安装技巧。本期视频就到这里,如果觉得对你有帮助,别忘了点赞关注,谢谢大家!

怎么安装 cloud code? 怎么把 deep 四 v 四 pro 百万上下文的满血版接近 cloud code, 以及怎么在 vs code 的 里面正式用起来? 这期视频带大家全部搞定, mac 和 windows 用户都可以看。嗨,你好,我是大牙。前两天我刚发了一条 web coding 的 完整零基础的入门教程,现在已经有十几万人看过了,非常感谢大家的点赞和支持。也有不少人真的跟着我的视频做出了自己的第一个软件,或者是自己的第一个网站。 但是呢,我注意到评论区和私信出现的最多问题不是问我怎么写需求,怎么写提示词,而是 cloud code 要怎么安装, deep seek 要怎么接进来。 如果你也卡在了这个地方呢?这条视频就是专门帮你补齐开始前的这一步的,新来的朋友可以看完这期视频之后,继续看我的上一期 web coding 的 零基础教程。那么我们现在正式开始 第一步,我们先来安装 cloud code, 但是在安装 cloud code 之前,我们需要先安装一个必备的前置环境,也就是这个 node 点 j s, 大家可以看一下这里的网址,自己输入一下吧,我不方便 放出来。然后在进入到这个页面之后,我们可以选择下面这个地方去点击你自己是 windows 电脑还是 mac 电脑, 然后去选择这里的对应的安装包,下载之后安装即可。安装完成之后, mac 用户打开电脑里自带的这个终端 app, 然后 windows 用户去搜索 powershell 这个软件,然后以右键管理员身份运行。 我们在自己的页面里面去输入 n o d e 空格杠 v 再回车, 这样我们能看到两个版本号,就代表我们安装完成,但是 windows 用户还有一步要做的就是我们要来到这个 get 官方网站,这个网址大家也可以自己手动敲一下, 然后在这里选择好你电脑对应的安装包,然后去下载,之后安装也是一路 next, 然后完成安装它就好了。 这一步所有的前置环境都部署完,我们现在来正式安装 cloud code, 其实真的非常的简单,我们只需要在我们的终端窗口或者是你的 power shell 里面, 我们粘贴上这一行一行的命令之后,按下回车,等待它自动安装完成就可以搞定了。 安装完成之后,我们还是在这样的一个终端窗口里面去粘贴这样一段命令, cloud 空格横杠横杠 version 之后再回车,这里就会出来我们 cloud 的 版本号,看到这一个就代表我们 cloud code 已经真的安装好了。 现在我们来到了第二步,就是把 deep seek 接入到 cloud code, 我 们进入 github 这个网站,然后去搜索 c c switch, 看到是这样的一个项目,我们点击进来,然后我们往下滑,看到这里 releases, 然后再次点击,然后我们继续往下翻,找到下载列表, mac 用户我推荐大家直接去下载这个 dmg 的 安装包,然后 windows 用户推荐下载这个 msi 的 安装包,也是下载之后直接下一步,下一步,下一步完成安装就好了。再下一步我们就要来到 deepseek 的 开放平台, 我们可以登录或者是注册创建你自己的一个新账号,然后我们再去做一下充值,这个金额呢是可以自定义的。充值完成之后,我们点击左侧的 api keys, 然后来创建一个新的 api key, 比如这个时候你可以给他叫 cloud code, 或者任何一个你喜欢的名字都好。然后我们点击创建,这里就会弹出来一串英文数字的字母,这个大家一定要现在就记好, 你可以把它复制下之后发送到一个你可以保存的地方,先保存下来,因为我们一旦这个时候点击了关闭,那这一整串的完整字母我们是不会再看到了,你只能去删除它,然后再重新创建。 还有一个就是你的这一串 api key 一定不要给你不信任的人或者是其他的陌生人去使用,因为这串 key 他 拿到的话,他可以拿去用,然后扣你的钱,所以大家一定要保管好自己的 api key。 接着我们再打开刚刚安装好的 c c switch 这个软件,其就是我们的一个给 cloud code 更换 ai 模型大脑的一个工具,它可以让我们自己去接入很多其他的 ai 模型。然后我们要注意这里的图标一定是要点在 cloud code 的 这个图标上的,再去点添加, 然后这里我们选择 tipsick, 然后这里有其他的很多的 ai, 大家都可以根据自己的需求去选择创建对应的模型就好了。 这里我们继续以 deepsafe 来举例,然后这里的 apikey 我 们把刚刚复制好的那串字母粘贴在这里,然后我们来配置模型的名称,我们继续回到我们的 deepsafe 的 开发接入文档,然后点击这个接入 agent 工具,然后再点击 cloud code。 在这里大家就可以看到,官方其实是有说明,我们如果要使用百万上下文的满血版,我们要配置这一个模型的名称,我们把这个模型名称复制一下, 然后在这里的主模型或者是 opus 模型,我们都可以让它变成这个模型,然后其他的这两个模型呢,我们都可以去配置一下我们的 v 四 flash, 然后我们继续复制这个模型的名称 粘贴,粘贴,然后打开最大强度思考之后就可以点击添加了,添加完成之后,大家可以先点击这个图标来测试一下它的连接状态,我们点击 看到这里显示正常运行了就没有问题了,像我还配置了小米的咪某,我如果要用的话也是直接一键起用就可以切换了。 现在我们来到了最后一步,也就是下载安装 vs code, 并且在 vs code 当中去使用我们的 deep seek, 我 们在这里去打开 vs code 的 官网,这个大家还是自己要手动输入一下这个网站啊,点开之后呢,我们就可以看到它这里会有一个下载提示按钮, 对应你的电脑的操作系统,我们直接点击这个下载就可以了。大家安装好了 vs code 之后,我们可以直接打开你的程序,然后先到左边的第五个按钮扩展这里点击, 我们先搜索 cloud code, 然后去下载这个有 a 社官方认证的这个插件,我们可以点击安装。 安装好这官方插件之后,我们再搜索 chinese, 然后大家可以按自己的喜好去安装简体中文还是繁体中文,我们继续在这里点击安装就好了。安装完成之后,在整个 v s code 的 左下角会弹出一个框,提示我们可以重启 v s code 来更换这个语言的显示。 要使用 cloud code, 我 们需要先创建一个项目的文件夹,这里呢,我以上期的 web coding 教程的项目为例,就是这个历史粘贴。 我们新建好一个项目之后,打开这里,其实左边是他的所有的文件列表,我们在这里可以去查看所有 那个档的所有的文件,然后我们可以在这里进行查看编辑修改。如果我们要使用 cloud code 呢?我们需要点开右上角的,这里有一个 cloud code 的 图标,我们点击 哎,就会出现这样一个对话的窗口了。在这里我们就可以正式的开始向他提出任何你想要的需求或者问题。比如我们可以再进行一次他的身份确认,先问他你是什么模型, 回车,然后他应该是会回答他是 d p 四 v 四 pro 的 呐,果然他现在说他自己是 d p 四 v 四 pro, 而且他的上下纹的是一百万的 tokens, 这就代表我们的所有的配置都没有问题。正式可以开始去 跟他提出你任何的需求,去创建你任何想要的项目,这就搞定了。其实可洛克的能做的事情真的不只是写代码, 他还可以帮你管理你电脑里的文件。你给他一个 obsidian 的 仓库,他能直接在这里帮你新建或者是编辑整理你的所有笔记,甚至还能帮你做每日代办的管理等等等等。他能做的事情真的非常非常多。下次有机会我再和大家分享 cloud code 在 除了编程以外的 曾经使用的经验。如果你还不会 webcoding, 可以 继续回看我的上一期的视频安装的过程,或者在使用上还有任何的疑问,我们在评论区接着聊。那这期视频就到这里结束了,我是大牙,我们下期视频见,拜拜。

我就问了 deepsea v 四 pro 一个问题,花了我一块九毛四。 deepsea v 四虽然来了,但是它大概率不是你的菜。通用 ai 的 c 端用户可以分为下面五类, q 度 chat、 重度 chat chat 加 cooke chat 加 code chat 加 cooke 加 code。 如果你从来没有订阅过一三家的产品,那你基本上就是 q 度 chat。 程序员和极客是后两种。 co work 是 最近几个月出现的,因为龙虾类 a 卷的出现了之后,大家就有了新的认知,不光可以和 ai chat, ai 还可以帮你在电脑上干活。重度 chat 的 用户呢,是以文本创作需求为主,比如说职场白领,这部分用户很容易向 chat 加 co work 转化。 那为什么说 v 四大概率不是你的菜呢?如果你是后两种,你瞧不上。 v 四模型能力很强,但是产品力几乎没有, 这两波人早就被三 c 圈走了。 cursor、 cloud code code 这些产品能够给他足够好的体验, dbc 不 一样,他压根没有产品体验。如果你是前两种,你用不爽。打开 app 或者网站,两种模式切换智能搜索开关,深度思考开关用户一个问题面临八种选择,太糟糕了。 轻度 chat 的 用户直接就懵逼了,专家模式叠加深度思考有什么效果?我哪知道这个问题要不要深度思考,联网搜一对网页强行拼凑答案也很差劲。重度 chat 的 用户更不爽, 再加上 v 四还是纯文本模型,没有多模态,中间的 chat 客户群体基本上也不会用。所以从产品体验上来说, v 四真的很一般。举个例子啊,我想知道,英特三二零和大疆的产品竞争策略要不要问八次?至少得问两次吧。 还有这个问题,专家模式加思考模式加联网都开了,结果就只输出了简单的几句话。同样问题, opus 四点七 adaptive 按钮开启,自适应思考深度自己决定什么时候联网搜索,你看看这个质量,前后关键节点梳理的清清楚楚, 还会提醒一个容易被忽略的历史细节,一个更深的问题,以及 post training skill 目前的状态,遇到不懂的可以随时选择我 reply 还可以一次 reply 好 几个,这都是好的产品体验。 你再看这个搜索的质量,一个是引用一手的 o m i 官方博客,一个是引用二手的新浪财经报道, website 的 质量太差了。再一个就是先搜后达的这个架构,你搜了八十六个网页,把它们都塞进上下文里面,微思的思考就被动地围绕这些垃圾材料展开,很难再跳回去做真正的推理。这就是为什么 dbc 一 联网就拉跨的原因。 不是说 v 四能力差, v 四模型能力不等于产品能力,也不是说 deepsea 做不好产品,是他们压根就没打算花心思做好 c 端产品,这是他们的战略选择。所以你要问 v 四强不强,强, v 四好不好用,不好用起码在 deepsea app 这里面很不好用。 所以说 v 四就不是你的菜,不是直接给 c 端用的,他的目标是 b 端的开发者。 ap 文档里面高情商的写了,出于兼容考虑,说白了就是来切客户的。 v 四模型是一个知识扎实,数学和代码极强,中文第一,深度推理和 ag 的 能力比顶尖币源稍微差一点的开源模型,它的亮点是上下文架构上的创新,还有极具侵略性的价格,跟一三家比真的太便宜了。但如果说你自己配置 ag 的 调用 v 四 pro 的 api, 我 跟你讲它真的不便宜。 怎么调研也很简单,随便搞一个龙虾 agent, 然后到 dsp 官方 api 文档里申请一个 api key, 买十块钱的玩一下,然后自己复制粘贴一下 api key, 还有 base, url, model name, ok 了,就这么简单。 我先调用的是 v 四 pro, 就 问了一句,你是谁,花了七分钱,还行吧。然后我问 davidson, v 四有什么新的技术亮点?你在豆包千万元,宝提米随便都能免费问的问题,他深度思考了四次,调用了五次,工具,花了我一块一。 如果再复杂一点,问个英文问题, opus 四点七比四点六在 agent 的 编程方面有哪些能力提升?四点七的后续的方法有什么改进?这一次花了我一块九毛四,一个茶叶蛋就没了。如果你自己折腾用 agent 的 调用 api, 一 天就问十个吧,还算简单的问题,一个月就是将近五百块哦,你受得了吗? 那为什么不便宜?真相,在它的 api 文档里写了思考模式,这里默认开启思考,默认思考深度为 high, 但是对一些复杂 agent 的 请求,思考深度会自动切换为 max。 你看我跑任务之前,我明明选的是低思考档位的 v 四 pro, 任务跑起来,它就立马自动切换到高档位了。龙虾这类产品就是 agent 的, 它会调用工具,像前面 web search, web fetch, 它都是调用工具。 a p p。 文章里还说了,如果模型进行了工具调用,思维链就是思考过程是需要参与上下文拼接的,这是 agent 的 任务必带的。没辙, 像我们日常提问推理模型,思考过程用完就丢了,不会输入到下次对话。但是 ag 的 调用工具的时候,思考过程不难丢,因为任务很长。他第五轮的时候为什么调用工具? a 调用的结果怎么样?这些关键信息会影响 ag 的 后面的思考和行动。 这也是为什么我只问了一个很简单的需要联网搜索的问题,就花了我一块多钱,因为上下文里面塞了很多思维链,你说现在 ai 干活怎么可能不调用工具?当然 flash 很 便宜,参数量摆在那,是一个比较小的轻量模型,但是便宜,真的有好货吗?嘿,我测了好几轮, 价格是真的便宜,基本上每次都是四到五分钱,跟 v 四 pro 差了二十倍左右。还是那个问题, deepsea v 四有什么新的技术亮点?这里注意啊,他们用的 web search 和 web fetch 是 一模一样的,是 a 键的框架自带的表现差异就体现在他们决定怎么搜,去哪搜,搜什么搜多深。 vs pro 是 五次工具调用,四次深度思考。 vs flash 是 三次工具调用,三次深度思考。 vs pro 搜了十个网站,还知道搜英文网站,有技术博客,官方仓库等等,都是偏一手偏技术的信息源。 vs flash 的 八个搜索全是中文网站,都是偏二手的新闻网站,再看输出结果,明显 vs pro 更深更细。 v 四 flash 这里注意力机制方面新的亮点其实不是 d s a, 官博里面说的是结合 d s a d s a 是 v 三点二勺的技术概念,在一手的官方技术文档里面有介绍。 v 四新的亮点是设计了 c s a 加 h c a 的 注意力机制,你看 v 四 pro 就 做得更好。 在 a 键的场景下,他俩的思考深度都是 max, 调试工具也都是一样的。造成这种差距的原因是 vs flash 的 原知识就是没有 vs pro 的 多,因为 pro 参数量大很多,他见得多,他知道去哈根 space 找一手消息,他知道搜英文关键词交叉验证更可信。 虽然官方说他俩的推理能力相近,但是他们骑手的动作和认知就有差异,所以结果就有差距了。我们再看另一个更难的英文问题就更明显了, v s pro 十九次工具调用,十一次深度思考, v s flash 只有五次工具调用,三次深度思考。 v s pro 反复在搜索中生化问题,从整体改进到 system card 再到 r l h f 的 变体,一层比一层深刻。 v 四 pro 的 输出也惊喜很多,它单独列出了已知回归项这个负面信息, vs flash 根本没提 v 四 pro, 还引用了 espac 官方公告的英文原文 投屏消耗对比。 v 四 pro 相当于做了三点七倍的思考,处理了二点三倍的新信息,输出了二点五倍的内容,整体大概就是三倍的工作量,花了二十八倍的价格。 注意,这还是用国产 web search 的 工具,交互结果的差距已经很明显了,一个普通本科生的水平,一个博士级的水平,但是相差二十八倍的成本,值不值需要你自己去判断。 如果你打算用 v 四模型跑 agent 的 任务,重要的活用 v 四 pro 不 到两块钱,能帮你节省半天的工作量,那肯定非常的值。一些简单的 agent 的 任务,那肯定还是 flash 的 七分钱更有性价比。 a 阵的干活,光靠聪明的推理模型还不够,还要长上下文窗口。现在一照是标配,但是 v 四的一照上下文窗口工程上成立,在可用性上要打个大折扣。 他在前一百二十八 k 还能维持住性能,从两百五十六 k 到一照会迅速衰减。 oppo 的 四点六一照的照回率是百分之七十八点三,这是为什么 cloud code 在 程序员里口碑那么好, 它是目前唯一一个能在五百 k 以上的上下文里稳定工作的编程 agent。 v 四 pro 以照的照回率是百分之五十九,这个得分低, agent 的 工作记忆就很难兜住, agent 的 表现就不理想。当然,官博也承认在 agent coding 方面和 opus 四点六思考模式相比有一定差距。 那这个一照上下文窗口跟你 c 端用户有什么关系?没关系,你不倒腾 a 九的调用 a p i, 你 的日常需求一百二十八 k 足够了。很少有人能在一个窗口下把 cloud 聊到压缩对话的地步,一照还是两照,你根本感觉不到。 如果你早就习惯了拍照提问,或者说语音对话,或者有 ai office 的 需求, v 四和你就更没关系了。它是纯文本模型, 没有动模态, v 四就不是直接给 c 端用的东西。 v 四的高价值场景不会出现在 c 端消费者面前,它的基本盘是 b 端 a p i 调用的大批量文本处理,比如说电商平台,每天处理几百万条的商品描述、评论、客服对话等等。 v 四的价值是以币源旗舰级的能力和极具侵略性的价格去抢占三家的弊端市场。但是 v 四不是 r 一, r 一 爆火是因为它让大众强烈的群体来说和 r 一 没啥差别, 确实很难体验出差别,所以毫无波澜。对重度用户来说,他们用过更强的,很难瞧上,也毫无波澜。 虽然现在 v 四是预览版,正式版会更强,但是他依旧不会把你放心上。其实很多发 v 四视频的博主,上一次用 deepsea 还在去年, 所以免费用户继续刷国内 app, 付费用户继续你的订阅。 v 四是好模型,但不是好产品。会有人用 v 四做出好产品。等着吧,限量时间,下个视频再见。

现在呢,我是用 c c switch 接入这个 deepsea b 四 pro, 然后呢,我看网上说用 cloudco 的 桌面版去接入 deepsea 就是 会比较强一点,但是我觉得 c c 的 agent 编排也还可以吧, 但是就是想尝试一下。现在我们让 c c 来帮我安装 cloudco 的 桌面版。我这个我这个电脑是只有 co desk 的, 然后没有其他的桌面版本,我们先来试一下,就让它自己去配置,去适配,然后到最后。 好吧,尝试一下。战斗了很久啊,这个 b 四 pro 也是成功的安装好了,我全程没有自己操作过,都是他帮我弄的。 ok 了,这里也可以选择。所以说 cc switch 的 用处还是很多的,你可以叫他帮你做任何你电脑上的事。

哈喽大家好,欢迎收听我们的播客,今天咱们要聊一个最近特别让人好奇的一个话题啊,就是美国为什么对 deepsea v 4 这么紧张, 甚至可以说如临大敌啊。就在二零二六年的四月二十四号, deepsea v 4 正式的发布并且开园了,然后呢,美国政府呢,就开始从各个方面对中国的这个开园的人工智能开始进行围堵。没错,这个真的是最近炒的特别热,对,那我们就赶紧来聊一聊吧。 咱们先来看第一个部分啊,就是国产的 ai 崛起,这里面呢就绕不开这个最近特别火的这个 deepsea 的 v4, 它到底在技术和性能上面有哪些让人惊讶的地方?最最亮眼的就是它的这个呃,一点六万亿参数的这个 pro 版本啊,然后还有就是这个不到三千亿参数的这个 flash 轻量版啊, 它其实在很多的这个权威的测试当中都已经追平了,甚至超过了国外的那些顶级的闭源模型, 包括在这个数学推理啊,代码能力啊,还有这个智能体任务啊,这几个领域里面都有非常强的表现,尤其是在这个代码能力上面,它是直接刷新了世界纪录。 哇,这个成绩真的太吓人了。对,然后除了这个参数和这个分数上面的这个突破之外呢,其实 v4 它还可以原生的处理 百万级别的 token 的 这种超长的上下文啊,这个是远远超过了同类的其他的模型,再加上它的这个独特的混合专家架构和这个创新的注意力机制啊,它其实把这个大模型的这个性能啊,成本啊和这个效率啊,这三者之间做了一个以前从来没有过的一个平衡。 那这个东西在价格上面和这个商业化的模式上面, deepsafe v4 又有哪些让人惊讶的地方呢?它的这个价格真的是做到了极致啊,就是它的这个 flash 版本的这个 api 调用,每百万头肯只要两块钱, 然后他的这个 pro 版本呢,也是远远低于国外的那些同类的产品,甚至他还可以做到就是呃,现实的免费让你去体验这个非常非常便宜的价格,直接就是把这个行业的底线给打破了, 这个价格确实是很有杀伤力啊。更厉害的是呢,就是这个 v four, 他 是完全跑在我们国产的这个华为的升腾九五零芯片上面的啊,然后他的这个推理的速度和能耗比都比这个英伟达的那个特供版的还要强, 他也支持这个国内的多家芯片啊,整个的这个软硬件的生态是彻底打通的,对数据安全也是有保障的。 所以说这个 deepsea 微 four 到底给这个全球的 ai 产业带来了哪些天翻地覆的变化? 就是它不光是把这个开源的模型的这个天花板给拉高了,它其实也逼得国外的这些巨头们啊,不得不去降价, 然后去重新思考他们的技术路线啊,包括整个行业的这个游戏规则都被它改变了啊,大家不再去拼谁的参数多, 而是大家开始拼谁的效率高,谁更实用,感觉就是一个新的时代真的来了。对,没错没错,就是这个 v four, 它其实是让中国的这个 ai 的 话语权一下子提升到了一个全球的第一梯队的这样的一个水平。然后它也为这个产业的升级啊,和这个生态的良性循环啊,都铺好了一个非常坚实的基础啊, 同时也给这个国际的合作啊,和这个新的标准的建立啊,都带来了一个全新的机会。咱们来进入第二个部分啊,就说美国的围堵行动啊, 美国为了遏制中国的这个开源的 ai 到底都干了哪些事?呃,美国这次就是真的是全全方位的出击啊,就它首先就是把这个对华的这个 ai 政策提升到了一个类似于国家安全的这种优先级。 然后他不光是把这个出口管控的这个范围从芯片扩展到了算法和开发工具, 他还直接卡住了中国企业使用美国的云计算和获取大模型权重的这样的一个渠道,对中国的企业影响肯定很大呀。对,没错,然后他们还在推动这个所谓的长臂管辖啊,就是说让 所有的使用美国技术的这样的 ai 系统都要经过他们的安全审核,甚至他们还联合了盟友一起去限制这个芯片设备的出口。 同时呢,他们在国内也是加大了对于这个本土的 ai 产业的投资啊,包括对这个呃创新链的一些关键环节进行一些审查呀等等的,就是多管齐下,希望能够减缓中国的这个 ai 的 进步。 美国这么大动干戈的来围堵中国的一个开源的 ai, 他 到底是图什么?其实他的核心目的有三个啊,第一个就是要保持他在这个 ai 领域的绝对的技术优势, 就是要让中国的这个开源的模型没有办法去抢占这个全球的标准的这个话语权。嗯,然后第二个呢,就是要保护美国自己的企业在全球的市场份额,嗯, 最后一个就是要通过这种技术的封锁和规则的重塑,来把中国的这个 ai 产业压制在一个比较低的层级 啊,就是不要威胁到美国的这个科技霸主的地位。美国的这一系列的围堵中国开源 ai 的 这些措施,到底在全球范围内激起了什么样的联谊?首先就是中国的这些开源的 ai 项目的下载量和使用量反而飙升了啊,在全球的这个份额上面是直接超越了美国, 然后包括美国自己的很多初创公司也都在偷偷的用中国的这些模型,就这种技术的渗透其实是很难去完全切断他来封锁,效果有限。没错没错没错, 那反而就是说中美在这种高强度的竞争下面,大家各自都在加快自己的本土的创新啊,然后全球的这个 ai 的 格局也变得更加的多极化,就大家都在这个供应链啊、标准啊等等的这些方面都在进行这种话语权的较量, 对,包括也让美国的这些企业也面临了一些新的限制和挑战。我们来来到今天的第三个部分啊,我们来聊一聊这个背后的深层的焦虑啊,就是说美国对于这个 deepsea 微 four 的 这种紧张, 它的根源到底在哪里?其实美国的这种不安啊,它是有好几层的,就最核心的就是这个微 four, 它是完全基于国产的芯片和自主的技术的嘛,就彻底的打破了这个 西方对于这种顶级的 ai 研发的这种垄断。对,然后这个事情是让美国特别难受的,就是你卡,我芯片已经卡不住了,这确实让局面发生了质变,没错没错,然后更可怕的是这个 vivo, 它不光是性能上跟你相当,它是价格是你的十分之一, 这就导致全球的这个开发者和企业都开始大规模的转向中国的这个开源的生态,那美国的这个闭源的模式就会变得非常的边缘化,更不要提就是大家会担心未来的这个 ai 的 规则和标准都会被中国所主导,这是他们最最最害怕的。 哎,那中国的这个开源的 ai 为什么可以在这么短的时间内实现这么大的突破呢?就是中国的这个 ai 它其实不光是靠某一项技术的创新,它其实是 系统的在做这件事情。你从最底层的芯片到整个的这个算法的框架都是自研的嘛?那包括像这个 deepsea v4, 它甚至是可以原生的支持百万级的这种上下文的这种大模型,而且它的这个推理的效率是极高的,听起来像是一场全链路的升级,没错没错, 然后更关键的是我们的这个开源是彻底的开放,就是他的这个协议是非常非常宽松的,全世界的开发者都可以来自由的使用和去共建这个生态。 再加上我们的这个算力的成本是极低的,我们有这个东数西窜的这个工程,所以我们可以让这个价格降下来,形成一个这种创新的良性循环, 再加上我们这种普惠共赢的这种理念,其实是更符合全球的这种合作的潮流的。你觉得接下来这个全球的 ai 的 格局会往哪个方向去走?我觉得就现在就是一个非常明显的转折点,就是中国的这个开源的 ai 是 彻底的把这个游戏规则给改变了, 就他不光是在技术上面实现了这种自主的突破,他其实也让这个全球的产业界看到了一个新的方向,就是大家开始追求这种高效的实用的这种路线, 所以说未来就是多强争霸,对,没错没错,没错,就是美国再怎么去围堵,他也没有办法去逆转这个技术扩散的这个大势了,那未来的这个格局一定是多计划的, 然后谁能够把这种开放创新和这种普惠共赢玩得好,谁就能够真正的引领这个新的浪潮。对,今天咱们聊了这个 deepsea v four 给全球带来的冲击,也聊了这个中美之间在这个 ai 领域的这种博弈。其实我们是可以看到 中国的这个开源的 ai 已经站在了世界舞台的中央,而且未来的前景是不可限量的。对,这就是我们本期播客的全部内容了,然后感谢大家的收听,我们下期再见,拜拜。拜拜。

五十二,绝大多数人呢,还在苦恼啊, dsp 怎么搭配其他软件?升图时,没想到啊,有的大佬已经研究出条隐藏指令,直接呢就能在 dsp 里面给我们出图了。我们呢,只需要把这串代码复制到 dsp 里面,然后呢,在下面输入我们想要生成的图片内容。一位穿着旗袍的美女, dsp 呢,即使没有开启深度思考,也能运行制作。 不仅呢会自动帮你啊把提示词全部补全,而且呢,后续让他接着服务时,他也会延续之前的指令生成新的图片。要是对于图片的质量不满意的话啊,我们呢,还能在这串指令之下输入修改意见,但也能做到局部的重绘。虽然这种方式呢,是借用指定的调取第三方接口, 然后配合图层在 dbc 里啊进行制作,但重要的是啊,它完全免费。而代码就是在这个网址下面下滑复制,马上就可以起来。而代码呢,就是在这个网址里啊,下滑复制,马上就可以用起来。

你只是随手点开了 deepsea v 四,没想到下一秒一阵眩晕,你整个人居然被吸入了模型内部。你惊讶的抬起头,发现自己刚才输入的问题被分成了一个一个的磁块悬浮在头上。 突然,一个巨大的 embedding 投影装置从天而降,它发出一道淡蓝色的投影,将这些分词块转化为了计算机可以识别的头肯像量。紧接着,半空中铺射出一条璀璨的金色轨道,所有的头肯都按部就班的排列上去,化作一列疾驰的数据列车向前驶去,而你紧随其后。 看着这些源源不断的 token, 你 猜测外界肯定也有其他人在调用模型。只见这列 token 呼啸着冲入一个巨大 transformer 层方舱,在这里,所有 token 都要接受极其复杂的加工与计算。 你不自觉的看向方舱的后方,发现这样的结构居然还有很多层。然而你也敏瑞的察觉到, tork 每穿透一层光芒就会黯淡几分,信息似乎在繁重的计算中慢慢损耗,照这样下去,还没等输出结果,初矢信息就会消散殆尽。就在这时,你看到主干道旁骤然延展出一条支路, transformer 加工后的结果会在前方与之路原本的信息重新交汇,让微弱的信号再次充盈。这便是巧夺天工的残差连接。可是随着层数不断叠加,后面层级的计算结果不断覆盖前面层级的结果,即便多一条之路也无法承受如此大的信息量了。 危急关头,你看到分支的左侧又亮起了几条平行的光轨,原本单条之路的残差连接就这样被扩展成了多条的超链接,它们互相混合交换数据,大大提升了信息的承载量。 然而,允许交换数据也打破了残差连接原有的横等硬设多个之路,就好像没有交通规则约束的道路,很快就信息过载将要爆炸了。 千钧一发之际,天空中突然降下一排排的减速带,死死套住了这几条轨道。它们就像是给数据的流动装上了智能限速与分流系统一样,让数据平稳交融,不再爆炸。而这被称为流行约束。 带着强烈的好奇,你向着其中一个 transformer 层走去,决定看看里面到底发生了什么。一道白光闪过,你惊奇的发现自己好像坠入了一个类似横版游戏的地方。就在你不知所措的时候,天空中突然飘来了一行 token, 悬停在中间。 而此时这行 token 的 上方也出现了一个投影矩阵 w, 将每一个 token 精准分化出三个分身,负责提问的 q、 负责做缩影的 k 以及储存真实内容的 v。 这就是计算词汇关联度的注意力机制。 每个 token 只需拿着自己的 q 去匹配全场的 k, 确认过关联度后,再用各自的 v 交换灵魂深处的信息,就能建立关联。 正当你要看的仔细时,横向排列的 k 和 v 突然顺时针旋转九十度,变成了两根高耸柱子,准备开启计算。但由于队伍太长,巨柱瞬间捅穿了底部地基。屏幕边缘闪烁起红色的显存报警提示,原来是输入的 token 太多,显存不够了。 就在这时,地面上突然升起一台名为注意力磁化的装置,它就像一个极度聪明的压缩机,将每四个相邻的历史记忆按重要性强行浓缩成一个超级精华,限速压力瞬间暴降, 但细心的你一眼就发现最顶部的四个方块安然无恙。这就是大模型的滑动窗口保护机制,它能让模型对最近的四个词记忆犹新。 就在你以为压缩完成可以直接计算的时候,上方的 q 和左侧的 k 分 别分化出一个极其微小的迷你方块。原来直接用向量 q 和 k 计算代价依然太大,但只要先用这些轻量级的缩印简单计算试探一下,就能找出和 q 最相关的几个压缩的 k, 这样就能避免不必要的计算。 现在 q 只需要和那四个高清 k 加上精挑细选出来的两个压缩 k 进行最后的高精度自注意力计算,就能省下大量的算力了。这就是 deep sky 中的混合注意力机制。计算完成后,所有的微向量依照关联度的大小与原本的 toon 相结合,你跟随这组新生的 toon 相结合入了下一层。 你本以为还会像刚才那样出现一排要计算的 toon, 然而这次出现的却是一个由一百二十八个 toon 所组成的巨型方阵。 紧接着又一个投影矩阵 w 扫过方阵后,同样输出了 q、 k、 v 三个方阵。不过你很清楚,如此巨大的 token 即便按照刚才的方式压缩计算量依旧很大, 但接下来出现的注意力磁化装置却没有按照每四个 k v 的 方式进行压缩,而是直接将一百二十八个 k v 方阵直接打包压缩成一整块的项链,当然最顶部的四个滑动窗口依然保留了下来。 这种极端的压缩彻底免去了闪电锁影的繁琐,直接由压缩后的 k 与滑动窗口中的 k 联手与所有的 q 完成关联匹配。计算完成后,所有的 v 向量按照同样相关度与头梗进行加权,就完成了一次深度加工。 通过两种压缩机制在多层的混合使用 dipstick 就 可以在保证精度的同时节约大量的算力。穿越了繁复的自注意力网络,矗立在你面前的是一座由无数子方舱组成的 m o e 混合专家模型。只见身后一排 token 注入前方的球形能控网络, 能控网络瞬间完成计算,并精准点亮了对应的几位专家。这种选择性的激活在保证知识总量的同时能节约大量算力。为了亲眼见证专家网络中到底发生了什么,你纵身一跃进入了其中。 来到专家网络的内部,眼前的景象骤变。这里是一座由无数发光节点组成的立体迷宫乾坤神经网络,它包含了模型几乎所有的长期记忆和知识,无数的托根在这里交织、碰撞、变换组合,只为查找出与问题相关的知识。 随着一道亮光,你和这些托根被输出到了外面。在视线的尽头,一颗巨大的透明三棱镜镜镜悬浮,那是现行投影层, 饱满的透根接连撞击在棱镜上,照射出五彩斑斓的光晕,将无形的像量映射成人类能看懂的固定词表。 而在棱镜之间,高旋的 soft max 精准锁定并捕获了那个概率最高的完美词汇,至此,你的旅途也快要到达终点了。你大步向前走去,不摸了那个高旋的 soft max 开启了自回归的新一轮循环。

现在啊,可以不用被可拉扣的拒之门外了,桌面版可拉扣的直接搭配 deepsea 为四,不用再看命令窗了,今天这条视频把完整配置流程全给你扒出来,手残党也能一次成功。没耐心的我已经整理好文字版教程了,大家按需参考。 首先啊,我们要先去安装 cloud 的 桌面版本,打开 cloud 以后啊,我们可以看到 getstart login 之类的页面,先不要进行登录操作 这一步啊,我们先开启 cloud 桌面端的开发者模式,开启之后呢,菜单里才会出现第三方推理配置的,介入 macos 顶部菜单栏操作,点击最上方菜单里的 help, 点击这个 trouble shooting, 再点击 enable 开发者模式。 弹窗出现后啊,我们直接点击 enable, 这时啊, cloud 会自动重启。重启完之后啊,我们再看顶部栏,这里啊会多出一个 develop 的 入口。 ok, 我 们继续来啊,下一步我们就点这个 develop, 进入这个 configure third party inference。 先别着急填内容啊,把这个配置窗口打开。 首先 inference provider, 这里我们选择 getaway base url 呢,就根据你想接入的大模型来填写,一般的官方接口文档里面都有,我们呢就以最新 deepsec 为例了。 然后 apikey 呢,就写你的 deepsea 的 apikey 就 行,下面这一项啊,可以先不用改,默认的即可。 接着下面这里 modellist, 我 们点击这个 add 加号,加两个模型,第一个填 deepsea v 四 pro, 第二个呢,填 deepsea v 四 flash 这里为什么我填两个是因为我把 pro 放在第一位,这样呢,它就会成为默认模型, 再加一个 flash 呢,作为更轻量级的备用模型。提个醒啊啊,如果你想让上下文火力全开的话呢,可以在名称后面加上, 然后下面这个 organization u i d 这里呢,可以先留空,这个呢是不影响你去接模型的。然后 credentials 这里呢,也是给企业做动态凭证用的,你也用不上。 然后这里啊 skip 这个出错,这里要选择打开这一步呢,是很重要的,这样重启以后呢,就不会再走 cloud 的 登录流程。 好,全部设置完,我们点击这个 apply locally 本地话,这时客户端就会重启。 如果配置生效呢,就不会再要求你登录 cloud 的 账号了,而是直接进入第三方推定模式。 我们来看一下啊,这里是没有登录 cloud 账号的啊,它已经进入三方模式了。看到左下角这里显示 cowalk 三 party getaway。 右下角这里的模型呢,也默认的变成了 deepsea 四 pro。 好, 那我们来验证一下,看它是不是能够直接调用 v 四。 现在我们切到 cloud code 的 工作区看一下啊,右下角这里它显示的模型依然是 deep seek 四 pro, 左下角呢,也仍然是 cooke 私人 party getaway。 这说明呢, cloud code 的 桌面版现在已经是在不登录 cloud 的 情况下通过第三方网关调用了 deep seek 的 大模型 啊,那我们为了验证他不只是界面切过去,而是他真的能工作。我现在呢,给克拉克挂一个本地测试目录。好,首先先关联我在桌面新建的测试文件夹,现在我给他一个非常简单的测试任务, 只允许他操作当前项目目录,先读取目录,再创建一个 hello 点 txt 的 文件,这样呢,我们就能验证克拉扣的是真的,通过 deepsea 完成了本地的代码和文件操作。 那这里第一次让克拉扣的操作本地目录的时候,会弹出一个工作区确认确认,因为他之后要读取写入甚至执行这个目录里的内容。这里啊,所以我们需要手动信任一次。 好,挺快的啊。这里他已经有完整的反馈了,我们去看一下这个文件夹里面是不是已经有输出了。 ok, 看到他的输出了,搞定。 好。那总的来说啊, cloud code 呢,一直是页内标杆类的存在,只是以前很多人卡在账号这一关用不上。现在啊, dbc 维斯出来以后啊,通过第三方网关接入,我们就可以实现强强联合。 前端呢,用的是 cloud 的 桌面端和 cloud code 的 交互体验。底层呢,代用的是 deepstack v 四的模型,能力对很多没有 cloud 的 账号或者是想灵活使用模型的人来说,还是很值得尝试的。 至于说 deepstack v 四能不能和 opps 四点七一战,你们呢,自己动手试一下,有结果的话也来告诉我。好,本期视频就到这里,希望能够对你有所帮助。我是阿月,我们下期再见。

兄弟们最近也是深度体验了一下搭载了 deepsea v 四 pro 的 这个科罗德扣,给我的感觉跟之前完全不一样, 之前我用的 g p g 的 五点四,还有科罗德的四点六,好用是好用,但是成本我真的是供不起啊,每天消耗我个百十块钱都是常态。而 deepsea v 四 pro 它真的是量大管饱, 你你你们看,我这个四月三十号当天才花了不到不到七块钱, 用了快三千万的头肯,请求了大概五百次核算下来,每百万头肯几毛钱。哇,这个性价比真的是震撼到我了,完全不用担心啊,现在都没有那种心理负罪感,也没有那种焦虑感和心疼感。 然后我也是也用了测试了一下 kimi 的 二点四,它给我的感觉呢,就是处于国外的那个顶尖模型和 d p d p c v 四之间,包括它的这个价钱也是处在中间,能力呢,也是处在中间, 但感觉还是不如这个 dbc 的 v 四来的实际,毕竟性价比在那放着。然后那个小米,小米也是体验了一下,就是他的那个百万百万亿投坑激励计划,我是用两个账号都申请了十六亿,一共是三十二亿。 三十二亿 token 的 话,今天一天我就烧了五千多万。五千多万给我的感觉就是它不管是就是同样的一个提示词,同样的一个工作,它它消耗的这个 token 总是比 其他的这个模型多的,就给我一种有点虚标的感觉,但是就白嫖的嘛,也是比较感谢这个小米啊, 大家也可以去试一下这个能力呢,很好啊,能力很好。呃,是比 deepsea v 四 pro 好 用那么好用那么一点点。不过呢,呃,如果大家之后是自己掏钱去买这个小米的套餐的话,价格肯定是要贵一些,肯定是不如这个 deepsea v 四的。 从能力上来说, dbc 的 v 四的能力是完全够我个人使用了,我之前搭建了一个个人的网站,这可以给大家展示一下,就是它这个前端的风格啊,和前端这个效果 以及 bug 呢,都是特别的少,而且特别的好,完全达到了我想要的效果。中间跟它的这个对话请求次数也是比较少的,基本上不会出现长时间的反攻,毕竟 你要什么自行车啊,是吧,都有这这这个东西了,这性价比在这放着。我之前也是用过 goudice, 也是用过 harmis, 要么就是限额,要么就是只能用自家的模型,完全没有这个有自由度。最终啊,兜兜转转还是回到了可可扣的, 这个就适合于个人喜欢做一些网站啊,小程序啊,开发一些东西啊,比较适合这类人群。 而且今天也用那个 cloud 打通了一个项目,就是让我的手机在户外的情况下,也能够远程指挥我的电脑的 cloud code 进行干活。之前我是用 cloud code 自身的那个 app, 因为我订阅了它的这个模型, 所以说在手机端的那个 a p p 上是有这个 code 的 这个入口,但是呢,它在四月初的时候把我的账号给封禁掉了,所以我只能接入了这个国产的模型,包括那个 kimi 啊,小米啊,还有那个智普啊, 以及刚刚试用的这个 deepsea v 四。那么这个连接的这个方式,他就在社区找到了这个 tail scale, 这个项目呢,就是通过通过这个 cali 做了一个虚拟的 ip, 让我这个手机通过这个浏览器的一个网站连接到这个 cali, 然后再通过这个 cali。 cali 连接,不是再通过那个虚拟的 ip 连接到我这个电脑本地的这个 calid, 连接到我这个电脑本地的这个 calid。 如果大家有需要我也可以分享一下这个东西,但是它也不难,你只要让 calid 去做就行。整体算下来兜兜转转还是回到了这个 calid, 只能说 cloud code, 只能只能说目前 cloud code 加 deepsea v 四 pro 就是 我们日常工作,或者说是,嗯开发项目的最高性价比第一优选的东西,真的推荐大家去尝试一下,有什么我们也可以交流一下。