粉丝15获赞249

编程模型选哪个?首选是 clone 的 gbt, 真伪的也很强,但是在软件工程领域,在多元编程领域,首选呢依然是 clone。 那 clone 提供了三个模型,怎么选?很简单, 简单任务用海库,复杂任务 solo, 最强王者 ops。 我 来解释一下,简单任务用海库。海库这个模型主要是便宜啊,一刀一百万头砍,而且快,像姆巴佩一样快,像吴磊一样快, 所以正确的用法是用它做一些简单的任务,做一些体力活啊,嘎嘎,快。然后是 solo, 他是一个六边形战士,成本可控,能力均衡,他就像是德布朗内,像巅峰期的哈维莫雷奇,中国的政治,他们是球队的核心啊,能攻能守,可以说没有他不行,所以你的日常开发你就选他 啊。最后是奥克斯,奥克斯那么强,为什么不首选它呢?因为它贵啊,而且它有点慢。所以这个模型呢,它就像是个关键先生,它用来解决高难度问题,解决关键问题,解决骚奈特解决不了的问题。它就像是哈兰德, 像巅峰期的梅西、 c 罗,齐达内。当球队陷入困难,陷入僵局,只能用球王、球星来解决问题, 把球送到对方的球门里,所以用他们来干最难的活。不知道我说清楚了没有,如果我没说清楚的话,你就当我没说,你就用 send 就 行了。

其实 cloud code 不 光可以使用它们自己家的模型,你还可以使用各种国产大模型,比如说最近推出的 deepsafe v 四那两个模型,或是 kimi mini maxi 都可以使用,这样的话一个是额度更多,再一个就是更便宜。今天是一期教程,视频分享如何把 cloud code 的 默认模型设置成 deepsafe, 以及如何切换模型。 拢共分四步,第一步,安装 cloud code, 第二步,获取 deepstack 的 a p i。 第三步,安装 c c switch。 第四步,在 c c switch 里面设置一下。首先就是安装 cloud, 我 们打开 cloud code docs 这个网站, 你会看到有很多安装方式,有终端的,终端里面还分为 windows 的、 linux 的 和 homebrew 的, 你可以根据你的操作系统来去选择。我是比较推荐选第三个 homebrew, 因为它比较方便省事,一键安装。我们把这个命令复制到我们的终端里,然后点击回车,大概等个一两分钟它就会安装好了。安装好以后它就会显示 cloud code 的 版本号。我们这个时候打开 deepsafe 的 官网, 点 api 开放平台,你可以用手机号注册,你也可以用谷歌邮箱登录,我这里就选谷歌邮箱了。登录好之后,我们点左边这一栏的 api keys, 然后点 create new api key, 就是 创建一个 api 秘钥。创建好了之后,大家一定要记住先点复制复制到你的备忘录或者是哪里,因为它这个只显示一次,如果你这次不复制的话,你就得删了。重新创建了,我们点复制之后,再在 top up 里面去充值,那你可以先充十块钱的, 这里有两种支付方式,你选一种就行,然后这个 building 呢,就是你可以看账单,你的消耗全都会在 building 这里面体现。第二步完成之后,我们来到第三步安装 cc switch, 我 们在 github 上面打开 cc switch 这个项目,然后我们往下滑,滑到这个下载安装,那 windows 用户你知道它的指示安装就行了。 mac 用户的话 推荐用第一种方法,也是 homebrew 安装,直接把这条命令复制到你的终端,也是大概等个五六分钟,它就安装好了。安装好以后,它这显示 c c switch 已经成功地被安装。然后在启动台里你就能看到 c c switch 这个应用图标,我们点进来以后进去配置一下,我们可以看到上方有很多命令行的这个选择。这个意思是如果你用的是 codex, 也可以 转换一下模型, java 也可以, open code, open cloud 都可以,那我们选择 cloud, 然后点右上角的加号, 你会看到这里面有很多 cloud 的 供应商,有一些预设的供应商,这里面包括很多国产的模型啊,比如说 kimi 呀, mini max 啊,还有 deepsea, 那 我们就在这儿选 deepsea 就 行了。然后在 apikey 这里,我们贴好刚刚我们获取到的 apikey 之后,我们再往下滑,有一个模型映射, 那现在这个主模型还是 v 三点二,但实际上它已经更新了嘛,所以我们手动把它调整成 v 四杠 flash。 那 其他的像嗨酷啊和 sonate 呀,我们都写成 v 四的 flash, opus 就是 对应最高级别的模型,我们改成 deepsea v 四 pro 之后,我们就配置好了。然后我们往上滑,滑到请求地址,旁边有一个管理与测速,我们点一下,看看现在有没有连接成功,点进来以后点这个蓝色的按钮测速,你看到有显示绿色的时间,那这个就是没问题的。那这样呢?我们就已经配置好 deep sec 了, 我们在主界面在 deepsafe 的 这个选项框里面点起用,然后你打开终端,输入 cloud code, 这样你就可以看到连接上了。如果你想改默认模型的话,你就去那个模型映设改一下 deepsafe v 四 pro 就 行了。那现在你再问他你现在是哪个模型,他就会回复你,我是 deepsafe v 四 flash。 这样你接下来所有的对话都可以消耗 deepsafe 的 a p i。 那 今天视频就到这里,让我们下期视频再见,拜拜。 mua。 拜拜。

作为一个英语比较文学专业毕业的人,我终于在 ai 时代找到了一个让我觉得,哇我这个专业没白学的时刻。 那今天我想跟你分享一个特别小但非常有意思的事儿,就是 cloud 这个模型的命名。 cloud 这个模型现在有三个版本,第一个叫 haiku, 第二个叫 sonet, 第三个叫 opus。 如果你是理科背景,这三个词可能在你看来就是三个英语单词而已。但如果你是文科生,你可能一眼就会认出来,这三个词全是诗歌相关的概念。 haiku 是 排句日本的一种极简短诗,短到只有十七个音节,追求的就是用最少的字讲最深的意境。 sonnet 是 十四行诗欧洲古典诗歌中最经典的形式之一,莎士比亚写过一百多首。而 opus 它来自于拉丁语,也是音乐的术语,就是作品的意思,通常是指作曲家最重要的著作。再对应一下, call 是 最清亮但是最快的, sonant 是 中间党,而 opus 是 最强的旗舰版的模型,它们是在用诗歌题材的体量来隐喻模型的规模。这个命名应该不是随便起的,一定是有人认真想过的。那究竟是谁在想这件事呢? anthropic 这家公司里面有一个人叫 amanda escal, 他 是论语学方向的哲学博士,他在 anthropic 里做的事情就是塑造 cloud 的 性格和价值观,思考 cloud 应该是一个什么样的存在。 这个不是工程问题,这是一个哲学问题。一家几百亿估值的顶级 ai 公司,核心的位置上坐着一个哲学家。 所以你看,好多人都在说 ai 时代文科生要被取代了,但我觉得这件事没那么简单,理解人,理解语言,理解话该怎么说, 这些事情就是需要文科的思维。我自己是学英语比较文学的,现在在讲 ai。 这两件事越做呀,我觉得越没那么远,因为讲 ai 最终还是在讲如何说话如何表达,而这恰恰是文科训练教我去做的事情。 你看就连 club 的 名字都在悄悄说这件事情,如果你也是文科生,在评论区告诉我你的 ai 现在用的怎么样。

本期小白 ai 扫盲到现在还有人不知道豆包、豆包、 cds、 cloud code、 cloud 这些到底是什么?有什么关系?那今天我们很仔细地跟大家解释清楚。好, 那么首先呢,它们其实可以分成两大阵营,第一大阵营就是模型,第二大阵营呢就是应用。比如说我们拿 cloud 举例,嗯, cloud 呢,其实是 isop 它们的一个品牌名字,嗯,其实现在我们给它分成三大类,嗯,第一个呢,就是 cloud ops, 或者是 cloud 嗨酷,这种名字后面还带一个代号的,嗯,然后甚至还会带一个版本号的数字数字的,嗯,这种呢一般就是模型,大部分的模型名称都是英文的,嗯,比如说豆包,拼拼音版的豆包,嗯,天问 q w、 e、 n 这些呢?都是模型的名字,哎, 我才发现,我才发现,对,是真的是,嗯,就国内的也都是英文的名字啊。然后呢,而且模型后面必定会带一个版本号, ok, 对, 然后比如说 gpt, 五点四、五点五,嗯嗯, sopik 旗下他们还有一个他们的聊天型应用叫做 cloud, 就是 个单独的,对,他们不光是有网页,他们其实有桌面端的,他们还有一个编程型的 agent 叫做 cloud code。 所以呢,其实是这就是属于我们说的两大阵营, 就是模型阵营以及应用型阵营。好,那我们现在详细说一下,模型阵营是一个啥模型呢?它是一个非常非常纯纯粹的东西,它其实就跟人的大脑一样,它能进行思考,然后每一个模型和某一个模型之间的智商它是不一样的。然后这就体现出他们的最后输出的东西的效果如何,他们的 能力其实就是简单的输入和输出啊,比如说他们会获取一些语言,最基础的是语言,现在的有的大模动模态,大模型是可以获取图片,嗯,视频, 然后呢他们会基于你输入的内容自己思考,思考完以后开始输出,同样是输出语言,或者帮你生成图片,生成视频,这就是大模型的能力非常的纯粹。正是因为它的纯粹,所以呢它的使用起来也没有那么容易,就是对于我们大部分小白来说,并没有办法去直接去打用一个模型文件来生成内容, 大部分的正常的使用方式是把模型像钢中之脑一样,把它这个大脑养到一个水缸里,这个水缸呢就是这个模型的运行框架,然后呢框架它会伸出来两个水管子,一个用来输入,一个用来输出,这就是模型本身。哎呀,就是我用豆包网页,网页背后就是模型吧,就这个意思吗? 对吧?对, ok, 那 然后讲到应用侧了,模型本身就是一个大脑,所以呢他没有手也没有脚,他没有办法去做更多的事, 那么应用层呢,就是给模型装上了很多很多的工具,然后呢可以让他做更多的事,然后在这里面呢,我们应用层我们可以分成两大类,就是一个是聊天型的应用,一个是 agent 型的应用,他们其实中间是没有一个非常清晰的边界的,而是一个演化阶段。在最早最早出现的就是聊天型的应用, 因为那时候大家想到就是既然出现了模型,它的它是可以进行自然语言的输入和输出的,嗯,那我们就给他做一个聊天的软件,嗯,让他可以跟人聊天,嗯,所以就诞生了 type gpt、 豆包,嗯,这些聊天型的软件,嗯,它们主要的能力呢,就是可以帮你进行内容的生成,嗯,然后你也 现在在这个基础上可以支持你生成文件,嗯,上传文件,嗯。语音的输入,嗯,等等等等。这种就是围绕着聊天这个 这个场景,然后丰富化能力,甚至包括了现在豆包它还可以用通过摄像头去看你的真实的世界,然后去通过语音跟你打电话等等数据分析,对吧?帮你写作一大堆这些能力啊。是的,然后,所以呢,一般聊天型的应用,它首先第一个应用形态是网页的, 但是慢慢的也开始出现了桌面端的应用,多包也有客户端,对,这也是一个对于大部分人来说很好的一个上手的一个应用形态。 ok, 然后呢就开始出现了 agent 型, agent 型的应用,那么最多最多提到的 agent 型应用是什么呢?就是我们的编程型 agent, 嗯,比如说 cloud code、 codex, 嗯,然后 cursor 这些编程软件,嗯,他们是为了解决程序员进行代码开发,大的完整的项目的管理等等的, 所以他们会需要非常丰富的工具去操作他们程序员的本地的电脑,嗯,因为这些代码都是以文件形式存在的,嗯,然后呢,通过,而且他们在代码开发之过程中会有很多,呃, 复杂的规则,就是这些程序员他们这个项目特有的一些编程规则,一些代码习惯什么的,所以出现了规则这个东西。其实对我来说那些冲击的东西,其实程序员他本来就知道,所以他觉得没什么。对,是的,所以呢,就是,呃,然后就开始出现 openclaw 了。慢慢的大家发现 编程的 agent 能力真的很强大,不光可以用于编程场景,也可以用于我们日常的办公场景,然后很多人就开始用它来进行日常的办公。 对,是你,但你已经算是落后的。呵,在很久之前,像那个 manners, 他 们创始人就说他们团队一直是这样做的嘛,用 kurt 去办公。嗯,对,同时在今今年年初,去年年底吧, openclaw 开始出现了。 openclaw, 它的能力上其实跟呃编程型的 agent 差距没有那么大。嗯,它最大的出圈原因就是它让一个 agent 的 能力展现在了普通人的面前。对,就像我当时觉得惊讶,还能这样子,还能干这个事情。但是这些事情在程序员眼里面其实很很正常。很多人他是从豆包拆了 gpt 这个应用形态,直接跳过了 curl code cursor 这种,然后直接到了 open curl, 他 没发现,哇, 他原来 ai 除了聊天,他还可以直接帮你操作你的电脑,他可以长时间运行,可以帮你做一些复杂的任务。嗯,所以这就是为什么 open curl 出圈的原因。 ok, 嗯, 然后还有一个就是 agent 和聊天软件它们之间最大最大的区别。因为现在,嗯,聊天软件慢慢的发展以后,他们的很多 agent 有 的那些工具聊天软件也都有了。就是比如说这个豆豆包或 cloud 的 桌面端,它也能操作你的文件,对不对?操作你的电脑?是的,但是 agent 软件的最大的区别是它有自己的 复杂的规则设置方式,这样子的话,你可以把你自己的工作的规则,工作的流程直接切入到 agent 里面,你只要能自己把想象出来自己的工作模式,用 ai 怎么去做,那么 agent 软件它就能实现。但聊天软件它为了适配同大众的使用方式,所以呢,它做得比较简单, a 证的能跟你融为一体。是的是的。所以呢,你看像我们的现在生产工艺工具都其实就有基于它,还是那些就是编程 a 证才来做的,它能跟我同步成长,它中有我,我中有它的那种感觉。是的,最后一个总结就是,其实大家可以慢慢地去尝试一下现在的那些 a 证的软件, open call 这种呢,可能使用门槛还都高了一点,因为它没有界面。 然后呢,可以慢慢可以尝试一下 cursor、 codex 这些有界面的 a 键和软件,你会发现能力其实真的很强,尤其是我最近用 codex 以后,它上面除了那个什么 computer use 这个,对,是的,我当时觉得又是一个就是震惊的一个变化。对啊,然后它能帮我完成所有 模拟我人的那个网页的操作,然后它能把这些操作和我的本地的文件融合在一起。对,这些东西又到了一个更新的一个 颠覆我的一个点上,所以我觉得,呃,我觉得还是可以感受一下这些东西,我觉得它是一个跨时代的产品。对,是的,好,那今天跟大家讲了几个容易混淆的形态,然后希望这期能够帮助你呃,彻底理解我们刚刚讲的这三层。是的,好,本期视频这样,拜拜。拜拜。

小龙虾把默认模型换成了 deepsea vs flesh。 对, 你没听错,就是那个 age 领域的天花板, open claw, 他 们自己的 gpt 和 claw 的 不用选择国产的。 哎,还不是因为 gpt 五点五要三百美元,百万投,看我们的只要多少。两块人民币差了一百倍呀,这就是生意,谁给钱过不去啊,对吧。 哎,可能很多大志志要说便宜没好货。两千八百四十亿,总参数激活一百三十亿,全系标配一百万托肯上下文不是惊艳,是金堂四座。 在卫视发布的当天,华为升腾航五 g, 海光信息、墨尔县城木溪股份,百度的昆仑星,阿里的平头哥,天树智星八加国产芯片,集体完成了 a 零级的适配。这次大姑娘上花轿头一回呀,当天就布置完成了,直接就能跑,不像以前英伟达出个什么卡, 哎,要等几个月半年才能适配。现在 deepsea 在 华为深腾九五零 p 二上从底层开始优化,不是什么阉割版,测试版,是 mit 架构的圈开原版。这八家公司啊,全量适配后,开发者终于不用去依赖英伟达的酷塔架构了, 这意味着我们终于有了完整闭环的国产 ai 生态。以前总有人说国产芯片没好模型, ai 模型除了英伟达其他的都跑不了。现在好了,从芯片到模型到服务器到云服务,整条链都国产化了。 dota 可谓是的意义不只是单纯的技术突破,是带动了整个 ai 产业链的国产化。以前所有的 ai 应用,不管是国外的还是国内的,卡上它说涨价断供,你连屁都不敢放一个。 现在不一样了,微视这个性能强、价格低的开源模型,再加上这八家国产芯片的适配,真实的在推动行业的正向循环呐。 更多的企业选择了国产算力国产芯片,订单就会越多,产量就会上去,成本就会降下来。现在这条科研芯片算力应用生态的完整链条正在成型呐! 以前我们被英伟达卡着脖子,只能追着别人的生态跑,现在我们建好了自己的生态,让外国企业主动来用,不是单点突破,是中国 ai 的 全面觉醒。点个赞吧!我们为 deepsea 微视这个大模型的开山鼻祖致个敬, respect!

养虾日记第十六天,今天发生了一件大事, open crawl 龙虾直接把 deepsea v 四 最新发布的大模型设置为默认开发模型。哇,天呐,国产之光啊,这一次 v 四的更新啊,在虽然没有到大家很震撼的程度,但是你知道这次 v 四是搭建在国产芯片之上的,它第一次让我们国产 芯片可以搭载大模型的运算,真正突破了美国对我们的限制,是吧?而且这次 v 四是支持了一百万上下文的, 你知道支持百万上下文意味着什么吗?你就像那个 cloud sony, 它都不支持一百万上下文,前置个 op 才支持一百万上下文。 因为支持一百万上下文相当于我们有一部很长的这个几十万字的小说都可以全部给到。哎呀,让他记住这个上下文给我们去干 活。因为我们去用龙虾的时候,我们就很明显的感受到,当你给他的上下文足够多,细节足够多的时候,他给你干的活是足够优质的,因为他记住你足够多的细节和信息。那 v 四这次的出现真的是超级厉害。 还有呢,就是你会发现这次 v 四的表达能力其实甚至会比 crowd 的 那个 opus 的 四点七版本的表达能力还要更强,因为它有足够多优秀的中文的语料库训练。 我记得看过一个新闻说 dc 他的整个团队会去北大招募这个大学生给他们去做标志, 我坚定地相信哦,第四,四点零肯定会成为大家去养龙虾,去做 a 准各样的主力模型之而且是这个模型依然是开源的, 也就意味着其实如果你有好一点的主力机,你甚至可以机这个模型直接部署到本地上面,甚至可以微调成为自己的模型去使用,都不需要调用 api 接口是吧?所以, 哎呀,我真的觉得我老乡梁文峰太牛了啊!我们接下来我们也会推荐大家从 v 四去训练自己的小龙虾,而且这一次 v 四的价格甚至比三点二还要便宜哦! 关键模式就是他们的 flash 模式远远比之前的所有模型都要快的多的多,大家可以体验一下。哎,太开心了。

连模型的默认橙色都没改,还说自己是老师傅,师傅,这你是咋看出来的? 模型颜色有何讲究?你可长点心吧。你创建的模型实体是橙色,那后期你要检查模型的某个体或者某个面,当你高亮选择一个对象的时候,这高亮面和模型橙色几乎一样,这模型特征一多,你选没选错你都不知道, 并且模型是橙色。有时你在面上创建草图,那草图的预览线条他高亮显示你根本看不清,像这里。你知道我下个线条是直线还是弧线吗?确实看不清啊,不过师傅我每次改了模型默认颜色,但是重启电脑他又恢复原样了, 这是咋回事?做了设置,重启电脑设置又消失,说明这个设置要从模板文件修改。今天师傅教你永久修改创建 u g 实体的默认颜色。首先打开你 u g 安装的磁盘,接下来点开你对应的 u g 版本文件夹,找这个 local 版本文件,其中这个 model 简配依旧是建模模板文件,将这个文件拖入 u g 中,打开,打开后点击首选项中的对象,设置 在这个对象首选项中,把类型选实体,然后点击旁边的颜色,将这个默认的橙色改成你喜欢的颜色。如果不知道啥颜色,师傅这里推荐一百二十九号灰色,按回车点确定就修改好了。最后不要忘记还需要保存一下文件,这样永久修改了创建实体的默认颜色, 下次重启建模就能像我这样看的很直观了,不过记得别给这些建模的内容保存到模板文件里哦。最后,你小子要是新手就直说,师傅我又不是不教你,师傅给你准备了 u g 零基础数学教程,还有命令使用技巧大全,另外还有大量对应的图纸练习, 从简单到曲面都有,你跟着师傅学就行。那老粉们如果也需要敲波叭叭叭一块跟你学习,让大家都能成为 u g 老师傅。师傅你真好,以后我会努力学习,成为你这样的老师傅的。

我发现身边很多朋友啊,在使用 cloud 模型,一上来就是最强的 opus, 每个月呢,都要烧几百美刀。但真正会用模型的人,根本不是这么选的。因为 cloud 的 这三类模型不是按强弱来分的,而是按任务的价值来分的。 srb 的 官方出了指南,关于 haikutsonet、 欧帕斯这三档模型到底该怎么选?我们最应该关注的不是模型的名字,而是它为什么要这么分。说白了,模型分成呢,本质上是在分三个东西, 推理速度、推理成本和推理深度。嗨酷这个模型为什么存在?因为大量任务其实不需要重推理,比如说总结摘药、内容提取、分类、快速回复。嗨酷主打的就是快,是便宜,是高吞吐。 比如说要在 agent 在 输出 jason 结构化的时候,又要快,又要准,这时候就可以考虑用嗨酷的 sonet 为什么可以作为默认的主力呢?因为大多数的真实工作既不简单,也没有复杂到要上最重的模型,比如日常的写作、内容分析、写代码,这些都更适合用 sonet, 它可以用来做日常的生产力。 那什么时候该用 opus 呢? opus 真正值钱的地方是处理那些高复杂啊,高风险啊,需要持续推理的任务, 比如深度的研究、复杂架构的设计,企业的关键决策。所以用法呀,就一句话,低价值的高频任务丢给 hiccup, 中等复杂但主流的给到 sonet 高价值关键节点这些一定要上 opus, 这不是在选模型, 而是在做推理的预算分配,谁分的越准,谁的 ai 用的就越省钱。会用模型的人永远不是选最强的,而是会把算力放在合适的任务上面,你们觉得呢?

大家好,这个视频我们就要说一下怎么去将欧拉玛安装到 c 盘以外的其他盘符 c 盘以外的这里呢?我们先下载欧拉玛的安装程序,先下载 这个 downloading, 欧拉玛,点一下,点一下 download for windows, 在这个位置等它下载,安装好在这里如果下载安装比较慢的话,我们就复制下它的链接, 鼠标右键复制下载链接,然后打开我们的迅雷找一下,将它复制到我们的迅雷里面去进行安装, 这里新建 它默认会将我们的下载地址会放进去,我们直接点下载就好了,如果没有的话,这个位置我们就 ctrl 加微粘贴就可以了,然后直接点下载, 这样呢下载就会快很多,我们等它下载好这个地方就直接取消叉掉就可以了。 好,下载好了我们就右键打开文件夹, 将它 ctrl 加 x 剪接出来,放到这里面就好了,这里我们打开 cmd 命令,在这里直接 直接就执行命令, e x e 斜杠,大写的 d i r 等于 f, 我 们安装到 f 盘就冒号,然后再一个斜杠,就这个是左斜杠,记住安装到 o l a m a 这里就是说将欧拉玛安装到我们的指定盘符 f 盘 o l a 就是 欧拉玛的这个文件夹里面,直接回车 好,它会弹出这个安装窗口,我们点这里安装,大家看到这里这个位置就显示它已经安装到我们 f 盘了,我们等它安装好,下一步我们就要设置模型的位置 安装,除除了我们就让它安装,安装的时候我们去看一下 olama 的 文件夹里面呢,我们新建一个文件夹叫做 models m o d l s 这就是我们等会儿需要安装模型的位置,我们就所有的模型都下在 oama 整个文件夹里面就好了, 这个文件夹准备好,我们就等它安装吧。 好了,欧拉玛安装好了,并且自动运行起来,我们这个地方选择 settings 设置, 这个地方就是模型的一个设置,我们这地方点击 real 浏览,浏览到我们的 f 盘曲,此电脑 f 找到欧拉玛的文件夹 orders, 点确定 好,这样呢,它的模型也就会下载到嗯,我们指定的文件夹里面。这样子过后呢,我们就要开始准备给它下载模型, 我们还是 java 四复制这条命令, 到 c m d 窗口粘贴这辆 mini 直接回车。那么哦,这里安装过后,我们没有加载环境变量,关掉,重新打开一个 c m d 窗口, 这个时候再粘贴执行好了,现在它就开始自动给我们下载模型,我们到模型文件里面去看一下有没有变化, 右键属性 看,通过两个属性的大小对比出这个文件,随着模型的下载进度 不断地增加,然后这个文件夹不断地变大,所以就表示我们的模型也放到这个文件夹了,已经 这样子呢,整个欧拉玛包括它的模型都放到了我们指定的盘符了,谢谢大家。

openclaw 刚发布新版本,直接把 deep seek、 v 四 flash 设成默认模型,用户一打开第一秒接触到的就是它。同时, v 四 pro 也一起上线,作为更强的补充。 如果你把时间拉长来看,这一步其实很关键。 openclaw 是 目前全球星标最高的开源 agent 框架之一,正在成为很多人工作的入口。而默认模型决定了用户每天和谁对话,用谁做决策。这不是技术选择,而是分发权的争夺。更值得注意的是, 这次更新不只是模型,它把 google meet、 语音通话、浏览器自动化全部打通,从开会记录到执行任务,再到结果沉淀,一条链路跑通。 ai 正在从一个工具变成一个工作系统。 但这里其实有个更隐蔽的风险,当默认模型变成习惯,你以为选择还在,其实已经在慢慢收缩。表面看是开源是自由,底层却在悄悄走向集中。以前我们工作要打开一堆工具, word 写文档, excel 算数据, ppt 做汇报、邮件沟通非书、整理资料。现在呢?你只需要对着龙虾说一句话, 事情就做完了。这听起来很爽,但问题也在这儿,当你放弃这些工具和流程,你的能力是被放大了,还是被替代了? 如果有一天,龙虾突然不工作了,你还能不能回到原来的节奏?还是说,你已经离不开它了?所以问题就变得有点微妙,龙 龙虾到底是你的工具,还是你变成了它在现实世界的延伸?它是 ai 连接现实的桥梁,而你我的朋友,也许只是它伸出来的一只触角。而触角这种东西,说实话是最容易被替换的。你同意我的说法吗?欢迎评论区聊。

前阵子呢,我们跟大家分享了华为的养成系 ai 助理小易可乐,最近呢,我也是一直在用,平时工作生活中确实帮了我不少忙,给大家捋一下小易可乐这一波的成长速度到底有多快。 三月底呢,小易可乐贝塔开启了先锋体验,上线了三十天就完成了十余次的架构迭代。最近呢,他又来了一个重磅的升级,正式进入了 deepsea v 四作为默认的大模型,整体的能力再上了新台阶。今天我们就跟大家一起来屡屡这次进化,到底带来了哪些实打实的体验升级。 首先呢,不得不提一下小易可乐最核心的学习,而是真的会在和你沟通的过程中, 记住你的使用习惯和内容偏好。比如说,每一次让小易可乐改 ppt 注角的时候,都会要求字体统一为微软雅黑八号字,标注来源要放在页面右下角等等。跟他提过两次之后,下一次你再让他修改的时候,直接就会按照这个格式来输出, 完全不用我反复的说出要求。要是小易可乐哪一次处理的任务出了错,你指出来之后,他也会自己复盘,经验沉淀成可附用的 skill, 用的越久,他就越懂你的习惯,就像是和你配合了好几年的工作搭子,处理需求的效率会变得非常的高。 其次呢,接入了 deepsea v 四之后,小易可乐最明显的升级就是 agent 场景下的长上下文能力更强了,它可以更好地记忆和理解长文本,包括几十上百页的行业调研报告等等等等。 前阵子呢,正好华为公布了二零二五年的年报,一百四十七页的 pdf 我 就直接扔给了小易可乐,没拆分,也没做任何的预处理,先让他提炼核心的结论,出来的内容逻辑很清楚,关键的数据也完全没有错。 我又挑了几个问题来问他,小易可乐都能够准确地找到对应的内容回答我完全没有出现其他 ai 那 种。看了后面忘了前面的情况。让小易可乐输出一份三千字的调研报告,他也一气呵成地表达了出来,极大地简化了流程,使创作效率得到了显著的提升。 并且升级之后的小易可乐还有更丰富的 skill 市场了,接入了很多头部合作伙伴的专业能力,不需要再辗转于多个 app, 一 句话就可以搞定多场景的需求。 比如说我平时买基金要查持仓股的涨跌,看最新的调研报告,直接跟小易可乐说帮我看一下今天自选股的行情,再整理一下新能源板块的情况,配置好之后,他就会直接调用东方财富等给你整理好数据和结论, 不需要自己再打开超过 app 一个一个来搜了。周末想跟朋友出去玩,直接跟他说帮我订机票酒店,再给我查一下杭州有什么好玩的,他就能直接对接美团、飞猪等等,搞定所有的需求,不需要在好几个 app 之间来回切换了。 无设备协同其实也是华为一贯的优势,小易可乐支持多设备的账号互通,在鸿蒙手机、平板 pc 登录同一个华为账号,既可以自由的实现跨端无缝的衔接。小易可乐呢,它不仅更好用了,安全方面也完全没有落下。 前不久小易可乐获得了新通院首个终端厂商权威安全认证,有鸿蒙星盾架构的系统及安全兜底,所有的数据都有专属的沙箱加密, 隐私完全可控。小易可乐刚刚上线没多久,就一直在升级,从被动的响应指令到主动适配你的习惯,正在慢慢跳出工具的这样一个定位,逐渐的成为了一个贴心的助手。 这次升级之后的小易可乐有了 deepsea 微四的能力加持,有鸿蒙全生态的协同和安全兜底,使用体验其实是越来越好了。正在使用华为手机和华为 matebook 十四鸿蒙版的朋友可以去试一试这款会成长的 ai 助理了。

家人们 openclaw 四点二四重磅更新来了!这次最炸的消息, deepsea v 四正式成为默认模型,但光升级没用,跑完这六步才算真正用上新功能,赶紧码住!首先,第一步,先确认你是不是最新版,在终端输入 openclaw version 查看版本, 没更新的直接用 npm install g openclip at latest, 一 键升级,简单粗暴!第二步,检查模型列表,输入 openclip models list, 看到 deepsea vs flash 和 deepsea vs pro 就 说明模型更新成功了。 第三步,靠 git 为干活的朋友先查状态再操作,用 opencloudway status 查看配置,没生效就重启 opencloudway restart 搞定,别瞎点浪费时间。这次不是玩具, talk, 语音通话、 google meet 都能调用完整 agent 先跑 opencloud whatscore setup 和 opencloud whatscore smoke 检查链路,避免通话时出问题。第五步,经常用浏览器任务的这次大升级, 坐标点击更长动作预算,标签页恢复稳定型拉满,输入 openclub browser click course help, 快 速上手!第六步,开会党狂喜! google meet 支持个人授权,一键进会议,会议记录转写,还有标签页恢复排查,用 openclub google meet doctor oht, 省心又高效。这次更新不只是换了默认模型,更是把 agent 从能演示变成能长期稳定干活, 语音浏览器会议功能全面升级,实战价值拉满!赶紧照着这六步操作,让你的 openclaw ghost、 ghost smoke 检查猎物直接起飞!觉得有用的点赞收藏转发给需要的朋友,咱们下期再见!

大家好啊,今天讲一个事,我们觉得这个世界都变了,横跨整个世界,我们会发现很多很多的问题啊,就全球最火的开源 a 任的框架啊,就是这个 open color 大 龙虾,二十五万的这些哈子星标哪做了一个什么事呢? 他给他自己的这个玩意换了一个新啊, open color 刚刚发布的版本,把 deepsea v 四 flash 直接设成了全球新用户的默认模型。我只说一句啊,全球每一个更新 v 四 flash, 一个中国开源的 ai 模型架在全球最强开源智能体框架的 c 位上,你让人意味着什么呢?哎,相当于全球拆开了一个精密的器械,说明书上写着,心脏来自中国。我们不只是输出模型,我们是在定义每个新用户打开智能体那一刻,和谁先说话, 那到底凭什么呢?哎,我告诉你,国外那帮搞开源的,嘴巴上天天挂着中立可插拔,实际上选默认的时候比谁都记贼,他们要的是个能真正当 a 人的大脑的东西。什么叫 a 人的大脑? 不是你聊天多风趣,是模型自己去调用工具,写代码,查文档,反复试错,跑完一整条任务链,中途不断不崩,不给你甩一句,哇呀,好像出错了啊,把 token 全部用完, deep stack v 四在这一轮 a 的 能力上,直接把里亚麻四和 cloud sin 的 n 的 地上摩擦更觉得是稳, 连续跑几百步, a 着你的任务,不掉线,不幻觉,不暴走,不给你中断重来。 open cloud 那 帮人是测试报告里记得很清楚, v 四在多复杂任务里边,成功率和连续度是所有开源模型的第一名, 第一名哦,所以它不是便宜才上,是真的能干活、能扛活,才被全球顶级框架按成了默认 open cloud。 这次升级到四点二四版本, v 四 pro 全面上线了模型库 keep 四。 v 四这一轮干了什么?不是堆更大的卡池,而是直接把百万 tiktok 上下班打造成了所有服务的标配。 mate pro 总参数冲到一点六万亿,但只激活四百九十亿参数, mate flash 总参数 r 两千八百四十亿,激活一百三十亿参数。采用了极致工程化的 m o e 架构,批推理又快又便宜。 更狠的在后台, v 四直接从退到适配,全部围绕华为升腾体系转起来啊,因为啥呢?库达还能转着钥匙多久?这事不好说了。老张想说啊,这不是一个简单的技术版本更新,这是国产 ai 生态,在关键路径上拿到了全球框架的默认指导权。 所以说,大冒险这条路,如果你还当一条热闹看,你已经看不明白。老张一直在教大家怎么用真正的应用场景拆模型,怎么落地,里面哪个环节藏着机会。 这期视频呢,咱们讲到短一点,那这里面的产业转弯方向,我是用了整整一个 gdp 时间才想明白的,所以我们会在后续的记录科普课里面,完完整整的把带着大家一层一层的再次拨开。所以想要真正搞懂 ai 产业的,不要只看标题上热血,想看理清里面到底哪条产业链上 撕开一条缝的朋友,哎,我们的这个课特别适合你好不好?咱们九十天四十五个视频巴掌专门的直播,非常的超值,不需要好好看一下,链接在底下点击即可。另外告诉大家 记得接助教老师电话,不然你不知道怎么看课。好,今天就到这,我是瑞克老张,关注我,咱们投资的视角,看科技背后的精彩,我们下期见,拜拜。

美国的那个小龙虾正式宣布把默认模型换成了咱们中国的 deepsea v 四 flesh。 没错啊,没听错啊,就是那个美国人自己做的全球 agent 领域的标杆产品。现在打开它,默认跑的不是 gpt, 不是 cloud, 是 咱们国产的大模型。为什么呢? 因为够便宜啊,而且性能也没差多少。我给大家算笔账, openai 刚出的 gpt 五点五,每百万输出 toon 要三十美元,而 deepsea v 四 flash 的 定价是多少呢?两块钱 人民币,折合成美元才零点三美元,差了整整一百倍。这不是什么一分钱一分货的便宜货。 v 四 flash 总参数两千八百四十亿,激活一百三十亿,全系标配一百万 toon 上下文推理能力在 max 模式下几乎追平 pro 版本。 美国人自己测了,用它做 ag 的 任务,效果跟之前用的顶级币源模型没什么区别,但成本砍到了百分之一, 你换任何一个脑子正常的,都会毫不犹豫的把它设成默认吧。商业社会就是这么现实,谁能提供差不多的产品,价格最便宜一百倍,你就别说一百倍了,你就是两倍三倍的, 谁都得换呀。但真正让整个行业震动的还不是这个。就在四月二十四号 deepsea v 四发布的当天, 华为、升腾、韩五 g、 海光信息、摩尔县城、木兮股份、百度、昆仑星、阿里平头哥、真武、天树至星,整整八家国产 ai 芯片厂商全部完成了原声适配,这叫得零级适配? 模型发布当天芯片就能跑,而且是全量部署,不是什么阉割版、测试版,这在全球 ai 产业史上是头一回。 以前是什么样呢?英伟达出个新显卡,或者 open ai 出个新模型,其他厂商得花好几个月甚至半年时间去调试,去适配, 有时候等你适配完了,下一代产品都出来了。这次不一样, deepsea 提前跟这八家国产芯片厂商深度协同,从底层算子开始,一起做全链路优化。模型发布的那一刻,所有国产芯片都能直接跑,而且跑得很好。比如华为、深腾九五零 pr 跟 v 四深度优化之后,单卡推理性能达到了英伟达 h 二零的二点八七倍,推理速度直接提升了三十五倍。韩五 g 的 m l u 五九零多模态推理性能较上代提升了三倍。海关的 d、 c、 u 也完成了全量适配,给开发者提供了一条完全不用依赖英伟达的部署路径。 这意味着什么呢?意味着我们终于有了一个完整的、可以闭环的国产 ai 生态。以前我们说国产芯片,总有人说啊,能跑是能跑,但没有好模型适配啊。 那说国产大模型呢?又有人说,模型是不错,但只能在英伟达的卡上跑。现在这个死循环被打破了, 从芯片到模型,到服务器到云服务,整条链现在都能国产化了。而且不是某一家单打独斗,是八家芯片厂商集体战队,华为、百度、阿里这些科技巨头全部入局,形成了一个生态矩阵。 高盛最近还出了一份报告,说的特别到位,他们说 deepsea v 四的发布意义远不止于一个大模型的技术突破,也不止是 npu 和 gpu 的 国产化那么简单,它真正带动的是整个 ai 产业链的国产化。 你想啊,以前所有的 ai 应用,不管是国内的还是国外的,最终都得绕到英伟达的卡上去。英伟达说涨价就涨价,说断供就断供,整个行业的命脉都捏在别人手里。 现在不一样了,有了 v 四这个性能足够强、价格足够便宜的开源模型,再加上八家国产芯片的全面适配,以 后企业部署 ai 服务就有了一个完全自主可控的选择。而且这个选择在成本上比英伟达方案低得多呀,就会产生一个连锁反应,越来越多的企业会选择国产算力,国产芯片的订单就会越来越多,产量上去了,成本就会进一步下降,然后又会吸引更多的企业进来,这是一个正向循环。 而且 deepsea 用的是 mit 开源协议,企业可以免费商用,这就大大降低了 ai 应用的门槛。以前很多中小企业用不起 ai, 现在用 vs flash, 成本几乎可以忽略不计。 你看,从最底层的芯片,到中间的大模型,再到上层的应用,整个产业链现在都活了,这才是真正的竞争力,不是靠某一个技术单点的突破,而是靠整个生态的成熟。

这几天, ai 圈发生了一场悄无声息但杀伤力巨大的价格核爆。 open 可乐龙虾发布了最新版本,正式接入中国 deep seek vs 模型。让硅谷感到不安的细节是, deep seek vs 直接成为了默认首选模型。 更恐怖的是,其输入 token 的 缓存命中价格被直接砍到了原来的十分之一。这种断崖式降价的背后,隐藏着一个支撑 ai 产业改革的核心技术指标, token 缓存。很多人对这个词没有概念。简单来说,你可以把它想象成饭店里的预制调料包。 以前你每点一次菜,厨师都要从磨粉切算开始重新折腾。现在,对于那些重复出现的大规模背景资料、代码库或者长篇文档, deepsea 提前把这些食材处理好并存入了高速缓存。 当你再次调用相同上下文时,模型不需要重新计算,只需要直接提取。这种极致的工程偷懒,换来的是工业级成本的直接崩塌。当技术黑盒被逻辑拆解后,反映在财务账单上的结果是震撼的。这意味着曾经需要几百块钱才能完成的百万字长文本分析,现在只要几毛钱。 deepsea 用一种近乎暴力的工程优化,将成本压到了 g p t 五点五的七分之一。这早已超越了普通价格战的范畴,更像是一场对全球 ai 价值链底层的重新定义。放眼全球视野,这实际上是一场典型的不对称竞争。硅谷巨头们还在追求上万张 h 一 百堆出来的大力出奇迹, 而中国团队则通过 token 缓存、命中猫起没架构优化等手段,在算法层面强行拉平了默认,说明开发者群体已经做出了选择。 在二零二六年的 ai 战场上,算力多寡固然重要,但算力的投资回报率才是真正的生死线。 deepsea 挥出的这一刀砍在价格表上,曾在硅谷的算力供应链里,这种暴力降费必然会倒闭整个 ai 产业重构,那 那些还在靠卖高价偷看活着的中间商将面临灭顶之灾。而那些能够利用低成本算力重塑业务的开发者,则会迎来真正的爆发。当 ai 调用变得比家里的自来水还便宜时,所谓的算力制裁究竟还有多少实际意义?你觉得这种效率优先的打法,会不会是中国 ai 彻底换道超车的杀手锏?评论区聊聊。

据凤凰科技二零二六年四月二十六日报道,近日凌晨,全球知名开源 agent 框架 open call 发布二零二六点四点二四版本更新,正式将 deep seek v 四 f l a s h 设为新用户默认模型, v 四 p r o 版同步上线模型库。 这一变动据 deepseek v 四系列四月二十四日发布仅两天,标志着中国开源大模型与顶级 ai 开发工具的深度融合。 opencloud 官方更新日期显示, deepseekv 四双版本已纳入捆绑服务目录,替代此前的 cloud sonnet 四点六成为默认选项。技术团队特别优化了 v 四模型在连续多轮工具调用中的思考逻辑与推理复现机制,解决了此前存在的响应一致性问题。 deepseek v 四系列采用 mo 架构, v 四 f l a s h 拥有两千八百四十亿总参数,兼顾速度与成本。 v 四 p r o 则以一点六万亿总参数提供旗舰级性能, 两者均支持百万级上下文窗口。在 max 推理模式下, flash 版编码与路由能力接近 pro 版,成为 openclaw 默认选择的关键原因。 作为二十五万加星标的全球最火开源 agent 框架 openclaw, 此次选择 deep seek v 四被视为对中国开源 ai 技术实力的认可,用户可通过 openclaw config set 命令自由切换模型, v 四系列输入价格低至一兆 tokens 零点二五元,大幅降低开发成本。 deepsea 官方 表示,将持续与 open core 团队合作,优化适配,推动开源 ai 生态向更高效、更普惠方向发展。业内人士认为,此次深度集成有望加速国产大模型在企业级智能体开发中的应用普及。

opencloud 刚整了个大活,把 deepseek v 四 flash 直接焊死,成了全球新用户的默认模型 v 四 flash 当默认 v 四 pro 全量上线,百万上下文, m o e 架构劈推理快还便宜, 关键是适配了华为升腾不用非得抱英伟达大腿。那这事跟做电商的有啥关系?关系大了, 模型变强,你的 ai 员工就更聪明。以前写个客户话术还要反复调,现在扔给默认模型就能出活。国产模型上 c 位,意味着你的 ai 运营成本还能再往下打。

今天是二零二六年五月十二号, 先说 openai, 这周把 chat gpt 全平台的默认底层引擎换成了 gpt 五点五 instant 悄悄给你升级的,不用你操作, 新版主打更精准。在医疗、法律、金融这类高风险评测里,幻觉声明比五点三版本少了百分之五十二点五,不准确陈述降了百分之三十七点三,这个数字还挺可观的,毕竟这些领域出错代价是比较大的, 原来的五点三选项对付费用户还会在设置里额外保留三个月。下面来看百度这周正式发布了第五代旗舰文新一言,而你五点一这次比较有意思的是,成本层面, 用字言弹流式预训练技术把总参数压到了上代三分之一,预训练算力消耗压到同级模型的百分之六左右,但性能反而上去了,在 l m rina 搜索解锁榜单上拿了全球第四,国产第一。 说实话,这个成绩在这个参数量下还挺让人意外的。接着看蚂蚁集团这周正式开源了万亿参数旗舰模型零二点六一 t, 底层用了 m l a 和 lenientention 混合架构,主打省显存压延迟。比较有实用性的是,它引入了动态思考、力度调度常规任务自动切深度思考常规问题,走极速输出, 不用你手动掉档。在高难度数学基础 a i m e 二十六上跑了百分之九十三点九,这个分数已经很高了。然后是 antropic, 这周他们有两个新闻, 一个是在 github 开源了官方 agent skills 技能库,目前超过十三万颗星,说明大家还挺需要这个的, 他把指令执行脚本和参考资源打包成 skill 密地格式的独立模块,核心设计是渐进式加载,也就是 cloud 根据当前任务按需动态调用相关知识, 不用一口气把上下文塞满。目前包含文档处理、前端开发等可用于生产的模板,可直接接 cloud code 和 api。 另一个是宣布与 spacex 达成算力合作,接入了 colossus 一 超过三百兆瓦电力和二十二万张英伟达 gpu。 基于这波算力注入,他们把 cloud code 对 pro 和 max 用户的速率限制直接翻倍,取消高峰期降速,底层 opus api 的 速率上限最高提升了百分之一千五百。 本周另一项更新是 hi dream, 之前在 artificial analysis 盲测榜单上空降第八的神秘花生模型终于揭晓了, 是国内初创公司 high dream ai 开源的 high dream o one image 八 b 参数 底层架构比较激进,直接拔掉了 ve 和独立文本编码器,用 pixel level u i t 架构把原始像素和文本扔进同一空间计算,原生直出二 k 图像,还打包了推理智能体,升图前先做物理常识和空间布局推演, 这个思路挺聪明的。谷歌为 jamma 四全系列发布了多 token 预测草稿模型加速方案,原理是并行挂一个轻量级草稿模型,在主模型验证时提前预测后续磁源, 两者共享激活参数和 kv 缓存,最高能在不损失推理质量的前提下获得三倍生成速度提升。面壁智能发布了 mini c p m v 四点六一点三 b 参数的端侧视觉模型, 引入啦啦 v u h d v 四的早期压缩技术,图像进网络时就提前剔除荣誉信息视觉处理,算力消耗降了百分之五十五点八。 实测把一张三 k 图扔进去守 token 延迟只有七十五点七毫秒,跑分超过同级竞品,但 token 消耗只有对手约百分之二点五。 ios 安卓、鸿蒙部署代码已全部开源, 观测视觉这块面壁还是一直在认真做的。谷歌 deepmind 发布了 ai 协助数学家专门为辅助高端数学推理推研打造的多智能体研究平台。 它内部跑着有状态记忆,能自主调用拍算验证工具,懂得对失败推导复盘纠篇的智能体集群, 在高难度的 frontier master 四题库里跑出了百分之四十八的得分,是目前 ai 系统在这个题库上的最高分,最后快速过六条短信。 mate 杨丽坤团队开源了 linux model, 约一千五百万参数的世界模型,一张显卡几小时就能训完。在二 d 三 d 机械博弈推演里,动作规划速度比百亿参数级视觉大模型最高快四十八倍。 阿里子一妹子团队开源了 d o p s d 自蒸馏技术,让模型同时扮演老师和学生,成功在不破坏 turbo 模型极速能力的前提下,拉高了生图多样化和概念认知。上线 github 官方开源了 speck kit 工具包, 主打规范驱动开发支持,和三十多种 ai 编程助手对接。目前超过九点五万颗星先生成设计方案,再解析成任务数, 最后 ai agent 逐步执行。 reddit 创始人 antirez 开源了 d s 四本地推理引擎,专为苹果 metal 和 deepsea v for flash 定制 二 bit 压缩路由专家层后塞进一百二十八级字节的 mac m 三 max 上,预填充速度达每秒两百五十 token。 另外还有 rapid m l x 深度整合苹果 m l x 框架,实测速度最高是 alma 的 四点二倍。 nasa research 的 hermes agent 接入了 hesson's hyperframes 视频引擎 ai 代理,现在可以自主规划动画时间线, 直接渲染出确定性输出的 mp。 四、不需要传统剪辑软件介入。斯坦福有一篇论文指出,神经网络的输出空间会被分成可泛化的信号通道和不可泛化的再生水池。 基于这个发现改进了 i m w 优化器,在有结构性再生的数据集里可以把模型泛化速度提升五倍,而且不需要额外计算开销。以上就是上周的 ai 资讯, 接下来看下上周全球前十的生成式 ai 产品访问量排名,这周豆包 ai 第一次进入全球第八,之前一直都是在第十名左右。 最后再看看本周 hugin face 上热度前十的开源模型有哪些,这期就这样,感谢收看,觉得有用的话点个赞分享一下。