大家好,我是小木头。 coco 目前是非常流行的一款编程智能体,有许多朋友呢也反复地问到,关于如何使用国产模型,那本期视频呢?我们就把目前主流的国产模型都过一遍,看看如何在 coco 指点国产模型。 本期视频呢?我们尝试覆盖 deepsea、 智浦、 kimi、 千问这四家国产模型。 clocko 使用的是 osmotic 它自己的 api 端点,刚才所提到的四家模型厂商都已经原生支持了 osmotic 兼容的端点, 意思就是说他们各自暴露了一个 url, 跟 appstore 官方的长的几乎一模一样。同样的请求格式,同样的响应格式,同样的事件协议。 coloco 启动的时候只看两个环境变量,通过修改这些环境变量 就能够将 coloco 接到任何一家兼容的服务器。这与 open e i 目前的 api 广泛的被其他的厂商所兼容是同样的道理。 首先我们要做的当然是安装 curl code, 如果大家还没有安装,跟着我一起通过 call 官方文档的这一条小小的 curl meaning 完成安装。那咱们先复制这个 curl meaning, 打开终端,粘贴命令执行, 很快安装完成。通过 cloud dash dash version 能够查看当前安装的版本。我安装的呢是二点一点一三八。 接下来我们就逐一的看看四家典型的国产模型如何继承到可扣的。首先来了解一下 deepsea, 在 官方门党这里也给到了比较详细的介绍。 我们首先要获取一个 deepsea api key, 点击 deepsea platform, 在 deepsea 后台创建一个新的 api key。 接下来咱们配置环境变量,第一个呢是 astropic base 二 l, 可以 将文档中这个命令复制一下。 接下来配置 api key。 根据我的测试,我发现官方文档所给到的这个环境变量呢,似乎并不能公众。因此呢,我通过测试发现应该配置的是 o s token, 大家可以在自己的配置和测试中验证一下,看看哪组环境变量才是正确的。我现在就将刚才创建的 apikey 粘贴过来。在 deepsea 的 使用中,我们还配置额外的一个环境变量叫 astropic model, 将其设置为 deepsea v4 pro。 现在呢,咱们启动 cloud, 可以看看配置的模型。目前呢,使用的就是 deepsea v4 pro。 完成配置了,我们打个招呼,看看是否能够实现端到端的通信,如果能够正确地得到回复,那说明我们的 api key 的 配置 deepsea 的 配置是正确的。 现在呢,我们就完成了 dipstick 的 配置,使用的是 api key。 接下来我们介绍智普的 g o m 模型,智普呢,分了国内以及海外两个版本。另一方面, g o m 还有一个独家的事情,他们有定制 plan 的 订阅, 但无论大家使用的是订阅,还是通过 api key, 通过账单的支付头肯的开销呢,在和 code 这一侧的配置都是一样的,都需要配置一个 api key, 因此我们要做的都是登录,然后来到控制台创建 api key。 现在呢,我就在智普的后台创建个 api key。 回到智普的官方文档这里,关于 call code 配置,我们来看看究竟需要做一些什么。 在官方文档这里,我们可以通过几种不同的方式来配置,一种呢是通过自动化的帮助工具,另一种呢通过自动化脚本,还有一种呢就是手动配置,我们通过手动配置来看看每一个具体的环境变量究竟配成什么。 对于智普而言呢, and shop it base you are you 使用的是 a p r dot z dot ai, 那 根据大家所使用的是海外版还是国内版会有小区别,那大家参考官方文档对应的配置 base you are you 就 好。 我们现在新开一个终端 base 幺二 l, 设置为文档中所提供的这个 api slash andropic endpoint。 接下来配置 api key, api key 呢,刚才我们刚刚创建复制一个粘贴进来, 模型的选择可以根据自己的偏好来,我们可以将 gm 四点七作为默认模型配置进来,同样的将 gm 四点七作为默认变量。那咱们启动 code 可以看到目前呢就使用到了 g o m 四点七,那能不能正常工作呢?打个招呼就好, 成功得到响应,端到端呢运行正常。我们现在呢完成了智普 g o m 模型的集成,如果大家使用的是 coding plan 的 订阅,那同样的将 api 配置进来就好。现在我们来到 kimi kimmy, 最新的 kimi k 二点六模型呢,是他们的当家主力模型。最值得一提的是它在 s w e bench pro 上百分之五十八点六的成绩超过了 g b t 五点四和 clopus 四点六 开源模型,单价比 sonnet 便宜了约五倍。如果你做 agencoding 任务多呢? k 二点六是一个非常不错的选择。 同样咱们来到 kimi 的 官方文档,看看如何配置 clock code。 同样的首先要获取一个 api key, 来到 kimi 控制台,咱们赶紧创建一个。 接下来依然是配置一系列的环境变量。官方们呢,给到了一个非常友好的配置清单,我们可以复制它。首先配置 base 二六,接下来配置 os token, 我 们手不动地复制粘贴, 将刚才创建的 api key 复制一下,粘贴进来。模型我们配置成 k 二点六。如果大家需要细分配置 opus sonnet 海库模型呢?也可以通过以下的三个环境变量来指定对应的兼容模型。用什么? 我们在这里呢,暂时就不配置它们了。配置完成,启动 code, 现在呢,就开始使用 kimi k 二点六模型。 依然打个招呼,看看端到端的运行情况,看起来挺不错,响应速度似乎比我刚才使用智普模型还快一些。不知道刚才是否在智普模型上有点小小的网络延迟?那这就是 kimi 模型的集成。 最后咱们介绍一下千万模型的使用,我会用到阿里云百链来分享如何集成通过百链平台提供的模型服务。我们来到阿里云百链控制台,在最下方 api key 这里创建一个新的, 现在就来配环境变量。那我现在给大家演示一下我是如何配置的。首先配置跟随一二六, 我用到的呢是 a p i v two x slash clotcode proxy, 这个略有。接下来配置 os token, 也就是刚才咱们创建的 api key。 最后指定模型,我用千问三 coder plus。 大家也可以参考文档中给到的不同的模型系列。特别是如果大家希望在 clockcode 使用中切换一下 opus hi cool sonnet 模型呢,也可以对应地使用 default hi cool、 default sonnet、 default opus 这几个环节变量来指定,这样呢,就可以切换对等的兼容模型。在这里呢,我们暂时就不做这个事情了,完成配置,启动 code, 来尝试一下,看看端到端是否工作正常,打个招呼吧, 没有问题,能够得到响应。现在呢,我们就将千万模型集成到了 coco, 现在我们完成了四大国产主力模型的集成,全部跑通。我们来回顾一下, 在每家模型的集成中,我们主要使用的就是几个环境变量,一个是 base url, 一个是 off token。 如果需要配置模型呢,就使用 astropic model 环境变量。在实际使用中,如果我们直接配置 api key, 以账单的形式来支付 token 的 开销呢,还是蛮贵的, 因此推荐大家尽可能的选择。当然了,特别是在编程的应用场景中,如果大家每天都在使用 ai 进行辅助编程呢?还是推荐大家使用订阅套餐,这样呢会经济实惠许多。 好了,今天的分享就到这里,在我们的分享中,实际的配置呢,会跟官方文档中似乎有一些出入,那大家可以参考我们今天的分享, 看看是否能够正常工作。另一方面呢,参考一下官方文档,看看文档中的方式是否适合你,是否能够帮助你成功的将模型集成进去。 那如果大家在使用中发现有什么出入呢?也欢迎在评论区给我们留言。那今天的分享就到这里吧,感谢大家收看,咱们下期再见!
粉丝4515获赞1.7万

给你们看啊,我用 cloud code 制作了一个英语学习的 app, 用的是这个 g o m 五点一的模型,并且在手机上也可以成功模拟测试了。看这里的翻转卡片功能,分级词汇库,还有像影子跟读这些功能都可以用,生成效果很好,就算你没有编程经验,也可以很快速的上手做出一个高质量的 app 了。 今天给大家分享啊,怎么零基础的去使用 cloud code 生成高质量的 app? 我 们主要会用到的一些工具有哪些?我们先准备一下环境啊,去官网先下载 node js, 再下载 git 就 可以了,大概就两三分钟吧。 然后我们来安装 cloud code, 只要一行代码,你在电脑里搜索 power shell, 一定要以管理员的方式运行哈,大家可以参考这个教程终端呢,输入这个安装指令,安装 cloud code, 运行完之后,你再输入 cloud 杠 version, 你 就可以看到这个回复的版本了,那就说明安装成功了。安装好之后我们要配置 api 的 key, 这里我用 cloud code 绑定了 g o m 五点一的模型给大家做演示啊,因为它的编程能力真的是对齐 cloud open 四点六的,而且在开源模型 call 定排名当中非常靠前,目前是开源第一,国产第一。我自己实测下来,我觉得生成 app 的 效果也很不错哎,我们中国团队做出这个能连续工作八个小时的 ai 模型了。 我先说怎么获取 a p i 啊,访问智普的开放平台注册账号,那我选的就是这个 g l m 五点一模型的 coding plan。 登录之后呢,在右上角个人中心页面点击 a p i 的 key, 创建一个新的 api 的 key 就 可以了,然后我们就把这个 api 加载到 cloud code 当中,用这一行代码就可以快速运行。它是一个 coding tool helper, 你 可以理解为它是个自动部署的一个工具,然后你就会看到这个页面啊,界面语言选择中文套餐呢,就选择 g o m coding plan 中国版 api key 就 把你刚获取的复制过来, 随后选择 cloud code, 往下到 m c p 服务,选择解释一下 m c p 啊,它是模型上下文协议,有了它才能让 ai 去外接工具, 比如说去控制浏览器连接你的本地文件,去执行操作。这里我们直接选一键安装所有的 m c p, 最后我们选择启动 cloud code, 给它权限,选择 yes trust folder, 跳出这个橙色界面,你就装好了, 你跟他 say hi, 你 看他就可以回复你。这个时候我再输入杠 model, 你 就可以看到我的模型现在还不是 g o m 五点一。回到官方文档,你会看到要用最新的五点一模型,你还需要配置 json 文件,改一下环境变量参数,这个不麻烦啊,你只要复制需求,直接让 cloudco 自己改, 你看它现在已经在操作了,它标注绿色部分就是改的部分,你选择 yes, 给个权限,它就改好了,是不是很方便?然后我们重新开一个 power shell 的 终端,打开 cloud code, 再输入杠 model, 你 看模型,它就变成 g o m 五点一了。 cloud 的 装好了,我会觉得命令行页面用起来不太方便,所以我还会在下一个 cursor, 它是一个 ai 编辑器啊,配合 cloud 的 开发,它就可以让整个开发过程变得格式化,文件管理也很直观,你看它左侧会显示 app 文件加右侧呢,会有一个 ai 助手帮你 debug 去解释代码的含义, 直接去官网下载就可以,然后你点开里面的 terminal, 然后再输入 call, 启动显示橙色的标识,就是成功打开了。好,那现在我们来做 app 啊,注意不要直接给指令啊,让 g l m 做一个什么什么样的 app。 我 们开始之前先搭一个最基本的 app 框架,框架稳固了,后续才能节省 token 并且避免出错。 怎么建立框架?这里用 xbow, 它呢,是专门为开发打造的一个全能框架,你只需要用这一条指令, npx create xbow 杠 app, 创建 react native 项目,你就有了一个标准的 app 框架模板, 然后他问你 app 的 名字啊,你随便输入一个 my app, 现在你就可以给模型你的详细需求了。为了让 app 生成效果更好,我们把 skills 装一下去,强化模型的开发能力啊,让它的 ui 生成的更加美观。复制下面的代码,我们就能安装 ui skills, 选择安装 building native ui 这个技能,这里选择 cloud code, 选择 project 啊,后续基本都选 yes, 然后你看到 complete, 那 就是装好了,你会看到右侧文件夹里多了一个 skills 文件,点进去你就可以看到具体的技能介绍。 接下来我们重新打开 cloud code, 输入杠 plan, 进入 plan mode 这个功能呢,它是让 cloud 先想清楚怎么做,经过你的确认授权之后再开始干活。那现在我们和 glm 模型去描述 app 的 制作需求,你可以像这样几句话描述啊,如果你希望 app 生成效果更加符合你的要求,建议大家让 ai 来帮你完善一个产品需求文档, 详细的告诉 ai 你 要做什么产品,什么功能,越详细实现效果越好。给他下达指令之后,你可以看到这个 glm 五点一模型在分阶段的设计功能,还有开发方案,他自己规划了五个阶段,每完成一项,他自己会划掉标注完成。我看他运作还是蛮有条理的。 从零给需求你到真正调试做出来 app, 我 大概花了三个小时左右,它可以自主帮你规划交付,基本都不太需要我辅助,我做的最多就是在给它授权,它自己也可以 db 去解决代码的问题,如果它生成的代码你要是不太懂,你想了解一下,你就选中它,右侧 cursor 的 ai 助手就会帮你去解答。 那等你全部完成这个 app 之后,你也可以在手机上实时预览啊。你只要在手机上应用商店下载 expo go app, 随后在终端输入 n p x expo star, 它就会弹出一个二维码,你用手机相册扫码啊,就可以直接打开去实时的在手机上体验了。 你想电脑端预览,就可以点击这个 link, 也可以体验里面的功能了。你像我有单词翻转卡还有跟读的功能,都是可以直接用的。好啦,快去试试看吧!艾特闺蜜好朋友,一起从零到一,搭建一款属于你自己的 app, 有 啥问题可以评论区见!今天就到这里啦,拜拜!

你的 cloud 的 桌面端,你是不是还在用 office 四点七的这样的模型去跑?一个月开几十美金的套餐? office 四点七确实强,但是它的额度也是真的不够用啊,每次没对话几个轮次就提醒你又得升级点套餐要充值额度了。 我们看一下现在的国产模型,其实,呃,像智普的 glm, 五点一的,刚出的 deepsea 的 v 四版本都很强,都很能打 他,他们的能力其实也不是说比咱们海外的一些模型会有多少差距,但是我觉得有个很核心的点, cloud 的 这个桌面端的应用用起来真的非常的丝滑,非常的爽, 我们现在其实缺的就是这样的一个交互的界面,能够去搭载我们现在的一个国产的模型。但现在我想告诉你的是, cloud 的 桌面端的界面他也能接入我们国产的模型了, 官方开的门啊,不是什么黑科技,也不是什么其他的一些插件,在 cloud 的 桌面端加入了开发者的应用,你现在可以去接第三方的平台了。首先我先教教大家怎么去配置 啊? cloud 接入第三方的模型系列,配置也很简单,我们在这个开始菜单啊,点击它的这个 hell 开,打开它的这个开发者选项, enable developer mode 好, 点开以后,好,我们直接点第一个 好,这个点完之后他就会进行一个重启,我们等待一下他重启完成,我们可以看到这里就出现了一个选项,我们这个地方就可以来配置他的模型了,点击这个,然后他就会出现一个弹框啊,一定要选择这个 get away。 然后这里呢? 啊,我用的是 deepseek, 我 们可以去 deepseek 的 api 开放平台,然后去找到它的这个接口文档,这个里面就会有它的 u r l, 我 们把这一段啊,这里一定要是是用 s r b 的, 我们用这个把它复制过去, 然后自己在你的 api key 里面去新建一个你的 key, 然后我们滑到下面, 在这个地方添加一个你的模型 id。 啊,这里我们还是一样的,在刚刚的这个 deepsea 的 官官方的 a p i 文档里面,然后去找到它这个模型的名称,这里我用的是 vs 的 flash, 它是性价比比较高的一个,大家也可以去尝试一下。然后这里有个一照双眼纹的一个选项,大家也可以把这个打开 好,然后我们点击下面这个按钮,然后他就会重启,重启以后我们的模型就设置好了。好,我们试一下,在这里我给他发送一个,你好好, 可以看到他其实很快就可以回复我们,然后我们再来试一下,问他你现在用的是什么模型, 但是在这个版本里面啊, deepsea 他 现在还只能是一个语言模型,他没有这种视觉模型的能力。 所以说我们在这个课堂的桌面端,如果你给他发图片,他这里可能是识别不了啊,比如说我现在随便截个图,然后截个图我就发给他,我就问他啊,你这个告诉我这个图上显示了什么内容 啊?它还是识别不了这个模型。如果你想有一些图片识别的能力,我们可以去选用一些其他国产有视觉模型的 啊,同样的接入方法还是这套流程,然后也可以接到我们科罗拉的桌面端来应用,我现在用的是 deepsea 的 v 四啊。最值得提的一点就是 deepsea 的 v 四它的回复速度真的超级快, 而且你再也不需要模仿上网了。总结一下说 cloud 的 桌面端的应用,它现在不再是 cloud 专属的一个桌面端的应用了,而是一个能跑所有大模型的一个 a 级的平台。所以说国产模型有了一个更好的载体,我们也有了更多的选项。

hello, 经过亲自验证,我现在知道说真的,不懂 ai 就 不懂编程的人也能够用 ai 来做编程的软件或者网站。呃,我自己花了三天时间做了一个免费的 clock code 教学网站。 呃,就国内很多人想用 clock code, 但是,呃,网上的教程要么英语,要么太技术根本看不懂,然后看着视频来学,看别人视频跟着学 还要按一下暂停。然后,嗯,有一些疑问啊什么的,其实很难按自己的节奏来学。嗯,所以我做了这个网站,我直接展示给你们看。哎,这个就是我网站的首页,然后网站的首页是几个非常简单的问卷,了解你对这个 proco 的 了解程度, 快进就好, 这个问卷你就可以根据它推荐的模块开始学习了。 我们以我们以模块三 b 作为一个案例,这一个章节讲的应该是大家最关心的,就是我做好了克拉克,我怎么样匹配国内的这种大模型。呃,这里举的案例是智普的 g l m, 因为它前面会赠送呃几千万个头肯, 然后呃后面。如果说大家想测试用这个 deepsea, 用一样的方法也可以介绍 deepsea 作为它的大脑,按照它的教学步骤以。

兄弟们,英伟达开放了智普四点七和 mini max 的 m 二 api 可以 免费使用,直接去英伟达注册就行,别说我没有提醒你们赶紧收藏。

嗨,今天来教大家怎么白嫖 cloud code。 呃,我之前不是做了个网站教大家用 cloud code 嘛,怎么样下载?怎么样安装?怎么?呃,调试它的 a p i。 当时我举的例子是这个智普,因为智普你注册了之后,它会赠送几千万个 k p i。 哎,搞错了,什么,几千万个 k p i 太可怕了。呃,是赠送几千万个 token, 然后后来我智普赠送的 a p i 用完了之后,我就换了那个 deepix 的, 因为 deepsea 它新发布的大模型能力特别强,然后在五月三十一号之前还有打折啊,给的折扣也蛮低,所以我觉得蛮好,蛮便宜,我就没有换模型。但是如果说你现在在摸索阶段啊,不想花钱,完全不想花钱。那你试一下这个。呃, free cloud code, 它是在 get 上的一个网站,然后它会教你一步步怎么配置。呃,只要你下载好了 cloud, 就 可以直接用这个就是网址,等一下我会放到评论区。嗯, 你看它的这个五星点赞量哈,就是星际历史, 这个反馈是特别的好的。呃,说明很多人用了发现确实能够白嫖。 然后你看,快,这个快速入门,这里它就会,你先得装好 clock, 然后你就按。

克拉蔻的如何直接接入国内大中型?今天我们就详细的来说明一下下载安装,这个咱们不多说了,最核心就是开启开发者模式,其中之后我们到 apple 菜单 tabo sorting, 然后下边的 enable developer move 给他 enable, 重启之后出现 developer 菜单,在这里边选 big 的 party, 然后在这里选择 get 位填入平台的 u i l, 然后是 e t i k, 下面就 l 就 行了,它重启之后就可以了, 我们来测试一下。 好了,就这样了。

hello, 各位朋友,大家好呀,今天是一期 cloud code 的 基础教学,希望能帮助各位职场人士和在校学生提升自己的办公和学习效率。 cloud 是 目前最强大的开发工具,它除了写代码以外,还可以做很多事情, 比如数据分析,文件整理等。我们今天主要会用到三个工具,分别是 cloud、 g r m 智普的 api 以及 vs code。 第一步,我们先来安装环境,首先我们进入 node js 的 官网,选择我们的系统 windows 或者 mac, 我们这里是 windows 系统,然后点击下载安装。第二步,我们去 get 的 官网,点击这个 click here to download, 我 们就可以下载 get 并且安装了。第二步,我们需要打开命令提示符,输入 cmd, 我 们在命令提示行界面输入 npm 这一条命令, 我们的 cloud code 大家可以看到已经安装好了,然后我们再执行 cloud 刚 version 这条命令, 我们在这里可以看到 cloud code 版本号,这证明我们的安装已经成功了。安装好 cloud code 以后,我们来配置一下它的 api。 首先我们进入智谱的 平台页面,我们进入控制台,点击 api, 我 们在右上角点击新建 api, 可以 新建一个 api, 我 们这里已经新建好了,新建好以后我直接就可以复制这个 api 了。 之后我们在命令行界面通过这个自动化助手 coding to helper 这个编码工具助手来完成后续的配置。首先我们将这个命令进行复制,接着回到我们的命令行, ok, 我 们现在就进入到了这个 coding helper 的 主菜单界面,在这里面我们进行界面语言的配置,选择中文, 然后我们选择编码套餐,选择 g r m coding plan 的 中国版,我这里因为之前已经配置过 api 了,大家直接将刚才的 api 复制进来即可。 然后我们点击编码工具,选择 cloud code。 在 这里头我们有两个非常重要的配置,一个是 m c p 配置,大家进入以后把这四个全部都选上,然后对它进行安装。 然后还有一个插件市场,我们将这两个插件全部都起用。 ok, 现在我们的 cloud code 的 配置就已经完全完成了, 大家在这里可能还不太理解 m c p, 没关系,我们先完成本次的安装,后续我们会跟大家进行详细的讲解。 我们现在用的还是 cloud code 的 自带模型啊,这个有很少的一个试用额度,手动修改一下啊。 settings 点 jason 这个文件,将它的环境参数替换为我们质朴的模型。 这个也非常简单,大家不用担心,只需要你把需求输入给 cloud 就 可以,它会帮你直接修改好。我们打开 cloud 界面, 我们将需求使用 grm 四点七,在配置文件 settings 点 jason 中修改如下的环境变量参数,我们将这段话发给他,他就可以自动来进行配置了。配置好以后,我们关闭这个界面,然后新开一个 cloud code, 我 们在这里再次进入 cloud, 就 可以看到我们的 grm 四点七已经配置完毕了。 对于大多数的非代码用户来讲,我们的命令行界面看起来可能会有一点费劲,所以我们下载一个 vs code, 在 这个界面我们看起来就会舒服很多。首先我们进入到 vs code 的 左侧 extension 扩展界面,在这个里面 输入 cloud code, 我 们找到 cloud code for vs code, 点击 install 来进行安装,我们可以在上面看到一个 cloud code 的 图标, 我们点击它就可以来进行对话了。第三步,使用场景,我们准备了三个日常的使用场景,第一个就是表格的文件批量处理, 我们在日常工作中经常会处理各种文档问题,例如格式不规范、内容重复、表格有空值等,我们手动一个一个修改,效率非常低,现在我们就可以通过 cloud code 来轻松的完成。 我们在表格文件中可以看到有很多的文件,我们点击一个,可以看见它里面的日期格式是不统一的,我们在 cloud 的 输入框中艾特这个 excel 的 文件名称,然后我们给出我们的意见,比如说这个日期格式杂乱不统一,请他统一日期格式, 他做好以后就会给我们返回一个新的文件,我们可以看这个是原有的文件,他的订单日期和发货日期是非常杂乱的,格式不统一,这个是他新做好的文件,日期是非常规整一致的。然后第二个是图片素材的收集,我们需要用到一些 简单的图片素材,我们在网上一张一张的下载它可能会非常的麻烦,非常的费时间。 我们可以直接跟 cloud code 说出我们的需求,帮我们从免费的视频网站上来下载素材,嗯,比如说它可以下载很多,像宠物、建筑、科技、汽车、美妆等等都可以下载。 我们把这段话发给他,让他帮我们来下载,稍等片刻我们就可以看到他下载好的图片素材了。 a few moments later, 大家看一下 他下载的图片素材质量还是蛮不错的,并且他还贴心的帮咱们进行了分类。第三个场景是视频的笔记总结。 我们的教学视频时间一般会比较长,然后之前一直需要回看视频来进行笔记的摘要和总结。现在我们可以直接把视频发送给克拉克,并且告诉他需求,例如帮我对这个视频进行笔记整理和总结。 我们发送之后,稍等片刻, a few moments later 就 可以得到一个学习笔记。我们点击可以看到 cloud code 已经帮我们把笔记完全整理好了, cloud 在 这个过程中会安装自己所需要的插件和包,编辑代码。最后给出我们这样一个笔记总结。如果你是内容创作者的话,也可以用同样的方法来提炼这些视频中的字幕, 通过字幕来进行二次创作,或者多语言字幕生成。以上就是我们今天视频的全部内容了,如果你也想利用 ai 工具来提升效率,那么就快跟我一起学起来吧!新手直接抄作业,我们下期视频见!

如果你想学习 ai, 但不知道从哪下手的话,作为 ai 从业者,比起装 opencloud, 我 更推荐你去深度使用一下 cloudcode。 先说明一下,这个建议是针对真的想要认真研究 ai, 已经对 ai 有 一定了解,且有一定的探索和动手能力的朋友, 讲一下用 cloud code 的 几个好处。第一个你就不用再去折腾模型了,直接能用到顶级模型。我观察过,就是用 opencloud 的 很多同学其实并不会用顶级模型,都是为了省钱省 token, 用一些比较二线的模型。我觉得对在学习和研究阶段的人, 这样的选择我是特别不建议的,因为这样会影响你对 ai 的 认知。使用这些二线的模型,我觉得更适合那些已经有业务的人,在跑业务的时候去做成本优化的一个平替。第二个是 cloud code 本身是一个 成熟产品,相对 opencloud 这样的开源社区产品,成熟产品背后是有基本的安全性保证的,会有它背后的公司为此负责。第三个是所有的前沿的 ai 能力,包括什么 scale, m c p 啊, startup, hogs, memory 管理这些东西, cloud 的 hold 都有, 甚至像 scale, mcp 这些现在事实上已经是行业标准的 ai 协议,都是由 cloud 发起和定义的,所以它在产品能力这一块,一定是能够让你体验到 ai 的 最先进的一些 理念的。你用 cloud code 的 过程本身,你就能不断地去熟悉和掌握这些概念。你如果不去设计这些,还停留在跟 ai 去用对话框聊天,你是感受不到 ai 现在到底有多强的。 最后有一点明确一下,就是我这里讲的 cloud code 特指的是终端版本,因为它其实是有几个不同的产品形态,我更推荐终端版本。 那终端版本它肯定是有门槛的,但我认为 ai 这波浪潮目前其实还是处于技术驱动的阶段,你去建立一些基础的技术认知,从我自己个人的经验来看,它还是很有必要的,而且对你的成长是很有用的。今天就分享这么多,下次见。


之前教大家用 co work 去配置第三方的国内的模型啊,很多小伙伴说没办法联网,那应该就是你的模型选的不对,你比如六叔配置的 deep seek 模型,我们试一下能不能联网,你看他就直接调用他的 search web, 嗯,结果不就出来了吗?啊,所以 deep seek 模型接入进去是可以联网的。还有小伙伴说突然用不了了,我一直用都是很正常的呀。啊,如果说你现在配置 deep seek 发现报 api 的 错误啊, 这个里面呢,可能是需要你把它的这个 model list, 把这个 model id 之前的视频讲完,把它删掉,不用去指定 model id 了,直接把 base url 和你的 api key 配上去就可以用了。另外智普的模型也是可以的,我们切到智普的模型再去演示一下,还是在 develop 有 个 configure third party inference 换成智普的 base url, 然后把智普的 key 贴进去, model id 都不需要了,点击 apply locally 重新启动,我们再来试一下, 你看也可以调用 search web 显示到具体的结果了。我目前测试下来,智谱的和 deep seek 都是可以联网搜索的。那如果你用的没法联网搜索,比如小米 mi mode, 没办法联网搜索啊。我看到啊,网上有大神给提供了一个方式,还是点击 third party 配置啊。这里面有个 sandbox workspace, 点击 allow more, 让它自动调用 fetch web 的 模式去替代 search web, 这样的话也可以部分地去实现联网的模式啊。因为我没有其他的模型去测试,所以大家自行地去试试这个开关,点击 allow or 或者你就干脆像我一样直接使用智普的或者 deepsafe 接入进去就可以联网了。这个客户端目前依旧能够支持国内的模型啊,学会了吧,关注我,持续风靡你的街头 book 了个拜。

我靠家人们一定要用最好的编程模型,怎么说呢?就是我这两天我体验了一下官方的 cloud, 没有使用国内的 deepsea 或者说智普 gm, 虽然说国内的这些模型能力也非常强,我包括我之前在没有用 cloud 之前, 我也觉得它们的能力也非常强。但是自从我前两天切换到了 cloud 之后,我觉得它在理解我的这个问题的程度上和开发的速度上, 以及解决我 bug 的 这个有效性能远超了我的这个预期啊。我原来可能要一天才能解决使用 ai 编程的一个问题,但是我现在可能要一个小时、两个小时,它极大地去压缩了我做事的时间成本。就是在之前我要去开发一个产品或者开发一个工具 要一天两天的时间,但是现在的话我只需要花一个小时、两小时,如果再短的话呢,就是半小时就把这个事情给完成了。所以说给我有一个非常大的启发,就是在 ai 时代,时间这个成本真的太珍贵了,就是你想全世界里面这些搞 ai 编程的这些人, 我觉得时间成本真的非常珍贵啊,你花一天的时间去给 ai 这个编程工具去去讨论啊,你才可以去完成这件事与你要花两个小时你就可以把这个事情给完成,我觉得我肯定要去选两个小时就能完成这件事情的模型啊, 所以说对于我来说这一个生产力的一个质的一个提升了,我觉得而且比如说我现在去录视频,我在之前我真的没有时间去录视频,因为我在开发产品,在使用 ai 编程去做产品开发的时候, 我要花一天的时间,一天的时间我甚至都要和我的这个模型去争吵讨论。我在 每天结束之后,我基本上是没有时间再去录视频的,但是现在我已经完成了我今天要去开它的这个任务,我就可以把这个视频录制一下,而且我真的觉得 对于想要去搞 ai 编程的人,一定要去体验一下 cloud 真心的去推荐大家去使用这个东西, ok。

我自己大概用 ai 的 时间已经有半年了,然后这大概两一个月前我还是用的 cloud, cloud 一 直是充的那个两百到的会员。虽然我自己一个月的工资也就一万过一点,但我大概一个月 ai 上面可能要花三千块钱都不止,因为除了这个 cloud, gpt 也会充一点, 然后之前的话还会用什么极梦啊这些东西去深图深视频。然后就是最近我会忽忽然发现就是 cloud code, 它不一定有这个 codex 好 用,可以给你们看一下我现在用的情况。就我现在 之前,我之前的话,我一直其实是充的是两百刀的那个科奥的会员,但是现在我发现就是在用他的过程中的话,他会不断的你问他一个问题,他我觉得他是明白是什么意思的,然后他去做的话,你会发现他执行的一点都不彻底,就是 呃会出现那种,比如说你呃同一个代码,因为我们知道就是大概你让 ai 去写代码的话,它该大概只能完成度就是有百分之八九十这个样子嘛,但是你其实希望它能做到百分之九十九, 那你让它达到百分之九十九的话,你就需要让它去执行五遍甚至十遍。但是我发现就是在这个过程中的话, cloud 它基本上是 呃,就是跑一遍,他可能还能认真的跑,但是跑你去搞那个自动化的那个工作流,然后让他自动去跑,他跑第三遍,第四遍的时候他就开始偷懒。然后还有一个就是我今天很生气的一个东西,就是我做了一个那个 呃 ai 的 网页,等会可以给你们看一下,这里面有一个这个 ip 宠物,呃,自动这个跳舞的一个视频,然后呢会发现有一些格式上的不正确,然后我就让他去调,然后他把我别的地方的代码给我改了,然后很生气,我就去充了一个那个 codex 的 这个 pro 会员,然后发现 codex 的 话它做一遍就帮我已经做的非常好了,然后我就觉得说 codex 它就是有的时候可能是比 cloud 的 要好用很多的。

最近几天,各大的 ai 厂商集体的秀肌肉, bbc 微四, gbt 五点五, oppo 的 四点七, timi 的 二点六,智谱的五点一,声浪是一个比一个大, 我把官方公布的所有的数据全部抓了下来,做成了一个网站,我们直接开比。不过有一点要讲清楚,这些模型发布的时间大部分都比较短,绝大多数都尚未经过独立的第三方正式验证,所以基本上都停留在了一个厂商自爆的阶段。 所以今天这一场也是一场广告含金量的大赛,我们最后也会专门的聊一聊谁的广告水分最少,谁的数字 是更值得参考的。好了,我们正式开始塔塔开。我们先来看一看价格,因为你能力再强,你用不起也是白搭的。我们看一下输入端,最便宜的实际上是 kimi, kimi 的 二点六, gbt 五点五的价格呢,已经全面向 cloud 看齐了。 我们看一下输出端,输出端最便宜的呢是 deepsea v 四 pro, opus 呢,五点五已经比 cloud 还要贵了,但是呢, opus 五点五的官方声称 token 消耗量减少百分之四十,而 opus 四点七呢,反其道而行之,比 四点六还要更贵一些。不过呢, gbt 有 套餐的优势,两百美元的 pro 呢,换成 api 的 价值大约相当于一万美元的用量, cloud 呢,订阅呢,也能换出两千六百美元左右的一个价值。所以呢,这里有一个极端反直觉的一个结论,那就是 deepsea 是 没有包月套餐的, 如果在真实的工作场景下呢,它反倒是所有模型里面最贵的。而其他的呢,其实国产模型的价格优势并没有宣传的那么明显,我们再来看一看呢一个基础的参数,那就是长上下文。这一次呢,最值得单独提的一个变化就是 deepsea v 四终于支持百万的一个 toon 上下文了, 国内的其他的几家模型呢,目前还停留在呢一个二百五十六 k 的 一个左右的水平, deepsea 呢,在这一点上的话还是值得点赞的,但是呢,在支持百万上下文和真正好用的百万上下文呢,这是两件不同的事情。 office 四点六在长上下文上保持的是非常的出色,是少有的人能够做到诊断输出还不太缩水的一个模型之一。这里还有一个被广泛讨论的一个隐患,那就是第三方测评的一个数据, office 四点七在超长的上下文的召回能力上可能不如 office 四点六, 在呢 m r c r 的 官方百万 token 的 场景下,它的准确率其实降到了百分之三十二,实际上跌幅超过一半。如果这个算是一个 bug 呢?那其实在修复之前, oppo 的 四点七的长上下文的可信是要打一个很大的折扣的。我们再来看一看编程,目前呢,这个 s w 一 八七 pro 呢,是代码能力的一个非常硬核的指标, 是现在含金量最高的标准之一,是考察真实软件工程问题的一个解决能力,不是刷题。虽然呢,这个 open ai 宣称这个数据存在污染,但是呢,这套标准目前依然是最权威的参考之一。我们可以看到 opus 呢是排名第一, 国产的阵营里面呢,这个 timi 二点六和智普的五点一已经非常接近五点五的一个水平了,大概和五点五呢,处于同一竞争梯度,算得上是呢,真正意义上的进入第一梯队了。 然后呢, v 四 pro 要相对要落后一点,但是呢,但是分数本身呢,已经相当不错了,如果数字本身是真的话,我们再来看一看终端编程,终端编程 a 进程呢,考察的是这个模型在实际开发环境下的话, 完成多部任务的一个能力,调度工具,修改文件运行测试,自我纠错,比单纯的代码补全要难很多,也更真也更接近呢,是一个真实的场景。 g p d 五点五算是杀死了比赛,哪怕是上一代的五点四,在这个维度下呢,也是所有选手中最强的国产模型呢,国产模型已经能和 cloud opus 四点六打的有来有回了, 但是呢,你和顶级的 gpt 五点五还是有差距的。我们再来看一看这个工具的调度能力,这个维度呢,考察的是模型调用外部工具和 api 的 一个能力,是 agent 应用最核心的一个基础能力。 cloud 的 oppo 的 四点七是目前碾压级别的领先 国产的模型呢,基本上达到了 g p t 五点四的水平,其中呢, v 四 pro 呢,是国产模型里面表现最好的,我们再看就是说搜索与信息解锁的一个能力,这是一个专门测试模型网页网页浏览和信息解锁能力的一个精准 核心,是看模型能否在真实的互联网环境下找到准确的一个答案,而不是靠训练数据里的记忆去应付。 目前呢,最强的依然是街面奶,尤其是这个 deep research 版本。 opus 四点七呢,在这个维度上反倒不如 opus 四点六, deepsea 微四呢,在国产阵营里面虽然是最能打的,整体表现非常的不错。我们再看一个电脑的操控能力,这是一个非常容易被忽视,但是非常非常非常重要的一个维度。他考察的呢 是模型在控制真实计算机的界面,而不仅仅呢是代码生成,是真正的能够动鼠标点界面干活的一个能力。目前呢是双交最强。 国产里面呢,只有 kimi 公布了相关的数据,因为很多自动化的任务你必须依赖真实的鼠标操作,网站的风控呢,也会识别模拟输入,所以在这一块呢,国产的模型希望能够尽早的去提上日程, 这是未来的 agentic 的 一个场景的一个核心方向。我们再看知识推理, g p q a demo 的是博士级别的科学问题,推理水准含金量非常的高, 目前的界面呢,还是排在最前面的国产模型里面呢, timi 的 二点六是略强于几架,但是呢整体差距不大,基本上属于互有胜负的一个水平。以上呢,就是这次接近四十个跑分项链含金量最高的几个维度。接下来呢,我们来论外了,那就是 astropik 的 一个神话模型 rocky, 可能内部存在一个完全超过 opus 四点七的一个模型,但是目前呢,并没有对外开放能力呢,属于莎士比赛的级别,但是呢,正因为它不对外,就不纳入今天的横屏范围里面了, 它的存在呢是默认提醒你,老夫还有底牌,相比之下,连 codex 呢都用不了的 g p t pro 也打不了这张牌。最后呢,是一个纯主观纯喜好的个人排名,我心目中的第一,目前是 oppo 的 四点七,其实以非常非常非常微弱的优势成为我最喜欢的一个模型。 在这三十多个跑分里面呢,他单独拿下第一的呢,就只有六项,你算上四点六呢,也不过只有十一项。但是在 sw 一 半期 pro 代码的能力, mcp 工具的调用上呢,都处于碾压级别的领先。 长上下文的输出呢,也非常非常的出色,幻觉率呢,控制的也是最好的。在这几个最关键的一个维度上呢,他都是第一名,或者是并列第一名。而且在我的一个实际体验上,他在写文章,做前端的一个审美上,处理文档都有非常明显的一个优势。 cloud 呢,一直是有一个非常明显的江湖人设,那就是跑分没赢过,实战呢,没输过。这次呢,也不例外。他的跑分呢,是仅次于 gpt 的, 但是在很多的关键的实战维度上呢,他在跑分上呢,是仅次于 gpt 的, 但是在很多的关键的实战维度上,他仍然是那个最可靠的一个选手。 但是它的问题呢,也非常的明显, oppo 的 四点七比四点六还要更贵,而且对于国内的用户来讲呢,它还比较反,你懂得。总之呢,你是快爱不起来了。 我心目中的第二名呢,就是 gbt 五点五。 gbt 五点五呢,是唯一能够全面抗衡 cloud 的 一个模型, 在这三十五个相对比里面呢,它拿下了十二项第一。如果你把 g p t 五点四也算上的话,它有十六项第一,等于是遥遥领先,它在这个终端编程知识广度和 agent 的 一个能力上都是非常强的, 但是他有一个绕不过去的一个问题,那就是目前呢,这个独立的 ai 测试机构 a a 做了一个精准的测试,他的一个知识召回率呢,是百分之五十七,是历史新高。他的幻觉率呢是百分之八十六,也是史上最高, 就是知道的最多,但是也是最爱编的,就是他不像一般的模型,他不知道的时候就会说不知道,他不知道的时候呢,他会给你胡编乱造一个, 所以这是一个不大不小的问题。在很长很长一段时间里,它应该是我花钱最多的一个模型了,我希望它以后呢能够多说一点人话,然后减少一些 ai 感。第三名呢就是 gmail pro, 说实话非常的吃老本有这种感觉, 除了搜索呢,信息解锁和这个一些做题上,其实已经看不出来它有明显的优势了, 可以说他是这种刷题跑分很厉害,但是实战的下线呢,已经非常非常低了,我现在自己用的呢,用 rock 用的都比他多一些。我们之前其实还做过一个测评,当时还得出了一个结论,就是 jamie 呢,属于天下无敌的水平, 现在呢才过了几个月,真是一言难尽。我们来看一看的国产阵营里面,首先他们有一个非常大的一个问题,就是一个透明度的问题。国产模型呢,他在对外公布奔驰 mark 的 一个数量上呢,能爆出十个已经算是非常多了。国外的模型呢,通常呢每次发布呢,都会公布三十个到五十个的样子, 这次的质谱呢,更是只公布了两项,而且呢基本上都没有附带测试条件的详细说明,我相信呢,它造假的可能性呢,并不是特别的大,但是呢,这个数字呢,有水分的概率非常的高,但是呢,即便如此啊,这些成绩已经非常非常非常令人惊喜了, 希望能够早日在第三方的测评独立上呢进行一个验证。国产里面, kimi 二点六把外模的三巨头呢拿掉之后,国产跑分里面最多的实际上是 deepsea v 四。 但是呢,如果你让我把所有的维度都综合下来给一个排名的话, kimi 二点六是我心目中目前最强的一个国产选手,他在非常多的关键领域都处于第一梯队,比如说他在这个 g p q diamond 的 呢,是国产的最强,而且价格呢也算是比较便宜的, 而且还有包夜的套餐。而且呢,他基于这个 m o e 的 架构,成本性能呢也非常的均衡, 他在 c 端的这个 agent 呢,落地的也是非常非常早的。如果你只让我选一个国产的付费模型的话,我 我我当前选择的就是 kimi。 这次呢,有一个非常非常让我意外的选手,就是 dbc 卫士,我之前在知乎上面专门写了一篇文章去抨击 dbc 不 思进取,我甚至觉得他已经和文心一言做一桌了, 这一次呢,算是狠狠的打我的脸了。在目前呢,你把御三家拿掉之后,在国产加开源的模型范围内, deepsea v 四 pro 是 拿下了十六项的第一名,在国产数量里面是最多的。不过呢,这一部分的含金量是有限的, 在我们演示的几个里面呢,他基本上都不是御三家里面最好的,而且呢,他有几个非常大的问题啊,就是他没有订阅套餐, 也就说它实际用下来呢,它比 cloud 还要贵,它的多模态能力呢,依然有非常非常明显的短板,而且它的数据呢,全部来自于自爆,而且还是预览版。它的 c 端的产品呢,就是在当前的这个环境下,已经算得上是简陋了, 所以它其实最大的标签是开源,也不是便宜。我真心的希望,我真心的希望 eiffic 能够跟上国产头部的节奏,比如说几个月更新一个版本,开通套餐,做几个真正有用的 agent, 在 多模态呢,有稍许的建树,但是说实话呢, 希望应该也不大,只是希望他不要像 v 三一样发布极巅峰展后沉寂一整年。最后呢,我们来看智普的五点一,这次呢,公布的参数实在是太少了,不过因为发布的时间最早,已经有不少被第三方验证出来结果了,实际上是非常非常能打的,算是国模的头部选手之一了, 比如说这个文字的能力,比刨分呢,实际上还是要差一点,但是呢,程序员的朋友对他的评价普遍比较高,就在剪掉智普有一个免费模型,我自己做的插件一直在用这个,总的来讲,所以哪怕他是这一次我心目中的最后一名, 它也是非常非常能打的。 oppo 的 四点七呢和 g b t 五点五其实都没有想象中的那么强,不过说实话呢,哪怕是打了折,国模的这次表现呢,其实还是远远超出了我的预期的,希望呢,能够在第三方的测评中看到国产模型上榜,也更希望在实战中呢,能够像 cloud 一 样,那就是跑分没赢过, 实在没输过啊。大家好,我是站站艾尔,一个说人话的艺人,公司博主喜欢的话呢,请帮忙关注点赞。这个对我真的非常非常重要,下次再见。拜拜。


据报道,今日一网友让智普 g l m 五创建一个网页展示自己 g l m 五,竟然称自己是 cloud 哈。网友再次向 g l m 五询问一般什么情况, a 大 模型说自己是 b 大 模型,他自己回答可能是数据污染或提示词注入要求的角色扮演,或者是安全对齐不足,甚至是模型微调套壳。