cloud 安装完成以后,我们需要对它进行配置,首先要配置的就是对 cloud 进行连接的大模型,我们这里以国内的 deepsea 为例进行演示,打开 deepsea 的 官网,在这里点击 api 开放平台,然后我们点击这里 api key, 我 们点击创建 api key 名称呢,随便填写,编辑完成以后,点击创建就可以返回一个 api key。 返回 api key 以后呢,我们需要把这个 api key 给到大模型,它才能连接 deepsea。 对 于大模型 api key 的 管理呢,我们推荐 c c switch, 点击添加,我们在这里可以看到 cloud 可以 对接的大模型有 这么多,我们找到 deepsea, 然后往下直接把 api key 粘贴在这里,点击添加,下面我们去终端测试一下,我们在命令行的终端敲 cloud, 然后我敲回车,它会提示我们说我们是否信任当前的文件夹,我们选 yes, 否则呢,也无法使用 cloud。 这里可以看到呢,我接的是国内的 deepsea 大 模型,我并不是用的 asteroid cloud, 官方的它的自费,那到此呢,我们就可以在我们的命令行可以正常地使用 cloud 了。
粉丝15获赞93

一分钟教你英伟达的免费 a p i 怎么样去接入 cloud code。 我 们先来到英伟达的开放平台,在这里呢,我们先注册一下账号,输入你的邮箱就可以了。然后呢我们生成一个 a p i key, a p i key 的 名字可以随便填,生成好之后呢,我们把它 a p i key 复制一下。 然后呢我们来到 github 下载一个软件,叫 cc switch, 找到这个软件,然后进行下载, 这个软件呢可以很方便的帮我们去管理我们的 cloud code 的 配置。然后呢打开主页之后,找到这个 releases 啊,找到第一个,然后呢下拉下来,选择我们平台对应的下载包,比如说我这边是 windows 的, 就可以选择这一个, 把它下载下来,打开这个软件,然后呢我们可以看到右上角有一个新增供应商,选择自定义配置,我这里呢不重新配置了,看一下我是怎么配置的。首先呢,供应商名称可以随便填,然后呢 api key 填一下,看看你在公官网申请的那一个 api key, 然后呢请求地址填我这一个。然后呢 api 格式这里要注意啊,一定要选第二个 open ai 的 一个格式。然后呢模型名称我选择了 kimi 的 k 二点五,然后进行保存,这时候呢就配置好了。 然后呢我们打开 cloud code 来尝试一下,给他发信息,刚刚我们配置的供应商要记得起用一下,不然的话会不生效。然后呢可以回来 cc switch 里面看一下刚刚的使用统计。下拉下来可以看得到刚刚请求产生的 token 输入和输出分别是多少。 在英伟达的开发者平台里面呢,是支持很多种模型的啊,你可以按自己的喜好来选择,只要在右上角优酷里面点开这个,查看具体的模型型号,准确的填写,就可以切换模型了。 因为是完全的免费使用的人会比较多,有时候呢会比较卡顿。如果这条视频对你有帮助,记得点赞收藏关注。

cloud code 没有 a p i, 就 像跑车,没加油,再强也跑不起来。今天教你用最低成本合理配置,给他加满燃料。官网二十美元一个月,太贵了,国内 coding plan 只要一折,二十到四十块钱就能搞定。但有个关键点要注意,这些套餐都有每五小时的用量限制。什么意思?就是 每五小时刷新一次额度,还有些有每周限制。如果你像我一样白天上班,晚上集中写代码,那这个限制对你影响很大,可能刚写到信头上,额度没了,要等刷新。所以选套餐要看你自己的使用习惯,分散使用的话,五小时限制影响不大。集中使用的话,要选额度高的套餐。我们不单只是可以用在 open cloud 大 龙虾上,一起使用这个套餐。 a p i 我 整理了七家平台的对比表,大家看图, 价格、用量、模型都在这里,大家按需选择。重点提醒,标称用量是理论上限,高频使用会触发垄断。社区实测每月六百到一千次够用到模型选择,大家可能纠结选哪个?其实真不用纠结,各家的模型能力都差不多, mini max m 二点五,英文语境表现好, p m k 二点五,掌上下文强。 deepsea 性价比高,千问 quan 代码能力强。这些模型在 cloud code 上都能用,差异没你想象那么大。我的建议是先挑便宜的用,不满意再换。所以不用太纠结,先跑起来最重要。省钱秘诀来了,首月优惠可以轮着用,第一个月阿里云百联七点九元。第二个月火山方舟八点九亿元。第三个月 mini max 九点九元。第四个月百度千帆九点九元,四个月只要三十六块钱,平均每月九块钱, 喜欢折腾的朋友还有免费方案,摩达社区,每天两千次免费,英伟达 nim、 老黄的羊毛不限量 pet 上面有专门收集免费模型的仓库, 这些都可以接入 cc switch, 当一个用完会出问题,会自动切到下一个。不过免费的要折腾,适合喜欢折腾的玩家,一般玩家买个包月套餐就够用了,省心。总结一下省钱攻略就是首月优惠轮着用,四个月三十六块免费体验选模搭社区,每天两千次,按需选择,但不要马上买包年包季度的, 因为政策调整太快了,按月购买就可以了。后期觉得模型有能力限制的话,到时候再弄一些中转的,或者买官方的原版再转出来也可以。这个我们后面再说。下一期手把手教配置 a p i 和 cloud code, 用 cc switch 一 键切换,关注我,带你玩转 cloud code, 帮你做任何事。

今天给大家分享一个比较便宜的普通小白都能用的一个大模型。我们知道我们在学习 ai 或者使用 ai 的 过程中,就会发现 它是一个巨大的氪金的东西,因为会消耗大量的 token, 很多大模型靠这个 token 的 消耗令来盈利来赚钱。今天分享的这个呢,就是阿里云的一个最新的叫扣丁普兰的 这个头,跟他这个主题呢,说是量大环保,支持阿里云的千万的三点五,还有 mini max, 还有 嗯 g m m 等等各种模型,他是按照消耗的次数调用的,次数就每月呢大概有一万八千次的这个调用额度,每月的这个套餐费用是四十块钱,现在打折啊,现在二十块钱 对于普通小白是完全够用的,因为很多人反映这个 投币量很少,而且比较慢,如果你只是说我掌握一下 ai 的 基本应用,跑一下简单的流程,知道这个 ai 是 干嘛的, 我觉得是完全够用,它还支持这个龙虾,还有支持可乐扣的。另外一个呢,就是我们在调用这个 api 的 时候,一定要记得是扣丁普兰的 api, 不是 那个百炼的 api, 因为百炼的那个 api 呢,它是后付费的,你消耗多少投币就扣多少钱。 我上个月签约的时候,当时结果 api 填的是那个百炼的,他一天就给我花费了一百块钱,当时把我吓坏了。我觉得阿里云他这个售后比较好,因为是今天那个售后小哥给我打电话, 我把这个事情给他说了,他说你是调用错了 api 了,今天就把那个 api 给改过来了,我觉得这个是比较划算,因为一个月就二十块钱,大家可以试试。

如果你花了三十块钱买了三百道的 cloud 的 流量包,你要小心了,它可能正在摧毁你的数字资产和浪费掉你宝贵积累资产的时间。 今天我们来讲一下 cc 反向代理的代价。那我们知道啊,这个 cc 的 话,在国内你很难去买到正版的,或者即使你买到的话,你会花很多时间在网络的连接,连通信以及这个高昂的费用上。 那很多呢,在某鱼上边儿就有卖这种的流量包,比如说买可洛的话,去充值二十八,或者说三十的话,就获得三百刀这样的 一个优惠包。那当你使用的时候呢,你当然你可以直接接到那个 c c 里边去用啊,但是它最大的问题呢,它是通过反向代理 出来的,这些 a p i 接到了你的 c c 上。那什么叫反向代理呢?就比如说我们现在呢,有很多的开发工具 ide, 比如说 kro 啊,或者按按 t grip 啊, 然后这些 ide 的 话,它们本身是支持很多种不同的模型的,那这些模型的 ip 和调用的方式呢?通过一些网络的方式,其实我们是能抓取到这些接口的,那从而呢,我们可以把这些 ide 的 模型的调用呢,我们给它暴露出来,暴露出一个正常的一个 api 出来, 那这些 api 呢,从而让它支持 cloud cc 的 这种兼容模式,那它就可以放在 cc 的 cloud 中去使用了,那这样的方式呢,就变成了一个反向代理的方式, 那它价格呢,就变得极其便宜。就比如说 kiro 或者 angelgrati, 你 办一个比较大的会员,或者使用学生账号或者其他途径的话,它是有很多免费版本的,所以呢, 即使这个商家在做三十元三百刀的时候,其实还是有利用空间的。那这里边我们需要关心的是这些 ide 暴露出来的 cloud code 这些模型的话,为什么对我们构建数的资产是有影响的呢?我们知道这些 ide 里边其实都是自己设置了一个 system prompt, 就是如果你去给它暴露出来的时候,你调用的时候也是带有这个 ide 的。 呃,里边的 prompt, 比如说是如果是 kiro 的 话,它就会 system 里边 prompt 会写着说你是 kiro, 是 一个编程助手。什么什么?这是基于 kiro ide 的 一些规则, anti gravity 其实是一样,包括后边 curso 也都是一样的。 然后它们的 system prompt 的 话,就对我们原来的这些模型呢,其实是进行了一个系统提示词的一个污染,那所以结合克拉扣,它自己也有提示词,我们就变成了这样的。 就原始的 cloud code 呢,是我们有一个 c 自动 cloud code, 这个就是 c c 自己的系统提示词,下边接着我们 u 的 这些信息就可以了。那我们通过反代去使用的这些 a、 p、 i 呢,它就会在 我们 c c 的 这个提示词下边呢,也追加到这个 i、 d、 e 里边的提示词,所以你看啊,上下文就进行污染了,它在最顶层上下文的提示词中呢,其实是 c c 自己的系统提示词中间这一部分和下边这部分 实际才是我们真正调模型这些提示词,那下边两部分是 i、 d、 e 通过反向代理出来的,那你会发现啊,那系统提示词就有两部分,那我们的整个的提示词呢?就进行了一个污染, 那当这个系统提示词进行微污染的时候,我们有很多的 skills, 我 们有很多需要复利工程的让模型去帮我们处理的这些内容呢, 实际上呢,我们就在污染的涉案文里边继续进行操作了。那你说那我污染涉案文,如果我都是 k 肉情况下,我自己也是可控的。其实这里边最大的问题是什么?当我们购买了这种流量包的时候呢?其实它是一个路由的,它一会是 k 肉的,一会是 antigravity 的, 就你很难去数字资产化你的提示词也很难去呃 复利化,你整个的数字的一个债务资产。我给大家举个例子啊,你看这里边呢,是我用了购买流量包的反向代理的 c c, 那 这里边你去问他你是谁的时候,因为他是有两层提示词的嘛,所以他就会说我是 kiro。 那 你知道这个我是 kiro 的 计划,其实是 kiro 里边的 id 反向出来的 api。 然后呢后边有一部分呢,是关于 cc 的 提示词里边的这个身份认证,你发现它就会有两部分的身份认证。当然它去操作的时候,因为 kiro 本身是有它自己的工具调调用的方式,然后 cc 是 有它自己调用工具的方式的,所以你整个的呃关于工具的调用方式也是混乱的。 所以如果大家在使用的话,如果真的觉得 cc 我 们原生去氪金来讲的话,它非常贵的话,我们其实是可以使用国内的这些模型的,最起码里边的上下文其实是不受污染的,不受在不受污染的上下文中呢,我们去构建 我们自己的数据资产,那这个东西才是可持续、可迭代的一种方式。那也希望呢,今天内容对你有收获,关注雷哥,关注 ai 工程化落地。

有很多小伙伴不知道 codebody 是 支持外接第三方 api 的, 首先我们打开浏览器,输入 codebody, 点 ai, 下载 codebody 桌面端,这里我已经安装了,就不重装了。然后我们打开 c 盘,点击用户,点击本电脑账户, 来到 codybody 目录,这里的地址是 codybody 上方的文档,复制文档中的 models, 点 json, 在 目录下创建 models, 点 json 文件,打开官网的 api 文档,往下滑,复制自定义模型语句式里,进前面的文件里, 这里完善一下视力添加的模型,可以识别图片上面的代码,缺少自定义 api 地址我们也补上去。 然后我们把 api 中转站的地址粘贴进去, 下面也一样。 然后我们把中转站的 api 令牌也粘贴进去。 这里我用的 gpt 五点三 codex 模型,下面则是 gpt 五点四 底部的模型名称记得修改,修改后记得保存。 然后我们打开 code body, 测试是否正常, 可以输出文字和提取文件说明正常使用。

国内的模型基本没怎么用,结果想买的时候试一试,发现买不了了,包括阿里云、百联和智普 ai, 智普的 g m m 也用不了了,每天都需要去抢。刚才我去十联讲了一下,发现它的网页是在转呢,跟抢票一样。 所以大家啊,早买早用,现在这个 kimi 还是可以用的。这个 kimi 还能用,赶快去买一下。我建议买个四十九到或者九十九的都可以,我买个九十九的 kimi 还是可以用上,感觉跟克拉扣的是有些差距,但是便宜,大家可以试一试,尽早用 其他的模型,比如说迷你 max 或者是 dipsic, 这些还是一般,有的说迷你麦草, 目前迷你 max 是 它的,这个定制 plan 是 可以用的。我买了一个 plus, 先试一试。刚才试了一下啊,还行,但是你要让玩龙虾比较贵,我不太建议用龙虾,用迷你 max 有 点贵了,我可以用本地去部署, 或者你就用一下提米豆的就可以了。还有庆大家一些,这些 ai 的 层出不穷,一个月一个版本,所以我建议大家就买一个月就试一试就得了,不要开这种连续包年的。这种的你看比如说前两天刚 充值 cds 二点零的,现在又出了新模型,所以一个月左右基本上就过时了,所以大家还是自己看一下,如果有钱无所谓,可以试试用这种单月的。

最近 oppo pro 爆火,很多人想用 a p i, 但又不想花钱买套餐,分享一个英伟达免费 a p i, 零成本就能用。首先打开官网, b o l d, 点 amazia 点 com, 没有账号的用邮箱注册一下,英伟达的网站很卡,实际注册没有这么流畅, 每一步都要等好久。这里选不选都可以,接着随便填个称呼提交,接着点右上角印证手机一个号只能绑一次。接着在首页找到更多模型,进去选择 epi 分 类,再筛选你想要的大模型。这个网站加载有点慢,耐心等一下就行。找到合适的模型,点进去, 点击右上角查看代码,把这三个关键信息复制出来。 base 模型 id 生成的 a p i t, 点击这里生成 a p i t, 然后复制下来。有了这三组数据,直接填进 open call, 就 能免费用上英伟达大模型了。想试水不想花钱的赶紧去试试!

今天和大家聊一个有趣的发现啊,不知道大家在反问一些国外的模型时,有没有发现过提示您所在的地区无法使用的情况?那在国内要反问这些国外的模型该怎么办呢? 有需求就有市场嘛,我们市场市面上就出现了不少 a p i 代理服务的网站,就比如说 d m 叉 a p i 啊,钱多多 a p i 等等。在这些平台上充值后就可以使用包括 g p t 啊,呃, cloud account 啊在内的多种模型,它们基本上都通过 new a p i 去实现的。 其实六 b a p i 的 核心原理本质上就是 api 转发,但它不是简单的传话筒,而是做了一层风,标准的风装和智能调度的一个智能网关。 既然是转发,因为我本身就是学网络工程出身嘛。我心里就不明,有个疑问,如果我付费的是高级模型,会不会被悄悄转发到相对性能相对一般的模型呢?于是我就做了一个小小的测试,我向他提问,只请只回复当前的 model id。 当时我选的是 cloud code 的 高级最强的模型 office 四点五,但是他回复我的是 sonic 的 模型,选又属于中配的版本吧。我接着就追问,你不是 office 吗?他甚至给我解释了 office 跟 office 的 区别,并且强调自己不是 office。 虽然我还没去确认这到底是魔神本身的 bug, 还是这类代理服务存在以次充好的情况,但是这件事提醒我们,在使用服务时确保 要保持一定的辨别意识很重要。索尼其实也不差,甚至比国内的很多模型还要强。但是如果我们付费的是 opps 的 钱,但是蛋蛋希望得到的是相应的能力, 所以大家在选择这类辅食不妨多方面去验证一下,用更实际的方式测试模型的表现。

上一期教大家了 cloud code 怎么安装和部署,那么这一期教大家怎么样去对接大模型,怎么样去付费使用?首先介绍一下 cloud code 的, 我现在使用方式有这几种,第一种呢,最基础的官方订阅了,你要去 cloud 官方注册一个账号,订阅它们的计划, 它有不同的这个付费的这个形式。是的, free 的 pro max 对 第一个门槛。好多评论区的人问怎么注册账号啊?有一个最简单的办法就是你去注册个谷歌账号, cloud 是 支持直接用谷歌账号登录的,就不会碰到什么用手机号的问题了。 ok, 然后呢,解释一下他们的这个 pro 和 max 账号, 他们这个账号有一个限制,比如说像 pro 账号,它是在五小时之内,你可以用到一定的 token 用量,然后在一周也有一个 token 上限,但是它有一个很坏的地方,就是你不知道它的 token 的 限制到底是多少。对,我们找了很多,没有一个官方的说明。对啊,它其实大家都是动态的,它会根据它们自己的用量实际 去调整。 ok, 我 去论坛找了一个大家使用反反馈,就是呢,有一个人大概估算了一下,像估计它是比较大量的那个 token, 消耗任务的话,可能两个任务就能用掉 pro 账号的百分之五十五的使用额度了, 大家可以感受一下,其实我之前在自己使用过程中也是差不多是个这样量的,比如说如果你的项目下内容比较多的话,可能五六个任务你五个小时的额度就用光了, 你就要再等等他解锁了那个五个小时,五个小时以后你再开始用。对,是的,所以呢,总结一下他官方订阅的,他的优点就是质量是肯定没保没问题的,用的是真正的 cloud 的 最顶尖的大模型。缺点是封号封快飞快,我已经给封了两个账号了。 还有就是 pro 账号是肯定是不够用的,大部分人的,就国外的那些专业开发者用的都是 max 账号, max 账号的话一个月折合人民币大概是一千四百块钱人民币,所以这个打呗打呗对这个专业的用户才会考虑。 ok, 如果你想要去解决不被封号,你需要去投入研究 更多的办法,这个隐形成本是很高的,建议如果你有本事折腾就是避免封号,你可以去考虑,你一定想搞的话,你可以考虑用组合配或者 apple pay, 这种方式会加收百分之二十五左右的费用,但是听说封号的时候 谷歌会或或者 apple 官方,他会帮你挡一刀,有时候会给你退钱或者帮你兜底,至少,但也只是听说啊,不负责任感觉下来就是大可不必。对新手小白不建议这个方式, ok, 第二个方式,官方 api 其实对于大家来说其实是不需要考虑的,因为质量没问题,但是缺点是死贵, 你们可以看一下奥普四点六,他的呃输入是每百万托肯是五到,也就是三十五块钱人民币,输出的话是二十五到每百万托肯非常非常贵。 正好我一个任务差不多就一个,一个多一点,任务差不多就结束了。哎,讲了这个正好呢,我们正好解答一下之前还有很多朋友关心的这个推算消耗的问题,我也给大家测算了一下,投入啊,真金白银的投入。测算了一下, 我有一个很复杂的一个自己的项目,就是那类似于今天老师之前的那个个人的工作台一样的,这里面有我我所有的工作的记录,包括记忆进度啊等等等等,这项目还是比较大的, 我让他全量的跑一遍我这个项目,把里面的每一件事的进展汇报一下,相当于他会把我整个文件夹全部读懂点。对,是的,我第一个是用的是卡的 pos 四点六模型,他耗时用了大概十四分钟,把我这个项目读完了, ok, 用了投,看多少呢?用了, 用了七万的投垦,这一个任务后面的两百是什么?其实两百是这个上下文窗口的上限,这次用的是七万的投投垦。给大家大概估算了一下,假设 大部分情况下,输入是占百分之七十,输出占百分之三十,所以折算下来,我本次绘画用了五块六毛钱人民币,做一个任务是相当于重量的, 也就是说大概你可以估算出来吧,可能对于你们这种办公工作者可能会少一点,不会五块钱,但是一次任务一块钱肯定是有的,我透露一下,有一天下午我一个人就用掉了人民币六十,对,是的是的,所以大家有数啊。很多人关心偷更消耗,但其实偷更消耗这个问题其实很难回答, 它基于的是,首先你的项目,你的复杂度,你的文档的多少,还有你这个用的模型,有的模型他的思考的程度高,那么他消耗的头可能就高。 还有基于的就是你用的软件,所以呢,为什么我在对比呢?我用的是 g p t 五点三 codex 思考度 high 的 那个模型,它的思考程度很高,所以可以看到我本次跑下来用了十三 万,刚刚是七万,现在是十四万,十四万,十四万的消耗翻一倍,对,同样的任务翻一倍,所以用不同的模型跑同样的项目,它的消耗不一样。是的,用同样的模型, 也是那个 gpt 三点五的模型,我在 opencloud 里面再跑了一遍,消耗就是七十七万。因为之前在 opencloud 里其实也有很多人关心这个 token 消耗的问题,所以呢,我给大家看一下,大概感受一下。相同的模型,不同的软件在 products 下跑的是十三万, 在 opencloud 底下跑的是七十七万,这也就是为什么大家说 opencloud 很 少 token 很 厉害的问题原因。但是这个东西在 bug 里面其实只有七万对,是的,其实只有七万对, 天呐,但这个里面有核心原因,影响因素很多啊,比如说 gbt 五点三扣带子 high 这个这模型它的思考度就高,所以呢,它耗,它耗,它消耗头很高,它本身它因为它的记忆体系,所以导致它它的消耗头很高,这也是影响因素,所以这个只是做个横向的,让大家感受一下, 点到为止。所以这个总结下来,如果你调用官方 vpi, 这个就对于新手来讲一定也不用考虑,大部分研发也不会做这种事,这种只会做产品的时候考虑。 还有一个办法就是我提一下,免得有人说我没提就是 antigravity, 反反贷把,有一个软件开发软件叫 antigravity, 就 谷歌推出来的,有的人有办法把它里面的 api 提出来,到扣子里面去用,当时它谷歌很大方,但现在已经开始对这样用的人进行封号处理了,所以今天就不去详细提了, 别搞了,能写到我们,我们咱们就是。然后最后一种办法就是通过第三方 api 来接入。第三方 api 的 话其实又分成三种方式, 第一种就是 open route, 国外最大的一个就是第三方 ip, 提供平台模型超市,对,是的,然后它们里面会有各种各样的模型的 ipi, 然后也有那个 cloud office 四点五的,但是它的价格和官方是一模一样的,呵呵, 所以呢,它是同样死贵的,花钱也是飞快的。它对于就是我们大陆的 ip 封禁没有那么不会,没有那么严啊,能用上,对,能用上,不像那个官方的一天你是几乎用,为了用还很费劲,还很花钱,所以你大部分情况下可以不用考虑,但是你可以去少充一点钱, 通过这个去感受一下奥克斯四点六的真正的能力。然后呢,还有一个就是大家常提的中转站,就国内的中转站, 它实惠,一定程度上你可以用到 off 四点六的顶级模型,但有很大的缺点就是首先它不稳定,时时时不时断线,那很多都是自营的,所以呢,大概率会跑路,有风险有风险,而且还可能会一次充好它。你说是在用 off 四点六,而背后说不定用的是别的模型,都有可能的,你也不知道它那个管子跟你插在哪个边了。是的是的, 所以建议就是啊,你可以用,但是不要一次性充过太多钱,少量多次的充,用多少用多充多少,也不要在我的评论区交流。对,我不会给大家推荐具体哪一个厂商,但是呢,会给大家推荐一个网站,叫做这个网站不读了,在这里面你可以看到各种各样的中转商以及他们的稳定性,可以 基于这个去选择你想用的中转商。不要交流啊,你看就行了,不要交流。好的三种方式呢,就是我大家比较推 推荐新手小白,先尝试的就是用国内的模型来代替,因为国内模型的话是最实惠的,也是最稳定的,而且其实在能力上的话也没有什么太大明显的差别。 然后讲到这呢,正好就是给大家推荐一个软件,是开源的,之前我也提到过叫 cc switch, 因为 cloud code 它本身理论上来说只能用它自家的模型,但通过这个软件是可以切换到别的任意一个模型的,包括了我前面提到的中转商提供的模型以及 国内的模型,它使用起来也很简单,你去 getapp 上面,或者到时候曾老师发一个。然后呢,我们打开这个软件以后,点击右上角的加号,你就可以看到它预设好了各种各样的模型厂商,包括了千问、 kimi, 然后你去他们那边注册订阅一下他们的 kimi 二点五去做我们的那个网站,也都是挺实惠的啊,包括上次我们其实用了那个 kimi 二点五去做我们的那个网站也都是啊, g r m 也都 支持的。好的,我推荐新手小白呢,最好的方式就是你订阅一个国内的模型,然后你再去 openroot 上稍微充一点点钱,你把 真正的 cloud office 四点六接入进来,然后也可以把国内的模型接入进来,两个去做同一个任务,去比较一下这个结果对于你来说差别是不是真的很大。如果差别不大的话,你就完全可以先用着国内模型,然后等到以后真的有一些业务需要了,你再去换。 你先看看你自己做的这点事,你配不配用这么贵的东西啊?有些写文档的工作,你自己思考一下你配不配用。 ok, 本期视频就这样,拜拜。拜拜。

在 opencode 里面使用密报免费的大模型,需要在 opencode 里面首先注册,注册之后过提到你的 a p a, 然后复制到你的 a p a, 到 opencode 里面找到你的急风声,要点击 opencode 做你这个模型, 复制你的 api, 点击确定,然后在配置里面去找到你需要用的两个 free 模型,一个叫做 miimo v 二 pro 的 free 模型,另外一个是叫做欧米的一个 free 的 模型,它俩点开,然后就可以使用了。

各位龙虾养殖户还有 cloud code 编程的那些朋友们看过来,国外那些 ai 你 现在都可以用了,不用魔法,不用充值,你只需要充一个就可以使用这么多 ai 了。六十多个 ai, gbt 的, deepsea 的, gimla 的, 还有最重要的 cloud, 最新的四点六都可以用了。你首先打开这个网站, ppt, 等声音注册之后呢?然后在这边找到 abi king, 你 新建一个 api king 就 可以了,在里面可以使用所有的 ai, 随便新建一个都可以用。最最关键的,它的价格是别人的几分之一, 特别特别的便宜,因为小龙虾吃起拓片来非常的吓人,这个你今年想用它去做产出,写各种代码,或者是做各种工具的话,都一定要用这个, 我明天去研究一下腾讯出的这个小龙虾,告诉大家怎么去结合 ppwo 点声音这个网址去使用国外的大模型。

哈喽,大家好,我们现在来教大家去如何去安装和使用酷呆斯增强版。我们首先 拿到这个 get up 的 地址,我们会在评论区放出来,我们首先访问这个 get up 的 仓库,先进来首先点一个 star, 然后我们再看 安装方法。 mark linux wsl 的 话可以直接使用这一行命令,我们复制它,直接在终端粘贴就可以安装了。 windows 的 也是一样的,复制这一行命令,然后在你的终端 粘贴,然后就可以继续安装了。我们打开我们的终端,然后粘贴刚才的命令,我们直接回车等待它的安装。 安装话跟你的网速有关系,如果你的网速不够快的话,可能需要等一会, 不快,它安装好了,它默认的话会把你二进字文件安装在你的 logo 并目落下的。我们可以检查一下使用命令,我们检查一下它安装好了是不是 ok, 确定安装好之后,我们可以查看一下它的最新版本, 最新版本的话是一点二点零,默认的脚本安装就会安装最新版本到你的本地。 然后我们查看一下当前酷带 s 增强版具体有哪些新增的功能,比如 agent, teams, hux, 繁琐拎拎, ip agent 以及 webui。 我们可以先看一下路由 server 是 怎么实现的,可以看到路由 server 是 使用 httpss 去进行实现的,这样最大的优势呢就是, 呃,你启动多个 c 型只会占用一个进程,这样的话你的进程消耗就会非常少。我们直接使用路由 server 将微博 ui 启动起来。 cordless server 会随机启动一个端口和随机的托克密钥,你拿到这个端口和密钥呢?可以在本地启动一个内网穿透,这样你在外面就可以通过手机访问微博 ui 去进行远程的微博扩顶。 我们可以直接切换到移动界面去进行测试,先随机选择一个目录 发送嗨来进行测试。 ok, 我 们开始测试下一个功能,我们回到仓库地址,我们看一下 agent team 和 hux 以及奥斯突击 api agent, 我 们首先演示一下 agent team, 使 我们来到这个仓库,我们通过 code s 启动。然后怎么使用呢?首先第一步你需要在配置文件里面去启动多媒体的配置,我们 可以看一下在这个配置文件 copy 里面去将这个配置多媒体给它启动, 我们就可以开始那个尝试这个功能了。比如说我们 use agent teams 这样子告诉模型,告诉模型,比如说告诉了五点二, 我们需要需要启动 a 键的 team 来去做接下来的工作。比如说我们分析当前项目,就代表了我们使用 a 键的 team 来分析当前项目, ai 会分析任务难度来判断具体创建多少个 a 帧。 ok, 我 们看到它根据呃项目复杂度启动了五个 a 帧,五个分析帧 这个中括号括起来的这个就是我们的具体的一个执行 aint, 比如说是其中的五个分析的 aint, 然后来去并行的执行分析当前项目,它对于仓库结构 rooster 的 库的代码,然后 build c i 以及文档以及安全 sandbox, 然后去单独的 每一个单独的去进行分析。啊,这五个的话就是在并行的那五个都是同时创建,然后在并行的这里就会有一个等待所有的 a 帧,我们现在可以等他返回。 ok, 全部 a 帧已经返回了,五个 a 帧都已经执行完成,然后返回了他的一个结果,分析结果, 然后五个 a 帧的全部返回成功之后呢?慢 a 帧就会去收集五个 a 帧返回的内容,做一个汇总,然后再去判断当前的分析是否完成了,然后模型会自己去判断 是否还会需要继续的去进行分析,如果不需要的话,他就会直接返回结果,如果需要的,他还会去再次的创建 a 帧去进行分析。 ok, agent teams 全部结束,返回了最终的结果,这就是整个 agent teams 的 一个调用过程。

哈喽,大家好,我是金铭,今天给大家分享一个健康看板,大家可能不敢相信的是,这套看板系统是我用三十分钟用 ai 做出来的,如果你跟着我的步骤走,你也可以拥有一套自己的个人健康看板。呃,首先就是安装 cloud code, 第二是读取数据源 or ring 啊, it sleep 啊,然后调取 ai 的 接口,比如说像天气啊,空 器的质量数数据等等。第三步就是让 ai 根据所有的数据源日记,训练日记,包括你每天的饮食情况,每天给你建议,然后并且把这些建议和你的健康情况用看板的方式展示出来,这一切完成以后,你就会得到一个只属于你的独一无二的健康数据看板了。呃, 比如今天我们就可以看到今天我们的这个身体准备度是八十六分,所以他的建议是今天其实是可以做一个高强度的训练日,然后包括今天的天气,他都会实时的去抓取。有些数据接口呢是每三小时更新,有些数据接口是每五分钟更新。今天的训练建议他会建议我早上起来先 空腹的低心率骑行,然后会建议我做一些泳池训练,或者说蛙泳训练等等。如果今天要去做泳池的话,他的泳池的建议也会给出来啊。他这些建议呢,都是根据我以往的日制会去自动识别,会理解, 慢慢他会了解我的情况,然后包括像两餐的饮食补记清单的话,每个人的补记也是不太一样的,然后这里面会有一些专业的图标帮助我理解现在我的健康的状态啊,这个呢,其实就是连接的我的 o r r 喂给他以后,他可以去给到你更准确的推荐和更准确的复盘个人的最好成绩。 不管你在做任何的体育项目,在训训练日记输入系统里面,在手机端,在任何地方,你可以自己打开去输入,我就直接打开一个我的 ai 的 语音。 我今天练了一组空肺深蹲,六十七个,然后练了一组一二三的挑战,是十四分二十八秒,然后我做了二十分钟的拉伸,然后我在开会间歇又做了四十个波比跳蛙泳,一千米的时间大概是在十八分左右。 ok, 我给大家举个例子啊,比如说这是我今天练的内容,好,它这里就弄好了,然后我就可以直接把它输进去,它会自动的识别我今天练的这些东西,包括相关的卡路里什么的它都有,它也会去比较对照我的 over ring 的 数据,它会去进行一个综合的比较,然后数据查看,你也可以看你过去的训练日程, 在最近的三十天,九十天,最近一年甚至全部过去的七到八年的训练日程你都可以看,你也可以导出它,然后你的别的 ai 的 一些系统, 如果大家感兴趣的话,我也会把这里面各种各样的运动都加进来,让它满足多种运动的需要。第一就是把它开源到到 geek 上,甚至是对于呃完全的懒人,你可以直接使用我封装的免费的小小程序或者网页端或应用,当成你自己的独一无二的健康数据看板。

今天我来教大家一个方法,让你能完全免费地使用 qq。 我 们要做的就是让 qq 直接内置欧拉玛的功能。这事知道的人不多,但欧拉玛其实兼容 nfl 的 api, 这就意味着 qq 可以 调用开源模型了。 这样一来,你就能用上 mixraw、 glm 这类开源大模型了,完全免费,直接在你自己的电脑上运行,并集成在跨 code 里面,也就是说,你能通过跨 code 在 本地畅用所有这些厉害的开源模型。说真的,这绝对会是开发工作的一次革命。 当然了,效果可能比不上 coa coa 自带的官方 coa 模型,但是关键在于你能免费获取 coa coa 的 核心,它的智能代理能力,而且还是本地运行,完全免费,想想就觉得很夸张。举个例子,我现在就在用我妈妈在本地运行通一千问困三点五二十七币这个模型,并且已经把它和 coa coa 无缝对接上了。 靠着这个本地模型,我成功做出了这个非常好看的落地页。要知道这模型可是纯本地运行,完全开源的,能做到这样真的太强了,这无疑为开源社区打开了新世界的大门。大家想想看,你现在就能用上 coco 全部的智能能力,而且还是搭配这些本地免费的模型, 这包括通过欧拉玛子代理并行执行任务的定时指令等功能,以及用于文件查找、代码探索和资料研究的内置网络搜索功能。 所以本质上你获得的是一个功能齐全的智能体开发环境,其背后是完全免费运行的开源模型在提供动力,供大家参考。以下是我的电脑配置详情,我用的是一张 nvidia g force rts 四零九零显卡,它完全有能力在本地流畅运行捆三点五七十二 b 这样的大模型, 同时还能为大型代码的上下文窗口留出充足的显存空间。这样一来,你既能在本地享受到强大的上下文窗口留出充足的上下文支持, 那么要上手使用,你首先得搞清楚自己电脑的配置要求,也就是说,你得知道自己的电脑要在本地跑这些模型需要满足什么样的硬件条件。 这是我找到的一个非常给力的网站,你可以用很多类似的网站来查一下你的显卡能带的动哪个模型。比方说,如果你有一张三千零九十这样的显卡, 然后输入你显卡的显存大小,还有你希望模型具备哪些功能特性,它就会准确的告诉你哪个模型能跑的很流畅,哪个是勉强能带的动的。并且它还会具体给出上下文长度和推理速度的预估,这样一来,你就能更清楚的知道自己的电脑本地能跑哪个模型了。 另外顺便提一嘴,我的 discord 服务器是完全免费加入的,我最近分享了一个 cloud pro 订阅的优惠,可以享受三个月五折。我不太确定这个优惠现在还有没有,但如果还有效的话,说真的这波绝对不亏。事先声明一下,我既没接 and fpx 赞助,也跟他们没有任何合作关系, 我只是想跟咱们社区的朋友们分享点有用的干货,同时我也在筹建一个学校社区,在那里我也会分享这类好东西。当然,你通过我的 discord 也能看到这些内容。这个 discord 频道对你完全是免费的, 不过这只是我将在学校社区里分享内容的一小部分。预览此剧内容已融入第五十条定稿一文。如果你想抢先一步拿到最新最好的 ai 工具、工作流和资源包,那就赶紧点击下方描述区的链接,订阅我的免费资讯邮件吧,完全免费,不收一分钱。 接下来你需要做的是打开 olama 的 官网,官网链接我也放在下面的描述区了。点击那个下载按钮,然后根据你的电脑系统, windows、 mac 还是 linux, 把 olama 安装到本地。像我用的就是 windows, 所以 我就点这个 windows 版的下载, 这样就会开始下载安装程序。安装完成后,打开安装程序,接着点击安装按钮即可继续。这样 olama 就 安装到你的系统里了。 安装完欧拉玛后,会自动弹出聊天界面,这个界面不用担心,你可以关掉它,当然留着用也行。如果你想在本地把大模型当聊天机器人来用, 下一步当然是要确保你本地已经装好了 cursor。 你 可以通过终端里的 v s 扣来安装它,甚至用桌面板应用也能跑。欧拉玛的模型选择有很多,我个人习惯在终端里用,所以用下面这些不同的命令就能轻松安装。具体命令取决于你的操作系统, 比如我用的是 windows, 就 会在命令提示符里安装 cursor。 装好之后,我妈妈官方给出了一些建议。当你通过 cursor 来运行我妈妈上的开源模型时,官方建议最好运行上下文,长度至少达到三十二 k token 的 模型。这里还有几个推荐的模型, 我强烈推荐使用 q n 三点五这类模型,如果你资源充足,那就上二十七 b 模型。不过我觉得 q n 三点五的小尺寸版本也相当给力, glm 四点七的其他量化版本也挺能打的。所以通过在本机搭配云代码,使用这两款牛掰的模型,你的选择空间很大。这样一来,你就能解锁云代码的全部功能。比如最近刚上线的循环功能, 你可以让研究任务自动化运行。你可以检查一下你的 pr 拉取请求。你可以调用所有的智能体功能,比如插件。现在借助开源模型,你在云代码里还能玩转其他各种功能。 接下来你需要打开命令提示符或终端,我会把集成仓库的链接放在视频简介里。在这里你首先需要进行导出或设置操作,具体取决于你的操作系统。如果你用的是 macos or linux, 那 就用 export 命令。不过因为我用的是 windows, 所以 得用 set 命令, 所以直接复制第一条命令就行。这条命令的作用是为 and fabic 设置 lama 的 认证令牌。等我们把这行命令粘贴进去之后,接下来就需要连接 lama 服务器了。理想情况下,这就是将要运行您 and fabic 实力的本地主机。这样我们就可以复制这段代码,粘贴到命令提示符里,然后按回车键。 等您搞清楚系统要求之后,并且知道哪个模型最适合您的电脑配置,就可以着手安装那个欧拉曼模型了。而且操作特别简单,您只需要找到想安装的那个模型的详情页。比如我现在想安装 cuan 三点五,我可以点击想安装的任意模型, 复制您要安装的那个特定参数模型的代码名称,然后把它加到安装命令的最后面。接着您就能复制这个欧拉曼运行命令,然后粘贴到命令提示符里。以这个例子来说,您可以用欧拉曼运行捆三点五,然后就能开始安装了。这需要点时间,因为模型有十七 g d 大 小,它要安装到我的电脑里。 安装完成后,我就能直接用这个模型配合 colo 十力。不过这里有个小差距, 你不能直接通过云服务启动十例,否则系统就会默认调用 and hyper 的 模型。这时候你就需要新开一个命令提示符窗口,然后使用欧拉姆模型来运行云代码十例。 具体操作是,先复制云服务相关的指令,再复制模型相关的指令,最后添加上你已安装的特定模型名称。以我为例,我安装的是 k 三点五二十七 b 模型,所以我就把它添加在指令的最后。 这样一来,我最终的完整指令就长这样。接着直接按下回车键,这样就能在 clone co 中使用 ken 三点五二十七 b 模型启动我的云代码。实力完全免费,全靠本地的欧拉玛在背后驱动。 这样一来,我现在就能使用 clone co 的 智能体功能了,基本上我可以让他帮我编辑任何代码,而且只消耗本地资源。这真是太牛了, 现在能完全白嫖这个智能恋爱编程助手,这绝对是一次颠覆性的改革,比如现在我让他创建一个着陆页,他就会借助 kim 模型的思考能力来着手开发。瞧,就这么简单,我们的 plasma facial 着陆页就搞定了。这就是 kim 模型的杰作, 他能在本地调用高质量模型,并与云端大模型协调工作,还能部署子代理来生成这个落地页,这功能简直太强了,这就是这套组合拳能实现的真实效果。

想法有了,现在就差写程序员的代码了,就差写代码的程序员了,那就让我来替你搞定,只要你的需求是真实的,是有价值的,我免费帮你搞定。我就一双手,怎么能够完成大家这么多的一个需求呢? 陌生人,感谢你的关心,但是你不用担心我,因为我有 a p f 洛,结合 ai, 你 的需求也就是一句话的事, a p f 洛是我们养了一年的产品,现在是时候为人民服务了。 a p f 洛类似于像扣子 n 八 n d 一 样的集成平台, 但区别在于它不是那种脱载的,而是通过 ai, 一 句话替你生成它和现在很火的扣子编程有点类似,但是如果说你同时体验过这两款产品的话,你一定会爱上 api flow 并不仅仅在于它的开源和免费,而是在于咱们团队独有的 品味。吹的这么厉害,到底怎么样,咱们试一试就知道了。我们团队面向全网征收十个真实的场景,咱们可以分别用 apf 洛扣子编程或者是 n 八 n 以及你自己写代码去实现, 来看一下这个体验到底怎么样。只要你提出真实合理的需求,而且利用咱们的 apf 洛实现了,那么我们会给予丰厚的奖励,奖励一扣的一百美金 ai 专利包,第二, 五百元的京东购物卡抽奖。第三,优秀作品,我们会给予 a p f 洛创始人的荣誉称号, 获得终身免费使用权限。如果你完全不懂技术,没有用过 ai 编程也没关系,只要你提出的需求和想法是真实的,靠谱的,你一样可以提交,我们会有其他的程序员同学帮你去实现,你一样可以获得 终身免费使用权限。那到底怎么开始?现在的话你就可以进入咱们 a p f 洛的官网,然后点击抢先体验,按照这个指引去提交需求,到时候我会拉大家入群, 把 a p f 洛的下载链接给到你。最后跟大家解释一下,为什么一定要提交需求之后才能够去,才能够去使用 a p f 洛,原因在于它现在还是一个非常早期的阶段,你不带着需求来使用它的话,呃,我们对它的容忍度是很低的,面对一堆的文档和程序,你不知道该如何下手, 但如果说你有了需求,哪怕这个使用过程中出现了一些 bug, 你 也会愿意花时间去克服这些 bug。 反之的话, 我相信大家对他的耐心是很少的,希望大家能够理解。等后期我们发布 beta 版本之后,等我们开源之后的话,大家就可以随便玩,随便对他提出批评或者是质疑或者是赞美,没关系,来吧。

今天和大家分享在 windows 下怎么样安装和配置我们的 photodiode 神器 cloud code 介于目前用 cloud code 家的官方模型,有很多的限制,而且也有封号的风险, 所以我这边采用的方式是通过安装 cloud code 加接入国内大模型的方式来取现救国,所以我们的安装方式没有科技,也不存在封号的风险。 这个是我们需要准备的东西,包括 git、 node js、 c m d vs code、 cc、 switch 以及国产大冒险的 api, 这些后面我都会讲到具体怎么去配置跟安装。 接下来是我们的安装步骤。第一个要安装两个核心的前置, git 和 node js。 为什么要安装 git 呢?是因为 cloud code, 它是深度集成了版本控制的功能的 cloudcode, 它许多的内部操作,包括文件搜索、文本处理等等,它是依赖标准的 unix 命令,这些都是需要 get 来支持的。那同时 cloudcode 本身它是一个基于 nodejs 开发的工具,所以 nodejs 是 运行 cloudcode 的 基础。总之这两个前置大家去安装就对了。 接下来是我们的正式安装,两个安装方法二选一即可。第一个是命令行工具, cmd 或者是 file 都可以 输入如下的安装指令,按回车,稍微等一会, cloud code 就 在电脑里安装好了。第二种方式是通过安装 id 加插件的形式, 强烈推荐新手采用这种方式来进行安装,因为 id 工具它的格式化做得比较好,而且也非常适合我们未来去进行开发。我这边用的 id 是 vs code, 大家也可以用其他的 id, 包括 ctrl 啊, shift 啊这些都是可以的。那我这边就以 vs code 来举例,首先去官网下载并且安装好 vs code, 打开 vs code 左边扩展商店当中输入 cloud code, 就 会出现 antropic 加官方出的这个 cloud code for vs code 的 插件点击安装。那这里呢?我们的 cloud code 就 已经安装在你的电脑里面了,但是你会发现 cloud code 目前是需要你去注册的, 所以还差最后一步,我们的大模型配置。首先我推荐大家去安装这个 cc switch 的 工具,这是它的 github 地址,找到这样的一个文件去安装即可。为什么安装这个 cc switch 呢?因为首先它的设置非常的方便, 第二个后续在你切换不同大模型的时候也非常的丝滑,所以推荐大家都去装一个,非常适合新手。 第二,就来到我们最后一步选择模型的这样的一个问题了,那目前比较推荐的国内的主流大模型主要有智普的 glm 五, mini max 的 m 二点五以及 kimi 的 k 二点五,因为智普的 glm 需要你每天早上十点钟的时候去, 有点类似于我们的手机的抢购,我抢了两次都没有抢到,所以我最后选择的是 mini max 的 m 二点五,那你这边随便选择哪一个都可以,你在官网购买它们专用的 coding plan 之后,官网会给你一个 api key, 那 你得到这个 api key 之后复制,复制好之后打开 cc switch, 在添加界面,把这个 api key 复制进去,点添加就可以了,不需要其他任何的改动。这个时候你再回到你的 vs code, 点开右上角的 cloud code 的 图标,你就会发现 cloud code 就是 一个带交互的窗口了,到此为止呢,我们的 cloud code 在 windows 下的安装以及配置就结束了, 那如果大家安装过程当中有遇到任何的问题,欢迎私信或者在评论区回复,我看到了都会进行解答,谢谢大家。

今天我们主要来讲这个 cloud code 在 我们电脑 windows 系统上怎么安装?因为 windows 这个系统,尤其是对于很多的这个不是正版的 windows, 很多电脑是组装的,这个安装起来有时还会比较麻烦,所以说一下这个怎么简单的弄, 它可以安装在终端,也可以安装在如果你有科室或者是 vsco 的 这些,你用它这个界面安装可能会更加简单一些。我们来看一下它这个网站,它这上面来讲呢,就是在这个终端本地来安装, 然后呢有这个 vsco 的, 你可以下载 vsco 的 或者科室里面安装这种,这种呢就更加简单一些。 而在本地安装呢,如果是这个苹果电脑或者是这两个系统的,它都非常简单,你直接安装这条指令它就可以了。是呢,如果你是这个 windows 的 这个 power shell 或者 cmd 呢, 你安装起来就会比较麻烦,首先它还要安装一个这个 get for windows 啊,但是我们用这个 咳嗽直接让他来安装,就是我们把他这个安装指令复制过来,让他帮我安装,这是我的这个指令,但是呢他接下来他输了这这一串这些东西,对吧? 但是我还是不怎么会,这个时候呢,我就跟他讲,我说你来负责帮我安装,好吧,我就我要在这个科室里面使用,然后呢他就开始这个进行这个跑数据,他这里说进程还在跑, 然后一直跑,跑到这个地方,然后他就说 cloud code 安装在这个机子上已经安装好了,可以在这个科室里面使用, 然后呢他就进一步跟你说要怎么这个使用啊?就打开这个终端,给一个这个 cloud 的 命令啊,然后呢你就可以看到这样的界面, 然后呢有时你可以看一下这个 cloud 的 版本, cloud 的 版本这个是 v 二点一点七四这个版本,然后呢如果是有时还会有问题,你你不知道怎么弄, 他会在这边会有一些指示,比如说出现了一些什么东西,你不知道怎么弄,你就可以复制一个这个啊,复制完之后呢,你就可以这个艾特这个 chat, 艾特 to chat 之后他就会在这边出现, 然后呢你就你就直接用这个咳嗽问他这个到了这个地方了要怎么弄,要怎么进行下一步, 直到这个你打了这个 cloud 这个之后,它出现这样一个模型,这样就安装好了,然后你就可以跟它聊天了,就可以直接在这里直接以文字的形式打给它。 还有就是对于 cloud 这个连接这个大模型的 api, 就是 很多国内的我们是直接订购不了这个 cloud 它这个 官方的 api 的, 因为必须要有这个美国的信用卡,或者是通过其他的途径能买到它的官方的也可以,但是很多我们都是按接的是那些第三方平台的这个 大模型的这个 kpi k, 如果你不知道怎么按怎么接这个 api k 呢?你也可以利用这个科索啊,你把你的这个什么 api k 啊, 然后这些信息在这里添到这一个地方,然后告诉他你怎么要安装的是哪一个公司的,比如说 deepsea 或者是智普的,你把这些信息都粘贴到这,他就会自己来安装。还有一点就是 比如说我不想用智普的这个大模型了,我想换这个模型供应商,这个其实也很麻烦,对,就是官方的这个文档里面讲,我在这边搜索很难搜索到直接要怎么弄,然后搜索这些呢?看到这里我也不知道该怎么弄, 也看起来比较麻烦,然后我们在科室这边,我就把这些信息我发给他,就说如何我换这个大模型供应商, 然后他会有一些答案,但是看了这些答案仍然迷茫。然后就是我让他检查一下我现在使用的大模型,他现在告诉我我用的这个是 智浦的这个 g l m 杠五,然后弄完之后呢,我想换这个,我就我就跟他讲,就说好的帮我换一个这个模型配置和这个 和这个配置啊,我就把这些配置的信息发给他啊,然后呢他他就开始跑,然后我们等着就行了,如果说这里需要有让你确认的,你就确认一下, 然后他这里说弄好了,弄好了之后呢我就在这边打 cloud 进行验证,他有时不成功,不成功呢就给就说之前的你可以把这个选下来点了 and add to chat 啊,就这里看,让他看一下什么情况,然后他就继续有问题,他就自己进行修复, 然后直到最后呢,他就把这个修复好, 然后这里让他看一下什么情况,他说现在已经能启动了,显示这个模型是这个 cloud 官方的模型四点五可能还有一些问题,还如果还运行不了,你就一直问他要怎么弄, 然后直到就说现在直到已经可以了,看着正常 这个时候就完全就把这个模型的服务商和这个配置完全就切换过来了,你就正常可以在这里打文字来输入你的指令,今天讲就是这些。