deepsea 加智能体啊,进行落地实战,那很关键的一点是,一定要区分清楚 deepsea 的 网页版和它的 api 开放平台。如果我们的智能体不管是其他线上平台还是自动化工具啊,使用 deepsea 的 api, 那么我们可以用官网的 deepsea api, 也可以使用各大云服务商部署的 deepsea 提供的 api 来进行 呃,实现我们的智能体,呃智能体的一个实实际的自动化操作。那么我们先看一下官网的这个 deepsea 的 api, 我 们点击这个官网以后,这里有一个 api 开放平台点击进去, 然后这个 api 呢是付费的,那我们平常免费用的那是网页版啊,没有办法用到我们自己的业务逻辑,自己的开发的程序里面去的。那我们 想要用 api 的 话,那么就需要去充值的,点击这个去充值,那么就可以了,充值完成以后,点到这个 api case, 然后可以看到这个地方我自己创建的,然后我把它删了, 然后重新创建一个 api k, 这个名称我们可以随意取,比如我取一个测试,然后点创建, 然后它会有一个 api, 呃,它会有一个 k, 然后这个一定要复制下来,保存到一个地方,因为你只要关闭了这个页面以后,这个 k 就 呃不出现了,你就再也看不到了,所以需要把它保存下来的 啊,这个就是我们 deep sec 的 api 的 k, 那 么 deep sec 官网的 api 的 还有一个要知道的点呢?是它的呃 g base u r r, 看接口文档我们可以看到它的 base u r r 是 api 点, deep sec 点 com 啊,这这两个啊,还有一个是它的模型的名称,它的模型的名称是 deepstack 杠 chat 啊,呃,这三个是我们一定要关注的参数,这三个参数知道了我们才可以在我们的程序中去对接到这个官网 deepstack 的 api 上去,然后实现我们的自己的智能体的业务逻辑,实现我们程序的一个啊调用。
粉丝3589获赞1.3万

上期视频我们分享了 cloud code 的 基础安装,以及如何接入国内的 deepsafe 大 模型,但视频发布后,很多朋友反馈 不使用 cloud 的 官方模型,总感觉少了一点灵魂。还有的提到官方 api 限制多,价格贵,动不动还封号,钱包确实撑不住。没关系,这期视频我就带大家彻底解决这些烦恼。 我们要实现的目标就是通过 cc switch 接入第三方中转模型,这样不仅能告别封号的风险,还能极大的压缩使用成本,主要是它的响应速度和功能体验和官方原版几乎没有差别。要实现 api 的 自由切换,我们还是用之前视频里安装的工具 cc switch。 简单来说, cc switch 就 像一个智能的路由器,它可以动态修改可拉的 code 的 请求,让它精准的指向我们配置好的中转地址,而不是只认官方服务器。 下面我们直接进入实操环节,看一看如何优雅的接入中转模型。第一步就是获取 api 的 key。 首先我们要到中转平台创建一个 api 密钥,选择中转平台的优势就在于性价比极高,而且 支持国内支付是非常方便的。在这里我们来到 api 密钥这里,然后选择创建密钥,在这里我命名 c c, c c 四个 c 分 组,这里我们选择一下模型,然后我们选择创建好,这时候创建好之后,我们就需要打开 cc switch, 在 这里去添加模型配置。 打开 cc switch 之后,我们选择右上角的加号,在这里我们选择自定义配置,像这个模型名称这里我们就可以自定义模型名称,这里的命名最终会显示到可乐扣的里面的模型,选择命名一个 demo, 然后我们把 apm 要粘贴过来,然后请求地址这里它每一个平台它都会有文档手册,可以到手册里面看一下这个主模型,这里我们也可以自定义命名,在这里我同样我还输入 demo, 在这里我们添加这些内容之后,其他的都不用管,然后我们直接选择添加,添加好之后我们要选择我们新配置的 api, 这里我们要选择起用,这时候显示切换成功,下一步我们就要进入 cloud code, 我 们看一下接入的模型是否有显示, 然后我们输入斜杠 model model 回车,现在选中的就是 demo, 然后我们回车,在这里我们对话问他一下你当前什么模型,然后我们回车 可以看一下我当前使用的是 demo 模型,就是我们刚刚创建的那个 api 的 名称,那么我们就再换一种方式问他,我们这样问他你的底层模型是什么?我们看一下他的回答, 他给我们的回答,根据系统信息,我当前使用的是 demo 的 模型配置,因为我们在 c c switch 里面配置的这个名称就是 demo, 所以 它这里显示 demo 模型配置。我们来看一下最后一句就是简单来说,我的底层模型就是 cloud opus 四点六, 这就是它的最新模型,也就是我们的配置已经生效了,调用了官方的四点六模型。最后再跟大家总结一下,为什么我们要费这道功夫去接中转,它第一个优势就是极度灵活, 你可以根据任务的难度随时切换模型,比如写复杂的架构,用 clog 模型,简单的代码就可以选择质朴的模型,同样也是这个方法,流程都是不变的。 他第二个优势就是极致性价比,告别官方昂贵的账单,像这种第三方的,他支持按量计费,就是用多少花多少,再也不用担心账号被封导致余额打水漂。好了,以上就是本期关于可乐扣的,利用第三方使用官方模型的方法, 用极具性价比的方式让强大的 ai 编程助手为你所用。本期内容分享就到这里,我们下期再见。

我今天打开 openklo, 然后又看了一下我接下来 ipi 的 账单,我的心就痛了一下,哈哈哈,烧美金真的是非常酸爽的一件事情,所以我就决定一定要探索一下 openklo 的 省钱大法。今天是第一篇,第一篇的省钱的原理就是把调用 ipi 全部换成调用订阅账户。那咱 们具体怎么样通过订阅的账户去接入 openklo 呢?这个地方我画了一个地图,咱们有两个方式可以去接入到订阅账户,而不是 ipi。 第一个方式我们可以直接通过终端的命令来进行输入, 这一行命令就是 open klo 自己的一个命令,它就会出现这样的界面,你在这个里面你先选一下 logo, 接下来他就会让你去选你要改哪项配置。很多项配置都可以改,咱们直接选模型就行。我是喜欢用 jimmy, 所以 我就选了谷歌的模型,然后这个地方就会出现 你几种接入谷歌模型的方式。 api 方式就是咱们说的最耗钱且没有上限的方式。然后呢,下面有两种都是 awesome 的 这种方式,它只要带了这个 awesome 的 方式,其实都是可以接已经订阅的账户的方式。那它有两个地方可以选,一个是通过反重力去调用它这个 awesome, 另外一个是通过 jimmy 颗粒来调用反重力,国内用,所以我就直接选了第三个。那回车之后,它就会直接弹出来 粘在这个里面的一些界面,你直接按它的操作去操作,它就能自动获取这一串 office token 了。那你如果是用 openai 或者 cloud, 它的订阅账户其实也是同理,比如说如果我选的是 openai 的 模型的话,那在这个地方除了 api 的 方式之外,它通过 office 去登录的方式其实是通过 codex 去登录的,那我就直接选 codex 就 好了。 第一种方式大家就这么样的一个流程,那第二种方式我们就用 cloud code 写出我们就好了,因为 cloud code 是 可以直接修改 opencloud 存在本地的配置文件的,就是咱们的模型选的是哪个,用的是哪种登录方式,全部都写在这个配置文件里,你就让他直接去改这个配置文件,那你的其实词里面 记得有几个地方哈,第一个主模型一定要记得改,主一定要有啊,因为他那个模型里面是可以配置多个的,他用就是一定是要跟他说清楚,你要配置的模型,你是用他的订阅账号付费,不要只去跟他说把这个 jimmy 换成 collog, 或者把 open a 换成 collog, 不要只说这一句,一定要说付费方式是订阅账户付费,而不是 api, 那 这样那个 collog 就 会直接去改这个文件里面的相关字段,那改的时候呢,可能需要你再去获取一下这个 token, 就 会直接去改这个关键词就好了。比如说我这还是 征战为力的,我就输入这条命令,我就能获取他了。 ok, 那 以上就是咱们先介绍的第一种省头肯的方式,我这边让他探索其他的儿童可乐的省钱技巧, 包括他每天都会让他把我的头肯消耗额度给我打印出来。后面方便咱们用一个更加量化的方式去看有没有哪些手段思路帮我们可以节省一些费用?今天就先分享到这了,后面还会再分享更多跟儿童可乐相关的内容,欢迎大家关注,下期见!

今天来教大家部署最近很火的 ai 助手 open 科尔本教神将会教大家部署模型到本地并接入千问,并且过程非常简单,不懂电脑的小白也可以进行操作,接下来大家跟我操作即可。首先我们需要打开我们的浏览器,第一步需要我们先去下载一个奇游加速器,奇游内置一件部署工具, 无需进行命令型操作即可完成部署完成后我们打开软件,找到右上角的口令按钮,在里面输入三胡,然后选择兑换,这样我们可以拿到时长用来一键部署 open curl 到电脑上,完成后我们就可以到右上角直接搜索 open curl, 找到这个一键部署,然后一键加速即可。完成之后 找到这个一键部署的功能按钮,稍等一下就可以打开一键部署工具进行部署了。这里我们手动更改一下 ai 模型焊工作的安装目录,完成后勾选同意进行一键部署,之后需要我们等待几分钟,我们耐心等待一下即可。 完成之后我们找到右下角的开始极速配置,再添加模型,这一步直接选择右下角的完成,然后到第三步, 这里会显示模型状态异常,这是因为目前我们还没有接入可用的 r p i, 我 们只需要找到下方模型里的授权按钮,然后稍等一下就会弹出一个浏览器弹窗,我们在这里注册一个国际版千问账号,然后登录完成授权。完成授权之后, 我们再打开刚才的部署页面,可以看到此时模型的状态变成了健康,然后我们选择开始对话,就可以打开 open k 二的对话界面,之后就可以输入指令进行对话,这样我们的 ai 模型部署就完成了。 如果对你有帮助的话,记得点个赞再走哦!还有任何疑问的话都可以评论区留言,看到了都会回复的。

哈喽,大家好,二零二六年了,还有好多人问我国内如何使用国外的 ai 大 模型,我在常用的有三种方法,第一种官方直连,就是直接登录官方网站。第二种方法,通过国内的一些 api 的 中转站, 这是官方的一种转战,用起来比较稳定。第三种方法就是一种邪修的手法,你包括镜像网站,还有其他的一些比较邪门的方法,每个方法都有自己的优点和缺点,我分享给大家,大家可以根据自己的实际情况来使用。讲所有的方法之前要说一下前提条件, 第一个最基本的,大家要掌握一个科学上网的环境,这个就不多讲了。第二个我着重想讲的是创建谷 google 的 邮箱注册账号, 因为后续我讲的所有的方法的网站都可以用 google 的 账户直接登录,这样会省去你大部分的时间,这种账户都是跟你的 google 账号关联的,你不会存在忘记账号或者丢失账号的问题。我们开始讲一下这三种方法。第一种就是官方直连的方法, 包括 gemini, chat, gpt 还有 koled 这些官方网站的直联,它的优点就是稳定,你可以用到最新的模型。当然缺点也很明显,你需要有稳定的 ip 地 址,充值要繁琐一些,因为它不支持国内的信用卡。我分享一个应用 gemini 比较省钱的办法,我是在某鱼上拼车了,家庭组一年大概是五十左右的费用,我可以用谷歌的三点一的模型,还有这个 google 的 as do do, 包括 notbook、 lm 都可以用在工具里边,你也可以选择 banana, banana 制作音乐 这一些基本功能。这个 jammer 是 我目前来讲使用的最频繁的大模型。这是第一种方法,贵, 但是稳定,呃,也能使到最新的模型。那下面来讲第二种方法,就是国内的 ipi 的 中转站,通过中转 来直连国外的模型。它优点是什么呢?一号多用一个账号,可以切换多种大模型使用,包括声图和视频,在这一个对话框里边就可以直接使用,它的使用相对的稳定,可以随时的切换模型。 还有一个优点,它可以用支付宝、微信直充,它使用起来就是中规中矩,它有的是按月订阅,有的是按流量 收费。这里给大家分享几个第三方中转的网址,这也是我目前有在用的中转站。我想着重的推荐瑞纳这个网站,它是全球的模型测评网站, 会有两种模式,第一个就是对决的模式,这个还挺有意思,就是他随机两个模型,你提问一个问题,他给你生成呃,两个回答。第二个你可以直接选择两个模型来 做一个测评。你像这里所有的这些模型你都可以选择使用,包括 gemini 三点零, pro 的 opus, 四点六, gpt 的 五点二,你都可以选择。那为什么我给大家推荐这个网站,因为这是一个测评网站, 它不可能阉割性能,你用到的肯定是美家的一个最强的模型,而且它是完全免费的。 但是这个网站也有一个缺点,可能你用个二十分钟到三十分钟,他会提醒你没有额度或者是限制你的使用,那大家稍微等一段时间,你就可以正常使用,我觉得这个是性价比比较高的,对于刚入门或者是想尝试大模型的,大家可以 先试试这个网站,因为他免费,大家有羊毛多薅。最后我讲一下第三种方法,一个镜像网站和一些邪修的手段。这个镜像网站是什么意思?他在国内做一个跟官方网站差不多的见面的网站, 他申请了一个账号,做了一个环境隔离,一个号可以很多人用,封号风险非常高,也不稳定,而且你一个账户多人使用,他可能存在降质的这种可能性。 还有一种邪修手段,就是国内一些乱七八糟的聚合站的平台了,价格据说可以做到零点一人民币换一美元的,这种头肯 相当于是官方价格的七十分之一,这种东西就相当于买彩票,大家要是运气好,碰着那种稳定的,你可以一直用,也确实便宜。但是你要是运气不好,那可能你用没多久就直接给你封号了,反正特别便宜。 总结一下这三种方法吧,要是大家对代码要求,编程要求比较高,这里是推荐第一种方法的,因为使用最强模型效率肯定会很高。那第二种方法就适应 轻度的用户,或者是不方便使用国外信用卡的,这种的费用跟官方直联的差不多,但是你使用起来会很便捷。第三种方法大家就慎重考虑了,我是不太推荐这第三种方法的, 大家尽量能不用还是不用那最后大家可以把自己使用的方法打在评论区,大家一起讨论一下,看有没有更好的,又省钱又便捷的这种方法。

如果你觉得使用各大厂商的大模型太贵,那你一定要关注这个开项目。它收集了全球可免费调用的大模型 api, 并且在持续更新,完全不用担心失效问题,使用也非常简单。例如我要使用这个模型, 直接点进去,这下面就可以直接获取 api 密钥。虽然模型可以免费使用,但为了防止滥用,每个模型基本都有一定的限制。例如这个,它的限制是每分钟四十次星球。所有模型的限制都写的非常清楚,大家可以挑选自己合适的进行使用。

如果说你想要获取一些免费的大模型 a p i, 那 这或许是个能让你点赞收藏的项目,里面整理了大量可以免费使用或体验的 l l m 接口 a tab, 目前已经超一万三千多人进行收藏,帮助开发者轻松接入各类免费大语言模型包含了 g p t 四科漏的拉玛、 deepsea 等主流提供商,有需要的兄弟们可以了解一下。

欢迎观看 openclock 配置教程, 这里给大家准备了一个 json 文件, json 里面已经把调用地址和调用模型以及智能体的模型都已经配置完毕了,只需要在这边填入我们的 a p m 密钥就行。 来到我们站点令牌管理复制密钥, 粘贴好后边保存就能够调用了啊。 保存完之后记得复制这个文件,把文件复制到你安装 open cloud 的 目录下 粘贴过来就行。现在我们就可以运行 open clock, 运行之后在网页中打开就可以正常调用了。 我们再输入一个,用谷歌浏览器打开四三九九试一下, 它也帮我们打开了。 到这里就是本期的教学了。

上一期教大家了 cloud code 怎么安装和部署,那么这一期教大家怎么样去对接大模型,怎么样去付费使用?首先介绍一下 cloud code 的, 我现在使用方式有这几种,第一种呢,最基础的官方订阅了,你要去 cloud 官方注册一个账号,订阅它们的计划, 它有不同的这个付费的这个形式。是的, free 的 pro max 对 第一个门槛。好多评论区的人问怎么注册账号啊?有一个最简单的办法就是你去注册个谷歌账号, cloud 是 支持直接用谷歌账号登录的,就不会碰到什么用手机号的问题了。 ok, 然后呢,解释一下他们的这个 pro 和 max 账号, 他们这个账号有一个限制,比如说像 pro 账号,它是在五小时之内,你可以用到一定的 token 用量,然后在一周也有一个 token 上限,但是它有一个很坏的地方,就是你不知道它的 token 的 限制到底是多少。对,我们找了很多,没有一个官方的说明。对啊,它其实大家都是动态的,它会根据它们自己的用量实际 去调整。 ok, 我 去论坛找了一个大家使用反反馈,就是呢,有一个人大概估算了一下,像估计它是比较大量的那个 token, 消耗任务的话,可能两个任务就能用掉 pro 账号的百分之五十五的使用额度了, 大家可以感受一下,其实我之前在自己使用过程中也是差不多是个这样量的,比如说如果你的项目下内容比较多的话,可能五六个任务你五个小时的额度就用光了, 你就要再等等他解锁了那个五个小时,五个小时以后你再开始用。对,是的,所以呢,总结一下他官方订阅的,他的优点就是质量是肯定没保没问题的,用的是真正的 cloud 的 最顶尖的大模型。缺点是封号封快飞快,我已经给封了两个账号了。 还有就是 pro 账号是肯定是不够用的,大部分人的,就国外的那些专业开发者用的都是 max 账号, max 账号的话一个月折合人民币大概是一千四百块钱人民币,所以这个打呗打呗对这个专业的用户才会考虑。 ok, 如果你想要去解决不被封号,你需要去投入研究 更多的办法,这个隐形成本是很高的,建议如果你有本事折腾就是避免封号,你可以去考虑,你一定想搞的话,你可以考虑用组合配或者 apple pay, 这种方式会加收百分之二十五左右的费用,但是听说封号的时候 谷歌会或或者 apple 官方,他会帮你挡一刀,有时候会给你退钱或者帮你兜底,至少,但也只是听说啊,不负责任感觉下来就是大可不必。对新手小白不建议这个方式, ok, 第二个方式,官方 api 其实对于大家来说其实是不需要考虑的,因为质量没问题,但是缺点是死贵, 你们可以看一下奥普四点六,他的呃输入是每百万托肯是五到,也就是三十五块钱人民币,输出的话是二十五到每百万托肯非常非常贵。 正好我一个任务差不多就一个,一个多一点,任务差不多就结束了。哎,讲了这个正好呢,我们正好解答一下之前还有很多朋友关心的这个推算消耗的问题,我也给大家测算了一下,投入啊,真金白银的投入。测算了一下, 我有一个很复杂的一个自己的项目,就是那类似于今天老师之前的那个个人的工作台一样的,这里面有我我所有的工作的记录,包括记忆进度啊等等等等,这项目还是比较大的, 我让他全量的跑一遍我这个项目,把里面的每一件事的进展汇报一下,相当于他会把我整个文件夹全部读懂点。对,是的,我第一个是用的是卡的 pos 四点六模型,他耗时用了大概十四分钟,把我这个项目读完了, ok, 用了投,看多少呢?用了, 用了七万的投垦,这一个任务后面的两百是什么?其实两百是这个上下文窗口的上限,这次用的是七万的投投垦。给大家大概估算了一下,假设 大部分情况下,输入是占百分之七十,输出占百分之三十,所以折算下来,我本次绘画用了五块六毛钱人民币,做一个任务是相当于重量的, 也就是说大概你可以估算出来吧,可能对于你们这种办公工作者可能会少一点,不会五块钱,但是一次任务一块钱肯定是有的,我透露一下,有一天下午我一个人就用掉了人民币六十,对,是的是的,所以大家有数啊。很多人关心偷更消耗,但其实偷更消耗这个问题其实很难回答, 它基于的是,首先你的项目,你的复杂度,你的文档的多少,还有你这个用的模型,有的模型他的思考的程度高,那么他消耗的头可能就高。 还有基于的就是你用的软件,所以呢,为什么我在对比呢?我用的是 g p t 五点三 codex 思考度 high 的 那个模型,它的思考程度很高,所以可以看到我本次跑下来用了十三 万,刚刚是七万,现在是十四万,十四万,十四万的消耗翻一倍,对,同样的任务翻一倍,所以用不同的模型跑同样的项目,它的消耗不一样。是的,用同样的模型, 也是那个 gpt 三点五的模型,我在 opencloud 里面再跑了一遍,消耗就是七十七万。因为之前在 opencloud 里其实也有很多人关心这个 token 消耗的问题,所以呢,我给大家看一下,大概感受一下。相同的模型,不同的软件在 products 下跑的是十三万, 在 opencloud 底下跑的是七十七万,这也就是为什么大家说 opencloud 很 少 token 很 厉害的问题原因。但是这个东西在 bug 里面其实只有七万对,是的,其实只有七万对, 天呐,但这个里面有核心原因,影响因素很多啊,比如说 gbt 五点三扣带子 high 这个这模型它的思考度就高,所以呢,它耗,它耗,它消耗头很高,它本身它因为它的记忆体系,所以导致它它的消耗头很高,这也是影响因素,所以这个只是做个横向的,让大家感受一下, 点到为止。所以这个总结下来,如果你调用官方 vpi, 这个就对于新手来讲一定也不用考虑,大部分研发也不会做这种事,这种只会做产品的时候考虑。 还有一个办法就是我提一下,免得有人说我没提就是 antigravity, 反反贷把,有一个软件开发软件叫 antigravity, 就 谷歌推出来的,有的人有办法把它里面的 api 提出来,到扣子里面去用,当时它谷歌很大方,但现在已经开始对这样用的人进行封号处理了,所以今天就不去详细提了, 别搞了,能写到我们,我们咱们就是。然后最后一种办法就是通过第三方 api 来接入。第三方 api 的 话其实又分成三种方式, 第一种就是 open route, 国外最大的一个就是第三方 ip, 提供平台模型超市,对,是的,然后它们里面会有各种各样的模型的 ipi, 然后也有那个 cloud office 四点五的,但是它的价格和官方是一模一样的,呵呵, 所以呢,它是同样死贵的,花钱也是飞快的。它对于就是我们大陆的 ip 封禁没有那么不会,没有那么严啊,能用上,对,能用上,不像那个官方的一天你是几乎用,为了用还很费劲,还很花钱,所以你大部分情况下可以不用考虑,但是你可以去少充一点钱, 通过这个去感受一下奥克斯四点六的真正的能力。然后呢,还有一个就是大家常提的中转站,就国内的中转站, 它实惠,一定程度上你可以用到 off 四点六的顶级模型,但有很大的缺点就是首先它不稳定,时时时不时断线,那很多都是自营的,所以呢,大概率会跑路,有风险有风险,而且还可能会一次充好它。你说是在用 off 四点六,而背后说不定用的是别的模型,都有可能的,你也不知道它那个管子跟你插在哪个边了。是的是的, 所以建议就是啊,你可以用,但是不要一次性充过太多钱,少量多次的充,用多少用多充多少,也不要在我的评论区交流。对,我不会给大家推荐具体哪一个厂商,但是呢,会给大家推荐一个网站,叫做这个网站不读了,在这里面你可以看到各种各样的中转商以及他们的稳定性,可以 基于这个去选择你想用的中转商。不要交流啊,你看就行了,不要交流。好的三种方式呢,就是我大家比较推 推荐新手小白,先尝试的就是用国内的模型来代替,因为国内模型的话是最实惠的,也是最稳定的,而且其实在能力上的话也没有什么太大明显的差别。 然后讲到这呢,正好就是给大家推荐一个软件,是开源的,之前我也提到过叫 cc switch, 因为 cloud code 它本身理论上来说只能用它自家的模型,但通过这个软件是可以切换到别的任意一个模型的,包括了我前面提到的中转商提供的模型以及 国内的模型,它使用起来也很简单,你去 getapp 上面,或者到时候曾老师发一个。然后呢,我们打开这个软件以后,点击右上角的加号,你就可以看到它预设好了各种各样的模型厂商,包括了千问、 kimi, 然后你去他们那边注册订阅一下他们的 kimi 二点五去做我们的那个网站,也都是挺实惠的啊,包括上次我们其实用了那个 kimi 二点五去做我们的那个网站也都是啊, g r m 也都 支持的。好的,我推荐新手小白呢,最好的方式就是你订阅一个国内的模型,然后你再去 openroot 上稍微充一点点钱,你把 真正的 cloud office 四点六接入进来,然后也可以把国内的模型接入进来,两个去做同一个任务,去比较一下这个结果对于你来说差别是不是真的很大。如果差别不大的话,你就完全可以先用着国内模型,然后等到以后真的有一些业务需要了,你再去换。 你先看看你自己做的这点事,你配不配用这么贵的东西啊?有些写文档的工作,你自己思考一下你配不配用。 ok, 本期视频就这样,拜拜。拜拜。

大家好啊,现在市面上企业接入国内大模型 a p i 的 渠道特别多,那我今天就和大家汇报总结一下不同渠道的特点。首先呢是火山引擎的豆包系列和 deepsea 系列产品, 那他们的特点是限流的额度最高,基本上不会打满他们的 tpm 和 rpm。 原因是因为火山之前囤了很多英伟达的卡, 所以它背后的推理集群资源特别充足。那价格上呢,它的折扣力度相对比较小,如果不是特别大的客户的话,官方渠道最多是给七折,火山销售的业绩压力也很大,基本上每个人单单大模型都要背至少一千万的业绩。 其次呢是阿里云的千位系列和 deepsea 系列产品,那它的优点是单价最低,而且阿里云内部最近在打大模型战役, 千万系列模型的折扣根据用量呢,从五折到三折不等。但是缺点呢是背后的集群资源相对来说没有那么充足,如果遇到大客户重保的话,比如说 b 站跨年晚会,那资源就会更紧俏一些。 百度的大模型呢,目前基本上是卖三方的 deepsea 和其他模型为主,他们自己家的文心妍用的客户相对少一些,但是百度的折扣政策一般来说是还不错的。然后就是各种各样的大模型中转站了,比如说三零二点、 ai 云雾、 api 等等的平台, 这些平台的价格浮动会比较大,而且折扣普遍会比原厂高一些。但是有些厂商的模型可以做到特别低的价格,这种情况下呢,一般是做了逆向账号之类的方式,他们能够保证低价,但是不保证可用性。最后呢,如果您希望低价进入国内主流的大模型 api, 可以 后台私信我,我有靠谱的渠道。

如何把 deep stack 接入 wps? 学会这招,轻松搞定安排。第一步,下载 office ai 助手,在浏览器地址栏中输入 office 杠 ai, 点 c n, 点击立即下载,选择官方下载,等待下载完成。点击安装,根据提示,安装完后 桌面会出现这个图标。第二步,申请 a p i 浏览器搜索轨迹流动,进入官网后,在左侧找到 a p i 密钥,新建一个密钥, 新建完成后复制它。第三步,设置 deepseek, 打开 wps, 点击右上角的文件,再点击选项,找到信任中心,勾选这个选项,最后点击确定,然后重新打开 wps, 上方就会出现 office a i 选项,然后点击右侧面板,再点击右下角的设置,选择大模型设置,选择 ipkey 平台,选择硅基流动模型,模型名选择 deepseek 二一,然后把刚刚申请的 a p i 粘贴进去, 点击保存就设置好了,不信我们试一试效果。在这里输入你想要的问题,点击发送,紧接着它就会给你回复你的 w p s。 成功接入 deep sleep 了,赶紧去试试吧!

观众朋友们大家好,这里是速冻月饼,上一期视频给大家分享了免费使用英伟达的 api 的 教程,但是他家的 api 速度比较慢,所以今天分享了另外两家的速度比较快的 api 的 教程,但是注意 使要使用这两家的 api 需要使用魔法,不会魔法的话自行解决。首先首先是这一家的 没有账号的注册账号,或者直接用谷歌登录,这里我是直接用谷歌登录的, 登录之后点击游乐场,在右上角选择你需要用的模型,这里我选的是千万三三十二币,点击查看源码,这个页面保留。 进入魅居物语 云端大模型,这里先不用管,先把 apm 要和模型名称填一下, apm 要复制粘贴 模型名称在这儿, 然后点击叉号,点文献资料 往下翻,复制这个的原文是这样, 粘贴保存测试连接成功, 可以看到这个访问速度还是很快的。 然后这是第二款 gork, 依旧注册账号登录,我这还是使用谷歌账号登录 进去之后 apm 要创建, apm 要 创建 npm 要填一下名称和过期期限, 提交 复制。 打开美剧物语, 粘贴 apm 二 点游乐场,在右上角选择具体的模型,这里我选的是这款在这个地方复制模型的名称, 粘贴在文档兼容性, 这里复制 粘贴 url 保存测试, 可以看到这个速度也是很快的。 本教程到此结束,感谢观看。

观众朋友们大家好,这里是速冻月饼,今天给大家带来的是美居物语接入免费 api 的 教程。首先进入英伟达的网址注册并登录账号, 这里我就随便写来演示了, 你可以填 qq, qq 邮箱或者你其他的邮箱 输入密码,然后输入密码,再次输入密码,再进行一次人机认证, 然后创建账户,我这边之前已经创建过了,所以就不创建了, 这边我是登录了之前已经创建好的账号, 创建好账号之后,点右上角 api 密钥, api case 生成 api 密钥,这个日期你可以填十二个月或者是其他的日期 啊,对这个名称只能填,只能填英文或数字 复制,然后点击模型, 搜索你需要的模型 进入,点查看源码, 然后这个页面先保留,进入魅居物语云端模式,启动游戏 云端大蒙形这个地方。嗯,先把刚才复制的密钥填一下,这里是填这个, 这个的话你可以选择获取,然后在这里面选, 或者是直接在这里复制 保存。测试, 刚才出了点问题,我现在换了另一款模型,接着测试, 哥哥是键盘吧, 现在已经可以正常使用了, 速度还行。本教程到此结束,感谢关哥哥也喜欢玩游戏。

c d s a i 大 模型,现在的话很多人的需求量是非常高的,那像现在在官方这样,豆啊,像这个吉梦啊这些等等 ai 的 应用里面的话,都可以去免费去体验,它是有这个额度的限制的, 然后深层的话每天你就是可能就是几个视频的一个限制。然后我们这边的话之前也是开发有这个 ipi 的 接入的,那目前接入的话它都是一个测试的一个接口就是测试的,那测试的接口已经现在是关闭,也没办法去做对接了, 听说的话在这个月二十四号的时候,官方会开放这个 ipi 接口,就是啊,官方提供大家可以去对接这个接口,到时候我们会第一时间去做这个对接, 大家如果想详细体验的话可以联系我们到时候,然后另外我们这边现在还有这个 solo 的 接口,还有 vivo 的 接口等等这些模型,目前主流的模型我们已经都对接接入了, 所以在接入之前的话,我们先可以体验我们的 solo 的 一个接口的视频生成,这个效果也是非常不错的,也是可以说是全球第一踢退的一个模型。 cds 也是目前国产里面最厉害的一个模型,如果想详细体验呢?到时我们再联系。

家人们用 cloud 总是在关键时刻掉链子,响应慢,连不上 api 报错,搞的人心态崩了。别急, github 顶级大神微少开源的这个神作 cloud relay service 专门就是来救命的。一句话总结,它能让你的 cloud 响应瞬间变丝滑,彻底打通网络壁垒。 无论你是想用最新的 cloud 三点五搞开发,还是想把它接入到你现有的 openai 客户端里,这个项目都能帮你一键搞定。它支持多 p 轮询,自动故障切换,还带流逝秒回。最香的是它支持刀口和 word 辅助,小白也能三分钟搞定专属的 ai 中转站。别再对着转圈圈发呆了, 想要体验满学版 cloud 的 快感,赶紧去 github 搜索 cloud relay service 这种自建服务的快乐,谁用谁知道。如果你的网络环境无法使用 github, 可以 尝试使用 github 大 陆中转站九幺 get, 无需网络环境配置,只需要输入仓库名称, 就可以帮你打包好原码和 app, 大 陆用户可以直接下载使用。如果你仍然觉得很麻烦,那我已经帮你总结好了全部资料,关注我,带你发现更多免费优质项目!

这个开源项目专门帮你找各种能免费调用的大模型, a p i, 他 不光把全网能免费用或者有试用额度的大模型全给整理的明明白白,更重要的是他每天自动更新,也就是说你根本不用自己去验证哪个还能用。他直接告诉你当下最新的有效资源。 不管是想搞开发测试,还是单纯想体验最新模型,这一个仓库就全解决了。这种有果树荫的省心方案,真心建议赶紧收藏!

大家好,这期我从零带你安装 openclaw, 手把手教你更安全更稳的部署,也分享我踩过的坑和技巧,让你尽快用出价值。 我发现很多人分两类,要么不敢装、不会装,要么装上太兴奋,一次想做太多,结果浪费时间和偷啃,最后就不用了。所以这期我带你走一遍全新安装流程,从准备环境到跑通,第一次对话一步不落。中间我也会提醒常见误区,帮你少走弯路。 每个关键节点我都会停一下,告诉你该看哪,怎么选,确保你跟得上,不容易走偏。我会教你把它接到 telegram, 让你可以在手机上随时跟他对话,再给你几条安全提示词,帮你把部署加固的更牢更放心。 open crawl agent 其实能扫描它所在的设备,理解你是怎么部署的,并给出加固建议,哪些需要关,哪些需要开, 他会说的很清楚。我还会教你配置 api key, 用不同的 ai 模型配置网页搜索,快速讲清楚各个 md 文件是什么,首次对话是怎么跑起来的,为什么他会先问你那些问题,最后再给你一些我前几天最实用、最省 token 的 使用建议,帮你少走弯路, 别一上来全都做。我建议先缩小范围,先熟悉两天,把流程跑通,再把目标难点任务交给 openclock, 让他梳理下一步怎么走。 openclaw 安装其实不难,但别装在你的主力电脑上,尤其是你登录了各种账号,存着机密文件、文档或密码的那台, 因为一旦 openclaw 被攻破,它可能就能访问你电脑上的那些文件。更好的做法是用一台专用设备,比如闲置旧笔记本、 mac mini、 树莓派, 我用的就是这个,或者 vps 虚拟服务器。用虚拟服务器的话, openclaw 不 建议用第三方的一键镜像,一键部署就是像 digital ocean 这种按钮,点一下就会在服务器上直接拉起一个预配置的 openclaw hosting 也类似,点一下就部署好了。 一键镜像的好处是上手快,但坏处是后面你想改配置时可能很难,甚至改不了, 因为你用的是别人预先配好的 open call。 很多路径、权限、服务参数都不按你的需求来,官方更推荐从空白环境自己装,这样每一步你都知道发生了什么,出问题也更好排查。 比如你要换模型、换网关加安全策略,自己装会更可控。我今天用树莓派演示,你用 linux 服务器,家里小主机,流程也差不多。开始很简单,复制这条命令,在要安装 opencloud 的 设备上,打开终端粘贴执行。接下来它会按步骤带你走完整个安装和引导。 我这边用树莓派操作,打开终端,把命令粘贴回车。这条命令会把大部分事情做完。先检查系统版本,依赖内存空间不满足就提示并自动下载所需内容。 第二步会下载并安装 openclo, 第三步收尾,然后启动引导过程中看到拉取依赖、创建目录、启动服务都正常就行。我建议先别纠结选项, 用 mvp 思路把最基础配置跑起来,先能用再优化,先用几个小时甚至一天弄清楚你到底想拿它做什么,怎么用,哪些权限必须,哪些可以掀不开, 更明确后直接删掉重装,再走一遍引导,再有针对性的配配置和安全选项,效率更高。 open call 的 安全文档也说了,没有绝对安全,只有更适合你场景的取舍和边界。 先想清楚谁能跟机器人说话,他能在哪行动,能碰什么。先跑一遍,感受到能力再选,避免反攻,继续勾。我理解安全风险,选手动引导 本地网关和目录先默认网络,先别折腾,能跑起来最重要。模型建议先用 open router 一个 api key 接入多家模型切换方便也好,空成本注册配置也省事,新手不易踩坑。熟了再按预算和任务类型逐步加权限,换网络、调目录,并把安全策略补齐。 别追求一步到位,先把第一条消息跑通,确认链路正常。它能用 openai、 谷歌 antropica 模型,也能用不少开源模型,一把钥匙全打通, 开源更便宜,每一百万输入 token 零点三美元,输出一点一零美元,跑任务压力小很多。据说效果能对标 clor 的 oppo 四点六,日常也够用,具体还得看任务,但起步选它很像,先用它把流程跑顺再说。 对比下 oppo 四四点六的价格是每一百万输入透坑五美元,输出二十五美元。有些场景你可能还想用它,比如推理或写作质量更高或更复杂的长文任务,稳定性也更强。 但我最近在试 mini x, 入门和日常主力都好用,性价比也高。价值在于用 open router 的 一个 api key, 就 能接入这些提供商和模型,按任务随时切换,不用改配置,也不用找不同控制台维护,更省事省时间。这里选 open router, 回车 注册后去 credits, 先充五到十美元,再到 api key 新建 key 取名,点 create t 复制备用,别泄露。 把 key 复制出来,粘贴到这里,回车。接下来我先选 cloudsonnet, 四点六回车,端口也先回车默认。因为我这台机器上已经有另一个 opencloud, 实力占了这个端口,所以我得改一下端口 回车。 get 腿为 bind, 用 loopback 不 变 token, 选推荐的 tail scale, 先关掉回车,生成 token, 然后配第一个渠道,选 telegram bot 测试最直观也省事儿。登录 telegram 跟 bot father 新建对话,输入 new bot 回车。给机器人取名,方便区分。第二个名字必须以 bot 结尾,不能用短横线,要用下划线, 很多人会卡住。回车。创建成功,把 bot token 复制出来,粘贴到这里,拉到 finished, 回车等会用它发第一条测试消息,确认网关和权限正常,也是面朝网络防火墙和代理,没拦截,收不到消息就从这里一步步排查。 现在配置私聊,也就是 dm 访问策略,就像安装说明里说的,你必须非常明确机器人部署在哪,谁能跟他说话。我这里更推荐用允许名单 allowlist, 就是 填用户 id 或用户名,只有在名单里的人才能跟机器人聊天,要加同事或家人,也只要更新 allowlist。 回到 telegram, 先拿到你的用户名或 user id, 点左上角菜单进 profile。 用户名有时不好使,就看页面 u r l 里有没有数字,那就是 user id 只复制数字。粘贴回车。我建议先别配 skills, 先跑通流程预制工具,先跳过空格选 skip 再回车。 其他 api key 先不加,后面再补一路选 no, 然后把 hooks 全部起用,完成后回车选 yes, 安装 getry service node 也选 yes, 回车起用 bash, 导致就完成引导了。 openclaw 已装好,上面能看到 dashboard 就 绪。把带 token 的 u r l 复制出来,粘贴到终端,打开就是你的 openclaw 仪表盘。发条消息测试 hi there 你 看,回复出来了,首次对话很关键,他在让 agent 理解他是谁,你是谁,目标是什么。 每次在 openclaw 里部署新 agent 都是这样,现在只有一个,但也能在 agent 页再部署,比如研究一个写作,一个暗需拆分。 每个新 a 阵的首次对话,都会问你是谁,他是谁?用途是什么?这一步花五到十分钟聊完就行,别追求一次配完美,也别一上来就塞太多工具。先装起来,先了解他能做什么,再决定怎么用。 先把第一轮过掉,确认沟通顺畅,后面再慢慢加工具加权限。五规则。重点是这个 agent 会去读他自己的文件,而且会把这些文件当成长期记忆和工作说明书来用。也就是说,你在界面里看到的那些 md 文件不是摆设,他会真的去打开理解,再根据你的要求改写。 你让他总结目标,固化规则,记录项目进度。他通常会写回到对应的文件里,之后你再给他任务,他就会基于这些内容继续执行。所以配置文件写得越清楚,他就越稳定,越像一个长期合作的助手。建议你把关键约束写具体一点,比如输出格式、禁区审批流程, 后面省很多沟通成本。接下来我就带你认识这些文件分别是什么,第一次对话为什么会生成它们? agent m a d 用来写代理配置说明, 还有 user md 基本就是你在他眼里的资料,你可以写名字,拾取沟通偏好和项目背景, 时间久了,这些文件会不断进化。比如做研究型 agent, 可以 让他建 research jam md, 把研究碎片都放进去,他也能暗虚编辑和规划。聊完第一轮后想挑他说话方式很正常,直接让他更新配置文件就行, 也可以把常用指令固定输出模板写进去。后面一句话附用,我刚跟 openclaw 完成首次对话,定义了我是谁, agent 是 谁,目标是什么,然后重置绘画,准备重新开始 took telegram, 回到 bot father 看 agent 消息来了。我更喜欢用 telegram 当入口,手机随时能说正式派任务前先加固,让它审计设备和 openclaw 修风险。 然后是 user 点 m d, 它就是 ai agent 眼里的你,相当于个人档案和沟通说明书。你可以写名字时区,沟通偏好,比如先结论还是先过程,要不要列清单,项目背景当前优先集合敏感信息。比如你希望他称呼你什么,默认用中文还是中英混牌 回答,要不要带步骤和事例都可以写清楚,以后会不断迭代,越用越贴合。研究型 agent 还可以建 research, 点 md, 放资料链接,假设实验记录,你也能让它按固定格式整理成条目。过两天想改它的说话方式,直接让它更新配置文件,比你每次重复说明省事,也更不容易跑偏。 我刚跟 open crawl 做完第一次对话,定义了我是谁, ai agent 指是谁以及我们的目标。为避免引导内容影响后面的演示,我把绘画先重置了,等于清空上下文,方便从头跑。后续步骤, 测试 telegram 回到 bot father, 打开和机器人的聊天,从这发起第一次对话。你看, ai agent 的 消息来了。我更喜欢用 telegram, 手机随时能说,也更像日常聊天。 正式派任务前,用两条提示词加固安全,一是审计设备和 open cloud 部署,列问题清单和优先级确认后让它逐项修复并说明改动。二是开启日制脱敏, 避免把 api key 或用户 id 写进日制,必要时清理旧日制,并检查权限和访问记录,最后再跑回归测试,确认功能没被影响,这样能降泄露风险,也方便排错,更适合长期稳定运行。 这个扫描很值得做。默认情况下,有些 token 会铭文出现在日制里,不注意就有泄露风险, 尤其是你把日制同步备份或分享给别人时,更容易出事。 ai agent 会给出一堆加固建议,你可以直接回,我同意你的所有建议。开始执行吧, 它就会自动修好,包括开关配置、调整权限、补齐缺项等。做到这一步,我觉得你只用这两条最基础的提示词,就能把实力安全性翻倍,还不影响使用,而且成本很低。现在更放心了,我们可以开始研究这个 ai agent 能帮你干什么。后面会更偏个人化,我会给你一些方向和例子, 然后它就会去处理,并把该改的都改好,该关的关掉,该补的补上,该收紧的权限也会收紧。 到这一步,我会说,你仅仅发了这两个最基础的提示词,就已经让实力更安全了,而且是马上见效的那种提升, 基本不用你再手动折腾。接下来你就有余地了,可以开始真正探索他能为我们做什么。先从一个小任务试起,比如整理今天的代办或总结一份文档,再逐步加功能,加工具,加自动化,这样节奏更稳,也更不容易浪费偷啃。你也会更清楚 哪些能力值得开,哪些权限应该收紧,哪些要先观察一段时间再放开。接下来给 ai agent 加一个能上网搜的能力,这样他就能查最新信息,补齐引用来源。 我们要配置 brave 的 api key 默认有两个选项, brave search 或 perplexity。 我 现在用的是 brave search, 它会送你一些免费的 api 额度,建议先从这个开始,成本低,流程也简单。或者你既然已经在用 open router park cloud sonnet, 也可以直接用 open router 接 perplexity 的 网页搜索,省一次配置。 我们先去 free 把 apikey 拿到,注意别泄露到截图或网址里,拿到后再回来把开关启用。注册账号后,不用先充值。这个套餐现在是每秒一次请求,其实够用了, 你也可以让 ai agent 把请求节奏放慢一点,避免一下子把额度打满。每个月一共两千次,请求量其实挺大了,够日常查资料和做自动化。点这里添加 apikey, 起个名字点添加。把 key 复制出来,先自己保存一份, 然后回到和 a i a 阵的对对话里,把 key 发给他,让他帮你把 brave 网页搜索配好。如果你更想手动来,也可以按这里的说明复制这条命令。 在终端里,你可以接着上一段绘画继续,也可以新开一个终端,粘贴回车就行。这里选本地,然后起用 brave 的 网页搜索,再把 api key 复制一次,粘贴到这里,回车确认,再把 web fetch 也起用,这样他不光能搜到结果,还能把网页内容抓回来。总结配置完成, 我们验证一下,让 ai agent 调用 brave api, 顺便告诉我有没有报错,配没配成功。很好,网页搜索有了。接下来做第一个日常任务,每天早上八点给我发最新 ai 新闻。 小建议,先从小任务开始,别一口气上复杂流程,一般我会先跑两三天,看输出稳不稳定,格式合不合胃口,再慢慢加需求。 跑着跑着,你再跟他说,发 ai 新闻时顺便报天气,或做一页小报告,或给我 youtube 选题,让他先把一个任务打磨好,再慢慢扩大范围,再给你一个更实用的建议。善用这些 md 文件,把需求写进可附用的说明书。 前几天别急着堆一堆 agent, 先把你的想法、目标、关注点用语音发给 openclaw, 让他帮你提炼要点,去重补全背景,然后整理成独立的 md 文件。比如把固定输出格式、时间点、信息来源都写清楚,后面就不用反复解释。 比如让他建 research, 点 md, 整理研究任务,或建 travel, 点 md, 把出国旅行、本地办事都规章,也可以建 work, 点 md ideas, 点 md, 收代办和灵感,再加 reading, 点 md, 记录文章和书单,按主题分开后,你解锁和回顾会更快。 过几天你自然会攒出两三份扎实的 md 文件,里面带着一堆可执行任务。回到主 ai agent, 这些 md 文件已经有了,能不能帮我拆成多个 agent? 比如研究、写作日程各一个,各自只管自己那份文件和任务,权限也最小化,它很快就能把多个 agent 配好, 把任务发下去直接跑。你只需要在指挥层验收结果,做最终决策,你还能让他给每个 a 诊的定边界和输出格式,比如输入来源、交付物模板以及不该做的事,避免互相打架等。跑顺 你会感觉工作更清楚,沟通更省心。后面我会继续做 open 可否系列,把进阶用法和踩坑点讲透,方便你复刻。 下一期我会讲怎么搭建 ai agent 团队,以及做一个指挥中心,让你能同时跟多个成员协助,一个负责搜索,一个负责整理,一个负责产出,还能按优先级自动排队。想第一时间看到更新,记得订阅、点赞或留言说你,期待我们下期见!

上条视频我教大家怎么把 deepsea 接近奈里边儿,很多人留言在问,如果断网怎么办?数据敏感怎么办?公司不允许外网访问怎么办?那今天我就告诉大家,真正会用的人已经不再借 deepsea 这个模型了, 他们是怎么操作呢?他们直接把 deepsea 直接装进自己的电脑里边,而且是奈只需要一个节点就可以连接这个内部的 deepsea。 来看我的屏幕, 好,那大家看我的屏幕哈,我们为什么一定要在本地建立这个 deepsea 模型呢?啊?主要是理由有三个哈,如果用 a api 调用的话,就是用互联网调用的话,大家都知道大概有三个问题我们这边就很难解决。第一个就是数据出网,尤其是在公司的一些敏感数据,我们都要传到互联网上 啊,这很多公司是不允许的,对吧?第二个就是成本,按照 token 计算,虽然现在 token 的 话都很便宜,但是我们都知道你只要使用上了它一直在烧钱,对吧?源源不断的在烧钱。 第三个呢,就是网络和稳定性不确定。为什么网络和稳定性不确定呢?因为包括我们上网的速度,包括对方给我们 api 啊,端口的流量,对吧?这个都是看别人的脸色来行事。 如果我们把这 deepsea 部署到本地,就相当于什么呢?我们意味着什么呢?就是断网可用,对吧?我们断网也可以使用。第二个就是,呃,在内部网可以部署。第三个就是我们的安全信息啊,包括敏感信息不会出公司。第四个就是我们成本,是一次性成本,后面基本是为零,对吧?是这样 啊,我打个比喻啊,如果用 api 调用 dbc, 就 相当于我们说的租房,对吧?如果我们把这个大模型直接部署到本地呢?就相当于我们买房,那今天我讲的不是贷款买房哈,是用零成本买房。 呃,如果你想长期用 dbc, 还是偶尔体验一下哈,那么今天我就给大家演示,我们不说废话,直接上操作,直接打开我们的耐 在那里边,我们直接拉入这个 l l m 这个大模型的节点,就这一个节点,不写任何代码,不配置任何复杂的参数,只要选择模型的文件路径就 ok 了,大家可以看一下,我导入一下,大家可以看。 大家看到我事先下载了啊, deepseek 的 一个模型对吧?下载了,我的本地的,我本地是 windows 环境,大家可以看一下,我简单的介绍一下这个 deepseek 的 这个模型哈。呃, r 一, 对吧,证明是,这是是代表什么呢?代表的是一个啊推理型的一个版本对吧? distile, 这个是蒸馏版本,相当于更轻便啊。拉玛八臂,这个是一个八十亿参数规模的 q 四呢,就相当于量化一个压缩版, 还有最后一个 g g u f 的 格式,它是一个本地推理的一个格式,相当于可以在 windows 下直接运行 啊,简单的翻译成人话就是一个可以在普通显卡上甚至 cpu 上运行的大模型,对吧?推理能力比较强,它的体积也比较小,适合个人或者企业内部来部署,我们直接把它下载下来, 现在我们的访问都是在我们本地访问,不是在网络上啊,而且访问都是自己的模型, 大家看啊,爽点来了,我只需要这一个节点,对吧?我不写任何代码,我们这些参数全是默认的,大家看可以看下,这些参数很多,但是我们都不用选,不配置任何参数,只选择文件的路径点, ok 就 行了, 模型就在你硬排上跑了,我点上运行,对吧?他就直接在我的硬排上运行了,当然了,后面这些参数代表什么意思,我后面会专门拆一条视频给大家讲解。那今天你只需要记住一句话,奈负责连接, deep 负责什么呢? deep 负责在你电脑上思考就 ok 了, 那么我们魔性运行了,对吧?魔性运行了之后,我问先问他一个问题,大家可以看到我先把这问题给他写到我的文件里边了,对吧?我们先看第一个问题,银河系的半径是多少光年?我们可以双击一下,对吧?银河系的半径是多少光年?我们问一下 deepsea, 看它能不能 给我们抓出来哈。我们点运行,在运行的时候我们可以看一下我们 cpu, 大家可以看一下,对吧?它的性能 对吧?大家可以看一下,没有全部占满哈,其实占百分之八十九,对吧?没有全部占满,它是用的是 cpu 在 运行我的大模型好运行,结果出来了哈,我们看一下银河系的半径多少光年?我们点击看一下, 他写的大约是十万到一百万光年之间,对吧?大家可以看一下整体的,还告诉你了,银河是银河系,是一个旋臂的星系,对吧?其实他 不仅给了我们一个大概的啊的光年的范围,十万到一百万光年,还解释了他有些误差,对吧?大家可以看到还有一些误差啊,而且还告诉我了一个盘面结构 啊,我要强调一点哈,这不是联网查询的哈,这不是联网查询的。再重复一遍,这不是联网查询的,这是你电脑本地的大模型的一个推理,对吧?这所有的东西都是你在你本地模型一个推理, 这是一个天文知识。那么我们再测试大模型一个,呃,一个题目哈,相当于我们给大模型再来再点个硬菜。嗯,这道题大家可以看一下哈, 这道题就是,去年鸡蛋是三元每斤,今年 cpi 涨了百分之三,公司涨了百分之十,鸡蛋价格百分之五,请问今年鸡蛋价格多少钱一斤,对吧? ok, 我 点击运也是 reset 运行一下哈, 大家可以看一下,也运行一下。点运行,呃,我们在看它运行结果的时候,呃,我们要分析一下这个道题目哈,其实这道题目挺有意思啊,为什么?它有意思在哪呢?其实 cpi 涨了百分之三,对吧?工资涨了百分之十,其实全是烟雾弹,对吧? 真正有,其实真正有用的信息只有一句话,就是鸡蛋涨了百分之五。很多 ai 呢,都会傻乎乎的在算,包括把 cpi 啊,把工资啊都算进去,对吧?最后呢,给你给出你一个四不像的答案,那么我们看一下我们这个本地大模型的 deepsea 是 不是能够算出来, 好,我们看看哈。呃,本地的 deep sea 回答已经完成了哈,我们看一下结果。我们双击一下他,他这边写的是用代数的方法来解答,还挺厉害啊,我们看一下他首先 重复了一下问题,对不对?呃,说了一下工资,第二就是考虑一下鸡蛋的变化,对吧? 总总价格是三点一五元,三点一五元美金。这个回答正确了,其实这块我们也知道,知道他做了三件非常关键的事情。第一个,第一件事情,他识别出了这个干扰项,知道我们的工资是一个干扰项,对吧?啊?第二个就是,呃,没被关键词带跑, 对吧?第三个就是他的真的真的是在推理,大家可以看到他用代数的方式在推理,大家看到了吧?对吧?结果肯定是算对了,对不对?连解析的过程包括方程都给你列出来了, 这说明什么了?这说明他不是在拼关键词,他是在理解我们给他的回答的问题,等于是他理解了我们的问题。 所有的这些回答呢,都是在你的本地的模型哈,我们没有访问外边网络哈,我们没有访问任何外边的模型,都是您自己的模型,都是您,都是。我们刚才说的这个模型,就是 deepsea 本地这个模型来给您回答的,其实已经不是一个 demo 了,而是已经可以落地的一个项目, 我们断网可用,对吧?本地运行企业数据绝对安全,在那里边,我们只需要一个节点,这好比什么呢?您不再租房用 ai 了,而是直接零成本把这房子买下来, 而且房子的名称其实就是您自己的名称,把我们的 deepsea 直接部署到我们 windows 本身的一个机器上, 如果你想像我一样在自己的电脑里跑, deepsea 用奈直接连这个模型,而不是天天上网去聊天,去调用这个模型,那么请大家评论区里边留言一,我直接把 deepsea 这个模型下载地址发给您,谢谢大家。

hello, 大家好,今天想跟大家分享一下我在 windows 上安装 cloud code 时踩过的一些坑,以及如何跳过官网登录直接接入国产大模型,或者是调用 cloud 的 api 的 方法。那首先要说明的一点是, cloud code 和 cloud 是 两个完全不同的东西, cloud code 它本质上它是类似于 cursor tree 这样的 ai 辅助的,呃,编码工具,呃, 它是一个 ide 编辑器,那么 cloud 它是大模型,它和 deepsea 叉 gpt 这些是平行的关系。所以说,嗯, cloud code 它,嗯, 它是一个编程的 id, 那 它不仅可以接 cloud 的 这个大脑,它也可以去接呃其他的模型,对吧?那就可以用国产的这些模型,包括智普的 glm 或者是用 deepsea api 都可以。那这个你可以直接在这个,比如智普的官网去看它的这个开发文档,然后开发文档就直接搜 cloud code, 它里面都会有这个安装的教程, 然后我觉得这个文档就写得很清楚。做你是 windows 用户的话,首先你一定要安装好这个 node js 和 git, 这两个安装都很顺畅,没有任何的问题。然后接下来安装成功以后,在命令行输入这个 npm install 的 方法,就 指定就可以说你的安装客户,那这个时候你输这个命令可以查看自己就是,嗯,有版本号就是安装成功了。那这个时候你去在命令行输 client 启动你的 client 的 时候,可能会就是 出现了一个状况,他说你所在的地区并不支持。那这个问题是,虽然你的电脑已经挂了代理,挂了 vpn, 但是你的命令行可能没有挂到这个代理上面,所以说这个时候你要问一下这个 t, 就 说你的命令行怎么去挂,这个代理他会告诉你输入这个指令,但是这个端口号你一定要把自己的那个,嗯, 把自己的那个猫猫就是挂挂 vpn 的 那个软件打开,看一下自己的短口号是多少,改一下这四个数字就 ok。 呃,接下来就是,呃,你在这个,比如说智普啊,或者 tps 上面,你获得这个申请这个 api, 这个应该都没有什么问题。接下来我们可以说一下这个手动配置,那手动配置这里写的很清楚,你要进入 c 盘, 然后用户的那个目录找到点 cloud 的 这个文件,那这个时候你自己要新建一个啊 ttx 的 文件,对吧?然后把它改成这个 setting, 点 jason, 哦,把这段儿 给它复制粘贴进去就 ok。 其实所有调用 api k 基本上都是这四段内容,第一行是你要输你的这个 k, 要把你这这个这个字段换成你刚才获取到的那个 api k, 第二个字段是这个 url, 不 同的网站不同的模型,它的 url 都不一样,然后这个是它这个是什么延迟的时间,和接下来这两个就好像没什么关系,但是每一个基本上都有。 然后这一句话,这一句话是在哪里添加?它跟刚才的目录是有区别的,这个目录是 c 盘,那个用户的目录就在用户目录里面,你就要去找这个点 cloud, 点 jason 这个文件,然后把这一行给它加上这一行的功能,就是说啊,我就是让,就是默认你已经 完成了登录这个这个过程,对,这样就可以跳过这个,跳转到 cloud code 去去订阅那个登录的那个界面, 哦,这个就是质朴的一个方法,其实你换成 deepsafe 的 话,也就是把这部分换掉,对吧?换成 deepsafe 的 k 和 deepsafe 的, 嗯,这个 url。 那 同时就比如说你没有订阅 cloud code, 你 没有订阅 cloud, 但是你们公司可能会有这种平台提供 cloud 的 k, 那 你也可以去找这个,然后把它啊 配置到你为就是你的这个文件里面,那同样你也可以去用这个 cloud code 匹配 cloud 的 这个模型。