大家好,欢迎大家收看 open call 在 叉八六服务器上的应用指南。嗯,这个首先在这一期我会向大家介绍开发场景下的代码,自动选阅和智能管理。 嗯,在我们开始之前呢,我们要确保服务器已经成功部署和运行。在我们部署运行成功了之后呢,我们可以进入它的 web ui 页面,通过我们得到自己的 token。 然后我们做完这这几步之后呢,我们可以去登录我们的 a t 平台。 在这里我们需要去进入我们的个人仓库,去看一下我们是否已经成功去创建的一些项目。在这里的话呢,我们是有三个项目,然后我自己创建了一个 t s 一 呃来进行测试。 呃,我们要做这几个准备。首先的话呢,我们需要去得到我们的 get 里的仓库地址,我们可以从这里的 h d p s 这里去得到复制我们的仓库地址。 嗯,然后就是我们需要提供一下我们自己的个人令牌。呃,个人令牌呢,是需要在设置里面,这里有一个私人令牌这一个功能,在这里我们可以去创建我们的新的四四人令牌,这里再创建一个, 这时间我们可以设置永不过期。 我们这里把我的仓库地址随便拍再复制一下。 到这里我们就会告诉 open call, 让他去连接一下我们的仓库,然后去看一下我们的仓库的一些状态。 这里我们就看见了他现在已经对我们的 et 仓库进行了一个分析,然后这里他也提到了一些该怎么跑完吧。 然后这里他也是对我们所有的呃文件进行了一个阅读吧, 一看到这里它就直接已经跑完了,然后它现在对我们的仓库状态进行了一个分析,这里它可以分析出我们的提交历史 com 的 列表, 还有就是提交的一些解释信息,然后还有我们的 p r 列表,这个 p r 列表是我刚刚从另外一个账号提交的一个测试,还能给出各种的一些原信息。 然后他也阅读了我们的项目结构,可以把大约把什么项目的功能都可以去介绍一下我们的基础站,还有给我们项目的进行了一些完整的分析, 我们也可以进行一些其他操作,就比如说让他去分析一下这个 comet。 嗯,这个 open call 通过个人并排的访问方式的话,可以对我们的 get 进行一个完整的呃一个权限。然后在这里的话,大家可以通过这个 get 点 open 点 api, 这边有各种的一些访问的一些功能,可以大家可以通过这些去看一下,具体我们的 open call 可以 用这个我们的 api 去进行一个什么功能。 那在这里他也是对我们的这个提交进行了一个代码的一个分析,对我们代码的哪地方进行了更改,也进行了查看,我也给出了一些建议。 在这里我们也可以让他去分析一下我们的一个 pr 操作, 让他去查看一下是否可以进行代码合并。 这里他是分析一下我们最新的 pr, 然后去到了一些结论 这里我是最新的 pr, 我是 添加了几个接口,是把接口进行了分析是否会进行合并, 现在我们得到结果了,然后他现在对我们的最新提交的 pr 进行了一个代码质量还有功能的一个分析, 这里的话呢,他也是去识别了代码,最近哪个地方进行了修改啊?在这里呢,我是对这几个 api 进行了一些修改,然后又新增了几个接口,这边也是进行了这样的一个评估,然后也分析了我这个事业的功能, 然后也是对一些问题进行了一些解释, 最后也给出了是否可以进行合并的一个建议, 在这里我们可以进行选择。进行合并是我从私人列表上复制的合并操作 default, 它不知道进行合并,所以这里我告知了它。大家输入的时候也可以尽量的去给模型多一点解释,让它去对操作做一些更加精准的决策。 这是我目前代码状态,现在有一个 cr 正在 open 中, 这里才进行一些操作 分析了,现在是可以进行合并的一个状态。 好了,这也是合并成功了。 好了,现在也是成功的合并到我们的主流群中了, 现在我让我们检查一下它是否已经成功合并好。这里现在仍然是 pr 制的 open 一个状态,让我们发现一下。 好,现在变成零了,他已经成功合并了我们的 p r 城请求了。好,谢谢大家的观看。
粉丝1.7万获赞16.7万

龙虾加困三点五能擦出什么样的火花呢?我们知道困三点五在除夕夜正式发布了,它呢也是号称最强的开源模型,它的能力可以说拳打 g p t, 五点二 叫 t cloud, 四点五是可以和国际的这些顶级的大模型搬一搬手腕的。那好,那么这样一个国产的重量级的开源大模型,我们能不能在龙虾里面免费调用呢? 答案是可以的,接下来一个视频,带着你从零到一的在龙虾里面去接入困三点五,完成免费的调用。好,那话不多说,咱们直接进入正片吧。那么接入的步骤呢?其实也不多啊,总共呢四步就搞定了。首先第一步啊,如果你本地没有欧拉玛的情况下, 你先下载一个欧拉玛,注意下载最新版的,如果你的欧拉玛很长时间没有更新的,那么也是一样先更新到最新版本啊,那么这个没啥好说的,你呢,就把它下载下来,一路下一步就可以安装了 啊,安装完了之后呢,接下来咱们要在我的欧拉玛上去安装你的问三点五的模型。好,那么安装的话怎么安装啊啊?复制这行命令,然后这时候呢,把命令输进去就行了, 这个就是开源的问三点五的模型了。好,然后这时候敲回车,咱们只需要等待欧拉玛去安装千问就行了,很快咱们就可以看到。哎,我的千问三点五就已经安装到本地了啊,这时候呢,我知道有同学就说了,说,磊哥啊, 我本地的电脑配置不是特别高,问三点五能不能部署啊?这个还真能,为什么呢啊?因为在欧拉玛里面的这个问三点五的这个模型,大家可以看到了,后面跟了一个谁呀? cloud, 这个是欧拉玛新推出的一种 云端的模型啊,这些新模型呢? ok, 大家可以看到它都是有 cloud 标识的,像 win 三点五呀,智普的五呀,还有像 mini max 的 二点五啊,都是 cloud 的, 那么这个 cloud 是 什么意思啊? 啊?它指的是欧拉玛远程帮你已经部署好了满血版的这些模型了,你只要有欧拉玛的这个客户端,你就可以快速的去连接欧拉玛帮你部署好的这个开源模型了,所以这时候你不需要担心自己的电脑不好,因为这个满血版的大模型, 它的本质上是没有在你本地部署的,而是在欧拉玛的服务器上部署的,你有欧拉玛,你是可以直接去用的啊,所以它是这样的一个逻辑,因此呢,你电脑不好没有关系,是可以去用的。好, ok, 那 么很快咱们就部署好了啊,部署好了之后呢,接下来第三步啊,咱们就去登录我的欧拉玛账号。好,这时候复制这行命令, 来到命令窗口里面输入这行指令敲回车,然后敲回车之后呢,它会自动打开页面啊,这个是欧拉玛的登录页面,如果说他没有出现,大家看这个地址了没,复制这个地址,手动的粘贴到你的浏览器里面就行了。好,那这时候 ok, 去填写你的欧拉玛账号。那有人说,哎,那磊哥我没有欧拉玛账号怎么办?那没有邮箱的情况下呢,我们就去点击底下这个注册按钮啊,然后点击完成之后呢,然后接下来 在上面这个输入框里面去填写你的邮箱信息啊,那我就填写我的这个邮箱信息,点击继续。好,这时候呢,他让你去输入创建一个密码啊,那你就输入密码,然后点击继续, 然后点击下一步。好,点击完成之后呢,他要求登录到你的邮箱了,他把这个验证码收到你的邮箱了。好,输入完邮箱之后呢,他要求绑定一个手机号啊,那我们这时候呢,就去填写我们的手机号, 然后点击发送验证码。好,然后拿到手机上的验证码之后呢进行输入啊,输入完成之后呢,咱们就完成了登录了啊,大家看到没?我就登录了 啊,登录完了之后呢, ok, 去点击呃,底下的 connection, ok, 它就显示已经登录成功了,那么到这咱们的第三步就已经完成了啊,完成之后呢,接下来咱们就可以执行最后一步了, 使用这行命令来去启动你的 open class 啊,就可以完成 open class 接入欧拉玛里面的问三点五的模型了。好,那这时候呢,咱们最后一步啊,使用这行命令 来启动进行交互了。好,那这时候咱们来试着启动一下,回到命令窗口里面,把这行命令呢输入进去。好,稍回车。好,那么等待片刻之后呢,咱们可以看到啊,咱们的 open class 了,并且使用的模型呢,是欧拉玛的千问三点五的 cloud 模型啊,但是能不能用呢啊,那么接下来咱们可以打开命令窗口, 或者是打开咱们的飞书啊,来测一下。那我这呢就打开我的命令窗口啊,然后完了之后呢?好,接下来咱们就呃给他新开一个 new session 吧, 新开一个窗口啊,然后咱们来问一下他,我给你更换了新的大模型,告诉我你使用的大模型是啥,那咱们就给他一行这个命令啊,然后点击 send。 好, 那这时候咱们来看一下他给咱们返回的模型是啥,看到没?那他说的是我现在用的就是啥呀,问三点五的模型了,那这样的话,咱们就使用 openclo, 可以 免费的使用 欧拉玛里面的问三点五的模型了,好,这时候可能有人就问了,说,难道这么简单吗?我可以这样免费的去使用欧拉玛的云端模型吗?有没有限制啊?答案是有的啊,比如说欧拉玛的云端模型,人家也是有成本的吧, 所以说那么欧拉玛的调用云端模型的调用也是有额度限制的,然后这个额度限制在哪呢?给大家来看一下啊。这时候呢去点击账号右上角的这个账号啊,点击完了之后呢,在这大家看到没, 这块呢就是云端模型的使用限制啊,它是有一个百分比的,那么每周它会有一定的额度,然后每四个小时会有一定的额度,那么当你把这个额度用完之后呢,那么云端的模型就不能掉了, 所以我刚才问了两个问题,那么基本上就消耗了百分之一点二,所以这个免费的模型的话,每四个小时应该是能够调用一百次左右啊,根据你的这个上下文的这个计费是不一样的, 所以总体来看,这个免费的额度相比于其他的免费的额度来说啊,欧拉玛还是更实在一些。那么到这儿咱们就完成了在 opencloud 里面去接入问三点五的功能了。我是李哥,每天分享一个干货内容。

好的,那我们现在验证一个实操实利啊,在我们的 git 上进行呃,让它自主去创建一个项目。首先我们需要先问问它是否能够使用我们的 git 令牌来去创建一个项目, 这里它告诉我们它是可以使用私人令牌来创建和管理项目的。那么我们接下来就告诉它一个新的 quarry, 这个块的内容就是你可以帮我创建一个静态网页,是关于我们叉八六服务器的一个宣传网页,主要内容就包括性能、规格、场景、联系我们等, 具体内容可以使用站位符代替,页面样式要新颖一些。我的私人令牌是这个,请你为我创建一个项目,它的名字就叫 serverpromote, 并推送到我的服务器上,推送到我的这个 get 中, 我们可以看一下它能否帮我们创建成功。我们稍作等待,它这边还在频繁的去对我们的工作环境中的一些目录进行读写, 因为我们的 open cloud 在 这个外部端和我们的服务器端它的联通是有一定的呃延迟的,所以它有时候在这个数据传输的时候,会因为一些数据的丢失,导致它没有办法完全实时的把这个数据给它刷新回来。所以我们就可以 切换一下把,看他有没有具体流程一个执行。我们可以看一下我们的工作目录中是否已经创建好了一个 项目。这个就是我们创建的一个刚刚根据提示词生成一个项目,它里面已经把我们所需要的一些文件都已经给它创建成功了。 这个过程比较慢,因为它在呃自己需要构建去理清逻辑,然后反复的调用我们的 l i m 做一个执行,然后具体的工序调用的话,它也会在这个过程中进行思考。 好了,你看我们可以看到它已经完成了很多个文件的创建, 我们再刷新一下, 构建的好慢, 咳咳咳,这个 css 文件已经创建了,进来看一下, 又写完了一个文件 内存,估计是创建不了了, 现在在做 get 的 配置,他需要知道我的 get 物名,尝试推送。 好的,我们可以看到它已经在我们的仓库中构建好了, 可以直接看到它的一个具体的信息, 我们甚至可以把它克隆到本地, 它是没有什么样式的,但它已经把我们基本内容都给完善好了,后续我们可以自己去添加。 ok 了,可以了。

关于 openclaw, 这段时间我用下来有很多的体验和感受,非常的细节,这里边有很多采看的地方,也有觉得这个产品很棒的地方,所以今天我会花比较长的时间跟你仔细的去讲一讲我一些相对来说比较突出的感受。 首先就是 mac mini, 到底 mac mini 是 不是一个必备的选项?先说结论,如果你是一个纯纯的代班小白,而且对于自己的电脑操作能力没有那么的自信,又希望整个使用能够足够的稳定省心,并且把 oppo color 的 能力尽量发挥出来。那我最推荐的方案就是买一台 mac mini, 而且用 api 的 方式去跑 openclaw, 当然还有很多其他选择,从我目前的整个体验来看,也只有这套方法是最省心,最稳定,也最有效率的。那我一开始的设想其实还比较复杂,本地模型加上 api 的 三层结构, 比如用一台能跑本地模型的 mac mini, 同时配合 api 去完成我的一些日常任务。那当时我 web coding 开发了一个模型路由 skill, 相当于用一个模型调度员,按照任务的性质把模型的调度分成了三层。第一层就是使用 open cloud 开发者也最推荐的 cloud opus, 四点六,那效果最好,质量最稳,美中不足就是价格偏贵。 第二层就是国内的一线模型,比如说像 m 二点一啊, kimi 二点五啊等等。这第三层就是本地模型,当时我的选择是前文三三十二 b 的 q 四量化版本。 那真正跑起来之后,我发现其实坑还是挺多的,而且都是那种很小但是很让人挠头的问题。比如一开始做调研的时候,我跟 ai 聊了很多轮,最后得出了一个结论是,我只需要去购买一台 m 四 pro, 六十四 g 内存的 mac mini, 就 能够把千分三三十二 v 跑通。 当时我还算了一笔账,如果我每天大概消耗一百万的 token, 按照这个成本和产出来看的话,可能七到八个月我购买硬件的成本就能回本了。但是实际跑下来发现,最理想的速度在终端当中是十一个 token 每秒,导致回复还是偏慢的。 如果只是在终端里跑,那速度还算能接受,但一旦接上了 openclock, 这里边有各种 skill 规则、历史记录等等,速度就会明显变慢, 平均下来一个回复的响应时长经常要去到一分半甚至两分半。所以这个速度的体验用我的话来说就是真的非常的拉垮。 所以我后面还排查了一轮,想要搞清楚到底问题出在哪。结果发现其实真正的瓶颈不只是内存,而是在于内存待宽。比如一台 mac mini m 四 pro, 它的内存待宽是两百多 g 每秒, 如果我希望 token 输出的速度更高,比如要跑到二十 token 以上,就得上到 max studio, 但是这样一套下来,成本就往两万块走了。 所以你再去对比一下入门的版本,如果还能通过别的方式拿到更优惠的价格,这个使用 opencloud 的 成本就是四五倍甚至更多的差价。所以与其花一万五六千块钱去升级硬件,还是把这部分钱用在 token 上, 那我更倾向于后者。而且对于我个人而言,使用第三方模型也并没有特别强的隐私焦虑,所以我更能接受纯 api 的 方案。那么问题来了,既然本地模型这么吃硬件,为什么不直接上 vps 或者其他云部署方案呢? 我自己也对比过整个不同方案之间的一个区别,我觉得目前 mac mini 方案最值得推荐的原因有三点,第一点就是它还是能够用到很多 macos 本地系统的能力的,很多东西你再去调用 opencloud 的 时候需要的一些能力, macos 本身就很顺手,而且直接用了系统级的功能去做事。 第二点就是你基本上不需要做太多的额外的配置,就能够第一时间去上手 opencloud, 那 整体使用的路径更短,不容易在环境依赖权限上反复折腾。第三点就是它可以低功耗的二十四小时稳定运行, 那如果你本来就有一台 mac mini, 或者说能够以更加便宜的价格拿到,那整个这个成本和使用体验就会更好。接下来我想讲一讲一些具体的使用细节。 opencloud 跟我们平时使用的正常的 ai 聊天软件到底有什么不一样?首先第一点就是 界面体验,你会发现它的整个界面非常的朴素,甚至是有点原始。如果你用 webchat, 也就是本地网页去聊天,你会明显感觉到它不像 chat gpt、 cloud gemini 或者是豆包那样的简洁清晰。 核心的原因是它会把很多后台规则以及本地执行的命令信息直接展示在前端,所以整体看起来会更加的工程化,不那么小白,用户友好。 第二点就是整个思考的展示方式,大家现在主流用的模型,像我们上面提到的那些产品,通常会把它的思考过程展示给你看。但是在 openclaw 里,它通常只会显示一个 thinking 的 气泡,不像其他模型那样让你看到整个过程,而且它的速度也算不上多快。 当然,这个取决于你具体使用的模型,尤其是当你使用了飞书跟他的沟通后,你会发现他可能会在 thinking 这个状态上停留很久,页面没有任何文字的流逝输出,也就是说你看不出来他到底在做什么,进行到哪一步了。第三点就是文件和截图这类的能力相对来说偏弱。 比如你希望他自动发截图给你,其实需要提前去做一些固定的设计,或者是预埋留一些习惯让他知道你的偏好。否则在默认情况下,他更倾向于把文档和图片保存在本地,然后你得自己去打开对应的 md 文档或者是图片进行查看。 综合上面所有的尝试和对比,我最终的选择是用了一台配置更加入门的 mac 模型,而不是原来的本地模型加上 api 的 组合。 再往下一个更加现实的问题是, open club 到底适不适合普通人去使用呢?那我的结论是,他更适合那些有探索精神,也能接受相当程度风险的人, 因为他出风险的概率实在是不小。你会在网上看到各种成功的案例,但是很少会有人把自己遇到的风险和翻车的经历一五一十的讲出来。而且这种风险不止存在于 open club 这种独立开发者开发的开源项目, 就连前一段时间 cloud 推出的 cowalk 也有类似的系统级风险。我印象最深刻的是看到的一个帖子,有人用 cowalk 的 时候,直接把电脑里一百多 g 的 文件全删了,而且找不回来。 所以如果你不希望发生这类的事情,最稳妥的方案就是做真正的物理隔离,用一台专门的 mac 或者是主机单独去跑 opencloud。 而且在真正决定使用这个产品之前,还要做一个二选一的决定,要么你给他系统提供权限,让他可以调度整个电脑操作系统的很多底层能力,要么你就干脆不要用它, 因为一旦你限制了他的权限,不让他做事,你拿到的就是一个很基础很受限制的积累,整件事情就真的没有必要浪费时间了。那么 open cloud 的 价值到底在哪呢?我觉得本质上他是 ai 圈里的先行者,是那种用来探索上线的产品, 他的很多技术能力在行业的从业者来看,其实并不算前沿,甚至可能在一年前两年前,其中大部分的技术能力就已经有人做出来了。 但是这个开发者真正厉害的地方在于两点,第一是他把这些能力整合成了一个完整的产品,可以让你在一个地方跑起来。第二就是在很多细节体验上做了大量的调教,最终把功能上限和实际体验做到了一个相对极致的平衡。 不过如果你是完全的小白,没有任何代码基础,也没有很多 ai 使用的经验,那我的建议是先等等。因为现在很多国产替代已经在路上,而且很多产品已经很好用,也更适合普通人直接上手。 那最后说说我自己的后续,对于我个人来说,我还是会继续去探索 open 这种玩法,因为如果把它当做一个探索自主化智能体的项目,它确实非常有意思, 而且我觉得它有很大的利用空间,能够帮助我去做咨询、抓取内容选题和生产,甚至半自动化的工作流,去迭代我目前正在使用的这套 ai 内容生产工作流。那最终我的目标是获得一个有眼力见,懂我的需求的合格的数字员工。所以后面 我还有很多的东西会分享出来,包括很多具体的 open class 的 使用方法。不止会包含 ai 自媒体方面呢,也会有很多适合普通上班族的用法。所以如果你感兴趣,欢迎关注我,这里是实业,正在与你分享 ai 一 人公司的成长过程,我们下期再见。

我们本次的部署方式采用的是原码构建的方式,同时我们也能够指定 open cloud 平台默认之外的模型,这一点对我们企业用户来说是十分重要的。 今天我们的部署呢一共分为三步走,第一步我们需要克隆项目,配置一些环境变量,搭建一个基础的环境。第二步,我们需要构建专属的 open cloud 容器,保证安全隔离。第三步,配置专属大模型,让 open cloud 真正的动起来。 首先我们需要将 opencloud 从 github 上进行源码克隆,大家可以如果在遇到网络问题的时候,可以直接在我们的 open, 在 我们的 github 上将 opencloud 直接下载下来,解压后上传到我们服务器即可。我这边已经提前给大家把项目给它克隆下来了, 这里我准备了一个我们今天所要用到的所有的操作指令,大家跟着我一步一步来就可以。首先我们需要创建一个我们自己专有的 opencloud 的 一个工作环境, ok, 在 创建完工作环境之后,我们需要给它部署一个呃,给它赋予一个我们用户组和所有者。 这一步也很关键,因为呃在我们容器的构建过程中,我们使用的 uid 为一百的非 root 用户来构建和运行服务, 避免我们的容器以 root 身份运行带来一些安全风险,同时呢也方便我们与数据库进行映设。然后我们之前刚刚提到这个 open cloud 杠 data, 还有这个 workspace, 这个目录也是非常关键的,这是我们区分不同用户之间的一个关键目录。 好的,接下来我们继续执行,我们导入几个关键的环境变量,这个环境是我们构建 opencloud 的 一个最基础的一个支撑。 ok, 到此为止,我们的所有的准备环境都已经做好了,接下来我们就可以真正的去构建专属于我们自己的 opencloud 容器了。我们首先给我们的执行脚本赋予一定的执行权限,接下来我们直接执行 dock setup 这个脚本。 ok, 我 们可以看到它已经在构建我们的镜像了。当然大家在构建我们的镜像的时候,可能会遇到一些网络连接的问题, 这个镜像在构建时受网络影响环境还是比较大的,在实际部署时,大家拉取基础镜像或者下载 note 相关依赖的时候,可能会遇到网络连接失败的问题。所以在在这里建议大家在构建之前,先对我们的这个镜像进行换原,使用国内的镜像仓库来完成构建, 能够大幅的提升我们构建镜像的一个稳定性和成功率。 ok, 我 们现在可以看到我们的界面已经进入到了 opencloud 的 一个配置界面,我们接下来就按照以下步骤,大家跟着我走,我们就可以快速的先把我们 opencloud 的 一个配置文件给它,给它布置好。 我们首先要同意我们的风险,然后选择 quickstar, 在 这里在这个模型提供厂商这里,我们可以按照自己的需求去选择,因为这里我们使用的是 deepstack 这个 呃,这样一个平台,这在这里没有显示。我们这这一步就先跳过,大家有条件的话可以按照自己的这个需求去配配置自己的 atik, 这个地方我也选择默认的就可以,然后到了这个 china 这一阶段,我们可以看到它提供的很多 china 都是 呃像 telegram、 whatsapp、 whatsapp 这这种,呃国外的一些呃这种渠道,呃对于我们国内的用户来说使用不是特别友好。在后面第二部分实际案例子讲解时,我会给大家专门的去讲解我们如何将 opencloud 与我们的企业微信做一个对接。 这一步我们就暂且先跳过。 ok, 接下来到我们的配置 skill 的 这一个阶段,我们在首次使用的时候可以先选上这样一个啊配置项,但是,呃, 但是在下面的这个具体的 skill 中,我们可以不用去选择,大家可以按照自己的需要去填充这些 skill, 我 们可以后续也可以自己进行扩展。这里我就直接跳过了,对于这些 apik, 大家有需要的话可以按照我们的需求自己去部署去配置。 好的,我们现在稍作等待啊,它现在呃需要等待网关服务启动之后才就可以通过我们的 web ui 去快速访问我们的 open cloud 了,它现在正在安装部署。我们大家稍微等一下, ok, 到这一步我们使用我们使用 ctrl 加 d 退出这样一个容器环境,我们可以看到我们的容器实际上已经呃构建完成了。 好的,到这一步,实际上我们的 open cloud 已经完成了基本的雏形,我们可以在左侧的这个配置文件中看到我们自己的专有的工作目录,以及它在这个工作环境下, 工作环境下去已经创建好了我们的这个 open cloud。 点 json, ok, 我 们看一看是不是有一些步骤有遗漏, ok, 没有,没有问题。呃,当然啊,这个我们直播环境也是非常的呃,可能会带来一些问题,但是这个问题既是困难也是挑战,我们共同去克服它。 好了,我们现在要去配配置我们专属的大模型,这样的配置能否呃也是我们 open cloud 能否真正运行起来的关键一步。下面我将给大家按照步骤去演示我们如何去 呃,真正的把我们的 open cloud 给它运行起来。在这里我们可以看到,呃,我们的 open cloud 叫 json, 有 很多的配置项,我们主要配置的是它的模型和它的一个 呃, model 和它的 agent 的 这样一个 json。 呃,如果大家的这个服这个 模型是不如在本页的话,大家可以在这个 bash 中进行替换,然后 api k 选择使用自己的 api k, 然后这些模型大家可以随意的替换,这样我就直接把它贴到我们的 open cloud 点 json 中。 好的,下一步我们配置我们的网关服务。首先第一步的话,我们需要去创建这个 tsl 这个配置脚本, 这个配置关乎到我们如何我们后续把它从 http 升级到 http s 服务。这样的升级有一个非常大的好处,就是可以在我们的传输过程中对我们的数据进行加密,防止中间人进行攻击和数据窃听,保证我们的数据安全可靠。下一步的话,我们需要 去呃给它配置 control ui 这个关键参数,这个参数可以呃会直接影响到我们能否在服务器上,能否在外部端进行预览,去访问到我们的 open cloud。 ok, 接下来是 browser 这个浏览器插件,我们也给它配置上,因为 openclaw 在 执行 agent 的 过程中会很大程度依赖我们的浏览器。大家在配置的时候一定要注意一下这些缩进问题,因为可能很多时候会因为缩进问题导致这个我们的配置不成功。 ok, 我 现在保存一下,到此为止,我们的基本的所有的内容都已经部署完成了。下面导播老师切一画面,我配置一下我们专有专属使用的这个 open deepsea 的 一个 api k。 好 了,我这边已经完成了我的呃配置文件的一个更新。接下来的话,我们只需要重启一下网关服务,就可以把我们的新配置给它刷新上去。 ok, 我 们可以看到我们的网关已经呃重启了,我们看一下具体的一个 log, 检查一下它有没有重启。 ok, 我 们现在检查一下我们的外部端是否能够去使用。大家可以在我们的浏览器中输入您的首先用 http 进行包裹,输入您的 ip 和端口号,然后进行访问。 当我们看到您的这个链接不是专用链接时,就说明我们已经能够通过外部端进行访问了,这样我们无视它的风险,继续去访问。 ok, 我 们可以看到我们当前这个环境似乎没有真正的配好,因为它出现了一个 disconnect, 这应该是我们在配置环境变量的时候,我的麦,我的那个 token 没有按需要正确的配置。这样我导播老师,我们再切一下画面,我这边再对它进行第二次重新修正。 我们这边啊,一不小心把我们的 token 写成了 my token, 实际上是 my test。 我 这边再次重启一下我们的服务, ok, 现在服务起起来了。嗯,那么其实呢,我们在日常的配置过程中呢,或多或少都会遇到一些问题, 那这里呢,李老师也是帮我们做了一些复现,然后也是展示了一下我们应该如何在遇到问题的时候去解决这些问题,非常感谢李老师。哎,好, 那我们再继续这些步骤吧。我们确实在这个正真正的这个开发环境中,我们很容易会因为这些配置问题导致我们很多小白在部署我们的 open cloud 出现很大的问题,大家很可能就卡在这一步。当然我们刚刚经过刚刚的检查,我们再一次把我们的 open cloud 给它启动起来了,我们可以看它的这个右上角的状态已经是 chaos ok 了。那么我们接下来就需要做一个所有小白在部署完 opencloud 的 第一个要问的问题,那就是今天的天气怎么样? 我们稍作等待,因为我们刚刚已经部署已经启动了 scale 这样一个技能工具,那么它在真正使用的时候,它会优先地选择我们的 weather scale 来去查询我们济南的天气。 如果大家在一开始配置的时候没有使用 scale, 那 么它会就用我们我们这个平台中的呃网络解锁工具 brave, 或者是使用 web search 或者 browser 等工具来解锁天气,这样我们稍作等待,看一下它能不能把我们天气真正给它获取出来。 好的,我们已经看到结果了,当前的体感温度是零摄氏度,但它实际温度是五摄度,这和我们当前在这个直播间的环境中感受是一样的。

cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

opencloud 不 适合百分之九十的普通人,唯有三大理由和一个阴谋论去帮你去魅。 opencloud 简单来说就是一个可以操控你电脑的 gpt 或者 deepseek, 可以 运行你电脑上的程序。 第一个理由呢,就是经济成本,首先你需要有一台闲置的并且能二十四小时运行的电脑去部署这个 opencloud, 同时这个电脑的性能还不能够太差。最好呢还得是苹果电脑,因为有很多功能,比如说录屏啊,在 windows 系统上经常会出现问题,而且软件生态呢,也是苹果系统更好。其次呢, 就是 token 的 开销了,这个就是重中之重了,很多博主鼓吹的什么免费啊,便宜的代模型,但是呢用起来太笨了,而且使用体验非常的差。而一些好一些的模型呢,比如说 cloud 啊, open i 或者 jimmy, 你 使用一次 执行一次任务,动辄呢就是几十万的 token, 折合下来呢,几块钱就没了,而你真的需要去付费执行这些任务吗? 第二个理由呢,很多使用场景呢,它都是委曲求,比如说你让它处理你本地电脑上的文件啊, pdf, 那 我请问了,你难道没有 wps 云文档了吗? 是什么样的场景需要让你拿起自己的手机,打开 whatsapp 或者飞机,然后发送指令让它处理你本地电脑上的文件,这个文件还不是你公司电脑上的,是你本地电脑上的文件。其次呢,还有说让它帮你进行交易,这个世界面上有那么多成熟的而且久经安全考虑的量化 交易软件,你不用,你非要自己弄策略,自己去下单,你也不考虑安全上的问题,哎,就是要 diy 主播,自己呢也是有玩 solo 的, 我是绝对不可能让自己部署的 open call 去帮我执行策略去交易的,一不小心全给我爆仓了。 至于什么帮你自动运营自媒体,那就更扯淡了, ai 味道那么重的内容,你确定你发出去有人看吗?你发送一条内容所消耗的 token, 你 确定你可以变现赚回来吗? 第三个理由呢,就是技术门槛。首先,安装它就有一定的技术门槛,很多人说网上有很多保姆级教程啊,你跟着敲就行了。我想说的是,如果你能跟着教程把它完整的安装下来,你就已经不是百分之九十的普通人了。真正的普通人,他们连命令行工具 c, m、 d 他 们都不知道要怎么打开,更别提什么 下载 note js 啊, get, 只有图形化的安装界面才是真正适合普通人的软件。其次呢,配置大模型,配置配置 whatsapp 维书,推特,那就更麻烦了,更别提你还要考虑安全权限的问题。你最好呢还是要有一个隔离的环境,不然他把你的一些重要资料或者文件给删除了,而且他还可以直接去操控你的浏览器,而大部分人呢,浏览器都绑定了十分重要的账号。 最后呢,我想谈一下我的阴谋论,直说了,我觉得就是有一些国内的大模型厂商在炒作这个热度,大家仔细看一下教程里配置大模型,也就是你需要花钱的这一步。上面呢,有几个国内的厂商恰好呢上个月刚在港股上市, 而且呢,有很多点击量十分高的安装教程,都无一例外的推荐你使用这几个收费的大模型厂商,而且呢要使用他们的邀请码 视频呢?最后呢,我想强调一下我的观点,我问我认为 open call 这种本地 agent 的 形式十分的有前景,而且它很有想象力的空间,但是限阶段它还不适合百分之九十的普通人,大家不要这么焦虑,好像觉得自己已经落伍了。

哈喽,下班了,今天我们来聊聊 openclaw, 我 觉得有必要啊,因为太热了这个话题,我想给它降降温, 为什么呢?因为这是一个在 getop 上引起广泛关注的一个项目,而且目前各家云厂商都上线了相关的云服务器,支持大家去部署这个产品。那么这个产品怎么定位哈?它其实是一个 个人助手,或者叫一个通用型的 ai agent, 它可以接入,比如说一些计时通讯工具,你可以通过这种计时通讯工具给它发消息,然后它呢帮你调度一个云端的电脑,或者是你本地的电脑,它可以完成一系列的任务。 那么我一开始看到这个产品的感觉,就觉得它跟 coldbody 这种产品非常非常的像,为什么呢?因为它们都是通用 agent, 就是它可以通过调用电脑里的各种工具, ai coding 的 工具,或者是电脑里的一些网页浏览的工具,通过 m、 c, p 等等,它可以去完成很多的任务。 当然因为授权范围的不同,它肯定是比 cloud code 或者 code body 编程类的工具,它能做的事情更多,而且它的主动性更强。 举个例子哈,你可以在你的一些即时通讯工具上直接说,你帮我发一个什么样的文档给谁谁谁,他可以直接执行。那你帮我把这次会议机要转成一个非常清晰的文件,帮他变成一个网站,他也可以非常快速的完成。 甚至是你可以跟他说,你调用这个电脑的录屏功能,帮我做一个什么样的 ppt, 它也可以完成。所以就是当你给 ai 配了一个电脑的时候,而且这个电脑它拥有所有的权限,它跟你的权限是一样的,跟人的权限是一样的时候,那它可以解锁很多的能力。 当然这里面有两个核心的概念,或者说核心的机制,让它跟 ai coding 的 产品有本质区别。第一个叫 gateway, 就是 相当于一个调度中台,它可以在这个调度中台上 接收信息,接收完以后分配任务给到不同的电脑中的工具,然后哎完成最后交付。那它是一个调度中台,那这个调度中台就可以实现一个 实时在线,就是二十四小时一直在线,它可以保持着这种这么一种激活的状态。那这也是为什么你说它可以持续不断的收到你的消息,就是因为它是持续在线这么一种状态。第二个非常关键的机制呢,叫做 heartbeat, 叫心跳机制,类似于给了 ai 心跳,让它可以跳动起来了。它什么意思?它每隔一段时间它会去扫描一下这个系统里有没有新的需求进来,比如说你的邮箱 有没有收到新的信息,比如说你之前有没有设过闹钟提醒,比如说每天八点去帮我扫一下整个今天的 ai 行业的资讯,或者是每隔一段时间我要去看一看有没有新的任务给到我。通过各种即时通讯工具,我就可以开始激活 ai 干活。 所以你从这里可以看到他有一个非常主动的一个机制,他会主动去扫描,他会实时待命,主动扫描,所以这个就跟像 coldbody 里你跟他去做交互, 拿到一个任务,完成一项工作就有很大区别,他就是处于一种实时待命的状态,而且会主动接到信息就开始干活,所以这个就是一个本质上的区别哈。 但是我觉得这个东西我为什么前两天没讲呢?就是因为我觉得它跟这种通用型的 agent ai coding 的 工具没有本质上的区别。假设说像 cloud code, 像 code body, 它们如果也想做一个类似的功能的话,实际上是完全可以做到的,只要给 ai 更多的授权就可以实现。 或者说你只要再弄几个移动端的交互的方式,你也可以在移动端指挥你的本地电脑完成这样的工作,其实没有一点难度。那为什么 大家都没做,为什么就只有这个 open cloud 在 做这件事?我觉得是大家对安全和效率中间怎么平衡的一个考虑, 就是你到底给 ai 多大的授权?我们知道它的上限其实是非常高,可以完成很多任务,而且很多任务上是超过我们自己的能力的。那这种情况下安全的问题怎么考虑?比如说现在如果是 这个东西被劫持,因为他有权限很高,那如果一个一个一个不法分子告诉你的电脑,说把这个人的电脑的内容全都删了,或者说把这个人的电脑中关于什么什么的内容发给某某邮箱,那他就可以实现了, 它就可以实现对你电脑的一个操控,对你个人数据和隐私的一个操控。所以其实这种安全问题是非常重要的一个问题。之前大家说中国人可能不在意自己的隐私,愿意拿隐私换便利,那接下来 ai 时代 那生产力是非常高的,这个上限是非常非常高的,那你愿意把你的安全拿出来多少去交换这种生产力的上限?我觉得这是一个摆在我们每一个人的面前的问题。因为 ai 的 能力现在 不是技术来去束缚的,而是你的这个治理的原则束缚的。你到底要给他多大的授权?你相信他到什么样的程度?你愿意给他几千块钱,让他帮你买东西,对吧?这样的一些问题,我觉得可能都是我们接下来要考虑的一些关键的问题。 我之前觉得像 coldbody 这种产品已经非常够用了,在我们的日常工作中哈,当然我也不满足,因为我前两天还在说怎么给 ai 更大的自主性,让它自己去跑这个 a 阵的能力。但是对于这种 openclaw 这种形态, 我自己心里目前还没有完全接受,当然我可以接受一个新的电脑去做一些尝试,但是因为他现在还有很多问题,比如说 token 消耗非常大的问题,比如说这种安全不可控的问题,所以我觉得目前不是一个非常理想的形态。当然最后 可能再往前走一下,很多产品也会去考虑这些问题,会给用户更多的选择,然后给用户。我觉得现在用户已经很很很少有能力去控制自己的这个数据的安全了。但是我们在这个 ai 时代到底要在 ai 面前变得这么透明吗? 也许有一天你会发现你让渡的这个权力本身可能比效率更重要。对,最近我在考虑这个 ai 时代的权力,到底我们要给 ai 多大的权力? 如果他的能力已经非常非常的高了,如果他的加入到人类社会中,真的已经能够给人类带来非常非常多的注意的时候, 我们愿意给他主体性,我们愿意给他授权吗?我们愿意给他权力吗?我觉得这些都是一些要考虑的问题,跟大家分享这么多哈,我觉得这也是一些非常非常前沿的命题,有机会再跟大家探讨,拜拜。

openclaw windows 系统详细安装部署教程来了! openclaw, 一个能让 ai 大 模型像人一样操作你电脑的智能助手,今天就带你花两分钟在 windows 系统本地部署小龙虾。操作步骤很简单, 首先前往官网安装 node js, 这里我们直接下载稳定版本即可。下载完成后,打开文件夹,点击进行安装,安装的选项全部默认。 安装完成后,使用管理员模式运行终端,使用指令查询 node 点 js 的 版本号。 接下来开始安装相关指令,可前往评论区领取,可以看到安装已完成。接下来进行具体配置,输入指令后,这里默认为不同意,我们改成同意 yes, 这里选快速安装 quickstart。 由于我之前配置过一遍,所以这里选择更新 模型。以 glm 为例, apikey 可以 前往官网获取接入的聊天软件,我们先跳过安装 skills, 选 yes, 选择 npm 安装软件包预设 skills 我 们也跳过,这里是第三方应用的 apikey, 相关设置都选 no, 给出的三个 hooks 最好都勾选上。由于之前配置过官网服务,这里我选择重装 reinstall, 等待它安装完成。 抽象 bot, 选择 open the web ui 配置完成后,我们就进入 open cloud 界面进行简单的尝试。比如我们让它在 c 盘创建一个文件模型,回复我们文件已创建,那我们进入 c 盘检验下, 可以看到确实已经创建,说明我们本次的安装部署成功了。关注我,解锁更多开源软件操作小技巧!

你能在浏览器里做的工作, openclaw 都能帮你做,而且二十四小时不停地做,调研、情报、学习、写作、投资信息等等等等。今天我们循序渐进的介绍四种方案,从内置的工具开始,到依赖 api, 不 依赖浏览器的 skills, 再到隔离用户档案的浏览器自动化,最后到完全接管你当前浏览器状态的方法,每一个我们都说明白它的原理,优点、缺点,如何设置,以及最重要的适用场景。好的,废话不多说,我们开始如果你还没有设置 open club, 不知道选什么机器好。哎,看完这个视频之后啊,去看我的上映视频,真的非常的简单。 首先我们看 opencloud 以及内置的 web fetch 节点,它的原理啊,就是一个网页抓取和正文提取的工具链,它用 http 请求去抓网页的内容,这是服务端的抓取啊,不依赖于你本地正在用的浏览器, 也不会附用你任何浏览器的档案啊,资料啊, cookie 啊,拓展等等等等。它就是把 html 作为正文提取, 玻璃调导航栏,页角,广告、侧边栏等等的噪音。那么输出的是干净的 markdown, 它适合什么呢?它适合所有公开可访问内容,主要在 html 里面的网页,比方说文章,博克,公告这些, 它做不了什么呢?哎,它不是浏览器,它没法执行 java script, 也就是说所有需要登录、交互、翻页、滚动点击这些它都做不了。 它的优点啊,非常的明显啊,它速度快,成本低,因为它不需要启动浏览器,不需要渲染。它呢,适合二十四小时长期的扫描输出,更干净也更安全,因为它完全不碰你的个人浏览器,它不接管你的账户的登录态。 那么缺点也非常的明显,他看不到需要登录,需要 cookie 的 内容。那么比方说所有的社交网络,他呢,不能执行 java script, 所以 需要互动的内容他都做不了。然后呢,他呢,非常容易受反派机制和地域的限制,那么他的价值和使用场景来自于两个方面,不论是你做生意有竞争者,还是有对标者, 还是你想要学习或者某一个网站,那么你都可以第一时间,哎,关注到这个网站,爬取这个网站最新的定价的消息,它是不是有发布新的 i c u 的 文章,那么它啊,有没有调整它的政策,这些你都可以第一时间知道。第二就是,哎,有些公开的信息啊,比方说你关注 ai 领域,那么 open ai, spatial, jin 奈他们的官方的 啊,文档,他们官方的网站的最新信息呢,都可以被你抓取到,你可以第一时间知道这些信息。除此之外呢,比方说一些公开的网站啊, archibald, 如果你读文章的话,还就是维基百科, hack news, 这些网站都可以公开地爬取。 它的缺点也是非常非常明显啊,任何的社交媒体上的高价值信息,尤其是需要你登录进去的有关于你的信息,它都抓取不了,不能够定制化。那么如何设置呢?哎,完全不需要设置,你安装了 opencloud 之后,那 web fetch 工具就已经安装在内了,那么任何需要网络抓取的任务,没有其他方法的话,它都会默认走 web fetch 可以看到这里啊,我让他啊,用 wifi 去抓任何关于 opencloud 的 啊具有趋势的信息。那么由于呢,我这里已经安装了其他的方法,所以如果我只布置明道性的用 wifi 的 话,他就会去用我浏览器的方法了,那这个我们后面马上会讲到,你可以看到这里,他就会去 hack news 上抓取 相关的 open cloud 相关的信息给我了。那么用内置工具最大的缺点就是任何社交网络它都做不了,那么由此我们衍生出第二种方法,也是不依赖浏览器的 skills。 那 么第二种方法,我们用的这个 skill 叫做 last thirty days, 本身上我们就可以规定一段时间内啊,最低抓昨天的,要么就是三十天以内,最多我们去抓取社交媒体上 x reddit, youtube 上最新的爆点,痛点,舆论趣事等等等等,它只是用来做抓取的这样一个工具,那么它的原理也非常的简单,就是广撒网,然后再聚焦 reddit 上的信息来自于 open i 的 网络搜索功能, x 社的信息来自于 x a i 的 网络搜索功能与 top 的 信息,来自于 y t d r p 这个开源库。 首先啊,先搜索信息,然后对于这些高频的关键词呢,它就会再聚焦 subraded 或者是一个账号,再进行二次的补搜。最后啊,根据出现的频率和动信号来做加权的总结。 那优点,首先第一个就是它三个主要的社交媒体平台都顾及到了,都抓取了,所以它后面呢,还可以对它们这些信息的来源进行交叉验证。 第二个优点就是它毕竟不需要浏览器嘛,所以它是个轻量级的方案,它第一个缺点就是它需要 api, 就 它不是免费的方案。第二个缺点呢,就是它只能做 情报的获取,舆论的监控,爆点痛点的挖掘,对吧?它做不了任何浏览器,需要我们浏览器的操作,比方说鼠标点击啊啊,比方说帮我们发表文章等等,它都做不了,那么这个是我们后来两种方法,依靠浏览器的两种方法,我们马上会讲到 这里,我提一句啊,就是这种依赖 a p i 的 方法,你完全没有必要用这个开源库,它做的不错,但是呢,你可以完全定义自己的算法,比方说 啊,三不同的来源,你认为 x 最重要,那你就对 x 进行更多的加权。这些算法的制定,你就完全可以通过自然语言跟你自己的 open cloud 机器人兑换的方式来进行设定你自己的算法。 那么关于安装呢,有两种方法,第一种方法就是通过 cloudhub, cloudhub 可以 看成是 opencloud 的 市场,里面有各种各样不同的 skills, 你 可以一行命令直接安装这个 skill, 它的优点就是快速简单,对吧?受到官方的支持。缺点就是,哎,它呢,里面的版本不一定是这个 skill 最新的版本,比方说在这里啊啊,我们在我安装的时候呢,它 cloudhub 里面的版本是 v 一 点零这个 skill, 但是呢,实际上 github 上我看到它这个最新的版本是 v 二点一啊,所以就隐身出来。我们的 第二种方法就是如果你想看安装这个 skill 最新的版本,但是 clubhouse 不是 最新的,你可以通过 get 来安装,这个就要稍微复杂,稍微麻烦一些了,那么具体怎么安装,一步一步的,我遇到的问题我都放在免费的社区里了,大家可以去社区里面免费去拿。还有一点就是安装的时候一定要多跟你的 open club 问他问题, 因为每个人的环境有所不同,娱乐的问题也会有些不一样,最好是问你的 open club, 而不是网页版的 gpt 或者是 gmail, 因为问他,他很可能在回答的过程中直接跟你把你问题解决了,而不是你还需要去问网页端的, 然后玩一段 g p d 给你回答,你再粘贴到这里,告诉你怎么操作。那由于取决于 api k 啊,所以我们还是要在安装完之后,去到点 config last thirty days, 点 e m v 文件下面填入我们的 open i s a 的 api k, 那 么因为它是个付费的这样一个功能,如果我不说多少钱,就显得过说不过去了,对吧?那么每一次深度搜索呢, 大概是零点二美元,也就是 x a i o p i 的 费用加起来大概包括 reddit 二十多个县城 x 啊,三十到六十个帖子, youtube 大 概四十个视频左右,每次搜索都会有点不一样,但是大概的费用是零点二美元左右。 这里有一个小 tips, 就是 一定不要用它来搜广泛的词,比方说 ai 这种词,用它搜尽量细致的关键词,比方说 openclaw 或者 openclaw setup 这种关键词才会有比较好的效果。比方这里啊,我让它用这个 skills 哎去给我找出。这两天之内,大家都在讨论关于 openclaw 的 比较火的帖子以及痛点,比方说比较火的帖子,大家都在讨论安全问题啊,可能性啊,还有就是它记忆的管理,以及多个智能体的使用案例。 那么关于痛点呢,大家都在说,就是更新之后啊,会有一些风险,还有就是可信的问题,安全性的问题等等等等啊,同时啊,他也可以看到他可以分析不同平台,他发现 x 上 啊是非常强的,大家在上面抱怨痛点, reddit 上呢,就会有更多的技术讨论,而与 twitter 呢啊,就是各种混在一起。 那么到现在为止,我们见识到两种方法都是无浏览器的方法,他们呢,可以抓取我们想要的信息,不管是社交媒体还不是社交媒体, 但是它还不能完全替代我们人类能在浏览器里做的所有工作,那么接下来我们就要正式建设两种新的方法,这种方法都依赖于浏览器 完全模拟人的操作,你能做什么,他们就能帮你做什么。好的我们来看第三种方式是由 open club 管理的浏览器,真正实现二十四小时期的浏览器自动化操作,它的原理啊,其实就是 open club 在 我们网关上启动一个谷歌浏览器的实力。 然后呢,你这是独立的用户档案,而不是附用你现有的浏览器的用户档案,所以呢,它有独立的拓展,独立的 cookie, 独立的缓存,都在这里面,你呢,可以手动的登录一次你的社交网站之后就可以一直长期服用了。 它的优点就是,哎,它实现二十四小时长期非常的稳定,只要你的网关是开着的,那么它就可以直接跑,不依赖于你的日常使用浏览器是不是开着? 第二个优点就是它安全,边界更清晰,因为它隔离了你的用户档案,它不会污染你平常你用来工作,你自己手动使用的日常浏览器的生态。 第三个就是它可控性强,你可以选择有头模式,如果你想要看到图形操作的界面的话,你可以选择有头模式,或者你可以选择无头模式,它自己在后面跑,对吧?它的缺点,首先就是,哎附用生态弱,因为它是新的一个用户档案,那么它不带你日常用户档案里那些插件啊,你的证书,那些密码管理器等。 第二个就是设备的一些风控问题啊,一些站点呢?对你这个新设备,你的新的这样一个用户档案可能会更加敏感,可能会容易触发额外的验证, 那么它的使用场景是什么呢?哎,你用浏览器做的东西都可以让它自动化来帮你做,只要你设置完之后,哎用自然语言的方式告诉他,你想要什么时候触发任务,去做什么样的任务就可以了。那么如何设置呢?其实也非常简单,分为三步,第一步就把下面的 open cloud 点 json 文件里面,然后填入 这个关于浏览器的内容参数,直接照抄这里的就可以,然后控制有头和无头的是这个这个 handleless 参数一开始推荐大家是填 form, 所以 说有头的,因为我们还是需要手动地登录,之后你可以登录之后可以把它调成无头的。 那么第二步就是,哎,我们去重启我们的网杆网关,然后呢,我们需要手动地弹出来,用这个命令手动地弹出来我们的谷歌浏览器。然后呢第三步,我们在弹出来的网页里面手动地进行登录,把我们的社交网站,所有的 x, youtube ready, 其他的网站都登录一下。 登录之后,哎,我们就可以回来用自然语言的方式给我们的 open call 命令,让它去帮我们做任何浏览器的操作了。 比如说这里啊,我首先给他一个任务,就是每天的九点,他要去帮我生成一个报告,关于 open cloud 所有的报点和所有的新闻。 那么可以看到他返回给我们说他任务完成了,每天就早上的九点,哎,都会有这样一个定时的任务进行执行。 然后后面我要让他现在就给我输出一个报告,我们现在先测试一下效果。我们首先看他给我们的热门话题啊,跟啊前面的那个 skills 也差不多。首先就是安全性的问题,大家都在讨论,另外就是可靠性的问题,还有就是哎记忆的问题,包括是各个多个智能体之间的协助的问题。 那么关于痛点他发觉就不一样了,他发现了就是在社交媒体上自动化,比方说 x 平台 l 存在一些限制,大家都在讨论这个问问题。然后就是一些啊维修的问题啊,比较复杂,包括安全性。 然后他每一个社交媒体啊都会有一个总结,告诉他在这个社交媒体上发现的关于 opencloak 相关的话题,大家在这里都在讨论什么?值得注意的一点就是这种方法能做的事情远不止于去社交媒体搜集信息, 这里我们用这个手机信息作为例子,是为了更好的对比四种不同的方法,但是呢,任何你在浏览器上做的工作,你都可以尝试让 opencloud 浏览器自动化来帮你做,只要你设定好边界和规则。 那么第四种方法就是我们也干脆不用一个单独的浏览器里面的用户档案了,我们直接复印我们现有的浏览器,现有我们的登录,用我们现有工作环境的一切。 这里啊,我们就需要安装一个谷歌浏览器插件,那么这个插件的名字叫做 open cloud relay, relay 就是 中继嘛,本质上就是我们安装的这个拓展和我们本地网关之间的交流,不是直接的啊,是通过 本地的中继作为桥梁来完成数据的传输的原理,不需要懂太多,哎,重要的是它的优点和缺点,对吧?那么它的优点最大的优点就是百分之百附用我们当前的啊,谷歌浏览器的档案,我们的 cookie, 我们安装过的任何的拓展,我们有的证书等等等等,哎,都可以百分之百的服用,相当于带你去操作你日常的工作了啊,而且呢,哎,你有什么问题你能直接看出来对吧?就在你的眼前,在你眼底的地下刨做你平常有那些网页, 他的最大的缺点啊,首先就是不得不提的就是危险性,为什么用它完全使用你当前的网页,网站等等等等的。 第二个点就是他需要一些手动的操作,后面我们会马上设置,你就会看到实际上每次我们还就要手动安装了这个拓展之后,还需要打开网页,然后手动的激活这个拓展才能够生效。 第三点就是他只能在你已经打开的网页上面操作,你没打开网页,他操作不了,他能做什么呢?他直接可以当你的分身,他不仅是自动化,可以自动化工作,而且呢,你附用你当前的一切,直接帮你完成工作。 同时呢,哎,你你的登录,你之前的使用习惯,你已经在网站积累了一些信任,那么他呢,可以直接在你这个基础上直接帮你工作,他不能做什么呢?或者他不适合做什么呢?本质上他不是很适合二十四小时长期帮你工作,因为你看 他首先只能在你打开的网页上工作,不能去别的网页,对吧?其次你还要手动点亮啊这个浏览器,激活这个浏览器这个拓展,否则他就不能工作,所以这是比较麻烦的一些点。那么我们如何安装他呢? 首先我们来到 openclock 官方文档,大家谷歌搜索 openclock from extension, 就 会来到这个网页,往下拉有一个安装的一步一步的步骤,我们,哎,首先复制第一个命令,来到终端粘贴这个命令,然后执行, 它会安装,然后给我们一个地址,我们复制这个地址,哎,只要记住这个地址,然后我们浏览器右上角点击拓展,然后管理拓展,打开开发者模式,然后上传未打包的文件, 然后呢,那个地址吗?还记得吗?哎,大家选择那个地址,打开文件夹之后,他会问你一个 token 对 吧?怎么获得呢?我们需要用到这个指令, 这个指令比较长,大家可以暂停截图一下啊,然后让 ai 识别出其中的文字,这个指令执行之后,我们会得到一个 token, 我 们复制这个 token, 然后粘贴到这里, 然后可以看到,哎,我们成功了。那么这时候我们打开任意一个网页,比方这里我们以 read it 为例子吧,因为它需要登录,也有比较高的价值。 我们这时候点开我们拓展按钮,把它给拼上,然后点击这个拓展,就会看到它有个 on, 说明生效了。这时候我们打开的任何网页,只要我们点亮了 on, 那 么我们就可以让我们的 open cloud 在 这些网页中执行任何 需要我们想要他做的操作了。好,那这里之后我们马上来试一下,我去另外一台机器的 diagram 里面,我让他去 read it 里面仔细寻找关于 opencloud 的 热点和痛点。 你们可以看到我在另外一台机器上,他自己对这个浏览器操作,他去了这个 opencloud 的 字板块找热点,然后他寻找 opencloud 一 术来找痛点, 最后他总结出答案来回答了我。那么这次搜索啊,明显更加细节针对 reddit 这一个平台,当然这只是一个平台啦,大家也可以用在其他的平台,比方说 i x, youtube 等等一切社交媒体或者其他的网站上,只要你打开网页点亮都可以操作。 好的,我们总结一下,尽管我们今天用了信息收集、爆点挖掘、通点挖掘这样一个例子来啊验证这四种不同的方法,但是本质上第三种,第四种用浏览器的方法,你都可以让他做。你任何在浏览器需要上网做的工作不仅限于通点挖掘, 那么大家可以想想自己在日常生活中什么工作,在浏览器的工作是可以让 ai 帮你做的,来提高效率,来增大你的产出。有什么问题大家可以在评论区里告诉我,不要忘记点赞和关注,我们下期再见。

open club 中文版 windows 电脑本地部署教程,让 ai 不 只是你的聊天工具,代理接管你的电脑,直接帮你完成任务, 部署贼简单,只需要三步,安装环境,安装 open club 运行网关,不需要担心网络问题,国内网络直接使用。首先打开 open club 中文社区,地址是 club, 点 o r g, 点 c n, 然后点击右上角 github 往下滑找到快速开始。首先就是安装环境, node 版本需要大于二十二,我们可以打开 deepsafe 搜索一下 node 安装方法。 windows 电脑安装 node, 然后打开 node 官网,选择下载,下载 windows 六十四版本的,点 msi 文件, 下载到本地以后双击安装包,不需要改配置,一直点下一步直接安装就行。 node 安装完成以后,我们可以打开 cmd 命令行,验证一下 node 是 否安装成功,在 cmd 中输入 node 杠 v, 如果正确返回版本号,那说明安装成功了。安装 node 的 同时会自动安装 npm, 所以 我们可以直接使用 npm 的 方式来安装 open club node 环境安装完成以后, 回到快速开始复制安装命令,选择开始输入 cmd, 打开命令提示符,按右键粘贴刚才的命令回车,自动安装 openclove 安装完成,我们复制第二行配置命令,同样在命令行中按右键粘贴回车。然后跟着老万配置一下 openclove, 大 部分选项默认就行,安全协议按左选择 yes 安装引导模式选择快速开始配置处理,默认就行。老万之前已经选择了默认配置,所以我这里可以直接使用现有的值。模型的话我们选择云端的 deepsea, 当然我们也可以使用本地模型,但是对电脑性能要求高,而且模型越大越智能, 同时也需要更多的计算时间,想要速度也更慢,建议至少是十二 g 显存以上,四零六零以上的显卡可以考虑部署本地模型。 本地模型好处就是免费,但是响应速度相对较慢,老外是四零九零显卡,问一些比较简单的问题,几十个字大概都需要一分钟左右。所以还是推荐大家直接使用云端 deepsea 大 模型,使用现成的,虽然收费,但是速度很快,使用体验很好。 这里需要输入 deepsafe 的 api key, 打开 deepsafe。 如何获取 deepsafe 的 api key? 我 们直接问 deepsafe, 它让我们访问 deepsafe 的 开发者平台。我们需要先注册登录一下,然后认证充值,然后选择 api k, 创建一个 api k, 随便起一个名字 test 创建,然后复制 api k, 打开命令行,输入 api k, 按右键粘贴,然后回车 模型选择默认的就行。我们还可以在这里对接聊天工具,比如飞书。对接飞书以后,我们可以直接通过手机或者电脑端的飞书直接访问 open cloud, 帮我们完成电脑任务。我们也可以直接在浏览器中访问本地的 open cloud。 这里先暂时跳过配置技能,默认选择 yes, 既能安装节点,选择 n p m 钩子也先不配,暂时跳过,先按空格,再按回车配置完成。我们现在打不开这个 open cloud 的 访问界面,需要手动启动一下网关,回到快速开始 复制启动网关命令,打开命令行,按右键粘贴回车启动网关。 openclove 安装完成,启动成功,健康状态正常,我们可以发消息测试一下。你好,你是什么模型?我是 deepsea 模型对接成功。 那我们为什么不直接使用 deepsea, 而是要对接 openclove 呢? deepsea 网站相当于通过聊天框,通过对话的方式去使用 deepsea 大 模型,它相当于我们的军师。但是 openclove 相当于我们的代理机器人儿, 他可以直接帮我们操作电脑,只要我们给他更多的权限,他就可以做更多的事情。比如帮我查看一下我电脑的配置,他现在就通过脚本或者命令直接运行在我们的电脑上,帮我们去做一些任务了。 open cloud 直接就把我电脑的配置信息全部都读出来了,完全没问题。所以只要我们给他足够的权限,他未来甚至可以帮我们清理 c 盘,重做系统,完成各种定时任务。 open cloud 真正能做事儿的 ai 本地部署完成。

二六年部署好 opcode, 再和飞书打通,工作效率呢,至少能提高五倍以上。如果你看到别人很多工作都是用 ai 工具完成的,而你却不会搭建跟着做完这条喂饭级的视频啊。 ai 工具呢,也能帮你做很多工作,并且这是一件一劳永逸的事。 未来呢,我会不定期的分享各种工作场景下使用到的 skills 以及技巧,不管之前是否有 ai 工具使用的经验,只要工作中我们能用到电脑,跟着我这条视频走一遍。部署 opcode 打通飞书其实非常简单。 oppo 可乐刚出来的时候啊,部署还是有点复杂的,但 oppo 可乐从出来到现在几乎是天天更新,现在部署和配置比刚出来的时候要简单很多,几乎变成傻瓜式的了。哦,我下面的教程呢,默认朋友们是安装了 note g s, 如果没有安装呢?其实也没有关系,我, 我们只需要把问题复制给 deepsea, 让他告诉我们怎么安装,那跟着他给的步骤,我们一步一步安装好就行了。第一步呢,我们需要先到飞书开放平台创建机器人。这里朋友们不用担心啊,他虽然写的是创建企业自建应用,但个人账号呢,完全不受影响。我们点击这个按钮啊, 根据自己的喜好填一下名称和描述。然后呢,选个图标,点击创建,创建成功后会自动到这个页面这里呢,我们点击添加机器人, 给他加入机器人技能。然后我们点击左侧导航栏中的权限管理,点击开通权限,那必须要添加消息接收权限。告诉朋友们一个最简单的方法,我们搜索 i m 消息群组分类啊,会显示五十五个权限,那我们全选就够了。当然,如果想让他能读取我们飞书多位表格以及 文档资料,那也可以给他更多的权限。那朋友根据自己的需求呢,选择性添加就可以。然后呢,点确认开通,然后我们在左侧导航栏点击版本管理与发布按钮, 点好版本号和更新说明。这个啊,我建议朋友们养成一个好的习惯,管理好版本号和更新的说明,然后点击保存确认发布。我们再点击凭证与基础信息啊。 呃,复制 app id 和 app secret 备用。很快我们的飞书就会收到应用审批通过发布成功的提醒消息啊,到了这里呢,我们的飞书机器人就创建成功了,但建议朋友们保留这个页面啊,后面我们回掉和添加订阅,还是要来到这个页面。那第二步呢,我们 打开中断运行这条命令,安装 opclock。 这里呢,需要一点点时间,我们等它完成看。完成了,我们用这条命令查一下 opclock 的 版本。这个呢,就是最新版,因为之前我安装过嘛,这一次呢,是卸载后重新安装,所以我需要跑一次诊断。那朋友们如果是第一次安装,可以不用跑诊断,然后我们再运行这条命令, 启动设置助手。这是一个安全提醒啊,我们直接点 yes 模式呢,我们选择 quickstart, 这个是他发现我有一个遗留的配置,我 直接 update, 朋友们首次安装它不会有这一项。这里呢是配置模型,它基本内置了我们常用的模型配置入口啊,列表中有的呢,我们只需要填入 ipr k 就 可以了,我是用 deepsafe, 它列表中没有,所以呢,我选择自定义 base url, 用 deepsafe 的 base url 替换。然后呢,填入我们的 ipr 的 兼容模式 model id 啊,复制官方提供的就好。模型别名呢,可以根据自己的习惯随便填一个就可以。 接下来呢是配置计时通讯工具啊,我们选择飞书这里,插件呢,它会提示安装失败。其实 oppo cloud 前面几个版本这个问题一直存在,这一步我们需要先跳过,后面呢,我会教朋友们如何修复这个问题。 技能我们可以按空格键选择或者取消选择,我们可以全选哦,等它安装完成,如果有报错不用管它。接下来的谷歌地图啊以及其他的模型,我们暂时全部选择 no 就 好了。后面有需要呢,我们可以再单独添加 hux 这里啊,也可以全选。那到了这里, open cloud 我 们就装好了,然后我们 restart。 运行方式呢,我们选择 web ui。 这个时候啊,我们打开浏览器访问幺八七八九端口,不出意外的话会出现这个页面,那上面的 hells 不出意外的话呢,也会是绿色的, ok 的, 看模型 skills 都没有问题啊。现在呢,我们可以测试一下,看它通了没有。它报错了,原因呢是模型中上下文 长度被默认设置为四零九六,但 opcode 要求最小值为一万六。这里我们需要改一下啊,我们点击左侧导航栏的 config 下翻找到这两行,那数字呢,改到大于一万六就可以,改好后保存。现在我们重新测试一下,看 现在我们修复飞书插件的安装问题啊,我们先运行这两条命令,确认一下我们电脑上 note 和 npm 的 版本号,二十二点二二和十点九点四呢,是我推荐的版本。然后我们运行这条命令,列出插件啊, 很明显看飞书是错误状态。我们再运行这条命令,进入插件下载的对应目录,找到 package 的 检测文件,运行这条命令 会看到他的内容,这里朋友们看不懂,没关系,只需要把这段长命令一次性复制到终端执行即可。然后呢,就会修复飞出插件的问题。最后啊,我们再执行这条命令,等它完成。 现在我们再执行列出插件命令,确认一次看飞出插件。好了啊,我们再顺序执行这两条命令,重启 oppo, 现在呢,运行这条命令,打开 chinese 配置面板,我们要把之前我们复制备用的 app id 和 app secret 配置到 app cloud 这里呢,我们选择 yes, 然后选择飞书粘贴 app id 回车,再粘贴 app secret, 回车 完成后呢,选择 china 群消息啊,这个建议朋友们选择第一个被允许的群内可用就可以。下面这两个可以先 no chinese 呢,这里就设计完成了,我们现在进到浏览器看 飞书进来了,现在呢,我们要运行这条命令,起用飞书的网关。最后一步啊,我们要做订阅方式和回调的设置,回到飞书开放平台的页面,点击订阅方式,使用默认的这个使用长链接接受世界就可以了,然后保存。然后呢,点击添加世界,添加消息已读和接收消息。 修改后呢,我们要重新发布一个版本,修改才能生效,和前面是一样的,我们填好信息保存发布就可以了。这个时候呢,我们需要打开配置好的机器人,随便发一条消息,机器人会返回一条消息啊,那我们复制这段在刚才的终端中执行, 当出现下面个 pro 哒哒哒正好就配对成功了。现在呢所有的工作就完成了,我们测试一次看好了,下面呢是我两个简单的事例,朋友们呢可以直接往下看。

opencloud 不是 神器,是坑。这话我敢说,因为我已经踩了一个月了,全网都在吹这个 ai agent 有 多牛。本地优先,数据安全,数字员工听着是不是很心动?但没人告诉你部署它需要懂 dack, 环境变量、端口映设,小白根本装不上, 更没人告诉你一次操作可能烧掉几十美元,稳定性差到让你怀疑人生。今天我就把这一个月的真实体验原原本本告诉你,不吹不黑,只讲真话,别被营销洗脑了。先说结论,理想很假,维斯现实很人工智障。 这个视频有点长,但全是干货,建议先收藏再看。咱们开始吧,保证你看完不后悔,绝对物超所值。 说实话,我一开始也是被营销洗脑的那批人。 github 上十九万星,奥地利开发者 peter stanberger 打造,口号是,真正能做事的 ai, 这谁顶得住啊?本地优先,数据全在自己手里,不用上传云端,隐私安全有保障,再也不用担心数据泄露了。 数字员工能接管你电脑权限,真正替你执行任务,解放双手,提高效率,想想就激动。 skills 技能系统社区贡献了一千七百多个技能包,想要什么功能装什么,无限扩展,只有你想不到,没有他做不到。 听起来是不是很完美?简直就是未来以来科技改变生活,迫不及待想试试,但实际部署的时候我才发现被坑惨了,坑到怀疑人生。官方说一键安装,执行一行命令就行,简单到不能再简单,小白也能搞定。 结果呢?高克镜像拉不下来,环境变量、配置报错,端口冲突解决不了,各种问题层出不穷,我折腾了整整两天才跑起来,期间各种报错,各种排查,查文档,搜 h 五问社区,差点就放弃了,好几次想砸电脑, 硬件门槛更是吓人,网上说本地运行不花钱,省钱又安全。听起来很美好,但你得有 mac studio、 m r ultra 这种级别的设备,六十四 g 内存起步,硬件投入近四千美元,这叫省钱? 我用的 m r pro, 三十二 g 内存,跑起来卡的要死,经常内存一出,动不动就崩溃,体验极差。第一次成功运行的时候,我确实兴奋了一把,感觉自己终于搞定了。 看着他在中端里输出锐志,感觉自己真的拥有了一个贾维斯,未来感十足。但这份兴奋很快就变成了崩溃,因为后面还有更大的坑等着我,而且是那种深不见底的大坑,一个接一个,根本停不下来。 公平的说, open call 确实有他的过人之处,不然也不会火成这样,肯定有他的道理。最让我惊艳的是 styles 技能系统,这个设计真的很聪明,是整个系统的核心亮点。 每个技能都是一个独立模块,想要什么功能就装什么,就像给手机装 app 一 样简单,需要什么装什么,不需要就卸载,灵活度很高。 比如 atxp, 可以 调用各种 ati 网页搜索 ai, 图像生成音乐、创作视频生成一个命令,搞定效率极高。比如 agent browser, 可以 自动操作浏览器,抓取网页、填写表单,收集数据,完全自动化,不用人工干预,省时省力。 比如 self improving agent, 可以 让 ai 自我改进,不断学习新技能,越用越聪明,越用越强大,这才是真正的智能社区,已经贡献了一千七百多个技能,覆盖办公技术、生活各种场景,只有你想不到,没有它做不到。生态非常丰富, 更厉害的是它的自主规划能力,这才是 ai agent 的 核心竞争力,也是区别于普通 ai 的 关键。 有一次,我发语音指令,让他帮我整理邮件,他发现听不了语音,居然自己安装了 whisper 转写工具,然后再处理我的请求。整个过程我没干预,他自己搞定了。这就是真正的智能,这才是 ai 该有的样子, 这就是 ai agent 和聊天机器人的区别,他不只是回答问题,而是真正解决问题。从说到做,质的飞跃, 本地优先的安全感也很重要,这是很多人选择 open ker 的 原因,也是他的核心卖点。我让他处理一些敏感文件,比如财务报表、合同文档、客户信息,所有数据都在我自己的电脑上跑,不用上传到云端。 这种数据主权在用户手里的设计确实让人放心,不用担心数据泄露,不用担心隐私被侵犯。还有一次,让他自动读取桌面任务文本,筛选紧急事项,统计账单并生成日报脚本,成功写入系统调度,实现了真正的 ai 协作者功能。 那一刻,我真的觉得,这就是未来,这就是我一直想要的数字员工,这才是 ai 该有的样子,这才是科技改变生活的正确方式。但好景不长,问题很快就暴露出来了,而且是致命的问题。第一个让我崩溃的是 api 费用,这个坑最深。 opencloud 本身是开源免费的,但它需要调用云端大模型来思考,比如 ppt、 四 o 或 cloud opens, 这些都是要钱的。一次复杂的自动化任务,可能烧掉数百万头,肯成本高达三十美元,你敢信? 我第一个月账单出来的时候,差点没背过气去,花了将近二百美元,比订阅十几个 ai 服务还贵。这哪是省钱,简直是烧钱。你说本地运行不花钱, 那得有顶级硬件,普通设备根本跑不动。大模型推理速度慢到让你怀疑人生,而且效果还不好。 第二个问题是稳定性,这个更让人崩溃,常上下文失效是常态。处理多步骤复杂任务时,他经常工具调用错误,或者步骤遗漏,逻辑混乱。我让他自动生成周报,需要人工干预,修正的频率高达百分之四十,正打是 ai 助手,简直是 ai 添乱。 有时候他执行到一半突然卡住,有时候他调用了错误的工具,有时候他完全理解错了我的意图,有时候他干脆就放弃了,直接报错。理想很贾维斯,现实很人工智障。这句话一点都不夸张,亲身经历才知道有多坑。最可怕的是安全风险,这个真的要命。 欧本克奥默认获得文件读写、程序执行、网络访问三大系统及权限,相当于给了 ai 一 把你电脑的万能钥匙,什么都能干。 安全机构实测,暴露了两大致命风险,每一个都可能导致灾难性。后果,一是提示词注入攻击。黑客在网页、邮件、文档里植入隐藏指令 o k o, 读取后会被误导 执行删除文件、发送密钥、访问钓鱼接口等恶意操作,而你完全不知情,等发现的时候已经晚了。二是公网暴露风险。很多人为了远程访问,把本地端口改成全网监听,又不设密码认证,门户大开, 全球超过一万五千台设备暴露在工网上,任何人都能远程控制你的电脑,窃取你的数据,为所欲为。官方文档只讲功能,不强调风险。博主只晒炫酷效果,不做安全提醒,这是不负责任的。 对于不懂网络防护的普通用户,安装 open call 约等于开门一道,自找麻烦。这不是危言耸听,是真实发生过的安全事故,已经有人中招了,损失惨重。 踩了一个月的坑,我开始认真思考, openclaw 到底适合谁?这个问题很重要,选错了就是浪费时间,浪费钱。首先,绝对不是小白能玩的东西,门槛太高了,部署门槛高,需要懂 docker、 环境变量、端口映涉、日制排查、网络配置,这些都是技术活, 出了问题要自己解决,没有技术背景根本搞不定,客服也没有,全靠社区互助,效率很低。 其次不是省钱神器,恰恰相反,是烧钱神器。软件免费,但 api 调用费用惊人,一个月可能花掉几百美元,比订阅服务贵多了。本地运行需要顶级硬件投入近四千美元,这成本谁扛得住?想省钱? 别想了,这玩意就是烧钱机器越用越穷。那么谁适合用呢?我觉得是这三类人缺一不可。 一是有技术背景的开发者,能自己解决问题,甚至能贡献代码优化系统,把 openclaw 当做学习项目,一举两得。二是有预算的团队或企业愿意为效率提升付费,把 ai agent 当做生产力工具,成本可以接受,投资回报率高。 三是有耐心的,即刻享受折腾的过程,不怕踩坑,把解决问题当做乐趣,而不是负担。心态很重要,谁不适合用想省钱的个人用户?怕折腾的普通用户,追求稳定的生产的用户,对安全要求高的企业用户。 对于这些人, open club 可能会让你更累,而不是更轻松。得不偿失,何必呢?还有一点很重要,安全意识。这个必须强调, 如果你不懂网络防护,不知道什么是提示词注入攻击,不了解端口暴露的风险,建议先补课再入坑,磨刀不误砍柴工,不然你的数字员工可能变成数字间谍,你的数据可能被别人窃取,你的电脑可能被别人控制,后果不堪设想。 这不是开玩笑,是真实存在的风险,必须重视,安全第一,千万别大意。最后总结一下,希望对大家有帮助。 openkey 是 好工具,但不是神器,要客观看待,它代表了 ai agent 的 未来方向。从聊天工具进化为数字员工,这个趋势是不可逆的,迟早会普及,这是大势所趋。 但目前的版本还不够成熟,有太多坑需要填,有太多问题需要解决,需要时间和耐心,不能急于求成。给想入坑的朋友,三点建议一定要听进去。第一,先评估自己是否适合,技术背景、预算耐心,缺一不可,不要盲目跟风,适合自己的才是最好的。 第二,注意安全,不要把端口暴露在公网,定期检查权限设置,警惕提示词注入攻击。安全第一,安全第一,安全第一,重要的事情说三遍。 第三,控制成本,监控 api 调用,设置预算上限,别让账单吓到你,量力而行,不要冲动消费。给已经入坑的朋友也三点建议,希望能帮到你。 第一,别追求完美,百分之四十的人工干预是正常的, ai 还不成熟,需要人机协助,习惯就好。第二,多看社区,很多坑,别人已经踩过了,学习别人的经验,少走弯路,事半功倍。 第三,保持期待,这个领域发展很快,今天的问题明天可能就解决了,未来可期,不要灰心。如果你也在用 open club, 欢迎在评论区分享你的体验,好的坏的都可以让更多人看到真实的使用感受,避免踩坑。互相帮助点赞关注我们,下期见!拜拜!

大家好,我是根古,今天是 open call 的 第十二堂课啊, c dance 是 字节跳动发布的一个超级强大的,号称地表最强的多模态的大模型,它在图声视频、纹身视频这个领域啊,应该是第一题对的,第一题对的。那这堂课给大家分享一下如何通过 open call skills 来打通 c dance。 首先给大家看下效果,这是我已经调试好了的,我这个就是生成一张图片,图片呢,描述就是根古老师在外太空中说 cds 啊,这个就是他,最后图片会在这里, 他就马上 get 了。好,我理解你想生成一张图片,描述是这个,这个这个,他会根据我的 proma 的 运行调度这个 cds 的 一个这样一个也就即梦的 api 啊,已经好了, 反正,反正这个图片也一般了,效果一般了。然后他怎么做到的?怎么做到的? 首先你应该去打开吉梦,吉梦这样一个官网啊,这个大家都应该用过了,然后用抖音扫码登录,点这个 api。 好, 然后立刻开通啊,因为你是用 api 去调用,而不是用这个文字去调用这个。你进入这里以后,如果你是第一次进入,这是所有的都是暂未开通,暂未开通,我建议大家把这个吉梦四点零这个全开通, 如果是没有开通的服务的,他这边就是灰色的,你选择开通就好了。点开通就好了,我这个不不去开通了,开通了以后这个就会变绿。概数点这个概数啊,他大概有四个步骤,第一个步骤,实名认证,这个也没啥介绍的,也就是,呃,在抖音扫个脸就好了。第二步,开通服务,刚刚已经演示了, 就在这个节目 ai 这个这个里面,然后第三步是最最重要的,他现在喉咙不是很好,然后去开通这个新建秘药,这个秘药他有两个秘药,一个是 s s k, 一个是 secret 的 k 啊,这两个秘药拿到以后,然后编一段代码, 这个就是编好的代码,其实也不是很长的,这也不是很长,就这么一点,编好代码以后,然后让这个这个 让小龙虾去学习这个,呃,你刚刚编好的这样一个代码,也就样式学好了以后,他就能够运行调度这个极梦的 api, 大 概整体思路就是 第一步,第一步申请极梦的 api key, 那 第二步是开通服务,开通极梦的服务,第三的话就是编辑 skills 技能卡,也就这一块的代码,大家感兴趣的话可以在评论区扣,我可以分享给大家。最后一步就是让大龙虾去学习这个 skills, 所以 说关键点还是 你这个 style 是 自己开发的啊,你也可以用网上其他能开发好的,但是我用了下他们的不是很好用。最后就是,呃,直接可以展示效果,可以大家再给大家展示一下,比如说生成,生成一只猫在太阳下, 太阳下休息,然后可以看一下, 这个 好,他说我理解你想生成一张图片,描述是一只猫在太阳下休息,看一下应该很快就出来了,哎,这个 是不是还可以啊?效果还是不错的啊。所以说龙虾它也非常多的样式啊,如果你不会开发代码的话,你可以去找很多样式,把它放在那个它的项目上面的一个叫 work space, work space 里面它就自动能学习啊,这堂课就分享到这里,你学会了吗?

这个 cloud bot 现在改名叫 opencloud, 有 人说这是 ai 历史上 chat gpt 以后的又一个里程碑啊。我觉得这个 opencloud 啊,不太适合百分九十九的人吧,哪一天你的一切都没想清楚,把你文件全删了, 你欲哭无泪啊。现在已经有了一个我认为啊,对于百分之九十九人最适合的 opencloud 的 平替啊,更易用,更安全, tiktok 不 需要额外花钱。 这几天啊, ai 圈最火的事件啊,除了十四岁的一个少年来参加我们举办的 ai 黑客马拉松大赛差点夺冠之外啊,就是一款叫做 cloud bot 的 产品的横空出世啊,在 google 上啊,以 历史上最快的速度得到了十万星啊,他就是给电脑啊,装了一个掌控电脑的超级 agent, 这个 agent 使得你啊,可以远程的就通过给电脑发消息让电脑干活了,你人也不用在旁边啊,睡觉以后他也继续干, 无论是写代码呀,整理文档啊,甚至帮你下单呐,对吧,甚至跟别人沟通啊,发邮件他都干。哇,这突然让人感觉到第一次啊,电脑真的成了一个真真切切的生产地中心了, 电脑真的就跟个人一样啊,就像个电脑牛马一样不停歇的干活了,对吧,因为以前我们用电脑,你必须在他旁边,你不给他指定他不干活啊,现在他不完全的自主在干了,这就引发了一系列的惊呼啊,有什么最后这电脑给你打电话了, 自己写了个程序就开始给你打电话了,在你要吃饭的时候,直接把外卖给点好给你在家门口了,甚至最近出现了一个 milk book 的 这么一个社区啊,就只让这些电脑们上网去发帖子哇,也是火速到了,什么几百万铁 啊,又开始各种讨论,所以这个 cloud bot 现在改名叫 open cloud。 哇,已经是当红炸子机啊,连 emask 啊这些大神都给点赞啊,甚至有人说这是 ai 历史上 chat g p t 以后的又一个里程碑。 这个礼从背什么呢?就使得 ai 啊,从一个回答你问题的这么一个知识性专家,变成了一个去干过去由人和电脑在一起才能干的所有的这些工作。仅论颜值啊,就是今天绝大部分的白领工作,电脑自己干了,你可以想象一下,就好像有无数多个助理跟着你, 对吧,随时说,帮我订个机票,帮我点个外卖,帮我下个单,当然这是一个美好前景啊,现在只是初步具备了这个功能,这使得一个什么问题啊,就是现在大家都非常焦虑,就看着这个 open claw 爆火啊,很多人就非常焦虑啊,我的后台有很多粉丝的私信啊,说, 副总啊,这个怎么装啊,怎么听说要专门去买个 mac mini 啊,这个我真买了,我发现我装不来呀,但是不装不用是不是就被淘汰了?不,你老说嘛,这个对吧,淘汰你的不是 ai, 是 会用 ai 的 人。好吧, openclaw 这个产品,底层杯式的产品啊,但是我想说,这个产品现在真的不适合普通 人,而且你现在用不上也不要太着急,看上去非常火,但基本上还是很多技术专家的一个讲,为什么不适合普通, 重要第一啊,就是它的成本太高了。虽然说 open cloud 啊号称都支持 mac 和 windows, 但是事实上对 windows 兼容非常不好啊,只有 mac 电脑才能很好的用,而且呢,又由于它现在机子不健全,经常会把电脑东西给删了,导致很多单独去买个 mac mini 成本太高了,你看一个 mac mini 四五千块钱没了吧。这还只是购买成本啊,但问题在于说我们看上去它是开源免费的,问题是接那个模型要钱啊,它现在表现最好的就是 cloud 的 这个 opus 的 四点五的引擎啊, 那一跑起来你的钱包哗哗就作响啊。有人说这两个小时过去几十美金就没了,他是在不停干活,但不停的在烧我钱,所以真的今天成本啊,我觉得不适合你,还没想清楚干嘛的普通人。 第二呢,他安装部署太麻烦了,现在在推特上啊,在外网上一个什么如何安装部署帖子可以几 百万的阅读啊,这就说明他很难你知道吗?你要不会点命令行,不会点配置不懂什么网关,你可能真搞不定,或者就算勉勉强装上也各种各样的问题。插件呐,对吧,我就说一个命令,各种插件呐, a p i 接口啊, key 啊,哎呦,我说这些东西挡不住百分之九十九的人,不仅你们琢磨不明白,我现在搞起来都挺费劲。 第三啊,就是这东西不安全,因为你给他所有电脑的权限嘛,这个电脑事实上就暴露在互联网上,他不安全来自两层面,一层面就是说他暴露在互联网上,他虽然对外去可以给你发邮件,那别人可以攻击进来对不对? 然后呢,他由于有了电脑所有权限,所以他可以对你的文件任意的增删改,哪一天你的一切都没想清楚,大魔仙想错了,把你文件全删了,你欲哭无泪啊。这种事已经不是一次发生了。所以真的,今天我觉得这个 open cloud 啊,不太适合普通人, 也不太适合百分之九十九的人吧,但你说怎么办?咱就干瞪眼看着嘛,就焦虑嘛,不用,咱有办法嘛。现在已经有了一个我认为啊,对于百分之九十九人,最适合的 open cloud 平替啊,就是我们国产的,叫元气 ai bot。 哎,这个产品我特别熟,你知道为什么吗?因为大半年前啊, 我当时看了 minas 出来以后,我就觉得 minas 跑在服务端的一个虚拟的 a game, 我 认为在本地电脑上一定会有个强大的 a game, 所以我们从大半年前开始啊,也就开始研发这款元气 ai bot, 咱举贤不避亲啊,一定推荐给你。 我们从大半年前就开始想,如果你要用电脑的话,如果有个 a 镜头在上面,你跟他说,哎,我的打印机坏了,我的这个 c 盘空间不够了,哎,就可以跟他说句话就帮你解决了,这就很多人已经是个很大的用途, 再往下就说,对吧,你帮我把这个文件夹的目录都整理一下,这个文件夹下的所有的 pdf 给我做成 excel 表啊,这事我没有做了。 第三个就是后来翻还不够,可不可以给我微信,好朋友们生日时候都发个消息,有时候记不住啊,有个什么消息,我可以一个一个找到这个相关的人,都给你们发出去啊。哎呦,以前我发的眼睛都绿了,这事我没做, 还有玩游戏的时候,这个新游戏不会啊,那怎么他可以指导你?那么由此京东去帮我找个东西,做个笔架,这些我们都做了,也做了大半年,为什么要做这么久呢?然后一方面啊,是因为 a 进的太新了,对吧,我们需要去学习。另一方面,我们在做的考虑了,如何保证你的安全 就是关键性的文件目录,无论大冒险怎么想,那不能给你删啊,一些重要的文件想要去删除或者修改时候,要征得你的同意,叫我们是搞安全搞了二十多年的,就安全这事我们花了太多精力, 最近由于 open cloud 出来,这也不瞒您说,手机这个发个消息,电脑去干活这事啊,我们也在规划中,最近我们有加班加点的啊,这个周末我们的兄弟们都在干啊,把它发出来了。还有一点就是我们对 windows 的 支持极度是友好的啊, 不需要你懂命令行,不需要你去填什么 apikey, 我 们是完全国产的,非常适合中国国情的,对 windows 支持也友好,安装也非常的方便,点几下就行了,不需要你做任何配置,也不需要你去这个拿到什么大模型的 apikey, 我 们都帮你内置好了, 而且用的是国产模型啊,合法合规啊,这大家都懂的,而且中间还做了很多技术的用法,帮你消耗的这个 token 呢,这个成本变得非常低,所以现在我们这个干脆全是免费的,性价比很高吧,所以刚总结了,我们花了大半年时间,对吧?做到了, windows 更友好,不需要额外设备啊,现在电脑就能用。然后呢, token 也不需要额外花钱, 对普通用户非常友好啊,点几个键就装好了,配置全帮你配好了啊,不需要你懂那么多高深的知识。第三个,操作电脑的功能也非常强大, 我认为在很多操作电脑功能上,讲句不谦虚的话,跟 opencloud 各有千秋。我们对一些中国内的软件支持也非常好,基本上抢个红包啊,发个消息啊,当然有朋友说要抢个票啊什么的,各种网站,各种产品,知道你怎么用啊,我们都做了。所以呢,今天大家记住叫元气 airpod, 上周末我们刚刚发了个内测码啊, 大家反应非常强烈啊,现在隆重的推荐给你。我们有句话,不是 mac mini 买不起,而是 windows 更有性价比,也不是海外的软件我们不 会用,而是国产软件更方便更易用,既能够让你享受 open cloud 强大的功能,同时又无后顾之忧,还帮你省了钱。大家可以试一下哦,有什么问题可以在评论区告诉我。

我今天打开 openklo, 然后又看了一下我接下来 ipi 的 账单,我的心就痛了一下,哈哈哈,烧美金真的是非常酸爽的一件事情,所以我就决定一定要探索一下 openklo 的 省钱大法。今天是第一篇,第一篇的省钱的原理就是把调用 ipi 全部换成调用订阅账户。那咱 们具体怎么样通过订阅的账户去接入 openklo 呢?这个地方我画了一个地图,咱们有两个方式可以去接入到订阅账户,而不是 ipi。 第一个方式我们可以直接通过终端的命令来进行输入, 这一行命令就是 open klo 自己的一个命令,它就会出现这样的界面,你在这个里面你先选一下 logo, 接下来他就会让你去选你要改哪项配置。很多项配置都可以改,咱们直接选模型就行。我是喜欢用 jimmy, 所以 我就选了谷歌的模型,然后这个地方就会出现 你几种接入谷歌模型的方式。 api 方式就是咱们说的最耗钱且没有上限的方式。然后呢,下面有两种都是 awesome 的 这种方式,它只要带了这个 awesome 的 方式,其实都是可以接已经订阅的账户的方式。那它有两个地方可以选,一个是通过反重力去调用它这个 awesome, 另外一个是通过 jimmy 颗粒来调用反重力,国内用,所以我就直接选了第三个。那回车之后,它就会直接弹出来 粘在这个里面的一些界面,你直接按它的操作去操作,它就能自动获取这一串 office token 了。那你如果是用 openai 或者 cloud, 它的订阅账户其实也是同理,比如说如果我选的是 openai 的 模型的话,那在这个地方除了 api 的 方式之外,它通过 office 去登录的方式其实是通过 codex 去登录的,那我就直接选 codex 就 好了。 第一种方式大家就这么样的一个流程,那第二种方式我们就用 cloud code 写出我们就好了,因为 cloud code 是 可以直接修改 opencloud 存在本地的配置文件的,就是咱们的模型选的是哪个,用的是哪种登录方式,全部都写在这个配置文件里,你就让他直接去改这个配置文件,那你的其实词里面 记得有几个地方哈,第一个主模型一定要记得改,主一定要有啊,因为他那个模型里面是可以配置多个的,他用就是一定是要跟他说清楚,你要配置的模型,你是用他的订阅账号付费,不要只去跟他说把这个 jimmy 换成 collog, 或者把 open a 换成 collog, 不要只说这一句,一定要说付费方式是订阅账户付费,而不是 api, 那 这样那个 collog 就 会直接去改这个文件里面的相关字段,那改的时候呢,可能需要你再去获取一下这个 token, 就 会直接去改这个关键词就好了。比如说我这还是 征战为力的,我就输入这条命令,我就能获取他了。 ok, 那 以上就是咱们先介绍的第一种省头肯的方式,我这边让他探索其他的儿童可乐的省钱技巧, 包括他每天都会让他把我的头肯消耗额度给我打印出来。后面方便咱们用一个更加量化的方式去看有没有哪些手段思路帮我们可以节省一些费用?今天就先分享到这了,后面还会再分享更多跟儿童可乐相关的内容,欢迎大家关注,下期见!