哈喽,大家好,欢迎收听我们的播客,然后今天我们要聊的呢,是这个本地部署 open log 的 一些让人哭笑不得的经历啊。对,整个这个过程当中啊,会遇到各种各样的问题,包括他的这个使用体验上,也会有很多让人抓狂的地方啊,最后我们也会反思一下,到底值不值得花这么多精力去做这件事情。是没错,对,这个也是很多朋友都 头疼的一个问题啊,那我们就直接开始今天的分享吧。咱们先来讲第一大块啊,就是这个部署的过程啊,问题频发,困难重重啊。第一个问题啊,就来了, 本地部署 openclive 最容易踩的坑都有哪些?其实就是这个呃,环境依赖这块吧,就很容易出错,比如说你这个 note gs 不是 最新的, 然后或者说你这个 get 没有装啊,这个是最常见的,就直接装不上,或者说启动就报错,嗯,还有就是,嗯,它这个有些 npm 的 包啊,它是要去国外的园去下的, 所以你这个网络如果不好的话,它经常就是下一半卡住了,这是很折腾人。对,没错没错,而且就是呃安装路径啊,不能有中文,然后你的这个系统的权限啊不够,都会导致它写文件失败。 还有就是这个端口占用啊,这个也是经常会碰到的,就是你这个本地有其他的服务在用这个端口,包括你这个,呃,有的时候这个配置文件里面的这个模式啊,你没改 它就会导致你这个服务起来了,但是你就是连不上,就你会很抓狂,那就是说,呃,如果我们在本地部署 open club 碰到了这些麻烦,我们通常可以怎么来解决呢?其实你要做的事情就是首先保证你的这个 node js 和 git 都是装好的,然后版本是对的,网络如果不好的话,你就换一个国内的镜像源, 你的这个安装路径啊,不要有中文,包括你的这个系统的权限啊,要给够这些步骤听下来就已经很容易出错了,没错没错,然后就是呃端口冲突的话,你就杀掉那个进程,或者是你换一个端口,还有就是这个配置文件里面的这个模式啊,你要改成 logo, 如果你是在 虚拟机或者是说这个容器里面的话,你还要去设置一些缓存量,还有就是如果你这个系统内存不够的话,你还得去增加一些 swap 空间, 就整个这个过程就是非常的折腾,而且你要对这个系统底层有一些了解,你觉得就对于普通用户来讲,本地部署 openclog 会是一个什么样的体验?就我觉得呃,虽然官方说的是非常的简单,一键就可以搞定, 但是其实在实际操作的过程当中,你会发现有很多环境的依赖啊,包括网络啊,包括权限啊等等的一些问题,都会让你,特别是对于新手来讲就是寸步难行,你可能要去查很多资料,然后要不断的去尝试才能够最终成功, 所以整个这个过程对技术还是有一定的门槛的,所以这个也是大家在动手之前要有心理准备的。我们来聊一聊本地运行的时候,大家最关心的一个问题啊,就是 openclog 到底在哪些方面会让你觉得慢或者说不流畅,就是它其实在处理一些简单的请求的时候啊,有的时候都要等个几秒, 然后如果你要是用它自带的那个 openclog 去连你本地的模型的话,可能要慢个十几倍,就你都可以去喝杯茶了,它还在那转,这听着已经让人很崩溃了。更糟糕的是,如果你这个任务稍微复杂一点,它就很容易出现这种无响应或者直接崩溃,然后你只能重启,有的时候你甚至 你跟他对话的这个上下文他都给你丢了,你就很抓狂。然后呢,就是大家还会觉得这个 openclaw 还有哪些地方会觉得,呃用起来会觉得还不如其他的一些 ai 顺手呢? 嗯,其实他在理解一些自然语言的指令上面,还是跟那些主流的云端的 ai 还是有一些差距的,就他经常会 误解你给他的一些稍微复杂一点的要求,然后就会导致他执行出错,或者说他就直接卡住了,就很影响体验。而且他就是这个呃多步骤的任务,他经常会掉链子, 然后他这个自带的这个技能啊,和这个国内的一些主流的软件的集成也不是很好,再加上他这个中文的提示啊什么的也不全, 所以就导致就是你在实际使用的时候就会觉得,嗯,远没有那些成熟的 ai 那 么省心。哎,那这个东西, opencloud 在 花钱这件事情上面,在资源消耗这件事情上面,会给你带来哪些意想不到的麻烦呢?哦,这个你可能想象不到,就是它,因为它是要跟这个大模型的 api 进行频繁的交互, 他这个 token 用的特别快,对,有的时候你可能做一个很简单的自动化的任务,他可能要比你直接用这个 api 要多花几十倍的钱,而且他这个账单是你根本就摸不着头脑,你根本不知道他怎么花的。就有的时候可能几天时间就上千元的这种 token 就 没有了, 但是比打车还贵。对啊,而且它就是呃官方推荐,你最好是要有十六 g 内存和独立显卡,所以如果你的电脑配置不够的话,它会更卡。然后你要是用这个本地模型的话,还得额外折腾,所以这个 整体的这个硬件和这个 a p i 的 开销都不低,所以它绝对不是说像它看起来那么免费。然后咱们来聊第三部分啊,就是这个反思总结,成本高昂,按需选择。 对,呃,本地部署 openclog 到底要花哪些钱?本地的话就是你如果是用自己家的电脑的话,那你就不用花这个钱了。但是如果你想要一直开着的话,你可能就要买一个这种低中号的小主机,那可能就是几百到几千块钱不等。 然后你的这个硬件如果要升级的话,可能也要另外再花钱。你这个东西一直开着常年开着的话,电费其实也是挺吓人的,一个月可能二三十块钱,也有可能五十块钱。除了这些看得见的花销呢?还有什么是容易被忽略?就是模型的调用啊,这个是一个大坑。就是你如果是用 呃主流的这些 a p i 的 话,那你肯定就是用多少花多少,而且它可能呃自动化用的 tokens 要比你正常的聊天要多很多。然后如果你是用本地的模型的话,你就会比较吃你的这个硬件的配置,你就会 很慢。如果你想要多个人一起用,或者是说想要呃这个专业一点的话,那你还要买一些高级的插件啊,或者是说请人来帮你定制啊,那这个都是要另外再花钱的。而且这个长期的维护啊,包括你的时间精力,其实也都是 不能小看的,尤其是企业的话,你还要专门配一个人来管这个事情,那这个就不是说小数目了。对,那如果说咱们就是说不同的需求的人,怎么去挑适合自己的 open class 的 部署的方式呢?如果说你只是想试试,或者说你是一个学生党, 那我觉得你就用自己的电脑配上这个免费的 api 和这个本地的模型就完全 ok。 对, 就是你基本不花钱 就可以体验到这个主要的功能。那如果说再往上一点的需求呢?如果你是要长期用,然后又很看重这个隐私的,那你可以去买一个这种低功耗的小主机,专门来跑它,那这样的话你可能每个月就是几十块钱的这样的一个开销。 那如果你是那种技术不太好的,那你就直接上云,对,直接上云的话,你可能一年就是几百块钱就可以解决了。 ok, 那 如果你是那种企业级的,有这种很高的安全性的要求,那你就干脆去本地的服务器,或者说你自己搭一个集群, 那这样的话,你可能就是一次性投入比较大,但是你后续的这个维护啊,包括你的这个啊,病发啊,都是非常非常好的, ok, 对, 所以就是说,呃,选择什么样的方式,还是要结合自己的设计需求来,你觉得在部署 openclaw 的 时候,有哪些比较实用的可以帮大家省钱的一些小窍门?嗯, 其实有几个方法还挺实用的,比如说你用这个云服务器的话,你可以省很多钱。然后还有就是说你这个模型的话,你可以选一些比较 性价比高的模型,你可以根据你的任务的需求在不同的场景下面去切换,你也可以去设置这个 a p i 的 这个支出的上限,防止说你一下子花太多钱。再就是说你如果是长期用的话, 你可能这个混合的部署方式会帮你既保证速度又帮你省钱, ok, 对, 那就是说,呃,你结合自己的需求去选一个最适合你的方案才是真的省心又划算。屌到,这其实就是每个人的需求和技术背景不一样嘛。对,那你在本地部署这个 ai 的 时候,就更需要 结合自己的实际情况,多借鉴一下别人的经验,然后冷静的去权衡一下这个投入和产出。嗯,今天的分享就到这里了啊,感谢大家的收听,咱们下期再见,拜拜!拜拜!
粉丝24获赞104

大家好,我是洛新。很多人在用 opencloud 都停留在聊天工具的阶段,真正拉开距离的是私有知识库的能力。今天咱们这条视频就手把手教教大家用 opencloud 搭建一个属于自己的 a r e, 大 脑 不联网也能查资料,不搜百度也能直接给出专业答案。看完这一条,你的 opencloud 至少能升级一个档次。好在讲知识库,私有知识库之前,我们先看几个问题啊。第一个知识库的介绍。问题一, opencloud 的 知识库本质是什么? 其实 open curl 没有那种把文件上传到某个平台让它训练的传统的知识库,它更像是把你的 md 文件放到 agent workspace 工作区,每个 open curl 都有一个这个 agent 的 workspace 工作区, 然后再通过工具,比如读文件,比如 group 缩影搜索,或者是通过 skews, 就是 教他怎么用,怎么找,通过这种方式,然后去引用到你知识库里的内容,在你提问的时候,让他先解锁命中 相关的知识点,然后再进行回答。这其实就是 open core 的 知识库的本质, 简单总结来说,它是先去解锁,然后再去回答,从而回答的问题给出缩影。 那第二个问题是, kb 是 什么?是不是缩写?先说结论啊, kb 是 knowledge best 的 缩写,它是行业通用的一个缩写,这是整个 ai 搜索信息系统领域的标准叫法, 那不是你随便来起的。呃,我们用其他的名字,比如说 d o c s 文档合集,然后 text 原始数据,或者是发有文件,其实都能表示这是内容。但是为什么要用 kb 呢?因为 kb 它不光是表示存在, 不光强调的是知识,它强调的是可以被 ai 用来推理、引用和回答的问题源,所以这已经是语义层级的差别了。 好,这是第二个问题,什么是 kb? 第三个问题是知识库有没有分类的级别?如果有 opencloud 的 知识库,它是处于什么级别? 那我们来看一下知识库的成按成熟度来的分级的情况。那第一级 l 一 等级,等级分为 l 一 到 l 五特征, l 一 是文件堆,那它只有这些一堆文件, l 二是有 index, index 其实就是它的,所以 l 三呢,它是有规则, l 四是可审计, l 五是自动评估。 那我们的 open curl 实际上可以做到 l 四的级别就是,所以 index 这个是有的解锁脚本、证据链和规则约束, open curl 的 知识点可以达到 l 四企业级别的知识点, 所以这个是非常牛的,在一个 agent 里面就可以做到轻松地做到企业级别的知识库。 好,我们再看第四个问题,那 agent 它是为什么会优先查找知识库呢?它为什么不先去上网搜索呢?这是在哪里设置的呢?好, openker 的 本身呢?它不会自动优先查找本地的知识库,完全是你用规则来驯化出来的。 优先的解锁行为是在 edit 点 md 强制注入给模型的提示词。工程 就是我们会在 edit 点 md 里面去强制写明这个我们的系统级提示词, 然后让它按照这个规则,遵循这个规则去优先查找我们的本地知识点,所以它是完全是用规则来训化出来的。 那 opencloud 的 真实的工作原理,我们来看一下这个图,简化版的第一个是它是系统级别的 prompt 记事词,然后是到 iint, iint 词点 md, 这个是我们人写的这个提示词,然后最后再到 so 点 md 或者 user 点 md, 在 so 和 user 点 md 里定义了就是 agent 的 角色和我们用户的角色,然后最后才是用户问题,用户提的问题,用户输出的输入的内容,然后由这几个提示词合成一个超级的 prompt 一个大的提示词,然后为给模型, 所以 agent md 是 什么?实际上是 agent 的 一个宪法,你就必须得遵守这个宪法,然后去做事情,在遵守这个宪法的前提条件下去来回答用户的问题, 我们自己其实是可以修改这个宪法,在大模型眼里就是 user 的 用户的提示词是小于 agent 的 提示词,然后 agent 的 提示词是小于系统的提示词, 所以我们写进去的规则其实权重是非常高的。那大模型它有三个优先级,我们来看一下,第一个就是系统级别的,那它的权重是百分之百,就是你必须得遵守的系统提示词。然后第二个是 addit 的 一个提示词, 它的权重是百分之七十权重,实际上就是说你遵守这个规则的程度, 就像咱们国家的宪法一样,那你就必须得遵守,违反就是犯罪。那我们把开 b 放在 agent 层,写成 mandarin must, 禁止或者是系统级的,这样的话模型会把我们的知识库的规则当成法律,这就是为什么 agent 会查知识库,因为我们使用了 agent md 在修改它的规则,然后把它加入了叫行为约束注入器, 所以 agent 回答了我们问题是 agent 为什么会优先查找数据库是在哪里进行设置的?就是用我们的规则来训话的。这四个问题都已经回答完了,那我们现在开始来搭建,那第一步呢?就是把 md 放到工作区的数据库里。 好,我们来去找一下,正常我们的这个安装都会在 id 那 下面都会有个 workspace。 好, 我们来看一下我的这个 workspace 是 在哪边? 我们去找的话,正常应该是在,如果你安装在 c 盘的话,会是在 c 盘有个叫用户,然后有个 admin, 然后会找到点 openclock, 因为我的安装环境是 windows 原声安装的,所以是在这个目录,可能大家不一样的话,会在不同的目录,然后这里有一个点 openclock, 这边会有一个 workspace, 然后我们打开这个 workspace, 我们按照我们的这个飞速文档,就是在建议在 word 上建建立一个固定的目录,就是 kb 知识库。好,我们来创建一个知识库叫 kb, 一 般是用用用用用这个 kb 放在这里,然后创建完知识库之后,我们来看第二步, 就是把我们转换之后的 md 文档放在这个 kb 下面,放在 d o c 下面数据库。好,这里我也准备了一个,就是,呃,我们来看一下啊,这里是一个关于,所以我们就是把这个这几个文件给它复制过去, 这是我们的知识点嘛,文字的。好,这四个,这四个文件我们给它复制过去, 然后在这里创建一个 d o c x d o c s 啊文档,然后呢还要创建一个缩影, 这个,呃,正常我们的内容可能是呃 pdf 的 或者是 word 的, 然后都要给它转成这个。呃, md 文件就是 markdown 文档,这里呢我还有准备了一个生成 md 文档的一个程序,在这里大家如果需要的话可以找我领取。 这里生成一个批量生成 md 文档的程序,这里我就不演示了啊。然后呢还有一个我们是因为你生成之后可能会有重复的 md, 这里呢还有一个 md 文档的清洗,需要去重的程序,然后不需要手动去编辑,然后这里呢有个去重的一个程序, 回去检查,这里是代码,大家需要的话可以找我领取,然后这一块我就不讲了,然后是在我们需要写一个 index 点, md, 在 这个 kb 下面, kb 下面写一个 index 点, md, 然后我们在这里创建一个缩影文件。 好,我们打开这个缩影文件,然后去编辑。呃,这里呢我已经提前写好了,跟我那个是相对应的,我们来看一下啊,它的内容啊。 首先这里呢就是呃数据库的 index 缩影,然后它会标了有几个数据库,一二三四五六六个,然后每一个是对应的是哪一个 md 文件, 就可以列下去,列上去就可以了。然后这个是内容呢,是跟我们的这个呃 d o c 里的这个文件是匹配的。 d o c 类,这里我们是有六个,所以我们这个目录这里也要保持是六个,就是跟它是相匹配的。 然后这个写法大家如果需要的话可以找我领取这个模板,然后这个知识库的呃文件我们就加完了。好,我们继续往下看, 下面我们需要编写它的规则,规则呢是在 agent agent 点 md 中去编写,我们来先找到这个文件,这个文件是在哪里呢?是在我们的 workspace 下面,就是 opencloud 的 microsoft 里面有一个 ajax 点 m d 文件,然后我们打开这个文件,打开这个文件,它就是 ajax 的 一个规则,一个是是我们手动要添加的,你看它这个是 this folder is home, 这个是它的一个家, 然后第一次 run first run 就 要创建这个文件,如果这个文件存在,这是它的生日证书,身份证,然后去遵循它,如果没有,对吧? delete you won't need again。 然后我们这个规则加在哪里呢?我们这个我已经写好了这个模板新建的知识点,然后我们来看一下这个知识点,这个是 markdown 的 语言,就是 local knowledge by the rule, 就是 本地知识点的遵循的规则。 好,我们来看一下,就是他怎么描述的。你有一个本地数据库,位于 workspace 内,然后 kb 这个文件夹下面,然后强制的流程,先读取锁瘾,就是启动之后先读取这个数据库的锁瘾,然后先做数据库路由的判断,根据用户问题选择最匹配的数据库, 只能选一个知识库做主库,这里呢?呃,我提一下,这里主要是如果你有两个以上的知识库的话,这一条是可以这样写的,如果你只有一个的话,这个,呃,这样写也没问题, 主要是让他做路由判断。先用先匹配。是用哪个知识库?是怎么匹配呢?是根据锁影里面去匹配,因为这些用户提的这个知识点在锁影呢?在哪个知识库的锁影中出现?只能允许 在被选中的知识库内解锁,引用原文,防止你串库。有两个库以上,你可能会串库,然后回答末尾必须注明来源是来自于哪个 md 文件 完整的路径。若主库证据不足,先扩展到同一知识库的其他文档人不足,再明确说明未找到 足够的证据。但是你不能编造,因为我们用知识库最怕的就是什么,因为 a r e 他 会说谎,他会编,他会瞎编,当他找不到的时候,他可能会给你编一个,编的就不靠谱了,就不是来自于你的知识库, 但是他不一定会让你区分的到,所以我们必须在规则上限定式禁止的一些行为。未解锁 k b 即回答就是有的,有的 id 呢?他就没根本就没有去解锁你的知识库,然后直接在网上给你找了一个,然后告诉你这个答案是什么,什么样的。 这明显是不靠谱的,因为这个不是我们知识库范围内的。第二个,仅凭模型的记忆推推测,因为大模型他会去呃这 ig, 他 会去记忆一些内容,他可能根据这个记忆,然后去编造一些内容,然后给你作为答案,然后造成你的误导。第三个就是虚构课程资料内容, 他会凭借着自己的那个呃思维链去去拼凑一些课程,然后给到你。其实这都是不正确的,因为我们用知识库的话,我们是优先要他从知识库里去查找这些内容, 而不是给我编造的一些内容,所以我们在这里设定了他的禁止的一些行为。好,我们把这里给他复制过去。 复制过去放在哪个位置呢?我们给它放在,就是在这个位置 first run 之前。好,我们给它放在这个位置,就是放的越前它遵循的权重会越高。 好,这样的话我们 id 值 md 就 修改完成了,那我们继续往下看,这个时候呢,我们的这个知识点就加载好了, 就是单一的这个知识点,我们就加载好了,在这里,然后我们需要去重启,然后验证,我们来看一下啊。第二步就是重启绘画,然后 opencloud getv restart。 好, 我们复制一下,我们把这个先给它关掉,点击重启。 好,重启完成,我们来跟重启完成,然后我们来给它画一个。 好,他在回复了,然后我们看一下验证啊,第一个只解锁,所以能读到 k b, 好, 复制, 我们把这个给他回复过去,因为他已经在线了,他已经在线了。好,我们把这个发过去,看他能不能解锁到这个 kb 资料就是我们验证的方式,我们来看一下,我们验证的方式 就是重启完了之后就是让规则生效,生效完了之后去验证,验证是否真的当知识库在用,然后三条测试指令这里给到大家,大家如果需要的话可以找我领取。第一个就是只解锁,所以看他确认他能不能读到 kb 资料。好,我们来看一下,他回复了 k b, 之前也被你清除当前知识库,如果你想重建知识库,可以帮你整理。就是我,他应该是,呃,从记忆里找的,我已经把知识库放进好了,请你再次检查并更新一, 因为之前我删掉了他更新的记忆,他现在就是我让他去查的话,他根本就没有去,去实际的去检查,他就凭着记忆就给我来了,给我回复说当前没有知识点,其实我这个已经有了, 也就是说他会编造,编造之后给到你结果啊,知识点已恢复,他已经检测到了知识点已恢复,他已经有内容了。好,我们再进行第二条的测试, 定位,定位文件确认会解锁目录,在 k b d o c s 中解锁这个数据库的内容,我们来给到它。 好,它已经找到了一个匹配的文件,说明它已经解锁了我们的数据库这个文件内容。好,我们这一步测试通过,我们进行第二步的测试,三步的测试,然后命中后回答问题,确认不是瞎编。 这里是什么呢?基于 kb 内容回答二十字觉得,二十字觉得核心要点是什么?用五条要点总结,并在每条后面注注明文件的来源,然后我们把这个发给他 复制 好,你看他给到了这个来源,我们看他啊,他的来源,来源的汇总是来自于哪个 md 文件?这就是他已经根据我们的问题来去优先去查找了这个知识点。 然后二十字决核心要点,他是根据知识点去找的,你看每一个回答他都有来源,我们在里面加上了要让他给出数据的来源,这样的话,他确认他是引用了我们的知识点,然后给我们的回复是来自于知识点,而不是来自于大模型。 好,我们来再来提个问题,让他给我们出,呃,二十道选择题。 好,我们给他的问题是,小亮,请你根据知识点出二十道选择题,每个选择题都有四个选项,并给出答案,并把题目放到 word 上发给我。 我们有了知识点之后,我们就可以让 agent 帮我们来出题目,然后 并且给出答案,这样的话我们就可以轻轻松松去训练,就是出题,然后针对知识点内容进行去剪辑。 有了这个功能之后,哦,我们如果说在家里给孩子做作业之类的,那我们就可以把孩子的错题集给它录进去,到期末的时候就可以让 angent 把错题给它减少出来,针对这些错题来出题目,然后有针对性的去训练和强化练习。 这样的话就相当于你请了一个私人的老师,然后我来帮你去管理这些错题,给你建立自己的知识库内容,特别是对高中、初中这些孩子都可以用上这个。呃, opencloud 的 这个知识库的本地知识库的一个内容。 好,它已经给我们回复了,看见没有,它这个二十道题目它已经出出来了,然后它放在了 c 盘的 workspace 这边,这边我们来去看一下,我们来去打开它这个题目去看一下。 你看内容摘要,共二十道选择题,包含了零缺陷的管理、 p、 o、 n、 c, 质量成熟度改进过过程改进等知识点,然后每一个题目每题有四个选项,并标注了正确答案,然后每题均注明来源文档路径, 然后零缺陷,然后他会告诉你题号题目的分布,零缺陷基础理论四题, p、 o、 n、 c。 不 符合要求的代价五题。然后质量成熟度阶段是两题,过程管理与改进四题,组织变更和领导力五题 啊,题目有分布,题目有来源,我们来去打开看一下,在 word space 下面, work space 下面有个零这个零缺陷管理知识测试正视版,我们打开好这个,就是它给我们出好的一个零缺陷的一个知识测试题目 说明,然后选项,然后第一个答案来源,第二个零缺陷品质观四个根本中的一个中心是什么?必第一次把事情正确的事情做正确,第一次把正确的事情做正确。 兄弟们怎么样,这个本地知识库是不是非常非常的有用,帮你出题目,帮你做解答,帮你分析,这样的话我们即使在本地不联网的情况下,也可以很容易轻松的打造我们的知识库,而且是 l 四级别的知识库。 好,今天这个 opencurry 的 知识库搭建走了一遍完整的流程,后面我会继续讲,企业及知识库怎么设计,怎么接飞书,多维表格怎么做自动更新,怎么做团队共享。 如果你想把 ai 真正用到工作,记得关注我,后面全是实战干货。好,今天就到这里,谢谢大家。

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

相信大家已经安装好了自己的 openclare, 但是你有没有想过你每一次的 openclare 的 使用都会消耗你的 tokyo, 这个 tokyo 的 话就是需要大家去花钱去买, 那有没有办法能够免费的使用 opencloud? 如果说你也想要免费使用 opencloud 安装 olemma 模型,那一定要点个关注,点个收藏,不然的话你下次就刷不到了。那我们进入正题,我们直接啊百度搜索一下 olemma, 然后在这个右上角位置点击下载, 这边的话选择自己电脑系统,然后点击一下,直接点下载就可以了。 ok, 下载好了之后,我们直接正常安装啊,就会进入到这个页面,然后右下角我们要选择一个模型,正常来说一般是选择这个 gpt 二十 b, 也可以选择千问,三点五千问。 ok, 我 们在这个位置选择好了之后,你发一个消息,你比如说我选一个,我没下载的,我发个一,你发一个消息之后,他就会开始自动下载这个模型。 好,我们直接进行下一步。欧莱玛下载好之后,我们直接通过这个运行安装向导重新把 openclock 跑一遍, 因为之前你们装过 deepseek 的 模型,然后这个配置处理的话,选择更新值, 在这个模型认证供应商这里选择 olemma, 本地本地本地,然后它会有一个模型 id, 例如 deepsea 杠 r 一 比八币,我们再打开你的 olemma, 看一下你的右下角, 就是把这个名字输入进去, 我们用的是这个二十币, 这个的话直接回车就可以了。 这个聊天通道的问题,因为之前已经跟大家讲过了,我们就直接挑过了, 我们把网关打开,等这个 opencloud 的 正常运行。 ok 啊,大家在运用这个 oemma 本地模型的时候,它是不需要花钱的,但是它是基于你电脑来去做的本地模型,那是什么意思呢?就是说它直接消耗的是你电脑的性能, 比如说我们在这个内存 gpu 直接消耗你的电脑性能,比如说你的电脑越好,那它运算速度就会越快,大家这么说能理解吗? 还有就是这个欧莱玛上面的模型,它对应的有一些,比如说它这个二十 b 的 模型,它是 比较推荐八到十六 g 的 这个显存的显卡,然后才去使用,然后有一些是呃,一百 二十币的支持二十四 g 或者三十六 g 的 显存的显卡才能去使用的,也就是说他直接消耗的是你电脑本身的性能。 ok, 如果说大家感兴趣的话,可以自己去装一下试试。

大家好,相信大家最近应该都被这一个 openclock 小 龙虾给刷屏了,不管是在刷朋友圈还是刷短视频上面,都应该有刷到过关于 openclock 小 龙虾的一个话题。 简单来说,它就是一个 ai 智能体工具,可以实现连接 ai 大 脑与终端设备,让 ai 真正拥有双手,从只会聊天提供建议的被动助手转变为能自主完成系统及任务的标准化数字员工。 截止目前,他在 github 上面已经登顶榜单第一,拿到了三十几万的一个 star, 这就足以证明他的一个火爆程度,很多人甚至已经开始接起了上门安装或者远程安装的一个服务。那么接下来我们就来给大家分享一下如何在本地 windows 电脑上面部位的进行安装。 我们首先来到 node js 的 官网下载对应系统的 node js, 注意版本需要在二十二以上,然后点击下载,打开文件进行安装,一度 next 即可。 安装完成以后,我们可以按键盘上的 windows 加 r 输入 cmd, 打开终端,在终端里面输入 node 杠 v 跟 n p m 杠 v, 如果有版本号的出现,那就证明已经安装成功。接下来我们安装 git 一 样到 git 的 官网这边点击下载, 下载完成之后我们打开文件安装,然后一路 next 即可。 安装完成之后,我们一样在终端这边输入 get 杠 b, 如果有版本号的出现,证明安装成功。接下来我们就可以开始安装小龙虾了,我们复制这行命令,然后打开 windows 自带的 power shell, 记得要用以管理员的身份进行运行,然后我们在 power shell 里面填入我们刚刚复制的那一串命令,出现这一个报错,不要慌,这是由于 power shell 的 执行策略默认禁止运行脚本, 我们只需要复制这一行命令,然后将它在 power 里面执行一下,然后重新执行上一条命令,这样他就开始下载了。如果他下载的很慢的话,可以改用国内镜像进行下载,会快一些。 安装完成以后,我们就可以输入这一行命令进行初次配置,然后他会弹出一个使用协议,需要你这边进行确认。值得注意的是,使用 open core 可能会存在一些安全风险,建议大家还是在云服务器、虚拟机或者备用机上面进行使用。然后我们这边选择 yes, 选择快速开始,然后这边是给你的模型配置对应的 api key, 我 们这边先跳过, 然后这边是配置聊天渠道,你可以选择 telegram、 whatsapp it's code 或者飞书来更方便的跟小龙虾进行对话。我们这里也先跳过,接下来是配置搜索服务,这边需要另外申请。 a b i q, 这里也先跳过, 接下来是给小龙虾安装 skills 技能包,给他配置各种各样的能力,比如操作浏览器等等。这边我们也先跳过,后面再按需进行安装。接下来是配置 hux, 这边可以全部选中,注意是空格,选中回车确认,然后他这边就会自动安装并启动 open curl 了, 然后他这边可能会弹出防火墙提示我们这边点击允许启动完成之后,他会问我们要在终端里面使用还是在网页浏览器当中使用,我们想要看的直观一些,当然是在网页浏览器当中使用了选择网页浏览器,然后他就会自己打开 open 可二的网页控制面板。 到这里你的 open curl 小 龙虾已经全部安装完成,但此时它还不能够进行对话,因为我们前面是没有进行配置这一个 api key 的, 接下来我们来配置一下,我们在 power shell 里面输入 open curl config, 打开配置页面, 选择本地 logo, 然后这边选择 model 模型,在这里可以选择你的 ai 大 模型,比如我这边用的是 mini max, 所以 我这边就选择 mini max, 因为我是使用的是国内的 api, 所以 这边要选择 cn, 然后复制 api key 粘贴进来,然后选择模型, 然后这边选择继续 continue, 他 这边就会自己进行重启。然后我们再回到网页浏览器这边就可以进行对话了, 然后因为他现在等于说是刚刚诞生,那么你就可以根据对话去一步步的引导他来设置他的身份、个性以及职责等个性化信息。 好,那么这期视频我们就先到这里,下一期视频我们再来给大家讲一下如何接入飞书 discord 以及 whatsapp telegram 等聊天渠道,谢大家再见!

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

这是我刚收到的苹果新款 macbook neo, 用它养龙虾,你觉得靠不靠谱呢? 今天我就用它手把手教大家如何配置 macos 版的 open core, 本地部署步骤呢,很详细,需要一步一步往下看,保证成功。建议呢,先仔细看一遍,再跟着操作。第一步,安装 get 苹果自己家的开发者站点,仔细看,这里 搜索 command line force for xcode, 根据我们现在的系统版本,新的呢是 xcode。 二十六点三,点击箭头,点击安装包,下载到本地后,打开后按提示安装就可以, 直到安装成功。这个时候呢,我们点击右上角放大镜图标输入终端,打开后输入这串命令,看到版本号就是安装成功了。 第二步,安装 homebrew, 我 们需要在终端输入这一行安装命令,提醒一下。接下去呢,出现类似的命令,记得暂停视频,复制后可以在千问豆包等大模型工具问一下,以免复制的时候识别错误。 输入后呢,按回车,他会自动开始安装 homebrew 了,这里会问我们通过什么下载 homebrew, 我 们可以输入一,也就是清华大学这个敲回车,然后会要求我们需要输入开机密码, 输入后直接按回车就可以,这里会问我们是否删除之前这台机器安装的红不入,直接输入 y 回车,他会帮我们自动备份。再接下来呢,我们还要按一次回车开始安装红不入,安装成功后会需要我们再次输入密码,直接输入后回车就可以。 接下来会让我们选择哪个国内镜像,这里我是直接按他提示输入五回车,然后我们等待他安装完成,直到出现安装成功的提示后,我们先关闭一下终端界面,然后呢,在程序屋重新打开它,让配置生效。 这里有个提醒,如果你是 mac os 二六之前的版本,你呢也可以先按照第二步安装 homebrew, 安装完毕了之后呢,再安装 git 就 比较简单了,直接在现在重新打开的终端里输入 pro install git。 回车后呢,它就会帮你自动安装完成了。 第三步,安装 node js 仔细看 node js 官方界面左下角,点击 macos 安装程序,获取后呢,打开安装包,后面按提示安装,直到安装完成。 第四步,安装 open clone, 再次打开终端,输入这个命令回车就可以了,不用管它。再输入这条命令回车,只要输入正确,依然不用管它。之后我们再输入这行命令, 这个时候他会要求我们输入开机密码,回车后他就开始安装了,我们需要稍微等待一下,看到终端里有类似这样的提示,里面的具体数据呢,我们可能会有不同,不用在意。这说明欧邦克洛安装成功了,但是还没完。 第五步,配置 openclore 配置之前,我们需要先输入这行命令,这个命令的作用呢是删除我们本地已经安装过的飞书插件目录,以免后面引起冲突。输入后按回车就可以。接下来还需要输入 openclore on board, 启动 oppco 初识化配置向导,这个时候你就能够看到龙虾的 logo 了。这个呢,有一个官方风险提示,我们要继续只能选择 yes, 可以 用左箭头键选择按回车确认。这里我们只要保持 quick start 模式,直接回车就可以。 这里就是需要我们选择我们的 oppo colo 准备连接的大模型了,基本上覆盖了目前主流的大模型,如果你已经有创建过某个大模型的 api, 就 可以通过上下箭头键选择插播一个大模型 api 密钥配置。 我这里给没有创建过大模型 api 密钥的小伙伴演示一下我自己在用的 kimi 的 mojito ai api 密钥的创建过程。首先是 kimi 开放平台, 然后呢左侧选择 apikey 管理,之后在右侧点击新建给他取个名字,比如 opencore bot 项目,这里选择一个就可以了,然后点击确定,这个时候呢,我们就可以看到密钥了,这个密钥一定要保护好,不要让人看到,要不然被有心的人拿去的话,他用的就是你的额度了。这里不是点确定,而是点击右侧的这个复制按钮。 好,再次回来,我们可以点击程序屋上的终端,这里我们选择刚刚注册的 kimi, 也就是蒙秀的这个敲回车这个位置呢,我们根据实际情况,我们刚刚是注册的国内的,需要选择点 c n, 这个选择好后回车 这里我们因为是直接复制密钥的,所以直接在 face 的 api key 这里回车就可以。 ok command 加微把我们刚刚复制的密钥直接粘贴回车后,我们保持它默认的这个就可以直接回车。 这里会要求我们选择使用哪个聊天软件来通讯。目前呢,我们可以直接用向下箭头选择到最下面的 skip for now, 这里会涉及一些准备步骤,我们可以在视频后面再配置,选择 skip for now 后回车, 如果跳出设置 provide 后,依然先选择最下面的 skip for now。 先跳过回车,这个时候他会问我们是不是现在需要配置 skills 了,我们可以选择 yes 看一下,你用向下箭头键往下看,每一个的后面呢都有详细的场景说明, 如果有你需要的,可以选中它后敲一下空格键,再敲一下就是取消。这里我们依然先选择 skip for now, 反正后面呢还可以配置的空格键选择再敲。回车, 这里有一系列需要我们配置各种平台的密钥的,我们暂时也都可以先选择 no, 如果你的确已经有密钥了,当然也可以选择 yes, ok, 来到这里 hux, 我们也先用空格键选择 skip for now。 回车,这里会跳出一个窗口,我们先选择允许。然后呢,终端这里会问我们用什么方式起用 boot, 我 的建议是 web ui, 对我们普通用户来说也会更直观一点。选择后,回车,这个时候他会自动打开一个界面,这就是和 oppo cola 的 一个聊天界面了,我们可以先和他聊一下,比如我们可以用中文说一句你好,收到他的回复,呵呵,证明我们的配置已经成功了。 原则上来说,我们的小龙虾呢,已经养殖成功了,但是还有一步更重要的,才能够方便我们用聊天软件随时随地的给他下达干活指令。 也就是呢,即使我们在外面,也可以用手机上的聊天软件给他下指令。那么我们用目前口碑相对更好的飞书来举例。第六步,创建飞书机器人。 首先是飞书开放平台,我们可以准备一个个人账号,登录后点击右上角开发者后台,这里呢,点击创建企业自建应用,给他起一个名字描述,这里也随便填写一下, 选择一个图标,或者呢也可以自定义上传一个图标,然后点击右下角创建,这里我们点击添加机器人,暂时点击左侧的权限管理,点击开通权限 搜索框,这里我们输入 i m 冒号,注意这里的冒号呢,是需要切换到英文输入法的冒号的, 这里我们可以把全部都勾选,点击确认开通权限,这个位置有一个提醒,你看一下应用发布后,当前配置方可生效, 我们需要点击提醒这里的创建版本,这里我们输入版本号,按照他的提示,比如一点零点零更新说明,这里呢,我们也可以写上创始人版本下滑,点击保存,点击确认发布。 ok, 飞书机器人创建完毕。第七步,连接 oppo 克洛和飞书, 依然是在终端输入 open core config 回车,这里选择 local, 这里我们选择 channels 回车,然后是选择默认的这个 config link 回车, 这里呢,我们找到飞书回车这个位置,我们得选择 download from npm 回车安装飞书渠道插件这个位置,选择 yes 回车。稍等片刻后,需要输入飞书的 app, 先按一下回车, 之后再是飞书的开放平台左侧,点击凭证与基础信息,点击 app secret 这里的复制键,再是回到终端 command 加 v 粘贴回车,这个时候还要我们输入 app id, 再次在飞书开放平台点击这里的 app id 下面的复制键,然后呢,再到终端 command 加 v 粘贴回车,这里通讯方式选择 web socket 回车飞书这里我们选择 cn 的 这个就可以回车。 是否允许群聊使用?我的建议是选择下面的 open 回车,下一步可以直接用向下箭头键快速下滑到底部,选择 finished 确认配置完成,这里呢,问我们的是配置私信访问策略,这里需要选择 yes 回车之后这个位置,我们可以直接选择 perry 回车,这个菜单里我们可以选择到底部的 continue 回车。 ok, open core 和我们的飞书正式配置完毕。 最后环节,我们在终端输入 open core get away 启用它。再是在飞书开放平台选择左侧的事件与回调,点击订阅方式,这里的按钮 确认是这个默认的长连接,点击保存这里再是点击添加事件,搜索框里输入接收消息,将接收消息勾选,点击添加按钮,再是点击左侧的权限管理,点击开通权限。 搜索框里呢,输入通讯录,把这个获取通讯录基本信息勾选,点击确认开通权限,再次点击右下角的确认,这里依然会看到版本发布后当前修改方可生效的提醒。我们还是点击创建版本,输入新的版本号,比如一点零点一 更新说明,这里呢,我们可以是添加消息,接收能力,下滑到底部,点击保存,点击确认发布。 第八步,与 open core 对 话,我们可以尝试拿起手机飞书,点击开发者小助手下滑,找到我们前面命名的那个应用,点击打开,我们可以给他也发一句问候,比如你好, 这个时候呢,你会收到这样的一个安全配对提示,不是错误,是为了安全起见生成的配对码, 我们只要复制提示里最下面的这行命令,在终端里再次输入回车, ok, 显示配对完成后,回到手机飞书再给他发你好,很快呢,就能够收到他的回复了, 哦吼,正是在我们 mac 上部署完成了 open core, 同时呢,也可以用手机上的飞书,电脑上的飞书,随时随地的给他下指令了。 这就是完整的 macos open core 本地部署教程了,适用所有的苹果电脑 制作,不容易,有用记得点赞分享。接下去呢,还会有如何配置 skill, 如何省托坑等等的一些必备技巧分享,大家记得持续关注。如果大家还想了解如何一键云部署的话呢,也可以留言,需求多的话,我也来做一条详细的教程。

最近开源 ai 智能体 open cloud 火出圈了,它不仅能聊天,更能像真实员工一样操作你的电脑,读取文件,执行命令, 甚至搭建网站。许多朋友问我,没有 lin 的 基础, windows 用户能晚吗?答案是肯定的。本文将带你用一杯咖啡的时间在 win 十一上部署这位数字员工。 第一步,以系统管理员身份打开 power share, 懂的朋友不用担心,我们用一个很简单的方法,在手旋这里打 p o w e l, 就 会出现这个画面, 点击鼠标右键,我们就用以系统管理员身份执行,稍后出现一个确认画面一点四,它就成功打开了。好,我们下一步 我们在这个画面下就输入一下命令,主要是检查并安装依赖玩具。首先我们检查 出现这行字,各位朋友不用担心,其实这个就证明他没有安装路,同样我们输入另外一个 ctrl 也是一样,代表我们下一步就要安装这两个了。应用, 那我们在百度或者是浏览网页上面,我们就所说 that, 然后在网页上面,那我们就获取 root, 然后按照我们的版本 window 啊叉六十四,然后下载。 下载完之后我们就打开档案,双击开始安装。同意点击,点击,点 击就按默认安装就行了, 这个 root 就 已经安装完了,下一步我们就安装 get 一 样,我们这里选我们的版本 windows, 然后叉六十四安装啊,点击,然后下载。 下载完之后点击,然后打开档案右键以系统管理身份执行确认, 然后点下一步,下一步,下一步默认就可以了。 好,我们安装完成了,现在就打开, 然后就关闭。好,我们来圈一下这两个应用是否已经安装完成。同样,我们在手群这里打 b o w e 号, 出现这个 windows, 然后右键系统管理员身份执行,就回到这个画面了, 然后按键盘上下,我们不需要把命令,按键盘上下,我们就可以找到之前输入的命令 m b n 确认版本成功,然后下一个 root 确认版本是二十四,证明两个都已安装完成了。 好,下一阶段我们正式安装 open cow, 我 们在 open cow 的 这个网页上面直接点 press button, 这里有一个音念行的注, 我们在我们已打开的 power shift 里面,右键就已经复制完毕,点回车,这样的话就自动安装了。 好,现在 opencore 已经下载完成了,那我们看来这个版本是最新的了。然后进行下一步的配置, 这里点击 yes, 然后我们就采用快速开始啊,会 start。 这里的话呢,就是很多模型可以选的,这是系统默认的。那我们就是选用国内的,现在有很多是免费的模型,但是一般都要实名制的, 那有一些是国外的。呃,可能国内的朋友要用的话,就是有一些技术要求哈。呃,建议用国内的啊,像那个 mini max 啊, mini max 可以 尝试下去用啊,效果也不错。那这个 mini mix 的 话呢,我们可以通过页啊这个赞,然后去到页面,我们可以去申请一个 a p i 钥匙啊,点击,然后这边的话呢,我们就可以去 首次。呃,是免费的,我们可以注册,注册这里输于输入这个手机号密码登录, 然后输入资料,登录之后会出现这个画面,然后点击这里获取你的 t。 啊, 好,那我们就进去一个页面,那这个页面我们主要是拿到我们的这个 api 钥匙,然后等一会会在 open call 那 边去使用的。啊,配置页面 用这个 mini mix, 然后上面是全球的啊,我们就选用中国 ip 回车哦,回车,然后鼠标右键粘贴回车, 然后默认回车。好,那其他的话呢?我们暂时不配听回车, 回车,然后用的话,我们选中 no, 然后这个按这个空白键 skip 访问。啊,那现在呢,它就准备重启,我们就撤,这个时候呢,我们再看另外一个 part。 是 啊,另外一个 our show, 我 们再输一个 mini, 叫做 open cow 结尾,然后开始, 然后我们就直接可以进入这个 open cow 的 这个系统页面了。 好,现在我们的配置已经完成了,然后系统页面也正常打开了。那我们最后一步测试一下啊,系统是否正常运作啊?啊,我们这里可以输入是你。好 啊,那这个回馈已经出来了,那证明我们的配置是正确,而且是正常运作的。 好了, open cow 的 环境安装就到这里了。那有时朋友去问啊,安装完了怎么用起来啊?那下一个视频我会教大家 open cow 配珠配书集成啊, 实现消失自动推送和任务管理,超级实用哈,希望教大家点个关注。

兄弟们大家好,今天呢,我们来出期龙虾官方的部署教程,来看下左上角的地址,龙虾的官方域名地址是什么呢? 哎,就是这个 opencloud 点 ai。 想要部署 opencloud, 我 们先要安装两个软件,一个是 git, 一个是 node js, git 呢是这个地址点这儿下载。 note g s 呢是这个地址点这儿下载。下载完成之后呢,你就得到了这么两个东西了,哎,怎么安装呢?很简单,双击打开下一步,下一步,下一步,下一步,一直到安装完成就 ok 了。接下来你需要鼠标移动到左下角开始按钮,然后输入 power shell, 以管理员身份运行打开它。打开之后呢,你需要手动输入三个命令,来测试你刚刚装的 get 和 node js 是 不是安装成功了。那么第一个命令呢是 node 空格,杠杠 v e r s i o n 回车, 哎,第二个命令呢是 npm 空格,然后杠杠 v e r s i o n 回车,然后第三个命令呢就是 get。 接下来我们就要开始下载和安装了,那根据 opencloud 龙虾官方的部署教程,哎,第一步呢,我们就要执行这个命令进行下载和部署。 这里补充说明一下啊,当你执行这一个安装的命令的时候,你要确保你能够在电脑上访问 opencloud, 点 a n 对, 也就是访问 opencloud 这个官网,如果不能访问呢,你就得想想办法了,哎,搞搞魔法呀,搞搞科学呀, 对吧?那当你的 power shell 出现这个 open cloud 安全警告哎和提示的时候呢,就说明你的 open cloud 龙虾就已经安装成功了。然后呢,我们按键盘上的左右方向键,哎,来选择一个 yes, 然后第一个这个呢,是第一个,这个呢,我们选择最后一个,这个呢,我们选择第一个,这个呢也是第一个。 好,那么这个呢,我们就选择最后一个这个呢?我们也是同样的跳过, 为什么要跳过呢?因为跳过之后呢,可以在后面啊,去再去配置好,这里呢,他问你要不要去配置 skill, skill 什么呢?哎,就是配置技能,那我们就选择 no, 这里问我们要不要配置 hook 啊?就是配置自动化脚本,那我们这边呢,也是跟刚才一样也是跳过, 但不同的是呢,我们要按一下空格键,然后再按回车键。哎,跳过了这一步呢,跟你自己操作是有差异的,因为我现在已经安装了这 opencloud 了,所以他提示我是要重启还是要重新安装还是跳过, 那么为了我们演示呢,我们就现在重新安装一下啊。好,当我们的网关安装成功之后呢,就来到了我们 open cloud 触式化的最后一步,他这样问你的是第一个,你是用什么方式去启动你的机器人? 他说第一个是终端啊,第二个是 web ui, 那 我们选第二个啊。 哎,当你安装成功之后呢,它就会自动地跳转到你的 web ui 的 这个界面,那么当前这个界面呢,就是你的 opencloud 龙虾的操作界面了。

如何本地部署 openclog? 无需付费,无需 api, 可调用多种大模型,适合想尝试但是分币不花的同学。今天嘴对嘴教会你,记得一键三连鼓励一下。第一步,环境准备,我们先来安装 get, 点击电脑开始菜单,这边输入 powershell, 然后右击以管理员身份打开,输入上面这一段代码,注意空格,然后按下确认键,等待安装即可。这边已经提示我们安装成功了。第二步,安装 elama, 进入欧拉玛官网,点击右上角的下载,这边有三个系统版本可供选择,大家根据自己的系统自行选择,然后复制上面这段代码,打开之前的 power shell, 把刚才的这段话复制进去,等待下载安装 已经提示安装成功了,我们点击开始菜单,找到刚才安装的欧拉玛,打开欧莱曼以后,我们发现这边有很多模型可供选择,我们也可以自行选择模型,比如我选择最近刚发布的千问三点五模型。第三步,安装模型, 大家根据自己的配置找到合适的参数进行下载,复制上面这一段代码,然后点击开始菜单,输入 cmd, 把刚才复制的代码复制进去,等待下载安装即可。 由于模型比较大,大家需要耐心等待,我这边直接跳过了,我们显示已经安装成功了,我这边输入你是谁,他会跳出思考过程,然后说我是通一千问系列最新的模型。接下来我们回到奥拉玛,点击左上角的设置菜单,打开 expose alama to the network 这个选项, 然后往下拉,找到 context list 这个选项,把上下文长度设置六十四 k 到一百二十八 k 之间,如果你显存高,可以调高。第四步,安装 openclaw, 我们进入 openclaw 官网复制上面这段代码,记得不要看错了,它有 mac os 版本的。然后重新打开 powershell, 把刚才复制的代码复制进去,跟之前一样等待安装即可。这边显示已经安装,我们点击允许我们输入 alama launch openclaw, 然后点击确认键。 接下来可以通过 tab 键来选择你想要的模型,因为之前我们下载了快三点五模型,所以我们直接选择这个。安装好以后,我们复制上面这个链接到浏览器打开即可。 看到这里就恭喜你成功安装了 openclaw, 下一期我会教大家如何链接 qq, 实现全自动工作,小伙伴们别忘记点波关注哦,咱们下期再见!

如果呢,你想让你的龙虾能够自己打开浏览器,自动搜索你想要的内容,然后呢把这信息啊摘录保存到本地,那你一定要会使用它的自动化操作浏览器 browser 功能, 那要实现这个功能啊,第一步,在命令提示符里输入这条指令,让他安装浏览器插件,然后呢再输入这条指令,获取他的安装路径,他呢会自动复制到粘贴版,这时候我们只需要打开谷歌浏览器,进入扩展程序页面,起用开发者模式, 在左侧呢选择加载未打包的扩展程序,然后在弹出来的对话框里呢粘贴钢层的文件目录,选择文件夹,哎,他就会自动安装。 安装完了之后呢,它需要我们填入 token 令牌,那这个令牌呢,就在我们龙虾控制面板的盖栏这里,填进来之后呢,我们就配置成功了,这时候我们只需要给它去输入一条指令,比如说我让它打开抖音,然后搜索严谨职场 ai 提效, 把它的前五个视频信息摘录出来,填到一个 excel 里,并且放在桌面上给一个命名。 这时候啊,他就会根据我们的要求,自动打开网页进行操作,自己动手完成任务,最后给我们呈现我们最终的结果,是不是非常的牛批,非常的哇塞呢。

open club 整挺火,后台私信主要关注两个问题,一,小龙虾是什么?二,怎么安装?因为我和我的关注者都不是什么 ai 专家,大多可能是因为小龙虾很火比较好奇,我就言简意赅了,小龙虾不是什么新的 ai 模型, 他是一个利用 ai 的 工具。如果你不给小龙虾分配模型啊,他是连聊天都没法聊的。如果给了他模型,那就厉害了,他可以读写操作你电脑上的所有文件,甚至接入其他程序的接口,操作这些程序,帮助你工作好了。第二个问题, openclaw 怎么装呢?上个月底一个上海粉丝啊,花了五百块装 openclaw, 离谱。 其实官方是有脚本的,安装起来并不麻烦,但是网上的教程却存在不同的安装方式的 原声安装和类似于虚拟机的 wsl 安装。这里各位不要被这个说法迷惑了,好像虚拟机就不太专业,不太灵活。实际上呢, windows 的 原声安装受制于安全策略,装好之后的 opencll 权限仅限于一个指定的文件夹, 反而是 wsl, 你 可以理解成微软的官方虚拟机啊,它的权限是可以控制你整台电脑的,这样才可以真正帮助你工作。而且后面小龙虾玩够了,你只要把这个 wsl 卸载, 电脑还是干干净净的,不像原生的安装方式啊,需要手动清理很多垃圾。第二个不同呢,就是接入方式的不同。如果你已经在电脑上部署了 ai 模型,那就可以直接让小龙虾调用,完全免费。但是这个工作效率嘛, 受限于你的电脑配置,像我这台电脑,真实体验下来并不好。而第二种方式是使用像千问呢, deepsea 这些官方提供的 a p i, 就是 你坐在家里,让他们的云服务器给你跑 ai 模型,这个体验就太爽了,缺点就是需要付费。当然喽,每家都是有免费额度的, 你可以挨个注册嘛,嫖完了所有的免费额度,再决定要不要付费。所以呢,我这里的安装教程就是 windows wsl 安装加上云端模型的接入。安装步骤拢共分三步,第一步,环境安装。先安装 wsl 搜索框,输入 power shell, 右键管理员运行, 输入 wsl install 回车,等待安装完成重启。 重启之后进行 linux 的 安装,再次 power shell, 输入 wsl install 乌班图二十四点零四这个版本回车。 安装完成后会提示设置 linux 账号,可以直接回车,然后设置 linux 密码,这里它不会显示你输入的字母,你就自信地输入简单的密码,然后回车并再次确认输入密码。 再回车之后,会发现命令符变成绿色和蓝色了,说明我们已经进入 linux 虚拟机了。第一步我们的环境就配置好了。第二步就是 open color 主体了,直接在命令框输入回车,等待完成, 直到出现黄色字体,就表示这个炙手可热的 openclaw 已经完成安装了。紧接着最后一步,配置 openclaw, 控制方向键向左回车回车。到了选择 ai 模型这一步,我选择用千万来做示范,控制方向键向下找到千万并回车, 选中弹出的网页链接, ctrl 加 c 复制并粘贴到浏览器,登录千万账号。这一步的意思是告诉千万允许 open color 调用它的模型,如果没有账号呢,咱就注册一个。确定授权以后,回到 open share 的 界面,这里也同时得到了响应键盘回车 配置技能。这一步,选择下面的 skip 跳过,然后继续选择 skip 跳过,一路选 no。 到了这一步,把除了 skip 之外的四个选项用空格键全部选上,按回车确定。最后一步,选择第一个回车, openclaw 也部署完成了,我们已经可以和他交流了,教程也结束了,更多的高阶功能需要安装一些额外的 skill, 这个就靠你自己摸索了。当然了,你也可以直接问你的 openclaw。

想在本地部署 openclock 的 同学,这个视频你们跟着一步一步来做,基本上都可以成功的。这里我用 windows 系统来举例啊,如果你们是苹果或者 linux 系统呢,那部署起来会更加简单。其实要在 windows 上面来部署呢,也不是很难, 需要我们手动去安装的东西呢,其实就两个啊,一个 ws l, 还有一个就是 openclock。 你 们在网上面看到那些啊,让你们在 windows 下面呢,又安装 nodekit, 完完全全是多余的啊。 不是说 opencl 不 需要 note 和 get, 而是说装在 windows 下呢,它一点作用都没有,因为我们是在 wsl 下面去跑的,也就是那 windows 下的一个 linux 系统, 你在 windows 里面给它装这么一堆东西, linux 里面还是没有的,到时候呢, opencl 还是要给你再重新装一遍这些东西。所以呢,我们就直接在安装 opencl 的 时候,让它检测到环境需要什么,它就会自动给我们安装了。 就比方你们现在看到的这个终端啊,现在呢,我还是在 windows 目录下面的,我来检测一下 no 的 版本,可以看到这个的版本号呢是二四点幺四点零,这一个呢是我本来就装在 windows 系统下面的,现在呢,我进入一下 wsl 这里呢,大家可以理解成啊,我在 windows 下面呢,进入了一个 linux 的 子系统,然后在这里呢,我同样查看一下 node 版本,可以看到两个的版本号呢,是不一样的,一个是二十二,一个是二十四。 因为到时候我们的 openclock 是 要在 wsl 下去跑的,所以 openclock 它环境需要的 node git 这些呢,都要在 wsl 下面去安装才有用的。 我们给它装在 windows 下面呢,一点用都没有,所以我们不需要额外安装那些,我们直接去安装 w s l, 把这一个装好呢,我们的部署就成功一半了。其他环境需要的那些 node git, 到时候安装 opencloud 的 时候呢,它会自动帮我们安装的。虽然我们不用手动去装这些 node git, 但是呢还是要做一些额外的准备啊,比方科学上网, 学上网这一点非常重要啊,要不然的话,这个过程呢,很有可能你就会因为网络的问题啊,没办法部署成功。其次我们的电脑呢还要做几个设置啊,这一点呢,很少人说到,但是还是挺重要的。首先我们打开任务管理器,在左边呢,进到性能选项卡, 然后看一下右下角啊,它有一个虚拟化啊,我们要保证虚拟化呢是一起用的状态,基本上呢它默认都是一起用的啊,如果说没有起用的话,我们就手动给它起用一下,然后我们通过运行窗口输入这一个命令, 打开 windows 功能,拖到最后,这里面呢有一个适用于 linux 的 windows 子系统,还有虚拟机平台啊,这两个呢,我们都要给它勾选上啊,勾选上之后呢,我们就点确定就可以了, 等他应用我们的更改,然后呢我们就要启动一下我们的电脑大模型,这里呢我就用千问来给大家举例啊,因为他有免费的头梗赠送,所以呢大家可以来到千问这里啊,先注册一个账号。 安装这个之前呢,我们还要对网络进行一下配置,选中我们连接的这个网络啊,右键属性, 现在呢,我们都还不需要配置科学上网啊,就用我们本来的网络设置就可以了,我们就来改一下这个 dns 服务器啊,给他编辑一下, 我们就来改一下 ip 四的 dns 地址,默认呢,他可能是自动获取的,我们给他手动填啊,这个地址你们就按我一样的填就可以了。准备工作做完之后,我们就来打开泡泡消,这里呢,以管理员的身份运行 这里,我们就输入 wsl instyle 这条命令,然后根据它提示的这条命令哈,我们来安装一下,有帮图, 安装完之后呢,它可能新弹出一个窗口啊,也可能在本来的窗口啊,让你新建一个用户名和密码,你就按照提示来输入就可以了。 输入密码这里大家要注意,它是不显示出来的,你就正常输入,确保输入的没有问题就可以了。最后看到有颜色的这一行,带有你创建的用户名的这一行啊,就证明你的友邦图已经安装成功了,也就是那你的 ws l 就 安装成功了。 接下来我们就准备安装 open curl 了,来到 open curl 的 官网,现在呢,我们就要把科学上网配置好了,要不然呢,它会出问题啊。 找到 runs on your machine, 左上角先切换成简体中文,然后呢点安装, 我们就复制它快速安装的这条命令,这个时候就可以打开 wsl 了,没问题,成功进入了 linux 系统,然后把刚才复制的安装 opencloud 的 命令粘贴运行一下,现在它提示我们输入刚才创建的用户密码, 输入完之后它就开始安装了,像这里它会先检测环境需要的东西啊,像这里 node js not found it's already now 啊,它第一步就会把 node 给你装上, 下面就正式安装 open curl, 这里大家可以看到 git 它都给你安装好了,所以通过 wsl 方式呢,我们是没必要在 windows 下面手动来安装这个 node 而 git 的, 你一装还装错地方,甚至呢,装这个东西还装出问题,所以还不如直接给 openclip, 它自己来帮你安装。现在呢,它就帮你安装 openclip 的 二零二六三点幺二版本。 意识到出现 openclip 这个图像,我们 openclip 的 安装呢就已经成功了,接下来呢就做一些简单的配置就可以了,现在问我们是否继续啊,选 yes, 然后呢 crystal 快 速开始。下面这些呢,我们都是保持可以跳过的,先给它跳过啊,否则呢,就选默认,先让它把 open color 给装起来,后面呢再更改配置都可以了。选 skip now 给它跳过啊,选第一个默认也是保持默认啊, select channel 啊, step now 给它跳过。 search provider 也是给它跳过,问我们是否配置 skills no, 后面再配置都可以的,这个 whose 也是给它跳过。 ok, 现在我们就可以打开 open crawl 了,它上面呢有一个地址,我们按着键盘的 ctrl 键,然后点一下它, 他就会打开 openclaw 的 web 页面。这个呢是和 openclaw 的 智能助手聊天的页面,但是因为我们现在还没有接入大模型啊,所以呢,和他聊也没什么用。接下来呢,我们就要去接入千问的大模型,同样打开 power shell, 进入 wsl, 然后运行一下 openclaw config 这条命令,选 local, 然后就 model 这里模型的话我们去选到千问, 现在它是等待千问那边的授权,授权完毕呢,就接入成功了。这里我们可以复制一下这个地址,然后到浏览器去打开, 因为刚才已经让大家注册好千万的账号了,这边呢,直接点确认就授权成功了。其实到现在啊,我们的大模型呢就已经接入成功了, 现在就可以回到 opencloud 的 web 界面了。现在呢,我们和智能助手聊下天呢,只要他能回答我们的问题,就证明我们的大模型呢已经接入成功了, 没有问题,已经可以正常回复了。这样呢,我们的 openclaw 就 部署完成了。这个视频呢,就先到这里啊,下个视频再带大家来把 qq 飞书这些聊天工具呢,接入 openclaw。

上个视频我们已经说了怎么安装 opencloud 这些事,并且呢我们也可以在外部页面与 opencloud 进行一些交互,但是这仅限于本地的外部页面,想要在 我们手机上啊,或者是其他地方有它交互了,我们需要配置飞书,有了飞书过后呢,我们就可以在只要有网的地方,拿上我们的手机或者我们的电脑,都可以和熊龙虾进行交互,让他帮我们干活啊,这些都是可以的。好了,这里我们先进入 飞书的这个网站, oppo 飞书,点 c n g a p p, 然后点击这里创建企业,建应用,取个名称叫做应用描述,随便点创建 创建和应用,我们点击这个机器人, 点击添加, 添加好过后呢,我们就选择权限管理,点这个开通权限,在这个地方我们直接搜索 im, 就是 与消息有关的,然后点确认开通权限, 然后一定要记住这里结束过后就要点创建版本, 版本号是有要求的,只要三位的一点零点一,我们选或者是其他任意版本号都是可以的,更新说明就是创建音 创建应用 好点保存确认发布, 然后在这个地方凭证信息,这个地方会停留在这个页面,然后进入我们的 open core 进行配置, 命令就是 open core configure, 我们选择本地这个地方,这地方选择信 信息,这个就是各种交互信息的聊天工具的一个配置的选项, 选择 configuring, 然后选择飞书 yes, 选择输入我们的验证信息,这里记住这里第一个啊,我们是要先输入 app secret, 就是 这里不要复制到前面来了,这个位置复制上没制好, 然后这里才是 app id 复制粘贴进去, 任,你选择歪波索凯任,选择飞速点 c n channel, 任,你选择 open, 任允许所有的群主都能和他进行交互。消息 到这个位置我们选择 finish 就是 结束,这个我们直接选 no 就 好了,这个选择选 content 就是 结束配置 啊。这里结束过后,我们再回到飞书,选择这个事件与回调, 在订阅方式这里选择选择使用长连接接收事件点保存 这个地方,如果你能保存成功,那就说明我跟克勒比飞速就已经连接好了。接下来我们就添加一个事件,事件的话就是消息直接搜索吧 消息 看一下,消息填加上 我们在这里创建过后,还得点一下创建版本, 一点零点二更新说明,就是接入 app, 点击保存确认发布 好,接下来打开我们的飞书 给你看一下,这个应用程序已发布,我们点击打开应用, 快给他发条消息,你是谁?这条信息提示呢,就是我们 需要让飞叔与欧文科的进行一个配对,我们就是直接复制这条秘密,把这个地方复制下来, 然后到我们的命令行界面暂停执行这条命令就好了。 到底发送条消息是谁?这里呢就表示我很可乐,正在工作,有消息我是小欢喜,也愿意助你。 好了,这里我们与飞书的连接就已经结束了,下个视频我们就要讲给 open color 如何安装 skills, 这个就是关于飞书这个应用,我们呢在电脑上呢,可以直接在 飞书的官网上进行下载飞书就可以了。手机如果是在手机上呢?那我们就直接在应用商城里面下载飞书,然后登录我们的飞书就可以,然后网页版也是有的, 我们在网页版的飞书里面也是可以送消息的, 这是。

cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

掏出手机,打开飞书,给 oppo klo 发条消息,读取桌面上的财务数据,点 c s v, 生成实时化的分析报告,保存为 word, 发送给我回车,不到两分钟,一份包含专业图标的分析报告就发过来了。 再来发消息,帮我打开招聘网站,搜索 ai 产品经理职位,整理前二十个职位信息发给我回车,他真的打开了我家电脑的浏览器,自动爬取数据,整理成 excel 发过来了, ok, 搞定了, 还没完,发消息,去 archiv 下载最近一个月 a i a 软件弄文,写个中文综述发送给我回车,弄文自动下载,自动总结, word 综述直接生成。 ok, 同样搞定了, 甚至还能帮我排版。发消息,把刚才的中竖排版标起三号,黑体居中正文字小四送起,行距二十三磅,首行缩定两字母,回车, word 文档瞬间变得规规整整,学术论文格式一键搞定。 发消息,查一下, get 今日热榜,做个简报发送给我回车,不到一分钟,技术热点简爆发过来了, 不是爱瞎编的,是真的去 github 爬了数据,最离谱的来了,发消息,根据我今天电脑操作记录,帮我写份工作日报。回车日报自动生成的,以后可能我们再也不用熬夜写周报了。 这些操作全都出于最近火爆全网的 oppo klo, 一 只住在你电脑里的 ai 智能企。今天我就手把手教大家在 windows 上部署,并且呢接入飞书 配置完成后,你在公司、在路上,甚至是在马桶上,都能用手机来遥控我们家里的电脑来干活。点好收藏关注赞, let's go! 首先简单介绍一下 open collo 是 什么来头?它一开始叫 collo 的 boat, 后来呢改名 motboat, 现在呢又叫 open collo。 简单来说,它是一个运行在你本地电脑上的开源 ai 智能体。那么它最厉害的地方在哪?第一呢是能接入聊天工具, 飞书、 tony graham、 whatapp 等都能接。在外面呢发条消息,我们家里的电脑呢,就开始干活,还能把截图执行过程实时地同步给我们。 第二呢是定时任务系统,你跟他说每天早上八点帮我查 gitlab 热榜,做个点报发送给我,他就真的每天执行,比闹钟还正确。 第三是长期记忆,他会记住你的习惯和偏好,越用越聪明,越来了越懂我们。第四呢是能操作电脑, 读写文件,操作浏览器,调用系统功能,无所不能,听起来是不是很心动?那么我们现在呢,正式来开始配置,在安装欧风肯唠之前呢,我们需要做一些准备工作。 首先呢来安装 node js, 我 们访问 node js 的 官网,根据我们的系统下载正确的版本,大家双击安装移动 nex 就 行了。安装完成之后呢,我们 windows 加 r, 输入 cmd, 然后输入 node 空格杠 v 回车,如果显示版本号,就说明我们安装成功。接下来我们来安装 git, 访问 git 官网,然后点击下载最新的版本,同样双击安装移动 nex, 我 们打开命令行窗口,输入 git 空格杠杠 word, 然后回车,显示版本号呢,也就表明我们安装成功。 接下来呢是配置 power shell 权限。这一步很多人会遇到坑, windows 呢,默认会拦截安装脚本,我们在搜索栏搜索 power shell, 然后右击以管理员身份运行,输入这条命令 回车。我们来查看一下当前的权限。如果我们的 current user 呢,显示 restricted, 说明的系统呢?不允许运行脚本,我们需要修改它。我这里呢之前是已经修改输入这条命令回车输入 y, 也就是 yes, 我 们再来查看一下权限,这样呢,权限就改好了。最后呢,我们需要一个 ai 模型的 api k, 这里呢推荐大家使用 mini max 国产模型。我们访问 mini max 的 开放平台, 大家注册登录进入我们的用户中心,然后点击左侧的 codeignite, 然后点击复制我们的 apik 作为备用。准备工作完成了,现在呢,我们来正式安装 openclock。 打开 openclock 的 一个官网,我们来复制 windows 的 安装命令,接着打开 power shell, 粘贴命令回车。这个一键安装脚本非常方便,它会自动地把我们搞定所有的依赖。 安装完成之后呢,会进入初步化的配置流程。第一步是安全确认,我们使用方向键,选择 yes。 回车继续安装方式呢,选择 quick start 回车,接着回车。 这里呢,会让我们选择模型提供商。我们选择 minx, 然后回车,我们选择 minx m 二点一,然后粘贴我们刚才准备的 minx 的 api k, 选择默认模型。在配置通道这里,我们先选择 skip for null, 稍后呢,我们再来配置飞书。接下来是配置 scale, 同样呢,我们先选择呃 skip 谷歌 api k, 这里我们选择 no。 接下来是配置 hooks, 我 们按空格呢三个都全选,然后回车继续配置。完成之后,我们新开一个 power shell, 然后输入 opencloud getaway 启动之后呢,会提示我们本地访问地址, 你直接复制粘贴,这样我们就进入呃风可到的一个网页端,大家首次执行的话可能会有报错,我们需要执行另外一条命令,新开一个 power shell, 然后执行这条命令。 如果我们页面右上角显示 hirs ok 呢,就说明已经连接成功。这时候呢,你可能会发现我们发送消息依然不理我们,或者是一直在转圈,这大概率是 mini max 的 api 地址没配对。 openclaw 默认用的是国际版的地址,国内呢,和海外版是不一样的。如果你用的是国内版的 mini max 呢?执行这条命令改完之后,我们再来重启一下 openclaw, 我们再试试发消息,这样我们和 opencloud 就 能正常对话了。好,现在 opencloud 已经在我们本地跑起来了,但重点来了,我们要让它接入飞书,这样呢,我们才能在外面用手机来遥控它。 首先我们打开飞书的开放平台,点击创建企业自建应用,填写一个名称, 比如 opencloud bot, 再填一个描述,点击创建,然后点击左侧的添加应用能力,选择机器人,点击添加。 接下来我们来配置权限,点击左侧的权限管理,点击开通权限,我们在搜索栏搜索图片上的所有权限,然后勾选这是我们开通的权限, 然后点击左侧凭证与基础信息,把 app id 和 app secret 复制出来。待会儿我们要用点击左侧的版本管理与发布创建版本,我们填一个版本号, 然后点击保存,确认发布。现在我们来回到 power shell 来安装回收的插件, 我们需要执行了以下的命令,这里呢,我们需要将自己的 app id 以及 secret 进行替换,我们依次执行。 当然,我们也可以在 opencll 的 页面呢,让它帮我们自动地进行执行。配置完成之后,我们来重启 opencll, 我们点击左侧的 channel, 如果显示这样的一个页面,就表明我们的飞书已经安装成功。现在我们来回到飞书的开放平台。还有最后一步,我们点击左侧的事件已回调, 选择事件配置,点击铅笔图标,选择长链接,然后点击添加事件,我们输入接收消息, 然后勾选接收消息。 v 二点零这里呢,我已经添加。 最后呢,我们再来创建一个新的版本来发布创建版本,然后确认发布,这样我们飞书配置才算完成。我们打开飞书,点击开发者小助手, 点击打开应用。现在我们来发送一个。你好,如果我们收到回复,恭喜你配置成功了。从现在开始,你在外面发消息,家里的电脑呢就能自动干活了。 配置完成了,那 oppo 可乐到底能干什么呢?我给大家准备了十个案例,直接呢在飞书里发消息就能使用,大家可以自行测试。 好了,以上就是 open clone 在 windows 上的完整部署教程,以及接入飞书的全流程。 配置完成后,你就拥有了一个二十四小时在线的 ai 助手,它住在你的电脑里,随时听候你的叫,遣你在外面发条消息,它就能帮你整理文件,分析数据,写报告,下载视频,甚至呢帮你写周报。 真的强烈,大家呢去试一试那种远程让电脑自己干活的感觉,真的是非常爽,我把详细的文字教程放在了评论区,大家照着做就行,如果这期内容对你有帮助,记得点赞收藏关注我们下次再见,拜拜!

这里教你小白安装法,手把手避开所有常见的坑,包括环境配置、权限问题、下载速度等等。看完不仅历史安装费你熟练后,甚至都可以接上门安装单了。我们直接开始。 第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面, 点击 windows 安装程序按钮,下载完之后打开安装包,如果出现弹窗,问是否允许此应用对你的设备进行更改。点击是在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。 接下来我们可以一路无脑点 next, 然后点击映 so 开始安装。这里我们要稍微等待片刻, 完成后点击菲丽莎钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完之后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release note 取消勾选,它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish, git 的 安装就不搞定了。 第三步,安装 open call。 在 菜单栏搜索 power shell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 power shell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, power shell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。然后我们再输入这个 open call 的 官方安装命令,并回车执行。 这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。当你看到一句来自 open call 的 花音信息,就说明 open call 已经按中成功了。可花啊,不过这还没完。第四步,配置 open call。 open call 故意展示一段话,提醒你使用塔可能存在风险,问是否积蓄,这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 open call 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。 那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。如果你已经创建过某个服务上的 api 密钥,可以直接使用,但我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完。 那这里呢,也教你如何创建大模型 api 密钥。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 api 管理,我们点击新建 api 按钮,给这个密钥取个名字, 下面选择项目,然后点击确定就可以看到啊。创建出的密钥的值密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了,然后先别着急点确定,先点旁边的副站钮,然后回到 power 下 回车。选择模型服务商后,因为我是在提米国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车,接下来把之前复制的粘贴到这里来。回车后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳固,因为呢涉及到一些准备步骤。后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的啊,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置,我们按空格选择 skill for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 nile 秘钥,可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步问我们要不要启用 hock, hock 指的是在某个事件发生时自动执行某个功能,我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个秘密窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shop 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 v r b y。 网页图形界面会更加直观和操作友好一些。 回车后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页。在聊天界面,我们就已开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了。在华安,但小龙虾之所以出圈,其中一个原因是它可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,它就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录,如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完之后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。然后我们把出现这些消息相关的权下先都加上,点击确认开通权限。上面有提醒我吗?应用发布后,当前的修改才会生效, 所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零点零,以及对应的更新说明,接下来点击保存并确认发布。现在我们的飞书机显就创建好了,但还需要把它和 open call 接通。 第六步,连接 open call 和飞书,回到 power 下,我们输入一个命令, open call comfik。 再次进行配置。 第一个问题,选择 logo, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configurink, 用来添加新的消息渠道。这里一路向下,找到飞书后回车 要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会儿安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。 我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power 项, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通行方式,默认的 web socket 是 实时通信模式,配置起来进难。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finish 表示完成配置,然后这一步问要不要现在配置私聊访问策略,以至于谁可以在非数私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以辞掉机器人。这样呢,不需要先进行配对, 如果是正式环境,建议选择 perry, 然后回车选择最后的康听令。这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存。 保存后我们就可以添加事件搜索接收消息,勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上,点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话了。 来到飞书 app, 可以 在消息列表里找到自建应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里,艾特他回答问题。如果想让他变得更强,也可以给他配置更多 skills, 扩展他能完成的任务,但建议啊,只安装官方或可信来源的 skills, 避免大。