我只有一个显示器,怎么在 windows 和 mac 之间来回切换呢?每次都要把线拔下来吗?养龙虾会遇到这个问题。如果你的显示器可以插两根线的话,你可以把两根线都插上,然后在侧面这里可以选择切换信号源,这样可以切成 mac, 你 也可以很方便的把它切回去。
粉丝396获赞4443

一分钟教你拥有多个龙虾你肯定看到别人有多个龙虾,而真正的多个龙虾只有一个。 open cloud 今天教会你拥有多个龙虾。 open cloud 中多个龙虾指的是 sub agent, multi agent。 视频结尾,我将具体分析 open cloud 中关于 sub agent 和 multi agent。 我 们先来配置 multi agent, 打开终端,输入命令 open cloud agents add 加你的龙虾名 会撤,然后你会看到 workspace directory, 这是新的龙虾的工作目录,可以不用修改它。继续回车,第一个选 yes, 之后全部选择 no, 这样你就完成了第一步。然后我们龙虾目录里多了一个新建的 workspace。 我 们来到 opencloud 配置文件, opencloud 点 jn 中,我们看到 agents 中多了个 list, 其中包含我们现有的 agents。 可以 看到网页中代理里也多了一个我们新建的 agent 图案。 官网中有两段关于飞书的配置,我们来跟着配置一下。首先指定默认的 account 复制到我们的配置文件中,然后我们根据配置创建 account 字段,再改造我们原有的飞书配置。到 concons 中复制一段飞书配置,用来配置新的飞书机器人, 注意飞书机器人字段名不能一样。最后修改新的飞书机器人的 app 多和 app secret, 注意这里我的 dm policy 使用了 allowist 推荐,还是用 dm policy pairing 模式更便捷。最后我们添加 bindings 段, 绑定 agent 和飞书通信。其中 agent id 指的是我们的 agents 中 list 里包含的 agent 列表里的 id 字段, channel 则固定为飞书 account id 则为 channels 中 accounts 下的 key, 也就是区分飞书机器人的字段名。最后我们测试一下,就可以和新的飞书机器人通信,而它使用的就是新的 agent。 根据以上步骤,我们可以拥有更多的龙虾,从事不同的工作。注意, opencloud 官方暂时不支持多个机器人在一个群里互聊。 刚才我们用到的是 multi agent, 还有一种叫做 sub agent, 它们有什么区别呢?你可以理解为 sub agent, multi agent 的 员工。每一个 multi agent 都可以一句话开启 sub agent, 每个 multi agent 都可以专注做不同事,而 multi agent 下的所有 sub agent 只能围绕着 multi agent 做事。十分感谢你的关注与点赞,我将持续输出更多 ai 内容。

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

没想到啊,距离我制作 open klo 的 详细部署教程已经过去了一个多月,这玩意现在居然火成这个样子,甚至某鱼上都冒出了一堆远程部署的这个付费服务,动不动就收你们几百块钱。我在我那期视频发布之后呢,有的观众也在吐槽模型费用太贵了,那有什么办法能够不花这个模型钱呢? 有的兄弟们,有的本期视频的主题就手把手带你们部署一个属于你自己的大模型,并教会你如何在 open klo 中切换大模型的大模型啊! 不管你是使用像欧拉玛呀还是 l m studio 还是 v o i m 等,都能很方便的接入,从而实现完全离线免费无限制用的 open 可乐。好废话不多说啊,记得先点赞收藏加关注。我们现在开始 我整个教程会分成两大步啊,先搞定本地的大模型部署,再讲欧布可乐的对接配置。但如果你已经部署了本地的大模型,可以直接拖动进度条是吧?跳到对接部分即可。第一步,咱们先搞定本地大模型的部署啊,我这边推荐没有经验的同学优先使用欧拉玛,他几乎是目前全网最简单的本地大模型部署工具,没有之一 啊,支持一键部署市面上绝大多数的一些开源模型啊。然后这里插一水,如果你想要工业级大模型的推理框架 v l l m 的 教程,可以在弹幕当中扣个一人多的话,我后续考虑出个教程。 首先打开浏览器啊,输入欧拉玛的官方地址,我放评论区了,就直接复制在那些就可以。进来之后呢,你是什么系统就点对应的下载是吧? windows 点 windows 麦个点麦个, 下载完成之后呢,麦个就跟安装其他软件一样是吧?然后 windows 也是不断的下一步即可。 好,现在安装完欧拉玛后呢,最关键的一步就是下载并启动本地的大模型。这里要跟大家说清楚,要驱动 open close 这样的 a 卷的系统, 必须选指令遵循度强,上下文长度多的模型,简单来说就是听得懂指挥是吧?记得住你的命令的这种模型。而我这边测试了好几个模型,比较推荐用的就是这个 q 三点五,它有多个尺寸的版本,通常模型越大则性能越强,大家根据自己电脑的显存大小来选就可以了, 最好选不要超过你显存大小容量的模型,也就是 size。 这里我这为了快速演示,我这就使用这个零点八 b 这个小模型展示啊。如果你们有测试更好用的模型,也可以在评论区跟大家分享一下。 确定好模型之后呢,点进去之后,可以直接看到下载模型的指令,此时我们需要打开终端或者这个 power 键麦克打开终端, windows 打开 power 键,然后粘贴这串命令,然后按回车,它会自动下载模型并启动,全程不用你管。经过一段时间下载后呢,它会自动进入对话界面,你可以直接在这跟本地大模型对话,比如说问他,你好。 哎,到这里恭喜你,你已经成功完成了本地大模型的部署。接下来就是将其接入我们的 openclo 中了啊。这里先提一嘴,如果你的电脑还没安装 openclo, 可以 直接去我之前的其零基础啊部署教程,几分钟就能安装好。我这就不重复讲安装步骤了, 我们先讲刚装好的欧拉玛怎么对接。第一步,修改模型的上下文长度。因为欧拉玛本身为了极致的轻量化,如果你电脑显存不大的话,他默认模型的上下文就给你四 k, 你 就这样给 open color 使用的话,你说完这句话他就能忘了上一句。所以我建议把模型的这个上下文设置为至少六十四 k 以上吧。 我们打开这个欧拉玛的软件,然后点击设置,就在这里设置上下文,然后把这个拖到六十四 k 就 可以了。第二步,去 open clone 里做这个配置对接,还是在终端输入这个 open clone config, 进入 open clone 的 配置菜单,然后回车啊配置本地文件,选择 models。 这里呢是 opencolor 给你预设的一些云端模型配置,像什么啊, gpt 啊, jimmy 等等。我们要选择最下方的 custom provide 的 选项,这个呢是自定义模型选项,可以自定义 opencolor 从什么地址去调用模型的服务。而我们这里默认就是幺二七点零点零点幺,这个幺幺四三四端口的 我们不需要修改。然后这里的幺二七点零点零点幺呢,表示从你本地获取。然后这里的幺幺四三四呢,是欧拉玛的这个端口服务,然后再回车输入密钥,这个地方呢可以随便填,因为这是你本地的服务。 然后这里询问我们要接入什么标准的端点协议,我们也默认回车即可。最关键的来了这里,让输入模型的 id, 我 们在这里输入你刚刚下载的模型名称,然后这个样子就是教验,通过回车啊,后面的这些都不用,输入,回车即可。 然后最后选择最下方的这个 ctrl 钮,完成模型的切换。现在你可以回到 openclip 的 控制面板当中,点击代理,看到这个 primary model 是 不是你刚刚选择的模型了。至此,你已经成功在 openclip 当中揭露了本地的大模型。 如果你使用的是 l m studio 或者 v l m 等模型推理框架,步骤跟刚刚几乎没什么差别,只需要将这里的电路地址修改为你所对应架构开放出来的端口即可。比如说像这个 l m studio, 它默认的端口就是一二三四,你这里就写啊,幺二七点零点零点幺一二三四就可以了, 然后 vm 呢则是八千,然后你就把这个端口修改成八千即可。后面的步骤和欧拉玛一模一样是不是?嘎嘎简单?所以我们来 open call 聊天框简单的测试一下,就说帮我查一下北京明天的天气, 哎,如果你的任务比较简单,那是用本地大模型来驱动这个 open call 还是非常 nice 的。 最后本期视频用的所有命令和部署流程我都整理好了,放在这个评论区,大家点赞关注智取即可。 然后上期的这个部署教程和 open klo 的 这个 skill 制作教程我都会放到 open klo 的 合集里头,后续呢也还会更新 open klo 的 其他玩法,不想错过的朋友可以点个收藏和关注啊,咱们下期视频见!

今天给大家介绍一个方法,就是让 openclaw 当一个调度员,去指挥多个 ai 编程工具,帮你完成编程任务。 那为什么这么做呢?我今天遇到一个问题,就是我让我的研发的 agent 去帮我写代码的时候,发现他很长时间没有回复我,我看代码也没有提交,我就问他,我说你根本就没有提交代码,是任务超时了吗?你把原因告诉我。 最后他给我的回复确实是超时了,因为 openclock 他的机制,如果说一个任务时间过长的话,他有可能被杀掉,所以任务就 终止了,而且他甚至他都不会主动告诉你。那怎么去解决呢?现在有一种办法,就是用一个叫 t m u x 的工具来解决,这是个什么东西呢?你就可以理解,它就是一个不会被关掉的,在后台运行的这么一个程序窗口, 那在这个窗口当中你去调用 cloud code 或者 codex, 就是 这个逻辑。那让 chat gpt 给大家解释一下,就这么一个结构,我们 让 openclaw 去调度在 t m u x 当中的各个编程工具, cloud code x, gemini 都可以,说白了你就把它当一个人去用,它打开了多个命令行工具去写代码,就这么一个道理。 那这有个什么好处呢?第一, openclaw 的 这个上下文你就可以随时跟他交流了,因为他只是一个调度员,他不是原来那个写代码的人。 像之前如果他又要写代码,又要跟你回复,他要停下他代码的工作才能回复你,或者他在写代码的时候,他就没有办法回复你,因为他的绘画是一直在持续的。那怎么去用?也很简单,就直接告诉他让去安装 t m u x, 并且安装这些命令行工具,然后让他把授权的链接发给你,你在本地授权之后把 code 给他就可以了。 那你也可以让他定时的去检查这些命令行工作的进度,汇报给你,并且最后让他去审一下修改的代码,如果他们有任何的讨论, 让他们自己处理,处理完讨论一致之后把结果汇报给你。所以这是用 t m u x 去解决 这种长时间的编程任务的一种办法。那给大家看一下,目前我有个任务还在进行当中,那在这里你就可以看到他在改哪些代码,他都会告诉你。好,大家可以去试试。

hello, 大家好,我是琪琪,今天的话我们来看一下 openclaw 上面怎么能够同时养多只虾,那如果需要我视频当中的同款文档的话,到评论区里面直接领取哦。 呃,那我们首先的话我先说一下 openclaw, 它是有一个官方文档的,如果我们有些时候遇到一些问题的话,可以到官方文档里面去找一找,看 下有没有什么解决方案。另外一个的话,想跟大家强调一下的是说 openclaw 它和我们的 cloud code 之类的有一定区别,在于说它其实是一个单步原子操作的,所以的话我们经常会出现这种问题,就你给他说一些什么任务,如果说是任务比较长, 他去执行的时候可能执行到一半就直接终止了。这个东西的话是它的一个设计底层它的那个应用。不是就是不是说像 cloud code 的 那样子去做这种常用任务,多部的那个 去执行它的设计的话,比较强调于说本地的一个 ai 技能的一个调用和清 agent 相互之间的协助。那说完这些的话,我们再来看一下怎么去具体去实现说在一个 open cloud 上再去多装上几只虾,首先的话我们就去执行这个命令, 嗯,这个是创建一个新的虾啊,要注意这个后边的这个名字是你的新的虾的名字,嗯,最好不要取跟那个一样,根据自己的需求来,我直接取个 test 吧。 好,我们的命令这边执行完了,你可以看到这他就会要求说我们去给这只新的虾指定一个工作空间,那现在就是要让我们给他去创建一个对应的工作空间,所有工作空间其实就是一个目录了,他就是那个虾就会就是把这个当成家的那种感觉,那我们现在的话选我们一个新创好的这样子一个空目录作为这只虾的一个工作空间, 然后这是给这只虾指定他的一个模型,那好的,现在的话就是让我们选模型还是跟之前的一样,还是是选手动配置,因为如果说你要选其他的,他都是统一访问的国内国外的,然后现在是是否会要给他配置一些通道?配置通道,然后这里就会说给他要不要去选择我们的通道,然后这里看到是不是有飞书, ok, 我 们还是选择飞书。 那选完飞速通道以后的时候,没有用哪个飞速插件的时候,我还是比较建议沿用你之前的那一个通道哈,好,现在就是要给我们的飞速这边去输入飞速的一个 app id, 呃, 那就又回到了我们之前说的这一个,所以的话我们就要重新再去新建一个,呃,那个我们的一个机器人,然后跟我们之前走的一个流程是一样的,就是说把这个什么 app id 之类的这种挨根还是给输进去,对吧? 好,完成以后的时候我们就还是去选飞书的那个通道,跟我们之前安装的时候选到那个模式是一样的,然后最后选完了我们就可以 finish, ok, 然后这边也是在问我们需要配对模式,这边的话就写不要配对模式,然后这边也一样的是选择我们的那个通道的那个 a 键的是否现在启动好?启动, ok, 我 们来看一下这个东西是不是就已经安装好了这只虾安装好了以后的时候我们来看一下我们这里面会不会多一些东西, 看到了吗?这边就多了一个 test, 这就是咱们的新的那一只虾,同时我们还可以再去检查一下这里刷新一下,刷新一下以后的时候,我们看一下我们的这个 web 端它是不是代理,这里是不是多了一个 test, 这个其实就是我们最新的这一只虾它在哪里?然后,呃,我们要怎么去把它加到我们的那个飞书群里面呢?我们来看一下 我们的飞书群里面的话,就比如说像我这边这里已经加了三个机器人了,添加 就是把我们刚才刚才发布的那一个给加进去,那我之前的话因为已经加过了,现在只是说把那只虾切到这个机器人身上,然后我们的那个整个整个过程的话,还是跟我们之前去配置对接飞书的时候还是一样的机器人,然后我们要去添加他的权限,去添加他的一个事件,回调 好我们刚才的话,就快速的去演示了一下怎么去。呃,把我们的新的虾给配上去,那我们也检查了新的 a 镜头已经存在了,完成以后的时候,其实你会发现真正去飞速上去用的时候,他会有很多的问题,就是有可能你有连不通啊, 或者说是你问他的时候不答呀之类的,那问题的话大概率是出现在我们的配置文档上,那我今天也是借着这个机会给大家说一下我们这个配置文档到底怎么看,然后他里面有什么东西,那我这边提供了一个复制的一个代码款,到时候可以直接复制这个,然后和给到豆包或者千问之类的大模型去对比你的那个 配置文档看一下如果说我们要去加新的下,那应该有哪些配置需要进行一些调整,那这个东西的话作为一个我们自己去调试我们自己的那个项目的时候一个参考。那我们这里的话简单说一下我们的这个配置文档到底包含哪些信息? 首先的话它开头其实就是一个原信息,基本的一个什么修改版本呀,这个版本版本信息呀,上次使用的一个情况呀,那这边的话就会有一个我们的 models, 就是 我们大模型的相关配置,还有就是说它的一个支持的一个输入输入类型,有时候不是会出现那种,就是你去输入它图片的时候,它不鸟你吗?识别不出来,那有可能是这个输输入类型这边没有去配置对应的那些图片之类的。 嗯,这边的话就还是我们经常会出现的一个 bug 的, 就在于说那个上下文不够,对吧?经常我看到有很多小伙伴都在问我,说他那个发了几条信息就发不了了,大概率就是说咱们的这个上下文这边出问题了。还有就是说下面就是我们的一个 a 镜头的一个配置,那我这边的话是因为新配置了一些 a 镜头,所以的话会跟你们现在的有一定区别。首先 的话我们来看一下这一块,其实就是我们模型的一个默认配置,默认用的是什么样的模型,对吧?然后包括这个模型别名,还记得之前我们去配置的时候让你输别名吗?其实就是这个名字 完了以后的时候,这个还有就是我们的一个工作空间,这个是默认的一个工作空间,这是我调过的,如果没调的话,它大概率是在 c 盘下面,这个东西是要去,最好是把它调到其他盘符下面去, 你不要影响 c 盘。然后这边就是一个单个 agent 同时可以处理多少个任务,然后同时一个一个 agent 同时可以调几个 agent, 它的一个配置完了以后,这就是我们 agent list, 然后这边的话就可以看到这边我们这边配了两个,那我现在的话应该是会多一个, 我搜一下 man, 这是 media 这个 test, 这就是我们刚才新建的,对吧?这边就会多这么一个,因为我刚才新建了一个 agent, 对 吧?然后这边的话就只有两个字,就在之前的嘛。然后这个是说的是 允许我们的这个 agent 把哪些 agent 作为调用,就说把它当成一个子 agent 进行一个通信,就是告诉就临时调用一下它,去帮它完成一些什么任务之类的。然后这个是刚之前创建的一个 agent, 然后它的工作区, 然后这边你会发现我们的 man 它是没有单独的一个去去,像像下面这样子,它没有单独像下面这样子去指定一个说工作区,那其实是因为它是作为主 app 的 话,它默认使用这个工作区, 那我们看到这个 list 的 时候,尤其是刚才去提到工作区的这一块的时候,你就会发现其实不同的 app 它是有一个隔离的,这样子的话就保证了它们之间的有些东西不会串,这个其实是有它的那个好处的。这边的话配置的就是被群众被艾特的时候才有一个反馈,完了以后的时候这边是命令的一个配置。 还有这就是我们的一个绘画管理,这个对应的绘画管理其实就是我们这边有一些绘画,这里其实就是我们这个绘画, 就我们所有的绘画都会留在这。如果说你要去看一些自己之前发的一些内容,或者说回到激活之前的某一个绘画的话,其实你点击进去就会激活到之前的绘画,这个是我这边去测试那个 a 镜头之间的通信用的, 如果你需要用哪个东西去看,包括我们这边聊天,你也可以看到这里在在线的这一些绘画,或者说是还活着的这些绘画都会在这进行一个呈现。好的绘画这块我们说完了,我们再来看一下我们的这一个内容,就是说 agent 它的一个绑定就与外部账号的一个绑定。 首先就是这我们的这个 agent, 就 比如说它绑定的是什么?绑定的渠道是飞书,然后绑定的 id 是 什么?相当于飞书绑定的那个账号 id, 那 我们现在再来看一下 agent 与外部账号的一个绑定情况啊。首先来说它这就是呃,这儿 他跟飞书绑定,然后用到的一个账号,账号 id 是 什么?这个账号 id 有 用啊?因为是这样子的,在飞书那边如果说他需要这个 a 镜头,需要跟嗯其他的 a 镜头进行一个嗯绘画建立建立联系的时候,他一定是通过这个 id 去找的啊,如果说这个填错了,他就找不到了。 这边也是,这个也是我们 media 的 这一个 a 帧,那这边的话看完后你会发现这边是不是还有些重复的?其实是,呃,这样子的话是给他们建立一个通道,保证说双方之间能够互通。是这样子的。完了以后的时候我们来看一下我们的工具系统, 这个是说起用 a 帧的一个互相之间的通信,然后所有的 a 帧的互相之间是否可以调用,你也可以把那些名字都写上去,你也可以直接用这个新号,新号代表的是全部啊,然后这边是绘画可见性。 最后这边的话就是我们的一个飞书的一个渠,就是我们的一个渠道配置,这个渠道配置的话,如果你配的是飞书,那你这边就看到的是飞书。如果你配的是其他的渠道,比如说微信啊、 qq 之类的话,那你这边的话还会有一些其他的一些渠道,然后每一个的话会有些区别吧。 嗯,这个的话就是机器人的账号的一个管理,我们这边的话你可以看到机器人账号管理的时候,它不同的。你看我这边有一个 man, 它绑定了一个对应的 api id, 然后然后这边绑定了对应的一个呃,令牌,对吧?还有它的密钥,还有它对应的一些权限,实际上就是说这个 man, 这个 agent, 它绑定的就是对应这一个 id 的 飞速机器人, 然后我们这边 media 的 话,它绑定了另外一个,你只有把它绑定了,然后你才可能在飞书里边去找到这样子的一个机器人,或者说那个机器人才会跟他通话,就好像刚才我们去测试那个 test, 它现在的时候是不是它依然是我们 media 这一块的,它没有变成我们刚才新建的那个 test 的 agent 的 一个机器人,对吧?那原因就是因为我们现在给他绑的没有给 test 绑, 所以的话那个机器人一定不会通话的。就如果你刚才是完成的我之前的那个演示操作完成以后,你没有去修改这一块,呃, 那你也是没办法去用新的 a 镜头和你的新的一个机器人。然后下面的话我们看一下,这个是网关啊,这是网关相关的,这个就是说端口,我们的一个端口运行模式,然后我这边是 logo 啊,然后也有其他模式,然后下面就是对应的一些安全限制呀,然后这下面还有就是我们的,哎呦,下面就是我们的一个插件系统, 就我们现在用的是什么插件,然后就尤其是我们经常会遇到这个,我就我经常会遇到很多小伙伴问我这个问题啊,就是说为什么会有两个飞书插件怎么指定的不一样?大概率都是在这个位置,它指的指向的一个飞书的话可能会有问题,就是说你这个位置指指向的一个飞书跟你上面配置的它不在一起, 就大概率的话就是这个原因,就是说你这边飞速插件,他指向的不是说你已经 install 的 那个飞速插件,然后这块的话也其实可以调整,就是说你的飞速插件在哪,他就直接去加载这个这个那个飞速插件了,就这个东西是可以手动改的,然后还是说是否启动飞速插件,如果你不起用飞速插件的话,那你的飞速也是通通道也是用不了的。 好,还有就另外有一个点啊,就是我们这些所有的配置完了以后一定要重启,还有就是我们还是要去走我们之前说的去配置配置机器人的这一个流程,这个流程你不走的话,新的 ag 也没办法跟你现在的机器人建立关系的。 这边怎么去创建群?我们这边也有些演示,就比如说在这里去创建一个群,创建完一个群以后的时候怎么去加机器人呢?就添加机器人,这下面会出现你这边已有的一些机器人。然后还有一个点要注意,是我们的那个机器人他的发布啊,就你发布版本的时候,比如说你要注意选这允许机器人被添加到外部群中使用。 这个的话就是说你的那个群里面如果存在一些就你的飞书群里面存在一个外部的人,就跟你不在一个组织内的一个人的话,你把他加到群里面,然后你再把你的这个机器人再想再想加进去是加不进去的,你就必须要把这个选中, 然后他有一个对外共享,这样子才可以被加入,不然的话你只能够在组织内,就是所有的组织人员内没有外部人员,这样子的群可以被使用。 那 ok, 今天的话就暂时到这了,这是一个简单的一个分享,如果说大家还有什么其他问题的话,可以在群,可以在我们的群里面再问一问,然后我们也一起去看一下他有没有什么问题,因为我自己在用的时候其实也会发现他有许多的那种问题。嗯,大家有什么问题的话也都可以在群里面进行一个讨论,拜拜。

兄弟们大家好,今天呢,我们来出期龙虾官方的部署教程,来看下左上角的地址,龙虾的官方域名地址是什么呢? 哎,就是这个 opencloud 点 ai。 想要部署 opencloud, 我 们先要安装两个软件,一个是 git, 一个是 node js, git 呢是这个地址点这儿下载。 note g s 呢是这个地址点这儿下载。下载完成之后呢,你就得到了这么两个东西了,哎,怎么安装呢?很简单,双击打开下一步,下一步,下一步,下一步,一直到安装完成就 ok 了。接下来你需要鼠标移动到左下角开始按钮,然后输入 power shell, 以管理员身份运行打开它。打开之后呢,你需要手动输入三个命令,来测试你刚刚装的 get 和 node js 是 不是安装成功了。那么第一个命令呢是 node 空格,杠杠 v e r s i o n 回车, 哎,第二个命令呢是 npm 空格,然后杠杠 v e r s i o n 回车,然后第三个命令呢就是 get。 接下来我们就要开始下载和安装了,那根据 opencloud 龙虾官方的部署教程,哎,第一步呢,我们就要执行这个命令进行下载和部署。 这里补充说明一下啊,当你执行这一个安装的命令的时候,你要确保你能够在电脑上访问 opencloud, 点 a n 对, 也就是访问 opencloud 这个官网,如果不能访问呢,你就得想想办法了,哎,搞搞魔法呀,搞搞科学呀, 对吧?那当你的 power shell 出现这个 open cloud 安全警告哎和提示的时候呢,就说明你的 open cloud 龙虾就已经安装成功了。然后呢,我们按键盘上的左右方向键,哎,来选择一个 yes, 然后第一个这个呢,是第一个,这个呢,我们选择最后一个,这个呢,我们选择第一个,这个呢也是第一个。 好,那么这个呢,我们就选择最后一个这个呢?我们也是同样的跳过, 为什么要跳过呢?因为跳过之后呢,可以在后面啊,去再去配置好,这里呢,他问你要不要去配置 skill, skill 什么呢?哎,就是配置技能,那我们就选择 no, 这里问我们要不要配置 hook 啊?就是配置自动化脚本,那我们这边呢,也是跟刚才一样也是跳过, 但不同的是呢,我们要按一下空格键,然后再按回车键。哎,跳过了这一步呢,跟你自己操作是有差异的,因为我现在已经安装了这 opencloud 了,所以他提示我是要重启还是要重新安装还是跳过, 那么为了我们演示呢,我们就现在重新安装一下啊。好,当我们的网关安装成功之后呢,就来到了我们 open cloud 触式化的最后一步,他这样问你的是第一个,你是用什么方式去启动你的机器人? 他说第一个是终端啊,第二个是 web ui, 那 我们选第二个啊。 哎,当你安装成功之后呢,它就会自动地跳转到你的 web ui 的 这个界面,那么当前这个界面呢,就是你的 opencloud 龙虾的操作界面了。

我研究了三天三夜,终于把 opencloud agent 的 团队搭建彻底跑通了。七个 agent, 一个群聊,自动写作,我只说做什么。 ceo 自动拆解任务,协调各部门,各部门做完自动汇报, 这可能是目前最接近一人公司的玩法。今天我把所有步骤一次性讲清楚,先给大家看看最终效果。这是我搭好的一个七人 agent 的 团队。在飞书同一个群聊里, ceo 负责理解我的需求拆解任务分配给各部门。 产品部负责需求分析和 prd 输出。开发部负责技术方案和代码实现,设计部负责 ui 方案,市场部负责推广策略。 数据库负责数据分析和效果追踪,运维部负责部署和监控。上周,我想做一个 ai 每日早报的自动推送工具。我在群里跟 ceo 说,我想做一个工具,每天早上八点自动抓取 ai 领域的新闻,生成一篇早报,推送到我的社交媒体。 然后 ceo 就 把这个需求拆分成了四个子,人物,产品部定义早报的内容结构和信息源。开发部写下载脚本和推送接口。市场部确定标题风格和受众定位,数据库设计阅读量追踪方案。每个部门各自输出了方案, ceo 汇总之后,给我一份完整的执行计划。 整个过程我只发了一句话,这就是今天我要教大家搭建的东西。在动手之前,先花三十秒了解一下原理,这样后面的操作你才不会懵。 opencloud 的 多 agent 的 机制本质上是这样的,一个 get 位实力多个工作区,每个工作区就是一个独立的 agent, 它们共享一套基础设施,但各自有独立的角色设定模型配置聊天渠道绑定。 理解了这个搭建就变得很简单,总共两个步骤,第一步,在 opencloud 中创建多个 agent。 搭建方式有两种,第一种,通过命令行交互式创建,一行命令搞定,打开终端,运行下面这行命令。这种方式的好处是不用修改配置文件,跟着提示一步步选就行。 第二种方式,直接修改配置文件,适合一次性创建多个 a 键的。打开你的 opencloud 点 json 配置文件,需要修改三个地方 室内配置文件,如图。第二步,配置聊天渠道。很多朋友卡在这一步,不知道怎么在飞书上创建机器人,步骤如下,我知道重复建七个很枯燥,所以我做了一个创建飞书机器人的 skill, 你 把这个 skill 安装给你的 open log, 然后告诉他帮我创建一个飞书机器人,他会自动打开浏览器,自动填写表单,自动完成创建。搭好之后,最有意思的玩法是建立指挥链。 我给 ceo 的 设定是,当用户提出需求时,你需要一、分析需求的本质目的。二、将需求拆解为产品、技术、设计、市场等维度的子任务。三、将子任务分别艾特对应部门,下达清晰的任务指令。四、在所有部门回复后,汇总结果向我汇报。 这样一来,我的工作流就变成了我指挥 ceo, ceo 指挥各部门,我验收最终结果。我只需要跟一个人说话,剩下的全部自动流转。未来的工作可能不需要那么多人了,需要的是一支听话、高效、二十四小时在线的 hr 团队。

昨天我在视频里讲的是在一个 opencloud 里面创建多个飞书的机器人,然后把几个飞书的机器人, 每个飞书的机器人配置一个一个 agent, 然后把他们拉到一个群组里,然后来干活,这是一种方式。评论区和 后台的私信的有朋友在问,有没有试过在一个机器人里面让它自己配置多个 agent 来来配合工作的,不需要创那么多机器人。 我,我今天晚上试了一下,可以我给大家看一下实际情况。奶油是我在腾讯云的,腾讯云服务器上的 opencloud, 它是线上的,跟我线下不冲突, 你知道我这个电脑上有两个 opencloud, 一个是腾讯云服务器里的,还有一个就是本地的。我问了他一句话,我说你可以化身多个 agent, 代理协代理协助,这还错别字儿,打快了, 他说可以,他可以化身多个 agent, 他 有多 agent 协助的能力,他的子 agent 可以 同时使用多个,最多好像是八个吧, 他可以协调他们工作,汇报结果,并行处理任务。完了他下面我把之前在豆包里面生成的我对一个团队的配置的几个角色,他们应他们是干啥的?他们的职责能力是什么?他们的工作流程是啥,什么风格什么之类的。我一股脑的又扔给了他,你看他的回复, 他说他看到已经有了这个完整的团队架构,非常专业。团队配置,他自己的角色是什么?他需要分配出几个人分别干什么? 他的角色是监督,他需要来汇总结果来汇报。他现在问我说让我告诉他品牌产品信息,以及具体需要完成什么任什么任务,这个团队 我告诉他这些任务不着急。我说请将这个团队的配置常态化,每天早晚各一次,定时提醒我同步计划和验收结果就是 一个团队的一个正常的一个工作流程。他说收到,首先他配置了配置了那个工作的文件,设了定时提醒,早上九点提醒,我做了一下验证,最后给我生成一个这个。他已经成功地配置了整个团队的一个工作 团队的架构、标准的工作流、定时提醒以及整个的工作模式。我提需求他来接受分析拆解,拆解之后是多 agent 并行执行,成果交付, 提醒时间是早九晚九,下一步就等我给他布置任务。 ok, 这个是在一个机器人里面,就在这一个机器人里面创建的一个情况。我之前有一个群组,里面是 一堆机器人,我这两种情况都配置了,我不知道这两种有什么区别,就是这两种模式他们的优劣势各是什么?我就去问了一下 ai, 我 问他一个问题是我说在飞书中创建多个机器人,为每个机器人配置对应 ai 阵和创建一个机器人让他分身多个 ai 阵的工作。 两种情况各有哪些优劣势?他分析了一下,总的来说,如果是多机器人,多 agent 这种是相对来说,它隔离做的彻底一点,就是比如它这里提到的身份隔离,用户可以清楚地识别身份权限隔离提高安全性, 消息隔离独立处理,避免混淆。故障隔离一个机器人故障不影响其他机器人的运作灵活性,但它的劣势就是配置复杂,也容易出问题,资源消耗大,这个大家可能比较关心的,因为每个独立的机器人都是独立的 api 调用的, 单机器人多 a 证的这种方式就是配置简单,维护成本低,只需要管理一个就可以了。它的劣势就是它的身份容易混淆,它的权限是共享的,所有的 a 证它共享一个机器人权限,消息路由复杂,这个有点看不懂,故障影响大,它只要有一个故障就是活,什么都不用干了。 它适用场景是对多多机器人多 agent 的, 适合这种对安全性要求比较高,而且需要区分角色的这种场景单机器的资源,单机器人多一种的就是资源有限的,或者对成本敏感的,或者是决策区分没有那么重要的,就可以一股脑的信息全放在一个地方的。 所以他给了这样一个建议,我不知道他给的这个建议大家认不认同,大家也可以讨论一下。

ok, 看到这个视频的朋友有福了,专为小白打造的 opencloud 龙虾的安装教程,主打一个解放双手。 这个时候可能有朋友问了,哎,为什么针对小白啊?无它,因为有流量,请允许我暂时做一波流量的。首先 opencloud 的 这个龙虾,它算是一个 ai 产品吧, chibi gmail 是 不是也是 ai 产品?所以我们想安装它非常简单,直接去问 ai, 但是你直接去问的话,他没法操作你的电脑,不是很烦吗?所以我们需要一个中介,直接在你的浏览器上搜索 ai 编程工具,不管使用国内的还是国外的都可以。 我这里简单举个例子,比如说字节的 tree t r a e 或者是阿里出品的 q 的, 你来到他们的官网,直接点击下载,就是在你想要安装龙虾的这台机器上下载一个 a i d e。 我 这里因为电脑上刚好有 tree, 所以 就用它来演示,然后点击右上角的登录这里呢可能会让你输入手机号进行注册,你注册一下就可以了。 登录之后呢,我们就可以开始安装了,然后我们点击这个,打开文件夹,去选择一个路径,比如说我这里新建一个文件夹,嗯,龙虾, ok, 我 这里呢只是给大家演示,你可以取任何的名字点击打开, 这样呢,我们就进入了这个文件夹里,所有的操作呢都会在这个文件夹里去进行。然后我们来到右边啊,直接让他搜索 opencloud, 然后在本地帮我安装他,然后我们直接回车 这里,我们可以注意到他是在沙盒中安装,那这个不是我们想要的,在沙盒中就比较麻烦了,直接在本地安装拉去远程项目到本地不要沙盒, 因为他在沙盒里虽然安全,但是我们后续添加技能的话是没法去正常调用的。在这个过程中他会询问我们很多次,让我们给他允许,不然的话他没法去运行这个命令。 ok, 好, 已经全部拉了出来,大概过了一分钟左右就帮我们构建好了。下面呢,需要我们配置 api key, 就是 你想要你的龙虾接入什么模型,你去聊天的时候用什么模型来进行处理。它是建议我们手动去配置,因为涉及到敏感的 api 信息。那如果你完全不怕,你可以让它帮我们来配置, 那比如说我想接一个 deep secret 的, 你帮我配置,我用 deep secret 的 api, 然后直接发送给他,我们选择第一个填写 api key, 然后下一个,然后把你的 api key 粘贴进去提交。那这个 api key 应该怎么获取呢?你也可以直接问他,他会一步一步的教你怎么去获取, 他干嘛呢这是?跟卡住了一样,我们直接给他中断,你干嘛呢?帮我安装运行。 ok, 现在已经成功运行了,我们点击打开一下,啊,这里有一个错误,我们把这个复制,然后在盖栏这里粘贴到网关令牌这里连接好,这个时候就正常了,尝试一下聊天。嗯,你好, ok, 有 问题复制一下,直接发送给他,说聊天有问题,让他来帮我们解决,因为 ai 相当于我们的外置大脑,有大脑为什么不用呢?我们必用, 现在他说已经修复好了问题,我们再次尝试好,可以正常回复好,这个是没有问题的,现在安装就已经基本完成了。如果你想要让他做更多的操作,你得教他,你可以做什么? 他这里列出了非常多的能力, ok, ok, 让他帮我们安装一些好用的技能, 我这让他停止现在的 opencloud, 因为我怀疑他运行在沙盒里。然后让他给我一个在本地可以启动的命令,然后我们直接点运行, 这里呢,出现了错误,我们复制一下,粘贴给他占用了,我们先清理一下,然后再次运行,我们刷新, 这样就正常了。我给他贴了一个路径,让他在这个路径下创建一个游戏, 我们看一下这他创建的,而且就是我们指定的位置。如果你在安装过程中出现了错误,你就给他复制截图, 然后发给 ai, 让它来帮你修复。需要注意的是,如果你使用的是自己的 tree, 你 会发现它更新了之后,为了安全,它的命令都运行在沙盒里。所以当我们测试完毕之后,你就要像我这样让它把这个给关闭, 然后给我们一个启动命令,我们点击运行在我们的终端里去直接打开它。整体操作下来应该是没有什么难度的。 以上就是本期视频的全部内容了,如果你遇到什么问题的话,可以在评论区进行留言,如果觉得本期视频做的还不错,或者对你有所帮助的话,记得一键三连点个关注。最后祝各位玩的愉快,我是端锋,我们下期再见!拜拜!

大家好,今天呢我用 openclip 把国内主流的聊天工具,比如说飞书、微信、钉钉和 qq 都对接起来了,而且总结出了五个这样详细的操作文档,每一个步骤都说明了有截图,操作起来是非常方便的。然后也推荐使用这个国内这边开源的一个安装的一个插件,然后也可以 很方便的来安装所有的聊天工具。那我安装完之后呢,我们来对比一下这几款工具啊,比如说飞书,他安装难度是非常简单的,他生态也是非常非常丰富的, 那大家在企业办公或者说很多场景里面都用了飞书啊,而且他提供了很多 m c p, 比如说飞书的文档啊,表格啊、日历啊这些东西,可能在你的工作流程中都用的,而且他后面肯定会开放更多这种办公的能力。 飞书对于 ai 的 跟进和 openclo 的 适配是非常的及时的,所以我觉得这个业务场景就是办公的这种 openclo 的 这种业务场景是可以去深入去研究的。那么还有一个我认为比较有必要去研究,就是企业微信应用这种,那它是分两种,一种是叫机器人, 就是你只能聊天,那一种是叫企业应用,你就创建一个应用,那这个最大的作用就是你在你的个人微信里面是能直接使用的。那么企业微信其实代表了很多私域的场景,那么它也有很多 api, 也是有充满想象力的, 也相信它会开放更多的这种针对 opencloud 这样的类似的 ai agent 的 一些能力啊,那么你就能把私域啊很多东西都能串起来了,也是非常值得去研究的一个场景,所以我呢,我就非常推荐这两个,一个是非书,一个是企业 微信的这个应用。那么企业微信这边安装起来也是有点难度的,大家可以根据教程一步步去操作,也是可以去完成的。 ok, 本期视频就到这,希望这个视频对你有帮助。

大家好,我是麦东,今天给大家带来 openclaw 对 接 qq 的 视频教程。首先我们需要访问 qq 新推出的 qq bot 创建界面,记住这个网址,打开手机扫码登录开放平台, 登录成功后,我们即可在当前页面创建机器人。点击创建机器人, 可以看到 qq bot 就 已经成功创建了。接下来的操作非常简单,首先安装 opencolor 开源社区 qq bot 插件,复制该命令来到终端,粘贴回车直行即可, 可以看到插件正在安装。 插件安装成功后,我们继续复制第二条命令,配置绑定当前 qq 机器人。 好, qq 机器人配置成功绑定了,接下来我们只需要重启本地 openclaw 服务即可执行 openclaw get away restart。 重启完成,我们打开 qq, 可以 看到这边已经有一个机器人创建成功的提示了。接下来我们给机器人发送第一个打招呼消息, 可以看到我们成功接收到了来自 opencloud 的 回复。接下来我们来做一个简单的应用,询问一下明天南京天气如何 好, opencloud 已经自动查询了明天南京的天气,并将它发送到了我的 qq 上。这样通过非常简单的配置之后,你就拥有了一个可以二十四小时随时为你服务的个人 ai 助理, 并且可以随时随地通过手机 qq 与其沟通,下达指令。今天的 opencloud 接入 qq 的 教程到这边就结束了,工具会变,但方法更重要,我是麦冬,下条继续!

opencloud 接 codex 正确姿势其实很简单,核心就一句话, gpt 五点四不按量计费,你只需要一个叉 gpt 二十到账户,基本就可以放心去跑。和很多按量扣费的方案不一样,这种模式最大的优势就是你不用一边用一边盯着余额看肉了。 不管你接的是中转站 colo 还是 kimi mini max, 本质上大多数都还是按量计费,也就是说你跑的越多花的越多。在用 open colo 接 codex 的 时候,投坑基本可以放心去烧,不用老担心 a p i 费用突然爆掉。而且 open colo 接 codex 本身也很简单,如果你装的是全剧版 open colo, 直接执行这条命令就行。 open clone models autologging 剪剪 provider、 open io codex 等。接下来浏览器会跳转,你登录自己的叉 gpt 账号完成授权就可以了。后面你再把配置文件按要求配好,参考我提供的两张配置图片,重启后就可以直接开跑。

最近 a h r open klo 这个小龙虾实在太火了,付费上门安装的服务都被炒到了五百元一次。某大厂办了一个线下免费安装的活动,排的队比老年人领鸡蛋还长。那今天这个视频教你如何一分钟部署 open klo, 视频结尾我还会演示几个硬核的用法,教你如何压榨这 只龙虾。那开着前先给大家提个醒,网上很多教程都教大家本地部署,但是如果你没有一个备用电脑的话,就不建议尝试本地部署, 因为 oppo 壳到需要的权限实在太高了,如果你在有重要文件的主力电脑上去跑,一旦出错,后果就很严重。上个月 mate 的 高管被龙虾删了大量的工作邮件,这就是个惨痛的例子。当然这也是为什么最近苹果的 mate mini 被买断货的原因。 所以本视频我们用的是云端部署方案。限阶段龙虾能无缝接入 telegram、 discord、 whatsapp、 飞书、企微等平台。国外用户接入 t g 的 比较多,但如果你人在国内,又不想折腾网络的话,飞书是目前国内玩龙虾好的选择。它们家的生态非常齐全,前两天发布了官方版的 open 格式插件, 接住龙虾后的操作特别丝滑。那废话不多说,我们正式开始。首先打开飞书,直接搜索 open class, 选择这个妙搭,然后点击一键部署 open class, 这里你需要给你的龙虾起个名字,并且给他选一个形象, 然后点击创建按钮,他就开始部署了。大概等了一分钟左右,他就给你部署好了。选择这个立即对话, 在输入框里跟他发送,获取所有权限,点击授权, ok, 这一下就大功告成。现在你就拥有了一只属于自己的龙虾,并且不需要网上那些复杂的配置,你就可以直接在飞书上去指挥他干活。 这个部署真的对小白用户来说特别友好,啥也不用管,一分钟就搞定。当然,如果你之前已经在各大厂的云平台上面买过服务器的话,直接部署好也可以接近飞书来一样能用。 具体结构教程我写到文档里,大家感兴趣视频接本自取。那接下来我们开始压榨龙虾,看看在工作中到底可以怎么样使用。 open class 案例一,私人秘书日常工作中最简单的用法就是让他去充当你的私人秘书。你可以让他帮你创建代办事项和日程,或者帮你预约会议, 又或者让他每天给你发送行业日报,了解最新的资讯。不光如此, overclock 还能跟飞度上的各种办公软件结合。比如在日常工作中,你写了一份文档,然后你的同事和领导在文档上添加了各种批注。现在你可以直接让他动手帮你修改文档。 不光文档可以用,表格的工作也可以处理。比如你让他去做一个市场调研,我给他发这一串指令,等他干完活以后会发消息提醒你点开他消息里面的链接。刚才我们要的所有数据,他都整理好了,登记在周围表格里,这个玩法用来监控或者爬取数据都特别方便。 那这说句节外话哈,虽然现在龙虾的热度很高,但我不会无脑去吹。坦白来讲, open klo 目前执行任务也会出错,比如这个任务,我在测试的时候他就失败过两次,但我让他自己想办法解决,过了一会他改一改就跑通了。所以在执行任务中遇到报错或者无法解决的问题,不要慌, ai 时代,我们要学会用 ai 去解决问题。 这个案例是我觉得最实用的。写日报估计是所有打工人都讨厌的工作内容。在过去的一年里边,有不少 ai 工具都号称自己能写日报。但如果你用过那些工具,你就会发现,想让他写个日报,你需要先把今天的工作事项、文档等数据喂给 ai, 他 才能帮你总结。 讲实话,如果我愿意把今天干的活自己去梳理一遍,为啥还要多余让 ai 去总结?所以市面上很多 ai 工具都有点华而不实。但如果你的公司是在非书上办公的话,现在可以让龙虾帮你写日报,直接跟他说,给我生成今天的工作日报,它就能获得你所有的文档、日程,还有聊天里边的数据 看,不仅能看出我今天创建的几个文档,甚至连今天装龙虾做了七十五个系统授权,也总结出来了,跟市面上那些需要自己未数据写日报的 ai 工具比,这才是真正能落地的生产力。 视频最后聊一下我个人对龙虾的看法。在深度养虾一个月以后,我觉得这波 open klo 热潮最大的赢家有两个,第一个毫无疑问是苹果公司 mac mini 的 销量直接被带起飞, 另一个就是那些在用飞书这样的软件办公的企业。因为接触龙虾以后,你会发现 agent, 它不再是一个只陪你聊天的对话工具,而是拥有你的工作数据,能真正帮你干活的执行者。 视频里面的所有步骤,包括云端部署和本地步骤教程,我都整理在了一个文档里面,赶紧去创造你的第一个赛博员工吧!下期视频教你 open klo 的 进阶玩法,别忘了点赞加关注,我是山河,我们下期见!

大家好,今天分享一下另一个 open cloud 的 安装方法,也是官方的,如果你之前那个视频安装没有成功,那你可以试一下这个方法,它的安装流程不一样啊,但是殊途同归,最后都是安装 open cloud。 还有一个注意的就是你不要在你的生产力电脑 上面去安这个东西啊,找一台没有用的闲置的电脑。其实 open cloud 这个东西本身要求机器配置并不高,随便一台苹果电脑, windows 电脑都可以装,它占内存才占了不到四百兆,占内存很小。然后对电脑的配置要求没有什么,几乎可以说没什么要求, 随便一台电脑都能装,要求配置高的是那个大模型,就是本地安装大模型,那个要求配置高。那你如果是学习目的,你完全可以用线上的先去试用一下, 知道这个东西是怎么回事,就是满足一下自己对 ai 的 一个探索好奇心。那在这个 openclaw 官网上, quickstarter 你 可以发现其实有好几个按钮啊。第一个是我们之前介绍的安装,如果你头一个遇到问题, 你可以试一下这个,这两个的安装方式是不一样的,那这个视频就分享一下这个。第二个是怎么安装的。另外后边还有一个 macos, 这个这个下载下来是一个 macos 的 安装包啊,但是它并不是这个 openclaw 小 龙虾本身它 它是一个,你可以看到它上面介绍,它是一个 menu bar, 就是 一个有图形界面的一个管理工具,可以显示小龙虾的状态,可以连接多个龙虾。你安装好这个小龙虾之后呢,你可以按一下这个下载一下,用 bing 搜索 note j s 中文网, 然后点这个新版下载页。这里要注意一下,这是选择 note g s 的 安装包版本啊,我尝试成功的是二十二点二,二点一 l t s 这个版本啊,选好之后往下拉,底下有一个麦克 s 安装程序,点 p k g, 这就是安装包,你下载它就可以了, 然后双击安装包,就是一个常规的安装程序啊。点同意继续下一步就可以了,中间会弹出一个让你输麦克 s 登录密码, ok, 就 很容易就安完了。 要验证有没有按成功啊,直接用终端直接敲 note 空格杠杠 word, 然后会显示版本号,显示版本号就说明按成功了。然后来到 open call 官网,点这个 npm 标签页,把这条命令复制一下, 接着在麦克 s 终端里粘贴一下,前面加上 s u d o, 他 让你输密码,就是麦克 s 的 当前用户登录密码,输密码的时候不会有任何输入反馈,输完回车就可以接下来就安装了。这个方法的好处就是不用在线下载那个 homebrew 和 node js 啊。 之前那个方法很多人就是卡在了在线下载 homebrew 和 node js 这两个上边,这里的 node js 也是,之前你在 node js 官网把那个安装包下载下来,已经是安装好了的,所以 安 openclaw 的 时候,它不会再去下载这些东西。服务器都在国外,所以要尽量少下东西,这样成功率会高一些。但是 openclaw 本身依然还要在线下载安装啊,所以呢,依然需要等待,要耐心等待。我大概用国内的网络, 呃,安了有二十分钟左右吧,二十分钟他就下载好了。安装完之后他会有提示让你去更新 n p m 的 版本。啊,这个不用理他。 然后你用 which openclaw 这个命令,可以查看 openclaw 实际安装的位置。重点来了,你输入 openclaw onboard, 然后你就会看见之前我们那个视频的配置向导。 ok, 那 你现在看这个界面是不是很眼熟?这就是之前那个视频的那个配置向导。你现在去看之前那个视频就可以了。 ok, 这就是今天的视频,我们下个视频见。拜拜。

今天跟大家讲一下这个在小龙虾里面,他这个的模型是怎么切换的,那我当前这个模型是 glm glm 五的模型,那如果说我要切换成呃 glm 四点六 v 的 这种模型,那该怎么切换呢?那切换里面我们有这么几种办法。 呃,先给大家说一下,一种我们先打开一个终端,在这个终端里面呢,我们输入这么一个命令,叫 openclock apple color, 然后呢 o d l 是 model 四,那设置 set j ai, 这是智普的那个前缀 j ai, 然后写杠 g l m 杠四点六 v, 那 这个就是切换成把把这个默认模型切换成 g m 四点六 v 的 版本,然后我们敲回车一下, 敲回车完之后呢,它这里呢会告诉我们模型已经设置成功了,然后呢我们给这个小龙虾呢的网关重启一下, 重启一下,这个可以重启一下, 那重启完之后呢,我们回到这边来,我们去刷新一下这个浏览器,你看它当前呢这一个会增加了,多增加了一个叫 g l m 四点六 v 的 这么一个呃默认模型, 那这个呢是我们切换模型的一种方法,当然大家这里看到的这是一种呃通过它这种内置的这种 p p n 的 一个命令, 呃可以设置的,那如果说呃这里面的那个模型默认的模型不在我们的小龙项链表里面,比如说像 deepsea 这这种模型,那要怎么设置呢?因为 deepsea 它是不能通过这种呃简单的命令去设置,它只能通过自定义的呃 模型去设置,那它这边呢有两种,一种两种命令,一种是直接通过什么通过这种呃非交互模式的这种条命令就可以执行,比如说像这个, 比如说像这种像这种一条式的命令,它这里是什么呢?它这条命令呢?它这个是什么?呃是像这个参数呢?是。呃 执行非交互模式,使用非交互模式。那第二个叫 modelcare 了,这一个呢?按本地模式配置网关,这个是按本地模式配置网关。那第三个是什么呢?第三个是使用自定义的 api t 接入,这个是使用指定 api t 接入的参数。那第四个参数呢?这个第四个就是给这个呢?呃提供商命名为叫 dbseek, 对 吧? 那第五个这个参数呢?这个是什么?这个说明让它兼容 openai 的 协议。那第六个呢?第六个是什么设置?呃, deepsafe 的 这个接口地址。那第七个是什么呢?第七个是,呃设置默认模行为 deepsafe chat。 那第八个这个呢?那就简单了。第八个这个就是填写我们在数据库上创建的这个 api t, 这个就是 api t 的 序号。那第九个这个是什么呢?确认接受非交互模式的风险提示,一定要加这句话,要不然如果说少了这个,它上面的这个就执行不成功,那我现在来给他执行看一下 啊,这里已经告诉我们。呃, justin 呢?已经备份了,然后呢?这里也执行完成了。那执行完成之后我们要记得什么?记得是,呃,我们要给它一个重启网关,网关重启一下。 网关重启完之后我们直接在这上面刷新一下就可以了啊,刷新一下它当前这个 deepsea 的 这个什么?呃,模型已经加载进来了,那我们可以直接什么跟这个呃, 我们直接问用 deepsea 看一下 它,这里会回复我们是由深度求索公司那一个研发的这个大模型, 那这个模式像这种方式呢?都是用一条的命令方式,那还有没有办法用?呃另外一种方法呢?就不用一条命令,我们用那种直接 on 使用的是什么? openclock on board 这条命令呢,就是类似于刚刚安装的时候我们去执行,那我接下来也给大家去演示一下这个呃,我们用这种命令,使用 openclock, 使用这样子的粗俗化的方式去呃配置我们的 deepseek 的 这个呃模型。那首先呢,我现在呢先给它做一个啊,先把这个呢做一下来还原。其实所有我们所有配置的这个 wincore 的 这些配置参数都在这个文件里面,我先把这个删掉, 删掉完之后复原这个文件, 我重命名一下,我复原这个文件之后呢,我们我在这里呢先给他什么,先把它网关 重启一下啊,重启完之后我们确认一下是不是恢复到我之前的呃初设设置,我刷新一下啊, 这已经呃复原到最早的之前的设置了。好了,我现在呢给大家去演示一下这个什么呃通过这个叫做 open, 通过这条命令怎么去呃配置我们的 deepcom 这个模型,那我们执行这条命令叫 opencloud on board 的 这个命令, 那这个执行完之后呢?他就是我们,就像我们第一次安装的时候会告诉我们这个呃一些风险信息吧。完了我们给他确认一下这个选择 yes 啊,这个还是继续选择 quickstar, 那 这里呢告诉我们什么配置,是否继承原来的值,那我们选择第一个就可以了。 use assign 就是 继承原来的值, 那关键就是这些位这个位置了,这个位置这里的模型驱动商呢?有这么多个,那我们要选择哪一个呢?我们选择的是这个叫做 custom, 因为这里没有 dsp 的 那个默认的夫商,所以说我们这里要选择的是自定义的 夫商,那我们选择这个回车,那回车完之后,关键这个位置的 api, 那 个 api base url, 这一个要改成什么?就是我们的模型的接口地址, 这里的接口地址呢?要改成我们的这个叫 deepsafe v 一 的这个默认模型,那我们啊路径改一下,黏贴进来,就一定要改成这什么 a p i deepsafe, 点 com 点 v e 这个 u r 的 地址呢?是兼容 openai 的 接口模式。那我们回车,那这里呢?我们是什么?呃,黏贴那个 api key 的 值,那我们把 api key 的 值黏贴进来, 然后呢这个位置这里有三个参数,是选哪一个呢?我们要选择的是什么?叫做呃,说明兼容和 ai 模式协议,然后我们这里选择第一个兼容 open ai 协议, 那这里呢? model id 又是什么呢? model id 呢?这里呢是设置默认模型,也就是这个提供了哪些的默认模型?然后我们选择呃,输入 d e e p s e k 默认模型,然后显示 a t, 其实就是这一个, 其实就是呃这个位置接口文件里面的这个,其实就是这个, 其实就是这个。这个 deepsafe 提供的这一个叫做什么?推理模型跟聊天模型,然后我现在先选择的是聊天模型,叫 deepsafe chat 的 这个模型。好了,那我们给它 model id 选择了 deepsafe chat, 那这里的是什么呢?那 point id 又是干什么的呢?那 point id 它其实是是模型的一个小名,那我们这里的小名呢?也可以叫让它默认叫 custom api, 这个默认的也行,那我们选择用默认值吧。 那第二个是这个是别名,那这里的别名呢?我们也可以不填,没关系,我们直接敲回车也不填。然后第三个,这什么使用的一些我们交互的方式吧,那这个我们直接跳过啊,这里呢也是直接跳过, 然后这个是配置技能,那技能像我们之前也配置过了,我们可以选择 low, 也可以选择 yes 或者点 yes, 在 这里面跳过也行。我们先跳过,那这后面都是跳过了啊,像谷歌的,国外的这些 a p i 我 们都跳过,目前都没有申请 好了,那这个是不可使的,这个也跳过,那现在最后步呢?这个是什么呢?我们再重启一下就可以了。重启网关, 重启完关之后我们选择的是什么?还是继续选择 open 的 web ui 的 这个方式,然后呢它这里呢?它这里呢?你看它这种方式也可以把这个 deepseek 的 这个模型给它配置进来,那这个就是我们呃默认的这种, 呃自定义的方式,把 deepseek 的 一些那个 a p i 呢?呃配置到小龙虾里面去好了。呃,这个今天呢,呃,跟大家讲的这个第三方的 a p i 呢?呃就到这里了。

想在本地部署 openclock 的 同学,这个视频你们跟着一步一步来做,基本上都可以成功的。这里我用 windows 系统来举例啊,如果你们是苹果或者 linux 系统呢,那部署起来会更加简单。其实要在 windows 上面来部署呢,也不是很难, 需要我们手动去安装的东西呢,其实就两个啊,一个 ws l, 还有一个就是 openclock。 你 们在网上面看到那些啊,让你们在 windows 下面呢,又安装 nodekit, 完完全全是多余的啊。 不是说 opencl 不 需要 note 和 get, 而是说装在 windows 下呢,它一点作用都没有,因为我们是在 wsl 下面去跑的,也就是那 windows 下的一个 linux 系统, 你在 windows 里面给它装这么一堆东西, linux 里面还是没有的,到时候呢, opencl 还是要给你再重新装一遍这些东西。所以呢,我们就直接在安装 opencl 的 时候,让它检测到环境需要什么,它就会自动给我们安装了。 就比方你们现在看到的这个终端啊,现在呢,我还是在 windows 目录下面的,我来检测一下 no 的 版本,可以看到这个的版本号呢是二四点幺四点零,这一个呢是我本来就装在 windows 系统下面的,现在呢,我进入一下 wsl 这里呢,大家可以理解成啊,我在 windows 下面呢,进入了一个 linux 的 子系统,然后在这里呢,我同样查看一下 node 版本,可以看到两个的版本号呢,是不一样的,一个是二十二,一个是二十四。 因为到时候我们的 openclock 是 要在 wsl 下去跑的,所以 openclock 它环境需要的 node git 这些呢,都要在 wsl 下面去安装才有用的。 我们给它装在 windows 下面呢,一点用都没有,所以我们不需要额外安装那些,我们直接去安装 w s l, 把这一个装好呢,我们的部署就成功一半了。其他环境需要的那些 node git, 到时候安装 opencloud 的 时候呢,它会自动帮我们安装的。虽然我们不用手动去装这些 node git, 但是呢还是要做一些额外的准备啊,比方科学上网, 学上网这一点非常重要啊,要不然的话,这个过程呢,很有可能你就会因为网络的问题啊,没办法部署成功。其次我们的电脑呢还要做几个设置啊,这一点呢,很少人说到,但是还是挺重要的。首先我们打开任务管理器,在左边呢,进到性能选项卡, 然后看一下右下角啊,它有一个虚拟化啊,我们要保证虚拟化呢是一起用的状态,基本上呢它默认都是一起用的啊,如果说没有起用的话,我们就手动给它起用一下,然后我们通过运行窗口输入这一个命令, 打开 windows 功能,拖到最后,这里面呢有一个适用于 linux 的 windows 子系统,还有虚拟机平台啊,这两个呢,我们都要给它勾选上啊,勾选上之后呢,我们就点确定就可以了, 等他应用我们的更改,然后呢我们就要启动一下我们的电脑大模型,这里呢我就用千问来给大家举例啊,因为他有免费的头梗赠送,所以呢大家可以来到千问这里啊,先注册一个账号。 安装这个之前呢,我们还要对网络进行一下配置,选中我们连接的这个网络啊,右键属性, 现在呢,我们都还不需要配置科学上网啊,就用我们本来的网络设置就可以了,我们就来改一下这个 dns 服务器啊,给他编辑一下, 我们就来改一下 ip 四的 dns 地址,默认呢,他可能是自动获取的,我们给他手动填啊,这个地址你们就按我一样的填就可以了。准备工作做完之后,我们就来打开泡泡消,这里呢,以管理员的身份运行 这里,我们就输入 wsl instyle 这条命令,然后根据它提示的这条命令哈,我们来安装一下,有帮图, 安装完之后呢,它可能新弹出一个窗口啊,也可能在本来的窗口啊,让你新建一个用户名和密码,你就按照提示来输入就可以了。 输入密码这里大家要注意,它是不显示出来的,你就正常输入,确保输入的没有问题就可以了。最后看到有颜色的这一行,带有你创建的用户名的这一行啊,就证明你的友邦图已经安装成功了,也就是那你的 ws l 就 安装成功了。 接下来我们就准备安装 open curl 了,来到 open curl 的 官网,现在呢,我们就要把科学上网配置好了,要不然呢,它会出问题啊。 找到 runs on your machine, 左上角先切换成简体中文,然后呢点安装, 我们就复制它快速安装的这条命令,这个时候就可以打开 wsl 了,没问题,成功进入了 linux 系统,然后把刚才复制的安装 opencloud 的 命令粘贴运行一下,现在它提示我们输入刚才创建的用户密码, 输入完之后它就开始安装了,像这里它会先检测环境需要的东西啊,像这里 node js not found it's already now 啊,它第一步就会把 node 给你装上, 下面就正式安装 open curl, 这里大家可以看到 git 它都给你安装好了,所以通过 wsl 方式呢,我们是没必要在 windows 下面手动来安装这个 node 而 git 的, 你一装还装错地方,甚至呢,装这个东西还装出问题,所以还不如直接给 openclip, 它自己来帮你安装。现在呢,它就帮你安装 openclip 的 二零二六三点幺二版本。 意识到出现 openclip 这个图像,我们 openclip 的 安装呢就已经成功了,接下来呢就做一些简单的配置就可以了,现在问我们是否继续啊,选 yes, 然后呢 crystal 快 速开始。下面这些呢,我们都是保持可以跳过的,先给它跳过啊,否则呢,就选默认,先让它把 open color 给装起来,后面呢再更改配置都可以了。选 skip now 给它跳过啊,选第一个默认也是保持默认啊, select channel 啊, step now 给它跳过。 search provider 也是给它跳过,问我们是否配置 skills no, 后面再配置都可以的,这个 whose 也是给它跳过。 ok, 现在我们就可以打开 open crawl 了,它上面呢有一个地址,我们按着键盘的 ctrl 键,然后点一下它, 他就会打开 openclaw 的 web 页面。这个呢是和 openclaw 的 智能助手聊天的页面,但是因为我们现在还没有接入大模型啊,所以呢,和他聊也没什么用。接下来呢,我们就要去接入千问的大模型,同样打开 power shell, 进入 wsl, 然后运行一下 openclaw config 这条命令,选 local, 然后就 model 这里模型的话我们去选到千问, 现在它是等待千问那边的授权,授权完毕呢,就接入成功了。这里我们可以复制一下这个地址,然后到浏览器去打开, 因为刚才已经让大家注册好千万的账号了,这边呢,直接点确认就授权成功了。其实到现在啊,我们的大模型呢就已经接入成功了, 现在就可以回到 opencloud 的 web 界面了。现在呢,我们和智能助手聊下天呢,只要他能回答我们的问题,就证明我们的大模型呢已经接入成功了, 没有问题,已经可以正常回复了。这样呢,我们的 openclaw 就 部署完成了。这个视频呢,就先到这里啊,下个视频再带大家来把 qq 飞书这些聊天工具呢,接入 openclaw。

大家好,相信大家最近应该都被这一个 openclock 小 龙虾给刷屏了,不管是在刷朋友圈还是刷短视频上面,都应该有刷到过关于 openclock 小 龙虾的一个话题。 简单来说,它就是一个 ai 智能体工具,可以实现连接 ai 大 脑与终端设备,让 ai 真正拥有双手,从只会聊天提供建议的被动助手转变为能自主完成系统及任务的标准化数字员工。 截止目前,他在 github 上面已经登顶榜单第一,拿到了三十几万的一个 star, 这就足以证明他的一个火爆程度,很多人甚至已经开始接起了上门安装或者远程安装的一个服务。那么接下来我们就来给大家分享一下如何在本地 windows 电脑上面部位的进行安装。 我们首先来到 node js 的 官网下载对应系统的 node js, 注意版本需要在二十二以上,然后点击下载,打开文件进行安装,一度 next 即可。 安装完成以后,我们可以按键盘上的 windows 加 r 输入 cmd, 打开终端,在终端里面输入 node 杠 v 跟 n p m 杠 v, 如果有版本号的出现,那就证明已经安装成功。接下来我们安装 git 一 样到 git 的 官网这边点击下载, 下载完成之后我们打开文件安装,然后一路 next 即可。 安装完成之后,我们一样在终端这边输入 get 杠 b, 如果有版本号的出现,证明安装成功。接下来我们就可以开始安装小龙虾了,我们复制这行命令,然后打开 windows 自带的 power shell, 记得要用以管理员的身份进行运行,然后我们在 power shell 里面填入我们刚刚复制的那一串命令,出现这一个报错,不要慌,这是由于 power shell 的 执行策略默认禁止运行脚本, 我们只需要复制这一行命令,然后将它在 power 里面执行一下,然后重新执行上一条命令,这样他就开始下载了。如果他下载的很慢的话,可以改用国内镜像进行下载,会快一些。 安装完成以后,我们就可以输入这一行命令进行初次配置,然后他会弹出一个使用协议,需要你这边进行确认。值得注意的是,使用 open core 可能会存在一些安全风险,建议大家还是在云服务器、虚拟机或者备用机上面进行使用。然后我们这边选择 yes, 选择快速开始,然后这边是给你的模型配置对应的 api key, 我 们这边先跳过, 然后这边是配置聊天渠道,你可以选择 telegram、 whatsapp it's code 或者飞书来更方便的跟小龙虾进行对话。我们这里也先跳过,接下来是配置搜索服务,这边需要另外申请。 a b i q, 这里也先跳过, 接下来是给小龙虾安装 skills 技能包,给他配置各种各样的能力,比如操作浏览器等等。这边我们也先跳过,后面再按需进行安装。接下来是配置 hux, 这边可以全部选中,注意是空格,选中回车确认,然后他这边就会自动安装并启动 open curl 了, 然后他这边可能会弹出防火墙提示我们这边点击允许启动完成之后,他会问我们要在终端里面使用还是在网页浏览器当中使用,我们想要看的直观一些,当然是在网页浏览器当中使用了选择网页浏览器,然后他就会自己打开 open 可二的网页控制面板。 到这里你的 open curl 小 龙虾已经全部安装完成,但此时它还不能够进行对话,因为我们前面是没有进行配置这一个 api key 的, 接下来我们来配置一下,我们在 power shell 里面输入 open curl config, 打开配置页面, 选择本地 logo, 然后这边选择 model 模型,在这里可以选择你的 ai 大 模型,比如我这边用的是 mini max, 所以 我这边就选择 mini max, 因为我是使用的是国内的 api, 所以 这边要选择 cn, 然后复制 api key 粘贴进来,然后选择模型, 然后这边选择继续 continue, 他 这边就会自己进行重启。然后我们再回到网页浏览器这边就可以进行对话了, 然后因为他现在等于说是刚刚诞生,那么你就可以根据对话去一步步的引导他来设置他的身份、个性以及职责等个性化信息。 好,那么这期视频我们就先到这里,下一期视频我们再来给大家讲一下如何接入飞书 discord 以及 whatsapp telegram 等聊天渠道,谢大家再见!

opencla 对 接欧莱曼核心教程,不用 vpn, 不 用真实 apikey。 重要提醒,一定要用非工作电脑,不要在公司电脑有重要文件的电脑上操作。第一步,准备环境,在官网下载好安装包, 安装 nodejs 二十二加和 get 一 录下一步即可。第二步,安装 opencla, 以管理员角色打开 cmb 复制一键安装命令, 安装成功。第三步,下载本地模型 cmd, 安装并启动欧莱玛。 第四步,配置 open 框。