粉丝162获赞4385

今天教你如何使用 opcode 切换两个大模型,一个是 glm 四点七,一个是国产的千万大模型, opcode 提供的模型供应商有这些,你可以选择你需要的大模型进行切换。首先打开终端,输入这行指令, 可以看到我当前的大模型是 glm 四点七。最下面是让你选择是本地部署还是远程部署,我这里选择本地部署。 紧接着就是让你选择配置的区域,这里选择模型配置。再接下来就是进入到了模型列表界面,这也提供了很多的模型供应商, 因为我已经配置了 g m 四点七,所以我这里选择千问来进行配置。每一个模型后面都有写是进行授权登录,还是说通过年提 api 进行登录。 我们选中千问后回车,然后确认一下,会弹出一个浏览器的网页,我们点击一下授权的确认按钮, 认证成功后就可以回到命令行界面进行下一步的操作。在这个模型列表一页,他默认其实已经把纤维模型给选中了,我们可以往下滑找到纤维模型,确认一下是不是选中状态,也可以直接按回车进行到下一步。我这里已经看到纤维模型已经被选中了,我直接回车进行到下一步。 这个时候千万模型其实已经配置好了,我们点击键盘上的 esc 退出界面,然后再重新输入刚才的命令,确认一下是不是当前模型变成了千万模型。 我们输入键盘的 esc 退出后输入这个命令,打开浏览器界面,我们点击右下角的按钮,创建一个新的绘画,然后输入一个问题,你是哪个大模型?他的回复是同意千万模型。到此,整个切换模型的步骤就完成了,接下来我要切回到 g l m 四点七, 然后演示一下如何黏贴 api k。 前面步骤和刚才的千万大模型都是一样的,只不过是模型授权的方式不一样, 刚才是通过浏览器登录授权,现在是需要去对应的模型官方获取 api k 之后粘贴进来,选择 glm 四,点击这个模型之后,回车之后它会提示我要去黏贴 api k, 一 般都是登录官网找到 api k 管理页面,然后黏贴一下 api k, 身后的步骤和刚才千万模型的配置一样,我们直接回车就配置完成了。输入这个命令之后,我们可以看到当前的模型已经变成了 g l m 四点七。入这个命令之后,我们打开浏览器网页,在绘画窗口输入你是哪个大模型, 这个时候已经切换到 g l m 四点七了,整个过程就是这样,有需要的小伙伴快去试一试吧,这里是 ai 共生格,我们下期见。

装好这个 openclock 之后呢,我们有许多技能要配置,但是呢,我认为所有技能之中最重要的一个技能呢,应该 就是 websearch 网络搜索功能。如果你有没有这个 websearch 搜索功能的话,你这个大模型呢,只能用历史的知识来回答你的问题,这样就相当于是丢掉了一半的信息收集能力。 那如果呃要用这个 web search 的 话呢,在我们查看 open crawl 的 官网,你会发现它的默认 web search 功能呢,是由这个 brave search api 提供的。 然后我试了一下这个 brave search, 首先呢它是一个海外网站,它速度非常之慢,然后呢,它的配置呢,也非常的繁琐,呃,用了之后确实不怎么好用。 有没有可以平替的 web search 工具可用呢?我们可以在这个 qq 上搜搜一下这个搜取,你会发现排名第一的是这个 tablie web search 这个工具如何安装呢?我们点进去看一下, 它需要一个 table api key, 这个 api key 呢,我们需要到这个 table 的 官网上去获取,不然你是没法用它的设置功能的。我们先来看一下如何安装, 我们进到 open curl 的 服务器,嗯,执行一个 curl hub in store, 然后输入之前搜索到的这个 tv search 这个名字, 然后这个 cloud hub 就 会帮我们把这个 tv search 给安装好。啊,这里是因为我已经安装过了一遍了,他说已经,嗯,工具已经安装,所以呢他就不会再给我安装。如果你没有安装过的话,会看到一个呃是否 yes or no 的 安装选项。 安装完了之后呢,我们回到 opencloud 的 夜端控制台,我们会看到它的 skill, 这边 就会多出一个这个 tailview 的 这个 skill, 这样我们的啊,但我们设置功能还不能用,因为还没有 apikey, 这时候怎么办呢?我们去这个 tailview 的 官网上申请这个 apikey, 我们登录到 tv 的 官网上,然后呢在这里 api keys 这里可以添加一个新的 api, 然后你可以使用一个比如说 opencloud 的 名字, 创建之后我们可以复制它,复制它之后有什么用呢?我们又要回到 opencloud 的 控制台,在控制台呢,我们在 opencloud 的 目录下面会看到一个点 env 这个文件,就是这个文件, 我们编辑这个点 e m v 文件,把那个 token 加进去。怎么加呢?我们编辑这个点 e m v 文件,在最后面加一行 a v a p i t, 然后后面等号后面加,加上我们刚才创建出来的复制下来的那个真实的 api t, 然后我们保存下来,保存下来之后重新启动这个 git 位, 然后我们就能从我们的呃客户端上,我们就可以在我们的 opencloud chat 页面使用 tv 的 搜索功能了。

各位 openclaw 的 玩家们,想不想让你的 ai 助手拥有顺风耳和百灵鸟般的嗓音,实现无障碍中文语音对话?今天这个视频我就手把手教你配置 s t t 语音识别和 t t s 语音合成功能, 让交互体验直接拉满。首先咱们得准备三样东西, grq 的 api key。 这可是让 whisper 模型飞速识别语音的关键,去 grq console 就 能免费拿到。还有 eleven labs 的 api key, 它能让 ai 的 声音听起来自然又有感情, 官网注册一下就行。最后,你得有服务器的管理员权限,也就是速度权限,不然很多设置可改不了哦。准备工作做好了,咱们就进入正题。第一步,安装底层音频引擎 f s m p e g open cloud 处理音频全靠它。打开服务器终端,输入 studio app get update and and studio app get install y f m pad, 敲个回车就搞定。接着第二步,配置环境变量,找到 open club join 这个文件, 在 meta 部分后面,咱们要添加一个 emv 模块,里面要填上你的 g i o q aptag slash slash a p i 注意哦, open a i e p i key 这里也填 rockcube 的 key, 别搞错了。然后是第三步,开启音频转盘四,也就是 s t t 功能。在 open club join 里找到 models 同级的位置, 添加 tools media audio 配置 provider, 选 openai model, 用 whisper large 杠。 b 三 base 0 l ten h t t p s colin slash slash a p i g r o q 点 com open a i v e 这样就能调用 g q 的 服 务了。第四步,配置语音回复 t t 找到 messages 点 t t s 模块把 auto 设为 inbound, 意思是只有收到语音消息时才自动语音回复。 performer, 选 eleven labs, 然后填上你的 eleven labs key, 选一个你喜欢的 voice id, model id, 用 eleven multling 下划线。 v 二 language code 记得设为 zh, 这样就能锁定中文模式啦! 最后一步,重启生效,你可以在聊天框输入 restart 命令,或者在中专执行 open club gateway restart 配置完成后怎么体验呢?很简单,直接在 telegram 发送语音 消息,下面如果显示 audio transcript, 就 说明他已经听懂了。而且如果你发的是语音,小呆瓜会自动用 eleven labs 生成的语音回 复你,是不是超酷?好了,今天的配置教程就到这里,快去试试让你的 open cloud 开口说话吧!如果遇到什么问题,欢迎在评论区留言,我会尽力帮大家解答。你们最喜欢 eleven labs 里的哪个声音呢?你来分享一下吧!

你肯定没见过比这更简单的 oppo pro 安装教程,只需要一句话,直接自动安装。打开 mini max, 桌面端,输入帮我配置 oppo pro 低整将自动完成相关配置。安装完成后,输入 mini max 的 api key, 等待一会后配置自动完成,就可以在前端测试效果了。输入你是什么模型,可以看到 oppo pro 已经配置完成。

这个开源项目可以让你一键部署 openclaw, 彻底告别复杂的本地部署流程,支持 mac 和 windows 平台。点击打开部署前需要填写 api。 openclaw 支持大部分模型,因为官方首推 kimi 二点五,我就以这个为例子,申请 apikey。 首先打开 moonshot 开放平台,然后手机号码登录, 然后进入用户中心,在左侧菜单中点击 apikey 管理,然后点击右上角的新建 apikey, 然后随便输入一个好记的名称,点击确定 就会显示一个完整 key, 记得妥善保存,忘记了就只能重新申请了。然后把 api key 填入 set up, 向导开始使用 open clock 可以 做很多工作,比如常见的资讯汇总,我在手机上输入 汇总,本周 top 十科技事件可以看到,很快就会汇总好从电脑端发到了我手机上。再比如我对第八条资讯很感兴趣,告诉他就第八条新闻写一篇分析报告,他响应的时间很快,最后会将分析报告整理出来,效率简直逆天,感兴趣的朋友可以去试试了。

最近为大家做了多期 openclaw 相关的视频,而且昨天我还发了一期 openclaw 的 高级用法的视频。但最近我发现几乎每期视频的评论区都会有留言提到 openclaw 调用 cloud code 会非常消耗 token。 因为在之前的视频中,我有为大家演示过,用 openclaw 来调用 cloud code 进行编程开发,我们只需要为 openclaw 全程操作 cloud code, 为我们实现编程开发。 但是我们如果采用传统的方式,也就是常规的方式让 open cloud 直接调用 cloud code 的 话,那么 open cloud 每隔几秒就会轮循一次,检查一下 cloud code 的 状态以及 cloud code 的 输出。使用这种传统方式的话, open cloud 必须时刻盯着 cloud code, 所以 openclaw 就 会消耗非常多的 token。 所以 我发现在评论区大家抱怨 openclaw 调用 cloud code 会消耗更多的 token。 因为大家采用的是这种常规的传统方式, 所以 openclaw 要采用不断轮询的方式来查询 cloud code 的 状态,也就是 cloud code, 它执行的任务越久,在 openclaw 中它轮询的次数就越多,所消耗的 token 也越多。 所以我们可以完全不需要用这种传统的方式直接让 opencloud 来调用 cloud code。 因为无论是 opencloud 还是 cloud code, 它们都非常非常的灵活,所以越灵活就越强大,就越有利于我们去自定义一些功能,从而轻松解决用 opencloud 调用 cloud code 的 时候, 产生大量的 token 消耗。尤其是 cloud code 在 前几天新增了 agent teams 这个新特性,因为 agent teams 相当于在 cloud code 中随时可以创建一个完整的开发团队, 而且每个 agent 呢都是独立的进程,所以是真正的并行执行,而且每个 agent 之间还可以相互通信,还能共享任务列表,能自动认领,还能实现专职角色分工,比如说负责开发前端的 agent, 负责开发后端的 agent, 还有负责测试的 agent。 所以在 cloud code 中有了 agent teams 这个最强大的新特性,在 open cloud 中就可以更加轻松地向 cloud code 委派任务,让 cloud code 全自动完成整个开发工作流。 想让 open cloud 以更节省 token 的 方式来调用 cloud code, 其实非常简单,我们只需要用到 cloud code hux 功能, 在 open cloud 中可以结合 cloud code 的 hooks 功能,真正实现调用 cloud code 进行自主开发,并且能够实现真正的零轮询,而且还能非常节省 token。 当开发任务完成之后, 我们还能在聊天软件的群组中自动接收到任务完成的通知,包括实现的是什么任务, 项目存储的路径,还有耗时,还有 cloud code 的 agent teams 是 否已经起用,还有具体完成的功能,还有项目的文件结构等内容。下面我们就看一下我是如何通过 cloud code 的 hux 来实现了整个流程。 下面我们先通过这个流程图,让大家更直观的感受一下在 cloud code 中通过 hux 回调来实现的整个步骤是怎样的。 首先是由 opencloak 将我们要开发的任务委派给 cloud code, 像这个委派只执行一次,而且它是后台运行,不会阻设 opencloak 的 对话窗口和它的主 agent。 当 cloud code 接到任务之后,它就会进行自主开发还有测试,当任务完成之后,它就会触发 stop 事件。 第三步就是 cloud code 中 hooks 自动触发,它会先将执行结果写入到这个文件中,然后再发送 wake event 来唤醒。 open cloud 在 这里采用了 stop event 以及 session end event 实现双重保障,来保障在聊天软件中,我们能够真正收到它的任务完成的通知, 然后 opencll 就 会读取这个文件中的这些结果和状态,当它读取完这些结果和状态之后,它就会回复给我们,也就是通过我们的聊天软件来回复给我们这些状态。 像这个流程的话, opencll 只在给 cloud code 派发任务的时候调用一次 cloud code, 然后这中间的流程不需要 opencll 参与。在最后这里, opencll 再读取一下这个执行的结果,并且将执行结果发送给用户。 所以在第一步, opencloud 只是给 cloudcode 下发一个任务,它下发任务的过程所消耗的 token 几乎可以忽略不计。在最后这里,它只是读取一下结果,将处理结果发送给用户,而且这个结果里的内容非常少,甚至不超过一千字, 所以在最后一个步骤,它所消耗的 token 也几乎可以忽略不计。在 cloudcode 的 自主完成这个任务的过程中, opencloud 不 需要对 cloudcode 进行轮询。 好,下面为大家讲解一下我是如何实现的。在 cloud code 中通过 stop hook 来达到任务完成自动回调的效果。在刚才也提到了我们使用了 stop hook, 还用到了 cloud code 的 session end。 下面我们简单看一下为什么要用到这两个 hooks。 在 cloud code 中一共有十四个 hooks, 之所以我们选择这两个, 是因为我们构建的这个工作流,在 cloud code 中,它完成开发之后才会触发这个 hooks, 所以 使用 stop hook 作为主回调,就可以保证 cloud code 的 真正完成开发时才会触发。在这里我们还用到了 session and 作为兜底回调, 也就是假设 stop hook 它没有触发成功,还有这个 session and 它能够作为兜底。像这样的话,我们就能够真正保证 open cloud 向 cloudcode 发送一条开发任务,然后 cloudcode 独立运行。在 cloudcode 独立运行的这个过程中,它并不会消耗 opencloud 的 上下文。当 cloudcode 完成开发后才会触发 hux, 然后我们的聊天软件就会收到通知, 下面我们就可以看一下具体的代码。在这个代码中,我们先看一下这一个脚本,它的作用就是将要开发的任务来写入到这一个文件中,然后再通过这个脚本来启动 cloud code。 当 cloud code 完成开发后,这个 stop hook 就 会自动触发,然后就会调用这一个脚本,我们可以点开看一下, 这一个脚本就会将任务发送给 openclaw, 所以 这个自动回调流程,它会读取这两个文件里的内容,并且写入到这一个文件,然后 openclaw 就 会将这些信息推送到我们的聊天软件,这样的话我们就能够实现 在 open cloud 中向 cloud code 下达开发任务,然后由 cloud code 自主完成开发。当完成开发之后再触发这两个 hux, 最后我们的聊天软件就会收到推送通知。好,下面我们可以先用一个简单的开发案例来测试一下。在主 a 选项这里,我们直接在对话框中输入我们的任务, 我是为了是用 cloud code 的 a g and team 协助模式构建一个基于物理引擎还有 h t m l c s s 的 带材质系统的落沙模拟游戏,然后我们直接发送,看一下这个效果, 这里很快输出提示,它已经将这个任务派发给 cloud code 的 agent teams。 这个开发模式就是调用 cloud code 的 agent teams 多智能体写作,这里还给出了这个工作路径,然后这里它提到完成后会自动通知到群里, 像这样的话,这个主 agent 的 线称并没有被阻塞,它还可以继续为我们执行其他的任务。比如说我们在这个主 agent 中继续输入任务,比 比如说让他查询新加坡今天的天气,然后我们直接点击发送,看一下最终的效果。像我们如果采取传统的方式在 open cloud 中来调用 cloud code, 在 主 agent 中必须等到 cloud code 真正完成开发之后,这个主 agent 呢才会继续执行我们的其他任务。 像我们采取了现在这种方式,这个主 agent 的 进程并没有被阻塞,所以我们让他查询新加坡的天气,然后这里他就很快查询了一个天气,然后我们还可以继续输入其他人物,比如说讲个笑话,然后这里他就很快输出了一个笑话。而 cloud code 在 后台完全是自主运行,不需要我们去干预, 然后我们只需要等待 cloud code 完成之后,将完成后的消息推送到这一个群组里就可以了。之所以设置为将完成后的消息单独推送到一个群组,是因为我们在这个 agent 中可能还在进行其他任务的操作, 比如说让他讲个笑话,他在讲笑话的时候突然多出来一条任务完成提示,这样会导致这个上下文窗口比较混乱,所以我们就将他完成后的这个消息推送单独推送到一个群组里,这样的话就不会占用这个主 a 智能的这个聊天窗口。在这个群组里我们就看到了这个消息推送,我们点开群组 查看一下,在这里我们就看到了这个任务推送,这里提示 cloud 的 任务完成。这里是开发的这个游戏,然后这里是游戏的路径, 在 cloud 的 code 中使用的就是 agent teams, 这里就是给出的项目文件,然后这里它还推送了第二条消息,这里还给出了完成时间大概六分钟,然后这里还包含一百八十四个测试通过, 然后这里就是给出的交付,然后这里还给出了这些性能,下面我们可以输入提示词,让他将代码文件打包发给我,这样的话我们就可以在本地打开进行测试,因为我的 open cloud 是 运行在云端的 好,这里他将为我们开发的这个项目文件发送给了我们,这里还提示解压后在浏览器中就可以打开使用,然后我们直接点开,然后我们在浏览器中打开看一下这个效果,就是他开发的这个落沙游戏,我们可以先测试一下,我们选择这个沙子 好,这样点击之后这个沙子就落在了底下,然后我们再点击这个水 好,可以看到水落在了沙子上,然后我们再给它加一把火,可以看到这个火会往天上飘,再给它加一些木头, 然后再给它加一些蒸汽,可以看到这个蒸汽飘到木头上会变成雨。像这样的话,我们就真正实现了在 open cloud 中调用 cloud code 进行开发。大家就不用担心在 open cloud 中调用 cloud code 非常浪费。 token, opencloud 所消耗的 token 几乎可以忽略不计,哪怕我们不在电脑前,也可以通过手机向 opencloud 下达开发指令。当完成开发之后,我们就可以在群组中查看推送的这些消息。

cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

用 open curl 最重要的一步是啥?我认为应该是大模型选择和对接了吧。你想 open curl 本身是一个 ai agent, 如果它没有大模型的支持的话,就是一个呃,没啥都不能做的一个软件, 只有有了大模型之后,它才有了真正的灵魂。如果你觉得 cloud 系列的模型价格太贵, 然后 token 又耗用量非常之大,花不起这笔钱,那么我还是建议你用用我们的那些国产模型,比如说 kimi 的, 比如说质朴清颜的,还有是甚至千问的, 以及火山引擎的。现在火山引擎火应该叫火山方舟吧。啊,正在推出九块九一个月的啊, coding plan 啊,包月阿里云,它有时候也会推出许多的大模型优惠。呃,一般一个模型会让你用个一百万的量。 呃,大家可以免费试用一下。但是呢,有一个问题,如何在 openclaw 中使用这些第三方的模型呢?如果你进入 openclaw 的 on board 的 页面, 也就是它的配置页面,我们进到它的模型 provide 的 选择这个页面,你会发现上面两个 open ai 和 osart 呢,都还可以。国内的模型大概 呃,年包年的话是四百到五百左右的样子。然后下面我们再往下看。这个 q y 呢,是一个免费的模型,你可以通过 os, 通过他们的官网去免费使用一定量的模型。 tok 可用 zai 就是 质朴清颜 g a m 四点七,这个原先的价格是在两百四一年,现在,嗯,最近涨价了,并且它每天十点钟会放出一定的。呃,是叫什么购买量吧,买完也就没有了,很难买到。 呃。其他的你会发现就没有什么模型国内的模型可用了。这个时候如果你想要用,比如说, 呃,想要用火山引擎的提供的模型,或者是想要用阿里云提供的模型的话,怎么办呢?直接到呃 openclaw 的 json 配置文件中,应取配置,把它配置进去。好,我们直接跳过这个 onboard, 因为这里配置不了嘛。 如果你想要配置一个 openclaw 的 第三方模型的话呢,那么我建议你打开这个 openclaw 的 json 文件。 然后我们来看,首先呢,你要在 os 这边提供增加一个 profiles。 呃,最初的样子呢,其实只有 kimi coding, 这个是 open curl 官方支持的,就是 kimi 的 coding 订阅。 呃,它这里的 mode, 它表示我要认证的方式,大部分的模型认证方式都是这个 api key, 少量的是用 os。 然后你把你的这个 provide 这里的名字只是你随意, provide 名字随意,只要跟下面的匹配上就行了。然后把你的 provide 名字这一项填进去,然后 mod 使用 api key 复制粘贴出,我就复制粘贴出了这两份。 一个是 voke engine 表示的是火山引擎提供的模型,扣子表示的是扣子提供的模型。哎,这里大家可能会问了,哎,为什么扣子还能提供模型呢?呃,这部分内容我待会再说啊,待会再细说。这个也是一个很有意思的点, 如果你配置好了这个 os 之后呢,就授权之后呢,我们来看这个模型部分, modus 部分。 modus 部分呢,你要把这个 provide 的 供应商的细节配置出来,比如说你这个 vok engine 就 火山引擎的,你要把它的这个地址给填上。 呃,我因为我这里的是,呃买了九块九一个月的火山引擎。 b 三,跟普通的火山引擎的 地址是不一样的,然后这里的是你生成的 api key, 你 要填上,然后 api 这里它其实是表示我是用哪种 api 兼容模式,其实一般也就两种,一种是 open and i compilations, 另外一种是 astropic 模式。那大部分情况下你都用 open and i 兼容模式就行了。然后这个 modus 呢,是表示我这个 provider 提供出了多少个模型? 一个大括号中的表示一个模型,那这里我就根据火山引擎上的配置说明填上了。这个模型 id 叫阿克扣的 latest, 它其实是一个叫火山方舟的这么一个 编码的影模型。下面呢,下面这些参数呢?这个 input 就 说明是文本模型,然后其他的,呃,这个是 token max, tokens 就 表示上下文的上下文长度了。 后续呢,我又配置了第二个扣子的一个模型,扣子模型,呃,这个是 a p i t, 然后也是 open ai 兼容模式,然后它其实真正的模型呢,是豆瓣 c 的 一点八。 呃,这里我来介绍一下,你如何用扣子往外提供一个模型服务呢?其实你会,你如果登录过扣子平台,你会发现他有一个网络编程,网络编程里面中呢,他会调用可以调用底层的豆包 c 的 一点八,或者豆包 c 的 一点六的模型。那此时我就想, 如果我能够通过 open ai 兼容模式的方式把底层的模型调用,哎,直接透上来,呃,给其他的大模型用,那是不是我就相当于是这个编出来的这个网页本身就是一个大模型供应商呢, 经过我的测试确实是可以的,可以这么做。并且呢,因为 cos 现在它有一个每天登录送一千五百积分的优惠,所以呢,它也能帮你省下不少托克能量,呃豆包 c 的 一点半还是可以打的。 下面这个模型就是 kimi ko 的是 kimi 的 确定订阅的模型,它价格大概在五百块钱一年的样子。然后呢,是属于 呃 openclock 官方支持的模型供应商,所以你不用配置,你只要把这个 key 填进去,它就会帮你生成这部分内容。 然后我们再看下面这个模型使用部分,上面呢是模型的配置,下面是模型的使用。使用的时候,你要这里在 agent 的 这些呃子子项中填入这个 model。 model 的 这个参数中呢,你要填入一个 primary, 表示你的主模型用什么?我这里主模型呢,用 呃火山引擎的。然后呢,它有一个叫 four bags, 就是 当你的主模型无法调用了,或者头壳用完的时候,会用哪两个备用模型。我这里填的是 cos 的 备用模型和 kimi 的 备用模型。 然后这个 modus 呢,只是表明我这个模型以及它的别名,仅此而已。 好,等你填上了上述,在 opencloud 点 json 中填好了上述信息之后,然后从此 opencloud 的 getaway, 你 就会发现你的这些模型就可选可用了。 改完配置文件之后,你调用 opencloud on board 配置面板进去 provide, 这里还是不变。然后你会在这个模型选择这里面多出几个,比如说这里的扣子,比如说这里的 vogue engine 就是 你新配置的模型供应商对应的它们的模型。好,今天就讲到这里吧。

很多人买了 mac mini 想装 openclo, 却发现步骤有点多,教程也比较零散。所以这期视频我带你从零开始,完整演示一遍 openclo 的 安装和配置流程。整个过程我会拆分成四个步骤,一步一步讲清楚。 ok, 我 们正式开始。 第一步,安装基础环境,如果都能正常显示版本号,说明我们的基础环境已经准备好了。这里简单说一下, homebrew 是 mac 上的软件管理工具, python 是 open curl 运行所需要的环境, git 是 用来管理代码和项目的。只要这三个工具正常,我们就可以进行下一步了。这一步就是基础环境的确认。 第二步,下载并安装 openclo。 接下来我们正式开始安装 openclo。 首先打开浏览器,进入 openclo 的 官网,在官网首页往下滑,你会看到官网提供的一键安装命令, 复制这段安装命令,然后打开终端,直接粘贴执行。执行之后他会开始自动下载安装。整个过程需要一点时间,我们稍微等待一下,你会看到他正在下载相关的安装包,以及一些依赖组建。 等安装完成之后,系统会提示我们进行一些配置。首先会问你是否了解相关风险,我们直接输入 yes 就 可以。接下来会让我们选择启动方式,我们选择 quickstep, 用最快的方式启动。 然后系统会让我们选择模型,比如这里我选择了 kim, 输入对应的 api key 后选择 keep current。 接下来会让我们选择接入渠道,比如 whatsapp, 飞书等。这里我们先跳过, 因为第三步我会专门教大家如何配置飞书。接下来是技能的配置,为了快速启动,我们先选择 no, 后续有需要的可以再单独添加,然后它会开始安装网关, 安装完成了之后,我们会选择 open the web ui 浏览器,会自动打开一个聊天界面, 这里我们可以测试输入一下,比如说查看电脑状态,如果它正常返回结果,就说明 open curl 已经安装成功,并且可以正常运行了。到这里 open curl 的 下载安装和启动就完成了。 第三步,我们来看一下如何配置飞书。首先打开飞书开放平台,创建一个企业自建应用, 点击创建应用,应用名称可以自定义,由这里我直接命名为 word。 openclove 创建完成之后,我们进入应用后台。第一步,添加应用能力,选择机器人,添加完成后进入权限管理页面,这里我们可以选择批量导入权限, 直接复制我已经写好的权限 js, 确认之后点击申请开通,然后按照提示完成下一步操作即可。 这里飞书册的基础应用就创建完成了。接下来我们回到 openclove, 在 最新版本中其实已经内置了飞书的插件,但是默认是未启动状态。 我们先进入插件管理页面,查看飞书插件当前状态,可以看到飞书插件是未用状态,现在我们执行应用命令, 将飞书插件启动,启动之后再次确认状态,可以看到飞书已经处于遗弃用的状态。我们重启一下 open call 服务,重启完成后,进入 channels 页面,可以看到飞书插件已经出现在渠道列表中, 现在我们开始进行飞书的配置,首先填写飞书应用的 app id 和密钥, 这两个信息可以在飞书开放平台的应用凭证页面获取。连线完成之后,下面的选择连接方式,选择长连接模式,相关选项全部起用,然后点击保存,保存之后系统会自动重启网关服务, 网关重启完成之后,退出渠道就已经接入完成。在建立好长连接之后,我们需要配置事件,这里的事件类型选择长连接,然后点击添加事件,我们添加的事件类型是发送消息, 然后再回调配置,里面同样选择长连接方式,配置完成后记得点击保存。 接下来我们创建一个新版本并提交审批。最后我们回到飞书客户端,还是查看电脑信息状态,可以看到它现在已经成功回复,说明我们的飞书已经配置成功了。 在玩 openclo 的 过程当中,我们可能会碰到很多问题,这里我告诉大家一个邪修的方法。举个例子,我之前在配色非书应用的事件与回调的时候, 使用长链接接收事件,会显示应用未建立长链接,这时候可以直接让 open curl 帮我们处理,这是我邀请他做的,他现在需要我们提供飞书的 app id 和密钥,我们找到飞书应用的 app id 和密钥发给他, 等他一会,现在他已经更新好配置文件了,我们来看一下网页中飞书的配置, 目前来看已经是配置完成了,所以当我们有一些问题需要处理的时候,我们可以直接让 openclock 帮我们来处理,当然也不止这一个场景,你要是碰到了其他的问题,也可以直接告诉他,让他帮忙处理, 毕竟我们花这么大的精力来配置他,是要让他好好干活的。 ok, 这是 mac 配置 openclock 的 全部教程,大家赶紧去试一下吧!

你如果用这个 open cloud, 肯定会消耗很多 token, 那 最好的方法就是用免费的模型,这里它就会支持 onigravity。 千问还有 open code, 咱们这里就教一下怎么设置这个 onigravity。 用它里边的免费模型装上了之后就 out bought config, 这里边就点选 logo, 这里边儿选 model, 这个再选里边儿的模型。因为 onigravity 是 谷歌的,所以这里边儿选谷歌,选 onigravity。 当然你可以选这个 google gemini c l l, 这个也是因为 gemini c l l 也是免费的,但是 onigravity 它有更多模型,包括 cloud code 的 模型,还有 gemini 的 模型,所以这个 咱们选 onigravity, 它会跳一个网页让认证,所以这里你就选你的谷歌账号儿就可以了。 三音这很快就认证成功了,就可以选模型了。这里它选的模型比较多,所以就会需要一直往下拉, 它在谷歌 on the gravity 里边往下走,走走走,这是 coco 的 get up, 对, 这里就是大家可以看到谷歌 on the gradient。 我 这里边是把谷歌 on the gradient 下边的模型全都选了之后选,直接按空格就可以选和反选, 选完之后按那个回车就可以选定了,这里话直接跟 t 钮,然后它结束之后就可以自动地使用 anti gravity 模型了。这样 clubbot open cloud 就 可以免费使用 anti gravity 里边的 cocoon 了,就不用自己买 cocoon。 当然你可能配置完之后想选自己的首选模型,因为 integrative 里边儿有很多模型,咱们可以在这里边儿配置。在这个尼加目录点 cloud bot, cloud bot, 点 jason, 我 这里边儿直接打开,咱们就往下走,这里边儿你可以看 a 阵词,下边儿这有一个 default, 这就是你默认用的模型,这里有个 primary, 就是 它首选的模型。就是啊, google on the gravity 里边儿这个 color whoops, 四点儿五 thinking, 这个比较慢,所以我想要把它改成 gemini flash 这个模型,咱们呢? sun flash 对 这个模型会比较快,所以我想把它改成这个模型,当然你可以自己改,它就会首先尝试的模型是这个,如果不行,它会用 fallback。 这边的模型我现在已经改好了,之后我就可以保存重启一下 clubbot, 它就可以 clubbot play the gateway start, 我 又拼错,然后这就重启了,就可以开始用我新设置的这个 drama 三 flash 这个模型了。咱们看一下它具体的情况, 你就会看到你的模型已经开始用。呃,首选模型,这个有时候它算比较慢,但是总体来说它会遵循你的配置的。今天就到这来谢谢大家,希望可以帮到你们。

hello, 大家好,这又是一期 opencloud 的 小白安装教程,为什么说又呢?是因为距离我啊上一次发布的 cloud boot 安装教小白安装教程过去仅仅不到两周, opencloud 就 历经了两次改名,由于它的屡次改名,实际上完全影响了它整个安装流程。 第二个就是说当我的视频发布之后,有很多用户在后台私信我,就是他们在安装过程中啊,遇到了很多奇奇怪的问题,所以经过我的汇总和分析呢,我决定再录一期就是 opencloud 的 小白安装教程,这一期的这个教程会更容易理解,然后 啊,操作起来会更简单。那么废话不多说,我们直接开始。首先呢,要完成 opencloud 的 正常安装,你需要确定一件事,就是你的网络联通性,你的网络联通性直接关系到了你的这个 opencloud 是 否能够安装成功,所以你需要确定这三个网站 是可以正常好用的。第一个就是 opencloud 的 ai, 也就是它的官网。那么第二个呢,就是 gitlab, gitlab 实际上是我们程序员托管代码的一个网站,但是由于 opencloud 的 很多插件和它代码是托管在 gitlab 上的, 所以说如果说你不能正常地访问 gitlab, 那 你极大概率也是没办法正常完完成正常安装的。那么第三点就是这个 brave search api, 那 么这个网站实际上是呃辅助 opencloud 进行网络搜索的一个工具,那么你必须要能够访问 bravesearch api, 并且成功地申请到它的一个 key, 你才能让你的 iphone 壳正常的进行网络搜索。 ok, 那 如果说你经过上面的验证,发现你都是没问题的话,那我们接下来进行正式的安装过程。首先呢在它的官网你可以找到这样的一个命令,然后大家只需要点击这里复制就可以了,然后你在你的 mac mini 上,然后点击这个右上角这个搜索按钮,然后点击一下之后呢 输入中文的终端或者 tome 的 都可以,都是都都是可以找到这个这个程序的,然后只要找到这个 icon 就 很好了。然后点击双击之后呢,这个时候你要在粘贴刚才你复制的命令之前,先输入速度这个命令,然后点击空格,然后粘贴, 这时候大家只需要点击回车就可以了,点击回车之后,大家会发现它会提示你输入 password, 也就是你的密码,这时候啊由于 terminal 的 一些比较特殊性,就是你在输入密码的时候, 这部分是没有任何显示的,所以大家只需要在你的通过你的键盘把你的这个密码正确的输入进去,然后点击回车就可以了,你不用理会这个界面上是否出现了你输入的内容,因为输入密码它就是不显示的。 ok, 那 我们输入密码, 然后点击回车,然后它就会开始一个正常的安装过程。 ok, 那 么如果说你的安装流程没有出现任何问题,你的网络联通 也是畅通的话,那么你就会接下来会进入这个页面,这个页面就是说白了就是你会选择一堆的东配置,然后来正确的设置好你的 opencll, 那 么接下来第一个问题就是他会问你是否了解安装 opencll 的 一些风险啊,这里我们选择 yes, 然后如果说你选择的 yes 的 话,它 yes 左边会出现一个绿色的 小点,然后点击回车,然后我们这里选择 quick start, 这里会让你选择模型,由于千万目前是免费的,所以我们选千万就好了啊。把通过箭头然后 移动到千万这里,之后点击回车,然后这时候它会问你是否进行认证,然后这里继续点回车,如果不出意外的话,它会弹出千万的这个网站,那如果说 你的这个网络没有问题的话,你就会见到这个页面,当然因为我这个网站已经登录过了,所以如果说是你的话,大概就可能会弹出一个登录的界面,大家只需要正常登录就可以了,这时候点击确认,点击确认之后呢,我们再回到我们的 control, 然后大家会发现进入了下一步叫 keep current, 然后这里选择 keep current 就 行了,就也是第一项就是这一部分,选 keep current, 然后接下来啊会让你配置你愿意用什么样的通信工具来控制你的你的 mac mini, 这里我们选择飞书啊。如果说有看过我上一期视频的话, 大家会知道在上一期视频的时候,其实当时的 cloud boot 还不支持飞书,那现在已经支持飞书了,然后我们这里选择飞书,然后我们这里选择 download from npm, 也就是第一个, 然后这里他会问你是否配置你的 skill, 这里我们先选择 no, 因为啊 skill 这个东西你可以随时的去去配置,然后这里选择 no, 然后因为这个实际上我们我这个机子已经安装过一次了嘛,所以这里会可能这里出现的选项和你不一样,但是大家记住,你只要选择 restart 或者 install 就 可以了, 然后这时候他会帮你安装 git suite, git suite 说白了就是呃这个一个后台服务,这时候呃大家切记要选择 install 好 吧, 然后选择 install, 之后呢,选择第二个 open the web ui, 然后如果你选择了之后,你就会发现他帮你打开了一个 open curl 的 控制页面,那么 ok, 到这里你的整个的 open curl 就 安装完成了。如果不出意外的话,你这里去问他任何问题, 或者说你给他打个招呼,他是会有信息发送出来的。如果说你到这里,然后你去给他发送信息,他没有回复你,那就说明可能是你在配置千问的那一步出错了, 那么你可能就需要,那你需要怎么做呢?你需要输入这个指令, 输入这个指令,你当你输入这个指令,然后点击回车之后, 它又会把刚才的流程再进行一遍,然后你需要按照我的步骤严格的详细的重新执行一遍就可以了。 ok, 我 先假定你已经进入到了这个页面,并且你去给他发信息的时候,他能够正确的回复了, 那么接下来就到了我们配置飞书的时候了。也就是说因为很简单,你在 mac mini 上安装了 opencloud, 你 最终目的不是说你人去手动地去操纵 这个 mac mini, 对 吧?你希望是通过飞书或者说其他聊天软件来控制这台电脑帮你远程的做事情,所以接下来配置飞书的这一步非常关键,那么我们看一下怎么配置呢?大家只需要这样子,输入 open cloud, 然后输入 config, 然后点击回车, 然后选择第一个 local, 然后选择这个 channels, 然后点击回车,然后点击第一个 config and link, 然后点击回车,然后找到我们的飞书,然后点击回车, 它告诉我们这个时候你看出现了一个错误,你发现没有? plug in install field, plug in already, 它就说这个,这个东西你已经安装了呀,但实际上, 但实际上我们其实是要配置的呀,我们先先这样试试,我们先 r m 杠 r f, 然后我们把这个复制进去, 我们这样的话就把插件删掉了,然后我们再来一遍,看看行不行。 输入 open claw, 然后 config, 然后 local, 然后选 channels, 然后选 config 的 link, 然后选飞书。 ok, 没问题了,看见没有?当你按照我刚才的指令把那个插件删掉之后呢, 它就可以正常的进入到下一个环节了。就它会问你,你是用中国的飞书还是海外的飞书?因为海外的飞书叫 luck, 所以 大家目前都是用国内的,所以这里要选择飞书,然后 china, 然后这时候点击回车, 然后这个时候它会问你要飞书的 app id, 那 么这个玩意从哪来呢? ok, 接下来跟着我一步一步的,咱们去找到飞书的机器人,去给它制作一下 啊。那么先简单的插播一个小小的广告,因为实际上我们在前一段时间发现了很多用户对 open klo 的 使用方法,包括安装流程都有一些问题,所以我们把这些问题啊,还有包括一些教程啊,都进行了汇总 啊,我们还准备了,还开发了类似于啊命令速查表这种工具,还有开发了一个提问社区,那么大家只需要在苹果商店搜索 open klo, 然后百科, 然后就可以下载这个 app, 这 app 上面我们也会进行积极的回答各种各样的问题,然后包括很有用的一些教程和速查表啊,感兴趣的朋友也可以去下载一下。 那么我们通进入飞书的这个官方网站,大家可以看一下啊这个官方网站,然后进入这个网站,并且登录之后呢,你会看到一个企业自建应用的东西,然后这是我因为我其实之前已经创建了两个嘛,所以其实大家可以 如果说你一个都没有创建的话,这个页面可能稍稍有些有一些区别啊,大家只需要点击创建企业自建应用这个按钮,然后它就会让你输入一个名称,这个名称其实啊大家可以随便说啊,比如说我就叫 open cloud, 然后测试, 然后描述就有 open cloud 测试一下啊,这个随便输就好了,你只需要自己能记住就行了,然后给它选一个颜色,然后这时我们点击创建, 点击创建之后你就进入了它的这个啊详情页面,这时候大家要切记要点击添加机器人这个按钮啊,点击添加, ok, 那 么这个时候我们再点击凭证与基础信息,大家会看到这会有一个 app id, 这个就是我们需要的东西,这时候我们点击复制,然后我们回到我们的 terminal, 然后这时候我们点击 粘贴,然后点回车,然后这时候会有一个叫做非输 a、 b、 c 的 东西,然后这时候这个东西在这儿,然后我们点击这个按钮,然后我们这时候啊继续粘贴进来, 然后我们这时候点回车, ok, 就 完事了,那接下来怎么做呢?接下来我们点 finished, 然后选第一个 parent, 然后这时候点 continue, ok, 这个在 open cloud 这一端飞书,我们的飞书就配置结束了,这时候但是整个这个飞书的步骤配置过程还没有结束,那我们再回来到这个网页,那我们接下来要干什么呢?我们接下来啊先要给它 添加一些对应的权限,那么这些权限在哪找呢?很简单,这时候权限我们在这里找,我们只需要输 get up open curl, 然后非输, 一般来说第一个就是第一个,这个 get up 的 仓库就是我们要找的,那么我们想要这个仓库干什么呢?我们实际上 这里大家可以点击中文啊,中文的话就可以看到了,这时候我们实际上不需要,不再需要安装这个插件了。 看过我上一期视频的朋友们应该知道,这个在早先 clubbot 不 支持飞书的时候,实际上我们是要安装插件的,那么现在我们已经不需要再安装它了,因为 open club 已经内置了飞书这个啊交流工具,我们实际上只需要这个列表而已,就是我们需要一些列表, 这些列表就是我们需要开通的权限,我们怎么做呢?我们只需要把这段话复制一下, 复制,然后我们再回来我们的网站,然后点击开通权限,这时候点击粘贴,然后大家也可以看到,在这里就可以找到这一条,然后点击这里点上小对勾,然后我们点击确认开通权限, 然后我们就按照刚才的流程,把这些权限全部给它添加进去, 咱们一个一个来,然后复制,然后开通权限,然后把它粘贴进去,然后给它打上小勾,再开通,然后还有两个,我们把这个也加一下, ok, 还有最后一个,然后把这个加上,然后点击开通权限, 好了,我们开通权限的部分就搞定了。接下来我们还需要点击事件与回调,那在这里呢,我们会点击这个按钮,然后这时候会默认选择使用长连接接受事件,这个是没问题,然后我们点击保存, 然后这个时候呢他会有可能极大概率会显示应用未建立长连接,包括后台。也有很多人来告诉我,他们遇到了这个问题。不要紧,我们怎么解决这个问题呢?因为实际上我们刚才已经在 我们的这个 terminal 里配置好了飞出的这个 app id 和 app secret, 对 吧?但是我们实际上忽略了一步,我们需要给它重启一下 open close, 然后 get v, 然后 restart, 然后大家记住这个命令,啊啊,然后点击回车, 然后经过它重启之后呢,我们这时候再点击保存 搞定,然后我们就可以保存,按照这个长连接的方式来进行保存,然后这这个页面,特别是这个事件配置啊,我们还需要添加一个事件,我们添加什么事件呢?我们再回到这个 github 的 页面, 然后我们一直往下拉,然后这时候呢我们需要把这个这条选中,你看在事件订阅的这一部分里面,然后选中这个, 大家到时候自己安装的时候可以把这一块暂停,然后把这个复制,之后呢我们再回到这个网站,然后点击添加事件,然后粘贴进去,然后我们把这个选中就好了啊,确定, 然后这个时候我们再点击回调配置,然后我们这里也是同样的道理,然后点击保存, 然后到这里飞书我们基本配置就完成了。然后这时候我们要怎么做呢?我们要点击创建版本,因为你只是创建,你还没有发布,你没有发布的话,你在你的飞书你就搜不到这个机器人。然后我们可以设置一个版本号, 首次添加这里可以随便写,但是版本号大家要按照我的这个格式写才可以啊。然后点击保存,然后确认发布, ok, 我 们的飞书就配置完成了。那接下来我们要测试一下我们的飞书到底能不能正常的来去工作。 那么我们打开我们的飞书,然后大概率你会收到这样的一条信息,就是应用审批通过,已发布成功, 然后你可以看到你的应用 open call 测试已通过管理员审批并发布成功,这时候只需要点击打开应用, ok, 如果说你没有收到这条信息,没毛病,我们可以在搜索里直接搜 open call, 你 大概率也会找到这个机身,然后你只需要点进去,然后因为我刚才其实已经跟他沟通过了嘛,这时候你需要进行第一步,你给他发任何一条信息,比如说你发个你好, 然后他会给你回复这样的一条信息,这条信息的意思就是说你虽然已经配好了肥叔的 open app id, 但是你还缺一部,那缺哪一部呢?他甚至会给你把这条命令直接发出来,你只需要复制最后的这句话, 然后复制一下,然后到我们的 terminal 里,然后点击 command v 或者粘贴,然后点击回车, 这个时候呢,你的这个飞书啊,因为刚才出了点小叉子,对吧? 所以其实这里他会提醒你,你的这个飞书已经配置成功了,那么按照我的这个步骤执行完之后,你就可以和他进行正常的聊天了,你这时候再去给他发一些你好呀,或者你想让他干什么事,然后他就可以搞了。所以 那咱们其实接下来还剩最后一步就是我其实你可以看到我,让他帮我去 ready 上看一下最火的 iphone app 是 什么,然后呢,他会回复你,就是说我现在啊需要配置一下网络搜索功能, ok, 那 怎么去配置呢?就是我刚才讲的就是你需要进入到这个网站, 就是我们的 brave 网站, 然后呢,你需要去做一个登录, 然后这时候你会找到这个叫做 apikey 的 东西,然后你把它复制一下,你把它复制一下。复制完了之后,你怎么去配置它呢?很简单,我们只需要这样配置就行。 open call, 然后 config, 然后这个时候呢,选 local, 然后选 web tools, 然后选 yes, 然后这个时候大家只需要把这个 brave k 给它粘贴进去就好了,然后选 yes, 然后就完事了,就这么简单。 那么接下来呢,然后其实我就会问一下 c 叔,就是你可以帮我搜索了吗? 它会让啊,其实还是要还是要重启一下的啊,我们再重启一下,然后 restart, ok, 我 重启了网关,然后我们再试一下, ok, 大家可以看到就是它已经能够进行正确的搜索了,所以说大家只需按照我的这刚才的教程,然后去把你的 brave 设置的 api 配置好之后,那么 open cloud 就 可以帮我们去搜索了。 ok, 那 么今天的这期视频就到这里,如果说你在如果说你在配置的过程中遇到任何问题,那么你可以去下载我刚才说的 oppo 科百科这个 app, 然后上面有一个问答的板块,然后大家可以去上面提问。那么今天视频到这里感谢大家,再见。

在 openclaw 当中,如何免费地使用顶级大模型呢?我们知道 openclaw 本身是比较消耗 talking 的, 原因是在于当你和 openclaw 聊天的时候,它会使用上下文的 talking 调用大模型,从而导致我们使用 openclaw 会消耗大量的 talking。 问题来了,免费的大模型不好用,付费的大模型又用不起,那有没有折中的方案可以让我免费的使用顶级的大模型啊?答案还真有,那么接下来就给大家分享一个价值几千甚至上万的方式,可以让你免费的使用大模型,少花很多钱,所以大家先点赞再观看吧。那么怎么免费用啊?这里呢就给大家去说一下。 我们只需要去 n 平台,然后 n 平台里面是提供了很多顶级的大模型的,而这些大模型都是可以免费去调用的, 大家来看看都有哪些啊?比如说像国内的顶级的 mini max 最新版二点一可以免费的调用,还有像智普的四点七的满血版也可以免费调用。那么像 deep sync, 三点二、 kimi 等模型更不用说了,全部都是免费的。那么我们只需要去 n 平台申请一个 api k, 有 了这个 api k 之后呢,接下来将这个 api k 的 方式使用 open a 的 方式啊,配置到你的龙虾的配置文件里面就行了。 龙虾的配置文件在哪呢?给大家说一下啊。龙虾的配置文件呢,是在当前的用户底下有一个 opencloud 的 文件夹,然后在这个文件夹底下呢,有一个 opencloud 的 json, 然后这时候打开你的 json 啊,因为它内置是不支持这个平台的部署的,所以我们手动去配置它就行了。 手动配置呢,总共有三处地方啊,那么第一个地方呢,就是咱们在 models 供应商里面去添加一个名称,这个名称呢,其实叫啥都无所谓啊,只要后面和咱们的 agent 去对应起来就行了。然后在里面呢, ok, 去写他们家的地址。然后呢,重点这块来了,要去写你的 api k 的 换成你自己的, 用 open ai 的 方式进行调用。然后你调的模型是啥啊?那比如说我这儿呢,就是 mini max 二点一的最新版本。好,然后底下呢进行一个设置啊,这是第一处,先把它进行设置,然后设置完了之后呢,接下来第二处啊,导到你的 agents 里面, 然后将你的 default model 设置成你要调用的模型啊。设置完了之后呢, ok, 在 models 里面同样把这个名称再进行赋值一下就行了。这三个地方全部设置完成之后, ok, 这时候回到咱们的 open cloud 里面,将服务关掉,然后这时候使用命令 open cloud get v 重启你的服务啊。重启完你的服务之后呢,接下来你就可以去问一下你的龙虾你使用的模型到底是啥了。好,那这时候呢,咱们回到龙虾的 使用界面啊,那么咱们去问一下他,我为你设置了新的大模型,告诉我你使用的大模型是啥,咱们来看一下这个大模型 是否是我设置的那个大模型呢?好啊,咱们等待片刻,看到没啊,这就是我设置的 n 公司的 minimax 二点一了,那么到这咱们就可以免费的白嫖顶级的大模型了。我是磊哥,每天分享一个干货内容。

给大家看个厉害的东西啊, open core 电脑远程员工。我现在已经用这一个 whatsapp 连通了这个 open core, 也就是说可以远程的,哪怕我回了家,都可以在这一个 whatsapp 上给这个 ai 员工发指令和命令。 比如说我们这里写了一个找群博主的一个任务啊,就是让他去抖音去找到我们想投放的一些 kocai 和智能体相关的博主。你只要发这个信息给他,你告诉他要找近期的视频博主,粉丝数要小于五千大于一千, 有质量的要求,然后按照分段的要求去进行找寻,并最后去记录,你就会发现这个电脑已经自己开始在这干活了,他自己打开了抖音, 自己去进行检测,你甚至可以看到这里,他打开浏览器之后,自己去搜索 ai, 他 会打开每一个视频去按照你的要求去过滤。当然这里打开了银时巨峰啊,这有点太大了,投不动。没关系啊,让他继续找,再稍等片刻,你就会发现更神奇的事情发生了, 他在这里已经给我发出了按照要求,他的流程,他的规划,他的思考。比如他会说,接下来他只筛选七天近累计发布大于四十条的获奖视频,然后输出他的视频链接,发布时间点赞。他说这里面如果遇到问题,他会立刻告诉我们来进行处理, 我们只需要告诉他继续,那 ai 电脑又开始了他继续的一个工作,按下最终交付结果。提出这段需求之后呢,他能够按照我们需求进行拆分,分解七天热门视频,并且按照我们的要求去找寻到给出的博主清单。 所以以后啊,各个老板们需要思考的问题是,未来不是说要不要用 ai 的 工具去替换我们的工作流,而是你完全可以拥有一只在你的终端,用着你的电脑去帮你干活的智能员工。 如果你也想用这套真正 ai 智能体帮助你降本增效,提高效率的智能体,欢迎在评论区打龙虾。
