有人为了他买了四十台 mac mini, 谁还不知道这个硅谷新宠 motpad, 一 夜爆火的开源 ai 助手,他能部署在个人电脑上,实现 ai 控制的自动化任务,有着超出人们预期的人机合作方式。有趣的是, 不少人为了他能二十四小时低功耗运行,疯狂抢购 mac mini, 导致其价格跃升至几百美元。而第一批社区的开发者们投入重金尝试后,也纷纷表示了对本地数据的担忧。这时官方给出了建议,可以使用单独服务器或 vps, 而不是主攻坐机来规避风险。这里向大家推荐腾讯云轻量应用服务器 lighthouse, 技术门槛低,几分钟内即能上手,而且全面适配企业,微信、 qq、 钉钉、飞书四大国内主流 imap, 还提供高性价比的服务器套餐,低至三十八元。 目前, lighthouse 已经同步上线了 modbot 应用模板,预制了 modbot 运行所需的环境,能快速部署开源应用环境也与本地强,隔离,速度快、成本低,还能保障数据安全。如有云服务器及部署需求,欢迎留言。
粉丝1296获赞8706

hi, 哥哥好,我是小刘。呃,今天我们看这个项目 monty bot 已经到了一百 k star, 然后我们今天来介绍几个开源项目,可以帮助我们在飞书钉钉,企业微信里面实现这种接入 monty bot 的 能力,好吧, 首先第一个就是我们介绍这个飞书,对吧?我们可以在飞书里面很方便的形式,通过转发的形式,对吧?通过能够在用户的飞书里面去哎发送各种命令,然后呢去调用这个 cloud bot 自人体,然后最终实现调用各类的 skills 或者 mcp 的 这种流程。 但是呢,如果想调用钉钉怎么办呢?这时候就需要用到一个钉钉的调节器,对不对?可以用到这个开源项目,这开源项目呢,可以,目前可以帮助你将 cloud bot 和你的钉钉连接起来,也是通过一样的方式建立 web socket 长连接, 然后呢再从钉钉里面发送消息,最后再转发到这个 cloud bot, 那 原理实际上是一样的,对吧?那与此类推呢?还可以在企业微信里面,那目前国内用的最多的可能就是三家了,对吧? 我们可以在企业微信里面通过一个企业微信的插件实现一个哎 web socket 的 长连接,最终实现在企业微信,钉钉、飞书那三个里面去调用这个 cloud bot。 当然你也可以选择去 集成各类的啊 skills, 然后这时候就可以用到这个奥搜 multi bot skills 开源项目,这里面集成了所有目前主流的这个 multi bot 的 这个啊 skills 的 集合体。可以看到这开源项目非常热门,也是经过了三千两百个人的验证哦,可以看到使用的方式也非常简单,只需要把它放到这两个目录下面。那这个时候呢,你得靠到 bot, 无论是在这个飞书钉钉还是协维信都可以实现完美的提升。好吧,这开源项目目前已经攒获了近一百 k。 好 吧,那这本期视频的全部内容呢?我是小刘,我们下期再见。

兄弟们,大家最近有没有被这只小龙虾刷屏名字从 cloud bot 到 multi bot 再到 open cloud 火爆全网,你们是不是也想拥有这样一个私人助理,每天早上打开飞书,让他整理 ai 圈发生的大事儿发送给我, 提醒我女朋友生日买花和订酒店,每天帮我关注和整理持仓动态,是否有重大利好利空等消息, 并且能够通过我常用的飞书给他下达指令,这就是 openclaw, 被称为真正能干活的 ai 助手。本期视频给大家带来 openclaw 的 保姆级教程,包含模型选择、安装部署、接入飞书以及如何配置使用 api 聚合平台 crazy router, 节省百分之五十的 token 费用。首先我们来看模型选择 opencloud 实现效果的核心在模型,虽然它支持很多模型,但是官方推荐使用 cloud ops 模型,效果比较好,建议使用。 然而 opencloud 非常费 token, 同时 cloud ops 四点五的官方 api 价格确实也让人生味。本期视频里也会教大家如何配置 opencloud, 使用 crazy router api 聚合平台,实现省钱百分之五十。调用 cloud ops 四点五。 接下来是安装部署,为了避免 ai 误操作导致悲剧产生,这里不建议部署在日常工作,电脑可以选择部署在云主机上,我这里用的是 a w s 送的半年免费云主机,大家可以根据情况自己去薅。 这里我们打开终端,直接登录到 a w s 的 云主机,输入 open c 号官方提供的一键安装脚本进行安装即可。 安装完成,进入初步设置向导选择模型,这里可以先跳过,后面会进行配置,选择 channel, 这里默认没有飞书也可以先跳过,后面会配置 skills 也可以后面根据需要再配置,后面一路 no 和跳过即可,之后根据实际使用情况再进行配置。 这里使用 openclaw gateway status 验证一下状态,再用 curl 看一下状态是不是两百,这样我们就完成了基础的安装配置。如果需要远程访问 openclaw 的 管理界面,还需要安装 x x 进行反向代理,这里可以使用 e r m 进行安装,配置文件可以参考我这个, 重启 n g s 即可。接下去配置 openclaw 信任代理和允许 http 认证, 然后重启 openclaw, 再获取认证的 token, 将 token 拼接在 url 的 后方,即可访问 openclaw 的 管理界面。接下来我们配置 ai 模型,这里使用 api 聚合平台 crazy router 提供的 api key 进行配置,它比官方 api 便宜近百分之五十。 模型使用这个 called open。 四点五,我们点击令牌管理来创建和复制我们的 api key。 接下来打开 openclaw 的 配置文件,找到 model 和 agent, 这里按照我这里面的配置完成 crazy router 的 api key 和 cloud ops。 四点五的配置,重启 openclaw, 完成配置。 最后一步,配置飞书渠道,飞书使用 webbed 长连接模式,无需域名和公网回调地址,配置简单,个人用户也可以免费使用。首先在开发者后台创建企业自建应用,然后获取应用凭证 app id 和 a p c secret, 同时开启机器人能力 开通相关权限。在 opencloak 中安装飞书的插件,设置飞书中我们刚才获取到的 app id 和 app secret 再次重启 opencloak 事件配置中使用长连接接收,同时添加事件和事件权限, 再创建一个版本并发布,就完成了飞书的配置。接下来我们实际看一下效果,看看 opencloak 能帮我们做些什么, 很快就帮我们生成了一份高质量的总结报告。 接下来可以给他布置一个任务,每天早上帮我们搜集持仓股票的动态信息,分析财报、产品发布、监管诉讼、高管变动等重大利好利空消息。这样他每天就会把详细的分析报告发送给我们,方便我们第一时间了解持仓动 态,也可以很全面地分析多个同类产品的情况。 最厉害的来了,可以让他给立即帮我们写一个专业的程序,然后运行这个程序,得到我们想要的运行结果。整个过程我们完全不需要关心代码文件和运行环境。对了,这里要配置下 a 阵字的权限才能使用编程代理, 他会直接把程序的运行结果给我们,结果也完全符合程序的逻辑和预期。 最后总结一下,我们首先进行了 opencloud 的 安装配置,接着配置使用 crazy router 的 api key 注册来调用 cloud opens。 四点五,使用飞书机器人作为接入渠道进行通讯。最后演示了几个常用的应用场景, 像 opencloud 这么全能的助理,每个人都值得拥有。再把我踩过的几个坑给大家分享一下。好了,本期视频就到这里,有问题留言问我。

motbot 加 kimi 二点五,这个组合太炸了!开源 ai 助手接入国产最强大模型,截图生成代码,多 agent 协助全自动工作流,五分钟部署完成,这才是 ai 自动化的终极形态。 先来说 timi 二点五,这是月之暗面的旗舰大模型训练,数据量惊人,整整十五万亿 tokens, 比市面上大多数模型都要大,上下文窗口达到二五六 k, 意味着它能记住超长对话,甚至整个代码库。 但真正让他出圈的是多模态能力,你给他一张网页截图,他直接帮你生成前端代码,给他一段视频,他逐真分析,告诉你每个画面发生了什么。 还有 agent swarm 模式,最多一百个 ai 同事工作,原本需要几天的项目,现在几小时就能完成。 再来看 motbot, 这是开源 ai 助手框架的天花板。首先它是完全自托管的,部署在你自己的服务器上,数据完全可控,隐私有保障, 消息渠道支持非常全面。国外有 slack、 discord、 telegram, 国内直接对接飞书和钉钉,企业用户无缝接入。 核心能力是自动化,它能监控聊天消息,智能回复,能拉取和操作文件,能根据规则触发各种任务。还有 hoox 功能,让你自定义机器人的行为逻辑,设置上下文记忆,开启命令预制,完全按你的需求来。 当 motbot 遇上 kimi 二点五,化学反应来了。 motbot 提供灵活的插件系统和自动化框架。 kimi 二点五带来超强的推理能力和多模态视觉。 现在你的 ai 助手不只是处理文字,它能看图,能分析视频,能写代码,能管理跨工具的复杂流程, api 兼容 open ai 格式,异形配置就能切换模型。这就是给你的 ai 助手装上了涡轮增压引擎, 实际能用来干什么?代码审查和 bug 定位截图发过去就能分析问题, 文档整理和会议记要自动生成结构化摘要,客服智能回复。七乘以二十四小时在线自动分流处理数据分析和报表,生成复杂任务,一键启动私有化部署,保证企业及安全,这才是真正的生产力神器! 想要尝试这个神仙组合吗? motbot 完全开源, github 上搜索就能找到 timi 二点五 a p i 有 免费额度,入门门槛超低。 如果这期视频对你有帮助,点赞、收藏、转发支持一下!关注锋芒 a a i 追星不盲从,实测出真挚!

这可能是二零二六开年超火的 ai 工具,连续三次改名, github 上超过十万新,号称电脑里的贾维斯。 openclaw 是 一款开源自托管的个人 ai 助手,不光能聊天,还能真正接管本地设备,打通聊天平台、浏览器和各类应用,实现跨平台自动化操作。 今天这条视频教大家如何快速部署 openclo, 并把它集成到飞书里,打造一个随叫随到的 ai 员工,小白也能学会。建议先收藏。详细的文字版教程已经整理好了,视频结尾可以自取。一、 打开清亮应用服务器,并安装 openclo 镜像,进入这个界面,点击应用镜像,选择 mode 时长,这里可以根据自己的需求选择。目前有活动六十八,能用一年。点击这里, 然后点击这里,进入管理后台。二、配置 openclaw 接下来我们配置 openclaw, 打开阿里云百链,点击左侧导航栏的密钥管理单机创建 apikey, 然后回到云服务器界面,点击实力 id, 进入服务器概览页面,点击应用详情,开始配置 openclaw, 先点击这里的一键放通, 然后点击执行命令,复制粘贴阿里云百炼深层的 a p i t, 点击下一步。接下来点击执行命令就可以获取 openclaw 对 话的地址,先打开这个地址,等下还会用到。 点击执行命令,可以查看 token 配置,然后切换到 open kala 的 对话界面,点击左侧导航栏的 config, 点击该退,切换至 h t t p 页签,在 responses 区域将 enable 切换至开启,如果已经开启就不用再设置了。到这一步,我们已经可以正常和 open kala 对 话了, 接下来我们还可以进一步把 open kla 集成到飞书。三、创建并配置飞书应用进入飞书开发者后台,点击创建企业自建应用,填写应用信息后单机创建。在左侧导航栏中选择添加应用能力,选择按能力添加,找到机器人卡片,点击添加。 在左侧导航栏中点击权限管理,点击开通权限,搜索并添加屏幕上的这五个 api, 权限完成后进行下一步。点击左侧导航栏的凭证与基础信息, 查看并复制 app id 和 app secret, 点击左侧导航栏的事件与回调,点击加密策略 重置,生成一个新 encrypt key, 之后再复制 encrypt key 和 verification token 到粘贴版。四、创建飞书连接流打开阿里云 app 福洛模板中心的飞书 openklo 模板,点击立即使用添加一个新的飞书凭证, 填写凭证名称,剩下的四栏分别填入前面复制下来的信息,之后在下拉框中选中创建好的凭证。接下来创建 open kla 凭证 token, 这里填入前面获取的 open klo 凭证,填写完成后点击确定,并在下拉框中选中创建好的凭证。点击下一步。这里我们需要前往服务器详情页获取服务器公网地址, 并按页面提示填入公网 ip 端口号默认为一八七八,点击下一步,直到完成配置。配置完成后点击发布,复制并保存 weboker。 五、配置飞书机器人 返回飞书开发者后台事件与回调界面,点击事件配置,然后配置订阅方式,选择将事件发送至开发者服务器,填写上一步复制的 webhooker, 点击保存 已添加事件区域,点击添加事件搜索并添加接收消息。事件填写完成后,点击左侧的版本管理与发布,点击创建版本,填写相关信息后保存并提交审批。我们就把 open club 在 飞书里配置完成了。接下来返回飞书,在群机器人中找到 open club 并添加, 然后艾特机器人发送消息就可以实现对话,也可以让 open club 在 飞书里帮我们执行更多任务。 到这里,一个接入飞书二十四小时在线,还能帮你自动处理繁琐工作的 ai 员工就部署完成了。详细的文字版教程我已经整理好了,有需要的朋友直接在评论区扣 open club 就 能领取。以上就是本期全部内容,我们下期见。

我们在前面安装这个 open 可露的时候,所使用的模型是智普的模型以及还有阿里百联的模型,但是这些模型的话都是属于在线的呃,它会需要很多个 talking, 那 这些 talking 呢,我们是需要花钱去买的, 那当然呢,也有人去反映这个在线的模型啊,它所消耗的 talkin 很多,所以说这个时候有人就想我们能不能使用本地的模型来部署 这个呢?当然是可以的,我们可以先到那个欧拉玛的网站上面去看一下啊,在他的首页这里面有一个 openclo, 我们点击进来啊,这里面没找着,没关系,我们往下拉一下,往下拉一下之后,因为这个 clubbot 已经改变为了这个 openclo 了,我们在这里面选择这个 openclo, 然后呢我们往下面拉,往下面拉的话,这里面的话呢,他就会有一些他所推荐我们所使用的这些模型。那么我们就建议呢,各位就是使用的时候就直接使用他所推荐的那些模型 啊,现在在我的环境这里面呢,我已经是把这些模型呢给它拉取下来了,那你使用其他的模型的话,可能还是会有一些问题的。 那下面的话呢,我们就开始去配置一下这个模型,点击这个 open clone, 然后呢我们点击这个 config, 点击 config 之后呢,继续找到这个 modus, 然后有一个 private, 然后这里面咱们就开始去添加一个模型 and you try, 那 这里面我给他一个名字叫欧拉玛好了, 这个名字你自己可以自己随便去取都可以。然后呢我们这个 api 的 这个位置呢,你可以选择这个是 compilation api key 的 话呢,这个可以随便去写 啊,因为我们的这个欧拉玛它不需要这个 k 去验证,这个你随便写什么都可以啊。 然后呢这里面我们选择 i p r k os header, 勾选上 bios ysl, 这里面的话,你就加上我们的这个欧拉玛的这个地址, 那么这里面的话,我现在的地址是端口是幺幺四三四,那这里面我们写的时候就是 h g d p 冒号本机,你你可以写任何的,你主机上的任何的一个地址都可以,零点零点幺, 这里面的话我们写上端口幺幺四三四,这里面一定一定要把这个 v e 给它加上去。 如果说你不加这个 v 一 的时候,那我们去访问的时候,他可能就是,对吧?你问他问题,然后呢他就回复的时候就是一个空的,什么都没有,所以说这里面一定要加上一个 v 一 才行。 然后呢我们继续往下拉,找到这个 modus, modus 的 话,然后呢我们选择这个 and, 选择 and 的 之后,然后在这里面 api 的 这个位置呢,我们也是选择 open i, 它的这个我们就选择 max talkings, 然后它的这个上下文的这个窗口呢,我们给它设置一个比较大的一个值就可以了,随便你去设值。 继续往下拉好,然后这里面有一个 id, id 的 话呢,就输入我们的这个啊模型的名字就可以了,比如说我这里面就直接使用 gptos 二十 d。 好, 那么然后呢我们继续往下拉,这里面有一个 and, 把它选择为这是一个 text 的, 然后这个 man talking 的 话呢,你也可以随便去写,我就直接写上一个四万就可以了。这个你随便去写, 然后给它起一个编名,我们就写成这是为一样的就可以了。这是我增加了一个模型。 那然后呢,我们你看啊,在它的官方网站上呢,给我们推荐了好几个模型,其中还有一个是 glm 四点七的,对于 glm 四点七,它这里面的话使用的是一种语音环境,我们这里面点击这个 mod 的 话,它不是让它是直接使用的,是在线的一个模型, 我们在这里面的话呢,也来给它加过来。在我的环境这里面的话,你看有一个 glm 四点七 club 的, 这里面的话,这里面呢,我也是给它拉取下来了。好,所以说我这里面再次增加一个新的模型,这几个我都给它加过来。 好,在这里面我们再次点击一下这个 and。 好, 然后呢,这里面我仍然选择的是 open i complexions。 然后呢这里面也选择 manage tokens。 窗口的话,我们在这里面你随便去写一个都可以 继续往下拉。然后这里面 id, 我 们把我们的这个镜像来给它加上去,就是 g, p, d, o, s s 的 这个 y 啊,这个是应该是选择的是 glm 四点七的,这个我们加第二个镜像。第二个模型 input 的 这个位置呢,咱们也选择 text 的, 这个位置的话,就随便去写一个比较大的值就行了。 这个名字的位置呢,我们也给它起一个命名,也叫的是 g m g r m 点 g cloud。 好, 第二个模型呢,我现在也是给它添加过来了。 那当然了,我们也可以再次去添加一个我们这里面添加的模型都是官方它所推荐的模型。 然后呢我现在再来添加一个其他的模型,这个呢,他并没有出现在官方推荐的这个文档这里面,咱们现在来看一下是否会有什么问题。我这里面选择枪顶三杠十四 b。 好, 这次去添加一个模型。好 and, 好的,现在这里面来给它收起来。好吧,这里面的话,我们仍然选的是它。好了之后,这里面选的 max tokens, 这个呢,我们就随便的去写一个比较大的值就可以了。 然后这里面 id, 我 们就把这个谦问三十四 b。 我 再说一次,谦问三十四 b, 这里面并没有出现在它的这个推荐模型这里面。 input, 这里面点击 text, 这个值呢?我们也直接输入一个比较大的值就行了。好,这样的话我现在添加了三个模型,点击 save, 咱们现在去看一下它的这个配置文件,点击打开 点击之后呢,这里面你看有一个 private 的,是百炼的,这个是我们在前面的时候已经添加过的奥拉玛。这里面的话呢,我增加了三个模型,一个是 gpt osss 二十 b, 还有一个是 grm 四点七克拉的,那还有一个是铅汞。三十四 b, 然后呢我们往下面拉,找到这个 agents, agents 的 话,这里面的话,这个模型的话咱们现在继续来给它添加过来,把这几个模型现在来给它加过来好了。好吧,呃,这里面的话,我就直接啊往后面去写, 这是一个这是一个,这是一个。 那这里面的话,我们直接选择的是维欧拉曼、 欧莱曼的这几个模型,咱们现在来手动的来给它加过来,然后 g p t o s s s 二十 b 二十 b, ok, 这个是添加过来了一个了,然后呢我们再把剩下的两个模型也来给它加过来。呃,还有一个叫做这是为 g r m 四点七 cloud 的 这个呢,我们现在也是把它的名字记 r m。 好, 那然后呢我们再次来给它增加一个,还有一个是千问三十四 b 的 铅汞三十四 b, 这个边名的话呢,我也给它起名叫做这是为铅汞三十四 b 就 可以了,那这里面的话,我现在额外的额外的增加了三个模型,那然后呢,我们现在使用其中的某一个模型,把它设置为是默认值, 比如说我这里面就是这是 default, 就是 设置的是它的默认值。 ok, 好, 我现在使用 g p o s s s 二十 b 的 这个模型保存一下,咱们现在开始去做测试,点击这个 chat, 好, new session, 打开一个新的脸际,新的绘画。 好了之后呢,咱们现在来跟他去沟通一下。你好,请问你是哪个模型? 它这里面的话,因为使用的是比例的模型,它这里面其实是会消耗比较多的这样的一个 gpu 的。 好,它这里面的话告诉我们说使用的是欧莱玛 gpt 二十 b 的 这样的一个模型。好,然后你可以随便的去交流就可以了。 好,请问是哪个模型? 好?这里面告诉我们说是欧拉玛 g p t o s s 二十 b 的 这样的一个模型了, 那当然呢,我们现在去换一下,我刚才讲咱们刚才看到的时候,它这里面实际上是会消耗比较多的 gpu, 那这个时候有的同志说我笔记本上面跑不起来,对吧?跑不起来,那么大的这个,呃,那么大的这个,呃这个模型,那没关系,我们可以直接使用什么呢?我们可以直接使用它的这个云端的这个模型, 也就是直接使用 g m 四点七 cloud cloud 的 话,它本地并没有去下载什么模型。 那这里面的话,你首先你得你要是想使用这个模型的话,首先的话你得要在欧拉玛的网站上自己去注册一个账号,记住了,你得要注册一个账号,注册一个账号之后呢?然后我们在命令行里面 去登录一下,在这里面有一个登录的这个名字。 好,欧莱玛,我们现在去登录一下,那这里面的话,你看我现在已经是登录了。那如果说你没有登录的话,比如说我举个例子来说,我现在把它给退出来,我不登录了, 不登录了之后呢,我重新去登录,你看他这里面的话是会给我一个链接,给我一个链接之后,我们在这里面把它切到我们的地址栏这里面来,他会问我们是否要去链接,当然了网站这里面你得要先去链接一下才可以, 这种方式就算是连接成功了,连接成功了之后我们才能够去使用这个云端的这个模型,我们可以试一下,好让 你好,我们来看一下他是否能够正常的去回复,你看此时是可以正常的去回复的, ok, 退出来就行了。那这里面的话,他啊我们这里面直接使用免费版的就可以了,你不用去花钱去购买什么,直接使用的是这一块免费版的,他也够我们去用的了。 那这里面的话呢,我们现在去换一下这个模型, glm 四点七 cloud 的 这个模型。好,我把它给换掉。换掉之后呢,然后我们现在重新的去跟它去做一个沟通,点击这个 new session。 好,我们现在开始跟他去交流。你好,他这里面的话就可以跟我们正常的回复了。请问你是哪个模型? 原来使用的是我们一开始刚刚所做的练习,使用的是这个 gpt osss 二十 b, 那 现在的话使用的是 grm 四点七 club 的。 那这里面你看它告诉我们说现在用的是什么?叫做是欧拉玛里面的 glm 四引擎 cloud 这样的一个模型。 那我们现在再次来给它换一个模型,我本地这里面,在我本地这里面有一个千米三十四 b 的 这个模型呢,实际上是可以正常去使用的,我们现在来打开看一下。 好,请给我写一篇两千字的作文。 那你看啊,我这里面使用的时候它是可以正常去使用的,看到了没,它消所消耗的 gpu 其实也是蛮多的,跑起来也是蛮快的,没有什么问题。我 ctrl c 终止了,对吧?你可以等一下也行。好,我们退出来吧。 好的,反正我现在就想说明的是什么呢?说明的就是我的这个千万三的这个我的千万三的这个模型啊,是 正常是可用的,对吧?然后呢,我们现在把它换到哪里面去呢?换到我们的这个 opencloud 里面来,我们看一下能否正常去使用。好,我选择这个千问三十四 b, 把它换成是默认的, 找到这个 agent 千元三十四币,那这个呢,就是我们的加载过来的这个模型呢,已经保存退出,然后这里面的话呢,我们现在再次去跟他去沟通 new session。 好,那这里面咱们现在来问一下你。好,他这个不稳定,我们也就是说使用千万三的这个模型的话,呃,他可能就不是很稳定,有的时候你看现在可能是正常的,但有的时候呢,他可能回复的时候就不是很正常。 好,你看这里面回复的时候,现在就已经是不正常了,也就是有问题了已经,对吧?那在我本地跑起来的话是正常的,但是呢,我们在 open clone 这里面去引用它的时候,运行起来的话,则可能还是会有问题的, 所以说我们在使用模型的时候就直接使用它所建议的这些模型就可以了。 那当然了,如果说你本地的这个啊机器配置的比较高,你可以直接使用千万三 q 的, 那如果说你所使用的这个配置不是很高的话,那这里面的话呢,我们就可以直接使用是 glm 四引擎的,这是属于是语音环境上的一个啊模型,那它这里面的话并没有什么限制, 对吧?你可以看一下,它这里面并没有告诉我们说可以免费使用多少 talking, 超过这个 talking 就 不能使用了,它这里面并没有这些要求,所以说我们直接使用在线的也是非常方便的。那如果说机器配置不高,那么我们就可以选择它机器配置比较高,对吧?你就完全使用本地运行的这个模型, ok, 你 就可以选择它。 这是我们如何让 open globe 使用欧拉玛所部署的模型?大家可以自己来尝试一下。

之前我制作了一期关于 openclaw 云端部署的教程,没想到大家还蛮喜欢的,也收获了很多的点赞和评论,在这里非常感谢大家。那么很多人问我就是如何把 openclaw 部署在本地,我今天呢就出一期简单的教程,来教大家如何一键把 openclaw 部署在本地。 本期的教程是用 macos 系统进行演示的,如果你是 windows 用户的话,可以去搜索一下网上的其他的部署教程,那我在这里做一个风险提示啊,就是本地部署的话,最好不要部署在自己的工作电脑以及有重要的隐私机密的电脑。 我们最好是部署在一个全新的或者是没有任何资料的一个 mac 系统,或者去购买一个 mac mini 进行一个部署。那么废话不多说,我们开始进行部署的教程吧。如果你的电脑没有安装 nojs 环境的话,你需要进行一下 nojs 环境的安装。首先我们来到 nojs 的 官网,我们点击下载, 你可以通过命令行进行安装,或者是直接下载一个安装程序就可以了。首先我们打开终端,然后粘贴这一行代码,点击回车,这个时候呢他就是在帮我们拉取那个 open cloud 的 安装文件, 看到这样的一行界面呢,说明我们的安装已经成功了。接下来呢我们就开始进行 open cloud 的 配置,我们输入这行代码,然后点击回车, 这边呢就是一些安全的提醒,你可以选择 yes, 然后我们进入快速配置的模式,点击 quick start, 这里呢是输入模型的一个 api, 我 们这里选的 monshift ai, 当然你可以选其他模型或者暂时跳过,我这边输的是 monshift ai 的 一个 api 模型,然后这边把 api key 粘贴进来,点击回车,然后点击这个 keep current, 然后这里呢是选择 channel, 就是 你可以去进行对话的,但是我这边呢暂时就不进行一个配置,我们点击这个 skip, 这里是进行 skip 的 配置。简单来说呢,这里就是你可以给 ai 加上一些技能,比方说一些捕取网页啊,下载一些内容啊,生成图片的功能,我们点击 yes, 然后我们把这些全部都勾选上就可以了, 然后我们点击回车进行一个安装,这边呢设置这个 api 器的话,你可以后续再设置,我这里先跳过,所以呢全部选 no, 这边是选择一个 hook, 然后呢我们把这几个都勾选上就可以了。 接下来就是到了一个 gateway, 就是 网关的安装的一个阶段,到这一步呢,基本上你的安装就已经完成了。我们可以点击 open the web ui, 然后打开个网页,之后呢就会打开一个这样的网页,这个是 open cloud 的 一个控制面板。这边 chat 这个部分呢,就是可以跟 ai 进行对话了,我们来测试一下我们的 ai 是 否安装成功。 siri, 你 好, 那么我们可以看到我们已经可以成功的收到 ai 的 回复了,这代表着你的部署已经完全成功了。

刚刚,阿里云正式上线 motbot 全套云服务,全面提供 agent 所需的算力模型和消息应用等。如果你关注近期 a r 圈的热门工具,一定听过 motbot, 也就是 cloud bot。 今天给大家做一个保姆级使用教程视频。 第一步,购买轻量云服务器并安装 molybost 镜像,需要选择海外地区,我这里选择美国弗尼利亚镜像,选择 molybost 套餐配置选择通用型,两盒两 g, 立即购买,等会开通后使用。 第二步,配置 molybost, 前往百联大模型控制台,找到密钥,管理单机创建密钥。 第三步,前往轻量应用服务器控制台,找到安装好 mollibot 的 实体,进入应用详情,放行幺八七八九,端口 配置摆列密钥,执行命令,生成访问 mollibot 的 token。 好 了,今天的教程就到这了,欢迎小伙伴们评论区讨论。

现在 motot 实在是太疯狂了,有哥们早上醒来,他的 motot 为了达成目标,自动升级语音模块,还主动汇报进度,还有人直接让 motot 帮自己赚钱,躺赢 ai 风口, motot 现已火爆全网,跟不上 ai 风口就会被甩在身后。两分钟保姆级教程教你快速部署 motot, 直接对接飞书企业应用零代码也能轻松搞定。打开火山引擎官网,进入云服务器 e c s 控制台,点击创建实力实力配置一定要选应用模板购买,找到 model body, 直接选中这个预制模板 计费模式,根据你的需求选包年包月,地域选离你近的城市套餐最低选两盒二 g 的 配置,但是配置越高反应越高。设置好服务器登录密码,选择高级设置模型,建议选择豆包一点八,然后粘贴你的火山方舟 api, 也可以点击 api 跳转 获取豆包 api。 蜜柚注意,虽然现在豆包和服务器价格很便宜,但我还是推荐找我们的小助理。复制蜜柚后,回到服务器配置页面,粘贴蜜柚非书集成部分,打开非书开发平台,选择已经搭建的非书机器人, 复制这两个 id, 将 id 粘贴其他配置保持默认,点击立即购买服务器就创建成功了。第二步,登录非书开发者后台,找到刚刚的应用, 先去权限管理里批量导入我准备好的权限代码,直接覆盖粘贴新增并申请开通权限就行。然后去事件与回调里,事件配置和回调配置全都选择使用长连接接收事件保存设置。最后创建应用版本,填写版本号和更新说明, 申请线上发布等管理员审核就可以了啦!最后打开飞书,找到你的企业应用,发一条测试消息,整个步数就彻底完成了。还有什么不懂的评论区扣六六六。

本期视频教你如何用 cloud bot 生成微信,最后可以做到在微信群自动回复友情提示个人微信号,做这个机器人可能会导致封号。另外最近说的 cloud bot, multi bot, open crawl 说的是同一个事情。 首先下载好 cloud bot 的 代码,按要求进行运行,这里选择接受项目风险。接下来选择快速开始还是自定义所有配置选 自定义,因为我已经运行过了,所以选择现有的配置。选择本地网关,选择工作目录,这里按照你的需求选择不同的大模型,大模型是按 token 收费的,这里选择一个千问,因为它可以免费。这里选择千问的 code 的 模型。 接下来选择网关的端口号,选择网关绑定本地回环地址。还有一些其他选项可以按默认的来,这里列出了他默认旧知识的社交频道,例如 microsoft 的 teams 或者是 what's up, 但国内的选项基本没有,所以这里选择 no, 暂时不配置任何的 skill, 自己钩子可以挑过,也可以随便选一个先。然后这个网关就已经可以被启动起来了,因为我已经安装过了,所以看到这个重新启动,首次安装的话是没有这个 restart 的 选项的。这网关重新启动之后,还要选择这个界面, 选择他默认推荐的 t u i 的 界面。到此为止,所有选项都已经选择完毕了,就等他 默认启动就行了,然后就可以用了。当控制台看到这个信息的时候,你可以在控制台跟他交互,或者是网页端跟他交互,右下角会显示不同的用量,然后你就可以问他是否已经支持微信的集成了,你就能得到答案了,他会告诉你,他现在是不支持微信的集成的。 继续跟他说,你要集成微信,他会给你两个选项,个人微信还是企业微信?回复,他说你要个人微信,他就会帮你创建一大堆的文件出来。 他自动选择用 wechat 这个微信自动回复的方案,扫二维码登录,哎,他就会自动回复,甚至是给你发附件。当然,这里推荐使用企业微信的集成, 你可以继续跟他提要求,需要集成什么平台,还要怎么样集成,只要你跟 ai 提需求就行了。例如这里,他提供了一个 python 版的集成了企业微信的方案,让他打包成一个文件,并且让他压缩成一个我想要的一个文件名。 你只需要让他干什么, ai 就 会帮你把活给干了。但是留意一下,生成的文件都在工作目录下面,工作目录就是一开始运行的时候你指定的文件夹,一般在 homepod 下面的 core 这个文件夹下面。 对于每次对话,只要不是新建的一个 session, 那 么它就会有记忆,它会把自己文件添加到对应的那个记文件里面去,同时会创建好这个 java squid 的 这个版本。 clone 也可以有长期记忆,长期记忆是保留在 memory 点 n d 文件里面的。 最后想说明另外一个事情,当你 ctrl c, ctrl c 结束的时候,其实进程里面还是有两个 probot 的 进程没有被杀死。用关键字去匹配进程信息,你就会发现这两个还没有被我 q 掉的进程,你需要使用 motbot gateway store 来去停掉这两个进程。 如果进程一直挂在那里,也有可能会被不怀好意的黑客给盯上。把整个给位停掉之后,那对应的 motobot 的 进程就不见了,只有这个查询的进程。查询进程是由你去发起的。 我是四爷,讲 ai, 关注我了解更多 ai 知识,了解更多前沿科技。

我将演示在 cloud bot 中,接入 mini max m 二点一模型进行使用。首先需要说明的是,最新的 cloud bot 已经更名为 mult bot。 首先需要在本地进行下载安装,复制这条指令到终端中粘贴并回车等待安装。 这里是一个许可申明。我们选择 yes, 然后进入 quick start, 我 们选择 mini max mini max m 二点一,然后粘贴我们的 mini max api key。 然后接下来是选择一个 channel, 这里我们先跳过,然后 skill status。 呃,我们现在先不配置 skill 这里的 hooks。 呃,我们可以暂时先选择这个 session memory, 也就是保留每次绘画的这个记忆, 然后等待着后端进行。呃,此处我们选择推荐项, 然后可以看到在浏览器中已经打开了这个 cloud bot 自带的前端,然后可以看到我们现在的这 assistant 是 没有输出的,因为我前面所用的 api key 是 mini max 国内版 coding plan 的 key。 这时候我们需要做一个配置的调整,进入此处 config, 然后我们往下拉有一个 models, 然后点击 providers, 可以 看到这里我们前面配置的 minmax 的 供应商。但是呢,我们需要对这里的地址调整,需要改成 minmax i 点 come, 然后勾选这个 else had, 再把 api key 重新贴入此处,然后保存 update ok。 呃,更新过后需要静等几秒钟,后端连接完成后,可以看到右上角这里的连接状态也是显示正常的,那么我们再进入 chat, 我 们来试验一下, 可以看到此处调用成功了。 当然,除了上述通过 cloud bot 自带前端进行配置的修改以外,我们也可以进入到 cloud bot 本地的配置文件,通过根目录下点 cloud bot 文件夹下打开这个 cloud bot, 点 json 文件初识配置后, 这里的 base u r l 是 mini max 海外版的模型访问地址, 我们需要把它更新为现在的这个国内版的即可使用。呃,然后也要注意一下,这里 agent 需要把这个 设置包括模型的列表中需要添加 mini max 二点一模型,然后它的这个主模型设置成 mini max 模型,即可在 cloud bot 中成功调用 mini max 模型。

如何使用 mobile 加飞书搭建你的个人 ai 小 牛马,它可以帮你整理文件,清理电脑垃圾,浏览网页,开关应用。我们来到 mobile 官网,然后复制这样的命令,然后到终端 这里我们无视风险,然后选择快速开始,这里我们选用千问的,然后验证, 然后我们这里选择保持当前,因为我们是用废书,所以这里我们随便选, 这里我们暂时不用 skill, 这里我们先跳过按空格,然后归设 这里,我们选择 web ui, 然后我们测试一下 好这个机器人,现在是正常的。打开这个网站,然后复制这个命令 到终端。 a few moments later 这里说需要重启这个网关,去加载这个插件,我们稍后重启。 我们先打开飞书的开放平台, 然后打开开发者后台, 然后这里创建一个应用, 这里添加一个机器人, 然后这里给机器人取个名字, 然后打开凭证与基础信息, 然后再返回这个页面,我们复制这个命令, 然后返回复制我们的 app id 以及我们的密钥, 然后复制这个命令到终端, 然后来到权限管理,开通权限,然后我们依次来添加这些权限, 然后点击事件与回调, 这里选择定位方式。长连接, 然后这里添加事件。 依次添加以下这些事件, 然后点击回调配置,这里我们依旧使用长连接, 然后这里添加回调,使用卡片回传招呼, 最后我们创建版本, 这里选择保存,然后发布, 然后我们打开飞书,这里创建群组创建, 然后群机器人,这里添加一个机器人,找到我们创建的机器人, 然后给他发消息, 然后他成功响应,就说明我们现在是可用状态。 然后我们可以让他来帮我们干活,比如说帮我整理下载目录里的文件, 然后他很快就帮我们把文件全部整理好了。 打开 apple music 播放音乐, 打开 apple music 的 界面, 关闭音乐, 帮我清理电脑垃圾, 打开 chrome 搜索今天的科技新闻, 这些只是最基础的能力,更多能力需要自己去慢慢探索,然后最后祝大家玩的开心。

最近 openclaw 特别火,相信大家都有关注,这款工具的命名已经调整,从最初的 cloud bot 到 modbot, 再到近期正式定名, openclaw 发展速度非常快,背后也有不少话题度。 了解的朋友都知道, openclaw 的 常规部署流程并不简单,网上虽有相关文档,但需要操作大量命令,调整各类配置参数, 仅 config 文件的设置就需要花费不少时间。而就在昨天,费志云在 epanel 应用商店正式上架了 openclaw, 这个便捷部署的方式直接解决了大家的痛点,从上架到现在, openclaw 的 下载安装量已经达到三百六十六人次, 在 epanel 应用商店的下载排名直接冲到第二,甚至超过了麦 c 果,火爆程度一目了然。而且 epanel 官方文档 也为其标注了全网最快最简单的安装部署指南,今天就带大家快速看完这个部署方法,实操一遍到底有多简单! opencall 是 可部署在个人设备的自托管 ai 助手, 支持对接飞书、企业、微信及 discord 等海内外社交办公工具,默认文本对接后能通过对话终端向电脑发指令,完成各类操作,实用性极强。接下来重点看一 panel 上的一键安装步骤,整体操作非常简单,小白也能轻松上手。 第一步,打开 epanel 应用商店,搜索找到 openclaw, 点击安装。第二步,按提示输入基础配置参数,包括容器名称、版本、 web ui 端口、 bridge 端口以及模型提供商模型 apikey、 openclaw web 页面访问令牌 token, 还有是否开启端口外部访问,这些部署的必要参数都界面可化了,同时参考 epanel 给出的配置说明,需输入对应的模型提供商和模型 id。 目前 openclaw 已支持 minimax、 deep seek、 quan、 timi、 openai、 gemini 等主流模型。最后一步提醒提醒大家,获取访问需要的 token 令牌。安装完成后,需要进入安装目录的 data com 文件夹, 打开 openclaw, 点 json 文件,找到 getv 模块,获取 token 令牌,之后将 token 记录下来,完成 web 访问地址的拼接。配置拼接好后,会设置为快捷访问地址, 就可以直接点击跳转进入 openclaw 的 操作界面。基于以上,我们需要提前部署好的 e panel, 并申请到对应模型的 api key。 一 panel 的 安装仅需要一条命令,模型则在各模型供应商处申请即可。接下来我就用已搭建好的 e panel 环境带大家实操一遍。 在应用商店找到 openclaw, 直接点击安装容器名称,最新的一点二九版本 web ui 端口一八七八九和幺八七九零, 这些默认参数都不用改。模型方面,我准备了 deep seek, 直接把文档里的 deep seek、 deep seek chat 复制到模型输入框,再粘贴提前准备好的 api key。 token 暂时留空,按提示后续从配置文件中获取即可,需要随意勾选开启端口外部访问。这里也提醒大家,公有云服务器要提前在后台开放对应端口,避免访问失败。所有参数配置完成后,点击确认,一 panel 会自动拉取镜像创建容器, 整个过程速度非常快,很快就能显示安装成功。安装完成后,在 e panel 已安装应用中找到 openclaw, 进入安装目录,在 data com 下打开 openclaw, 点 json 复制 get 位中的 token 令牌, 再回到应用的参数定义页面,点击编辑,把 token 粘贴进去并保存记录。之后将 token 与服务器 ip y ui 端口进行拼接, 拼接格式为 ip 地址加端口加 token 等于令牌。拼接完成后,输入到 web 访问地址中,然后重建应用,最后通过点击跳转就能进入操作界面,到这里整个部署就完成了,全程没有任何复杂操作,小白也能轻松搞定。部署完成后,我们来体验下 opencloud 的 实际功能, 我直接向他发送指令,帮我整理一份系统资源清单,存储在新建的小白跃升房文件夹中。发送指令后,能清晰看到 open cloud 干活了。过程中如果某个命令获取不到信息,它会自动尝试其他命令,直到操作成功。最后它会整理出完整的系统资源清单, 还会在对应文件夹中生成资源信息、文件资源快照以及一份 random 文档,清晰标注整理的信息内容。整个过程无需人工干预,完全由 ai 自主完成。最后我们到服务器的 data workspace 目录下, 就能找到 open cloud 生成的所有文件,各类信息整理的条理清晰,这就是属于我们自己的 ai 助手,不仅能帮个人处理各类电脑操作,在企业场景中也能完成很多办公任务,实用性非常强。以上就是通过 e panel 一 键部署 open cloud 的 完整教程, 相比传统部署方式,这个方法省去了大量命令操作和配置步骤,真正实现了简单高效部署。感兴趣的朋友可以自己尝试一下。