opencloud 刚刚推送了 v 二零二六点三点幺幺版本,这次更新到底有什么很火呢?一分钟带你从普通使用者和晚安大佬两个视角直接开解。首先呢,咱们从普通用户的角度来看,体验直接拉满。第一呢,可以限时白嫖新模型, 系统的内置临时增加了韩特尔法和后面这两个新模型,趁着现在有一周的限时使用时间,大家赶紧去试。 第二呢,记忆力跨界进化。这一次呢,新增了谷歌的佳木丽提供的多模态记忆搜索,连你发的图片和音频都能作为记忆被精准解锁了。第三,针对苹果电脑 增加了新的专属的模型选择器, ios 呢,也换了底部停靠栏,更像的是欧拉玛的本地化配置,也成了一等公民小白也能无脑上手。但是,如果你是一名网络安全从业者,这次的更新可以说救了大命。 最核心的安全更新是修复了一个高危的跨站 web socket 劫持漏洞,以前在受训的员可能会偷偷拿到 operator 点默认的权限, 现在呢,官方直接在往官层强制了浏览器原验证物理,切断了这条劫持路径。另外呢,官方还清理了 ai 代理中容易泄露模型控制令牌,比如说像这种符号, 有效降低了提示词注入的风险,同时给此命令加上了专门的环境变量,方便我们日后做进城溯源和安全审计。一句话总结,用户用的更爽,黑客无从下手,别犹豫了,赶紧去升级点赞关注,硬核科技不掉队!
粉丝429获赞8828

最近爆火的 opencloud 大 龙虾大家都用上了吗?我已经在我的 windows 电脑和 mac 电脑上都用上了,而且连通了飞书,现在我在我手机上的飞书 app 上发送消息,我的智能体就能接收到信息,并且按照我的要求为我执行任务了。 今天我就来为大家介绍一下 opencloud 的 安装和使用方法,以及如何连接通讯软件。比如飞书,让你在手机上就可以发送指令,操控智能体。 所有的安装步骤和注意事项我都整理成了文档视频的最后我会分享给大家。今天的视频主要有以下几个部分,首先,我们来快速的安装并使用 openclaw, 包含 windows 和 mac 两个系统,这一步是为了让大家快速的用上并熟悉 openclaw。 然后我们来看一下如何为 openclaw 安装插件和 skill, 以及去哪里寻找相关的 skill 资源。 第三,我们来连接即时通讯软件,让你能够在手机端实时发送消息,操控智能体。这里我们以飞书为例。 第四,我快速的为大家展示一下如何在 dalker 这个隔离环境中安装 openclaw, 以及安全性问题和 token 相关问题。那这一步是当你真的想把 openclaw 当成你的 ai 数字员工,让它在生产环境中为你打工, 那我们就正式开始。首先,在本机快速安装 opencloud, 我 们需要保证我们的电脑上已经安装了 node js, 版本号大于二十二,以及安装了 git。 其实 node js 已经是我们的老朋友了,我们之前安装 cloud code, open code, java 都是通过 node js 安装的,那在 ai 时代, node js 是 你电脑上必不可少的工具,直接到 node js 官网下载,然后双击安装即可。 git 也是一样, 当我们想要在 github 上下载开源项目和资源的时候, git 是 最好的工具,安装方式也是一样,到 git 官网下载,然后双击安装即可。那注意,这一步对于 windows 和 mac 来说是完全一样的,没有任何差别。 然后我们打开命令行工具, windows 就是 cmd, mac 就是 terminal。 在 命令行里输入 node 空格横线 v 查看 node js 版本,输入 npm 空格横线 v 查看 npm 版本, 输入 get 空格横线 v 查看 get 版本,能够输出版本号,那就说明一切准备就绪,然后我们来安装 openclaw, 其实一共就两个命令,首先我们在命令行里输入 npm 空格 install 空格横线 g 空格 openclaw at latest, 然后回车。那这一步会在你的电脑上安装 openclaw。 这里我们要注意一点,你要确保你的电脑的网络环境是 ok 的, 如果出现网络问题,尤其是网络连接超时,你可以使用 n p m 的 国内镜像来安装。那具体的方法就是先运行一行命令,把 n p m 转向国内的镜像,然后再进行 n p m 意识到具体的命令我也展示在屏幕上了。 在 n p m 意识到成功后,我们运行第二个命令, open clock 空格横线横线意识到横线低蒙。这一步是进行驶出话点击回车之后,稍等一会儿就会进入驶画界面。 在初次化界面,第一个问题,我们用键盘的上下左右箭头按键切换到 yes, 然后回车。那第一个问题呢,是让你知道这个工具的风险。然后第二个问题,我们选择 quick start, 也就是快速开始,然后点击回车。 那第三个问题就是选择一个 ai 大 模型,你可以使用你常用的 ai 大 模型,要注意一点啊,这里使用的是 a p i p。 那 建议大家用一个有免费额度的 ai 先进行体验,等你熟悉了这个工具之后呢,再去购买 ai 的 订阅套餐。 这里我选择的是智普 g l m, 然后我们到智普的官网进入后台创建一个 a p i t, 然后复制出来,到命令行里进行粘贴,然后回车,然后模型,我们这里选择 g l m 四点七, 然后继续。那后面的问题我们都选择跳过或者 no, 包括是否安装 skill 以及是否配置聊天软件,那因为这些呢,我们都可以过后在图形界面中进行设置。那最后一个问题 就是 how do you want to hatch your boot? 意思就是说你想通过什么方式访问你的机器人,那这里我们选择 open the web ui, 也就是说通过网页版图形界面进行访问,那图形界面适合我们绝大多数人,如果你有编程背景,你也可以选择通过命令行访问,那之后它就会自动弹出网页, 进入到 opencll 的 智能体界面,然后我们在 ai 对 话框中输入,你好, ai 能够进行回复,就说明配置成功了,那么到此你的 opencll 就 正式运行起来了。 我们再来做一个测试,在 ai 对 话框中输入指令,在我的 mac 用户瞩目下,创建一个名为 jason 横线 opencll 的 文件夹,然后 ai 就 进行了文件夹创建,那么到此你就可以开始尝试让 opencll 为你做各种事情了, 那在这里我要强调一点,以上安装方式是直接在本机安装, windows 和 mac 是 一样的方法,运行的命令也是一样的。我们唯一需要注意的就是安全性问题,你不要把太多的个人隐私数据放到本地,以防 ai 一 不小心给你删了。 那接下来我们来看看如何安装插件和 skills, 以及在哪里可以找到 openclaw 的 优质资源。我们首先要知道 openclaw 本身自带了很多 skills, 我 们在 openclaw 的 网页上左侧菜单点击 skills, 然后点击这个 build in skills, 就 能展开它自带 skills 的 列表, 里面有一些 skills, 暂时被 block 的 话,你可以在右边看到对应的安装按钮,点击就可以安装依赖,然后这个 skills 就 可以使用了。 另外,当你在 github 上看到一些 skills 想要安装,你并不需要手动安装,你直接把 github 的 链接发给 openclaw, 让它自己安装就可以了。我们知道 openclaw 是 一个 ai 智能体,它已经足够智能,已经是一个成熟的智能体了,能能自己赚钱养家了啊,那它自己就可以给自己安装 skills。 那么我们从哪里寻找 skills 以及有哪些必装的 skills 呢?两个核心的社区,一个是 github 上的 awesome openclaw skills 这个仓库,那这里收集了几千个优质的 skills, 并且有详细的分类。那其次我们在 openclaw 的 官网 可以找到一个名为 clawhab 的 链接,点进去这里就是官方的 skill 市场。那我我总结了一些必装的 skills, 我 认为最核心的就是 fun skills, 这个 skill 也是目前社区中下载量最高的 skill, 当你提出一个具体的使用场景的时候,这个 skill 可以 帮助智能体找到并安装对应的 skills, 这样一来你就不再需要自己亲自去翻找 skills 了,它自己就能找了。 另外最好安装这几个联网和网络搜索的相关 skills 来增强网络搜索能力。那最后当你想要实现某一个具体功能的时候,你就可以直接向 ai 描述你的功能场景,并让它自己先分析需要安装哪些工具,然后自行安装就可以了。那么以上就是工具的安装, 到此,大家就可以无障碍的快速上手使用 open cloud 了。再次提醒一下,注意安全和隐私问题, 那接下来我们实现一个进阶功能,连接即时通讯软件,让你在手机上发送消息,就能操控智能体帮你干活。 我们在 opencloud 的 网页上左侧的 chinese 选项点进去就能看到它目前支持的通讯工具。那使用这些工具比较简单,以 whatsapp 为例 啊,我们在用户目录下的点 opencloud 文件夹里的 opencloud, 点 json 中配置自己的 whatsapp 号码,然后在命令行中运行 opencloud 空格 chines, 空格 log in, 然后用手机 whatsapp 扫描弹出的二维码就可以了。但是目前 openclaw 并不支持微信或者 qq 这一类中文通讯工具,那在中文环境中,截止到目前为止,最好用的就是飞书, 只需要创建一个聊天机器人就可以连接 openclaw 发消息了,而且这个方式不会造成安全隐患,因为飞书里没有你的私人通讯录,那接下来我就来讲一下如何把 openclaw 连接飞书。 首先我们要安装一个飞书插件,命令就是 opencloud 空格 plug ins 空格 install 卖家插件的名字。安装之后,我们来到飞书开放平台 注册登录,之后点击右上角开发者后台,然后点击创建企业自建应用,起一个名字,然后选择图标,点击创建,然后在左侧的菜单栏里点击添加应用能力,然后选择机器人,然后添加, 然后来到权限管理页面,我们可以点击开通权限,然后搜索关键词 message, 把有关收发消息的权限都勾选上。 那如果大家嫌麻烦,可以直接点击批量导入,然后把我笔记中的这段 jason 复制进去,然后点击开通就可以了。那这一步的目的是给与机器人相应的权限。然后我们点击左侧菜单的版本管理与发布,填入一个版本号,一点零点零,然后发布这个机器人, 然后点击左侧凭证与基础信息,把 app id 和 app secret 保存下来,然后我们回到 opencloud 页面, 点击左侧菜单中的 channel。 因为刚才安装了飞书插件,所以现在显示的就是飞书的配置界面。首先把 app id 和 app secret 配置进去,然后 connection mode, 选择 web socket, 我 们填飞书, dm policy 和 group policy 都选 open, 然后保存就可以了。 然后我们回到飞书界面,点击左侧的事件与回调事件配置,这里选择长链接,然后点击添加事件,搜索关键词 receive, 勾选这个接受消息,然后点击确认,然后再次重新发布一下机器人,到此所有配置就完成了。 然后我们来到飞书 app, 你 可以在手机上下载 app, 也可以在电脑上下载飞书 app, 在 聊天界面的搜索你创建的机器人名称,那我的机器人叫 jason bot。 然后就可以向机器人发送消息了。我们先发送一个,你好,你是谁?第一次发送消息的响应速度会比较慢,稍等一会我们能,我们就能接收到回复了。 然后我们再发送一个指令,在我的用户瞩目下,创建一个名字叫 jason 横线飞出的文件夹,点击发送,然后智能体就开始开始执行任务了, 马上文件夹就创建好了,那么到此我们就成功连通了飞书。只要我们的电脑是开机状态, open cloud 是 运行状态,我们出去玩的时候,用手机飞书 app 发送消息,就可以给智能体下命令,让它干活了。 到此你已经掌握了 open cloud 的 主要的基础功能,你现在就可以上手试用这个智能体工具了。那最后我来快速介绍一下如何在 docker 这个隔离环境中部署 open cloud 以及 token 相关问题。当你深入使用了 open cloud 这个工具, 觉得你确实需要一个这样的数字,员工来二十四小时为你干活,那么最好的方式就是在一个隔离环境中部署它。这也是为什么 open cloud 带动了 mac mini 的 销量,因为 mac mini 性价比高,运行功率低,适合二十四小时不间断运行,那还是一个全新的环境。 所以你也可以在本地使用 docker 这个隔离环境来部署 openclaw。 方法很简单,首先要安装 docker desktop 这个 app, 那 它也是我们的老朋友了,那之前安装 n 八 n 和 deepface 都是用它安装的。安装好之后,我们来到 openclaw 的 官方 get up 仓库,把这个仓库下载下来。 我们使用 git clone 命令把它下载到本地之后,在文件夹内就能看到一个名字叫 docker setup 点 s h 的 文件,我们在当前文件夹内打开 bash 工具。那这里要注意啊, mac 可以 直接用 terminal, 而 windows 则需要使用 git bash 这一类的 bash 工具。 我们输入点斜线 docker 横线, setup 点 s h, 然后它就自动安装了。那另外呢,你也要注意网络问题,开启代理 安装成功之后,就自动进入到了出场界面,那和之前是一样的,选择 ai 模型,然后配置 a p i p, 这里我就不多做展示了。那我个人更建议大家使用独立的电脑或者云服务器来部署这个 ai 数字员工, 因为本地刀客的使用还是需要一定的技术门槛,尤其是网络问题和权限问题。那如果你没有编程背景,确实是有一定难度的,那目前阿里云和腾讯云都集成了 open cloud, 非常方便。 那另一个就是 token 问题,智能体的运行非常消耗 token, 那 说不定一晚上过去你的卡就刷爆了。那这里建议大家订阅类似 coding plan 的 套餐,在五小时内允许几十次的访问, 那类似这种包月的方式就不会让你的 token 无限制消耗了。那目前最经济实惠的 ai 模型就是智普、 glm, mini max 以及 kimi, 大家选择自己喜欢的就可以了。那最后还是要强调,一定要注意安全和隐私问题,不要让 ai 访问自己的核心隐私数据, 那么到此本期视频内容就结束了,那具体的安装步骤我都整理成了文档,大家可以在我的主页频道信息中找到我的个人网站,在那里可以下载文档和资料。大家在使用过程中有任何问题都可以给我留言,记得点赞关注,谢谢大家!

opencall 在 it 圈里火炸,但不管是安装部署还是配置应用,都需要通过命令配置,需要一定的技术功底。不过彼人真是没想到, one panel 竟然可以通过图形化交互的方式快速部署,还能配置飞书。通过飞书调用 open call 运行 open call 需要先有台服务器,我们就用腾讯云服务器演示,服务器的系统是优班图二十四系统,并且已经安装了 one panel。 one panel 的 安装就不演示了,在官网的一条命令就可以安装登录 one panel。 one panel 新增了一个智能体管理的功能, 目前的智能体就是欧芬科啊,以后有新的智能体也会添加到这里。在模型账号这里,先创建一个模型的账号,后面创建智能体,直接使用这里的账号就行了,不需要每次部署智能体都填一遍账号。现在创建智能体 模型供应商就选择刚才创建的 deepstack 账号就行了,下面都不需要修改,直接确认安装 one pass, 把一键部署做到了极致。 部署完成后,点击 y b y, 直接跳转到 open, 自动拼接好登录地址, 只能部署没啥意义。我们演示一下通过 winpal 配置飞书有多方便。点击配置,选择聊天渠道, winpal 中只需要配置飞书机器人的名称和应用 app id, 应用 app secret 就 行了。那飞书怎么配置呢?根据 winpal 提供的参考文档,先打开飞书开放平台。第一步,创建应用,配置应用的相关信息, 添加应用能力,这里添加机器人,并给机器人取个名字。第二步,在权限管理这里,批量导入权限,复制参考文档里的权限, jason 覆盖粘贴,点击下一步申请开通。 第三步,复制应用的 app id 和 app c 捆,粘贴到 one 盘的对应位置。机器人名称就是创建机器人取的名字,点击保存,现在回到飞书开放平台。第四步,点击事件与回调编辑订阅方式,默认使用长链接保存添加事件,复制参考文档里的事件, 勾选确认添加至此配置完成,最后发布应用版本就行了。在飞书的群里添加机器人,选择创建的这个机器人,就可以在群里艾特他对话了, 也可以单独对话,让他创建一个代办事项。在 open 可拉中可以看到执行过程,随后飞书也返回了执行结果,你也可以查看他在飞书能干的所有事。那你有没有更好玩的场景,欢迎评论交流。

o p n q 一 键是安装包来,不需要写代码,不需要找软件,我们双击打开安装包,点击一键安装,下一步检查环境,把电脑没有安装的软件都下载一下,而且也不用咱们自己找软件,一键点击就可以直接下载安装三个软件安装好了以后,我们点击下一步 开始安装 o p n q 稍等一会,软件就安装好了,软件以及使用教程我都打包好了。留言龙虾主页,低调学习。

大家好,我是根古,今天是欧芬考的第三十二堂课,让龙虾主动干活。首先我们回顾一下前两堂课,因为这个龙虾进阶篇是一个有持续性的课程。呃,可以大家看一下我前两堂课,这堂课让龙虾拥有永久的记忆 和让龙虾自我进化。在这两堂课的基础之上,你再装第三个技能,我觉得会比较好呀,比如说啊,我回顾一下昨天的课程。 好,现在我们回顾一下前两堂课,用这个,用这个 self improving 去搜索这样一个技能,我是谁?因为因为我自己装了好多个这样一个技能,你你不提示他,他会默认到那个龙虾的 skill 里面去找,随便找一个是吧,你看到了没有?我已经调教成功了呀,我的名字就是叫我看一下。啊, 调教成功了没有啊?看一下这个 seven blue memory 在 我就跟着老师的这个词是对的,其实挺慢的, 看到没有,他还是。这就是上堂课,我回顾一下上堂课,上堂课就是这一堂课,让龙虾拥有永久的记忆和让龙虾实现自我进化。然后我今天问了他是谁,是吧? 我有什么兴趣爱好,其实敲错了,其实也没关系啊, 对,因为我我输入了,我喜欢录制抖音,是吧?然后我爱好跳华子,这都是对的。还有另外一条更像这个擅长大模型工具,这也是我写的。对对对,然后呢,我可以持续的去进行我的一个呃, 个人的一个资料的股权,比如说我,我曾经存在互联,这都是真实的信息,然后他就会把这一行写到这个玩意里面去,也就是这个里面去,可以看一下,他应该很快就写进去了,这个 他自动的会更新一下自动会更新一下。这个就不给大家演示啊,上堂课已经讲的很清楚了上堂课讲的很清楚,这堂课给大家讲一下 就是如何让龙虾主动的干活,也就是现在龙虾你发现了很被动,就是我跟他说什么他被动的响应我如何让龙虾主动的去在网上搜索能主动的响应你啊?主就是现在从被动的这个等待啊,到主动的代理啊,无需鞭策他主动干活,这个是我 我们需要搞定的事情。那前提啊,他肯定会很好偷啃。那怎么样?被偷啃的话我准备在下一堂课去去讲啊,也就是无需鞭策,让他主动干活。这就相当于养了一个有主人翁精神的龙虾,对吧? 怎么做呢?怎么做呢?我就直接上干货啊。第一步就是让他这个有个叫 pro active agents 这样一个技能哈,请学习请学习。这个技能其实就好了。这个技能其实你学一学会回回车他就已经学会了。其实我这里已经学学完了,是吧?学完了以后 其实不用管了其实不用管了,他就已经 ok 了,你可以看下这个技能。技能他有什么功能?就是他是一个主动型的机器人,是吧?他将代理就是他能够干啥呢?他可以说 预判你的需求,反向的提示,主动去问询你,他就问今天你想要喝咖啡啊,或者你昨天吃了饭,今天是不是要吃面啊?大概就是这个意思啊,你昨天比如说我昨天问了他一些 呃什么小龙虾的一些环境大典,他说他今天就问你,你是不是感兴趣炒股票,那我这个可以传授你一些这个主股票的这样的一个指标是你是不是也去用一用?用一用。对,他大概就是做这个事情,就他是一个你的个人的军师。我可以这么理解啊,能回到这个 ppt 来, 对他富有无限的超级技能库,也就是他能够主动去找很多技能库,当然这个东西一一装的话,呃,对你的电脑的安全性肯定会下降了,这个是没有办法了,这没有办法, 他以极简的这个介入流程,也就是直接把这个锁定目标值,他自动的给你装技能了,就就基本上不需要去问询你了。所以说他基本上全面接管你主动的干活,实际上他有主观能动性啊,就你可能没告诉他事情,他也先做了,这堂课就分享着,你学会了吗?

朋友们,我建议所有听说过 openclaw 的 人都来试试这个 maxclaw, 就是 在这个 mini max 它的 maxclaw 的 云上环境来部署 openclaw 啊,它有什么好处呢?一个是免去你这个配置在本地配置环境的一些困难,再一个是它可以规避很多风险,因为它是一个相当于是云上部署,你相当于租一个它的服务器,完全规避了你的电脑上的信息,或者是等等被它给被它盗取,或者被它删除,还有你的 a p i key 的 泄露等等,就规避了很多风险。 而且它只用花四十块钱一个月,相当于四十块钱一个月,它租了一个你可以二十四小时部署的背后它调用的是 mini max 的 模型,也是国产,也是相对能打的模型,就四十多块钱一周,免费用不用为这个,它会不用为小龙虾烧 token 而烦恼。它有一个 就是专门为 openclaw 设计的一段引导程序,你直接告诉他安装,他就能自己安装,中途没有需要确认的地方,完全是相当于是去代码化的帮你安装好,包括包帮你安装好这个 maxclaw 和这个飞书之间的桥梁,你只用在这个飞书的这个开发者后台上面安一些东西,按它的提示文档去做, 大概三四个步骤,你就可以完成整套安装。我今天是让小龙虾帮我做了一个 a 股的一个类似咨询或者是炒股相关的一个 agent, 你 可以看到它有一个当前配置,它的配置里有个选项,有了这个多 agent 源头团队,它这个还是蛮高级的,它用的是一个这个 github 上的一个开源项目 trading agent, 然后它相当于是用这个多 agent, 每一个 agent 模仿这个真实的交易公司的一个职位,模仿一个职位,把它们最后综合起来。按照这个架构, 它就有分析师、研究团队、交易员、代理等等,这个分析师里面就是这个基本面、情绪、新闻技术,这都是非常感觉是非常专业的。安装好这个小龙虾之后,呃,你再安装一些依赖,这些依赖 再安装一些依赖,我给大家介绍几个有用的,这个 a p i 调用的 a p i, 一个是这个 tu share, 它是中国金融平台数据,就可以抓取这个类似 a 股的一些数据,然后问他的时候,他可以直接抓取。 第二个是这个 tiffany, 它是面向 ai agent 实时搜索提取 a p i, 它可以实时搜索提取网络上的一些网站的信息,然后这个 firecrow, firecrow 这个 a p i, 它可以直接用 ai 进行网页抓取,直接把网页抓取下来。就最重要的是 cloudhub, cloudhub 你 连接了它的 a p i 之后,个小龙虾可以直接在这个 cloudhub 里边自己下载一些跟你的用途相关的一些 skills 帮你来做,对 还是非常好用的。其实大家可以试试,比如说我给你看我的这个记录在这,比如问他明天中海游的走势,他可以告诉你最新的行情,虽然他说明天可能无法预测走势,不过这个我觉得应该他就是一个类似免责声明一样的东西, 还有问他这个职称位,这都有问他这个两会 a 股方面的消息,他都可以给你总结,还是非常好用的,我劝大家都可以试试,哪怕是一些程序员等那种专业人士,有编程能力的人士。呃,毕竟要上班嘛,是吧,也没有时间配置这个在本地配置环境。

看看我的 agent 团队们,有写图文的、网站运营的、监控金价的、记账的,还有提供情绪价值的,后面还要增加一个视频剪辑的 open cloud 小 龙虾 用上多 agent 的 模式了吗?但像我这样每个 agent 对 应一个机器人的配置是有点广泛。在飞书上其实有一种更简单的方式,就是通过拉群,实现一个机器人多个 agent 多个群聊分别管理的模式。我们来以选择题、写作和神稿三个事情为例,完整的配置一遍, 一共三个步骤。首先用这样的命令创建多个 agent, 分 别负责不同的工作,然后给每个 agent 的 职责拉一个飞书群,并且把我们的唯一的这一个 飞书机器人添加到群里面。接着把每一个群聊和 agent 绑定起来,在这里查看群的 id, 通过这样的 bindings 配置把两者映设起来。最后不要忘记给飞书 channel 增加这两张配置,开放群聊和群聊中,不需要艾特机器人也能回复。 配置完成之后,在各个群里和 agent 对 话,给他们安排好职责和身份,让他们记录下来,你就可以在不同的群里指挥不同的员工工作了。像这样的流程,先选择题再写作,审稿,审完再改, 最后得到一篇完整的内容就可以发布了。这样做配置简单,效果强大,快来把你的 agent 军团也安排起来吧!关注我,带你玩转 open club!

我在扣子上面一键部署了 oppo klo 这个小龙虾。什么叫一键部署, 就真的是你点击一下,点击这个自动获取都要不了三秒钟,他就会帮你部署好了。当我点击完成之后呢,他就到了左边的这个界面, oppo klo 的 助手大家可以看啊,这里的这个界面其实和你 把 openclaw 安装到本地那个是一模一样的。如果你看过我往期视频的话,就会知道,我确实把 openclaw 安在了我的一个旧电脑上面,让它辅助我去完成工作。 当然呢,今天的这个视频只是给大家分享这个 code 编程,对吧?它这里的极简部署 openclaw 是 真的是太方便了,一键就帮你做好了。 那么我将用这个小龙虾来做什么了?那也欢迎你订阅我的频道,后面呢,我会给大家去分享我用这个小龙虾都帮我去实现了哪一些 场景上面的一些工作,也希望能给你带来一些启发。关于我的龙虾养生日记,欢迎你的关注。

一台便宜的二手迷你小主机,一台有一百二十八 g 内存的 maxplus 三九五他们一起合作, 我们使用本地的 lm studio, 不 但可以运行腾讯的 hymt 一 点五一点八 b 小 模型来处理多个视频流的实时翻译请求,还能同时使用谦问 code next 模型给 openclock 作为本地大模型接入来运行资料,抓取分析和文本拷写的工作。 大家好,我是老白,今天给大家介绍我用便宜的迷你主机连接本地大模型遇到的各种麻烦和解决方法。 这台圣克森特 m 七五 n 三五零零 u 小 主机是我在海选市场六百八十元买回来的,我们已经对它有详细的评测。 同时吉摩克的这台 evo x 二,它有一百二十八 gb 板载高频内存,还有四十 c u 的 radion 八零六零 s 核显,是本地大模型部署的利器。我们在 m 七五 n 上跑 openclock, 访问同在一个局域网内的 evox 二、运行的 lm studio 提供的本地大模型推理服务。 实际上我所理解的 openclock 就是 利用社交软件或者说聊天工具来指挥和操控一台具有 ai 能力的电脑去执行相应的连续性任务。 关键词处是你用自然语言和它沟通,并且下达指令。如果不用自然语言,不用聊天软件,我就觉得 openclaw 完全没有实际意义,不知道和大家的理解是不是一样的。 下面就讲讲我们使用 openclaw 遇到的各种问题和解决办法。一、为什么选择 windows 迷你主机?我们遇到的第一个坑是,为什么不用网上大多数人推荐的 mac mini? 好 吧, 我除了有一台 m 四 mac mini 之外,也有一台十五寸的 m two macbook air, 用它们之一来跑是没有问题的。其次就是我的 x 八六小主机实在是太多了, 随便就能抽出一台来独立的跑 openclock 我 们这些小主机便宜啊,几百元。 mac mini apple silicon 小 主机至少大几千吧。 m 七五 n 是 我很喜欢的迷你主机,用来跑 openclock 我 觉得是物尽其用。 二、安装和启动我在这种低端小主机上安装 openclock 遇到的最大的坑是,千万不要用 windows 十啊, 一定要升级到 windows 十一,然后啊,还一定要用 wsl 来安装。满足这两点之后,你安装好的 openclock 运行在乌班图二十四点零四上,出问题的几率很小。 这小主机我没有接显示器启动后通过远程桌面连接它进行监控,实际上它相当稳定。我是指这台 windows 的 宿主机,如果你把更新暂时关闭之后, windows 不 会来打扰你要求重启啥的。 好在有远程桌面能够做到完全控制这台小主机。当你第一次启动到桌面,你可以打开 linux 的 命令窗口, 等上一会儿,在浏览器里 opencl 界面里就能看到已经连接上了。第三,备份到这里,我请求你一定要打开文件管理窗口,选择 linux 图标,然后我们一路进到这里。实际上这就是 opencl 在 乌班图二十四点零四里的主文件夹。关注这个 opencl 点接收文件, 这几乎是我们最重要的配置文件,你必须随时备份它,每次不管是你手动修改它或者是 open color 自己修改它,造成你的网关错误,导致你连接失败, 或者 telegram 连接出错,你都可以回滚这个文件,达到恢复上一次网关的正常状态。你看我就经常备份它,因为这个配置文件真的任何错误的修改都会导致网关瘫痪,这是 openclock 配置过程的重中之重。 第四,大模型大模型实际上就是 opencloud 的 大脑,如果没有配置大模型,你是无法通过自然语言指挥 opencloud 的。 所以安装中的或者基本配置安装好之后,我们要第一时间配置大模型。这里我们必须说真话的是,无论如何,你应该有一个网络上排名靠前的大模型作为你的主力模型。 不管是国外的玉山家,还是咱们 kimi 的 k 二点五, mini max 的 m 二点五,智补的五点零。 因为有了它们,你可以用自然语言指挥 openclock 干活去配置设置 openclock, 而不是什么都要你自己用手动来配置。设置好一个网上大模型之后,你可以用自然语言通过它添加本地模型。 第五,社交软件。我最后选择了 telegram 作为我的指挥沟通 openclore 的 聊天软件,在这里很重要的就是设置群主,在群主里设置 topic, 也就是话题,你可以通过话题来细分你和大模型之间的功能性沟通,这样你每次需要上传的提示词就会大大减少。 实际上每一个 topic 都有一个二百五十六 k 的 独立上下文,通过 topic 的 细分之后,我的每一个聊天窗口就不会把我和大冒险交流形成的所有上下文去上传,那样就太恐怖了。 第六,添加本地模型我是这样操作的,给他一个我运行的 lm studio 主机地址,让他去抓取你所需要的大模型的名字,让他自己添加到接收文件中去。 你可以设置限制,比如我的限制是告诉他,千万 codext 不 能作为首要模型,也不能作为回滚模型,只需要添加到 provider 列表里以供我们调用。 这样,我们在本地局域网里的特定主机上使用 lm studio 共享的大模型,就可以添加到列表上。然后我自己在需要的群主 topic 里使用斜杠 models, 可以 很自由地给这个 topic 设定背后的大模型。 第七,不得不修改的接收文件。 实际上,我是真不愿意手动修改接收文件。我遇到了这么两种情况,你必须在接收文件里做这样的修改。前面这句是让所有 topic 的 active watching 一 直都处于 always 状态, 否则啊,隔上一天它就自动退回到闷寝,你就必须加上 at 你 的机器人才能指挥它了。 其实是你添加了两个以上的本地大模型,安全级别提高了,你的机器人在群主里的权限就掉了,就没有了,任何回话都包错。这个时候你必须在这里把机器人的用户 id 加上,这是经过很多人的折磨才搞到的经验之谈。 第八,启动本地模型的一个重要设置。在运行千万三 codext 作为本地模型的时候,我发现一个非常恼火的 bug, 就是 我们在做比较大的任务时候,可能上下文提示词比较长, 你上传提示词的时候超过三百秒就会出现上传错误,它试做两次出错就停摆了,然后给你报一个错。我想到了一个临时解决方法,就是设置 k and v catch 的 精度。 正常的时候,它一般是 f 十六,按这个精度,我们上传的提示词的速度就会比较慢,把它们都改为 q 八,上传速度大大加快了, 再也不会出现超过三百秒出错的情况了。 f 十六将为 q 八,对输出的质量和性能应该没有太大的影响。 第九,本地模型的能力我们也认识到,本地模型的能力和网上大模型的能力是有差别的。 我在使用的网络模型是 kimi coding plan k 二 p 五用它输出的最新的 apple macbook pro m 五 pro 和 m 五 max 的 详细介绍文档。相比千万 code next 制作的文档质量要高,错误也要少, 这是模型的质量决定的,所以本地模型一般不会委以重任,只是用来减少网络 token 的 消耗。 第十, x 八六跑 openclaw 的 语音功能最早啊,我看人安利 m 四 mac mini 跑 openclaw 有 一条就是它呢,很方便地进行语音转换, a s r 语音自动识别文字,还有 t t r 文字转换为语音。 我原以为在 windows 下布置很复杂很麻烦,但没有想到我这是给 openclip 下了一条指令,它就自动帮我安装好了 edge 的 tts。 这样我每天早上固定的文字通报,它就自动帮我转换好语音。逐字考,我只需要按一下播放就可以了,效果很不错。机器人脸今日 ai 热点二十四 h 二零二六年三月六日星期五 各位听众早上好,今天是二零二六年三月六日星期五,欢迎收听今日 ai 热点早报 大模型与算法第一条 open ai 年收入突破二百五十亿美元,较二零二五年翻倍增长, chat gpt 用户数持续攀升。据 the information 报道, open ai 截至上月底的年化收入已超过二百五十亿美元。 电机器人脸今日 ai 热点,二十四 h 二报纸今日国际热点,二零二六年三月六日星期五, 各位听众早上好,今天是二零二六年三月六日星期五,欢迎收听今日国际热点早报 中东局势第一条伊朗最高领袖哈梅内伊在梅以联合军事打击中遇害。伊朗方面三月一日证实消息。第二条珍珠党为报复哈梅内伊遇害,三月二日向以色列显微镜今日科技热点科技第七条 卡特比勒在奈克斯波康艾二零二六展示先进攻地技术,扩展 ai 和自主能力第八条 全球科技竞赛加速,从 ai 基础设施、半导体战略到网络安全威胁。这样就我就很简单的解决了语音问题。使用 mac mini 作为 openclock 数处理器的理由又少了一个。 总结一下, openclock 确实能够让你使用自然语言,通过聊天软件操作你的电脑,执行连续动作,不管是编程、写作、查资料、制作文档和 ppt, 但是他还是没有智能化、精细化,达到自动运行、帮我赚钱的地步,甚至辅助我现在的工作功效也不大,他还只是一个辅助工具,不是能送你去远方的交通工具。 但是呢, ai 的 进化是一日千里的,我相信啊,不论是网络大模型还是本地部署的开源大模型,都能通过不停的升级,给我们更好的体验。而 openclock 这样的开源工具, 通过社区的每日迭代,会让我们部署它的迷你电脑具有更多更新的功能。好了,今天就介绍到这里了,我是老白,谢谢大家观看,再见。

零元带你体验在云服务器上部署官方 openclo 首先我们用到的是腾讯云服务器,打开腾讯云服务器, 登录完之后,这里有免费试用。腾讯云服务器给我们提供了非常多免费试用的服务器,我们通过完成个人认证之后,就可以在晚上零点之后可以立即领取,领取之后我们回到首页,点击控制台,控制台这个位置 就有清亮应用服务器,直接给它点开,点开之后这里就是你领取的服务器,直接点开,点开之后首先我们需要给它重组系统,点击重装系统,点击使用应用模板 openclock, 输入自己的密码,无需备份,直接重装,点击确定,随后我们回到刚才服务器的开始, 点击这里应用管理,在这里可以配置你想使用的模型以及使用它的渠道有哪些模型优先建议选腾讯云 deepstack, 这里不需要调用 api key, 可以 直接一键增加并应用。随后这里有通道,通道中给了这几款应用的渠道,我们首选飞书, 点击手动配置,直接点击详情。进入飞书开放平台之后点击登录,登录完成之后点击开发者后台,在开发者后台去创建属于自己的应用,输入应用名称以及对他的描述,直接点击创建。 创建之后这六个凭证与基本信息这里就出现了 app id 跟 app script, 点击复制,再回到这里配置这里复制,再过来 ctrl 加 v, 直接增加并应用,这里就可以看到它是属于正在运行中。 here 目前 我们初级配用可以先不用到,之后自己想进阶玩法,想提升自己的 open class 的 时候再来处理相关 skills, 随后这里配置好之后,我们来到飞书点击增加应用能力, 增加机器人,这里显示出机器人之后即为成功。随后我们来到权限管理,权限管理我们需要开通几个权限,点击开通管理输入,我们需要给他的权限点击确定开通权限 继续添加,这里的权限是你给他能操作的,有哪些权限在之后的用途当中可以自行添加。 随后我们点击事件与回调,事件与回调部分,进入方式全部都选择长连接,要注意的是我这里是在给大家进行演示,实际你在保存之后,他这里是没有红色字的, 要是你这里没有点击一键添加并应用的话,那你这里就会选择红色。这里保存之后我们来到回调设置,回调配置当中也选择使用长连接接受回调点保存点回事件配调增加事件, 选择两个,一个是信息已读,另外一个是接收信息。随后我们在这里创建新的版本,比如说一点零,点零,这就是你的初步版本更新说明, 随后我们直接点击保存就可以了。随后我们重新打开这个控制台,然后直接点击进入, 进入之后需要给他扫个码,成功之后直接登录,登录进去,在刚才调出来的飞书,直接在这里搜索属于你的这个机器人,随便给他发一句话,然后他就会给你发这一段, 发这一段之后把最后这一段给他复制粘贴一下, 点击回车, 当这一部分出来的时候就是成功等待。

给大家分享一个使用 open cloud 结合推特提供的 pro 点 x 做你产品逾期分新的方法,非常的实用简单。那我这边呢,是在 pro 点 x 创建一个工作区,这个工作区叫做一个 deck, 并在同一个 deck 里面放置多列的内容。你看每一列都可以设置一个不同的主题,不同的关键词,或者针对某个人的 一个监控,都是可以集中查看的,而且它的内容是实时同步的。那我的第一列呢,设置的就是我的产品 make anime 的 一个监控,我让 openclaw 呢写了一个 skill, 这个 skill 的 逻辑很简单,就是让它每隔半小时打开刚才的工作区域,进入 make anime 这一列,然后过滤掉我官方账号的内容,然后对新增的一个推文 就是做一定的内容分析,判断余情是正面的还是负面的,并且把推文的原链接一并整理发送给我。这样呢,我就能够实时的去监控余情,正面的反馈呢,我能秒 回抓住潜在的用户,那负面的余情呢,我也能第一时间去私信跟进。当然目前 macenemy 的 营销主要是在 x 上,之后呢,我可以用同样的方法把这个监控呢扩展到其他的渠道,我只需要提供一个包含这个产品关键词搜索的链接,那这样的话就可以建立一个类似的自动化的余情监控流程。 需要说明的是, pro 点 x 呢,是针对推特会员提供的服务,你得是 x 的 会员才能够使用。但是 pro 点 x 其实有很多非常实用的用法,特别是在 marketing 和我的早期需求调研上。如果大家感兴趣呢,欢迎也在评论区留言,我可以单独再做一期详细的一个讲解。

全网爆火的 open 可乐,它来了还不知道怎么下载,朋友,让我来教你。首先我们点击视频右下角分享按钮,找到分享链接,打开我们的应用商店,搜索这个下载,打开它,点击粘贴,如果没跳出来也没有关系,我们点击转接,搜索东风宝库, 打开它,找到我们的软件包,取消全选,找到我们的 open 可乐,安装下载就可以了。

今天给大家分享一个我最近使用的非常爽的一个编程工具叫 open code, 以及一个非常厉害的插件 o my open code, 它可以大幅提升我们的编程效率 以及出来的一个效果又快又好。那首先介绍一下这两个东西到底是什么? 我之前拍过一个视频,对比了一下 codex、 cloud code 和 gemini, 我是 开了三个窗口,让他们去完成同一件任务。那你可以理解, open code 就是 在一个窗口之下,你可以保持上下文的连贯的情况下切换模型去使用, 算是一个 open one 的 一个工具,那它这里面集成了有七十五家的模型提供商,几乎你能见到的都在里面了,而且你可以接入你付费的模型,还可以用它的免费模型,比如说像智普的模型都是免费的在里面。那这是 open code, 它解决了我们多个模型之间来回切换的问题,以及工具的一个使用的习惯统一的一个问题。第二个欧曼 open code 就是 在它上面的一个插件,它的强大之处在于它的这种运行的模式,它有一个主控和专家团队, 主控就相当于是一个大脑,他接到你这个任务之后,把一个大任务拆成小任务那一个网站,比如说有前端有后端, 还得去找各种各样的文档材料,还要去便利你现在的代码,来理解你的项目结构等等,他会把这些交给最擅长的模型去做, 这个就非常厉害了。那以前我们只能什么?就像我之前开多个窗口,比如说要做 u i 了,我让界面来去做,要做架构设计了, 或者写后端了,我让 code x 去做,这就很麻烦,但是他把这个事帮你在背后全部做完了,你只需要告诉他我要做什么,就是这么厉害。那我们来看一下,简单看一下他的主控叫西西弗斯,他的专家系统,比如说像专门去查代码库的, 专门找外部文档的,专门做架构的,专门做 ui 的 前端开发的,他会把他们分配给不同的模型去做,这我觉得就是欧麦 opencode 对 我们真正使用的时候最强大的一点。 那我们快速看一下它的界面长什么样,中间这一块就是这个 opencode, 首先它可以切换模型,大家看一下 codex cloud 智谱,还有这个加密奶都可以切换,非常的方便。另外如果说 你还想去接入其他的模型,比如说你买了某一个模型提供商的模型,那你在这里直接做一个单点登录的认证就可以了,非常方便。我这里已经连接了四个了, 所以他在分配子任务的时候,他也只会分配给那些可用的模型,所以你在使用的时候得先把你这些模型都接进来。接下来你就很简单了,就跟他聊就行了,让他干什么活,他就自动帮你分配了。 那我个人使用下来最大的感受就是很省心,它会用到一些 cloud 里面,算是很高阶的这种使用,比如说 sub agent 子代理 或者 m c p 调用等等。打个比方,以前经常会用这个 context seven 这个 m c p 去查文档,那这里它自动会帮你调用。并且 open code 它是以这种 cloud 的 运行方式去运行的,所以 skills 在 这里面原声都是支持的,非常的方便。比如说您看 直接一个下划线,所有的 skill 都会列出来。好,怎么安装?那就很简单了,跑到它的官网去,这里会告诉你怎么安装。先把 open code 的 安装好,接下来在 open code 的 命令行当中, 自然语言告诉他,帮我安装好欧麦 open code 的 插件,一切就 ok 了,就这么简单,接下来就跟他聊天干活就可以了。好,那大家可以 去安装试一试,有什么问题我们在评论区见,希望大家用的很爽,效率、质量层层的往上升。