为什么安装 oppo klo 智能体,我一直用刀客,而你非要装在电脑系统上,让他接管你的电脑?这就不得不提刀客的特性了。 像 oppo klo 的 部署,官方虽然只有一条命令,但在部署时需要安装 python、 node 等各种依赖环境,中间也需要交互配置。如果我不会解决环境依赖问题,还不懂如何配置大模型,那么就会很难通过这条命令部署成功。所以阿里云推出平替 oppo klo 的 智能体 coco, 就 单独做了一个 dork 的 安装方式,有些第三方平台 能用于面板。为了方便安装 openclaw, 也做了通过 dawker 的 方式一键部署 dawker。 这种方式把本该在我的电脑上要安装各种依赖环境和 openclaw 主程序都放在一个精简系统里,并且做了自动启动配置。这个精简系统就是 dawker 镜像。如果我的设备上安装了 dawker, 那 么只需要把这个 dawker 镜像运行起来,我的 openclaw 就 启动了。 如果刀克命令也不懂,那我还可以图形化工具点一下鼠标安装 open klo。 本来在代码屏幕上需要配置的大模型放到这里,图形化选择更直观,根本不需要管安装、依赖、交互配置等。这是刀克的方便之处。 因为 oppo 可乐运行在刀客容器中,如果哪天他抽风把我的文件删除了,那他只能删掉容器中的文件,删不着我电脑或存储机里的文件,完全不用担心他搞破坏。即便他把容器里的系统文件删除了,我只需点一下重建,容器就恢复正常了。这也是得益于刀客的技术特性,可随时销毁重建。 再就是我把藕粉可乐放到公网,哪天被入侵了,攻击者只能在我的容器里活动,多的操作也影响不了我的宿主机。等我发现被攻击了,那我直接删除容器就行了,完全不用考虑如何清理干净,有没有后门的问题。 dico 支持精细化的资源调度,可以限制 cpu、 内存、网络的占用,避免一个 open 可乐把服务器资源耗尽。另外,我要是把大模型和 open 可乐都部署在同一台服务器上,甚至部署了多个 open 可乐,大模型可能会把所有的资源都占用了,这几个 open 可乐就没有资源运行了。所以 dico 的 资源分配是不可或缺的。 如果我想在一台电脑上部署两个 oppo klo, 一个专门管工作,一个专门管生活,那么传统安装很难在同一台机器上隔离,两套 oppo klo 就 可以轻松实现,只需要启动两个容器就可以了,甚至更多的容器互不干扰。 哎,我的电脑突然出故障了,里面的 oppo klo 烤跑的数据都没了。如果我用的是 oppo klo, 是 容器,运行的数据目录会挂载到宿主机上,我再安装 配置了定时备份任务,自动备份数据目录,备份文件会自动传到网盘。我在新环境中重新安装 open collab, 还原备份文件,数据和环境就都恢复了, 不管是跨设备迁移还是数据备份恢复,都能轻松拿捏。但刀客的部署也存在一些弊端,比如我主要让 open collab 这类智能体给我处理电脑里的文件,调用我的摄像头、声卡等设备,那我得需要单独把文件目录或设备挂载到容器,多几步也能实现,比起安全方面的优势,这一点使用场景较少的麻烦其实也是可以接受的。 说呢,好了,本视频就到这里了,喜欢我的朋友点个关注,我们下期再见。
粉丝4.3万获赞19.9万

给大家录制一个视频,主要是介绍一下这个 opencall, 它到底在我们的机器上面通过 dog 方式到底是怎么安装的,我们大家来介绍一下。那么 opencall 最近也很火,当然目前它还是有安全性的一些问题,所以我们一般建议你不要装在你自己的电脑上面,最好呢是通过这个容器的方式 创建这样一个虚拟和一个沙乡隔离的一个环境去运行。那我们今天这个视频主要是给大家介绍一下,到底怎么来通过容器的这种方式来运行。欧本靠就是龙虾,好吧,我们首先先给大家介绍一下他,其实 首先我们还是要在我们的电脑上面要把这个龙虾的项目给下载下来,要把这个龙虾的项目给下载下来,我是下载下来之后你就可以首先你可以要做一个翻译的这样一个动作,一般我们是这个这个脚本 运行这个脚本,运行这个脚本之后呢,他就会处理打包这个过程当中,如果他打包成功给大家看一下,他会创建一个这样的一个容器,我们靠点 点 logo 的 一个这样一个镜像,这个镜像打完之后你再运行下面一个命令,就是这个命令主要是做 配置文件的初识化,就我自己跑了一下,就尽可能你初识化,不要让他配,你可以很多东西可以不用配,你到启动了这个网关之后,你再来配置只说这个网关,启动网关之后再来配置这个东西,他这个地方最主要的一个地方是什么?如果你是要去安装这个 oppo, 靠,你要 他会生成这样的一个东西,这个地方是大家要注意他会生成这样一个 token, 就 在你的本地,你要通过这个 token 的 这个方式去打开外部的界面,当然这个外部界面有可能你是会打开失败的,因为什么他这个地方是要做一个配对,所以这个地方你要把,要,要把你的这个设备要给列出来,你要访问到这个容器里面去, 你要访问到这个容器里面去看一下,你要到这个容器里面去,你要去看一下这个是表说如果你发现他的,当然我们目前已经设置好了,如果他这个地方没有连接上,那你要打这三个命令,就这个 compose run 这个 开,你再要跑一个这样的一个设备的一个 list, 你 把这个它这个会列出来,有一个 request id, 把这个 request id 填进去,你再同意一下,那这样控制面板就可以连接到这个设备上面去就可以了。连接到设备上面去之后,因为我们原来的很多东西都没有配,所以你在这个地方可以做一个配置,配置最主要主要是配置模 模型这部分,那模型我目前配我自己是配了一个统一千万,统一千万三点五二十七, b f p 八的一个模型, 通过这种模拟他就可以在你本地,如果你配置完之后,你本地就可以去聊天了,只说你可以问,他就会告诉你本地运行的是我当地配的是通一千万,通一千万三点五二十七, b f p 八的这个模型,配置是在这个地方的, 我给大家看一下这个 skill 包,它这个 beauty 的 skill 包,它大概有五十三个,它有各种各样的,包括有什么苹果 note, 有 骑行,有各种各样 block watch 啊,这里有各种各样的一些工具,包括有些工具它是要设这个 sdk 的, 包括写代码的钉子,它也可以让它去写。这个是飞书的,它缺少一个飞书的一个叫 web walk, 你 只要把它植入进去呢,这个 飞书的聊天里面,它就可以去链接这样的一个东西,像这种它要注入这个 s e p i 的 聊天里面,它就可以起用这些技能, 包括这个呃, google 查询的地图地理位置,包括还有一些 nano banana 画图的一些工具,其实你都是可以注入进去, 是编辑 pdf 的, 它都是有些工具,都是有些工具来处理这些事的,包括还有一些语音的输入,各种各样的功能, 当然这些功能你也可以再进一步去添加你自己要的一些新的功能,这个也是可以的。好,那我们再给大家看一下频道,频道它目前支持的频道还是非常多的,我们给大家看一下频道这消息渠道,我们看了一下,它主要是支持国外的为主,国内的像这种飞书什么呢,它都是需要企业版,企业版本包括 teams, 包括 企业微信他也是可以支持的,但是企业微信他支持会比较麻烦,他还要做一些 a p i ip 的 一些白名单,还要做一些域名的设置,比较麻烦,所以一般个人用的不太多,但对国外来讲他是比较能用的,像这种国外目前都能,当然在国内,目前这种 app 下载都是在中国是不能下载的, 有些问题,所以这个龙虾在中国用起来可能就会有些限制,或者是说不是很完善。这个是消息渠道模型就比较简单,它可以配置各种各样的模型,包括各种各样的,这个是比较简单的,就配置一下就行了。 skill 工具,内在工具也是有很多,有浏览器,有各种 skill 包啊,这种 skill 的 配置,这个主要就是做一些能力的,包括有些定时任务, 这个都是可以做的,功能还是非常强大的,它这个功能是非常强大的,那要整体要完全玩会,它还是要花点时间来弄。一般我们目前安装就建议大家用 lock 的 这种方式,它会跟我们的那个机器做一些隔离,它也沙箱也运行在这样的一个 lock 环境当中,那这样相对来讲它会更加安全。好, 我们今天简单给大家介绍一下怎么去部署 open call 这样的一个方式去部署这样一个环境好。

大家好,今天给大家做了一个在飞牛下啊刀口安装部署 oppo klo 的 那个龙虾安装教程。 嗯,准备工作,就三个网站,一个是秀秀开放平台,一个是 oppo klo 的 中文网站,还有汇集流动,就是服务提供商,嗯,这个汇集流动大约提供了两千个免费的图纸的。嗯,大家可以注册领取一下。嗯, 注册后进行实名认证,嗯,嗯,实名认证后会领取一个十六元的代金券,它可以进行一些费用的抵扣。汇集流动的模型广场提供了嗯,很多的那个模型供大家选择, 下面我们来演示一下在非牛下安装嗯,龙虾的过程。首先先在文件管理一下的我的文件中创建一个嗯 dork 的 文件夹,然后在 dork 文件夹下再创建一个 open cologne 的 那个文件夹,用于嗯,存存放那个部署文件。 创建好以后,打开嗯, docker, 然后选择了 composer, 嗯,然后右边的新增项目,这里可以上传 docker 跟 composer 文件,也可以手动。嗯,创建 docker 文件。 下面我们打开荷兰 club 的 中文网站,嗯,里面有一个安装方式,然后 docker 部署。 嗯,这里面这一段的那个,嗯,网址就是下载地址,大家可以通过嗯,迅雷可以下载下来,然后再上传到飞牛中,也可以进行嗯,手手动创建,这里面它有一段那个配置,配置文件, 我呢图省事,还是选择上传文件的那个方式,先输入项目名称和文档路径,选择我们创建的文件夹,然后上传。嗯,我们提前下载好的那个,嗯, dolphin composer 的 文件, 这里需要把这个改成国内的。嗯,下载地址如果不改的话,这个部署时间实在是太长了。嗯,漫长的等待。这个把前面这段去掉就行。 这个后面这个它是个最新版,嗯,它会随着最新版的发布进行更新。咱们可以改成这个稳定版,那就是拉 test, 然后把后面这一块改成拉 test, 后面这块就没什么了。然后把这个创建项目后,嗯,立即启动给勾上,然后点击确认就开始。嗯,构建,后面就需要等待,它构建完成就可以了。 嗯,跳过等待过程,现在就是。嗯,部署构建完成了,下面我们点容器,然后点右边的那个三个点,选择终端,打开终端第一个的 bin bash 的 连接,然后就连接上终端了。 下面我们进行粗实化,然后选择在终端输入 opencloud on board, 杠杠 in stop 杠,呃, d a e m o n 进行粗实化,然后回车,这块就需要等一小会就行。这块等的时间不是特别长, 这里用方向键选 yes, 回车,快速开始回车,这里选重置, 然后再选择仅重置配置,这里是选择那个服务提供商的。嗯,但是这里面没有归机流动。嗯, linux 版本好像是有的,这个 dk 版本里没有,所以咱们选择自定义。嗯,服务商,哦,会撤。 然后这块把这个地址去掉,换成那个轨迹流动的那个地址,然后咱们到笔记中去复制一下,就是这个 a b i s u, r, l 复制,然后过来粘贴, 然后回车。是输入密钥,这个是到轨迹流动中去找 好,打开汇集流动网站左边这个 api 密钥,然后新建密钥。嗯,随便出一个,然后新建就可以了。嗯,我这个已经建好了,我就用这个, 然后过来粘贴,然后再回车,然后这个就选择 open ai 回车,然后这个是选择模型的 id, 也是在汇集流动中去复制一下就行。 好,打开过去流动,然后选择左边的模型广场,然后这里面有很多模型,大家可以选择一下,然后就选择第一个吧, 点那两个方块复制,然后再回来粘贴,再回车,这里需要等一会。嗯, 显示啊 socket board 就 表示成功了,然后再回车一下就行,然后这个再回车默认就可以了。 然后这这个就是选择接入的那个。嗯,方式是飞书啊还是球球啊之类的,我们是要接入球球,所以这里吧就有暂时跳过, 到这就说实话配置完成了。嗯,下面就需要对接一下 qq, 下面就是打开 qq 开放平台,然后手机 qq 扫一下码登录, 登录成功之后,然后创建机器人, 然后下面这块就有一个接入流程,我们只需要一步一步,嗯,复制到那个刀客的那个容器终端去,呃,粘贴运行一下就可以了。 然后复制第一个啊,回来进行连接终端,然后粘贴,然后运行,然后这需要。嗯,等一小会,安装插件需要一个过程, 然后再回来复制。嗯,第二步,然后再回去粘贴回车, 这也需要等一小会,这个时间很很快,但有时候会卡住这一块,但只需要断开一下,然后然后再重新连接,连接中断好, 然后看看这个粘贴没反应就可能是卡住了,然后点那个断开,然后再点连接就可以了,然后再粘贴,然后重启一下服务,这样的话就接入成功了, 到这就不说完了,关掉就可以了。然后再点三个点,打开系统日期、运行日期,然后我们打开机器人助手,机器人然后说,嗯,您好, 看后台设置有反应啊,这块显示个你好,这就说明接入成功了,然后再说你能做什么好?回车 他这个,呃,答复的时间没有那么快,需要等一小会儿。嗯, 用龙虾的话说就是,呃,他需要思考一下,看看这个就是他答复的。好,今天的分享就到这了,大家可以自己部署一下。

龙虾爆火,但如何养虾是门学问。今天给大家整理了 openclo 真正能用的十个实用技巧,全是玩家真金白银踩坑踩出来的干货,小白也能直接照抄,保证看完 少走一大半弯路。先讲部署和环境,让你的龙虾跑得又稳又省心。第一,模型混搭用,别啥火都丢给 gpt。 提炼内容改文档这种小事,直接切本地小模型就行, 只有复杂逻辑再上柜模型偷看,费用真能省一大半。第二,尽量用 docker 隔离运行,别直接在你自己电脑上裸跑。用 docker 开个独立环境, 相当于给他开个单间,他再怎么删文件改配置都碰不到你系统核心,也不担心把电脑搞崩。第三,不用看画面就开静默模式,如果你不需要盯着它点鼠标,直接开静默模式,关掉界面渲染,既能省显存 任务,处理速度也会明显变快,后台悄悄干活效率更高。接下来是生产力部分,学会这几招, open cloud 直接好用一倍。第四,多用,然后串起多步任务,别只发一句简单指令, 试着用先,然后最后让它连续做。比如搜完 ai 新闻再做表格,最后发到你邮箱递我。打开自动纠错重试,有时候爬数据会受阻, 把重试策略调高一点,它会自动换方式再试,不会动不动就罢工报错。第六,提前给他设好操作权限,在提示词里直接说清楚规矩,比如只许看 pdf, 不 许改 excel, 说得越细,它执行越准,基本不会乱动手。第七, 装 r a g 插件,实现常识记忆。奥鹏科奥本身有点健忘,装上 r a g g 插件之后,它就能记住你之前的文件格式,任务习惯,用起来顺滑很多。最后是进阶避坑, 专门防烧钱,保护隐私。第八,设 token 熔断上线一定要手动设置单次任务最大 token 消耗和操作次数,不然它万一陷入死循环,半小时烧掉几十刀,真不是开玩笑。第九,私密数据先本地脱敏再上传, 遇到敏感文件别直接丢云端,先把关键信息打码模糊,再传上去做总结,防止隐私泄露。第十,开启 api 模式,联动更多工具。别只把龙虾当个单独软件,打开 api 服务之后,它能接到你自己的小脚本里,变成整个自动化流程里的一只手,真正实现全自动干活。以上这十个技巧, 全部真实可用,不忽悠人,不管你是刚上手还是玩了一阵子,都能直接用。想用好 oppo pro 其实不难,找对方法避开坑,效率直接拉满。 如果你觉得有用的话,点赞收藏就是对我最大的鼓励和支持,欢迎关注我,了解万亿蓝海产业 ai 和机器人赛道的发展现状和未来机遇。

首先打开 u 盘,如果你的电脑里没有安装 docker, 点击 u 盘里的 docker 安装包进行安装, 然后打开这份使用教程,不懂的地方可以直接看教程。 docker 安装完毕,然后去启动台打开 docker, 这里输入你的开机密码,准备运行 docker, 然后在 u 盘里点击启动,等待一到三分钟, open call 页面会自动弹出,请耐心等待。 点击允许 你的 open call 页面已自动弹出, 现在打开 u 盘里的使用说明文档。 复制 getway token, 点左侧的概述 overview, 在 网关令牌这里粘贴刚才复制的 token, 然后点链接,点击左侧聊天,就可以看你的龙虾对话啦。至此,你的 open call 已装好, 如果不使用了,需要点 u 盘里的停止,然后退出 u 盘就可以了。这里额外说明一下,第二次想要使用小龙虾插上 u 盘,可以从视频的第五十秒按照步骤重复操作即可。

给大家汇报一下,作为全网最早几批开始养龙虾的人,我已经宣布退坑了。几周之前,我的朋友圈里开始有人说 open curl 能够借光我的电脑实现全自动化的办公,我一上头就花了一个周末的时间把它部署下来。结果刚刚我用一杯奈雪求我的程序员大哥帮我卸载了这个软件, 顺便帮我修复一下被搞坏的电脑环境。真实体验就是四个字,赛博坐牢。很多鼓吹不会龙虾就会被淘汰的大 v 们,有很多事情没有告诉各位,今天我给大家分享一下 这个所谓的赛博龙虾有哪些。普通人没有必要踩坑点。首先是第一个坑就是装机很难,网上演示的时候点一下它的鼠标就开始干活了。但现实是,这个东西目前没有傻瓜安装包,我一个干策划的,为了装它,硬着头皮去学了配置拍摄的环境,解决依赖包冲突,部署刀刻。当时的屏幕上疯狂弹各种红色的报错代码, 我装了一整天,连一个界面都没跑起来,原来一直使用的剪辑软件反而打不开了。查了各种教程,配置各种环境,花了整整一个周末的时间才把它搞定。第二个就是极其脆弱的直线脑回路, 好不容易跑起来之后,我想让他干一点正事,比如说帮我去竞品的网站抓一下最新的价格和销量,然后给我整理成 excel。 这个事如果我交给一个实习期一天工资七十块钱的实习生,他能干的相当不错,哪怕说网页突然弹一个广告,或者有一个登录验证码,他也可以随手关掉或者绕过去,但这个聪明的龙虾不行。 目前的 ai agent 就是 一个直线导回路,只要遇到非标准化的突发情况,他的工作流就会瞬间崩塌。他要么直接荡机在这里,要么为了完成任务 开始胡乱抓一些数据,或者干脆编一些数据骗我。所以他目前根本就应付不了真实办公环境里发生的任何意外。第三个,就他真的挺贵的。很多人认为龙虾是一个免费的劳动力,其实错了。他每一次操作鼠标,每一次识别屏幕,都在疯狂调用后台的 a p i 算力,每一个淘垦都是要真金白银扣费的。比如说我刚刚遇到那种弹窗广告, 他不知道跳过,而是在不停的在那个死循环里面来回跳跃,开始疯狂截图、上传分析报错,再截图。我打开 ipad 下了一盘棋,他在后台偷偷烧掉了我几十刀的额度,大概折合人民币四十多块钱。 四十块钱够我在山姆买一盒小龙虾吃了,结果它的所有数据都不能用,我还要重新开始整理。事实上,在过去的两周的时间里面,这个 ai 助理给我带来的产出比远远不如一个实习生干的活。 这几周的毒打也让我看清楚了一个事情,对于普通人来说,限阶段的 open crawl 不 仅不是必须的,反而是几乎没有作用。我在这个地方发表两条爆论,第一条,如果你的日常就已经在使用什么 cloud code 这种成熟的 agent 或者代码助手,那么龙虾对你来说可能没有什么意义,因为它能干的,你现有的工具店基本上都能干,它只不过是一个毛糙的半成品玩具。 如果你各种成型的 agent 是 一个一个的基层员工的话,这个龙虾只是一个什么都不懂的忠诚领导。而我相信各位应该都理解一个什么都不懂的忠诚领导在工作中能起到什么样的反作用。 第二,如果你日常根本就不用 ai, 你 不知道什么叫可口的 code, 不知道什么叫 agent, 甚至你都没有听过 ai 工作流这个概念,那么龙虾对你来说就是完全没有用的东西, 他只是一个外包的双手,他没有大脑,你连第一步、第二步的业务 s o p 都给不出来,这双机器手回去只会砸自己的脚。事实上,在过去的三周里面,他给我的最高价值就是所谓的情绪价值。所以这个阶段大家真的没有必要被那些如果我不会 ai, 我 就会被淘汰的这种焦虑感洗脑。我特别喜欢知乎网友的一句话,如果智能手机是未来的话,那么没有抢到 iphone 首发的人, 其实什么都没有错过任何一个领域,就算他未来能够成为世界的主流,他的早期拓荒也一定都是 bug 崩溃和高昂的试错成本。对于局外人来说,这个阶段真的可以收起一些焦虑。真正能拉开差距的,不是我们死磕那些报错代码,而是我们沉下心来,把自己熟悉的行业逻辑梳理成标准流程,把让子弹先飞个半年 大厂,把它封装成一个可以成熟使用的 app。 我 们带着我们对于行业的理解梳理 sop, 直接登录才是正确的使用龙虾的方式。我确定龙虾也许是未来,但二零二六年三月份的当下,如果你不使用龙虾,并不意味着你过时了。

今天我们来快速的过一下 opencloud 的 下载安装以及原理解读。那么首先是怎么样去安全的安装 opencloud, 就 像工信工信部警告的,如果直接把它装在电脑的操作系统上,这会是一个非常危险的事情,那么我们应该怎么做呢?我们首先可以如果想体验一下 opencloud, 我 们可以云 docker 这个方案 相当于在电脑上做一个虚拟的操作系统,然后把这个龙虾纸装在这个虚拟电脑里边,对,然后我现在已经有的中文文档,不过还是有一些 technical 的 部分在,我就带大家快速过一下啊。那么首先是我们确保我们找得到这个 gitlab 的 openclaw, 其实也很简单,在 openclaw 这个页面里点点 gitlab, 然后就能找到它的仓库位置, 然后 docker 呢?呃,就是正常下载即可,比如简单的话下载一个 docker task, 选择操作系统版本,我们下载好安装即可。然后我们怎么样去装 opencloud 呢?就是用 git bash 来,那么首先大家也需要确保我们的 git bash 是 装好的, 那么 git bash 怎么下载呢? git bash 是 一个帮助我们在 windows 上使用 linux 操作习惯以及 git 命令的这样的一个工具。然后我们可以直接在 git 官网上,然后在 git 官网上点击下载,然后下载安装即可。 然后打开 gitlab。 之后呢我们选择一个我们想安装的路径,比如说我想安装到 e 盘上,那我就先切到 e 盘上,然后在 git clone 这里我们等待它下载完成 好,完成之后呢,我们切到我们下载的地址就是 e 盘,然后我们去找这个 opencll 的 这个项目,然后我们就找到了这个就是我们刚下好的 opencll 的 这个项目了。呃,那么接下来呢,我们就切到 opencll 的 这个项目, 然后呢我们就开始 docker 的 安装,那大家只要访问这个文档里的这个网站,选择安装,然后选择我们的 docker 安装方式, 呃,然后在快速开始这里复制这行命令,粘贴到我们的 git bash 里就好了。这里可以看到我们因为网呃网络的问题没有下载成功,这也非常的常见,那么需要怎么做呢?我们就需要输入一个这样的 proxy 啊,当然前提是大家自己是有 proxy 的, 然后我们把它粘上, 然后再重再来一次这个 proxy, 这里边我们可以在在这里,在这里的复制环境变量里选择 bash, 然后点击这个复制,我们返回我们的记事本里粘贴即可。 对,这里边如果我们显已经显示,如果这三个都显示的是勾的话,说明我们的 docker 这部分已经运行完成,然后这里会问我们是不是个人使用,那我们就选是,然后 click start, 这里边如果我们第一次进来的话,比如说我们 reset 起来, 呃,会让我们来选择一个模型提供商,那么这里边我们就按大陆可以正常使用的这个 kimi 二点五来选这个 kimi 二点五 c n n k, 然后呢这个 k 呢?就是当然如果有别的大模型提供商的 api key 也可以直接放到这儿了。呃,然后这里边呢就是我们搜索这个 moonshoot 或者说 kimi 的 api key, 然后选择新建 新新建一个 key, 然后比如我们选一个 key 的 名称以及一个所属项目,它就会新建一个密钥,然后我们只需要把这个密钥复制粘贴, 然后我们只要把这个密钥复制粘贴到下一步即可。这里边我们会选择选哪一个这个渠道来去快速开始?呃,那么的话国内支持的呢?其实就只有飞书了啊,不过这里我们可以用这个 escape for now search provider okay。 呃,然后 skill 也可以先 skip 掉。对, 我们先把这个系统装起来,然后这里边如果显示这样子的话,就说明它在我们的 docker 内已经安装完成了,然后我们可以再打开我们的 docker。 呃, docker, 现在我们的 open cloud 运行的地方就在 docker 里边了。 open cloud get 位的概念,这概念在我后面会在讲原理的部分会给大家聊一下, 那么这里呢,我们就能看到这里就是实际的我们创建的这样的一个隔离的容器,那么我们的所有的 opencll 的 运行就发生在这个容器里边,这样的话我们就做好了隔离, opencll 就 没法来影响我们外部的操作系统和我们电脑的任何文件了。 那么这个时候有朋友可能会问,那如果说我想让 opencll 去读取某个文件怎么办呢?接下来我给大家演示一下怎么样在这个情况下做文件的管理。 那么大家看到这个返回的时候,就说明我们已经成功地在 docker 里开始运行 opencl 了,那我们也可以在 docker 的 这个界面里,呃,在 container 里找到正在运行的 opencl, 然后这个呢就是在 docker 里的终端了,然后我们去打开 opencl 的 这样的一个网页,对,呃,如果不确定呢,我们还可以用这个命令,对 对,说明它是正常运行的。然后呢我们进入这,呃,然后呢我们输入这个网址,在浏览器里就进入了 opencloud 的 操作界面了,比如这里呢,我们就可以给他打个招呼。 好,呃,那么具体呢,我们怎么去访问它的这个文件目录呢?首先在 docker 里边其实可以配置,我们让它呃去把哪一个目录去挂载给 docker, 也就是让它有权限查看哪个目录。那么默认的位置呢?一般呢?是是这里, 呃,就是 c 盘用户的这个 workspace 里,大家可以复制一下这个呃命令,然后粘贴下这里呢,就是呃他可以看到的文件的目录呢? 呃,也就是说在这个模式下,他只能看到我们给他指定好的工作区以及虚拟容器内的部分,是他可以看到以及操控的部分,那么在外边呢?他是不知道的。呃,我们可以怎么验证一下呢?比如说我们来验证一个,我们来新建一个 t x t 吧,名字就叫小猫的秘密。 好,然后我们呃这里可以说小猫的秘密等于一个乱码。对,比如说我们可以先不把它放到这儿,我们可以先把它放到呃这里,先把它放到用户的外边,然后我问他小猫的秘密是什么? 然后我们可以看到他找不到小猫的秘密这个文件,然后我们把它移到我们的工作区里,对,然后再询问他, 他又正确的找到了我们刚刚创建的这个小闹咪咪,然后我让他跟生成一个可爱的, 哎,好,我们可以看到这个时候他成功的给我们生成了一个 html, 我 们也同样在刚刚的这个工作区里就可以打开 啊,这里边就我们给他的秘密代码。那么恭喜你,在这里就成功的通过 dok 安装并开正确运行了 opencloud。 那 么第二部分呢,我们可以来看一下 opencloud 的 功能以及抽箱系统。我做了中英两版的图,我们就用中文版的来看吧。 呃,那么最开始呢,最上层呢,是用户,用户可以用任何有 api 的 对话渠道来和小龙虾进行交互。那么接下来呢,这些交互呢,会标准化到我们的对话入口层, 这里边就有,比如说像 c i a 的 命令行控制,或者说像刚刚我们网页里的这些呃对话的命令。 open call 会把所有的这些绘画统一翻译到网关层, 网关层呢则是由绘画管理、消息路由、事件总线,也就是 eventbus 和智能体编排来组成的。那么这里呢,其实 open call 对 智能体编排本身并不是特别重的一个编排, 它更多的强调了一个 react 的 框架,呃,也就是不停的去做这个规划和推理,直到任务完成这样的一个框架了。呃,那么里边的工作流编排其实并没有特别复杂,就没有像 long graph 或者说我做的 wtv 这种 很重的工作流编排了。呃,更多的呢,是强调于就像我们现在会用的一些,比如像 skill, md 啊之类的,以及一些对浏览器和消息啊文件区包装好的操作的接口。呃,那么这两部分呢,是它智能体编排的部分了。 呃,那么在上下文解锁呢,是用了长期记忆和短期记忆两个部分吧,其实,呃,主要还是通过 jectic search 和 rag 两个部分来做构成的吧。那么具体 openclaw 是 怎么使用 rag 的, 我会单独的出一个视频和大家分享一下。 呃,那么这个智能体验新层呢?最终会访问的资源呢?是 lm, lm 提供商提供的 api, 然后以及外部的 mcp api 以及互联网的资源,本地的操作系统以及文件区可以提供的文件。呃,总的来说,呃, openclaw 的 抽象功能就是这些了, 那么后续也会持续更新,去带大家深入的了解 open call 架构以及。呃,代理搭建一个 open call, 那 么后面两期会更应和更偏 agent 工程师呃, 这个方向一些了。呃,那么这个账号呢?我后续也会分享一些在 p h d 视脚下有价值的。呃,这种 max 啊,多智能体领域的最新的论文以及项目。呃,并且也会分享一些自己的开源项目和论文。呃,最后感谢大家的三连以及关注,谢谢!

我在 windows 里面养一只不花钱的龙虾,用了 docker sandbox, 还下了千问十四 b 的 模型,目标是让这个龙虾当一个总控,然后再给它设置五个或者多个 sub agent。 今天的想法想到了把所有原材料的化学原材料的 msds 这种 pdf 或者是 呃 word 之类的这样的文档给它,自动给它提取成数据库的形式。这样所有原材料的性能,还有日期,期限, 厂家等等各种各样的信息全都给他关联起来。未来我的采购同事他们就不需要手动去累积这些信息了,只需要把他往我的文件夹里面一扔,龙虾自动就帮他处理好了。这个原材料的 sub agent 以后就可以负责出具相关的报告。

小龙虾啊,小龙虾,玩了两天了。嗯,我的部署方式是在我的飞牛,飞牛这个 nas 主机上部署一个容器,容器里边部署的小龙虾 啊,容器里部署的小龙虾,然后调用了我本地模型,本地模型选择了奥拉玛, 因为我的显卡是五零七零钛显卡,目前是跑了一个旧币的,旧币的前文三点五旧币的模型,十四币的模型也能跑。嗯,像旧币的我能跑到九十多头啃,速度还不错。 但是你如果说你在奥拉玛直接问这个大模型,他有点傻,我问他今天几号,他都不知道,看他的。嗯, 哎,他他他既然给我找出来了,刚才我上午问时他还不知道呢, 上午问的时候他还他还傻不拉几的看。上午问的时候没有查不到日期信息,然后让我查手机和电脑 啊,但这种部署方式呢?有有个问题,就是用多款部署,然后调用本地大模型,如果你在欧拉玛里边直接测这个数据,速度还是还是不错的。还不错。 嗯,但是如果说打开这个龙虾在这里边,在龙虾里边这个对话,他速度反应特别慢,我不知道为啥,是网络原因还是还是配置的问题, 所以说我决定打算放弃这种部署方式。我终于把龙虾部署到我本地和欧拉玛一台电脑上来,看看速度会不会提升起来。但今天这个这龙虾他也很笨, 他在装软件的时候把自己改自己的配置,把自己改死了。应该说他自己改自己的配置,又写的格式还不规范,写的东西不规范,然后配置文件出错,然后自己又挂掉了, 他自己,他自己改,自己把自己改崩溃了,这个龙虾, 完了完了,芭比 q 了。 我本来就想让他改一个问题,把他回答的问题的时候用流势书写的方式就是 一行或者一段一段的出,他现在出现的方式是问完问题等好半天,然后一下子把那所有的问题,所有的文字全部出来,这样等的时间太长,不是那种,嗯,从 一行一行的出那种方式,我就为了让他解决这个问题,我让他自己去解决,他竟然把自己给搞崩溃了。你看看,和用打字的效果和模型显示方式保持一致。 这是我问的,我问的, 让他自己去改变,让他自己去改,他自己改,改改改。 然后我给他一个一个方法,然后去配置他,结果 我把这个都都给他了,他说他明白了,结果,结果呢?结果呢?没搞成, 他让我试一下,一试连接断了,连接断了,这等于是他把自己搞崩溃了。 但我, 嗯,也也换了一种,用用这个 m studio。 m studio, 这个,这个,我下载好多模型,我准备用用这个 m studio 测一下这个各种模型的速度,测一下我,我的五零七零态 能跑到什么程度。嗯,一般我的显卡,这显卡跑二十米以上的怀疑都困难,都跑不动,还是不行。 大家有什么好的本地补水方式或者方案可以交流一下。 能不能推荐一下这种 ai 性能比较好的主机?我现在看就苹果的主机性能比较强。价格很贵啊。

如果你不知道用什么方案去部署龙虾,那我建议你花两分钟做一下这个题目,然后呢你大概就能知道你是适合什么样子的一个龙虾。 呃,最近的话,有很多小伙伴一直咨询龙虾怎么安装,还用什么方案,我适合怎样子?然后 很多的一个小伙伴,包括上次我去 apple store, 就 苹果他的一个店铺,然后很多人咨询他这个龙虾怎么装,然后他适合怎样子的, 所以,呃,我看到了很多人问这个问题,然后最近我发现一个网站, 然后他的话给大家做一个测评,大概花两分钟,然后就能够让你知道你比较适合哪个龙虾,然后现在带大家演示一下这个东西他是呃怎么去用, 因为他其像做游戏一样,大概花了两分钟打一下题目,然后大概能够知道你,呃,最后给你一个大概你应该是什么方案去接入这个龙虾。首先我们进入这个网址以后,然后呢就可以进行做一个龙虾探险的一个测试, 通过这样的一个两分钟的一个答题,然后大概能够让你知道你适合怎样的一个部署方案,然后需要怎样的一个步骤去部署。我们比如点击开始探险,然后他,比如第一道题,总共大概是九道题嘛?然后 你为什么想要一只龙虾,就想解决什么样的一个问题?那比如我是需要有个私人管家, 然后这个你最希望他有什么能力?然后比如内容创作,或者说什么,比如全部以上都要, 那这个的话就是说你有什么样的一个呃,闲置的电脑,为什么要闲置啊?因为现在其实比较不推荐在自己主力电脑上进行布置,因为呃龙虾需要要求的权限比较高。然后容易就是说比如可能误删东西, 我们呃用一个闲置的设备去部署可能更好一点。比如我如果还没有,我们就可以选择买或者租,那这个你有什么样的一个能力水平?如果我们普通人的话,肯定是没什么技术嘛。 那如果你小白容易想要学习,可以选择这个。如果比如我是老板的话,那我就可能不太想碰基数了。对,我可以选这个,然后想接入到哪个?呃,跟他对话啊,可以是加微信跟飞书啊, 而且还有其他的。那这个的话就是说你这个东西当然想几个人一起用,比如公司或者小团队,但一般我们都是一个人去用它就选这个, 然后呃之前不是发布的一个安全的一个提醒吗?然后这个的话你可以选择自己呃关心的,那比如我选择的是这个, 然后关于啊 token 的 一个费用的话,那因为它本身免费,但模型还有就 token 的 费用,还有硬件是要花钱的,因为我们是啊钱很多,就直接选这个,那这个的话就是说你大概需要 什么时候用上它,比如这周内搞定,或者现在我就想要有这个啊,然后弄完以后撒花你的方案出来了。这个的话就是说你比较适合用服务器,然后加上都可的, 然后部署的话可以跟着保姆呃视频一步一步做安全方案的话,这个给你大概的一个方案 费用的话,大概是多少入门,然后接下来你应该怎么做?一,比如购买服务器,然后呢再获取模型等等,这些你可以按大概按着来。 那这个我觉得至少这个东西让很多人知道他适合什么样的一个龙虾怎么安装这样子。

全网都在养龙虾,装它比养真龙虾还难。要配 dogger 调模型,普陀人看到墓碑型直接光往坠跑,两坠一看不淡,口梗到了四千美金, ai 没把我取代,我先破网了。那事情无庸配置下电脑直着暴力攻网,黑客分分钟把你装走。 一周前全民养虾,一周后全民歇拽龙虾是挺好,但那是彭巨源的大浪追,不是你的皮皮虾。别睡,跟风。

大家好,今天给大家带来 open call 龙虾的全自动原码安装教程,这个教程适用于 u 崩注系统,本地电脑和云端服务器都能用。为了系统安全,建议先创建刀刻容器来运行,就像用虚拟机一样。首先获取并配置全自动安装程序, 需修改杯色、 a、 p、 i、 t 和 id 这三个关键参数。配置好参数后运行安装脚本,运行上面的安装脚本执行以下命令,安装成功后,配置文件一般在后幕下,可以继续修改大模型、地址、密钥和名称等配置信息。安装完成后启动龙虾,如命令找不到,执行以下命令。 启动方式有前台和后台两种,前台运行关闭窗口后返回前端页面, 初始状态可能显示离线,且提示 token 不 匹配,需要去配置文件中找到 token 字短,粘贴到网关令牌输入框,点击连接后状态变为正常。 最后进行聊天测试,若出现 l l m request time down 提示,检查修改模型配置参数并重启龙虾。到这里, iphone call 的 安装配置与测试流程就全部完成了,配置参数的正确性非常重要。

opencloud 确实是一个现象级的 ai 工具啊,最近很火,在国内也很火,年前的话是在国外非常火爆啊,据说这段时间腾讯门口排队上千人去找他们的工程师部署 opencloud。 现在国内的互联网大厂也在做开发,开发一件部署的。但是你适不适合使用奥邦科勒?我接下去这个视频建议去听一听啊。奥邦科奥到底最适合哪些人? 最近用了一周欧本科奥,专业方面的东西没有资格说,但发现一个比较有趣的现象,对于欧本科奥,社媒上呈现出两级分化的态度。一种是把它讲得很神,仿佛只要装上它一个人就能顶半的团队。 也有人总是在去魅说这东西霸的多不安全,用处有限,普通人根本别碰。 那到底 openclo 究竟适合哪一类人呢? openclo 的 确算是一个现象级的 ai 工具,本质上它不是陪你聊天,而是可以替你执行事情,串联流程, 问题恰恰在这儿,它适不适合你,无关乎其他,而取决于你有没有进入流程化阶段。很多人以为 openclo 的 门槛是部署,是各种规范的 skill 和工序垫。 其实对大多数人来说,真正的门槛不是技术,而是你有没有形成自己清晰的工作流。我是一个自媒体作者,那就以内容创作者为例,你每天如果是想到哪写到哪,内容抗灵感临场发挥,没有形成自己的创作车间,那欧苯克拉对你大概率不是生产力。 你用任何一个 ai 会更经济,更方便,更快捷。换句话说,欧本克洛不适合混沌型创作,它适合高频稳定、重复可拆解的创作工作。 所以到底什么人最适合去研究、学习和使用欧本克洛?第一类是高频稳定输出的个人创作者。 你每周都要追热点、整理素材、写脚本、做分发、留存上下文。这时候最好你的往往不是创作本身,而是外围那些重复动作。对镇定人来说,欧风可洛的价值就很现实, 它不是帮你变聪明,而是帮你把精力从重复动作里抠出来,你越高频,越容易感受到它的价值。第二类是小团队工作税 团队真正浪费时间的地方,常常不是想不出创意,而是协同摩擦心情随整理任务谁同步,节奏随跟进,上下文谁维护。拨奔科罗正执行成功句,一旦用对,省下来的不是几次点击,而是整靠流程里的损耗。 最不适合的是那种低频兴趣型用户,一个月做不了几条内容,却急着搭个人 ai 中台。最后常见结果是配置了很多产出没增加,焦虑造翻倍。所以大部分人对欧朋克拉最成熟的态度,不是神话,也不是趣魅,而是做判断。 如果你现在还没有稳定节奏,没有固定栏目,没有被验证了工作流,那你今天最该做的不是急着研究 open class, 而是先把自己的内容方法跑顺。因为没有流程的创作者,拿到再强的系统也无济于事。但如果你已经明显感觉到 自己的创作时间正在被大量机械动作切碎,感觉每天都很忙,却又不甚忙。在最值钱的部分,那欧鹏科奥这种工具就值得认真研究了,因为它未必能帮你成为更有天赋的人,但它很可能帮你腾出空间 去做那些真正该由你亲自决定的事。这就是我对欧鹏科奥最真实的看法。在你准备研究它之前,先问自己,我手上到底有没有值得被系统化的重复工作? 因为在 ai 时代,真正决定你能走多远的,永远不是你追了多少新工具,而是你有没有把自己的能力变成可以被持续放大的系统。你清楚了吗?

大家好,今天我们来学习如何在 windows docker 环境下安装配置 open call。 首先我们需要确认 windows 版本并检查 wsl 状态,打开 windows cmd 终端,输入命令。 wslv 教程推荐系统版本至少为 windows 十一部分, windows 十版本可能不支持。接下来我们安装子系统不空出二点零四,在 cmd 中输入安装命令,等待下载。安装完成后按提示创建 enix 用户名与密码, 注意不能使用 root 作为用户名。设置密码时光标无变化是正常现象,需要再次确认密码输入后按回车键确认,确认后即可进入到安装后的系统。安装完成后可选择将 w s l 迁移到其他磁盘。 先执行以下命令,关闭 w s l 系统,再输入以下命令迁移至地盘。进入此系统后安装 d k, 先备份原有镜像云,替换为阿里云镜像云,再依次安装 d k。 启动服务配置,开机,自己 安装完刀刻后退出子系统,再重新进入刷新环境,执行命令,下载物崩处二点零四镜像。接下来创建刀刻容器,执行命令,创建并启动名为要部的容器,创建完成后会直接进入容器, 如果容器停止或退出,可以运行以上命令启动。进入容器后运行命令,更新镜像源。进入容器后从龙虾实验室下载全自动安装脚本。安装完成后编辑配置文件, 在 windows 资源管理器中打开映设的地盘目录,找到 open call json, 修改 base、 i t、 i d 三个核心参数。配置完成后启动龙虾,并依赖模式启动网关有前台和后台两种运行方式,前台运行关闭窗口后会退出 后台运行,推荐生产环境,通过 nohop 将 open call 运行在后台,并将日期输出到指定文件,便于后续排查问题。访问前端页面,打开浏览器访问管理页面默认显示离线状态, 需获取 token, 完成连接,在容器内查看配置文件中的 token 值并复制,将 token 粘贴到前端页面,提示设备配对时回到容器终端,停止网关服务,获取请求 id, 并执行授权命令。完成授权后进行聊天测试,访问聊天页面发送消息, 若出现 l l m request timeout 报错,检查修改配置文件后重启网关即可。以上就是在 w f l 与 docker 环境下安装配置 open call 的 全部流程,希望对大家有所帮助,感谢观看!