只需要对着聊天记录输入需求, open cole 的 龙虾即可一键帮我们完成指令,轻松整理我们需要的各种信息。这就是本期要给大家分享的最新开源项目 one cole 的 一键安装包工具在 gethelp 上也已经开源, 不需要进行任何环境变量部署,更不需要任何命令,行一键安装即可轻松使用 open cole 的 亲测,三分钟不到便可开始养龙虾,而且支持温和 mac 系统, 老规矩我也给大家提供了它的温系统以及 mac 系统的安装包,只需要解压缩对应的压缩包,在里面找到 exe 程序即可。体积非常小巧,仅仅也只有一百二十九 mb。 双击我们的 exe 程序,这款软件就可以在系统上进行安装。默认点击下一步, 同时选择我们自己需要安装的目标文件夹,等待它安装完成即可。安装完成即可运行这款软件。 安装完成后,这款软件会弹出安装引导,支持连接我们常用的聊天软件,点击下一步,在这里面粘贴我们自己的 api 即可。支持常用的主流模型,比如 kimi, open ai 以及我们在这里点击其他,可以选择 deepsafe, 我 这里就以 deepsafe 为例, 点击选择 delete, 粘贴我们自己的 api 即可。同时如果我们自己不知道怎么去获取 api, 这里也有对应的教程文档,点击教程文档就可以查看引导我们这里选择好以后,点击验证并继续,然后接下来就已经配置完成了,非常简单,点击启动这款软件即可进行运行。 好了,现在我们龙虾已经部署到了本地,点击设置按钮,在这里面也可以将它连接到我们的绿泡泡上,点击起用的按钮,然后对它进行扫码即可。现在只需要在聊天框内对它发送我们的需求,比如创建一个文件夹,它就可以自动在我们电脑上对文件夹进行创建。 好了,现在我的桌面上这一个文件夹已经创建完成,同时在聊天框里面也会提醒我们这款软件还有其他非常多的功能,大家也可以自行进行研究。但是本地龙虾有一定的风险,大家一定要确保自己的数据安全才能使用这一款工具软件就给大家演示到这,谢谢各位收看。
粉丝4获赞22

最近爆火的 open curl 小 龙虾不会安装怎么办?一键部署工具,傻瓜式的安装,完全开源。我也亲测了啊,确实可以,主要分为四步,第一步就是环境检测,会自动检测你电脑的部署环境, 如果没有可以一键安装,我这里提前都装完了。第二步就是安装 open curl, 也是一键安装,在安装的过程当中有个小问题,就是软件会卡死, 但是并不会影响安装,等待一会给它关了重新打开即可。安装好之后,下一步配置 a p i, 创建个 a p i k, 填到这里,然后下边不用管这里,点一下模型连通信检测, 如果检测失败就检查上面的 k 和模型,直到检测通过才可以啊。这个时候就可以进入到第四步了,点击启动 get 位,并自动打开对话网页,它就会自动运行脚本,自动打开网页,这个时候小龙虾就搭建好了, 记住这个命令框不能关,关了之后还得再启动啊,然后就可以开启你的养虾之旅了。这个小工具更方便的一点就是它还可以自检,如果安装完成之后,小龙虾还是无法运行,这里可以一键自检,一键修复,非常方便。同时呢也提供了社交软件的可适化配置,对于小白的帮助还是挺大的啊,喜欢折腾同学可以收藏起来了。

昨天讲了小龙虾 open core 的 一键部署,今天来讲一下基本配置,这第一个选项要选 yes, 如果你选 no, 它是无法进行的。 接着第二个选项是快速模式还是通用模式?我们选择快速模式。第三个页面是模型供应商,这里我喜欢选择千问,因为千问目前有免费额度,可以给我测试。 选择完千问之后,他会跳转到一个页面进行授权,这里点击确定, 授权完成之后会显示认证成功,然后我们要返回代码的窗口,回来代码窗口第一个选项是由于我已经配置过千问模型,所以它有一个选项是保持默认,我就直接选择保持默认。如果你是第一次安装,你可以选择第三个或者第四个, 我这里给大家演示一下,选择第三个。接着这个页面是对接平台,有很多平台,这里我先选择跳过,当你来到这个页面,就是选择搜索的模型,这里也可以选择跳过, 这里让你去配置技能,选择 no, 我 们稍后再配置。然后来到 hold 这个选项,我们可以选下面的四个,怎么选呢? 键盘按下,然后按空格,按按下,再按空格,再按下,按空格,全部选中,最后回车就可以了。然后到了这个页面,大家就等待,就可以等待大概十秒钟的时间,它会弹出窗口, ok, 它来到这里就自动弹出窗口了。弹出窗口之后,有些用户它是显示网关无法连接的,或者是直接网站没法打开的,那这两种情况你就要重新部署一遍, 因为很有可能他没有获取到配置信息。我这边有个提醒就不是报错,他是让我升级,让我升级到三月十一号的版本,我现在正在运行的是三月八号的版本。然后这边有一个升级按钮, 正常不升级也是可以使用的,我尝试一下跟他说话是吧?正常也是可以去聊天的。 如果你跟我一样选择了千问的模型,但是这里发送信息没有回复,那是因为你认证了信息,但是 a p i 没有接入,因为你并没有申请 a p i。 那 在哪里申请呢?回到部署软件,点击右上角的飞出按钮, 在左边有一个 a p i 汇总,点开来之后,这里就有千问的传送门以及免费额度,有需要这个文档的评论区扣六六六。下期我们来讲怎么装技能。

你肯定没见过比这更简单的 oppo pro 安装教程,只需要一句话,直接自动安装。打开 mini max, 桌面端,输入帮我配置 oppo pro 低整将自动完成相关配置。安装完成后,输入 mini max 的 api key, 等待一会后配置自动完成,就可以在前端测试效果了。输入你是什么模型,可以看到 oppo pro 已经配置完成。

一说到最强核显, amd 粉丝, yes 七八零 m 八九零 m 八零六零 s 都是真能打级别的核显,但是在非牛的玩家里, amd 的 核显硬解一直没有适配。作为非官方非牛代言人提前透露,非牛马上发布 amd gpu 加速的适配,并且会一锅端的推出一键部署。非牛 open club, 咱们今天先来尝尝馅儿,为什么总是你仰仗各位,那不得开香槟庆祝一下吗?然后去薅了一台三九五的机器, 飞牛官方合作伙伴,林克 gtr 九 pro、 amd amx 加三九五插电开机。 咱们先来看一下林克这台 aimax 加三九五的系统信息。 amd ryzen ai max 加三九五内建八零六零 s 的 核显十六核三十二现成。我这台是一百二十八 g 的 统一内存,八千兆赫的频率, gpu 识别正常,双万兆的网卡啊,这都是免驱的啊,直接识别,我现在给它装了一块四 t 的 硬盘。 ok, 咱们先来看一下这个包升级的地方。第一,支持了 amd gpu 的 硬件转码播放视频, 支持了 amd gpu 的 相册人脸识别和智能识别,也就是 ai 相册的全支持,全硬件加速需要安装 amd 的 rocm 七点二驱动和非牛自研的 ai 引擎。安装飞牛 ai 引擎和 amd rocm 七点二驱动, 飞牛影视的设置已经自动打开了 gpu 加速。咱们来播放个视频给大家看,四 k 蓝光史比特 hdr 杜比全景声走起,我们让纳斯端应解启动, gpu 应解成功,咱这三九五你就说是啥解不了吧,随便拖。 接下来咱们来提升一下难度啊,这是杜比世界版本的 hdr 视频,颜色对应,牛,注意看啊,也是服务器端硬解杜比世界四 k 杜比全景声,这就是典型的全杜比,所以即便你的电视或者你的设备不支持杜比世界,他也不会出现色彩映射错误, 惨绿惨绿的。在 ai 相册里面也可以识别出这块和弦, ai 设置里面下面就多出了启动 gpu 计算的按钮,咱们启动 gpu 设置成功,咱们先看机操啊!人脸识别情况走起!一共是五百四十五张,计点计用,然后我们来看资源管理器,但愿让大家还能够看到 gpu 占有率只有轻轻松松的百分之十四, cpu 根本就不带动的啊,所以 gpu 人脸识别, ok, 这负荷有点太轻了是吧?哼,分分钟你看就识别完了,接下来上强度智能识别走起,你看直接就几十几十张的跑, 用 cpu 的 时候大家懂了吧,都是一张好几分钟 gpu 硬解,直接拉满 c p u, 非常轻松。五百张哇,智能识别秒没 amd 玩家,你就说狂喜不狂喜,但这只是基础操作。 amd 粉丝飞牛玩家第二部,欧拉玛 本地大模型,在飞牛 amd 的 平台上部署欧拉玛,我给大家看有多简单,直接输欧拉玛。 最新版本的欧拉玛已经升级为一点一的版本,已经可以直接对接 lcm 的 硬件加速,你只需要安装然后就可以了,一键打开欧拉玛,牛皮,我已经给大家下好了,千问三点五,一百二十二 b q 四量化的模型 gptos 一 百二十 b q 四量化的模型,塞进显存的容量分别是七十六 g 和六十一 g, 哎,正好适合咱 aimex 加三九五,咱们来调戏调戏 ai, ok, 这生成速度还可以哦,大约二十点五六, tokens 每秒 amx 加用户进阶玩法。第三步,一键部署 openclaw, 直接调用欧拉玛的本地 ai 模型。所以你看你家什么机器,二十四小时开机啊, 你的纳斯,你家什么机器算力过剩啊,你的纳斯,我说你要累死纳斯。所以你看你在纳斯上部署 本地大模型,部署 openclaw, 资源的利用最大化。所以之前好多次老张直播的时候都告诉大家,我一直认为 nas 才是 ai 的 最好平台。好,接下来咱们一键部署 openclaw, 这个很快会给大家推送啊,推送之后,你直接在应用中心就可以找到一个叫做非牛 openclaw 的 应用,然后它依赖的应用都会直接部署,所以真的就是一键部署。 yes, 一键启动,我们是本地模型,所以直接选择欧拉玛自动识别本地模型,包括 ip 端口号,一概不需要懂,自动读取出现有的 本地大模型,然后啥也不用管,保存, ok, 恭喜你, openclaw 配置完毕,然后这大家说这怎么用啊?非常简单,你看这打开 openclaw 图形化界面了啊,远程访问网页版就可以和你的 openclaw 互动了,咱们问他,你是什么东西? 恭喜你打开新世界的大门,再也没有 token 焦虑了。 在小龙虾给大家生成的第一个文件屋缝对接飞牛啊,来大家看吧, 很多小伙伴玩小龙虾是希望在即时通讯工具中能够直接对接的飞牛的,这个 open claw 直接内置了飞书的对接, 企业微信和钉钉的对接一键安装。一个意外发现啊,因为是在非牛的应用中心中直接安装了一个非牛的官方应用,所以你根本不需要管什么端口映射、外网穿透这些技术的问题。因为非牛纳斯自带 f n connect, 你 可以随时随地在你的手机 外网访问你布置的 open club, 一 键打开移动端,直接无缝连接之前的对话。所以在飞牛上玩龙虾,事实上,你根本不需要去对接 实时通讯工具,这事变得更简单哦。依然是老规矩,明天中午老张直播间大家准备了很多好东西, ro 明天中午不见不散!

openclock 最省心的一键安装教程来了,不会还有人花几百上千的找人下载吧?今天就教会你不写一行代码,不动一下脑子就能把最近很火的小龙虾装到自己电脑上。首先去下载带有一键部署工具的汽油加速器,下好后先在右上角菜单里找到口令入口,输入虾米零免费会员, 然后搜索 open 酷了一键部署工具,先加速启动,再点一键部署,这里注意不要选 c 盘的安装。想好了点开始配置,过程会持续五到十五分钟,电脑配置越好,部署时间越快。完成后在这授权千万模型, 没有账号的兄弟可以在下面注册。授权好了看工具这个状态栏,如果不是健康就刷新一下,直到它变成健康为止。然后点开始对话就能开始使用了。 但要让他帮我们处理复杂的工作,还需要安装相应 skills, 比如我想让他帮我更好的总结提取,就用这个 summarize 技能复制下面提示词发给小龙虾,等待一会儿他就能学会这项技能了。还有不懂随便问一一回复。

open 卡尔一键安装包,傻瓜式部署全部整理好了,打开安装包后,这里可以无脑,下一步 安装完后打开会检测你的 note 环境,然后在这里可以选择龙虾版本,我们选择官方原版本, 然后一键安装,此时会在后台疯狂拉取镜像,稍微等待会 出现这个说明安装快好了。然后我们回到软件 这里就会显示后台控制面板,然后在这里配置模型 rpi, 输入你注册模型厂商 rpi 即可。 然后在左边选择实时聊天, 显示上下文就能进行对话了,是不是很方便?安装包无偿分享,还有全方位的不熟指南,全部给你。

上节课我们在本地部署了千万三点五 ai 大 模型,这节课我们继续部署 open core, 并让 open core 对 接上本地 ai 大 模型,彻底告别头肯焦虑,让大家零成本养龙虾。现在看 open core 官网,里面有很多种安装方式, 我们这里啊,使用 n p m 方式,一键安装,运行之前需要先有 node js 环境才能使用 n p m 命令。 node js 安装好后,打开终端运行 n p m i 杠 g 二分 q, 安装完成,运行命令,开始配置,复制过来粘贴。 先问我们啊,是否继续,当然要继续了,用键盘左右方向键选择 yes, 接着选啊,快速开始。这里问要对接什么模型, 这些选项啊,大部分都是对接云端 ai 模型的,因为我们要对接本地 ai 模型,所以要选择自定义。接着问模型的 api 地址,这个地址啊,在 o m x 的 仪表盘里,大家看这里, 复制一下,将这个删掉粘贴我们这里啊,要填的是幺二七点零点零点一,冒号八千斜杠 v 一。 继续啊问模型的 api k, api k 在 管理面板的设置权限设置里, 默认的 key 是 默认一二三一二三,我们不做修改,就填这个,先按回车粘贴过来,兼容性选择 open ai。 接着问模型 id, 模型 id 啊,在管理面板的模型管理器里面,将名字直接复制了,粘贴过来,确定 end point id, 保持默认就行,这个是模型的别名,可以不填,直接下一步。接着问啊,要对接什么聊天工具列表里啊,默认只有飞书。我这里出现的 open code 微信是我后面装的,大家初次安装并没有这个关于微信的对接,我们下节课再来讲, 这里直接选跳过接着问搜索服务现在没有,也先跳过,继续出来。技能的选择,直接按回车。 出来的技能选择,这里推荐只选 clonehub, 按空格,选中按回车键安装,其他的先不要选,可以避免网络有问题一直卡住。其他的有需要啊,后面可以再来安装。我这里列表中没有看到 clonehub, 是 因为我之前已经安装过了,所以看不到,我就直接选跳过。 后面的几个 api 啊,也都是收费的啊,暂时都没有,全都选 no no no no 还是 no 霍克时啊,也选跳过先按空格再回车。到了最后一步了,问我们运行方式,推荐的是在终端中运行,选择后,现在就可以和他直接发消息了。好,我们发个消息, 它会直接在动态中进行回复,当然也可以使用 word 界面进行访问,大家打开幺二七点零点零点一冒号幺八七八九,在这里也可以一样聊天,还可以做各种设置。总结下,安装 open core 需要 load 机制环境,在装好 load 机制后,使用 n p m 命令,可以一键安装 open core, 安装好后,运行命令开始配置文字版,内容请看课程讲英文档, iphone 可乐,现在出来聊天还可以操控你的电脑了,在下节课的对接微信里,我继续演示给你看。

兄弟们,就在刚刚,我发现了目前为止可能是最简单的 open 库的安装方式,只需要一分钟,不仅同时适用于 windows 系统还有 mac 系统,而且可以直接部署到你的本地。最关键的是,它优化了原版中间一些做的好的技能还有插件,看完这篇,立刻帮你省下四百九十九块钱的安装费,保证任何人都能最快速度用上属于你自己的手相。 这个呢,就是自古刚刚发布的 autocool, 它跟之前的小龙虾安装最大的不同就是你再也不需要担心环境的部署了,也不需要输入命令行,整个过程就像你安装一个 app 一 样的简单还有快捷。你只要打开它们的官网,下载安装包,然后去登录账号,弹出这个界面,就输入真的是 完全安装好了。如果你还想部署到飞书上使用,其实也特别的简单。我用我这里的 mac 来举例子, mac 和 windows 稍微有个明显的不同,那 那么 mac 呢?你点击链接飞书以后,它会自动弹出一个弹窗,开始自动配置。你只需要扫完飞书,登录二维码,剩下的全部交给 ai, 它全部会自动化帮你都配置完成, 你就会看到目前为止我可能认为是最丝滑的 ai 操作了。还需要什么教程吗?一键安装不响吗?而 windows 系统呢,就会稍微复杂一点点,需要按着操作文档一步一步来,因为这方面还没有设备的特别好,这一块你们跟着做也完全没有问题,我就不再敷。 那除了配置过程呢?小龙虾 tommy 的 消耗量也是劝退大部分人的一个主要因素。这一次制服他做了两个优化,第一个是呢,用了一个龙虾的专属模型,叫 pony r four two, 这是 一个匿名的模型,还没有正式发布,就是先上来做一个测试。它的任务的成功率和它的调度其实都是有一些优化的,而 tommy 的 消耗量是有了一些甩减的。另一个呢,就是他们做了一个专门的页面,贴心的帮你把用量统计给显示出来,你再也不用担心他到底花了多少。 当然,如果你想填自己的 a p i k, 你 用你自己的模型也完全没有问题。 autocool 支持全世界所有的 a p i 模 型。那除此之外呢,还有一个不错的优化点,就是 autocool 在 内制了原本小龙虾技能包的同时呢,还对这个核心的 skill 进行了一些优化。比如说呢, to research 这个 skill 优化后,它能解锁到的内容无论是质量还是新鲜度都比原本的 open go 强了不少。还有一个他们优化的比较好的 是一个操作你浏览器的,基本上你涉及到一些网页的操作的模拟点击都需要这个东西。相比 open code, 它原有自带的 for use, 它其实是能力强的非常多,而且非常适配国内的互联网生态,懂的都懂。 那讲真的,智普这个 open code 呢,是我目前用过最方便的一个小龙虾了,技术其实从来不缺牛的,缺的就是如何让普通人真的用得上 open code 走到了这一步。你至于以后能走多远呢?说实话我也不知道,但就现在这个版本,我觉得它已经值得你花一分钟的时间去装一下,来真正的去亲身体验一下 agent 的 魅力。

兄弟们,上期教大家怎么在 nas 里面一键部署 openclaw, 以及怎么进入控制中心,以及目前默认使用的大模型是什么?那就有好兄弟要问了,我就不爱用免费的,我就爱用收费的,收费越贵我越开心,怎么办呢?好办,在配置里啊,找到 models, 点击第四个 model providers, 第一行呢,有个 enter, 点它到了下面这里啊,有个 customer 杠一名字,你可以随便改啊。 model provider api adapter 这里啊,选择付费大模型对应兼容的接口协议工具,然后在这里输入你付费大模型的 api key base url 啊,这里输入你的套餐专属连接,然后呢,在这里点击 add。 api, 同样选择付费大模型对应兼容的接口协议工具啊。 id 这里点击 add。 如果你的付费大模型指的是文本和深度思考啊,那就选择 text。 如果这是文本深度思考和视觉啊,那就再点一下 add, 选择 image 名字这里呢,就随便填写一下。然后呢,将 resending 打开,然后回到聊天啊,检查一下模型状态,输入你现在有哪些模型,看它的回复后啊,输入切换到 ok, 你 的收费模型就切换好了。为什么不输入给他,让他自己配着呢?因为这个模型啊,他可能有一点傻,他不一定会按照你的要求去输入你想要配置的模型 id, 可能会自动调用免费的 id, 然后呢,就导致小龙虾直接崩溃。那如果模型设置错了,小龙虾崩溃了怎么办呢?哎,别急,下期告诉你。

opencloud 现在也能免费部署安装了,我们一起来看一下。直接就在我们的小邦邦集成的软件里,就直接有一键部署的按键,这回再也不用花钱求人去安装了。打开小邦邦之后啊,左边第三个就是咱一键部署 opencloud 的 界面, 但这里啊需要咱登录一下咱的联想账号,没有的话可以注册一个,点击立即部署之后它是没有任何门槛的,我给大家演示一遍。 到这一步我们可以选择模型提供商,就是选择我们使用哪家的大模型。如果你对这个没有了解的话,我建议大家使用千问,千问呢它部署起来是比较简单的,千问模型能够自动部署, 而且它每天也有免费的额度可以供咱试用,咱可以先用一下它好不好使,再决定要不要去找一些付费的大模型套餐。 这里直接选择千问,哎,后续的设置一直按归车就好了。 我们选择这个自动部署以后, 它就会跳转到我们千问的登录界面,我们需要在这里注册一个千问的账号,当我们注册完账号以后,它提示我们可以返回到命令行界面继续使用。如果你是没有技术背景的小白,这一步看到的所有的选项你都可以选择默认的第一个直接按回车跳过就可以了。 这里我们回到小魔方啊,就能看到它一键启动的界面了,点击一键启动按钮,稍后呢就会弹出一个浏览器, 没错,我们小龙虾的最基本的使用方式就是通过浏览器来进行的,它会自动弹出浏览器,我们可以在上面和它沟通,我们直接在浏览器上操作它,给它发一个你好,就能看到它已经正常加载我们的千万模型,开始给我们有所回应了,这时候它就能可以控制我们的电脑啊。 配置好了之后呢,我们可以在代理这里看到咱现在用的是千万的模型,这个模型呢它有个好处,就是每天都会给一些免费的额度,咱可以借这个免费的额度先轻度试用一下, 如果用的感觉哎,体验不错,咱可以跟他询问怎么去更换一个其他的大模型,更换一个付费的 a p i, 比如说千万他们自己家的,他会手把手的带着我们自己去做。如果你想要进一步去连接其他的聊天软件呢?我们可以回到小帮帮里, 这里有比较丰富的教程,包括怎么去连接钉钉啊,飞书啊,这也是有完整的教程呢,也有一键打通的插件。 如果你想要去更进一步的去使用这种通用的 agent, 咱可以去了解下 skill, 这可以让我们小龙虾去自主学习,去学习一些更高级的能力。 当然我们都要小龙虾了,就算真的有些配置我们不知道怎么去安装,我们可以直接去问他,比如我们直接就让小龙虾你来帮我配置飞书,一步一步的跟着提示去做就好了,这就是小龙虾给我们最大的帮助了。

哈喽,大家好,我是你们的小伙伴思摩图。那画面上的这只小龙虾啊,相信大家都已经不陌生了吧,他就是大名鼎鼎的 open core, 他 能够通过 ai 为我们自动完成不少电脑上做的一个工作。那早在过年之前呢,我们就爆干给大家出了几期相关的教程,教大家在不同的平台上进行这个部署。 但是这个啊,实话实说吧,哪怕我把这个步骤拆的再细了啊,那卡在这个环境的一个配置中 啊,那确实啊,因为这种 ai 项目,它原生安装的是比较复杂的各种依赖项目,经常会打架,很多这个非开发者的普通小伙伴跟着敲这个代码也会犯迷糊,那直接呢就被挡在了门外,难道普通人就不配玩前沿的这个 ai ai 准了吗?那当然不是啦, 那最近呢,绿联那是搭载的 u g s pro 系统,就直接给我们提供了一个快速接触前沿技术的这个捷径,一键安装 open crawl。 那首先我们来看一下这个一键安装所支持的范围啊,那目前 dsp 系列,已切换系统的这个 dx 四六零零系列,以及这个 dh 二六零零都能够直接支持 open core 的 一键部署。那今天我们又来演示呢,依然是那台高配性价比的这个神器啊,绿联 dsp 四八零零 pro, 我们只需要在系统里面点一下应用中心,在里面点一下 open core 的 这个图标,点一下安装,然后输入你让他能够访问这个目录,然后再设置一个加密令牌,接下来几分钟他就全部自动安装完成了。 安装好之后,我们点击系统里面的小龙虾图标,然后输入你的令牌,就可以直接进入网页的控制台,然后你就可以跟你的这个龙虾助理开始对话,然后安排工作。 那玩过 open crawl 的 小伙伴应该这里会发现有点不同啊,那我们是不是还没有部署这个模型呢?哎,那这个炸裂的来了, 玩过 a 卷的小伙伴应该都知道,那这玩意一旦跑起来是极度消耗这个 api token 的, 而绿联这次呢,直接联手国内头部的这个 ai 企业 mini max, 只要你用绿联一键安装,那连这个 api 都不用买,直接送你免费的。这个高性能 mini max 大 模型算力, 那除了能用以外呢?相信很多小伙伴也关注着这个 opencore 的 一个安全性问题,那其实大家在这一点呢,也是完全不用担心的,那绿联 u g s pro 里面的 opencore 呢?它默认被安装在 dos 之中, 除了它自己所在的这个容器以及你映色的目录以外,它无法直接对外部的文件以及你的电脑进行直接的操作,这也代表它最多自己玩崩自己啊,而不会对你的这个电脑那上的文件产生破坏。 而且由于 u g s pro 所使用的这个文件系统,它能够支持快照的保护,我们可以定时对这个目录进行快照备份,随时让文件回到之前的状态,那这也可以避免因为小龙虾对需求理解偏差所导致的这个文件错误修改。对比你直接在电脑上安装小龙虾,那这样的方式要安全很多。 那接下来呢,我们也简单分享几个我们在这台机器上的 open crawl 使用案例,那安装好 open crawl 之后,我们可以通过国内的 skillhop 网站为它安装一些常用的技能。安装完技能之后,我们就可以配置飞出的一个通信连接,直接通过飞出客户端与 open crawl 进行这个通信。 在这台那上,我创建了一个头脑风暴的 a 卷团队,那团队由四个不同的智能的这个 a 卷构成。他们可以每天早上十点为我发送由最新消息筛选而来的这个数码相关选择题。 那接下来呢,他们可以根据这些选择题进行自主的一个搜索完成。头脑风暴为我提炼每一个选择题中的看点。大家看,现在画面上就是我用飞书向他提出需求得到的反馈。那最终呢,他们会通过这个 o c d 的 一个技能为我在我的笔记中生成多个选择题的这个看点汇总。 那另一方面呢,他也可以对我存放在工作目录中的每月消费发票进行一个汇总,我只需要告诉他目录所在,他就可以按我需要的这个格式生成报销的清单。如果你愿意花时间调试的话,他还可以通过浏览器自主的为我们在购物网站上获取订单的一个发票,然后进行整理。 那除了前面一些日常的工作以外呢,我还让他接管了我的这个 copy ui 和 lm 推理的服务器,我可以通过一句话控制它下载模型或者是切换模型。也可以控制服务器直接调用工作流生成素材。生成的素材 open crawl 会直接从服务器拖回 nas 本地,我们在网页端也可以直接打开查看, 那它还可以用于控制我的这个语音下载系统,我只需要一句话来操作 open crawl 就 可以为我下载指定的电视剧,或者直接进行剧节的追踪。 那其实现在在电脑上基本上一些花时间费脑子的这些任务,我都会尝试用 open crawl 给跑通,那这些呢,都是实打实的为我节省时间,也能够更多的完成工作。好了,这就是我们视频的全部内容,希望大家能够养好这些龙虾,那我们就下期再见喽,拜。

open klo 现在也能免费部署安装了,我们一起来看一下。直接就在我们的小邦邦集成的软件里,就直接有一键部署的按键,这回再也不用花钱求人去安装了。我们直接来到联想支付的首页啊,就可以看到这个小邦邦,它里边就集成了 open klo 的 一键部署的工具。点进去以后呢,就可以直接下载小邦邦, 下载完以后我们直接把安装包解压出来安装就可以了。我们把解压出来的安装包双击点击安装啊,一直点下一步,其他都不用管。 打开小猫猫之后啊,左边第三个就是咱一键部署 opencloud 的 界面,但这里啊需要咱登录一下咱的联想账号,没有的话可以注册一个,点击立即部署之后它是没有任何门槛的,我给大家演示一遍。 到这一步我们可以选择模型提供商,就是选择我们使用哪家的大模型。如果你对这个没有了解的话,我建议大家使用千问,千问呢它部署起来是比较简单的,千问模型能够自动部署, 而且它每天也有免费的额度可以供咱试用。咱可以先用一下它好不好使,再决定要不要去找一些付费的大模型套餐。 这里直接选择千万,哎,后续的设置一直按回车就好了。 我们选择这个自动部署以后,它就会跳转到我们千万的登录界面,我们需要在这里 注册一个千万的账号,当我们注册完账号以后,它提示我们可以返回到命令行界面继续使用。如果你是没有技术背景的小白,这一步看到的所有的选项你都可以选择默认的第一个直接按回车跳过就可以了。 这里我们回到小魔方啊,就能看到它一键启动的界面了,点击一键启动按钮,稍后呢就会弹出一个浏览器。 没错,我们小龙虾的最基本的使用方式就是通过浏览器来进行的,它会自动弹出浏览器,我们可以在上面和它沟通,我们直接在浏览器上操作它,给它发一个你好,就能看到它已经正常加载我们的千万模型,开始给我们有所回应了,这时候它就能可以控制我们的电脑啊。 配置好了之后呢,我们可以在代理这里看到咱现在用的是千万的模型,这个模型呢它有个好处,就是每天都会给一些免费的额度,咱可以借这个免费的额度先轻度试用一下, 如果用的感觉哎体验不错,咱可以跟他询问怎么去更换一个其他的大模型,更换一个付费的 a p i, 比如说千万他们自己家的,他会手把手的带着我们自己去做。如果你想要进一步去连接其他的聊天软件呢?我们可以回到小帮帮里, 这里有比较丰富的教程,包括怎么去连接钉钉啊,飞书啊,这也是有完整的教程呢,也有一键打通的插件。 如果你想要去更进一步的去使用这种通用的 agent, 咱可以去了解下 skill, 这可以让我们小龙虾去自主学习,去学习一些更高级的能力。 当然我们都要小龙虾了,就算真的有些配置我们不知道怎么去安装,我们可以直接去问他,比如我们直接就让小龙虾你来帮我配置飞书,一步一步的跟着提示去做就好了,这就是小龙虾给我们最大的帮助了。

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

登录控制台,选择轻应用服务器, 可以看到已购买的服务器,也可以点击创建服务器,可以看到默认会有 open call 服务, 同时可以更换更多的版本,这比自己安装更加省心。 接下来我们开始配置, 点击图标进入配置页面, 点击应用详情, 可以看到我们有配置的引导,一二三步骤,接下去只要按照一步步点击, 再点击配置,初步 配置对应的 kimi 要 不知道的我单独给出说明, 可以看到配置还是很快的。 接下来就可以看到访问的页面, 可以在页面中进行基础的配置,由于平台限制, 我们只能使用摆列模型, 同样点击应用就配置完成。 接下来我们来操作最后一步。

本期视频分享下我自己部署 openclog 的 实战经验。咱们不炒概念,只讲实操,以及基于实操的真实体会。关于部署环境,网上很多人都在推用 mac mini 或者去租个云电脑, 但我的结论是大可不必。我目前的最终选择是直接在家里闲置的主力 windows 电脑上装一个 linux 子系统来跑,为什么不选其他方案? 咱们先来盘盘这里面的坑。第一个大坑,租用云服务器。我最初上手时图省事,租了某大厂的云应用服务器,五十八块钱一个月,两盒二 g 内存点点鼠标,确实装的很快,但跑起来你才发现,这配置充其量只能算勉强续命。 你要想让它顺畅的跑起来,起码得四核八 g 的 配置,那月租直接飙到了两百二十块以上。最要命的是,云服务器的限制极其多,比如你想让它科学上网去查点 x 或者 youtube 上的信息,连接会非常不稳定,直接断了龙虾的触角。第二个大坑, 买 mac mini。 听说现在十六 g 内存 m 四 mac mini 的 二手价国内都被炒到了四千块以上。很多人花这笔钱仅仅是为了追求所谓的物理隔离,但这背后的代价太沉重了,你失去了用主力电脑上 ai 编程工具来维护它的能力。你把 opencloud 单独扔在 mac 里, 一旦他哪天挂了,你又不懂底层代码,就得重新回去苦哈哈的查资料排错,对咱们普通人的门槛太高了。所以进入正题,为什么我最后选择在主力 windows 电脑上装 linux 子系统?核心原因有三个, 一,底层兼容。 openclaw 本身跟 linux 是 原配,但如果硬装在 windows 系统里,会报各种离谱的错, linux 子系统完美绕过了这道坎。第二,系统级的环境隔离。装在子系统里的 openclaw 有 它自己完整的权限,除非我在 windows 主系统里特别允许, 否则它是绝对碰不到我主系统里的任何进程和核心文件的,完全能实现环境隔离,非常安全。第三点,也是最核心的,是为了适配我个人的情况。 我的主力电脑是不关机的,平时纯靠各种 ai 编程工具来开发写文案管系统,在 e 盘里积累了一大堆的流程规范文档,我需要 linux 里的 openclaw 能读这些文档来附用技能,还需要它能自动迭代更新。 这怎么解决呢?很简单,利用 linux 子系统的磁盘挂载功能,我单独给它开放 e 盘的读写权限,在风险绝对可控的前提下享受最大的便利。 而且因为我不太懂技术细节,如果子系统里的 open cloud 哪天运行出 bug 了,我可以直接在 windows 主系统里唤醒我的 ai 编程助理,跨系统去把它给修了。另外,只要在子系统里装个叫 vpn k i t 的 工具,它还能直接共享我主系统的代理, 科学上网极其丝滑。当然,这套方案真要落地,还是得解决一些技术细节。比如怎么把子系统那庞大的虚拟磁盘从寸土寸金的 c 盘完美迁移到 d 盘。 又比如,我平时是用 team 模式代理来跑 codex 与 antigravity 的, 跟子系统的虚拟网卡路由重叠了怎么破? 再比如最后怎么配置飞书或者 telegram 给它当嘴巴。不过没关系,以上这些坑我都踩过且解决掉了,所有的解决方案我都整理成了一份标准指令文档,即使你换台新电脑,只要把这份文档喂给你的 ai 编程助理,它就能帮你全自动搞定一切。 我是 cc, 分享那些不吹牛的 ai 实战经验,咱们下集再来扒一扒这只龙虾到底能不能当成 ai 员工来用。

大家好,我是炎陵,对于群里很多朋友私信我关于 open clone 模型配置的问题,我这边做了一个完整的配置教程,解决他家配置上的烦恼。先介绍一下我们大格力用到的几个大模型,第一个是 mini max 二点五, 智普的 gm 五跟 kimi 二点五,还有最新出的前文三点五。关于 open core 的 一个模型选择,主要就是看它一个视觉推理能力,还有思考能力,以及它的一个长文本处理能力,这些模型的所有数据都可以在这边看到。 这里我们以轨迹流动为例,演示第一种配置方式,让我们切到沃邦图 openclo 页面,然后输入 openclo config, 进入配置页面回车确认,然后再确认,然后选择第二个模型设置, 然后方向键下拉到倒数第二个自定义 api 设置, 然后打开我们的文档,把这一串网址复制进去,回车再回车,然后输入我们轨迹流动新建的 api 密钥, 选择 open ai 接口,再输入我们要使用的模型 哦,回车确认,然后这边它需要一个验证的时间,可以看到这里验证成功。在这边输入我们选择模型的名字,然后回车确认,然后选择 content, 我 们再输入 open curl config, 你 就可以看到我们选择的模型在这边会显示了,然后我们测试一下, ok, 这样就配置成功了。轨迹流动这个平台它有很多模型可供你选择,也有很多羊毛可以薅的,比如它的认证会送你代金券,还有其他的一些送代金券的活动。 刚刚说的是平台配置模型的一个方式,我们再说一下模型本身网站的一个 api 的 配置方式,这里以智普 ai 演示一下,登录我们智普的网页,然后在这边添加一个新的 api 命令,复制一下, 然后跟之前一样输入 open clone com 格,进入配置页面选择模型,在这边跟之前不同的是, open clone 里面本身有设置字谱的,然后你只要选择 cd n, 然后输入 api 密钥就行了。 还有最后一种配置,关于阿里百联的配置方式,打开 open curl, 执行这串命令,执行文档,后面的操作就 ok 了,所有的模型链接地址我都放进了我的文档和它们的配置方式,你在里面都可以轻松的找到, 希望可以帮助到大家,也希望大家可以一键上联支持一下博主。好了,那我们下期再见。