粉丝14获赞73

这是一个龙虾 u 盘,也叫优克洛,我们就说把完整的龙虾包,还有 n、 p、 m 啊,呃,这些等等的这些插件都放在了这个 u 盘里,也就说现在这个 u 盘插在电脑里,或者插在 mac 上 linux 系统里。啊,那现在都是可以直接运行的, 也就是不需要繁琐的配置,那它的这个安全性以及私密性都有所保护。那,那这个就是我的 u 盘,我现在把这个优克洛打开, 然后我这是一台 mac 嘛,我就选择这个 mac start。 那 那现在这个龙虾就可以自己运行,那免安装嘛?也就是免安装,然后直接打开运行,它就会运行在这个,那现在它就可以进入到这个优可拉的配置中心里,那包括像这个配置面板也是直接就是有的。

首先打开 u 盘,如果你的电脑里没有安装 docker, 点击 u 盘里的 docker 安装包进行安装, 然后打开这份使用教程,不懂的地方可以直接看教程。 docker 安装完毕,然后去启动台打开 docker, 这里输入你的开机密码,准备运行 docker, 然后在 u 盘里点击启动,等待一到三分钟, open call 页面会自动弹出,请耐心等待。 点击允许 你的 open call 页面已自动弹出, 现在打开 u 盘里的使用说明文档。 复制 getway token, 点左侧的概述 overview, 在 网关令牌这里粘贴刚才复制的 token, 然后点链接,点击左侧聊天,就可以看你的龙虾对话啦。至此,你的 open call 已装好, 如果不使用了,需要点 u 盘里的停止,然后退出 u 盘就可以了。这里额外说明一下,第二次想要使用小龙虾插上 u 盘,可以从视频的第五十秒按照步骤重复操作即可。


兄弟们,没有想到 oppo klo 竟然可以装到 u 盘里了,它可以离线安装到 u 盘插上就能用,双击安装,专为国内用户打造, 并且它的大小只有两个 g, 也就是说你的四个 g u 盘就可以用,并且它闪烁了,为什么要插入 u 盘?使用 oppo klo, 它解决几个问题,一, xp 打不开,页面下不了,不好下啊,依赖不好装,超时问题,还有复杂的环境配置问题,它的解决方式就是把打包好放到 u 盘插上,能运行,所有人,小白都可以使用,并且呢, 它可以一键安装,内置了国产八个 ai 模型,就这个 kimi 同音、千问智普、迷你 max、 豆包、百度千人翻、小米,一键配置,并且还能接入 qq 机器人, 腾讯的产品大家都知道,受众面很广,七个聊天平台,这个我们看看就好,因为他说即将支持七,这个东西还没有支持,是女装生产率,他配备了五十二个技能,相对于全模型的话,他可能可以用的比较少,只有五十二个。想要王者的兄弟们可以点赞评论私信我。

我相信你一定没有用过这么便携式的龙虾,一定没有用过这种龙虾的吧?啊,我知道大家想装龙虾啊,就是因为可能是就是他,因为他安装比较麻烦啊,下载可能会下载错,然后比较繁琐,现在给大家把这个问题解决了,给大家看一下咱们的便携式龙虾,就是全带在这个一个 u 盘里啊,给大家看一下 啊,咱们先把咱们这个关掉啊,全都关掉,然后把咱这个 u 盘给它弹出啊,咱们把它先全部关掉啊,全部关掉 好,然后咱们把 u 盘拔掉,看一下,这是咱们家 u 盘啊, open club 啊,好,没有问题,现在插上咱们的 u 盘,插上咱们 u 盘,然后咱们直接打开啊,直接打开, 直接一键就本地部署了啊啊,他这个程序会自动运行啊,运行,然后直接就跳转到咱们这个龙虾配置中心了,好吧,然后在这边再刷新一下第一个网页, 这个网页再啊刷新一下, ok 啊,这个时候啊就可以啊,直接进入到咱们这个龙虾页面了,是不是很便捷?好吧,想买龙虾的抓紧时间找我吧。

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

这个是一个龙虾的 u 盘啊,这个优可拉的,也就是说现在有完整的龙虾包在这里面,还有 npm 这些等等插件都是放在 u 盘里,都是放在这个 u 盘里面啊。 呃,不管是放在麦克还是 windows 可以 直接运行的啊,这个系统都可以直接运行,不需要繁琐的一个配置,它这个安全性和私密性都是有所保护的。你看现在打开都可以直接跟他发指令啊,直接跟他对话。

今天大家只需要跟着我的开源教程,复制粘贴我做好的直击源代码的提示词,就能掌控龙虾从安装到卸载中一切事物,直接跳过使用龙虾的自然熟悉阶段,原地完成数码进化,像解锁满血能力,拉满记忆能力,瞬间学会一本书,甚至可以让安全加固也一次完成补齐。 第一步是安装,我们复制这行提示词发送龙虾就会自动完成安装,装完之后就会自动打开龙虾的 web ui 界面,然后我们再打开准备好的安装文档,复制这个提示词,发送之后,模型会帮我们自动安装飞书插件 连接好了,我们验证一下,发一条消息,可以看到已经连接成功了。龙虾工具箱中一共有二十五个基础的必要工具,相当于龙虾的虾钳,但现在刚装好,是残血版。 接下来我们用这个提示词把龙虾的全部能力解封,其实就是让他所有的工具变为可用状态,测试一下,让他用隐私模式打开我们自己的 chrome 浏览器,这个打开了就意味着工具成功解锁。接下来复制这个提示词,我们把记忆能力改成满血版,主要目的是安装一个本地向量模型,解锁所有的记忆功能。 成功之后再打开文档,复制这个记忆参数优化的提示词发送,稍等一下就会提示已经完成,并且要求重启,我们直接发送重启龙虾,这样能力和参数就都是满血版了。 能力和记忆都满血之后,重点就来了,我们让龙虾进行数码进化,比如你想让他秒懂一本书,其实不用一轮轮喂语料,直接复制这行提示词,顺便附上你想让他读的那本书的本地文件路径。发送后稍等一下,龙虾就可以直接吸收这本书的精华内容。 接下来我们测试一个这本书的相关问题,看看他有没有用这本书的思维方式去思考相关的问题,给我们更高质量的回复。从回答可以看出,他已经完全基于书里的底层逻辑在思考。 同理,也可以把你的 cloud 或叉 gpt 导出的个人数据文件丢给他,他就能无缝继承你所有的数字资产,完成终极进化。进化完成后就是安全了,我们虽然无法彻底解决安全风险,但可以做个看门狗等方式给安全做个加固。 用我准备好的这个提示词文件,告诉模型查看文件内容,并按照步骤逐步执行。复制文件路径放在最后面即可。稍等片刻,安全加固就会完成。 接下来我们用自然语言安装和筛选适合你需求的 skills, 你 只需要复制这个提示词,描述你的需求。比如我们说我需要每天自动查看 ready、 热铁摘药,点击发送提示词,稍等一会儿,它会自动去筛选好的 skills 库中去找和安装它。自动安装好了之后,我们可以发个消息测试一下, 稍等一下,他会使用这个 skills。 可以 看到他已经找到了我们指定板块的热帖。上期说的那些需要你自己去注册配 c l i, 掏钱买 api key 才能激活的 skills, 建议大家可以尝试让模型帮你从筛选过的库里找一下,看看有没有能直接跑的。最后,在使用中,大家如果觉得 token 消耗太多,可以用这个提示词发送之后模型会根据你的过往使用情况和 tokens 的 消耗强度进行优化,并不是简单的直接调低各种参数,模型优化完成后就告诉我们,预估可以节省百分之三十到百分之五十, 如果不想用了或者想重新安装,就用这个提示词。一句话,把龙虾卸载的干干净净,所有痕迹全部清除。卸载完成后,我们打开 y b u i 刷新测试一下,看不到界面就是成功了。这期教程,我们把龙虾从安装到满血,从净化到安全加固,全程只用自然语言,没用一行代码的完成了, 文档和提示词都开源免费分享给大家,希望多多点赞收藏,鼓励一下大家。在使用过程中如果还有其他的问题,欢迎在评论区留言交流。

近期,太原 ai 智能体欧本科奥龙下凭借本地部署自主操控电脑的能力,成为 ai 辅助开发的热门工具,但底层参数配置一旦出错,就会造成巨大资源浪费。本次核心任务是对应的 tree s d k。 二 python s d k 进行全维度梳理,形成标准化文档与测试脚本。 实际执行中, ai 只完成了目录创建,后续工作全面中断,陷入执行中断、重试的死循环,没有任何有效成果, 却在夜间消耗了超百万级无效 token, 严重耽误进度。问题根源并不是模型性能或工具缺陷,而是两处核心参数被不合理手动配置。一是 context window 上下文窗口手动设为一万六千,远低于模型原声上限。二是 max tokens 单次最大输出 token 手动设为四千零九十六,限制了单次输出长度。配置的初衷是想降低 token 消耗,却忽略了工程化分析最大容量上下文的需求。 s d k 分 析需要读取多文件源码, 记忆目录结构,留存历史结论。过小的窗口反而成了性能瓶颈。 context window 代表模型的总上下文容量,可以理解为模型的短期记忆。一万六千的容量太小,系统会自动压缩数据,导致核心信息丢失,模型记不住项目进度, 只能反复从头开始。 max tokens 控制单次推理的最大输出长度,四千零九十六的限制无法满足工程文档和完整代码块的生成,输出会被强制截断,无法生成完整文件或使模型不断重复请求,这样就形成恶性循环。 上下文不足导致记忆丢失,输出截断导致任务无法完成,两者叠加引发无限重试,最终 token 疯狂消耗, 任务却毫无进展。解决方案非常简单, openclaw 本身具备模型参数自动适配能力,没有手动配置时会自动使用。模型的最大上限,我们只需要删除配置文件里的 context window 和 max tokens 这两个限制参数,保存重启后重新下发任务即可, 效果非常明显,任务效率大幅提升。 ai 可以 快速完成全部工作,精准判断底层通信架构,生成完整的架构分析报告,整理全部 api 接口文档,输出对应的拍丧测试脚本,完成统一配置文件参数。缩线并不是不能用,而是要看场景。适合缩线的场景 轻量级交互,比如简单查询单行代码修改普通问答,或是硬件资源有限的环境,可以降低消耗,提高速度。不适合缩线的场景 工程开发、项目分析、长文档生成、批量代码编辑等复杂任务,这些对上下文和输出长度有硬性要求,强行限制一定会崩溃。核心原则, 简单任务适度缩线控成本,复杂任务放开限制保效率,不要一刀切,给大家一个实用的配置。建议复杂任务直接删掉 context window 和 max tokens, 让系统自动适配。手动配置可以参考 常规工程 context window 不 低于八万,大型项目拉满到模型上线, max tokens 建议设为一万六千三百八十四。如果遇到 ai 失忆,输出截断,任务卡住, token 消耗异常,优先检查这两个参数。最后提醒大家, token 成本要看有效产出率,一次完整执行的成本远低于无数次无效重试的总和,提升效率本身就是在节约成本。

朋友们,请原谅我用这样的标题,因为我最近刷到了很多视频,都是关于如何卸载 opencll, 我 终于放弃了 opencll 之类的。我想我的粉丝朋友是肯定会比较迷茫, opencll 是 不是要凉了呀?还需要学吗? 我今天本来有三个非常实用的 opencll 技巧要分享,不过在这之前,我还是想先给大家补一个 ai 时代分析信息源的技巧。 永远你都要记住一个真相,这个真相就是自媒体或者博主都是被算法支配的,包括我自己。我也要追流量热点,就好比今天的视频,明明是十分通用的 ai 技巧,我必须包装成跟 openclaw 相关的,否则别人就没法点进来。 而且视觉上要用表达 openclaw 即将走向衰退的标题符合现在的情绪来吸引大家的注意。我其实就是想好好做个教程,但是非得伪装在这样的标题内。没办法,算法为王的时代确实很不容易。 不知道大家有没有看过这张图啊?这是一个技术成熟度曲线,任何事物都会经历过爆火和凉调的过程,经过了这一番洗礼之后,这个事物才会逐渐走向成熟。你可以把自媒体对事物的嗅觉比喻成炒股, 他们会在上升的时候做多,下跌的时候做空。你们搜一下 opencll 卸载这个关键词,在各种视频网站上 就能知道谁是为了流量不惜忽悠你下车。我只是提醒大家应该关注内容本身,忽略标题里的情绪。你只需要用一个标准来判断,就是能不能从一个视频里获得立刻行动起来的动力和方向,如果能让你动起来,就是优秀的信息。 我希望接下来我分享的内容都能让大家动起来。那为什么看衰 openclo 的 观点能引起大家的很大的共鸣吗?我觉得也不是没有道理, 核心的原因我认为有这三个啊。首先第一个,大部分人看不到 openclaw 的 能力边界, 以及大部分人也忽略的他的能力正在飞速的发展。实际上他变化很快的,能干的事越来越多了。大部分博主只是教你怎么去安装,因为他们就没有能力跟上 openclaw 的 变化, 但实际上他每天都在快速的迭代。第二个原因啊,我觉得就是大家可能误解了 openclaw 的 核心循环。什么叫核心循环啊?我之前发了个视频,就教你用游戏的循环来比喻怎么样玩 openclaw, 你 进入了这个游戏之后应该怎么样成长,讲的就是这个意思。 我始终认为啊, open klo 他 绝对不是一个超级机器人,能直接给你赚钱。他其实是一个生存建造类的游戏,你不仅要养成你的龙枪,你还要建设自己的基地,这个基地就是你实现自己商业闭环的基础设施,大家可以去看一看,我之前那个视频讲的非常清楚了。 还有一个问题啊,就是 openclaw 当下的版本真的不适合直接用它创造基础设施,也就是说它不是为 coding 而设计的 agent。 所以 啊,即便你已经目标明确,知道你要什么 skill, 要什么软件基础设施,但如果你用 openclaw 去做,你就会很低效, 尤其你用的还是比较低等级的模型,它效率十分低,上下文的使用也不够的优化它的记忆,反而是拖累软件开发的能力的,所以它完全比不上 cloud code。 所以 很多人用它来做 code, 你 就觉得它能力很弱啊。但实际上是你选错了工具,你更应该选择的是 cloud code, 你 应该考虑是用 cloud code 来做 skill, 做一些流程,而用 open code 来运行它。 但其实啊,这三个问题都是可以解决的,我今天就分享一些技巧来帮助大家解决一三的问题。二、这个问题直接看我上一个视频就已经讲的很清楚了。首先啊, openclaw 的 发展是非常快的,快到你根本来不及学。 openclaw 的 代码库,每天都会有非常恐怖数量的代码提交,每个版本都有海量的更新,那些信息你根本就消化不了。我的解决方案就是让龙虾记住你的代码库,每天更新代码,给我做一个简报。 所以你一定得有一个 github 账号,而且你必须要用这个 gh log in, 你 用它登录一下。接下来龙虾就可以使用这个命令,它可以根据代码的变动来给你总结所有的更新。 还有一个技巧啊,就是让龙虾通过 gh 命令直接搜索过去二十四小时或四十八小时合并的 pr。 你 可以根据它的简报来筛选自己感兴趣的功能变化,再做一个深入的问答。 比如说,我在 x 上发现 peter 说,他说 opencloud 支持类似 cloud code 的 这个斜杠 by the way, 这个功能可以让龙虾在执行任务的时候同时对他问答。哎,这个我就很感兴趣啊, 这个解决了我的一个重大痛点,于是我就让龙虾把这个代码的分支直接合并到了本地,于是我就找了一个版本拥有了这个功能, 当然这个是一个进阶技巧。那如果你有一个长期在思考要解决的问题,对吧?你自然会有一些关键词,对不对?比如说我长期关注 mac 设备的推理速度,我的关键词就比如说有 fix catch, k v catch 之类的, 以及 m l x 这个框架。所以我的龙虾就能在 read it 帮我发现 o m l x 这个加速 mac 设备推理速度的神器。我上次不是发了视频吗? 你还可以让龙虾定期在 github 上搜索你关注的几个代码库,它可以给你定期的 update, 告诉你你关注这个问题是否已经有了解决方案。你关注的这个 pr 是 不是已经合并了? 比如说我关心 opencloud 的 浏览器的使用方法,它就会从海量的更新里帮我发现浏览器功能的最新变化。 换而言之啊,就是我们不需要时刻关注 opencll 的 所有更新,只是让龙虾记住你的偏号,再根据偏号来过滤这些内容,这样你就会有一个发展的眼光来看待龙虾所有的能力变化。 那么我刚说了,我很关注 opencll 的 浏览器功能。其实我一直有一个痛点,就是我不知道你们有没有遇到过用 cloudcode 操作浏览器搜索信息的时候,经常被那种反爬机制给 block 住, 原因就是我一直在用这个 chrome devtools, 也不知道什么时候开始啊,这个浏览器就不能再登录谷歌账号了,会提示浏览器不安全,因此 read it 就 无法登录,就会被挡住。但是你用 openclaw 就 会舒服很多啊,它可以操作浏览器。 但是也有个问题,就是它每次总是打开一个新的浏览器,你还得一个一个网站登录,有点不方便。如果能让它用我自己使用的这个浏览器的这个账号,对吧? session 就 好了。 那前天啊,我就在推上看到了 chrome 幺四六版本带来的新特性,可以让 ai 直接操作你正在使用的浏览器了。于是我就扒了一下 openclaw 的 代码,哎,我发现它居然都已经支持了。 只要你打开远程调试功能, openclaw 使用浏览器的时候给他一个授权,他就能看你正在看到网页,这能干的事就太多了。 所以就是你可以让 openclaw 帮你去看,推他。我们可以让 openclaw 每天定期的扫 peter 发的推,然后从中获取一些关键的更新信息嘛。 也可以让 openclaw 根据我的需要,在 reddit 或者是 x 上搜索我长期关注的问题的关键词,找到线索,找到代码库,给我答案。 然后我就很感兴趣嘛,我就用 gh 命令追溯了一下 openclaw 的 各个版本。在使用浏览器方面,它的提示词是怎么变化的?我发现在三月三号之前啊,它还在推荐使用浏览器的插件模式。到了三月十一日,三点一版本, 他改为了默认使用隔离模式,也就是开一个新的浏览器。到了三点一三版本,他已经明确的不推荐使用插件模式了。 可以看到啊,从以前很难用的插件模式,到三点一版本使用隔离模式,再到最新的 chrome 幺四六版本发布后的三点一四版本,浏览器的功能就越来越好用了,是不是这个道理? 所以总结一下,如果你会用 a i a 智能分析 openclaw 的 每项功能的演进,你就会得出一个结论, 它正在变得越来越强大,越来越好用。所以这个时候,如果你看到一个博主在这个 openclaw 社区如此繁荣的时候,还要教你怎么卸载龙虾,鼓励你下车,我觉得这应该不是坏,就单纯是有点那个,你懂的。接下来我看第三个问题啊, 为什么我说 openclaw 不 适合 build? 如果你看了我上期视频,我们玩 openclaw 的 主要线索就是构建基地,对吧? 我自己都已经实现了一整套的内容制作 pipeline 很多环节都是 ai 加速的,但是这些环节我都是用 cloud code 构建的, 而不是用 openclaw, 因为它根本不是一个很好的编码工具,你让它做复杂的编码任务,一定会有很低的效率,对吧?今早我在录这个视频的时候,我又看到 peter 的 回复,他在回复有一个人在抱怨说这个 openclaw 不 适合编程,他说我马上就要发布更好的编码插件了。 所以以后 openclaw 遇到编码任务的时候,你应该可以直接调用 claw 的 code 或者是 codex 这样的更强的 coding agent 实现,而且这些全部都在 openclaw 的 生态里。但其实我自己已经有了一套方案了, 大家可以参考一下吧,我把它叫 claw in tmax, 我 们来看一下啊,我现在给我的这个 agent 的 奥利一个任务,帮我写一段文字来给大家介绍啊。奥利写了一堆废话,但是我们看这个东西啊, 就是让我把想和做解偶同时构思十个项目,让他们在后台自己生成,这是什么意思呢?首先 tmax 是 一个,它有很多个 session, 你 可以在 tmax 里生成很多很多小弟有点像 client 的 那个 agent teams, 只不过他没有办法通信,但是你完全可以给 agent 的 一布置一个任务, agent 的 二布置一个任务,而你的这个 openclient 的 主线只需要跟用户,也就是我跟我不断的对话,我不断的提需求,他把这个东西分配到这个 tmax 里,然后 tmax 它里面每个绘画都会有独立完成这个任务, 就是这就是什么叫想和做呢?就是阿里作为主线,他只需要调查代码库,他知道怎么做,他满脑子里全部留的是设计, 但任务它交给别人去做,包括检查也交给别人去做,它的上下文就很干净,只有设计它,只有说这个东西对或者不对, 它可以提出标准,这样子我们就把想合作就解悟了。我觉得这就是这个技能我觉得比较核心的点,这样就是比你主线边思考边做,要节省上下文节省的多。但是我觉得可能 openclaw 就 原生会支持这个插件, 当然这个我分享给大家,大家可以自己去先使用,在它还没有出来之前,可以先拿这个试试手。不过还需要注意的是,你最好先装好 tmax 和 clout code, 然后让你的 openclout 去帮你配置,如果你担心 api 交给龙虾不信任,那你就根据这个 skill 的 readme 来自己配置好这个 api 的 黄金变量就好了, 当然这个脚本可能会有 bug, 但你的龙虾一定知道怎么去修复的,你就直接让龙虾修改就行了,随时根据自己的需要去谋改都可以。 不过总的来说,如果有更好的插件,我这种学修的方法就没必要再用了。我自己其实还是更偏好在专业的,比如说 cloud code 里做开发。我也希望大家使用龙虾,把龙虾当作是一个过渡期,用龙虾学其他的工具, 然后希望大家也能学会这整个的这个工具链,比如说用 cloud code 来做代码的任务。好了,本期我介绍了一些如何跟踪信息员,如何用浏览器工具,如何让 openclaw 可以 更高效的写代码。 但我还想告诉大家,我最近也用 openclaw 对 刚发布的这个 ltx desktop 做了个魔改,这是一个生视频的一个工具,这个工具还能剪辑视频,我现在通过这个魔改,让我的小龙虾学会生成视频了。所以下次视频我就给大家详细分享一下 如何用 openclaw 来做一个需要编码的任务,请大家等我的后续更新。好了,以上就是本期的内容了,谢谢大家。

ok, 看到这个视频的朋友有福了,专为小白打造的 opencloud 龙虾的安装教程,主打一个解放双手。 这个时候可能有朋友问了,哎,为什么针对小白啊?无它,因为有流量,请允许我暂时做一波流量的。首先 opencloud 的 这个龙虾,它算是一个 ai 产品吧, chibi gmail 是 不是也是 ai 产品?所以我们想安装它非常简单,直接去问 ai, 但是你直接去问的话,他没法操作你的电脑,不是很烦吗?所以我们需要一个中介,直接在你的浏览器上搜索 ai 编程工具,不管使用国内的还是国外的都可以。 我这里简单举个例子,比如说字节的 tree t r a e 或者是阿里出品的 q 的, 你来到他们的官网,直接点击下载,就是在你想要安装龙虾的这台机器上下载一个 a i d e。 我 这里因为电脑上刚好有 tree, 所以 就用它来演示,然后点击右上角的登录这里呢可能会让你输入手机号进行注册,你注册一下就可以了。 登录之后呢,我们就可以开始安装了,然后我们点击这个,打开文件夹,去选择一个路径,比如说我这里新建一个文件夹,嗯,龙虾, ok, 我 这里呢只是给大家演示,你可以取任何的名字点击打开, 这样呢,我们就进入了这个文件夹里,所有的操作呢都会在这个文件夹里去进行。然后我们来到右边啊,直接让他搜索 opencloud, 然后在本地帮我安装他,然后我们直接回车 这里,我们可以注意到他是在沙盒中安装,那这个不是我们想要的,在沙盒中就比较麻烦了,直接在本地安装拉去远程项目到本地不要沙盒, 因为他在沙盒里虽然安全,但是我们后续添加技能的话是没法去正常调用的。在这个过程中他会询问我们很多次,让我们给他允许,不然的话他没法去运行这个命令。 ok, 好, 已经全部拉了出来,大概过了一分钟左右就帮我们构建好了。下面呢,需要我们配置 api key, 就是 你想要你的龙虾接入什么模型,你去聊天的时候用什么模型来进行处理。它是建议我们手动去配置,因为涉及到敏感的 api 信息。那如果你完全不怕,你可以让它帮我们来配置, 那比如说我想接一个 deep secret 的, 你帮我配置,我用 deep secret 的 api, 然后直接发送给他,我们选择第一个填写 api key, 然后下一个,然后把你的 api key 粘贴进去提交。那这个 api key 应该怎么获取呢?你也可以直接问他,他会一步一步的教你怎么去获取, 他干嘛呢这是?跟卡住了一样,我们直接给他中断,你干嘛呢?帮我安装运行。 ok, 现在已经成功运行了,我们点击打开一下,啊,这里有一个错误,我们把这个复制,然后在盖栏这里粘贴到网关令牌这里连接好,这个时候就正常了,尝试一下聊天。嗯,你好, ok, 有 问题复制一下,直接发送给他,说聊天有问题,让他来帮我们解决,因为 ai 相当于我们的外置大脑,有大脑为什么不用呢?我们必用, 现在他说已经修复好了问题,我们再次尝试好,可以正常回复好,这个是没有问题的,现在安装就已经基本完成了。如果你想要让他做更多的操作,你得教他,你可以做什么? 他这里列出了非常多的能力, ok, ok, 让他帮我们安装一些好用的技能, 我这让他停止现在的 opencloud, 因为我怀疑他运行在沙盒里。然后让他给我一个在本地可以启动的命令,然后我们直接点运行, 这里呢,出现了错误,我们复制一下,粘贴给他占用了,我们先清理一下,然后再次运行,我们刷新, 这样就正常了。我给他贴了一个路径,让他在这个路径下创建一个游戏, 我们看一下这他创建的,而且就是我们指定的位置。如果你在安装过程中出现了错误,你就给他复制截图, 然后发给 ai, 让它来帮你修复。需要注意的是,如果你使用的是自己的 tree, 你 会发现它更新了之后,为了安全,它的命令都运行在沙盒里。所以当我们测试完毕之后,你就要像我这样让它把这个给关闭, 然后给我们一个启动命令,我们点击运行在我们的终端里去直接打开它。整体操作下来应该是没有什么难度的。 以上就是本期视频的全部内容了,如果你遇到什么问题的话,可以在评论区进行留言,如果觉得本期视频做的还不错,或者对你有所帮助的话,记得一键三连点个关注。最后祝各位玩的愉快,我是端锋,我们下期再见!拜拜!

说,技术创新的威力到底有多大呢?这拿来主义到底有多害人呢?欧盟可乐大龙虾这两天就给所有人上了这么一课,一次大版本更新,欧盟可乐就直接把一堆套壳产品给打荡机了。这不是 bug 啊,也不是事物,这是一面照妖镜, 真正的技术创新,它是能推动生态往前走的。而拿来主义呢,就是趴在别人身上的寄生虫。欧盟可乐这次就来了一个全面换代,为了灭虫,他们一共砍了六刀。 第一刀,插件系统重构插件。从以前 n p m 这种露天菜市场,现在强制走可拉哈巴官方商店,所有靠 n p m 野生包呕活的套壳产品当场断粮!第二刀,浏览器控制路径大换血, 老子苦让扩展中继被彻底删除,连 driver 芯片都给砍了,这意味着什么呢?所有靠浏览器扩展 hack 实现自动化的套壳产品瞬间爆错,因为他们根本就没能力适配 c d p 的 套壳产品!瞬间爆错,因为他们根本就没能力适配 c d p 的 新路径!第三刀,沙壳系统的单一多克变成了叉拔式架构, 我们可达把沙盒拆成了可叉八,后台引入 looper shell、 ssh 沙盒远程工作区镜像模式。但套盒产品的沙盒路径可都是写死的,写死 doker, 写死挂载目录,写死生命周期逻辑。所以这架构一变啊,他们就连沙盒在哪都找不着了。 第四刀,插件 sdk 断代升级,新 sdk 换成了 opencloud slash plucky sdk star, 旧的迅迅 api 直接删除无间容层。真正的开发者会迁移代码,而套盒团队呢?他们就没有代码可以迁移。 第五刀,旧环境变量、旧状态目录全部清除,所有 colobot、 multibot 环境变量被移除,旧的点 multibot 的 状态目录也不再识别了。这对真正的工程团队是清理历史包袱,而对套盒团队则是拔掉了生命维持系统。 第六刀,搜索能力全面升级, excel、 tabla 三大搜索工具原生内置,这意味着智能体的体验、提取、抓取能力直接跨了一个时代。但套壳产品的搜索模块基本都是调用一个 h、 d、 b 接口,上游一升级,它们完全跟不上。 所以这次不是一次普通的更新,而是一次技术层面的优胜劣汰。真正搞技术的人,会因为这次的更新而变得更强大,而靠套壳、靠复制粘贴、靠旧接口苟活的人,则会被时代无情的淘汰。 所以啊,我一直说,科技创新不是难,而是慢,拿来主义不是快,而是短命。你不做真正的技术,那你就会被真正的技术淘汰。这次我们可乐只是提前把未来演示了一遍,算是小惩大戒了,希望那些套盒的龙虾能早日觉悟,否则未来就真变成虾皮,只能泡汤了。 这几天谁上街了,大家心里都明白啊,我就不点名了,你们就套吧,为了着急卖点托克,就连这点技术开发的活都不干,人家要再来一回,你们可怎么办呀?

彻底解决龙虾不能操作电脑软件的最后一环。很多人用 openclock 最大的卡点不是他不够聪明, 而是他不会像真正的人一样可以操作电脑上所有的软件。例如你让他明天上午给客户发一条消息, 它可以生成很好的回复内容,但它不能这样操作软件发送消息或者剪辑视频,它可以生成很好的剪辑策略,但是它不能操作剪映帮你剪辑。所以我最近做了一套 openclock 加 rpa 的 联动方案,就是这个 skills, 只要在 excel 配置好什么情况下要用哪些软件操作什么流程, openclock 一 旦识别到对应的任务, 就会自动通过 http 请求调用对应的 rpa 流程完成电脑软件的操作,而且这个操作过程是没有消耗。 tucker 的 总结就是, open call 负责动脑, rpa 负责动手。如果你也需要这套 skills, 可以 跟我要,也可以让 ai 帮你做一个。