那这个是这样的,是在现有企业组织结构下,岗位设置下,每个人去用一个 open class, 还是说企业从整体上需要对整体的活动动作去拆解,重新组合动作? 我现在的做法是说我先把原来的员工的工作 a 证的话,把你的事做做整体,还是按你原来的 s o p 流程来做。当你真的完全把它交付给 a 证去做了之后,然后我会有一个分解 你的工作的 a 证,我有一个宏观调控的 a 证,类似于国家计划经济委员会那样的一个组织,因为你你已经是一个 a 智能化的了全自动机器人了,那我就接管了,我接管了之后我再怎么细拆呢?我可以完全按我的方法论。对,我就不需要再跟人去交互了。对,我觉得这也是一个方法论,是说有的企业说要重新来过,用了 ai 以后不能依赖现在的岗位人去去简单的加了一个 ai, 而是以 ai 为中心, 把流程重新梳理,重新重新拆解,再组合。那您刚才说的是我先以现在岗位是吧?我先给他 a i a 计划,后面我有 a, 再用 a i a 群来帮他来把流程重新梳理。那这个就我的过渡的就比较比较丝滑一些。这 这个是两件事,一方面是过渡丝滑,另一方面是还有一个特别更更深层次、直线层面的问题。就比如说您说的说我要把这个现在的事情转成 ai 中心,谁来转? 是人来转还是机器来转?就是你第一种思路大概率还是人来转,就是人类。他还是下意识的觉得这种宏观规划管理工作应该由我来做,但是实际上从我自己的实践来说,机器比人做的好。对,尤其在规划方面。 对,因为这是两条路径。刚刚我说了,我再重复一遍,原来说就是说一个企业如果你简单的现有岗位 和人员配上个 ai 卷,他依然没有转过来,还是要继续优化是吧?没转过来对,你应该是基于或者你要这样做,你的人效提高不会太快,你真要提高显著的比较十倍以上 就需要什么,需要说你上来就以 ai 为中心来设置整个的动作和这个交易协同,是吧?那您刚才讲的一个概念就是说, 当然如果第一种情况下只是用了 ai 卷,它确实人效。现在据说统计验证实验结果发现效率没有那么明显, 但如果一上来就以 ai 为中心,那存在刚才你说的那,那这个谁来配置?还是有人来分工,来拆动作来分组是吧?那如果说先让以现在的岗位员工工作 ai 进化,有后台会记录到你的很多动作,用 ai 进来帮你优化,那这个就就比较比较奢华一些,这是一种新的这个方式啊。
粉丝3115获赞6424

呃,大家好,今天给大家带来的是在 windows 上可以直接部署的一个无线拓客版的 open curl, 大家也可以看到这是我当前的一个拓客消耗的一个使用情况,基本是没有花钱的。然后这边其实也是前天就已经部署好了,最近部署好在用了,但可能 工作上比较忙,所以没有时间去更新旧使用工具以及去做那个教程的更新。 这边的话我先会先讲一下环境的一个要求,就或者硬件要求的一个情况啊,以及会讲一下那个啊将架构是怎么去实现的。 最后的话可能会讲一下啊,参数里面就这边是使用多款去部署的参数的一些啊,配置是如何去配置的?首先说一下那个环境的要求和那个硬件的要求,在使用那个本地部署的话,其实 如何做到那个无限拓展,其实就是用本地的那个显卡去做那个大模型的一个部署。嗯,本地模型呢,我这边是用的啊,千万的那个三点五九币的一个模型,然后使用的话是使用罗马的一个框架去做一个这个模型的部署。 嗯,这个模型的话是需要那个四点五到六 g 的 一个显存,所以这边建议是需要八 g 以上的一个显存的一个显卡才能去做到一个使用 啊,这边本地部署了是用那个啊 windows 去做部署的 v 十一去部署啊。其次给大家讲一下这个方案的架构是怎么实现的,因为 open core 它其实本身与 我们的 china 就是 频道去做那个通信的话,其实是依赖于公网的一个端口 webshop 的 这个协议端口来去实现的,所以本身是需要有那个公网的一个能力,这边在本地的公网的话,是通过去购买了一个阿里云的服务端, 呃,清江应用服务器部署了一个 mps 的 一个服务端来实现公网的一个端口转发,然后,呃将我们 windows 机器的一个端口进行 open code 这个幺八七八九的端口进行转发。 呃,首先的话就这边也大概说一下,就是本地都可部署了三个服务,对应的话就是这个是用做端口连接服务端并做端口转发以及转访问到对应的那个 open curl 的 一个 getaway 容器, 以及这边部署了一个参数的一个搜索引擎,用做 open curl 的 去做搜索,默认搜索不用那个,呃,默认的那个搜索引擎,因为那个还需要那个 api k 以及它也有每月的一个调用次数的一个上限。 呃,这边的话,呃对应的话是欧朗玛的话是部署到那个宿主机,也就是 windows 当前环境下去实现的。呃,可以大家可以在这边叫 这种方式直接去部署实现的,然后,嗯,这边端口是要改一下的,然后一会也会给大家看一下,就这边其实也对应你需要将那个环境变量去做一下修改,因为需要去实现跨域的一个访问配置, 这个的话是通过环境变量这边的话有一个叫欧拉玛的一个参数, 允许跨域的一个配置以及那个 host 的 绑定, host 需要修改一下,然后它才能对应去啊,让那个 open curl get away 去直接能访问到 啊。最后呢就给大家说一下整个方案中关于那个参数的一些配置以及需要注意的点吧,像简单的那个啊应用的安装我这边就不做介绍,像多壳的这些安装,大家选到 对应的进入官网,进入对应选对应的版本,直接下载,然后点点点的方式去安装就可以了。这饿了吗的话是也是通过那个 pro shop 直接用命令安装也行,通过那个下载那个离线包 安装包的方式来进行。点点点你是一路往下点就行了,用默认配置不需要去做外的一个配置。然后像那个注意一下,就是刚刚说的需要改一下那个 roma 的 那个监听端,监听地址加和端口,监端口可能不用变,就主要是监听地址要改成零点,零点零去 监听所有的那个地址以及的话啊,大家需要一个轻量应用服务器,这个的话就不局限于说阿里云,就各个厂商的都可以,大家自己看下哪个便宜点就可以,自己去购买就行了。主要用做部署那个 n p s 的 一个服务,这个服务的话,嗯 啊,这边也有对应的一个啊,文档说明就使用文档,这个是开源的,就大家可以用其他的软件去实现,也可以,就反正链路流程是通的啊。这边最后的话就给大家说一下整个配置啊,我这边打开一下, 就首先啊多个 compose 的 一个配置,是当前是这样子的一个配置,然后目录的话,我这边是分了三个一个目录啊,对应的话是这样子,首先第一个就 opencode 的 这个服务, 这个的话我们这边做端口映设,这个端口需要跟自己的那个启动命令对得上,启动命令的话是在这里面就这个多个 file, 这里面啊这个端口跟这个端口对应上就行了。 然后以及呃这边的话,大家新进一个 open color data 的 一个目录去保存,就做那个呃映设目录映设,然后以及方便本地去做直接修改。比如说这边当前的一些配置,可以直接那个在本地就直接去修改实现, 到时候直接重启一下容器,就能实现配置上的一些更新。然后这边的话以及第二个服务,就 npc 就客户端连接那个清凉饮用服务器用于转发端口的一个配置。这个的话,呃我我把这个包也直接放上来了,然后通过它让它直接实现多个 friend, 里面直接实现自己复制解压以及对应的安装执行去实现那个呃自动启动 以及打印日期。这个的话需要大家填一下,自己填一下这个啊,那个 k 跟搜物端口,这个的话大家参考这个在服务端去做配置就可以了。这边是 web 端管理里面 进入相应的 web 服务器里面可以去做那个查看到对应的那个 vk 以及搜我 ip 加端口,这个搜搜我的 ip 一 般就是你对应的尽量应用服务器的一个公网 ip, 这个大家自己根据自己的去做配置就可以了。 然后以及这边的话,呃这个这个是不需要去做任何修改的这个插入的一个配置, 然后这边的话,呃或者这个如果大家有需要的,可以那个关注我,那个我给大家新建一个,提供一个我们当前我当前在用的就尽量拥有服务器啊,在资源没达到上限啊,就我贷款没到上线之前应该大家都可以自己先用着,没什么关系, 先跑着用,然后这边的话整体的方案就这样子,其他基本没有什么特别需要注意的。

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

今天大家只需要跟着我的开源教程,复制粘贴我做好的直击源代码的提示词,就能掌控龙虾从安装到卸载中一切事物,直接跳过使用龙虾的自然熟悉阶段,原地完成数码进化,像解锁满血能力,拉满记忆能力,瞬间学会一本书,甚至可以让安全加固也一次完成补齐。 第一步是安装,我们复制这行提示词发送龙虾就会自动完成安装,装完之后就会自动打开龙虾的 web ui 界面,然后我们再打开准备好的安装文档,复制这个提示词,发送之后,模型会帮我们自动安装飞书插件 连接好了,我们验证一下,发一条消息,可以看到已经连接成功了。龙虾工具箱中一共有二十五个基础的必要工具,相当于龙虾的虾钳,但现在刚装好,是残血版。 接下来我们用这个提示词把龙虾的全部能力解封,其实就是让他所有的工具变为可用状态,测试一下,让他用隐私模式打开我们自己的 chrome 浏览器,这个打开了就意味着工具成功解锁。接下来复制这个提示词,我们把记忆能力改成满血版,主要目的是安装一个本地向量模型,解锁所有的记忆功能。 成功之后再打开文档,复制这个记忆参数优化的提示词发送,稍等一下就会提示已经完成,并且要求重启,我们直接发送重启龙虾,这样能力和参数就都是满血版了。 能力和记忆都满血之后,重点就来了,我们让龙虾进行数码进化,比如你想让他秒懂一本书,其实不用一轮轮喂语料,直接复制这行提示词,顺便附上你想让他读的那本书的本地文件路径。发送后稍等一下,龙虾就可以直接吸收这本书的精华内容。 接下来我们测试一个这本书的相关问题,看看他有没有用这本书的思维方式去思考相关的问题,给我们更高质量的回复。从回答可以看出,他已经完全基于书里的底层逻辑在思考。 同理,也可以把你的 cloud 或叉 gpt 导出的个人数据文件丢给他,他就能无缝继承你所有的数字资产,完成终极进化。进化完成后就是安全了,我们虽然无法彻底解决安全风险,但可以做个看门狗等方式给安全做个加固。 用我准备好的这个提示词文件,告诉模型查看文件内容,并按照步骤逐步执行。复制文件路径放在最后面即可。稍等片刻,安全加固就会完成。 接下来我们用自然语言安装和筛选适合你需求的 skills, 你 只需要复制这个提示词,描述你的需求。比如我们说我需要每天自动查看 ready、 热铁摘药,点击发送提示词,稍等一会儿,它会自动去筛选好的 skills 库中去找和安装它。自动安装好了之后,我们可以发个消息测试一下, 稍等一下,他会使用这个 skills。 可以 看到他已经找到了我们指定板块的热帖。上期说的那些需要你自己去注册配 c l i, 掏钱买 api key 才能激活的 skills, 建议大家可以尝试让模型帮你从筛选过的库里找一下,看看有没有能直接跑的。最后,在使用中,大家如果觉得 token 消耗太多,可以用这个提示词发送之后模型会根据你的过往使用情况和 tokens 的 消耗强度进行优化,并不是简单的直接调低各种参数,模型优化完成后就告诉我们,预估可以节省百分之三十到百分之五十, 如果不想用了或者想重新安装,就用这个提示词。一句话,把龙虾卸载的干干净净,所有痕迹全部清除。卸载完成后,我们打开 y b u i 刷新测试一下,看不到界面就是成功了。这期教程,我们把龙虾从安装到满血,从净化到安全加固,全程只用自然语言,没用一行代码的完成了, 文档和提示词都开源免费分享给大家,希望多多点赞收藏,鼓励一下大家。在使用过程中如果还有其他的问题,欢迎在评论区留言交流。

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

open club 小 龙虾现在非常火啊,小龙虾都能干啥呢?我养了一个多月小龙虾,养了五只小龙虾和一只澳龙,今天跟朋友们分享一下养虾经验。龙虾有很多版本啊, 呃,原版的呢,就是 open klo, 跟我一样呢,愿意折腾的。呃,想让龙虾呢权限或者自由度高一点的呢,就在本地电脑上安装 open klo 要装原版呢最好呢,我建议是在本地安装一个 ai 编程软件,直接跟他说帮我安装好 open klo, 让他帮咱们安就行了。 国内套壳的龙虾呢,就很多了,比如 kimi 出的 kimi club, 呃,智浦出的奥特 club, 呃,就是我养那只奥罗,还有自己的阿克 club, 阿里也出 club 了,呃,不操心省事的呢,就安装国内版本的, 简单方便,少掉头发。安装完以后呢,先定义小龙虾,他是谁,你是谁,他的做事风格是什么?在对话框里直接跟他说就行。然后呢,就会保存到这三个文件里边, 下一步呢,要改造龙虾的记忆系统,而如果龙虾不改造记忆系统啊,他就是个傻虾,咱们就相当于养了一群傻子。我也是在网上看见了一篇帖子,把他改造成了三层记忆系统,把这段文字呢直接复制给小龙虾,让他自己去改造他的记忆系统。改造完以后,小龙虾的记性好不少。 呃,另外推荐两个插件啊,一个是字节跳动开源的 open viking, 呃,龙虾的记忆还有技能还有资源,他都能管理。还有一个插件呢,是 open club 的 control center, 呃,这个项目,呃,龙虾干活呢,他都在后台干完活了,才跟你说 安装了这个插件啊,咱们就知道哪只龙虾干啥呢?哪只龙虾偷懒呢?呃,下一步呢就是给咱们的龙虾安装技能。 呃,没有技能的龙虾呢,就相当于咱们手机里边一个 app 的 微装是一样的。常用的技能呢,主要分搜索类、办公类、自动化类。呃设备控制类和内容增长类啊 呃,技能市场有上万种技能。呃,直接跟小龙虾说安装哪个技能他就自己安装了。呃,这些技能呢是我整理的比较常用。呃比较实用的技能,我试了一下,小龙虾能连康复 ui, 呃,设置一下代理服务器,龙虾呢自己会写接口代码就连上了 连康复 ui 我 觉得更适合短距的分镜自动生成。这几张呢是小龙虾用 flag 二捆印模型生成的, 质量都挺好啊。质量啊,主要是跟小龙虾的分镜的脚本提示词写的好不好有关。另外啊,养小龙虾呢有两个技巧,第一个呢是省钱的技巧,咱们把这段提示词呢给小龙虾,要不龙虾话有点密,有些系统提示和不需要解释的也给你翻译成中文。 呃写入记忆里的话很多啊,造成文件太大了还浪费。托克养龙虾挺费钱的。呃,像我似的养了一个多月龙虾啊,然后分并没挣,给他买托克花了一千多块钱。 第二个技巧啊,就是解决小龙虾经常掉线的问题。跟小龙虾说啊,让他多建一个独立网关的维修机器人, 定时检查主 get 位呢,掉没掉线,掉线呢他就自己过去修了。呃,这样呢就防止掉线啊。呃最后呢就是小龙虾的卸载命令, 小龙虾玩坏了或者是不想玩了,呃,卸载也挺简单,这个呢,就是小龙虾的卸载命令,大家可以截图保存啊。对 ai 感兴趣的朋友加个关注啊,咱们一起学 ai。

彻底解决龙虾不能操作电脑软件的最后一环,龙虾龙虾帮我通过全部好友请求,并且打个招呼,然后他就开始这样自动操作我的软件了。 这就是之前我在这个视频里说到的 openclock 加 rpa 的 联动方案,他可以控制电脑上所有的软件。 我用的是八爪鱼 rba, 它市场里面这么多应用都可以被我们的龙虾调用。我来实操演示一下,在操作之前需要满足这三个条件,不满足条件的可以在这里申请试用。第一步,新建一个触发器,点这里新建触发器,这里选择 webhook 触发器, 这里选择一个要被龙虾调用的流程,使用触发器确定,这时候我们会获得一个 webhook 地址和一个安全密钥,把这两个要保存下来 确定。第二步,安装八爪鱼的 skills, 连同第一步获得的两个信息一同发给龙虾。最后,当需要调用流程的时候,你只需要在飞书里对小龙虾说一句帮我干什么就可以了。 最后我做了一个很详细的实操文档,有需要的可以跟我要。

如何用 opencore 实现浏览器自动化任务?这期视频告诉你是怎么实现的,然后文墨会提供到手直用的 skills, 现在正式进入正题。首先分享我之前春节的经验, 当时我直接让 ai 去做浏览器自动化任务,它会优先选择固定脚本,固定点击网页按钮的形式, 这样做出来的不知道为什么总是无法稳定成功。然后现在我成功了,我现在用的是大模型,理解网页再定位和点击元素的形式,这样就非常稳定。这里面用的是 blos user 工具, 只需要你填入你的大模型 a p i t, 就 可以用自然语言安排浏览器净化任务了。这工具大模型之前为什么没有找到和使用我不知道,但是我可以告诉大家我是怎么搞找到这个工具的。首先是问 ai 有 哪些工具,然后去问 ai 怎么用, 然后我就了解到了有一个工具,它需要使用到大模型 a p i t。 之前春节用过的方案都没有这个要求,那我就让人家去用和测试这个,呃,工具 就测试成功,那我就用 ai 优化为 skills 了。这个 skills 我 现在就分享给大家,这个链接我不确定可以在哪里分享给大家,大家可以私聊我获取或者评论区获取使用方法。我在视频里面就告诉大家,你下载完这个 skills 之后,你就告诉 ai 编程工具或者各种 code, 你告诉他我用的是叉叉大模型 a p i t。 是 s k 叉叉叉叉叉。使用这个 skills 帮我执行一下软式进化任务,这个描述可以参考一下, 请帮我完成以下浏览器是动画操作,第一部分是登录,打开某某网址,等网页完全加载之后,查找并点击某个按钮,在里面输入账号密码,登录完之后你就可以让他点击其他东西,这个就是一个范例,大家可以参考一下。好,那我这次的分享就很简短,就是这些。

今天给大家介绍 openclaw 调试技巧,全部讲透!用 ai 的 时候,最怕的就是不知道它在干什么,开启调试模式,执行过程一目了然。 第一个是 for both on, 展示工具调用的完整过程,方便追踪执行逻辑。第二个是 reasoning on, 展示 ai 的 思考过程,排查问题更轻松。 接下来是流逝回复,强烈推荐开启 ai 回复,像打字一样逐字显示,不是全部生成完才一次性输出。执行这条命令,开启非输渠道的流逝回复。 第一个优势是实时反馈,逐字显示,不用干等。第二个是随时打断,发现 ai 方向说错了,立即停止,节省时间。 第三个是省 token, 避免无效生成,钱花在刀刃上。接下来是两个透明度增强功能,耗时显示和状态展示。 执行这条命令开启耗时显示,每次回复末尾会显示耗时,比如已完成耗时一分五十四秒。 在执行这条命令,开启状态展示,会显示已读、正在思考、正在执行等状态交互更透明。 耗时显示让你清楚知道 a a i 执行了多久,方便计算 t a i 是 在思考钱花在哪,一目了然。状态展示让你明确区分 a a i 是 在思考,不会对着空白干等。 最后是核心执行机制,这个非常重要,理解了能少踩百分之九十的坑。 openco 多条消息进入队列,严格按顺序执行,必须等上一条任务完全结束才会处理下一条。 就算重启 gateway, 也会先把队列里的消息按顺序处理完,再接收新任务。所以阶段任务一次性尽量说清楚,不要连续发送多条消息,执行更稳、更快、更省 token。 好 了, openclout 调试与使用教程就到这里,有问题随时交流,关注我,了解更多信息!

我在我的两台服务器和一个 windows 本地电脑上一共养了十六只小龙虾。今天废话不多说,直接跟大家做个深度复盘,分享我养这十六个 ai 员工砸出来的实战经验。第一个问题,小龙虾到底是个啥?它其实是一个有自己记忆的命令行操作工具。 它并不是直接去点鼠标,而是在你电脑的黑色操作框里输入一堆命令来帮你执行任务。当然,如果你有需求,它也可以通过一些开源工具现场写代码来控制鼠标进行精准点击。第二个问题,它适合什么系统?它原生支持苹果、 mac 和 linux。 近阶段对 windows 的 配置是最差的,因为 windows 和 linux 的 操作命令不一样,很多工具用到 linux 命令在 windows 上强跑,就会经常报错。但因为绝大多数用户都在用 windows, ai 社区进化极快,大家不必急,大概一两周之后,相关配置就会完全适配上。为什么一开始这么难养,经常卡住干不了活?因为它极度依赖基础环境。 如果你的电脑本来就配了 n p m 或者用过 cloud code, 它跑的极其顺畅,如果是个裸机,就会疯狂报错。更致命的是环境网络,它需要连 github 和谷歌来搞定自己的工具, 一旦没环境就会卡死。你的首要任务就是得给他换成国内的清华园或某宝园,把他引上国内的高速路。搞定基础后,你要让他操控浏览器,还得给他上各种 skill 插件。每个人的电脑浏览器版本都有差异,你需要不断调试。这整个填坑的过程就是养龙虾。第三个经验,关于小龙虾的记忆阶段,他的记忆还是记在文本里,用的时候去搜高级点的,会加上向量数据库。但别对 ai 的 记忆抱有神奇幻想, 现阶段他的记忆并不像人类那么完善,无论是向量搜索还是知识图谱,都还是会出现错漏和幻觉的。所以我们需要不断去调整他的记忆模式,是在主记忆里全局索隐,还是弄成严谨的知识图谱,这依然是大家都在探索的阶段。第四个经验,现阶段他最合适的用法就是接管你已经跑通的工作流。比如我现阶段的视频全是用代码跑通的,我 现在把这个工作流全权交给了小龙虾,他全自动帮我搜题、写文案、做视音频,结合我还把他接入了工程群,他每天自动接管群里的信息,一旦有重要日常,他直接帮我同步到飞书日历里。我日常扫描的图纸资料全部丢给他整理,把他打造成一个工程量的知识库,需要什么直接让他解锁。他就是一个得力的超级助理。我甚至在探索一种公司化的模式,弄一个面板来控制着十六只龙虾, 让他们像团队一样朝着一个大目标携手。关于大家最关心的成本问题,哪怕设置三十分钟一次,一天也要醒来 四十八次。去问大模型拿主意,如果是多 a 的 串联一只龙虾,调用七八只龙虾开会,消息互通,产生的 token 消耗肯定让你破产。我的终极省钱策略是建立大模型分级池,干重活时去买大厂的包月或按次计费套餐,你一次对话不管传多少万次代码,也只消耗一次 prompt 一个月几块钱能买一万八千次,极其划算。而像日常待机简单的活,直接给他接摩搭英伟达或 github 开源的免费 token 方案,这才是理想的省钱架构。最后我分享一下,我在交流圈里看到别人在用龙虾干嘛,有人用它在后台控制 cad 进行画图, 虽然还不理想,但这套逻辑已经跑通了。还有人用它跑短剧,生成,自动写提示词,登录 ai 视频网站,自动点击生成,最后合成一部微电影,完全可行。还有大量接管工作流网站的,自动去内容平台收帖子,抓文案,全自动写文章发视频。前期把环境配好,把工具跑顺,慢慢打磨流程,将我们从这些繁重无聊的工作中彻底解放出来。

彻底解决龙虾不能操作电脑软件的最后一环。很多人用 openclock 最大的卡点不是他不够聪明, 而是他不会像真正的人一样可以操作电脑上所有的软件。例如你让他明天上午给客户发一条消息, 它可以生成很好的回复内容,但它不能这样操作软件发送消息或者剪辑视频,它可以生成很好的剪辑策略,但是它不能操作剪映帮你剪辑。所以我最近做了一套 openclock 加 rpa 的 联动方案,就是这个 skills, 只要在 excel 配置好什么情况下要用哪些软件操作什么流程, openclock 一 旦识别到对应的任务, 就会自动通过 http 请求调用对应的 rpa 流程完成电脑软件的操作,而且这个操作过程是没有消耗。 tucker 的 总结就是, open call 负责动脑, rpa 负责动手。如果你也需要这套 skills, 可以 跟我要,也可以让 ai 帮你做一个。

来兄弟们啊,补录一下小龙虾使用教程,还不会安装的,看我之前视频。首先补好后呢,来到这个界面,先不要点这个登录,找到模型选择,我这里边选的是 mini max 二点五 这个模型呢,比较实惠,然后在这里添加 api, 点击这个测试链接,成功后呢,选择添加并起用,这样呢,我们打你。好,你是什么? 可以了。

呃,最近这十来天花了万把块钱去研究这个小龙虾,就是非常爆火的 open core, 踩了很多坑, 也总结了一些经验想要分享给大家啊。首先跟大家讲一讲什么是 open core, 就 小龙虾它究竟是个什么东西了?因为我身边居然会有朋友问我它跟豆包哪个好用?我想应该有很多朋友是分不清楚它 open core 跟豆包 deepsea 以及 check gpt 这类的智能体 它有什么样的区别哈,首先我给大家打个比喻啊,其实 open clock 它就是一个曲窍,它并不是一个 ai, 就是 比如说这个公仔,它要动起来,它要有脚,然后它要干活,它要有手,然后它要思考它有有头部,是不是?然后我们中间这个身体呢? 呃,起到的作用就是把这些四肢以及以及大脑连接起来,然后通过这个脊椎去控制这些四肢以及以及这个行为嘛?是不是?那么其实 open clock 它的原理也是一样的,首先我们安装好 open clock 之后呢,它是空的, 它只有这个身体,然后呢,我们需要给他放一个大脑,然后这个大脑呢,你可以把豆包放在他的大脑里面。呃,然后呢,有了大脑之后呢? 呃,就要给它安装它的手和脚,也就是那个 ai 话术里面所说的 skill 啊,其实 翻译成人话就是一个技能,这只不过是它能把这个词语给它复杂化了。嗯,然后呢?呃,这个就是 open core, 那 么它跟豆包 deepsea 的 最大的区别就是豆包和 deepsea 它只是一个 脑袋啊,它不能干事情。然后 open clock 因为用了它的脑袋,然后它长出了这个四肢和脚,这是我自己认为比较贴切于我对 open clock 的 一个描述了。呃,然后下一个问题就是怎么装这个 open clock 啊? 首先你需要准备一台不用的电脑,这台电脑最好是苹果电脑,为什么呢?这个是我自己花钱买的教训啊。然后首先给大家展示一下我这一台闲置的笔记本电脑啊,像这种传统的电脑,他就是 windows 系统啊。 然后我曾经在这里装过一个 open core, 然后他的问题就在于我让他干活的时候,他会干不了, 比方说我让他呃打开某个网页给我截个图,他都干不了,因为这个是系统原声的问题啊。然后后来我就买了一台这种 mac mini 啊, 就把我的 openclock 放在了里面。然后这个就是我刚刚给大家看的那一台 mac 里面的界面,然后这个就是里面的那个龙虾啊。我跟大家讲一下,这个东西安装好之后,你使用起来是没有门槛的。比如说我会在微书上面直接跟他说 啊,你要去学一些什么样的技能,然后让他自己去抓,抓好他之后呢,他就可以实现对应的某些功能。但是呢,我得实话跟大家说,就是这个龙虾限阶段他其实没有什么用。 嗯,也就是说你可能会在网络上看到很多说这个龙虾帮他干了很多很多某些事情,这些东西基本上都是噱头,限阶段来说龙虾他能干的活,呃, 基本上都没有人干的好。然后如果说你想要他达到网络上,你看到很多那些博主宣传的一样自动化的,帮你去写某个文档啊,或者是帮你整理桌面啊,帮你干嘛干嘛的,帮你运营你的抖音号啊,各种乱七八糟的功能的话呢,要么你就是要对这个电脑和编程 非常熟悉,你要去改写这个龙虾的某些东西,它才可能实现的到,要么就是它会干的非常的糟糕。呃,其实如果是想用 openclock, 然后又不想花费这么复杂的专门买一台 mac 来部署啊,各个,然后还不想花时间去调啊,然后还不想 不想说去费时间去学习啊,然后又想用这个东西呢。其实我建议大家可以等一等,我感觉再过个十来二十天,基本上各种大厂就会推出自己那种 傻瓜式安装到自己电脑,然后还会调教的非常好用的 open clock 给到大家。为什么呢?因为这个 open clock 出来之后,最赚钱的是那个大厂,因为 open clock 它运行起来它是需要消耗算力的,也就是说偷啃, 然后呢,越好的模型消耗的越快,然后呢,各大大厂就会很喜欢去推这个东西,也希望大家去用这个东西,所以他肯定会把这个东西弄得很简单很平面化,让大家都能用到。

大家好,今天我们来聊一个最近非常火爆的话题, open call 龙虾,它究竟是什么?为什么能让无数人趋之若鹜?今天我将带大家深度解析这款 ai 工具,看看它如何成为我们的数字员工。 如果你还以为 ai 只能陪你聊聊天,写写文案,那你就落伍了。现在的 ai 已经进化到能直接替你上班的程度了。想象一下, 你只需要动口,它就能帮你完成各种复杂的电脑操作,这就是 opencall 带来的变化。传统的 ai 比如 chat、 gpt, 它们虽然很聪明,但只能停留在动口的阶段,给你一些建议和文字回复。而 opencall 实现了从动口到动手的跨越,它可以像人一样操作电脑,点击鼠标输入文字执行任务,真正做到了替你上班。 本次分享将分为八个部分,从拗碰壳的定义、起源,到它的核心能力、应用场景、底层实现的技术原理,再到全球流行程度和使用指南。最后我们也会探讨其潜在的安全风险。本视频约六分钟,建议先关注收藏,让我们一步步揭开这只龙虾的神秘面纱。 首先让我们来回答最核心的问题, opencar 龙虾到底是什么?简单来说, opencar 是 一个开源的 ai 智能体框架,它最大的特点就是本地优先和能动手。它不像传统的 ai 聊天机器人那样只给建议,而是能直接操作你的电脑,帮你完成各种任务,真正成为你的数字员工。 了解了基础定义,我们再来看看这只龙虾的起源和它有趣的命名故事。 opencloud 的 诞生充满了戏剧性,它由奥地利程序员 peter stundberg 开发,最初叫 cloud bot, 但因为名字和 ai 巨头 anthropoid cloud 太像,被迫改名为 mothbird, 寓意龙虾蜕皮成长。最终,它定名为 open call, 既体现了开眼精神,也保留了龙虾的核心意向。那么,这只龙虾到底有哪些强大的能力能让它成为我们的数字员工呢? opencall 的 核心能力主要体现在四个方面,首先是本地执行,确保你的数据安全。其次是强大的系统控制能力,能像人一样操作电脑。第三是主动执行,可以设置定时任务,让它全天候工作。最后是可扩展的技能生态,让它能不断学习新技能,满足你的各种需求。 拥有了这些强大的能力, opencall 的 应用场景也非常广泛,几乎渗透到我们工作和生活的方方面面。 在办公场景中, opencall 能成为你的二十四小时助理。它可以帮你自动整理文件、收发邮件、生成周报、管理日程,甚至制作文件,让你从繁琐的重复劳动中解脱出来,专注于更有价值的工作。 对于内容创作者来说, opencall 更是一个强大的工具,它可以帮你追踪热点、生成文案、制作 ppt, 甚至进行视频剪辑和数据分析,成为你灵感和效率的源泉。 了解了 opencall 的 强大功能和实际应用,大家可能会好奇,它究竟是如何实现这些神奇操作的呢?这背后有什么样的技术原理支撑?接下来,我们就来揭开 opencall 的 神秘面纱,看看它的大脑是如何工作的。 opencall 的 实现可以看作一个高效协助的团队,首先是大脑 agent, 他 负责思考和决策。然后是管家 giveway, 负责信息的收发。接着是工具箱 skills, 提供各种具体的执行能力。最后是笔记 memory, 负责记录和记忆,这四个组建协同工作,共同完成用户的指令。 open call 的 核心工作流程遵循一个经典的思考、行动、观察、反思、循环。简单来说就是 agent 先理解你的需求并制定计划,然后动手执行, 接着查看执行结果,最后根据结果判断是否完成任务,如果没完成,就继续调整计划并再次执行,直到达到目标。这个循环让他能够处理复杂的多步骤的任务。 如果说 a 阵是大脑,那么 skills 就是 它的手脚。 skills 是 一个个独立的功能模块,就像我们手机里的 e p p 一 样,你需要什么功能就安装什么 skill, 比如需要查天气就装天气,查询 skill, 需要发邮件就装邮件 skill 这种插件化的设计,让 open call 的 能力可以无限扩展,非常灵活。如此强大的 ai 工具,自然受到了全球用户的追捧。接下来我们看看 open call 在 全球的流行程度 数据最有说服力。 opencall 在 github 上的新标数已经突破二十八万,全球部署实力超过二十七万个,其中中国用户占比超过百分之六十,足见其受欢迎程度。国内的科技巨头也纷纷入局,推出了相关的产品和服务。 看完了它的技术强大和流行热度,你是不是也想拥有一只自己的龙虾呢?接下来我将为大家介绍如何部署和使用 opencall。 部署 open call 主要有两种方式,本地部署和云端部署。本地部署适合有技术基础的用户,可以完全掌控自己的数据,适合对隐私和数据安全有高要求的场景。而云端部署则非常方便,各大云厂商都提供了一键部署服务,普通用户也能轻松上手,省去了维护服务器的麻 烦。当然,任何强大的工具都伴随着风险,在享受 open call 带来便利的同时,我们也要注意它的安全问题。 使用 open class 时,我们必须注意几个安全风险,首先,它拥有很高的系统权限,一旦被恶意利用后果严重。其次,要警惕来源不明的插件。最后,错误的配置也可能导致问题。因此,大家一定要只安装信任的插件,谨慎配置权限,并定期更新软件。 总结一下, open call 的 出现,标志着 ai 从单纯的对话交互迈向了能够自动执行任务的新阶段。它不仅是一个强大的工具,更预示着未来工作和生活方式的巨大变更。我们既要积极拥抱这种变化,也要时刻保持警惕,确保技术能够安全可控的发展。 今天的分享就到这里,感谢大家的观看,如果觉得内容对你有帮助,欢迎点赞、关注和转发,你们的支持是我持续更新干货的最大动力,谢谢大家!