听说最近都在养龙虾, opencloud 这玩意儿确实香,但你们算过这玩意儿有多少钱吗?用云端 cloud 跑,一个月几百美金眨眼就没了。你以为是 ai 给你打工,其实是你全家在给 api 供应商打工。 今天教大家一个省钱大招,用 servebay 加上奥拉玛,把龙虾养在本地,让他吃你电脑的显卡,别吃你的钱包,数据全在本地,隐私安全,还不用交月费。这波操作起码帮你省下一部 iphone。 首先环境得稳, open core 比较挑剔,要 node js 二十二,别去官网瞎下,容易把环境变量搞乱。直接打开 serve bay, 在 软件包列表里点一下 node js 二十二,一键安装, 装完在终端敲个 note, 没条件 v 二二出来了,这窝就算搭好了。接下来请主角直接复制这行代码,键盘一敲,等它跑完, 然后执行 openclaw on board install demon, 只要屏幕上跳出 success, 恭喜这只龙虾正式住进你电脑了,这是省钱的核心。 打开 surfbay, 搜 alama, 一 键安装,然后在模型库里像 alama 三 deepsea 这种大模型,看中哪个点哪个,全是免费的。这时候你的 ai 秘书每思考一秒钟,耗的只是你家的电费,而不是美金, 怎么让龙虾吃本地粮?敲这行命令, alama launch open claw, 这一步就是把 open claw 的 嘴对准 alama 的 本地模型,从此它再也不用去求云端的 api 了,自给自足,彻底断网运行。最后 敲 open claw gateway, 看到一八七八九端口跳出来,你的本地 ai 助手就上班了,一定要注意别开公网哦, 不然你家龙虾就成全网的免费食堂了。上个 git 锁,万一龙虾抽风乱改你的配置,直接 git revert 一 键回滚,这就是后悔药。物理隔离, 胆子小的兄弟把它跑在 docker 或者是 server bay 的 沙河环境里,随便它折腾,系统稳如泰山,咱来算笔账, 云端跑一年起码一万块,稳的跑一个月电费顶天几十块,省下这一万块换台顶配显卡或者带家人们吃顿好的,他不香吗?
粉丝29获赞328

opencar 掀起了一波养龙虾潮,那如果本地部署摸不着门道,确实是挺花时间的,为了少让大家折腾啊,我把完整的步骤都已经准备好了,详细的代码分享也都已经放到了评论区,也欢迎加入粉丝群,可以随时提问,一起交流。我们还专门做了开箱即用的龙虾盒子, 插上就能运行,配上这台曙光十六 s r t x 五零六零的配置,本地部署绰绰有余。那么现在跟着这个视频把本地部署一次跑通。 首先准备三个必备工具,分别是运行环境下载工具和 a p i 钥匙。第一步,输入以下网址,进入 node js 官网,下载 node js, 确认运行环境。第二步,输入这段网址,下载 get, 用它来配置通用的 http 协议,安装过程中默认设置都不用改,一直点 next 就 可以了。安装这些软件后,按 win 加二, 输入 c m d, 调出代码框,执行 note 杠 v 命令,只要看到版本号就说明环境准备就绪。接下来输入这段网址,打开智普 ai 平台,注册登录后,在 a p i 管理里新建一个 key, 把它复制下来传到文档里,一会要用在 c m d 窗口输入 get v 也是一样,按下回车键, 版本号出现证明安装成功。继续在 c m d 输入这段代码,按下回车键。接着在 c m d 输入这段指令,按下回车键,等待安装完成后,再次输入这个指令,按下回车键。当看到版本号以后,就说明 opencap 已经成功安装。最后一步, 在 c m d 输入这段指令,按下回车键,选项选择 yes quick start 供应商选智普 z a i 去选 c n。 现在把刚才文档里的那串 api 钥匙粘贴进来。 我选择的模型是 gim 四点五 air, 接下来的机器人对话我也,搜索功能我们可以选择,跳过以后需要了随时可以开。完成以上操作,浏览器就会出现 open club 的 操作界面,那就证明 open club 小 龙虾已经部署完成。 所有的官网链接和代码命令我都已经放到了剪辑和置顶的评论区,遇到任何问题欢迎加入我们的养龙虾群。那由我说,这一次视频对你成功养好了这只小龙虾的,那麻烦大家给个一箭三连。

经过一整天的折腾,不停的调试测试,终于把龙虾和欧拉玛本地部署的大模型链接上了。下面说一下我这次的经验,并不是所有本地大模型都支持龙虾,目前经过我测试,最好用的是千万三, 我本地的硬件最高能支持在欧拉玛里面跑三二 b 的 大模型,但是速度比较慢,所以我下载了一个九 b 的 千万三,先试一下 九臂的千万三在欧拉玛里面可以很快的速度运行,但是在龙虾上反应的速度就有点慢, 而且只能支持本地聊天或者处理文本任务,让九臂的千万三驱动龙虾去打开浏览器都实现不了,也可能是因为我本地部署的大模型太小,有没有哪位部署过比较大的本地大模型的朋友可以说一下使用效果如何? 所以我打算暂时放弃使用本地大模型去动龙虾,去购买二十九元包月的 mini max 的 a p i 来使用 tucker, 量大管饱,关注我,一起交流养龙虾!

之前我们大概现在有三四个小龙虾在跑了,跑完之后呢,全部都去调用的是外网的接口调用的,千问钓的,阿里云也有钓迷你麦钓了很多。然后我想想我们来布一个本地的算力,看看到底他能跑多少。本地的算力核心是为了数卷子, 我们本地的这个算力盒子我们布了三个模型,一个是千问的一百二十二 b 的 和千问的三十五 b 的, 还有一个我们的图形是 模型,这三模型已经报好了,这个盒子呢大概是我数一下一二三四五六七八四八三十二盒的 cpu, 这个是 md 的 一个 cpu 一 百二十二 b, 现在我们也能跑得起来,但是哪个最快,哪个跑的最好,然后我们后续完完全全的测出来之后,再跟大家汇报一下。本地上例有什么好处啊?现在有这么多小龙虾出来以后,不如用本地的上例呢,有一些文件呢,你放在本地它就会很安全, 比如说一些表格,公司自己核心的资料,那你放在本地去做预算的时候,你不会放到外网里,那谁让你大模型给他任何的一个资料,你只要换到大模型,你实际上 你资料就泄露了,那你放到本地算力永远在本地就无所谓了。那当你需要调用外部算力的时候,你再切换到外部算力,哎,这个来回就是弹性的去切换,这点非常好。至于后续的这个盒子到底是性能如何,我们持续关注啊。

如果你一直想安装大龙虾,但总被这样的代码小黑框和传说中高昂的 token 费用劝退,那么这条视频就是拍给你的。 很多人一上来就卡住了。敲命令、搭环境、推模型,光看教程就想关掉了。但现在你完全不需要那种复杂的方式安装,直接用 mini max 的 一键云端部署,几分钟就能把龙虾跑起来。我们首先打开这个网站,然后点这里,进来之后点这里立即部署, 立即开始点一下升级,在这里根据自己的需求选择一个定位方案,然后默认配置。下一步 完成之后,就可以在这个聊天框给你的龙虾安排任务了。例如,我想让龙虾每天自动帮我写好短视频文案,我先让他丰富一下技能,自己安装一些短视频文案相关的 skills。 然后我把自己的文案给到他,让他学习我的风格,又把这两个对标视频的文案给到他,让他模仿里面的内容和开头。等到文案调试满意之后,我让他每天十点定时执行相同的任务。这样一个了解我风格的文案助理就制作好了。最后说明一下重点, 为什么安装大龙虾我推荐用 maxclock 呢?除了安装部署特别简单以外,更重要的是它默认配置好了 mini max 二点五模型。这个模型的优势不是参数有多大,而是性价比很高,真的很适合普通人入门。龙虾的创始人 peter 也推荐过这个模型。

mac mini 暴涨,这纯属是跟风买错了。来讲个硬核知识点,这个叫龙虾的 agent, 它的本质其实是一串 pad 脚本,它不吃显卡, 也不吃本地算力,它真正的大脑在云端 cloud api。 所以 这跟你是 mac 还是 windows, 甚至是一台十年前的破烂笔记本毫无关系。那些加价买 m 四芯片的,怎么说呢,这就好比是吃了顿外卖,非得把五星级大厨请回家里住,太败家了。真正的成本在这里。 toker, 他 每一步操作都在烧钱,省下买电脑的钱去充 a p i。 余额才是正的工具,指在内,算力才是核心,别被硬件厂商收了税。

呃,大家好,今天给大家带来的是在 windows 上可以直接部署的一个无线拓客版的 open curl, 大家也可以看到这是我当前的一个拓客消耗的一个使用情况,基本是没有花钱的。然后这边其实也是前天就已经部署好了,最近部署好在用了,但可能 工作上比较忙,所以没有时间去更新旧使用工具以及去做那个教程的更新。 这边的话我先会先讲一下环境的一个要求,就或者硬件要求的一个情况啊,以及会讲一下那个啊将架构是怎么去实现的。 最后的话可能会讲一下啊,参数里面就这边是使用多款去部署的参数的一些啊,配置是如何去配置的?首先说一下那个环境的要求和那个硬件的要求,在使用那个本地部署的话,其实 如何做到那个无限拓展,其实就是用本地的那个显卡去做那个大模型的一个部署。嗯,本地模型呢,我这边是用的啊,千万的那个三点五九币的一个模型,然后使用的话是使用罗马的一个框架去做一个这个模型的部署。 嗯,这个模型的话是需要那个四点五到六 g 的 一个显存,所以这边建议是需要八 g 以上的一个显存的一个显卡才能去做到一个使用 啊,这边本地部署了是用那个啊 windows 去做部署的 v 十一去部署啊。其次给大家讲一下这个方案的架构是怎么实现的,因为 open core 它其实本身与 我们的 china 就是 频道去做那个通信的话,其实是依赖于公网的一个端口 webshop 的 这个协议端口来去实现的,所以本身是需要有那个公网的一个能力,这边在本地的公网的话,是通过去购买了一个阿里云的服务端, 呃,清江应用服务器部署了一个 mps 的 一个服务端来实现公网的一个端口转发,然后,呃将我们 windows 机器的一个端口进行 open code 这个幺八七八九的端口进行转发。 呃,首先的话就这边也大概说一下,就是本地都可部署了三个服务,对应的话就是这个是用做端口连接服务端并做端口转发以及转访问到对应的那个 open curl 的 一个 getaway 容器, 以及这边部署了一个参数的一个搜索引擎,用做 open curl 的 去做搜索,默认搜索不用那个,呃,默认的那个搜索引擎,因为那个还需要那个 api k 以及它也有每月的一个调用次数的一个上限。 呃,这边的话,呃对应的话是欧朗玛的话是部署到那个宿主机,也就是 windows 当前环境下去实现的。呃,可以大家可以在这边叫 这种方式直接去部署实现的,然后,嗯,这边端口是要改一下的,然后一会也会给大家看一下,就这边其实也对应你需要将那个环境变量去做一下修改,因为需要去实现跨域的一个访问配置, 这个的话是通过环境变量这边的话有一个叫欧拉玛的一个参数, 允许跨域的一个配置以及那个 host 的 绑定, host 需要修改一下,然后它才能对应去啊,让那个 open curl get away 去直接能访问到 啊。最后呢就给大家说一下整个方案中关于那个参数的一些配置以及需要注意的点吧,像简单的那个啊应用的安装我这边就不做介绍,像多壳的这些安装,大家选到 对应的进入官网,进入对应选对应的版本,直接下载,然后点点点的方式去安装就可以了。这饿了吗的话是也是通过那个 pro shop 直接用命令安装也行,通过那个下载那个离线包 安装包的方式来进行。点点点你是一路往下点就行了,用默认配置不需要去做外的一个配置。然后像那个注意一下,就是刚刚说的需要改一下那个 roma 的 那个监听端,监听地址加和端口,监端口可能不用变,就主要是监听地址要改成零点,零点零去 监听所有的那个地址以及的话啊,大家需要一个轻量应用服务器,这个的话就不局限于说阿里云,就各个厂商的都可以,大家自己看下哪个便宜点就可以,自己去购买就行了。主要用做部署那个 n p s 的 一个服务,这个服务的话,嗯 啊,这边也有对应的一个啊,文档说明就使用文档,这个是开源的,就大家可以用其他的软件去实现,也可以,就反正链路流程是通的啊。这边最后的话就给大家说一下整个配置啊,我这边打开一下, 就首先啊多个 compose 的 一个配置,是当前是这样子的一个配置,然后目录的话,我这边是分了三个一个目录啊,对应的话是这样子,首先第一个就 opencode 的 这个服务, 这个的话我们这边做端口映设,这个端口需要跟自己的那个启动命令对得上,启动命令的话是在这里面就这个多个 file, 这里面啊这个端口跟这个端口对应上就行了。 然后以及呃这边的话,大家新进一个 open color data 的 一个目录去保存,就做那个呃映设目录映设,然后以及方便本地去做直接修改。比如说这边当前的一些配置,可以直接那个在本地就直接去修改实现, 到时候直接重启一下容器,就能实现配置上的一些更新。然后这边的话以及第二个服务,就 npc 就客户端连接那个清凉饮用服务器用于转发端口的一个配置。这个的话,呃我我把这个包也直接放上来了,然后通过它让它直接实现多个 friend, 里面直接实现自己复制解压以及对应的安装执行去实现那个呃自动启动 以及打印日期。这个的话需要大家填一下,自己填一下这个啊,那个 k 跟搜物端口,这个的话大家参考这个在服务端去做配置就可以了。这边是 web 端管理里面 进入相应的 web 服务器里面可以去做那个查看到对应的那个 vk 以及搜我 ip 加端口,这个搜搜我的 ip 一 般就是你对应的尽量应用服务器的一个公网 ip, 这个大家自己根据自己的去做配置就可以了。 然后以及这边的话,呃这个这个是不需要去做任何修改的这个插入的一个配置, 然后这边的话,呃或者这个如果大家有需要的,可以那个关注我,那个我给大家新建一个,提供一个我们当前我当前在用的就尽量拥有服务器啊,在资源没达到上限啊,就我贷款没到上线之前应该大家都可以自己先用着,没什么关系, 先跑着用,然后这边的话整体的方案就这样子,其他基本没有什么特别需要注意的。

家人们养龙虾是不是特别耗费? tokyo? 现在机智下呢? open call, 呃,它是真实的去做浏览器自动化和本地的文件驱动,所以说 tokyo 耗费特别大 啊。我这边整理了几个,呃每天可以免费使用上千万 tokyo 的 api k 的 模型。第一个是 open note, 呃,它是一个海外的 a p i 的 聚合网站。 那我们最近呢,每天呃跑了一千万的 tokyo, 然后几百次调用都是完全免费的。 那它现在在那个龙虾的正榜上排行也特别高。对,大家基本上是一个可以看到现在是前四对第四位的视频。然后现在已经呃有七百二十三 building token 的 消耗了。对, 然后下个网站呢,是火山。嗯,火山引擎呢,其实就是自结旗下豆包的一个母平台,它上面支持自结自己的豆包的模型,然后还有集成的 jimmy 以及智普的 gm 系列。 然后呢,那个火山有一个写作奖励计划,大概每天呃你可以花费两百万投屏,然后次再返返回你两百投屏相一直免费。我建议呢,就是用 gatsby v 三零二版本去在龙虾里面进行使用。然后我之前是呃使用一些多包的,包括一点八,一点六等等,目前它的写作奖励计划只知道多包一点八,二点零还不支持。 然后第三个呢,其实是讯飞星辰。对,呃,它其实是一个模型的聚合商,它上面的呃 mini max 两点五加 m 五以及 kimi 的 k 二零五,其实目前都是免费的,不过马上免费期要结束到三月五号。目前的话呢,就是呃千万三点五,它其实目前也是免费的,可以看到。 嗯,目前它没有反馈具体的生效时间,我们可以先用起来,然后这个地方是英伟达的开发商网站。嗯,它提供每分钟四十四的一线模型的调用,比如说智普的 g m。 嗯,毕竟达子赚我们这么多显卡钱,它提供一些面向开发者的免费模型能力,其实我觉得蛮好的,希望对大家养龙虾有所帮助。

最近这个龙虾太火了,就是这个长得像龙虾一样的澳克扣,全网好像都在养龙虾,然后我折腾了半天养了两只,第一只呢是部署在我这个主力机上的本地虾,第二只呢是部署在这个备用机上面的云虾, 然后这一只是本地虾。来吧,给大家介绍一下你自己。 然后这只本地虾的话,我是部署在一个呃 m 三 max 芯片的 macbook pro 上面, 因为我在这个本地部署了一个呃本地大模型,就是前文的这个三点五的模型,然后通过 呃 open core 来调用这个模型来工作。这样做主要是为了首先是省一些算力吧。第二个就是目前阶段来考虑的一个数据安全问题,所以这个龙虾我的目的就是为了让他来处理一些本地的数据,跑一些重复的工作这样子。然后 这只云虾呢,就是部署在这个腾讯云上面的,然后是通过云服务器部署的,其实这台就是跟这个电脑没有什么关系了,他就是一个云服务器,就是为了方便管理他的后台而已。 好,看一下这个大龙虾的这个本地虾,它的作介绍出来了,你看它的身份,运行环境,看它是本地的这个前文三点五的模型,然后它能干什么? 链接是什么?建议怎么使用?一句话总结,其实我也是刚部署完没多久啊,就是它的一些用法可能还需要探索一下, 然后我把他们都接入了这个飞书的聊天机器人,然后这个是本地下的,这个是名下的。来吧,你也介绍一下你自己吧。 这个云虾的话,它是接入了这个云端的 a p i 嘛,所以它可以帮我处理一些需要联网的一些工作。呃,然后今天呢,我也做了一个比较有趣的尝试哈,就是我把它们都拉到了一个群里面, 然后呢给它们分别定义了自己的身份,然后给它们分别安排了任务,比如说,呃, 我让他们就是有任务的时候拆分一下,如果需要网络任务的话,就是这个云虾会帮我来负责,那如果是本地的任任务的话,这个本地虾就会来帮我运作,然后这个任务如果又需要两万,又需要本地处理数据的话,他们俩就会协同来帮我来处理, 然后你看他们的回复哈,是他们已经明白,然后需要联网就云虾来处理,然后如果需要本地的一些数据任务就本地虾来处理, 然后我下面就做了一些啊简单的尝试哈,所以他们也会把任务拆解的很细来分别来处理,我觉得这个也是个很趣很有趣的点,就是他们能呃各干各的, 当然我这也是简单的做了一些小尝试啊,然后我不熟玩就迫不及待的来分享一下啊。你看这个云虾的自我介绍出来了哈,他是一个云端 ai 助手,然后他的定位性格 风格是什么样子,能做什么态度,就基本就是一一些简单的部署,然后,呃,接下来可能我会发掘一些更有趣的玩法来分享给大家。

我的十只欧本卡罗小龙虾跑了整整两个月,烧了十亿的头坑,踩坑踩出了七条血泪经验。百分之九十的人从一开始就把小龙虾给用错了。 一、环境想长期用,必须单独配 mac mini, 七、乘二十四小时跑隔离环境安全稳定比啥都重要。二、模型死磕卡罗的,别骂小龙虾智障,是你没给他装聪明的大脑,贵有贵的道理,结果不会骗人。 三、价值,你电脑能干的,他几乎全能干,他省下的不是钱,是你的时间,把时间拿去健身旅游谈恋爱不香吗? 四、自动化,别梦想,全流程一键自动,龙虾能干百分之九十九的脏活累活,但最后百分之一核心决策必须留给你,为结果负责的永远是人。 五、习惯,从现在起,硬把工作丢给小龙虾,前期磨合再麻烦也要逼自己养成这个思维。六、喷子说小龙虾没用的人扎心,真相只有一个,你手里压根就没有变现的真实业务让他跑。七、未来 今天没养一只本地能跑的小龙虾,等于别人在用智能手机,你还在用诺基亚,别观望了,现在就下水干。

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

啊,现在有些人装了这个 openclaw 又后悔了,说这个 token 花的钱很多, 还有人说一个月工资两万块钱都不够这个玩龙虾的,这个就是属于基本的原理搞错了吧?你去看看 peter steinberg 的 采访,他说的很清楚啊,就是说当然是自己整一个,比如说 mac mini 这样的,或者说 mac studio, mac studio 更好, 他可以下载一个相当足够的一个大模型,然后这个大模型你就在本地调用吗?这个一分钱不花,然后呢,又可以从你的本地的文件系统里头抓一些东西,然后如果说你想 让他帮你到网上,对吧?帮你做这些什么回复啊,或者群之类的,那你也可以做,反正这些都是免费的,那这样子才用的爽嘛 啊,所以说一定要搞清楚这个原理,不然的话你这个花老多钱了,你就看着别人这个一键安装觉得爽,结果安装完了以后,你还得用他的这个大模型 去给他的投肯交钱,那你这个实际上是免费的,是最贵的。另外一个呢,就是说你要搞清楚你究竟的应用场景在什么地方,如果说你真的能挣钱, 那你可能交点投肯费也可以,对吧?你比如说你一个月能进二十万,那你花个两万块钱可能也还行。 所以说很多人就没有这个应用场景,他也搞不清楚他究竟这个龙虾能给他干嘛,就知道什么跟龙虾说我要赚钱,然后给他三千块,他给你挣三万块,恐怕你这个有点那个 一厢情愿了,对吧?我们说一定要找到自己的一个比较好的应用场景,你比如像我就找到一个我自己觉得非常好的应用场景,就是 你比如像我一个班呢?比如有七十个学生,那这个七十个学生我改作业都改不过来,而且说你改完了只是给他一个分数,你能不能给一个学生一个更加个性化的一个评语?包括他哪道题做错了, 甚至他做错了以后,你跟他说看样子你这个地方基础不行,你去有针对性的补强,给你一些附加的资料,这些啊大模型都能够比较轻松搞定,特别像我们计算机,对吧?你给他相应的代码,包括 他教一个程序,大模型能够很轻松的把这个程序给读完,读清楚,包括测试,然后啊给打分,这些基本上都是十拿九稳的。那么如果是这样的话,你看你就要有个龙虾,只要你把这个文件下载到你的机器上, 然后他就调用当地的这大模型就给你去改作业,那你这几十个学生都没问题。而且学生拿到这个报告是不是觉得很开心?这个老师很详细的告诉我 哪些做错了,为什么做错了,我应该在哪些方面提高,然后注意注意要预习复习哪些内容, 这是一个非常高质量的一个教学个过程。所以说搞清楚应用,本地部署,你这个就是一个非常好的养龙虾的一个方式。

近期,太原 ai 智能体欧本科奥龙下凭借本地部署自主操控电脑的能力,成为 ai 辅助开发的热门工具,但底层参数配置一旦出错,就会造成巨大资源浪费。本次核心任务是对应的 tree s d k。 二 python s d k 进行全维度梳理,形成标准化文档与测试脚本。 实际执行中, ai 只完成了目录创建,后续工作全面中断,陷入执行中断、重试的死循环,没有任何有效成果, 却在夜间消耗了超百万级无效 token, 严重耽误进度。问题根源并不是模型性能或工具缺陷,而是两处核心参数被不合理手动配置。一是 context window 上下文窗口手动设为一万六千,远低于模型原声上限。二是 max tokens 单次最大输出 token 手动设为四千零九十六,限制了单次输出长度。配置的初衷是想降低 token 消耗,却忽略了工程化分析最大容量上下文的需求。 s d k 分 析需要读取多文件源码, 记忆目录结构,留存历史结论。过小的窗口反而成了性能瓶颈。 context window 代表模型的总上下文容量,可以理解为模型的短期记忆。一万六千的容量太小,系统会自动压缩数据,导致核心信息丢失,模型记不住项目进度, 只能反复从头开始。 max tokens 控制单次推理的最大输出长度,四千零九十六的限制无法满足工程文档和完整代码块的生成,输出会被强制截断,无法生成完整文件或使模型不断重复请求,这样就形成恶性循环。 上下文不足导致记忆丢失,输出截断导致任务无法完成,两者叠加引发无限重试,最终 token 疯狂消耗, 任务却毫无进展。解决方案非常简单, openclaw 本身具备模型参数自动适配能力,没有手动配置时会自动使用。模型的最大上限,我们只需要删除配置文件里的 context window 和 max tokens 这两个限制参数,保存重启后重新下发任务即可, 效果非常明显,任务效率大幅提升。 ai 可以 快速完成全部工作,精准判断底层通信架构,生成完整的架构分析报告,整理全部 api 接口文档,输出对应的拍丧测试脚本,完成统一配置文件参数。缩线并不是不能用,而是要看场景。适合缩线的场景 轻量级交互,比如简单查询单行代码修改普通问答,或是硬件资源有限的环境,可以降低消耗,提高速度。不适合缩线的场景 工程开发、项目分析、长文档生成、批量代码编辑等复杂任务,这些对上下文和输出长度有硬性要求,强行限制一定会崩溃。核心原则, 简单任务适度缩线控成本,复杂任务放开限制保效率,不要一刀切,给大家一个实用的配置。建议复杂任务直接删掉 context window 和 max tokens, 让系统自动适配。手动配置可以参考 常规工程 context window 不 低于八万,大型项目拉满到模型上线, max tokens 建议设为一万六千三百八十四。如果遇到 ai 失忆,输出截断,任务卡住, token 消耗异常,优先检查这两个参数。最后提醒大家, token 成本要看有效产出率,一次完整执行的成本远低于无数次无效重试的总和,提升效率本身就是在节约成本。

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

今天给大家介绍一个重磅项目, agencic 本地版 manis ai, 让你在家也能用上最前沿的 ai 代理技术。首先, agencic 是 什么?它是一个百分之一百本地运行的 ai 助手,你的所有数据都永远不会离开你的电脑。 这意味着什么?意味着隐私安全完全由你掌控。那它能做什么?帮你操作浏览器?读写文件、编辑代码,执行命令?想象一下,你只要说一句话, ai 就 能帮你完成复杂的工作流程。为什么这么火?十二点三万星,仅用二十天?这是什么概念? gtab, 历史上增长最快的开源项目之一,开发者们用脚投票证明了这个方向的价值。技术层面, agintic seek 基于 deep seek r e 推理模型, 不同于普通的聊天机器人,它具备规划和执行复杂任务的能力。简单说,它不只是回答问题,而是真的能干活。和 manis 有 什么区别?最大的区别是完全免费,完全本地,完全开源。 你不需要每个月付费幺九九美元自己部署一个,想用就用。那普通人怎么用?三个步骤, 第一,克隆项目。第二,用 alma 或 aram studio 运行。第三,安装依赖就能体验了。 门槛确实有,但值得记得点赞加关注,赛博洋切换明天见!这就是 agic 本地 ai 代理的未来正在到来,关注我,带你了解更多硬核 ai 项目!

哈喽,大家好,我是吴亦纶,最近大家应该都被这个叫做小龙虾的东西给刷屏了吧,各大官方都在进推,连央妈都被他震惊到,甚至一度将 mac mini 都炒到了新的价格线高度, 那普通大众也想去体验一下,他需要很高的成本。别着急,轮子找到了一个量化版的本地部署方式,让你我不想投入太多成本的人也可以感受一下这道小龙虾的味道。 ok, 话不多说,跟着轮子看 操作。首先打开这个网站 one club, 在这里咱们可以选择是 mac 还是 windows 系统,点击下载保存,打开咱们下载微键,直接点击运行。 好,这就是我咱们一个安装完成的一个页面,点击下一步这块需要咱们去配置服务商,这块咱们选择自定义,咱们选择 zai, 打开这个 big model 智谱的 ai 开放平台,在大模型语言模型里选择咱们的四点七 flash, 这个模型目前使用它的 api 调用头肯是免费的, 点击 apikey, 在 这里咱们创建一个新的 apikey, 给它随意起个名字就叫龙虾吧。好,创建成功,咱们复制 apikey, 回到刚才的页面, 在这里输入咱们 apikey 模型,选择四点七 flash, 验证 好了,这就是咱们现在目前一个配置完成的样子,点击启动好了,这就是咱们配置完成的一个完整的效果。咱们新建一个对话,跟他对话一下 这块他的名字是因为之前我已经配置过,所以给他起过名字了,我们最开始进来的时候,他会需要咱们给他起一个称呼,然后还有呃他的一个身份,包括你想要的一个习惯,咱们再做一个测试, 然后他制作完成了,咱们去看一下这个游戏的效果啊,在这里 整体效果看起来还是可以的。 那下期呢?轮子会带大家解锁更多的玩法,包括它的完整配置、 scale 使用之类的,那么这期就到这里,大家下期见。

中医也是在本地部署了一个 openclock 本地十四零六零肽显卡十六 gb 的 显存,然后,呃,也装了一些 scuse, 也问了一个同样的天气啊,调了一些它这个执行的一过程可以看一下 阿老最后也成功给到了同样的天气,问一下这个搜索的功能也是可以搜索出啊相关的一个情况 啊。最后我本地部署的这个大模型是同一千问的就是三点五九币的一个模型啊,现在再玩一玩。

这是我刚收到的苹果新款 macbook neo, 用它养龙虾,你觉得靠不靠谱呢? 今天我就用它手把手教大家如何配置 macos 版的 open core, 本地部署步骤呢,很详细,需要一步一步往下看,保证成功。建议呢,先仔细看一遍,再跟着操作。第一步,安装 get 苹果自己家的开发者站点,仔细看,这里 搜索 command line force for xcode, 根据我们现在的系统版本,新的呢是 xcode。 二十六点三,点击箭头,点击安装包,下载到本地后,打开后按提示安装就可以, 直到安装成功。这个时候呢,我们点击右上角放大镜图标输入终端,打开后输入这串命令,看到版本号就是安装成功了。 第二步,安装 homebrew, 我 们需要在终端输入这一行安装命令,提醒一下。接下去呢,出现类似的命令,记得暂停视频,复制后可以在千问豆包等大模型工具问一下,以免复制的时候识别错误。 输入后呢,按回车,他会自动开始安装 homebrew 了,这里会问我们通过什么下载 homebrew, 我 们可以输入一,也就是清华大学这个敲回车,然后会要求我们需要输入开机密码, 输入后直接按回车就可以,这里会问我们是否删除之前这台机器安装的红不入,直接输入 y 回车,他会帮我们自动备份。再接下来呢,我们还要按一次回车开始安装红不入,安装成功后会需要我们再次输入密码,直接输入后回车就可以。 接下来会让我们选择哪个国内镜像,这里我是直接按他提示输入五回车,然后我们等待他安装完成,直到出现安装成功的提示后,我们先关闭一下终端界面,然后呢,在程序屋重新打开它,让配置生效。 这里有个提醒,如果你是 mac os 二六之前的版本,你呢也可以先按照第二步安装 homebrew, 安装完毕了之后呢,再安装 git 就 比较简单了,直接在现在重新打开的终端里输入 pro install git。 回车后呢,它就会帮你自动安装完成了。 第三步,安装 node js 仔细看 node js 官方界面左下角,点击 macos 安装程序,获取后呢,打开安装包,后面按提示安装,直到安装完成。 第四步,安装 open clone, 再次打开终端,输入这个命令回车就可以了,不用管它。再输入这条命令回车,只要输入正确,依然不用管它。之后我们再输入这行命令, 这个时候他会要求我们输入开机密码,回车后他就开始安装了,我们需要稍微等待一下,看到终端里有类似这样的提示,里面的具体数据呢,我们可能会有不同,不用在意。这说明欧邦克洛安装成功了,但是还没完。 第五步,配置 openclore 配置之前,我们需要先输入这行命令,这个命令的作用呢是删除我们本地已经安装过的飞书插件目录,以免后面引起冲突。输入后按回车就可以。接下来还需要输入 openclore on board, 启动 oppco 初识化配置向导,这个时候你就能够看到龙虾的 logo 了。这个呢,有一个官方风险提示,我们要继续只能选择 yes, 可以 用左箭头键选择按回车确认。这里我们只要保持 quick start 模式,直接回车就可以。 这里就是需要我们选择我们的 oppo colo 准备连接的大模型了,基本上覆盖了目前主流的大模型,如果你已经有创建过某个大模型的 api, 就 可以通过上下箭头键选择插播一个大模型 api 密钥配置。 我这里给没有创建过大模型 api 密钥的小伙伴演示一下我自己在用的 kimi 的 mojito ai api 密钥的创建过程。首先是 kimi 开放平台, 然后呢左侧选择 apikey 管理,之后在右侧点击新建给他取个名字,比如 opencore bot 项目,这里选择一个就可以了,然后点击确定,这个时候呢,我们就可以看到密钥了,这个密钥一定要保护好,不要让人看到,要不然被有心的人拿去的话,他用的就是你的额度了。这里不是点确定,而是点击右侧的这个复制按钮。 好,再次回来,我们可以点击程序屋上的终端,这里我们选择刚刚注册的 kimi, 也就是蒙秀的这个敲回车这个位置呢,我们根据实际情况,我们刚刚是注册的国内的,需要选择点 c n, 这个选择好后回车 这里我们因为是直接复制密钥的,所以直接在 face 的 api key 这里回车就可以。 ok command 加微把我们刚刚复制的密钥直接粘贴回车后,我们保持它默认的这个就可以直接回车。 这里会要求我们选择使用哪个聊天软件来通讯。目前呢,我们可以直接用向下箭头选择到最下面的 skip for now, 这里会涉及一些准备步骤,我们可以在视频后面再配置,选择 skip for now 后回车, 如果跳出设置 provide 后,依然先选择最下面的 skip for now。 先跳过回车,这个时候他会问我们是不是现在需要配置 skills 了,我们可以选择 yes 看一下,你用向下箭头键往下看,每一个的后面呢都有详细的场景说明, 如果有你需要的,可以选中它后敲一下空格键,再敲一下就是取消。这里我们依然先选择 skip for now, 反正后面呢还可以配置的空格键选择再敲。回车, 这里有一系列需要我们配置各种平台的密钥的,我们暂时也都可以先选择 no, 如果你的确已经有密钥了,当然也可以选择 yes, ok, 来到这里 hux, 我们也先用空格键选择 skip for now。 回车,这里会跳出一个窗口,我们先选择允许。然后呢,终端这里会问我们用什么方式起用 boot, 我 的建议是 web ui, 对我们普通用户来说也会更直观一点。选择后,回车,这个时候他会自动打开一个界面,这就是和 oppo cola 的 一个聊天界面了,我们可以先和他聊一下,比如我们可以用中文说一句你好,收到他的回复,呵呵,证明我们的配置已经成功了。 原则上来说,我们的小龙虾呢,已经养殖成功了,但是还有一步更重要的,才能够方便我们用聊天软件随时随地的给他下达干活指令。 也就是呢,即使我们在外面,也可以用手机上的聊天软件给他下指令。那么我们用目前口碑相对更好的飞书来举例。第六步,创建飞书机器人。 首先是飞书开放平台,我们可以准备一个个人账号,登录后点击右上角开发者后台,这里呢,点击创建企业自建应用,给他起一个名字描述,这里也随便填写一下, 选择一个图标,或者呢也可以自定义上传一个图标,然后点击右下角创建,这里我们点击添加机器人,暂时点击左侧的权限管理,点击开通权限 搜索框,这里我们输入 i m 冒号,注意这里的冒号呢,是需要切换到英文输入法的冒号的, 这里我们可以把全部都勾选,点击确认开通权限,这个位置有一个提醒,你看一下应用发布后,当前配置方可生效, 我们需要点击提醒这里的创建版本,这里我们输入版本号,按照他的提示,比如一点零点零更新说明,这里呢,我们也可以写上创始人版本下滑,点击保存,点击确认发布。 ok, 飞书机器人创建完毕。第七步,连接 oppo 克洛和飞书, 依然是在终端输入 open core config 回车,这里选择 local, 这里我们选择 channels 回车,然后是选择默认的这个 config link 回车, 这里呢,我们找到飞书回车这个位置,我们得选择 download from npm 回车安装飞书渠道插件这个位置,选择 yes 回车。稍等片刻后,需要输入飞书的 app, 先按一下回车, 之后再是飞书的开放平台左侧,点击凭证与基础信息,点击 app secret 这里的复制键,再是回到终端 command 加 v 粘贴回车,这个时候还要我们输入 app id, 再次在飞书开放平台点击这里的 app id 下面的复制键,然后呢,再到终端 command 加 v 粘贴回车,这里通讯方式选择 web socket 回车飞书这里我们选择 cn 的 这个就可以回车。 是否允许群聊使用?我的建议是选择下面的 open 回车,下一步可以直接用向下箭头键快速下滑到底部,选择 finished 确认配置完成,这里呢,问我们的是配置私信访问策略,这里需要选择 yes 回车之后这个位置,我们可以直接选择 perry 回车,这个菜单里我们可以选择到底部的 continue 回车。 ok, open core 和我们的飞书正式配置完毕。 最后环节,我们在终端输入 open core get away 启用它。再是在飞书开放平台选择左侧的事件与回调,点击订阅方式,这里的按钮 确认是这个默认的长连接,点击保存这里再是点击添加事件,搜索框里输入接收消息,将接收消息勾选,点击添加按钮,再是点击左侧的权限管理,点击开通权限。 搜索框里呢,输入通讯录,把这个获取通讯录基本信息勾选,点击确认开通权限,再次点击右下角的确认,这里依然会看到版本发布后当前修改方可生效的提醒。我们还是点击创建版本,输入新的版本号,比如一点零点一 更新说明,这里呢,我们可以是添加消息,接收能力,下滑到底部,点击保存,点击确认发布。 第八步,与 open core 对 话,我们可以尝试拿起手机飞书,点击开发者小助手下滑,找到我们前面命名的那个应用,点击打开,我们可以给他也发一句问候,比如你好, 这个时候呢,你会收到这样的一个安全配对提示,不是错误,是为了安全起见生成的配对码, 我们只要复制提示里最下面的这行命令,在终端里再次输入回车, ok, 显示配对完成后,回到手机飞书再给他发你好,很快呢,就能够收到他的回复了, 哦吼,正是在我们 mac 上部署完成了 open core, 同时呢,也可以用手机上的飞书,电脑上的飞书,随时随地的给他下指令了。 这就是完整的 macos open core 本地部署教程了,适用所有的苹果电脑 制作,不容易,有用记得点赞分享。接下去呢,还会有如何配置 skill, 如何省托坑等等的一些必备技巧分享,大家记得持续关注。如果大家还想了解如何一键云部署的话呢,也可以留言,需求多的话,我也来做一条详细的教程。