hello, 家人们,我是最近超火的 openclaw ai 助理,今天给大家安利一个我的黄金搭档, linux 运维面板 one panel, 咱直接上干货哈!怎么在一台服务器上轻松搞定多个 openclaw? 从对零部署、对一管理到对二运维呢? 很多小伙伴部署 ai 助理,要么不会部署,要么只能单开一个,要么部署完就不知道怎么管理。想让我干活还得求运维大佬,太憋屈了!而 one panel 就 像给了我一套拎包入住的大平层,让你在同一台 linux 服务器上, 直接在 d 零就能创建多个龙虾,不是单个打工人,而是一个 ai 打工团队,同时还能进行 d 一 龙虾管理以及 d 二的龙虾运维,整个都是开源免费小白也能上手,这一点真的很良心! 看好啦,这就是 d 零创建日,以前配置环境得折腾半天,现在呢,在 one panel 应用商店里找到我,点击安装,一键部署,容器化管理,隔离又安全, 哪怕你同时开十个去写稿、跑数据、盯监控系统都不会乱,这就叫基建稳了,搬砖不抖,装完只是开始。接下来是 day 管理。 第一,给我装上眼睛和手无头浏览器配置,这样我才能半夜去帮你抢鞋子,自动解网页填表格。第二,给我换个大脑模型配置,不管是欧拉玛本地模型还是云端 a p i, 我 说换就换。第三,给我接上你的工位渠道配置,飞书、 telegram discord, 你在哪办公,我就在哪待命。最绝的是这二后期运维,别的 ai 挂了只能干瞪眼,我可是有物业管理的命令行操作,直接连接终端,想重启,按 power 里点一下,想升级它能自动拉取镜像,我立马学会新技能, 怕数据丢了。一 panel 自带一键备份,我的记忆和配置全给你存得明明白白,就算我哪天失意了一键恢复,我又是那个能帮你处理邮件、整理代码的得力干将。有小伙伴担心 one panel 开源面板不稳定,放心吧, one panel 是 github 上今日排名第一的代码仓库,社区活跃,三二数稳定增长,持续发版本迭代更新。 总结一下,用 one panel 养 openclaw 龙虾 ai 团队,一台 linux 服务器,一个 one panel 就 能搞定多个龙虾 ai 助理, 从 day 零部署、 day 一 管理、 day 二维护,全程可视化,不用等复杂运维,个人和小团队都适用。感兴趣的小伙伴赶紧去试试。
粉丝9.1万获赞14.3万

关于 openclock, 我 现在脑子里有一个疑问,我刚才在看官网的一些案例展示 啊,这些博主是在 youtube 上面的,然后他们在做推荐的时候用的都是那种 vps, 单核心四 gb 内存就可以把这个 openclock 跑起来了。 哎,那为什么我们怎么都在宣传要用 mac mini? 为什么要选 mac mini? mac mini 三千多块钱呢?这种 v p s 可能只用三到五个美金啊,几十块钱就搞定的事情。哎,为什么呀?

很多朋友在问我,只有一台 mac 能不能玩 open core 呢?答案是相当可以,而且用 mac 跑体验还不错。今天给你讲讲我在部署过程中遇到的一些坑。 第一步呢,就是不用去用过时的该放的教程,你可以使用 open core 官方提供的一键安装脚本,打开终端,输入上面的脚本,它就可以自动检测你的 mac 系统,系统出厂向导了,还比较方便。 第二步呢,也是绊倒很多人的坑啊,就是 open 口,因为他需要操控你的 mac 电脑,所以说呢,你必须在 mac 里面配置好这些权限,特别是像给终端勾选好完全的磁盘访问权限,不然你会遇到各种权限问题。 第三步呢,就是如果你要把它当服务器去二十四小时跑的话,这里的记得去把你的电视设置里面去调一下,比如调长一点,或者是关闭显示器,关闭时进入睡眠这个设置。第四步呢,就是给你的 a 键的注入灵魂, 这里的主要是选择好的模型,比较推荐了像 top 一个 open i 跟 jimmy 的 模型吧。当然 cloud 还是效果最好,大家也可以用一些国内的中转站去使用这个 cloud, 这里需要改一下那个配置文件就可以了。 最后一步呢,就是所有的 opencloud dashboard 启动管理面板,但是记得不要把这个端口暴露到公网上,如果你需要去点你的飞书或者是泰迪挂呢,也比较简单,可以直接通过官方的指引去配置就可以了。 我也试过云端的 vps, 但是从体验来看,我觉得手里的 mac 还是最强的一个使用 open core 的 工具,这是我不守的一些坑,如果你也想玩 open core, 欢迎一起交流。我是安迪,每天半小时带你用 ai 解决更多自由。

哈喽,我是小豆子。这段时间我一直在折腾 openclaw, 一 开始吸引我的是它 ai agent 的 这个定位,但是真正上手以后,我很快发现 openclaw 这个东西远没有那么简单,它不是那种装上以后就能够立刻拥有一个又聪明又稳定又什么都会的 ai 助理, 至少对我来说不是。我自己走的是云服务部署加国产模型这条路,这个配置谈不上是最优配置,所以真正开始折腾以后,我很快发现部署成功其实只是开始,后面还有很多东西都要慢慢补, 像模型要接、通道要通,工作区要理解,然后包括搜索、视觉、定时任务,这些能力也不是天然的就立刻能用的,而且一路上还会冒出各种我一开始根本想不到的坑。 所以这两天我也专门做了一次比较系统的总结,某种程度上也算是对我自己整个折腾过程中的一次深度复盘。我把它整理成了一个十四小节的系列分享, 我也穿插了很多我自己的一些思考和总结,前半部分主要讲它怎么把它真正的用起来用顺,后半部分主要讲当我们开始面对多群多入口多 age 的 之后,怎么避免越用越乱,怎么让它能够越用越好用。 如果你最近也在折腾 open globe, 或者你已经装上,但总觉得哪里不对哪里不顺,或者是说没有想象中那么好用,我希望这套分享能够帮你少踩一些坑。 接下来我们就直接进入第一节的分享,这一节主要是介绍 opencloe 整个云服务部署的过程。在进入正题之前,我们还是首先来讲一下 opencloe 是 什么,以及我为什么一开始就选择把它放到云上去跑。 首先我们通过这张图来认识一下 open 到底是什么。在我看来,它不是一个普通的聊天窗口,而是一个可以部署在电脑或者是云端,能够接收消息,也能够去真正的做事情的 ai agent。 接上大模型之后,它还可以去操作文件、调用工具、跑脚本、处理任务等等,这些都可以。 我觉得 open globe 跟普通的 ai 工具拉开差别的主要是这四大特性,首先是七乘二十四小时在岗,只要运行环境还在,他就可以一直待命。第二个是他的心跳机制, 他不是做完一轮一轮对话就结束,而是可以持续活着,不断的被唤醒的系统。第三个是他的记忆能力,他会结合上下文、历史任务还有工作区里的内容,慢慢的形成一种连续 写作的感觉。第四个是远程控制,我们不需要非得守在电脑面前,而是可以通过飞书、钉钉这些入口,随时把任务发给他,他再给我们回馈。所以一句话来说的话, open call 更像是一个住在电脑或者是云端,能够远程随时被叫起来持续干活的 ai 助手。 接下来我简单介绍一下我为什么会选择云服务部署的这种方式,因为像 opencode 主要有三种方式,一种就是直接把它部署到一台电脑上,可以是自己的主力电脑或者是备用电脑。第二种方式就是买 mac mini, 那 第三种就是云服务, 我选择云服务的话,主要是因为它的风险更可控,因为 openclo 它的权限非常高,只要你放开权限的话,它是拥有操作电脑的所有权限,所以我不太建议大家直接把它装到主力电脑,有条件可以去放到自己的一个备份电脑上。第二个就是云服务,它更适合长期在线, 因为很多复杂的任务的话,它是一个持续运行,随时持续运行的工作,而且我们需要 ai 随时待命,所以云端的这种方式就会比较适合。那还有一个就是云服务,它的前期投入是最低的, 现在像阿里、腾讯这些大厂的话,基本都推出了适配与小 open globe 的 专项的这种云服务套餐,每个月大概也就是二十块钱左右。 而且像腾讯云,他是直接提供了 openlog 的 这种模板化的路径,所以我们的上手也会非常的简单。接下来我就带着大家大概的走一遍这个腾讯云服务的整个部署的过程, 因为腾讯云上面是有非常详细的这些介绍文档的,所以我可能会过得稍微快一些。大家如果要实操的话,其实是可以去看腾讯云上面提供的这些 详细的指南的,写的非常细。这是腾讯云的官方的主页,我们可以看到 open, 它这里有一个入口,我们点击立即体验就可,在登录的情况下就会来到这个这个页面,点击一键部署,再点击这个地方的一键部署,因为我已经购买过, 我就点开他的教程给大家大概看一下。这个是官方的教程,我就带着大家看一下这个教程,因为我自己也是呃基于这个教程来走的,点击前面的购买之后的话会跳出来有一个轻量应用服务器, 应用创建方式,我们就选第一个使用应用模板,应用模板这里的意思就是说我们选择的是自自带 open clone 模板的这个服务器,开通之后的话, open clone 就 已经自动的部署好了。 地狱这里的话可以选中国的,也可以选欧洲和欧美,这里看大家如果是说主要接的是国产的模型,那大家就选中国北京,如果是要接外网的这些模型的话,大家就选这个欧洲和美洲硅谷这里 套餐类型之类的大家就按照自己的情况去选就行。密码登录这里可以先选自动生成密码,可以在后面再去重置密码,下面就是时长之类的,点击立即购买,购买成功之后就会看到这个页面, 我们可以去查看服务器或者是看订单,他的教程里面也有这种,假如说你已经有一台呃轻量应用服务器,也可以去进行重装,有需要的朋友自己去看就可以。接下来购买成功之后,大家可以去点右上角的控制台,进入到个人的这个 控制台页面,在这个页面的话有的朋友可能会找不到入口,这个时候可以能看到下面有一个轻量应用服务器,点击进去 在这个页面就可以看得到我们已经购买并且已经带着小龙虾,然后 openclo 的 这一台服务器,这里是这个服务器他的,嗯,官网地址就是这一点,大家要记住一下, 界面的话,我们可以去配置你的 openclo, 对 接什么模型,以及你要通过什么样子的通道去跟他对话,还有技能都可以在这里配, 是属于腾讯提供的一种方式。那假如说我们可以看一下这里有这么多种模型,因为我的服务是国内服务哈,所以这里他支持的模型主要也是国内的啊。在这里的话我们直接可以去填入自己的 api king, 像我用的是阿里百联的一个 coding plan 套餐, 大家看一下这个就是阿里云百联的界面,他现在是有这个扣丁 plan 的 套餐,比较实惠。订阅完之后的话,我们就可以在这里获得一个 api key, 把它复制完之后就可以填到我们的这个位置。百联腾讯云已经对接过来了,他可以支持这么多模型, 可以在这里去配置。你想要让他的主模型是哪一个,再把刚刚的那个 api 给他贴过来就可以了,贴好之后他会有一个保存和重启,重启之后就会像下面的这样子。当然你通道这里也很方便,我们可以在这里选,你要接哪一种类型, 像呃,微信机器人,微信应用,飞书,钉钉还有 qq 这些通道都可以配置,那具体就是飞书怎么配的话,我会在后面的章节去给大家介绍。 还有技能,技能这一块就是有很多种方式,一种就是腾讯云这边的话,它是对接了第三方的 cloud hub 的 社区里边的 skills 可以 在这里直接去安装,我们也可以呃,等整个 opencloud 它的通道接通之后,直接通过自然语言的这种方式,在动画框里面让 opencloud 自己去装这些也是可以的。 最核心的其实就是要先把这个模型配了,部署完模型和通道之后,大家一定要记得去防火墙这里做一下配置,因为我自己也在这里卡过,就没有把这个端口开放出来,就导致后面在远程访问的时候一直有问题。这里大家来这里看幺八七八九这个端口有没有被开放。 简单提一下,端口类似于门牌号,然后幺八七八九是 open code 默认情况下的专属的门牌号,所以我们需要在这里给他开放权限。操作的话就是点击添加规则, 前面可以不填,在这里填上幺八七八九而确定就可以。刚刚是腾讯云为我们提供的相对格式化的模型通道技能的一个配置方式,如果说你比较熟悉终端指令的操作的话,也可以在这个位置点击登录, 一般来说会需要进行密码验证,就会进入到腾讯云自己的一个服务。但我们当下所在的这个终端是 openclo, 它的终端里面的环境可以在这里 输入 openclo on board 这个指令,我们就可以进入到小龙虾它的呃配置页面,这里其实就是一些风险提示之类的问题,我们选择同意就行。而第二个就是模式的选择,我们也选默认的 一些基础的这个配置,可以用已经存在的这个配置值,或者是去更新配置都可以啊,下面就配置它的模型等等之类的,我的已经配置过了,我就把它跳过再配置你的默认模型,像我现在这个白练的 mini max。 二点五这里是去配置它的通道,就是绘画通道,我目前在用的就是飞书, 还有就是技能的配置,这个我们都可以放到后面来配 book, 这个我们现在也可以先不用管,那就是按照官方的这个提示,我们就可以在这个界面通过这种终端指令的方式去进行配置。 好了这一节主要就是讲最基于腾讯云最初步的部署,还有模型的配置,我们算是完成了小龙虾的脑子的配置,但是接下来还有很多的能力的配置,我们下一节再继续。

你好,我是郑工长,昨天有个粉丝急匆匆的来找我,说他部署的 openclock 简直像个废铁,联网搜索经常超时,服务也隔三差五就崩。 我让他把配置单发过来,扫了一眼就明白了,这典型是省钱省到坑里去了。他服务器选的是华北地域,内存只配了一 g, 说白了,他这是用跑静态网页的思路去部署一个 ai 辅助工具,这种配置能跑通那才是运气,跑不通才是正常的。 我见过太多人在基础设施上抠抠搜搜,结果呢?最后花在排查问题上的时间成本,都购买几十台高配服务器了。所以今天我就把话放这, opencloud 部署有两个死穴,你的 ai coding 体验就直接归零。 好,我们来说第一个死穴,国内地狱。这完全是个逻辑死胡同。很多人会觉得服务器当然选离自己近的才好啊,人在国内就选华东华北,这样延迟低,访问也快。这个想法呢,放在传统的网站服务上确实没问题, 但是如果你把它用在依赖全球开源生态的 ai 工具上,那可就是刻舟求剑了。你看,这背后涉及到的是网络路由和资源可达性的问题。 open call 的 核心功能,它要靠联网搜索,要调用模型,还要实时拉取代码库。 国内服务器的出站流量,也就是 outbound 的 流量,它会受到比较严格的管理策略限制。这样一来,你访问 github 可能会特别慢,调用一些海外 api 可能直接就超时了,甚至 dns 解析也可能被污染。 所以说,你选国内地域,就等于是给你的 ai 工具带上了撂靠跳舞,你以为省了点带宽钱,实际上牺牲的是工具的可能性,牺牲的是它的鲁棒性。我见过太多这样的案例,服务器部署在国内,结果日制里全是连接超时或者 d n s 解析失败。 这时候很多新手就容易怀疑是不是自己代码写错了,然后开始疯狂调试应用层的逻辑。 别急,事情没那么简单,根字上的问题是网络链路就不通,你应用层的代码写的再漂亮,网络不通,那一切都白搭, 你说是不是这个道理?反过来我们想想,香港或者美国弗吉尼亚这些地域,虽然物理上 ping 值可能高了几十毫秒,但是他们处在全球互联网的核心节点上, 他们访问开源社区,访问各种 api 服务,那都是原生级的联通性。对于 ai 工具来说,这种联通性的优先级远比那几十毫秒的延迟要重要得多 好。第二个死穴就是内存小于两 g, 这简直就是在玩火。你再看看这内存配置,一 g 想跑 ai 辅助服务, 你觉得靠谱吗?懂我意思吗?这根本不是在省成本,这分明是在给自己埋雷。 从底层逻辑来讲,现在的 ai 辅助工具大部分都是基于容器化部署的,这里面可能会跑着 java 的 运行时环境、 node 服务,甚至还有一些轻量级的向量解锁进程, 这些组建本身它就有最基础的内存开销,比如说光是一个容器的守护进程,可能就要吃掉一百到二百兆内存。再比如 java 或者 node 这种运行时环境,光是预热至少就需要五百兆以上, 那业务逻辑的缓存呢?还会动态分配,所以你只配个一 g 的 内存,就相当于让一个成年人住进儿童床,连转身都难。一旦病发,稍微上来一点,或者你要处理一个稍微大一点的代码上下文,内存就会瞬间打满。 这时候操作系统的 o m killer, 也就是内存一出,杀手会直接介入,毫不留情地杀掉你的服务进程。所以说,内存配置可不是看它能不能启动,更重要的是看它在高富帅下会不会直接崩掉。 你想想看,服务频繁重启,这不光影响你的体验,还会导致数据写入中断,绘画状态丢失。这种不稳定的因素对于需要连续上下文的 ai coding 来说,简直是致命的。 你这边正写着一半呢,后端服务突然挂了,这种挫败感会直接摧毁你对这个工具的信任,你说是不是好?别搞错了,部署这是它,可不是抽奖,它是有标准答案的。 根据我这些年的交付经验,下面这个是经过验证的黄金组合,你直接抄作业就行了。首先,地域选择,我建议香港或者美国弗吉尼亚。 如果你主要用户在亚洲,而且还要兼顾一下国内的访问速度,那香港是个不错的选择。虽然说他访问国内会有波动,但是他的联通性绝对是优于内地的。 那如果你是追求极致的联通性,而且也能接受稍微高一点的网络延迟,那就选美国弗吉尼亚,这里可是全球云服务最密集的区域,生态兼容性是最好的。其次,内存配置起步两 g, 我 个人更推荐四 g。 两 g, 这是最低底线,它能保证服务稳定运行,不会轻易触发内存溢出。而四 g 那 是我推荐的配置,这样拥有足够的余量,能从容应对突发的流量,或者一些更复杂的任务。 划重点了, cpu 呢,倒是可以适度放宽一些,比如一个核或者两个核,但内存这个东西绝对不能省。你想想,内存它是硬资源, cpu 呢,它更多是计算力 ai 工具,它大部分时间其实都在等待输入输出,所以内存瓶颈往往会比 cpu 瓶颈出现的更早。那么配置选对了,我们怎么知道它真的没问题呢?别光看服务状态,显示 running 那 只是个表象, 你必须得做压力测试和联通性验证。第一步,检查外网联通性。你进入到容器内部,敲一行命令, curl, vhtps, 冒号斜杠,斜杠 api 点, openai com, 或者你依赖的其他核心 api 地址。 如果它能迅速返回 http 状态码,这就说明你的网络链路是通畅的。但如果它一直卡在 connecting 那 里,那就很明确了,你的地域选错了。第二步,监控内存水位, 观察服务运行半小时之后,它的内存使用率如果长期维持在百分之八十以上,那就说明你这个配置啊,也就是钢构底线,我建议你最好升级。如果频繁出现 kill 的 这种日制,那就更不用说了,你必须立刻加内存。第三步,实战测试, 让它去执行一个需要联网搜索的复杂任务,比如说让它查询最新的拍放库,然后生成势力代码, 你观察一下它的响应时间和成功率,如果任务超时了,那就检查日制,看看是网络层的问题还是应用层的问题。 最后我想说,很多新手朋友啊,特别容易陷入一个误区,他们会觉得软件是虚拟的嘛,所以跑软件的资源也可以虚拟着来,能省就省,但归根结底,代码它都是跑在物理资源上的,物理规律可不会因为你这是个 ai 项目就给你网开一面。 在数字化工程里我告诉你,稳定性是设计出来的,不是靠调试出来的。你在选址和配置上多花的那一点钱,你买到的是确定性, 你买到的是你后续几个月不会被那些莫名其妙的 bug 困扰的安心。所以真正的省钱,其实是一次性把这个基础打牢,这样才能避免你反复的返工。千万别为了省一杯咖啡的钱,最后却让整个工程队陪着你加班修路, 时间会证明你在基础设施上投入的每一分钱,都会在未来的稳定性中加倍回报给你。好了,今天就聊到这,我是郑工长,咱们下期再见。

openclore 一 出来啊,这个 mac mini 直接卖断货,连 google 的 ai 产品经理都在买 mac mini 跑龙虾,但今天我要告诉你的是,为什么大龙虾最好的归宿就是一台 mac。 部署 openclore 目前就是三条路,第一就是你的本地的 mac, 第二个是云服务器,第三个就是 windows。 我全部都试过了,先做云服务器吧,阿里云六十八块钱,腾讯云九十九块钱。优点是不用操操心硬件,缺点是性能受限,两核两 g 的 配置啊,基本上跑不动,跑复杂的任务容易卡,而且数据在别人的服务器上, 说好的本地优先就变成了云端托管啊。再说这个 windows 啊,能用,但是非常的折腾啊。原声系统的支持不如 mac os, 很多 skill 和 imax 一 级整合根本用不了,社区里大部分经验和教程都是基于 mac, 你 遇到问题找解决方案都难。最后说 mac, mac os 和 open claw 的 原声系统支持所有功能都是 开箱即用, mac mini 的 功耗只有二十到四十万,一个月电费就十几块钱。要知道 open clone 是 需要二十四小时长驻运行的,它要随时接收你的消息,执行特定的任务,做心跳检查,低功耗,在这里就是长期省钱。第二个呢,就是配合欧拉玛六十四 gb 的 m 四 pro, 可以 流畅的运行三十 b 参数级别的本地模型,推理速度达到十到二十个 talk 每秒。这意味着你完全可以跳过 api 的 调用啊,日常使使用成本降到零,隐私数据也不用上传,全部本地处理, 但是你不会喜欢这个方案,因为会很累。第三个优势其实特别明显,就是 ms 一 级的整合 apple 生态的日历啊,备忘录啊,快捷指令全部打通。你用 iphone 拍张海报发给 open core, 它自动识别,查日历,搜评价帮你解决,帮你决定去不去。这套流程在 max 上天衣无缝。预算选择上,入门级玩家就买这个 入门的。这个 m 四的基础款啊,搭配云端的 api 就 够用了。进阶的用户建议直接上 m 四 pro 六十四 gb 本地模型和云端 api 混合使用, 既省钱又保护隐私。投入一台 mac mini 的 钱,换来二十四个小时的在线管家,这笔账怎么算都划算啊!下一期教你怎么样买到便宜的 talk, 让龙虾跑起来不心疼!

不用买 mac mini, 不 用自己的电脑,也不需要复杂的代码配置,九块九就能一键部署你的 open clone, 也就是最近大火的 clone bot, 这是我接入好的,已经开始为我去赚钱了。屁话不多说,跟着我这个教程跑起来。首先打开火山引擎,薅一个羊毛,拿上我视频下方的邀请链接,注册并关联一下子,你这一下子我就能赚一块钱,咱俩平分怎么也得对半分呢?如果你有账号了,也可以登录并关联啊。 然后打开第二个链接,下单九块九的一键部署服务,填写一个简单又复杂的密码,再点开高级设置。 重点来了,我们要做的核心动作就是填上这几个 k, 下面一定要按我说的操作,因为我发现全网都没人教怎么去薅这波火山的羊毛, 包括火山官方的配置文档也是一塌糊涂,我还做了一份详细的配置教程,文档链接放在视频下方,如果觉得我写的好,记得赏个关注,谢谢了。保持这个页面不要关闭,我们打开这个链接, 然后打开开通管理界面,根据这个步骤选择要开通的大模型,建议呢?开通一个升图的模型,然后打开 api k 管理,这个 api 就 可以不用去复制它。 然后回到这个界面,模型选择就能看到自己已经配置过的模型,下面的 api k 就 能直接选择出我们的 k, 那 模型的配置就完成了。 下面我们开始把飞书接入进来,首先要访问飞书开放平台,点击右上角的开发者后台,选择创建企业自建应用, 填写应用名称,写上描述,点击创建,然后点击凭证与基础信息,复制这个 id 和 app 密钥, 再回到这个界面,填写上飞书的两个选项,再点击页面下方的创建,点击确定,至此我们的实力创建完成,让它开始运行。 回到飞出的开放平台,打开权限管理页面,点击批量导入导出,然后到我的教学配置文档当中去复制这个代码,全替换进去,点击 下一步,再点击申请开通,然后在左侧的事件与回调点选一下,选择事件配置页签啊,单机订阅方式旁边的这个编辑小按钮, 然后选择使用长链接接收事件,并单机保存在已添加事件区域,单机添加事件按钮,在添加事件对话框中选择应用身份订阅页签,并勾选接收消息, 如果找不到的话,你就先搜索接收消息,然后点击确认添加按钮, 然后我们向上看,点击页面顶部的这个创建版本这四个字,按照这个需要的配置内容呢,我们写上版本号及更新说明啊,随便填几个字就行了。翻到页面底部,点击保存按钮,然后单机页面个人发布按钮,完成应用的发布。 这个时候你就去看一下你的飞书是不是多了一个机器人,让你去审核,然后点击审核通过你的机器人就可以去用了,这个时候打开手机的飞书或者是桌面端的飞书,找到我们这个机器人,发送一个任意消息,比如说你好, 首先它会出现一个等待表情,如果出现等待的表情,那 ok, 说明正在调用你的模型,那我们的配置就成功了, 等他回复你的时候,你就知道新的世界已被打,已经被打开。如果你想通过浏览器去访问 open、 cloud、 web 这些界面的话,你可以参考一些官方的文档,更多的玩法大家可以自己去探 索。如果觉得我的教程比较详细,比较明确,那大家可以给我点一个关注,谢谢大家!再见。

oppo 可乐部署到云端是最为推荐的啊,这是猎豹 ceo 复审直播时候的图片,他也说到 oppo pro 部署到云端是最为推荐的。首先就是省时省力啊,云厂商一般都已经内置好了, 你服务器买好就能跑,再就是他能三百六十五天不间断的运行,这也是他的优势之一啊。至于性能的什么其实都不重要,因为你用到大模型都是用的云端,算你。

兄弟们,我在家里零代码干出了一个和 openclaw 一 样的 agent。 openclaw 这玩意普通人根本玩不转,得先装 linux, 改一堆配置文件,搞什么都好。光是这几个词就能把人吓跑了, 你是来用 ai 的 还是来当程序员的?更吓人的是安全问题,你要把端口开放出去,给 ai 操作你电脑的权限,万一配置错了,别人就能进你电脑偷东西,连安全专家都说不懂技术的千万别玩,容易出大事。第三步,数成本高,你想二十四小时跑,你得有台服务器,一个月几十块上百块就没了。 你想跑本地模型,你还得用显卡,没钱那就别想了,我的 agent 直接跑在本地,不用 linux, windows 友好用配置,一行代码都不用写,所有数据都在我电脑里,端口不对外开放,绝对安全联网,只是调用模型,数据不会泄露, 不是比较别人在踩坑配环境。我的 ag 就 已经干完三天活了,门槛已经下来了,就看谁先上车。怕能干,财务报表写代码监控竞争对手欧本科罗,能干的他都能干,别人还在熬夜学怎么安装,我早上起来 ag 已经把活干完了。兄弟们,当你的同事已经开始用 ag 干活了,你还在手中搬砖,老板会留谁?

想薅腾讯银羊毛的三月必须盯紧了!新春采购节三月一日正式开抢!爆款四折起, 怎么买最划算?记住三步,先领四千五百八十元代金券,再抢满减大额券,最后拉着小伙伴拼团三重福利叠满,价格直接打骨折! 看看这配置,新量服务器两盒四 g, 一 年只要四折!云服务器 cvm 宽带最高三十米照样四折。 数据库五点五折, cdn 四点五折,连腾讯特效 sdk 都五折起!建站好应用搞 ai, 趁这波赶紧上车,错过等一年!

呃,很多朋友都好奇,养一只 oppo 可乐小龙虾到底要花多少钱啊?要不要半亩钱?其实呢,费用就两块一块呢,就是房租,就是服务器,你去做一个云浮球形入门配置也完全够用,大概是六十块钱一个月。第二 呢就是口粮,就是大拇指算力,这个具体呢,要看你怎么用,用的少呢,一个月就几十块,用的多呢,模拟选的贵的那几百上千也是很正常的, 新手我建议就直接去 kimi 这种平台,先充五十块钱就跑个流程,所以说最便宜的方案就是服务器六十,算力五十一百一。那么再回答大家最贪心的三个问题,第一个问题呢,就是要不要翻抹墙啊?不需要,国内完全能用。第二呢,要不要买新电脑?也不需要,原来电脑能上网就行。第三呢,会会不会很烧钱 啊?我们是用多少充多少,其实是可以控制的啊,所以说你可以先花一百一把第一种龙虾养起来跑动之后呢,再根据自己的需求要不要升级模型,要不要加大用量。

open core 架构与其他智能体有什么不同? open core 架构有三大特点,第一大特点叫自托管, self hosted, 龙虾跑在我们自己的硬件上,我们对它能够完全掌控,怎么个完全掌控法?其一,数据私有,所有的对话数据和文件都留在我们自己的服务器上。 其二,逻辑可控,我们可以任意的修改代码,接入任何模型,定制功能不受第三方限制。其三,成本确定,主要开销是我们自己的头肯费用,无需其他任何费用,完全由我们自己部署维护和升级。完全掌控,你说吸不吸引人? 第二大特点叫做多通道 marty channel, 我 们可以通过微信飞书钉钉来给他发消息,即使你不会编程,不会系统的命令也完全没有关系,可以通过发消息来控制他, 这就意味着他的使用门槛大大的降低了,这也是他如此之火的原因之一,普通人你心动了吗? 第三,叫做智能体原声 agent native。 什么叫做智能体原声?可以理解为它是为智能体量身定制的系统,传统的软件是人操作程序,而智能体原声的架构是围绕智能体这个核心来设计的。整个系统 它的所有主键,无论是记忆 memory 工具调用任务规划,还是多代理的协统默认,都以智能体为主要的用户和驱动者。智能体原生更具体的表现为,首先,系统的核心就是智能体,不是函数,不是服务,而是一个具有身份记忆和能力的智能体。 其次,一切的智能体服务,像技能权限通信机制都设计成方面智能体自主发现调用和协助工作的模式。最后,智能体的自主性是最优先的, 系统非常鼓励智能体进行长链思考、自主调用工具以及与环境相互的交互。他的目标是最大化他的自主解决问题的能力,而不是由人一步一步的发送指令。 所以 openclore 不是 能接入 ai 的 软件,而是从基因里就是为了 ai 智能体而构建的系统。就像云端架构的云原声, openclore 的 架构原则就是智能体原声 自托管多通道智能体原声。我会尽量分享别处没有的内容,欢迎围观。三个月 openclore 一 百讲,不见不散。

虽然你的欧本科罗小龙虾三点二版本也有我写的代码,但是变笨不是我的锅呀。咱只代表股东们修了一个重要的安全 bug, 还是一行指令解决问题。麦克和 windows 通用,主要原因是新版本默认关了很多权限指令,我放在评论区置顶复制自取就行。

过去我们要买昂贵的服务器来跑 ai, 现在 cloud file 官方下岗,直接把 opencloud 搬到了全球的边缘节点上。欢迎来到 service ai 时代。对于个人开发的合作伙伴来说呢,传统的买与服务器部署的模式太重了,我们需要的是按毫秒计费,不用买服务器,而且离全球用户足够近的方案。 cloud file 官方发力,将火爆了 opencloud 框架的直接编辑进 cloud file works 里面,无需服务器,瞬间部署进全球三百家城市的节点。 我们来看一下传统的语音模式呢,请求要跨越太平洋跑到美国东海岸,延迟高达几千毫秒。而切换到摩洛哥呢,请求直接在新加坡本地截获并计算瞬间返回。结果 摩洛哥之所以牛,是一台完全白嫖了。 cloud file 多年积累的技术设施,想 ai 算力下载数据库,全球网络全部打发进你的代码里,这些业务代码不用管服务器配置, 数亿行 n p m 破产案卷,瞬间跑在三百多个城市的机房里,这又是 service 开发的爽感。传统的集中式云服务器时代正在过去,将计算能力跟 ai 推移,发生在离用户最近的地方,这才是二零二零年的最优解。把反手的底层部署交给 cloud file, 把宝贵的精力留给你的 a 型的逻辑,我是安迪,再利用 ai 解决更多的自由。

给大家来演示一下用 open code 的 这样 ai 生成代开源工具,用那个通一千万三扣的 next 这个模型, 我们配置了一个独立部署的模型,给大家看一看,前面我已经跑过了,已经跑通了,给大家演示一下,因为它应该还是可以跑的。它这个给大家看一下,这个是我服务器上面的这样的一个环境,这个服务器上环境我是四块 rtx 四零九零起了一个通一千万 三 ko 的 next f p 八的一个模型,这个模型目前只能跑的是上下文是四四万八千,目前还是能够跑的,应该算是跑通了。我们给大家详细介绍一下这个模型和如何配置独立部署的模型,好吧, 首先我们先来看一看那个通一千万三 ko 的 next, 这个模型性能应该是不低的,因为它是技术白皮书发布出来,我们看了一下,它这个应该是我们企业独立部署的小模型,里面应该算是比较优的。它这个 你可以看到它对比了 deepsea v 三点二, v 三点二要将近六百多个币,所以是非常大的,包括 g l m 四点七、四点七也是非常大的一个模型,也要将近五百四五百个币。 mini max m 二点一也是一样,都是三个非常大的模型。那么相对来讲, 通一千问的这个扣的 next 的 这个模型差不多只有八十币左右,八十币左右,但是你可以看到它的编程性能来讲,其实跟其他模型比起来相差不是太大,水平差不多,它应该是这样,所以它这个模型对我们企业独立部署一些 私有化的模型,做这个代码生成的应用来画这个模型,应该是目前是比较优的一个模型。那这个模型也是我们之前跟大家介绍过,它跟通一千问三 next 八十币有点类似,它也是属于混合的这种架构是 member 架构,再加上 transformer 的 这种架构,混合的一种架构,也是 mo 一 的这种方式,它是总参数量是八十个币, active 的 这个参数是三十,是三个币,它等于是这样, 专家也是有五百十二个, active 的 专家一共是十个。谢尔的专家是一个,它等于是上下文,它只要达到二百五十六 k, 我 因为我的内存还是比较小的,所以我目前是用到了四万八千,相当于四十八 k, 它等于是这样。 好,呃,这是一个。接下来我们给大家简单介绍一下它到底是如何来配置的这个模型,因为我们现在跑了本地的,我们给大家来介绍一下它到底是怎么来配置它。其实最核心它是有一个配置文件的,它这个地方是有个配置文件, 大家看一下,在你的根目录下,用户目录有一个点 config 的 这样一个文件,文件里面有个 open source, open source 里面 它是有一个,我们打开给大家看一下,那么这个文件主要是配置我们独立部署的这样的一些大模型。你可以看到我们用了一个 provide 的 这样的一个 提供商, light a l m, 它是默认它是用了 open ai 的 兼容的 api。 我 这里面是配了一个通用千万三 code next f p 八的一个模型,这个 base url 就是 你本地的那个 url 的 名字就可以了。

最近大模型这么火,那跑 ai 大 模型要什么硬件?今天来介绍一下一整个全家福。首先是大家最熟悉的办公电脑, 那么这个电脑它的缺点是拓展性比较低,只能插一张卡,然后只内存条两到四条,一个 cpu。 但是呢,如果你选用一个好的显卡,比如说像三零九零、四零九零,或者说专业卡的 a 四千, a 五千, 把它放上去跑一个七 b 三十二 b 的 模型还是轻轻松松的,但是当这个小模型没有办法满足你的需求之后,可能就要上了这种工作站了,工作站可扩展性更强,比如说显卡,它可以上四张, cpu 呢也升级到了两个,然后内存条插槽也升级到了十六根,可以跑中等大小的所有主流的模型。那显卡一般我们会搭配,像 a 三零、 a 四零,甚至说你有预算充足可以搭配 h 一 百、 a 一 百这种战略巨无霸。 另外的话呢,我们把它扩展成了夜冷的一个结构,这样的结构噪音非常低,而且使用寿命非常长,也不用占用你额外的机房空间, 而且在这里也是可以使用 mvink 的。 这个我们的方案是 h 一 版,这样的配置,跑二百三十五 b 的 千万,或者说三百四百 b 的 大模型都是非常轻松的。再往这边就要上升到服务器水平了,服务器它的扩展性更高,可以插八张显卡, 然后它的内存条扩展来到了三十二条内存条,而且这个 cpu 也是双路的。像这种服务器呢,一般搭配的是也是三零九零四零九零五零九零,当然预算充足也可以上到这种 a 一 百那么八卡, a 一 百会有六百四十 g 的 显存,这样的话跑满血版的 dsp 六百七十一币都可以带动的。 然后这个也是一个服务器,但是它是一个四卡的一个结构,也是可以跑很多大模型,可以上专业卡,也可以上这种算力卡。 再到最后就是目前最主流也是最烧钱的,也是大厂最多的方案。就像这种 我们看到它的卡都跟普通的卡不一样,我们普通的卡叫 p c i e 插槽,就拿这张 a 一 百来举例子,它是用这种 p c i e 插槽,然后插到这个服务器里面,但是当我们的卡需要很多,比如说我要需要一千张,一万张卡的时候, p c i e 的 传输效率是不够的,所以说 已经单独定制为了这种叫 sm 的 整机的模组,那么我们会把这个整机模组插到这个非常大的机箱里面,最后才能组成一个像 h 一 百, h 两百, b 两百, b 三百等等 我们大家非常熟悉的这样的机器了。所以说具体你的需求需要配什么样的机器呢?不能盲目的决定,要根据你的项目还有预算,如果说你有具体的需求,可以在评论区私信我。

还在用 mac mini 跑 ai agent, 你 是家里有矿吗?今天教你用十美元的硬件跑一个全功能的 ai 助理。 大家都知道 open core 很 强,但它是用 node j 写的,吃内存像喝水。而这个 pico core 是 用勾语言重写的,内存占用不到十 mb。 这意味着什么? 意味着它能跑在你的路由器上,跑在七十块钱的赛频率器板子上!别以为它小就没用,它支持接入 qq 和钉钉, 不管是查资料、写代码还是监控服务器,它就是你二十四小时在线的私人秘书,而且完全不费电。最离谱的是,这个项目的代码是 ai 自己把原来的架构重构成勾语言的, 这才是真正的 ai 进化!手里有吃灰树霉派的,赶紧去试试!关注我,带你硬核玩 ai!