qcloud 这款产品是腾讯推出的本地轻量化 a j 的 工具,基于 opencloud 封装,面向普通个人用户,以微信为超级入口。它的产品定位和主要功能都给大家整理在这了。 workbody 是 腾讯推出的 ai 原声桌面智能体工作台,助力办公自动化,面向全职场角色内置办公专属技能包。它的产品定位以及主要功能都给大家整理在这了。 high cloud 阿里推出的一款开源的协助式多智能体操作系统项目,只在让 agent 之间互相协助,同时由主 agent 进行统一的管控,类似 cloud 的 风群模式。这个项目的产品定位以及主要功能都给大家整理在这了。 ark cloud 是 火山引擎推出的云端,开箱即用 open cloud 零门槛部署原声,支持豆包、 kimi、 mini max 等主流大模型。进入 open cloud 的 机能库,可以自定义人设,并且与火山引擎网盘打通,实现本地云端的文件实时同步。 产品的主要定位和功能给大家整理在这了。 度。 cloud 是 百度智能云推出的零门槛云端。 open cloud 可搭配千翻 coding plan, 形成低成本的方案,同时深度整合百度平台自家的百度搜索、百度百科、百度学术等能力,共建生态。 此产品的产品定位及主要功能都给大家整理在这了。 三六零安全龙虾是三六零推出的国内首个以安全模式为核心设计的崩卡奥衍生产品,可以快速极简部署,同时接入飞书等 im 工具,同时内置多种办公技能包。产品的定位以及主要功能都给大家整理在这了。 偷跑是阿里云通用实验室基于 agent scope 生态推出的个人开源 ai 助理,是 rocco 的 国产优化平替,主打本地加云端双部署。产品的主要定位和功能给大家整理在这了! 米可拉是小米基于自研咪蒙大魔性打造的移动端 agent 的 助理,只在深度整合小米人车加生态以及 agent 的 便捷能力。产品的定位及主要功能都给大家整理在这了! 小 e cloud 是 华为基于 open cloud 开源框架,融合鸿蒙 skills 能力打造的养成系个人 ai 助理,适配鸿蒙系统的手机以及平板,具备持续学习能力。它的产品定位以及主要功能都给大家整理在这了! auto cloud 是 智普 ai 推出的本地版 ai agent 的 工具,可以一键接入飞书并进行智能任务的拆解,同时呢,支持给智能体设置不同的名字以及角色定位。整个产品的定位以及主要功能都给大家整理在这了! max cloud 是 mini max 公司推出的基于 m 二点七强力驱动的云端 ai 智能体,它的产品定位以及主要功能都给大家整理在这了! kimi cloud 是 月之安面推出的基于 open cloud 框架的云端 ai 智能体,它的产品定位以及主要功能都给大家整理在这了! lobster ai 是 网易有道推出的开源的全场景 ai 智能体,支持多场景的办公及 office、 文档生成、外部搜索等功能,并且支持接入钉钉飞书。产品的主要定位以及功能都给大家整理在这了! open cloud 就是 所有 cloud 产品的灵感来源,也是全球最火爆的 ai 智能体开源项目。这个产品就不用过多介绍了,它的定位及主要功能都给大家整理在这了。 demo cloud 是 英伟达推出的自家龙虾产品,可以结合英伟达的硬件优势,提供去其他厂家截然不同的技能方向,比如更多依靠算力的数据分析、模型训练等任务。它的产品定位及主要功能都给大家整理在这了。 乐文 club 是 乐文集团旗下的作家助手, ai 智能体定位网文作者的超级助理,基于乐文妙笔大模型,更加聚焦网文的创作全流程。它的主要功能以及产品定位也给大家整理在这了。 pad club 是 联想推出的能够部署在平板上的龙虾,面向学生移动办公人群。它的产品定位以及主要功能都给大家整理在这了。 ashton cloud 是 科大讯飞基于由本 cloud 打造的云端 ai 智能机平台,未来可能基于自家的语音技术、教育大模型、硬件设备等做智慧互联。它的产品定位及主要功能都给大家整理在这了。 好的,以上就是本期视频的全部内容了,那有没有帮你挑选到适合自己的龙虾呢?喜欢这期视频欢迎点赞关注!
粉丝240获赞737

你看我的像素,龙虾都长大了,比我鸡块还大。这东西看着像红色积木,为什么大家都在养?听说回本快,我的村民能画好多绿宝石。它会咬人吗?会夹手,但你可以带南瓜头。

来,今天有很多粉丝啊,问到我关于这个 do a 准的一个搭建方式和方法, 然后主播今天也也来进行一个挑战,虽然之前也搭了很多这个 do a 准的一个系统啊,但是今天主播做了个挑战,是什么挑战呢?就是 做了一个直播啊,多一卷系统,就是既在本地做一个软件直播软件,然后用 open cloud 的 多一卷系统去管理这个直播软件啊。现在已经来到凌晨的三点四十五分了,但主播还没有把这个事情搞定呢, 来,一直一直在研究啊,怎么去做啊?一开始我是把它分成了两个部分的,一个部分是, 呃,本地的 app 中有一个多云系统去进行管理,然后另外一套是在 open cloud 里面做了一个多云系统,进行这个直播信息的一个啊管理啊。来,大家可以看一下 现在,现在主播把它统一到一个什么呢?就是直接用通过这个 open cloud 的 一个多云系统去管理啊, 这个本地的 app, 本地的直播 app, 你 看也是非常复杂的。呃,包括可以看到主播这个 agent 打了几个, 打了有九个,十个了,都是一个 agent 了。好吧,好,我们来继续完成这个挑战,看一下明天能不能把这个系统这套多云系统搭建起来。

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

先说结论,我选择的是千万三点五三十五 b a 三 b 四位量化模型。大家好,今天这期视频我们来解决一个非常关键的问题,当你买了一台 max studio 后,到底应该怎么选择模型?怎么选择推理框架? 下面介绍三种最主流的模型格式。官方模型格式通常是官方发布在哈根 space 上的模型,采用 pad 加 gpu 训练完成, 这个是最原始的模型格式,特点是精度最高、最完整,适合训练,但不适合推理,并且非常吃显存, 不适合直接在本地使用。一句话,这个是用来训练的,不是用来直接跑的。第二种是 g g u f 格式,这是目前最流行的本地推理格式,它的特点是模型经过量化,兼容性很强,可以在 n 卡 a 卡 mac 电脑上都能运行。 第三种是 m l x 格式,这是 mac 电脑的专属格式,它的特点是专门为 mac 电脑设计, 利用 mate gpu 内存统一调度,在 mac 电脑上性能比其他两个格式更快。再来介绍一下模型的分类, dos 模型和 mo 一 模型。 dos 模型就是稠密模型,意思是每一次推理所有的参数都会参与计算,因此速度会相对比较慢一些,大约三十五 to 每秒。 m o e 模型全称是混合专家模型,特点是每次激活一小部分参数,因此它在本地设备运行时速度会非常快,大约可以达到七十多个每秒。 mac 电脑上常用的大约模型推理框架软件有三个, 分别是 o m l m studio、 o m l x。 这里推理性能最好的就是 m o m l x, 专门用来推理 mx 格式的模型,比另外两个推理软件要快很多,所以在 mac 环境下可以无脑选用。我在哈根菲斯上下载了下面这几个模型,官方版本的千万三点五二十七 b 四比特, 千万三点五三十五 b a 三 b 四比特。千万三点五三十五 b a 三 b 八比特 还有第三方的蒸馏模型。利用 cloud 四点六蒸馏的两个模型,由于进行了针对 os 的 蒸馏, 其推理思考能力应该会更强一些。但是这两个模型不能直接通过参数来关闭 sync 模式,所以每次调用时都会 消耗很长时间在思考。有时候在做简单任务的时候会有一些繁琐,所以在处理简单任务的时候,我会选择官方版本的模型并关闭 sync 模式,这样更快一些。再看一下四位和八位比特以及输入 token 与占用内存的关系。通常在 open craw 或者 cloud code 中,调用 agent 完成任务时都会有很长的上下文,因此输入 token 都会很长,这会影响内存的占用。 通过这两个表我们可以看出, token 越多,占用的内存也就越多。考虑到还需要加载纹身图的图像模型,所以必须控制模型的量化位数,因此最终我选择千万三点五三十五 b a 三 b 四比特模型 或者对应的帧流模型。下面我来实操一下在 max studio 中如何使用 o m l x 这个软件来调用模型。好,我们现在通过远程来登录这个 max studio, 你 可以在这里 点击双击 o m l x, 它就会出现在右上角这个 toolbox, 这里点击右右键就可以 chat chat with, 而且这里就可以直接跟他聊天。当然我们可以看一下左下角有个后台管理,这里有一些可以设置的地方,比如说它当你加载了一个模型之后,你就可以直接通过这些啊, a p i 的 a p i 和 cloud a p i 也可以通过这个命令行直接将它集成到 cloud code 里面,或者 codex open code 和 open cloud, 这都支持。第二个就是模型的管理,我下载这六个 也可以从 facebook 上直接下载,也支持了摩达社区,这里有一个全局的设置,比如这里设置了一个 a p i 的 密钥,设置模型的下载目录或者加载目录。这里有一个地方需要注意一下, 我下载的这个千万三点五的模型是上下文支持两百五十六 k, 所以 这里一定要填这个东西,因为它默认的那个最大上下文窗口大概只有三十二 k, 如果这里不改的话就会报错,所以这个 一定得把它改过来,改成呃你的模型最大支持的那个数。再就是这个模型的设置,比如说关闭这个 thinking 模式,你在这里要把这个添加一个 enable thinking 这个参数,把它设置为 force, 而且最好是强制的, 就可以保存。你下次再调用这个模型,它就不会开始那个 thinking 模式。但是对这两个蒸馏的模型,你关了这个也没用,内部始终是把那个 thinking 模式打开的,所以如果你不想用这个 thinking 的 话,你就用这个官方的把这个参数给关掉。 如果你想用 sync 模式的话,可以考虑用这两个推理的蒸馏过的模型,这里是日制分析,日制可以看一下它的调用,这里是这个性能精准测试, 可以来用来测试你下载的模型的精准。比如我们来测一下这个稠密模型,千万三点五二十七 b 四 b 的 比特的这个模型,看看速度怎么样啊?这里跑完了一次这个稠密模型的基本测试, 可以看到它基本上它的速度是在三十一点八 to, 每秒并发的话可以达到四十, 我们再跑一个 m o e 格式,这也是斯比特的这个跑完了,这个是比较快的,它可以达到七十八 to, 每在本地 使用这个 m o e 来跑这个 agent 应该速度是够的。 ok, 今天就讲到这,下期就讲一下如何在 max studio 上运行这个纹身图模型。好,下期见,关注我 ai, 分享时尚技巧,我们下期见。

openclock 三月二十二号的重大升级版本终于来了,这次新版本的发布呢,大概有十八项重大的改进,七十三项新增加的内容或者是更新。这一版本的更新呢,重点在于插件生态的全新升级,新增加了不少的新的模型和提供商,安全与沙箱进行了强化, web ui 以移动端的体验进行了优化。整体的方向呢,是让 openclaw 更加模块化安全跨平台,并且呢支持更多的 ai 的 模型与集成。如果你是手动进行的更新,更新完成以后 要记着运行一下这个命令, openclaw dr 杠杠 fix 来完成迁移配置。

这个视频呢,我来介绍四个国产欧本可乐的龙虾啊,以及他们各自的使用场景啊。那么第一个呢是我和巴蒂,是腾讯出的龙虾啊,本地和云端相结合,他可以直接操作我们的电脑读写文件啊,个人微信呢,和企业微信都比较方便的人揭露啊,因为他们都属于同性系的产品。 那么第二个呢是阿克拉克,是字节的云端虾啊,那么揭露非书呢,可以用来做钉盘,股票啊等啊,具体呢,可以参考我的上一条视频。 那么第三个呢是 max curl, 是 mini max 公司开发的云端下行,那边写 skill 呢,和上传的 curl 的 hub 都非常的方便啊。那么第四个呢是 extra curl, 这是科达讯飞的云端,下行操作方便,界面简洁,非常适合新手体验龙虾干活的快捷。以上哈,我是郭震哈,咱们下个视频再见。

玩龙虾终于不用再花钱了,你看,我配了两个模型,一个是 gpt 的 五点三,一个是 gpt 三。我的主模型用的是 gpt 五点三啊,因为这个的配额呢,是走的这个方式啊, 免费的时长配额,然后从这选 gpt。 然后第二个模型的话呢,是 gpt 三啊,这个模型 主打的是响应快,低延时,然后调用的方式是 a p i d k, 这样的话呢,就比较方便。一个主要免费用来日常沟通啊。然后另外一个的话,因为 gmail 的 话,他写文案各方面的话我比较喜欢,所以特殊情况之下我用 gmail。 总之订阅了 gpt 的 话呢,就直接不用再花钱了。太好了,想要了解的朋友呢跟我说,我教你。

今天聊一个很实用的能力,远程预览。他解决的不是能不能控制,而是远程排障时,你能不能先看清现场? 我的龙虾现在在干嘛?龙虾服务是不是挂了?他现在卡在哪一步了?页面怎么一直没反应?到底是程序没跑还是界面卡住了?现在现场到底什么情况? 很多远程排障最麻烦的不是不会修,而是你根本看不见对面现场现在是什么状态,只能靠截图、靠文字描述,或者一轮一轮来回确认,效率低,沟通成本高,而且特别容易误判。 以前排障很多时间都浪费在等截图猜状态反复确认上。现在把远程预览接近运为面板后,人可以直接看到目标机器当前画面,很多问题一眼就能判断的大概。 这个能力接近飞书和韵为面板之后炼炉就顺了,人可以在飞书里发起写作,在面板里看现场,再借助 openg 二去执行动作和处理流程。 第一,它解决的是看不见现场的问题,人可以直接看到目标机器当前画面,不用再盲猜。第二,它能让牌账判断明显加快很多,原本要问半天的问题,现在看一眼就知道大概。 第三,他把邪作链路串起来了,人先看现场,再借助 openclaw 去执行动作和处理流程。所以这个功能真正的价值是让人先快速看见现场,再借助 openclaw 去执行动作,联动能力完成邪作处理,做到少猜少问少折腾。 远程预览的意义不是多了一个看画面的窗口,而是让远程排障这件事第一次真正做到先看现场,再做判断。

我在我的两台服务器和一个 windows 本地电脑上一共养了十六只小龙虾。今天废话不多说,直接跟大家做个深度复盘,分享我养这十六个 ai 员工砸出来的实战经验。第一个问题,小龙虾到底是个啥?它其实是一个有自己记忆的命令行操作工具。 它并不是直接去点鼠标,而是在你电脑的黑色操作框里输入一堆命令来帮你执行任务。当然,如果你有需求,它也可以通过一些开源工具现场写代码来控制鼠标进行精准点击。第二个问题,它适合什么系统?它原生支持苹果、 mac 和 linux。 近阶段对 windows 的 配置是最差的,因为 windows 和 linux 的 操作命令不一样,很多工具用到 linux 命令在 windows 上强跑,就会经常报错。但因为绝大多数用户都在用 windows, ai 社区进化极快,大家不必急,大概一两周之后,相关配置就会完全适配上。为什么一开始这么难养,经常卡住干不了活?因为它极度依赖基础环境。 如果你的电脑本来就配了 n p m 或者用过 cloud code, 它跑的极其顺畅,如果是个裸机,就会疯狂报错。更致命的是环境网络,它需要连 github 和谷歌来搞定自己的工具, 一旦没环境就会卡死。你的首要任务就是得给他换成国内的清华园或某宝园,把他引上国内的高速路。搞定基础后,你要让他操控浏览器,还得给他上各种 skill 插件。每个人的电脑浏览器版本都有差异,你需要不断调试。这整个填坑的过程就是养龙虾。第三个经验,关于小龙虾的记忆阶段,他的记忆还是记在文本里,用的时候去搜高级点的,会加上向量数据库。但别对 ai 的 记忆抱有神奇幻想, 现阶段他的记忆并不像人类那么完善,无论是向量搜索还是知识图谱,都还是会出现错漏和幻觉的。所以我们需要不断去调整他的记忆模式,是在主记忆里全局索隐,还是弄成严谨的知识图谱,这依然是大家都在探索的阶段。第四个经验,现阶段他最合适的用法就是接管你已经跑通的工作流。比如我现阶段的视频全是用代码跑通的,我 现在把这个工作流全权交给了小龙虾,他全自动帮我搜题、写文案、做视音频,结合我还把他接入了工程群,他每天自动接管群里的信息,一旦有重要日常,他直接帮我同步到飞书日历里。我日常扫描的图纸资料全部丢给他整理,把他打造成一个工程量的知识库,需要什么直接让他解锁。他就是一个得力的超级助理。我甚至在探索一种公司化的模式,弄一个面板来控制着十六只龙虾, 让他们像团队一样朝着一个大目标携手。关于大家最关心的成本问题,哪怕设置三十分钟一次,一天也要醒来 四十八次。去问大模型拿主意,如果是多 a 的 串联一只龙虾,调用七八只龙虾开会,消息互通,产生的 token 消耗肯定让你破产。我的终极省钱策略是建立大模型分级池,干重活时去买大厂的包月或按次计费套餐,你一次对话不管传多少万次代码,也只消耗一次 prompt 一个月几块钱能买一万八千次,极其划算。而像日常待机简单的活,直接给他接摩搭英伟达或 github 开源的免费 token 方案,这才是理想的省钱架构。最后我分享一下,我在交流圈里看到别人在用龙虾干嘛,有人用它在后台控制 cad 进行画图, 虽然还不理想,但这套逻辑已经跑通了。还有人用它跑短剧,生成,自动写提示词,登录 ai 视频网站,自动点击生成,最后合成一部微电影,完全可行。还有大量接管工作流网站的,自动去内容平台收帖子,抓文案,全自动写文章发视频。前期把环境配好,把工具跑顺,慢慢打磨流程,将我们从这些繁重无聊的工作中彻底解放出来。

最近很多人应该都被 ai 龙虾 openclaw 刷屏了,但是电脑安装过程过于繁琐,其实现在手机上也能一键养龙虾,并且只需要三十秒就能搞定,安装好后直接 发送指令就可以帮你完成各种操作。没错,我说的就是这个 type type 制造中推出的小龙虾工具,想用的兄弟们只需要点击左下角下载 type type, 注册登录后搜索领养小龙虾,无需下载,点击启动就可以直接在手机上养龙虾了。

大家好啊,最近不是千万三点五的中小模型都发布了吗?我本来准备是想测一测模型,给大家汇报一下,结果没有想到啊,我居然迷上了另外一件事,我给你们看一下,这是一台我的工作站, 我现在把降噪关掉,给你们感受一下, 怎么样 怎么样,听到了吗?因为这个模型真的太好玩了,所以导致我三天都没有关这台服务器。 好了好了,回归正题啊,原本只是想试试这个模型能不能用在 openclaw 里面,结果一发不可收拾,我这个工作站都暴躁的运行了三天了,我老婆女儿都开始吐槽了,而且导致我最近是严重缺觉,成天就脑子里都想的都是这五只龙虾, 我也不知道,下次分享的时候说不定就是十只了。但是今天呢,我还是先给大家汇报一下我这个千万三点五的测评数据吧,然后我再给你们详细的分享我这几天的奇妙感受。 我先说重点啊,我这次测评用的是 s g 浪,推荐大家都用这个单卡,用的是四十八 g 显存的四零九零魔改版 f p 八的精度,这个配置呢,能跑二百五十六 k 的 上下文。 值得一提的是,应该是只有 s g 浪完整的支持了前缀缓存,也只有在前缀缓存才能体验住千万三点五这种混合注意力架构的真正牛逼的地方。我举个例子,如果你是一百 k 上下文,冷启动 perf 阶段就是十秒钟, 但是如果你带了缓存就是两百毫秒,所以直接的结果就是,你哪怕有很长的上下文,但是他的首字延迟就是很低,输出还特别快。 我的测试场景给大家讲一下,就和我们的真实场景特别像,我每个模型测试都是从二十 k 上下文开始,一直增长到二百 k, 每次增加四 k 上下文,模拟我们真实环境下的长任务,而且他是在缓存命中的 三十五 b a, 三 b 这个模型啊,他最初的速度是一百二十头克每秒,最后衰减到了八十,衰退不算多。 而二十七 b 这个模型就逆天了,虽然它一开始就是个归宿,二十 to 每秒,但是到了二百 k, 它依然能保持十八 t 的 每秒。而且最离谱的是,你们看到了吗?因为它有缓存啊,所以即使缓存里有两百 k 的 上下文, 我输入四百 k 的 togg, 它的 perf 耗时只有两百毫秒。所以实际的生产环境,用人话来说就是在那种多工具调用的环节, 其实你感觉不到它很慢,因为工具调用这个场景啊,它输出的 token 都比较少,所以它响应也很快,很快就出结果了。你的直接感受就是对话再长,它的速度都不会衰减。我还做了一个测试啊,就是用 agent teams 同时开六个 agent, 哎呀,那个感觉真的是太爽了, 速度还能叠加,我也不知道是为什么,就直接从后台的输出,你就能看到它能达到一百二十多个每秒,而且这个二十七 b 模型,它是可以一键启动 agent teams 的, 我之前拿千万三点五 plus 都测试失败了, 他能同时开六个成员,速度能叠加到一百二十 t, 而且我还测了一下一百二十二 b 那 个模型,我个人的这个体感二十七 b, 他的智商是超过这个一百二十二 b 的, 只是个人感觉啊,就是从各方面数学,编程能力他都很强, 唯一的缺点就是他单进城特别慢,于是我就想到了一个妙招,哎,单进城很慢,那我就多进城呗,我可以拿它养龙虾呀,而且我可以一次养好几只,你养一只龙虾慢,那我养多只他不就快了吗? 这就直接导致我的服务器一直在咆哮,二十四小时都是这个咆哮状态,一直都满载,我家电费就更不要提了, 给大家分享一下我的龙虾啊,我现在一共养了五只龙虾,这个是主控,然后他部署在一台服务器上面,然后剩下的四个是在这台服务器的容器上面。给大家看一下,这是这四个小弟, 汤圆、奶茶、闪电、布丁,然后他们自己的持久化文件,都有各自的目录,然后这里面有他的记忆啊,还有他的目标啊, 我现在让他们干了一件什么事呢?就是主控,主控大佬会通过定时任务,就作为导师来检查他们每一个人的这个目标文件,看他在这个周期里有没有完成目标,然后给他写入一些新的目标。然后呢,这些小弟也是通过定时任务启动的, 然后他每次定时任务就是会完成他的这个 goals, 然后更新他的 memory。 他 们的目标是什么呢?就是跟他们一起开发了一个论坛,然后这个论坛用于让他们沟通,他们一直 在开发这个论坛需要的功能,然后一直在写入代码,然后重新部署。这样子论坛长什么样呢?大概就是这个样子啊,他们在不停的会发一些信息, 就是汇报一下自己的工作进度呀,就是彼此沟通吧,但是我觉得现在还不是很好,他们还是各干各的,还没有彼此的连接起来。但是这是我的一个小的社群实验,就我想看看他们能不能给自己开发一些东西,让自己变得更好这样子, 所以我现在也在尝试不同的部署,但是现在你国产的这些 coding plan, 他 们都有限制并发嘛,对吧?所以你想要养这么多只龙虾,同时你就你也干不了别的了。我现在呢,给大家看一下,我现在在模拟当初论坛开发那个流程,现在是有六个 agent teams, 有 六个成员, 然后他们全部是通过千万三点五二十七币这个筹密模型在本地运行。看,就是这个我在这个 s g 浪上部署的这个模型,然后后台的这几只龙虾呢?他们是定期任务,他每十分钟会有一波高峰, 但是虽然说每一个县城只有大概二十多头肯,但它整体你看它有时候能跑到一百,甚至能到一百二十多,就是它六个跑满的时候是有一百二十多头肯每秒,然后它 prefill 的 速度也很快,所以其实我感觉虽然如果单县城去使用我会很烦,它的速度很慢,但是我一次开很多,我就不管了,让它们自己去玩去, 我就觉得这种效果还蛮不错,至少这个速度我还是能接受,毕竟他是个本地模型,而这个二十七 b 模型其实非常聪明,非常聪明,我如果把这个二十七 b 模型换成三十五 b, 那 个三 b 激活的采用,那这个速度就离谱了,差不多六七百头肯没秒完, 但是你就会发现他们一直做一些无用功,但是二十七 b 模型就会感觉更聪明一些。反正这个论坛我发现不断在产生一些变化,我录完刚才那一段,然后我写了一些提交了, 但是我看到论坛他们已经把论坛已经甩的不像什么了,我觉得非常有意思,不管他们干成了什么事情,或者没干成什么事情,你你都能发现出一些很有趣的事情。我们看到这个我现在这个主控已经很着急了, 他说他大家都没有提交,然后我现在给他只是让他做一种新的沟通方式,但是几个小弟嘛,其实就觉得还不错,他们觉得这个哎,任务都做完了,没事了, 就是你们也可以试试这样养龙虾,说不定大家能摸索出来一种,让他们用一种方式,能协调合作,哎,我觉得可能就会很有收获。所以如果你是有四十八 g 以上统一内存,比如说 mac mini 啊, mac studio 啊, ai max, 三九五啊,或者是你有这个五零九零,或者是我这种 四零九零魔改版啊,我恭喜你,你买的硬件升值了,因为他们养龙虾体验实在是太好了, 就是因为三十五 b 和二十七 b 显存差不多啊,你想想你就相当于有了两种模式的模型,可以一键切换,一种是速度暴躁,但是智商略低,有点像战士那种。 另外一种就是归宿,但是智商爆表,有点儿像法师,你可以随时切换他的人格,是不是这个道理?当然了,你依然可以用那种 coding plan 版的高级模型,用它来做编排者,就相当于你养了一个老大,但是小弟可以开很多, 你可以尝试能不能形成一个蜂群,我最近就在实验。那我之前不是还分享了一个进化体系吗?如果可以用循环的方式来运行 evover 龙虾的技能体系,就能快速的自我优化。我最近也在不断的尝试这个领域,看看能不能实现我二十四小时的路谱,看它能不能自我进化。所以请原谅我这期没有什么干货,都是我的一些畅想。 我这个人就是脑洞比较大,但我在 ai 时代所有收获都是受益于这种脑洞大,所以从这篇起也算是开启了我的一个新系列。我后面会不断地分享我养龙虾的心得,也请大家持续关注。好了,以上就是本期全部内容了,谢谢大家!

我去,今天有点离谱,我们家龙虾搞了个清军测,啥意思呢?就是我们的一只龙虾啊,就是原版虾啊,直接就把这个 qq 这个 qq 的 兼容虾就直接给卸掉了啊。 事情是这样子的,就是我这台电脑呢,为了测试,我装了两个龙虾,一个是这个原版啊,没问题。第二个呢是这个 qq 兼容啊,但是我其实有点洁癖,所以我让他给我查一下到底有几个服务在跑,因为我最开始不太确认啊, qq 就是 open qq 的 兼容版本 啊,最后他查确实出现两个啊,那这时候我就让他再验证一下是不是 qq 的 版本,最后也证实了啊,就是幺八七八九跑的是原版是吧?二八七八九跑的是 qq, 那 我这个老板,确实,我这皇上我确实有点不爽啊,然后我就有点洁癖,我就想把一个给卸掉, 但是朋友们,我这个问的没问题吧,我说这个我想是吧,然后我问他如何,我感觉没问题,但是我这个这个这个原版虾立刻来劲了,说来,我来彻底帮你卸载 qq, 然后他就三下五除二就咵咵咵开始干,迅速拿出这个卸载计划,注意啊,这时候他没有找我确认,然后拿到计划之后就立刻开始执行卸载,然后咵咵咵,这可能是我见到他卸载速干活速度最快的一次, 然后就搞定了,已经完成卸载,最后还自己夸了自己一句,我去,最后说我干的叫干净利落。我去,我说哥,你这不是半拆,你这简直是借刀杀人呢,哥。

最近用 open club 又研究出了一些新的好玩的玩法,比如说呢?嗯,你在一台商用的服务器上装了一个 open club, 然后这个服务器呢?啊,我不是说普通的那些家用机或者是云服务器啊,那些你就装一个 open club 就 算了,小龙虾一个就够了。 那如果你是一个呃呃一 u 二 u 的 那种服务器,你知道一个 openclaw, 那 其实是有点浪费的,那种服务器一般都是八个核以上,然后内存是四十八 g 以上的,那理论上是可以跑好几个小龙虾的。 这时我怎么办呢?啊?首先我在那个宿主席上啊,就这个机器直接装了个 open call, 然后我就可以对话说,你帮我装个 dok, 哎,他咔哧咔哧下了个 dok 装好了,然后我又跟他说, 你在我的 dok 里面装一个 open call 啊,他竟然也能从 open call 的 官网上下那个脚本,然后去执行,然后还是尝试装那个 note, 又在 dock 里面装了一个新的小龙虾,然后我还可以命令它,新的 dock 版小龙虾打包成一个镜像啊,它就打包成镜像了。然后后续我要对这个容器中的小龙虾有什么更新的话,我都可以。 嗯,通过命令的方式告诉这个宿主机上的这个小龙虾,去控制容器中的小龙虾的那些配置,这样呢,你就可以创建一个一个容器中的小龙虾,转眼这个服务器上就爬满了许多小龙虾可以用了,成为真正成为一家小龙虾公司了。

大家好,今天我们来聊一个最近非常火爆的话题, open call 龙虾,它究竟是什么?为什么能让无数人趋之若鹜?今天我将带大家深度解析这款 ai 工具,看看它如何成为我们的数字员工。 如果你还以为 ai 只能陪你聊聊天,写写文案,那你就落伍了。现在的 ai 已经进化到能直接替你上班的程度了。想象一下, 你只需要动口,它就能帮你完成各种复杂的电脑操作,这就是 opencall 带来的变化。传统的 ai 比如 chat、 gpt, 它们虽然很聪明,但只能停留在动口的阶段,给你一些建议和文字回复。而 opencall 实现了从动口到动手的跨越,它可以像人一样操作电脑,点击鼠标输入文字执行任务,真正做到了替你上班。 本次分享将分为八个部分,从拗碰壳的定义、起源,到它的核心能力、应用场景、底层实现的技术原理,再到全球流行程度和使用指南。最后我们也会探讨其潜在的安全风险。本视频约六分钟,建议先关注收藏,让我们一步步揭开这只龙虾的神秘面纱。 首先让我们来回答最核心的问题, opencar 龙虾到底是什么?简单来说, opencar 是 一个开源的 ai 智能体框架,它最大的特点就是本地优先和能动手。它不像传统的 ai 聊天机器人那样只给建议,而是能直接操作你的电脑,帮你完成各种任务,真正成为你的数字员工。 了解了基础定义,我们再来看看这只龙虾的起源和它有趣的命名故事。 opencloud 的 诞生充满了戏剧性,它由奥地利程序员 peter stundberg 开发,最初叫 cloud bot, 但因为名字和 ai 巨头 anthropoid cloud 太像,被迫改名为 mothbird, 寓意龙虾蜕皮成长。最终,它定名为 open call, 既体现了开眼精神,也保留了龙虾的核心意向。那么,这只龙虾到底有哪些强大的能力能让它成为我们的数字员工呢? opencall 的 核心能力主要体现在四个方面,首先是本地执行,确保你的数据安全。其次是强大的系统控制能力,能像人一样操作电脑。第三是主动执行,可以设置定时任务,让它全天候工作。最后是可扩展的技能生态,让它能不断学习新技能,满足你的各种需求。 拥有了这些强大的能力, opencall 的 应用场景也非常广泛,几乎渗透到我们工作和生活的方方面面。 在办公场景中, opencall 能成为你的二十四小时助理。它可以帮你自动整理文件、收发邮件、生成周报、管理日程,甚至制作文件,让你从繁琐的重复劳动中解脱出来,专注于更有价值的工作。 对于内容创作者来说, opencall 更是一个强大的工具,它可以帮你追踪热点、生成文案、制作 ppt, 甚至进行视频剪辑和数据分析,成为你灵感和效率的源泉。 了解了 opencall 的 强大功能和实际应用,大家可能会好奇,它究竟是如何实现这些神奇操作的呢?这背后有什么样的技术原理支撑?接下来,我们就来揭开 opencall 的 神秘面纱,看看它的大脑是如何工作的。 opencall 的 实现可以看作一个高效协助的团队,首先是大脑 agent, 他 负责思考和决策。然后是管家 giveway, 负责信息的收发。接着是工具箱 skills, 提供各种具体的执行能力。最后是笔记 memory, 负责记录和记忆,这四个组建协同工作,共同完成用户的指令。 open call 的 核心工作流程遵循一个经典的思考、行动、观察、反思、循环。简单来说就是 agent 先理解你的需求并制定计划,然后动手执行, 接着查看执行结果,最后根据结果判断是否完成任务,如果没完成,就继续调整计划并再次执行,直到达到目标。这个循环让他能够处理复杂的多步骤的任务。 如果说 a 阵是大脑,那么 skills 就是 它的手脚。 skills 是 一个个独立的功能模块,就像我们手机里的 e p p 一 样,你需要什么功能就安装什么 skill, 比如需要查天气就装天气,查询 skill, 需要发邮件就装邮件 skill 这种插件化的设计,让 open call 的 能力可以无限扩展,非常灵活。如此强大的 ai 工具,自然受到了全球用户的追捧。接下来我们看看 open call 在 全球的流行程度 数据最有说服力。 opencall 在 github 上的新标数已经突破二十八万,全球部署实力超过二十七万个,其中中国用户占比超过百分之六十,足见其受欢迎程度。国内的科技巨头也纷纷入局,推出了相关的产品和服务。 看完了它的技术强大和流行热度,你是不是也想拥有一只自己的龙虾呢?接下来我将为大家介绍如何部署和使用 opencall。 部署 open call 主要有两种方式,本地部署和云端部署。本地部署适合有技术基础的用户,可以完全掌控自己的数据,适合对隐私和数据安全有高要求的场景。而云端部署则非常方便,各大云厂商都提供了一键部署服务,普通用户也能轻松上手,省去了维护服务器的麻 烦。当然,任何强大的工具都伴随着风险,在享受 open call 带来便利的同时,我们也要注意它的安全问题。 使用 open class 时,我们必须注意几个安全风险,首先,它拥有很高的系统权限,一旦被恶意利用后果严重。其次,要警惕来源不明的插件。最后,错误的配置也可能导致问题。因此,大家一定要只安装信任的插件,谨慎配置权限,并定期更新软件。 总结一下, open call 的 出现,标志着 ai 从单纯的对话交互迈向了能够自动执行任务的新阶段。它不仅是一个强大的工具,更预示着未来工作和生活方式的巨大变更。我们既要积极拥抱这种变化,也要时刻保持警惕,确保技术能够安全可控的发展。 今天的分享就到这里,感谢大家的观看,如果觉得内容对你有帮助,欢迎点赞、关注和转发,你们的支持是我持续更新干货的最大动力,谢谢大家!