如果你是中小型公司企业主,企业老板,你在想怎么能够最快最好的融入 ai? 我 建议你不妨来试试 openclaw。 openclaw 大 龙虾,它有以下几个特点,注定让它成为非常适合中小型企业去部署使用的工具。第一,开源 openclaw 所有的源代码都在全球最大的代码托管平台 github 上面, 而且他用的是 mit 的 授权协议,翻译成中文,上面写的非常清楚,受与任何人免费获取副本的许可,软件不受任何限制。那这个意思是什么?就是任何人,任何公司都可以免费下载去使用 open call, 这就是开源的意思。也正是因为他开源,所以他不受任何一个人或者一个公司的影响,他也不会因为一个人的离开或者一家公司的倒闭而使得这个项目或者代码停止更新。 恰恰相反,更新迭代这些代码的人是这个开源代码仓库的贡献者,现在已经上升到一千多位了,两周前我看还只有四百多位。这就是开源的好处, 它相对于某一家公司或者某个人的项目来说更加的稳定,可以得到更加持续的更新。第二个核心特点就是本地部署。任何一个人,一家公司都可以把它从 github 上面下载下来,部署在你自己的电脑服务器上面, 这样它就保证了高度的隐私。相比于传统使用 i g p t deepsafe 这些线上的 ai 工具来说,你每次和它的交互都是在上传你自己的信息和数据,将它部署在本地,这些信息就会留存在你的电脑本地。如果你想达到绝对的隐私,可以在本地部署开源的模型,比如 deepsafe, lama 这些, 那这样的话你所有的东西都是在你本地运行的,你不会泄露任何的数据,所以这种方式对于数据敏感的企业来说是非常友好的。 三是它的兼容性。 open club 可以 接任何一家大模型的 api, 不 管是国内的还是国外的,这些都是由你自己来选择,而且你可以随时的进行替换,所以企业可以选择最适合干这种类型的模型。我们现在也已经在服务不同的行业,也愿意和更多的行业进行共创。如果你感兴趣探索 open club 在 企业中的应用的话,可以看视频主页介绍,第一行会有专人给你提供更多的信息和介绍。
粉丝4254获赞1.9万

我建议所有使用 cloud bot 的 朋友们不要在本地部署大模型。很多人都说 cloud bot 呢,让 ai 可以 去操作你的电脑,这个听起来是很好的,尤其是呢,那些很注重安全的公司,他们会想方设法的在自己电脑上去 部署一个本地的大模型,那么这个样子呢,就把所有的文件呀,他的权限呀,停留在你自己的手机和这个电脑之间了。这个事情看起来是很美好的,但是背后呢,有几个隐患,我一个一个带着你说。首先呢,就是成本层面,到今天为止, 我认为部署一个你自己看得上的一个模型,还是一个比较大的一个成本的。首先你一定要清楚在本地部署一个大模型,你到底需要什么样的电脑配置。我给你个简单的算数,你就可以去理解了。你看到任何的一个大远模型,他们的都说自己的参数是多少,他们通常会以 b 去结尾,比如呢,他会说我是一个三 b 的 模型,十七 b 的 模型,比如像 deepsea, 大家所熟知的是六百五十个 b, 六百五十 b 的 意思就是六千五百亿个参数,但是呢,你怎么去算?你需要什么样的电脑?你只需要把 b 前面这个数字乘以一个二, 那么呢,就基本上代表着你能够在你的电脑上跑一个完整满血版的大圆模型所需要的 显存。这句话有点绕啊,有两个点,第一个呢是显存,而不是内存,第二个呢是满血版。首先什么叫做满血版?你会在网上看到很多人在教你用欧拉玛呀, lm studio 这些的软件去使用本地模型没有任何的问题,但是他们在 带你去下载的时候,你一定要注意它到底是不是量化版或者叫阉割版的。因为随着它自己的所需要的内存越来越少,那么它的精度也越来越低, 精度越来越低,那么大约模型所生成文字的正确率也会越来越低。所以呢,你会看到有四比特量化版,八比特量化版,听起来你可以用一个很小的一个显存就可以用,但实际上你用的是阉割版而不是满血版,就是用你 b 前面这个数字,再乘以一个二,就是你的显存。 第二个我们所提到的重点就是它要的不是内存,而是显存。六百五十个 b 代表着大概一千三百 gb 的 显存。一千三百 g 的 显存是什么概念?我给你举一盘数字,一个 h 一 百大概是八十个 g 的 显存,那么一个八卡的 h 一 百的 cluster 也就六百四十个 亿的现存,那你需要两个八卡 h 一 百的 cluster 才能够给一个人在一个时间使用一个满血版的 deepsea, 这个就是对现存的要求,价钱是多少大家自己网上去查,我只能告诉你一定超过百万。所以呢,你是否需要 使用一个 deepsea 的 满血版,然后在你的本地去跑呢?相比下,你知道如果你用 deepsea 的 api, 那么你大概需要一个什么样的成本呢?我印象当中 deepsea 的 a p i 是 每一百万个 token 只需要大概十六人民币。什么概念?一百万人民币你就粗略咱们保守估计,大概三十万个文字,你出三十万个文字 只收你十六块钱,你自己去对比一下,你要用到百万级别,你要让它出多少个字,这个就是成本上一个非常大的差异,很多人忽略了这一点,用一个阉割版的小模型,你会发现能力差的不得了,更何况我们是希望 logbook 在 我的电脑上去操作的,操作是不能出错的,你让他出一行指令,本来是应该添加,本来是应该修改,他给你变成了删除,这个事可就大了去了。所以呢,我是不太建议在没有绝对相信你自己的电脑硬件实力的时候,就随便的在你本地部署一个大模型,这是第一点,在成本层面, 第二个层面,我觉得是很多大家忽略的就是风险系数,你总是觉得似乎我在我的电脑上用一个开源大模型是最保险的。 但是你要知道,如果你想真正的发挥 cloud bot 的 一个优势,你需要使用它的 skills, 也就是它自己所推出这个 cloud bot, 全世界各地的极客都会贡献他们已经写好的 skills, 摆在网上,你下载下来,原本你的这个 cloud bot 什么都不会,但是你用了别人写好的这个 skill, 你 看今天又能干这个,明天再加个能力,后天再加个能力,对不对?那每一个 skill 是 什么呢?每一个 skill 呢?其实就是一个 markdown 的 文档,下载下来,它会按照里面一步一步去执行,但是呢,在执行过程当中,你会不会仔 就去读这个 skills md? 如果你自己没有读 skills md 的 这个能力的话,那么我建议你谨慎使用。为什么?因为你不知道它在里面会植入什么?到现在为止,虽然我们还没有看到一些不好的例子, 但我相信有些 bad actors 一定会找到 skills 的 类动,在里面植入一些不想植入的东西。你下载下来直接让大元魔去使用的时候,它会做一些不好的事情。但是这个时候,如果你今天用的是一个 开元的本地模型,你自己是没有这个评判能力的。但是如果你今天用的是一个接入别人 a p i 的 能力,在他输出一些不好的东西的时候,很多的这些 大厂的模型会在前面已经给你啪加了一道网关了,告诉你我不能够输出这样的东西,说白了,他们已经在帮你输出之前加入一层安全的护栏了。所以我们切一定要记住 opencloud 这个东西,它虽然 skill 是 一个很伟大的一个发明,让你可以用到全世界所有的优秀的人写的 skill, 同时它也扩大了潜在的风险。 所以这两点是我觉得普通的用户们暂时先不要考虑在你的本地去部署大模型这件事情,尝试把它下载下来,接入到呢手机里,然后接一个便宜的 a p i, 无论是很好很好的模型,价格也非常的便宜,都是大厂, 很多人呢,都会高估了自己的文件的安全重要度,而低估了大厂对于安全的服务度。你要知道,今天如果你用阿里云,用腾讯,用华为云,你的文件都是存储在他们上面的, 那其他的大公司都没问题,怎么就你的电脑里这个文件就会单卷安全的问题呢?对不对?所以呢,千万不要低估了大厂的安全能力,而高估了自己的文件的安全重要程度。所以呢,赶紧先去接入用起来,找一个你喜欢的大厂的 a p i 用起来 感受一下未来的时代,这个才是重中之重。慢慢地,你在不断地添加 skills, 慢慢地在考虑你是否需要转移到本地大模型,这个才是一步一步迈入未来的正确方法。

哈喽,下班了,今天我们来聊聊 openclaw, 我 觉得有必要啊,因为太热了这个话题,我想给它降降温, 为什么呢?因为这是一个在 getop 上引起广泛关注的一个项目,而且目前各家云厂商都上线了相关的云服务器,支持大家去部署这个产品。那么这个产品怎么定位哈?它其实是一个 个人助手,或者叫一个通用型的 ai agent, 它可以接入,比如说一些计时通讯工具,你可以通过这种计时通讯工具给它发消息,然后它呢帮你调度一个云端的电脑,或者是你本地的电脑,它可以完成一系列的任务。 那么我一开始看到这个产品的感觉,就觉得它跟 coldbody 这种产品非常非常的像,为什么呢?因为它们都是通用 agent, 就是它可以通过调用电脑里的各种工具, ai coding 的 工具,或者是电脑里的一些网页浏览的工具,通过 m、 c, p 等等,它可以去完成很多的任务。 当然因为授权范围的不同,它肯定是比 cloud code 或者 code body 编程类的工具,它能做的事情更多,而且它的主动性更强。 举个例子哈,你可以在你的一些即时通讯工具上直接说,你帮我发一个什么样的文档给谁谁谁,他可以直接执行。那你帮我把这次会议机要转成一个非常清晰的文件,帮他变成一个网站,他也可以非常快速的完成。 甚至是你可以跟他说,你调用这个电脑的录屏功能,帮我做一个什么样的 ppt, 它也可以完成。所以就是当你给 ai 配了一个电脑的时候,而且这个电脑它拥有所有的权限,它跟你的权限是一样的,跟人的权限是一样的时候,那它可以解锁很多的能力。 当然这里面有两个核心的概念,或者说核心的机制,让它跟 ai coding 的 产品有本质区别。第一个叫 gateway, 就是 相当于一个调度中台,它可以在这个调度中台上 接收信息,接收完以后分配任务给到不同的电脑中的工具,然后哎完成最后交付。那它是一个调度中台,那这个调度中台就可以实现一个 实时在线,就是二十四小时一直在线,它可以保持着这种这么一种激活的状态。那这也是为什么你说它可以持续不断的收到你的消息,就是因为它是持续在线这么一种状态。第二个非常关键的机制呢,叫做 heartbeat, 叫心跳机制,类似于给了 ai 心跳,让它可以跳动起来了。它什么意思?它每隔一段时间它会去扫描一下这个系统里有没有新的需求进来,比如说你的邮箱 有没有收到新的信息,比如说你之前有没有设过闹钟提醒,比如说每天八点去帮我扫一下整个今天的 ai 行业的资讯,或者是每隔一段时间我要去看一看有没有新的任务给到我。通过各种即时通讯工具,我就可以开始激活 ai 干活。 所以你从这里可以看到他有一个非常主动的一个机制,他会主动去扫描,他会实时待命,主动扫描,所以这个就跟像 coldbody 里你跟他去做交互, 拿到一个任务,完成一项工作就有很大区别,他就是处于一种实时待命的状态,而且会主动接到信息就开始干活,所以这个就是一个本质上的区别哈。 但是我觉得这个东西我为什么前两天没讲呢?就是因为我觉得它跟这种通用型的 agent ai coding 的 工具没有本质上的区别。假设说像 cloud code, 像 code body, 它们如果也想做一个类似的功能的话,实际上是完全可以做到的,只要给 ai 更多的授权就可以实现。 或者说你只要再弄几个移动端的交互的方式,你也可以在移动端指挥你的本地电脑完成这样的工作,其实没有一点难度。那为什么 大家都没做,为什么就只有这个 open cloud 在 做这件事?我觉得是大家对安全和效率中间怎么平衡的一个考虑, 就是你到底给 ai 多大的授权?我们知道它的上限其实是非常高,可以完成很多任务,而且很多任务上是超过我们自己的能力的。那这种情况下安全的问题怎么考虑?比如说现在如果是 这个东西被劫持,因为他有权限很高,那如果一个一个一个不法分子告诉你的电脑,说把这个人的电脑的内容全都删了,或者说把这个人的电脑中关于什么什么的内容发给某某邮箱,那他就可以实现了, 它就可以实现对你电脑的一个操控,对你个人数据和隐私的一个操控。所以其实这种安全问题是非常重要的一个问题。之前大家说中国人可能不在意自己的隐私,愿意拿隐私换便利,那接下来 ai 时代 那生产力是非常高的,这个上限是非常非常高的,那你愿意把你的安全拿出来多少去交换这种生产力的上限?我觉得这是一个摆在我们每一个人的面前的问题。因为 ai 的 能力现在 不是技术来去束缚的,而是你的这个治理的原则束缚的。你到底要给他多大的授权?你相信他到什么样的程度?你愿意给他几千块钱,让他帮你买东西,对吧?这样的一些问题,我觉得可能都是我们接下来要考虑的一些关键的问题。 我之前觉得像 coldbody 这种产品已经非常够用了,在我们的日常工作中哈,当然我也不满足,因为我前两天还在说怎么给 ai 更大的自主性,让它自己去跑这个 a 阵的能力。但是对于这种 openclaw 这种形态, 我自己心里目前还没有完全接受,当然我可以接受一个新的电脑去做一些尝试,但是因为他现在还有很多问题,比如说 token 消耗非常大的问题,比如说这种安全不可控的问题,所以我觉得目前不是一个非常理想的形态。当然最后 可能再往前走一下,很多产品也会去考虑这些问题,会给用户更多的选择,然后给用户。我觉得现在用户已经很很很少有能力去控制自己的这个数据的安全了。但是我们在这个 ai 时代到底要在 ai 面前变得这么透明吗? 也许有一天你会发现你让渡的这个权力本身可能比效率更重要。对,最近我在考虑这个 ai 时代的权力,到底我们要给 ai 多大的权力? 如果他的能力已经非常非常的高了,如果他的加入到人类社会中,真的已经能够给人类带来非常非常多的注意的时候, 我们愿意给他主体性,我们愿意给他授权吗?我们愿意给他权力吗?我觉得这些都是一些要考虑的问题,跟大家分享这么多哈,我觉得这也是一些非常非常前沿的命题,有机会再跟大家探讨,拜拜。

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

你可能已经安装了 openclaw 大 龙虾,但你的使用方法可能一直都是错的。今天我们来盘一盘四大常见 openclaw 的 误区。第一是 openclaw 需要一个单独的机器去配置安装,实际上根本不需要。你平时正常用的电脑,不管是 windows 还是 mac 都是可以部署的。 而且创始人 peter steinberg 做 opencloud 的 初衷就是想让他和你已有的电脑里面的文件发生交互,以至于他可以帮你做更多的事情,了解你的工作流程和内容。如果你单独找一个新的机子,那他没有任何可以参考的内容,也无法很好的融入到你现在的工作习惯、方式和流程中。第二, opencloud 需要二十四小时都在运行,当然也是错的, 因为 opencloud 能力很强,很多任务都可以在几分钟之内就能完成,除非你是有一些定时去发生的任务,那带来的结果就是投份费用会很高,估计你都支付不起, 所以开二十四小时并不是正确的用法。第三,需要实时更新。答案是错的,因为按照现在的更新频率,每一两天 oppo nano 就 有一个大的版本的更新,每次更新之后可能会对之前的失费产生影响,导致你更新之后没办法马上就能起用。我的建议是,只要你的版本和最新的版本是在十天之内,就没有必要去更新, 你用的顺手,用的好就可以一直去用。第四,需要部署在云端。其实这个和第一条是一样的,如果你把 oppo nano 部署在云端,其实和其他的聊天机器人没有任何区别,浪费了真正 oppo nano 的 核心功能。 最后再送一条误区,就是大家觉得 oppo colo 很 危险,会暴露你的隐私信息,操作不当会让你的电脑宕机,这个也是一个误区,尤其是现在几十个版本更新之后, oppo colo 已经弥补了一开始明显的安全漏洞,只要你正确操作,而且下载安全的 skills, 他 就不会产生这样的问题。我们工具小组一百多人在用 oppo colo, 没有听到谁说因为用了 oppo colo 导致自己的信息泄露或者宕机反病的事情。如果你对大龙虾 oppo colo 也感兴趣,想要系统学习,我们正好在工具小组里面提供这样的课程。如果你感兴趣,可以看视频主页介绍,第一行会有专人给你提供更多的信息和介绍。

不要云端部署龙虾 openclaw 真的 不要云端部署,这个是千千万个 openclaw 里的很大的一个,为什么这么说呢?有以下几个原因。 第一,如果你追溯到 openclaw 创始人 peter steinberg 去看看他最早的采访,他自己开发 openclaw 的 初衷就是因为每次想要和 ai 写作,都必须把自己的文件内容传给像叉、 gptcloud、 java 这些云端部署的 ai 工具,或者叫 ai 聊天机器人, 完成完之后又得下载下来,这样对于想要在本地高校办公的人来说的话非常不友好,所以他决定要把 agent 部署在自己的电脑上面,这样才能达到和自己在同一个电脑同样的环境下办公的可能性,这样才随之诞生了 open cloud 这个项目。 那云端部署的弊端就显而易见。第一,无法直接和你电脑里的东西发生交互,比如他没办法直接读取你电脑的需要整理的表格文件, 如果是遇到比较大的视频需要进行修改的话,可想而知你要上传到云端部署 opencloud 的 那种时间的消耗和费尽程度,在上传下载的过程中,你的视频大概率都会被压缩,所以云端部署的 opencloud 就 和其他的 ai 工具没有什么区别。第二,云端部署会限制你很多的灵活性。有些 opencloud 的 高级用户,他想去接接一些智能硬件, 但是在云端,如果你的通讯协议不被支持,那你很难去进行这样的操作。这种内容也适用于,比如你想把你自己的工作流变成一个 skill, 那 在云端这个东西是几乎无法实现的。然而在本地你可以轻松的去实现。当然云端部署最大的好处就是它在安装部署的过程非常的简单,但同时你的效率和你的工作流程会受到极大的影响。 所以我的建议还是,如果你是真正的想要提高你的效率,就跟 peter steinberg 一 样,想要让龙虾和你一起去并肩工作的话,那本地部署还是最标准最规范的选择。如果你想要本地部署,但你自己还不会的话,我们正好在工具小组里面提供一系列手把手的课程。如果感兴趣可以点击头像看主页介绍,第一行会有专人给你提供更多的信息和介绍。

有人问我玩小龙虾如果使用这个本地模型能不能省托管费用,那这个问题呢?对也不对,如果你想用本地这个模型的话,实质上你想省这个成本啊,省这个成本的话,那么托管费用你省了,但是用本地模型的话,对你本地的这个机器呢,配置要求又特别高,那也就说你要买一台配置很高的电脑, 或者是买一台服务器,那这个的硬件成本是很高的,可能从几千到几万,甚至十几万都是有可能的。那如果你用太差的本地模型,那它效果又很差, 然后大的这种服务器呢,它的耗电量也是非常大的。所以我觉得如果你想用本地模型去做这个小龙虾的这个大模型的配置啊,那么除非你有一台自己的比较强大的服务器或者电脑, 那是 ok 的。 那如果说你没有的话呢,那你还不如去直接使用网上的这个头壳呢,因为网上的模型智力会更高啊,而且你在硬件上几乎不要花什么成本,因为小龙虾呃,可能硬件只需要一个很差很差的电脑或者一个老电脑就可以部署了, 所以你综合来考虑的话,我是不建议去就是做本地化的一个小龙虾的一个模型的部署啊。

一条视频讲清楚现在 open cloud 的 四种主流部署方式。我的龙虾也养了一段时间了,现在网上铺天盖地的部署教程,但是它有这些不同的部署方式,如果你甚至都没有了解清楚,就直接一键部署,龙虾就可能会把你的重要资料直接发布到公网,或者不听指令删掉你的邮件。 话不多说,我们直接开始。首先是本地安装,这是能最大限度发挥龙虾性能的方式,它可以操控电脑读写本地文件,还有执行终端命令,但这也是风险最高的部署方式,就像直接把家里的钥匙给了机器人,所以如果选这种方式,就建议装在没有任何重要文件的备用机上。 这种方式是把龙虾安装到容器里,也是部署到本地,但是更像是用一个玻璃房把龙虾隔离起来,只开一个小窗给它递文件,是安全和省事的完美结合,这也是目前主力机安全挂机 open cloud 的 首选方案。需要懂一点, doctor 命令,网络配置有一定的门槛, 云端部署,目前大模型的厂商基本都可以提供这个服务。好处很明显,本地数据安全,龙虾也可以七成二十四小时不间断的干活。现在费用也挺便宜的,最便宜的二十多块钱就可以上手。但我用下来最不方便的是本地文件需要先处理一下,先上传到云端,龙虾才可以处理。 我的实际踩坑经验就是建议部署到外围,这样龙虾安装 skill 会更简单一些。最后我们也可以用模型平台的托管服务,就相当于直接从平台租了一个已经在干活的赛博秘书,这种方式和云端部署其实有点类似,但门槛要更低一些, 不一样的是它的隐私性要更差一点,也就是平台能看到你的一切活动,还有就是有可能会不支持安装一些本地的 skill。 最后还想提醒一下大家,最近 open class 实在太火了,插件鱼龙混杂,所以一定要谨慎。好了,今天的分享就到这里,之后我也还会跟大家分享一些养虾的经验,记得关注 cc, 我 们下期再见!主页还有更多 ai 玩法等你!

大家好,最近那个 open cloud 大 龙虾实在是太火了,过年的时候我也研究了一下,并且安装部署在我自己的电脑上。 那这个视频就分享一下我的本地安装部署方案,如果你对这个话题感兴趣,那这个视频会对你很有用。首先这个东西它的实际能力肯定是被媒体夸大的,而且也不是买一个 mac mini 就 能搞定的,但 是它确实是一个好的开始,是一个重要方向。那如果你想学习 ai, 这个 open cloud 非常有必要去实践一下。如果你要用好它,就要给他很强的权限,比如说要他操作你的电脑,你就得给他电脑的文件读写权限。如果你想让他帮你收发邮件,或者 读一些在线文档,那你就得给他一些相关的网络账号的权限。所以呢,为了安全起见,这个 open cloud 最好是部署到一台专用的电脑上,让他操作一些网络资源,这些网络资源的账号最好是专用的。那 那么这个 openclaw 对 苹果系统支持是非常好的,这也是为什么之前很多人都去买 mac mini, 然后专门跑这个大龙虾也是这个原因。但是有 mac mini 还是远远不够的。我说一下我是怎么安装的,我是把 openclaw 安装到这台 mac studio 上边的 这个虚拟机里边啊,这是一个虚拟机麦克 s 啊,虚拟的麦克 s 是 用的这个 pd 虚拟机软件,用虚拟机软件的好处就是你可以安装多种系统,从 linux 到 windows 十十一,然后到麦克 s 都可以随便装,随便折腾,然后每一个系统你可以安多个,安多个都没有问题。 然后这个虚拟机整个就像一个黑盒子一样,无论你在里边怎么折腾,都不会影响到外边这个真正的麦克 s 你 的这个生产力。麦克 s 系统啊,非常的安全,就是安全隔离,然后用虚拟机方式部署。另一个好处就是这个虚拟机的内容啊,这个系统本身实际上就是一个大的镜像文件啊, 就是这 win 十的, win 十一的, macos 的, linux 的, 你可以把这些文件放到移动硬盘上,固态移动硬盘上,我现在就是这么放的,所以不占你本机空间,备份起来也非常方便,你只要把这个文件拷配一下,备份一下就可以了,等你想恢复的时候把它拷回去就行了,非常的方便,很灵活。 然后用虚拟机唯一的缺点,相当于又运行了一个系统啊,所以这个 macos 最少也得给它八 gb 内存,然后我这里是给到了十八 gb 啊,其实基本运行给个八 gb 就 可以了。 其实这个 opencloud 本身呢,它占不了多少内存啊,才占了几百兆内存,它本身不怎么占内存,这也是为什么 mac mini 就 能部署的原因啊啊,真正要求配置高的不是它,它占不了多少内存, 只安装好了 open cloud 还不行,还得有一个 ai 大 模型来配合,无论是在线的还是你本地安装的,你得给大龙虾安装一个脑子,不然这个龙虾它什么都不会干。可以把 open cloud 理解为一个插排啊,上面可以接各种设备啊,可以 给手机充电,充电宝充电,插一个游戏机都可以,但是呢,你要给这个插排供电,它才能使用啊。 的 ai 大 模型呢,就相当于给这个插排供电,所以在你使用 openclaw 读写你电脑上的文件,帮你看在线文档,其实都是后面的 ai 大 模型在起作用。实际上你的 openclaw 可以 使用多种大模型啊,比如说在线的千文模型,然后你也可以安装各种本地的开源模型, 你可以通过 opencloud 点 json 这个配置文件进行配置,当前使用哪一个,在这个配置文件里修改一下就可以了。那建议目前这个 opencloud 实际使用起来比较费 talkin 这个问题呢?呃,很多人还都是安装的本地大模型,在本地运行 ai 大 模型要比 安装运行 opencloud 要求的电脑配置要高一些。那如何把大模型安装部署到你的 mac 上或者 windows 上?我之前发了很多视频, 很久以前就发过,你可以去看一下。我这里呢, openclaw 是 部署在这台 max studio 的 虚拟机软件里,本地部署的大模型呢,也是在 max studio 这台机器上,但是是在这个宿主机,也就是这个机器的系统本身基于苹果电脑,安装本地大模型要给到足够的内存。 我这里用 alama 本地安装了两个模型,我实际上用的就是第一个,第二个,这个你可以看到比较大,激活加载之后比较费内存。 我这台 max 六六一共有九十六 gb 的 物理内存啊,你可以看到现在已使用内存有四十二 gb。 现在大模型还没有加载,因为我本身这台电脑上运行了很多 app 啊,包括那个 macos 虚拟机,占了也不少内存。 你现在看到的是 openclaw 激活那个三十 b 的 千万三模型啊,现在的已使用内存已经到了八十三了。现在麦克 s 虚拟机里边的这个 openclaw 进程实际上没有什么变动啊,还是三百多兆,不到四百兆,所以它是不怎么吃内存的。 如果是日常收发邮件、总结文档这些日常工作内容,它已经够用了。甚至我后边想试一下更小的模型,比如十四 b 的, 呃,这个量级的是不是对所谓 ai 员工的这些操作是不是就够用了?这样可以降低对本地机器这个配置的要求。那 open cloud 和大模型都安装配置好之后呢,作为你的 ai 员工呢,你就可以用你的手机 app 来指挥它,帮你 做一些事情。举一个有用一些的例子啊,比如说你是一个公司的 hr, 那 你们公司正在招聘 ai 工程师,呃,每天都有很多应聘的邮件到你的邮箱里,那你很忙,你就可以让这个 open cloud 帮你每天去筛选一些符合你要求,符合你标准的这个应聘邮件, 然后发送到你的手机上。比如说我这里用的谷歌邮箱,那你要想让 open cloud 去读写这个谷歌邮箱的内容, 你就得配置一个叫做 g o g skew 的 这么一个东西。实际上这个 skew 呢,在 open cloud 里是非常重要的,可以扩展它很多个能力。那如果说把这个 open cloud 比喻成一个插排,那这个 skew 在 里边的角色就是相当于插在这个插排上的各种不同的插头。比 说你插一个手机充电器,那这个插排就可以给你的手机充电,你插上一个,呃, ps 五主机你就可以,那你就可以玩游戏,你插上一个台灯,你就可以照明。所以说这个 openclaw 本身它安装是很简单 的,就官方的那一句话就可以安装啊,如果没有网络问题的话,就是一句话就安装好了。重要的是它的配置。 openclaw 运行在虚拟机里,优点就是安全隔离,它是一个黑箱子,不会破坏你的生产力的这 一些机器。呃,并且方便备份和恢复。呃,本地运行大模型呢,也没有 token 焦虑。这个方案的缺点是要有一定配置的苹果电脑啊,特别是内存要大一些。当然你也可以把 openclaw 部署到一台苹果电脑上, 然后本地大模型部署到另一台苹果电脑上。你也可以用 linux 系统来部署,也可以用 windows 系统来部署。 ok, 这就是本期视频,如果你对 openclaw 或者 ai 话题感兴趣,别忘了点赞关注,后边我也会分享更多的关于 openclaw 的 使用细节和配置。感谢收看,我们下个视频见!拜拜!

想试 open call 的 老板,先听我说完,第一次用千万别本地部署 clowns only 今天告诉你三个原因,帮你省几千块冤枉钱。原因一,你还没找到使用场景 open call 能干很多事,自动回邮件、写周报,管日常监控数据, 但哪些对你有用?你不试试怎么知道?原部署五分钟搞定,零成本是错,本地部署先花两万买设备,结果发现用不上这两万谁买单?原因二, 本地部署风险高,网络穿透贵配吗?防火墙怎么开?出问题了谁解决?云部署是拎包入住,本地部署是自己盖房,你连 openclaw 是 啥都没搞懂就开始搞服务器,步子太大了。原因三,成本要算总账,有人说本地长期更省钱, 前提是你要长期用,第一次试用能不能坚持三个月都是未知数。这时候谈省钱,就像办健身房,年卡去了三次就闲置。云部署一个月几十块, 用三个月才几百块。摸清了价值再决定要不要本地,这才叫理性。听好了标准流程, 第一步,云部署五分钟跑起来。第二步,用两到四周找场景。第三步,确定长期用才考虑本地部署。 记住,先云找场景,在本地。最后总结,云部署是试错的成本,本地部署是确定价值后的选择。第一次用 opencloud 的 老板,听我的,先上云评论区,告诉我你准备怎么部署,下期教你怎么五分钟云部署跑起来,关注别走丢!

虽然 open club 一 片包裹,但有些潜在的坑该聊还是得聊,今天我们就来讲讲这只大龙虾对于普通人来说都存在哪些问题。其实眼睑一开来说,核心有两个首要大坑就是 安全。虽然这玩意看起来很好用,但它现在其实就是一个没穿铠甲的将军,安全性几乎为零。 open club 为了图方便,把你的各种 key 近乎明文的存在本地,只要你的电脑中了个普通的流氓插件,你的所有付费接口就变成了别人的免费提款机。 官方说修复了,但这种需要最高权限的工具本身就是一个风险放大器。这还没完,在 clonehub 与 g hub 上,已经有超过两百组 内含恶意代码的 skills 现身,伪装成加密货币自动交易工具,实际上会在 macos 与 windows 系统里偷放窃资的恶意软件,装上一个你钱包里的虚拟货币账号密码,可能就在不知不觉中被 偷走。第二个坑叫你以为免费 open call 本身却是不要钱,但它需要付出的算利息却是不知不觉的,它背后连接的是大厂的安量计费 a p i。 你 的每一条指令都在安量计费,比如语境记忆问题,他为了理解你, 会反复读取你们之前的对话,你的本地文件,你的个人篇号,每一次读取都在消耗投坑。这个消耗量是滚雪球的, 你用的越深,账单就滚的越快,所以就会出现你可能只是用它处理一些非常基础的事情,消耗的透客量就可以让你叹为 观止。除了这些以外,其他就是一些不稳定之类的小问题了,比如接入钉钉飞书,有时候配置不对,机器人可能立刻就装死不回复,离大家想象中的那个智能助理稍微还是差点距离的。所以啊,我的建议是,如, 如果你是技术大佬,爱折腾,不怕风险,那你尽管去探索,但记住及时更新,别乱装插件,管好你的密钥。但如果你是普通用户,就想找个省心的工具,那我劝你现在还别急着碰这个,还是一个需要精心伺候的实验室产品, 他还没到给普通人用的家用电器那。如果你是个普通企业老板,那就更得警惕了。在没有专业安全团队评估前不介意引路, 它带来的效率提升可能远远抵不上一次安全漏洞造成的损失。总而言之, openclo 想法很前沿,但它让我们提前面对的是强大人工智能带来的效率 和安全的终极权衡。在它变得更成熟、更简单、更安全之前,我们其实不妨让子弹再飞一会,记得点赞关注哦!

最近 a h r open klo 这个小龙虾实在太火了,付费上门安装的服务都被炒到了五百元一次。某大厂办了一个线下免费安装的活动,排的队比老年人领鸡蛋还长。那今天这个视频教你如何一分钟部署 open klo, 视频结尾我还会演示几个硬核的用法,教你如何压榨这 只龙虾。那开着前先给大家提个醒,网上很多教程都教大家本地部署,但是如果你没有一个备用电脑的话,就不建议尝试本地部署, 因为 oppo 壳到需要的权限实在太高了,如果你在有重要文件的主力电脑上去跑,一旦出错,后果就很严重。上个月 mate 的 高管被龙虾删了大量的工作邮件,这就是个惨痛的例子。当然这也是为什么最近苹果的 mate mini 被买断货的原因。 所以本视频我们用的是云端部署方案。限阶段龙虾能无缝接入 telegram、 discord、 whatsapp、 飞书、企微等平台。国外用户接入 t g 的 比较多,但如果你人在国内,又不想折腾网络的话,飞书是目前国内玩龙虾好的选择。它们家的生态非常齐全,前两天发布了官方版的 open 格式插件, 接住龙虾后的操作特别丝滑。那废话不多说,我们正式开始。首先打开飞书,直接搜索 open class, 选择这个妙搭,然后点击一键部署 open class, 这里你需要给你的龙虾起个名字,并且给他选一个形象, 然后点击创建按钮,他就开始部署了。大概等了一分钟左右,他就给你部署好了。选择这个立即对话, 在输入框里跟他发送,获取所有权限,点击授权, ok, 这一下就大功告成。现在你就拥有了一只属于自己的龙虾,并且不需要网上那些复杂的配置,你就可以直接在飞书上去指挥他干活。 这个部署真的对小白用户来说特别友好,啥也不用管,一分钟就搞定。当然,如果你之前已经在各大厂的云平台上面买过服务器的话,直接部署好也可以接近飞书来一样能用。 具体结构教程我写到文档里,大家感兴趣视频接本自取。那接下来我们开始压榨龙虾,看看在工作中到底可以怎么样使用。 open class 案例一,私人秘书日常工作中最简单的用法就是让他去充当你的私人秘书。你可以让他帮你创建代办事项和日程,或者帮你预约会议, 又或者让他每天给你发送行业日报,了解最新的资讯。不光如此, overclock 还能跟飞度上的各种办公软件结合。比如在日常工作中,你写了一份文档,然后你的同事和领导在文档上添加了各种批注。现在你可以直接让他动手帮你修改文档。 不光文档可以用,表格的工作也可以处理。比如你让他去做一个市场调研,我给他发这一串指令,等他干完活以后会发消息提醒你点开他消息里面的链接。刚才我们要的所有数据,他都整理好了,登记在周围表格里,这个玩法用来监控或者爬取数据都特别方便。 那这说句节外话哈,虽然现在龙虾的热度很高,但我不会无脑去吹。坦白来讲, open klo 目前执行任务也会出错,比如这个任务,我在测试的时候他就失败过两次,但我让他自己想办法解决,过了一会他改一改就跑通了。所以在执行任务中遇到报错或者无法解决的问题,不要慌, ai 时代,我们要学会用 ai 去解决问题。 这个案例是我觉得最实用的。写日报估计是所有打工人都讨厌的工作内容。在过去的一年里边,有不少 ai 工具都号称自己能写日报。但如果你用过那些工具,你就会发现,想让他写个日报,你需要先把今天的工作事项、文档等数据喂给 ai, 他 才能帮你总结。 讲实话,如果我愿意把今天干的活自己去梳理一遍,为啥还要多余让 ai 去总结?所以市面上很多 ai 工具都有点华而不实。但如果你的公司是在非书上办公的话,现在可以让龙虾帮你写日报,直接跟他说,给我生成今天的工作日报,它就能获得你所有的文档、日程,还有聊天里边的数据 看,不仅能看出我今天创建的几个文档,甚至连今天装龙虾做了七十五个系统授权,也总结出来了,跟市面上那些需要自己未数据写日报的 ai 工具比,这才是真正能落地的生产力。 视频最后聊一下我个人对龙虾的看法。在深度养虾一个月以后,我觉得这波 open klo 热潮最大的赢家有两个,第一个毫无疑问是苹果公司 mac mini 的 销量直接被带起飞, 另一个就是那些在用飞书这样的软件办公的企业。因为接触龙虾以后,你会发现 agent, 它不再是一个只陪你聊天的对话工具,而是拥有你的工作数据,能真正帮你干活的执行者。 视频里面的所有步骤,包括云端部署和本地步骤教程,我都整理在了一个文档里面,赶紧去创造你的第一个赛博员工吧!下期视频教你 open klo 的 进阶玩法,别忘了点赞加关注,我是山河,我们下期见!

二零二六年,谁手里龙虾多,谁就是真大爷。今天我手把手教你在本地的 windows 上面把小龙虾 open club 部署起来, 让他成为你的第一个 ai 员工。安装 open club 需要三个软件啊,一个叫 gte 啊,就这个软件,还有一个叫 load gs, 这两个下载最新的就可以了啊,当你的电脑如果是 windows 十的话,你还要下一个叫 winsole 的, 这个软件让他比较简单啊,比较简单啊,只说这过程中需要有三个地方需要注意啊,我用图给大家展示出来的啊,需要注意的地方, 安装完成之后需要重启电脑啊,重启完了之后,接下来我们要运行一个命令,叫 n p m install, 然后杠 g 啊,然后 open cloud at latest 啊,运行这个命令,它就会帮我们去安装这个 open cloud 这个这个软件啊,我就等待它啊,这过程如果不报错的话,你就可以接下来就可以去看一下它安装的版本号,你看我这个是二零二六三零二,对吧?啊,安装完看了版本号之后,就运行一个命令叫 open cloud onboard onboard 啊,运行完这个命令,它就会帮我们去去开启一些设置项啊 啊,开启第一个设置项就是我们的那个大模型的设置啊,大模型有非常多啊,支持,比如说智普的大模型啊, kimi 的 大模型对吧,千万大模型,谷歌等等啊,这里我用了 kimi 啊,所以说我就选择 kimi 的 大模型啊,完了之后还要你输入 kimi 的 k 啊, k 从哪里来,你们自己去搜索一下啊,自己搜索一下啊 啊,配置完这个大模型的 k, 选完我们需要的模型之后啊,接下来下个要要做的配置,就是我们去配置那个,那个 什么聊天聊天工具啊,这个地方默认的话它是就是我们有很多,有 imessage 啊,谷歌呀, whatsapp 啊啊,大家中国人选的最多的是飞书啊,飞书啊,但飞书怎么配色?你自己去看一下啊。但是我们这个地方先不用配啊,我们先先站着跳舞,这个暂时不用弹啊,不用弹啊, 啊不不,然后完了之后,接下来就可以跳到下个啊,下个是啥?就是配置它的那个 skills 啊, skills 啊,那 skills 来自哪里啊?就是说这个时候如果你搞不明白,你也可以选择漏啊,很多地方都可以不用配,因为我们到后面,它到它控控制台里面,我们还可以去去修改它,还可以去增加它,大家不用担心啊,就是搞不清楚了就先不配它啊。 所以这个 scroll 你 要选择 low 啊,选择 low 啊。接下来下面还会有几个选项,你只需要选择后面四个啊,叫,一个叫 bug 啊,一个叫 bug drop 啊,一个叫 command 啊,一个叫 session 啊。选择完这四个按回车,按回车键啊,然后就可以了,它就会自动给我们去安安装安装和配置。这个 open call 啊, 这个安装配置过程中可能会有点问题啊,有时候可能会报点错,如果报错的话,你就去去什么?去那个 ai 里面再去搜一下啊,因为每个每个环境可能不一样,会有点差异啊, 但整个过程还是比较简单还是比较简单,你需要你,但凡你在大学里面学过 unix 或者学过那个那个 dos 啊,一般都会啊,所以可能在这个全英文环境下,可能稍微,呃,比较比较骚扰一点啊,比较骚扰上面会显示龙虾那几个字啊, 就代表你就配置成功了啊,配成功了啊,你看这个运行完了之后,马上他基本上大概可能一分钟左右他就会弹出那个界面啊,那当看到这个界面的时候啊,这个小玩家就配好了啊,你就可以开始使用它,看懂了吗? open color 已经在你 windows 上跑起来了,就这么简单,关注老王带你玩 ai。

相信大家已经安装好了自己的 openclare, 但是你有没有想过你每一次的 openclare 的 使用都会消耗你的 tokyo, 这个 tokyo 的 话就是需要大家去花钱去买, 那有没有办法能够免费的使用 opencloud? 如果说你也想要免费使用 opencloud 安装 olemma 模型,那一定要点个关注,点个收藏,不然的话你下次就刷不到了。那我们进入正题,我们直接啊百度搜索一下 olemma, 然后在这个右上角位置点击下载, 这边的话选择自己电脑系统,然后点击一下,直接点下载就可以了。 ok, 下载好了之后,我们直接正常安装啊,就会进入到这个页面,然后右下角我们要选择一个模型,正常来说一般是选择这个 gpt 二十 b, 也可以选择千问,三点五千问。 ok, 我 们在这个位置选择好了之后,你发一个消息,你比如说我选一个,我没下载的,我发个一,你发一个消息之后,他就会开始自动下载这个模型。 好,我们直接进行下一步。欧莱玛下载好之后,我们直接通过这个运行安装向导重新把 openclock 跑一遍, 因为之前你们装过 deepseek 的 模型,然后这个配置处理的话,选择更新值, 在这个模型认证供应商这里选择 olemma, 本地本地本地,然后它会有一个模型 id, 例如 deepsea 杠 r 一 比八币,我们再打开你的 olemma, 看一下你的右下角, 就是把这个名字输入进去, 我们用的是这个二十币, 这个的话直接回车就可以了。 这个聊天通道的问题,因为之前已经跟大家讲过了,我们就直接挑过了, 我们把网关打开,等这个 opencloud 的 正常运行。 ok 啊,大家在运用这个 oemma 本地模型的时候,它是不需要花钱的,但是它是基于你电脑来去做的本地模型,那是什么意思呢?就是说它直接消耗的是你电脑的性能, 比如说我们在这个内存 gpu 直接消耗你的电脑性能,比如说你的电脑越好,那它运算速度就会越快,大家这么说能理解吗? 还有就是这个欧莱玛上面的模型,它对应的有一些,比如说它这个二十 b 的 模型,它是 比较推荐八到十六 g 的 这个显存的显卡,然后才去使用,然后有一些是呃,一百 二十币的支持二十四 g 或者三十六 g 的 显存的显卡才能去使用的,也就是说他直接消耗的是你电脑本身的性能。 ok, 如果说大家感兴趣的话,可以自己去装一下试试。

我最近打算得罪一批人了,前段时间我扒了一圈市面上的抖音运营 ai 智能体,发现很多产品都在用智能体的概念变着法割韭菜, 有卖会员的,有做萨斯的,还有直接打包卖客的,但是就是没人做开源,更别说本地部署。所以我当时就做了个决定,我打算从临写一个抖音运营人的专属 ai agent。 而且从第一天开始,我就决定了一件事,这个项目完全开源,而且永久免费, 不开会员,不卖萨斯,也不卖课,也就是说,你的账号、数据、运营策略、七号玩法,全都在你自己电脑上。 这个项目的后端机座我参考了最近爆火的 openclaw, 还有自己的 dearfloor, 之前开原框架,现在项目进度已经差不多百分之八十了。但做到现在,我遇到了最大一个瓶颈,也就是今天我发这条视频的原因就是知识库不太够。抖音有几十个赛道,知识 ip, 本地生活、直播、带货、教育、餐饮等等, 每个赛道的底层逻辑和起跑打法、爆款逻辑完全不一样,我一个人再厉害,也不可能拥有所有赛道的一线实战经验,没有这些真刀真枪干出来的运营干货, ai 再聪明也就是个中看不中用的通用工具,根本落不了地。所以我在想一件事,把这个项目变成一个全行业共建的开源项目, 不管你是哪个赛道的运营,只要你手里有爆款视频,拆解账号、起号复盘、独家运营方法、踩坑必坑经验,哪怕只是一条跑爆了单条视频心得,都可以发给我,我会把所有内容整理成 ai 专属知识库,开发成对应赛道的独立 ig 的 模块,让他真正懂抖音、懂运营、懂你的赛道。 所有参与共建的朋友,我会给你定制装入赛道的 ai 功能,你的名字会永久留在项目的贡献名单里。我相信这个视频发出去以后,很多人会说我傻,熬了无数个夜写出来的东西居然免费开源一分不挣。但我一直坚信,技术从来都是越分享越有价值。 阿里在开源, deepsea 在 开源。真正推动行业往前走的,从来不是那些天天想着怎么割韭菜的人,而是愿意把东西拿出来共享的人。如果你也愿意起共建,直接私信我,共建等项目上线,我第一时间告诉你。

相信大家现在还有很多人卡在 opencloud 的 部署上吧,这款真正能动手干活的开源 ai 智能体最近爆火,但是门槛不低。大家好,我是伟建。今天我用三分钟把云端和本地部署的区别、大模型调用的逻辑讲透,帮助大家少走弯路。 云端部署和本地模型的区别是什么呢?云端部署的一键镜像可以免去复杂的安装步骤,成功率几乎百分百,而且能七成二十四小时在线随时调用。但本地部署就不一样了,每个人的电脑环境不同,代码的能力不同,部署是各种的报错跳出来,成功率特别低。更关键的是,本地部署依赖自己的电脑,一关机就没法用了。这里重点说下本地部署,我只推荐虚拟机部署,为什么? 因为 opencll 权限太高,很容易泄露公司信息、个人账号、密码甚至商业数据,风险太大。而虚拟机能隔离环境,既不影响原有系统,又能够降低权限的风险,是本地部署的最优解。 再讲大家最关心的大模型怎么选? opencll 就 像一只手,要让它干活,必须配个大脑,这个大脑要么调用厂商的 api, 要么本地部署大模型。先说说 api 调用 top 机费 直接用厂商已经不好的满血大模型,不管是硬件还是通过他们的接口调用算力输出,结果按输入输出的 token 进行计费。现在很多厂商都有免费的 token 额度,日常使用的成本比较低,而且大模型的性能拉满,响应速度快,结果又精准。 那为啥不推荐本地部署大模型呢?不是不小,是真的不划算,现在大家的电脑显卡内存平均才有八 gb, 顶多只能部署八 b 以下的模型,和厂商的几百 b 满血大模型比,性能天差地别。有人说,那我买高端的硬件,一套能部署满血大模型的硬件不就行了? 那你可以看看现在的硬件价格,一套能够部署满血大模型的成本价格大概在一千万左右,要是能花这个钱,根本就不会觉得套很贵了。 最后总结一下,想快速用起来,怕部署踩坑。选云端部署,非要本地用降低成本就选虚拟机大模型,优先选择现在免费调用大模型的厂商 a p i, 包括阿里云、华为云、腾讯云等 一夜的朋友们呢?想抓住 opencloud 的 红利,我会根据你的具体业务场景,免费为大家提供专属的落地解决方案。我是伟建,下次见。