在 ai 时代,如果你没有一台苹果电脑,那么你会失去什么呢?首先你会失去 ios 系统的高付费医院的这种群体。第二个呢,是会失去各种新发 ai 工具,它没有办法使用或者第二批次使用这种限制。 第三呢,就是 opencode 配置的各种环境问题。由此得出一个观点,苹果设备正在变成 ai 玩家的基础设施。那我是经历了什么得到这些结论呢? 其实一开始用 webco 定做应用的时候我就发现了,因为你想把做好的软件卖出去呢,安卓系统的种类是繁多的,你得挨个适配,苹果系统就很统一。就是,都是 ios 设备嘛, 最气人的呢是苹果用户的付费意愿是比安卓用户不知道高了多少的。所以说你要是想在苹果设备上卖你的应用,就得用苹果开发者账号,没有 mac 不好意思,玩不了。 我当时就在想,反正就这一个痛点,那我就先在安卓上卖也行,那就忍了。结果呢, open code 出来之后人都麻了, 官方原版就是优先支持 mac 系统,你用 windows 跑也可以啊,得额外装一个虚拟镜像系统,而且就算装完也有各种不适配,链接不上的这种 bug, 我 在这上踩的坑都能单独拿出来讲一期视频了,而且这还没有完。 由于 open cloud 爆火之后呢,其他各个大厂 cloud 类的产品推出的时候也都清一色的优先推出 mac 版本, windows 版本呢,往后排就这种感觉,你懂我意思吗?就不是说 windows 不 能用,是你永远在等,永远在折腾这个兼容性,别人都已经跑起来了,你还在配置环境。 而且说实话,兼容性它其实只是表面问题。我最近一直在思考一个问题,在 ai 时代,这个核心资产还有可能是房子吗? 有没有可能会是算力?哎,你想啊, ai agent 跟以前的 ai 不 一样,以前你打开 gpt 问一句呢,然后他回答你一句,算力呢?全在云端,跟你也没啥关系。现在如果你要玩 agent, 它可以在你的本地去跑七成二十四小时在线,随时执行任务,这就意味着你自己的设备首先得扛得住。那 mac 为什么能作为一个算力的资产呢? 因为苹果的 m 芯片,它有个东西叫统一内存架构,说白了就是普通的电脑内存和显存它是分开的,各管各的。但 mac 不 一样,它把内存和显存合成了一起, cpu、 gpu、 神经引擎全都共用一块内存,这意味着什么呢?你拿到一个二十四 g 内存的 mac mini 跑 ai 模型的时候,这二十四 g 全能当这个显存用, 但你拿同价位的 windows 台式机八 g 显存,那可能就已经达三四千了,剩下的内存呢?模型可能也很难用得上。所以我现在的看法是,多一台算力设备,不是花钱,是给自己囤的弹药。就像你十年前买个好电脑能多接几单活,现在 你有一台能跑 ai 的 设备,就能多出好几个数字打工人。但是我也知道啊,不是每个人都能随手掏大几千,特别是你不确定这个东西到底值不值的时候,万一他真的就是一直疯的。但是你别慌啊,我给你一个我自己验证过的方案,就是去海鲜市场 搜 mac 远程租用,大概呢是两百块钱一个月,然后两块九一个小时,这样的话你就能拿到一台 mac mini 的 远程操作权限。装 opencloud 啊,跑 agent 呀,然后跑本地模型啊,都能搞两百块,什么概念?就是一天不到七块钱,你点杯奶茶的钱。 所以说你可以先用这个试试水,觉得真的有用再考虑入手,觉得不合适下个月不再去就可以了。这个试错成本比直接下单子几千块钱卖还要强多了。感觉学到了的别忘了给我点个关注。说回开头的那句话,我不是劝你非得买苹果, 我是在说 ai 走到 a 阵,它这一步,算力呢?它已经成了门槛了。以前你玩 ai 有 个浏览器就够了,现在玩 ai 呢,你得有一台能跑起来的机器。好,这就是这期内容了,咱们下期见。
粉丝2270获赞9424

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

哈喽,大家好,欢迎收听我们的播客啊,今天要跟大家聊一聊最近非常非常火的这个抢购 mac mini 用来跑 open claw 这个事情啊。 然后我们会给大家讲一讲为什么 open claw 会这么火啊,为什么大家会选择用 mac mini 来部署它啊?最后我们也会给大家提醒一下,使用的时候有哪些风险和注意事项。 ok, 那 我们就开始今天的分享吧。咱们先来聊第一个话题啊,就是 open claw 为什么会成为一个现象级的产品? 我觉得这个事情咱们得先从一个问题开始问起,就是他在技术和产品定位上面到底有哪些独特的地方?嗯,就是他其实彻底改变了 ai 的 使用方式, 就之前的那种 ai 助手,你都是问他一个问题,他给你一个答案,但是这个东西你是可以直接用自然语言去命令他 完成一整套的操作,就比如说我让他帮我整理邮件,然后帮我生成一个报告,再帮我发到指定的人手里,他是可以一气呵成的。听起来像是一个真正能干活的数字助理没错,而且他是完全在本地或者说在你的私有云上面运行的, 所以他所有的数据,所有的操作都是不会上传到第三方的。所以这个对于企业或者说对于一些隐私比较敏感的用户来说,简直就是他的这个技术和定位, 彻底的解决了之前那种 ai 只能看不能用的这个大难题。那他这个技术架构到底是用了哪些巧思让他变得这么独特啊?他其实是把整个系统拆分成了三层,最核心的那个叫做网关,他是一个大脑,他是负责所有的消息的转发和所有的设备的管理。 然后再往下一层就是智能体,智能体就是真正干活的人,他是负责把复杂的任务拆解成一步一步的小操作。 再往下一层就是节点,节点就是负责具体的某一个功能,比如说我是负责文件操作的,我是负责网络请求的 等等。那这种分层有什么好处呢?最大的好处就是它的这个灵活性和可扩展性,比如说我想支持更多的聊天工具,那我就只要在渠道层去做一个适配就好了。然后他的这个数据的存储是全部都落盘的, 就是用纯文本的形式落盘,所以你可以很方便的去做版本管理,或者说去做迁移。他的这个任务的调度是用了一个类似于车道的这种机制,所以他可以很智能的去帮你分配这个任务是应该串行还是应该并行,所以他的这个整个的 系统的稳定性和效率都是非常高的。对,那就是说这个 open clock 到底是凭什么在这么短的时间内就掀起了这么大的热潮?就是它,它的厉害之处就在于它是一个让 ai 真正的从一个 只会回答问题的这种工具,变成了一个可以真正帮你去自动完成一系列工作的这样的一个数字助手。然后再加上他的这个非常注重隐私,所有的东西都可以在本地运行,再加上他的这个非常丰富的这个技能市场,又有非常活跃的这个开发者的生态, 再加上它的这个门槛又极低,就你几乎不用怎么学习就可以使用,再加上它的这个多智能体协助,以及它的这个自动升级的这个功能,所以它是一个非常非常强的技术创新,和它的这个实际的应用场景结合的非常好的一个东西,所以 资本也非常的看好,政策也非常的支持,所以它一下子就成为了这个新一波的 ai 浪潮里面的一个风向标。然后咱们来聊第二个部分,就是为什么这个 mac mini 会成为大家首选的一个部署的环境,它在能效和适配性上到底有哪些让人无法拒绝的优势?首先就是它的这个能耗,它的能耗真的是非常非常低, 就是他的这个 m 四芯片的这个待机的时候只有三到四瓦,然后满载的时候也不过十瓦左右,这比市面上的同级别的这种迷你主机都要低三到四成的能耗, 所以它可以做到常年开机,几乎不怎么增加你的用电的负担啊,这个就真的是省心又省钱的。然后呢,它又不只是节能,它还非常的安静,就是它的这个风扇的转速是一千到一千二百转,你几乎听不到它的声音, 它的这个体积又很小,你可以随手就塞到你的书桌下面或者是柜子里面,它又自带了这个 microx 系统, 所以它跟这个 openclf 是 几乎无缝衔接的,你完全不用担心说有什么兼容性的问题,你部署起来可能就只需要十几分钟,非常适合这种普通用户,或者是说小团队想要去搭建一个 ai 服务。 哦,那那这个 mac mini 在 这个内存啊,存储啊这些方面的设计,对于 openclf 的 实际运行会带来哪些好处呢?它的最大的优势就是它是一个统一的内存架构, 就是它的这个 cpu 和 gpu 是 共享同一块内存的,所以它可以非常快速地去处理大模型和这个多技能的这种并发症的请求。 你像它的这个 m 四的十六 g 版本就可以非常流畅地去运行这个 openclare, 并且还可以同时使用这个云端的 api。 如果你上到六十四 g 的 话, 你甚至可以在本地跑这个三百二十亿参数的大模型,然后它的这个推理速度可以达到每秒十一到十二个 token, 听起来就是性能和效率都非常的有保障啊,没错没错,然后它的这个除了这个内存之外,它的这个存储也非常的灵活,它支持啊 外置的 ssd, 所以 你可以把你的这个模型啊,数据啊都放到这个外置的盘上面,这样的话你这个机器即使长时间运行也不会有什么瓶颈,而且数据的备份啊,迁移啊都特别的方便, 就你可以非常完美地去应对这种高负荷的 openclog 的 场景。那如果说我们想要用 mac mini 来部署 openclog, 在 安全性和可维护性上面有哪些细节是我们需要注意的呢?首先第一个就是它的这个 micros 系统,它是自带了这个防火墙和文件加密的, 所以你所有的数据其实都是在本地的,或者说你可以选择把它放到一个加密的移动硬盘里面,然后你也可以使用这个虚拟机或者是沙浆的技术,再给他额外的增加一层隔离,就是你可以保证说即使在最坏的情况下,你的这个敏感信息也不会被泄露出去。 哦,那就是说这个远程访问这一块有没有什么比较好的方法可以既安全又方便呢?可以使用一些工具,像 tierscale 或者是 zero tier 这种来建立一个加密的隧道, 然后你可以通过这个路由器的 guest wifi 把它隔离在一个独立的磁网里面,配合一些比如说什么定时重启啊, 资源监控啊,自动升级啊这些小的脚本,你就可以让他一直稳定的跑下去,也很省心很省力。我们来聊一聊这个使用风险和建议啊,就说这个东西在实际使用当中到底会有哪些比较严重的安全隐患。嗯,最核心的问题就是他为了能够去自动的完成这些复杂的任务, 他默认是要有你这个操作系统的最高权限的,所以他什么都能干,比如说他可以读写任何文件,嗯,他可以执行系统命令,嗯,所以这个这个就是如果一旦他被诱导或者说他出现了什么错误,他可能一下子就把你的 重要的数据删掉了,或者说他把你的这个关键的配置文件改掉了,这种事情其实在现实当中是发生过的,对,挺吓人的,听起来这操作失误或者说这个黑客攻击都可能是灾难性的,没错没错,而且就是不光是这个,他的这个插件市场也很鱼龙混杂,就有很多的这个所谓的技能, 他其实是没有什么审核的,嗯,就有很多的这个恶意的插件,他可能会偷偷的上传你的文件,嗯,或者是说记录你的键盘,嗯,或者是说有一些他甚至就是这个安装包本身就被人动过手脚,然后再加上有很多人,他可能就是 呃图省事,直接就把这个管理页面暴露到了公网上面,用一个默认密码,那这个就相当于你把你家的大门钥匙就扔到了大街上, 再加上它这个升级也很快,所以它的这个旧版本的漏洞也特别多,嗯,就这个导致就是你数据泄露啊,或者是说这个远程被控制啊,这种风险是非常非常高的。就是说我们在使用这个 opencloud 的 时候,有哪些安全防护的措施是我们一定要去做的。对,最关键的就是你要给这个 ai 单独建一个账号,然后让他只能访问他需要的那些文件和目录,嗯,千万不要让他去碰你的这个关键的数据,最好就是你用一个虚拟机,或者是说用一个刀克把它完全隔离开。那这个安装的环节和这个远程访问的环节要注意什么呢?安装的话就一定要用官方的渠道, 然后这个第三方的插件你就自己去只挑那些你信得过的,并且你自己可以去审核他的代码的。远程访问的话就千万不要用默认的端口和密码, 你最好是还要有这个两步验证,平时的话你还要去盯着他的这个日制,盯着他的这个升级,你的重要的数据一定要备份,就不要想着说我省事,我找一个什么呃,这个袋装服务啊,就就图省事, 最后你就会吃大亏,你觉得就是对于不同的用户群体在使用这个 open cloud 的 时候,大家要怎么去权衡这个风险?嗯,如果是说你只是一个普通的用户,然后你也没有什么技术背景, 那我觉得你最好还是不要轻易的去尝试在你的主电脑上面去安装这个 oppo 克拉,因为它确实安全的门槛还是比较高的。你如果是说在一个公司里面,或者说你是处理一些敏感信息的,那你就更要小心了,你要去评估你到底有没有这个能力去承担这个,万一出了问题之后的损失, 就说白了就是得掂量掂量自己有没有那个本事去兜底,对不对?没错没错,没错,就是这个这个工具本身他是一个非常强大的工具,但是他的这个安全的机制还没有办法跟上他的这个发展的速度,所以他所有的这些权限的管理,数据的隔离,都需要你自己去多多个心眼, 然后官方的这个提醒啊,和这个社区的这个讨论,你都要去随时关注着,不然的话你出了问题之后,往往都是你自己没有办法挽回的。 ok, 对, 那这个就是大家一定要 把它当成一个危险品来对待啊。对, ok 了。那么今天我们算是一起盘了一盘这个 openclaw 为什么这么火,然后也盘了一盘这个 mac mini 作为一个部署的平台,它的优势也给大家聊了聊在这个热潮背后我们可能会遇到的一些风险和挑战。嗯,对,其实说白了就是这一波热潮, 它既是一个新的机遇,但同时也是一个对我们技术能力和安全意识的一个新的考验。嗯,好吧,那就是这期播课的内容了,然后感谢大家的收听,我们下期再见,拜拜。拜拜。

open clone 就是 龙虾,我觉得不适合大部分使用,为什么呢?首先第一个 open clone 它确实代表了一种趋势,它是一个自主性的,我目前就是它一出来我就研究了,就开始使用,然后也用它的所有的变体的版本去做。因为 open clone 它性能有点差,我比较倾向于做这种 边缘计算式的处理,但我发现它有几个问题啊。第一个就是说,如果说你的模型用的差的话,它的效果非常差,那你模型如果说用的好的模型呢?那你就处理一个简单任务,它所消耗的 token 是 非常大的。 我不知道你对于大部分人的业务是否愿意支撑,那我们比方说我们程序员,我们是愿意支付的,比方说我们程序员甚至愿意花费一个月说不定十万块钱买 token, 很多都是愿意的,因为它确实带来了效益,但大部分任务它没有那么高的效益,你如果买那种高端的 token 的 话,就不太合算。 然后那你如果想节省成本呢?你用低的,那效果差的,或者甚至于用本地的推理,本地的推理目前来说你除非配那种高端显卡,你也只能用这种三十多币或者是这一级别的模型,而且设备也很贵。然后拿的效果呢,其实比那种你用普通模型 效果更差。所以在这里呢,就是我觉得是玩的成分居多,我觉得所有的开发者都应该去使用试验一下,但是你想让他去解决问题,我觉得有几个几个点要解决到 本地推理其实也是可以的,我觉得在一段时间之后啊,就是这些设备的性能提升,然后模型的进步, 我们一定要能做到本地推理,比方说本地能达到一百、两百,呃,一秒钟两百个 token, 然后做这种多模态的处理的时候,都做得很好的时候,哎,我觉得机会就来了。 呃,这个我就最多一年吧,我们的本地设备就能跑比较好的模型阶阶段,但是阶阶段大家可能也要去试。为什么要试?就是你得先进去知道这样的一个趋势,就像最早的 angel 出来的时候一个趋势,现在 open klo 这种 自主性的模型他又是一个新的趋势,我们还是应该尽早关注,但是不能对他有过多的期待。

哈喽,大家好,我是小温啊,今天想和大家分享一个我最近这样的成果,就是如何用阿根廷打造一个能自动运营小红书的这样一个 ai 助手啊,你没有听错啊,就是那种他能够自己浏览网页,然后管理文件,甚至登录小红书,帮你发笔记的这样一个 ai。 那 我也是从零开始一路踩坑无数,自己都没想到他终于跑通了, 现在呢,他可以帮我搜热点,写文案,看评论。那整个过程呢,我总结成了三大模块,第一模块呢,它叫做安装配置,安装阿根廷的配置与环境。第二阶段呢,我教他这个权限赋语, 让我们的 ai 能够拥有管理文件和网页这样一个权限。最后呢,我把它叫做这个集成小红书的 m c p 服务,那这条视频请大家一定要看到。最后,我把所有的关键步骤和避坑指南都整理好了。 首先在第一阶段呢,呃,我们要做的是一个欧根可乐的基础安装和环境配置,那在安装欧根可乐之前,大家一定要安装一个 note g s, 我 这里呢是用我们的 mac 来做一个演示,你如果是 windows 版的话,那我们的效果呢,是一样的,步骤呢,也都是一样的, 在在安装我们的这个欧本可乐的时候,用这样一条命令就可以安装好。那这个验证安装成果啊,用它来做欧本可乐,看一下它的 warren, 刚刚 warren 如果它的版本是可以的话,那么我们就能够做到正能说。哎,我的 warren 可乐已经安装了,那我的呢,安装的是三月二号的版本啊,也是很新的, 安装完之后要做的是一个出使画向导配置能够的这块呢给大家演示一下,在出使画向导的时候呢,他会问你选什么模型,然后呢后面可以手动改成第四个, 这个问题都不是很大,我这边就不再往下走了,因为我已经配置过了,如果再敲的话,我或许要再重新配置一下。我建议啊,对于小白而言啊,我们呢就因为我也说小白,我说这个东西很麻烦,所以我建议大家先选择先问,后面呢再配一个飞书,这样呢我们就可以在飞书上随时随地的和我们的这个呃 欧鹏可乐来交流和沟通了,那我这边先退出。装完之后呢,我们可以敲一下这个命令,看一下他是否装完了,那我就比如说我可以敲一下欧鹏可乐,然后呢该到位,该到位, 然后呢 space 就是 来判断我们这个现在和分可料的一个运行状态,当你看到说 running run time 没 ok 的 时候,就说明我们的这个分可料它现在已经正常的在跑了。那在第一阶段的最后呢,说到一个模型选择啊,这边呢给大家推荐的是千问和 deep stack 呢,我个人建议大家可以先用千问完成最基本的配置,到后面呢,我们再用 deep stack 去再用我们的配置软件手动改成我们的 deep stack。 那这边呢,我们大家可以用这个命令打开这个 oppo 可乐点这一个文件, windows 用户呢可以直接点开,我们只需要在这个 oppo 可乐点这一部分替换进去就可以了。需要注意的是这个 api key 这个字段要替换成,要替换成你自己的那个 api key, 并且这个 key 呢,请大家认真去保存起来啊。 替换好这个配置文件之后,重启网关,敲章一下命令,他就可以实现了。那我来演示一下敲的效果, oppo 可乐开启位置 star 啊,就是重启我们的 oppo 可乐服务,当它出现这样的时候,就说明我们的 oppo 可乐已经重重启好了。 那第二阶段呢?我们要做的呢,就是赋予我们 ai 的 一个手脚啊,你完成第一阶段,你可以跟他聊天,你可以跟他介绍你自己是谁,你可以命名。为什么什么都可以啊?那到这一步呢,他只能跟你聊天,那我们需要用模块二来赋予我们 ai 做一个文件和网页权限。第一 步呢, openmind 管理权限,管理文件权限, openmind 对 文件操作有着精细的这样一个权限管理,最简单的方式是使用官方预制的扣定配置机,你可以直接敲这样一条命令,也可以在我们的配置文件里面去。 呃,去设置都可以。那如果你是卖电脑的话,你需要关注一下啊,如果你今年的 oppo 卡里配置还不够,你需要去系统里面给你的 oppo 卡里赋予一些权限。权限完之后呢,我们需要给 oppo 卡里做一个网页浏览和自动化的这样一个功能,那也是用我们的相关的强命令安装一些浏览器的的技能就可以了。那我这里面用的是这个 play right 杠 mcp 吃了很多,我觉得这个是比较简单并且能够实现我们的效果的。 当他做完了以后,命令来也是命令来验证一下,验证一下我们的温克斯 q 里面,他的进库里面有没有这样一个 play right mcp, 那 我这个地方呢,始终显示的是一个 missing 啊,大家,大家可以不用管你,你那边可能是 ready, 可能是 missing, 都有可能。最终一件事你可以验证,你可以去这个我们的 t y 里面跟给他发消息说帮我整理说明的文件,按类型放到不同文件夹里面。 这个地方呢,需要来着重强调一下,如果你对你电脑,对你的办公电脑的话,我建议大家把把 ai 的 权限范围只控制在他的工作空间和你桌面上的某一个文件,比如说我这个地方,我只给他控制在了他的工作空间和桌面的一个叫 nano nova 这个文件夹里面,这样的话呢,他不会乱动你的文件,保证你文件的一个安全。 那第三阶段呢,就是安,就像为我们多功能口袋集成我们的小红书 m c p 服务,那大家可以按照这样的步骤去往一端下载,下载好以后呢解压,解压好以后呢可以安装到单独的一个文件夹里面,那给大家看一下安装 m c p 服务之后的效果啊, 那我这边呢就是安装在我们的这个主目录下面小红书和 mcp 这个文件夹里边啊,给大家看一下,安装以后应该有这样几个文件,并且呢都给相关的可执行文件赋予他们的一个可执行权限,我们就要用我们这个工具来登录我们的小红书,这一步它会自动打开一个窗口,需要你去扫码登录小红书,我们可以开始用这个工具运行我们的小红书工具, 能够看到这样的输出的时候,说明该服务已经成功了。那最后呢,我们要将我们的可乐和我们的这个小红书本地 mcp 服务关联起来,用的这样一个工具来做啊, 具体步骤呢,也是先安装,然后测试,我们能够看到我们那个小红书工具已经被集成到里面去了啊,最后呢,全部都安装好以后啊,也是重启网关,然后验证受限,再到最后大家就到了我们激动人心的时刻了啊, 你可以对着你的 ai 下指令说,帮我检查小红书登录状态啊,帮我搜索爆款笔记,帮我生成并发布一些吸引人的一些呃,标题的小红书啊。

太炸裂了! openai 又深夜突袭! gpt 四点一登场,直接把界面内和 cloud 踩在脚下!这是首个拥有原声电脑操控能力的 ai 模型,推理、编程、操作三大核心能力全面打通! 更惊人的是, gpt 四点一与 openai 完美适配,全面引爆自动化工作流程!这不仅是 ai 操控的突破,更是智能工作流程全面进化的开始!一口气总结了三大亮点,看一下到底有多炸裂! gpt 固点四是首个原生具备计算机操控能力的模型, 这是其他 ai 模型从未突破的瓶颈。它不仅能通过代码控制计算机,还能直接看屏幕、动鼠标和键盘,像人一样操作电脑发邮件、排日程、填表格、跑流程。这些以往你需要点来点去的活,现在 gpt 杠五点四自己搞定! 最炸的是,它能与 opencloud 完美适配,实现全自动操作与实时任务管理,让每个任务都能无缝衔接。 这不仅是操作的突破,更是工作效率的全面升级!第二,涨啊!推理加编程合体,一个模型全搞定! gpt 五点四完美继承了 gpt 五点三 codex 的 编程能力,并在推理方面做了大幅升级。 w 一 奔驰 pro 编程第一, gpt 爆!测试胜率百分之八十三,打破了专家记录 代码编辑问题求解!抽象推理在一个模型内就能同时完成,再也不需要切换工具,效率提升超快! 最炫的展示之一,就是只用一句话,就能自动生成一个完整的主题公园经营游戏不仅能编程,还能自动调整和优化游戏的 ui, 实时调试,确保每个细节都完美。这是推理和编程的完美结合,让开发和创意变得更加简单高效。第三站, 工具搜索上线,偷啃狂砍百分之四十七,效率还更高。 gpt 五点四在工具使用上的突破让人震撼,引入工具搜索功能,解决了工具繁多,上下文混乱的问题。 在 m c p atos 测试中,减少了百分之四十七的 token 消耗,大幅提升了速度和处理效率。更不可思议的是,网络搜索能力的提升,搜索准确率突破百分之八十九点三,成功超越 clod opus。 四点六, 你还可以在任务进行中实时打断,调整思路,不用再推倒重来,大大减少重复沟通。最后附上他的成绩单, g p t 五点四在每个维度都展现出了前所未有的突破,全维度碾压其他模型,你大爷依旧是你大爷,在 ai 时代的竞争中,他依然在最前沿。

哈喽大家好,今天手把手教零基础同学安装 open cloud windows 通用全球腹肌粘贴,不踩坑。先看准备 windows 一 零或十一四 g 以下内存稳定网络,核心依赖是 node js 二二和 git。 第一步,叫 node js, 打开浏览器搜 node js or 下载 windows l s 版,安装时必须勾选 add to path, 一 路 next 到底。第二步,装 git, 搜 git 杠 a i m 下载对应安装包同样默认。安装完成后重启电脑,让环境变量生效。第三步,权限已加速,按 win 加 x, 以管理员兴奋打开 power 效, 输入 set 杠 execution policy remote sign 敲外回车解除限制,再输入 n a m com fake set register at t t ps register n a m mirror com 配置国内镜像,下载速度拉满。第四步,核心安装输入 a m v m install 杠 g open cloud, 等待进度条走完,接着输入 open cloud i need, 按提示选 yes 同意协议快速出息化。第五步,启动服务,输入 opencloud server, 看到 server running on h t t p local host 八零八零就成功了。打开浏览器访问这个地址,就能进入 opencloud 控机台。最后提醒,启动失败,多系依赖版本不够,重新按住 node j s 二四版即可。

这两天我在物邦图的虚拟机上去做 openclaw, 嗯,因为之前一直是用 mark, 在 mark 上操作起来也比较方便,因为对 mark 也比较熟,那个自己也已经有个很久没有去动过了, 我印象中大概有个七八年了。这次在切换上去的时候,我是通过用各大元模型的深入研究的,包括,嗯,居民呐在还有通讯千万 在豆包在 mini max 我 用他们研究去做,我要在 windows 十的乌班图案四点零四点四上面去设置配置,安装 openclaw。 我 一开始用了一个模型,当时是 成功的,后来我要去用多个,我要用 minimax, kimi divsak, 在 还有同音千问的时候,就在设置多个的时候发现都网上都有方法在,而且它的官方网站里面也支持,看来看去我也操作不起来, 就发现可能这跟我的工程能力有非常大的关系,工程的主要反应在几个层面。第二就是说我的 linux 的 操作 不熟,也不是不知道就在这上面应该具体怎么样子,去去去,怎么操作,只是知道是什么样的一个思路。也就是说我要配置多个的时候,它可以在 jason 格 jason 的 配置 文件里面去设置,设置好了之后去重启一下 opencloud 就 可以了。还有一种说在它的呃 g u i 的 就 webos 设置页里面也可以去设置,但是我打开之后可能不太如意,就这两个方式我都配置不好, 所以是说目前这是我遇到的一些情况,我还在尝试。今天是我第二天,还在努力去操作,通过 bug 图下面去设置多个的大圆模型在 open class 上面, 因为我要先把这个做完之后才才能去搞微信的一个测试,因为国内已经有了支持国内的 r m 的 这个插件了,像飞书已经有支持了,还有一个也支持了豌豆叫什么名字了? 其实我想通过我的飞书去控制我手机上去操作我的飞书,飞书跟 opencloud 去通讯,去操作指令,让他去操作相关的这个操作。那我在我在 ucloud 上安装一个微信,让他去帮我做一些 思域的一些操作。思域的操作就是说别人添加你,你要设置好一个规则,因为你不能在短时间之内它不能添加太多了,添加太多了,你的 就不能添加了。如果连续几天添加了非常多人,那你的这个微信号就可能会被封,特别是当别人举报你的时候。第二就是跟别人的一个互动 啊,这些互动可能会存在着一些情况,那但是添加到时是可以的。把订单发给别人,因为我目前只有一个,我只在一个平台上面, 只在一个立刻上面做了方案,我的课程发给他,让他去下单,还有他直接打,把钱打到我的微信账号上,就把这个给他发优惠券 给他,以券的形式把观看地址给他,他通过立刻上面直接去观看。但是目前我卡在了第一步,就是配置多个,呃,大约模型上面出了些问题, 我还没有到 d i 部把微信上去去做测试,微信可能会存在着比较多的风险,那目前是对于的安全的问题,大家讲得非常多, 包括,呃, opencloud 的 目前自由的记忆力的问题,他注意力的问题,还有在单元这个工具容易被别人攻破的问题,还有其他的各种各样的一些问题,但这些问题都是目前我们要去去去尝试去测,好,欢迎大家关注啊!目前我的个人的 产品在时代下的产品经理课程已经上线了,欢迎大家咨询与我交流沟通交互。目前已经上线了总共是七八个小时,目前上线了两个小时左右的课程, 这里面会教大家用科学的方法去做产品上线前中后应该做什么怎么样,如果是你是做软件怎么样子,通过 ai 把你设置出来,并且给它最终实现上线通过,并且还会教你去通过智能体的逻辑去让智能体去帮你做事情。

最近密集地使用了一下 openclock, 花了一些时间去配置,去了解技能,去了解一些用户案例,使用方法。嗯,积累了些经验,也发现了一些它的优缺点。先讲一下它的缺点, 第一个,确实需要花一些时间去配置,要有一些基础的编程概念,要不然会一头雾水。包括它的一些 m、 c、 p 的 工具的使用也是需要配置的啊,包括一些网络问题,包括一些搜索,像 bro 搜索也是需要去花时间了解。 嗯,需要翻墙去获取他的 k, 然后甚至如果不又不用,还需要找一些替代,替代的一些搜索这一块还是要花些时间的。 嗯,对新对编程一点不懂的。嗯,在某些方面会存在一些问题,会不友好。然后优点这一块呢,就蛮多了。然后先说一下我让他干了什么,然后我让他去帮我写一些代码,然后去自己去配置环境,去了解项目,去了解原理,然后 嗯,去了解神经网络的一个组成部分,然后最后去做啊,以后完成都还可以。然后第二呢,我让他去帮我写了一些文档资料,然后自己去剪辑资料,也结合我的资料进行汇总,然后也发现还可以。还有呢,就是有一些啊 skill 的 用法,然后 目前我确实用它做了不少事情,然后感觉整体使用上虽然存在一些问题,但是确实,嗯,像一个嗯,个性化定制的一个数字打工人了。 嗯,说到这也不得不说,也不得不提到 oppo 当时对人工智能发展阶段的五个阶段的定义,感觉还是比较准确的啊。第一阶段,对话者,聊聊天。第二阶段,推利者,然后去做一些复杂任务的推利计算,逻辑性的任务。第三阶段呢,就是 agent 智能体,然后可以帮你做,帮你做事,帮你干活啊, 然后帮你做一些啊,二十四小时运行的工作啊,现在也属于这一阶段啊。然后感觉二零二零年因为 open cloud 的 大火事件,也会是 ai agent 的 一个元年, 应该会有相关的更多相关的一些啊,个人智能体,更个性化的定制,更个性化的使用的一些 agent 出现 啊,包括像阿里,他们已经出了息了,虽然还存在些问题啊,但二零二零年感觉整个软件都会围绕着 ai 镜头这件事情。然后还有还有一个第四阶段,第四阶段创新者啊,第五阶段,一个领导者, 我对这一点现在不怀疑了啊,我用了非常多的海内外的 ai 工具啊,我认为第四阶段,第五阶段未来也是啊,能达成的只是时间问题啊。 ai 时代到来,然后我们普通人还是要尽量的去了 解各种 ai 的 新的应用产品,像孙雨生也说嘛,然后不要跟人聊天,要跟 ai 聊天,这也是有道理的。

hello, 大家好,如果你最近也在用 openclaw, 或者说正打算给你的 ai 养殖龙虾,那接下来的内容你一定要听完,因为这关乎到你的账户安全,甚至你的银行卡密码。那为什么呢?就在最近,工信部 发布了这个紧急的预警,很多人可能还不知道,这个被大家捧上天的 openclaw 在 默认配置下藏着一个巨大的安全黑洞,现在已经有第一批受害者出现了, 有人因为安装了所谓的非官方龙虾技能包,导致 a p i 的 额度一夜之间被刷光了,甚至连本地的私密文件都已经被远程打包带走了。那这里面的技术陷阱呢?其实非常的隐蔽,叫做间接提示词注入。 简单来说,你以为你在让这个 ai 帮你浏览网页,整理资料,但你在这个看不见的地方,只要他访问了一个植入了这个恶意指令的网页,或者说有人这个心怀不轨,他在这个呃聊天软件上面 啊输入了一些恶意的提示词,然后被你捕捉到了,那这个网页就能访客为主,绕过你的授权,直接接管你的系统权限。 那个龙虾的权限是为了让他帮你干活,但你有没有想过,当他拥有了手脚,他同时也变成了一个最了解你,甚至能从内部反手锁死你大门的内贼? 那这绝对不是危言耸听啊,在二零二六年,我们正处于一个极其微妙的节点,那这一年呢? ai 智能体开始大规模的进入我们的生活和工作,这也注定会成为 ai 治理的元年。 那以前的安全问题是杀毒软件的事,现在的安全问题是控制权的博弈,当 ai 的 能力越来越强,我们对工具的权限焦虑就会越深。那我们真正担心的不是 ai 变坏了, 而是我们在享受便利的同时,是不是已经亲手把自家大门的钥匙交给了一个随时可能被别人远程操控的影子呢?

最近 oppo 可乐这个项目评论有点两极分化,有些人说它不好用,我告诉你一下这个,为什么有些人会说它不好用?因为它是用传统软件的思维去衡量这个。 oppo 可乐这个软件, 它是和其他软件的用法完全不一样。我举一个例子,比如说微信,微信它支持文本输入和语音输入,那咱们就没法用语音,只能等微信的人他去开发这个功能,咱们才能用这个。就是传统软件都是这样, 但 open club 不是, open club 这个软件他安装之后是不支持语音输入的,他只能用呃打字,靠打字去输入。但是我怎么让他能支持语音呢?因为他现在能支持语音了,但他怎么支持的?不是说官方他去做的,而是我跟 open club 说就打字,跟他说, 我说我现在要需要用语音就跟你说话,你帮我把语音功能做出来,他就做出来了。那现在我给你演示一下 他的效果吧,是怎么学会用语音跟我交流的,怎么能听到我发送的这段语音?他现在就能告诉你这个是我去教他的,我去教他这么去做,然后他后面是怎么去做的,这是他自己去查到的。也只是一个简单的例子, 你需要他什么功能,你发现他这个功能做的不好,或者他没有这个功能,你都可以让他自己去开发,这就是他最厉害的一个点。

好了,下面分享一下就是 open cloud 的 那个记忆系统如何搭建以及使用的,我看挺多人感兴趣的。嗯,主要是把几个 几个方面分享吧。就是首先这个大概介绍一下这个 memos 这个是干嘛的,然后这个是怎么部署的?然后再是它的原理以及共享记忆的展现。首先介绍一下目前的这个系统吧,它现在已经开源了,就是这个记忆张亮的这家公司出的, 它主要核心呢就是通过一些召回啊,一些什么,呃,反那种,也是,呃,继续学习。嗯,这个算法之类的存储你的记忆,其实它本质我看了也是调用 l m 去总结那个记忆干嘛了,然后再对它进行向量化,然后再存储到向量数据库里面,然后它提供了一些接口进行去调用 招商项目,然后这里有个坑,就是其实有其他项目和他名字是一样的,所以要注意一下,这大概就这样。然后它分为两块吧,它这里介绍的主页,这里介绍的就是一个需要提供他官网的一个 key api key 的 一个 api key 的 一个方式,就使用它的语音服务, 你需要输入到他们的另外一种呢,就是使用到可进行本地部署,然后使用的就不需要向他们交钱了,使用的就是我们本地部署的服务,然后你自己配置 l m 的 那个地址就好了,主要使用到的是一个单点的一个模型,可以看到我之前是用免费的,其实这个也比较便宜,就是一块多,我们才用了几千一块多。 然后这个是主要简介,然后下面就是关于讲一下它的原理啊,部署,讲一下这部署我这里总结了,这个也是让 ai 去总结了这个怎么进行一个部署。还有 opencl 那 个插件集成的一个文档, 我现在,嗯,没有其他的 opencl 实力进行重新去演示了,我只大概说一下就好了。主要呢是通过 book 部署,请你把这个文档扔给你的 opencl 或者其他 ai, 就 可以在你服务器上面完成部署了。然后需要,嗯 嗯,需要提前不设置两个数据库,一个向量数据库,一个图数据库,不过这些呢,都把这个文档丢给他应该都没问题了。嗯,肯定是没问题了, 然后反正我都是,我甚至都没有这个文档给他,我当时就丢了这个文档给他,然后让 ai 自自己去实现。然后实现呢?踩了几个坑?嗯,第一个呢,就是对这一个同步,他没有,我发现用了几天他一直都没有写入他的记忆,每次都是手动使用个脚本进行同步, 发现就这一个坑。另外一个就是 l m, 因为我原来使用的是年费额度,呃,开启年费额度用完了就停了,所以就导致他也写不进去。当然了,这个问题也是他也是 ai 排查出来的。呃,图纸丢这份文档给他,让他自己应该知道怎么做了。 下面就说一下他共享记忆的一个展现吧。可以看到我这一台是 innux 的, innux 的 这一个 linux 就是 部署在我这个服务器,服务器上面可以看到,呃, mail os 就是 在这台服务器上面部署的。 而另外一个实力呢,就是在我本地 windows 这里, windows 进行一个 open cloud, 这是另外一个 open cloud 是 在我本地,而这两个机呢是互通的,因为它们有个共享的存储,就这个,你看一下我这里让它去搜索 so windows 的 记忆。那可以看一下,其实它是应该是调用了 l l m 的 模型,对 对对话进行一个说明,哦,对了,嗯,其实它不仅仅用到了项链模型,它还用到了那个文本,那个模型,对它进行一个总结,可以看到它这个记忆是它总结的一个视角去描述的。 助手向用户说明了我们 p 二零常见的运行的启动方式,并且这些明显就不是对话内容。所以呢,就是这一个 m o s 的 插件呢,会对对话进行一个总结,以及一些标签给他打上,还有一些关键词给他,方便去搜索。这里 sos 存储的就是原始的内容, 甚至这里还有一个背景,所以这就是结合他这个记忆系统,就可以让你的 open class 变得无比强大,并且拥有一个无限的记忆的一个一个特性,并且可以伴随着你对他的协助,他会变得越来越强大。 这个是存储,我们可以看到它是怎么存储的。嗯,还有查询的方式,你可以。嗯,其实这个和 e s 比较像了,像它这个几何,你可以可以看到它这个下面的方式是 cosine, 这个是怎么呢?嗯,大概就是说,嗯,它会计算你查询的内容和 这一个这里面的一个项链的一个夹角,这就是为什么使用 in bending 一个,呃,这个是它在它这里 n 多维空间里面的一个坐标点,根据你传输内容,然后再计算你搜索内容的一个坐标点和它一个 cosine 的 那个夹角,夹角越小,我这里就会相似度越高,大概是这个原理。 然后这个 console 这里呢,其实你看它的查询方式和 e s 简直是太像了,简直是一模一样。你这里就可以直接查询到它的记忆,然后下面这个是存储它的大概原理的介绍。下面就是呃这个 m o s 它还会提供几个页面, 这个就是 bug, 这个 bug 呢,你也可以进行一个呃记忆的查询,不过呢,这个就是经过了它的面包外置的一个处理,你看我这些传入的一些参数,都直接查询, 稍等一下啊,这些就是具体它是怎么做的我就不清楚了,你看这 q v, 它是用空格的,然后具体它是怎么分词,然后分词之后查询哪些字段我是不清楚了。总之它就是能够查询到呃,查询到呃匹配的内容。至于它这个有没有经过 l a m 它进一步处理,我就不太清楚了, 这就是他为什么能够查询到。其实我感觉这里还可以优化吧,这参数可能还可以优化,因为你看原声的,看下原声的 skin, 它提供了巨多的参数,所以可能还可以进行优化。 这个命令呢,这个本质上呃,就是 open cloud 去查询记忆的时候,他不会直接操作这个向量库,不像我们这样直接查,而是通过一个 gl 去访问我们那个 memos 的 查询记忆的一个服务。这个我也不懂他是怎么知道的,不懂他怎么知道他这样查的。 这个命令我是让他给出的,可以看到他查询的时候是用了这一条命令,我们就可以把它直接复制在控制台上,就可以重现他查找的内容了, 这里就是它真正执行的内容。返回之后,它再对这个记忆进行一个提取,然后进行一个回复, 然后另外一个呢,它还会呃面容的时候还会提供几个地址,这个是也是一个 api 文档的。 嗯,感觉大体上就这些了。然后再做一个总结吧。总结呢,首先是 m o s, 它具体是干嘛的?它主要呢就是去对呃 ai 的 一个记忆的一个存储以及解锁,从而达到解决 ai 总是上下文抄的上下文。呃,太小的一个缺点吧, 是这样一个系统。然后第二点呢,就是怎么部署,怎么部署呢?我这里是提供了一个文档,把这个文档直接丢给 ai, 它就知道它就可以帮你完成所有的功课了。呃,还有另外一点呢,你要先明确 memos 是 指上面这个记忆当量的一个针对 l l m 的 一个记忆系统的一个服务,而不是下面这个。下面这个应该是一个笔记本。 那下面,呃,就是它这个因为是有个全局的存储系统,所以它可以实现跨端的一个记忆。然后第三个呢,就是展现了一下它存储的原理是怎么样的,然后它是怎么使用这个记忆的。它其实本质这里就是一个后台的服务,然后 ai 会请求插这个接口,然后返回相关的记忆给 ai, 然后 ai 再对这个记忆进行一个总结,从而达到它能够有无限记忆的一个效果。 好了,呃,分享就到这里。嗯,我我想一下可以再补充一个 open cloud 的 实力,然后再总体上演示一下怎么部署这个 mail o s 这个 g 插件一个流程先到这里吧。

朋友推荐看来的 opencloud 龙虾那个事,在之前我也有这个想法,让 ai 直接在操控我这个电脑, 但是知道会有一些很高的风险,因为我账号密码什么全都在这个电脑上,相通于我自己的权限了。那个 chatgap 也好还是豆包也好,你问他所有的东西,他有很大的概率他跟你说的是错的,他自己就圆自己的话, 就 ai 发展到这种级别,你让他这种级别的智商来来操控我们现在所有的那个什么账号密码,其实这就是挺大的一个玩笑,我觉得就是大龙虾的,他那个点在哪呢?是在后台的强大算力, 就是说你买一个 mac mini 也好,还是就是有个电脑,他后台需要很大的算力,这个算力的话你现在的解决方式就两个,要不然你买个人电脑 什么显卡,要不然你买麦克迷你组组成那种什么机群,要不然你就上那种像网上那个叫阿里人那种的,买那种服务器,那都是动折,好几千大折就好几大万, 你说你雇一个人办一张多便宜,三四千,四五千到头了,你花个四五千,我都不知道这一个月这个 ai 什么 open call 的, 他到底能不能学会这个所谓的 ps, 学会学会剪映怎么操作这种东西。

兄弟们,我的那个 oppo 可乐的那个大龙虾目前还是没搞好,但今天我先不折腾了,我准备我这边还有一台苹果电脑,我还有一个苹果电脑,我准备到时候那台我再重新装一个。这个我有空再搞吧,我今天我准备组个纳斯。我靠, 也是因为安装这个大龙虾,才让我明白原来什么叫做云服务器,包括这个纳斯的好处。如果你也像我这样是播电脑办公的,真的有必要搞个纳斯?我靠,很有用,你们去了解一下,以前我不懂 这玩意,手机很简单,你搞一个 n s 之后,后面这些电脑你有些需要通用的文件,直接保存在这个硬盘里面就行了,用其他的电脑直接反问他。你就别像我以前不懂这个,每次同一个东西,我换一个电脑,我要重新用 u 盘或者用 微信啊,什么收藏再发送,以后不用了,以后我需要用的东西我就全往我的 nasa 硬盘里面存,我不管跑到哪里的电脑,我都可以直接打开来用。我靠,好方便啊,我靠,真的,你们如果也是多电脑办公可以搞起啊。

opencloak 本地环境部署真的会影响电脑安全吗?如果说你的电脑也在本地环境部署了 opencloak, 同时你的电脑上有非常重要的资料,那我建议你最好的办法就是尽快的把 opencloak 卸载。那今天这条视频呢,就是跟大家分享一下如何去 直接卸载 openclo, 并且把所有的数据清除。首先啊,我们进到这个 openclo 的 中文社区官网,他这边的话是有专门的教怎么去卸载的, 我们再啊带大家跑一遍,我们点这个安装一直往下滑,这边有个安装找到卸载。 ok 啊,他有个使用内置卸载器,我们复制一下, 直接回车就行了。 ok 啊,我们可以把所有的都选上,然后按回车。 哎,它这边现在已经卸载成功了。那我们还有一些数据,比如说你用 deepsea 模型,我们登录 deepsea 开放平台,然后把这个 king 给它删除。 ok, 还有我们的飞书,最重要的就是飞书开放平台,我们飞书上配置了应用的,就是我们登录这个开放平台之后,你会发现,呃,你是用这个应用连接了 openclo, 那我们怎么去把这个应用停用然后卸载呢?很简单啊,我们在右上角发现这有九个点,点击一下,然后选择这个管理后台, 我们找到这个工作台,然后有个应用管理 在最下面,我们选到最后面一个。呃,找到这个我们自己上传的这个应用,我们直接在右边,他这显示是已起用的,我们直接停用就可以了, 停用了之后我们在这个位置, ok, 我 们回到这里刷新一下,我们这就可以有删除应用了,我们直接删除就可以了。 ok, 我 们在这里的话, openclaw 相当于已经删得比较干净了。如果说你还有担忧的话,我们可以在设置里面把 openclaw 需要的这个环境也给它卸载了,再应用安装,我们搜索 node, 我 们直接卸载。 好的,我们的 open claw 就 在本地环境全部卸载干净了。下一期视频啊,教大家用本地的模型去跑 open claw。