opencloud 的 四种安装方式? windows 麦克, wsl, docker 安装四种方式的一些优缺点?麦克肯定直接选原声的,因为原声的操作更加的流畅,对底层的 linux 命令的支持也更加的友好。 windows 的 话有两种方式,一种是安通过 docker 的 安装,然后再一个就是通过 wsl 的 安装,再一个就是 win windows 上面原声安装, 因为 windows 五原生安装的话,对底层的一些开源工具支持不是很友好,像 f f m p e g 图片处理图片的,还有 kol 处理网网站呃,抓取需求的可能支持不是很友好。 wsl 呢,就是 windows 内置的虚拟机,效率又比较高,多壳安装的话最简单,但是适适合新手。但是的话它对一些操作的话支持不是很友好,因为它是一个 沙箱性质的,在容器里面对自己啊,桌面啊或者是系统类的文件的处理啊就很不方便。当然你只是想体验什么情报收集啊,资料收集啊,写文章啊这样的用多盒就挺方便的。
粉丝870获赞5654

我们目前已经用在小龙虾上做整理一个表格,也就是简单的文员助理的工作能够实现了。同时我们也可以做一个智能体 ai 来做剪辑的,一个 包括接入 siri, 包括接入各种的 ai 的 大模型和一个其他的视频剪辑的模式,比如说啊电视和这个 cctv 和豆包的结合,能够让做剪辑的这个效率比之前人工纯手动或者是什么用纯 ai 来出视频大大的提升。我们用了个 m 五,我们还有几台在路上都在尝试着接路, 现在已经实现了表格的通话。后面再说一些就是在测试一个视频端产出效果争取比的说法柱,还有一些手工来做的效果能够做到至少是七平,那有时候人工剪辑跟精细化会比 这个电脑的助理来做的,比如说这个小龙虾助理会好一些,但是目前我们在慢慢的在跟进,尝试迎接更多的工作人和更多的思维和技巧。 他这个赛道,特别是短视频相关的这种业务,我们除了要有基础的传统的玩法,我们还必须要有一个最新的十四个记录,最新的玩法,每时每个都要去更新自己的一个平台的一个趋势。

open 可乐最火的时候,全网都在教你怎么安装,但现在热度下来了,我发现一个非常尴尬的事,百分之九十的人根本不知道怎么养它。这又导致现在 mac mini 高价抢了 taco 也买了龙虾,反而没干啥活。 所以这期视频没必要再去讲什么安装流程,我反而想认真聊一聊,怎么才能把这只野性的龙虾驯化成一个真正能干活,越来越懂我们的 ai 生产力助手。 首先我想说一个反常识的点, skills 不是 越多越好。你想啊,同一个层级下,功能相似的 skills 有 好几个,如果你这个也装,那个也装,那碰到同一个需求,这两个 skills 都觉得这是我的活,那就很容易打架了。就好比一个部门有两个老大, 谁都想自己说了算,最后也只能失控了。所以 skills 不 在于多,而在于边界清晰。那在起步阶段,有一个基础的 skills 清单就非常有必要。我把它分成了四层,第一层,安全层,它的名字叫 skill writer, 这个建议大家都先装上哈,它可以帮助我们审查接下来要装的 skills 的 安全性到底怎么样,比如来源审查、代码审查、权限范围、风险等级评估,只要是低风险,那这个 skills 就 可以放心大胆装了。第二层,其实就是要给它一个搜索功能,这个我用的是 brave, search 到官网注册申请之后呢,每个月有五 w 的 免费搜索额度,对于个人的网络搜索来说,这个白嫖额度基本上也够用了。第三层,我觉得要让龙虾能读懂资料,你可以把最常用的文件格式, pdf 啦, word 文档啦, ppt 这些格式的读取功能,让他先学会这些 skills, 用 i s i p 和官方出品的就行,他已经有九十多万个 star 背书,稳定性和安全性都是有保障的。第四层,你可以给他基础文件的操作能力,让他在特定的文件夹里读写、删改。 先记得先不要给他系统级的权限哈,比如终端命令行执行这类的高危权限,一旦你授权了,他很可能就会默默的修改你的系统配置。这里再分享一个我自己使用 skills 的 方法,那就是自己做一个。比如我把第二层那个 blue search 重新做了一个,因为我当时安装的时候 app 上面的原版博友 search, 它在 reddit 里面说需要一个 api 蜜月,但实际上呢,并不需要。这种描述的不一致就让我觉得,哎,可能没那么可信,哪怕收藏使用的人特别多,那可能跟我的需求也不一样,所以我就重新建了一个。 当然,这个建的过程也不是说我自己就在那吭着吭着写哈,而是让 ai 帮我写 markdown 文档。所以我觉得大家在安装 skills 之前,先了解清楚这个 skills 干啥的,你什么时候会用到它,怎么用它,然后它最大的权限是啥?不求多,但求精。 我们都知道,龙虾的能力上限很多时候在于你用的是什么模型,如果是最顶级的 cloud, 它就非常强,那用一个普通的模型,它就会回归到一个非常普通的状态,甚至有些任务你会觉得,哎,它怎么还没平时对话的通用大模型厉害啊。 但这也不是说以后干啥都用最顶级的哈,那你可能还没驯化龙虾这个账单,就把自己给驯化了。所以我觉得性价比高的玩法是顶级模型和普通模型组合使用。把最顶级的 cloud 当作一个 ceo, 把难题、战略规划类的写 skills, 给 bug, 风险判断这活交给它。 那剩下那些重复性的杂伙,像整理文件啦,整理图片啊,文档总结。那就交给普通模型。我用的组合是 cloud、 obox、 四点六和 mini max。 很多人觉得 openclaw 不 懂自己,是因为他们就把这只龙虾当成一个开箱就能用的工具。但 openclaw 的 定位其实是一个定制化的私人助理,就像你招了一个哈佛毕业的助理,你俩见面的第一件事肯定是告诉他 我是谁,我的任务是啥,底线是啥。那给出这些信息,其实就是给 openclaw 建立上下文,这一步就让他从一个普通的 agent 变成你的 agent。 你也可以提前配置好 user、 identity、 soul 这三个核心文件。 soul 是 关于你、你的个人说明书,你的名字、职业、目的、喜好、红线都写在里面。 identity 是 给 open cloud 身份的地方,比如它的名字,它的角色定位。 soul 是 龙虾的灵魂,你可以定义它的做事风格、价值观和行为边界。但在写的时候,不建议用太多聪明、温柔、冷静这些很虚的词儿, 而是尽量写成可执行的指令,比如把冷静写成永远不使用感叹号和已默契的表情。那面对用户的抱怨呢?直接提供解决方案。因为 oppo 可乐他是一个 a 阵的,他不仅能像 g p t 那 样跟你聊天,还能替你行动, 比如接管你的电脑,替你群发消息,如果你没有配置,删除、发送发布之前必须先确认这些具体的红线,他可能就会为了表现聪明和高效,帮你整理桌面文件,结果不小心删掉了你的资料。 我经常刷到各种 open class 的 视频,我看到屏幕上有很多个 agent, 但我觉得呢,对于普通小白来说,不要一上来就想着建立一个什么 agent 足球队,我们应该先把一个 agent 养明白,再 再去让他开分店,因为只有当你把一个 a 阵的调教好了,你才知道他是什么脾气。当出现问题的时候,怎么借助通用大模型去解决,像养孩子一样,先把他养熟,这样你才能轻车熟路的养。第二个具体的分工,可以设置成一个总管加 n 个专业型 a 阵的的形式。 总管呢,就让他负责一些基础性的总管性的工作,比如搜索啦,轻度的整理专业型的 a 阵的,可以让他写文案,做研究生产图片提示词。 对于这些不同的 a 阵的,我建议是搭配使用不同的模型。像研究型的 a 阵的,可以使用最顶级的模型处理基础事物的 a 阵的,比如图片整理、文件规档,可以用普通的模型,那涉及到创作内容的 a 阵的,像我需要文案和脚本的创作,那我会两种模型搭配使用, 搜集热点信息,用普通模型输出,搞建大纲,用顶级模型组建这些 a 阵的军团,其实就像组建一个团队一样,要让他们有清晰的边界,各司其职,以后你也会越用越顺手。 最后呢,我想分享一下 opencloud 的 权限问题,我觉得我们不要把 ai a 阵呢当做一个资深牛马, 也不要把他当做一个小学生,而是把他看做一个潜力巨大的超级实习生,他非常聪明能干。但是你刚开始跟他接触的时候呢,不要上来就把所有的权限都给他放开,而从紧到松,一步步来。 比如刚开始只是让他们帮我们读取文档,查看文件,做一些总结和轻度的搜索工作,那熟悉了几天或者一周以后呢,可以让他建一个工作区的文件夹,创作文档,写一些草稿之类的,感觉更稳定。之后呢,就可以让他去归党整理, 给他一些删除格式化的权限。最后啊,最高级的权限,比如说发消息,发布视频,或者执行系统性的命令,这些必须经过人工确认。最后,我们总结一下,到底该怎么养好这只龙虾呢?我觉得真正养法就是四个词,少一点,慢一点,看清一点,克制一点, 少一点对全能 ai 的 幻想。慢下来去打磨它的身份和规则,看清它作为工具的边界,那在赋予它电脑的权限时保持克制。 在 opencloud 被炒得最热的时候,不要为了大家都在玩而焦虑,当热度下来了,也不要把它当做过期的玩具扔在电脑里吃灰,毕竟它不是追风口的社交货币,而是你花时间亲手调教出来的真正懂你的数字搭档。

大家好,今天咱们来聊聊 opencloud 接入企业微信的过程,这里有两种接入方法,分别是扫码接入和手动输入。 bot id 与 secret 的 方式接入方法一,扫码接入 第一步要安装企业微信插件,打开 opencloud 终端,输入这个命令,回车等待几分钟, 看到这个提示,插件就安装完成了。接着要选择企业微信机器人接入方式,这里咱们选择扫码接入,之后就可以扫码创建微信机器人了。 用手机企业微信扫码进入配置界面,然后点击一键创建智能机器人,再点击确认授权,接着点击前往使用,等网关重启之后,输入测试信息,如果返回正常,那配置就结束了。 方法二,手动输入方式第一步同样是安装企业微信插件,还是在 opencloud 终端输入这个命令,继续等待几分钟,然后选择企业微信机器人接入方式,这次选择手动输入, 接下来要创建企业微信机器人,打开电脑版企业微信,点击工作台,再选择智能机器人,点击创建机器人,选择手动创建,接着点击 api 模式创建 连接方式,使用长连接把 bot id 复制下来,在终端中粘贴 bot id 回车,点击获取并复制 secret 回车, 点击这个箭头进入权限设置,点击全部授权,然后关闭窗口, 点击名称后的笔型图标,编辑机器人名称、简介等信息,确定之后点击添加设置机器人可见范围,勾选可见范围,确定并保存,这样机器人就创建成功了。 最后进入聊天窗口,输入测试信息,要是返回正常配置就完成了。

这只视频是小白安装 openclaw 这只龙虾的教程,带你一次性搞定安装配置、接入 ai 模型等必要流程。没有代码基础也没有关系,我会把每一步都拆解给你。 opencloud 是 一款能在你本地电脑二十四小时不间断自主运行的 ai 智能体。它由 peter stacker 采用 tabscript 开发,目前还获得了 opencloud 的 官方认可与支持,并作为开源项目进行扶持。安装 opencloud 第一步就是进入它的快速开始页面, 复制官方指令并黏贴到终端执行。整个过程呢大概需要一到两分钟。安装结束后呢,我们就可以进行快速配置,让它顺利启动。如果你是初次使用的,我更推荐直接采取快速开始模式,操作会更简单。 接下来需要为它对接 ai 模型,比如 open ai 的 或者 astropack 的 都可以。我这里以 astropack 为例,使用它的 api key 来完成配置。进入 cloud 的 开发者平台,点击开始构建创建并获取 api key。 记得给密钥设置一个标签,比如命名为 open cloud, 再把密钥复制黏贴回终端里对应的 ethopic api key 输入栏。之后,你还可以选择具体使用的模型。我这里呢选的是 cloud office for。 不 过要提醒一下, opencloud 调用模型的频率是非常高的,使用成本呢可能会迅速增加, token 会烧得很快。 完成模型配置后呢,你还可以设置与 opencloud 通讯渠道,比如 telegram、 whatsapp, 还有就是 skill 配置,包括谷歌地图、 nano banana、 notion 或者 openeye 深层图片等拓展功能。 这里就先不配置占据略过优先,保证系统能正常运行起来,下一期视频会逐步完善更新给大家的。 下面的基础配置都完成后,就到了最后一步选择,你可以通过终端直接使用 openclaw, 也可以选择网页 ui 界面操作, 如果用终端模式,就能在这里直接与它对话了。而我在演示中选择的是网页 ui 会跳转到带画指令的页面,你可以像使用拆 gpt 一 样,轻松便捷的与 openclaw 进行交互。

欢迎来到我的频道,本期视频分享一下新手部署 openclaw 后必须要做的事情,全程干货,小白必看!首先第一步,做好安全保障。首先需要给你的龙虾发送这样一段话,不要随意分享 openclaw 目录内容, 外部 api keys 存放在安全位置,不要提交到 git 群聊中,不要泄露主人的私人信息, destructive 命令、 r m 删除等必须先询问,完成这些操作后安全就有保障了。其次就是第二步, 去 clubhub 找到适合自己的 skill 并下载,这样才能最大程度的解锁 openclaw 的 功能。不知道下载什么 skill 的 话,可以看一下我前几期的视频,分享了很多好用的 skill。 最后第三件事情,接入 qq 或者飞书这些软件,它们可以让你的 openclaw 通信渠道更多样,并且可以拓展很多功能。 我这边以 qq 为例,直接前往 qq 开放平台创建机器人即可。我们点击 qq 开放平台的网址,进去后先注册一下账号,注册完成后去 qq 邮箱验证一下,一共需要验证两次,完成验证后就注册好账号了。 注册完成后,我们回到首页,直接登录刚刚注册好的账号,登录完成后,我们开始创建机器人应用。首先进入应用管理, 选择机器人,然后点击创建机器人,根据自己的需求进行创建即可。创建完成后,点击进入应用详情页,在应用详情页获取 app id 与 app secret, 用于配置 open claw, 跟着我的进行获取即可,获取后记得保存好。 接着我们开通权限,点击开发,然后找到沙箱配置,直接点击添加成员即可把机器人添加进一个用于测试的群聊,添加完成后,我们点击二维码 扫描后,可直接进入 qq 机器人对话窗口,完成以上操作后,再让 openclaw 帮你完成配置,完成后就可以使用 qq 和 openclaw 沟通了, 如果你卡在最后一步不会配置的话,可以打开七二四 claw, 打开后直接输入 ipad 和密钥,可以一键配置接入 qq 机器人。以上就是本期视频的全部内容了,如果对你有帮助的话,记得点赞关注,谢谢大家!

今天是一期 linux 系统下 openclaw 的 安装教程,我们直接开始,首先这个命令是更新系统的软件包锁眼,确保后续安装的软件版本是最新的。 然后安装 q 工具用于安装 openclaw 脚本,然后输入 openclaw 官方安装命令,这个命令会自动帮我们安装 note 和其他环境。 弹出这个配置界面,表示 openclaw 已经安装完成了。接下来我们选择 yes 开始配置, 这里选择第一个快速配置,接下来选择模型,这里我选择的是 kimi 二点五的模型,大家可以根据自己的需要自行选择。 配置完模型之后,下面是对接的各种软件,我们先跳过,后面再配置,这里也选择跳过 这里是配置技能也先跳过,这里也选择。跳过, 这里是选择在哪里使用 openclaw, 我 们使用的是 open to 二四点零四的 server 版本,我是用另一台 windows 的 网页来使用它,所以选择的是第二个外部页面,我们需要在 windows 上的 partial 执行一下生成的这个命 令,输入密码执行就可以了。 接下来我们再复制这个网址, 在 windows 网页下打开这个网址就成功了,接下来就可以使用 open call 了。

今天我们来聊一下最近在全球开发者圈子里面疯狂刷屏的一个开源项目, open cloud, 也叫龙虾,今天他在 github 上面已经拿到了三十五万个 star 星标,这个数字还在以每天数百的速度增长。更离谱的是他更新的节奏仅仅在本月,也就是呃四月七号到十一号,短短的五天时间内,团队 连续发布了五个版本。有网友就在社区里面感叹,就说昨天才刚更新,今天怎么又有更新的了, 甚至同一天内直接就发布了两个版本。那么 oppo cola 究竟是什么呢?凭什么这么火?这期视频我就给大家带来一次非常深度的一个解析,不光聊下他的新功能,还要深挖一下他的技术逻辑和设计哲学。 看完这期,你会对个人 ai 助理应该长什么样有一个全新的认知。 首先我们先搞清楚 openclaw 到底是什么?简单来说, openclaw 它是一款可以跑在你本地设备上的一个个人助理网关。什么叫网关?就是说它本身 不是一个独特的一个聊天界面,而是一个后台服务,他把 ai 的 能力接到你日常使用的任何消息平台上。举个例子,你平时你可以是用飞书微信聊天,但是装上了 open cloud 之后,你在微信 里面发消息, ai 就 会帮你回复。你平时使用微信,呃,它也是一样的道理,就是呃像飞书企业微信,只要你在用的平台 open class 几乎全部都可以接进去,目前官方它支持的是超过 好。现在我们来重点讲下一个大突破,也就是 active memory。 先讲一下大家都有一个体会的一个痛点,你跟 ai 聊了很多次,每次新开一个话题, ai 完全不记得你是谁啊, 不记得你上次说了什么,你需要不断的重复的介绍自己。这种体验很多人戏称为 ai 失忆症。 open claw 从四点一零版本开始,用了一个叫主动记忆功能 active memory 的 插件来解决这个问题,而且解决的方案非常的优雅。它的工作原理其实是这样的,在主动 ai 回复你之前, 系统会先运行一个叫专属记忆子智能体,这个子智能体会优先先去解锁呃,记忆库,抽取你当前 还有历史的一个相关偏好,历史的上下上下文的关键细节,然后把这些信息喂给主 ai, 再由主 ai 结合这些上下文给予回复,用户完全感知不到这个过程,只是你突然就会觉得 ai 突然变得懂你了。 最关键的是,他支持了三种上下文模式,历史消息、最近消息和完整消息,你可以根据你自己的需求决定记忆解锁的深度。他还支持了命令实时查看的记忆解锁过程,完全透明,可审计。 到了四点一这个版本,记忆系统又向前迈向了一大步。新增的 chat gpd 对 话的导入功能,意思是你在 chat gpd 上面上积累了两年、三年的对话记录,现在可以直接就迁移到 opencloud 的 记忆体体系里面。 这个是由一个网上的呃,一个外网提的提提出来的一种超强记忆法。这意味着什么?意味着你所有的 ai 的 一个积累,从此可以跨平台传承,而不是单单的被一个产品而绑架。 ok, 我 们来梳理一下呃这几轮的一个版本迭代,看看这五天里面究竟它发生了什么,然后发布了哪些版本。首先我们先看一下最初的一个四点 七这个版本,也就是这一轮开始冲刺的起点,核心是对推理系统和记忆系统的全面构建。团队新增了 open cloud, 这个 c i 推理中心支持了统一调用多个模型,同时引入了像这个 webhook 入站的一个插件压缩检查持久化,包括就是这个 ui 层面的分支与回滚功能。模型层面首次支持了啊 jam 四以及 orama 的 视觉检测。然后四点八这个版本 主要就是聚集了兼容性的一个修复版本,修复了 n p m 构建多环境下的一个多渠道在启动时崩溃的问题,也包括就是像那个嗯, tiger, glam, 飞书, google chat 等,这个可能看起来不够性感,但是实际对呃大多数用户来说极其的重要。然后我们可以看一下四点九这个版本,它 更新的一个重大的东西,重大突破的一个东西就是记忆系统的第二次进化,引入了 r e m 的 深度记忆回填机制,历史日制,现在可以重播了,进入到那个追悼梦境系统, 转化为持久记忆,这是记忆从存存储走向学习的最关键的一步。然后, ok, 我 们再来看一下这个四点一零版本它更新的什么,这是五个版本里是最有意思的一个了,就是我们刚刚提到的就是记忆解锁。呃, active memory 的 插件首发内置了 codex, 呃, programmer mac os 的 这个 talk mode 是 吧?接入到了 m l x 本地语音,每一条都是重量级的一个更新,然后再看一下这个四点一版本,也就是最新版的啊,记忆宫殿的一个嗯, memory 呃 place 正式登场,菜单, gbd 导入上线插件自描述架构完善, webchat 结构化,渲染优化,飞书部署体验强化,五天时间有五个实质性的内容版本,这种迭代速度 在 ai 开源项目里面可谓罕见,光说文字可能还不够直观,我们来看一下数据,我综合了呃,来自 github 上面 e commerce, 然后包括就是呃 discord 官方社区,包括就是像推特以及国内的抖音,快手,小红书, 还有身边的一个玩龙虾的一些朋友的真实用户反馈,对于几个核心的功能进行的一个分析,然后我会发现这是满意度排名第一的就是这个记忆系统,就是刚刚有提到过的呃 active memory, 达到了这个满意度,达到了九十二,来自了多个用户的一个信息收集分析,又做了一个统计,这可以说是几乎清一色的好评。用户反复的提到核心感受就是他终于开始懂我了。 这种评价在 ai 产品里面非常少见,大部分用户都说它好用,但对记忆功能,用户说的是改变我使用 ai 的 方式,这个差异化可能很耐人寻味。然后排名第二个,这个是多平台的一个呃覆盖能力, 市场分析调研中百分之八十八的满意度。很多用户就表示不需要再学习一个新的界面,直接在原有的工作流里面接入 ai, 降低了 ai 的 一个摩擦, ai 认知的摩擦。第三个就是呃本地部署的一个安全性,在市场分析调研中,满意度 百分之八十五。对于企业用户和技术用户来说,我的数据在我手上是硬性的一个需求, open 在 这一点上面没有妥协。 接下来我们讲最直观的一个部分,五个版本的一个能力,呃,横向对比我选的十个核心维度,用这个对号和一个呃叉来直观的一个呈现,就是截观。这个结论其实就很清晰了,就是从这个主动记忆系统,呃, magif memory, 呃,四点七,四点八,四点九这个版本就全部没有的,是从这个四点一零版本开始首发的,然后再到这个四点一版本持续增强,进一步增强, 这个是记忆系统从无到有的一个分身点菜的 gpt 导入了这个 memory, 呃, please 这个 ui 两个功能是四点一一独家新增, 之前的版本是完全没有的。如果说你是 type g b g 的 重度用户,这两个功能足以你构成的升级的理由, r e m 深度记忆回填,四点九版本引入了四点一零和这个四点一版本持续稳定。本地语音功能四点一零时 用一个实验,用一个实验的状态持续引入到了四点一零版本持续稳定。安全这个修复方面注入了四点九这个版本才完全修复四点一零版本和四点一一版本持续的加固。这告诉了我们一件事,如果说你今天还在跑四点八或者最早的一个版本, 更早的版本在安全上面还是有一点点风险的,建议你可以立立即的升级。我们来看一下增长的一个趋势图,这张图就很能说明问题,从去年的十月份到今天, open cloud star 增长曲线不是一个限期,而是一个关键节点,这出现了一个明显的加速,从去年十月份,在大概一百 k 的 star 左右,当时产品基础功能 逐步的一个完善阶段,但增长的趋势还是不够稳定,也谈不上一个爆发。但是今年的二月份,进入到二十 k 的 区间,多平台覆盖的安全性问题修复带来一波增速,这是第一波增速。到了今年的四月七号 v 四点七,这个推理的重构发布曲线就开始陡峭了 啊。四月十号 v 四点一零这个版本,也就是加入了记忆这个解锁的这个强版本的就是 ikeif memory 发布,这是一个非常明显的观点,社区的讨论量在这个时间节点暴涨,因为这个功能会引发就是大家互相的传播,用户体验到的这个强记忆系统 第一反应是分享给朋友,这一轮增长飞轮一旦就是启动下来,就很难停下。从 npm 的 下载量同样印证了这一点,目前 opencloud 的 npm 包 超过了一百零一个项目依赖,这说明它不只是个人用户,已经开始向开发者的一个项目 也来列露了。讲完了增长,我们来讲一个很多人都忽略但极其重要的话题,安全 啊。从开源 ai 网关的安全挑战,和普通人外播应用可能不太一样,他处理的信息是真实用户消息,连接到的是私人的一个通信,通讯的渠道, 很多这个部署场景下都会公开的访问权限,这使得它面临一个威胁,更加复杂, open cloud 四点九版本修复了 s r, 修复了两个高危漏洞,一个是这个 s r f, 也就是服务端请求伪造,攻击者可以通过精心的构造来输入,让服务器去访问内网的敏感资源,比如说内部的数据库, 然后还有配置接口等等。这个漏洞在四点九这个版本中完全没修复,并加了这个隔离检测机制。第二个是 ev 的 注入,这个通过特殊输入可以 呃腹泻运行控制量,相当于修改了程序的关键配置。四点九这个版本对于这个路径做了严格的输入验证和隔离。到了 v 四点一二这个预发布版本,团队做了两件事情,一个是强制对所有的浏览器用户发起了连接,执行源头验证关,关闭了这个跨站劫持的攻击路径。第二个 网关启动时自动检测了是否使用视力凭证或者已知默认密钥,如果是直接拒绝了启动,这防止了大量的因为忘记修改密钥而导致的这个安全事故。综合这个评分,我还是可以给它九十分的。 我们再来讲一下 open colo 最直观的一个覆盖吧,这是多平台的, 目前他支持了超过二十二个消息平台,我们来帮大家梳理一下,就是只临时通讯类,包括就是微信,飞书,呃,还有海外的一些通讯软件就是全部都支持的,像呃, china glam, 还有这个飞书等等企业微信都可以无缝的在里面衔接,就是去中信化通讯,这部分是面向于技术和用户的隐私用户,这是中国市场对这种 所有的这个智能体现在目前都是大家都是抱有的一个学习的一个心态, 这是 v 四四点一版本对飞书特别大的一个专项的一个优化了标准化的一个请求,然后并且就是把机器人注册为 ai 智能体的类型,使飞书系统能够正常识别 呃 opencloud 的 身份,这对大量的使用飞书作为企业工作台的呃国内用户团队来说是一个非常好的消息,四个能力共同构建了 opencloud 的 技术护城河。 好,我们到了专业测评呃环节了,我们从功能完整性、开发者体验、安全、稳定性三个维度进行打分。功能性、完整性我这给到了九点四分。 ok 的 安全和这个稳定性我这里给到的是八点八分,但是 它目前还在更新,它还在优化它的一个安全维度,所以 ok, 我是 呃冰,玩智能题的冰。

哈喽,大家好, qqlab 目前已经正式上线,自动部署,开盒即用,一键对接微信,丰富的 qq 市场以及每天免费的四千万透坑额度,都让 qqlab 最近的热度不断飙升。今天呢,我就来详细的测评一下 qlab 的 使用体验,并和 openlab 进行对比。 首先是下载在 qqlab 的 官网,我们可以直接通过这里的下载按钮去下载安装包,然后通过安装包一键部署到本地环境。这个操作流程呢,对比 openlab 是 要简洁很多的, 我之前呢也出过一个 openlab 的 安装教程,虽然那个已经非常的简单了,但是对于很多新手来说还是会操作失误。那现在的 qqlab 呢,已经可以让我们像安装一个普通的电脑软件一样去安装它了,可以说安装效率是有了极大的提高。 那好,当我们安装完 qq 号之后呢,我们就会自动进入到这样一个页面,首先我们可以看到左下角有个图标,这里呢我们去点击,然后去扫码登录我们的微信, 当登录完成之后呢, qq 号就自动连接了我们的微信,我们可以在手机微信中看到,此时 qq 号呢已经接入到微信中了,那我们可以给他发一个信息, 发了信息之后呢, qq 洛会自动弹出这个对话框,我们可以在这个对话框中呢去看到我们通过手机跟 qq 洛的聊天记录,但是呢它现在还不支持我们在客户端直接去跟手机上的 qq 洛绘画进行交互好。然后呢,我们可以尝试一下它都有哪些有意思的功能, 比如说我们在这个新对话这里我们可以随便找一找,比如说这个文件整理,当我们点击了文件整理之后,它就会自动弹出对应的提示词去交给小龙虾操作。那我们这里还可以看到,我们还可以去选择我们想要整理的特定目录,比如说我们点击这里想要整理桌面, 点击发送啊,这里呢我可以看到它已经把我们的桌面已经整理完成了,那我们可以看一下它整理的效果怎么样。 贝壳岛还可以做很多其他的事情,比如说在这个灵感广场上,它也集成了很多我们平时可以用到的很多场景的任务,这里呢就不一一列举了。 然后呢我们还可以点击上方的这个额度的使用情况,我们来查看自己当前已经使用了多少个 token。 可以 看到呢,它这里每天呢有四千万的免费额度可以使用,应该是现在市面上所有小龙虾里面提供免费额度提供的最多的了。 然后呢我们还可以点击这里远控通道,我们可以看到它这里呢可以自动去接入微信,企业微信或者是 qq 飞书、钉钉等等, 这里呢我们已经把微信自动接入上了,如果我们想要继续去接入 qq, 我 们可以点击这里的配置,然后去输入这些参数, 可以直接进行连接。除了这些功能呢, qq 唠目前还在以一个很快的速度去进行每日更新,之后呢我也会把自己在 qq 唠中使用的经验和教训不断的分享出来。

微信终于放开了 open curl 的 接入,这一期我们来看一下怎么把你的龙虾接入到微信。先检查一下微新的版本,要升级到最新的八点零点七, 然后在插件里面找到微信 curlbot, 我 们复制这段命令去终端粘贴, 粘贴后回车它会自动下载这个插件,一段时间后它会显示一个二维码,现在用微信扫描这个二维码,我们会连接到最新的 clonebot 的 这个插件。 接着我们测试一下是否连接成功,我们随便输入一段命令, 可以看到现在整个结果是正常返回了。在这个连接的过程中,我们可以看到还是很简单的,所以我觉得大家可以尽快的去试试,去玩一玩。

微信今天上线了对接 openclirl, 但因为不是全量上线,所以说很多人的话没有这个体验入口,那么这条视频的话,告诉你如何强开这个体验入口,复制这串代码,我会放在评论区,复制这串代码发送给你的 openclirl, 他会生成一个二维码,微信直接扫描这个二维码会提示更新,更新完之后再扫描这个二维码,就可以直接强开这个呃微信对接 open club 的 窗口了, 因为有的 open club 没有这个生成二维码的能力,那么这个时候的话,你可以让他生成一个这个链接,然后去草料这种平台,把这个链接生成二维码。微信第一次扫码的话,还是更新微信, 因为这个二维码是有时效的,更新完微信之后,如果扫码提示过期了,让你的 open club 再给你生成一个链接,同样再转码再扫码就可以直接对接成功 open club 了,大家赶快去试一试吧,喜欢的话就点个关注。

oppo 可浪呢,是我目前用过最强大的软件和工具,但它的 togg 消耗量也确实让很多人望而却步,甚至呢,因为高额成本不敢完全释放它的潜力。 今天呢,我就教大家四种方法,在性能完全不打折的情况,就是前提下把成本降到最低,实现 top。 四。在讲方法之前呢,我们要先弄明白 top 到底花在哪。 其实呢,你每问 ai 一个问题,发过去的就是并不是一句话,而是一个巨大的工作包,它包含五部分, 一、系统规则,他是谁,能干啥。二、工作去文件, a 阵 g 文件等等。三、对话历史会形成滚雪球效应,越聊越贵。四、工具的输出,抓取的网页,论文日制等等。 最后才是你当时的问题。这个呢,就像你雇了一个员工,然后每次想让他工作,你都得把员工手册,公司章程,岗位职责先从头到尾的就是跟他说一遍,然后再问他今天你中午吃了什么,你说这能不会吗?对吧? 那如何节省掏根呢?就是我们今天要告诉他步骤,而不是问题。第一种方法, qm, 传统情况呢,就是把整个资料像填鸭一样,整天给报大模型,就会呢导致输入 token 的 爆炸。 qmd 的 逻辑呢,就是在本地把 make down 数据库建立,所以你问问题的时候,它只提取最相关的几个片段和摘录给部分框,也就是模型,不再读全库,只读需要的部分,那它是如何工作?所以库是如何建立的呢? 第一个是 update, 所以 文件刷新。第二个呢,是向量的更新,以及向量的投,就是投射。重点呢是这两件事全是在本地跑,不消耗云端的投币,也就是说 qmd 把云端投币用来读所有文件和信息的成本都转化为了本地所有的成本。 那如何安装 qm 币呢?你可以让你的 opencloud 帮你安装,或者呢你想就是手动的安装,那么也只有这三步。首先呢就是运行这些命令到我们终端里安装 qm 币,之后呢,我们去到 opencloud 点 json 文件, 确保我们的 memory 是 这样的,然后呢我们就重启网关,这样呢就结束了。还有一点呢,值得一提的就是 qm d 还允许你精确的去控制你的预算,通过三个参数来实现,还是在我们的 open file 边最顺,这个文件形式就是里面 可以看到厘米的,下面呢有三个参数, max result 是 最多可以注入几段, max snivetime charts 是 每段允许多长,而 max injector charts 是 每轮总注入最多允许多长,也就是总的预算阀门。 接下来呢,我们来看第二种方法,就是用本地模型跑心跳,心跳呢就是 open clock 定时的唤醒行为,他呢按照你配置的频率把 a 阵的叫醒一次,让他呢执行一段心跳清单,他的屁的心跳本身就是走一次完整的 a 阵的回合, 他呢可以当监工,比方说你给我们可到一个特别长期的任务,他做就是承诺做完之后可能做一步就不会往下推进了,这个时候呢,我们就可以使用心跳, 定期的呢,每三十分钟的去刺激一下,触发一下我们 a 阵,疼,让他呢没有完成任务之前不准停下来。 这样呢我就保证了我们整个这阵的 open cloud, 我 们 ai 助手有一次性能确保完成我们的长期任务。那为什么心跳呢?会花费很多的 token 呢?因为每次心跳的输入通常都会包含系统提示词, worker space 文件的输入,尤其是 memory 点 md 和 agent 点 md 可能会变得很大,还有可能的对话历史。还有呢,就是 hadbeat 心跳本轮的提示词或清单,所以它的输出可能会很短,可能就是 ok 没有问题,但是输入可能会很大很长。 那如何减小心跳的成本呢?除了增大时间间隔这种常规的方法外呢,最根本还是直接让本地的大模型,小的大模型来跑心跳这种低智商的任务。 心跳呢,只用来触发,不用来执行任何任务。如果用本地的模型呢,大家需要下载一个欧莱吗? 然后呢,根据你电脑内存的配置来选择相对比较好的模型,比方这里的千万的各个参数的模型。然后呢,大家可以去告诉 openclock 心跳呢,触发任务 用本地小模型来做。然后呢,第三种方法,也就是最简单一种方法,就是尽量用订阅,而不是 api 用量。值得注意的呢,是很多的厂商是不支持这么做的,比方说安卓配,比方说谷歌, 他们的订阅呢,是严禁禁止使用到 open klo 的, 避免的,但是 open ai 目前他们是收购了 open klo 的, 所以呢,他们还是开放状的这个状态。如果呢,想要极致的稳定 走 api 用量而不走订阅,这个时候呢,你要注意了,如果你用最新的模型,不论是 azure 还是 open ai 的 模型,你的账单可能会成倍的增长。 最后呢,第四种方法,直接呢给你的 overclock 发指令,让他呢给你生成一个成本的体检报告,不用固定形式, 让他给你一份靠谱起的消耗驱动清单,可以是百分比的形式,看看到底哪项任务呢,最烧钱,最高的消耗来自于哪里找到不合理的地方。因为你刚开始利用 overclock, 总是会有很多不合理的地方, 比如说一个简单的轻任务,却携带了巨就是巨大的上下文。其实呢,有很多不合理的地方是可以被优化, 而高消耗其实不一定是必要的成本,很多很可能是那种就是流程和配置的浪费,我们呢是要根据我们自己的用处和任务来杜绝掉,那发现问题呢?如何优化呢?这里可以分为流程和模型两个方面考虑, 流程方面呢,能不能有一些轮询的任务改成就是事件触发符不符合条件。然后呢就是我们刚才讲的 gdp, 也是一个非常好的减少上下工序, 就是注入的一个方法。第二点呢就是从模型方面,有一些轻任,我们能用更便宜的模型或者小模型来替代,就像我们刚才说过的,用本地模型来做心跳也是一个非常好的方法。 最后呢就是由 openkey 给出的任务清单,和他讨论有哪些任务可以就是优化来减少成本。最后呢我们总结一下 大幅减少就是成本的四种方法,分别呢是使用 g m d 大 幅减少上下文的注入,心跳呢用本地的模型。第三个呢就是尽量用订阅,而不是走 a g i 消耗。第四个呢就是跟你自己的 openkey, 让他列出所有的就是 消耗投款的任务,由大到小。然后呢,跟他讨论优化的可能性以及如何优化,按照这个方案,保证你的欧文克劳既聪明又省钱。如果呢,你的理论别忘了点赞关注,我们下期再见。

这个是搭载了 open 可乐的电脑,这个是飞书,现在我把 open 可乐接入了飞书,我只要在手机上发布指令,它就会在电脑上帮我自动执行。你是怎么实现这个过程的?这个很简单,你按照我总结的思路一步一步去做就能够实现。 所有内容我都放在了这个开放的网页上面,但是在这个过程当中可能会输一些代码,但是没关系,有问题你就去问豆包,要不你还是直接帮我装吧。那我这还有一个简单方法,你直接去下一个 ai 编程软件,如我用的是字节跳动旗下的 tree, 你 直接把安装指令丢给他,全程什么都不用管,但是他跳出任何的窗口,你一定要点同意。 是我还是不明白,我部署 oppo 可乐有什么用呢?那你有没有发现现在连央妈都在直播带货推这个 ai 提效手册?我觉得这就是在告诉普通人,要赶紧去学,要赶紧会,包括前两天国务院发布的人工智能加行动意见也是如此, ai 在 未来是会改变我们的生活方式的。人工智能加 没听说过。那你知道二零一五年国务院发布互联网加行动意见之后发生了什么吗?万物皆可上链接,行动意见里面就明确提到了未来普及智能终端、智能体的几个关键时间节点。也就是说 ai 不 仅要成为大众化的产品,更要在万物互联的基础之上, 让一个人拥有过去一整家公司才能拥有的能力。最近一人公司确实很火啊,好多地方都在支持一人公司创业。一人公司并不是今年才出现的呀,之所以一个人是做不成电商公司的, 你既要会运营,又要会客服,又要会写,又要会说,但是现在 ai 可以 帮你剪,可以帮你说,可以帮你运营,可以帮你看后台。那你觉得 ai 会替代人吗?觉得 ai 会取代人这个说法不太准 确,应该是说在未来很长一段时间内,可能 ai 会取代一部分岗位,但是在这个情况出现之前,首先会出现另外一个情况,就是会用 ai 的 人会把不会用 ai 的 人踩在脚底下。什么意思啊?会用 ai 了不起呗?举个现实一点的例子,一个月大几万的成本 开去了,但其实你用扣子加豆包加引刀,就完全可以做出一套智能客服国产模型,就完全可以跑起来,一台电脑二十四小时都在线。同样是做生意,我成本比你低,效率还比你高,你拿什么都跟我斗?那就所有人都去做艺人公司,你的产品在哪呢?你的服务群体又是谁呢? 我觉得现阶段的 ai 最现实,最能够落地的作用不是让我们凭空的去创造新业务,而是让已有业务实现提质增效、降本。可是有很多案例,人家就是用 ai 找需求,设计产品,完成销售,成功变现的呀。这套流程看起来确实可以轻轻松松用 ai 完成,但其实这中间至少有两个难点。 第一,利用 ai 发掘的需求,真的是用户愿意花钱的需求吗?你必须先测试,先完善,这是成本。 第二,就算是真需求,宣传要不要成本?流量是不是成本?你可以把做产品的过程拍出来,边做产品边做流量,养成一博主吗?思路没问题啊,但是执行起来变数太大了。很多人做这一套,他根本就不是为了做产品, 而是为了借助 ai 起号做流量。所以你还是觉得现阶段 ai 最大的作用就是在已有业务的基础之上实现提效。江门。是啊,我认为我们现在该做的决不是去盲目跟风,但也不是观望啊,要主动去学去用,去跟上节奏,尽可能的让 ai 提高我们做事情的效率, 比如可以让他去完成那些我们不擅长但又不得不去做的事,这样至少就可以保证一个点我们不会被割韭菜。

挑战一小时部署 openclaw 指南已经准备好了,相关的 api 和屁也都准备好了。我已经在和他开始激情对话了,让我看看是谁还在五百一次配 openclaw 当大冤种。我这个配置方法超级简单,无脑就会。

一分钟教会你部署最近大火的 open claw。 本期视频要说的方法是本地部署,可以直接把 open claw 部署到本地,并且可以使用千万的免费模型,无需担心出现 token 消耗过多的情况,可以说是最经济的部署方法了。话不多说,我们直接开始操作。 首先我们打开带有部署工具的齐油加速器,先点击右上角小方块,找到口令入口,输入口令领会员,然后搜索 openclaw 一 键部署。找到后点击右边的一键部署工具,选择好安装路径和工作路径,然后直接进行一键部署即可。 接着只需要等待十分钟左右, openclaw 就 会自动部署完成了。部署完成后,我们配置一下自己需要的模型,点击开启极速配置即可。配置完成后刷新状态,如果状态是健康,就代表配置完成了。接着我们需要接入大模型千问,点击右边的这个授权, 等待千问授权后登录自己的账号,授权成功后,点击开始对话,就可以和 openclaw 进行对话了。本期视频到此视频我们说说怎么给你的 openclaw 添加技能。

大家好,今天给大家做一个龙虾 open 可乐的整体的安装教程,另外配了一个可适方面板,呃,比较好用,大家可以看一下。呃,首先我们做一个准备工作,就是需要安装两个环境软件,没有这两个软件的话是没办法运行 open 可乐这个软件的。 呃,第一个,先下载 note g s, 我 们这边有官网,可以直接下载。呃,然后这边可以根据自己的电脑来进行安装,我们这边有 windows 来举例,直接点击安装,安装好后打开。呃,下一步我同意一直下一步即可, 遇到弹窗点则次就 ok 了,进进度条跑完之后点则完成, ok, 这边已经安装好了。然后第二步,我们安装这个 get 软件。呃,进入官网也同样的。呃,步骤也有这个,苹果和 windows 的 一个呃,根据自己的电脑进行安装,一般选择第一个 让它安装, 这个安装时间比较慢,我们已经把这个安装包呃,做好了,可以直接通过安装包安装,后续你们可以自己安装大约几分钟 准备的安装包,可以直接点击安装,遇到弹窗也是一点事。然后下一步一直下一步。 在我们安装这个期间需要等待的话,我们可以直接安装 opencloud 的 这个格式面板,通过这个格式面板的话,呃,安装包括调试包括配置都会更方便一点,我们直接右键安装,一直下一步, ok, 这两个都已经安装好了,直接完成,完成。 安装好之后就是这一个样子,这里我们的龙虾的一个最基本的环境配置已经做好了。

本期我们分享让龙虾变聪明的技巧,我们费尽心思装好了,结果发现它什么也不能用。现在安装的新版本它的权限是比较严格的, 本期我们分享一个设置和四个必装的 skill, 让 ai 助手从笨笨的变得聪明又勤快。当你部署好了之后,是不是也遇到了下面这些问题,就是他只会对话聊天,其他的什么也做不了,让他查资料,写代码,改文件,他说没有这个能力, 他没有权限,感觉他有点笨,不像别人分享的那么智能,明明是同样的东西,为什么我的不好用?本期我们将带着大家解决这四个疑问,他的问题就出现在了这里,就是现在新版本我们默认部署的他只开启了基础的消息功能,他的工具能力被限制了。 在这里我们可以在用户名目录下面根据这个路径找到,我们可唠点 jason, 然后我们搜索 tos 这个配置,然后找到 profile, 然后把这个 profile 里面的这个 message 改为 f u l l。 修改好之后,然后我们再重启一下服务,这时候我们就可以开启完整的工具功能,我们可以测试一下, 如果还是不行,现在的新版本有可能还是不行,那么我们就直接删除这个 tos 的 这个配置。删除的时候我们要注意一下,要选择正确,在这里防止修改错误导致无法运行。我们修改之前我们先把文件去备份一下,然后再去删除, 删除的时候要注意它是一个成对的内容,这是被限制的解决方法。我们这样修改之后,我们就可以让它去读代码文件,执行命令,还有自动查找资料,然后全能的 ai 助手。下面我们来分享一下四个必装的 skills。 第一个就是 find skills, 就是当我们遇到无法胜任的任务时,会它就会自动去查找并学习相关技能。无,无需我们手动去寻找,它就会自己去部署。第二个就是 self improving agent, 它是持续自我进化的一个功能,它可以将学习成果和错误去记录到文件, 不断提升解决问题的能力。然后第三个就是 scale weather, 它是一个安全审查工具,就是检查技能中的危险信号、权限范围和可疑模式,它可以把安全隐患挡在门外。 然后第四个就是 scale creator, 它可以自动生成 scale 文件,我们只需要输入提示词,就能帮我们去快速创建自定义的技能, 解放双手。这是四个必装 skills, 下面我们做一下简单的总结,只需两步就可以焕然一新。第一步就是修改配置文件,找到 tools 里面的 profile, 我 们改为 for, 或者是直接删除 tools 里面的字段内容。 第二个我们分享了四个必装的 skills, 可以 让我们的 ai 助手变得更加勤快,大家这样处理之后,从此就会拥有一个聪明勤快,安全易用的 ai 助手。呃,本期内容分享就到这里,后面我们会分享更多的一个使用技巧和设置方法,我们下期再见。

最近呢,很多朋友都在问我,那个叫 open cloud 的 软件操作起来到底简不简单呢? 我觉得这个问题问的很好,也是我们很多人关心的关于 open cloud 的 操作难度啊。我觉得最直接的答案就是,你先问问自己,你想怎么用它? 如果你想自己从头到尾搞定安装和配置,我觉得它一点都不简单,甚至可以说是门槛很高。但是如果你只是想日常使用,我觉得体验感还是不错的。 简单来说, open cloud 的 体验呢,有明显的先苦后甜和两极分化的特。我们先来说一下它的难点在哪里?为什么说它不简单呢? 我们在网上看到很多教程,可能会让你觉得他能一键搞定,但是当你实际体验下来,不少人都会觉得被坑了。我帮大家总结了一下,困难主要集中在以下几个地方, 第一,安装部署就是我们的第一道坎,官方推介的安装流程,其实需要你在电脑上配置一定的编程环境,并且全程要在命令行里敲指令, 这对于我们这种非技术背景的人来说,一开始就可能被劝退。曾经有一位四十五岁的记者朋友啊,他分享他的经历 说光是找人帮忙远程安装就花了整整六个小时。第二,使用这个软件的费用需要心里有数,什么意思呢?就说 open cloud 呢,本身它是免费的,但是它的大脑,也就是它调用的大模型 api 是主要的开销,我们可千万别小看这一个,稍不注意啊,你的费用可能就上去了。我在网上看到有一位研究 ai 的 网友分享,他说只是跑了一个简单的聊天机器人测试,几分钟内就甩掉了价值十几块钱的头壳。 还有更极端的案例,说有人用 api 密室被盗三天就产生了一点二万元的天价账单。第三啊,使用这个软件的安全风险必须上新。 这是被专家和官方机构反复强调的一点,为了让这个 open cloud 呢帮你干活,你需要给他很高的系统权限,如果配置不当,你的电脑端口就直接暴露在公网上,有被攻击者控制的风险。 正是因为有这么多不确定的因素,所以国内一些国企和事业单位呢,已经明令禁止在办公电脑上部署 open call, 工信部也专门发布了六要六不要的安全建议。 第四,这个软件在日常维护中需要会看病,什么意思呢?就是他在运行时很可能出现各种错误, 如你想让他整理文档,他可能因为缺了某个小插件就卡住,然后你需要花上几十分钟去查日期,找原因。这对不懂技术的我们来说就非常的崩溃,刚才我们说了那么多难点,那么他到底好在哪呢?为什么还是值得一试 呢?尽管他的门槛高,但是依然有大量的人,尤其是技术人员啊,对他是趋之若鹜, 为他解决了几个核心的痛点。第一,如果你使用了 open call 呢,你的日常对话会变得很方便。 如果你一旦部署成功,你在日常使用中就可以直接通过网络界面跟他对话,就像用其他聊天 ai 一 样,非常的自然,你只需要输入帮我总结这份 pdf, 或者写一份周报这样的指令就可以了。 第二,如果你用了 open cloud 呢,就可以轻松地换大脑,什么意思呢?就你可以自由地给它更换不同的大模型, 想省钱就用免费的,想处理复杂任务就换个能力更强的。有一个技术博主呢,曾经详细地展示过如何通过修改一个配置文件,就能轻松地在 deep seek、 制普或者豆包等这些模型直接切换。第三,你只要用了 open color, 就 可以完成真正的自动化工作流,这是它最强大的地方。 一个最真实的案例是一位内容创作者成功的让 open call 每天自动监测社交平台的数据,分析行业热点,最后自己跑出了一份完整的视频脚本。另外一位用户呢,则用它实现了一句话,发文章, 你只需要告诉他标题和正文,他就能自动打开浏览器,登录微信公众号后台,完成排版和发布。 说到这呀,可能很多朋友都会问,说,这东西听起来不错呀,但是这门槛这么高,我该怎么入门呢?正好啊,我最近有一本新书,就是专门来解决这个问题的。这本书就叫做 open cloud 实战指南, 从部署到上手,打造超级 ai 助手。作者是刘点,由北京联合出版公司出版。为什么要推荐这本书呢?我说几个自己的感受。第一,这本书是真的从零教起, 我们很多人呢,不是不想用 open call, 而是卡在了第一步。这本书呢,专门拿了一个章节来讲环境的准备, 而且还讲了云服务器、各种系统的安装方法,把最容易确、最清楚的部分拆开讲明白。第二,我觉得他把软件的核心逻辑讲透了,其实 openclo 它的功能很强大, 但是呢,好多个模块之间,他们到底是什么关系,我们很多人都搞不清楚。这本书呢,帮你梳理了几大模块之间的层级关系和协调逻辑, 帮你理解 open clock 不是 单一的聊天工具,而是一套可执行、可编排、可自动运行的系统。第三,这本书里面呢,有很多实战的案例,你可以边看边做,比如 ai 资讯、晨报助手、每日行业早报、 自动日报系统、 ai 会议助手、个人效率体系等等,这些都是日常工作中高频需要的场景,你可以边看边做,真正的把它用起来。第四啊,我觉得这本书它不光是教你怎么跑起来,还教你怎么稳定跑, 我们很多教程他只教你怎么搭起来,但是跑两天就崩了。这本书不一样,他专门写了问题怎么排查、安全怎么治理、权限怎么管理、 部署如何排雷等等这些指南,帮你把系统真正的落实到日常工作中。这本书的作者刘点是复旦大学中国研究院副研究员,长期从事数字经济与人工智能治理研究,出版过十多本,专注 在专业领域有很深的积累。所以呢,如果你是真的想系统的掌握 open cloud, 不 管是开发者、效率工具的探索者,还是支持工作者,这本书啊,都为你提供了一条从入门到实战的清晰路径。