可乐 boss 啊,就把这自动唱歌这个一天五百,你托肯用没了。嗯,也没实现,还到处留着错,还不如用豆包啊哈哈哈哈哈。
粉丝68获赞332

cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

大龙虾这波热度呢,让所有云厂商都卷了起来,基本上都出了自己的云端部署方案,今天我就用阿里云带你跑一遍,十分钟拎包入住云端版的贾维斯 open club。 说实话,本地装不是不行,但你得折腾环境配依赖,还得自己对接模型 a p p。 对 普通人来说呢,直接劝退 好。首先,我们打开阿里云的清凉应用服务器页面,在镜像这里呢,直接选择 multi boot, 他 已经把运行环境打包好了,你不用自己装任何东西。 配置的话,镜像要求最低是两盒两 gb。 地域呢,随便选,国内国外都行,国内因为有网络 bgp 优化会贵的,这里我选择国际型。确认好我们的地域, 这里我选择新加坡,因为我不是新用户啊,新户价格首次还会更便宜,最低九块九,一个月六十八块钱呢,就能直接包一年, 或者像我这样直接想尝尝鲜啊,先购买一个月,确认这些都没问题之后,点击立即付款。付款后呢,等服务器启动,服务器起来之后,进控制台,你就可以看到我们买的服务器了。点击进入我们的服务器详情页,你可以看到这里面一共需要三步,我们挨个执行就可以。第一步啊,放通端口,页面上有个一键放通,点一下就可以。 这要是你自己部署啊,这一步我估计会卡住很多人。第二步,配置我们的 api key, 还有生成 token, 这里需要跳转到阿里云百联平台,在密钥管理里创建一个 openclaw 专用的 key, 复制过来粘贴执行。 第三步,获取专属链接,点执行命令,它就会给你分配一个专属的链接,记住这个链接啊,后面点进去就能直接进入 opencloud 控制台了。到这一步啊,整个部署呢,就算完成了。看到了吗?就这么简单,一共三步,除了等服务器创建的那几分钟啊,实际动手操作呢,用不了五分钟, 完全不用碰触任何的命令。行,你就可以拥有一个自己专属的大龙虾,而且只花了一顿饭钱,这比你去买 mac mini 简直省太多了,也不用担心关机断电这些问题。那怎么验证跑起来了?你可以直接在控制台里跟他对话, 也可以像我这样呢,接入钉钉,做一个钉钉的机器人,直接在手机上艾特他,因为模型默认是帮你接入了千问三 max 的 最新版本,推理更强,都是对话呢,你的 ai 助理呢,依然会在后台帮你联网查找资料, 整理信息。那怎么能玩一些更复杂的自动化任务呢?网上其实已经有不少博主做了详细的教程,阿里云官方呢,也写了教程文档,想要的呢,我可以发给你,感兴趣的可以自己去研究。 成本上还要说一下,模型调用呢,是单独计费的,轻度玩玩呢,基本是可以忽略的。但如果你想做一些复杂的任务呢,还是建议去百炼平台购买这种扣丁 plan, 也就是固定月费可用的 token 额度呢,会更多,也更划算。所以以后这种拎包入住的云端化,才是未来 ai 普及的正确姿势,你们觉得呢?快去试试吧!

这周我们烧了十亿多的 token, 在 openclaw 上大概就是一千五百美金吧。呃,但是我觉得非常值啊,因为我们终于 figure out, 怎么去管理一个 ai agents 团队, 所以如果你是一个艺人公司,或者你想用 ai 来管理协调你的整个团队的话呢?那请看完这条视频,因为我们已经帮你省下了一千五百刀的学费。 整个 a i a 阵子团队的协调枢纽和核心呢,就是最近这个特别火的 openclaw, 他 只要被调教好了,就是一个非常完美的项目经理。但也像所有刚招进团队的同事一样, openclaw 本身并不是一个开箱即用的 数字员工,我们需要去培训,他就是什么事情能做,什么事情需要让其他的人类同事或者其他的 agence 搞定进度该怎么汇报?有哪些规则要遵守?那么这些规则呢?在 open core 里其实就是一个叫做 agence 点 md 的 文档, 这个文档就定义了 ai 的 所有行为准则,它是一个配置文件,基础的配置就非常简单,就像一个没有被培训过的新员工一样。但是在过去一周的时间里,我们不断的去优化这个配置文件,让他成长到了可以帮我们去协调其他 六七个 a 公司的一个项目经理。那我们其实主要增强了他在以下三个方面的核心能力吧。第一个就是主动性, 因为很多人说 agents, 大家觉得他只是一个工具,只是一个机器人,那是因为他们是被动的,就是你给他一个指令,他就去执行一次, 然后你推一推他,他就往前走一步,他并不会主动的去想办法解决他遇到的问题,也不会主动的复盘和思考说怎么样把一件事情做得更好。 那如果 aids 只做到这样的程度呢?它确实只能当一个螺丝钉,但是 open course 不 一样的,它本身有一个心跳机制,就是 heartbeat 会定时去检查哪些项目卡住了,然后哪里遇到了它自己解决不了的问题,并且主动跟我们去汇报。 当然只做到这个程度的话,肯定还是不够的,所以我们在 a 证点 m d 里呢,就配置了更多的规则,让它能够做到不需要我去问任何一个项目的进度,它就可以完全汇报给我。 第二是可重入性,可重入性其实就是说这个 a 证它能不能稳定的靠谱的把一个很长期的东西干完, 它并不是说这个 agents 可以 百分之一百的在线,永远保持 up time, 因为项目的推进总是会出现问题的,然后网络即便再好的网络环境也会有意外的中断,所以我们要的其实是 它能够在项目中断,网络断掉了之后,当它重入的时候,能够从断掉的地方稳定地继续向前推进,它甚至可以去 fix 去解决为什么会断掉了这个问题。 openclaw 的 工作记忆管理,呃,其实是被动进行的,也就是说如果他认为和你对话当中没有涉及到什么重要的任务,没有涉及到什么重要的内容,他是不会主动记录到他。当他的工作日记当中 就导致比如说你重启了 gate 位之后,它就忘记了它在干嘛,所以我们在调试的过程当中呢,就优化了它去主动压缩上下文,主动刷新 session 的 这个配置,让它能够在横跨多天的非常长的任务或者是对话当中,依然清楚地知道啊不同的项目应该怎么样去推荐。 然后第三点,我们对它的改进,我觉得可以称之为 a gentle thinking, 就是 像 agent 像 ai 一 样去思考。因为很多人觉得调教 ai 来进行人机写作,应该是像 agent 像人类一样思考,但是我觉得恰恰相反,因为归机生物就应该用他们自己最熟悉,他们自己干的最好的方式来解决问题。我举个例子,大家肯定都让自己的 agent 去做过一些很简单的自动化,比如说去帮你发一条推特,去帮你在 tapp 上面呃 发一个 issue。 那 这个时候 a 正题有很多技能是可以用来干这个事情的,比如他可以像人类一样去操作浏览器,模拟人类的点击和思考,模拟人类在浏览器的输入框中,用键盘输入 来完成这条帖子的发送。当然呢,他也可以直接写一段呃 js playwrite 的 脚本,调用这个脚本来实现刚才的这个任务。但是最高效或者说最省钱最快速的方法, 肯定显然就是他直接去调用呃相关平台的这个 api。 那 么在刚才的这个任务里,比如说发帖子,在所有他可用的方式里,最慢最浪费投坑的方式其实就是模仿人类的这个方式。所以我们在给 openclaw 定的这个行为准则当中呢,就明确规定了 他在不同工具托 use 的 一个优先级,优先级高低吧,就不仅是当他自己要去解决问题的时候,应该以一个什么样的方式思考,什么样的方式去用工具,包括当他要和其他的 agents 交互的时候该怎么办?比如我们团队当中的 ai 工程师就是 cloud code, 那 open code 跟 cloud code 去共享一个项目 context 的 时候呢?它根本就不需要像人类一样,两个 agents 那 边开会聊天,它只要把自己在这个项目上的工作记忆日记直接把那个路径开放给 cloud code 就 可以了, 它们就直接可以完成整个工作 context 的 共享。除了上面的几个主要配置优化呢,我们还做了很多在细节层面的调整。呃,我也把这个版本的配置文件 留在评论区了,大家可以直接把它发给你自己的 agent, 他 就会自己根据这个文件里的指示完成所有的升级。 all right 我是 v a 七,现在在做一家 ai 加跨境的公司,如果你也想探索 ai agents 或者是相关的业务领域的话,欢迎来一起交流。 have a good one。

嗨,大家好, opencloud 已经使用了大概有一个星期了,我们看一下 token 的 使用情况。在上一个视频里面,我们讲到了之前我是用 opencode 大 概使用了一亿个 token 的 量,那今天呢?到 opencloud 使用了一个星期之后,我们来看一下使用了多少 token 量呢? 这个是万,这个是亿,是六个亿啊,这个涛哥的使用量还是很惊人的,但是又让我觉得占了个便宜的事情是什么?还可以看到这写的是每五个小时啊,他有一个使用限制额, 在之前我使用欧根扣子的时候,其实都很难达到这个额度,然后基本睡觉的时候,休息的时候,上班的时候,这个涛哥的使用量呢就是零。但是自从我抓了欧根高, 现在基本都是每天他都有 tiktok 的 消耗量,所以我觉得这个我占了便宜了。所以什么?所以 如果你想用这些自动化工具,你不去烧这个 tiktok 是 不可能的,而且这个 tiktok 的 这个量是很大的,所以像入坑的小伙伴们一定要有思想准备。

关于 openclaw, 这段时间我用下来有很多的体验和感受,非常的细节,这里边有很多采看的地方,也有觉得这个产品很棒的地方,所以今天我会花比较长的时间跟你仔细的去讲一讲我一些相对来说比较突出的感受。 首先就是 mac mini, 到底 mac mini 是 不是一个必备的选项?先说结论,如果你是一个纯纯的代班小白,而且对于自己的电脑操作能力没有那么的自信,又希望整个使用能够足够的稳定省心,并且把 oppo color 的 能力尽量发挥出来。那我最推荐的方案就是买一台 mac mini, 而且用 api 的 方式去跑 openclaw, 当然还有很多其他选择,从我目前的整个体验来看,也只有这套方法是最省心,最稳定,也最有效率的。那我一开始的设想其实还比较复杂,本地模型加上 api 的 三层结构, 比如用一台能跑本地模型的 mac mini, 同时配合 api 去完成我的一些日常任务。那当时我 web coding 开发了一个模型路由 skill, 相当于用一个模型调度员,按照任务的性质把模型的调度分成了三层。第一层就是使用 open cloud 开发者也最推荐的 cloud opus, 四点六,那效果最好,质量最稳,美中不足就是价格偏贵。 第二层就是国内的一线模型,比如说像 m 二点一啊, kimi 二点五啊等等。这第三层就是本地模型,当时我的选择是前文三三十二 b 的 q 四量化版本。 那真正跑起来之后,我发现其实坑还是挺多的,而且都是那种很小但是很让人挠头的问题。比如一开始做调研的时候,我跟 ai 聊了很多轮,最后得出了一个结论是,我只需要去购买一台 m 四 pro, 六十四 g 内存的 mac mini, 就 能够把千分三三十二 v 跑通。 当时我还算了一笔账,如果我每天大概消耗一百万的 token, 按照这个成本和产出来看的话,可能七到八个月我购买硬件的成本就能回本了。但是实际跑下来发现,最理想的速度在终端当中是十一个 token 每秒,导致回复还是偏慢的。 如果只是在终端里跑,那速度还算能接受,但一旦接上了 openclock, 这里边有各种 skill 规则、历史记录等等,速度就会明显变慢, 平均下来一个回复的响应时长经常要去到一分半甚至两分半。所以这个速度的体验用我的话来说就是真的非常的拉垮。 所以我后面还排查了一轮,想要搞清楚到底问题出在哪。结果发现其实真正的瓶颈不只是内存,而是在于内存待宽。比如一台 mac mini m 四 pro, 它的内存待宽是两百多 g 每秒, 如果我希望 token 输出的速度更高,比如要跑到二十 token 以上,就得上到 max studio, 但是这样一套下来,成本就往两万块走了。 所以你再去对比一下入门的版本,如果还能通过别的方式拿到更优惠的价格,这个使用 opencloud 的 成本就是四五倍甚至更多的差价。所以与其花一万五六千块钱去升级硬件,还是把这部分钱用在 token 上, 那我更倾向于后者。而且对于我个人而言,使用第三方模型也并没有特别强的隐私焦虑,所以我更能接受纯 api 的 方案。那么问题来了,既然本地模型这么吃硬件,为什么不直接上 vps 或者其他云部署方案呢? 我自己也对比过整个不同方案之间的一个区别,我觉得目前 mac mini 方案最值得推荐的原因有三点,第一点就是它还是能够用到很多 macos 本地系统的能力的,很多东西你再去调用 opencloud 的 时候需要的一些能力, macos 本身就很顺手,而且直接用了系统级的功能去做事。 第二点就是你基本上不需要做太多的额外的配置,就能够第一时间去上手 opencloud, 那 整体使用的路径更短,不容易在环境依赖权限上反复折腾。第三点就是它可以低功耗的二十四小时稳定运行, 那如果你本来就有一台 mac mini, 或者说能够以更加便宜的价格拿到,那整个这个成本和使用体验就会更好。接下来我想讲一讲一些具体的使用细节。 opencloud 跟我们平时使用的正常的 ai 聊天软件到底有什么不一样?首先第一点就是 界面体验,你会发现它的整个界面非常的朴素,甚至是有点原始。如果你用 webchat, 也就是本地网页去聊天,你会明显感觉到它不像 chat gpt、 cloud gemini 或者是豆包那样的简洁清晰。 核心的原因是它会把很多后台规则以及本地执行的命令信息直接展示在前端,所以整体看起来会更加的工程化,不那么小白,用户友好。 第二点就是整个思考的展示方式,大家现在主流用的模型,像我们上面提到的那些产品,通常会把它的思考过程展示给你看。但是在 openclaw 里,它通常只会显示一个 thinking 的 气泡,不像其他模型那样让你看到整个过程,而且它的速度也算不上多快。 当然,这个取决于你具体使用的模型,尤其是当你使用了飞书跟他的沟通后,你会发现他可能会在 thinking 这个状态上停留很久,页面没有任何文字的流逝输出,也就是说你看不出来他到底在做什么,进行到哪一步了。第三点就是文件和截图这类的能力相对来说偏弱。 比如你希望他自动发截图给你,其实需要提前去做一些固定的设计,或者是预埋留一些习惯让他知道你的偏好。否则在默认情况下,他更倾向于把文档和图片保存在本地,然后你得自己去打开对应的 md 文档或者是图片进行查看。 综合上面所有的尝试和对比,我最终的选择是用了一台配置更加入门的 mac 模型,而不是原来的本地模型加上 api 的 组合。 再往下一个更加现实的问题是, open club 到底适不适合普通人去使用呢?那我的结论是,他更适合那些有探索精神,也能接受相当程度风险的人, 因为他出风险的概率实在是不小。你会在网上看到各种成功的案例,但是很少会有人把自己遇到的风险和翻车的经历一五一十的讲出来。而且这种风险不止存在于 open club 这种独立开发者开发的开源项目, 就连前一段时间 cloud 推出的 cowalk 也有类似的系统级风险。我印象最深刻的是看到的一个帖子,有人用 cowalk 的 时候,直接把电脑里一百多 g 的 文件全删了,而且找不回来。 所以如果你不希望发生这类的事情,最稳妥的方案就是做真正的物理隔离,用一台专门的 mac 或者是主机单独去跑 opencloud。 而且在真正决定使用这个产品之前,还要做一个二选一的决定,要么你给他系统提供权限,让他可以调度整个电脑操作系统的很多底层能力,要么你就干脆不要用它, 因为一旦你限制了他的权限,不让他做事,你拿到的就是一个很基础很受限制的积累,整件事情就真的没有必要浪费时间了。那么 open cloud 的 价值到底在哪呢?我觉得本质上他是 ai 圈里的先行者,是那种用来探索上线的产品, 他的很多技术能力在行业的从业者来看,其实并不算前沿,甚至可能在一年前两年前,其中大部分的技术能力就已经有人做出来了。 但是这个开发者真正厉害的地方在于两点,第一是他把这些能力整合成了一个完整的产品,可以让你在一个地方跑起来。第二就是在很多细节体验上做了大量的调教,最终把功能上限和实际体验做到了一个相对极致的平衡。 不过如果你是完全的小白,没有任何代码基础,也没有很多 ai 使用的经验,那我的建议是先等等。因为现在很多国产替代已经在路上,而且很多产品已经很好用,也更适合普通人直接上手。 那最后说说我自己的后续,对于我个人来说,我还是会继续去探索 open 这种玩法,因为如果把它当做一个探索自主化智能体的项目,它确实非常有意思, 而且我觉得它有很大的利用空间,能够帮助我去做咨询、抓取内容选题和生产,甚至半自动化的工作流,去迭代我目前正在使用的这套 ai 内容生产工作流。那最终我的目标是获得一个有眼力见,懂我的需求的合格的数字员工。所以后面 我还有很多的东西会分享出来,包括很多具体的 open class 的 使用方法。不止会包含 ai 自媒体方面呢,也会有很多适合普通上班族的用法。所以如果你感兴趣,欢迎关注我,这里是实业,正在与你分享 ai 一 人公司的成长过程,我们下期再见。

家人们,如果我告诉你,有一个程序员,他在短短两个月内提交了八千二百九十七次代码,这意味着什么?这意味着他平均每天要提交一百二十七次。除去吃饭睡觉,他平均每十一分钟就要完成一个功能或修复一个 bug。 更可怕的是,这六十六天里包含了所有的周末和假期, 风雨无阻,昼夜不停。在传统的软件工程里,这绝对是疯了,要么这人是机器,要么代码质量烂得像一坨泥。但事实狠狠地打了我们一巴掌。这个项目不仅没有崩盘,反而成为了二零二六年初 get up 上最耀眼的黑马。 modbot 原名 cloudbot, 他 在短短几周内狂揽八万颗 star, 甚至在改名风波的二十四小时内就新增了九千关注。而这一切的背后,几乎只靠一个人, peter steinberger。 他 是怎么做到的?是变异了?还是他掌握了我们不知道的秘密?今天,我们将拨开这层疯狂的数据外衣, 在你深入 ai 辅助开发的起点时刻,让我们先看一眼那张令人窒息的 get 提交图。数据不会撒谎 modbot 的 提交高峰期集中在凌晨零点到四点,这是一个典型的深夜黑客,但在 ai 时代,这个词有了新的含义。 peter 不是 在孤独的敲代码,他是在流状态 flow state 中与 ai 共舞。在这个时段,他采用了一种被称为原子化提交 atomic commits 的 战术。普通人写代码喜欢憋个大招,写完一整套功能再提交。但 peter 不 一样,他的 get 历史里全是这样的碎片。 修复 windows 环境下的崩溃、重构、强化网关认证文档更新安装指南每一个 commit 只做一件事,为什么要切得这么碎?因为在这个速度下,原子化就是他的救命稻草。 当你的手速快到每十分钟一次提交时, get 的 二分查找 get by sec 就 成了时光机。任何一个功能炸了。它能像外科手术一样,精准地切除那个坏掉的细胞,而不影响整体机能。 这解释了它为什么能兼顾速度与稳定。你看它的提交分类,百分之三十一是 fix 修复,只有百分之十是 fix 新功能。这揭示了一个违背传统常识的真相。在 ai 辅助开发中,不需要一次作对, 你可以让 ai 快 速生成,快速试错,然后通过极高频率的微创手术来修复它。这就是收敛式开发,先发散再收敛,速度快到飞起。但只有战术是不够的。 peter 真正的护城河在于他彻底改变了写代码这件事。他在访谈里说了一句极具哲学意味的话, 我不再阅读代码,我看着代码流动。这就是传说中的 web coding。 分 为编程, peter 就 像一个指挥家,而 ai, 无论是 g p t 五点二还是 cloud opus 就是 他手下的乐手。他摸索出了一套精密的信任较准系统。 如果是写这种大段的基础逻辑,他用 open ai codex, 信任度百分之九十五基本不看,直接合并。如果是复杂的业务逻辑,他用 cloud, 信任度百分之八十稍微 瞅一眼。如果是其他的,低于百分之七十必须人工审查。不仅如此,他玩的最野的是混乱工程,他会同时运行四个 ai agent。 想象一下这画面, agent a 在 写新功能, agent b 在 旁边写测试用力, agent c 在 重构老代码,而 agent d 在 更新文档。这四股力量同时作用在同一个代码库上, 而 peter 就 在中间,像个交通警察一样指挥流量。他说,如果你能驾驭这些工具,你一个人的产出能媲美一年前的一家公司。这不是夸张,这是正在发生的现实。 mobot 的 诞生源于一个魔法时刻。最开始, peter 只是想用 whatsapp 给家里的电脑发指令, 直到有一天,他随手发了一条语音,那一端的 ai 自动识别了语音,调用工具、转码、搜索密钥、理解意图,然后给了他完美的回复。 那一刻, peter 对 着手机喊了一句,我 x, 你 是怎么做到的?从那一刻起,这个项目就有了生命。他从一个简单的消息转发器,进化成了拥有长期记忆、支持语音唤醒、横跨 whatsapp 和 slack 的 超级管家。但传奇总伴随着危机。二零二六年一月二十七日凌晨,因为项目名 cloud bot 太像 cloud 巨头 anserpic 的 律师函发到了 peter 的 邮箱。如果是普通人可能就慌了,但 peter 是 怎么做的?他在二十四小时内完成了改名,重构,发布新版 motbot 意为蜕皮,就像龙虾褪去旧壳,长出更坚硬的新壳。 这次危机反而成了项目历史上最大的广告社区沸腾了。因为他们看到,这就不仅仅是一个工具,更是一种反脆弱的即刻精神。故事的最后,我们不得不提 peter 本人。很多人问,项目这么火,为什么不融资?为 为什么不商业化?此时此刻,硅谷的 vc 们正挥舞着支票,想给他估值十亿美金。但 peter 给出了一个让资本家绝望的答案,我不需要钱。他在二零二一年就把上一家公司卖了,早就实现了财务自由。正因为不缺钱,他才能看清本质。 他说,代码本身已经变得廉价了,真正值钱的是想法,是品牌,是自由。他拒绝了 vc, 甚至考虑把项目做成基金会。因为他知道,一旦拿了钱, model bot 就 会变成另一个监视用户贩卖数据的商业软件。而他想要的是数据主权,是让你的 ai 跑在你的本地,听你的话,在这个云端服务随时会融化消失的时代, 给你留一片属于自己的数字领地。 model bot 的 故事不是一个天才的独角戏,而是给所有开发者的预告片。他告诉我们, ai 并没有取代程序员,他只是淘汰了平庸。他超级增强了那些有愿景、都 懂架构,且敢于拥抱变化的超级个体。在未来,只要你拥有想法,并且学会了说 ai 的 语言,你一个人就是一支军队,你一个人就能改变世界。这就是 peter stamburger 给我们上的最重要的一课。这里是 ai 风向标,关注我,下期带你硬啃更多这帮硅谷大佬创业背后的故事。

想不想拥有一个二十四小时在线的 ai 员工呢?最近 oppo klo 特别火,我在云服务器上也折腾了一个,接下来带大家体验一下我在云上折腾 oppo klo 的 一个过程,还有使用之后我对它的真实看法。当然我这两天时间还没有部署完成,也存在一个比价的环节啊。 首先是腾讯云,腾讯云是比较实在的,他能够二十块钱买一个月的服务器,因为你如果是选国外的节点的话,他能够 使用里边的这个搜索功能,如果你选国内的节点,它搜索功能是不能用的。当然我也是对比了这个阿里云,阿里云的 open globe 是 原价五十九,它其实有一个抢购的计划,抢购的计划它能够做到好像是 九块钱买一个月,但是你如果是续费的话,他是按照原价来续费的。腾讯的续费仍然是二十块钱,这个比较方便一些。这个百度他有一元的抢购,但是我没有抢到,所以不知道他到底好不好抢。 如果是你,他的正常购买的话,就要买他幺五六的幺五六,但是他是买一年的,价格是挺便宜的。 但是,但是他这个有问题,他的地域呢?北京跟广州,所以他部署上去之后,应该搜索功能是用不了的,所以这个体验感到时候功能限制性就会很大。到最后我选的是腾讯云的服务器, 买了之后呢,他这个部署是相当简单的,虽然说已经是在云服务器上了,会省很多时间部署安装的过程,但是他配置的过程也是挺麻烦的。我觉得想用这个其实难度并不是特别小, 你看先配这个 openid, 我 就要选接入的即时通信工具,我就选飞书,飞书我已经我已经配置了。跳过选飞书这一步其实挺麻烦的, 因为你要去跳到飞书的官网上边去创建一个应用,获取这个应用的 api k 跟 secret。 另外你需要把这个应用里边加入这个机器人, 所以它才能有即时通信的机器人工具帮 openroot 来接收消息。所以这一步我大概用了一个多小时啊,这里配置 skill 现在也可以先用上,简单一点。 那现在我首先这里边点空格就能够选中你要装的哪些东西? gmail 跟 github, 我 先装上这些不太认识的,这个大概知道是干啥的, 所以我也先装上。上边还有苹果 note, 默认,其实这些都不知道是怎么用的,干啥的默认我,我感觉应该是做笔记。你可以, 因为它是云服务器,我本地当然有服都当然有默认,但是在云服务器上的话,我就需要把它复制上来。 行好先好,就这样等空格,空格它就会去安装,选择依赖。 但是我觉得现在有一有一个麻烦的事,后边我都需要通过这种没有界面的方式来访问这个台服务器和操作这台服务器我觉谷歌的 g p i k 我 感觉也是比较困难的,来获得又是比较困难的一步。 还有 notion, notion 当然是做笔记的 open ai。 呃,位置不变生成的。下边这个是什么?不太认识啊。 这个也不知道是干啥的。另外装 fox, fox, 因为这个其实不消耗资源, 我觉得都装上吧,现在为 siri c c installed install 你 装好之后重启吧,其实它之所以强大,首先它需要很多其他的软件来支撑啊, 另外有这些软件,当然你也需要有其他的软件的这些工具的账号,所以这账号也是另外一个麻烦事。返回服务器,我看现在看他文档怎么来操作。在配置完成之后,通过文档就能够看到, 看一下,通过文档就能看到。完成以上配置之后启动 get 位啊,这样就能够启动这个,现在按照他的文档来启动一下试试。应该他启动之后会打开一个软件, 现在这里它提醒我,我的 open core 已经启动了启动,但是应该怎么用呢?看一下我的乖乖啊,你启动这个 open core 之后呢?这个界面上服务器上是没有任何反应的,你看它现在这个 说明文档上边,比如说你配置了 discard 或者是飞书,你就需要下载飞书跟你的机器人进行聊天,这样通过聊天的方式给这个服务器发送指令。这个服务器呢,可口可乐在服务器上接收到你的消息,他通过理解你的自然语言去分解任务, 然后调用各种各样的工具来帮你完成这个任务,基本上就这样,所以现在我需要安装一下飞书,不是经常用飞书的人可能都不知道怎么去添加机器人。 腾讯文档上就没有啊,我是看的阿里云的文档,我现在就试一下在飞书里边创建一个群聊,添加一个机器人,添加机器人的时候,往下拉就能看到自己创建的这个自动回复机器人点一下,这无所谓啊,因为没有别的人, 现在他已经正常运行了,我现在看能不能往里输入啊,看他有没有什么反应。 我先不等他了,我在这个在这个飞书文档里边直接问他,金融大师,难道我有我艾特他一下吗?艾特他一下是啥?因为之前没有用过飞书文档,所以不熟 梳理 l l m 发展趋势好了,同样需要艾特他一下。应该是需要艾特他一下,要不然他这边接收不到消息。可能, 但是他在服务端这边不会看到他运行的对话,处理对话的过程感觉不太靠谱,不知道这个时候我应该怎么去检查一下,检查一下到底是谁来处理的这个东西,谁来处理的这个消息。 接着我想让他总结我 obsidian 下边有什么东西。这个时候呢,可以看到他不知道我的 obsidian 的 文件内容在哪个地方,所以我还需要告诉他我 obsidian 的 笔记文件放在什么位置, 现在可以看到我告诉他我的 obsidian 的 根目录是在什么位置,他就给我回复了。 这也是我在服务器上放的两个文件,一个是读书笔记的,另外一个是关于篮球的,他就告诉我这些内容,这个就算是基本打通了,也实现了一些简单的功能。我觉得通过云服务器简单体验了这个 open globe 它的功能,它云部署第一个优点就是它这个部署的方式特别简单,还有一步一步的配置的流程。 因为这些云厂商他们已经做了这个 opencloud 它的镜像,这些镜像使用起来会特别的方便,就是节省了我们安装的一个过程,我觉得第二个优点就是它能够二十四小时不间断的运行吧,这也是一个服务器应有的一个优点。 另外一点就是他不会破坏我们本地的环境,因为他是一个独立的私有的一个服务器。说完这三个优点呢,接着我觉得比较大的缺点有那么几个,最大的一个缺点就是在于我们需要不断的去维护里边的资料, 其实很多时候我们并不想去另外维护一份这种资料,为什么呢?比如说我想要像这个作者他那样说自己要定一个机票,有一些自己的个人资料在本地存着。 那么你让 open 来做这个事呢?他就会自己去找这些资料,打开网站,把需要的资料去填进去, 通过分析去筛选一个比较合适的航班啊,帮你买下来。如果是你在 云端使用这个过程的话,就算他有无头的浏览器,不用你操心,但是你仍然需要把自己的这些资料传到云服务器上一份。那么这个跟自己订机票中间省了多少时间和工作量呢? 这个很不好说,我觉得另外一个就是缺点我觉得也很大,在云服务器上他的 open globe 没有这个界面,这就算是对程序员来说, 比如说你在用 obsidian, 需要打开设置,设定一个根目录,才可以知道哪些文件属于你这个 obsidian 的 这个文件内容。当然还有更多的软件是有这方面的问题的,我觉得这个是对大多数人来说是比较难使用的啊。 通过这个视频大家应该能够知道 open globe 能够实现大概什么样的功能?希望这期视频能够简单的帮你认识一下这个当下最热门的 open globe, 它是一个什么样子的东西。评论区里边可以聊一下大家对 open globe 它的一个看法。

大家好,我是兔兔,欢迎来到我的频道,真的是好久不见,差不多一周的时间了,我都没有发视频,因为 上个星期我就在家研究 open call, 都没怎么出门。这个时间呢,说长不长,但是 也不算很短了哈,要问我在这个过程中有什么进展,有什么发现?我想先分享一个截止目前为止 最大的感受。我好像终于理解什么叫技术超能力了,作为一个完全不会写代码的普通人,现在我可以让 ai 来帮我写程序,部署服务、调试硬件,甚至操控远程设备。 而以前一些脑中的奇奇怪怪的想法也有落地的可能了,真的是一个一个做出来了,最夸张的是,他已经从软件层过渡到了物理层。 我知道这么说有点虚,有点玄乎,但这确确实实是我最近一段时间来的一个真实的感受。那么在具体分享我用 oppo cloud 做了什么之前,我想简单的分享一下我在这上面投入的硬件软件的成本。 先讲一讲硬件成本,我在分享初次体验 opencloud 那 期视频当中就有提到过,我在去年底其实就买了一台六十四 g 版本的 mac mini 四 pro, 当时本来就是想拿来跑一些本地大模型研究研究 ai, 然 那阵子呢,处于超级新手期,都还在想怎么样去利用好这台设备,结果没过多久, overclock 就 出来了,这个真的就是巧了哈,硬件层面来讲就属于遥遥领先了。 那这个 overclock 其实已经经历过三次更名了,问世的时候真的是超火爆,很多人就到底用什么设备去装,也是掀起了不少的讨论, 都说可以不用 mac mini, 用其他的设备,那我呢,刚好手上有一台,最开始就用的是 mac mini 嘛。然后在过去一周呢,我其实也尝试过用三种不同类型的设备都去试装体验了一下。 首先我试了用 zmar broad, 它的系统是 zmar o s, 能不能装?当然能,它的应用市场都自带了,更新的非常快,我就试了一下,结果发现这种被动散热的设计呢,就会导致它在运行的时候 非常烫。其实目前呢,清迈还处于没有到夏季最热的时候,但是我感受到那个机器烫的程度到什么程度,可以煎蛋了。我很担心长期这个样子使用,所以这种散热压力就会导致在运行 open club 就 有一点卡卡的。 其次是我的一台小主机,华硕 n u c 十四 pro, 那 这台小主机的硬件性能是很强的,跑起来是绰绰有余,但是呢,我是把它放在国内的,是远程控制的这么一种状态, 结果就遇到了网络环境的问题,在调试方面呢,挺麻烦的。后来呢,家人还跟我反馈说这台机器他的风噪声很大,就呼呼作响吧。然后我在网上也没有搜到很好的那种散热配件, 所以目前呢,就是一种因为网络因为风扇使用不畅的一种状况。 最后是十三寸的 macbook pro i 五的 cpu, 这是我的第一台 macbook pro, 大 概七年前买的吧,就一直舍不得出掉,留作备用了。 它的架构其实和 mac mini 已经完全不同了,性能放今天来讲也属于比较差了,跑 open cloud 可以, 但是相同的 cloud 的 模型,我就发现它这个反应速度确实要慢很多,然后在高负荷的情况下呢,风扇噪音也是明显很多,不过还是可以用的。 那其实我用的三种不同形态的设备都可以装,所以我也意识到 openclaw 它对硬件没有那么挑,要求没有那么高,但是如果有性能更强的 cpu, 更大的内存支持, 那么在运行上来讲就会更加的流畅,更加的高效。好像有点在说废话嘞, 那说完硬件层面,我还想小小的补充一下,就是我基于语音输入和识别去购买了两个小配件,一个是麦克风,还有一个是快捷键键盘。麦克风也是看别人推荐的,效果还行, 之前长期跟 ai 对 话,我就发现我打字的速度跟不上,会降低效率,然后我就开始用语音输入的内置的麦克风, 但是周边环境的噪音多一点的话,会影响识别的精准度,而且因为有一段距离,所以我的声音会需要比较大,说久了之后嗓子有点疼。 后来我就用了这种放在嘴边的麦克风,识别效果有一点点提升。当然我觉得这个也不是最关键的,还是要配合语音输入法和 ai 校准这个样子呢。出来的大段文本准确率是比较高了的,因为我有的时候说我可能 口述的时候会有重复的习惯啊,或者有一些口语化的表达,那这样一套组合下来,其实识别的准确率真的就很高,我基本上不用改的。 而快捷键机械键盘的作用非常简单,主要是想减少高频操作情况下对笔记本键盘的损耗,然后就试了一下,还可以,手感还不错。 还有就是买了 esp 三二设备,这个设备挺有意思的,但是在这里我要先卖个小关子,因为之后分享我用 openclaw 做了什么的时候,我就会重点分享一下它, 再来聊一聊软件方面的投入,也就是各大 ai 的 订阅。其实在这个方面我算了一下,这个支出还挺大的, 就是三家我都有在用。关于这三个 ai, 简单说一说截止目前为止我的一个使用感受。 club 的, 我最早用的是二十美金的那一档,然后上个月不是做了一个升了吗项目吗?当时就触发限额了,我一咬牙,升级升级成了一百元那一档, 就想着说之后肯定很够用了,结果没想到我要制作炒股的一个项目的时候呢, 又触发限额了,这个托肯真的很贵啊。所以我也在 open cloud 上面做了一些优化,比如把一些不太重要的工作丢给其他的便宜模型,比如我把项链模型部署到本地,再比如定期重置对话,以及设置 cloud 的 上限。其实截止目前为止,我的主力 ai 就是 cloud 的。 可能视频前朋友会有一个小小的疑问,市面上那么多 ai 还有平替的,你为什么就选 cloud 的 呢? 我觉得可能是使用习惯,一开始我的工具制作还有一些小开发都是用的它,而且随着我投入使用的比例的增加, 我发现它收集我更多数据之后,好像比其他 ai 确实更懂我一点,更能 get 到我说的意思。所以目前呢,属于一种比较依赖的状态。当然后续如果有比较好的平替,我是二十美金的那一档, 但说实话,最近我的使用率真的是降低了很多,所以一度我都想要去把它停掉了,但是又觉得在泰国这边,在手机端 app 使用的时候,它的通话和语音 响应速度比较快,体验是比较好的,所以这一点呢,让我至今都有点犹豫。但是如果一定要去砍我的 ai 订阅之初,我第一个应该会选择把它刷下去, 然后是积木莱,目前也是 pro 版,之前打折的时候我就直接年付了这个积木莱用下来呢,我真的觉得它是目前所有 ai 当中 性价比很高很高的了,就是它既可以编程,又可以处理长文,还可以升图。目前来讲,我其实对它的各项表现还是比较满意的,但它有点挑 ip, 偶尔连接不上。 而国产大魔星我当然也用过,之前 deepsea 出来的时候我就想要体验一下嘛,充了一百多,结果用了好久好久,现在都还有六十多。以及我上周体验的 kimi, 我 就当时看很多人都说它挺好用的,所以就充了一个 kimi co 的 七天乐, 差不多五块钱,超级便宜的,就想着说短时间作为编程助手来体验,看一看表现还是不错的。但是七天时间一到,他就要强制给我升级成四十五块钱包月的套餐了, 他问都不问我洗得好,我最后一刻发现了停止了,真的是有点迷哈这操作。目前我的 ai 订阅就是这些了,这个开销其实不低,可能就是学习的成本,学习的代价了。只能说期待未来 ai 越来越普及,关于 ai 的 基建、算力都有所提升之后,它的价格就能够降下来。所以呢,我现在为了对得起投入的这个学习成本,我给自己定了一个小目标,每天至少要用百分之八十的量, 如果当天我的用量没有达到,那就是我对于 ai 的 研究开发还不够。除了订阅,我还买断了 mac whisper 这个软件, 因为这个软件它支持设置本地的模型来进行校对,所以现在我的语音识别和校对都是本地的,体验很不错,安全性也挺高的,识别速度真的挺快的。因为现在放了个话筒在嘴边,所以我给俩洗碗都不可以,就可以一直叽里呱啦的说个不停。 手机上暂时用的 tablets, 一个月内是免费体验之后就要付费了。它的输入准确率是非常不错的,接近于手打了,但是我始终不太喜欢它后台常驻的这种方式。还有就是我想要 减少一些在 ai 软件方面的支出,所以呢,我就用 ai 去做了一个山寨版的,虽然说体验没有这个 typeface 好, 用时也更长,但是免费啊。 那么总体算下来,硬件和软件的投入确实不少,但还是那句话嘛,对我个人而言,我认为它是我的一个必要的学习支出。 那其实也有很多比较精深的方案,就比如说硬件层面完全可以去买 mac mini 的 基础款,比如说订阅, ai 的 订阅也可以去找一些平替,甚至现在也有一些免费的方案都可以,对吧? 只是说这个呢,就看个人的选择需要跟喜好嘛。那我现阶段并不是说因为投入了这么多,所以我要取得一个很及时的现金回报, 而是我想要去学习,想要去学会这一个技能,就是我觉得目前还处于一种会,但是也没有说用的很好的这么一个程度, 所以接下来呢,短期需要功课的目标就是真正的把它用到位之后再说,完完全全的掌握, 毕竟这对于我们所有人而言呢,其实都还是一项比较陌生的技能,而且现在 ai 的 门槛确实也是越来越低了嘛,未来我相信这个 学习的难度也会越来越低,整个花费也会越来越小的。对了,还想分享一个之前发生在我身上的糗事,就是我放心的让 open class 去同步我的视频到我的群里边儿,结果 我可能没弄好吗?肯定是没弄好,他一晚上推送了几十次,而我睡着了, 后来都是群友来提醒我的尴尬。所以想说的是,在享受 ai 带来便利的同时, 我们也要对一些基础的技术有所了解,就是不必要成为大佬,也不必要成为这方面的专家。但是呢,也不能纯做甩手掌柜,多一点了解,在用 ai 的 时候就会更加的安心,也就更能去防范一些安全风险,技术问题。 ok, 那 么本期的分享呢,就到这里,欢迎视频前的朋友在评论区留言讨论,大家相互交流,看看我们下期见。

openclore 一 出来啊,这个 mac mini 直接卖断货,连 google 的 ai 产品经理都在买 mac mini 跑龙虾,但今天我要告诉你的是,为什么大龙虾最好的归宿就是一台 mac。 部署 openclore 目前就是三条路,第一就是你的本地的 mac, 第二个是云服务器,第三个就是 windows。 我全部都试过了,先做云服务器吧,阿里云六十八块钱,腾讯云九十九块钱。优点是不用操操心硬件,缺点是性能受限,两核两 g 的 配置啊,基本上跑不动,跑复杂的任务容易卡,而且数据在别人的服务器上, 说好的本地优先就变成了云端托管啊。再说这个 windows 啊,能用,但是非常的折腾啊。原声系统的支持不如 mac os, 很多 skill 和 imax 一 级整合根本用不了,社区里大部分经验和教程都是基于 mac, 你 遇到问题找解决方案都难。最后说 mac, mac os 和 open claw 的 原声系统支持所有功能都是 开箱即用, mac mini 的 功耗只有二十到四十万,一个月电费就十几块钱。要知道 open clone 是 需要二十四小时长驻运行的,它要随时接收你的消息,执行特定的任务,做心跳检查,低功耗,在这里就是长期省钱。第二个呢,就是配合欧拉玛六十四 gb 的 m 四 pro, 可以 流畅的运行三十 b 参数级别的本地模型,推理速度达到十到二十个 talk 每秒。这意味着你完全可以跳过 api 的 调用啊,日常使使用成本降到零,隐私数据也不用上传,全部本地处理, 但是你不会喜欢这个方案,因为会很累。第三个优势其实特别明显,就是 ms 一 级的整合 apple 生态的日历啊,备忘录啊,快捷指令全部打通。你用 iphone 拍张海报发给 open core, 它自动识别,查日历,搜评价帮你解决,帮你决定去不去。这套流程在 max 上天衣无缝。预算选择上,入门级玩家就买这个 入门的。这个 m 四的基础款啊,搭配云端的 api 就 够用了。进阶的用户建议直接上 m 四 pro 六十四 gb 本地模型和云端 api 混合使用, 既省钱又保护隐私。投入一台 mac mini 的 钱,换来二十四个小时的在线管家,这笔账怎么算都划算啊!下一期教你怎么样买到便宜的 talk, 让龙虾跑起来不心疼!

opencloud 不 适合百分之九十的普通人,唯有三大理由和一个阴谋论去帮你去魅。 opencloud 简单来说就是一个可以操控你电脑的 gpt 或者 deepseek, 可以 运行你电脑上的程序。 第一个理由呢,就是经济成本,首先你需要有一台闲置的并且能二十四小时运行的电脑去部署这个 opencloud, 同时这个电脑的性能还不能够太差。最好呢还得是苹果电脑,因为有很多功能,比如说录屏啊,在 windows 系统上经常会出现问题,而且软件生态呢,也是苹果系统更好。其次呢, 就是 token 的 开销了,这个就是重中之重了,很多博主鼓吹的什么免费啊,便宜的代模型,但是呢用起来太笨了,而且使用体验非常的差。而一些好一些的模型呢,比如说 cloud 啊, open i 或者 jimmy, 你 使用一次 执行一次任务,动辄呢就是几十万的 token, 折合下来呢,几块钱就没了,而你真的需要去付费执行这些任务吗? 第二个理由呢,很多使用场景呢,它都是委曲求,比如说你让它处理你本地电脑上的文件啊, pdf, 那 我请问了,你难道没有 wps 云文档了吗? 是什么样的场景需要让你拿起自己的手机,打开 whatsapp 或者飞机,然后发送指令让它处理你本地电脑上的文件,这个文件还不是你公司电脑上的,是你本地电脑上的文件。其次呢,还有说让它帮你进行交易,这个世界面上有那么多成熟的而且久经安全考虑的量化 交易软件,你不用,你非要自己弄策略,自己去下单,你也不考虑安全上的问题,哎,就是要 diy 主播,自己呢也是有玩 solo 的, 我是绝对不可能让自己部署的 open call 去帮我执行策略去交易的,一不小心全给我爆仓了。 至于什么帮你自动运营自媒体,那就更扯淡了, ai 味道那么重的内容,你确定你发出去有人看吗?你发送一条内容所消耗的 token, 你 确定你可以变现赚回来吗? 第三个理由呢,就是技术门槛。首先,安装它就有一定的技术门槛,很多人说网上有很多保姆级教程啊,你跟着敲就行了。我想说的是,如果你能跟着教程把它完整的安装下来,你就已经不是百分之九十的普通人了。真正的普通人,他们连命令行工具 c, m、 d 他 们都不知道要怎么打开,更别提什么 下载 note js 啊, get, 只有图形化的安装界面才是真正适合普通人的软件。其次呢,配置大模型,配置配置 whatsapp 维书,推特,那就更麻烦了,更别提你还要考虑安全权限的问题。你最好呢还是要有一个隔离的环境,不然他把你的一些重要资料或者文件给删除了,而且他还可以直接去操控你的浏览器,而大部分人呢,浏览器都绑定了十分重要的账号。 最后呢,我想谈一下我的阴谋论,直说了,我觉得就是有一些国内的大模型厂商在炒作这个热度,大家仔细看一下教程里配置大模型,也就是你需要花钱的这一步。上面呢,有几个国内的厂商恰好呢上个月刚在港股上市, 而且呢,有很多点击量十分高的安装教程,都无一例外的推荐你使用这几个收费的大模型厂商,而且呢要使用他们的邀请码 视频呢?最后呢,我想强调一下我的观点,我问我认为 open call 这种本地 agent 的 形式十分的有前景,而且它很有想象力的空间,但是限阶段它还不适合百分之九十的普通人,大家不要这么焦虑,好像觉得自己已经落伍了。

网上传言都说 openclaw 好 用,就是太费头。肯,今天来带你看看它到底费不费头。肯,我平时最常用的是 geminis, 去做文字生成,图片, web coding, 流程自动化,基本上所有的任务。我们来看看这五天下来我到底用了多少钱?这是我国 a s 九九里面的, 我自己用的,五天用了三点多美元,差不多算下来每天五块钱人民币。再看看我们团队,差不多有三四十人,一周下来用了十五美元,也就差不多一天十五块人民币,你觉得这个价格贵吗?用最先进的粘板三模型,一天下来每个人差不多一到五块人民币,但是他基本上二十四小时都可以再帮你干活。 如果你感兴趣,也想把 open i 正确部署在你本地上手,能够真正的做成你的 ai 助理,那么我们有一个 ai 工具群,里面会有十八手的 open club 本地部署课程,还有很多个实际行业的落地案例。如果你感兴趣,可以看主页介绍,第一行会有专人给你提供更多的信息和介绍。

用你的浏览器功能在抖音上搜索 motbot 相关话题,并附带点赞数给我, 你可以做到。用你的浏览器技能去执行这个任务, 不用我打开,你就可以做到。用你的 agent browser 技能 让 cloud bot 执行的三个任务用的逃课量一共用了二十万,三个问题用二十。

大龙虾还没有明白,百万 token 先没了,别急,一起来薅老黄羊毛。无限 token 免费用。首先在英伟达这个网站用邮箱注册个账号,接着验证一下手机号,就能调用 api 了, 关键是支持国内手机号,不用绑卡。然后随便选一个大模型,进入聊天页面, 这里可以切换各种大模型试试,白嫖的人太多,热门模型可能响应很慢,找一个速度还过得去的,这里查看视力代码,可以直接复制模型相关配置。然后打开你龙虾的外部页面,修改配置, 保存之后建议重启一下服务,现在就再也不用担心托肯消耗了,之前配置好的飞书也能直接使用。