大家好,我是坑主,今天继续分享 open cloud 避坑指南。第二,那上堂课我们给大家分享了一下,就是这个 open cloud, open cloud 会经常会出现一些抽风的现象,那第一个问题就是卡死, 那第二个问题就是我在换这个模型的时候,当模型 a 他 欠费的时候,他切换切不过来,那这两种情况怎么解决?昨天,昨天也有小伙伴问我,就是配置,配置像好像看的不是很清楚,那就是如何解决?有,因为,因为我用的是 open cloud cf 的 这个命令,就是我用的是这个,就是如果看过我上堂课的 这个视频的话,就是 openclaw 啊,咖啡的啊,就这个,这个,这个命令是非常麻烦的啊,就其实我现在发现官网上可能是修复了这个问题啊,就它,呃,有两种方法去解决,呃,因为你在安装这个,呃,安装这个 openclaw 的 时候啊,第二步就是在这里啊,有个 quick start, quick start 也也就是这个啊, kris star 的 上面啊, kris star 的 上面,这个就 open call 那 个 on board 杠杠 in store 啊,这个命令的话也是可以的,我昨天试了一下,试试了一下,可以,大家可以给他演示一下, 就是看过我上堂视频的同事同学的话,呃,可以用用上堂的这个视频的解决方法也是可以的,然后这个方法是更简单一些啊,那因为你看,你可以看这是我今天,因为今天是十二号,今天十二号下午的两点十六分, 你可以看一下这其实他每每天都在更新,所以说我建议大家有 bug 他 可能已经修复了,因为我这也是一个,呃,一周前的老版本,所以说你最好是每次都是 npm 英斯多刚记这个去安装,然后呢,我给大家讲一下,就是怎么去解决那个那两个问题抽风的问题,哎,这个就是这个 进去 yes 啊,来 quick start 啊,因为我们聚焦在换模型上啊,其实没有没有其他的需要动的,就是 use use 一个 adjusting awareness, 这里面就有模型了,看到吗?它自自动的第一步就会进入到模型的配置,那我还是谷歌界面还是谷歌界面,然后输入我这个 token 啊,这个 token 我 找一下, 哎,这里就已经没那个 bug 了,看到吗?然后我选到的是应该是 flash 啊,是吧?二点五 flash flash, 其他的就是个 skip for now 啊,然后这里非常重要,这个这个 config skills now, 它是推荐,但推荐你你,你选 excel 应该都是可以的啊,一般用 n p m 这个去装。其实你到这一步啊,其实我就只打了一个勾啊,其实这里就应该是这个忽忽略,是吧, 哎,这就好了啊,一一会按否,我也没有这个这个 no, 选的这样一个这个一个服务,最后网关的这个服务一定不能死,给这个重启就好了啊。这这这部 getaway server 是 already installed 的, 这样就已经完成了之前的抽风的问题,一定要选择第二项打开这个网页的 u i, 因为因为不要选第一项,也不要选第三项。打开了以后,你可以问问他,你是谁,你是谁,只要他能够回复的话,这就说明通了啊, 而且大家时不时的要去更新一下,就是时不时的要去这个官网看一下,然后,然后去更新这个命令就是重新装一遍,能让他去装到最新的版本上,他可能之前的卡死的问题啊,都会都已经解决了,都已经解决了,这个就是解决抽风问题的最简单最简单的一个方法, 那就上上课那个也可以用,这堂课也可以用啊,那比如说你,好啊好。然后我今天顺着这堂课把那个安装也给大家讲了,其实安装非常非常的简单,它其实就两行命令,但是有些小伙伴刚买来的电脑,他说没有 npm, 没有 npm 的 话可以看这篇文档, 你你,你必须得去装这个不录啊不录,因此多 note 就是 就自带了 npm, 但是有些小伙伴也没有不录怎么办?那就装第一条命令, 实际上第一行命令是装 blue 这样一个这样一个这样一个程序的,靠 blue 去安装各种的开发环境,那 blue 还可以安装 pad 环境,因为我们这里只需要用的 npm, 所以 note 环境它自带的 npm 进行管理。 所以说搞过开发的,搞过前端,小伙伴是非常熟悉这个是什么,所以说官网只有这两行,但是前置条件是需要你装这个工具。所以说新买的 mac 电脑,呃是 呃是不带这个环境的。而有些人说我 windows 电脑怎么办呢?官方没有推荐用 windows 电脑啊,你用 woocomtwo linux 是 可以的,如果你是 windows 电脑,呃,强烈的建议你要用用用云服务去去尝试啊,就不要在 windows 电脑去折腾了,哎,这里他就,哎。嗨,这我已经在现场上,你,你是谁呢?是吧?我是根古老师对吧? 然后你就说你是,你用的是哪个模型啊?对,所以说这堂课主要是回顾一下,就不要, 如果你能够用 openclaw, 这个就不要用上次我前两天分享的那那个课,那课程非常麻烦,那个那个配置也是可以的,按照我这个配置,所以说大家还是要多尝试。所以说 openclaw 他 也不断的在迭代更新啊,他会把之前那个体验用的不好的会去修复掉,修复掉,哎,你看 来他是我们的,聊聊吧,我是谷歌极品的二点五福奈雪。那强烈建议大家用这个,这个是免费的模型啊,你无论怎么用啊,因为他非常好偷啃,所以说你不是什么很复杂的一些任务啊,就最好用二点五福奈雪,用二点五福奈雪。好,这堂课就分享到这里,学员们你学会了吗?
粉丝4074获赞6120

open klo 火遍全球,本期我将实操分享在 windows 系统部署 open klo 的 全流程 下面我们直接进入实操环节,我们第一步就是要安装 node js, 我 们打开 node js 官网,在这里我们选择 windows 安装程序,然后我们保存到本地,下载完成之后我们会得到安装包,然后我们双击运行,开始安装, 在这里我们不用任何操作,我们直接下一步,下一步所有的都选择直接下一步就可以,然后安装 好了,这时候就安装完成了,然后我们下一步就是打开命令窗口,在这里我们直接输入 node 杠 v 回车,可以看一下,现在出现了版本号,就是安装成功,然后下一步就是安装 openclock, 在 这里我们选择 npm 的 方式, 我们复制第一条命令,然后我们打开命令窗口,然后粘贴,在这里直接右击就是粘贴,然后我们直接回车。 目前出现了错误,出现这个错误的原因是它默认的是通过 s s h 协议去拉取的,但是我们的系统没有正确的配置 s s h 的 密钥, 所以这时候它就会导致访问被拒绝,那么我们就可以使用另外一个方法,我们改用 h t t p s 的 协议,临时绕过 s s h 的 问题, 在这里我们可以执行这条命令,然后我们直接回车。目前我们执行 j i t, 它也是不支持的,这时候我们还要安装一下 j i t, 打开 j i t, 然后通过这里我们保存到本地,之后就是这样的一个文件,在这里我们双击打开安装, 同样这个安装我们也是不用任何配置,我们直接下一步,下一步直接都默认的直接安装即可, 好了,这时候我们就安装成功了。安装好 g i t 之后,然后我们再执行一下 g i t, 然后杠 v, 可以 看一下,现在有了版本号证明安装成功,那么现在我们再执行 改用 h t p s 协议的命令,然后我们直接回车好了,这时候就修改完成了,然后我们再回到 open cloud, 在 这里我们再重新复制一下这条命令,然后在这里我们右键粘贴,直接回车 好了,到这里就安装成功了。同样我们也是以查看版本号的方式来确定是否安装成功,我们输入 open cloud 杠 v, 然后我们回车, 好,现在出现版本号安装成功,然后我们再复制一下第二条命令,然后我们来复制第二条命令去执行, 然后开始做一些基础的配置,然后我们右键复制,然后回车,这是告诉我们的一个风险提示,在这里我们选择 yes, 然后下一个我们选择快速开始,这时候就需要配置模型了,然后在这里我选择 智谱的 glm 大 模型,因为我这里是有这个资源包的,然后我们回车,然后我们选择 c n, 然后到这一步我们就输入这个 apikey, 然后我们复制一下,然后粘贴, 然后我们直接回车,下一步就选择模型,在这里我选择四点五 a r, 因为我这个资源包它的额度是最多的,然后我们确定这时候就配置好了,下一步就要配置机器人, 这一步就是配置通讯工具,就是我们可以通过手机直接去指挥 open cloud, 在 这里我们先跳过这个配置,后面我们都是可以再重新设置的,然后我们跳过,然后这里问是否配置技能,这里我们也是选择 no, 后面我们都是可以配置的, 在这里我们也选择跳过,我们摁一下空格键,然后选中再回车。好了,到这里我们执行命令,我们看一下我们设置的模型, 我们这里执行好了,到这里就安装成功了。然后我们看一下我们的模型是否显示 glm, 输入 openclmodels, 然后回车,现在显示的就是智普的 glm 五模型,这里就证明我们配置成功了。 到这里我们的命令安装环节也就结束了,这里就已经安装成功了。当我们安装完成之后,它这里就会跳出来本地的一个 web ui 界面,在这里我们就可以和它对话,比如我们问它 你好当前是什么模型,然后我们发送可以看一下,你好,当前使用的模型 是 glm 四点五 a r, 这时候我们的 windows 部署就成功了。好,我们本期 windows 部署 opencloud 分享就到这里,等后面我会分享其他的一些应用和使用方法,我们下期再见。

opencloud 的 落地门槛有多高?今天我们就从硬件、技术、成本和安全这四个方面讲清楚,让你摸透它。首先是硬件方面,在 opencloud 刚问世的时候,也就是 cloud bot 时期, mac mini 被炒得很火, 甚至让它一直处于断货的状态,就连二手平台上的价格也跟着上浮了将近百分之二十。那到底有没有必要专门买台 mac mini 来跑 openclaw 呢?这得看你的预算了,如果预算足够充足,完全可以甚至可以买台十多万的顶配 mac studio。 它的性能、内存还有 扩展性等等都要比 mac mini 要强很多,但它的价格却几乎是 mac mini 三倍。还有它的体积要比 mac mini 大, 因为要适应双风扇系统,所以它的高是 mini 的 两倍,如果想把它藏起来,那恐怕有点困难。如果说仅用于单 agent 的 日常交互, 或是生成简单的脚本耐用 studio, 有 种大马拉小车的感觉。 mac mini 和它相比起来还是超有性价比的, 不到万元就能流畅跑 openclaw, 但因为它的体积小,所以它的散热会差很多,这也导致它无法持续高负荷的工作。而且 mini 的 最大内存是六十四 g, 没办法满足多大模型、 多 agent、 大 文件批处理的病发需求,它的内存待宽只有两百七十三 gb 每秒,这就使得上下文切换有延迟。还有就是 mac mini 的 拓展性不足,没有 picklay 拓展,如果需要拓展还得外接,买来的成本一下增加了起来。除了 mac os 系统, openclaw 还能在 linux 和支持 wsl 的 windows 系统上运行。如果预算没有那么多,可以看看其他的主机或服务器,甚至你也可以使用现有的电脑来运行它。 openclaw 对 硬件的要求没有那么高,只是性能更强的 cpu、 更大的内存支持,运行起来会更加的流畅和高效。如果你的要求不高,那用什么都无所谓。其次是技术方面,如果你是懂点代码的或是程序员, openclaw 对 你来说会很好用, 你能看得懂终端报错,能手动改版本、换端口、装依赖。你可以根据自己的需求定制适合你的 openclaw, 真正地把它从玩具变成生产力工具,你甚至还可以基于 openclaw 进行二次开发。但如果你是技术小白,啥也不懂,但又很想紧跟时势装个 openclaw 帮你办公, 那你只能跟着网上的简单教程安装,或是用 one panel 进行一键安装。除了 openclaw, one panel 上还有阿里新开源的智能体扣炮,都可以快速安装,没有技术门槛。如果只想体验一把的话,可以运用国内的 ai 工具,像是 kimi、 智普、 mini max 都有 openclaw 的 接口。 但对于这部分的用户来说,使用 opencloud 只能靠现成的工具,不懂代码,也没法定制符合自己需求的 ai 助手。如果在使用过程中遇到 node 版本不兼容、端口被占用、权限不足等问题,看不懂报错,日制只能靠重启重装,没法精准排查。第三个就是成本问题, openclaw 作为一个开源 ai 工具,看似不花钱就能使用,其实哪哪都得用钱。有句话叫做免费的才是最贵的。这句话用在 openclaw 身上简直再合适不过了。不光前期的硬件支出, 你与 openclaw 的 每一次对话,你让他做的每一件事都是要花钱的,只是一次包含图像分析的深度对话,就能消耗数十万的透坑, 一轮对话就要花费数美元。如果说是想要依赖 openclaw 一 直做事的话,每月可能要花费上百元,如果是企业的话,可能要达到上千元,加上硬件支出,还有一直开着的电费,每月都是一笔不小的支出,钱就像水一样流走了。最后,也是最重要的安全方面, openclaw 拥有本地文件读写、终端执行、系统控制等高权限,你电脑里有什么他都知道,如果不进行安全配置,可能你的小秘密就不再是秘密了。相当于你家的大门始终处于敞开状态, 谁都能想办法进去瞧一瞧,说不定还能顺点东西。最终总结下, open class 虽说是开源项目,但想要落地也是有门槛的,如果不懂技术,不了解全面,可能会让它成为你身边最隐蔽的小偷,连吃带拿,不仅烧你的钱,还要偷你的数据,偷你的密钥。 所以 ai 有 风险,入门需谨慎啊!关于今天的内容,你有什么看法?欢迎在评论区留言,我们下期见!

open q 安装彩康实录,从 open q 官网找到一键安装命令,等个几分钟安装完成。配置,模型选择 yes, 模型选择 q n 跳转到千万认证, 认证成功后我就不会配置了。这时我们来问一下来,他让我选第一个,然后下一个跳过 sales 配置也跳过, 剩下这些都跳过, boss 要不要跳过问下哎 来建议跳过。 安装完显示无法访问页面,用官网的 dunk 检查一下我们的龙虾健康状态,它提示网关没有配置,用 onboard 命令配置 仍然无法访问。问问艾, 用 status 命令查看网关状态, 把日制扔给艾。 建议我设置 nvm, 用四 r 的 命令启动龙虾, 焕然命令启动龙虾 成功启动。

兄弟们,大家最近有没有被这只小龙虾刷屏名字从 cloud bot 到 multi bot 再到 open cloud 火爆全网,你们是不是也想拥有这样一个私人助理,每天早上打开飞书,让他整理 ai 圈发生的大事儿发送给我, 提醒我女朋友生日买花和订酒店,每天帮我关注和整理持仓动态,是否有重大利好利空等消息, 并且能够通过我常用的飞书给他下达指令,这就是 openclaw, 被称为真正能干活的 ai 助手。本期视频给大家带来 openclaw 的 保姆级教程,包含模型选择、安装部署、接入飞书以及如何配置使用 api 聚合平台 crazy router, 节省百分之五十的 token 费用。首先我们来看模型选择 opencloud 实现效果的核心在模型,虽然它支持很多模型,但是官方推荐使用 cloud ops 模型,效果比较好,建议使用。 然而 opencloud 非常费 token, 同时 cloud ops 四点五的官方 api 价格确实也让人生味。本期视频里也会教大家如何配置 opencloud, 使用 crazy router api 聚合平台,实现省钱百分之五十。调用 cloud ops 四点五。 接下来是安装部署,为了避免 ai 误操作导致悲剧产生,这里不建议部署在日常工作,电脑可以选择部署在云主机上,我这里用的是 a w s 送的半年免费云主机,大家可以根据情况自己去薅。 这里我们打开终端,直接登录到 a w s 的 云主机,输入 open c 号官方提供的一键安装脚本进行安装即可。 安装完成,进入初步设置向导选择模型,这里可以先跳过,后面会进行配置,选择 channel, 这里默认没有飞书也可以先跳过,后面会配置 skills 也可以后面根据需要再配置,后面一路 no 和跳过即可,之后根据实际使用情况再进行配置。 这里使用 openclaw gateway status 验证一下状态,再用 curl 看一下状态是不是两百,这样我们就完成了基础的安装配置。如果需要远程访问 openclaw 的 管理界面,还需要安装 x x 进行反向代理,这里可以使用 e r m 进行安装,配置文件可以参考我这个, 重启 n g s 即可。接下去配置 openclaw 信任代理和允许 http 认证, 然后重启 openclaw, 再获取认证的 token, 将 token 拼接在 url 的 后方,即可访问 openclaw 的 管理界面。接下来我们配置 ai 模型,这里使用 api 聚合平台 crazy router 提供的 api key 进行配置,它比官方 api 便宜近百分之五十。 模型使用这个 called open。 四点五,我们点击令牌管理来创建和复制我们的 api key。 接下来打开 openclaw 的 配置文件,找到 model 和 agent, 这里按照我这里面的配置完成 crazy router 的 api key 和 cloud ops。 四点五的配置,重启 openclaw, 完成配置。 最后一步,配置飞书渠道,飞书使用 webbed 长连接模式,无需域名和公网回调地址,配置简单,个人用户也可以免费使用。首先在开发者后台创建企业自建应用,然后获取应用凭证 app id 和 a p c secret, 同时开启机器人能力 开通相关权限。在 opencloak 中安装飞书的插件,设置飞书中我们刚才获取到的 app id 和 app secret 再次重启 opencloak 事件配置中使用长连接接收,同时添加事件和事件权限, 再创建一个版本并发布,就完成了飞书的配置。接下来我们实际看一下效果,看看 opencloak 能帮我们做些什么, 很快就帮我们生成了一份高质量的总结报告。 接下来可以给他布置一个任务,每天早上帮我们搜集持仓股票的动态信息,分析财报、产品发布、监管诉讼、高管变动等重大利好利空消息。这样他每天就会把详细的分析报告发送给我们,方便我们第一时间了解持仓动 态,也可以很全面地分析多个同类产品的情况。 最厉害的来了,可以让他给立即帮我们写一个专业的程序,然后运行这个程序,得到我们想要的运行结果。整个过程我们完全不需要关心代码文件和运行环境。对了,这里要配置下 a 阵字的权限才能使用编程代理, 他会直接把程序的运行结果给我们,结果也完全符合程序的逻辑和预期。 最后总结一下,我们首先进行了 opencloud 的 安装配置,接着配置使用 crazy router 的 api key 注册来调用 cloud opens。 四点五,使用飞书机器人作为接入渠道进行通讯。最后演示了几个常用的应用场景, 像 opencloud 这么全能的助理,每个人都值得拥有。再把我踩过的几个坑给大家分享一下。好了,本期视频就到这里,有问题留言问我。

兄弟们,你们安装 openclaw 这个 ai 助理了吗?现在好像不安装这个,感觉落后 ai 时代一大截,焦虑啊。 兄弟们看看,有些人反应就是快,都已经靠安装 openclaw 赚上钱了,这就是可怕的执行力。所以我也整理了一个小白也可以顺利安装的教程, 免费分享。 windows 和 mac 平台都可以安装,用的都是国内的镜像,一切都是按照国产环境配置用的 token 也是国产的,所以一切以省钱为主。 ai 平民化现在已经纳入我的百宝箱了。

你好,我是郑工长,昨天有个粉丝急匆匆的来找我,说他部署的 openclock 简直像个废铁,联网搜索经常超时,服务也隔三差五就崩。 我让他把配置单发过来,扫了一眼就明白了,这典型是省钱省到坑里去了。他服务器选的是华北地域,内存只配了一 g, 说白了,他这是用跑静态网页的思路去部署一个 ai 辅助工具,这种配置能跑通那才是运气,跑不通才是正常的。 我见过太多人在基础设施上抠抠搜搜,结果呢?最后花在排查问题上的时间成本,都购买几十台高配服务器了。所以今天我就把话放这, opencloud 部署有两个死穴,你的 ai coding 体验就直接归零。 好,我们来说第一个死穴,国内地狱。这完全是个逻辑死胡同。很多人会觉得服务器当然选离自己近的才好啊,人在国内就选华东华北,这样延迟低,访问也快。这个想法呢,放在传统的网站服务上确实没问题, 但是如果你把它用在依赖全球开源生态的 ai 工具上,那可就是刻舟求剑了。你看,这背后涉及到的是网络路由和资源可达性的问题。 open call 的 核心功能,它要靠联网搜索,要调用模型,还要实时拉取代码库。 国内服务器的出站流量,也就是 outbound 的 流量,它会受到比较严格的管理策略限制。这样一来,你访问 github 可能会特别慢,调用一些海外 api 可能直接就超时了,甚至 dns 解析也可能被污染。 所以说,你选国内地域,就等于是给你的 ai 工具带上了撂靠跳舞,你以为省了点带宽钱,实际上牺牲的是工具的可能性,牺牲的是它的鲁棒性。我见过太多这样的案例,服务器部署在国内,结果日制里全是连接超时或者 d n s 解析失败。 这时候很多新手就容易怀疑是不是自己代码写错了,然后开始疯狂调试应用层的逻辑。 别急,事情没那么简单,根字上的问题是网络链路就不通,你应用层的代码写的再漂亮,网络不通,那一切都白搭, 你说是不是这个道理?反过来我们想想,香港或者美国弗吉尼亚这些地域,虽然物理上 ping 值可能高了几十毫秒,但是他们处在全球互联网的核心节点上, 他们访问开源社区,访问各种 api 服务,那都是原生级的联通性。对于 ai 工具来说,这种联通性的优先级远比那几十毫秒的延迟要重要得多 好。第二个死穴就是内存小于两 g, 这简直就是在玩火。你再看看这内存配置,一 g 想跑 ai 辅助服务, 你觉得靠谱吗?懂我意思吗?这根本不是在省成本,这分明是在给自己埋雷。 从底层逻辑来讲,现在的 ai 辅助工具大部分都是基于容器化部署的,这里面可能会跑着 java 的 运行时环境、 node 服务,甚至还有一些轻量级的向量解锁进程, 这些组建本身它就有最基础的内存开销,比如说光是一个容器的守护进程,可能就要吃掉一百到二百兆内存。再比如 java 或者 node 这种运行时环境,光是预热至少就需要五百兆以上, 那业务逻辑的缓存呢?还会动态分配,所以你只配个一 g 的 内存,就相当于让一个成年人住进儿童床,连转身都难。一旦病发,稍微上来一点,或者你要处理一个稍微大一点的代码上下文,内存就会瞬间打满。 这时候操作系统的 o m killer, 也就是内存一出,杀手会直接介入,毫不留情地杀掉你的服务进程。所以说,内存配置可不是看它能不能启动,更重要的是看它在高富帅下会不会直接崩掉。 你想想看,服务频繁重启,这不光影响你的体验,还会导致数据写入中断,绘画状态丢失。这种不稳定的因素对于需要连续上下文的 ai coding 来说,简直是致命的。 你这边正写着一半呢,后端服务突然挂了,这种挫败感会直接摧毁你对这个工具的信任,你说是不是好?别搞错了,部署这是它,可不是抽奖,它是有标准答案的。 根据我这些年的交付经验,下面这个是经过验证的黄金组合,你直接抄作业就行了。首先,地域选择,我建议香港或者美国弗吉尼亚。 如果你主要用户在亚洲,而且还要兼顾一下国内的访问速度,那香港是个不错的选择。虽然说他访问国内会有波动,但是他的联通性绝对是优于内地的。 那如果你是追求极致的联通性,而且也能接受稍微高一点的网络延迟,那就选美国弗吉尼亚,这里可是全球云服务最密集的区域,生态兼容性是最好的。其次,内存配置起步两 g, 我 个人更推荐四 g。 两 g, 这是最低底线,它能保证服务稳定运行,不会轻易触发内存溢出。而四 g 那 是我推荐的配置,这样拥有足够的余量,能从容应对突发的流量,或者一些更复杂的任务。 划重点了, cpu 呢,倒是可以适度放宽一些,比如一个核或者两个核,但内存这个东西绝对不能省。你想想,内存它是硬资源, cpu 呢,它更多是计算力 ai 工具,它大部分时间其实都在等待输入输出,所以内存瓶颈往往会比 cpu 瓶颈出现的更早。那么配置选对了,我们怎么知道它真的没问题呢?别光看服务状态,显示 running 那 只是个表象, 你必须得做压力测试和联通性验证。第一步,检查外网联通性。你进入到容器内部,敲一行命令, curl, vhtps, 冒号斜杠,斜杠 api 点, openai com, 或者你依赖的其他核心 api 地址。 如果它能迅速返回 http 状态码,这就说明你的网络链路是通畅的。但如果它一直卡在 connecting 那 里,那就很明确了,你的地域选错了。第二步,监控内存水位, 观察服务运行半小时之后,它的内存使用率如果长期维持在百分之八十以上,那就说明你这个配置啊,也就是钢构底线,我建议你最好升级。如果频繁出现 kill 的 这种日制,那就更不用说了,你必须立刻加内存。第三步,实战测试, 让它去执行一个需要联网搜索的复杂任务,比如说让它查询最新的拍放库,然后生成势力代码, 你观察一下它的响应时间和成功率,如果任务超时了,那就检查日制,看看是网络层的问题还是应用层的问题。 最后我想说,很多新手朋友啊,特别容易陷入一个误区,他们会觉得软件是虚拟的嘛,所以跑软件的资源也可以虚拟着来,能省就省,但归根结底,代码它都是跑在物理资源上的,物理规律可不会因为你这是个 ai 项目就给你网开一面。 在数字化工程里我告诉你,稳定性是设计出来的,不是靠调试出来的。你在选址和配置上多花的那一点钱,你买到的是确定性, 你买到的是你后续几个月不会被那些莫名其妙的 bug 困扰的安心。所以真正的省钱,其实是一次性把这个基础打牢,这样才能避免你反复的返工。千万别为了省一杯咖啡的钱,最后却让整个工程队陪着你加班修路, 时间会证明你在基础设施上投入的每一分钱,都会在未来的稳定性中加倍回报给你。好了,今天就聊到这,我是郑工长,咱们下期再见。

大家好,我是邓五。嗯,今天是 open cloud 的 第二堂课,使用避坑指南,最近在用呃, cloud bot 吧,它更名为 open cloud, 所以 说,呃, 我用它这段时间比较多,然后遇到了一些坑,然后给大家避避坑。第一个坑就是我,如果这个呃中间这个电脑休眠了,然后再再启动的时候,它有可能卡死, 或者是我 a 模型欠费了,我要把这个姐妹俩签到 b 模型或者质朴,这个时候就会出现切不过去,切不过去他的表现形式,跟他说话没反应了。你好你好,您是谁? 遇到这个情况,如果你的模型没欠费,他卡死了,非常简单,一行命令搞定。哪哪个命令?就是用一个高 s o f 啊,把这个幺八七八九。为什么是幺八七八九啊?就是这个呃,因为他监听到幺八七八九这样一个端口上来这个这个,看到了这个这个 l, 然后回车,他有两个进程,这个进程,这两个进程就是 open cloud 的 两个主进程,这两个主进程他又是由另外一个守护进程把它拉起来的。所以说你先把它 kill 掉, 感觉 q 杠九,然后把这两个输进去,输进去看他没有反应的时候就好了。你他你杀掉的时候,你再你再刷新一下他,他就好了,那他就好了。如果假设我现在要从质谱切到几面来,请切换到几面来几面来,然后说输错了 g m m i 好, 他就能切到我姐妹的三呃 flash preview 这样一个模型了。如果如果你的智谱欠费了,他压根就切不过去了,那就他卡死在这里,他就永远是这样子的,那他甚至连这个呃思考的这个这个这个冒号也没有啊。另外有思考的冒号就好的,可以切过去。那他卡死在这里怎么办呢? 呃。然后你得重新做配置。那重新做配置的话会比较麻烦,我给大家演示一下。给大家演示一下第一步就是 open。 呃,可唠啊,就是你,你得把它,你可以先把它关掉啊。这个就假设是废掉了啊,然后然后有一个叫 comfy comfy, 哎。回车, 回车的时候你就会进入这个 logo 啊, logo 啊,一定要选 logo 啊,不要选零 mode 啊,然后去选模型,选到模型。假设我要用锦觅来谷歌也是用第一个 api key 啊,这个时候去输入 api key 密钥我这里就。嗯嗯, 输入的过程我就隐藏掉,因为这是我个人的密钥。我刚刚做了一个输入啊,就是把密钥粘过去。回车的操作,这里会有很多个这样一个大模型啊。很多大模型。这他做的第二个不好的地方, 他比如他应该只展示谷歌的他这里所有的大模型呢,你一直往下翻,一直往下翻,一直往下翻,翻到 g 开头的时候放慢一点。好,这里有了。哎。这里他默认的给你选中了二点五,二点五是一个最便宜的啊,就是免费的,他给你选了三个模型,你就把这两个去掉。呃, pro 一定要去掉, pro 太贵了啊。 flash 没问题,留下来。留下来以后就回车键取消。是按空格键啊。然后呢?回车,然后把它光标键移到 call center, 回车 ok 了啊, ok 了,这就配置就完成了,不要去动了。然后怎么办呢?还有还没完事啊? open, open cloud。 呃。有些地方你如果是老版本还是用的 cloud bot 也是可以的。这个命啊。就是,但是我希希望大家能记住新的名字啊,就 open cloud, 然后是有个大气过滤,把它启动一下,那它就会打开一个新窗口,新窗口的话这里还没完,你能够去找到。 呃,这个 overview, overview 它默认的会给你塞个 token, 如果,如果你这里出问题了,这里是空的话,那就麻烦了,它这里是连不上,它就会变成啊,这个 token 一 般不会变的。那这个 token 不 会变的,就是你刚刚装这个 open cloud, 那可以看我第一堂课的视频,他就会出来一个这个网关健全的头壳,这个头壳是为了安全起见,防止黑客或者说其他人调动你的 open call, 所以 说这个密钥是千万不能给别人,给别人,他也能控制你的。这个 open call, 因为他的权限太大了啊,就是有读你的文件的权限,有删除,还有一些控制你的微信啊,或者飞书啊,是吧?那这个非常危险,所以我就所以这个东西,你你你如果发现他连不上,连不上就应该去头壳一闪,然后去连接,连接就好了。 那第二个,第二个坑就是我刚刚说的,呃,还没完,然后有个 config 啊,这个 config 在 哪里啊?有个有个设置啊, config setting 里面,这个 setting 里面里面的配置太长了,你可以从上翻到下, 你要是一点点这样划的话,要划个五分钟,太长了。它有一个,有一个叫 model plui, plui 就是 plm a r y plm 就 主主力模型啊,就是主主要模型,主力模型啊,主力模型,就这个,你看到吗? 你,我刚刚是用的几面的,二点五也是可以的。我把二点五放进去,呃。默认的是三 pro, 呃。但是我把三 pro 给它干掉了。所以说二点五 flash s h 能不能把它删掉,或者你用三的那个 flash pro will 也是可以的。呃,这个是二点五,一点一点错都不能有啊。 f 哦, s h 没错,然后 c 五以后它自动会刷新一下,刷新一下了以后你再点它,然后你在这里再刷新一遍啊。你说切换,你说切换到, 哎。这个左手切换到二点五模型,看看他能不能知道。 f l a s h, 看看他能不能知道。我这个意思应该是可以的。切过来了以后就是二点五。二点五应该是免费的啊。这个, 哎。好,他已经切过来了,然后切过来,你问问他现在现在你你你是哪个大模型啊?您是哪个大模型? 你问问他。如果是二点五的话,大家放心用啊。但二点五有缺点就需要魔法上网,如果你不能魔法上网,你就应该去智普去去。呃。就清华紫光了。哎。这个这个是免费的啊。就是用中国的模型啊。中国的模型推荐两个,一个是千,问的非常快,第二个就是那个智普的清华紫光 glm 四点七。这两个在这个国内的网络是非常快的, 所以我建议推荐大家不要去折腾那个那个模仿上网了,因为还要去改 ip, 挺麻烦的。所以说我因为我一直是改 ip 的, 所以说用谷歌这个是免费的。那我这里也有清华之光的,我帮大家试过了,非常好用啊,就是国内的环境都是可以的。 所以说希望这个视频能帮助大家解决一些这个 open call 的 一些 bug 吧。我觉得它是一个 bug 没做好,希望它后续的版本能进行优化,那你学会了吗?

最近 oppo 靠火出圈了,其实我在一周前就已经安装好跟他对话、灵魂聊天,看其他博主用的那么六,确实觉得挺有趣的,所以也推荐了身边的朋友去安装,自己还写了一份保姆级的安装步骤教程。但是今天咱们来扒一扒, 普通人到底要不要装,要不要花钱折腾,要不要现在去学习,在你动手之前进行一个灵魂拷问,你装这款工具到底是要解决什么问题? 昨天就有个朋友问我说萱安妮的教程装好了,但是我用来干嘛?这个问题我想了好几分钟愣是答不上来。我折腾了半天的东西,对他来说可能是一辆卡车,而他只需要去下楼买一瓶水的需求而已。所以今天我觉得可以先聊一下需求。 所有 ai 工具说白了就是帮你解决事情。第一省时间,比如说你每天有大量重复的工作,要回消息,要整理表格,或者要定热点。 第二个就是要搞钱,比如说你要做自媒体,要搞副业这种类型的。但是如果你只是好奇想要玩一下,我建议你两个都别选,先保存一下,等到你真的有需求了再回来看。那如果你确定自己真的有需求,然后要怎么选呢?我把大龙虾分成了两种类型, 一种是手动挡的,一种是自动挡的海外版。它本身是开源免费,就像你买了一辆裸车, 但是你要自己去租一个服务器,自己去配一个 api 接口, api 就 像是我们车子的油钱一样。这个油是什么?用智普用 kimi 这种国产的油会比较划算,你用多少烧多少,最关键的还是学习成本, 就像我当初那样,看了几天的教程,整理了总结了步骤,最后还要足足折腾了半天,报错了三次,才跑通了这个大龙虾的部署,他才可以在飞书上面跟我对话。所以他不是免费的,是一个固定成本加高,可变成本加高学习成本的一个工具。 国产的方案就是自动挡,就像节制舞。现在录这条视频之前,官方就有免费的体验版,相当于零元试驾,你可以先试试感觉,试试用一下它到底是一个什么东西,或者你觉得自己 基础真的太差了,也学不会部署,也不想去浪费这个时间。那么就有像 kimi klo 这种月度付费的版本,它已经部署好了,它的服务器、 a p i 界面全部都打包好,一键启动,就像租车,你拿到钥匙就可以走了。 到底是怎么选?我可以给大家一个实在的建议。第一步,可以先去白嫖,不管最终选哪个,先用国产免费的体验方案,先试一周,尝试一下,你不用一上来就买个年卡,或者是自己去折腾怎么部署。 试完之后,如果你觉得他也就这样,对于我来说没有什么需要自动化的东西,那你也省了那几百块钱,可以及时止损。 试完了,如果你觉得真香,但免费版的不够用了,这时候你再去决定,你再去思考,你要省钱,你有耐心去折腾,就可以上 open call, 但是它是按量付费的,你要做好稍偷啃的心理准备就行。 如果你觉得你要省心,要长期可以使用的,你就可以用国产版的,像 kimi call 这些,还有阿里 call 也出来了,你可以都去体验一下, 如果只是偶尔用,就继续去蹭一些免费的额度,或者是他有时候会有一些优惠的方案出来,你自己去留意一下,可以不用浪费这个钱。最后我想说的就是,选工具就像选车,不是看哪个马力大,是看你要去哪里,你就在市区里买个菜,就别着急着买越野车, 刚拿驾照就别急着用手动挡,我现在是 o i 的 状态,这些坑我都已经踩过,你们现在可以不装,但是你要知道有这一条路,等哪天你真的被重复的工作压得喘不过气了,想找个 ai 助手去帮忙的时候,记得要先试驾,再决定去买哪一款,下期见!

有人用 open klo 跟他聊了二十多次,收到账单两百块没了啊,换了个强一点的模型,一天六百块,还没干什么正经事,你要正经的用欧帕斯四点六五分钟烧掉你二十美金不是梦啊,这是真实发生的踩坑, 今天把原因说清楚。 open klo 呢,本身是免费的开源,不收钱,但他干活需要调动 ai 模型,你调用一次 就在消耗, talk 就是 计费单位,坑就在这里。第一点呢,就是大家会默认接最贵最好的模型,或者是相对好的模型。当 openclot 装好后,国人就直接装 clot, 也不改配置就开始使用 啊,这是最强的模型啊,也是最贵的。哪怕你只是让他帮你把文件改个名字,他也在调用顶配的算力,就像你买了辆跑车,每天只用来买菜,明白吗?第二点呢,就是他做一件事情,背后调用了很多次。很多人以为发一条消息等于调用一次。不是的, open 可乐接了一个任务,会自己拆解步骤,每个步骤都单独的调用模型,帮你整理十封邮件,背后可能调用了三十次,每一次都在计费,而且没有设置上线的时候,这就是无底洞。第三个呢,就是解决方案,其实不是很复杂,核心思路就是一个让贵的模型只做贵的事情, 简单重复的任务,读文件格式,转换,整理列表,换到便宜的小模型来做,成本能节省百分之九十以上。 复杂的判断,写方案,做分析,再交给强模型人做了一套路由配置之后,原来一个月的九十美金的账单,现在压到了八美金,同样的事情,同样的量,节省了百分之九十一。 oppo pro 烧钱不是工具的问题,是配置的问题, 工具本身逻辑是对的。坑在于说没有人告诉你怎么配,你用过吗?踩过这个坑吗?评论区聊一聊大家都卡在哪一步。

无语了,昨天睡觉前安排我的 ai 助理交代他自己去做点事情,结果早晨起来天塌了,看我昨天刚充了这么多钱,一上来就直接余额为零了, 赶紧问一下我的 ai 到底干了啥?他给我一顿分析回复,睡觉以后我实际上什么都没做,只是在响应心跳检查。卧槽,无语了, 昨天还和我的朋友吹他有多牛逼,什么都可以自己干,准备让他帮我做一些工作流大展宏图呢,结果上来就搞个这个妥妥打脸,果断把他给停了,算你资源全部收回。

疯了,国外装一个 open cola, 上门费居然要两万块人民币!我反复核实了好几家国外服务商的报价,确认没听错,企业定制版还更贵。 open cola 是 什么?现在最火的本地 ai 智能体 能连飞,书企、微钉钉、 qq 以及 imessage 自动帮你处理文件、表格、日程。关键是数据全程本地,不经过任何第三方隐私拉满。但两万块到底干了啥?说白了就是上门看看你电脑配置,装一个免费开源软件,帮你连掉几个聊天工具,培训两小时,再加三个月售后。就 这最离谱的来了,国内价格差能吓掉你下巴?今天我直接当一回价格屠夫!九十九元一站式搞定,十人以上专业工程师团队完整部署,多平台连调,数据本地化,还有售后保障。 open call 本身完全免费,真别再找个人游击队折腾了。想试的朋友,评论区扣龙虾六六六,我们直接发你这波稳不稳,试了才知道。

你可能已经安装了 openclaw 大 龙虾,但你的使用方法可能一直都是错的。今天我们来盘一盘四大常见 openclaw 的 误区。第一是 openclaw 需要一个单独的机器去配置安装,实际上根本不需要。你平时正常用的电脑,不管是 windows 还是 mac 都是可以部署的。 而且创始人 peter steinberg 做 opencloud 的 初衷就是想让他和你已有的电脑里面的文件发生交互,以至于他可以帮你做更多的事情,了解你的工作流程和内容。如果你单独找一个新的机子,那他没有任何可以参考的内容,也无法很好的融入到你现在的工作习惯、方式和流程中。第二, opencloud 需要二十四小时都在运行,当然也是错的, 因为 opencloud 能力很强,很多任务都可以在几分钟之内就能完成,除非你是有一些定时去发生的任务,那带来的结果就是投份费用会很高,估计你都支付不起, 所以开二十四小时并不是正确的用法。第三,需要实时更新。答案是错的,因为按照现在的更新频率,每一两天 oppo nano 就 有一个大的版本的更新,每次更新之后可能会对之前的失费产生影响,导致你更新之后没办法马上就能起用。我的建议是,只要你的版本和最新的版本是在十天之内,就没有必要去更新, 你用的顺手,用的好就可以一直去用。第四,需要部署在云端。其实这个和第一条是一样的,如果你把 oppo nano 部署在云端,其实和其他的聊天机器人没有任何区别,浪费了真正 oppo nano 的 核心功能。 最后再送一条误区,就是大家觉得 oppo colo 很 危险,会暴露你的隐私信息,操作不当会让你的电脑宕机,这个也是一个误区,尤其是现在几十个版本更新之后, oppo colo 已经弥补了一开始明显的安全漏洞,只要你正确操作,而且下载安全的 skills, 他 就不会产生这样的问题。我们工具小组一百多人在用 oppo colo, 没有听到谁说因为用了 oppo colo 导致自己的信息泄露或者宕机反病的事情。如果你对大龙虾 oppo colo 也感兴趣,想要系统学习,我们正好在工具小组里面提供这样的课程。如果你感兴趣,可以看视频主页介绍,第一行会有专人给你提供更多的信息和介绍。

兄弟们,似乎全网都在说,为这个 open cloud 去配个 mac mini 是 一种韭菜行为,而我就是那个韭菜。是的,为了配置这个 open cloud, 我 专门去二手市场买了一台 m 一 芯片的 mac mini, 总的花费呢,大概在两千左右。那我到底出于怎样的考虑去选择 mac mini, 而不是用之前这个 windows 呢?首先第一点,这个 windows 四零七零的显卡,加上它的 cpu 啊,内存量各方面啊,整个酷炫灯光接在电源上,它的功耗就很高。 而 mac mini 它的功耗是多少呢?不到五瓦懂吗?不到五瓦的功率。 然后有同学就要说了,你直接去买阿里云啊,怎么腾讯云上面都有 opencloud? 你 为什么去买云上的?我是这么想的,因为云上的环境,它还是在服务器,它对本地的这些内容的操作权限啊,还是要另外的配置的,很烦, 不如在本地直接去配置,直接去调用。你去买服务器,上面配置大概是两核两 g 的 内存,那说白了,他其实跑不满的啊,如果你要上内存的,那你的价格又要上去了,那说白了,我这个麦克迷你,我二手买来,我两千块钱,我过段时间哪怕我不想用了,我卖掉 一千八,对吧?一千六总归可以卖出去了,对不对?和这个租其实也差不多,但是体验上是完全不一样的。然后这个 open club, 它这个项目本身就是针对 linux 系统和 mac os 系统去设计的,所以各种工具调用在这上面会更加的顺畅一点。 所以综上所述啊,我觉得买个 mac mini, 你 花两千块钱把 open club 部署在上面,然后我觉得这个整个方案呢,是比较合适的, 就从性价比和体验感上来说,肯定是比布在云上或者是在 windows 上去实现要好, ok, 当然这只是我的个人观点,如果你有自己的方案,那你也可以按照自己方案去实行, ok, 就 这样。

最近 open globe 火爆全球,大家在使用的时候有没有遇到过这种问题?那我装好了之后向他发出问题,然后他并没有做出回答。今天我们就来教大家如何去比坑。网上安装 open globe 的 方法有很多,大家对这个界面肯定很熟悉了已经, 这里我选择的是一个国产模型 kimi code, 然后我们登到 kimi 的 官网去把 api 获取一下,我们把复制好的 api 附粘贴到这个 api key 里面,你的登录方式我们就选择 web ui, 正常情况下我们选择完这个就可以打开一个网页,然后进到我们的 open code 里面。但是如果我们选择的是国产模型,比如说我刚才选的那个 kimi, 这时候就会出现我们刚开始的时候那个问题的现象,也就是我们给他发出了指令,但他又没回复,也没报错。 问题的根源在于我们国产大冒险的域名都有两个,一个在我们国内的域名,一个用于国际的域名,而 opencloud 它默认的又是用的国外的域名。光发现这个坑点都已经费了九牛二虎之力啊,刷到这个视频的兄弟们以后就再也不会踩这个坑了。下面我想讲一下怎么去避坑。当我们用 kimi 的 开放平台登录到这个界面的时候, 所选择的所有的密钥全部都是以我们国内的域名来定的,我们先进到 openclock 的 后台,然后输入这一串密钥敲击回车搞定。对于其他的国产版本,只需要更换这里和这里。

你用 open crawl 是 不是还在玩那种发个消息回一下的聊天模式?那是把它当工具。很多人问我,凭什么你的 ai 框架能够像有脑子的数字员工能自己干活? 其实啊,并没有那么玄乎,我只是站在巨人的肩膀上,把别人花了几千美金踩坑总结出来的经验,通过几块钱的偷坑费就把逻辑给跑通了。调教之后啊, open crawl 就是 一个完美的项目经理。 openclock 在 agent 点 md 文档里定义了它的所有的行为准则,通过优化配置文件,它能够帮我协调其他六七个 agent 同事。 我重点增强了它三个功能,第一是主动性,它有心跳机制,会定时检查项目的进度,主动跟我汇报,而不是等我下达指令。第二是可重物系统,哪怕网络中断或者绘画重启,它能从断掉的地方稳定地继续推进。 第三是自我总结,每次任务结束之后,它会自动做两个总结,一个是给它自己看的,存储在它的 memory 里,防止以后犯同样的错误。第二个是给我看的,总结,在 obsidian 里,如果是通用的经验,还会自动同步到飞书。 我们要让 ai 用它最熟悉的方式去解决问题。比如 opencore 在 和 ai 工程师 curl code 协助的时候,根本不需要像人类那样开绘画聊天,它直接开放项目路径、工作记忆。在工具使用上,我也明确了优先级, 让它用最省钱、最快速的 api 方式去执行,而不是浪费 tom 模仿人类操作浏览器。 其实啊, ai 时代的竞争,拼的不是谁写的指令长,而是谁更懂硅基生物的写作逻辑。如果你也想摆脱对话框的聊天模式,真正构建自己的数字团队,欢迎找我交流。我是光头哥,带你深度玩转 ai 时代,咱们下期再见!

小龙虾火遍全球,但是我跑了一周之后决定放弃它。不是它不够好,是对大多数人来说性价比太差了。 四个原因跟你说清楚。第一,踩坑成本太他妈高了,光跑起来至少要三到十天,如果你不懂代码,你有可能都跑不起来。跑起来之后还有一堆坑,比如 mini 接口 不支持多轮对话,参数还不匹配,这种问题你怎么办?国外的大模型不让你用,如果你不会用 ai 编程工具来查,你根本就不知道哪里出了问题。这还没完,你还得不断的调试修改各种配置,配置搜索的 api, 网页抓取工具配浏览器操作的能力,但是浏览器操作又有很多的限制卡住你。 我配了一个 breo 设置的 api, k 两条请求就扣了我两美金。还有各种 m c p, 各种浏览器的验证,浏览器的操作权限,光摸索这些的时间成本,都够你用 ai 编程工具开发一个专属你自己的 ai 工具了。 还没完,你要想效果好,还要不断的调试提示词, skills, 还需要投喂大量的数据。这些坑没有一个自媒体告诉你,因为他们只负责吹,不负责避坑,能坑一个是一个。第二, 他妈费钱了,我一天没聊两句, g p 四 o 的 日限额就到了,今天一共聊了四句,消耗了我四块钱。这还只是 g p 四 o 的 模型,要是 o 不是 四点六的话,那成本是不是要爆炸? 怎么会那么高呢?因为他内置了三十多个兔子,二十多个技能,每一次对话都要塞进去,再加上本地记忆文件越来越大,输入的偷坑疯狂消耗。最后算了一下,写一篇文章要花十多块钱。 十多块钱写一篇文章,对于普通人来说,这个投入产出比合理吗?第三,我发现大多数的任务直接用可乐的抠的就能解决,如果你的项目还在摸索期,根本不需要那么重的东西。 第四,最重要的是输出的效果比 c c 差太多了,花更多的钱,更多的时间,结果出来的东西跟屎一样,那跟 c c 差的不是一星半点。 写文案不如 cc 精准有人味,写代码不如 cc 稳定,做调研也不如 cc 深入。工具多不代表效果好,链条越长,每一步的误差累积起来,最终的结果反而更差。你要是想效果好,不好意思,你需要自己调试题词, skills tools 等一堆东西。 那这还是一个普通人能上手的项目吗?绝对不是,他是需要工程化能力的半成品。就像你买了一个汽车,但是你拿到的是一堆零件,你可以配任意型号的发动机,可以配任意型号的方向盘, 但是你需要自己摸索买谁家的发动机,你需要摸索自己怎么装上发动机,如果装不上,不好意思,他就是个废物。所以我的建议是,如果你已经有了 c c, anti, gravity、 格子叉这些编程能力很强的智能体,直接用他们,没必要用手雷叉,又快又省钱又稳定。 除非你的项目已经成熟了,工作流非常明确,投入产出比为正,才考虑用它来做自动化。如果是摸索机,用它纯粹是烧钱才折腾,反正我是抛弃了。菲菲对我来说是真香。你们有用过小龙虾吗?评论区说说你们的体验。

这两天被吹爆的 openclaw, 先别装非凡,这几天复盘了一个 openclaw 实践群里一千一百八十九条群消息。先说一个扎心的结论, openclaw 现在更像玩具,做不成你的同事,因为滚费钱。如果你想把它接进飞书,当能托付的同事,真别急。 你如果只是想在本地玩自动化,做点小任务,那可以试,但也别上生产。今天呢,我们不讲 opencore 的 分工尾计,只讲四个十锤坑,看完你就知道该不该入坑,怎么入坑最不亏。第一锤,部署两难。 opencore 最大的尴尬是本地很脏,但会抢你的电脑,云端部署很方便,但它的差异化会变弱, 本地部署的卖点只能操作你的电脑文件系统。但问题是,你俩要不分时段上工,要不就抢工位, 那上云呢?上云当然能跑,但那和拆 boss 有 啥区别?所以这事不是你怎么部署,而他自己的定位还不清晰,到底主打本地还是主打云端服务呢?第二锤, 选模型就等于选账单。在 a 阵框架里,模型上线就是你复活的上线。群里三分之一的讨论都在纠结模型,但最后赢的往往不是最强的,而是最不让你心疼的计费方式。很多人会选 mini max, 占比大概在百分之四十, 理由很简单啊,因为它包月付费,不用盯着偷看,像在烧钱。那反观 cloud 呢?它能力公认是强的,但被吐槽也是最多的,因为 cloud 的 订阅额度它不给用,只能走 api 调用,一次就拍几千块飞走了。 所以对入门者来说,更稳的打法是先用包月模型跑通流程和新关键任务,再上 cloud, 自然垂。百分之二十一的讨论都在问能不能接飞书啊, 这不是技术细节,而关乎增长。天花板官方原声支持 telegram, what up 非说要自己接,那不少人跟教程折腾半天接上了,但体验是翻车了,有的回复被拆成多段,对话不连贯,维护成本也很高。 然而不进工作平台就进不了工作流,进不了工作流就永远是玩具。四锤稳定性真正让 open call 从同事调回玩具的,就是它的稳定性。 用实操的时候,反复会出现两件事,第一是 chrome 自然语言,定时任务跑不通,经常出错。第二呢,聊着聊着突然就 no output, 对 话中断,还不给错误提示,那生产率。工具来说,最贵的不是功能,而是可信,只要断一次,后面你还敢托付吗?据从群里真实的讨论来看,它的高频场景是日程任务管理、邮件处理、代码辅助、写报告、 ppt 生成。 低频却很高价值的场景是数据抓取和分析、定时任务自动化、跨设备协助。但这些对稳定性要求极高,也是最容易翻车的。 还有一批呢,是争议场景,大家对准确性和安全边界还没有共识。以目前的 open call, 对 更多大众来说,没有一个杀手级的场景,还不能看成是一把瑞士军刀。 我觉得也不用急,因为 agent 还在早期阶段,大家对个人智能体的需求是非常渴望,只是理想的产品形态还在进化中也说不定,大模型厂商随时可能推出官方 agent, 而且像 cursor 这类垂直工具也越来越强,所以暂时先交给时间吧。今天非凡的研究报告呢,是我们的 ai 员工写的数据非常完整,需要权威的评论区见。

各位制造业的管理者朋友们大家好,最近是不是经常被 openclo 的 各种价格信息搞得眼花缭乱?别急,今天我就来给大家梳理一份真实可用的参考。我花了一晚上时间把全网的信息都核实了一遍, 就是为了让大家避开那些不时的价格宣传。你是不是也遇到过秒杀价、活动价,还有各种会员门槛,投肯收费这些让人头疼的问题? 每个平台的真实规则我都给你理清楚了。像阿里云、腾讯云、 kimi、 minx, 谁更便宜,谁更省心,谁更适合企业使用,其实一张表就能看明白。具体来说, 阿里云有九块九每月的限量秒杀,常规的是七十九元每年,但需要额外破百头肯,比较适合企业和重视数据合规的管理者。腾讯云是九十九元每年, 三到五分钟就能一键步数,更适合个人和小团队。 kimi clone 呢,需要一百九十九元每月的高级会员,好处是开箱解用不用自己运维 服务器。 max clone 是 三十九元每月,起运活动价八百二十元,这个是包含在会员内的,没有额外的调运费。 不过要提醒大家,这些价格都是阶段性的问题,具体还是要以官方最新信息为准。接下来我会从部署到使用,全程实拍实操,把最稳定、最简单、最省钱的方案给大家跑 一跑。想跟着我一起搭建爱工具的制造一套,别忘了关注我,咱们实战见真章!