每天更懂一点 ai, 今天要实践的是安装 cloud。
粉丝134获赞1205

给大家看一下这个 hermes 镜的滤镜的这个 ai 工具,目前是最新的版本零点九零,然后也有了这个 dsp 的 界面,然后这是我连接的两个平台,一个飞速,一个 tagram, tagram 连接超时了, 然后这个是和他的对话,然后这个消耗的 token, 然后这个是 q, 然后这个就 current, 就是 定时生活。目前有三个,一个是天气提醒的,还有一个是新闻的,还有一个是这个是我刚刚加的,让他爬一些免费的模型。 那目前我找到了两个免费的模型,给大家看一下我这个任务执行的结果看,我让他设置一个定时任务,然后每隔四小时爬取一下互联网上的免费模型,包括 oppo ranger 上面的这两个模型,因为这两个模型目前是免费的,然后我现在在用这个模型, 对,因为他目前是免费的。对,你看他已经创建好了任务,然后现在开始爬,他爬的结果也是这两个,然后我问他除了这两个之外还有没有免费的? 对,然后它现在还在爬,还在搜索,然后它的使用和龙虾差不多,然后这是最新的九点零的这个这个版本才才加的这个 大西 bug, 也就是这个 web ui 的 界面,然后之前是没有的,然后它的进入方式也很简单,你就执行这个 hermes 大 西 bug 就 可以了,和龙虾差不多一样的, 然后他的界面我觉得比龙虾要直观很多。说实话,龙虾我第一次用的时候我就 搞不找不着他那些配置的东西在哪也可,不过也可能是我已经用过龙虾了,再用这个就上手比较快,然后他现现在觉得还是挺不错的。

先接上一个视频,这个视频咱们看一下空气追踪项目在 r v i z 中的可丝化展示, 其实无人机起飞为了比较清晰,咱们把它的轨迹进行显示,上面的箭头显示的是无人机的方向,连续的箭头就显示无人机的轨迹。 屏幕中间绿色的点就是后后侧追踪车辆对前侧车辆的检测位置,下面的三维坐标系就是无人机对下方车辆检测的位置表示。 咱们用鼠标进行鼠标键盘进行控制,控制被逼近目标行驶,然后看一下地面上两个载具的反应, 此时后侧车辆丢失目标,然后无人机为它进行指引, 我们可以清晰的看到后侧追踪车辆的轨迹,也就是绿色的预制车道 在行。在追踪过程中,无人机的方向保持不变, 当我们的前侧车辆进行急转弯时,由于视觉的问题,后方追踪车辆就会丢失目标,此时无人机将后方车辆提供指引, 可以很清晰的看到,当后方车辆获取到指引目标以后,就会自动进行转向,继续追踪。 好这个视频就展示到这里,下个视频再展示当我们的无人机丢失目标时, 后方车辆如何对无人机进行指引,以及无人机如何进行自动搜索。

长视频 agent 的 开源工程自己部署的话还是有一定的门槛儿的,虽然它的部署已经做的呃比较方便了, 就这个瓦屋瓦屋。然后我自己按照它的 readme 部署在了本地, 然后这个过程是相对方便的,但是有一个卡点是他要配置这个厂商的资源池,然后我是配的这个火山引擎,然后他里边是有新用户的免费额度,然后我都呃,我这样都已经选择了, 然后文本的选择一个最便宜的,然后图像也是,然后视频也开通了,然后我觉得这个配置已经可以了,然后我开始做视频生成的流程 啊,我输入了一个故事,然后故事,然后剧本,这个应该是调用的文本纯文本模型,然后在下一步分镜之前需要先有这个出场角色生成,出场角色的时候是在这个界面,这个界面里边需要我去确认,然后我点了全部确认, 然后就报错,他说需要这个设置里配这个分析模型,然后我看了一下我的分析模型都做了,我还可以搜了分析这两个字啊,这个就是文本的分析模型,这个都 ok 了,然后视频这个我也配了, 然后底下的这个也都配了,然后这个是扩展的,我都没配,然后我觉得这个这个测连接也都通了,然后我觉得这应该可以了, 但是依然没有生成成功,所以说在这种开源工程里边要去调用商用接口的,它这种最后一公里的配置还是有一定的门槛的,反正我卡在这里了。我在 github 上提了遗书, 呃,我也不知道作者会不会回复,也想问问大家这应该怎么处理?然后这种最后一公里的工作,他的完整的商业模式应该是我是用户,然后我向这个平台去 呃付费,然后这个平台再去他后边内部去配置调用各个各个接口,把这个麻烦活由这个呃总的 a 站的平台去处理,这个应该是更完整的一种商业模式。 然后还有一个小方法就是可以推荐给大家,那我弄的都是弄的最便宜的,然后大家可以先把先用这个最便宜的把全流程跑通,然后再换呃最好的一种, 这样既省钱又省了时间。还有一个就是我觉得可以在这两步中间再加个第三步,插在中间就是你可以在本地去部署非常小的模型,然后这个这个过程呃如只要你的 pc 能跑起来, 或者你有服务器资源布在服务器上,然后他的那个前期的成本就能进一步降低,相当于你这个这个在尝试初步尝试过程中积累经验过程中是完全不付费的。

open curl 连续九天没有更新,全网都在问,出事了还是在憋大招?今天答案出来了,是大招,而且很猛。三点二二,预览版刚刚上线,这 次更新的核心不是加功能,是补窟窿。先说安全,如果你在 windows 上跑 open curl 之前有个漏洞,你可能不知道,攻击者只要构造一个特殊的 file 路径,在你加载媒体文件的时候就能把你的 windows 登录凭证悄悄发出去。 三点二二,把这个口彻底堵死了。另一个更隐蔽的漏洞是 unico 的 零宽字体,攻击者可以在审批提示里塞入不可见的字体,让你看到的命令和实际执行的命令不一样。对公网部署用户,这版是必须更新,不是建议更新。 插件层面是一刀切换,写就 api, opencl extension api 直接移除,没有兼容层,没有过渡期,所有第三方插件必须迁移到新 sdk。 同时插件首选分发渠道从 npm 切换到 claw hub 官方维护审核更严。模型方面,默认模型切换至 gpt。 五点四, mini max 升级到 m。 二点七,新增通过 google vertex ai 调用 claw 的 通道。新一版 open claw 传递的信号很清楚, 从快速迭代堆功能转向认真做工程。当前为预览版 beta, 正式版即将发布,关注新智园,秒追 a s i。

用龙虾去做一个很长的任务的时候,经常出现假掉线的情况,就是你怎么发消息他都不回。我原本以为啊,就是网关掉线了,但是有的时候你去重新执行 get 倍润的时候,他显示就是说已经有一个网关在运行了,哎,本次启动失败很明显啊, 不是网关的问题。然后有的时候吧,就过了好几分钟,我什么也没干,哎,龙虾就忽然就又回复我了,你们养虾的时候有没有遇到这个情况?我今天稍微总结了一下有可能的原因和排查的一些办法。首先说一下我这次的绘画状态啊,从一开始的对话 都出现假死,已经过了很多轮对话了,我先怀疑的就是上下文已经积累了很长,导致了大模型回复的很慢,但我这次不是啊,上下文,上下文的状态啊,很健康。你可以直接在对话中向我彭克劳询问上下文的状态,然后排除是不是 tokens 太频繁了, 导致模型降速了。因为我用的是小米刚发布的模型,用的是首周免费的套餐。也可能是因为这个有点限制,那我重新打开了一个绘画,哎,依旧是对答如流,很明显也不是 tokus 限流的问题。 然后我又往上翻和 ai 的 对话记录。假死状态发生之前, agent 执行了什么任务啊?我这里看到了,和他的聊天中,他执行了一个下载的任务, 但是呢,这个下载任务很慢,他就一直驻守在那里监控着这个下载任务,哎,结果就是等的时间太长了,可能是被系统啊当做残存的无效进程杀掉了,这种情况下, agent 一 般自己能在超时的时候啊回到规划上来,但是我们下一次我们就要教他 启动一个子进程或者是子智能体去监督这个耗时的任务。如果你不提醒他这样做,他很有可能就会一直占用着主进程去监控他。

hello, 大家好呀,我是即刻模导师。上节课我们讲完了 hermes 的 核心概念,今天我们开始教你手把手安装 hermes agent。 话不多说,我们开始吧。 安装之前我们确认一下系统配置,这是安装 hermes 的 系统要求, hermes 要求不算高,大多数电脑都能满足。课间里面包含了 windows、 mac os、 linux 的 安装教程。本次我是以 windows 时安装 harmony 进行演示。这里要特别提醒一下 windows 用户, harmony agent 不 支持原声 windows, 你 不能直接在 cmd 或者 power shell 里跑它,你需要装一个 wsl, 就是 windows 上的 linux 子系统。好了,这次我们是真的开始了。首先 windows 用户打开 power shell 执行命令,你也可以直接使用 windows 自带的终端,这个无所谓。 然后输入这个命令 wsl install, 这个命令执行完成,系统会自动给你装上 wun2。 二十二点零四,装完之后一定要重启电脑。 重启完成,我们使用命令 wsl 杠杠 version 查看是否安装成功。看到 wsl 已经安装成功,我们再使用命令 wsl 杠 l 杠 v 查看 wun2 系统是否安装成功。 这里报错了,原因是 linux 系统安装失败,我们需要进行手动安装,我们可以通过执行 wsl list online 这个命令,查看所有可以安装的 linux 系统, 再通过执行 wsl install 加上 wboot 的 版本名称进行安装。 这里可能是因为我的网络原因,系统下载的实在是太慢了,所以我这里换了一个安装方式,在官网上下载 wsl 格式的乌崩特系统,搜索乌崩特二十二点零四系统,进入官网找到 wsl image, 点击右边的 pcwsl image, 下载完成后直接双击安装就可以了。安装完成,按照提示输入密码, 在吹里面验证一下,看到 wubongtwo 系统已经安装成功。使用 wsl 命令进入 wubongtwo 系统, 使用 sudaapiti update 更新包,并使用 atp install git 下载 git 软件。后面我们需要通过 git 命令来下载 harmas 的 原文件, 到此为止,我们的环境就全部安装完了。接下来就是使用这个命令安装 hermes agent。 安装完成,开始进行初步配置,我们选择 quick setup 快 速配置 hermes, 我 们先随便选择一个模型,但是不配置,后面使用英伟达免费的 minimax 二点七模型进行配置, 消息渠道也默认选择第一个 telegram 也先不配置,后面再进行配置。 看到这个界面,我们的 hermes 就 安装成功了。接下来就是获取英伟达的 key。 首先打开浏览器访问 build, 点 nvidia, 点 comixplorer discover, 这个网址呢?用你的 nvi d i a 账号登录,没有的话注册一个,有些地区可能需要手机验证,按提示来就好。 登录之后找到 api keys 区域,点击创建,输入 key 的 名称,并且选择过期时间, 点击创建 key, 创建好了之后立刻复制你的 key 格式是 nypi 开头的一串字母,记住这个 key 只显示这一次,复制好了之后妥善保存,不要告诉别人 key 有 了。现在我们来告诉 harmass, 用这个 key 使用 wsl 进入乌帮徒系统,并分别复制下面五条命令到命令行中, 最后使用 harmass config 来验证一下配置有没有生效。使用命令 harmass 进入 agent, 输入对话,验证是否成功。 看到 hermes 返回内容,我们的 hermes agent 就 初步搭建成功了。初步搭建 hermes 的 教程就结束了。有需要安装资料或者有任何疑问可以留言或者私信我,我是即刻模导师,我们下次代码见,拜拜。

家人们 open core 断根九天,居然憋出三点二二史诗级大招,底层架构直接大换血。但普通保指听我一句劝, 先别着急升级。这次贝塔预览版玩真的,插件 icon 系统直接重构,旧 api 全砍,没过渡期以后装插件就跟逛 app store 似的。 clorhop 成官方唯一渠道,审核更严,也更安全。安全这块更是下狠手,一口气封了十多个漏洞, i m b 凭证泄露、注入攻击,这些坑全给堵上了。模型也集体升级, g p t 负五 四正式上线, mini max 更到 m 二点七, anthrac vertex 也能用上。还有小惊喜, agent 超时从十分钟拉满到四十八小时,新增 z b t w 旁白问题功能,超实用!重点来了, 这次升级解决方案巨少,出问题超难排查,我自己升级就踩坑, y b u i 直接打不开,最后靠 open code 重新克隆 iphone 重建 u i 才搞定。真心建议普通用户蹲稳定版,别当小白鼠。

呃,今天咱们要聊的呢,是这个 athropyllic 发布的 cloud managed agents, 然后呢,包括这个最近发生的一些封杀事件,其实背后都指向了一个非常重要的趋势啊,就是各大 ai 公司,它们现在正在激烈地争夺 ai agent 这个基础设施的控制权。 是啊,这个趋势确实越来越明显了,那我们就直接进入今天的讨论吧,咱们先来看看这个 cloud managed agents, 它到底是什么,对吧?它这个东西出来的时候,在 ai 圈里面也算是比较大的一个事情了,那它到底是一个什么东西? 简单来说啊,它其实就是一个由 anastropic 完全托管的一个 asian 的 云基础设施。就在二零二六年四月八号的时候, anastropic 把它正式的开放公测了。那它这个东西对于开发者来讲最大的变化是什么呢? 以前的话,你想要用 cloud 来跑一个 agent, 你 得自己去搭建服务器,管理绘画的状态,做安全沙箱,然后处理屏距的轮换等等啊,反正挺麻烦的。那现在的话, ansaurpik 把这些所有的事情全部都托管了, 你作为一个开发者,你只需要去定义你的 agent 要完成什么样的任务,然后给他配置好他需要用到的工具, 再设置一下安全策略就可以了,剩下的事情全部都由 ansorepic 的 基础设施来帮你完成。那就是说,呃, managed agents 和 cloud code 这两个东西, 它们面向的用户群体和使用场景到底有哪些不同?这两个东西其实区别还挺大的。 cloud code 它其实就是一个针对开发者的一个编码工具,它主要就是为了帮助个人开发者提高它们的编码效率, 是一个比较偏向于个人使用的这样的一个工具。但是 managed agents 它是一个面向团队的平台 api, 就是 如果你想要去构建一个属于自己的 agent 的 产品, 就可以使用这个平台 a p i 来进行开发,所以它更适合于那种企业级的或者说团队级的,去打造一些更复杂的智能 a 阵子的应用。我想再问一下,这个核心架构就是它这个三层架构分别是这个 brain, hands, session, 对 吧?那这三层它们各自都负责哪些关键的任务?然后它们是怎么配合的? 这个架构其实设计的还挺巧妙的,它是一个非常典型的分层的设计,那每一层它都有自己的职责。 首先 brain 它就是整个 agent 的 决策中心,所有的推理规划以及工具的调用的决策都是在这一层进行的,所以它相当于是 agent 的 大脑。 然后 hence 这一层其实就是一个无状态的工具执行器,它会在需要的时候临时地创建一个隔离的环境来执行工具执行完之后就会立刻销毁,所以它是非常安全的,而且它可以无限地水平扩展。 最后 session 这一层的话,它就是负责把对话的状态持久化,就是把 agent 运行的进度都保存下来,这样的话即使是用户中途断网了,下次它再连上的时候,就可以直接无缝继续它的任务。这样分层的话,对于系统的维护和升级会带来哪些好处呢? 因为这三层其实都是可以独立的升级和扩展的,比如说你要升级 brain 这个模型,它是不会影响到 hans 这一层的工具执行的, 或者说你要换 session 的 这个存储方案,也不会影响到其他的模块,所以这种设计就会让整个系统变得非常的灵活,也非常的容易维护, 同时也说明它们其实是按照一个非常高的生产级的标准来打造的这个平台。了解了,那下面我们来谈谈这个生产级的能力,就是这个 managed agents 到底有哪些核心的生产级的特性,然后这些特性分别解决了哪些痛点?其实它有六个非常关键的能力,比如说它有一个叫 trusted governance, 就是他可以做到细力度的权限管理,身份的管理,然后操作的追踪,这样的话就可以让企业非常放心的去使用,同时也可以满足各种合规性的要求。 还有他的自我评估迭代,就是他可以自己去检查自己的输出,然后自己去修正,不过这个目前还处于一个实验的阶段,听起来确实能够帮助企业解决不少实际问题啊。那其他几个特性是什么呢?比如说他的绘画持久化,就是他可以保证你的长任务不会因为用户的断联而丢失进度。 然后沙箱安全执行,就是它可以隔离你的工具的运行环境,保证你的屏距不会泄露。还有它的集成分析,就是它直接集成了 cloud console, 你 可以直接在上面监控和分析你的 agent 的 运行情况。 最后就是它的原型到生产的十倍加速,它可以让你的开发周期从几个月缩短到几天,这是非常夸张的,而且它们有真实的客户案例可以支撑这个数据。 好的,咱们再来说说这个定价策略啊,就是这个 managed agents 它到底是怎么收费的?然后它的这个模型推理的费用到底是怎么分档的啊?它的这个 managed agents 的 定价其实是挺特别的,它是每运行一小时收取零点零八美元, 然后这个只是它的托管的费用,就是你使用它的这个基础设施的费用。模型推理的费用是另外算的,它有三档不同的模型,分别是嗨酷、 sony 还有 opus。 那 最便宜的是嗨酷,它的输入是每一百万 token 收取零点二五美元,输出是每一百万 token 收取一点二五美元。 最贵的是 opus, 它的输入是十五美元,每一百万 token 输出是七十五美元,每一百万 token。 这三档模型之间的价格差距还是挺大的,最高有六十倍的差距,所以你在选择模型的时候,还是要根据自己的实际需求来选, 不然的话成本可能会差很多。我还想知道,就是在实际使用的过程当中,用户到底有哪些比较有效的方式可以降低自己的使用成本呢?其实有两个挺关键的机制。第一个是 prompt cashing, 就是 它会缓存你的一些常用的输入,这个最多可以帮你节省百分之九十的推利成本。 因为很多场景下你的上下文是会重复的,所以它的缓存命中率是非常高的,这也是它的一个比较大的优势。第二个是它的 batch api, 就是 如果你使用它来进行批量的非实时任务的话,你可以直接享受五折的优惠, 所以这两个东西加起来其实可以让你的实际花费远远低于它的这个标价,但是一旦你习惯了它的这种高效的生态之后, 你再想要迁移出去的话,成本也是很高的。明白了,然后咱们再来看一下具体的客户案例,就是这些真实的客户在使用了 managed agents 之后,他们到底在效率上和业务成果上有哪些具体的提升?有一个特别有代表性的就是 notion, 他们用这个 managed agents 来做长绘画的记忆管理和复杂任务的委派,就是他们的 ai 助手,可以长时间地记住你的上下文,然后遇到一些比较复杂的任务,它可以自动地拆分成多个步骤交给不同的 agent 去执行, 这个其实是非常适合他们的业务场景,听起来确实非常的高效。那还有没有其他客户有比较突出的成果?还有 rockton, 他 们就是用了一周的时间就上线了五个不同的领域专家 agent, 就这个速度,如果他们自己去搭基础设施的话,可能光是环境配置就要搞一个月。然后还有 asana, sentry, webcode, 他 们也都是早期的用户,他们实测下来,结构化文件生成的成功率最高提升了百分之十, 这个在生产环境里面其实是一个非常大的提升。好,那我们现在要进入一个比较有争议的话题了,就是关于这个 open cloud 的 封杀事件,到底是什么原因导致 anthropogenic 突然间对第三方的 agent 框架下了狠手? 关于这个事件呢,是在二零二六年四月四号,就是在 managed agents 发布的前四天, ansorik 把 cloud pro 和 max 的 订阅用户对 open cloud 等第三方框架的访问给切断了, 就不管你是一个月二十美元的 pro 用户,还是一百到两百美元的 max 用户,你都没有办法再通过这些第三方的框架来使用了啊,那这个变化对用户的影响还是挺大的呀。没错,因为有一些用户他就是通过这种方式用比较低的订阅费跑了非常大量的任务, 比如说他一个月可能就花两百美元,但是他可以跑出相当于一千到五千美元的这种 agent 的 使用量。 那这样的话就导致 ansaportic 它的成本压力非常大。而且这些第三方的框架它是直接去调用 cloud 的 api, 它绕过了 ansaportic 自己的一些优化,比如说上下文的复用,所以就导致 ansaportic 的 这个算力资源被非常低效的消耗了, 那他肯定是要出手的。那这个事情发生了之后, entropic 是 怎么处理那些受到影响的用户的?然后他又对后续的 agent 的 使用做了哪些调整呢?他给这些用户都发了一次性的等额的补偿,就是你之前因为这个事情有损失,我现在补给你。 但是之后你如果还想要运行 agent 的 话,你要么就按照他的这个按量付费的 bug 来进行,要么你就用 apikey 来直连, 就是它彻底地结束了这种通过月订阅来无限地使用 agent 的 算力的这样的一个模式。原来是这样啊,那这个封杀事件背后其实有很多的战略考量,那最直接的一层其实就是资源保护,对吧?嗯,那这个决策到底怎么帮助 anthropologist 去保障它的用户体验和资源分配呢? 其实这个事情虽然说看起来好像是一个比较粗暴的封杀,但是其实他背后就是为了确保他的有限的算力资源能够优先的分配给那些真正付费的有高需求的用户。 因为之前已经有百分之七的用户在高峰时段受到了限流的影响,那他现在就是把这个资源更多的留给了这些核心的用户,那这样的话就可以整体提升付费用户的体验,同时也是对他自己的资源的一个非常有效的管理。 好的,那能不能再深入地讲一讲这个封杀事件背后的所谓的效率锁定和商业收口这两层战略意图到底是怎么回事?可以啊,第二层的话就是效率锁定嘛, 就是 enterprise, 它其实是希望你能够使用它的第一方的工具,比如说它的 cloud code, 或者说它的 managed agents, 因为这些工具它都是做了极致的优化的,比如说它的 prompt cash hit rate 是 非常高的,那这样的话就可以帮他节省大量的算力成本。 但是如果你使用的是第三方的框架的话,他就没有办法享受这些优化,所以他的成本就会变高。所以他其实是在通过这种封杀的方式来引导你去走他的这个官方的通道,那这个官方的通道就是他的效率最高的通道,那这跟他的商业收口又有什么关系呢? 商业收口其实才是他的一个底牌嘛,就是你看他现在的这个企业收入已经是三百亿美元的运行率了,那他通过封杀这种月订阅的用户去使用第三方的 agent, 他 其实是把所有的 agent 的 流量都逼回到了他自己的这个商业体系之内。 你看它的时间点也非常的巧,它是先封杀,然后紧接着就发布了 managed agents, 同时它也在 cloud code 里面集成了本来是 open cloud 才能用的一些功能, 所以它其实是在用自己的产品去彻底地替代第三方的框架,把整个市场都收入到自己的囊中。行,我还有个问题啊,就是现在这个竞争格局到底是个什么情况?就是在 agent 基础设施这个赛道上面,主要的玩家都有谁?然后他们各自的打法都是什么样的? 现在就是三足鼎立,再加上一匹黑马。首先是 openai, 它其实走的是一个比较封闭的路线,它就是靠企业级的 agent os, 然后加上它的这个 agent sdk 是 开源的,但是它的后端是只能用 gpt 四点一或者 gpt 四点五,就你没有办法去换模型,它的整个生态是围绕着自己的模型来构建的。那 google 呢?它的打法跟别人有什么不一样? google 的 话,它是一托于 vertex ai agent builder, 它是特别强调企业级的部署和它的该买奶模型的生态,所以它是在大组织里面的这种治理和安全方面有比较大的优势。 然后呢, superpig 的 话,它走了一个比较独特的路线,它是通过 mcp 这个开源协议来吸引开发者,然后用安全这个卖点来做一个壁垒,最后它通过 managed agents 来做一个商业变现的收口, 所以它是把开源和商业结合得比较巧妙的。哎,那这匹黑马又是谁?它有什么杀手锏吗?这匹黑马指的是智普发布的 g l m 五点一, 它是基于 mit 协议的一个完全开源的项目,然后它在 s w e bench pro 上面的表现甚至超越了 oppo。 四点六,它最大的亮点其实是在于它是专门为中文场景做了深度的优化,所以它在一些中文的任务上面会有非常亮眼的表现。 说到这儿我有个疑问啊,就是多模型路由这个东西为什么会被认为是企业未来主流的选择?然后这对 anthropolic 这种想要把用户锁在自己的生态里面的公司来讲,会带来哪些挑战?因为二零二六年大家就是明显的看到 企业已经不再局限于使用一家的模型了。多模型路由就是说我会根据你具体的任务,比如说你是一个文本生成还是一个知识问答,我会自动地帮你选择最合适的模型来执行这个任务,这样的话就可以最大程度地提高你的效果和效率。 那这个其实对于 anssolepick 这种想要通过自己的平台来牢牢地锁定用户的这种策略来讲,是一个非常大的长期的挑战, 因为用户可以很灵活地在不同的模型之间进行切换,而不是说我一定要用你这一家的。对,今天我们其实就是给大家梳理了一下 cloud manage agents 它背后的一些设计思路和战略考量,然后也看到了 ai agent 这个基础设施的赛道上面的一些暗潮涌动。 好了,那这期节目咱们就到这里了,感谢大家的收听,然后咱们下期再见吧,拜拜。拜拜。

我为什么卸载 openclo? 因为 hermes 更好用。你对 ai 说过在不在吗?这是今年最荒诞的事,发了消息没反应,不是报错,不是超时就是死记, 你只能问他在吗?换成 hermes 后,世界清净了,第一感受是踏实,不用猜他在不在,每天都在干活,更重要的是每一步你都看得见,他会自己长记性。 hermes 自带学习循环, 做完复杂任务自动存成 skill, 下次遇到类似的直接调用,不用你每次都重新教一遍。适合比热门重要。 open claw 很 火,但它让我心累。 hermes 刚好顺手就留下来了。工具好不好只有用的人才知道。

这一周,终于把 ai 检测接入了企业微信了,跑通了第一轮。说实话啊,就是跑通只是开始, 真正的感受是,就是 ai 检测时代的这个地基,不是模型,是专有数据。今天咱们来聊一聊这个感受啊。现在市面上有很多的通用版的 ai 检测,你问什么,他答什么,但这里有个问题啊,是有多少个问题,他就有多少个答案。 没有差异化,你用过就知道啊。好的 ai 大 模型和差的这种 ai 大 模型差距它不是一点半点,是十倍,是一百倍的差距,所以免费才是最贵的。 你用个免费的模型,看似省了钱,但回答的是这种质量啊,深度准确性根本撑不起你的这种组织的业务决策, 最后浪费的是你的时间和机会啊。本身在做在线金融外,这种大数据建模打了多年的交道, 太有体会了,因为早年我们卖在线设备啊,客户最忙问就是你这个仪器准不准啊?我说准,拿这种通用的这种模型登录给他看,结果呢?一到现场,数据往往对不上。为什么? 因为通用的模型是用这种标准样本训练出来的,但每个工厂的这种原料工艺环境都不太一样,没有你在这个现场的这种专有数据,再好的模型也是瞎子。 后来我们改了啊,你知道吗?先在这种生产线上面,结合这种标准的模型,先跑两周,再把真实数据攒下来, 再据他的话,就直接专属的模型,这种效果立刻就不一样了。那这个经历让我明白啊,适配于 ai 的 时代的这种 agent 的 这种聪明,不是算法给 的,是你自己的数据喂出来的,所以啊,我有第二个观点,就是数据的底座才是每一个公司专属 agent 的 前提。 你想让这种 a 级的帮你盯这种,比如说产品生产的波动,预测这种质量的风险,比如优化工艺参数,跑市场预测,你得先见过你自己的数据,数据是从哪里来,就你每天的这种生产记录, 在线的这种监测,包括花颜色的报表里面一点一点长出来,没有这个底座啊,一点就是一个空壳,只是一个概念啊,他能回答通用问题,但解决不了你的具体的问题。 我们日常经营公司也正在做的就是构建这样的持续的数据流。第一个就是经营数据流, 包括销售线索、机会、客户反馈、合同回款这些,以前闪在这种 excel 表格里面,微信里面啊,现在全进系统,让 a 检测能看到整个的流程画面。 第二个呢,就是产品反馈的数据流,就是每台在线 gm 运行状态,包括他的报警记录啊,模型的漂移情况啊,实时的这种状况, a 检测能主动的发现这些设备啊,最近波动是不是大了, 是不是该叫准了。第三呢,就是市场的数据流,就是精品的动态,行业的政策,技术的趋势啊,我们在网上去抓取整理,帮我们判断下一步应该往哪边走。 这三个信息流啊, a 型的这种数字底座,也一定是几乎所有的企业未来差异化的根本之所在,所以呢,未来的这种组织的进化形态,我认为是 ai 工具,而是让这种 ai 检测在你的这种数据流里面成为你经营的一部分,第一步就是把这三个数据流构建起来了,经营数据流,产品反馈的数据流和市场的数据流, 有了这个地基,你的这种 a 检测才能越用越聪明,越用越懂你。好的啊,我就分享这么多,我是田哥,一个在一汽一贸行业二十年创业五年的在线进货老兵,关注我认知做选择,实践它结果,谢谢。

龙虾的热度已经退下去了,然后我也找到我对龙虾的需求契合点了,我现在在尝试能不能用龙虾作为一个数字员工,真正的数字员工, 因为其实我们每一个人在上班的时候也都是活在网络里的,我,我们真的可以做到,比如说居家办公,对吧?我谁也不用见,然后我就通过电脑去做我所有的事情,那本身上如果龙虾可以有我所有的 支持背景和权限和工具的话,那原则上搜索员工应该是可以的。然后,嗯,我也已经开始去逐步的去配置,但是配置的过程当中确实也是 一边配一边想,然后他应该用点什么呢?应该怎么做呢?哪个 agent 和哪个 agent 应该在一个 channel 里可以去路由呢?也是一边做一边探索,不知道大家在这方面有没有已经成熟的经验,可以大家一起讨论一下。对啊,还有一个事, 在本地通过欧拉玛部署部署 jam 四,我部的是 e 四 b 这个版本拉,拉完了就不要尝试了,什么都干不了。