我是大厂研发工程师张飞,欢迎来到张飞 ai 开发实验室。本次我们讲一下子阿里酷泡极致的省钱三策略。第一个策略我们要做省钱省 token。 那 首先我们要做一下统计,看看 token 主要花在哪些模型上, 或者花在哪些模型的上下文的一个输入上,我们再去针对这个模型去做一些优化。那所以说我这里做了一个 tokens, 一个统计面板,在这统计面板里头它有当前绘画,它会定时的刷新消耗,有 tokens, 有 总数,有你发多少消息。 另外呢还有使用概览,就是你所有的绘画使在本周使用多少 tokens, 这里是不是在使用,这里是模型分布,我主要使用的是 keepatch 啊三点二版本, 下面一个千问。三是我在测试过程中,那昂本地一个模型使用都是在测试过程中使用的,他就记录下来下面模型一个使用,这个就是统计面板,如果说我想把统计面板关掉,就可以关掉它,这样不影响我这个绘画的窗口,就是把模型我要加载一下这个大模型。 因为继前一节我们知道我这边开发了一个智能体管理的一个应用,智能体管理这块可以创建多个智能体,在我们一台电脑上可以创建多个智能体,有分开的隔离的这个 workspace 工作区。那接下来我们 默认是只配置了一个模型给所有的这些角色智能体,但是有些简单的任务,我们希望 特定给绑定到一个角色智能体上,所以我开发了第二个功能,就是模型的一个全局配置, 在这里我们可以看到全局的一个大模型配置,可以按照一二三四五的一个顺序去配置他要使用的模型,并且配置后边的超时时间。如果说默认我们都使用第一个模型去这个超时,这是所有的角色智能体都会采用这样的一个顺序优先级去 进行一个便利去使用不同的模型。那正常情况下如果说第一个模型是没有问题,使用也不会超时,他都会使用第一个模型。还有一种方法,我们在这个智能体馆里头特定出来某一个 角色智能体,我要用定制化的一个 provider, 我 们可以选择,比如说本地的一个模型,假如说我选择这个本地模型保存,这样子他就会被保存特定到使用这一个 本地的一个模型,这样子使用本地模型就可以让我们进行一个省钱一个策略啊。那这里讲的话就是说刚才讲了这个大小模型,那大模型我们连接为理解为是远端模型,小模型是本地模型,大小模型可以进行一个动态切换配置,当然这里可以去设置一个本地的模型, 另外也可以把本地模型设置为第一个,下一个我们讲一下如何再继续省钱,这就是节省。托尔斯我们只要把这三个环境变量设置进去就可以, 那这三个环境变量呢?我们可以把它设置到这一块,添加环境变量,然后去设置进去。这三个环境变量讲的是什么?第一个环境变量说我们在使用一些工具的时候,对一些结果 要使能一些压缩功能或者截断功能。第二个我们要对我们的上下文有一定的一个早一点触发压缩,比如说我们现在的内容已经达到上下文,比如说上下文最大限是两百 k 的 一个 限制,那我们到达一百 k 的 时候就要开始触发压缩,默认的话它是零点七,在这里设成零点五。还有一个就是我们在触发压缩的时候至少要保存八条信息,默认值是十条信息,那我们这里改了八十条信息,也基本能够符合我们对中等的一个 任务的一个需求。好,这是第二条。第三个讲一下本阿里扣炮本身就已经有的一个功能,向量数据库,在这个记忆当中它本身就继承了 r e m e, 在 零点零点五版本已经有了,我这个是基于零点零五版本去做的, 这个 r e m e 的 一个向量数据库,它可以用来去解锁,也会节省这个 tokens。 好, 那最后我就说一下子, 呃,下一步我们将要开发的一个图片功能,还有是知识库建立,有些用户需要将自己的文档放到这个 r a g 知识库当中去, 方便自己去使用。还有就是 skills 功能,例如一些安全检查的 skills, 还有 skills 的 一些开发可以给大家介绍。好,本节就讲这些,谢谢大家。
粉丝383获赞834

cpa 作为国内一款与 open core 对 标的智能体,我认为在功能设计上比 open core 更易用,整体界面比较简洁。当然 copi 的 功能确实没有 open core 强大,但是在安装时 open core 就 比 copa 复杂了一些, 因为彼人一直都是用 one pinning 安装,点击下鼠标就行了,安装方面就没有什么区别了。 copi 的 需要在界面上配置大模型,任意选择 open codes 安装时就需要配置,但是在操作界面这里就不能更换大模型了, 只能通过代码配置对接。渠道方面, openclip 内置的基本没有国内可用的应用,想对接钉钉、飞书、 qq 就 得通过代码配置了。 coca 就 不同了,内置的都是国内的应用, 不需要配置代码就能对接这些平台。如果是钉钉的群聊机器人,可以在得到机器人的 web 之后,直接在聊天框里让它对接这个钉钉机器人,它就自动完成了。这两个智能体都是可以做到的。配置 skill, 也就是技能。没有研究过 open code, 看着这个界面真是不知道怎么下手, 但 coca 只给了一个提示,你就知道怎么操作。这里有几个 skill 的 网站,那么你就可以在这些网站上找想要的 skill, 把网址复制到配置框中就可以。虽然欧文科可以在里面搜索想要的 skill, 但只有五十一个,而且有些还是有限制的,这就和 coca 的 毫无对比性了。 配置 m c p 方面, coca 的 控制台是可以直接配置的, open class 没有入口,需要通过代码配置增加了使用门槛。但一些辅助安装的平台会做一些易用的功能,比如说 one panel, 它就提供了直接对接飞书等平台的配置界面, 免去代码的繁琐。除了 m c p, 还有心跳。 open class 在 网页控制台没有配置心跳的入口,只能通过命令,又提高了使用门槛。不过这个功能用处不大,定时任务基本也可以实现。最后总结一下,如果你代码能力比较强,喜欢研究钻研 或是对智能体的深度探,所有想法就选 openclo。 在 前段设计上, coco 比较容易上手,适合国内用户或不懂代码的小白入门。但是这段时间对 coco 测试,彼人也遇到了各种小 bug, 比如对话框无法切换、对话长时间没反应等问题。 如果阿里云开源的这个智能体不只是用来蹭热度,而是当成一个长期重点维护的项目,我相信这种差距会越来越小。并且 coco 里确实每天都在迭代版本, 应该不会让我们失望,哪怕后面你搞一些付费插件,持续支撑项目的发展,我相信很多用户也是能接受的。好了,今天就到这,我们下期再见。

这个国产龙虾 coco 是 一点也不输 open call 啊,兄弟们,上次讲了它可以轻松的一键完成部署,对国内的用户是非常的友好。这次啊,我没写一行代码,就把我之前一个项目里的功能就是一键下载视频和转文字的功能做成 skill, 方便我用手机调用。先看一下最终效果啊, 当我刷到一个比较好的视频,就比如这个,我点击分享,然后复制链接,然后在我配置好的钉钉里粘贴发给我的大龙虾。好,龙虾已经开始工作了,我加速播放一下, 好,可以看到啊,龙虾告诉我视频已经下载好了,现在开始转写。 ok, 转写完了,我们看一下转写的内容啊,有一些错别字能接受,相当能接受,对吧? 好,接下来我就演示一下我是如何一行代码都没有写,就把这个功能做成 copop 的 skill 的。 我们先点击 coco 左侧的技能菜单,先看看 coco 默认的技能是怎么设置的,就比如这个最常用的 d o c x。 大 概的翻阅了一下,它其实也是用 python 写的一个工具,然后再用文档声明它的使用方式。 ok, 我 们复制这个文档作为参考范本。好,打开我的项目,把刚刚复制的文本粘贴到一个文件里,引用这个文件直接问 ai, 这是 coco 里的一个技能,我希望把我们的一键下载视频并转写文字的功能也做成一个 skill, 是 否可行? ok, ai 开始思考了,这里不耽误大家的时间,我就直接跳过这个过程,看看 ai 是 怎么回答的, 太可以了,而且非常适合做成 skill, 只需要把什么时候调用,怎么调用?常见失败如何处理?固化成规范即可。而且 ai 和贴心的已经帮我完成了文档。好,我们直接把 ai 生成的 skill 点 m d 的 内容复制出来,粘贴给 coco, 告诉他这是一个一键下载视频并转写文字的 skill。 ok, ai 开始思考,大概 two thousand years later? 开玩笑啊,应该也就几分钟。 coco 告诉我,现在已经可以把这个技能完全集成到我的 coco 工作区了,可以随时调用好。我还需要继续编排一个工作流,问一下 ai 是 否可以为我增加一个流程?如果我在钉钉上发送一个视频的分享文本,你就自动下载并转写,然后把转写的结果发给我。 ok, 等待 ai 处理好的 ai 说已经帮我部署好这个自动化流程了。怎么样,兄弟们?全程没有写过一行代码,甚至一行配置都没有写,就可以把以前开发过的功能直接添加成 copilot skill, 而且中间完全没有遇到任何困难。 顺便说一下,我那个项目也是一行代码都没有写,全是 ai 完成的。 ok, 建议各位收藏起来啊,试试给你的龙虾装上手脚。各位有什么疑问或者是后面希望交流什么内容可以评论区留言,我会尽可能的回复大家。

阿里刚刚开源了桌面 agent 扣炮,目前 star 数只有六百多,看到操作界面是不是非常熟悉?聊天定时任务技能 m c p 完美替代了 open call cloud bot 刚发布时我就说过,国内的大厂很快就会做一个替代品,并且更适合国内用户。扣趴没让我们失望,在频道这里可以直接配置钉钉、 飞书 qq, 在 技能这里可以直接启动要使用的功能,比如各种文档的处理技能,包括 word、 pdf、 ppt、 excel。 虽说 coca 已经做到了简单部署,但 one panel 让智能体部署更简单,依旧打开应用商店,在 ai 分 组中 果然显示着 coca 果断安装,什么都不用动,只打开端口外部访问就行了。这个如果不打开,只有 one 盘中的容器可以访问,点击确认,等待安装完成。现在在已安装界面中可以看到 coca 已经启动,点击跳转,直接打开 coca 的 操作界面,安装就是这么简单, 毫无门槛,久违的中文界面是那么的熟悉,速速配置模型这里默认集成了摩塔、灵机还有欧拉玛三个提供商,如果本地有条件跑大模型就选欧拉玛用在线大模型就选择这两个,任意即可,这里也能添加更多的模型。 dash qq 就是 阿里的灵机模型服务,在阿里百炼大模型控制台申请一个 api key 配置,到这里,在线模型就配置完成了,这里内置了千问和 d p c, 最后选择要使用的模型保存, 现在就可以对话,问他是谁,能干什么,跟 open klo 一 样,可以执行命令,操作文件、网络浏览器、技术搜索等。 最后就是安全问题,我们直接通过域名家端口访问的抠拍,目前抠拍的是直接暴露的互联网,可以在汪碰乐的网站这里创建一个网站,选择安装的抠碰,配置一个域名发布网站,然后在证书这里申请一个 s s l 证书,填写域名自动续期,申请完成, 回到刚才发布的网站,配置 http, 开启 http 选择证书就行了,另外还要配置密码访问,配置用户和密码, 这样通过 http 加域名访问时,还要输入密码才能打开 call pad 的 操作界面,安全问题解决,就可以放心的玩耍。好了,本期就到这,感谢观看,我们下期再见!

百花齐放,百家争鸣, b a t 绝对不会让国内的用户在 ai 的 体验上挽救阿美超过三个月。当大家还在叹惜 open call 在 国内网络环境经常掉线的时候啊, 阿里同意实验室带着他的 coco 走来了更适合中国宝宝体质的个人智能体工作台。和 open call 一 样,不仅仅是一个问答机器人,更是一个能够长期记忆,自主执行任务。和 open call 同样的策略,本地优先,多平台接入,主动执行。 不同的是配置 coco 比大龙虾更简单,自带白领工作常用的 skills, 内置了国产大模型,只需要设置一个 api k 就 可以直接使用。那把 coco 装电脑总共分几步?三步打开使用文档,按照快速开始的指导教程,第一步,复制这条安装命令。 这也是官方推荐的啊,它不需要你安装 python, 但是呢,它完全可以自己来执行一切的安装步骤。它先是给 coco 在 这个路径里创建了一个工作区, 然后又安装了 uv, 用 uv 来管理后续的安装,自己下载 uv, 然后安装到这个文件夹里,然后自己去添加环境变量。到这里, uv 已经安装成功了。 他又开始创建 python 环境,从派派里下载并安装 coco。 coco 安装成功,又自己添加 coco 的 环境变量,到这里已经安装完成了。他自己分了这么多部,但是对于我们人来说,其实就只是执行了那一条命令。哎,什么叫剪辑啊,这就是剪辑。国内用户最喜欢是这样的, 也应该是这样的。大家都在谈论着大龙虾的配置多么复杂,仿佛这 ai 国战场对于非计算机专业人员注定了凶多吉少,那现在好了,简单的来了, 安装完成之后就来到第二步,初识化,如果是第一次安装的话,就直接选这个快速的默认配置,先初识化,然后剩下的以后再说。把这个命令直接复制到 power shell, 开始初识化,然后这个是初识化,他给你的阅读需要你阅读的协议,这个东西该读的就读一下啊,他给你的警告你, 你一定要了解一下。安装完成第三步就是启动服务,也是只有一条命令,把它复制到 power show, 回车就可以打开服务了。到这里酷跑就安装完了,最后它会给你一个服务前端的网址,把这个网址复制到浏览器上,打开就可以直接进入到操作界面了。进到主页面之后,就能 在这个技能里面就能看到它已经预装了一些我们上班常用的 skill, 你 像处理文档,还有搜索、寻找新闻,这些都有配置,大模型也非常的方便。在对话上,对话模型里面也有自带的,你像这个自带的 deepsea, 我 们就可以直接用这个。 那对于其他大模型,我们只需要点击设置,把 e p i k 粘贴在这里,然后点击保存就可以了。安装好之后怎么确认呢?还是老规矩, say 句 hello, 然后给它起个名字。让我意外的是, coco 比 opencloud 响应速度确实是快不少啊。行了,到这里就安装完全,完成了,以后再慢慢调教吧。

哈喽,大家好呀,本期视频教大家如何本地,不求扣怕。首先我们需要先下载 python, 官网写着 python 版本要大于等于三点一零,小于三点一四,我们按 win 加二输入 cnb 后回车, 再输入拍放空格杠 v 查看已安装的拍放版本,如果版本合适就可以跳过这一步,没安装的可以到拍放官网下载。视频中所有链接均放在简介评论区置顶,大家可以直接去附近, 我们打开拍放官网,点击 downloads 跳转到特定版本页面往下滑,找到一个大于等于三点一零,小于三点一四的版本,这里我选择三点一一三, 我们鼠标点击三点一一三往下滑,根据你自己的电脑选择安装和系版本,我这里选 win 六四,下载好后双击打开,勾选 add python exe to pass, 然后选择直接安装到末列位置。 安装好拍放后按 win 加 i 打开 cmb, 然后用我评论区置顶的清华大学开源软件镜像架下载。安装完成后,我们输入 koopw i need 杠杠 default 进行 koop, 默念出息化 这里他问我们是否已阅读并接受像素安全息机,我们即刻按回车出息化完成,输入 koop app 启动, 接着鼠标腹记端口地址粘贴到浏览器回戳,这样我们就将 koop 本地部署到电脑上了。 部署成功只是第一步,想让 koopw 真正成为你的得力救小,还需要做一些简单的配置。我们点击左下角模型,先接入下一级创建的 apikey 试试,点击 modelscope 下方的设计粘贴你的 apikey, 忘记了的可以去摩达杠首页访问控制里重新复制,在 l m p g 这里提供箱选择 model scope, 模型选择千问,然后保存。 回到聊天窗口新建聊天,可以在这里跟他对话,让他帮你干活了。需要注意的是,因为有 token 官网或者豆包官网就行,那里是免费的,速度还快,嘻嘻。 接下来我们教大家如何使用本地不朽的模型,没有 tocan 陷阱,可以自由定制,等速度和能力全靠模型和你的电脑算力的支持。 好了,我们先看看怎么把模型下载到本地。下载模型的渠道有很多,这里我推荐比较简单向朽的两个平台,欧拉玛和 modelscope。 我们打开欧拉玛官网可以看到这里有很多模型,不过不要怕,我们新安交欧拉玛 app, 接下来我会教大家如何选择适合自己模型。鼠标移动到右下角,点击 download 下载 app, 如果下载很慢,可以用我为大家准备的网盘链接下载。 下载好后,先别急着安装,因为欧拉玛和模型会默认安装到本地,我们需要更改它的安章位键,找到安章程序,按 ctrl 加 x 剪切。我在一盘新建了一个 ai 文件夹, 这里会放一些跟 ai 有 关的文件,你们可以根据自己的习惯来创建。将刚才下载的安装程序粘贴到文件夹内,接着新建一个文件夹,并就命名为欧拉玛。我们在文件夹地址栏输入 cmb, 回车输入 o l m s set up e e g e d r 等于加文件加路径,双击进入文件加复制文件加递进,然后粘贴回车接接会跳出一个安装窗口,我们直接进行安装。 解决了 app 的 安装位置,接下来我们更改模型的安装位置,我们在搜索框搜索编辑系统环境变量,打开,然后点击环境变量, 接着在下面点击新建变量名,输入欧拉玛 models 变量级,输入你新建的欧拉玛 model 文件加地址,我的是一 ai 欧拉玛 model, 然后点击确定杠确定,这样我们通过欧拉玛下载的模型位置就更改为你设定的位置了。 好了,我们现在可以打开欧拉玛 app 看一看。欧拉玛 app 为我们提供了一个简单的对话窗口,我们可以在右下角选择模型进行对话,注意,目前是没有下载任何模型的,你选择了模型并进行对话会直接触发。下载 这么多模型,我们怎么知道哪个最适合我们呢?别着急,休息一下马上回来。

零成本白嫖国产小龙虾快速教学?答案其实很简单,就是摩搭社区加 call 配哦!点击创空间,在搜索栏输入 qpo 最新版,随便选择一个 qpo 空间,进入确认版本为新版本。点击复制填写必要信息, 这里注意选择非公开,不然会被窃取私人信息。最后点击复制创空间,等待五到十分钟即可发布成功。 成功后进入这个页面,点击右上角用户,点击账号设置,点击访问控制, 点击新建令牌,输入名称,复制 a p i, 点击个人主页,点击 q p i o 空间,这里还可以切换中英文, 点击模型,选择 modelscope, 将刚刚的 a p i 复制上去, 选择 ken 大 模型。 成功之后,我们就几乎零成本拥有自己的国产小龙虾了,虽然 api 每天有免费额度,而且小龙虾还有点笨,但重要的是免费的白嫖就是香!对想要试试小龙虾的朋友很友好。 下一期我会出配置非书和介绍一下小龙虾的使用技巧,大家也可以把想做的事情发在评论区中,我会尽力实现。 好啦,谢谢大家的观看。

阿里它自己开开研了一个桌面 asian 工具叫 coper, 它是可以自动的, 可以在本地部署,它有,它也有自己的一个一个 skill 的, 那么我们现在就在本本地进行一个 coper 的 一个部署。 好,现在我们来来开始安装。首先我们看一下自己的电脑, 电脑有没有安装这个 passion, 我 们可以用这个命令 passion 这一个版本 看一下,如果安装的话,它会直接输入一个版本号。嗯,比如我借电脑的话,我就安装了这个是三点一三的版本,它这个 抠怕的话,他他的他的需要的就爬山,他他要三点一零到三点三三的版本,所以的话,如果你的版本是第一这个版本的话,那就我们就要先卸载这个爬山,重新去官网下载一个 三点一零以上的一个版本啊,我们就可以去看一下这个 passion 官网络。哎,看一下这个版本啊,这里的话这个就 passion 了一个官网,因为我是 windows 版本的话,所以我就在这个 windows 里面,这个 windows 里面下载它,这里有一些一些版本,比如这个是三点一五的话,我们要我们要找的话,比如我们这个是三点一三, 我们最好就找找在三点一零到三点一三的一个一个版本。以后我就下载这个六十四 v 的 话,现在的电脑都是六十四 v 的 电脑了,如果 我们去下载,下载完了话,那我们就去找到这个 e x e x e 关键右键以管理员身份去运行,就避免一个权限的问题。 嗯,这个就是一个帕森的一个安装啊,我,我记得的话,我就已经安装了,所以我就不再安装,所以我们就看一下 这个是一个帕森的安装的话,嗯,下一步的话,下一步呢我们就要安装这个 q 帕。 q 帕的话它是它是有两种安装的, 这两种加载下载下载方式,第一种的话就直接用这个 pink 这个安安装这个 q pad。 还有就是我们是就加一个,加一个相当于它它这个链接就是清华链接,它就会比较速度,下载的速度会比较快一点,因为我是用了用到这个去加速下载的话,嗯, 我给你看一下,给你看一下,因为我我已经下载完的话,那我们就可以直接验证一下这个 q pad 的 一个版本, 嗯,它就没有这个,没有这个命令,因为我们下载完了啊,我们就要出售下这个这个 coca, 嗯,因为我,我现在我我已经安装好了,那我现在就直接启动一下,看一下我本地跑起来这个 coca, 嗯,它现在就跑起来了,就按这个 ctrl 键键盘,这个 ctrl 就 直接可以跳过去了,因为我现在已经是就可以看到这个 q。

一个下午,我没有花一分钱,就打造了我的专属 ai 内容运营公司。这里面有 ceo, 有 资讯专家,有产品经理,全在我飞书里。我艾特他们说一句话, 他们各自去干活,然后来找我汇报。大家好,我是阿康,最近阿里开源了一个叫 coco 的 工具,可以理解成国产版的 openclaw, 本地跑的多 a 阵框架。刚好我有个闲置多年的一九款就 mac 笔记本,直接就一句命令装上去了, 没有报错,没有折腾,接上飞书,配几个 ai 员工角色, ceo 负责拆解任务,调度资讯专家,每天自动去搜行业动态。产品经理负责把信息整理成文案框架。我在群里发一条消息, ceo 看完先拆任务,派给对应的员工,员工执行完结果直接推回群里给我配置,过程中出了个报错, 我随口问他,你能在你自己的环境里帮我装这个拍上包吗?他思考了一会,自己找到路径, 安装好工具,然后告诉我,好了,你继续。这才叫 agent, 不是 帮你查资料,是真的知道自己能干什么, 然后去干他。现在还是初期版本,我遇到了个 bug, 是 有些图片消息还发不出去,我也去 get, 提了一手,官方在修,但这件事本身已经成立了一台旧电脑, 一个国产开源工具。一个下午,我的 ai 内容公司开张了,感兴趣的话可以关注阿康,我们一起探索 ai。

在 open core 横行的二零二六年,可能很多人还不会怎么去电脑安装,要么就是根本不懂,要么就是被一大堆英文配置难住了。现在有了 coco, 让这一切都变得更加的简单。 我们可以先来到 coco 官网了解, coco 是 阿里云通易团队推出的个人智能助理,支持本地与云端双模式部署。现在我们直接进入主题,教你如何本地化部署 coco。 按照官方推荐,我们选择一键安装, 这里会出现不同系统的安装模式,具体根据你常用的系统选择对应命令。视频中我们以 windows 作为演示。首先我们打开 cmd 运行窗口, 把 coco 安装命令粘贴到窗口中,这时候可能会出现运行报错的提示。不用怕,我这里给大家准备了一个备用的安装命令地址,重新输入备用命令,回车进行安装。 看到 coco 已经安装成功了,复制这个命令到 c m d 窗口中,回车, 点击高级,找到下方的环境变量进去,找到 p a t h, 双击打开,点击右上角新建,把这个复制进去,最后点击确定。 接着就到 coco 出使画了,跟着文档命令走就行, 直接回车回车,然后就可以看到出使画成功了。 最后我们就可以启动 call 炮了,复制这条命令,这里启动时间可能会有点久,稍等片刻,当你看到一百二十七点零点零点一的时候,就说明服务已经可以访问了, 这时候我们在浏览器打开这个地址, 看到这个界面的时候,就说明你的 call 炮已经安装成功了。如果默认语言显示的是英文的话,就在页面右上角自己选择中文,接下来我们开始跟 call 炮对话, 啊,不好,我们要先配置大模型的访问权限,这里我们进来后会看到系统已经默认选择了第一个,直接点设置进去,这里会出现一个 api 密钥, 我们打开这个地址去注册获取一个,找到访问控制,另一排就是我们需要的密钥。复制后回来 call 页面粘贴进去,点击测试连接,如果弹出绿色框说明连接正常,然后再回去聊天页面跟 call 愉快的对话。 要命啊,这里又忘了一个设置,记得把刚才设置的提供商勾上,模型呢,随便选一个, 这样我们就可以看到正常输出了。但是这里呢,也只是最简单的 ai 对 话而已, 要注意这里的对话是需要消耗 token 的。 我们差个题外话,可能有很多小朋友还不知道 token 是 什么意思,只要你有用过四 g 五 g 网络,你用过数据流量,你把 token 理解为 ai 数据流量是不是就很容易理解了? 而且这个流量在接下来又用到的的 agent 实力中消耗很快。 为了应对 token 的 消耗问题,我们其实可以搭建一个本地大模型,让 call 炮直接对话我们的本地模型进行服务。这里我们使用欧拉玛来部署本地大模型。进入欧拉玛官网,点击右上角的 download 下载系统程序 安装成功后就可以看到阿欧玛的功能页面了,现在我们去找下我们需要的大模型。回到欧拉玛官网,选择 models, 搜索 p w n 三点五, 不要安装带有 cloud 的 标志,那个是在线模型,需要 token 的, 我们可以找一个体量小一点,适合本地电脑安装的模型,因为正常家用的电脑配置都不会太高。这里有一个支持零点八 b、 二 b、 四 b 的 模型,可以点进去 复制安装命令到 c、 m、 d 窗口中,记得加上你选择的具体模型。所谓的零点八 b 或者二 b, 其中的 e b 表示十亿个模型参数,所以越大的参数量对电脑的性能要求越高, 安装可能要一段时间。本地演示直接跳过, 当看到三 day message 的 界面时候,就说明本地大模型已经安装成功了,你就可以跟欧拉玛进行对话。 接下来回到 call 炮中,找到模型配置去,我们开始配置本地模型,找到 alma 选项, 因为本地尤拉玛不需要密钥,所以我们随便输入一个一二三四,点击保存后会弹出一个报错,让我们安装什么 s d、 k, 太麻烦了,难道就没有更简单的方法?我们找到右侧有一个添加提供商按钮, 这里我们随便命名一个,例如 my model, 然后在默认 base 二中输入,这个妙呢,还是输入一二三四就行。最后点击创建, 找到 my model, 点击模型按钮,把刚刚下载的模型名加上去,最后测试下连接, 最后记得选中刚刚设置的模型保存,然后回到聊天页面, 这里就开始考验你的本地电脑性能了,如果本地电脑配置不好的,不要随意尝试,直接用在线模型就行,花钱买 token 就 可以了。 看来本地模型输出没什么问题,就是速度还是有点慢,为了演示速度之后我们会全程采用线上模型消耗 token 模式。 接下来就进入二零二六年最流行的 skill 介绍,什么是 skill? skill 其实也就是我们常用的技能,这里可以看到 coco 默认已经存在一些技能了, 我们可以来问一下,看下 coco 知不知道它都具有哪些技能, 看来他还是知道的,但是实际应用中可能这些默认的技能不能满足我们的日常需求,这时候我们就可以新建一些自定义的技能了。这里我就来教大家如何创建属于自己的 skill。 比如你现在是一位宝妈,每天为了孩子吃什么而感到焦虑,让 coco 每天推荐一个菜系,并且教你怎么做这道菜,是不是就很方便了? 这里我就简单写一个菜谱的技能,我们可以给技能命名为 cook, 内容呢参考左边我已经写好的。注意,我们在最后有一个输出要求复制进来,技能中的 name 表示当前的技能名称跟刚才命名的 name 一 致就可以。 description 表示当前技能的简介,说明这个技能是干嘛的。 name 和 description 上下有三个短横杠包围起来,这种是固定格式,是给抠炮识别用的,要遵守。点击保存,然后启动我们新增的 cook 技能。 这时候我们打开 coco 运行的 c m、 d 窗口,按下 c t r l 加 c 按钮,当看到终止处理操作吗?这时候继续按一次 c t r l 加 c, 停止当前的 coco 服务,然后输入 coco app 命令启动 coco 服务。 当看到一百二十七点零点零点一的时候,刷新刚才的 coco 网页, 这时候我们继续去问他,你有什么技能? 从输出的内容中我们就可以看到刚才添加的 cook 技能了,现在我们就让 coco 来实现这个技能, 可以看到 coco 识别到了我们的 cook 技能,并且在最后成功输出我们的要求, 灰狼大厨并且带上了祝福。所谓技能其实就是给不同需求的人都可以根据自己的需求创建一个工具,不同的人会有不同的需求, 比如销售,可以创建一份根据客户生成客户喜好的技能,比如牛马,可以创建一份工作日报生成的技能, 比如保险,可以创建一份根据不同职业生成一份合适的保险技能。当然技能完全可以不用自己去写,把你的需求发给豆包,豆包就能帮你直接生成了,加上 call 炮要求的 name 和 description 头部就可以了。 最后我们进入频道的配置教程,我们这里以飞书作为教程演示案例,我们首先要打开飞书的开发者官网, 进入开发者后台,可以看到一个创建企业自建应用的按钮,点它,然后输入应用名称和描述 call pro, 接着全程跟着教程走。 接下来就可以打开飞书应用,无论是电脑应用还是手机应用,都可以直接用飞书跟 coco 进行对话。 到这里我们已经完成了全部教程了。

嗨,大家好,今天我们来聊一个说实话挺让人头疼的问题,就是你好不容易把那个 open call agent 打好了,结果他突然就撂挑子不干了,那这时候我们该怎么办呢? 好,大家看一下这个评论是不是特别有画面感,我的龙虾死几回了?哎,这说的太真实了。其实这位朋友遇到的问题,就是我们今天要做这个指南的直接原因,这绝对是一个大痛点, 这种感觉是不是特熟悉,前一秒还好好的,后一秒哎,没反应了。特别是当你花了好几个小时,好不容易把你的龙虾军团给组建起来,结果眼睁睁的看着他就这么崩了,心情可想而知。不过别急,今天你来对地方了,我们就一步步教你怎么把他救回来。 好,那我们今天就分这几步走。首先先来个急救,教你一个万能修复命令。然后呢,我们看看两个最常见的问题,一个是浏览器罢工,一个是装了新技能就崩溃。 接着我们会深入挖掘一下到底是什么根本原因导致这些问题。最后我会给你一个特别清晰的故障排除流程图,以后再遇到问题就知道该怎么办了。 好,那我们先从第一部分开始,这个可以说是你的急救箱了,在咱们去翻日制查代码之前,有一个命令,你必须也应该是第一个想到的。 记住啊,这个命令就像是你的急救员,我敢说一大半的常见问题,靠他这一招就能搞定。所以先别急着去扒拉那些复杂的日制文件。 no, 就是 这个命令, open claw doctor 杠 fix, 你 就在你的终端里敲下这行字,然后回车就行。 它的作用,顾名思义,就想一个医生能自动帮你诊断和修复很多常见毛病,特别是那些因为配置文件搞错了或者互相打架导致的问题。 行,那万一呢?咱们这个医生命令试过了,问题还在那怎么办?别慌,这就说明问题可能稍微具体一点了。接下来我们就来看看社区里大家抱怨最多的两种疑难杂症。 这两个问题啊,真的太经典了。左边这个我管它叫浏览器失明症,就是你的 agent 明明跑着呢,但就是上不了网,跟瞎了一样。右边这个就更爆裂了,叫一学就死。你刚给他装个新技能,整个系统啪直接崩了。 好,先说这个浏览器的问题,解决他的思路其实就是你得给他配上对的工具。 首先你得确保你用的是个比较强的模型,比如像 gemini 啊, chat gpt 或者 cloud 这种。 然后最关键的一点就是一定要去安装和配置那个叫 browserwing 的 插件,它是专门干浏览这活的。最后,也别忘了检查一下你的模型是不是真的有权限去调用这些浏览工具。 那如果是装了新技能之后崩溃的,咱们可以试试这个手动疗法,比如说你装了个 fine skills, 然后系统就挂了。 这时候你别用命令行去装了,试试直接把这个技能的文件夹手动地直接地复制粘贴到这个路径下面。 show 杠, openclo, 斜杠 workspace, 斜杠 skills 放进去之后,再运行一下 open loop, gateway, restart, 让系统重新加载一下。很多时候这么一捣鼓,哎,就好了。 ok, 刚才我们说了怎么治标,现在咱们得聊聊怎么治本了。就是说,咱们得搞明白,你的 agent 到底为啥会突然暴毙。其实啊,几乎所有这种突然崩溃的问题跟上都指向同一个元凶, 这个元凶就是配置文件冲突。这事怎么发生的呢?其实很简单,就好比你的 agent 有 一本自己的行为准则, 当你装一个新技能的时候,这个新技能也带了一本自己的说明书。如果这两本书里的某条规矩互相矛盾,那你的 agent 就 精神错乱了,不知道该听谁的,结果就是直接罢工。 那么这种打架最容易发生在哪儿呢?主要有三个地方,可以说是冲突高发区。 第一个是 s o u m d, 这文件定义了你 agent 的 核心性格和行为准则,是他的灵魂。 第二个是 agent t d, 他 管的是具体哪个任务,该用哪个工具,像是他的工具箱双模书。最后一个就是每个新技能自带的那些配置文件,所以问题大概率就出在这三个地方。 好,说了这么多,咱们最后来总结一下,把它变成一个你随时能用的行动指南。下面这个流程图你最好记下来,以后你的龙虾军团再出问题,照着这个走就行。 这个流程非常简单,就三步,第一步,不管三七二十一前运行 openclouddoctor 杠 fix, 这是你的万金油。如果不行,进入第二步,去检查那两个核心文件, so 点 md 和 agents 点 md, 看看是不是最近改了什么东西。 如果问题还是没解决,那就到第三步,把那个你刚刚端上去的新技能先从文件里挪走,看看系统是不是就恢复正常了。 这个方法叫隔离法,非常管用。怎么样,有了这么一套清晰的流程,你现在是不是感觉心里有底了? 你就不再是一个只能干着急的用户了,你已经成了你自己的首席技术官,完全有能力去诊断和解决这些最常见的问题。好了,现在去复活你的 agent 吧。

我是大厂研发工程师张飞,欢迎来到张飞 ai 开发实验室。本次我们讲一下这个我根据 coco 阿里的 coco 去开发的一些功能,大家比较关注的一些多角色智能体,就像 open class 一 样的功能,我已经放到我的一个个人的 github 的 一个网址 link 就是 我的一个网址, coco 就是 这个项目名。大家点击到这个切换这个 z g l branch, 最后点击这个 code, 下边有个 down load 的 这个包,就可以把这个包下载下来。下载下来之后啊,大家可以用这个字节的 tree 去把它打开,打开项目之后就可以打开这个终端,终端在这里头新建终端,新建终端时候建下来之后 就可以去安装这个包,安装的时候应该大家都知道在这一侧是可以提些问题,比如说去问我该怎么去安装,那我可以简单的去看一下子,它这里有一个 readme 文件,告诉我们哪里怎么去安装开发版主要是这两个开发测试 就是用这个命令,当然大家提前需要进入 python 这个环境当中,进 python 环境当中,我建议大家可以安装 python, 安装 python 之后要输入一个 python 杠, m v e n v m e n v 输入这个命令,那输入这个命令之后呢,就可以在当前的 q pad 的 一个目录下去创建一个 python 的 虚拟环境,这样子它不会影响你整体电脑的一个 排序环境,再输入一个命令就可以进入命令,我新建一个终端演示一下, ok, 这里是已经进入了,那我出去之后再重新进来 e n v scripts 脚本 active 就是 激活虚拟环境, 对,我们就这条命令就可以进入了虚拟环境,激活到虚拟环境之后,就可以用行运行下面的一个 p i p install 这个命令,安装开发版的一个各种个性化的包,然后再进行大家已经知道的抽象,最后再运行那最后这个结果,像这么一个结果运行之后,这样子就开启了一个 后端,我们在等待它打开,打开之后我们点击前端,在前端这种点击智能体管理,点击这里创建一个智能体,你们按照下面提示就可以创建你们所需要的智能体,这里有一个模板,你可以选择自己的模板,也可以选择 自己随意建其他的一个信息就可以创建,创建之后要选择相应的一个激活,激活之后就可以在这里和去聊天或者展示一下子。现在这里我就激活了一个产品经理,我给他激活了个产品经理, 启动的是一个 old strap, 都可以告诉产品经理我的需求是什么,我给他定位是什么,下面就输入给他,他都会保存在独立的一个产品经理这个 workspace 当中。 同时我这里又建了一个市场营销推广,在这里我也给了一些定位,他自己就会建立进去,也是市场营销推广 agent 和这个 安敏经理 agent 两个是独立的工作空间,并且都可以把它配置到这个非输应用当中,这也是开发功能。在非输应用当中,大家知道 上节视频当中给大家讲过有个 app id, 还有一个 app 的 一个 secret, 把这些都配好之后,并且绑定到相应的一个智能体,比如这里绑定到一个是产品经理,一个是绑定到市场营销推广经理, 两个都点击保存,并且两个都去启动,它就可以去使用了。 ok, 这个是绑定到产品经理了,这个应该绑错了,绑这个市场营销推广 a 人的绑。对,我们再点击启动,两种 都启动之后,这样就通过飞书可以和他们分别交流,在飞书当中去拉一个群,你自己加上产品经理,再加上市场推广营销的一个经理,你们三个人可以去讨论,给他们分配不同的任务,并且让他们去讨论。今天讲到这,谢谢大家。

欢迎回来,精彩继续! 哈喽,大家好呀,上期视频教了大家如何本地部署扣炮,并且安装了欧拉姆 app, 那 么这期视频就带大家一起看看如何安装适合自己电脑配置运行的模型。话不多说,直接来吧! 首先我们得先知道自己电脑配置运行的模型。话不多说,直接来吧!首先我们右键任务栏空白处,点击任务管理器, 或者按下 c r t, 加 shift 加 esg, 然后点击性能,这里就会显示我们的 cpu 内存, gpu 是 什么。比如我用的这台电脑是 r i x 三千零七十 t 一 六 g, 显存内存三二 g。 然后我们可以右键将我们的配置复制下来。 接着打开 deepseek 官网,粘贴刚才腹肌的内容,问他,你好, deepseek, 我 想要在本地部署 ai 模型,通过 copout 让他帮我自动即兴文件清理桌面等我已经安装好了 olame app, 但是我不知道我的配置能够运行什么模型, 请你帮我分析一下我的配件,然后推荐一些适合我本地不朽的模型给我,再次感谢。然后 deepsea 就 会给你修出一些适合你安装的 ai 模型, 因为你在提系词里填了 olamma app, 所以 它可能还会给你提系安装方法,复制 deepsea 推荐的模型,然后去 olamma 官网模型界面搜索, 我们点击这个 gpt 模型,在这里可以看到它的下载量,更新时间以及详细介向往下滑,还可以看到模型的各个量化版本,基本上我们就选择一个最接近我们显存大小的版本,比如这里我就选择下载了 gpt 杠 os 二零 b, 它的内存只有一四 g, 我 的电脑是可以很快速运行的,它还支持一二八 k 的 向下文,但是只支持文本输入。 我们再换一个 q n 三点五看看,它有很多量化版本,而且五天前才更新,性能强大。可以看到零点八 b 的 模型尺寸只有一 g, 但是机器二五六可以向下纹,还机器图像输入,可以学习,非常强大了。 当你选定了几个模型又犹豫不决时,可以将这些模型的名称复制下来,然后粘贴给 deepseek, 再加上你的需求,问他你应该选择哪个,他会为我们详细介绍每个模型的优缺点,再根据我们的需求为我们选择比较契合的模型。 然后我们就可以挑选二到三个和系的去强行安装了。比如我想安装 q one 三五比零八 b 这个模型,我们直接复制名称,然后打开 cm, 输入欧拉玛 pro q one 三五比零八 b 回车,然后模型就会开始下载了。 当模型下载好后,就会自动放到我们之前设计的路径里,这里刚开始可能是正向速度下载,过一会就会降到几 kb。 不要怕,我们先点击窗口,然后按下 control 加 c, 就 会打断下载,接着选中并 control 加 c, 复制刚才那条下载命令,直接 control 加 v 回车,可以看到下载速度又正常了。 我们可以输入 olama list, 查看已安装的所有模型。模型安装好后,第一件事情肯定是先细细它的所有模型。模型安装好后,第一件事情肯定是先细细它的所有模型。我们打开 olama app, 点开设计, 将最底下的 context link 拉到二五六 k, 发挥出这个模型机器的最高象限,同时模型运行所需要的算力也会增加。然后回到聊天界面,跟你的新模型打个招呼。这个模型机器图像和文字,所以我们还可以点击习字按钮添加一张图片。 由于这个 app 只是个聊天窗口,没办法控制我们的电脑,我们打开 cd 输入的地址,粘贴到浏览器, 回到扣怕页面,然后点击左下角模型,将提供箱换成欧拉玛模型,选择刚才刚安装好的 q n 三五比零八 b, 然后就可以跟他对话,问他有什么技能让他帮我们的忙了。 好了,恭喜你学会了简单的欧拉玛模型下载。接下来我们来看看难度稍微高一点的模型下载方法,它可以更自由地选择模型量化版本,压架你的性能象限,或提供更流程的运行,还能给你的模型加入一点个人调味料。 我们打开摩达官网,找到模型库,然后我们选择 g u f。 模型的格式有很多, 不过你想要在 copw 运行这个模型,就需要将下载的 gduf 格式模型转化。我们搜索 qwind 三五比零八 b, 然后点击后置带 gduf 的 模型,这里有很多这个模型的详细信息,感兴趣的可以自己研究一下。 点击模型文件往下滑,可以看到这里有很多量化版本,还有一些欧拉玛官网没有修路的版本。这些 q 四 k m i q 四 ax 是 什么?看起来就复杂,别怕,我们直接复制,然后丢给 ai, 问他这些字符是什么意思。接着 ai 就 会像叫你学 abc 一 样,告诉你它们的含义。 回到模型文件这里,我们选择一个和系自己的下载下来,如果下载的很慢,可以去下载个什么雷软件,它会直接接管浏览器下载。将你下载好的文件放到你的欧拉玛模型文件夹旁边,新建一个文件夹,随便起个好分辨的名字, 然后新建一个 txt 文本,接着从命名为 model file, 删除 txt 后缀,然后用记事本打开,在里面可以自定义模型的配件,还可以给他一些角色设定。 首先要在第一行输入模型的文件名称 from q n 三点五杠零点八 b 杠 q 四 k m g e q f 然后粘贴模型基础信息,不修这些直接转化也行, 但是模型很容易胡言乱语,答非所问,不知道怎么填基础信息。我们可以看看其他模型是怎么写的。输入 olammo list, 查看已安装的模型,然后粘贴这串代码, 展示这个模型的 model file, 我 们复制这一块代码就行,把它粘贴到我们的 model file 中,你们可以自由对这个参数进行微调,不会就问 ai, 记得保存。文件都准备好后,在地址栏窗口输入 c n b 回车,然后输入欧拉玛 create q n 三五比零八 b 杠 q 八零杠 f model file 中间的这个模型名称是可以自己随便填的,建议简化模型名称,比较好记,易辨别。 然后回车,等待模型创建完成。创建完成后,我们就可以在欧拉玛 app 看到它了,也可以在 kopw 切换它。跟你的自定义模型打个招呼吧,测试一下是否创建成功。 接下来你就可以去反复调戏你的模型了。学会了点赞投币没学会再看一遍,哈哈哈! 通过这几个细频,你已经从零基础小白学会了如何本地不朽 coca w, 如何通过欧拉玛下载模型,还学会了如何自定义模型、参数设定、劫色破球线模型等。 更重要的是学习如何向 ai 提问,让 ai 帮助你学习熠熠进步。能看到这里,说明你们真的很爱学习新机器,有着追求新事物的热情。下期我将从零开始,带大家一起安装 openclaw 小 龙虾,解锁更多好玩又有趣的机器,拜拜!

我靠,朋友们,终于成了,搞了一天,在这个 coco p a w 里边儿部署这个这个这个聊天的,我在底下用,用那个,用那个 deepsea 的 那个的 api key 做了一个这个聊天机器人,类似这个,类似那个小龙虾那种。终于好了,我的妈呀,他终于回答我了,我真服了,卧槽,我修改的累死我了, 之前各种出问题,他就是不回答,在这各种出问题,他就是不回答,不论是这个聊天框,还是还是他本身,他就是不回答,终于回答了,我的妈呀, 哎呦,真不容易,这个歪,不确定,那也不是那么好搞的呀,我搞了一天,终于完成,终于弄出来了, 我嘞个妈呀,就是稍微慢一点,他现在可以用那个,用那个 skills, 我, 我给他给他搞了几个 skill。 这是这个 oppo 的 这个界面频道,频道里边就加了一个这个,这个飞书的这个 频道这边这个地址就是我的那个我的应用,我在这个这个飞书开放平台后台,我自己做了一个应用,终于成功了。哇,真不容易,兄弟,这还可以设置心跳,设置心跳, 设置智能体的这个工作区,还有这个 agent agent, 这里边可以改,然后这个 heartbeat, 心跳里边可以改 memory 记忆,然后这个 profile 就是 自己的这个定位, 然后还有这个 soul 灵魂,都可以改改它的风格。我终于搞出来了,我真真不容易,搞了一天了。

阿里刚开园的 q 泡桌面智能体,我替你们实打实踩坑实测了,一句话总结,咱们普通小白想上手,真的再等等,别着急,跟风折腾。 最开始我想本地部署,跟着豆包给的步骤一步一步来,全程全是代码操作,要配置各种环境,跑好几个网站下载对应的安装包。对我这种不懂小代码的小普通小白来说,真的巨复杂, 前前后后折腾了快两个小时,最后还是因为环境不兼容,直直接卡死,只能彻底放弃。然后我就去试了阿里云官网标注的五分钟一键部署,结果踩的坑一个接一个。首先就是大家最关心的费用问题, 别看模型本身是开源免费的,但实际用起来有不少消费调用大模型需要开通阿里百链服务,首月套餐七块九,包含一万八千次请求。这个倒是不贵, 但想在云上部署,必须租赁阿里云服务器,我选了最基础的入门配置,最低要先充值一百块,按量付费,折算下来一小时差不多七毛钱。 这里必须给大家提个醒,也是我自己踩过的坑,这个服务器不是你关机,不用就不扣费了。我折腾完关机放了一晚上,第二天一看啥操作也没做,又扣了好几块。 后来才搞明白,他默认状态下关机还是正常计费,只有手动开启节省停机模式,才能免掉算力部分的费用。而且就算开了这个模式,系统盘的存储费用还是会持续扣除 大家,大家如果只是临时测试用,用完一定要直接删除释放实力,不然钱不知不觉就被扣没了。 呃,钱的事还是其次,最折腾人的是他对咱们普通小白真的不够友好,操作手册的很多关键步骤对新手来说说明不够详细,就比如开通密钥,手册里只提到了开通编程密钥, 我照着操作折腾了半天一直报错,后来问了千问才搞明白,调用大模型需要开通的是大模型专用密钥, 就这一个没说明白的细节,白白浪费了我快一个小时。好不容易部署完成,我把它关联到钉钉上,想着手机上也能随时用,结果刚用第二句就出问题了,我先给他发了个文章链接,让他提炼核心要点,倒是很顺利就完成了。 紧接着我用语音发了一句,把这个内容和要点生成一个 ppt, 发出去直接就报错了。后来我问了技术支持才搞明白, 这根本不是我操作错了,是这个刚开源的初识版本本身就还没开发语音识别功能,原声只支持文本输入,不支持语音消息处理,属于版本本身的功能缺失,咱们普通人根本改不了,只能等官方后续更新版本。 整个折腾下来,我最大的感受就是这个工具真的只适合技术爱好者,懂代码的专业人士拿来测试学习。 对咱们这种只想拿它来干活、写文案、做内容的普通创作者来说,真的不建议。现在着急上手,到处都是没说明白的细节,不知道下一步 就会不知道下一步哪就会报错,时间全花在调试上了。有这功夫,用豆包、 deepsafe 那 些都写完好几篇文章了 其实,呃,跟我之前测的 mini max agent 一 样,这些新出的智能体对懂代码、懂逻辑的专业人士来说确实自由度高,很好用,但对咱们普通人来说,真的是步步都有门槛,体验感很不好。 最后给想试的朋友提三个新手一定会遇到的问题,大家记好避坑。第一,普通小白别轻易碰,本地部署操作门槛非常高。第二,开通密钥一定要开大模型专用的,别只开编程密钥。 第三,当前版本不支持语音识别,别在这上面白瞎白费功夫。给咱们普通人一句实在的建议,想玩这些新的 ai 智能体真的不用着急,再等等,等他们出了正式版本,功能完善了,哪天 咱们在应用商店里直接能下载到了再去用也不迟,现在跟风折腾,最后大概就是浪费时间浪费精力,还没办成事。 嗯,接下来我也会回归内容本身,把我用 ai 写头条、做自媒体的真实心得和实用技巧毫无保留的分享给大家。想跟着一起用 ai 做自媒体,少走弯路,不瞎折腾浪费时间的点个关注,咱们一步一步慢慢走。

不废话,三种方式部署,抠破,看看哪个更适合你。第一种,阿里云计算潮,一键部署,全程网页操作,不用写代码,不用配环境,三分钟上线。适合中小企业和不想折腾技术的团队,主打一个省心稳定,但需要支付少量的云服务器费用。 第二种, dawk, 本地私有化部署,数据完全掌握在自己手里,不出内网,配合本地大模型还能断网运行。适合程序员、即客和对隐私有极致要求的机构。缺点是门槛高,你得懂 linux, 懂 dawk, 还得自己维护升级。第三种,无影云电脑镜像部署, 就像在远程桌面上装个软件,双击图标就能用,拥有完整的桌面操作体验,适合习惯图形化界面,想要专属 ai 工作台的个人用户。不过要注意,云电脑是独占资源,长期挂机成本略高于纯服务器。 总结一下,怕麻烦,求稳定,选计算潮,懂技术,重隐私,选刀客,要体验像用软件选无影。还是那句话,适合你的才是最好的,有需要的可以找我,关注我,让 ai 更好的服务于你。

我给不懂编程英语的小白老板做了一个适配 openclaw 用的 scale 的 技能的工作流可适化生成器,用对话的方式让 ai 帮你创建 scale 工作流,修改工作流,用通俗易懂的语言描述每一个节点, 可单个卡片测试查看,让 ai 修改器功能,并且支持导入他人的 scale, 生成可适化的工作流卡片。每个卡片都有注视,可以进行二次创作。比如创作一个短视频自媒体自动运营的 scale, 让它每天早上九点起 取运营说明书,同时解决热点跟竞品的分析。写脚本,生成视频,加字幕,某抖某号某音的分别剪辑, 多平台分发,然后会合发布汇总,处理用户的评论,分析用户的数据,生成运营日报,一目了然,没有任何深测难懂的词汇,老板可以轻松上手。晚上直播间会演示老板如何根据自己的工作业务创建自己的 skill 技能。最近开始内测,名额有限,有实际业务的老板优先。

好,今天我们来聊一个特别有意思的东西,叫抠炮。它可不是一般的 ai, 而是一个承诺,完完全全属于你,只为你一个人服务的个人 ai 助理。 哎,听起来是不是超酷的?来,我们就来看看它到底特别在哪?哎,你想过没有,要是你的 ai 助理,它不再是那种大家都用的冷冰冰的云端机器人,而是, 嗯,一个真正懂你的,只为你一个人服务的私人主力,那种感觉会怎么样?这其实就是 coco 想要解决的最核心的问题,怎么让 ai 真正的彻底的变成你自己的东西? 那么 coco 是 怎么做到的呢?它的答案其实就藏在这三个关键点里,你看啊,首先,它直接跑在你的电脑上,这意味着你的所有数据都牢牢地攥在自己手里,绝对私密,绝对安全。 其次呢,它能跟你平时用的那些 app 无缝对接,你根本不用换地方。最关键的一点是,它有个会成长的记忆系统,你用得越久,它就越懂你,简直就像跟你一起进步一样。好,那咱们就先从它的第一个超能力说起,就是无处不在。 copykn 的 设计理念说白了,真的特别简单,就是让你在哪儿干活儿,它就跟到哪儿,在你最熟悉最顺手的地方,就能随时叫它帮忙。 比如说吧,你平时工作用钉钉飞书对吧?或者跟朋友在 discord、 qq 上聊天,甚至是用苹果的 imessage co part, 都能在这些地方直接跟你对话。当然,它也有自己的网页界面儿, 关键就在这儿,你根本不需要为了用这个 ai 去改变自己已经习惯了十几年的工作方式,它来适应你,而不是你去适应它。 你看这句话,就把这个理念说得特别透彻。你在钉钉里艾特他,他就在钉钉里回你。你在 discord 里问,他就在 discord 里答,就这么简单,就这么直接。这样以来, ai 就 不再是一个你得特地跑去打开的工具了,它成了你日常聊天的一部分,多自然啊。 不过啊,如果你以为抠炮就只是个会聊天的机器人,那可就想的太简单了。它真正的厉害之处,它的力量源泉,其实来自一个叫做技能的核心系统。 这个技能是什么呢?你可以把它想象成一个个的能力插件,就像乐搞积木一样,需要什么就插上什么。就是这些小小的模块,决定了抠炮到底能干什么。他们给抠炮装上了手和脚,让他能真正的去处理现实世界里的各种任务。 就拿他自带的一些技能来说吧,就已经非常能打了。你想想看,你可以直接扔给他一个几十页的 pdf 说,诶,帮我总结一下,或者在聊天框里,直接让他帮你处理 word、 excel 文件,查个今天的新闻头条,甚至去管理电脑底层的定时任务。 所有这些听起来很复杂的操作背后,都是这些技能在发力好。有了这么多技能,这个助理已经很能干了,但一个顶级的助理,可不能光等着你发号施令,对吧?他还得会主动干活儿。这就要说到抠炮的自动化功能了, 它能让你的 ai 从一个反应者变成一个行动派。要实现自动化呢,抠炮给你准备了两个工具, 一个叫心跳,听着挺有意思的。另一个呢,就是我们程序员朋友很熟悉的定时任务,也就是 cron, jobs。 这两个东西啊,用途完全不一样, 它们到底有啥区别呢?你看这个表就清楚了,心跳呢局只能有一个,它就像一个闹钟,定期响一次,干一件固定的事。比如说,你可以让它每半小时检查一下系统状态,然后给你个总结。 而定时任务就灵活多了,你可以建一大堆,每个任务都有自己的时间表,想干啥都行。比如你可以设一个任务,每天早上九点准时把天气预报发给你,再设一个每周五下午帮你整理下载文件,懂了吧?一个简单粗暴,一个精细灵活, ok, 接下来要说的这个功能,可以说是直接命中了现在所有大语言模型的一个超级碰点。 我们都知道 ai 记性不好,聊着聊着就忘了前面说的啥。那么一个能真正记住事儿的 ai, 到底是怎么解决这个上下文框限制的难题的呢? 这儿有个比喻,我觉得特别形象,你就把大模型的那个上下文框口啊,想象成一个背包,你跟他聊天,每说一句话,就往这个背包里塞点东西,聊得越多,塞得越多,很快这个背包就被塞满了。 那塞满了怎么办呢?只能把最早放进去的东西给扔掉,给新东西腾地方,所以 ai 才会忘事儿啊。 coco 的 解决望访呢,就俩字儿,压缩。你看这几个步骤,它就像一个特别会整理背包的收纳大师。 第一步,眼看这背包快满了,对吧?第二步, coco 就 自动开始整理了,它会做什么呢?第三步,它会把最底下最旧的那些聊天记录拿出来看一看,然后提炼成几句关键的摘药。 最后一步,他把那些啰嗦的原文扔掉,只把这个浓缩版的摘药放回背包底部。哎,这下不就腾出好多空间了吗?但这还没完呢,这种压缩解决的是短期记忆问题,那真正重要的东西,比如你们讨论定下来的一个重要决定,或者一个关键数据怎么办? coco 会把这些东西单独存到你本地的 markdown 文件里,这就厉害了,这相当于给你的 ai 建立一个永久的还能搜索的长期记忆数据库,这下它就真的忘不掉了。 功能这么强大,那我们怎么去控制和管理它呢? coco 给你提供了两个入口,你可以把它想象成一辆车的仪表盘和引擎式,一个给深入调教用。 这两入口呢,具体来说就是一个是网页版的控制台,另一个就是我们熟悉的命令行界面儿,一个看着舒服,点点鼠标就行。另一个呢,就是给高手用的,追求极致的效率和控制力。 这个网页控制台就是那个仪表盘,它界面非常友好,一目了然,你可以在这里跟 ai 聊天, 管理你接进来的钉钉啊, discord 这些渠道,用图形界面去创建咱们前面说的定时任务,还能像开关一样起用或者禁用各种技能,甚至更换它背后的大模型。 基本上你日常能想到的所有操作,在这里点点鼠标都能搞定。那命令行呢,就是引擎式了,这是给那些喜欢掀开引擎盖儿自己动手的人准备的,他提供的最直接最底层的控制权。 你看屏幕上这条简单的命令, copy models list, 敲下去,回车,所有能用的模型立刻就列出来了,没有任何多余的东西。这就是命令行的魅力,精准、高效、强大。 讲到这啊,我猜你是不是已经有点手痒,想自己上手试试了?别急,好消息是在你自己电脑上把它刨起来,简直不要太简单。来,我们看看总共分几步, 真的就三步,你记一下。第一步,打开你的终端,敲 pipe install coopaw, 把它装上。第二步,敲 coopaw in it, 它会帮你把所有需要的文件都准备好。第三步,也是最后一步,敲 coopaw, app 启动服务搞定,就是这么简单。 现在一个完完全全属于你的个人 ai 助理已经在你的电脑上开始工作了。好了,现在轮到你了, 当你真的拥有了这么一个强大的,绝对私密的,而且永远不会累的个人助理之后,你可以好好想一想,你第一个想要让他帮你自动搞定的事情,究竟会是什么呢?