粉丝30获赞747

欢迎来到 coco 聊天室,今天讲如何部署 ai 模型, coco 有 多种 ai 模型部署方式,满足不同用户的需求,先容小白优先推荐奥莱玛本地部署奥莱玛如何获取? 在我主页 coco 聊天室中即可获取安装包与教程。下载完成之后,在奥拉玛模块中点击设置,在弹出的窗口中确认 url 正确, a p i 没空即可。然后点击模型,在弹出的窗口中点击自动获取模型 并测试,连接完成后即可正常使用其他 a p i。 以 mini max china 为例,点击设置,在弹出的窗口中输入 a p i, 在 mini max 官网中获取个人 a p i 并复制, 完成后将 a p i 填入对话框中,完成后点击模型,选择对应的模型,点击测试链接,接通后即可在聊天界面选择相应的模型进行使用了。别忘了点赞加关注,我们继续聊酷跑!

这个国产龙虾 coco 是 一点也不输 open call 啊,兄弟们,上次讲了它可以轻松的一键完成部署,对国内的用户是非常的友好。这次啊,我没写一行代码,就把我之前一个项目里的功能就是一键下载视频和转文字的功能做成 skill, 方便我用手机调用。先看一下最终效果啊, 当我刷到一个比较好的视频,就比如这个,我点击分享,然后复制链接,然后在我配置好的钉钉里粘贴发给我的大龙虾。好,龙虾已经开始工作了,我加速播放一下, 好,可以看到啊,龙虾告诉我视频已经下载好了,现在开始转写。 ok, 转写完了,我们看一下转写的内容啊,有一些错别字能接受,相当能接受,对吧? 好,接下来我就演示一下我是如何一行代码都没有写,就把这个功能做成 copop 的 skill 的。 我们先点击 coco 左侧的技能菜单,先看看 coco 默认的技能是怎么设置的,就比如这个最常用的 d o c x。 大 概的翻阅了一下,它其实也是用 python 写的一个工具,然后再用文档声明它的使用方式。 ok, 我 们复制这个文档作为参考范本。好,打开我的项目,把刚刚复制的文本粘贴到一个文件里,引用这个文件直接问 ai, 这是 coco 里的一个技能,我希望把我们的一键下载视频并转写文字的功能也做成一个 skill, 是 否可行? ok, ai 开始思考了,这里不耽误大家的时间,我就直接跳过这个过程,看看 ai 是 怎么回答的, 太可以了,而且非常适合做成 skill, 只需要把什么时候调用,怎么调用?常见失败如何处理?固化成规范即可。而且 ai 和贴心的已经帮我完成了文档。好,我们直接把 ai 生成的 skill 点 m d 的 内容复制出来,粘贴给 coco, 告诉他这是一个一键下载视频并转写文字的 skill。 ok, ai 开始思考,大概 two thousand years later? 开玩笑啊,应该也就几分钟。 coco 告诉我,现在已经可以把这个技能完全集成到我的 coco 工作区了,可以随时调用好。我还需要继续编排一个工作流,问一下 ai 是 否可以为我增加一个流程?如果我在钉钉上发送一个视频的分享文本,你就自动下载并转写,然后把转写的结果发给我。 ok, 等待 ai 处理好的 ai 说已经帮我部署好这个自动化流程了。怎么样,兄弟们?全程没有写过一行代码,甚至一行配置都没有写,就可以把以前开发过的功能直接添加成 copilot skill, 而且中间完全没有遇到任何困难。 顺便说一下,我那个项目也是一行代码都没有写,全是 ai 完成的。 ok, 建议各位收藏起来啊,试试给你的龙虾装上手脚。各位有什么疑问或者是后面希望交流什么内容可以评论区留言,我会尽可能的回复大家。

哈喽,大家好呀,本期视频教大家如何本地,不求扣怕。首先我们需要先下载 python, 官网写着 python 版本要大于等于三点一零,小于三点一四,我们按 win 加二输入 cnb 后回车, 再输入拍放空格杠 v 查看已安装的拍放版本,如果版本合适就可以跳过这一步,没安装的可以到拍放官网下载。视频中所有链接均放在简介评论区置顶,大家可以直接去附近, 我们打开拍放官网,点击 downloads 跳转到特定版本页面往下滑,找到一个大于等于三点一零,小于三点一四的版本,这里我选择三点一一三, 我们鼠标点击三点一一三往下滑,根据你自己的电脑选择安装和系版本,我这里选 win 六四,下载好后双击打开,勾选 add python exe to pass, 然后选择直接安装到末列位置。 安装好拍放后按 win 加 i 打开 cmb, 然后用我评论区置顶的清华大学开源软件镜像架下载。安装完成后,我们输入 koopw i need 杠杠 default 进行 koop, 默念出息化 这里他问我们是否已阅读并接受像素安全息机,我们即刻按回车出息化完成,输入 koop app 启动, 接着鼠标腹记端口地址粘贴到浏览器回戳,这样我们就将 koop 本地部署到电脑上了。 部署成功只是第一步,想让 koopw 真正成为你的得力救小,还需要做一些简单的配置。我们点击左下角模型,先接入下一级创建的 apikey 试试,点击 modelscope 下方的设计粘贴你的 apikey, 忘记了的可以去摩达杠首页访问控制里重新复制,在 l m p g 这里提供箱选择 model scope, 模型选择千问,然后保存。 回到聊天窗口新建聊天,可以在这里跟他对话,让他帮你干活了。需要注意的是,因为有 token 官网或者豆包官网就行,那里是免费的,速度还快,嘻嘻。 接下来我们教大家如何使用本地不朽的模型,没有 tocan 陷阱,可以自由定制,等速度和能力全靠模型和你的电脑算力的支持。 好了,我们先看看怎么把模型下载到本地。下载模型的渠道有很多,这里我推荐比较简单向朽的两个平台,欧拉玛和 modelscope。 我们打开欧拉玛官网可以看到这里有很多模型,不过不要怕,我们新安交欧拉玛 app, 接下来我会教大家如何选择适合自己模型。鼠标移动到右下角,点击 download 下载 app, 如果下载很慢,可以用我为大家准备的网盘链接下载。 下载好后,先别急着安装,因为欧拉玛和模型会默认安装到本地,我们需要更改它的安章位键,找到安章程序,按 ctrl 加 x 剪切。我在一盘新建了一个 ai 文件夹, 这里会放一些跟 ai 有 关的文件,你们可以根据自己的习惯来创建。将刚才下载的安装程序粘贴到文件夹内,接着新建一个文件夹,并就命名为欧拉玛。我们在文件夹地址栏输入 cmb, 回车输入 o l m s set up e e g e d r 等于加文件加路径,双击进入文件加复制文件加递进,然后粘贴回车接接会跳出一个安装窗口,我们直接进行安装。 解决了 app 的 安装位置,接下来我们更改模型的安装位置,我们在搜索框搜索编辑系统环境变量,打开,然后点击环境变量, 接着在下面点击新建变量名,输入欧拉玛 models 变量级,输入你新建的欧拉玛 model 文件加地址,我的是一 ai 欧拉玛 model, 然后点击确定杠确定,这样我们通过欧拉玛下载的模型位置就更改为你设定的位置了。 好了,我们现在可以打开欧拉玛 app 看一看。欧拉玛 app 为我们提供了一个简单的对话窗口,我们可以在右下角选择模型进行对话,注意,目前是没有下载任何模型的,你选择了模型并进行对话会直接触发。下载 这么多模型,我们怎么知道哪个最适合我们呢?别着急,休息一下马上回来。

养虾热潮风靡网络,如何一键拥有一个贴心能干的 ai 帮手?三分钟教你完成本地搭建同一实验室 coco 相比同类产品的复杂部署, coco 极致简单,只需要三行指令就能完成本地部署。 本期教程视频将涵盖全流程实操演示,不懂编程也能搭建自己的 ai 超级助理安装 coco 到底有多快?看好了,打开官方文档,将这三行命令依次复制到终端,先安装,再配置, 最后启动。看到生成的地址了吗?把它粘贴进浏览器,这就进入 coco 的 控制台了。 下面我们开始配置模型。 coco 支持本地和 api 接入,这里推荐最稳妥的配置方案,在阿里云百面的密钥管理中创建并复制 api p, 回到 coco 的 dash scope 选项,贴上即可。阿里云百链接入超百款模型很多,还能免费体验,大家可以按需配置。接下来让 coco 连上你的手机。以钉钉为例,在开发者后台创建一个机器人应用, 发布后拿到 client id 和 secret, 填回 coco 对 应位置,记得开启 contact user read 权限。 现在在钉钉里搜到你的应用,就能随时开聊了。来,让我们试着做一个科技日报助手看看吧。第一步,装上搜索外挂。我们要用到 m c p, 它就像是调用外部工具的 usb 接口,只需接入 tablie 这个全网搜索神器,复制它的 a p i 密钥,专贴近 coco 看 ai, 瞬间就能联网对齐全网数据了。第二步,配置操作手册。点击创建 skills, 就 像一个操作指南,让 coco 按照流程办事,你可以自己写,也可以导入全网的 skills, 在 这里输入名称,导入指令搞定。 第三步,实测与自动化。现在只需在对话框下个指令, coco 就 会自动调用工具搜集新闻,并顺着管线直接发到你的钉钉上。 嫌每天发指令麻烦,直接告诉他,每天早上九点准时推送到这里,一个运行在本地手机随叫随到的 ai 助理就搞定了。 如果你想进阶尝试本地模型,安装更多实用插件 skills, 或者让 coco 彻底接管你的工作流,欢迎来 coco 社区一起学习与探讨,发掘更多玩法。以上就是本期内容,如果对你有帮助,别忘了点赞收藏支持一下,我们下期再见!

阿里刚开园的 q 泡桌面智能体,我替你们实打实踩坑实测了,一句话总结,咱们普通小白想上手,真的再等等,别着急,跟风折腾。 最开始我想本地部署,跟着豆包给的步骤一步一步来,全程全是代码操作,要配置各种环境,跑好几个网站下载对应的安装包。对我这种不懂小代码的小普通小白来说,真的巨复杂, 前前后后折腾了快两个小时,最后还是因为环境不兼容,直直接卡死,只能彻底放弃。然后我就去试了阿里云官网标注的五分钟一键部署,结果踩的坑一个接一个。首先就是大家最关心的费用问题, 别看模型本身是开源免费的,但实际用起来有不少消费调用大模型需要开通阿里百链服务,首月套餐七块九,包含一万八千次请求。这个倒是不贵, 但想在云上部署,必须租赁阿里云服务器,我选了最基础的入门配置,最低要先充值一百块,按量付费,折算下来一小时差不多七毛钱。 这里必须给大家提个醒,也是我自己踩过的坑,这个服务器不是你关机,不用就不扣费了。我折腾完关机放了一晚上,第二天一看啥操作也没做,又扣了好几块。 后来才搞明白,他默认状态下关机还是正常计费,只有手动开启节省停机模式,才能免掉算力部分的费用。而且就算开了这个模式,系统盘的存储费用还是会持续扣除 大家,大家如果只是临时测试用,用完一定要直接删除释放实力,不然钱不知不觉就被扣没了。 呃,钱的事还是其次,最折腾人的是他对咱们普通小白真的不够友好,操作手册的很多关键步骤对新手来说说明不够详细,就比如开通密钥,手册里只提到了开通编程密钥, 我照着操作折腾了半天一直报错,后来问了千问才搞明白,调用大模型需要开通的是大模型专用密钥, 就这一个没说明白的细节,白白浪费了我快一个小时。好不容易部署完成,我把它关联到钉钉上,想着手机上也能随时用,结果刚用第二句就出问题了,我先给他发了个文章链接,让他提炼核心要点,倒是很顺利就完成了。 紧接着我用语音发了一句,把这个内容和要点生成一个 ppt, 发出去直接就报错了。后来我问了技术支持才搞明白, 这根本不是我操作错了,是这个刚开源的初识版本本身就还没开发语音识别功能,原声只支持文本输入,不支持语音消息处理,属于版本本身的功能缺失,咱们普通人根本改不了,只能等官方后续更新版本。 整个折腾下来,我最大的感受就是这个工具真的只适合技术爱好者,懂代码的专业人士拿来测试学习。 对咱们这种只想拿它来干活、写文案、做内容的普通创作者来说,真的不建议。现在着急上手,到处都是没说明白的细节,不知道下一步 就会不知道下一步哪就会报错,时间全花在调试上了。有这功夫,用豆包、 deepsafe 那 些都写完好几篇文章了 其实,呃,跟我之前测的 mini max agent 一 样,这些新出的智能体对懂代码、懂逻辑的专业人士来说确实自由度高,很好用,但对咱们普通人来说,真的是步步都有门槛,体验感很不好。 最后给想试的朋友提三个新手一定会遇到的问题,大家记好避坑。第一,普通小白别轻易碰,本地部署操作门槛非常高。第二,开通密钥一定要开大模型专用的,别只开编程密钥。 第三,当前版本不支持语音识别,别在这上面白瞎白费功夫。给咱们普通人一句实在的建议,想玩这些新的 ai 智能体真的不用着急,再等等,等他们出了正式版本,功能完善了,哪天 咱们在应用商店里直接能下载到了再去用也不迟,现在跟风折腾,最后大概就是浪费时间浪费精力,还没办成事。 嗯,接下来我也会回归内容本身,把我用 ai 写头条、做自媒体的真实心得和实用技巧毫无保留的分享给大家。想跟着一起用 ai 做自媒体,少走弯路,不瞎折腾浪费时间的点个关注,咱们一步一步慢慢走。

养虾热潮风靡网络,如何一键拥有一个贴心能干的 ai 帮手?三分钟教你完成本地搭建 coco 相比同类产品的复杂部署, coco 极致简单,只需要一条指令就能完成本地部署。 本期视频教程将包含全流程实操演示,不懂编程的也能搭建自己的 ai 超级助理。为了让 coco 和手机端协同,这里以钉钉为例,在开发者后台创建一个机器人应用,创建完成后,记得要发布 配置好机器人,接下来开始安装 coco。 安装 coco 到底有多快?看好了,只需要三步,第一步,通过一条命令安装 a few minutes later。 第二步,通过报错信息再配置环境变量。 第三步,启动相关服务, 看到商城的地址,打开粘贴到浏览器,这就进入 coco 的 控制台了。 下面我们开始配置模型。 coco 支持本地和 api 接入两种方式,这里我们选择 api 方式,接入质朴清严的大模型。 需要正确的大模型请求 url 地址, 去找我们发布成功的机器人的 client id 和 secret, 回填 coco 对 应的位置。 现在在钉钉里搜到你的应用,就能随时开聊了。 来,让我们通过手机下发指令,帮我们整理下电脑桌面上的文件吧。 最后效果很不错,符合我们的要求。到这里,一个运行在本地手机随叫随到的 ai 助理就搞定了。如果你想安装更多实用的 skus 插件,或者让 coco 接管你的工作流,帮你落地。更多实用的案例,欢迎点赞关注我们,下期再见!

重磅消息!阿里巴巴刚刚开源了一款颠覆性的 ai 工具,抠帕个人智能体工作站。这款工具能让开发者轻松打造跨平台 ai 助手,而且完全支持本地运行。 这款名为 coco 的 开源项目已经在 github 上发布,采用 a patch 二点零许可证。最惊人的是,它能让一个 ai 助手同时在钉钉、飞书、 qq 等多个平台上运行。更厉害的是,它既支持云端 api 调用,也能在苹果芯片设备上完全本地运行, 彻底摆脱对云服务的依赖。技术亮点在于其模块化设计,开发者可以像搭积木一样自由组合各种功能,安装也超级简单,只需一条命令就能完成本地部署。阿里云透露, 未来版本还将加入语音视频交互功能,实现真正的多模态体验。就在一周前,阿里巴巴还发布了四款千问三点五中型模型,其中三五 b a 三 b 模型尤为惊艳, 每次调用仅激活三十亿参数,性能却超越了上一代两百三十五亿参数的模型。一百二十二 b a 幺零 b 模型更是支持百万级上下文长度被社区拿来与 g、 p、 t 五 mini 相提并论。阿里巴巴 ai 布局正在全面提速,从三千九百七十亿参数的旗舰模型, 到支持两百零一种语言的多语言能力,再到与英伟达的深度合作,这家中国科技巨头正在 ai 赛道全力冲刺,可以预见,这场 ai 竞赛将越来越精彩。

opencall 不是 那种再来一个聊天框的 ai 工具,而是一个运行在本地设备的个人 ai 助手网关。它的核心逻辑是用一个中心网关把常用的消息服务直接连接到 ai calling agents。 简单来说,它不是让你去适配 ai, 而是把 ai 养进你最习惯的消息生态里,让它在后台替你办事,而不是单纯的开个窗口聊天。 对于第一次上手的人,最推荐的安装方式是执行 alama launch openclaw 这条命令最关键的地方在于它把整个流程全部自动化了,从环境安装、安全提示到模型选择,甚至连网关守护进程和搜索插件都帮你配置好了。这是目前最不容易翻车的路径, 能让你直接跳过复杂的环境配置,进入使用阶段。如果你更倾向于标准的安装流程,可以使用官方提供的安装脚本,直接在终端执行 curl 命令即可完成部署。这适合那些希望快速安装但又想遵循官方标准路径的用户。 如果你需要完全掌控安装过程,可以走手动安装路线。首先通过 mpm 局安装最新版 openclo, 然后执行 armo 的 命令安装守护进程。 这里要注意环境要求,推荐使用 node 二十四版本,二十二点一四以上也可以。系统方面,虽然三大平台都支持,但 windows 用户强烈建议在 wsl 二环境下运行,这样稳定性更高。 最后一定要跑一遍 version doctor 和 gateway status 这三个验证命令,确保网关状态正常,避免后续配置时出现莫名其妙的报错。安装完成后,首先执行 opencloud channels login 完成身份验证, 接着运行 openclock gateway, 并指定端口幺八七八九来正式启动网关。启动后,你可以通过浏览器访问一二七点零点零点一端口幺八七八九进入本地管理仪表板,所有的核心配置都存储在用户根目录下的 openclock 及 java 文件中。到这一步,你面对的就不再是一个简单的本地模型, 而是一个能够接管多种消息入口的 ai 网关。这里必须强调 opencloud 的 安全逻辑,它采用的是单用户信任模型,而不是那种多人共用的共享总线设计。这意味着它假设使用者是唯一可信的人。如果你把一个带有工具权限的 agent 开放给多个互不信任的用户, 任何一个人都能在权限范围内影响这个 agent 的 行为。为了避免这种情况,最稳妥的办法是在操作系统、用户主机或者网关层面做物理隔离,确保每个人拥有独立的运行环境。 接下来是关于插件的严重警告。 openclaw 的 插件是以 in process 方式加载的,这意味着插件运行时的权限和 openclaw 主进程完全一样。简单来说,安装一个不明插件就相当于把一段未知代码直接接到了你的网关大脑里, 它能做你系统里所有 openclaw 能做的操作,所以千万不要随意尝试陌生插件。建议在配置文件中使用 bug 四段,把可信的插件 id 盯死,只允许运行白名单内的代码。 最后,在性能配置上有两个关键点,第一,本地模型的上下文窗口至少要设为六十四 k, 否则在处理复杂的消息线程时, ai 会很快忘记之前的对话内容。 第二,如果你想让 ai 具备联网搜索能力,除了安装 web search 插件外,还必须先执行 olama sign in 完成认证。只有满足了足够的上下文和正确的认证,这个网关才能真正稳定地获取实时信息并维持长对话。 为了让新手能稳步上手,建议把部署分成几个阶段,第一天,先用 alamo watch opencloak 把基础环境跑通。第二天,不要急着接太多平台,先通过 configure 命令连接一个你最常用的消息渠道,确保链路畅通。 第三天,进入权限收束阶段,你需要修改 opencloak json 文件,设置 allow from 次段和 main 规则, 防止网关被无关人员随意触发。第四天,执行深度安全审计,运行 security audit deep 命令检查潜在漏洞。如果发现问题,直接加上 fix 参数进行自动修复。只有完成了审计,这个 ai 助手才算真正安全。 如果你处于共享私信或者共享收件箱的复杂场景,需要特别注意绘画隔离,这时需要配置 session csv 参数,将其设置为 per channel peer 或者 per account peer, 这样可以确保 ai 在 处理不同用户的消息时,绘画记录是完全隔离的,不会出现信息穿线的情况。

我是大厂研发工程师张飞,欢迎来到张飞 ai 开发实验室。本次我们讲一下这个我根据 coco 阿里的 coco 去开发的一些功能,大家比较关注的一些多角色智能体,就像 open class 一 样的功能,我已经放到我的一个个人的 github 的 一个网址 link 就是 我的一个网址, coco 就是 这个项目名。大家点击到这个切换这个 z g l branch, 最后点击这个 code, 下边有个 down load 的 这个包,就可以把这个包下载下来。下载下来之后啊,大家可以用这个字节的 tree 去把它打开,打开项目之后就可以打开这个终端,终端在这里头新建终端,新建终端时候建下来之后 就可以去安装这个包,安装的时候应该大家都知道在这一侧是可以提些问题,比如说去问我该怎么去安装,那我可以简单的去看一下子,它这里有一个 readme 文件,告诉我们哪里怎么去安装开发版主要是这两个开发测试 就是用这个命令,当然大家提前需要进入 python 这个环境当中,进 python 环境当中,我建议大家可以安装 python, 安装 python 之后要输入一个 python 杠, m v e n v m e n v 输入这个命令,那输入这个命令之后呢,就可以在当前的 q pad 的 一个目录下去创建一个 python 的 虚拟环境,这样子它不会影响你整体电脑的一个 排序环境,再输入一个命令就可以进入命令,我新建一个终端演示一下, ok, 这里是已经进入了,那我出去之后再重新进来 e n v scripts 脚本 active 就是 激活虚拟环境, 对,我们就这条命令就可以进入了虚拟环境,激活到虚拟环境之后,就可以用行运行下面的一个 p i p install 这个命令,安装开发版的一个各种个性化的包,然后再进行大家已经知道的抽象,最后再运行那最后这个结果,像这么一个结果运行之后,这样子就开启了一个 后端,我们在等待它打开,打开之后我们点击前端,在前端这种点击智能体管理,点击这里创建一个智能体,你们按照下面提示就可以创建你们所需要的智能体,这里有一个模板,你可以选择自己的模板,也可以选择 自己随意建其他的一个信息就可以创建,创建之后要选择相应的一个激活,激活之后就可以在这里和去聊天或者展示一下子。现在这里我就激活了一个产品经理,我给他激活了个产品经理, 启动的是一个 old strap, 都可以告诉产品经理我的需求是什么,我给他定位是什么,下面就输入给他,他都会保存在独立的一个产品经理这个 workspace 当中。 同时我这里又建了一个市场营销推广,在这里我也给了一些定位,他自己就会建立进去,也是市场营销推广 agent 和这个 安敏经理 agent 两个是独立的工作空间,并且都可以把它配置到这个非输应用当中,这也是开发功能。在非输应用当中,大家知道 上节视频当中给大家讲过有个 app id, 还有一个 app 的 一个 secret, 把这些都配好之后,并且绑定到相应的一个智能体,比如这里绑定到一个是产品经理,一个是绑定到市场营销推广经理, 两个都点击保存,并且两个都去启动,它就可以去使用了。 ok, 这个是绑定到产品经理了,这个应该绑错了,绑这个市场营销推广 a 人的绑。对,我们再点击启动,两种 都启动之后,这样就通过飞书可以和他们分别交流,在飞书当中去拉一个群,你自己加上产品经理,再加上市场推广营销的一个经理,你们三个人可以去讨论,给他们分配不同的任务,并且让他们去讨论。今天讲到这,谢谢大家。

oppo 终于发布了 v 一 点零正式版,控制台换了一种全新的风格,跟之前对比感觉更清爽了。那么接下来让我们一起升级一下,看看有哪些重磅功能。 首先看一下多 agent 系统的优化, agent 执行后台任务,支持通过 background 标志在后台执行 agent 间通信任务,提供任务追踪、状态轮询和取消功能。比如这条命令创建的任务, from agent 代表当前智能体, to agent 代表要调用的智能体, 要用 data process 智能体来分析数据。在最近版本中,多 agent 是 采用懒加载的机制,也就是使用哪个 agent 就 加载哪个 agent。 在 v 一 点零版本上又增加了一个 agent 启停开关,可以通过控制台界面起用或禁用 agent, 这样可以将长时间不用的智能体禁用掉,避免占用资源。禁用后,这个 agent 将不再运行, 还会保留在列表中,直到下一次去起用它。在上个视频中,有位粉丝朋友一语道破靠谱的缺陷,说靠谱最大的问题是不会停工具,只要启动了,没有任何手段让它停下来。现在为一点零增加了统一优先级队列系统和 stop 命令,按通道绘画和优先级分层的队列系统, 支持通过 stop 命令取消运行中的任务,并清空排队消息。另外,聊天输入框支持斜杠显示命令建议。 coco 为一点零版本增加了 coco 本地模型,内置拉玛 c p p 本地模型供应商安装拉玛 c p p 之后,可以下载小模型到本地,内置了两个小模型,还有自定义模型, 带简单推理任务的智能体可以配置本地小模型,带复杂任务的智能体配置大模型,以此来合理分配资源,避免掏坑浪费。另外在运行配置还增加了 l m 自动城市机制 l m, 并发现流配置、上下文压缩配置、长期记忆配置 以及限量模型的配置。 v 一 点零的靠谱,进一步增强了系统重启与服务控制保护、新增工具守卫的规则、阻止系统重启关机、服务控制、大范围禁重中止和权限提升等危险命令。 在技能安全扫描器中新增中文正则表达式规则,用于检测提示词注入和粤语尝试。这里是内部的机制,页面上是看不到的。 在对接聊天平台功能上增加了个人微信,直接扫码就可以对接微信,通过微信调用拷破的能力。在技能池架构上也做了调整,之前的拷破中智能体之间的技能是隔离的,比如这个,在每日新闻的智能体上增加了技能,在 demo 智能体中就没有。 v 一 点零版本中可以将当前智能体中已安装的技能导入到技能池,切换智能体后,选择从技能池载入, 列出技能池里的技能,可以选择技能加载到当前智能体重。更多版本的功能可以点击更新日期查看,也可以部署升级体验。好了,以上就是本期视频的全部内容了,喜欢我的视频可以点点赞、关关注、评评论,谢谢大家, 我们下期再见!

我研究爆款视频有个固定动作,先把脚本完整爬取出来,再让 ai 分 析和拆解开头钩子以及中间结构。这一步以前很麻烦,现在几十秒就能搞定。我用 coco, 阿里一万新的开源 agent, 再搭配一些 skills, 把这件事自动化了。 今天开源出来,用三分钟演示一下。 coco 是 阿里通用实验室的开源项目,它可以跑在你自己的设备上,本地部署或者上云都可以, 国内常用的消息 app 都支持接入,这里可以随意接入国内其他消息 app。 我 进入了飞书之后,跑了两个内容创作场景,第一个给他一个视频链接,自动拿到竹字稿。我用来研究爆款视频, 因为想要搞清楚一个视频的开头钩子怎么写,中间结构怎么拆,最直接的方式就是把爆款视频的脚本爬取出来,再进行分析。所以我自己做了一个 skill, 可以 看到扔给他任何一个视频的网页链接,他会自动把视频的竹字稿提出来,整理成文本,保存在我的本地。 这个 skill 的 方式其实很简单,就是跟 coco 描述需求,他实现之后,我就让他把这次能力固化下来,固化下来的东西就叫做 skill, 之后任何规划都可以直接调用这个 skill, 不 用再重新描述。另外, coco 装 skill 之前都会进行安全扫描,这块我觉得做的还是挺细的。拿到竹子稿之后怎么分析呢? 之前有一期视频专门分享过我的 ai 内容创作系统,里面详细讲了我怎么用竹字稿拆结构,提炼开头钩子,标题分别配文和选题,感兴趣的话可以看看这期视频介绍,以及我的这些 skill 也已经开源了,项目名是这个。第二个,做一个选择题捕捉器创作者有个很常见的状态, 好想法往往在刷视频、走路、睡前一闪而过,如果没记的话,或许可能就忘了。我设置了一个定时任务,让 call 泡早中晚三次,主动在飞书问我今天遇到了什么有意思的内容或想法,我随手回复,它就会自动追加到选举记录文件里,到晚上再跑一次,把今天的灵感汇总推给我。只需要接入飞书之后设置一个定时任务即可。 安装 call 泡有两种方式,普通用户可以用桌面版,如果是开发者,安装起来就更简单了。在 mac 系统上一好命令,不需要进行任何手动处理就能安装成功, 在本地就能立刻启动项目。最后总结一下,如果你也在找功能丰富的个人 ai 助理, coco 可以 使用一下开源免费。我的自媒体内容创作 skills 也都开源了,直接就能使用。顺便说一下我个人的用法分工,如果你想做更复杂的工作流,比如批量分析热点视频自动出脚本分镜、多平台素材收集之类的, 我是在 cloud code 里做的,那是另一套系统,可以看我的这期视频了解空跑更接近 open cloud, 这种 agent 更适合随时出发的小任务。两个定位是不一样,也欢迎在评论区聊聊,你用 ai 助理时最希望自动化掉哪块工作,我们下期再见,拜拜!

到底有没有一个完全免费的本地运行的 ai 代理?阿里推出 co pub, 让担心使用成本和数据安全的朋友们得偿所愿, 今天就用一分钟带大家体验吧。首先是下载和本地部署模型,先安装 almas studio, 需要教程的进主页查看置顶视频。 接下来在 musego 搜索 copart 杠 fresh 要选择 g g f 格式,一般就是极显,选四 b 杠 two 四独显且显存大于六 g 的 可选九 b 杠 two 四 下载到本地,打开 lms。 二 d o 就是 配置模型参数,加载模型并开启服务,然后去官网下载安装 copart, 然后它支持多种方式安装电脑没有 python 的 选择就是一键安装, 否则使用 p i p 安装成功。启动后在浏览器打开网址,进入 cocore 的 web 界面, opencore 有 的功能 cocore 基本都有, 而且界面配置对新手来说更友好。接下来开始配置模型,右上角切换到中文,左侧点模型,选 l i s studio, 然后发现模型,然后测试连接这个配置成功后可以聊天,开启愉快的玩耍吧!

好的,这边可以看到啊,我在。嗯,无版图系统上用这个拉玛点 c p p。 呃,运行了一个阿里的新模型啊。嗯,叫这个。 然后我们先来看一下简单一个问题吧。嗯,给我讲一道。嗯, 高中几何题。 呃,可以看到这边的速度大概有三十 token, 然后忘记给你们看模型的这个详细页了。它是有六十四 token 啊,不是六十四 k 上下文长度啊。 这,这也是个单位。 tokens 是 个词源的意思, 你看它本身模型占用的大小是五点二三 g b, 然后它的那个参数量呢?是五点,呃,八点九五 b, 就是 将近九十亿的模参数量。哦, 好了,其他没有什么信息了。好,看一下他这边的输出情况。好,可以看到他也是做了一个题目,一个空间几何的题目。嗯,然后用到一些什么相关 相关的一些知识。好的,那我们这边就不过多展示,直接先暂停。嗯,然后我们来到这个,我现在把它接入到了 openclock 龙虾这上面,然后我现在简单的问一下吧, 嗯,你是什么模型 啊?然后我们可以在这边看到它也会输出一些东西的。嗯,目前能看到的是这个可能上下文吧。两万六嘛,二十六 k 嘛。 好了,已经这么多了,三万八。哦,四万了,四万三,四万五。 好,他应该输出完了,你看他说我是这个模型,然后体积小,速度快,他自己介绍了输出速度大概三十多个每秒,在你的这个上面跑成一下。嗯,好的,那 我简单说明一下这个优势在哪里,比如说我昨天呢用了这个 j 码四四 b 模型,他有一个什么问题呢?跟千问的三三点五九 b 有 个同样的问题,就是 你说了一句话之后,他往往没有达到他的目的,就是达到你的目的之后他就停止了, 他就不说话了,可能说你要继续说怎么样了,然后怎么样你要催他,这很这就很麻烦,就用起来体验上效果非常不好。但是这个就不一样,比如说你让他帮忙弄一些事情,他一定会给你一个结果,就是一个结果就是说他弄不了,或者他能弄好,他就让他给你弄好了, 而不是说什么我接下来帮你弄,然后接下来就没弄,然后你问他现在什么进度,然后他开始下一步,下一步,下一步,即使这样子有可能他一直在循环,所以所以他这个这个新模型他好处就在这里。 对,嗯,那我们画看完了,这个龙虾这边我现在还没怎么用啊。我刚刚开始用,现在到这个 open code 这里面啊,我就说帮我,帮我检查一下。 呃。我的文件夹子,呃,下有什么啥内容 好?你看到这边也是马上就开始了, 你看它这是 open code。 open code 什么定位呢?它差不多,就是跟 cloud code 的, 呃,方向差不多。 嗯,但是它好处就是它开源免费,你下载过来你直接连上你的本地大模型,它也可以直接用, 很好用啊。这东西你看 open code 的 可以正常运行。说明什么?有些时候你想在这个电脑上,因为你乌崩兔不一定很熟,是吧?那你就可以用它,用完它之后你就知道 这 open code 的 有什么就是不可替代的地方。呃,至少在我看来 好结束了。

不会选龙虾,阿里的 coop 拍 clock、 could work 有 什么区别?今天一次性给你讲清楚。 could work 为闭源桌面办公 agent, 主打 pc 端全流程办公自动化,无法完全离线运行,面向普通职场人,开箱即用,本土化与合规性突出。 coop 是 开源个人智能体,支持本地部署与轻量化自动化,适合个体从业者与自媒体用户。 highclock 为开源团队协助系统聚焦复杂项目,多 agent 协调流程,可适配开发者与团队场景。 此外,我们提供 opencloud 企业级一站式服务,也可做深度技术支持,有需要欢迎留言。

哎,你最近有没有关注到阿里通译实验室刚出了一个新东西,叫 cocop, 说是能当咱们电脑的全能助手。我刷到过,但没仔细看,听起来就一个普通的 ai 工具。 还真不是,它的定位是个人智能体,工作台二月十四号刚发布的,官方把它叫搭档小爪子,这个名字挺可爱的,那它跟市面上那些 ai 工具到底不一样,在哪啊? 我看了一下啊,它的核心理念是本地优先加云端协同,就说大部分数据都存在咱们自己电脑上,不会随便上传,隐私这块让人放心不少。这个点确实很重要,现在大家对数据隐私越来越在意了,本地部署能解决不少顾虑。 对,而且它的架构很有意思,是基于 agent scope 生态做的,分成了交互层、智能体核心层,还有能力执行层。听起来有点抽象,能不能说直白点? 简单说就是模块化设计,就像搭积木一样,每个部分都能自由组合。就比如他的核心组件里有个 ram 记忆系统,能帮咱们存工作记忆、短期记忆,还有长期记忆,就跟咱们自己的脑子似的。哇,这个记忆系统听起来挺厉害,那他能记住咱们多久前的操作啊? 官方说长期记忆是永久保存的,只要你上周写的文档过了一个月再让他帮你找,他还能记得位置和内容, 这可比我自己记性好多了。那他平时能帮咱们做些什么具体的操作呢?内置的技能挺全的,文档处理、文件管理、浏览器自动化这些都不在话下。就拿文档处理来说,你让他帮你整理会议记录,他能自动提取重点,还能生成思维导图。 这么牛,那要是有他不会的技能,我能不能自己加进去啊?可以啊,他支持零代码创建技能,你在对话里跟他说你想要什么功能,他就能自动生成对应的技能模块,不用懂编程也能操作, 这对咱们这种不懂代码的普通人太友好了。那他怎么部署到电脑上啊?麻烦吗?特别简单,就三个命令就能搞定,先 p i p n store coco pro 安装,然后 coco init 出实化,最后 coco app 启动,新手也能轻松上手。 这么简单,那除了在电脑上用,能不能在手机上跟它对话?当然可以,它支持多频道对话,网关、钉钉、飞书、 qq 这些都能接入,你在手机上发个消息,它就能在电脑上帮你执行操作。 这个跨设备交互太方便了,比如我在外面突然想让他帮我整理电脑里的文件,直接发消息就行,不用特意回家开电脑。对,而且他还有个主动心跳机制,能定期给你汇报工作状态,比如提醒你某个定时任务已经完成了,或者某个文档需要更新了, 这就像有个小秘书一直在帮你盯着,省了不少心。那安全这块除了本地部署,还有别的保障吗? 有啊,它的四五点 m d 文件能定义逻理边界,就相当于给他定了规矩,哪些事能做,哪些事不能做,防止他乱执行命令。这个设计挺贴心的,毕竟 ai 工具,要是乱操作,后果可大可小。那跟 openclog 这些同类产品比,它优势在哪啊? 我对比了一下, copos 在 部署方式上更灵活,既能本地部署,也能云端部署,而且交互渠道更多,支持的聊天软件也更全,记忆系统这块也更完善,能实现真正的长期记忆。这么看来,它确实比同类产品更成熟一些。那它未来还有什么规划吗? 官方说以后会开源,还会生化云原生功能加入多模态增强,比如支持语音和图像交互,还有企业级的功能,比如团队协助之类的。 要是开源了,那大家就能自己定制功能了,可玩性就更高了。你觉得他能不能把 ai agent 从即刻玩具变成普通人能用的生产地工具啊? 我觉得完全有可能,他现在已经解决了很多 ai agent 的 落地的痛点,比如部署复杂、隐私问题、记忆缺失这些,而且操作简单,普通人不用懂技术也能上手,以后说不定能成为咱们电脑里必不可少的一部分。 确实,现在很多 ai 工具都只是看起来厉害,但真正能用起来的不多,抠泡这种能落地的工具才是咱们真正需要的。 对,它代表了个人 ai 阵的新方向,不再是那种只能玩玩的玩具,而是能长期用的生产力工具。以后咱们工作的时候有他帮着处理那些重复的操作,能省不少时间和精力。那我得赶紧去试试,正好最近工作上好多文档要整理,有他帮忙应该能轻松不少。 我已经装好了,用了几天,感觉确实挺顺手的。你要是安装的时候遇到问题随时问我,我给你支招。行,那我回去就试试。这么看来,咱们以后的工作方式可能真的要被这种 ai 助手改变了。 是啊,以后说不定每个人都有自己的 ai 搭档帮咱们处理各种琐事,咱们就能把精力放在更重要的事情上了。

无需复杂配置个人 ai 助理, coco 一 点零下载即用,它能成为你的贴心数字搭档吗?二零二六年三月三十一日,阿里巴巴通译实验室正式推出了 coco 一 点零新版本。这款产品定位为携同个人智能体工作台,只在彻底解决传统 ai 助手安装复杂体验割裂的痛点。 新版本最大的亮点之一是提供了真正下载即用的桌面应用版,用户无需预装拍摄或配置繁琐的环境变量,即可快速上手。 除了极简部署, coco 还强化了其核心能力。它具备长期记忆功能,能够记住用户的习惯与偏好,并像贴心助理一样主动提醒,例如在会议前进行准备。同时,它支持在本地电脑部署以保障隐私,也能一键上云实现便捷访问,实现了本地家云端的统一灵活体验。 产品目前已接入钉钉、 qq 等常用通讯工具,让用户能在日常工作中无缝调用 ai 助理。随着其在 github 上开源,个人 ai 生态的开放共建也将迎来新的发展。