粉丝1.4万获赞8.1万

这个国产龙虾 coco 是 一点也不输 open call 啊,兄弟们,上次讲了它可以轻松的一键完成部署,对国内的用户是非常的友好。这次啊,我没写一行代码,就把我之前一个项目里的功能就是一键下载视频和转文字的功能做成 skill, 方便我用手机调用。先看一下最终效果啊, 当我刷到一个比较好的视频,就比如这个,我点击分享,然后复制链接,然后在我配置好的钉钉里粘贴发给我的大龙虾。好,龙虾已经开始工作了,我加速播放一下, 好,可以看到啊,龙虾告诉我视频已经下载好了,现在开始转写。 ok, 转写完了,我们看一下转写的内容啊,有一些错别字能接受,相当能接受,对吧? 好,接下来我就演示一下我是如何一行代码都没有写,就把这个功能做成 copop 的 skill 的。 我们先点击 coco 左侧的技能菜单,先看看 coco 默认的技能是怎么设置的,就比如这个最常用的 d o c x。 大 概的翻阅了一下,它其实也是用 python 写的一个工具,然后再用文档声明它的使用方式。 ok, 我 们复制这个文档作为参考范本。好,打开我的项目,把刚刚复制的文本粘贴到一个文件里,引用这个文件直接问 ai, 这是 coco 里的一个技能,我希望把我们的一键下载视频并转写文字的功能也做成一个 skill, 是 否可行? ok, ai 开始思考了,这里不耽误大家的时间,我就直接跳过这个过程,看看 ai 是 怎么回答的, 太可以了,而且非常适合做成 skill, 只需要把什么时候调用,怎么调用?常见失败如何处理?固化成规范即可。而且 ai 和贴心的已经帮我完成了文档。好,我们直接把 ai 生成的 skill 点 m d 的 内容复制出来,粘贴给 coco, 告诉他这是一个一键下载视频并转写文字的 skill。 ok, ai 开始思考,大概 two thousand years later? 开玩笑啊,应该也就几分钟。 coco 告诉我,现在已经可以把这个技能完全集成到我的 coco 工作区了,可以随时调用好。我还需要继续编排一个工作流,问一下 ai 是 否可以为我增加一个流程?如果我在钉钉上发送一个视频的分享文本,你就自动下载并转写,然后把转写的结果发给我。 ok, 等待 ai 处理好的 ai 说已经帮我部署好这个自动化流程了。怎么样,兄弟们?全程没有写过一行代码,甚至一行配置都没有写,就可以把以前开发过的功能直接添加成 copilot skill, 而且中间完全没有遇到任何困难。 顺便说一下,我那个项目也是一行代码都没有写,全是 ai 完成的。 ok, 建议各位收藏起来啊,试试给你的龙虾装上手脚。各位有什么疑问或者是后面希望交流什么内容可以评论区留言,我会尽可能的回复大家。

oppo 终于发布了 v 一 点零正式版,控制台换了一种全新的风格,跟之前对比感觉更清爽了。那么接下来让我们一起升级一下,看看有哪些重磅功能。 首先看一下多 agent 系统的优化, agent 执行后台任务,支持通过 background 标志在后台执行 agent 间通信任务,提供任务追踪、状态轮询和取消功能。比如这条命令创建的任务, from agent 代表当前智能体, to agent 代表要调用的智能体, 要用 data process 智能体来分析数据。在最近版本中,多 agent 是 采用懒加载的机制,也就是使用哪个 agent 就 加载哪个 agent。 在 v 一 点零版本上又增加了一个 agent 启停开关,可以通过控制台界面起用或禁用 agent, 这样可以将长时间不用的智能体禁用掉,避免占用资源。禁用后,这个 agent 将不再运行, 还会保留在列表中,直到下一次去起用它。在上个视频中,有位粉丝朋友一语道破靠谱的缺陷,说靠谱最大的问题是不会停工具,只要启动了,没有任何手段让它停下来。现在为一点零增加了统一优先级队列系统和 stop 命令,按通道绘画和优先级分层的队列系统, 支持通过 stop 命令取消运行中的任务,并清空排队消息。另外,聊天输入框支持斜杠显示命令建议。 coco 为一点零版本增加了 coco 本地模型,内置拉玛 c p p 本地模型供应商安装拉玛 c p p 之后,可以下载小模型到本地,内置了两个小模型,还有自定义模型, 带简单推理任务的智能体可以配置本地小模型,带复杂任务的智能体配置大模型,以此来合理分配资源,避免掏坑浪费。另外在运行配置还增加了 l m 自动城市机制 l m, 并发现流配置、上下文压缩配置、长期记忆配置 以及限量模型的配置。 v 一 点零的靠谱,进一步增强了系统重启与服务控制保护、新增工具守卫的规则、阻止系统重启关机、服务控制、大范围禁重中止和权限提升等危险命令。 在技能安全扫描器中新增中文正则表达式规则,用于检测提示词注入和粤语尝试。这里是内部的机制,页面上是看不到的。 在对接聊天平台功能上增加了个人微信,直接扫码就可以对接微信,通过微信调用拷破的能力。在技能池架构上也做了调整,之前的拷破中智能体之间的技能是隔离的,比如这个,在每日新闻的智能体上增加了技能,在 demo 智能体中就没有。 v 一 点零版本中可以将当前智能体中已安装的技能导入到技能池,切换智能体后,选择从技能池载入, 列出技能池里的技能,可以选择技能加载到当前智能体重。更多版本的功能可以点击更新日期查看,也可以部署升级体验。好了,以上就是本期视频的全部内容了,喜欢我的视频可以点点赞、关关注、评评论,谢谢大家, 我们下期再见!

哈喽,大家好呀,本期视频教大家如何本地,不求扣怕。首先我们需要先下载 python, 官网写着 python 版本要大于等于三点一零,小于三点一四,我们按 win 加二输入 cnb 后回车, 再输入拍放空格杠 v 查看已安装的拍放版本,如果版本合适就可以跳过这一步,没安装的可以到拍放官网下载。视频中所有链接均放在简介评论区置顶,大家可以直接去附近, 我们打开拍放官网,点击 downloads 跳转到特定版本页面往下滑,找到一个大于等于三点一零,小于三点一四的版本,这里我选择三点一一三, 我们鼠标点击三点一一三往下滑,根据你自己的电脑选择安装和系版本,我这里选 win 六四,下载好后双击打开,勾选 add python exe to pass, 然后选择直接安装到末列位置。 安装好拍放后按 win 加 i 打开 cmb, 然后用我评论区置顶的清华大学开源软件镜像架下载。安装完成后,我们输入 koopw i need 杠杠 default 进行 koop, 默念出息化 这里他问我们是否已阅读并接受像素安全息机,我们即刻按回车出息化完成,输入 koop app 启动, 接着鼠标腹记端口地址粘贴到浏览器回戳,这样我们就将 koop 本地部署到电脑上了。 部署成功只是第一步,想让 koopw 真正成为你的得力救小,还需要做一些简单的配置。我们点击左下角模型,先接入下一级创建的 apikey 试试,点击 modelscope 下方的设计粘贴你的 apikey, 忘记了的可以去摩达杠首页访问控制里重新复制,在 l m p g 这里提供箱选择 model scope, 模型选择千问,然后保存。 回到聊天窗口新建聊天,可以在这里跟他对话,让他帮你干活了。需要注意的是,因为有 token 官网或者豆包官网就行,那里是免费的,速度还快,嘻嘻。 接下来我们教大家如何使用本地不朽的模型,没有 tocan 陷阱,可以自由定制,等速度和能力全靠模型和你的电脑算力的支持。 好了,我们先看看怎么把模型下载到本地。下载模型的渠道有很多,这里我推荐比较简单向朽的两个平台,欧拉玛和 modelscope。 我们打开欧拉玛官网可以看到这里有很多模型,不过不要怕,我们新安交欧拉玛 app, 接下来我会教大家如何选择适合自己模型。鼠标移动到右下角,点击 download 下载 app, 如果下载很慢,可以用我为大家准备的网盘链接下载。 下载好后,先别急着安装,因为欧拉玛和模型会默认安装到本地,我们需要更改它的安章位键,找到安章程序,按 ctrl 加 x 剪切。我在一盘新建了一个 ai 文件夹, 这里会放一些跟 ai 有 关的文件,你们可以根据自己的习惯来创建。将刚才下载的安装程序粘贴到文件夹内,接着新建一个文件夹,并就命名为欧拉玛。我们在文件夹地址栏输入 cmb, 回车输入 o l m s set up e e g e d r 等于加文件加路径,双击进入文件加复制文件加递进,然后粘贴回车接接会跳出一个安装窗口,我们直接进行安装。 解决了 app 的 安装位置,接下来我们更改模型的安装位置,我们在搜索框搜索编辑系统环境变量,打开,然后点击环境变量, 接着在下面点击新建变量名,输入欧拉玛 models 变量级,输入你新建的欧拉玛 model 文件加地址,我的是一 ai 欧拉玛 model, 然后点击确定杠确定,这样我们通过欧拉玛下载的模型位置就更改为你设定的位置了。 好了,我们现在可以打开欧拉玛 app 看一看。欧拉玛 app 为我们提供了一个简单的对话窗口,我们可以在右下角选择模型进行对话,注意,目前是没有下载任何模型的,你选择了模型并进行对话会直接触发。下载 这么多模型,我们怎么知道哪个最适合我们呢?别着急,休息一下马上回来。

欢迎回来,精彩继续! 哈喽,大家好呀,上期视频教了大家如何本地部署扣炮,并且安装了欧拉姆 app, 那 么这期视频就带大家一起看看如何安装适合自己电脑配置运行的模型。话不多说,直接来吧! 首先我们得先知道自己电脑配置运行的模型。话不多说,直接来吧!首先我们右键任务栏空白处,点击任务管理器, 或者按下 c r t, 加 shift 加 esg, 然后点击性能,这里就会显示我们的 cpu 内存, gpu 是 什么。比如我用的这台电脑是 r i x 三千零七十 t 一 六 g, 显存内存三二 g。 然后我们可以右键将我们的配置复制下来。 接着打开 deepseek 官网,粘贴刚才腹肌的内容,问他,你好, deepseek, 我 想要在本地部署 ai 模型,通过 copout 让他帮我自动即兴文件清理桌面等我已经安装好了 olame app, 但是我不知道我的配置能够运行什么模型, 请你帮我分析一下我的配件,然后推荐一些适合我本地不朽的模型给我,再次感谢。然后 deepsea 就 会给你修出一些适合你安装的 ai 模型, 因为你在提系词里填了 olamma app, 所以 它可能还会给你提系安装方法,复制 deepsea 推荐的模型,然后去 olamma 官网模型界面搜索, 我们点击这个 gpt 模型,在这里可以看到它的下载量,更新时间以及详细介向往下滑,还可以看到模型的各个量化版本,基本上我们就选择一个最接近我们显存大小的版本,比如这里我就选择下载了 gpt 杠 os 二零 b, 它的内存只有一四 g, 我 的电脑是可以很快速运行的,它还支持一二八 k 的 向下文,但是只支持文本输入。 我们再换一个 q n 三点五看看,它有很多量化版本,而且五天前才更新,性能强大。可以看到零点八 b 的 模型尺寸只有一 g, 但是机器二五六可以向下纹,还机器图像输入,可以学习,非常强大了。 当你选定了几个模型又犹豫不决时,可以将这些模型的名称复制下来,然后粘贴给 deepseek, 再加上你的需求,问他你应该选择哪个,他会为我们详细介绍每个模型的优缺点,再根据我们的需求为我们选择比较契合的模型。 然后我们就可以挑选二到三个和系的去强行安装了。比如我想安装 q one 三五比零八 b 这个模型,我们直接复制名称,然后打开 cm, 输入欧拉玛 pro q one 三五比零八 b 回车,然后模型就会开始下载了。 当模型下载好后,就会自动放到我们之前设计的路径里,这里刚开始可能是正向速度下载,过一会就会降到几 kb。 不要怕,我们先点击窗口,然后按下 control 加 c, 就 会打断下载,接着选中并 control 加 c, 复制刚才那条下载命令,直接 control 加 v 回车,可以看到下载速度又正常了。 我们可以输入 olama list, 查看已安装的所有模型。模型安装好后,第一件事情肯定是先细细它的所有模型。模型安装好后,第一件事情肯定是先细细它的所有模型。我们打开 olama app, 点开设计, 将最底下的 context link 拉到二五六 k, 发挥出这个模型机器的最高象限,同时模型运行所需要的算力也会增加。然后回到聊天界面,跟你的新模型打个招呼。这个模型机器图像和文字,所以我们还可以点击习字按钮添加一张图片。 由于这个 app 只是个聊天窗口,没办法控制我们的电脑,我们打开 cd 输入的地址,粘贴到浏览器, 回到扣怕页面,然后点击左下角模型,将提供箱换成欧拉玛模型,选择刚才刚安装好的 q n 三五比零八 b, 然后就可以跟他对话,问他有什么技能让他帮我们的忙了。 好了,恭喜你学会了简单的欧拉玛模型下载。接下来我们来看看难度稍微高一点的模型下载方法,它可以更自由地选择模型量化版本,压架你的性能象限,或提供更流程的运行,还能给你的模型加入一点个人调味料。 我们打开摩达官网,找到模型库,然后我们选择 g u f。 模型的格式有很多, 不过你想要在 copw 运行这个模型,就需要将下载的 gduf 格式模型转化。我们搜索 qwind 三五比零八 b, 然后点击后置带 gduf 的 模型,这里有很多这个模型的详细信息,感兴趣的可以自己研究一下。 点击模型文件往下滑,可以看到这里有很多量化版本,还有一些欧拉玛官网没有修路的版本。这些 q 四 k m i q 四 ax 是 什么?看起来就复杂,别怕,我们直接复制,然后丢给 ai, 问他这些字符是什么意思。接着 ai 就 会像叫你学 abc 一 样,告诉你它们的含义。 回到模型文件这里,我们选择一个和系自己的下载下来,如果下载的很慢,可以去下载个什么雷软件,它会直接接管浏览器下载。将你下载好的文件放到你的欧拉玛模型文件夹旁边,新建一个文件夹,随便起个好分辨的名字, 然后新建一个 txt 文本,接着从命名为 model file, 删除 txt 后缀,然后用记事本打开,在里面可以自定义模型的配件,还可以给他一些角色设定。 首先要在第一行输入模型的文件名称 from q n 三点五杠零点八 b 杠 q 四 k m g e q f 然后粘贴模型基础信息,不修这些直接转化也行, 但是模型很容易胡言乱语,答非所问,不知道怎么填基础信息。我们可以看看其他模型是怎么写的。输入 olammo list, 查看已安装的模型,然后粘贴这串代码, 展示这个模型的 model file, 我 们复制这一块代码就行,把它粘贴到我们的 model file 中,你们可以自由对这个参数进行微调,不会就问 ai, 记得保存。文件都准备好后,在地址栏窗口输入 c n b 回车,然后输入欧拉玛 create q n 三五比零八 b 杠 q 八零杠 f model file 中间的这个模型名称是可以自己随便填的,建议简化模型名称,比较好记,易辨别。 然后回车,等待模型创建完成。创建完成后,我们就可以在欧拉玛 app 看到它了,也可以在 kopw 切换它。跟你的自定义模型打个招呼吧,测试一下是否创建成功。 接下来你就可以去反复调戏你的模型了。学会了点赞投币没学会再看一遍,哈哈哈! 通过这几个细频,你已经从零基础小白学会了如何本地不朽 coca w, 如何通过欧拉玛下载模型,还学会了如何自定义模型、参数设定、劫色破球线模型等。 更重要的是学习如何向 ai 提问,让 ai 帮助你学习熠熠进步。能看到这里,说明你们真的很爱学习新机器,有着追求新事物的热情。下期我将从零开始,带大家一起安装 openclaw 小 龙虾,解锁更多好玩又有趣的机器,拜拜!

欢迎来到 coco 聊天室,今天讲如何部署 ai 模型, coco 有 多种 ai 模型部署方式,满足不同用户的需求,先容小白优先推荐奥莱玛本地部署奥莱玛如何获取? 在我主页 coco 聊天室中即可获取安装包与教程。下载完成之后,在奥拉玛模块中点击设置,在弹出的窗口中确认 url 正确, a p i 没空即可。然后点击模型,在弹出的窗口中点击自动获取模型 并测试,连接完成后即可正常使用其他 a p i。 以 mini max china 为例,点击设置,在弹出的窗口中输入 a p i, 在 mini max 官网中获取个人 a p i 并复制, 完成后将 a p i 填入对话框中,完成后点击模型,选择对应的模型,点击测试链接,接通后即可在聊天界面选择相应的模型进行使用了。别忘了点赞加关注,我们继续聊酷跑!

在 open core 横行的二零二六年,可能很多人还不会怎么去电脑安装,要么就是根本不懂,要么就是被一大堆英文配置难住了。现在有了 coco, 让这一切都变得更加的简单。 我们可以先来到 coco 官网了解, coco 是 阿里云通易团队推出的个人智能助理,支持本地与云端双模式部署。现在我们直接进入主题,教你如何本地化部署 coco。 按照官方推荐,我们选择一键安装, 这里会出现不同系统的安装模式,具体根据你常用的系统选择对应命令。视频中我们以 windows 作为演示。首先我们打开 cmd 运行窗口, 把 coco 安装命令粘贴到窗口中,这时候可能会出现运行报错的提示。不用怕,我这里给大家准备了一个备用的安装命令地址,重新输入备用命令,回车进行安装。 看到 coco 已经安装成功了,复制这个命令到 c m d 窗口中,回车, 点击高级,找到下方的环境变量进去,找到 p a t h, 双击打开,点击右上角新建,把这个复制进去,最后点击确定。 接着就到 coco 出使画了,跟着文档命令走就行, 直接回车回车,然后就可以看到出使画成功了。 最后我们就可以启动 call 炮了,复制这条命令,这里启动时间可能会有点久,稍等片刻,当你看到一百二十七点零点零点一的时候,就说明服务已经可以访问了, 这时候我们在浏览器打开这个地址, 看到这个界面的时候,就说明你的 call 炮已经安装成功了。如果默认语言显示的是英文的话,就在页面右上角自己选择中文,接下来我们开始跟 call 炮对话, 啊,不好,我们要先配置大模型的访问权限,这里我们进来后会看到系统已经默认选择了第一个,直接点设置进去,这里会出现一个 api 密钥, 我们打开这个地址去注册获取一个,找到访问控制,另一排就是我们需要的密钥。复制后回来 call 页面粘贴进去,点击测试连接,如果弹出绿色框说明连接正常,然后再回去聊天页面跟 call 愉快的对话。 要命啊,这里又忘了一个设置,记得把刚才设置的提供商勾上,模型呢,随便选一个, 这样我们就可以看到正常输出了。但是这里呢,也只是最简单的 ai 对 话而已, 要注意这里的对话是需要消耗 token 的。 我们差个题外话,可能有很多小朋友还不知道 token 是 什么意思,只要你有用过四 g 五 g 网络,你用过数据流量,你把 token 理解为 ai 数据流量是不是就很容易理解了? 而且这个流量在接下来又用到的的 agent 实力中消耗很快。 为了应对 token 的 消耗问题,我们其实可以搭建一个本地大模型,让 call 炮直接对话我们的本地模型进行服务。这里我们使用欧拉玛来部署本地大模型。进入欧拉玛官网,点击右上角的 download 下载系统程序 安装成功后就可以看到阿欧玛的功能页面了,现在我们去找下我们需要的大模型。回到欧拉玛官网,选择 models, 搜索 p w n 三点五, 不要安装带有 cloud 的 标志,那个是在线模型,需要 token 的, 我们可以找一个体量小一点,适合本地电脑安装的模型,因为正常家用的电脑配置都不会太高。这里有一个支持零点八 b、 二 b、 四 b 的 模型,可以点进去 复制安装命令到 c、 m、 d 窗口中,记得加上你选择的具体模型。所谓的零点八 b 或者二 b, 其中的 e b 表示十亿个模型参数,所以越大的参数量对电脑的性能要求越高, 安装可能要一段时间。本地演示直接跳过, 当看到三 day message 的 界面时候,就说明本地大模型已经安装成功了,你就可以跟欧拉玛进行对话。 接下来回到 call 炮中,找到模型配置去,我们开始配置本地模型,找到 alma 选项, 因为本地尤拉玛不需要密钥,所以我们随便输入一个一二三四,点击保存后会弹出一个报错,让我们安装什么 s d、 k, 太麻烦了,难道就没有更简单的方法?我们找到右侧有一个添加提供商按钮, 这里我们随便命名一个,例如 my model, 然后在默认 base 二中输入,这个妙呢,还是输入一二三四就行。最后点击创建, 找到 my model, 点击模型按钮,把刚刚下载的模型名加上去,最后测试下连接, 最后记得选中刚刚设置的模型保存,然后回到聊天页面, 这里就开始考验你的本地电脑性能了,如果本地电脑配置不好的,不要随意尝试,直接用在线模型就行,花钱买 token 就 可以了。 看来本地模型输出没什么问题,就是速度还是有点慢,为了演示速度之后我们会全程采用线上模型消耗 token 模式。 接下来就进入二零二六年最流行的 skill 介绍,什么是 skill? skill 其实也就是我们常用的技能,这里可以看到 coco 默认已经存在一些技能了, 我们可以来问一下,看下 coco 知不知道它都具有哪些技能, 看来他还是知道的,但是实际应用中可能这些默认的技能不能满足我们的日常需求,这时候我们就可以新建一些自定义的技能了。这里我就来教大家如何创建属于自己的 skill。 比如你现在是一位宝妈,每天为了孩子吃什么而感到焦虑,让 coco 每天推荐一个菜系,并且教你怎么做这道菜,是不是就很方便了? 这里我就简单写一个菜谱的技能,我们可以给技能命名为 cook, 内容呢参考左边我已经写好的。注意,我们在最后有一个输出要求复制进来,技能中的 name 表示当前的技能名称跟刚才命名的 name 一 致就可以。 description 表示当前技能的简介,说明这个技能是干嘛的。 name 和 description 上下有三个短横杠包围起来,这种是固定格式,是给抠炮识别用的,要遵守。点击保存,然后启动我们新增的 cook 技能。 这时候我们打开 coco 运行的 c m、 d 窗口,按下 c t r l 加 c 按钮,当看到终止处理操作吗?这时候继续按一次 c t r l 加 c, 停止当前的 coco 服务,然后输入 coco app 命令启动 coco 服务。 当看到一百二十七点零点零点一的时候,刷新刚才的 coco 网页, 这时候我们继续去问他,你有什么技能? 从输出的内容中我们就可以看到刚才添加的 cook 技能了,现在我们就让 coco 来实现这个技能, 可以看到 coco 识别到了我们的 cook 技能,并且在最后成功输出我们的要求, 灰狼大厨并且带上了祝福。所谓技能其实就是给不同需求的人都可以根据自己的需求创建一个工具,不同的人会有不同的需求, 比如销售,可以创建一份根据客户生成客户喜好的技能,比如牛马,可以创建一份工作日报生成的技能, 比如保险,可以创建一份根据不同职业生成一份合适的保险技能。当然技能完全可以不用自己去写,把你的需求发给豆包,豆包就能帮你直接生成了,加上 call 炮要求的 name 和 description 头部就可以了。 最后我们进入频道的配置教程,我们这里以飞书作为教程演示案例,我们首先要打开飞书的开发者官网, 进入开发者后台,可以看到一个创建企业自建应用的按钮,点它,然后输入应用名称和描述 call pro, 接着全程跟着教程走。 接下来就可以打开飞书应用,无论是电脑应用还是手机应用,都可以直接用飞书跟 coco 进行对话。 到这里我们已经完成了全部教程了。

大家好,我是大厂研发工程师张飞,欢迎来到张飞开发实验室,已经很久没有和大家去见面了,去录这个视频主要也是因为我最近这几个月从小米离开,换了新的一个工作岗位,把这些事情敲定之后,再和大家去 讲一些 ai 的 一些事情。今天我主要是分享这个事情,是 coco 阿里的 agent 团队开发的, coco 在 昨天就已经开源了,可以看到这个界面里边他编辑于一小时前他宣布的这个消息。 那 coco 是 个什么?近期大家可能对这个 openclaw 比较了解, openclaw 就是 一个通用智能体,可以装在我们的电脑上, 接受我们的任何的一个自作恶的一个工作任务,这是它的一个呃愿景。那 agent scope 团队大家可能有所了解,在我之前的录的视频里头,我都在讲 agent scope 这个 agent 的 这个开发框架,最近我也非常多的用它这个开发框架去开发 agent。 那现在他开发了一个扣炮,就是说类似 opencloud 的 一个通用个人的一个智能体,那个人助理他最近也就是昨天就行了一个代码开源,那有代码开源,我就可以根据他这个代码去开发一些新的功能。所以本期主要是给大家讲三个方面,一个就是说扣炮的一个开源信息,还有基本的一些 工程框架。另外说演示一下扣炮,我已经把它安装好了,很简单可以怎么使用。另外我又开发了一个新的功能 啊,主要是三方面。那第一方面我们再看一下扣炮的一些基本信息啊。那首先 ainscope 这块,我因为用它的一个代码,所以说我都会 比较关注它,那它开源之后呢,就可以开发它的代码,尤其它最吸引我的,它可以接入自由的接入本地模型,因为我们知道欧像 opencloud 它的花费是非常高的,接入远程的 api 这个我们会花非常多的钱,那如果说我们本地有显卡是吧?可以配置本地模型, 用扣炮去使用它。那下一步呢?我就开始给演示一下子大家我装好的扣炮,在装好之前是我们看看啊,这个我是从 github 上 了解到它这个 public 扣炮这个代码把,这代码首先我肯定是本地版的 clone 下来可以安装,另外最关键的是一个 qq star 去安装,他推荐的是如果说你有这个 python 的 一个环境去进行这个命令, 那我建议大家如果没有派生环境,比如说 mac 的 一个电脑可以用这个命令,如果是 windows 电脑用这个命令,那我用这个命令。在比如说大家可以在 power share 可以 去安装,或者说像我一样在对 share id 打开终端去安装, 这里具体不按照命令了,就装好一键安装,装好完之后就开始进行一些配置,那配置里边可能关键是几个要配置一个 china, 所谓的 china 你 可以配置一个,除了操作电脑本地有一个 终端界面,另外还要有一个远程,比如说是飞书,钉钉我主要配置的飞书配置好之后就开始 coco 的 一个 app 就 可以启动起来,那启动的界面呢?给大家看一下子。 启动界面就是这样, coco 的 一个本地的一个 web 服务,因为它主要是像 opencloud 一 样在搭建了一个 fast api 的 一个网关,去在前端记好前端软件就可以去连接, 只要你配置好了那些 api, 或者说在这里我主要是配置的 modelscope, modelscope 的 这个阿里的千万的一个二二百多币的一个大模型,可能每天能够调用五百次,然后调用之后呢,我就开始配置好之后,我就开始给他说哈, 然后他让我去这个告诉我这个引导模式激活哈,然后等等这些基本信息,然后他告诉我就是让我怎么去配置它,然后呢?我最近我又想开发一个,就是也不是算是开发吧,或者说主要是需有那么个需求,我需要可能做一些 我开发的应用,我可能对这些应用做一些市场营销一些推广,所以说我把它就命名为了一个专属的市场营销推广专家,叫艾玛, 然后等等这些信息,这些基本的属于是系统提示词,把它给它配置好。就是他其实也问我这些了哈,他的名,他问我这 ai 助手我给他叫什么名字,比如说叫艾玛,然后 给他的定位,定位就是市场营销推广专家等等这风格。还有就是说把我的一些基本信息我会告诉他,比如说我我告好告诉他他的信息之后,他就存到文件当中哈, 拿到文件之后以后他就大模型就可以拿到这些文件去转述,知道是干什么。那接下来呢?他就会问我有些营销项目或者推广项目,那我再告诉他我的一些信息哈,我的一些信息,比如说我主页是做系统工程师,然后副业呢是做一些 ai 智能体应用开发, 然后最近开发了一个 ai 的 python 编程。老师,智能体啊,这么一个应用,用来帮助我家三年级的规矩哈,系统性的一个学习 python 编程, 就是我告诉他我的基本信息之后,他也都保存到文件当中,剩下的话他就开始告诉我我有什么需要帮我的,包括产品定位没有建议 这些,这是非常好的。这我基本感觉哈,我还没有继续使用,我基本感觉这个满足我的一个想象哈,比如说我可能要做一些推广,比如说小红书公众号的一些文章,或者是做一些短视频,让他帮我写文案啊等等这些未来的话,我这个我还可以看到他这个 model, 他 后台调的 model, 可以 看到 windows gov 的 一个模型是这么一个,对,千分三,千分三,最近出了三点五哈,我这个还是用老的一个千分三,那个二百三是五 b 的, 这个够我们用就行。但是我看到了他在本地,本地是欧拉玛,欧拉玛其实我用的不多,我想开发一个就是 lm studio, 去 配置一个本地的一个模型,然后要在这个前端当中要做好这个功能啊,包括整个的扣炮这块软件做好,然后呢我就给他提了这么个需求,可以看到哈,提了需求之后,他就开始夸夸给我写代码哈,你看改代码其实不太多。 对,我主要是把我这个需求文档提给他,我们可以看一下子哈这个需求文档,需求文档里边就是最主要的可能还是 说一下它的一个架构,通过它这个开发这么一个功能呢?通过做,然后去了解它一个软件代码架构,那就是扣炮的整体的系统架构,包括有前端或者 changui, 比如说我们的 刚才演示的一个这个交互窗口。然后还有就是我们可以配置飞书,飞书的话就是 channel 远程用手机的飞书,或者说其他电脑的飞书来控制它,电脑去和它交流,完成一些配置它一些自动化任务去做。 哎,对后端的话就是 fast api 大 区的一个网关,然后 i m s model 提供一些这个,对它这个网关这块可能还有一个 router, 就是 说我要路由到哪个模型上去, 然后这里边提供了一个 i m s 六六的一些模型,然后提供一些这个新的写写写喷新的一个 provisor 的 一些编程代码。然后最后我首先我要确保我后台真的开了 ms 六六六哈,并且加载我合适的模型,这样他就可以工作了。可以看到右边的话,右边他已经完成了这块的一个工作实线,他这个款话都告诉我了, 对,简单的话就是这么一个意思,扣炮的一个更更瘦的一个 ui, 然后后台是后端就是 python, 然后最后 python 还有调用这个 ms 六六主要是这么一个功能, 然后我又告诉我又问他,就是如果我启动开发功能,首先第一步要启动 i m studio, 然后第二步就启动他这个后端,他命令就会告诉我了,因为我刚才演示的话是我按照那个就是给他们上的一个开源的,就是命令去装的,但是我要把我新 这个开发的这个功能要去运行的话,必须用这些的一个命令去运行,然后启动前端,然后再进行配置连接,就应该是可以开始使用了。 对,这样子的话我就可以就是免费的使用我本地的个模型,然后让本地的去开始跑起来。那我只要跑起来的话,我前段还是就是这个拆他一个功能就可以和他去交流。 ok, 每个这个后边还有一个关键的功能,就是说我想安全非常重要吗?我们知道欧文克劳给的权限非常多,这个时候本地个人一个电脑权限肯定就给他限制住, 说我要限制到这个一个 coco 一个 workspace 当中,你只能在这目录下,就是新建文件或者读写文件,就有这么一个权限,只能在这目录下它都写进去了。 好,那本期呢就是给大家讲的这三部分,第一部分就是说 coco 的 一个基本信息,然后第二个就是说 我怎么去把它安装好,安装之后呢把它运行起来,前端运行起来,然后第三步呢就是说我开发了一个新的一个功能。好,那谢谢大家有,如果大家有什么新的一个需求,可以在这个给我发个评论。

养虾热潮风靡网络,如何一键拥有一个贴心能干的 ai 帮手?三分钟教你完成本地搭建同一实验室 coco 相比同类产品的复杂部署, coco 极致简单,只需要三行指令就能完成本地部署。 本期教程视频将涵盖全流程实操演示,不懂编程也能搭建自己的 ai 超级助理安装 coco 到底有多快?看好了,打开官方文档,将这三行命令依次复制到终端,先安装,再配置, 最后启动。看到生成的地址了吗?把它粘贴进浏览器,这就进入 coco 的 控制台了。 下面我们开始配置模型。 coco 支持本地和 api 接入,这里推荐最稳妥的配置方案,在阿里云百面的密钥管理中创建并复制 api p, 回到 coco 的 dash scope 选项,贴上即可。阿里云百链接入超百款模型很多,还能免费体验,大家可以按需配置。接下来让 coco 连上你的手机。以钉钉为例,在开发者后台创建一个机器人应用, 发布后拿到 client id 和 secret, 填回 coco 对 应位置,记得开启 contact user read 权限。 现在在钉钉里搜到你的应用,就能随时开聊了。来,让我们试着做一个科技日报助手看看吧。第一步,装上搜索外挂。我们要用到 m c p, 它就像是调用外部工具的 usb 接口,只需接入 tablie 这个全网搜索神器,复制它的 a p i 密钥,专贴近 coco 看 ai, 瞬间就能联网对齐全网数据了。第二步,配置操作手册。点击创建 skills, 就 像一个操作指南,让 coco 按照流程办事,你可以自己写,也可以导入全网的 skills, 在 这里输入名称,导入指令搞定。 第三步,实测与自动化。现在只需在对话框下个指令, coco 就 会自动调用工具搜集新闻,并顺着管线直接发到你的钉钉上。 嫌每天发指令麻烦,直接告诉他,每天早上九点准时推送到这里,一个运行在本地手机随叫随到的 ai 助理就搞定了。 如果你想进阶尝试本地模型,安装更多实用插件 skills, 或者让 coco 彻底接管你的工作流,欢迎来 coco 社区一起学习与探讨,发掘更多玩法。以上就是本期内容,如果对你有帮助,别忘了点赞收藏支持一下,我们下期再见!

我用国产龙虾抠炮安装了三诺中文站的 skill, 实现了在抠炮中生成 ai 音乐。 接下来演示我生成 ai 歌曲的全过程。 第一步,让抠炮写歌词,可以看到歌词结构完整,主歌副歌桥段尾声还有创作说明。 第二步,生成歌曲 coco 调用 solo 中文站生成了两首歌曲。 来听听第一首歌, 再听听第二首。 以上就是抠泡生成 ai 音乐的全过程,有问题欢迎评论区留言,我们下期见。

颗粒捕捉器 dpf 故障需要去屏蔽, 大众路虎、奔驰等等都会遇到这样的问题。我们看一下江西五四零, 我们使用 pizza flash 发动机电脑版零二八幺零三四六七六,博士, 我们使用 pc flex, 很多朋友还不太会用这个视频,大家可以收藏点赞加关注。我们可以通过 ecufv 型这个小软件 查群到 ecu 的型号是博士, edc 幺七 c 八幺,燃油,新支柴油。通过 edc 幺七 c 八幺,我们找到线路图, 将 pson flash 与电脑版连接好,打开 psonflash 软件,一点二零或者一点二一都可以,这里点否不需要去升级软件。软件打开之后, 我们现在鼠标所指的位置 in face 是指接口, 如果电脑没有装过其他勾二五三四的程序,他会默认在 sm 二 us。 这个 update 是指软件的升级和刚刚那个地方是一样的,不需要去处理。我们再看一下 ct 软件的信息,包括加密狗的版本,加密狗的序列号以及 tvs 激活的 许可,一共是六十七个协议。再往下 ecu 对话框,我们可以看到有福特、马自达等等等等。我们今天是处理博士 奔驰,在公主台上面免开盖读取,我们盲选,任意选一个 tc 幺七六二, tc 幺七二四都可以 任选一个,之后选择 idonfocation 这里点四,因为我们现在都是自动电源,不需要去手动切换。 下面的对话框会将我们电脑型号信息识别出来,识别出识别出来之后,我们有一个很关键的信息,就在于倒数第三行一 cu 的信息, tc 幺七八二, 我们根据 tc 幺七八二选择 tc 幺七八二 flash 进行读取,点击 read, 点击热点之后提示电源的控制,我们依然是点 yes, 数据读取非常稳定快速, 不管是一点二零还是一点二一的版本,数据提取速度非常快, 我们还可以看到下面的信息, flag 喜事两千五百六十 kb, 成功读取保存在桌面。 一般我们都会对文件进行命名,命名好之后我们就将文件保存在文件夹里面, 这个意思是文件已经保存在 c 盘桌面。教验正确,我们读了 flash, 我们还把 ep room 进行读取保存,同样选择 ep room 读取。所有这些出来的涉及到选择电源的都是选市, 刚刚我们都可以看到。点四,文件保存在 c 盘, 你来了吧你,嗯, 确定这个时候文件已经成功读取? tc 幺七八二, 我们将处理好的文件加载写入,选择三个点,点这个地方,也就是文件选择对话框 加载处理好的文件,也就是处理完 dpf 故障的文件, 代洗数据加载进去, 加载完数据之后点击 what 写入,这时候报错,我们可以看一下上面提示,文件选择错误,请检查并重试。我们可以发现上面是 eproom, 所以我们要重新选择 flash, 点击写入 ecumedc 幺七,他所有的密码自动,这里有一个密码加载像, 因为我们这个是奔驰模式,写入,这个是检查教验是否写入,点试就可以了,写入也是非常快, 直接写入完成。我们屏蔽 dpf, 一般只需要处理 flash 文件, 当然如果需要写一 q 文件,同样方法加载文件写入即可。 感谢大家的收看,欢迎大家留言点赞加关注,欢迎转发!

养虾热潮风靡网络,如何一键拥有一个贴心能干的 ai 帮手?三分钟教你完成本地搭建 coco 相比同类产品的复杂部署, coco 极致简单,只需要一条指令就能完成本地部署。 本期视频教程将包含全流程实操演示,不懂编程的也能搭建自己的 ai 超级助理。为了让 coco 和手机端协同,这里以钉钉为例,在开发者后台创建一个机器人应用,创建完成后,记得要发布 配置好机器人,接下来开始安装 coco。 安装 coco 到底有多快?看好了,只需要三步,第一步,通过一条命令安装 a few minutes later。 第二步,通过报错信息再配置环境变量。 第三步,启动相关服务, 看到商城的地址,打开粘贴到浏览器,这就进入 coco 的 控制台了。 下面我们开始配置模型。 coco 支持本地和 api 接入两种方式,这里我们选择 api 方式,接入质朴清严的大模型。 需要正确的大模型请求 url 地址, 去找我们发布成功的机器人的 client id 和 secret, 回填 coco 对 应的位置。 现在在钉钉里搜到你的应用,就能随时开聊了。 来,让我们通过手机下发指令,帮我们整理下电脑桌面上的文件吧。 最后效果很不错,符合我们的要求。到这里,一个运行在本地手机随叫随到的 ai 助理就搞定了。如果你想安装更多实用的 skus 插件,或者让 coco 接管你的工作流,帮你落地。更多实用的案例,欢迎点赞关注我们,下期再见!

我是大厂研发工程师张飞,欢迎来到张飞 ai 开发实验室。本次我们讲一下这个我根据 coco 阿里的 coco 去开发的一些功能,大家比较关注的一些多角色智能体,就像 open class 一 样的功能,我已经放到我的一个个人的 github 的 一个网址 link 就是 我的一个网址, coco 就是 这个项目名。大家点击到这个切换这个 z g l branch, 最后点击这个 code, 下边有个 down load 的 这个包,就可以把这个包下载下来。下载下来之后啊,大家可以用这个字节的 tree 去把它打开,打开项目之后就可以打开这个终端,终端在这里头新建终端,新建终端时候建下来之后 就可以去安装这个包,安装的时候应该大家都知道在这一侧是可以提些问题,比如说去问我该怎么去安装,那我可以简单的去看一下子,它这里有一个 readme 文件,告诉我们哪里怎么去安装开发版主要是这两个开发测试 就是用这个命令,当然大家提前需要进入 python 这个环境当中,进 python 环境当中,我建议大家可以安装 python, 安装 python 之后要输入一个 python 杠, m v e n v m e n v 输入这个命令,那输入这个命令之后呢,就可以在当前的 q pad 的 一个目录下去创建一个 python 的 虚拟环境,这样子它不会影响你整体电脑的一个 排序环境,再输入一个命令就可以进入命令,我新建一个终端演示一下, ok, 这里是已经进入了,那我出去之后再重新进来 e n v scripts 脚本 active 就是 激活虚拟环境, 对,我们就这条命令就可以进入了虚拟环境,激活到虚拟环境之后,就可以用行运行下面的一个 p i p install 这个命令,安装开发版的一个各种个性化的包,然后再进行大家已经知道的抽象,最后再运行那最后这个结果,像这么一个结果运行之后,这样子就开启了一个 后端,我们在等待它打开,打开之后我们点击前端,在前端这种点击智能体管理,点击这里创建一个智能体,你们按照下面提示就可以创建你们所需要的智能体,这里有一个模板,你可以选择自己的模板,也可以选择 自己随意建其他的一个信息就可以创建,创建之后要选择相应的一个激活,激活之后就可以在这里和去聊天或者展示一下子。现在这里我就激活了一个产品经理,我给他激活了个产品经理, 启动的是一个 old strap, 都可以告诉产品经理我的需求是什么,我给他定位是什么,下面就输入给他,他都会保存在独立的一个产品经理这个 workspace 当中。 同时我这里又建了一个市场营销推广,在这里我也给了一些定位,他自己就会建立进去,也是市场营销推广 agent 和这个 安敏经理 agent 两个是独立的工作空间,并且都可以把它配置到这个非输应用当中,这也是开发功能。在非输应用当中,大家知道 上节视频当中给大家讲过有个 app id, 还有一个 app 的 一个 secret, 把这些都配好之后,并且绑定到相应的一个智能体,比如这里绑定到一个是产品经理,一个是绑定到市场营销推广经理, 两个都点击保存,并且两个都去启动,它就可以去使用了。 ok, 这个是绑定到产品经理了,这个应该绑错了,绑这个市场营销推广 a 人的绑。对,我们再点击启动,两种 都启动之后,这样就通过飞书可以和他们分别交流,在飞书当中去拉一个群,你自己加上产品经理,再加上市场推广营销的一个经理,你们三个人可以去讨论,给他们分配不同的任务,并且让他们去讨论。今天讲到这,谢谢大家。

阿里刚开园的 q 泡桌面智能体,我替你们实打实踩坑实测了,一句话总结,咱们普通小白想上手,真的再等等,别着急,跟风折腾。 最开始我想本地部署,跟着豆包给的步骤一步一步来,全程全是代码操作,要配置各种环境,跑好几个网站下载对应的安装包。对我这种不懂小代码的小普通小白来说,真的巨复杂, 前前后后折腾了快两个小时,最后还是因为环境不兼容,直直接卡死,只能彻底放弃。然后我就去试了阿里云官网标注的五分钟一键部署,结果踩的坑一个接一个。首先就是大家最关心的费用问题, 别看模型本身是开源免费的,但实际用起来有不少消费调用大模型需要开通阿里百链服务,首月套餐七块九,包含一万八千次请求。这个倒是不贵, 但想在云上部署,必须租赁阿里云服务器,我选了最基础的入门配置,最低要先充值一百块,按量付费,折算下来一小时差不多七毛钱。 这里必须给大家提个醒,也是我自己踩过的坑,这个服务器不是你关机,不用就不扣费了。我折腾完关机放了一晚上,第二天一看啥操作也没做,又扣了好几块。 后来才搞明白,他默认状态下关机还是正常计费,只有手动开启节省停机模式,才能免掉算力部分的费用。而且就算开了这个模式,系统盘的存储费用还是会持续扣除 大家,大家如果只是临时测试用,用完一定要直接删除释放实力,不然钱不知不觉就被扣没了。 呃,钱的事还是其次,最折腾人的是他对咱们普通小白真的不够友好,操作手册的很多关键步骤对新手来说说明不够详细,就比如开通密钥,手册里只提到了开通编程密钥, 我照着操作折腾了半天一直报错,后来问了千问才搞明白,调用大模型需要开通的是大模型专用密钥, 就这一个没说明白的细节,白白浪费了我快一个小时。好不容易部署完成,我把它关联到钉钉上,想着手机上也能随时用,结果刚用第二句就出问题了,我先给他发了个文章链接,让他提炼核心要点,倒是很顺利就完成了。 紧接着我用语音发了一句,把这个内容和要点生成一个 ppt, 发出去直接就报错了。后来我问了技术支持才搞明白, 这根本不是我操作错了,是这个刚开源的初识版本本身就还没开发语音识别功能,原声只支持文本输入,不支持语音消息处理,属于版本本身的功能缺失,咱们普通人根本改不了,只能等官方后续更新版本。 整个折腾下来,我最大的感受就是这个工具真的只适合技术爱好者,懂代码的专业人士拿来测试学习。 对咱们这种只想拿它来干活、写文案、做内容的普通创作者来说,真的不建议。现在着急上手,到处都是没说明白的细节,不知道下一步 就会不知道下一步哪就会报错,时间全花在调试上了。有这功夫,用豆包、 deepsafe 那 些都写完好几篇文章了 其实,呃,跟我之前测的 mini max agent 一 样,这些新出的智能体对懂代码、懂逻辑的专业人士来说确实自由度高,很好用,但对咱们普通人来说,真的是步步都有门槛,体验感很不好。 最后给想试的朋友提三个新手一定会遇到的问题,大家记好避坑。第一,普通小白别轻易碰,本地部署操作门槛非常高。第二,开通密钥一定要开大模型专用的,别只开编程密钥。 第三,当前版本不支持语音识别,别在这上面白瞎白费功夫。给咱们普通人一句实在的建议,想玩这些新的 ai 智能体真的不用着急,再等等,等他们出了正式版本,功能完善了,哪天 咱们在应用商店里直接能下载到了再去用也不迟,现在跟风折腾,最后大概就是浪费时间浪费精力,还没办成事。 嗯,接下来我也会回归内容本身,把我用 ai 写头条、做自媒体的真实心得和实用技巧毫无保留的分享给大家。想跟着一起用 ai 做自媒体,少走弯路,不瞎折腾浪费时间的点个关注,咱们一步一步慢慢走。

零成本白嫖国产小龙虾快速教学?答案其实很简单,就是摩搭社区加 call 配哦!点击创空间,在搜索栏输入 qpo 最新版,随便选择一个 qpo 空间,进入确认版本为新版本。点击复制填写必要信息, 这里注意选择非公开,不然会被窃取私人信息。最后点击复制创空间,等待五到十分钟即可发布成功。 成功后进入这个页面,点击右上角用户,点击账号设置,点击访问控制, 点击新建令牌,输入名称,复制 a p i, 点击个人主页,点击 q p i o 空间,这里还可以切换中英文, 点击模型,选择 modelscope, 将刚刚的 a p i 复制上去, 选择 ken 大 模型。 成功之后,我们就几乎零成本拥有自己的国产小龙虾了,虽然 api 每天有免费额度,而且小龙虾还有点笨,但重要的是免费的白嫖就是香!对想要试试小龙虾的朋友很友好。 下一期我会出配置非书和介绍一下小龙虾的使用技巧,大家也可以把想做的事情发在评论区中,我会尽力实现。 好啦,谢谢大家的观看。

小龙虾,你是否还在纠结托肯消耗和多 a 枕之间如何通信?一天一个开源国产龙虾抠破使用分享第一期本地模型部署加多 a 枕系统,在抠破上只要傻瓜是点点点就可以完成。进 入抠破 v 一 最新版页面,点击模型抠破,最新版本支持拉玛,直接点就会自动安装,等待它安装完成。安装完成后,选择一个模型,点击下载,等待下载完成后点击启动就更简单了。进入智能体管理, 新建一个智能体,填写好必要信息,然后选择这个猫贴技能,点击保存,最后进入技能这个页面,点击启动就可以进行智能体之间的通信了。我们在聊天框中让当前智能体通过安装的技能问候一下默认智能体,等执行完成后,到默认智能体聊天框中就可以看到消息了。