粉丝2.0万获赞5.7万

cpa 作为国内一款与 open core 对 标的智能体,我认为在功能设计上比 open core 更易用,整体界面比较简洁。当然 copi 的 功能确实没有 open core 强大,但是在安装时 open core 就 比 copa 复杂了一些, 因为彼人一直都是用 one pinning 安装,点击下鼠标就行了,安装方面就没有什么区别了。 copi 的 需要在界面上配置大模型,任意选择 open codes 安装时就需要配置,但是在操作界面这里就不能更换大模型了, 只能通过代码配置对接。渠道方面, openclip 内置的基本没有国内可用的应用,想对接钉钉、飞书、 qq 就 得通过代码配置了。 coca 就 不同了,内置的都是国内的应用, 不需要配置代码就能对接这些平台。如果是钉钉的群聊机器人,可以在得到机器人的 web 之后,直接在聊天框里让它对接这个钉钉机器人,它就自动完成了。这两个智能体都是可以做到的。配置 skill, 也就是技能。没有研究过 open code, 看着这个界面真是不知道怎么下手, 但 coca 只给了一个提示,你就知道怎么操作。这里有几个 skill 的 网站,那么你就可以在这些网站上找想要的 skill, 把网址复制到配置框中就可以。虽然欧文科可以在里面搜索想要的 skill, 但只有五十一个,而且有些还是有限制的,这就和 coca 的 毫无对比性了。 配置 m c p 方面, coca 的 控制台是可以直接配置的, open class 没有入口,需要通过代码配置增加了使用门槛。但一些辅助安装的平台会做一些易用的功能,比如说 one panel, 它就提供了直接对接飞书等平台的配置界面, 免去代码的繁琐。除了 m c p, 还有心跳。 open class 在 网页控制台没有配置心跳的入口,只能通过命令,又提高了使用门槛。不过这个功能用处不大,定时任务基本也可以实现。最后总结一下,如果你代码能力比较强,喜欢研究钻研 或是对智能体的深度探,所有想法就选 openclo。 在 前段设计上, coco 比较容易上手,适合国内用户或不懂代码的小白入门。但是这段时间对 coco 测试,彼人也遇到了各种小 bug, 比如对话框无法切换、对话长时间没反应等问题。 如果阿里云开源的这个智能体不只是用来蹭热度,而是当成一个长期重点维护的项目,我相信这种差距会越来越小。并且 coco 里确实每天都在迭代版本, 应该不会让我们失望,哪怕后面你搞一些付费插件,持续支撑项目的发展,我相信很多用户也是能接受的。好了,今天就到这,我们下期再见。

养虾热潮风靡网络,如何一键拥有一个贴心能干的 ai 帮手?三分钟教你完成本地搭建同一实验室 coco 相比同类产品的复杂部署, coco 极致简单,只需要三行指令就能完成本地部署。 本期教程视频将涵盖全流程实操演示,不懂编程也能搭建自己的 ai 超级助理安装 coco 到底有多快?看好了,打开官方文档,将这三行命令依次复制到终端,先安装,再配置, 最后启动。看到生成的地址了吗?把它粘贴进浏览器,这就进入 coco 的 控制台了。 下面我们开始配置模型。 coco 支持本地和 api 接入,这里推荐最稳妥的配置方案,在阿里云百面的密钥管理中创建并复制 api p, 回到 coco 的 dash scope 选项,贴上即可。阿里云百链接入超百款模型很多,还能免费体验,大家可以按需配置。接下来让 coco 连上你的手机。以钉钉为例,在开发者后台创建一个机器人应用, 发布后拿到 client id 和 secret, 填回 coco 对 应位置,记得开启 contact user read 权限。 现在在钉钉里搜到你的应用,就能随时开聊了。来,让我们试着做一个科技日报助手看看吧。第一步,装上搜索外挂。我们要用到 m c p, 它就像是调用外部工具的 usb 接口,只需接入 tablie 这个全网搜索神器,复制它的 a p i 密钥,专贴近 coco 看 ai, 瞬间就能联网对齐全网数据了。第二步,配置操作手册。点击创建 skills, 就 像一个操作指南,让 coco 按照流程办事,你可以自己写,也可以导入全网的 skills, 在 这里输入名称,导入指令搞定。 第三步,实测与自动化。现在只需在对话框下个指令, coco 就 会自动调用工具搜集新闻,并顺着管线直接发到你的钉钉上。 嫌每天发指令麻烦,直接告诉他,每天早上九点准时推送到这里,一个运行在本地手机随叫随到的 ai 助理就搞定了。 如果你想进阶尝试本地模型,安装更多实用插件 skills, 或者让 coco 彻底接管你的工作流,欢迎来 coco 社区一起学习与探讨,发掘更多玩法。以上就是本期内容,如果对你有帮助,别忘了点赞收藏支持一下,我们下期再见!

大家好,今天我们共同探讨一下 coco。 coco 是 阿里开源的 ai 个人助理产品,通过 one panel 面板的应用商店,我们可以较为简单的对其进行安装。 今天我们就通过 one panel 面板安装 coco, 接入硅基流动提供的模型,并对接 qq。 前期的准备工作,一、要有一台 vps。 二、 vps 安装好 one panel 开源面板。三、注册硅基流动账号并生成 aip。 四、注册 qq 开放平台。下面正式开始我们今天的教程。点击 one panel 开源面板左侧菜单的应用商店, 点击 ai 标签,找到抠泡,点击安装勾选端口外部访问其他保持默认,点击确认,等待安装完成。当看到提示安装应用抠泡成功后,我们关闭追踪, 在应用商店的已安装标签中找到刚才安装的 coco, 点击右侧的跳转即可打开 coco 界面。我们先切换一下语言,点击右上角的 english, 选择简体中文,然后我们设置一下模型,点击左侧菜单的模型,点击添加提供商, 提供商 id, 我 们输入 clyckefeller。 显示名称,我们输入归机流动,默认 base u r l 我 们输入 h t t p s。 冒号双斜杠 a p i。 点 clyckefeller, 点 c n 斜杠 v e a p i t。 前缀,此处我们留空,点击创建, 然后找到我们刚添加的归机流动,点击右下角的设置, 在 a p i t。 下方粘贴归机流动的 a p i t。 点击测试连接,看到归机流动 url and a p i t are valid, 说明没有问题,点击保存。 然后点击右下角的模型,添加模型,输入我们想要使用的模型 id, 此处我们以千问千问三 next 八零 b a 三 b instruct 为例,模型名称,我们输入千问,点击添加模型, 然后我们找到 l l m 下面的 l l m 配置,在提供商下方选择归机流动,在模型下方选择千万、千万、千万三、 next 八零 b a 三 b instruct, 然后点击保存, 这样就可以正常和 call 炮进行对话了,我们测试一下,点击左侧菜单的聊天,在对话框输入任意问题,可以看到能够正常进行回答。 接下来我们将 call 炮接入 qq。 步骤一,登录 qq 开放平台。步骤二,点击机器人,然后点击创建机器人,完善相关数据。 步骤三,在左侧菜单选择回调配置,在单聊事件中勾选 c to c 消息事件,在群事件中勾选群消息事件、 at 事件,点击确定配置,根据提示完成身份验证。 步骤四,点击沙箱配置中的在消息列表配置项目右侧的添加成员,勾选成员并点击确认。 步骤五,在开发管理中获取 app id 和 app secret, 扫描二维码进行重置 app secret 操作, 选择重置,在记录 app id 和 app secret 的 值后选择关闭。 步骤六,在沙箱配置中使用 qq 的 扫码功能将机器人添加到消息列表。 步骤七,返回 coco, 在 左侧菜单的频道找到并点击 qq, 在 enable 的 下方打开开关, 在 bot prefix 下方命名一下机器人名称,我们以 coco bot 为例,分别在 app id、 client secret 填入前一步骤获取的对应的值,点击保存, 这样就完成了 coco 和 qq 的 对接工作。登录 qq, 找到 coco bot, 与其进行对话,能够正常进行回答,说明已经对接成功。本期教程完成,谢谢大家!

百花齐放,百家争鸣, b a t 绝对不会让国内的用户在 ai 的 体验上挽救阿美超过三个月。当大家还在叹惜 open call 在 国内网络环境经常掉线的时候啊, 阿里同意实验室带着他的 coco 走来了更适合中国宝宝体质的个人智能体工作台。和 open call 一 样,不仅仅是一个问答机器人,更是一个能够长期记忆,自主执行任务。和 open call 同样的策略,本地优先,多平台接入,主动执行。 不同的是配置 coco 比大龙虾更简单,自带白领工作常用的 skills, 内置了国产大模型,只需要设置一个 api k 就 可以直接使用。那把 coco 装电脑总共分几步?三步打开使用文档,按照快速开始的指导教程,第一步,复制这条安装命令。 这也是官方推荐的啊,它不需要你安装 python, 但是呢,它完全可以自己来执行一切的安装步骤。它先是给 coco 在 这个路径里创建了一个工作区, 然后又安装了 uv, 用 uv 来管理后续的安装,自己下载 uv, 然后安装到这个文件夹里,然后自己去添加环境变量。到这里, uv 已经安装成功了。 他又开始创建 python 环境,从派派里下载并安装 coco。 coco 安装成功,又自己添加 coco 的 环境变量,到这里已经安装完成了。他自己分了这么多部,但是对于我们人来说,其实就只是执行了那一条命令。哎,什么叫剪辑啊,这就是剪辑。国内用户最喜欢是这样的, 也应该是这样的。大家都在谈论着大龙虾的配置多么复杂,仿佛这 ai 国战场对于非计算机专业人员注定了凶多吉少,那现在好了,简单的来了, 安装完成之后就来到第二步,初识化,如果是第一次安装的话,就直接选这个快速的默认配置,先初识化,然后剩下的以后再说。把这个命令直接复制到 power shell, 开始初识化,然后这个是初识化,他给你的阅读需要你阅读的协议,这个东西该读的就读一下啊,他给你的警告你, 你一定要了解一下。安装完成第三步就是启动服务,也是只有一条命令,把它复制到 power show, 回车就可以打开服务了。到这里酷跑就安装完了,最后它会给你一个服务前端的网址,把这个网址复制到浏览器上,打开就可以直接进入到操作界面了。进到主页面之后,就能 在这个技能里面就能看到它已经预装了一些我们上班常用的 skill, 你 像处理文档,还有搜索、寻找新闻,这些都有配置,大模型也非常的方便。在对话上,对话模型里面也有自带的,你像这个自带的 deepsea, 我 们就可以直接用这个。 那对于其他大模型,我们只需要点击设置,把 e p i k 粘贴在这里,然后点击保存就可以了。安装好之后怎么确认呢?还是老规矩, say 句 hello, 然后给它起个名字。让我意外的是, coco 比 opencloud 响应速度确实是快不少啊。行了,到这里就安装完全,完成了,以后再慢慢调教吧。

哈喽,大家好呀,本期视频教大家如何本地,不求扣怕。首先我们需要先下载 python, 官网写着 python 版本要大于等于三点一零,小于三点一四,我们按 win 加二输入 cnb 后回车, 再输入拍放空格杠 v 查看已安装的拍放版本,如果版本合适就可以跳过这一步,没安装的可以到拍放官网下载。视频中所有链接均放在简介评论区置顶,大家可以直接去附近, 我们打开拍放官网,点击 downloads 跳转到特定版本页面往下滑,找到一个大于等于三点一零,小于三点一四的版本,这里我选择三点一一三, 我们鼠标点击三点一一三往下滑,根据你自己的电脑选择安装和系版本,我这里选 win 六四,下载好后双击打开,勾选 add python exe to pass, 然后选择直接安装到末列位置。 安装好拍放后按 win 加 i 打开 cmb, 然后用我评论区置顶的清华大学开源软件镜像架下载。安装完成后,我们输入 koopw i need 杠杠 default 进行 koop, 默念出息化 这里他问我们是否已阅读并接受像素安全息机,我们即刻按回车出息化完成,输入 koop app 启动, 接着鼠标腹记端口地址粘贴到浏览器回戳,这样我们就将 koop 本地部署到电脑上了。 部署成功只是第一步,想让 koopw 真正成为你的得力救小,还需要做一些简单的配置。我们点击左下角模型,先接入下一级创建的 apikey 试试,点击 modelscope 下方的设计粘贴你的 apikey, 忘记了的可以去摩达杠首页访问控制里重新复制,在 l m p g 这里提供箱选择 model scope, 模型选择千问,然后保存。 回到聊天窗口新建聊天,可以在这里跟他对话,让他帮你干活了。需要注意的是,因为有 token 官网或者豆包官网就行,那里是免费的,速度还快,嘻嘻。 接下来我们教大家如何使用本地不朽的模型,没有 tocan 陷阱,可以自由定制,等速度和能力全靠模型和你的电脑算力的支持。 好了,我们先看看怎么把模型下载到本地。下载模型的渠道有很多,这里我推荐比较简单向朽的两个平台,欧拉玛和 modelscope。 我们打开欧拉玛官网可以看到这里有很多模型,不过不要怕,我们新安交欧拉玛 app, 接下来我会教大家如何选择适合自己模型。鼠标移动到右下角,点击 download 下载 app, 如果下载很慢,可以用我为大家准备的网盘链接下载。 下载好后,先别急着安装,因为欧拉玛和模型会默认安装到本地,我们需要更改它的安章位键,找到安章程序,按 ctrl 加 x 剪切。我在一盘新建了一个 ai 文件夹, 这里会放一些跟 ai 有 关的文件,你们可以根据自己的习惯来创建。将刚才下载的安装程序粘贴到文件夹内,接着新建一个文件夹,并就命名为欧拉玛。我们在文件夹地址栏输入 cmb, 回车输入 o l m s set up e e g e d r 等于加文件加路径,双击进入文件加复制文件加递进,然后粘贴回车接接会跳出一个安装窗口,我们直接进行安装。 解决了 app 的 安装位置,接下来我们更改模型的安装位置,我们在搜索框搜索编辑系统环境变量,打开,然后点击环境变量, 接着在下面点击新建变量名,输入欧拉玛 models 变量级,输入你新建的欧拉玛 model 文件加地址,我的是一 ai 欧拉玛 model, 然后点击确定杠确定,这样我们通过欧拉玛下载的模型位置就更改为你设定的位置了。 好了,我们现在可以打开欧拉玛 app 看一看。欧拉玛 app 为我们提供了一个简单的对话窗口,我们可以在右下角选择模型进行对话,注意,目前是没有下载任何模型的,你选择了模型并进行对话会直接触发。下载 这么多模型,我们怎么知道哪个最适合我们呢?别着急,休息一下马上回来。

windows 部署抠爬加接入非书超简单,准备工作必用 power shell, 别用 cmd, 提前配代理或科学上网,避免下载卡顿。步骤一,安装抠婆 自定义路径可选环境变量抠爬 home 等于指定安装路径执行安装命令。 um 管道 ex 自动装抠爬加 uv 工具卡,顿时检查网络或代理。 步骤二,初步化配置输入命令 call 为内双横线的 force, 用默认配置,后续可改终端出现安全提示,输入 yes 确认积蓄。步骤三,启动 call 应用基础启动 call pro up 默认监听八零八八端口 浏览器打开进入配置界面,自定义端口或地址可选改端口。 copop 双横线 pro 九零九零允许外部访问 copop 双横线后四零点零点零点零双横线 pro 九零九零步骤四,配置大模型 api 配置页点左下角模型选科室自定义点设置,填入 base url, 加 api key 保存后返回点添加模型,输入模型名如 gpt。 四、 call 三,确认保存即可使用。 推荐阿里云百链新课首月七点九元起,一万八千次请求。步骤五,接入飞书核心五、小步一,抠爬端配置配置页点频道飞书设置,填写 ipad ipc 课程,后续飞书开放平台获取。 二、飞书开放平台创应用登录飞书开放平台创建企业自建应用填名称描述图标完成创建。 三、配置机器人权限,启用机器人能力权限管理,批量导入指定此权限代码申请开通。四、配置事件回调事件与回调事件配置订阅方式,选长连接添加接收消息 v 二点零事件。 五、发布应用加添加机器人,创建并发布应用版本飞书工作台添加常用搜索创建的机器人名称,添加后即可对话。 避坑小技巧,安装失败必用 power shell 检查网络或代理启动报错。换端口检查防火墙端口限制非书无响应核对 api 凭证,确认应用已发布权限或事件配置正确。

这个国产龙虾 coco 是 一点也不输 open call 啊,兄弟们,上次讲了它可以轻松的一键完成部署,对国内的用户是非常的友好。这次啊,我没写一行代码,就把我之前一个项目里的功能就是一键下载视频和转文字的功能做成 skill, 方便我用手机调用。先看一下最终效果啊, 当我刷到一个比较好的视频,就比如这个,我点击分享,然后复制链接,然后在我配置好的钉钉里粘贴发给我的大龙虾。好,龙虾已经开始工作了,我加速播放一下, 好,可以看到啊,龙虾告诉我视频已经下载好了,现在开始转写。 ok, 转写完了,我们看一下转写的内容啊,有一些错别字能接受,相当能接受,对吧? 好,接下来我就演示一下我是如何一行代码都没有写,就把这个功能做成 copop 的 skill 的。 我们先点击 coco 左侧的技能菜单,先看看 coco 默认的技能是怎么设置的,就比如这个最常用的 d o c x。 大 概的翻阅了一下,它其实也是用 python 写的一个工具,然后再用文档声明它的使用方式。 ok, 我 们复制这个文档作为参考范本。好,打开我的项目,把刚刚复制的文本粘贴到一个文件里,引用这个文件直接问 ai, 这是 coco 里的一个技能,我希望把我们的一键下载视频并转写文字的功能也做成一个 skill, 是 否可行? ok, ai 开始思考了,这里不耽误大家的时间,我就直接跳过这个过程,看看 ai 是 怎么回答的, 太可以了,而且非常适合做成 skill, 只需要把什么时候调用,怎么调用?常见失败如何处理?固化成规范即可。而且 ai 和贴心的已经帮我完成了文档。好,我们直接把 ai 生成的 skill 点 m d 的 内容复制出来,粘贴给 coco, 告诉他这是一个一键下载视频并转写文字的 skill。 ok, ai 开始思考,大概 two thousand years later? 开玩笑啊,应该也就几分钟。 coco 告诉我,现在已经可以把这个技能完全集成到我的 coco 工作区了,可以随时调用好。我还需要继续编排一个工作流,问一下 ai 是 否可以为我增加一个流程?如果我在钉钉上发送一个视频的分享文本,你就自动下载并转写,然后把转写的结果发给我。 ok, 等待 ai 处理好的 ai 说已经帮我部署好这个自动化流程了。怎么样,兄弟们?全程没有写过一行代码,甚至一行配置都没有写,就可以把以前开发过的功能直接添加成 copilot skill, 而且中间完全没有遇到任何困难。 顺便说一下,我那个项目也是一行代码都没有写,全是 ai 完成的。 ok, 建议各位收藏起来啊,试试给你的龙虾装上手脚。各位有什么疑问或者是后面希望交流什么内容可以评论区留言,我会尽可能的回复大家。

欢迎来到 coco 聊天室,今天讲如何部署 ai 模型, coco 有 多种 ai 模型部署方式,满足不同用户的需求,先容小白优先推荐奥莱玛本地部署奥莱玛如何获取? 在我主页 coco 聊天室中即可获取安装包与教程。下载完成之后,在奥拉玛模块中点击设置,在弹出的窗口中确认 url 正确, a p i 没空即可。然后点击模型,在弹出的窗口中点击自动获取模型 并测试,连接完成后即可正常使用其他 a p i。 以 mini max china 为例,点击设置,在弹出的窗口中输入 a p i, 在 mini max 官网中获取个人 a p i 并复制, 完成后将 a p i 填入对话框中,完成后点击模型,选择对应的模型,点击测试链接,接通后即可在聊天界面选择相应的模型进行使用了。别忘了点赞加关注,我们继续聊酷跑!

欢迎回来,精彩继续! 哈喽,大家好呀,上期视频教了大家如何本地部署扣炮,并且安装了欧拉姆 app, 那 么这期视频就带大家一起看看如何安装适合自己电脑配置运行的模型。话不多说,直接来吧! 首先我们得先知道自己电脑配置运行的模型。话不多说,直接来吧!首先我们右键任务栏空白处,点击任务管理器, 或者按下 c r t, 加 shift 加 esg, 然后点击性能,这里就会显示我们的 cpu 内存, gpu 是 什么。比如我用的这台电脑是 r i x 三千零七十 t 一 六 g, 显存内存三二 g。 然后我们可以右键将我们的配置复制下来。 接着打开 deepseek 官网,粘贴刚才腹肌的内容,问他,你好, deepseek, 我 想要在本地部署 ai 模型,通过 copout 让他帮我自动即兴文件清理桌面等我已经安装好了 olame app, 但是我不知道我的配置能够运行什么模型, 请你帮我分析一下我的配件,然后推荐一些适合我本地不朽的模型给我,再次感谢。然后 deepsea 就 会给你修出一些适合你安装的 ai 模型, 因为你在提系词里填了 olamma app, 所以 它可能还会给你提系安装方法,复制 deepsea 推荐的模型,然后去 olamma 官网模型界面搜索, 我们点击这个 gpt 模型,在这里可以看到它的下载量,更新时间以及详细介向往下滑,还可以看到模型的各个量化版本,基本上我们就选择一个最接近我们显存大小的版本,比如这里我就选择下载了 gpt 杠 os 二零 b, 它的内存只有一四 g, 我 的电脑是可以很快速运行的,它还支持一二八 k 的 向下文,但是只支持文本输入。 我们再换一个 q n 三点五看看,它有很多量化版本,而且五天前才更新,性能强大。可以看到零点八 b 的 模型尺寸只有一 g, 但是机器二五六可以向下纹,还机器图像输入,可以学习,非常强大了。 当你选定了几个模型又犹豫不决时,可以将这些模型的名称复制下来,然后粘贴给 deepseek, 再加上你的需求,问他你应该选择哪个,他会为我们详细介绍每个模型的优缺点,再根据我们的需求为我们选择比较契合的模型。 然后我们就可以挑选二到三个和系的去强行安装了。比如我想安装 q one 三五比零八 b 这个模型,我们直接复制名称,然后打开 cm, 输入欧拉玛 pro q one 三五比零八 b 回车,然后模型就会开始下载了。 当模型下载好后,就会自动放到我们之前设计的路径里,这里刚开始可能是正向速度下载,过一会就会降到几 kb。 不要怕,我们先点击窗口,然后按下 control 加 c, 就 会打断下载,接着选中并 control 加 c, 复制刚才那条下载命令,直接 control 加 v 回车,可以看到下载速度又正常了。 我们可以输入 olama list, 查看已安装的所有模型。模型安装好后,第一件事情肯定是先细细它的所有模型。模型安装好后,第一件事情肯定是先细细它的所有模型。我们打开 olama app, 点开设计, 将最底下的 context link 拉到二五六 k, 发挥出这个模型机器的最高象限,同时模型运行所需要的算力也会增加。然后回到聊天界面,跟你的新模型打个招呼。这个模型机器图像和文字,所以我们还可以点击习字按钮添加一张图片。 由于这个 app 只是个聊天窗口,没办法控制我们的电脑,我们打开 cd 输入的地址,粘贴到浏览器, 回到扣怕页面,然后点击左下角模型,将提供箱换成欧拉玛模型,选择刚才刚安装好的 q n 三五比零八 b, 然后就可以跟他对话,问他有什么技能让他帮我们的忙了。 好了,恭喜你学会了简单的欧拉玛模型下载。接下来我们来看看难度稍微高一点的模型下载方法,它可以更自由地选择模型量化版本,压架你的性能象限,或提供更流程的运行,还能给你的模型加入一点个人调味料。 我们打开摩达官网,找到模型库,然后我们选择 g u f。 模型的格式有很多, 不过你想要在 copw 运行这个模型,就需要将下载的 gduf 格式模型转化。我们搜索 qwind 三五比零八 b, 然后点击后置带 gduf 的 模型,这里有很多这个模型的详细信息,感兴趣的可以自己研究一下。 点击模型文件往下滑,可以看到这里有很多量化版本,还有一些欧拉玛官网没有修路的版本。这些 q 四 k m i q 四 ax 是 什么?看起来就复杂,别怕,我们直接复制,然后丢给 ai, 问他这些字符是什么意思。接着 ai 就 会像叫你学 abc 一 样,告诉你它们的含义。 回到模型文件这里,我们选择一个和系自己的下载下来,如果下载的很慢,可以去下载个什么雷软件,它会直接接管浏览器下载。将你下载好的文件放到你的欧拉玛模型文件夹旁边,新建一个文件夹,随便起个好分辨的名字, 然后新建一个 txt 文本,接着从命名为 model file, 删除 txt 后缀,然后用记事本打开,在里面可以自定义模型的配件,还可以给他一些角色设定。 首先要在第一行输入模型的文件名称 from q n 三点五杠零点八 b 杠 q 四 k m g e q f 然后粘贴模型基础信息,不修这些直接转化也行, 但是模型很容易胡言乱语,答非所问,不知道怎么填基础信息。我们可以看看其他模型是怎么写的。输入 olammo list, 查看已安装的模型,然后粘贴这串代码, 展示这个模型的 model file, 我 们复制这一块代码就行,把它粘贴到我们的 model file 中,你们可以自由对这个参数进行微调,不会就问 ai, 记得保存。文件都准备好后,在地址栏窗口输入 c n b 回车,然后输入欧拉玛 create q n 三五比零八 b 杠 q 八零杠 f model file 中间的这个模型名称是可以自己随便填的,建议简化模型名称,比较好记,易辨别。 然后回车,等待模型创建完成。创建完成后,我们就可以在欧拉玛 app 看到它了,也可以在 kopw 切换它。跟你的自定义模型打个招呼吧,测试一下是否创建成功。 接下来你就可以去反复调戏你的模型了。学会了点赞投币没学会再看一遍,哈哈哈! 通过这几个细频,你已经从零基础小白学会了如何本地不朽 coca w, 如何通过欧拉玛下载模型,还学会了如何自定义模型、参数设定、劫色破球线模型等。 更重要的是学习如何向 ai 提问,让 ai 帮助你学习熠熠进步。能看到这里,说明你们真的很爱学习新机器,有着追求新事物的热情。下期我将从零开始,带大家一起安装 openclaw 小 龙虾,解锁更多好玩又有趣的机器,拜拜!

阿里刚开园的 q 泡桌面智能体,我替你们实打实踩坑实测了,一句话总结,咱们普通小白想上手,真的再等等,别着急,跟风折腾。 最开始我想本地部署,跟着豆包给的步骤一步一步来,全程全是代码操作,要配置各种环境,跑好几个网站下载对应的安装包。对我这种不懂小代码的小普通小白来说,真的巨复杂, 前前后后折腾了快两个小时,最后还是因为环境不兼容,直直接卡死,只能彻底放弃。然后我就去试了阿里云官网标注的五分钟一键部署,结果踩的坑一个接一个。首先就是大家最关心的费用问题, 别看模型本身是开源免费的,但实际用起来有不少消费调用大模型需要开通阿里百链服务,首月套餐七块九,包含一万八千次请求。这个倒是不贵, 但想在云上部署,必须租赁阿里云服务器,我选了最基础的入门配置,最低要先充值一百块,按量付费,折算下来一小时差不多七毛钱。 这里必须给大家提个醒,也是我自己踩过的坑,这个服务器不是你关机,不用就不扣费了。我折腾完关机放了一晚上,第二天一看啥操作也没做,又扣了好几块。 后来才搞明白,他默认状态下关机还是正常计费,只有手动开启节省停机模式,才能免掉算力部分的费用。而且就算开了这个模式,系统盘的存储费用还是会持续扣除 大家,大家如果只是临时测试用,用完一定要直接删除释放实力,不然钱不知不觉就被扣没了。 呃,钱的事还是其次,最折腾人的是他对咱们普通小白真的不够友好,操作手册的很多关键步骤对新手来说说明不够详细,就比如开通密钥,手册里只提到了开通编程密钥, 我照着操作折腾了半天一直报错,后来问了千问才搞明白,调用大模型需要开通的是大模型专用密钥, 就这一个没说明白的细节,白白浪费了我快一个小时。好不容易部署完成,我把它关联到钉钉上,想着手机上也能随时用,结果刚用第二句就出问题了,我先给他发了个文章链接,让他提炼核心要点,倒是很顺利就完成了。 紧接着我用语音发了一句,把这个内容和要点生成一个 ppt, 发出去直接就报错了。后来我问了技术支持才搞明白, 这根本不是我操作错了,是这个刚开源的初识版本本身就还没开发语音识别功能,原声只支持文本输入,不支持语音消息处理,属于版本本身的功能缺失,咱们普通人根本改不了,只能等官方后续更新版本。 整个折腾下来,我最大的感受就是这个工具真的只适合技术爱好者,懂代码的专业人士拿来测试学习。 对咱们这种只想拿它来干活、写文案、做内容的普通创作者来说,真的不建议。现在着急上手,到处都是没说明白的细节,不知道下一步 就会不知道下一步哪就会报错,时间全花在调试上了。有这功夫,用豆包、 deepsafe 那 些都写完好几篇文章了 其实,呃,跟我之前测的 mini max agent 一 样,这些新出的智能体对懂代码、懂逻辑的专业人士来说确实自由度高,很好用,但对咱们普通人来说,真的是步步都有门槛,体验感很不好。 最后给想试的朋友提三个新手一定会遇到的问题,大家记好避坑。第一,普通小白别轻易碰,本地部署操作门槛非常高。第二,开通密钥一定要开大模型专用的,别只开编程密钥。 第三,当前版本不支持语音识别,别在这上面白瞎白费功夫。给咱们普通人一句实在的建议,想玩这些新的 ai 智能体真的不用着急,再等等,等他们出了正式版本,功能完善了,哪天 咱们在应用商店里直接能下载到了再去用也不迟,现在跟风折腾,最后大概就是浪费时间浪费精力,还没办成事。 嗯,接下来我也会回归内容本身,把我用 ai 写头条、做自媒体的真实心得和实用技巧毫无保留的分享给大家。想跟着一起用 ai 做自媒体,少走弯路,不瞎折腾浪费时间的点个关注,咱们一步一步慢慢走。

啊,今天从库房里面把原来的 nec 的 小主机找出来了,准备给他安一个阿里的这个 机器人, ai 机器人,然后我们来看一下。啊,这是很早的主机了,联想代工的。呃,目前的话配置是一个一百二十八 gb 的 固态固态硬盘, 这个这个是联想代工的。这个这个这个 nec 的, 我看看,一九年啊,快十年了,然后 cpu 好 像是 i 七的,然后我看一下, 然后内存的话内存是三十二 g。 哦,这里还有一个一百二十八 g g 的 固态硬盘 mv 一 的我,我待会就把它装上,我们来实测一下这个东西好不好用。离线安装就本地版的部署一下试一下,到时候 我来测评。 好的,我们花二点时间把我们的 p v e 已经安装完成了,然后安装完成了以后,我们就看到我新建了三个虚拟机,一个是路由器,一个是 win 十,一个是无反图,这个是用的爱快,然后主要是给这两台虚拟机做路由的,因为只有一个网口嘛,没办法。然后 win 十的话,我装了一个 吕布的 agent, 他 到时候他可以控制他的电脑,然后乌班图的话就装了一个阿里的 copel 哦, coco, 然后这个也把它装好了,就是怎么说吧。嗯,阿里的小龙虾 open claw, 它是基于 open claw 还 那个思路来做的,我们也可以看一下这个,这个东西文档里面他是有的,就上一期视频我给大家说的他是他,他是阿里开源的一个,这个部署还是很方便的,他是用的 locker, 然后我在这个模型里面我也设置好了,我是用的轨迹流动的,然后设置了这些模型,其实都还好吧?呃,都还可以,然后用的话是用的这个啊, g m 五, g l m 五,还好,这个用用。然后我们来看一下它这个常见问题,这个地方对比, 它就是跟 open core 其实是属于对标产品啊,只是 open core 的 话界面不是很友好,然后对接非输的话也不是很方便,然后我用它的话就是试一试, 然后目前的话,呃,用这个其实还挺好,看一下能干什么?这个就是活生生的消耗陀刻啊 啊。就主要是做自动化的,这个说实话用这个用习惯了,还是很棒的, 包括今天我上午的时候已经把它接入了飞书啊, 他就可以去用了,今天基本上用了十六万的托管,消化还是比较大的。这个托管书, 这个这个就是这个就和他两个连在一起的,这个是用的飞书的 api 的 接口,在这个地方 频道里面我已经把飞书给弄好了,这两个是通的这个 bug, 这里这个 bug 就是 这里这个他会提示 bug, 然后我们在聊天记录里面也是能够看得到的。绘画, 这个是刚刚我们的绘画,就他他能做的功能还是挺多的,我后面我会花点时间再来研究一下他, 包括我我们做的合同开票对照词,然后还有一些提醒他都可以用,很方便 啊,我们可以来试一下,比如说帮我 打开百度,然后解那个归类 今天的新闻,以后,每天二十二点执行, 就我们他就成了一个私人的秘书了,就很方便。但是有个问题啊,我这个网络不是很好,因为用的家里面的嘛,然后托肯调用的话是用的轨迹流动的,不是本地部署的。我在想后面还是想, 嗯,找一个显卡,然后本地部署试一下,先先用一下它的效果,然后再后面再考虑购买硬件的情况,然后我们稍微等一会。 好的,他已经开始在做了,其实,哎,点错了,其实我们可以看到这个地方, 他他这里就是他调用的时候,他就会把我们之前调用的窗口给凸显出来,这就是我之前问的,然后他他这个和这个是一样的,内容是一样的, 没有区别。然后我们可以在这个绘画的历史记录里面看到这里,这里就是我们刚刚看到的, 帮我打开百度,然后怎么怎么样,然后你会看到这里他就是飞书,接入的 飞书,所以我需要花点时间再实测一下,后面如果有更多的好用的技能我再给大家分享, 基本上情况就这样,然后功能的话就跟那个小龙虾是一样的,比如说这个功能区,他是一个机器人,然后技能 skill, skills, 这些都是,这些都是人家他做好了的,我们也可以去找,到时候 今天都先到这,后面我测试好了再给大家来分享一波。

大家好,我是大厂研发工程师张飞,欢迎来到张飞 ai 开发实验室总结,我们记上次讲的扣号、整钱三个列当中我们再巩固一下子,那整钱主要是第一个我们要计算 tiktok 的 一个统计, 那 tiktok 这个包括当前的一个会发词的统计消耗,另外是今天我的统计消耗多少,这一周消耗是多少? 以前就是我使用的一些模型,大家可以看到这里面我模型我使用的非常多,其实大部分都是 model scope 里边的一个模型。对,我增加了 model scope 里边一些 免费的专用次数一些模型,这样我增加比较多,也是省钱的策略之一。 model scope 大 部分都是免费的,我们看一下 model scope 这里面确实可以看到 model scope 里边我设置了非常多的模型,而目前前三个模型应该我都已经使用完了,我现在已经到第 对第四个一个四图五的一个模型,现在正在使用,那使用过程中我在这里可能会问他一下他在干什么?这也是我增加了。最近 大家一直知道我一直在做智能体,做这个智能体我已经添加了非常多的一个具体的体了,可以看到基本上这五个模板我都已经增加上去了。这五个模板分别代表有市场经理,有产品经理,还有人力工程师,还有内容解析,还有数据分析。 那在这些结构体下面,我现在有已经做好把这个架构调整好,配合这个多角色智能体去做了一个多智能体的一个模式设计。那什么是多智体模式?这就是一个协助模式, 大家可以看到在这里头增加这么多的一个模式,那有什么模式?就是我们出跑官方支持的这个 react 这个模式,那 还有一个是计划模式,还有讨论模式,还有换钱进行,还有层级关系,还有 handoff, 另外也可以增加其他的一些模式,这基本上都是阿里的 adlib 可以 支持的一些模式。这样子我在一个绘画当中,我可以开启这个 plan 的 模式,比如说这里是数据分析师,我开启这个 plan 模式就可以帮我做 复杂的一些工作任务,比如说我可能给他设计了让他规划一个什么样的项目,或者说我让他具体什么样的任务分为一二三四五步去做,他就会给我提供 plan 这种模式。大家不知道这个 plan 模式是什么样子,我们可以看一下这个 一个模块的,这里基本上就给做了一个管理,可以看到每个 a 点上他们的一个模式,这里面有个五个 a 点上哪个使用,哪个没在使用, 他的主要的一个模式是什么?比如说前两个是我早期去建的,后面三个是我最近建的,所以说我他默认都是自然模式。当然如果说你问他简单问题,比如说你问他是你是谁,他可能还会路由模式的路由到一个简单的一个模式来用一下,这样也是为了一个简单的操作。 对,再回到省钱这里来说,我使用这么多模型,每个模型都是被这个 id 呃,被这个 model scope 所调用,那它调用完了之后不让我再调用了,我就会自动的进行到下一个模型,可以看到这个模型里头我有这么多模型配置的, 那直到到最后如果说免费都使用完了,那今天都使用到量了,那我就会使用完美的阿里的 facebook, 这里面就会有我花一些钱去做,大家可以看看这个省钱的一个项目。目前本周我也用了三十七 k 的 一个扣票,当然我可能没有重度去使用,只是使用一些部分调试功能,但是三十七 k 也换算了,一下子也就是一分钱。那我们看看,我在这里头有让 ok, 这是内容分一个分析师,我还增加了一个分析,一个模式,可以在这个 model c code 里可以设置一个分析开启分析模式。另外也可以后边可以再加在我们这个 type 面板里边去增加这个模式,后边可能我在做一些产品的调研,用户动态方面可能会有一定的分析, 再看看我怎么去使用这个内容。内容创作写作助手是我之前给他更新做了,就是我给他改回来,我给他通过内容转写,我是在这里边找到内容转写的 这种提示词,我就给他再看看,对,这也是内容转写的。 ok, 这个软件工作室主要是我可能会和他去讨论一些这个方案。文档 存储到这个记忆系统当中,难道我们知道像 coco 或者说 opencloud, 他 们的记忆是最重要的,而且这记忆都存储在本地,而且是隐私保密,所以说可能会一些文档会让他讨论, 最后他也会生成大量的文档放到非谈的点。 coco 的 一个 word space 下的 software engineer 下。 ok, 这是我当时我在创建软件工作室,我给这一些词做了一些 测试的一些问题, ok, 大家可以看看这个,这个也是我在给软件工作室里头写了一个对 c l i 一个命令,我给对对 c l i 的 这个命令去写一个 build, 要给这个 build 去,这样子我就可以在远程比如说飞书上连接,通过这个飞书 channel 去连到这个 build 上,然后通过去操作我电脑上的队去做一些编码或者一些任务, 这个还没有去调试,后边可能会调试好,这也就是说解决问题没有问题,进一步的去省钱,通过 model 更多的模型使用。 第二步我个人使用的一些情况,简单的先给大家去做这个分享,因为大家有很多痛点,痛点之一就是说我装了这个 openclaw, 或者说扣炮花钱又多,又不知道用它来干什么。其实我开发这些功能主要是 为了这个可能会更容易比 openclaw 更好使的一些功能,我们要利用它成为我们的通用的一个个人助理。我们在本地电脑可以为我们做一些快速的服务和长期的一些记忆,这个文件一些使用和哪些好,本期就给大家讲到这。

我是大厂研发工程师张飞,欢迎来到张飞 ai 开发实验室。本次我们讲一下子阿里酷泡极致的省钱三策略。第一个策略我们要做省钱省 token。 那 首先我们要做一下统计,看看 token 主要花在哪些模型上, 或者花在哪些模型的上下文的一个输入上,我们再去针对这个模型去做一些优化。那所以说我这里做了一个 tokens, 一个统计面板,在这统计面板里头它有当前绘画,它会定时的刷新消耗,有 tokens, 有 总数,有你发多少消息。 另外呢还有使用概览,就是你所有的绘画使在本周使用多少 tokens, 这里是不是在使用,这里是模型分布,我主要使用的是 keepatch 啊三点二版本, 下面一个千问。三是我在测试过程中,那昂本地一个模型使用都是在测试过程中使用的,他就记录下来下面模型一个使用,这个就是统计面板,如果说我想把统计面板关掉,就可以关掉它,这样不影响我这个绘画的窗口,就是把模型我要加载一下这个大模型。 因为继前一节我们知道我这边开发了一个智能体管理的一个应用,智能体管理这块可以创建多个智能体,在我们一台电脑上可以创建多个智能体,有分开的隔离的这个 workspace 工作区。那接下来我们 默认是只配置了一个模型给所有的这些角色智能体,但是有些简单的任务,我们希望 特定给绑定到一个角色智能体上,所以我开发了第二个功能,就是模型的一个全局配置, 在这里我们可以看到全局的一个大模型配置,可以按照一二三四五的一个顺序去配置他要使用的模型,并且配置后边的超时时间。如果说默认我们都使用第一个模型去这个超时,这是所有的角色智能体都会采用这样的一个顺序优先级去 进行一个便利去使用不同的模型。那正常情况下如果说第一个模型是没有问题,使用也不会超时,他都会使用第一个模型。还有一种方法,我们在这个智能体馆里头特定出来某一个 角色智能体,我要用定制化的一个 provider, 我 们可以选择,比如说本地的一个模型,假如说我选择这个本地模型保存,这样子他就会被保存特定到使用这一个 本地的一个模型,这样子使用本地模型就可以让我们进行一个省钱一个策略啊。那这里讲的话就是说刚才讲了这个大小模型,那大模型我们连接为理解为是远端模型,小模型是本地模型,大小模型可以进行一个动态切换配置,当然这里可以去设置一个本地的模型, 另外也可以把本地模型设置为第一个,下一个我们讲一下如何再继续省钱,这就是节省。托尔斯我们只要把这三个环境变量设置进去就可以, 那这三个环境变量呢?我们可以把它设置到这一块,添加环境变量,然后去设置进去。这三个环境变量讲的是什么?第一个环境变量说我们在使用一些工具的时候,对一些结果 要使能一些压缩功能或者截断功能。第二个我们要对我们的上下文有一定的一个早一点触发压缩,比如说我们现在的内容已经达到上下文,比如说上下文最大限是两百 k 的 一个 限制,那我们到达一百 k 的 时候就要开始触发压缩,默认的话它是零点七,在这里设成零点五。还有一个就是我们在触发压缩的时候至少要保存八条信息,默认值是十条信息,那我们这里改了八十条信息,也基本能够符合我们对中等的一个 任务的一个需求。好,这是第二条。第三个讲一下本阿里扣炮本身就已经有的一个功能,向量数据库,在这个记忆当中它本身就继承了 r e m e, 在 零点零点五版本已经有了,我这个是基于零点零五版本去做的, 这个 r e m e 的 一个向量数据库,它可以用来去解锁,也会节省这个 tokens。 好, 那最后我就说一下子, 呃,下一步我们将要开发的一个图片功能,还有是知识库建立,有些用户需要将自己的文档放到这个 r a g 知识库当中去, 方便自己去使用。还有就是 skills 功能,例如一些安全检查的 skills, 还有 skills 的 一些开发可以给大家介绍。好,本节就讲这些,谢谢大家。

我是大厂研发工程师张飞,欢迎来到张飞 ai 开发实验室。本次我们讲一下这个我根据 coco 阿里的 coco 去开发的一些功能,大家比较关注的一些多角色智能体,就像 open class 一 样的功能,我已经放到我的一个个人的 github 的 一个网址 link 就是 我的一个网址, coco 就是 这个项目名。大家点击到这个切换这个 z g l branch, 最后点击这个 code, 下边有个 down load 的 这个包,就可以把这个包下载下来。下载下来之后啊,大家可以用这个字节的 tree 去把它打开,打开项目之后就可以打开这个终端,终端在这里头新建终端,新建终端时候建下来之后 就可以去安装这个包,安装的时候应该大家都知道在这一侧是可以提些问题,比如说去问我该怎么去安装,那我可以简单的去看一下子,它这里有一个 readme 文件,告诉我们哪里怎么去安装开发版主要是这两个开发测试 就是用这个命令,当然大家提前需要进入 python 这个环境当中,进 python 环境当中,我建议大家可以安装 python, 安装 python 之后要输入一个 python 杠, m v e n v m e n v 输入这个命令,那输入这个命令之后呢,就可以在当前的 q pad 的 一个目录下去创建一个 python 的 虚拟环境,这样子它不会影响你整体电脑的一个 排序环境,再输入一个命令就可以进入命令,我新建一个终端演示一下, ok, 这里是已经进入了,那我出去之后再重新进来 e n v scripts 脚本 active 就是 激活虚拟环境, 对,我们就这条命令就可以进入了虚拟环境,激活到虚拟环境之后,就可以用行运行下面的一个 p i p install 这个命令,安装开发版的一个各种个性化的包,然后再进行大家已经知道的抽象,最后再运行那最后这个结果,像这么一个结果运行之后,这样子就开启了一个 后端,我们在等待它打开,打开之后我们点击前端,在前端这种点击智能体管理,点击这里创建一个智能体,你们按照下面提示就可以创建你们所需要的智能体,这里有一个模板,你可以选择自己的模板,也可以选择 自己随意建其他的一个信息就可以创建,创建之后要选择相应的一个激活,激活之后就可以在这里和去聊天或者展示一下子。现在这里我就激活了一个产品经理,我给他激活了个产品经理, 启动的是一个 old strap, 都可以告诉产品经理我的需求是什么,我给他定位是什么,下面就输入给他,他都会保存在独立的一个产品经理这个 workspace 当中。 同时我这里又建了一个市场营销推广,在这里我也给了一些定位,他自己就会建立进去,也是市场营销推广 agent 和这个 安敏经理 agent 两个是独立的工作空间,并且都可以把它配置到这个非输应用当中,这也是开发功能。在非输应用当中,大家知道 上节视频当中给大家讲过有个 app id, 还有一个 app 的 一个 secret, 把这些都配好之后,并且绑定到相应的一个智能体,比如这里绑定到一个是产品经理,一个是绑定到市场营销推广经理, 两个都点击保存,并且两个都去启动,它就可以去使用了。 ok, 这个是绑定到产品经理了,这个应该绑错了,绑这个市场营销推广 a 人的绑。对,我们再点击启动,两种 都启动之后,这样就通过飞书可以和他们分别交流,在飞书当中去拉一个群,你自己加上产品经理,再加上市场推广营销的一个经理,你们三个人可以去讨论,给他们分配不同的任务,并且让他们去讨论。今天讲到这,谢谢大家。

阿里它自己开开研了一个桌面 asian 工具叫 coper, 它是可以自动的, 可以在本地部署,它有,它也有自己的一个一个 skill 的, 那么我们现在就在本本地进行一个 coper 的 一个部署。 好,现在我们来来开始安装。首先我们看一下自己的电脑, 电脑有没有安装这个 passion, 我 们可以用这个命令 passion 这一个版本 看一下,如果安装的话,它会直接输入一个版本号。嗯,比如我借电脑的话,我就安装了这个是三点一三的版本,它这个 抠怕的话,他他的他的需要的就爬山,他他要三点一零到三点三三的版本,所以的话,如果你的版本是第一这个版本的话,那就我们就要先卸载这个爬山,重新去官网下载一个 三点一零以上的一个版本啊,我们就可以去看一下这个 passion 官网络。哎,看一下这个版本啊,这里的话这个就 passion 了一个官网,因为我是 windows 版本的话,所以我就在这个 windows 里面,这个 windows 里面下载它,这里有一些一些版本,比如这个是三点一五的话,我们要我们要找的话,比如我们这个是三点一三, 我们最好就找找在三点一零到三点一三的一个一个版本。以后我就下载这个六十四 v 的 话,现在的电脑都是六十四 v 的 电脑了,如果 我们去下载,下载完了话,那我们就去找到这个 e x e x e 关键右键以管理员身份去运行,就避免一个权限的问题。 嗯,这个就是一个帕森的一个安装啊,我,我记得的话,我就已经安装了,所以我就不再安装,所以我们就看一下 这个是一个帕森的安装的话,嗯,下一步的话,下一步呢我们就要安装这个 q 帕。 q 帕的话它是它是有两种安装的, 这两种加载下载下载方式,第一种的话就直接用这个 pink 这个安安装这个 q pad。 还有就是我们是就加一个,加一个相当于它它这个链接就是清华链接,它就会比较速度,下载的速度会比较快一点,因为我是用了用到这个去加速下载的话,嗯, 我给你看一下,给你看一下,因为我我已经下载完的话,那我们就可以直接验证一下这个 q pad 的 一个版本, 嗯,它就没有这个,没有这个命令,因为我们下载完了啊,我们就要出售下这个这个 coca, 嗯,因为我,我现在我我已经安装好了,那我现在就直接启动一下,看一下我本地跑起来这个 coca, 嗯,它现在就跑起来了,就按这个 ctrl 键键盘,这个 ctrl 就 直接可以跳过去了,因为我现在已经是就可以看到这个 q。