欢迎回来,精彩继续! 哈喽,大家好呀,上期视频教了大家如何本地部署扣炮,并且安装了欧拉姆 app, 那 么这期视频就带大家一起看看如何安装适合自己电脑配置运行的模型。话不多说,直接来吧! 首先我们得先知道自己电脑配置运行的模型。话不多说,直接来吧!首先我们右键任务栏空白处,点击任务管理器, 或者按下 c r t, 加 shift 加 esg, 然后点击性能,这里就会显示我们的 cpu 内存, gpu 是 什么。比如我用的这台电脑是 r i x 三千零七十 t 一 六 g, 显存内存三二 g。 然后我们可以右键将我们的配置复制下来。 接着打开 deepseek 官网,粘贴刚才腹肌的内容,问他,你好, deepseek, 我 想要在本地部署 ai 模型,通过 copout 让他帮我自动即兴文件清理桌面等我已经安装好了 olame app, 但是我不知道我的配置能够运行什么模型, 请你帮我分析一下我的配件,然后推荐一些适合我本地不朽的模型给我,再次感谢。然后 deepsea 就 会给你修出一些适合你安装的 ai 模型, 因为你在提系词里填了 olamma app, 所以 它可能还会给你提系安装方法,复制 deepsea 推荐的模型,然后去 olamma 官网模型界面搜索, 我们点击这个 gpt 模型,在这里可以看到它的下载量,更新时间以及详细介向往下滑,还可以看到模型的各个量化版本,基本上我们就选择一个最接近我们显存大小的版本,比如这里我就选择下载了 gpt 杠 os 二零 b, 它的内存只有一四 g, 我 的电脑是可以很快速运行的,它还支持一二八 k 的 向下文,但是只支持文本输入。 我们再换一个 q n 三点五看看,它有很多量化版本,而且五天前才更新,性能强大。可以看到零点八 b 的 模型尺寸只有一 g, 但是机器二五六可以向下纹,还机器图像输入,可以学习,非常强大了。 当你选定了几个模型又犹豫不决时,可以将这些模型的名称复制下来,然后粘贴给 deepseek, 再加上你的需求,问他你应该选择哪个,他会为我们详细介绍每个模型的优缺点,再根据我们的需求为我们选择比较契合的模型。 然后我们就可以挑选二到三个和系的去强行安装了。比如我想安装 q one 三五比零八 b 这个模型,我们直接复制名称,然后打开 cm, 输入欧拉玛 pro q one 三五比零八 b 回车,然后模型就会开始下载了。 当模型下载好后,就会自动放到我们之前设计的路径里,这里刚开始可能是正向速度下载,过一会就会降到几 kb。 不要怕,我们先点击窗口,然后按下 control 加 c, 就 会打断下载,接着选中并 control 加 c, 复制刚才那条下载命令,直接 control 加 v 回车,可以看到下载速度又正常了。 我们可以输入 olama list, 查看已安装的所有模型。模型安装好后,第一件事情肯定是先细细它的所有模型。模型安装好后,第一件事情肯定是先细细它的所有模型。我们打开 olama app, 点开设计, 将最底下的 context link 拉到二五六 k, 发挥出这个模型机器的最高象限,同时模型运行所需要的算力也会增加。然后回到聊天界面,跟你的新模型打个招呼。这个模型机器图像和文字,所以我们还可以点击习字按钮添加一张图片。 由于这个 app 只是个聊天窗口,没办法控制我们的电脑,我们打开 cd 输入的地址,粘贴到浏览器, 回到扣怕页面,然后点击左下角模型,将提供箱换成欧拉玛模型,选择刚才刚安装好的 q n 三五比零八 b, 然后就可以跟他对话,问他有什么技能让他帮我们的忙了。 好了,恭喜你学会了简单的欧拉玛模型下载。接下来我们来看看难度稍微高一点的模型下载方法,它可以更自由地选择模型量化版本,压架你的性能象限,或提供更流程的运行,还能给你的模型加入一点个人调味料。 我们打开摩达官网,找到模型库,然后我们选择 g u f。 模型的格式有很多, 不过你想要在 copw 运行这个模型,就需要将下载的 gduf 格式模型转化。我们搜索 qwind 三五比零八 b, 然后点击后置带 gduf 的 模型,这里有很多这个模型的详细信息,感兴趣的可以自己研究一下。 点击模型文件往下滑,可以看到这里有很多量化版本,还有一些欧拉玛官网没有修路的版本。这些 q 四 k m i q 四 ax 是 什么?看起来就复杂,别怕,我们直接复制,然后丢给 ai, 问他这些字符是什么意思。接着 ai 就 会像叫你学 abc 一 样,告诉你它们的含义。 回到模型文件这里,我们选择一个和系自己的下载下来,如果下载的很慢,可以去下载个什么雷软件,它会直接接管浏览器下载。将你下载好的文件放到你的欧拉玛模型文件夹旁边,新建一个文件夹,随便起个好分辨的名字, 然后新建一个 txt 文本,接着从命名为 model file, 删除 txt 后缀,然后用记事本打开,在里面可以自定义模型的配件,还可以给他一些角色设定。 首先要在第一行输入模型的文件名称 from q n 三点五杠零点八 b 杠 q 四 k m g e q f 然后粘贴模型基础信息,不修这些直接转化也行, 但是模型很容易胡言乱语,答非所问,不知道怎么填基础信息。我们可以看看其他模型是怎么写的。输入 olammo list, 查看已安装的模型,然后粘贴这串代码, 展示这个模型的 model file, 我 们复制这一块代码就行,把它粘贴到我们的 model file 中,你们可以自由对这个参数进行微调,不会就问 ai, 记得保存。文件都准备好后,在地址栏窗口输入 c n b 回车,然后输入欧拉玛 create q n 三五比零八 b 杠 q 八零杠 f model file 中间的这个模型名称是可以自己随便填的,建议简化模型名称,比较好记,易辨别。 然后回车,等待模型创建完成。创建完成后,我们就可以在欧拉玛 app 看到它了,也可以在 kopw 切换它。跟你的自定义模型打个招呼吧,测试一下是否创建成功。 接下来你就可以去反复调戏你的模型了。学会了点赞投币没学会再看一遍,哈哈哈! 通过这几个细频,你已经从零基础小白学会了如何本地不朽 coca w, 如何通过欧拉玛下载模型,还学会了如何自定义模型、参数设定、劫色破球线模型等。 更重要的是学习如何向 ai 提问,让 ai 帮助你学习熠熠进步。能看到这里,说明你们真的很爱学习新机器,有着追求新事物的热情。下期我将从零开始,带大家一起安装 openclaw 小 龙虾,解锁更多好玩又有趣的机器,拜拜!
粉丝14获赞48

cpa 作为国内一款与 open core 对 标的智能体,我认为在功能设计上比 open core 更易用,整体界面比较简洁。当然 copi 的 功能确实没有 open core 强大,但是在安装时 open core 就 比 copa 复杂了一些, 因为彼人一直都是用 one pinning 安装,点击下鼠标就行了,安装方面就没有什么区别了。 copi 的 需要在界面上配置大模型,任意选择 open codes 安装时就需要配置,但是在操作界面这里就不能更换大模型了, 只能通过代码配置对接。渠道方面, openclip 内置的基本没有国内可用的应用,想对接钉钉、飞书、 qq 就 得通过代码配置了。 coca 就 不同了,内置的都是国内的应用, 不需要配置代码就能对接这些平台。如果是钉钉的群聊机器人,可以在得到机器人的 web 之后,直接在聊天框里让它对接这个钉钉机器人,它就自动完成了。这两个智能体都是可以做到的。配置 skill, 也就是技能。没有研究过 open code, 看着这个界面真是不知道怎么下手, 但 coca 只给了一个提示,你就知道怎么操作。这里有几个 skill 的 网站,那么你就可以在这些网站上找想要的 skill, 把网址复制到配置框中就可以。虽然欧文科可以在里面搜索想要的 skill, 但只有五十一个,而且有些还是有限制的,这就和 coca 的 毫无对比性了。 配置 m c p 方面, coca 的 控制台是可以直接配置的, open class 没有入口,需要通过代码配置增加了使用门槛。但一些辅助安装的平台会做一些易用的功能,比如说 one panel, 它就提供了直接对接飞书等平台的配置界面, 免去代码的繁琐。除了 m c p, 还有心跳。 open class 在 网页控制台没有配置心跳的入口,只能通过命令,又提高了使用门槛。不过这个功能用处不大,定时任务基本也可以实现。最后总结一下,如果你代码能力比较强,喜欢研究钻研 或是对智能体的深度探,所有想法就选 openclo。 在 前段设计上, coco 比较容易上手,适合国内用户或不懂代码的小白入门。但是这段时间对 coco 测试,彼人也遇到了各种小 bug, 比如对话框无法切换、对话长时间没反应等问题。 如果阿里云开源的这个智能体不只是用来蹭热度,而是当成一个长期重点维护的项目,我相信这种差距会越来越小。并且 coco 里确实每天都在迭代版本, 应该不会让我们失望,哪怕后面你搞一些付费插件,持续支撑项目的发展,我相信很多用户也是能接受的。好了,今天就到这,我们下期再见。

哈喽,大家好呀,本期视频教大家如何本地,不求扣怕。首先我们需要先下载 python, 官网写着 python 版本要大于等于三点一零,小于三点一四,我们按 win 加二输入 cnb 后回车, 再输入拍放空格杠 v 查看已安装的拍放版本,如果版本合适就可以跳过这一步,没安装的可以到拍放官网下载。视频中所有链接均放在简介评论区置顶,大家可以直接去附近, 我们打开拍放官网,点击 downloads 跳转到特定版本页面往下滑,找到一个大于等于三点一零,小于三点一四的版本,这里我选择三点一一三, 我们鼠标点击三点一一三往下滑,根据你自己的电脑选择安装和系版本,我这里选 win 六四,下载好后双击打开,勾选 add python exe to pass, 然后选择直接安装到末列位置。 安装好拍放后按 win 加 i 打开 cmb, 然后用我评论区置顶的清华大学开源软件镜像架下载。安装完成后,我们输入 koopw i need 杠杠 default 进行 koop, 默念出息化 这里他问我们是否已阅读并接受像素安全息机,我们即刻按回车出息化完成,输入 koop app 启动, 接着鼠标腹记端口地址粘贴到浏览器回戳,这样我们就将 koop 本地部署到电脑上了。 部署成功只是第一步,想让 koopw 真正成为你的得力救小,还需要做一些简单的配置。我们点击左下角模型,先接入下一级创建的 apikey 试试,点击 modelscope 下方的设计粘贴你的 apikey, 忘记了的可以去摩达杠首页访问控制里重新复制,在 l m p g 这里提供箱选择 model scope, 模型选择千问,然后保存。 回到聊天窗口新建聊天,可以在这里跟他对话,让他帮你干活了。需要注意的是,因为有 token 官网或者豆包官网就行,那里是免费的,速度还快,嘻嘻。 接下来我们教大家如何使用本地不朽的模型,没有 tocan 陷阱,可以自由定制,等速度和能力全靠模型和你的电脑算力的支持。 好了,我们先看看怎么把模型下载到本地。下载模型的渠道有很多,这里我推荐比较简单向朽的两个平台,欧拉玛和 modelscope。 我们打开欧拉玛官网可以看到这里有很多模型,不过不要怕,我们新安交欧拉玛 app, 接下来我会教大家如何选择适合自己模型。鼠标移动到右下角,点击 download 下载 app, 如果下载很慢,可以用我为大家准备的网盘链接下载。 下载好后,先别急着安装,因为欧拉玛和模型会默认安装到本地,我们需要更改它的安章位键,找到安章程序,按 ctrl 加 x 剪切。我在一盘新建了一个 ai 文件夹, 这里会放一些跟 ai 有 关的文件,你们可以根据自己的习惯来创建。将刚才下载的安装程序粘贴到文件夹内,接着新建一个文件夹,并就命名为欧拉玛。我们在文件夹地址栏输入 cmb, 回车输入 o l m s set up e e g e d r 等于加文件加路径,双击进入文件加复制文件加递进,然后粘贴回车接接会跳出一个安装窗口,我们直接进行安装。 解决了 app 的 安装位置,接下来我们更改模型的安装位置,我们在搜索框搜索编辑系统环境变量,打开,然后点击环境变量, 接着在下面点击新建变量名,输入欧拉玛 models 变量级,输入你新建的欧拉玛 model 文件加地址,我的是一 ai 欧拉玛 model, 然后点击确定杠确定,这样我们通过欧拉玛下载的模型位置就更改为你设定的位置了。 好了,我们现在可以打开欧拉玛 app 看一看。欧拉玛 app 为我们提供了一个简单的对话窗口,我们可以在右下角选择模型进行对话,注意,目前是没有下载任何模型的,你选择了模型并进行对话会直接触发。下载 这么多模型,我们怎么知道哪个最适合我们呢?别着急,休息一下马上回来。

在 open core 横行的二零二六年,可能很多人还不会怎么去电脑安装,要么就是根本不懂,要么就是被一大堆英文配置难住了。现在有了 coco, 让这一切都变得更加的简单。 我们可以先来到 coco 官网了解, coco 是 阿里云通易团队推出的个人智能助理,支持本地与云端双模式部署。现在我们直接进入主题,教你如何本地化部署 coco。 按照官方推荐,我们选择一键安装, 这里会出现不同系统的安装模式,具体根据你常用的系统选择对应命令。视频中我们以 windows 作为演示。首先我们打开 cmd 运行窗口, 把 coco 安装命令粘贴到窗口中,这时候可能会出现运行报错的提示。不用怕,我这里给大家准备了一个备用的安装命令地址,重新输入备用命令,回车进行安装。 看到 coco 已经安装成功了,复制这个命令到 c m d 窗口中,回车, 点击高级,找到下方的环境变量进去,找到 p a t h, 双击打开,点击右上角新建,把这个复制进去,最后点击确定。 接着就到 coco 出使画了,跟着文档命令走就行, 直接回车回车,然后就可以看到出使画成功了。 最后我们就可以启动 call 炮了,复制这条命令,这里启动时间可能会有点久,稍等片刻,当你看到一百二十七点零点零点一的时候,就说明服务已经可以访问了, 这时候我们在浏览器打开这个地址, 看到这个界面的时候,就说明你的 call 炮已经安装成功了。如果默认语言显示的是英文的话,就在页面右上角自己选择中文,接下来我们开始跟 call 炮对话, 啊,不好,我们要先配置大模型的访问权限,这里我们进来后会看到系统已经默认选择了第一个,直接点设置进去,这里会出现一个 api 密钥, 我们打开这个地址去注册获取一个,找到访问控制,另一排就是我们需要的密钥。复制后回来 call 页面粘贴进去,点击测试连接,如果弹出绿色框说明连接正常,然后再回去聊天页面跟 call 愉快的对话。 要命啊,这里又忘了一个设置,记得把刚才设置的提供商勾上,模型呢,随便选一个, 这样我们就可以看到正常输出了。但是这里呢,也只是最简单的 ai 对 话而已, 要注意这里的对话是需要消耗 token 的。 我们差个题外话,可能有很多小朋友还不知道 token 是 什么意思,只要你有用过四 g 五 g 网络,你用过数据流量,你把 token 理解为 ai 数据流量是不是就很容易理解了? 而且这个流量在接下来又用到的的 agent 实力中消耗很快。 为了应对 token 的 消耗问题,我们其实可以搭建一个本地大模型,让 call 炮直接对话我们的本地模型进行服务。这里我们使用欧拉玛来部署本地大模型。进入欧拉玛官网,点击右上角的 download 下载系统程序 安装成功后就可以看到阿欧玛的功能页面了,现在我们去找下我们需要的大模型。回到欧拉玛官网,选择 models, 搜索 p w n 三点五, 不要安装带有 cloud 的 标志,那个是在线模型,需要 token 的, 我们可以找一个体量小一点,适合本地电脑安装的模型,因为正常家用的电脑配置都不会太高。这里有一个支持零点八 b、 二 b、 四 b 的 模型,可以点进去 复制安装命令到 c、 m、 d 窗口中,记得加上你选择的具体模型。所谓的零点八 b 或者二 b, 其中的 e b 表示十亿个模型参数,所以越大的参数量对电脑的性能要求越高, 安装可能要一段时间。本地演示直接跳过, 当看到三 day message 的 界面时候,就说明本地大模型已经安装成功了,你就可以跟欧拉玛进行对话。 接下来回到 call 炮中,找到模型配置去,我们开始配置本地模型,找到 alma 选项, 因为本地尤拉玛不需要密钥,所以我们随便输入一个一二三四,点击保存后会弹出一个报错,让我们安装什么 s d、 k, 太麻烦了,难道就没有更简单的方法?我们找到右侧有一个添加提供商按钮, 这里我们随便命名一个,例如 my model, 然后在默认 base 二中输入,这个妙呢,还是输入一二三四就行。最后点击创建, 找到 my model, 点击模型按钮,把刚刚下载的模型名加上去,最后测试下连接, 最后记得选中刚刚设置的模型保存,然后回到聊天页面, 这里就开始考验你的本地电脑性能了,如果本地电脑配置不好的,不要随意尝试,直接用在线模型就行,花钱买 token 就 可以了。 看来本地模型输出没什么问题,就是速度还是有点慢,为了演示速度之后我们会全程采用线上模型消耗 token 模式。 接下来就进入二零二六年最流行的 skill 介绍,什么是 skill? skill 其实也就是我们常用的技能,这里可以看到 coco 默认已经存在一些技能了, 我们可以来问一下,看下 coco 知不知道它都具有哪些技能, 看来他还是知道的,但是实际应用中可能这些默认的技能不能满足我们的日常需求,这时候我们就可以新建一些自定义的技能了。这里我就来教大家如何创建属于自己的 skill。 比如你现在是一位宝妈,每天为了孩子吃什么而感到焦虑,让 coco 每天推荐一个菜系,并且教你怎么做这道菜,是不是就很方便了? 这里我就简单写一个菜谱的技能,我们可以给技能命名为 cook, 内容呢参考左边我已经写好的。注意,我们在最后有一个输出要求复制进来,技能中的 name 表示当前的技能名称跟刚才命名的 name 一 致就可以。 description 表示当前技能的简介,说明这个技能是干嘛的。 name 和 description 上下有三个短横杠包围起来,这种是固定格式,是给抠炮识别用的,要遵守。点击保存,然后启动我们新增的 cook 技能。 这时候我们打开 coco 运行的 c m、 d 窗口,按下 c t r l 加 c 按钮,当看到终止处理操作吗?这时候继续按一次 c t r l 加 c, 停止当前的 coco 服务,然后输入 coco app 命令启动 coco 服务。 当看到一百二十七点零点零点一的时候,刷新刚才的 coco 网页, 这时候我们继续去问他,你有什么技能? 从输出的内容中我们就可以看到刚才添加的 cook 技能了,现在我们就让 coco 来实现这个技能, 可以看到 coco 识别到了我们的 cook 技能,并且在最后成功输出我们的要求, 灰狼大厨并且带上了祝福。所谓技能其实就是给不同需求的人都可以根据自己的需求创建一个工具,不同的人会有不同的需求, 比如销售,可以创建一份根据客户生成客户喜好的技能,比如牛马,可以创建一份工作日报生成的技能, 比如保险,可以创建一份根据不同职业生成一份合适的保险技能。当然技能完全可以不用自己去写,把你的需求发给豆包,豆包就能帮你直接生成了,加上 call 炮要求的 name 和 description 头部就可以了。 最后我们进入频道的配置教程,我们这里以飞书作为教程演示案例,我们首先要打开飞书的开发者官网, 进入开发者后台,可以看到一个创建企业自建应用的按钮,点它,然后输入应用名称和描述 call pro, 接着全程跟着教程走。 接下来就可以打开飞书应用,无论是电脑应用还是手机应用,都可以直接用飞书跟 coco 进行对话。 到这里我们已经完成了全部教程了。

零成本白嫖国产小龙虾快速教学?答案其实很简单,就是摩搭社区加 call 配哦!点击创空间,在搜索栏输入 qpo 最新版,随便选择一个 qpo 空间,进入确认版本为新版本。点击复制填写必要信息, 这里注意选择非公开,不然会被窃取私人信息。最后点击复制创空间,等待五到十分钟即可发布成功。 成功后进入这个页面,点击右上角用户,点击账号设置,点击访问控制, 点击新建令牌,输入名称,复制 a p i, 点击个人主页,点击 q p i o 空间,这里还可以切换中英文, 点击模型,选择 modelscope, 将刚刚的 a p i 复制上去, 选择 ken 大 模型。 成功之后,我们就几乎零成本拥有自己的国产小龙虾了,虽然 api 每天有免费额度,而且小龙虾还有点笨,但重要的是免费的白嫖就是香!对想要试试小龙虾的朋友很友好。 下一期我会出配置非书和介绍一下小龙虾的使用技巧,大家也可以把想做的事情发在评论区中,我会尽力实现。 好啦,谢谢大家的观看。

阿里刚开园的 q 泡桌面智能体,我替你们实打实踩坑实测了,一句话总结,咱们普通小白想上手,真的再等等,别着急,跟风折腾。 最开始我想本地部署,跟着豆包给的步骤一步一步来,全程全是代码操作,要配置各种环境,跑好几个网站下载对应的安装包。对我这种不懂小代码的小普通小白来说,真的巨复杂, 前前后后折腾了快两个小时,最后还是因为环境不兼容,直直接卡死,只能彻底放弃。然后我就去试了阿里云官网标注的五分钟一键部署,结果踩的坑一个接一个。首先就是大家最关心的费用问题, 别看模型本身是开源免费的,但实际用起来有不少消费调用大模型需要开通阿里百链服务,首月套餐七块九,包含一万八千次请求。这个倒是不贵, 但想在云上部署,必须租赁阿里云服务器,我选了最基础的入门配置,最低要先充值一百块,按量付费,折算下来一小时差不多七毛钱。 这里必须给大家提个醒,也是我自己踩过的坑,这个服务器不是你关机,不用就不扣费了。我折腾完关机放了一晚上,第二天一看啥操作也没做,又扣了好几块。 后来才搞明白,他默认状态下关机还是正常计费,只有手动开启节省停机模式,才能免掉算力部分的费用。而且就算开了这个模式,系统盘的存储费用还是会持续扣除 大家,大家如果只是临时测试用,用完一定要直接删除释放实力,不然钱不知不觉就被扣没了。 呃,钱的事还是其次,最折腾人的是他对咱们普通小白真的不够友好,操作手册的很多关键步骤对新手来说说明不够详细,就比如开通密钥,手册里只提到了开通编程密钥, 我照着操作折腾了半天一直报错,后来问了千问才搞明白,调用大模型需要开通的是大模型专用密钥, 就这一个没说明白的细节,白白浪费了我快一个小时。好不容易部署完成,我把它关联到钉钉上,想着手机上也能随时用,结果刚用第二句就出问题了,我先给他发了个文章链接,让他提炼核心要点,倒是很顺利就完成了。 紧接着我用语音发了一句,把这个内容和要点生成一个 ppt, 发出去直接就报错了。后来我问了技术支持才搞明白, 这根本不是我操作错了,是这个刚开源的初识版本本身就还没开发语音识别功能,原声只支持文本输入,不支持语音消息处理,属于版本本身的功能缺失,咱们普通人根本改不了,只能等官方后续更新版本。 整个折腾下来,我最大的感受就是这个工具真的只适合技术爱好者,懂代码的专业人士拿来测试学习。 对咱们这种只想拿它来干活、写文案、做内容的普通创作者来说,真的不建议。现在着急上手,到处都是没说明白的细节,不知道下一步 就会不知道下一步哪就会报错,时间全花在调试上了。有这功夫,用豆包、 deepsafe 那 些都写完好几篇文章了 其实,呃,跟我之前测的 mini max agent 一 样,这些新出的智能体对懂代码、懂逻辑的专业人士来说确实自由度高,很好用,但对咱们普通人来说,真的是步步都有门槛,体验感很不好。 最后给想试的朋友提三个新手一定会遇到的问题,大家记好避坑。第一,普通小白别轻易碰,本地部署操作门槛非常高。第二,开通密钥一定要开大模型专用的,别只开编程密钥。 第三,当前版本不支持语音识别,别在这上面白瞎白费功夫。给咱们普通人一句实在的建议,想玩这些新的 ai 智能体真的不用着急,再等等,等他们出了正式版本,功能完善了,哪天 咱们在应用商店里直接能下载到了再去用也不迟,现在跟风折腾,最后大概就是浪费时间浪费精力,还没办成事。 嗯,接下来我也会回归内容本身,把我用 ai 写头条、做自媒体的真实心得和实用技巧毫无保留的分享给大家。想跟着一起用 ai 做自媒体,少走弯路,不瞎折腾浪费时间的点个关注,咱们一步一步慢慢走。

这个国产龙虾 coco 是 一点也不输 open call 啊,兄弟们,上次讲了它可以轻松的一键完成部署,对国内的用户是非常的友好。这次啊,我没写一行代码,就把我之前一个项目里的功能就是一键下载视频和转文字的功能做成 skill, 方便我用手机调用。先看一下最终效果啊, 当我刷到一个比较好的视频,就比如这个,我点击分享,然后复制链接,然后在我配置好的钉钉里粘贴发给我的大龙虾。好,龙虾已经开始工作了,我加速播放一下, 好,可以看到啊,龙虾告诉我视频已经下载好了,现在开始转写。 ok, 转写完了,我们看一下转写的内容啊,有一些错别字能接受,相当能接受,对吧? 好,接下来我就演示一下我是如何一行代码都没有写,就把这个功能做成 copop 的 skill 的。 我们先点击 coco 左侧的技能菜单,先看看 coco 默认的技能是怎么设置的,就比如这个最常用的 d o c x。 大 概的翻阅了一下,它其实也是用 python 写的一个工具,然后再用文档声明它的使用方式。 ok, 我 们复制这个文档作为参考范本。好,打开我的项目,把刚刚复制的文本粘贴到一个文件里,引用这个文件直接问 ai, 这是 coco 里的一个技能,我希望把我们的一键下载视频并转写文字的功能也做成一个 skill, 是 否可行? ok, ai 开始思考了,这里不耽误大家的时间,我就直接跳过这个过程,看看 ai 是 怎么回答的, 太可以了,而且非常适合做成 skill, 只需要把什么时候调用,怎么调用?常见失败如何处理?固化成规范即可。而且 ai 和贴心的已经帮我完成了文档。好,我们直接把 ai 生成的 skill 点 m d 的 内容复制出来,粘贴给 coco, 告诉他这是一个一键下载视频并转写文字的 skill。 ok, ai 开始思考,大概 two thousand years later? 开玩笑啊,应该也就几分钟。 coco 告诉我,现在已经可以把这个技能完全集成到我的 coco 工作区了,可以随时调用好。我还需要继续编排一个工作流,问一下 ai 是 否可以为我增加一个流程?如果我在钉钉上发送一个视频的分享文本,你就自动下载并转写,然后把转写的结果发给我。 ok, 等待 ai 处理好的 ai 说已经帮我部署好这个自动化流程了。怎么样,兄弟们?全程没有写过一行代码,甚至一行配置都没有写,就可以把以前开发过的功能直接添加成 copilot skill, 而且中间完全没有遇到任何困难。 顺便说一下,我那个项目也是一行代码都没有写,全是 ai 完成的。 ok, 建议各位收藏起来啊,试试给你的龙虾装上手脚。各位有什么疑问或者是后面希望交流什么内容可以评论区留言,我会尽可能的回复大家。

windows 部署抠爬加接入非书超简单,准备工作必用 power shell, 别用 cmd, 提前配代理或科学上网,避免下载卡顿。步骤一,安装抠婆 自定义路径可选环境变量抠爬 home 等于指定安装路径执行安装命令。 um 管道 ex 自动装抠爬加 uv 工具卡,顿时检查网络或代理。 步骤二,初步化配置输入命令 call 为内双横线的 force, 用默认配置,后续可改终端出现安全提示,输入 yes 确认积蓄。步骤三,启动 call 应用基础启动 call pro up 默认监听八零八八端口 浏览器打开进入配置界面,自定义端口或地址可选改端口。 copop 双横线 pro 九零九零允许外部访问 copop 双横线后四零点零点零点零双横线 pro 九零九零步骤四,配置大模型 api 配置页点左下角模型选科室自定义点设置,填入 base url, 加 api key 保存后返回点添加模型,输入模型名如 gpt。 四、 call 三,确认保存即可使用。 推荐阿里云百链新课首月七点九元起,一万八千次请求。步骤五,接入飞书核心五、小步一,抠爬端配置配置页点频道飞书设置,填写 ipad ipc 课程,后续飞书开放平台获取。 二、飞书开放平台创应用登录飞书开放平台创建企业自建应用填名称描述图标完成创建。 三、配置机器人权限,启用机器人能力权限管理,批量导入指定此权限代码申请开通。四、配置事件回调事件与回调事件配置订阅方式,选长连接添加接收消息 v 二点零事件。 五、发布应用加添加机器人,创建并发布应用版本飞书工作台添加常用搜索创建的机器人名称,添加后即可对话。 避坑小技巧,安装失败必用 power shell 检查网络或代理启动报错。换端口检查防火墙端口限制非书无响应核对 api 凭证,确认应用已发布权限或事件配置正确。

折腾了这么久,大龙虾的配置搞明白了吗?国产大龙虾这波直接把门槛给拆了,只需要三条命令就能一键跑起来,跑起来之后剩下的点点鼠标就行。打开控制面板后,在这里切换中文 聊天,这里直接就能对话,这里配置其他的聊天频道,飞书、钉钉等,按它的说明很快就能配好。绘画、管理、定时任务都很直观。 经常折腾大龙虾的就对这些个文件很熟悉了,甚至能把大龙虾的复制过来,让你的大龙虾在这里复活。 配置模型更简单,摩塔社区和百炼的都内置了,只需要 a p i t 就 行,其实两个都有免费的额度,自定义供应商就可以随便折腾了。老黄的羊毛还能继续薅,别用太热门的模型,都还不算太慢,比起大龙虾来还是挺简单了,功能的话慢慢摸索吧。

阿里刚刚开源了桌面 agent 扣炮,目前 star 数只有六百多,看到操作界面是不是非常熟悉?聊天定时任务技能 m c p 完美替代了 open call cloud bot 刚发布时我就说过,国内的大厂很快就会做一个替代品,并且更适合国内用户。扣趴没让我们失望,在频道这里可以直接配置钉钉、 飞书 qq, 在 技能这里可以直接启动要使用的功能,比如各种文档的处理技能,包括 word、 pdf、 ppt、 excel。 虽说 coca 已经做到了简单部署,但 one panel 让智能体部署更简单,依旧打开应用商店,在 ai 分 组中 果然显示着 coca 果断安装,什么都不用动,只打开端口外部访问就行了。这个如果不打开,只有 one 盘中的容器可以访问,点击确认,等待安装完成。现在在已安装界面中可以看到 coca 已经启动,点击跳转,直接打开 coca 的 操作界面,安装就是这么简单, 毫无门槛,久违的中文界面是那么的熟悉,速速配置模型这里默认集成了摩塔、灵机还有欧拉玛三个提供商,如果本地有条件跑大模型就选欧拉玛用在线大模型就选择这两个,任意即可,这里也能添加更多的模型。 dash qq 就是 阿里的灵机模型服务,在阿里百炼大模型控制台申请一个 api key 配置,到这里,在线模型就配置完成了,这里内置了千问和 d p c, 最后选择要使用的模型保存, 现在就可以对话,问他是谁,能干什么,跟 open klo 一 样,可以执行命令,操作文件、网络浏览器、技术搜索等。 最后就是安全问题,我们直接通过域名家端口访问的抠拍,目前抠拍的是直接暴露的互联网,可以在汪碰乐的网站这里创建一个网站,选择安装的抠碰,配置一个域名发布网站,然后在证书这里申请一个 s s l 证书,填写域名自动续期,申请完成, 回到刚才发布的网站,配置 http, 开启 http 选择证书就行了,另外还要配置密码访问,配置用户和密码, 这样通过 http 加域名访问时,还要输入密码才能打开 call pad 的 操作界面,安全问题解决,就可以放心的玩耍。好了,本期就到这,感谢观看,我们下期再见!

大家好,今天我们共同探讨一下 coco。 coco 是 阿里开源的 ai 个人助理产品,通过 one panel 面板的应用商店,我们可以较为简单的对其进行安装。 今天我们就通过 one panel 面板安装 coco, 接入硅基流动提供的模型,并对接 qq。 前期的准备工作,一、要有一台 vps。 二、 vps 安装好 one panel 开源面板。三、注册硅基流动账号并生成 aip。 四、注册 qq 开放平台。下面正式开始我们今天的教程。点击 one panel 开源面板左侧菜单的应用商店, 点击 ai 标签,找到抠泡,点击安装勾选端口外部访问其他保持默认,点击确认,等待安装完成。当看到提示安装应用抠泡成功后,我们关闭追踪, 在应用商店的已安装标签中找到刚才安装的 coco, 点击右侧的跳转即可打开 coco 界面。我们先切换一下语言,点击右上角的 english, 选择简体中文,然后我们设置一下模型,点击左侧菜单的模型,点击添加提供商, 提供商 id, 我 们输入 clyckefeller。 显示名称,我们输入归机流动,默认 base u r l 我 们输入 h t t p s。 冒号双斜杠 a p i。 点 clyckefeller, 点 c n 斜杠 v e a p i t。 前缀,此处我们留空,点击创建, 然后找到我们刚添加的归机流动,点击右下角的设置, 在 a p i t。 下方粘贴归机流动的 a p i t。 点击测试连接,看到归机流动 url and a p i t are valid, 说明没有问题,点击保存。 然后点击右下角的模型,添加模型,输入我们想要使用的模型 id, 此处我们以千问千问三 next 八零 b a 三 b instruct 为例,模型名称,我们输入千问,点击添加模型, 然后我们找到 l l m 下面的 l l m 配置,在提供商下方选择归机流动,在模型下方选择千万、千万、千万三、 next 八零 b a 三 b instruct, 然后点击保存, 这样就可以正常和 call 炮进行对话了,我们测试一下,点击左侧菜单的聊天,在对话框输入任意问题,可以看到能够正常进行回答。 接下来我们将 call 炮接入 qq。 步骤一,登录 qq 开放平台。步骤二,点击机器人,然后点击创建机器人,完善相关数据。 步骤三,在左侧菜单选择回调配置,在单聊事件中勾选 c to c 消息事件,在群事件中勾选群消息事件、 at 事件,点击确定配置,根据提示完成身份验证。 步骤四,点击沙箱配置中的在消息列表配置项目右侧的添加成员,勾选成员并点击确认。 步骤五,在开发管理中获取 app id 和 app secret, 扫描二维码进行重置 app secret 操作, 选择重置,在记录 app id 和 app secret 的 值后选择关闭。 步骤六,在沙箱配置中使用 qq 的 扫码功能将机器人添加到消息列表。 步骤七,返回 coco, 在 左侧菜单的频道找到并点击 qq, 在 enable 的 下方打开开关, 在 bot prefix 下方命名一下机器人名称,我们以 coco bot 为例,分别在 app id、 client secret 填入前一步骤获取的对应的值,点击保存, 这样就完成了 coco 和 qq 的 对接工作。登录 qq, 找到 coco bot, 与其进行对话,能够正常进行回答,说明已经对接成功。本期教程完成,谢谢大家!

大家好,我是 ai 启示录。我们正站在旧秩序更迭的关键节点。就在这一刻,三股足以重塑现实的技术力量同步登场,探索未知的前沿技术体系、扎根在低成本硬件上的微型智能代理,以及赋能个人决策的数字工作站。 当更强大的模型、更精巧的边缘智能触角与全能的个人工作站同时到来,这场围绕致力赋能的竞争格局已经彻底改变。让我们拨开这层名为进步的理性表象,看清背后的技术改革浪潮。 最先打破常规认知的是一串意外流出的代码,这并非官方经过温和优化后的版本,而是在 openai 编程助手 codex 的 代码底层,那个备受关注的代号 gpt 五点四如同冰山一角,冲击着大众的认知边界。 在 get up 的 拉取请求中,版本引用直接指向了 gbt 五点四,它甚至还附带了一个效率极高的 fast 模式指令。即便 openai 的 开发者后续迅速将其改回 gbt 五点三,但相关截图早已在社交平台上广泛传播。这并非偶然现象。 在 codex 的 下拉模型菜单中, gpt 五点四多次出现,仿佛在印证人们对技术迭代的预判。这背后要么是多个相关部门协同工作中出现的疏漏,要么意味着这款先进的智能模型已经在后台的算力中心完成了技术体系的最终整合。 两百万 token 的 持久记忆能力,这是对现有上下文模型的全面升级。两百万的量级意味着能够单次处理海量的信息,包含整座图书馆的内容、庞大的工业设计体系,甚至是长达数月的对话记录。但需要注意的是,这并非毫无成本的能力。 他对推理过程中的缓存承载能力和计算复杂程度提出了极高的要求。如果他无法在八帧测试中达到百分之九十的召回精度, 那这个数字也只是一个缺乏实际意义的指标。更具突破性的是, gpt 五点四能够绕过图像压缩环节,在特征开关的支持下直接处理原始字节流。 当现有的 ai 还在低分辨率的信息环境中通过算法预测现实信息时, gpt 五点四正在以像素级的精细度解析高精度的 ui 设计、建筑蓝图和医疗影像。它大幅降低了误判的可能性,成为精准的信息分析工具。 即便 sam 奥特曼依然以其一贯的方式对外释放模糊的技术信息,但当 deepsea v 四在技术领域持续发力,这场技术领域的竞争已经没有退路。当科技领域的头部企业专注于打造大规模的算力体系时,另一场技术革命正在边缘领域悄然发生。这就是 no claw。 这是一个仅有六百七十八 kb 的 ai agent 的 框架,完全由原始的 zig 语言重构而成。它摒弃了 python 和 java script 这类语言相对庸俗的特性,无需虚拟机也无垃圾回收机制,直接与机器码交互 在一兆的运行空间内。在那些仅需五美元的简易硬件上, nullclock 以不到两毫秒的冷启动速度展现出极强的性能优势。它采用插件化的核心设计,能够快速从 openai 切换到 imessage。 它支持二十二家供应商和十三个通讯平台,且内置了十八种具备实际操作能力的工具。依靠完善的加密技术和 landlock 杀核机制, locklock 实现了严密的安全隔离,在有限的硬件条件下构建起了防护完善的运行体系。 四点五万行 zig 代码和两千七百三十八个测试,用力保障了这款轻量化智能框架的超高稳定性。在前沿的大型模型与精巧的边缘智能之间,阿里巴巴推出了 coco, 这并非简单的对话工具,而是高性能的个人智能代理工作站。 它的三层架构 agent scope、 rontoy 和 remy 正在重新定义人类与 ai 的 写作模式。 remy 模块解决了大语言模型最关键的短板,它能让智能代理将用户的使用偏好、任务数据和过往操作经验转化为可长期留存的本地数据资产。 ai 不 再只是被动响应指令的工具,而是能与用户共同成长的数字智能助手。通过 skill 扩展系统,开发者只需将 python 函数放入指定目录, ai 就 能快速掌握采集 reddit 信息、管理日历或是监控代码库等技能。 借助全域访问层,一个工作站实力可以同时对接 ding talk、 discord 和 imessage 等平台。它不再被动等待用户的指令,而是能通过计划任务在后台自动完成信息研究、内容整合与自动化报告生成等工作。 gpt 五点四正在向着更高级的智能水平快速发展, noclo 正在深度扎根于低成本的硬件应用场景,而 coco 则在实现二者的融合协同。 这场围绕模型升级与架构创新的双重竞争已经进入激烈阶段,不要只关注那些不断更新的技术参数,真正的技术赋能隐藏在这些底层的架构设计之中。 智力赋能的普惠时代已经到来,你准备好把握这一技术改革的机遇了吗?我是 ai 启示录,感谢您收看本期内容,我们下期再见。

好,那我们这期视频教大家部署一下这个阿里龙虾啊。其实阿里龙虾它我们可以看这个一个对比图啊, 它对于我们现在比较流行的国外的这个 open color 来说,它更适合于什么普通职场人、内容创作者啊,就是你没有那么丰富或者说那么专业的一个技术知识、编程知识,你就用这个阿里龙虾,它比较友好, 是一个国产的油耗平器,并且它一般打通都是什么国内的一些平台,不像这个 oppo go, 它一般都是对于海外的一些平台,像什么 telegram, disco, 当然我们国内都不会用啊,也用不了, 所以这个生态更好一点,更适合我们国内用户。然后怎么安装呢?首先我们可以任意一个搜索引擎搜 c o p a w get, 然后找到呃这样一个图标的一个 get 仓库,其就是别人把代码就是开源在这个地方这个网站里,然后我们拉到下面,看到这有篇文档,文档英文看不懂嘛?可以点这个中文, 也会到这个中文文档啊,到中文文档之后,它其实也跟你说了怎么安装,哎,比如说我想用三条命令跑起来,对不对?我们点这个快速开始也可以,只要这三行命令就可以了。那第一行命令我们怎么出命令呢? 哎,我建议大家,因为这个呃配置可能需要配置很久,我们直接使用这个 pos 机,你可以按住你的 win 键,在左下角搜索这个 windows pos 机, 然后输入我们的第一条命令叫什么 p i p install, 这个还会自动帮你把别人的这个开源代码下载到你自己的电脑里, 然后我们等它下载一下,然后我们大概再看一下,它现在已经更新到零点零点七版本了啊,我当时下的时候还是零点零点三版本。然后第二条命令写就是初步化我们的这些配置,比如说你,比如说 默认的什么 api key, 你 想使用什么模型等等等等。 然后第三条命令就是启动的这个龙虾,只有启动了之后我们才可以在我们的本地的这个网址去看到这么样一个界面,看它还在下载到一下,看看它有什么功能 啊?我们就通过这个图看吧,其实它功能跟我们国产那个龙虾,呃,不跟那个国外的龙虾差不多啊,也是一个什么?主要的是一个,呃,聊天窗口, 然后频道,就是之前我看到渠道,比如说连接飞书啊,连接,呃,像 oppo 就是 连接什么 disco, 连接 telegram, 那 我们这边应该就是连接什么 qq, 连接飞书,连接什么 m、 s、 h 等等等等,我再看一下, 应该是快下载完了。我这边已经下载完了,应该再进行一个解压编辑的一个过程, 然后绘画,其实就是看你这个每条,这个 newchat 就是 每条对话, 然后定时任务,就是比如说你跟他说啊,帮我每天早上九点给我推荐一下,给我发送一下当前的一个实时热点消息啊。对对对,这些东西,他这些练习版本底下好像还有个安全,还有什么东西的,我们可以看一下。 嗯,他有点慢,稍等一下。好的,那我们这边已经下载好了,那我们就输入第二条命令啊,配置,基础配置, ok, 我 们粘贴进来直接运行啊,我们等他,等他看一下, 好的,他说第一个是一样的,你同不同意他的一些什么?呃,规定啊,选 yes 啊就可以了。 他已经说了出实化完成了,看到没有?好的话,那我们刚出实化完成之后,我们只要再输入这个 c o a p a w a p p 就 可以去运行了,然后我们等它反应一下, 等它跑到把那个端口号啊,有一二七点零点零点一,就这句话,它出来之后我们就可以进我们的后台了。 好,我们摘下来就发现我们进来了,然后第一步呢,我们就把这个英文对不对改成简体中文,然后这个模型我们可以按照这些一样的啊,这些一样的,我们是弄这个 deepsea 的 模型,然后有它的 apikey, 你 可以这个地方添加提供商,然后什么 deepsea 对不对?显示名称,你随便写,自己知道就可以了,然后默认的 b、 c l l, 就 这个对不对啊?去创建, 那当然你用别的平台都可以啊,这很非常多平台啊,可以自己去选择,然后模型 deepsea, 我 觉得就两个啊,一个叫 deepsea 啊,一个杠 check, 一个杠,这个什么 origin, 就是 一个是思考的,一个是不思考的啊,名称它其实底层是什么 deepsea 杠 v 三零二, 对,他是没有深度思考的。这个猜测的话啊,添加完之后啊,我们这个 api key 忘记忘记填了,聊天去设置这个地方填 api key, 这地方自己去,自己去那个这个平台申请啊,之前上个视频部署龙虾的时候有讲过,然后这地方你就可以去跟他聊天了,其实是一模一样的,只不过你看这个地方还有什么头等消耗啊?安全,它功能会越来越丰富的。 好,那我们这期视频就教大家怎么部署这个阿里路线啊。那我们下期视频再见,关注我,获取更多 aigc 前沿知识。

百花齐放,百家争鸣, b a t 绝对不会让国内的用户在 ai 的 体验上挽救阿美超过三个月。当大家还在叹惜 open call 在 国内网络环境经常掉线的时候啊, 阿里同意实验室带着他的 coco 走来了更适合中国宝宝体质的个人智能体工作台。和 open call 一 样,不仅仅是一个问答机器人,更是一个能够长期记忆,自主执行任务。和 open call 同样的策略,本地优先,多平台接入,主动执行。 不同的是配置 coco 比大龙虾更简单,自带白领工作常用的 skills, 内置了国产大模型,只需要设置一个 api k 就 可以直接使用。那把 coco 装电脑总共分几步?三步打开使用文档,按照快速开始的指导教程,第一步,复制这条安装命令。 这也是官方推荐的啊,它不需要你安装 python, 但是呢,它完全可以自己来执行一切的安装步骤。它先是给 coco 在 这个路径里创建了一个工作区, 然后又安装了 uv, 用 uv 来管理后续的安装,自己下载 uv, 然后安装到这个文件夹里,然后自己去添加环境变量。到这里, uv 已经安装成功了。 他又开始创建 python 环境,从派派里下载并安装 coco。 coco 安装成功,又自己添加 coco 的 环境变量,到这里已经安装完成了。他自己分了这么多部,但是对于我们人来说,其实就只是执行了那一条命令。哎,什么叫剪辑啊,这就是剪辑。国内用户最喜欢是这样的, 也应该是这样的。大家都在谈论着大龙虾的配置多么复杂,仿佛这 ai 国战场对于非计算机专业人员注定了凶多吉少,那现在好了,简单的来了, 安装完成之后就来到第二步,初识化,如果是第一次安装的话,就直接选这个快速的默认配置,先初识化,然后剩下的以后再说。把这个命令直接复制到 power shell, 开始初识化,然后这个是初识化,他给你的阅读需要你阅读的协议,这个东西该读的就读一下啊,他给你的警告你, 你一定要了解一下。安装完成第三步就是启动服务,也是只有一条命令,把它复制到 power show, 回车就可以打开服务了。到这里酷跑就安装完了,最后它会给你一个服务前端的网址,把这个网址复制到浏览器上,打开就可以直接进入到操作界面了。进到主页面之后,就能 在这个技能里面就能看到它已经预装了一些我们上班常用的 skill, 你 像处理文档,还有搜索、寻找新闻,这些都有配置,大模型也非常的方便。在对话上,对话模型里面也有自带的,你像这个自带的 deepsea, 我 们就可以直接用这个。 那对于其他大模型,我们只需要点击设置,把 e p i k 粘贴在这里,然后点击保存就可以了。安装好之后怎么确认呢?还是老规矩, say 句 hello, 然后给它起个名字。让我意外的是, coco 比 opencloud 响应速度确实是快不少啊。行了,到这里就安装完全,完成了,以后再慢慢调教吧。

我是大厂研发工程师张飞,欢迎来到张飞 ai 开发实验室。本次我们讲一下这个我根据 coco 阿里的 coco 去开发的一些功能,大家比较关注的一些多角色智能体,就像 open class 一 样的功能,我已经放到我的一个个人的 github 的 一个网址 link 就是 我的一个网址, coco 就是 这个项目名。大家点击到这个切换这个 z g l branch, 最后点击这个 code, 下边有个 down load 的 这个包,就可以把这个包下载下来。下载下来之后啊,大家可以用这个字节的 tree 去把它打开,打开项目之后就可以打开这个终端,终端在这里头新建终端,新建终端时候建下来之后 就可以去安装这个包,安装的时候应该大家都知道在这一侧是可以提些问题,比如说去问我该怎么去安装,那我可以简单的去看一下子,它这里有一个 readme 文件,告诉我们哪里怎么去安装开发版主要是这两个开发测试 就是用这个命令,当然大家提前需要进入 python 这个环境当中,进 python 环境当中,我建议大家可以安装 python, 安装 python 之后要输入一个 python 杠, m v e n v m e n v 输入这个命令,那输入这个命令之后呢,就可以在当前的 q pad 的 一个目录下去创建一个 python 的 虚拟环境,这样子它不会影响你整体电脑的一个 排序环境,再输入一个命令就可以进入命令,我新建一个终端演示一下, ok, 这里是已经进入了,那我出去之后再重新进来 e n v scripts 脚本 active 就是 激活虚拟环境, 对,我们就这条命令就可以进入了虚拟环境,激活到虚拟环境之后,就可以用行运行下面的一个 p i p install 这个命令,安装开发版的一个各种个性化的包,然后再进行大家已经知道的抽象,最后再运行那最后这个结果,像这么一个结果运行之后,这样子就开启了一个 后端,我们在等待它打开,打开之后我们点击前端,在前端这种点击智能体管理,点击这里创建一个智能体,你们按照下面提示就可以创建你们所需要的智能体,这里有一个模板,你可以选择自己的模板,也可以选择 自己随意建其他的一个信息就可以创建,创建之后要选择相应的一个激活,激活之后就可以在这里和去聊天或者展示一下子。现在这里我就激活了一个产品经理,我给他激活了个产品经理, 启动的是一个 old strap, 都可以告诉产品经理我的需求是什么,我给他定位是什么,下面就输入给他,他都会保存在独立的一个产品经理这个 workspace 当中。 同时我这里又建了一个市场营销推广,在这里我也给了一些定位,他自己就会建立进去,也是市场营销推广 agent 和这个 安敏经理 agent 两个是独立的工作空间,并且都可以把它配置到这个非输应用当中,这也是开发功能。在非输应用当中,大家知道 上节视频当中给大家讲过有个 app id, 还有一个 app 的 一个 secret, 把这些都配好之后,并且绑定到相应的一个智能体,比如这里绑定到一个是产品经理,一个是绑定到市场营销推广经理, 两个都点击保存,并且两个都去启动,它就可以去使用了。 ok, 这个是绑定到产品经理了,这个应该绑错了,绑这个市场营销推广 a 人的绑。对,我们再点击启动,两种 都启动之后,这样就通过飞书可以和他们分别交流,在飞书当中去拉一个群,你自己加上产品经理,再加上市场推广营销的一个经理,你们三个人可以去讨论,给他们分配不同的任务,并且让他们去讨论。今天讲到这,谢谢大家。

一个下午,我没有花一分钱,就打造了我的专属 ai 内容运营公司。这里面有 ceo, 有 资讯专家,有产品经理,全在我飞书里。我艾特他们说一句话, 他们各自去干活,然后来找我汇报。大家好,我是阿康,最近阿里开源了一个叫 coco 的 工具,可以理解成国产版的 openclaw, 本地跑的多 a 阵框架。刚好我有个闲置多年的一九款就 mac 笔记本,直接就一句命令装上去了, 没有报错,没有折腾,接上飞书,配几个 ai 员工角色, ceo 负责拆解任务,调度资讯专家,每天自动去搜行业动态。产品经理负责把信息整理成文案框架。我在群里发一条消息, ceo 看完先拆任务,派给对应的员工,员工执行完结果直接推回群里给我配置,过程中出了个报错, 我随口问他,你能在你自己的环境里帮我装这个拍上包吗?他思考了一会,自己找到路径, 安装好工具,然后告诉我,好了,你继续。这才叫 agent, 不是 帮你查资料,是真的知道自己能干什么, 然后去干他。现在还是初期版本,我遇到了个 bug, 是 有些图片消息还发不出去,我也去 get, 提了一手,官方在修,但这件事本身已经成立了一台旧电脑, 一个国产开源工具。一个下午,我的 ai 内容公司开张了,感兴趣的话可以关注阿康,我们一起探索 ai。

不废话,三种方式部署,抠破,看看哪个更适合你。第一种,阿里云计算潮,一键部署,全程网页操作,不用写代码,不用配环境,三分钟上线。适合中小企业和不想折腾技术的团队,主打一个省心稳定,但需要支付少量的云服务器费用。 第二种, dawk, 本地私有化部署,数据完全掌握在自己手里,不出内网,配合本地大模型还能断网运行。适合程序员、即客和对隐私有极致要求的机构。缺点是门槛高,你得懂 linux, 懂 dawk, 还得自己维护升级。第三种,无影云电脑镜像部署, 就像在远程桌面上装个软件,双击图标就能用,拥有完整的桌面操作体验,适合习惯图形化界面,想要专属 ai 工作台的个人用户。不过要注意,云电脑是独占资源,长期挂机成本略高于纯服务器。 总结一下,怕麻烦,求稳定,选计算潮,懂技术,重隐私,选刀客,要体验像用软件选无影。还是那句话,适合你的才是最好的,有需要的可以找我,关注我,让 ai 更好的服务于你。

啊,今天从库房里面把原来的 nec 的 小主机找出来了,准备给他安一个阿里的这个 机器人, ai 机器人,然后我们来看一下。啊,这是很早的主机了,联想代工的。呃,目前的话配置是一个一百二十八 gb 的 固态固态硬盘, 这个这个是联想代工的。这个这个这个 nec 的, 我看看,一九年啊,快十年了,然后 cpu 好 像是 i 七的,然后我看一下, 然后内存的话内存是三十二 g。 哦,这里还有一个一百二十八 g g 的 固态硬盘 mv 一 的我,我待会就把它装上,我们来实测一下这个东西好不好用。离线安装就本地版的部署一下试一下,到时候 我来测评。 好的,我们花二点时间把我们的 p v e 已经安装完成了,然后安装完成了以后,我们就看到我新建了三个虚拟机,一个是路由器,一个是 win 十,一个是无反图,这个是用的爱快,然后主要是给这两台虚拟机做路由的,因为只有一个网口嘛,没办法。然后 win 十的话,我装了一个 吕布的 agent, 他 到时候他可以控制他的电脑,然后乌班图的话就装了一个阿里的 copel 哦, coco, 然后这个也把它装好了,就是怎么说吧。嗯,阿里的小龙虾 open claw, 它是基于 open claw 还 那个思路来做的,我们也可以看一下这个,这个东西文档里面他是有的,就上一期视频我给大家说的他是他,他是阿里开源的一个,这个部署还是很方便的,他是用的 locker, 然后我在这个模型里面我也设置好了,我是用的轨迹流动的,然后设置了这些模型,其实都还好吧?呃,都还可以,然后用的话是用的这个啊, g m 五, g l m 五,还好,这个用用。然后我们来看一下它这个常见问题,这个地方对比, 它就是跟 open core 其实是属于对标产品啊,只是 open core 的 话界面不是很友好,然后对接非输的话也不是很方便,然后我用它的话就是试一试, 然后目前的话,呃,用这个其实还挺好,看一下能干什么?这个就是活生生的消耗陀刻啊 啊。就主要是做自动化的,这个说实话用这个用习惯了,还是很棒的, 包括今天我上午的时候已经把它接入了飞书啊, 他就可以去用了,今天基本上用了十六万的托管,消化还是比较大的。这个托管书, 这个这个就是这个就和他两个连在一起的,这个是用的飞书的 api 的 接口,在这个地方 频道里面我已经把飞书给弄好了,这两个是通的这个 bug, 这里这个 bug 就是 这里这个他会提示 bug, 然后我们在聊天记录里面也是能够看得到的。绘画, 这个是刚刚我们的绘画,就他他能做的功能还是挺多的,我后面我会花点时间再来研究一下他, 包括我我们做的合同开票对照词,然后还有一些提醒他都可以用,很方便 啊,我们可以来试一下,比如说帮我 打开百度,然后解那个归类 今天的新闻,以后,每天二十二点执行, 就我们他就成了一个私人的秘书了,就很方便。但是有个问题啊,我这个网络不是很好,因为用的家里面的嘛,然后托肯调用的话是用的轨迹流动的,不是本地部署的。我在想后面还是想, 嗯,找一个显卡,然后本地部署试一下,先先用一下它的效果,然后再后面再考虑购买硬件的情况,然后我们稍微等一会。 好的,他已经开始在做了,其实,哎,点错了,其实我们可以看到这个地方, 他他这里就是他调用的时候,他就会把我们之前调用的窗口给凸显出来,这就是我之前问的,然后他他这个和这个是一样的,内容是一样的, 没有区别。然后我们可以在这个绘画的历史记录里面看到这里,这里就是我们刚刚看到的, 帮我打开百度,然后怎么怎么样,然后你会看到这里他就是飞书,接入的 飞书,所以我需要花点时间再实测一下,后面如果有更多的好用的技能我再给大家分享, 基本上情况就这样,然后功能的话就跟那个小龙虾是一样的,比如说这个功能区,他是一个机器人,然后技能 skill, skills, 这些都是,这些都是人家他做好了的,我们也可以去找,到时候 今天都先到这,后面我测试好了再给大家来分享一波。

你的 ai 助手只能在一个应用里用 coco 三条命令部署钉钉、飞书、 qq, 所有聊天工具全部打通工作用钉钉,朋友用 qq, 家人用另一个。每个平台都要单独配一个 ai 助手,配置重复记忆,割裂效率极低。 cpo 是 一个开源的个人 a a i 助手框架,一次部署,同时接入钉钉、飞书、 qq 等所有主流聊天工具,既统一既能共享,还支持本地大模型运行, 安装只需一行命令,支持 mac、 linux 和 windows 内置技能系统热点摘药、文件管理,定时提醒,开箱即用,还能自定义技能,打造专属工作流。 tikub 五千多星,社区活跃,持续更新,支持 doctor 一 键部署,也支持云端托管,小白也能三分钟跑起来。 想要一个真正属于自己的 ai 助手?链接放评论区了,点赞收藏追星不盲从,实测出真知!