粉丝8.6万获赞60.7万

阿里刚开园的 q 泡桌面智能体,我替你们实打实踩坑实测了,一句话总结,咱们普通小白想上手,真的再等等,别着急,跟风折腾。 最开始我想本地部署,跟着豆包给的步骤一步一步来,全程全是代码操作,要配置各种环境,跑好几个网站下载对应的安装包。对我这种不懂小代码的小普通小白来说,真的巨复杂, 前前后后折腾了快两个小时,最后还是因为环境不兼容,直直接卡死,只能彻底放弃。然后我就去试了阿里云官网标注的五分钟一键部署,结果踩的坑一个接一个。首先就是大家最关心的费用问题, 别看模型本身是开源免费的,但实际用起来有不少消费调用大模型需要开通阿里百链服务,首月套餐七块九,包含一万八千次请求。这个倒是不贵, 但想在云上部署,必须租赁阿里云服务器,我选了最基础的入门配置,最低要先充值一百块,按量付费,折算下来一小时差不多七毛钱。 这里必须给大家提个醒,也是我自己踩过的坑,这个服务器不是你关机,不用就不扣费了。我折腾完关机放了一晚上,第二天一看啥操作也没做,又扣了好几块。 后来才搞明白,他默认状态下关机还是正常计费,只有手动开启节省停机模式,才能免掉算力部分的费用。而且就算开了这个模式,系统盘的存储费用还是会持续扣除 大家,大家如果只是临时测试用,用完一定要直接删除释放实力,不然钱不知不觉就被扣没了。 呃,钱的事还是其次,最折腾人的是他对咱们普通小白真的不够友好,操作手册的很多关键步骤对新手来说说明不够详细,就比如开通密钥,手册里只提到了开通编程密钥, 我照着操作折腾了半天一直报错,后来问了千问才搞明白,调用大模型需要开通的是大模型专用密钥, 就这一个没说明白的细节,白白浪费了我快一个小时。好不容易部署完成,我把它关联到钉钉上,想着手机上也能随时用,结果刚用第二句就出问题了,我先给他发了个文章链接,让他提炼核心要点,倒是很顺利就完成了。 紧接着我用语音发了一句,把这个内容和要点生成一个 ppt, 发出去直接就报错了。后来我问了技术支持才搞明白, 这根本不是我操作错了,是这个刚开源的初识版本本身就还没开发语音识别功能,原声只支持文本输入,不支持语音消息处理,属于版本本身的功能缺失,咱们普通人根本改不了,只能等官方后续更新版本。 整个折腾下来,我最大的感受就是这个工具真的只适合技术爱好者,懂代码的专业人士拿来测试学习。 对咱们这种只想拿它来干活、写文案、做内容的普通创作者来说,真的不建议。现在着急上手,到处都是没说明白的细节,不知道下一步 就会不知道下一步哪就会报错,时间全花在调试上了。有这功夫,用豆包、 deepsafe 那 些都写完好几篇文章了 其实,呃,跟我之前测的 mini max agent 一 样,这些新出的智能体对懂代码、懂逻辑的专业人士来说确实自由度高,很好用,但对咱们普通人来说,真的是步步都有门槛,体验感很不好。 最后给想试的朋友提三个新手一定会遇到的问题,大家记好避坑。第一,普通小白别轻易碰,本地部署操作门槛非常高。第二,开通密钥一定要开大模型专用的,别只开编程密钥。 第三,当前版本不支持语音识别,别在这上面白瞎白费功夫。给咱们普通人一句实在的建议,想玩这些新的 ai 智能体真的不用着急,再等等,等他们出了正式版本,功能完善了,哪天 咱们在应用商店里直接能下载到了再去用也不迟,现在跟风折腾,最后大概就是浪费时间浪费精力,还没办成事。 嗯,接下来我也会回归内容本身,把我用 ai 写头条、做自媒体的真实心得和实用技巧毫无保留的分享给大家。想跟着一起用 ai 做自媒体,少走弯路,不瞎折腾浪费时间的点个关注,咱们一步一步慢慢走。

cpa 作为国内一款与 open core 对 标的智能体,我认为在功能设计上比 open core 更易用,整体界面比较简洁。当然 copi 的 功能确实没有 open core 强大,但是在安装时 open core 就 比 copa 复杂了一些, 因为彼人一直都是用 one pinning 安装,点击下鼠标就行了,安装方面就没有什么区别了。 copi 的 需要在界面上配置大模型,任意选择 open codes 安装时就需要配置,但是在操作界面这里就不能更换大模型了, 只能通过代码配置对接。渠道方面, openclip 内置的基本没有国内可用的应用,想对接钉钉、飞书、 qq 就 得通过代码配置了。 coca 就 不同了,内置的都是国内的应用, 不需要配置代码就能对接这些平台。如果是钉钉的群聊机器人,可以在得到机器人的 web 之后,直接在聊天框里让它对接这个钉钉机器人,它就自动完成了。这两个智能体都是可以做到的。配置 skill, 也就是技能。没有研究过 open code, 看着这个界面真是不知道怎么下手, 但 coca 只给了一个提示,你就知道怎么操作。这里有几个 skill 的 网站,那么你就可以在这些网站上找想要的 skill, 把网址复制到配置框中就可以。虽然欧文科可以在里面搜索想要的 skill, 但只有五十一个,而且有些还是有限制的,这就和 coca 的 毫无对比性了。 配置 m c p 方面, coca 的 控制台是可以直接配置的, open class 没有入口,需要通过代码配置增加了使用门槛。但一些辅助安装的平台会做一些易用的功能,比如说 one panel, 它就提供了直接对接飞书等平台的配置界面, 免去代码的繁琐。除了 m c p, 还有心跳。 open class 在 网页控制台没有配置心跳的入口,只能通过命令,又提高了使用门槛。不过这个功能用处不大,定时任务基本也可以实现。最后总结一下,如果你代码能力比较强,喜欢研究钻研 或是对智能体的深度探,所有想法就选 openclo。 在 前段设计上, coco 比较容易上手,适合国内用户或不懂代码的小白入门。但是这段时间对 coco 测试,彼人也遇到了各种小 bug, 比如对话框无法切换、对话长时间没反应等问题。 如果阿里云开源的这个智能体不只是用来蹭热度,而是当成一个长期重点维护的项目,我相信这种差距会越来越小。并且 coco 里确实每天都在迭代版本, 应该不会让我们失望,哪怕后面你搞一些付费插件,持续支撑项目的发展,我相信很多用户也是能接受的。好了,今天就到这,我们下期再见。

跟大家大概讲一下这个我的这个 coco 连飞书,然后踩到的坑。第一个是这个机器人完全不回话, coco 虽然跑起来了,但是飞书里怎么艾特都没反应。它是这样的,要在世界订阅事件订阅里勾选消息接收, 首先这个事件事件配置,事件配置,这里这个订阅方式,它需要选这个长连接的方式,这是要得自己选的。 然后之后这个已已添加事件,这里要添加事件,这里默认是没有事件的,要添加事件,然后他说这个接收信息添加一个接收信息的事件,这个时候就是 你问的时候,你问的话他就会有一个这个机器人,他在,他在看看你消息,这个意思,这是说明他收到了。 再一个是这个开了权限也没用权限,你得打开权限管理,我是这样的,我是在这个权限这里我写的点了开通权限,然后它这边不是一列吗?我是把它的这个消息与群组,它离这里的所有权限都给开通了。 对,我想它这个消息群组开通了之后,你用这种把它当一个这个可以办事的 chatbot, 这里权限应该就够用了。对, 这是权限的问题,然后在群里不回我,我当时是因为就是他想下载一个东西,下载一个这个浏览器, 下载一个这个稍等,这个这个 playwrite 和这个浏览器。然后当时我的那个 power shell 卡住了,所以它是没有回应的,它相当于一直往里下,但是它卡住了,所以就没有回应。这个解决方法是我自己就是新开了一个 power shell, 就 单独新开了一个窗口, 因为你可能窗口之前堆的太多了,它那个配的这个就是配的一些环境太杂了,它容易互相影响。我是新开了一个 power 校,再来发指令,再来发这个下载的指令,就下载这个 playwrite 的 指令,然后最后最后可以搞成了 web socket 的 连接。不上这个就是就是网出了问题,就是环境变量, 清理环境变量,用用这个代码也是相当于这个 power shell, 你 开的太多了,之前一直在一个 power shell 里面使用,然后开太多了,它就容易出现配置的问题,对,差不多就这些, 哦,然后,对了,记得这个每一次修改之后都要更新一个版本,不更新版本的话它是没有没有重新来的。更新版本之后,然后你再重新,就是把这个,把这个,把这个扣跑,重新运行一次,我现在在运行吧,重新开一次,然后就行了。

这个国产龙虾 coco 是 一点也不输 open call 啊,兄弟们,上次讲了它可以轻松的一键完成部署,对国内的用户是非常的友好。这次啊,我没写一行代码,就把我之前一个项目里的功能就是一键下载视频和转文字的功能做成 skill, 方便我用手机调用。先看一下最终效果啊, 当我刷到一个比较好的视频,就比如这个,我点击分享,然后复制链接,然后在我配置好的钉钉里粘贴发给我的大龙虾。好,龙虾已经开始工作了,我加速播放一下, 好,可以看到啊,龙虾告诉我视频已经下载好了,现在开始转写。 ok, 转写完了,我们看一下转写的内容啊,有一些错别字能接受,相当能接受,对吧? 好,接下来我就演示一下我是如何一行代码都没有写,就把这个功能做成 copop 的 skill 的。 我们先点击 coco 左侧的技能菜单,先看看 coco 默认的技能是怎么设置的,就比如这个最常用的 d o c x。 大 概的翻阅了一下,它其实也是用 python 写的一个工具,然后再用文档声明它的使用方式。 ok, 我 们复制这个文档作为参考范本。好,打开我的项目,把刚刚复制的文本粘贴到一个文件里,引用这个文件直接问 ai, 这是 coco 里的一个技能,我希望把我们的一键下载视频并转写文字的功能也做成一个 skill, 是 否可行? ok, ai 开始思考了,这里不耽误大家的时间,我就直接跳过这个过程,看看 ai 是 怎么回答的, 太可以了,而且非常适合做成 skill, 只需要把什么时候调用,怎么调用?常见失败如何处理?固化成规范即可。而且 ai 和贴心的已经帮我完成了文档。好,我们直接把 ai 生成的 skill 点 m d 的 内容复制出来,粘贴给 coco, 告诉他这是一个一键下载视频并转写文字的 skill。 ok, ai 开始思考,大概 two thousand years later? 开玩笑啊,应该也就几分钟。 coco 告诉我,现在已经可以把这个技能完全集成到我的 coco 工作区了,可以随时调用好。我还需要继续编排一个工作流,问一下 ai 是 否可以为我增加一个流程?如果我在钉钉上发送一个视频的分享文本,你就自动下载并转写,然后把转写的结果发给我。 ok, 等待 ai 处理好的 ai 说已经帮我部署好这个自动化流程了。怎么样,兄弟们?全程没有写过一行代码,甚至一行配置都没有写,就可以把以前开发过的功能直接添加成 copilot skill, 而且中间完全没有遇到任何困难。 顺便说一下,我那个项目也是一行代码都没有写,全是 ai 完成的。 ok, 建议各位收藏起来啊,试试给你的龙虾装上手脚。各位有什么疑问或者是后面希望交流什么内容可以评论区留言,我会尽可能的回复大家。

tik tok 一 周热点汇总第一百零六期本期的内容呢,包括了阿里的 open cloud 替代 wifi 感知人体活动实时的全球情报监控代码仓库生成知识图谱和字节的多智能体框架。那最后呢,还是分享两份资料,如果觉得内容不错呢,也别忘了点赞和关注。 扣炮啊,是通用实验室推出的一款可本地可云端部署的个人 ai 助理,看一眼界面呢,应该就能猜到啊,他对标的是谁, 最熟悉的感觉啊,当然是 openclaw, 随着最近啊 openclaw 的 热潮不断地发酵,它已经超过了二十六万 star, 是 github 上 star 最多,增长最快的软件类项目。那现在大厂们呢,也开始纷纷下场去参与竞争了,你觉得大厂们能撼动 openclaw 的 地位吗?在使用上呢,可以通过一条命令来去完成本地的部署,也可以通过啊 piping 来去安装。那安装好了之后呢,执行 cocopinit 来进行一下配置, 那其实这个配置当中的很多内容啊,如果你没有想好的话,可以不配,后面呢,到外部 ui 里再配置也是可以的。最后呢,执行扣炮 app 来去打开服务,就可以用浏览器呢到八零八八端口来去使用扣炮了。 功能上呢,扣炮可以连接像钉钉啊,飞书, qq, discord, message 等聊天软件,支持呢定时任务与主动的心跳,通过 skill 的 机制呢来去实现无限的能力扩展。 这个呢,和 openclock 的 思路呢,基本上是一致的,那它内置了一些 skill, 也可以自己呢去创建和导入。 coco 内置了主流的云端的模型支持,比如像摩达和 dice crop 最新的升级里面呢,还支持了自定义的模型供应商和欧拉玛,更加方便了。 同时呢,最近的升级啊,也实现了 prompt, hook tools, memory 等核心组建的模块儿,按照自己的需要啊来去组装自己的 agent。 那整体来看呢, coco 目前实现了 openclaw 的 整体的框架,但是呢,也能看出来啊,现在实现的还是稍微有些粗糙,很多地方呢还需要继续的打磨。 那好的地方呢,是目前的外部 ui 啊,在使用上我觉得比 openclaw 要顺手一些,至少呢更适合国内的使用习惯。其实啊,要说项目将来会怎么样,关键呢还是看他后续是否能够持续性的和高速的迭代。 real 呢,是一个非常有意思的开玩笑嘛,它通过 wifi 信号而不是摄像头呢,来去实现人体的感知能力,比如呢,像人体姿态的评估,呼吸的检测,心率的监测,还有存在的检测。那简单来说呢,它的目标啊,就是让普通的 wifi 设备变成一个隐形的传感器, 它可以感知到房间里人物的活动状态,而不需要呢任何的摄像头和穿戴的设备。那听起来是不是很神奇,对吧,那它的核心原理呢,就是利用 wifi 的 csi 信道状态信息,当人体移动或者呼吸的时候呢,会改变 wifi 信号的传播路径还有向位, 那路由呢,通过信号的处理和机器学习呢,来去分析这些变化,从而啊推断出人体的姿态,还有呼吸的频率和信率。 所以如果你想要玩儿的话呢,那一定要选择啊,支持 csi 的 设备安装的话呢,可以使用项目提供的 doc 来去快速的上手,那有哪些实用的价值呢?比如啊,可以看一看以下的这些场景, 像智能的建筑当中啊,可以用来做房屋的占用检测,那医疗的检测当中呢,可以做这种非接触式的呼吸和心率的检测。还有呢,像一些安全检测和工业的环境当中,可以在烟雾或者有遮挡的情况下去进行人员的检测。那目前呢,我没有这个支持的设备,大家可以根据自己的情况来去试试效果。 vivo 的 猫腻特呢,是一个开源的实时的全球情报监控仪表盘,我想呢,大家都知道啊,最近的世界啊,又不太平了, 某某和某某呢又打起来了,所以很多朋友呢,都非常关注实时的信息,那沃瑞的 monitor 呢,把新闻,地缘政治数据,市场信息,还有全球的关键基础设施数据啊,整合到了一个可直观的界面当中, 让用户呢可以像作战指挥大屏一样,快速的了解到世界各地正在发生的事情。那你可以呢,先到项目的几个 live demo 里去体验一下效果。比如呢,第一个 demo 里啊,大家最关注的就是伊朗的信息, 那如果啊,想要在本地使用的话,可以到 release 里去下载适合自己操作系统的版本。然后呢,使用时啊,会需要配置大模型的 a p i k 也可以呢,根据自己的需要去调整展示的模块,还有信息的来源。那总体来看啊,说实话,这个东西呢,其实不算难,很多博主都分享过这种类似的全网信息采集的这个思路, 但是呢,这个非常实用,而且呢它的这种啊作战指挥室大屏的这种样式啊,让男生非常的喜欢,谁小的时候啊,还没有过那种指挥千军万马的梦想呢。 get nexus 呢是一个非常有意思的开发者的工具,它可以把整个代码仓库呢自动的转换成知识图谱,帮助开发者呢用图结构啊去理解代码之间的关系。 你只需要呢把一个 get up 仓库或者是 zip 包拖进去,系统呢就会自动地去生成代码依赖的关系,模块的结构以及交互的关系,并且呢提供一个可适化的探索的界面。那系统内置了一个 graph rag 的 agent, 可以 基于生成的知识图谱呢来去回答问题。比如呢,像某个函数在哪里被调用啊, 哪些模块存在依赖的关系? get nexus 比较好的呢,就是这些工具啊,几乎都是零服务器架构,它完全可以在浏览器当中运行,包括了像代码的解析,图结构的构建,还有向量的编辑和查询的分析,都在客户端去完成。 因此呢,代码呢不会去被上传到任何的服务器,对隐私呢非常的友好。除了外部 ui 以外呢,它还有 c l i 的 模式,那你可以直接通过啊 c l i 加 m c p 去分析了, 这种方式呢可以具有更好的扩展性。那项目呢,也详细介绍了自己的技术站,还有架构的情况,感兴趣的朋友呢可以去深入研究一下。 第二, flow 呢是字节跳动开源的一个 deep research 的 多智能体的框架,目标呢是让 ai 呢不只是简单的回答问题,而是呢能够自主的去研究收集信息,分析数据,并且生成完整的结果。那它呢,把大语言模型啊,和一系列的工具,比如像 web search, 网页爬虫, python 执行环境等结合到一起, 让 ai 呢,可以实现复杂的研究任务。它的核心能力呢,包括了像 deep research 的 自动化,多智能体协调的架构,还有呢,工具与技能的系统,还有杀伤的环境。那目前的 dear flow 呢,是二点零的版本,它是从零开始,从构的与唯一呢,没有共享任何的代码, 主要呢基于 python, long graph 和 long chain 来去构建。那通过 d a g 工作流呢,来去组织多个 agent 的 执行的流程,并且呢支持长时间的任务和记忆机制,还有任务的检查点。那使用上啊,主要针对于像深度研究,内容创作,数据管道,还有自动化的场景。 那最后呢,还是分享两份资料啊,第一份呢,是塑造自己的下一个版本,二零二六前沿科技趋势,腾讯研究院出的报告,人工智能还有各领域的前沿科技呢,正以前所未有的速度去引进,社会的发展呢,正在努力的适应, 但人们的内心呢,依然忐忑不安,甚至感到迷茫。那来看看这个报告,关注一下前沿的趋势,来思考一下如何应对未来。那第二个是 openclaw 自我研究,一点零报告,看这个说明啊,这是一个 openclaw 自己完成的对自己的研究。那我对这个 ppt 的 风格啊,是非常的喜欢,这种机甲科技风啊,真的很不错。 那内容总体来说呢,不算太有深度,小白呢,可以当成科普来去看一下,还凑合,有需要的呢可以告诉我。以上呢就是本周的全部内容,那我们下次再见。

阿里刚刚开源了桌面 agent 扣炮,目前 star 数只有六百多,看到操作界面是不是非常熟悉?聊天定时任务技能 m c p 完美替代了 open call cloud bot 刚发布时我就说过,国内的大厂很快就会做一个替代品,并且更适合国内用户。扣趴没让我们失望,在频道这里可以直接配置钉钉、 飞书 qq, 在 技能这里可以直接启动要使用的功能,比如各种文档的处理技能,包括 word、 pdf、 ppt、 excel。 虽说 coca 已经做到了简单部署,但 one panel 让智能体部署更简单,依旧打开应用商店,在 ai 分 组中 果然显示着 coca 果断安装,什么都不用动,只打开端口外部访问就行了。这个如果不打开,只有 one 盘中的容器可以访问,点击确认,等待安装完成。现在在已安装界面中可以看到 coca 已经启动,点击跳转,直接打开 coca 的 操作界面,安装就是这么简单, 毫无门槛,久违的中文界面是那么的熟悉,速速配置模型这里默认集成了摩塔、灵机还有欧拉玛三个提供商,如果本地有条件跑大模型就选欧拉玛用在线大模型就选择这两个,任意即可,这里也能添加更多的模型。 dash qq 就是 阿里的灵机模型服务,在阿里百炼大模型控制台申请一个 api key 配置,到这里,在线模型就配置完成了,这里内置了千问和 d p c, 最后选择要使用的模型保存, 现在就可以对话,问他是谁,能干什么,跟 open klo 一 样,可以执行命令,操作文件、网络浏览器、技术搜索等。 最后就是安全问题,我们直接通过域名家端口访问的抠拍,目前抠拍的是直接暴露的互联网,可以在汪碰乐的网站这里创建一个网站,选择安装的抠碰,配置一个域名发布网站,然后在证书这里申请一个 s s l 证书,填写域名自动续期,申请完成, 回到刚才发布的网站,配置 http, 开启 http 选择证书就行了,另外还要配置密码访问,配置用户和密码, 这样通过 http 加域名访问时,还要输入密码才能打开 call pad 的 操作界面,安全问题解决,就可以放心的玩耍。好了,本期就到这,感谢观看,我们下期再见!

我靠,朋友们,终于成了,搞了一天,在这个 coco p a w 里边儿部署这个这个这个聊天的,我在底下用,用那个,用那个 deepsea 的 那个的 api key 做了一个这个聊天机器人,类似这个,类似那个小龙虾那种。终于好了,我的妈呀,他终于回答我了,我真服了,卧槽,我修改的累死我了, 之前各种出问题,他就是不回答,在这各种出问题,他就是不回答,不论是这个聊天框,还是还是他本身,他就是不回答,终于回答了,我的妈呀, 哎呦,真不容易,这个歪,不确定,那也不是那么好搞的呀,我搞了一天,终于完成,终于弄出来了, 我嘞个妈呀,就是稍微慢一点,他现在可以用那个,用那个 skills, 我, 我给他给他搞了几个 skill。 这是这个 oppo 的 这个界面频道,频道里边就加了一个这个,这个飞书的这个 频道这边这个地址就是我的那个我的应用,我在这个这个飞书开放平台后台,我自己做了一个应用,终于成功了。哇,真不容易,兄弟,这还可以设置心跳,设置心跳, 设置智能体的这个工作区,还有这个 agent agent, 这里边可以改,然后这个 heartbeat, 心跳里边可以改 memory 记忆,然后这个 profile 就是 自己的这个定位, 然后还有这个 soul 灵魂,都可以改改它的风格。我终于搞出来了,我真真不容易,搞了一天了。

大家好,今天我们共同探讨一下 coco。 coco 是 阿里开源的 ai 个人助理产品,通过 one panel 面板的应用商店,我们可以较为简单的对其进行安装。 今天我们就通过 one panel 面板安装 coco, 接入硅基流动提供的模型,并对接 qq。 前期的准备工作,一、要有一台 vps。 二、 vps 安装好 one panel 开源面板。三、注册硅基流动账号并生成 aip。 四、注册 qq 开放平台。下面正式开始我们今天的教程。点击 one panel 开源面板左侧菜单的应用商店, 点击 ai 标签,找到抠泡,点击安装勾选端口外部访问其他保持默认,点击确认,等待安装完成。当看到提示安装应用抠泡成功后,我们关闭追踪, 在应用商店的已安装标签中找到刚才安装的 coco, 点击右侧的跳转即可打开 coco 界面。我们先切换一下语言,点击右上角的 english, 选择简体中文,然后我们设置一下模型,点击左侧菜单的模型,点击添加提供商, 提供商 id, 我 们输入 clyckefeller。 显示名称,我们输入归机流动,默认 base u r l 我 们输入 h t t p s。 冒号双斜杠 a p i。 点 clyckefeller, 点 c n 斜杠 v e a p i t。 前缀,此处我们留空,点击创建, 然后找到我们刚添加的归机流动,点击右下角的设置, 在 a p i t。 下方粘贴归机流动的 a p i t。 点击测试连接,看到归机流动 url and a p i t are valid, 说明没有问题,点击保存。 然后点击右下角的模型,添加模型,输入我们想要使用的模型 id, 此处我们以千问千问三 next 八零 b a 三 b instruct 为例,模型名称,我们输入千问,点击添加模型, 然后我们找到 l l m 下面的 l l m 配置,在提供商下方选择归机流动,在模型下方选择千万、千万、千万三、 next 八零 b a 三 b instruct, 然后点击保存, 这样就可以正常和 call 炮进行对话了,我们测试一下,点击左侧菜单的聊天,在对话框输入任意问题,可以看到能够正常进行回答。 接下来我们将 call 炮接入 qq。 步骤一,登录 qq 开放平台。步骤二,点击机器人,然后点击创建机器人,完善相关数据。 步骤三,在左侧菜单选择回调配置,在单聊事件中勾选 c to c 消息事件,在群事件中勾选群消息事件、 at 事件,点击确定配置,根据提示完成身份验证。 步骤四,点击沙箱配置中的在消息列表配置项目右侧的添加成员,勾选成员并点击确认。 步骤五,在开发管理中获取 app id 和 app secret, 扫描二维码进行重置 app secret 操作, 选择重置,在记录 app id 和 app secret 的 值后选择关闭。 步骤六,在沙箱配置中使用 qq 的 扫码功能将机器人添加到消息列表。 步骤七,返回 coco, 在 左侧菜单的频道找到并点击 qq, 在 enable 的 下方打开开关, 在 bot prefix 下方命名一下机器人名称,我们以 coco bot 为例,分别在 app id、 client secret 填入前一步骤获取的对应的值,点击保存, 这样就完成了 coco 和 qq 的 对接工作。登录 qq, 找到 coco bot, 与其进行对话,能够正常进行回答,说明已经对接成功。本期教程完成,谢谢大家!

哈喽,大家好呀,本期视频教大家如何本地,不求扣怕。首先我们需要先下载 python, 官网写着 python 版本要大于等于三点一零,小于三点一四,我们按 win 加二输入 cnb 后回车, 再输入拍放空格杠 v 查看已安装的拍放版本,如果版本合适就可以跳过这一步,没安装的可以到拍放官网下载。视频中所有链接均放在简介评论区置顶,大家可以直接去附近, 我们打开拍放官网,点击 downloads 跳转到特定版本页面往下滑,找到一个大于等于三点一零,小于三点一四的版本,这里我选择三点一一三, 我们鼠标点击三点一一三往下滑,根据你自己的电脑选择安装和系版本,我这里选 win 六四,下载好后双击打开,勾选 add python exe to pass, 然后选择直接安装到末列位置。 安装好拍放后按 win 加 i 打开 cmb, 然后用我评论区置顶的清华大学开源软件镜像架下载。安装完成后,我们输入 koopw i need 杠杠 default 进行 koop, 默念出息化 这里他问我们是否已阅读并接受像素安全息机,我们即刻按回车出息化完成,输入 koop app 启动, 接着鼠标腹记端口地址粘贴到浏览器回戳,这样我们就将 koop 本地部署到电脑上了。 部署成功只是第一步,想让 koopw 真正成为你的得力救小,还需要做一些简单的配置。我们点击左下角模型,先接入下一级创建的 apikey 试试,点击 modelscope 下方的设计粘贴你的 apikey, 忘记了的可以去摩达杠首页访问控制里重新复制,在 l m p g 这里提供箱选择 model scope, 模型选择千问,然后保存。 回到聊天窗口新建聊天,可以在这里跟他对话,让他帮你干活了。需要注意的是,因为有 token 官网或者豆包官网就行,那里是免费的,速度还快,嘻嘻。 接下来我们教大家如何使用本地不朽的模型,没有 tocan 陷阱,可以自由定制,等速度和能力全靠模型和你的电脑算力的支持。 好了,我们先看看怎么把模型下载到本地。下载模型的渠道有很多,这里我推荐比较简单向朽的两个平台,欧拉玛和 modelscope。 我们打开欧拉玛官网可以看到这里有很多模型,不过不要怕,我们新安交欧拉玛 app, 接下来我会教大家如何选择适合自己模型。鼠标移动到右下角,点击 download 下载 app, 如果下载很慢,可以用我为大家准备的网盘链接下载。 下载好后,先别急着安装,因为欧拉玛和模型会默认安装到本地,我们需要更改它的安章位键,找到安章程序,按 ctrl 加 x 剪切。我在一盘新建了一个 ai 文件夹, 这里会放一些跟 ai 有 关的文件,你们可以根据自己的习惯来创建。将刚才下载的安装程序粘贴到文件夹内,接着新建一个文件夹,并就命名为欧拉玛。我们在文件夹地址栏输入 cmb, 回车输入 o l m s set up e e g e d r 等于加文件加路径,双击进入文件加复制文件加递进,然后粘贴回车接接会跳出一个安装窗口,我们直接进行安装。 解决了 app 的 安装位置,接下来我们更改模型的安装位置,我们在搜索框搜索编辑系统环境变量,打开,然后点击环境变量, 接着在下面点击新建变量名,输入欧拉玛 models 变量级,输入你新建的欧拉玛 model 文件加地址,我的是一 ai 欧拉玛 model, 然后点击确定杠确定,这样我们通过欧拉玛下载的模型位置就更改为你设定的位置了。 好了,我们现在可以打开欧拉玛 app 看一看。欧拉玛 app 为我们提供了一个简单的对话窗口,我们可以在右下角选择模型进行对话,注意,目前是没有下载任何模型的,你选择了模型并进行对话会直接触发。下载 这么多模型,我们怎么知道哪个最适合我们呢?别着急,休息一下马上回来。

我是大厂研发工程师张飞,欢迎来到张飞 ai 开发实验室这一节我们继续上一次遗留的一些问题,网友们说的一些问题。首先第一个问题就是说 这个扣炮,扣炮怎么使用这个飞书?第二个问题就是怎么这个用这个 i m studio。 第三个问题,有些粉丝说要开发这种并行的多智能体去使用,比如说 像我这样子,我可能有一个需求,有一个产品经理 agent, 还有一个市场营销推广 agent, 两个 agent 都要连接我的飞书,并且我在飞书里加上我们三个去组成一个群组去讨论问题,像这种两个 agent 同时运行在我们泡电脑上,这个该怎么去做? 主要是讲这三方面。好,那我们先讲一下飞书,飞书需要在这个飞书这个开放平台去 创建一个企业的企业资金运用,我创建的是两个,一个是市场营销推广一个 agent, 第二个是产品经理一个 agent, 两个都已经起用,那市场营销推广我们看一下子,那这里就是在创建这个 库炮的时候,库炮里边有让添加这个 app id, 还有一个密钥,把它复制过去就可以去创建了。另外创建的时候添加这个应用能力,需要添加机器能力,把它加进去在这里会显现。另外还要开一些权限管理,我们基本上开通的都是云文档 一些权限,还有事件回调这块,事件回调这块需要添加一个长连接,视角事件配置这块加一个长连接,接受事件 回调这块也可以加长连接,这样的基本上再去创建机器人就可以了。好,最关键的是这两个 app id 和 app secret 都要放到这个 call 里头,我们看一下 call 怎么去设置, call 就是 channel, 在 这里备注,这里会让你添加 这么一个 app id, 还有 app cache 在 使能保存就可以了。好,保存之后呢,我这里打开飞书就可以看到这两个 a 阵,我都给他发了我的一个飞书文档,让他去阅读,但是这里还有一些问题啊,他好像是没法去阅读这个文档, 包括这里也是我可以另外使用了他的一个浏览器的一个方式,他也没有去做,这是一个小问题,但是这里可以给大家说,可以去通过 agent 就 可以和他去交流。我演示一下子,在这里我应该是已经开启了,对, 我看看是否 model 是 否配置了。 ok, model scope 切换一下子保存好,我们再切换到飞书,在飞书这里头我给它设好营销, 你说你好看,他能回复吗?好,回复了一个。这个好,我们就做一个简单的一个演示。另外呢,我们再看一下这个 ims 六六,如果双击 ims 六六,上一次我想去 自己写代码去做,但是有一些粉丝朋友说,其实在这里面可以去创建。我们继续看一下这个 i m s 六六如何去做。 i m s 六六,一个,我们在这个爱的 provider 里边去添加一个这么一个 id 和这么一个名字。 i m s 六六,在这里就要设置一下基本的 base ul, 这边是可能你本地的一个 ip 地址加上一个端口号,再一个斜杠为一,这个 api k 可以 不用去设置,在这里是 models, 需要添加一个你在本地需要加载的一个模型设置上就可以,另外在这里需要做一些激活,在这里比如说可以是 i m s 六六,再选择它就可以去保存了,在这里我就不演示了。 好,最后我们看一下子,这个就是多智能体的一个开发需求,目前多智能体开发这块我还在去研究和尝试啊,看看能不能开发出来两个智能体并行运行在一台电脑上,目前我在和智普模型在去交流,现在有一个方案说可以做这个 智能体,但是智能体可以做两个智能体,但两个智能体它虽然说是有不同的工作区,比如说 space, 但是它同一时间只能有一个智能体去活着不可,而且它要只能支持快速的一个切换和激活第二个智能体, 但这样子就没法满足我的一个需求,说像 opencloud 那 样子,两个智能体可以和我组成一个群组,三个人一起去讨论,所以说我还在和他去交流,看有没有更好的一些并行的一些运行智能体的一些方案。好,就是这样子,谢谢大家。

在 open core 横行的二零二六年,可能很多人还不会怎么去电脑安装,要么就是根本不懂,要么就是被一大堆英文配置难住了。现在有了 coco, 让这一切都变得更加的简单。 我们可以先来到 coco 官网了解, coco 是 阿里云通易团队推出的个人智能助理,支持本地与云端双模式部署。现在我们直接进入主题,教你如何本地化部署 coco。 按照官方推荐,我们选择一键安装, 这里会出现不同系统的安装模式,具体根据你常用的系统选择对应命令。视频中我们以 windows 作为演示。首先我们打开 cmd 运行窗口, 把 coco 安装命令粘贴到窗口中,这时候可能会出现运行报错的提示。不用怕,我这里给大家准备了一个备用的安装命令地址,重新输入备用命令,回车进行安装。 看到 coco 已经安装成功了,复制这个命令到 c m d 窗口中,回车, 点击高级,找到下方的环境变量进去,找到 p a t h, 双击打开,点击右上角新建,把这个复制进去,最后点击确定。 接着就到 coco 出使画了,跟着文档命令走就行, 直接回车回车,然后就可以看到出使画成功了。 最后我们就可以启动 call 炮了,复制这条命令,这里启动时间可能会有点久,稍等片刻,当你看到一百二十七点零点零点一的时候,就说明服务已经可以访问了, 这时候我们在浏览器打开这个地址, 看到这个界面的时候,就说明你的 call 炮已经安装成功了。如果默认语言显示的是英文的话,就在页面右上角自己选择中文,接下来我们开始跟 call 炮对话, 啊,不好,我们要先配置大模型的访问权限,这里我们进来后会看到系统已经默认选择了第一个,直接点设置进去,这里会出现一个 api 密钥, 我们打开这个地址去注册获取一个,找到访问控制,另一排就是我们需要的密钥。复制后回来 call 页面粘贴进去,点击测试连接,如果弹出绿色框说明连接正常,然后再回去聊天页面跟 call 愉快的对话。 要命啊,这里又忘了一个设置,记得把刚才设置的提供商勾上,模型呢,随便选一个, 这样我们就可以看到正常输出了。但是这里呢,也只是最简单的 ai 对 话而已, 要注意这里的对话是需要消耗 token 的。 我们差个题外话,可能有很多小朋友还不知道 token 是 什么意思,只要你有用过四 g 五 g 网络,你用过数据流量,你把 token 理解为 ai 数据流量是不是就很容易理解了? 而且这个流量在接下来又用到的的 agent 实力中消耗很快。 为了应对 token 的 消耗问题,我们其实可以搭建一个本地大模型,让 call 炮直接对话我们的本地模型进行服务。这里我们使用欧拉玛来部署本地大模型。进入欧拉玛官网,点击右上角的 download 下载系统程序 安装成功后就可以看到阿欧玛的功能页面了,现在我们去找下我们需要的大模型。回到欧拉玛官网,选择 models, 搜索 p w n 三点五, 不要安装带有 cloud 的 标志,那个是在线模型,需要 token 的, 我们可以找一个体量小一点,适合本地电脑安装的模型,因为正常家用的电脑配置都不会太高。这里有一个支持零点八 b、 二 b、 四 b 的 模型,可以点进去 复制安装命令到 c、 m、 d 窗口中,记得加上你选择的具体模型。所谓的零点八 b 或者二 b, 其中的 e b 表示十亿个模型参数,所以越大的参数量对电脑的性能要求越高, 安装可能要一段时间。本地演示直接跳过, 当看到三 day message 的 界面时候,就说明本地大模型已经安装成功了,你就可以跟欧拉玛进行对话。 接下来回到 call 炮中,找到模型配置去,我们开始配置本地模型,找到 alma 选项, 因为本地尤拉玛不需要密钥,所以我们随便输入一个一二三四,点击保存后会弹出一个报错,让我们安装什么 s d、 k, 太麻烦了,难道就没有更简单的方法?我们找到右侧有一个添加提供商按钮, 这里我们随便命名一个,例如 my model, 然后在默认 base 二中输入,这个妙呢,还是输入一二三四就行。最后点击创建, 找到 my model, 点击模型按钮,把刚刚下载的模型名加上去,最后测试下连接, 最后记得选中刚刚设置的模型保存,然后回到聊天页面, 这里就开始考验你的本地电脑性能了,如果本地电脑配置不好的,不要随意尝试,直接用在线模型就行,花钱买 token 就 可以了。 看来本地模型输出没什么问题,就是速度还是有点慢,为了演示速度之后我们会全程采用线上模型消耗 token 模式。 接下来就进入二零二六年最流行的 skill 介绍,什么是 skill? skill 其实也就是我们常用的技能,这里可以看到 coco 默认已经存在一些技能了, 我们可以来问一下,看下 coco 知不知道它都具有哪些技能, 看来他还是知道的,但是实际应用中可能这些默认的技能不能满足我们的日常需求,这时候我们就可以新建一些自定义的技能了。这里我就来教大家如何创建属于自己的 skill。 比如你现在是一位宝妈,每天为了孩子吃什么而感到焦虑,让 coco 每天推荐一个菜系,并且教你怎么做这道菜,是不是就很方便了? 这里我就简单写一个菜谱的技能,我们可以给技能命名为 cook, 内容呢参考左边我已经写好的。注意,我们在最后有一个输出要求复制进来,技能中的 name 表示当前的技能名称跟刚才命名的 name 一 致就可以。 description 表示当前技能的简介,说明这个技能是干嘛的。 name 和 description 上下有三个短横杠包围起来,这种是固定格式,是给抠炮识别用的,要遵守。点击保存,然后启动我们新增的 cook 技能。 这时候我们打开 coco 运行的 c m、 d 窗口,按下 c t r l 加 c 按钮,当看到终止处理操作吗?这时候继续按一次 c t r l 加 c, 停止当前的 coco 服务,然后输入 coco app 命令启动 coco 服务。 当看到一百二十七点零点零点一的时候,刷新刚才的 coco 网页, 这时候我们继续去问他,你有什么技能? 从输出的内容中我们就可以看到刚才添加的 cook 技能了,现在我们就让 coco 来实现这个技能, 可以看到 coco 识别到了我们的 cook 技能,并且在最后成功输出我们的要求, 灰狼大厨并且带上了祝福。所谓技能其实就是给不同需求的人都可以根据自己的需求创建一个工具,不同的人会有不同的需求, 比如销售,可以创建一份根据客户生成客户喜好的技能,比如牛马,可以创建一份工作日报生成的技能, 比如保险,可以创建一份根据不同职业生成一份合适的保险技能。当然技能完全可以不用自己去写,把你的需求发给豆包,豆包就能帮你直接生成了,加上 call 炮要求的 name 和 description 头部就可以了。 最后我们进入频道的配置教程,我们这里以飞书作为教程演示案例,我们首先要打开飞书的开发者官网, 进入开发者后台,可以看到一个创建企业自建应用的按钮,点它,然后输入应用名称和描述 call pro, 接着全程跟着教程走。 接下来就可以打开飞书应用,无论是电脑应用还是手机应用,都可以直接用飞书跟 coco 进行对话。 到这里我们已经完成了全部教程了。


大家好,我是大厂研发工程师张飞,欢迎来到张飞开发实验室,已经很久没有和大家去见面了,去录这个视频主要也是因为我最近这几个月从小米离开,换了新的一个工作岗位,把这些事情敲定之后,再和大家去 讲一些 ai 的 一些事情。今天我主要是分享这个事情,是 coco 阿里的 agent 团队开发的, coco 在 昨天就已经开源了,可以看到这个界面里边他编辑于一小时前他宣布的这个消息。 那 coco 是 个什么?近期大家可能对这个 openclaw 比较了解, openclaw 就是 一个通用智能体,可以装在我们的电脑上, 接受我们的任何的一个自作恶的一个工作任务,这是它的一个呃愿景。那 agent scope 团队大家可能有所了解,在我之前的录的视频里头,我都在讲 agent scope 这个 agent 的 这个开发框架,最近我也非常多的用它这个开发框架去开发 agent。 那现在他开发了一个扣炮,就是说类似 opencloud 的 一个通用个人的一个智能体,那个人助理他最近也就是昨天就行了一个代码开源,那有代码开源,我就可以根据他这个代码去开发一些新的功能。所以本期主要是给大家讲三个方面,一个就是说扣炮的一个开源信息,还有基本的一些 工程框架。另外说演示一下扣炮,我已经把它安装好了,很简单可以怎么使用。另外我又开发了一个新的功能 啊,主要是三方面。那第一方面我们再看一下扣炮的一些基本信息啊。那首先 ainscope 这块,我因为用它的一个代码,所以说我都会 比较关注它,那它开源之后呢,就可以开发它的代码,尤其它最吸引我的,它可以接入自由的接入本地模型,因为我们知道欧像 opencloud 它的花费是非常高的,接入远程的 api 这个我们会花非常多的钱,那如果说我们本地有显卡是吧?可以配置本地模型, 用扣炮去使用它。那下一步呢?我就开始给演示一下子大家我装好的扣炮,在装好之前是我们看看啊,这个我是从 github 上 了解到它这个 public 扣炮这个代码把,这代码首先我肯定是本地版的 clone 下来可以安装,另外最关键的是一个 qq star 去安装,他推荐的是如果说你有这个 python 的 一个环境去进行这个命令, 那我建议大家如果没有派生环境,比如说 mac 的 一个电脑可以用这个命令,如果是 windows 电脑用这个命令,那我用这个命令。在比如说大家可以在 power share 可以 去安装,或者说像我一样在对 share id 打开终端去安装, 这里具体不按照命令了,就装好一键安装,装好完之后就开始进行一些配置,那配置里边可能关键是几个要配置一个 china, 所谓的 china 你 可以配置一个,除了操作电脑本地有一个 终端界面,另外还要有一个远程,比如说是飞书,钉钉我主要配置的飞书配置好之后就开始 coco 的 一个 app 就 可以启动起来,那启动的界面呢?给大家看一下子。 启动界面就是这样, coco 的 一个本地的一个 web 服务,因为它主要是像 opencloud 一 样在搭建了一个 fast api 的 一个网关,去在前端记好前端软件就可以去连接, 只要你配置好了那些 api, 或者说在这里我主要是配置的 modelscope, modelscope 的 这个阿里的千万的一个二二百多币的一个大模型,可能每天能够调用五百次,然后调用之后呢,我就开始配置好之后,我就开始给他说哈, 然后他让我去这个告诉我这个引导模式激活哈,然后等等这些基本信息,然后他告诉我就是让我怎么去配置它,然后呢?我最近我又想开发一个,就是也不是算是开发吧,或者说主要是需有那么个需求,我需要可能做一些 我开发的应用,我可能对这些应用做一些市场营销一些推广,所以说我把它就命名为了一个专属的市场营销推广专家,叫艾玛, 然后等等这些信息,这些基本的属于是系统提示词,把它给它配置好。就是他其实也问我这些了哈,他的名,他问我这 ai 助手我给他叫什么名字,比如说叫艾玛,然后 给他的定位,定位就是市场营销推广专家等等这风格。还有就是说把我的一些基本信息我会告诉他,比如说我我告好告诉他他的信息之后,他就存到文件当中哈, 拿到文件之后以后他就大模型就可以拿到这些文件去转述,知道是干什么。那接下来呢?他就会问我有些营销项目或者推广项目,那我再告诉他我的一些信息哈,我的一些信息,比如说我主页是做系统工程师,然后副业呢是做一些 ai 智能体应用开发, 然后最近开发了一个 ai 的 python 编程。老师,智能体啊,这么一个应用,用来帮助我家三年级的规矩哈,系统性的一个学习 python 编程, 就是我告诉他我的基本信息之后,他也都保存到文件当中,剩下的话他就开始告诉我我有什么需要帮我的,包括产品定位没有建议 这些,这是非常好的。这我基本感觉哈,我还没有继续使用,我基本感觉这个满足我的一个想象哈,比如说我可能要做一些推广,比如说小红书公众号的一些文章,或者是做一些短视频,让他帮我写文案啊等等这些未来的话,我这个我还可以看到他这个 model, 他 后台调的 model, 可以 看到 windows gov 的 一个模型是这么一个,对,千分三,千分三,最近出了三点五哈,我这个还是用老的一个千分三,那个二百三是五 b 的, 这个够我们用就行。但是我看到了他在本地,本地是欧拉玛,欧拉玛其实我用的不多,我想开发一个就是 lm studio, 去 配置一个本地的一个模型,然后要在这个前端当中要做好这个功能啊,包括整个的扣炮这块软件做好,然后呢我就给他提了这么个需求,可以看到哈,提了需求之后,他就开始夸夸给我写代码哈,你看改代码其实不太多。 对,我主要是把我这个需求文档提给他,我们可以看一下子哈这个需求文档,需求文档里边就是最主要的可能还是 说一下它的一个架构,通过它这个开发这么一个功能呢?通过做,然后去了解它一个软件代码架构,那就是扣炮的整体的系统架构,包括有前端或者 changui, 比如说我们的 刚才演示的一个这个交互窗口。然后还有就是我们可以配置飞书,飞书的话就是 channel 远程用手机的飞书,或者说其他电脑的飞书来控制它,电脑去和它交流,完成一些配置它一些自动化任务去做。 哎,对后端的话就是 fast api 大 区的一个网关,然后 i m s model 提供一些这个,对它这个网关这块可能还有一个 router, 就是 说我要路由到哪个模型上去, 然后这里边提供了一个 i m s 六六的一些模型,然后提供一些这个新的写写写喷新的一个 provisor 的 一些编程代码。然后最后我首先我要确保我后台真的开了 ms 六六六哈,并且加载我合适的模型,这样他就可以工作了。可以看到右边的话,右边他已经完成了这块的一个工作实线,他这个款话都告诉我了, 对,简单的话就是这么一个意思,扣炮的一个更更瘦的一个 ui, 然后后台是后端就是 python, 然后最后 python 还有调用这个 ms 六六主要是这么一个功能, 然后我又告诉我又问他,就是如果我启动开发功能,首先第一步要启动 i m studio, 然后第二步就启动他这个后端,他命令就会告诉我了,因为我刚才演示的话是我按照那个就是给他们上的一个开源的,就是命令去装的,但是我要把我新 这个开发的这个功能要去运行的话,必须用这些的一个命令去运行,然后启动前端,然后再进行配置连接,就应该是可以开始使用了。 对,这样子的话我就可以就是免费的使用我本地的个模型,然后让本地的去开始跑起来。那我只要跑起来的话,我前段还是就是这个拆他一个功能就可以和他去交流。 ok, 每个这个后边还有一个关键的功能,就是说我想安全非常重要吗?我们知道欧文克劳给的权限非常多,这个时候本地个人一个电脑权限肯定就给他限制住, 说我要限制到这个一个 coco 一个 workspace 当中,你只能在这目录下,就是新建文件或者读写文件,就有这么一个权限,只能在这目录下它都写进去了。 好,那本期呢就是给大家讲的这三部分,第一部分就是说 coco 的 一个基本信息,然后第二个就是说 我怎么去把它安装好,安装之后呢把它运行起来,前端运行起来,然后第三步呢就是说我开发了一个新的一个功能。好,那谢谢大家有,如果大家有什么新的一个需求,可以在这个给我发个评论。

欢迎回来,精彩继续! 哈喽,大家好呀,上期视频教了大家如何本地部署扣炮,并且安装了欧拉姆 app, 那 么这期视频就带大家一起看看如何安装适合自己电脑配置运行的模型。话不多说,直接来吧! 首先我们得先知道自己电脑配置运行的模型。话不多说,直接来吧!首先我们右键任务栏空白处,点击任务管理器, 或者按下 c r t, 加 shift 加 esg, 然后点击性能,这里就会显示我们的 cpu 内存, gpu 是 什么。比如我用的这台电脑是 r i x 三千零七十 t 一 六 g, 显存内存三二 g。 然后我们可以右键将我们的配置复制下来。 接着打开 deepseek 官网,粘贴刚才腹肌的内容,问他,你好, deepseek, 我 想要在本地部署 ai 模型,通过 copout 让他帮我自动即兴文件清理桌面等我已经安装好了 olame app, 但是我不知道我的配置能够运行什么模型, 请你帮我分析一下我的配件,然后推荐一些适合我本地不朽的模型给我,再次感谢。然后 deepsea 就 会给你修出一些适合你安装的 ai 模型, 因为你在提系词里填了 olamma app, 所以 它可能还会给你提系安装方法,复制 deepsea 推荐的模型,然后去 olamma 官网模型界面搜索, 我们点击这个 gpt 模型,在这里可以看到它的下载量,更新时间以及详细介向往下滑,还可以看到模型的各个量化版本,基本上我们就选择一个最接近我们显存大小的版本,比如这里我就选择下载了 gpt 杠 os 二零 b, 它的内存只有一四 g, 我 的电脑是可以很快速运行的,它还支持一二八 k 的 向下文,但是只支持文本输入。 我们再换一个 q n 三点五看看,它有很多量化版本,而且五天前才更新,性能强大。可以看到零点八 b 的 模型尺寸只有一 g, 但是机器二五六可以向下纹,还机器图像输入,可以学习,非常强大了。 当你选定了几个模型又犹豫不决时,可以将这些模型的名称复制下来,然后粘贴给 deepseek, 再加上你的需求,问他你应该选择哪个,他会为我们详细介绍每个模型的优缺点,再根据我们的需求为我们选择比较契合的模型。 然后我们就可以挑选二到三个和系的去强行安装了。比如我想安装 q one 三五比零八 b 这个模型,我们直接复制名称,然后打开 cm, 输入欧拉玛 pro q one 三五比零八 b 回车,然后模型就会开始下载了。 当模型下载好后,就会自动放到我们之前设计的路径里,这里刚开始可能是正向速度下载,过一会就会降到几 kb。 不要怕,我们先点击窗口,然后按下 control 加 c, 就 会打断下载,接着选中并 control 加 c, 复制刚才那条下载命令,直接 control 加 v 回车,可以看到下载速度又正常了。 我们可以输入 olama list, 查看已安装的所有模型。模型安装好后,第一件事情肯定是先细细它的所有模型。模型安装好后,第一件事情肯定是先细细它的所有模型。我们打开 olama app, 点开设计, 将最底下的 context link 拉到二五六 k, 发挥出这个模型机器的最高象限,同时模型运行所需要的算力也会增加。然后回到聊天界面,跟你的新模型打个招呼。这个模型机器图像和文字,所以我们还可以点击习字按钮添加一张图片。 由于这个 app 只是个聊天窗口,没办法控制我们的电脑,我们打开 cd 输入的地址,粘贴到浏览器, 回到扣怕页面,然后点击左下角模型,将提供箱换成欧拉玛模型,选择刚才刚安装好的 q n 三五比零八 b, 然后就可以跟他对话,问他有什么技能让他帮我们的忙了。 好了,恭喜你学会了简单的欧拉玛模型下载。接下来我们来看看难度稍微高一点的模型下载方法,它可以更自由地选择模型量化版本,压架你的性能象限,或提供更流程的运行,还能给你的模型加入一点个人调味料。 我们打开摩达官网,找到模型库,然后我们选择 g u f。 模型的格式有很多, 不过你想要在 copw 运行这个模型,就需要将下载的 gduf 格式模型转化。我们搜索 qwind 三五比零八 b, 然后点击后置带 gduf 的 模型,这里有很多这个模型的详细信息,感兴趣的可以自己研究一下。 点击模型文件往下滑,可以看到这里有很多量化版本,还有一些欧拉玛官网没有修路的版本。这些 q 四 k m i q 四 ax 是 什么?看起来就复杂,别怕,我们直接复制,然后丢给 ai, 问他这些字符是什么意思。接着 ai 就 会像叫你学 abc 一 样,告诉你它们的含义。 回到模型文件这里,我们选择一个和系自己的下载下来,如果下载的很慢,可以去下载个什么雷软件,它会直接接管浏览器下载。将你下载好的文件放到你的欧拉玛模型文件夹旁边,新建一个文件夹,随便起个好分辨的名字, 然后新建一个 txt 文本,接着从命名为 model file, 删除 txt 后缀,然后用记事本打开,在里面可以自定义模型的配件,还可以给他一些角色设定。 首先要在第一行输入模型的文件名称 from q n 三点五杠零点八 b 杠 q 四 k m g e q f 然后粘贴模型基础信息,不修这些直接转化也行, 但是模型很容易胡言乱语,答非所问,不知道怎么填基础信息。我们可以看看其他模型是怎么写的。输入 olammo list, 查看已安装的模型,然后粘贴这串代码, 展示这个模型的 model file, 我 们复制这一块代码就行,把它粘贴到我们的 model file 中,你们可以自由对这个参数进行微调,不会就问 ai, 记得保存。文件都准备好后,在地址栏窗口输入 c n b 回车,然后输入欧拉玛 create q n 三五比零八 b 杠 q 八零杠 f model file 中间的这个模型名称是可以自己随便填的,建议简化模型名称,比较好记,易辨别。 然后回车,等待模型创建完成。创建完成后,我们就可以在欧拉玛 app 看到它了,也可以在 kopw 切换它。跟你的自定义模型打个招呼吧,测试一下是否创建成功。 接下来你就可以去反复调戏你的模型了。学会了点赞投币没学会再看一遍,哈哈哈! 通过这几个细频,你已经从零基础小白学会了如何本地不朽 coca w, 如何通过欧拉玛下载模型,还学会了如何自定义模型、参数设定、劫色破球线模型等。 更重要的是学习如何向 ai 提问,让 ai 帮助你学习熠熠进步。能看到这里,说明你们真的很爱学习新机器,有着追求新事物的热情。下期我将从零开始,带大家一起安装 openclaw 小 龙虾,解锁更多好玩又有趣的机器,拜拜!

大家好,我是大厂研发工程师张飞,欢迎来到张飞 ai 开发实验室。本期我们讲一下子扣炮的一个多 workspace 工作区的一个开发结果。上期有些粉丝跟我说希望有反多个智能体一起去工作。我先想一个初步需求, 我们同一台电脑可以支持两个智能体,但是两个智能体他不能并行存在,只能同一时刻,只能选择一个这个智能体。添加个 profiles, 可以 在这里边我们创建多个智能体。我们打开看一下,这里呢,我已经创建好了两个智能体啊,一个是 marketing, 一个 manager, 一个是 product 的 管理者,他给了一些提示,我们看一下这点击编辑这里去选择这么一些提示,可以,也可以是中文,这里 添加了一个创建一个智能体。添加创建智能体里边可以填比如说这些角色数据分析啊,内容转载,软件工程师等等一点,其中之一大部分默认就可以出来了,再添加一些名称 id 就 可以。 这里我就不点击创建了,因为这已经创建了两个。这两个创建之后之后,它其实就会对应着 workspace, 就是 你选 则哪个激活。比如说我在这里选择了 product manager 去激活,那它就会把 product manager 激活放到这个 workspace, 它 product manager 的 workspace 就 会放入到这里边来,这是我们的即时一些记忆, 可以和他一些交流。你好,你是谁?看他怎么回答啊?他说他是一个产品管理助手,那我其实可以再明确一些产品管理助手,我给他角色定位是这些,我给你下定位啊,他就开始 读,写文件是肯定没问题的,飞书有些文件还没有,包括写飞书文档这些还没有, 他也根据我的要求写了更新资料了五年以上的,然后再看一下激活它,激活它之后其实他就将工作区加载过来了,这里可能你看不到任何消息,那我们在这里去聊的时候就可以问他, 你是谁?你好,你是谁?他就说市场营销专家已经切换过来了,那我再把市场营销专家的系统提示词给他放进去, 把它写进记忆里头,我给你一下定位,非常多,这些提示词非常精准,也是通过 deepsea 去生成的。另外提示一下,有些粉丝还想给我发一些这个扣炮的一些 bug, 一 些 bug 列表,希望我能够解决一些 bug, 我觉得是非常好的,可以通过加入我的一个群告诉我这些 bug 或者说一些需求。当然我可能要根据这些 bug 和需求排了一些优先级,针对大家使用最多的一些需求,或者说 非常影响使用的稳定性的一些 bug 可以 去改,改了之后呢可以把这个功能开放出来,大家可以去使用好,它已经要切入进去了啊,这就是本期要讲的一个内容,如果说大家觉着这个 啊多 agent 这个功能非常好用,比如说可以再建多个 agent, 并且每个 agent 都有独立的一个 workspace, 独立的一个记忆可以使用这个功能。想使用的功能可以给我说,或者说加入我的群,我会 在群里把这个功能想办法开放出来,给群里的粉丝去说。好,那就这样。

朋友们,国内版 open clock 正式上线,他就是阿里云刚开园的 coco, 一个真正能帮你干活的 ai 数字员工。他最牛的地方在于完全听你指挥,数据绝对安全。你可以把它部署在自己电脑上,处理合同代码、财务数据,而且信息绝不外传,还能一键上云,随时待命。不 需要你专门打开网页,他直接可以潜伏在你的钉钉飞书 qq 里。你只需要在群里艾特他一声,他就能帮你处理工作, 甚至能设定定时任务。比如让他每天早晨自动把行业新闻推到你手机上。他还有超强记忆,记得你的偏好和历史任务,越用越顺手。 不管你是想做个自动抓取数据的助手,还是私人日程管家,都能像搭积木一样轻松定制。想拥有专属的数字搭档,就赶紧去试试扣炮,让工作生活彻底开挂!关注我,让 ai 更好的服务于你!

呃,我刚体验的阿里最新的龙虾机器人,给大家分享一下我的使用体验,对比 open cool 龙虾机器人来说,他的主要有这么四个特点 啊,第一个就是体验更好,第二个呢,安全性更高。第三个处理复杂能力啊,相对要弱一些,成本呢,只能说有相对优势啊,给大家解释一下这四点啊,第一点就不用说了,大家去体验一下就知道,大概他的安装的只需要两三步,而且他的问答的这种 体验呢,也是非常的流畅的啊。第二个呢,他的安全性他默认呢,他是没很多权限,是没有开放的,他只会在他的自己的工作期间去操作,但是呢,基本的浏览器操作啊,且除啊这些都是没有问题的,都是 ok 的 啊。 然后呢,第三个就是他的这个复杂的处理能力,因为这个 oppo 呢,他是多 a 技能模式,而阿里这个龙虾机呢,是单 a 技能模式, 那这两个有什么区别呢?如果说你是复杂能力的话,他的多 a 级的模式,他可以把你的任务拆成多个子任务,每个子任务呢去单独处理,他的绘画呢是单独管理的,这样子呢,他的执行的精准度呢,就会更高,幻觉呢更少,但是空配要是单 a 级的模式, 那么你的任务越复杂,他的绘画的轮数就会越多,他的幻觉的可能性呢就会更大。最后一个成本,为什么说他是有比较优势呢? 那个 open 可乐的单次调用成本呢,大概是一万,呃,一万五到两万,而抠拍的单次调用成本大概是在一万一。如果说你是处理复杂任务的话,那就不太一样了, 因为它是单绘画的模式,刚才已经说了,单绘画的模式它的头肯就会在这个,呃,一个绘画里面越滚越大,越滚越大啊,所以它的头肯其实消耗是会更多的,特别是在复杂任务的时候啊。 所以说呢,呃,如果说你是想建一个数字人团队,那么可能还是要建议你基于 open color 去搞。如果说你是只是想让他处理一些简单的任务,做一个个人助理,那么 hope 啊,可能更是。