你竟然还在想着买 mac mini 部署 openclaw? 今天我就给你算的明明白白,这笔账到底有多冤?先算成本账,能稳定跑本地大模型的 mac mini 入门款 m 四十六 gb 加两百五十六 gb 要四千多,稍微能看的二十四 gb 款要六千出头。 顶配 m 四 pro 四十八 gb 款直接冲到八千多。很多人买之前以为花这笔钱就能拥有一个无所不能的私人 ai, 结果买完才发现,硬件的天花板从你付款的那一刻就已经焊死了! 给你实打实的无水分参数。直接戳破幻想,哪怕是八千多的顶配 mac mini, 最高也就四十八 gb。 统一内存。注意,苹果的统一内存是系统、 cpu、 gpu、 ai 算力共享的,没有独立显存。跑大模型,必须把整个模型全装进内存里, 扣掉 macos 系统 open core 运行环境工具调用必须预留的十 gb 以上空间,你实际能用来装模型的内存最多也就三十八 gb。 按照行业通用的斯比特无损量化标准,它只能稳定运行三四 gb 参数以内的开源模型。 这个模型是什么水平?直白点说,它的逻辑推理、复杂任务拆解、代码生成能力也就勉强接近多年前的 gpt 三点五,和你现在免费就能用的豆包、 kimi 质朴清颜差了一大截,更 别说对标商用的 gpt 四 o cloud 三 opus 这些顶级模型。你想跑能真正处理复杂任务接近 gpt 四水平的七零 b 参数模型,哪怕是四比特量化完整加载加正常运行,也至少需要六十 gb 以上内存。顶配 mac mini 连装都装不下, 勉强启动也会疯狂读写 ssd 做虚拟内存,交换速度直接暴跌百分之九十,卡到你怀疑人生。更扎心的是,商用顶级大模型背后,用的是 h 一 零零、 h 二零零这种级别的 ai 芯片, 单张 h 一 百的显存带宽是三点三 tb 每秒,是顶配 mac mini 内存带宽的三十倍还多,一张卡就能无压力流畅跑七零 b 模型。而商用 api 背后,是成千上万张 h 一 零零组成的算力集群, 你花八千多买的顶配 mac mini, 在 人家面前连入门级都算不上。也就是说,哪怕你在本地部署了最新最先进的大模型,它的实际运行效果和算力表现依然会受到设备性能、芯片、算力等硬件条件的限制。 想要解锁满血的 open collab, 还是要用顶尖大模型的 api, 但前提是你要搞清楚你自己的需求。最后说句大实话, open collab 不是 不好,只是它的目标用户从来都不是只想做个定时提醒、简单自动回复的普通人,而是有明确自动化需求、有技术背景、有特定业务场景的从业者。 对百分之九十九的普通人来说,你日常能用到的所有 ai 功能,免费的商用大模型,早就给你做到了极致,不用折腾部署,不用花大价钱买硬件,打开就能用,体验还能甩本地部署八条街。别再为了虚无的黑科技敢跟风瞎折腾,本质上是陷入了一个为努力的陷阱。 你本来是想用工具帮自己省时间、提效率,结果到头来把所有的时间、精力、钱全花在了折腾工具本身上,彻底本末倒置。
粉丝0获赞5

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

最近啊, mac mini m 四又火了,就是因为那个从 cloud bot 改名为 mod bot, 最终啊,又命名为 open cloud 的 ai 工具。现在很多人啊,都想搞一台全天二十四小时待命的个人贾维斯。 确实啊, mac mini m 四啊,本身就很强,但是如果你真想用它来搭建本地 ai, 有 几点啊,你真的要注意。首先啊,想跑 ai 模型的话,那些对话记忆 只是酷训练数据这些在使用的过程中啊,持续产生的数据,确实是个存储黑洞,两百五十六 g 啊,根本不够,五百一十二 g 啊,想跑训练久了可能也有点费劲,但如果直接上大内存的版本, 这个价格啊,都会再买几台 mac mini 啊。我的省钱方案是啊, mac mini 啊,就入手盖板就行了,之后直接外接个固态硬盘来扩容。另外,想要模型加载快,数据供给顺畅的话,外接硬盘的传输速度也很重要。 本地读写速度啊,也是 ai 本地推理训练效率的关键。这么看来啊,想要搭建一个真正的个人假维斯,光有 mac mini m 四还不够,你得给他配一个传输速度快,传 输空间大的硬盘盒,至少十 g 二十 g 起的传输速度,再加上几 tb 的 传输空间,才能真正发挥 mac mini m 四的实力。 前段时间啊,我按照这些需求啊,到处找了一圈,最后锁定了阿卡西丝的 m 零零二 pro。 前面说了,咱们搭建个人假维斯最怕什么,就是存不够,刚好他这里有两个硬盘位,可以塞两块最大八 tb 的 固态硬盘, 直接就是十六 tb。 十六 tb 放在那 ai 模型啊,随便装知识库呢,随便建训练数据啊,随便存空间啊,直接管够。然后是速度啊,这个才是我选它的核心原因,开个锐的零模式啊,直接飙到四十 g, 你 们想啊,跑 ai 的 时候 图形要加载,训练数据呢要读取,检查点呢要保存,这些操作全都要从硬盘里拿数据, gpu 的 算力再强啊,但硬盘速度太慢,性能啊,直接拉跨。有了四十 g 的 速度,训练数据读取嗖嗖的。最后是散热和防尘,这很多人啊,可能没注意到要二十四小时开机,跑 ai 这些啊,真的很关键。 m 零零二 pro 是 一比一开模的,铝合金设计,完美搭配苹果美学,这就像给 mac mini 啊穿上了一层散热机甲,一眼看过去啊,像不像 mac pro, 颜值和格调直接拉满,加上上下全开孔,热量直接散出去,我挂一整周啊,摸上去啊,也不怎么热。而且啊,不止是硬盘盒,前面三个 a 口啊,可以接移动硬盘和 u 盘, 后面两个 d p 口啊,支持双四 k 显示,顶部还有 s d 和 tf 卡槽,相机拍的素材啊,直接导一盒多用。总结一下, mac mini m 四啊,是个好东西,但想当真正的 ai 服务器,存储容量和传输速度啊是关键!正在搭建 ai, 想让 mac mini m 四啊存储和速度飞起的朋友阿卡西四的 m 零零二 pro 啊,赶紧试一试!

cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

大龙虾这波热度呢,让所有云厂商都卷了起来,基本上都出了自己的云端部署方案,今天我就用阿里云带你跑一遍,十分钟拎包入住云端版的贾维斯 open club。 说实话,本地装不是不行,但你得折腾环境配依赖,还得自己对接模型 a p p。 对 普通人来说呢,直接劝退 好。首先,我们打开阿里云的清凉应用服务器页面,在镜像这里呢,直接选择 multi boot, 他 已经把运行环境打包好了,你不用自己装任何东西。 配置的话,镜像要求最低是两盒两 gb。 地域呢,随便选,国内国外都行,国内因为有网络 bgp 优化会贵的,这里我选择国际型。确认好我们的地域, 这里我选择新加坡,因为我不是新用户啊,新户价格首次还会更便宜,最低九块九,一个月六十八块钱呢,就能直接包一年, 或者像我这样直接想尝尝鲜啊,先购买一个月,确认这些都没问题之后,点击立即付款。付款后呢,等服务器启动,服务器起来之后,进控制台,你就可以看到我们买的服务器了。点击进入我们的服务器详情页,你可以看到这里面一共需要三步,我们挨个执行就可以。第一步啊,放通端口,页面上有个一键放通,点一下就可以。 这要是你自己部署啊,这一步我估计会卡住很多人。第二步,配置我们的 api key, 还有生成 token, 这里需要跳转到阿里云百联平台,在密钥管理里创建一个 openclaw 专用的 key, 复制过来粘贴执行。 第三步,获取专属链接,点执行命令,它就会给你分配一个专属的链接,记住这个链接啊,后面点进去就能直接进入 opencloud 控制台了。到这一步啊,整个部署呢,就算完成了。看到了吗?就这么简单,一共三步,除了等服务器创建的那几分钟啊,实际动手操作呢,用不了五分钟, 完全不用碰触任何的命令。行,你就可以拥有一个自己专属的大龙虾,而且只花了一顿饭钱,这比你去买 mac mini 简直省太多了,也不用担心关机断电这些问题。那怎么验证跑起来了?你可以直接在控制台里跟他对话, 也可以像我这样呢,接入钉钉,做一个钉钉的机器人,直接在手机上艾特他,因为模型默认是帮你接入了千问三 max 的 最新版本,推理更强,都是对话呢,你的 ai 助理呢,依然会在后台帮你联网查找资料, 整理信息。那怎么能玩一些更复杂的自动化任务呢?网上其实已经有不少博主做了详细的教程,阿里云官方呢,也写了教程文档,想要的呢,我可以发给你,感兴趣的可以自己去研究。 成本上还要说一下,模型调用呢,是单独计费的,轻度玩玩呢,基本是可以忽略的。但如果你想做一些复杂的任务呢,还是建议去百炼平台购买这种扣丁 plan, 也就是固定月费可用的 token 额度呢,会更多,也更划算。所以以后这种拎包入住的云端化,才是未来 ai 普及的正确姿势,你们觉得呢?快去试试吧!

各位家人们,这期视频我们来讲解 openclog 的 本地部署啊,然后呢,我们再接入一个飞书,然后我们通过飞书去操作我们的 openclog 啊,现在我们介绍一下 openclog 到底是个什么东西啊? open openclog 呢,它原名叫做 club boat 啊,大家听这个名字就知道了啊,就是一个机器人 啊,是一个机器人程序啊,听起来挺好听的 club boat, 但是为什么改名叫 openclog 呢?原因很简单,因为这个名字呢,跟 isobik 旗下的大模型 club 啊,冲出了人家是大公司嘛, 就他连夜给他这个作者发了律师函,律师函的啊,就他这个律师函说这个作者连夜给他改了个名字啊,中间,中间起了一个过渡名字叫 motobot, 然后后面呢最终定为 open club, 那 么 open club 其实这个项目的最终名字了,那这个呢?其实是一个个人项目呢?这是个什么东西呢?这是一个 agent, 这是一个智能体对话的智能体啊,那我们可以给他指令,然后呢他可以回答,还能主动去操作我们的系统,然后整理文件,甚至呢自动编辑代码去完成任务啊,总之功能是很强大的啊, 有人说这个 agent 其实已经出现过太多太多 agent 了,为什么这个东西能够爆火呢?主要就是功能比较强大,它是一个部署在本地的 这么一个项目,呃,可以充当个人助手啊,去,你替你去操作这个电脑,那现在我们就来部署一下这个项目啊,部署这个项目呢,比较简单哈,我们如果说你用的是 mac 或者 linux 电脑的话,直接执行这样的一个指令就可以了,这是一个一键安装的奖本, 那如果是 windows 呢,你就这个样子啊,那么 windows 呢,可能会出现一些意外啊,因为毕竟来讲啊,就是 windows, 它还是一个以图形化操作为主的这么一个操作系统啊,就是说指令,指令这一方面啊,其实大元模型对它的指令呢,语料不是很多,不是特别的熟练,所以呢,有时候会出现意外, 所以我们建议还是使用这个 linux linux 系统或者 macos 系统来来去跑这个项目啊。如果说没有这个 linux 系统啊,大家可以装个虚拟机啊,在个人电脑上面装个虚拟机,那我电脑上面就是装的就是一个虚拟机啊,然后所演示的过程呢,就是用虚拟机来给大家演示啊, 你装一个 oppo 网,然后在里面装一个 open 处就可以了。另外其实你用一个虚拟机跑的话,其实更安全一些啊,因为它要获得比较高的权限,所以呢,你一不小心可能会把你电脑上的文件给删除了啊,那可能麻烦就大了,对吧,所以建议还是用虚拟机,先把 这个玩熟了之后,然后再去个人电脑上面,个人电脑上面去跑啊,那我们只需要执行这样一行命令就可以来就可以去进行啊,可以去安装这个项目了啊,帮我把这个命令,那我们可以到官网上面去复制一下这个,复制一下这里面 copy, 把它粘贴到这里面来,我们回车一下啊,这个它需要比较长的时间啊,因为这里面做的事情还是蛮多的。比较长的时间啊,另外加上我这里面做的事情还是蛮多的时间啊,另外加上我这里面做的事情,就不演示这个过程了哈, 我把这个过程呢记录下来给大家看一下,就当你之前玩那那好整点之后啊,没过段时间就会出现这个安装的过程,这过程呢,主要就是三步啊,第一步它会装这个 node。 这第一步啊,因为我们的这个项目本质上呢,就是其实就是一个一个 一个一个 node 项目啊,就是一个 top grid 的 一个项目,所以需要有这个 node。 然后呢,我们需要按住 git, git 呢,就是通过它去拉取这个 有个服务器上面的代码。嗯,接下来就是按住这个 open 啊,按住这个呢,好,安装完之后呢,接下来就各种选择了,就很简单各种选择啊,那这里选意思是 no 啊,其实这个是要确认一下你到底要不要去装这个东西,为什么呢?因为它有一定的 a rescue, 有 一定的风险啊,因为它需要获得比较高的权限,会有一定的风险, 默认选择 no 啊,这里选择 yes, 不 然到这一步就结束了啊。而且接下来就是一个快速安装啊,按快速的这个配置啊, quick start 啊,那么首先第一步就是配置我们的模型,因为它是使用大模型来进行做 规划的,那模型的主要大部分,大部分模型其实都是国外的模型模仿也有 special 啊,有部分是国内的啊, me max 月之艾米亲吻制服 a 啊,这个随便你怎么选啊, 我这边自己选的是这款 ai, 因为我有它,因为我有它的这个 open, 有 它的 api key 啊,你,当然你有哪一方面的,就是你有 memax 或者 v 上面的 api key, 你 就选择对应的就可以了,对应大模型就可以了啊,那么选择对应大模型之后,就是说我们选择完之后啊, 那么紧接着它会有一个会,会说你去输入这个 api key, 当然你可以在跳过,因为到时候我们会回过头来再去配置也可以啊。好,那配置完这个 api, 配置完这个大模型之后,紧接着就是 配置这个 channel, 就是 配置这个频道,其实就是我们要跟他进行你要听的这么一个一个一个社交软件,那社交软件基本都是国外的,都是国外的,到时候我们可以装一个飞书的插件,通过飞书来指挥它那设置,你们可以去跳过 skip now, 对, 那是跳过的意思,当前跳过, ok, 咱们解决下来就是各种各样的配置了,这里面你就按自就这,这里面就是很接下来的配置很随意了啊,比如 skills, 就是 要不要配置 skills, 当然你可以选择要不要装这个 skills, 这个后面配置也可以啊,当然你可以全部选 no, 也没关系啊 啊,这个不需要任何 skills 啊, ok, 然后这里全部就可以都跳舞啊,都可以啊,这里面选跳舞,然后 no 啊,都可以,都没关系的啊, 这里也可以跳过,这是有 hux, 这是一些歌子啊,歌子就是用来记录一些消息的,记录一些信息,记录日日的啊,记录记录一些绘画的啊,当然你这里面可以勾选啊,勾选,怎么勾选呢?非常简单,你移移动这个上,你去移动我们的键盘上面的上下键啊,就可以在上面,这个可以在上面键切换了,然后呢切到哪里你就可以点这个,点这个 space 就是 空格键啊,点这个 space 空格键啊,然后就可以选选中对应的目录了,那么选择之后呢,你可以多选,选完之后的话回车就可以了。 ok, 那 么点完这个到这里基本上转完了啊,回车之后,接下来我们就会看到什么呢? 看到我们的,看到我们这个东西啊,就是看到我们的这个聊天界面啊,它会打开一个界面,这就是聊天界面,我们可以直接在这里面跟我们的 萝卜根根根根根根根根根根根根根根根根根 根根根根根根根根根根根根根根根根根根根根根根根根根根根根根根根根 碰飞书,点 c n 这个网站,然后接下来紧接着我们进入开发者获产,这个地方的获产进来之后呢,我们需要去创建企业资金应用,我这里已经创建好几个应用了,对吧?创建好几个了啊,我们再来创建一个,点进这里面创建就可以了,然后就企业描述,那你就企 业名,应用名称啊,你先写下应用名称,随便写一个,比如说叫 boom boom 啊,就是描述啊,吧啦吧啦,随便打一点啊,这里是应用的图标啊,点创建,创建,创建完之后,接下来我们去啊,我们去添加一些权限给大家。呃,看一些权限啊,看权限的话,我们这里面 是跟通讯相关的权限,我们点点这个权限的名称,这里面啊确认开通权限,然后就会,然后就会开通很多权限啊,开通权限之后呢,这里还有一个非常重要的东西,就是这个事件与回量啊,这里面定位方式,我们点保存啊,这里会出现一个应用未,等一下 点保存哈,就是我们使用常连接接收事件,你点保存的话,它会出现这么一个东西叫应用未建立常连接哈,应用未建立常连接什么意思?就是别没有人跟他连接哈, 这个时候怎么办呢?这个时候我们要回到我们的,回到我们的这个 linux 这里面来啊,就是我们这里面要去去配置一下,这里面就是我们要去跟跟我们的非输产生一个连接啊,那么这里面需要去装我们的插件啊,装我们的非输啊, open open close, 然后呢?把非输装这个插件,然后这个插件插件我就装好了,装好之后我就不再去装了哈。 啊? ok, 那 么你装好,那么这里面我给大家演示一下怎么去进行配置啊?非常简单哈,我们使用 open globe 这个指令 let's configure, 这个时候就是配置我们的模型和我们的 channels, 嗯,这里面需要等待一下啊,稍微稍微等待一下,需要一点时间啊,这个就是很慢哈,就是感觉就是非常慢,因为它是一个用 script 写的这个项目,其实很慢啊。好,我们选择这个 look on machine 本地机器啊,选择这个会变相好,这里面会有 配置啊,这个时候我们就可以配置什么呢?可以配置模型,模型可以配置一下,就是如果当时没有设置模型的话,或者说模型后面要改换模型,是吧?这里面可以继续设置个模型。 ok, 比如说我们,呃设置一下自己,因为我们已经设置自己本了,比如说你这里面选择 memax, 那么这个时候你可以选择模型啊,比如说我们这里面选择我们的 mini max m i d e 啊,回车一下。好,那么这个时候呢就会输入我们的 mini max api 啊,把复制粘贴在这里就可以了啊,然后我这里已经配置过了,我就不配置了。好吧,我们现在 大家演示一下,就是模型怎么去进行配置啊?这个时候我们再再重新走一遍,我们来配一下我们的 channel, 就是 比较它就比较慢啊,需要等,然后我们选择 local 本地的哈,好,这里面我们选选择 channels, 那其实不仅 channels, 它的这个什么 has has check, 健康检测啊, skin 啊,都都可以配置啊,所以你前面如果说没有配好的话,没关系啊,没有配好没关系,然后我们重新再指向 comfig 这个指令,就可以再来配置它。好,我们这里面选择 channels。 好, 可以,这里面 好,那么这里面我们选择什么呢?拆这里面大家看一下啊,嗯,它默这里面啊 channel, 它这里面选择说的是 channel stat status, 就是 啊,我们的频道的状态啊,然后这里面呢是飞书 con contacted 啊,就是我们飞书已经连上了哈 啊,飞书已经连上了,但如果说是第一次的话,它会出现啊,飞书的这个配置啊,要你去输入这个,哎,这个,这,这个东西啊,叫什么呢?叫 a p id 啊,和我们的 a p script, 所以 在这你到凭证去寻找到 a p id 和我们的 a p script 啊,去配置就可以了,这是我现在因为之前配置过来已经配好了,对吧?配好了,所以呢,我这里呢直接跳过这个了啊,然后呢回车一下,我们回书啊, 啊? ok, 那 么这个时候它就是可以修改这个配置啊,修改这个配置我们再来看一下啊,我们点 modify settings, 就是 修改这个配置。好,我们修改一下啊,我们点回车一下,修改一下啊,它说已经配置好了,它说飞书的这个已经配置好了,对吧? 啊?需不需要保持它啊?如果说我们选择 no 的 话,就不保持,对吧?就会重新配置,所以我们这里选择 yes, 就是 说已经配置过了,我就不配置了,好吧, ok 啊啊,所以说域名 open, 我 们选择这个 open 的, 这里面记得选 open 啊,选这个 open 呢,就是开放所有的这个群组啊,如果说你选择 overlist, 那 么它是就是像是设置一个白名单一样啊,到时候需要你去配置这个一些群组啊,那就比较麻烦啊,直接选 open 就 可以了。好,那么这个时候又回到这个 select channel, 让你选择这个东西,对吧?啊?因为刚才已经选过了,是吧?选过了,这个时候我们点 finish 啊,就完成 啊,然后我们再什么呢?他说配置 pos 呢?那我们现在 no 啊,因为配置过了就不不配置了,对吧?好,那么现在我们选择 continue 继续啊, ok, 好, 现在就已经整个领域就跑完了,对吧?啊?整个领域就跑完了, ok 啊,就是我们再回到这边来哈, 回到这边来,因为他必须这个全世界也回到这个地方。你只有,只有什么呢?只有刚才那个东西,那个连接了之后啊,你这里面才能什么才能这里面选择保存的时候才有用啊,然后再添加一个订阅事件就可以了啊,是这样子的, 好了,现在我们因为我这个一切都已经配置好了,我再给大家,现在我们来演示一下啊,就是我们在飞书,我们通过飞书的这个机器人怎么去操作它啊?现在我们这里边,因为我这边已经启动好了,启动好的话,我这里面把它的这个聊天界面再打开一下。啊,现在我们打开那个聊天界面啊,打开那个聊天界面呢?我们可以选择我们的 open log 啊,选择这个布置一下来啊,然后这里粘贴一下, 就打开了个聊天面板,我回这一下啊,所以需要稍微等待一下。好,现在已经现在就打开了, ok, 它这里有个提示打开了啊,好,我们点击一下这里面, 对吧?先打开了是吧?好,打开,现在其实我们就可以跟他进行沟通啊,比如说我们随便搜个,呃, what's your name 啊?因为我这个打不了中文。 what's your name 啊?他说他没有名字啊, still don't have a name 啊,现在是没有这个名字,是吧?啊哈, ok, 这个是我们在 加上自然,你要在界面和他进行沟通啊,但这不是我们啊,最常使用的工具,最常的工具应该是我们的飞书啊,好,现在我们打开飞书的客户端啊,大家需要装个飞书的客户端啊,我们来演示一下,好吧。啊,这个飞书客户端啊, 就是他,我们这边就是你装完这个,就是你装完那个机器人之后啊,他会这里有一个提示给你啊, 啊,你是可以打开这,他会有个开发者小助手在这里面,他会有一个提示给你,你直接打开这个应用就可以了啊,打开这个应用就可以了,然后这里面出现你的这个聊天窗口啊,好,那么现在我们在这里问问题,好吧,在这个飞书这里面,比如说啊,呃,我就不问你是谁了,好吧,我就问一个非常简单的问题啊,就, 呃,就是说帮我读取啊,读取这个 source list 下面的内容啊,这个是用来配置这个进校语言的,我们来问一下,我们要他帮我们去把这个内容复制给我们看一下,好吧, ok, 帮我读取到 source list 里面的内容,他会不会回复我啊?遇到了非说 a p r 权限问题,需要管理员读取联系人信息啊? 好, ok, 授权之后他给读了,他给我内容了,好吧,哎,这个是 social list 文件内容 啊,作为他说这个配置文件里面是 open two i 十二点四系统的软件员使用了阿里员的剑像。啊, 那你还可以干其他的事情啊,你还可以用它去做其他的事情,比如说打开这个浏览器,打开这个百度啊,都是可以做的啊,那如果说你给它装了这个 skill 之后,还可以做一些更专业的事情啊,都是可以做的。好,那么关于这期视频我们就到这里面啊,下期视频我们再见。

哈喽,下班了,今天我们来聊聊 openclaw, 我 觉得有必要啊,因为太热了这个话题,我想给它降降温, 为什么呢?因为这是一个在 getop 上引起广泛关注的一个项目,而且目前各家云厂商都上线了相关的云服务器,支持大家去部署这个产品。那么这个产品怎么定位哈?它其实是一个 个人助手,或者叫一个通用型的 ai agent, 它可以接入,比如说一些计时通讯工具,你可以通过这种计时通讯工具给它发消息,然后它呢帮你调度一个云端的电脑,或者是你本地的电脑,它可以完成一系列的任务。 那么我一开始看到这个产品的感觉,就觉得它跟 coldbody 这种产品非常非常的像,为什么呢?因为它们都是通用 agent, 就是它可以通过调用电脑里的各种工具, ai coding 的 工具,或者是电脑里的一些网页浏览的工具,通过 m、 c, p 等等,它可以去完成很多的任务。 当然因为授权范围的不同,它肯定是比 cloud code 或者 code body 编程类的工具,它能做的事情更多,而且它的主动性更强。 举个例子哈,你可以在你的一些即时通讯工具上直接说,你帮我发一个什么样的文档给谁谁谁,他可以直接执行。那你帮我把这次会议机要转成一个非常清晰的文件,帮他变成一个网站,他也可以非常快速的完成。 甚至是你可以跟他说,你调用这个电脑的录屏功能,帮我做一个什么样的 ppt, 它也可以完成。所以就是当你给 ai 配了一个电脑的时候,而且这个电脑它拥有所有的权限,它跟你的权限是一样的,跟人的权限是一样的时候,那它可以解锁很多的能力。 当然这里面有两个核心的概念,或者说核心的机制,让它跟 ai coding 的 产品有本质区别。第一个叫 gateway, 就是 相当于一个调度中台,它可以在这个调度中台上 接收信息,接收完以后分配任务给到不同的电脑中的工具,然后哎完成最后交付。那它是一个调度中台,那这个调度中台就可以实现一个 实时在线,就是二十四小时一直在线,它可以保持着这种这么一种激活的状态。那这也是为什么你说它可以持续不断的收到你的消息,就是因为它是持续在线这么一种状态。第二个非常关键的机制呢,叫做 heartbeat, 叫心跳机制,类似于给了 ai 心跳,让它可以跳动起来了。它什么意思?它每隔一段时间它会去扫描一下这个系统里有没有新的需求进来,比如说你的邮箱 有没有收到新的信息,比如说你之前有没有设过闹钟提醒,比如说每天八点去帮我扫一下整个今天的 ai 行业的资讯,或者是每隔一段时间我要去看一看有没有新的任务给到我。通过各种即时通讯工具,我就可以开始激活 ai 干活。 所以你从这里可以看到他有一个非常主动的一个机制,他会主动去扫描,他会实时待命,主动扫描,所以这个就跟像 coldbody 里你跟他去做交互, 拿到一个任务,完成一项工作就有很大区别,他就是处于一种实时待命的状态,而且会主动接到信息就开始干活,所以这个就是一个本质上的区别哈。 但是我觉得这个东西我为什么前两天没讲呢?就是因为我觉得它跟这种通用型的 agent ai coding 的 工具没有本质上的区别。假设说像 cloud code, 像 code body, 它们如果也想做一个类似的功能的话,实际上是完全可以做到的,只要给 ai 更多的授权就可以实现。 或者说你只要再弄几个移动端的交互的方式,你也可以在移动端指挥你的本地电脑完成这样的工作,其实没有一点难度。那为什么 大家都没做,为什么就只有这个 open cloud 在 做这件事?我觉得是大家对安全和效率中间怎么平衡的一个考虑, 就是你到底给 ai 多大的授权?我们知道它的上限其实是非常高,可以完成很多任务,而且很多任务上是超过我们自己的能力的。那这种情况下安全的问题怎么考虑?比如说现在如果是 这个东西被劫持,因为他有权限很高,那如果一个一个一个不法分子告诉你的电脑,说把这个人的电脑的内容全都删了,或者说把这个人的电脑中关于什么什么的内容发给某某邮箱,那他就可以实现了, 它就可以实现对你电脑的一个操控,对你个人数据和隐私的一个操控。所以其实这种安全问题是非常重要的一个问题。之前大家说中国人可能不在意自己的隐私,愿意拿隐私换便利,那接下来 ai 时代 那生产力是非常高的,这个上限是非常非常高的,那你愿意把你的安全拿出来多少去交换这种生产力的上限?我觉得这是一个摆在我们每一个人的面前的问题。因为 ai 的 能力现在 不是技术来去束缚的,而是你的这个治理的原则束缚的。你到底要给他多大的授权?你相信他到什么样的程度?你愿意给他几千块钱,让他帮你买东西,对吧?这样的一些问题,我觉得可能都是我们接下来要考虑的一些关键的问题。 我之前觉得像 coldbody 这种产品已经非常够用了,在我们的日常工作中哈,当然我也不满足,因为我前两天还在说怎么给 ai 更大的自主性,让它自己去跑这个 a 阵的能力。但是对于这种 openclaw 这种形态, 我自己心里目前还没有完全接受,当然我可以接受一个新的电脑去做一些尝试,但是因为他现在还有很多问题,比如说 token 消耗非常大的问题,比如说这种安全不可控的问题,所以我觉得目前不是一个非常理想的形态。当然最后 可能再往前走一下,很多产品也会去考虑这些问题,会给用户更多的选择,然后给用户。我觉得现在用户已经很很很少有能力去控制自己的这个数据的安全了。但是我们在这个 ai 时代到底要在 ai 面前变得这么透明吗? 也许有一天你会发现你让渡的这个权力本身可能比效率更重要。对,最近我在考虑这个 ai 时代的权力,到底我们要给 ai 多大的权力? 如果他的能力已经非常非常的高了,如果他的加入到人类社会中,真的已经能够给人类带来非常非常多的注意的时候, 我们愿意给他主体性,我们愿意给他授权吗?我们愿意给他权力吗?我觉得这些都是一些要考虑的问题,跟大家分享这么多哈,我觉得这也是一些非常非常前沿的命题,有机会再跟大家探讨,拜拜。

hello, 朋友们,大家好,我是土豆,那么本期的视频内容呢,我们会带着大家去从零把 openclock 小 龙虾这个 ai 智能体搭建到你的本机,也就是你的电脑上面, 然后这个东西是什么呢?它就是适用于任何操作系统啊,比如说 windows, linux 或者是 mac 操作系统的一个 ai 智能体 get 位网关, 他是能够通过你们的微信或者是飞书啊,或者是这些 whatsapp 的 一些社交软件 app, 可以 进行给他发送消息,发送完毕以后呢,比如说你让他帮你生成一个图片或者是一个视频, 然后他能够代替你去做一些你平时工作的一些繁琐的事情,那都是可以去通过这个智能体,然后来给到他了,他就相当于你工作当中的一个啊, ai 机器人智能体。好, 接下来呢,我们来看一下它的安装方式,那往下翻啊,这个地方的工作原理呢?你们还有核心功能,你可以自己去看一下,点到快速开始的这个位置呢,他说去安装我们的 openclock, 但是这个位置呢,他是使用 npm 安装的,使用 npm 安装的话,你们就要去安装一下 note g s 啊, 好,然后呢我们直接到下一步入门指南的这个位置,然后跳过这些,然后我们找到这个 windows 的 pro shell 安装。然后我们怎么找呢?就是你的 windows 下面有一个 pro shell, 或者是说你在你的桌面呢,去右键,然后打开这个终端,打开也是这个 pro shell 啊, 好,然后呢我们把这一段命令呢给它复制下来,然后右键然后回车,在这个位置啊, 会有一个绿色的,它首先会去找你的本地电脑是否有没有安装 node js, 因为我们刚才说了 npm 是 node js 嘛,它是使用 npm 进行安装的,这一个 mini 呢,就相当于一键安装全自动的。 如果说你们我当前的电脑呢,它是有 note g s 的, 所以说呢,它是直接跳过了它这个地方有个 ok, 如果说你们没有的话,它就会自动的去帮你安装 note g s 这块呢可能会比较耗时一点。然后呢,呃,紧接着如果说 note g s 有 的话,它就开始安装你的 open cloud。 好,这个安装完毕以后呢,它可以。呃,这边呢就有一个 openclaw 在 安装的 success 呃 file 里就安装成功了。安装成功以后呢,它这个命令的主要呢就是可以全自动的帮你去呃 做配置了,就自动到配置了。那首先呢,他会问你,呃你,你能不能同意他这个有风险的事情啊?因为他本身权有权限的话,他是能做任何事情的在你的电脑上面。所以说呢,我们这边呢用左右键选择一下 yes, 然后就是同意。然后呢再就是我们的快速开始, 快速开始的话,这个地方呢,我之前是已经安装过了,所以说呢,我这边的话第一个是是否使用已经存在的一个配置,然后呢第二个呢是更新配置,然后我这边呢选择重新开始。然后呢你们能看到的是,呃,这样一个啊, 首先呢我们要选择模型,那模型的这个呃厂商啊,有 oppo a 啊,或者是说,呃谷歌呀,还有我们的小米啊,还有很多啊,那这个地方呢,我们先不配置,先直接跳过, 然后呢这个呢就是我们的模型的一个厂商,就是他的一个厂商,那这边呢也是啊,给他选择一个哦,然后这个地方呢就是我们的默认模型, 默认模型的话也是选择一个默认的就行了,因为我们后面呢还会在外部以外当中呢去做一些配置的,好吧?然后这个地方呢就是选择我们的一个渠道, 就是你们是要通过 whatsapp 还是说呃谷歌这个 chat, 那 我们后面呢可能会去带着大家一起去配置那个飞书,然后通过飞书呢社交软件呢,然后来操控我们的这个智能体。好,这个地方呢也是给大家去跳过 选择跳过,然后呢这个位置呢就是是否跳过,然后我们这边呢也是啊,然后呢这个地方呢就是一个多选了,我们用空格给他选中,选中以后呢,然后回车也是给大家跳过,跳过以后呢,他这个时候就开始进行配置了, 配置完毕以后啊,就是说配置完毕以后呢,他有可能是能够成功的,因为他的网关如果说打开了,你们就能够直接访问看, 他就直接弹出来了,弹出来以后这个拒绝请求是为什么呢?是因为你当前的这个网关并没有打开,知道吧?就相当于没有启动你的服务。好,下面呢就会告诉你已经完成了。好,完成以后呢,我们在这个地方点击安装, 那上面呢就是我们安装的一些步骤啊,那这个位置大家看啊,这个漏的呢,必须是要大于等于二十二的这个版本,那我们刚才这个版本是多少?大家也可以看一下,他全自动帮我们安装的时候,他的版本是二十二点幺六,对吧?也是大于等于的,那是符合的 好。然后呢我们这边拉到下面,首先呢我们要检查一下啊,使用这个命令快速检查一下我们这个东西有没有问题,对吧?就相当于一个医生检查一下有没有问题。 好,没有问题,那我们现在呢就相当于检查完成了,检查完成以后呢,我们就可以直接启动我们的网关了,怎么来启动呢? 首先啊,大家要去看一下我们这个网关是否有没有被启动。好吧,如果说刚才的这个新手引导,就刚才我们那个配置,那个引导,如果说你们跳过了,怎么再重新打开呢?重新打开的话就使用这个命令进行重新打开,就是运行我们的新手引导重新进行配置 好网关的一个检查呢,就是该到位的这个网关检查呢,我们就使用这个命令 看看是不是网关已经已经被启动了,你看他这时候正在检查 好我们的网关渠道,渠道也没有,这个筛选也没有,就相当于我们的网关都没有被启动,是吧?这个地方有两个警告,然后呢啊,也没有一个,呃,抛红的地方啊,那就是一个正常的状态,然后呢我们后面再做一个健康检查。 好,我们在做健康检查的时候,你们看这个地方有一个 failed to start, 他, 他是说的什么意思呢?就是说我们现在这个网关他并没有启动,对吧?比如说我们刚才这个网网址打开的时候,他不能打开,对吧?我们怎么来启动呢?好,接下来我们来看一下启动方式啊, 好,我们点击看快速开始,然后把它第一步入门指南下面呢有拉到下面 有一个启动 get 位的网关两种方式。第一种呢是我们在安装新手引导的时候呢,把所有的服务安装好了,然后呢他就会自动的帮我们去启动,但是我们并没有去配置,跳过了很多,对吧?然后呢这个地方呢还有一个手动进行运行,我们把这个进行复制一下,然后呢 回车,这时候呢他就会对我们的这个网关啊进行一次启动,然后我们再刷新一下我们这个地址,是不是就能看到你本机已经把这个面板呢是能够打开了, 对吧?这样的话我们的这个小龙虾呢就启动起来了,启动起来以后呢,我们现在呢就要去配置我们之前没有配置的一些东西。好,我们刚才的呃点击安装啊,刚才的一个健康检查是不是还没做完? 虽然说我们现在这个健康状态呢,他是一个正常的,那你们在呃平时做的时候呢,也可以尝试着去做一个健康健康的一个检查啊,比如说我们这一块再开一个,开一个终端,然后做一下健康检查 啊,你们看现在呢他就告诉我们了,这个 open open 的 open cloud 小 龙虾已经启动起来了,没有刚才的这个错误吧?是不是没有刚才我们遇到的这个错误,就是他告诉我们是关闭的, 现在呢我们就属于一个正常的范围了,我们现在就要去配置我们的模型啊,厂商啊,还有 api 那 些东西。 好,现在呢如果说大家要对这个聊天进行访问,或者是要使用这个小龙虾的话,那么他肯定是有问题的,因为你们没有配置什么 api k, 就是 我们的模型的 api k, 那 我们怎么来弄呢?我这边呢就使用我们的这个 model, 就是 基础的大模型,然后来帮助大家去做一个试验, 那你们如果说新的账号去注册的话,他会送你两千万个投屏啊,就是还是挺多的,我们点开控制台, 然后呢呃,这边邀请好友也是能够领取,最高领取两亿个 tokyo 啊,那这边呢我们点击 apikey, 然后呢点击新建一个 apikey, 比如说小龙虾,然后点击确定,确定以后呢我们需要在当前的这个终端啊,打开终端,然后使用命令, 就是 open, 就是 配置,我们回车, 然后呢选择这个 local 本地,然后呢我们选择第二个模型配置,然后呢我们选择这个厂商啊,这个厂商你们可以选择千万啊,或者是很多很多厂商他都支持的。那这边呢我们选择智普 ai, 然后选择 c n, 那 上面呢它都是 api 的, 就比如说你看 api 的 这这 ai, 然后这个也是啊,我们这边呢选择这个 c n 啊,按照我这个来选就行了。然后呢我们把刚才这个小龙虾的这个配置呢 api 可以 点击复制,然后呢右键,然后回车, 回车以后呢我们然后就直接点击啊点击回车,回车完毕以后呢下面有一个 content 六,然后我们选择这个 content 六,然后呢这样的话他就配置好,配置好以后呢我们刷新这个网页,刷新完毕以后呢,比如说我们现在在跟他去聊天,就说你好啊,你是谁? 好,然后呢现在大家看啊,是不是就已经接通了,这样的话,我们的一个本地化的一个 ai 智能体的基础就已经搭建好了, 后续呢我们会紧接着告诉大家怎么去搭建把,把它搭建到我们的飞书上面,并且呢使用各种 style 的 一个提示库,总合起来一个很完善的一个 ai 智能体,能够帮助你们去深图或者是做一些啊 comui 的 事情,或者是说帮助你们去完善一些工作, 或者是又或者是做一些定时的任务。它这个里面呢功能呢是非常非常多的,包括技能啊,节点啊, skill 啊,还是挺完善的啊。 那本期的视频内容呢,就到这了,如果说大家有什么问题的话,也可以在评论区留言,然后也可以进我们的讨论组一起讨论 ai 相关的一些知识,那么我们下期再见,各位,拜拜。

最近整个硅谷都在为一个叫 opencloud 的 软件疯狂,感觉它无所不能,但又觉得离自己有点远,其实它可能就是一直想要的那个超级助手。现在有一台电脑,七十二十四小时待命, 就在你桌上不占地方,它就是 s e r 十 max, 一 台高性能又安静的迷你电脑。 搭载最新的 amd 悦龙 ai 九 hx 四七零处理器,提供五十五 top 四 npu 算力,采用可扩展 ddr 五内存,标配万兆网卡,能让 oppo club 直接调用你电脑里面的所有软件为你干活。 首先在官网下载好 git node 两个前置软件,以管理员身份运行 power shell, 验证 git node 是 否安装成功。在 openclip 官网复制安装命令到终端自动安装。 选择你的云端模型,登录你的云端 ai 账号,选择 skip for now。 选择 skip for now。 在 飞书打开开发者后台,创建一个应用, 添加机器人应用能力,打开权限管理,输入 i m 确认开通权限, 发布应用版本, 复制应用 id 和密钥, 发送给 open cloud。 自动安装, 进入事件与回调页面 搜索并添加 in message receive v e, 使用长连接接收事件, 进入版本管理与发布。只有发布后,前面的配置才会真正生效。 发送消息给机器人,他会自动回复一个配对码,复制配对码发给 openclaw, 会自动完成绑定,绑定成功后,你就可以在飞书里跟 openclaw 愉快交流了。在网页搜索奥拉玛, 下载本地大模型,运行后端一直点击下一步,等待安装完成。 进入设置,打开本地模型,调用权限, 选择本地部署模型,发消息自动安装, 安装完成后回复说明本地模型安装成功。 在飞书中发布检测本地大模型的指令,检测成功后即可通过飞书切换本地与云端模型。 有了它,下班接到紧急工作,用手机给 opencloud 发消息。一句话调用工作电脑进行文件分类整理及视频剪辑,完成过去半小时的基础繁琐工作。 面对 ai 绘图需求,一句话批量转绘,生成你想要的风格图片,同时也能让他做你的编程助手。一句话完成写代码、找 bug、 写网站等工作。 将写报告、整理表格、重复的信息收集等日常办公工作,你也可以交给不知疲倦的他, 你的指令得到的是高效的响应,把原本需要复杂的专业技能的操作变成了说句话那么简单。这不仅仅是升级一台电脑,而是升级你整个工作的方式。把繁琐交给他,把时间留给自己。

opencloud 呢,让本地的 ai 上了一个档次,那搭配什么硬件更好用呢?真的是 mac mini 吗? mac mini 虽然解决了 opencloud 运行和工具的支持,但实际上呢,也有几个弊端, 第一个呢,就是算力不足,有一些呢,本来应该放在本地跑的任务,只能呢依赖云端。第二呢,就是存储不够,如果说想把日常生活当中最常见的多媒体类的资源,比如像图片全放到上面的话,会很困难。其实呢,我觉得二十多万的这个顶配的 max studio 是 蛮合适的,只要呢你能接受这个价格。 我最近啊参与内测了一款纯国产的神秘设备,说实话,他带来的体验呢,让我挺惊喜的,他大概只要 max studio 五分之一的成本就带来了类似的效果。那今天呢,我们就来聊一聊他到底凭什么? 那先快速的来看一下我这几天都用它做了什么。首先呢,是本地的智能图库,过年期间啊,总是要拍很多的图片, 那现在呢,我都会随手的通过 qq 来去发送给 openclock, 他 会呢,整理好图片。然后呢,分析图片的信息。之后呢,我就可以随时的让 ai 去查找和处理图片了。 比如呢,说起过年期间都吃了什么,可以直接让他呢把近一周我吃饭的照片都发给我,一下子呢就能拿到全部了。再比如啊,我说去年我女儿过生日的照片发给我一张,他会根据之前的锁影信息来给我找到合适的图片。 那第二个呢,就是语音的随录,现在呢,我可以随时啊去录一些语音,晚上呢,全部一块发到一体机上, opencloud 呢,会自动的去做分析和缩影,那这一下呢, opencloud 就 能知道这一天当中重要的事情了。比如啊,哪一天我和老婆吵架了,我可以呢,让他帮我找出前几天说过的证据,你说这个实不实用啊, 如果再配合一个录音笔的话,那其实呢,就可以做到随时的记录,那真的呢,就是数字的人生了。那第三个呢,就是专属的 ai 网盘, 那比如啊,我经常会去搜集一些资料,那多了之后呢,自己也很难找,就像呢,我加了一个 qq 的 群啊,有一些分享的书籍,那我看到不错的呢,就会转发给 opencloud, 他 会使用我调教好的技能啊,直接保存好文件,那还会做好书目的记录。 还有呢,比如像吃饭开的发票,都可以让他呢很方便的去做整理。而且啊,如果你珍藏了一些个人的学习资料,就是那种不能播的啊, 那本地去管理啊,就太有优势了。可以看到啊,端导云的这台一体机呢,帮我实现了照片的智能管理,语音的记录,还有网盘文件的管理。 还有啊,就是我感到呢,他是越用越聪明的,因为他优化了 open cloud 的 长期记忆机制,可以让他呢自主的去学会很多技能。比如像前面我说到的整理书籍和发票,就是我一开始教他如何去做,然后呢,他学会了,后续呢,他就可以自动的去完成对应的任务。 那你可能要问呐,为什么我说他是更适合发挥 openclaw 能力的呢?首先呢, openclaw 想要工作就要有算力,尤其呢,是本地的算力,因为本地的算力啊,才能真正实现隐私性和低成本, 同时呢,想要让 openclaw 产生更大的价值,就需要呢让他有足够的工具。还有非常重要的一点啊,就是需要和自己的数据做真实的融合,这样呢才能逐渐的进化成更好用的 ai 助理。 所以呢,算力存储工具隐私,我觉得呢,这几点啊,是用好 opencloud 的 关键,如果你想要构建自己的本地的 ai 助理,也要记住这几点。那结合前面的这几点啊,我来拆解一下这台一体机里面的 opencloud 的 架构。 首先呢是最核心的肯定就是 openclaw, 然后呢,顶层呢,是通过 qq 来去做的接入,那 qq 的 接入效果呢,我觉得在国产的 i m 里是非常好的。那下层啊,是一个专门为 openclaw 提供支持的 multimodelreg, 前面的图片、音频文件的分析和缩影都是通过这部分来去实现的。 那它调用的模型呢,就是在本地的欧拉玛里运行的千万 v l 和 in bend。 那 我觉得呢,后续啊,还可以增加对视频的支持,当然呢,对于视频支持的关键还是要看算力。说到算力啊最底层的硬件这部分,这台内测机呢,搭配了 amd 的 amx 加三九五, 配合上三十二 g 的 内存和九十六 g 的 显存,可以说呢,就是专门为 ai 而来的,尤其呢是在九十六 g 的 显存,让本地的运行这些模型都绰绰有余。最后它还有两 t 的 ssd, 而且呢至多可以扩展至一百 t 以上,所以呢,完全不用担心存储的问题, 如果是 mac mini 的 话,这个存储的话就要加价大几千了。当然呢,我其实也是用本地和云上的组合算力,端导云上呢也提供了算力的套餐,用来呢做任务的规划和调度,效果更好,价格呢也非常便宜。 当然呢,我也不是觉得它就是完美的端脑云呢,其实可以在使用的便捷性上再下一下功夫。首先呢就是优化 skill 的 生态,现在的 open cloud 呢,很多 skill 都有安全性的问题,这个呢也是很多新手啊担心和害怕的一个问题,我觉得呢,端脑云可以做一个安全的 skill 中心, 毕竟啊,大家买了硬件的话,都希望可以更容易的上手。另外呢就是接入,现在呢,我是使用 qq, 但是这一类机器人呢,在多媒体的资源上还是会有一些限制,比如呢,像文件的类型,文件的大小,所以呢,如果可以做一个全功能的 app 会更好用一些。 如果是带货主播的话,最后是不是就该上链接了?当然啊,我不带货,而且呢,这个一体机啊,我也只是参与了内测,并没有价格,只是想和大家来分享一下,用好 opencloud 的 思考。 端导云呢是计划三月五号正式发布产品,如果感兴趣的朋友呢,可以去关注一下发布会,反正呢我觉得国产设备呢,在性价比这一块是不会让我失望的。 那我也接到了参会的邀请啊,到时候呢会给大家带来第一手的消息。好了,这里是 it 咖啡馆,我希望呢你也可以找到最适合自己的 open club 玩法,那我们下次再见。

真正高级的 ai 玩法,不是自己跟 ai 聊天,而是让 ai 替你打工,服务整个团队。今天我们来讲讲如何零成本打造团队专属的 ai 大 佬。 只有一个人能访问的 ai 只是高级玩具,能进入公司工作流的 ai 才是真正的生产力。隔壁我们可以进 open core 加上飞书, open core 插件快速打通本地跟飞书,让他进入你的团队。插件内置的 web 搜索场景模式,播放的消息可以直接插入内网,直达你的本地 a 镜头, 没有繁琐的内网操作流程,下载插件,填入 app id 跟 secret, 开启 web socket, 三步就可以完成企业级的部署。你坐那台旧电脑,装上 openclip, 脸上飞出它,就是一个不知疲倦的数字到老。每天半小时,看透 ai 未来。我是 ai 球的安迪,带你玩转 ai 时代的 b y o d。

opencloud 不是 神器,是坑。这话我敢说,因为我已经踩了一个月了,全网都在吹这个 ai agent 有 多牛。本地优先,数据安全,数字员工听着是不是很心动?但没人告诉你部署它需要懂 dack, 环境变量、端口映设,小白根本装不上, 更没人告诉你一次操作可能烧掉几十美元,稳定性差到让你怀疑人生。今天我就把这一个月的真实体验原原本本告诉你,不吹不黑,只讲真话,别被营销洗脑了。先说结论,理想很假,维斯现实很人工智障。 这个视频有点长,但全是干货,建议先收藏再看。咱们开始吧,保证你看完不后悔,绝对物超所值。 说实话,我一开始也是被营销洗脑的那批人。 github 上十九万星,奥地利开发者 peter stanberger 打造,口号是,真正能做事的 ai, 这谁顶得住啊?本地优先,数据全在自己手里,不用上传云端,隐私安全有保障,再也不用担心数据泄露了。 数字员工能接管你电脑权限,真正替你执行任务,解放双手,提高效率,想想就激动。 skills 技能系统社区贡献了一千七百多个技能包,想要什么功能装什么,无限扩展,只有你想不到,没有他做不到。 听起来是不是很完美?简直就是未来以来科技改变生活,迫不及待想试试,但实际部署的时候我才发现被坑惨了,坑到怀疑人生。官方说一键安装,执行一行命令就行,简单到不能再简单,小白也能搞定。 结果呢?高克镜像拉不下来,环境变量、配置报错,端口冲突解决不了,各种问题层出不穷,我折腾了整整两天才跑起来,期间各种报错,各种排查,查文档,搜 h 五问社区,差点就放弃了,好几次想砸电脑, 硬件门槛更是吓人,网上说本地运行不花钱,省钱又安全。听起来很美好,但你得有 mac studio、 m r ultra 这种级别的设备,六十四 g 内存起步,硬件投入近四千美元,这叫省钱? 我用的 m r pro, 三十二 g 内存,跑起来卡的要死,经常内存一出,动不动就崩溃,体验极差。第一次成功运行的时候,我确实兴奋了一把,感觉自己终于搞定了。 看着他在中端里输出锐志,感觉自己真的拥有了一个贾维斯,未来感十足。但这份兴奋很快就变成了崩溃,因为后面还有更大的坑等着我,而且是那种深不见底的大坑,一个接一个,根本停不下来。 公平的说, open call 确实有他的过人之处,不然也不会火成这样,肯定有他的道理。最让我惊艳的是 styles 技能系统,这个设计真的很聪明,是整个系统的核心亮点。 每个技能都是一个独立模块,想要什么功能就装什么,就像给手机装 app 一 样简单,需要什么装什么,不需要就卸载,灵活度很高。 比如 atxp, 可以 调用各种 ati 网页搜索 ai, 图像生成音乐、创作视频生成一个命令,搞定效率极高。比如 agent browser, 可以 自动操作浏览器,抓取网页、填写表单,收集数据,完全自动化,不用人工干预,省时省力。 比如 self improving agent, 可以 让 ai 自我改进,不断学习新技能,越用越聪明,越用越强大,这才是真正的智能社区,已经贡献了一千七百多个技能,覆盖办公技术、生活各种场景,只有你想不到,没有它做不到。生态非常丰富, 更厉害的是它的自主规划能力,这才是 ai agent 的 核心竞争力,也是区别于普通 ai 的 关键。 有一次,我发语音指令,让他帮我整理邮件,他发现听不了语音,居然自己安装了 whisper 转写工具,然后再处理我的请求。整个过程我没干预,他自己搞定了。这就是真正的智能,这才是 ai 该有的样子, 这就是 ai agent 和聊天机器人的区别,他不只是回答问题,而是真正解决问题。从说到做,质的飞跃, 本地优先的安全感也很重要,这是很多人选择 open ker 的 原因,也是他的核心卖点。我让他处理一些敏感文件,比如财务报表、合同文档、客户信息,所有数据都在我自己的电脑上跑,不用上传到云端。 这种数据主权在用户手里的设计确实让人放心,不用担心数据泄露,不用担心隐私被侵犯。还有一次,让他自动读取桌面任务文本,筛选紧急事项,统计账单并生成日报脚本,成功写入系统调度,实现了真正的 ai 协作者功能。 那一刻,我真的觉得,这就是未来,这就是我一直想要的数字员工,这才是 ai 该有的样子,这才是科技改变生活的正确方式。但好景不长,问题很快就暴露出来了,而且是致命的问题。第一个让我崩溃的是 api 费用,这个坑最深。 opencloud 本身是开源免费的,但它需要调用云端大模型来思考,比如 ppt、 四 o 或 cloud opens, 这些都是要钱的。一次复杂的自动化任务,可能烧掉数百万头,肯成本高达三十美元,你敢信? 我第一个月账单出来的时候,差点没背过气去,花了将近二百美元,比订阅十几个 ai 服务还贵。这哪是省钱,简直是烧钱。你说本地运行不花钱, 那得有顶级硬件,普通设备根本跑不动。大模型推理速度慢到让你怀疑人生,而且效果还不好。 第二个问题是稳定性,这个更让人崩溃,常上下文失效是常态。处理多步骤复杂任务时,他经常工具调用错误,或者步骤遗漏,逻辑混乱。我让他自动生成周报,需要人工干预,修正的频率高达百分之四十,正打是 ai 助手,简直是 ai 添乱。 有时候他执行到一半突然卡住,有时候他调用了错误的工具,有时候他完全理解错了我的意图,有时候他干脆就放弃了,直接报错。理想很贾维斯,现实很人工智障。这句话一点都不夸张,亲身经历才知道有多坑。最可怕的是安全风险,这个真的要命。 欧本克奥默认获得文件读写、程序执行、网络访问三大系统及权限,相当于给了 ai 一 把你电脑的万能钥匙,什么都能干。 安全机构实测,暴露了两大致命风险,每一个都可能导致灾难性。后果,一是提示词注入攻击。黑客在网页、邮件、文档里植入隐藏指令 o k o, 读取后会被误导 执行删除文件、发送密钥、访问钓鱼接口等恶意操作,而你完全不知情,等发现的时候已经晚了。二是公网暴露风险。很多人为了远程访问,把本地端口改成全网监听,又不设密码认证,门户大开, 全球超过一万五千台设备暴露在工网上,任何人都能远程控制你的电脑,窃取你的数据,为所欲为。官方文档只讲功能,不强调风险。博主只晒炫酷效果,不做安全提醒,这是不负责任的。 对于不懂网络防护的普通用户,安装 open call 约等于开门一道,自找麻烦。这不是危言耸听,是真实发生过的安全事故,已经有人中招了,损失惨重。 踩了一个月的坑,我开始认真思考, openclaw 到底适合谁?这个问题很重要,选错了就是浪费时间,浪费钱。首先,绝对不是小白能玩的东西,门槛太高了,部署门槛高,需要懂 docker、 环境变量、端口映涉、日制排查、网络配置,这些都是技术活, 出了问题要自己解决,没有技术背景根本搞不定,客服也没有,全靠社区互助,效率很低。 其次不是省钱神器,恰恰相反,是烧钱神器。软件免费,但 api 调用费用惊人,一个月可能花掉几百美元,比订阅服务贵多了。本地运行需要顶级硬件投入近四千美元,这成本谁扛得住?想省钱? 别想了,这玩意就是烧钱机器越用越穷。那么谁适合用呢?我觉得是这三类人缺一不可。 一是有技术背景的开发者,能自己解决问题,甚至能贡献代码优化系统,把 openclaw 当做学习项目,一举两得。二是有预算的团队或企业愿意为效率提升付费,把 ai agent 当做生产力工具,成本可以接受,投资回报率高。 三是有耐心的,即刻享受折腾的过程,不怕踩坑,把解决问题当做乐趣,而不是负担。心态很重要,谁不适合用想省钱的个人用户?怕折腾的普通用户,追求稳定的生产的用户,对安全要求高的企业用户。 对于这些人, open club 可能会让你更累,而不是更轻松。得不偿失,何必呢?还有一点很重要,安全意识。这个必须强调, 如果你不懂网络防护,不知道什么是提示词注入攻击,不了解端口暴露的风险,建议先补课再入坑,磨刀不误砍柴工,不然你的数字员工可能变成数字间谍,你的数据可能被别人窃取,你的电脑可能被别人控制,后果不堪设想。 这不是开玩笑,是真实存在的风险,必须重视,安全第一,千万别大意。最后总结一下,希望对大家有帮助。 openkey 是 好工具,但不是神器,要客观看待,它代表了 ai agent 的 未来方向。从聊天工具进化为数字员工,这个趋势是不可逆的,迟早会普及,这是大势所趋。 但目前的版本还不够成熟,有太多坑需要填,有太多问题需要解决,需要时间和耐心,不能急于求成。给想入坑的朋友,三点建议一定要听进去。第一,先评估自己是否适合,技术背景、预算耐心,缺一不可,不要盲目跟风,适合自己的才是最好的。 第二,注意安全,不要把端口暴露在公网,定期检查权限设置,警惕提示词注入攻击。安全第一,安全第一,安全第一,重要的事情说三遍。 第三,控制成本,监控 api 调用,设置预算上限,别让账单吓到你,量力而行,不要冲动消费。给已经入坑的朋友也三点建议,希望能帮到你。 第一,别追求完美,百分之四十的人工干预是正常的, ai 还不成熟,需要人机协助,习惯就好。第二,多看社区,很多坑,别人已经踩过了,学习别人的经验,少走弯路,事半功倍。 第三,保持期待,这个领域发展很快,今天的问题明天可能就解决了,未来可期,不要灰心。如果你也在用 open club, 欢迎在评论区分享你的体验,好的坏的都可以让更多人看到真实的使用感受,避免踩坑。互相帮助点赞关注我们,下期见!拜拜!

朋友们,我终于有自己的 openclaw 啦,我的这个叫做 bunnyclaw, 我 知道网上有很多安装教程,但是在你安装之前呢,我想先跟大家分享一下我最近研究到的不同安装的方式,不管是本地还是在云端,以及它们各自的优势和劣势。 如果你有兴趣来部署自己的 opencloud 的 话,我在这里总结了截止二零二六年二月份的大部分的选项。当然现在这个科技发展的非常快,现在也有 nano body, 也有 zero cloud, 也有各种各样类似的产品了,所以说不定以后会有一些新的选项。 ok, 那 我们从头看。 如果你想部署自己的 opencloud 的 话,现在有这么几个选项,你可以做 cloudbase, 就是 云端服务, 或者是 dedicated local hardware, 就是 一个专门给你的 agent 用的一个硬件,或者是可以用自己的电脑。最后关于安全这方面,我们可以开一个话题单独聊。那么如果你想选择云服务呢?你也有两个选项,一个就是 managed cloud, 相当于一键式的云浮,还有就是 virtual private server, 相当于你在云端上租了一个别人的电脑。一键式呢呢,有一个例子就是现在的 kimi klaw, 他 现在做的就是把它们的大模型和 agent 全部放在一起,让你一次可以一起用它们, 它的好处就是一件事就可以马上上线,非常容易,并且它的安全性做的也很好。那么如果你用一个类似于这样的服务呢?就是无法选择自己的模型,你就只能用 kimi 的 模型,并且在收费方面也是付一个总费用。如果你选择租一个别人的网上的电脑呢,这时候你的安全性 也很强,并且这个电脑的可塑性和选项也很多,那这个时候呢,你就可以选择你想用什么大模型了,就不一定要用某一个模型,可以是任何你有 api 的 模型。 那是因为你在云端上租另外一个电脑的算力和空间,所以你会付一个月费,相当于你要付两份费用,一个就是这个每月的租金,一个就是大模型的费用。但是这两个云端的好处呢,就是你的 ai agent, 它是二十四小时在线和待命的,所以你随时都可以用它。那如果你考虑买硬件呢?你也有几个选项?现在市面上最常见的一个就是 mac mini, 一个就是 raspberry pi。 mac mini 作为一个苹果的电脑来说呢,它的算力和表现力是非常好的,但是它的问题就是你首先要花个几百美金,几千人民币来买这个硬件,但是一旦买了它以后,你确实可以像在用云端服务一样的让它二十四小时的不停的待命。 raspberry pi 它也可以二十四小时待命, 它的价格会更低很多,用的电也会低很多。它作为一个小型的硬件,或者类似于一个小小电脑吧,它的性能就会不如 mac mini 这样的。那接下来我们看第三个选项,就是你自己的电脑, 如果你选择自己的电脑的话,也有几个选项,你可以直接安装,直接安装的话它是最危险的一个 别是如果你的电脑上已经有一些个人信息,或者是你的付费信息,你的信用卡等等,因为你的 agent 有 你整个电脑的所有的使用权,所以它有可能做一些会让你意想不到的事情。其次呢,你可以用一个 docker sandbox, 相当于在你的这个 a 阵外面套了一层安全保护的防火墙,这个时候呢,你相当于把它框在一个文档里面,它只能接触到这个文档里的内容,而不是整个电脑的内容,所以它比直接安装会安全一些。 但是他也有自己的问题,一个就是安装起来会更复杂,更麻烦,其次就是因为他不是整个电脑都能接触到,所以有一些软件是无法用的。那最后呢,是在电脑上安装一个 virtual machine, 一个虚拟机, 这种情况下呢,其实对你电脑的消耗还是蛮大的,因为你的电脑相当于会腾出一些空间专门给他用,他的好处就是可以在当地帮你做一层隔离, 那坏处除了它会占有很多电脑本身的资源之外呢,就是它会在安装这方面也比较复杂。那以上就是如果你想安装一个自己的 opencloud, 现在你可以考虑的一些不同的选项,以及它们的优势和劣势,希望对你们有帮助。

龙虾加困三点五能擦出什么样的火花呢?我们知道困三点五在除夕夜正式发布了,它呢也是号称最强的开源模型,它的能力可以说拳打 g p t, 五点二 叫 t cloud, 四点五是可以和国际的这些顶级的大模型搬一搬手腕的。那好,那么这样一个国产的重量级的开源大模型,我们能不能在龙虾里面免费调用呢? 答案是可以的,接下来一个视频,带着你从零到一的在龙虾里面去接入困三点五,完成免费的调用。好,那话不多说,咱们直接进入正片吧。那么接入的步骤呢?其实也不多啊,总共呢四步就搞定了。首先第一步啊,如果你本地没有欧拉玛的情况下, 你先下载一个欧拉玛,注意下载最新版的,如果你的欧拉玛很长时间没有更新的,那么也是一样先更新到最新版本啊,那么这个没啥好说的,你呢,就把它下载下来,一路下一步就可以安装了 啊,安装完了之后呢,接下来咱们要在我的欧拉玛上去安装你的问三点五的模型。好,那么安装的话怎么安装啊啊?复制这行命令,然后这时候呢,把命令输进去就行了, 这个就是开源的问三点五的模型了。好,然后这时候敲回车,咱们只需要等待欧拉玛去安装千问就行了,很快咱们就可以看到。哎,我的千问三点五就已经安装到本地了啊,这时候呢,我知道有同学就说了,说,磊哥啊, 我本地的电脑配置不是特别高,问三点五能不能部署啊?这个还真能,为什么呢啊?因为在欧拉玛里面的这个问三点五的这个模型,大家可以看到了,后面跟了一个谁呀? cloud, 这个是欧拉玛新推出的一种 云端的模型啊,这些新模型呢? ok, 大家可以看到它都是有 cloud 标识的,像 win 三点五呀,智普的五呀,还有像 mini max 的 二点五啊,都是 cloud 的, 那么这个 cloud 是 什么意思啊? 啊?它指的是欧拉玛远程帮你已经部署好了满血版的这些模型了,你只要有欧拉玛的这个客户端,你就可以快速的去连接欧拉玛帮你部署好的这个开源模型了,所以这时候你不需要担心自己的电脑不好,因为这个满血版的大模型, 它的本质上是没有在你本地部署的,而是在欧拉玛的服务器上部署的,你有欧拉玛,你是可以直接去用的啊,所以它是这样的一个逻辑,因此呢,你电脑不好没有关系,是可以去用的。好, ok, 那 么很快咱们就部署好了啊,部署好了之后呢,接下来第三步啊,咱们就去登录我的欧拉玛账号。好,这时候复制这行命令, 来到命令窗口里面输入这行指令敲回车,然后敲回车之后呢,它会自动打开页面啊,这个是欧拉玛的登录页面,如果说他没有出现,大家看这个地址了没,复制这个地址,手动的粘贴到你的浏览器里面就行了。好,那这时候 ok, 去填写你的欧拉玛账号。那有人说,哎,那磊哥我没有欧拉玛账号怎么办?那没有邮箱的情况下呢,我们就去点击底下这个注册按钮啊,然后点击完成之后呢,然后接下来 在上面这个输入框里面去填写你的邮箱信息啊,那我就填写我的这个邮箱信息,点击继续。好,这时候呢,他让你去输入创建一个密码啊,那你就输入密码,然后点击继续, 然后点击下一步。好,点击完成之后呢,他要求登录到你的邮箱了,他把这个验证码收到你的邮箱了。好,输入完邮箱之后呢,他要求绑定一个手机号啊,那我们这时候呢,就去填写我们的手机号, 然后点击发送验证码。好,然后拿到手机上的验证码之后呢进行输入啊,输入完成之后呢,咱们就完成了登录了啊,大家看到没?我就登录了 啊,登录完了之后呢, ok, 去点击呃,底下的 connection, ok, 它就显示已经登录成功了,那么到这咱们的第三步就已经完成了啊,完成之后呢,接下来咱们就可以执行最后一步了, 使用这行命令来去启动你的 open class 啊,就可以完成 open class 接入欧拉玛里面的问三点五的模型了。好,那这时候呢,咱们最后一步啊,使用这行命令 来启动进行交互了。好,那这时候咱们来试着启动一下,回到命令窗口里面,把这行命令呢输入进去。好,稍回车。好,那么等待片刻之后呢,咱们可以看到啊,咱们的 open class 了,并且使用的模型呢,是欧拉玛的千问三点五的 cloud 模型啊,但是能不能用呢啊,那么接下来咱们可以打开命令窗口, 或者是打开咱们的飞书啊,来测一下。那我这呢就打开我的命令窗口啊,然后完了之后呢?好,接下来咱们就呃给他新开一个 new session 吧, 新开一个窗口啊,然后咱们来问一下他,我给你更换了新的大模型,告诉我你使用的大模型是啥,那咱们就给他一行这个命令啊,然后点击 send。 好, 那这时候咱们来看一下他给咱们返回的模型是啥,看到没?那他说的是我现在用的就是啥呀,问三点五的模型了,那这样的话,咱们就使用 openclo, 可以 免费的使用 欧拉玛里面的问三点五的模型了,好,这时候可能有人就问了,说,难道这么简单吗?我可以这样免费的去使用欧拉玛的云端模型吗?有没有限制啊?答案是有的啊,比如说欧拉玛的云端模型,人家也是有成本的吧, 所以说那么欧拉玛的调用云端模型的调用也是有额度限制的,然后这个额度限制在哪呢?给大家来看一下啊。这时候呢去点击账号右上角的这个账号啊,点击完了之后呢,在这大家看到没, 这块呢就是云端模型的使用限制啊,它是有一个百分比的,那么每周它会有一定的额度,然后每四个小时会有一定的额度,那么当你把这个额度用完之后呢,那么云端的模型就不能掉了, 所以我刚才问了两个问题,那么基本上就消耗了百分之一点二,所以这个免费的模型的话,每四个小时应该是能够调用一百次左右啊,根据你的这个上下文的这个计费是不一样的, 所以总体来看,这个免费的额度相比于其他的免费的额度来说啊,欧拉玛还是更实在一些。那么到这儿咱们就完成了在 opencloud 里面去接入问三点五的功能了。我是李哥,每天分享一个干货内容。

openclaw 小 龙虾它来了!先一句话搞懂核心 openclaw 是 一款本地优先的开源 ai 智能体,经过多次版本迭代,最新为二零二六年二月十七日版本, 如今已进化为能听懂你的话、替你点鼠标、敲键盘、跨设备协同自主拆分复杂任务的全能数字助理。和普通 ai 只给文字建议不同,它能实实在在完成各类任务,比如打开 qq 发消息、淘宝搜商品加购、整理电脑文件、执行系统命令, 甚至能自主创建此代理分工干活流畅,处理长篇文档,全程不用你动手,能力较初期有了质的飞跃。 可能有朋友会问,它和普通 ai 有 啥不一样?最关键的区别就两个,本地优先和强执行能力。先说本地优先,我们平时用的很多 ai 助手,都会把你的对话、操作数据传到云端,难免担心隐私泄露。但 openclm 不 一样,它可以直接部署在你的电脑服务器上, 所有数据、聊天记录、操作日记、文件都存在你自己的设备里,完全由你掌控,不用怕信息泄露,这也是他最受青睐的一点。再讲最核心的强执行能力,这也是 obenklo 的 杀手锏。 经过二零二六年以来的多次重磅更新,这项能力变得更加强大高效,让他彻底摆脱了早期的演示级局限,更像一个有手脚加灵活大脑的得力助手, 既能模拟人的操作搞定各种电脑任务,还能自主规划任务,拆分分工。而且两种操作方式都对小白十分友好。 第一种是自然语言,直接指令,不用写代码,不用记命令,直接用大白话吩咐就行。比如你说打开 qq, 给张三发一句你好,再发一张桌面的测试图片,他就会自动启动 qq, 找到好友,完成发送,全程自动执行,你只需要等着看结果。 第二种是精准调用工具,如果想让操作更精准,直接用 at 工具名加指令的格式即可。比如 at shell 查看桌面文件列表。 at few system 新建一个叫 opencloud 文件夹,适合稍微复杂一点的需求,操作起来依然简单。 更值得一提的是,它还支持从聊天中直接生成子代理。比如你让它整理阅读工作资料,它会自动拆分任务,生成专门处理文案、专门整理数据的子代理,各司其职,高效完成,完全不用你手动费心。 它的操作界面也十分友好,小白优先选择外部控制台即可。启动软件后,打开浏览器,输入指定地址,就能看到清晰的功能菜单。 chat 页面发指令, settings 页面配置模型, locks 页面查看执行记录, 点点鼠标就能上手,不用面对复杂的命令行。不仅如此,最新版本还优化了界面交互,新增了 ios 分享扩展功能,让它不再局限于电脑端使用。 你在手机上刷资讯、看文档时,一键就能调用 openclaw 分 析内容,提炼重点,随时随地享受自动化便捷。我们再来客观说说它的小短版 早期版本操作, qq、 淘宝这类软件见面时应依赖视觉识别截图,存在 token 消耗较多、速度偏慢的问题。 但最新版本以针对性优化,通过模型升级集成 so net 四点六记忆压缩等技术,将 token 消耗大幅降低,最高可减少百分之九十五,速度也明显提升。同时还开启了 em 超长上下文测试,能流畅处理长篇文档,多轮复杂对话。 如今不仅能满足日常简单自动化任务,应对中高频复杂操作也完全没问题。作为开源工具,它一直在快速迭代优化,免费可用且隐私可控,对小白和职场人来说都十分实用。 openclaw 还在飞速的持续迭代,早已不是初期的演示级工具,如今是一款懂你、能干、安全强大的 ai 助理。不用懂代码,不用怕隐私泄露,它既能替你搞定电脑上的各种重复操作, 还能自主拆分任务,创建子代理,分工干活,实现跨设备协调使用,真正解放你的双手。无论是想偷懒省时间,还是想借助 ai 提升办公效率,体验自动化的乐趣, 小白都能轻松上手,而这也是他能从众多 ai 工具中脱颖而出的关键,把复杂的技术变成人人能用的使用工具,并且一直在变得更强大。

最近开源 ai 圈最火的就是一个叫 open cloud ai 智能体,简单说就是能帮你干活的 ai, 数字员工能自动处理文档、操作电脑、控制智能设备,二十四小时不休息。 全球开发者都在抢着把它装到各种设备上,从苹果 mac mini 到改装旧手机,都想让这个 ai 在 本地跑起来。国内传来一个大消息,龙芯三 b 六零零零 m 芯片第一个成功把 open cloud 装在纯国产硬件上跑通了。 这不是小打小闹的测试,而是真真切切能用,意味着国产芯片在 ai 适配能力上迈了一大步。以后普通人、小企业不用花大价钱买外国设备,也能用本地 ai 了, 安全便宜还好用。以前用 opencloud 有 多麻烦?要么贵,要么不安全。 opencloud 之所以火,就是因为它不只是聊天,而是能动手干活,整理会议记录、做报表、回邮件、控制家电,甚至帮程序员运维服务器,相当于一个全自动助手。 但之前想用好它,有两个大难题,第一,硬件太贵。官方推荐的设备是 mac mini, 一 台要好几千,很多个人开发者、小公司根本舍不得买,要么就得租云端服务器,每月花钱长期用成本很高。 第二,隐私不安全,配置太复杂,要么依赖外国芯片,要么把数据传到云端,文件、工作信息都在别人服务器上,容易泄露。而且云端配置麻烦,新手很难搞定, api 调用还要花钱,用起来很不省心。 现在龙芯三 b 六千 m 把这个问题解决了,纯国产芯片,纯本地运行,不用外国硬件,不用云端,直接在小盒子主机上流畅跑 openclaw, 这不仅是龙芯性能的胜利,更是国产芯片生态成熟的证明。外国能做的 ai 本地部署,我们用自己的芯片也能做到,还做得更安全、更便宜。 龙芯三 b 六零零零 m 凭什么能第一个跑通?全是自主硬实力,能成为全球首款跑通 openclaw 的 纯国产芯片? 龙芯三 b 六零零零 m 不是 靠运气,而是靠从头到尾自己造的技术底气。这款芯片用的是龙芯自研的 lunearch 龙架构,四核或八核 l a 三六四 e 处理器,核心从指令集设计到生产全链路,国产没有用任何外国技术,这也是它能稳定适配 ai 的 关键。 具体来说,它有五大优势,每一条都戳中 opencloud 的 使用需求。第一,算力够强,跑 ai 不 卡顿。八核版本主频二点五千兆赫兹,单核性能很强,剥合并行处理能力出色,运行 opencloud 的 任务处理模型、推理都很流畅,不会出现卡顿延迟。 第二,绝对安全,数据不外流,全程没有外国技术依赖,还自带安全处理器,支持国密 sm 二斜杠三斜杠四加密,所有数据都在本地处理,不传到云端,自己的文件信息自己掌控,特别适合政府、金融、企业这些对安全要求高的场景。 第三,特别省电,长期用不心疼。支持自动调节功耗,不用的时候自动降频。二点零千兆赫兹版本功耗才三十五瓦,日常用只有十二瓦左右,空闲时甚至不到一瓦。 相比同性能芯片,省电很多,不管是家用小主机还是工业设备,二十四小时开机都没问题。第四,价格便宜,人人用得起。 基于这款芯片的小盒子主机成本比 mac mini 外国专用服务器低一大截,个人开发者、小企业、普通家庭都能负担,让本地 ai 真正普惠。 第五,权威认证靠谱,放心,已经拿到中国信息安全测评中心安全最高等级二级认证,稳定性、安全性都经过国家检验, 党政、金融、能源、制造这些关键领域都能用,企业级部署完全没问题。实际用起来怎么样?三大场景,一句话搞定复杂事,光说性能没用。实际测试里龙星三 b 六零零零 m 加 opencloud 的 组合,真的能解决日常工作生活开发的痛点。覆盖三个最实用的场景,第一个是智能办公,解放双手, 不用手动打字,整理文件,对着设备说句话,就能自动整理会议纪要,生成数据报表,回复邮件,七成二十四小时在线处理杂事, 员工不用被锁费工作耽误时间,能专心做核心业务,效率直接翻倍。第二个是智能控制,万物互联, 不管是家里的智能家居还是工厂的设备,都能通过 open club 联动。说一句,打开台灯、调空调温度,拍张照描述环境, ai 就 能直接执行,家里更智能,工厂生产更便捷。第三个是开发运维,不用敲代码。 程序员、运维人员以前要敲复杂的命令行才能查服务器状态,清理日制启动程序,现在用语音对话就能搞定,远程操作,一键处理,降低工作难度,省下大量时间和成本。简单说,这个组合就是一句话,指挥 ai 干活,不管是普通人办公还是企业运维,都能直接用,不用懂技术,不用敲代码, 国产算力站起来了。二零二六年, ai 时代我们自己说了算。现在 open core 火到 mac mini 都卖断货,云端 api 费用越来越贵,很多开发者被成本和安全问题卡住。 龙芯三 b 六零零零 m 的 出现,给本地 ai 落地指了一条更实在、更国产、更普惠的路。这次突破不只是一颗芯片能跑一个 ai 软件,而是证明了三件事, 第一,国产芯片造得出来,更用得上去,性能完全能跟上全球 ai 潮流。第二,从指令集、 ip 核到芯片终端,全链路自主可控,再也不用被外国芯片卡脖子。第三,国产算力已经具备支撑 ai 时代的能力,安全、成本、性能都能打。 以前我们总说 ai 发展依赖外国硬件、外国云端,现在龙芯三 b 六千 m 告诉大家,本地 ai 国产算力安全可控,我们全都能实现。未来,随着龙芯生态越来越完善,更多国产芯片突破技术,会有更多 ai 软件在国产硬件上落地, 不管是个人用的 ai 助手,还是企业用的数字员工,都能用上安全、便宜、好用的国产方案。从依赖海外到普惠小主机,龙芯三 b 六零零零 m 跑通 open call 只是国产算力崛起的一个开始。 二零二六年被很多人看作 ai 元年,而这一次,国产芯片终于握稳了属于自己的方向盘,让中国算力在 ai 时代站稳脚跟。

每天分享一个强大的网站第十期,今天分享的是这是一款免费开源,分类清晰的 openclock 专属技能库,包含三十多种分类和三千多个 skills。 不 管是编程开发、音视频生成,还是搜索研究、数据分析,它都能满足你的技能需求。更绝的是, 每个技能都进行了详细的介绍和说明,让你的使用毫无门槛。比如你想给本地 ai 助手加个代码开发技能,只需输入这个命令,一键就可实现安装。重点是它还给我们提供了安全扫描器,让 skill 使用起来就很放心。

我们在前面安装这个 open 可露的时候,所使用的模型是智普的模型以及还有阿里百联的模型,但是这些模型的话都是属于在线的呃,它会需要很多个 talking, 那 这些 talking 呢,我们是需要花钱去买的, 那当然呢,也有人去反映这个在线的模型啊,它所消耗的 talkin 很多,所以说这个时候有人就想我们能不能使用本地的模型来部署 这个呢?当然是可以的,我们可以先到那个欧拉玛的网站上面去看一下啊,在他的首页这里面有一个 openclo, 我们点击进来啊,这里面没找着,没关系,我们往下拉一下,往下拉一下之后,因为这个 clubbot 已经改变为了这个 openclo 了,我们在这里面选择这个 openclo, 然后呢我们往下面拉,往下面拉的话,这里面的话呢,他就会有一些他所推荐我们所使用的这些模型。那么我们就建议呢,各位就是使用的时候就直接使用他所推荐的那些模型 啊,现在在我的环境这里面呢,我已经是把这些模型呢给它拉取下来了,那你使用其他的模型的话,可能还是会有一些问题的。 那下面的话呢,我们就开始去配置一下这个模型,点击这个 open clone, 然后呢我们点击这个 config, 点击 config 之后呢,继续找到这个 modus, 然后有一个 private, 然后这里面咱们就开始去添加一个模型 and you try, 那 这里面我给他一个名字叫欧拉玛好了, 这个名字你自己可以自己随便去取都可以。然后呢我们这个 api 的 这个位置呢,你可以选择这个是 compilation api key 的 话呢,这个可以随便去写 啊,因为我们的这个欧拉玛它不需要这个 k 去验证,这个你随便写什么都可以啊。 然后呢这里面我们选择 i p r k os header, 勾选上 bios ysl, 这里面的话,你就加上我们的这个欧拉玛的这个地址, 那么这里面的话,我现在的地址是端口是幺幺四三四,那这里面我们写的时候就是 h g d p 冒号本机,你你可以写任何的,你主机上的任何的一个地址都可以,零点零点幺, 这里面的话我们写上端口幺幺四三四,这里面一定一定要把这个 v e 给它加上去。 如果说你不加这个 v 一 的时候,那我们去访问的时候,他可能就是,对吧?你问他问题,然后呢他就回复的时候就是一个空的,什么都没有,所以说这里面一定要加上一个 v 一 才行。 然后呢我们继续往下拉,找到这个 modus, modus 的 话,然后呢我们选择这个 and, 选择 and 的 之后,然后在这里面 api 的 这个位置呢,我们也是选择 open i, 它的这个我们就选择 max talkings, 然后它的这个上下文的这个窗口呢,我们给它设置一个比较大的一个值就可以了,随便你去设值。 继续往下拉好,然后这里面有一个 id, id 的 话呢,就输入我们的这个啊模型的名字就可以了,比如说我这里面就直接使用 gptos 二十 d。 好, 那么然后呢我们继续往下拉,这里面有一个 and, 把它选择为这是一个 text 的, 然后这个 man talking 的 话呢,你也可以随便去写,我就直接写上一个四万就可以了。这个你随便去写, 然后给它起一个编名,我们就写成这是为一样的就可以了。这是我增加了一个模型。 那然后呢,我们你看啊,在它的官方网站上呢,给我们推荐了好几个模型,其中还有一个是 glm 四点七的,对于 glm 四点七,它这里面的话使用的是一种语音环境,我们这里面点击这个 mod 的 话,它不是让它是直接使用的,是在线的一个模型, 我们在这里面的话呢,也来给它加过来。在我的环境这里面的话,你看有一个 glm 四点七 club 的, 这里面的话,这里面呢,我也是给它拉取下来了。好,所以说我这里面再次增加一个新的模型,这几个我都给它加过来。 好,在这里面我们再次点击一下这个 and。 好, 然后呢,这里面我仍然选择的是 open i complexions。 然后呢这里面也选择 manage tokens。 窗口的话,我们在这里面你随便去写一个都可以 继续往下拉。然后这里面 id, 我 们把我们的这个镜像来给它加上去,就是 g, p, d, o, s s 的 这个 y 啊,这个是应该是选择的是 glm 四点七的,这个我们加第二个镜像。第二个模型 input 的 这个位置呢,咱们也选择 text 的, 这个位置的话,就随便去写一个比较大的值就行了。 这个名字的位置呢,我们也给它起一个命名,也叫的是 g m g r m 点 g cloud。 好, 第二个模型呢,我现在也是给它添加过来了。 那当然了,我们也可以再次去添加一个我们这里面添加的模型都是官方它所推荐的模型。 然后呢我现在再来添加一个其他的模型,这个呢,他并没有出现在官方推荐的这个文档这里面,咱们现在来看一下是否会有什么问题。我这里面选择枪顶三杠十四 b。 好, 这次去添加一个模型。好 and, 好的,现在这里面来给它收起来。好吧,这里面的话,我们仍然选的是它。好了之后,这里面选的 max tokens, 这个呢,我们就随便的去写一个比较大的值就可以了。 然后这里面 id, 我 们就把这个谦问三十四 b。 我 再说一次,谦问三十四 b, 这里面并没有出现在它的这个推荐模型这里面。 input, 这里面点击 text, 这个值呢?我们也直接输入一个比较大的值就行了。好,这样的话我现在添加了三个模型,点击 save, 咱们现在去看一下它的这个配置文件,点击打开 点击之后呢,这里面你看有一个 private 的,是百炼的,这个是我们在前面的时候已经添加过的奥拉玛。这里面的话呢,我增加了三个模型,一个是 gpt osss 二十 b, 还有一个是 grm 四点七克拉的,那还有一个是铅汞。三十四 b, 然后呢我们往下面拉,找到这个 agents, agents 的 话,这里面的话,这个模型的话咱们现在继续来给它添加过来,把这几个模型现在来给它加过来好了。好吧,呃,这里面的话,我就直接啊往后面去写, 这是一个这是一个,这是一个。 那这里面的话,我们直接选择的是维欧拉曼、 欧莱曼的这几个模型,咱们现在来手动的来给它加过来,然后 g p t o s s s 二十 b 二十 b, ok, 这个是添加过来了一个了,然后呢我们再把剩下的两个模型也来给它加过来。呃,还有一个叫做这是为 g r m 四点七 cloud 的 这个呢,我们现在也是把它的名字记 r m。 好, 那然后呢我们再次来给它增加一个,还有一个是千问三十四 b 的 铅汞三十四 b, 这个边名的话呢,我也给它起名叫做这是为铅汞三十四 b 就 可以了,那这里面的话,我现在额外的额外的增加了三个模型,那然后呢,我们现在使用其中的某一个模型,把它设置为是默认值, 比如说我这里面就是这是 default, 就是 设置的是它的默认值。 ok, 好, 我现在使用 g p o s s s 二十 b 的 这个模型保存一下,咱们现在开始去做测试,点击这个 chat, 好, new session, 打开一个新的脸际,新的绘画。 好了之后呢,咱们现在来跟他去沟通一下。你好,请问你是哪个模型? 它这里面的话,因为使用的是比例的模型,它这里面其实是会消耗比较多的这样的一个 gpu 的。 好,它这里面的话告诉我们说使用的是欧莱玛 gpt 二十 b 的 这样的一个模型。好,然后你可以随便的去交流就可以了。 好,请问是哪个模型? 好?这里面告诉我们说是欧拉玛 g p t o s s 二十 b 的 这样的一个模型了, 那当然呢,我们现在去换一下,我刚才讲咱们刚才看到的时候,它这里面实际上是会消耗比较多的 gpu, 那这个时候有的同志说我笔记本上面跑不起来,对吧?跑不起来,那么大的这个,呃,那么大的这个,呃这个模型,那没关系,我们可以直接使用什么呢?我们可以直接使用它的这个云端的这个模型, 也就是直接使用 g m 四点七 cloud cloud 的 话,它本地并没有去下载什么模型。 那这里面的话,你首先你得你要是想使用这个模型的话,首先的话你得要在欧拉玛的网站上自己去注册一个账号,记住了,你得要注册一个账号,注册一个账号之后呢?然后我们在命令行里面 去登录一下,在这里面有一个登录的这个名字。 好,欧莱玛,我们现在去登录一下,那这里面的话,你看我现在已经是登录了。那如果说你没有登录的话,比如说我举个例子来说,我现在把它给退出来,我不登录了, 不登录了之后呢,我重新去登录,你看他这里面的话是会给我一个链接,给我一个链接之后,我们在这里面把它切到我们的地址栏这里面来,他会问我们是否要去链接,当然了网站这里面你得要先去链接一下才可以, 这种方式就算是连接成功了,连接成功了之后我们才能够去使用这个云端的这个模型,我们可以试一下,好让 你好,我们来看一下他是否能够正常的去回复,你看此时是可以正常的去回复的, ok, 退出来就行了。那这里面的话,他啊我们这里面直接使用免费版的就可以了,你不用去花钱去购买什么,直接使用的是这一块免费版的,他也够我们去用的了。 那这里面的话呢,我们现在去换一下这个模型, glm 四点七 cloud 的 这个模型。好,我把它给换掉。换掉之后呢,然后我们现在重新的去跟它去做一个沟通,点击这个 new session。 好,我们现在开始跟他去交流。你好,他这里面的话就可以跟我们正常的回复了。请问你是哪个模型? 原来使用的是我们一开始刚刚所做的练习,使用的是这个 gpt osss 二十 b, 那 现在的话使用的是 grm 四点七 club 的。 那这里面你看它告诉我们说现在用的是什么?叫做是欧拉玛里面的 glm 四引擎 cloud 这样的一个模型。 那我们现在再次来给它换一个模型,我本地这里面,在我本地这里面有一个千米三十四 b 的 这个模型呢,实际上是可以正常去使用的,我们现在来打开看一下。 好,请给我写一篇两千字的作文。 那你看啊,我这里面使用的时候它是可以正常去使用的,看到了没,它消所消耗的 gpu 其实也是蛮多的,跑起来也是蛮快的,没有什么问题。我 ctrl c 终止了,对吧?你可以等一下也行。好,我们退出来吧。 好的,反正我现在就想说明的是什么呢?说明的就是我的这个千万三的这个我的千万三的这个模型啊,是 正常是可用的,对吧?然后呢,我们现在把它换到哪里面去呢?换到我们的这个 opencloud 里面来,我们看一下能否正常去使用。好,我选择这个千问三十四 b, 把它换成是默认的, 找到这个 agent 千元三十四币,那这个呢,就是我们的加载过来的这个模型呢,已经保存退出,然后这里面的话呢,我们现在再次去跟他去沟通 new session。 好,那这里面咱们现在来问一下你。好,他这个不稳定,我们也就是说使用千万三的这个模型的话,呃,他可能就不是很稳定,有的时候你看现在可能是正常的,但有的时候呢,他可能回复的时候就不是很正常。 好,你看这里面回复的时候,现在就已经是不正常了,也就是有问题了已经,对吧?那在我本地跑起来的话是正常的,但是呢,我们在 open clone 这里面去引用它的时候,运行起来的话,则可能还是会有问题的, 所以说我们在使用模型的时候就直接使用它所建议的这些模型就可以了。 那当然了,如果说你本地的这个啊机器配置的比较高,你可以直接使用千万三 q 的, 那如果说你所使用的这个配置不是很高的话,那这里面的话呢,我们就可以直接使用是 glm 四引擎的,这是属于是语音环境上的一个啊模型,那它这里面的话并没有什么限制, 对吧?你可以看一下,它这里面并没有告诉我们说可以免费使用多少 talking, 超过这个 talking 就 不能使用了,它这里面并没有这些要求,所以说我们直接使用在线的也是非常方便的。那如果说机器配置不高,那么我们就可以选择它机器配置比较高,对吧?你就完全使用本地运行的这个模型, ok, 你 就可以选择它。 这是我们如何让 open globe 使用欧拉玛所部署的模型?大家可以自己来尝试一下。