抖音短视频本地 ai 部署纯干货完整版!大家好,我是郭某人,今天不讲虚的,直接上本地 ai 部署干货。 看完这条,你至少能搞懂是什么,有啥用,怎么开始安不安全?第一,什么是本地 ai? 就是 把 ai 模型装在你自己的手机、电脑、平板里, 不连别人服务器,不上传你的聊天记录、文件、照片,所有东西都在你自己设备里跑,隐私安全,完全合法。 第二,它能干嘛?帮你写文案,写标题,写脚本,帮你想视频创意,想剧情,帮你总结东西,解答问题,帮你做计划,做思路,以后还能本地跑图片,跑小工具, 不收费,不弹窗,不泄露信息。第三,最关键怎么入门,我给你总结成三部小白板,一,找一个支持本地运行的 ai 软件。二、下载对应模型文件。 三,打开软件加载模型,直接用,就这么简单,不用代码基础,不用懂命令行,现在很多工具已经做的跟装 app 一 样简单。第四,最重要会不会违规, 本地 ai 只用于学习创作,辅助思考,完全合法,不用于游戏外挂,不用于脚本,不用于作弊,就绝对不会封号,不会违规,不会有风险,只分享安全实用,普通人能学会的 ai 干货!想看手把手本地部署教程的点个关注,下一条直接带你们装!
粉丝453获赞6563

ai 应该怎么玩啊?很多观众想玩 ai, 可是我一搜教程,这网上攻略不是麦克就是引导你关注公众号,刷到我,你就不用乱走了,跟着我的视频几步走,就可以把 ai 的 语言模型部署到你的电脑里, 随开随用。 ai 的 本地部署啊,就以最火的国产 deepsea 为例,根据体量呢,共有大小七个模型,其中这个七十 b 和六百七十一 b 两个,大家伙离普通玩家过于遥远一点,五 b 呢,又太屌丝了。就以我现在测试的电脑为例,三十二 g 的 内存,八 g 的 显存, 一台普通的游戏电脑啊,那我想轻度体验 ai 的 话,我尝试一下十四 b 这个模型还是可以的。这个模型的体积只有九个 g 的 大小,还不到五位数的一半,但是理论的推理速度却可以达到一百二十。 tocos 每秒。 有人要问了,老是在 ai 的 教程里面看到这个 tocos, 这到底是什么意思啊?简单的说,一个 tocos 就是 两个汉字,或者是四个英文字母,也就是说,部署好的 ai 呢,每秒钟能跟你说两倍 tocos 的 字数。 我们确定好模型之后,就建议使用欧拉玛这个工具来进行本地部署。这是一个开源的工具啊,很多的外国大神在维护,介于等着我自己看攻略时遇到的困难,我再强调一下啊, deepsea r 一 十四 b, 这个是我们的 ai 模型,欧拉玛呢, 是部署模型的工具,所以说各位不要看到英文字母就麻了。 deepsea 模型,欧拉玛,部署模型的工具,这就相当于是三角洲和 wegame 的 关系啊。下面就简单了,先下载一个欧拉玛客户端,下载完成后双击安装, 安装完成之后在系统搜索栏输入 powershell, 右键管理员打开输入这个欧拉玛铺 deepsea r 一 十四 b, 然后回车,这个时候就会自动开始下载 deepsea r 一 十四 b 的 模型, 下载时候偶尔会遇到这个百分之九十九下载不动的情况,这时候董哥教你一个小妙招,按下 ctrl 加 c, 这时候下载就会中断,并且弹出一个新的命令行,你在这个新的命令行里面再次输入下载的命令,这个下载就会继续,并且下载速度会恢复正常。模型下载完成之后再输入欧拉玛瑙这个命令,这样 deepsea 二一十四 b 这个模型就已经成功的部署并且运行起来了,你也就可以不受限制的和它交流起来了。

就这些配件组,一台跑本地 ai 的 小服务器真的超简单, cpu 越便宜越好,只要带核显就行。内存直接插两条十六 g, 总共三十二 g 系统盘一百二十八 g 固态三十多块就拿下算力主力。一张四十 h x 显卡,负责全部火力,全部配件随便淘宝闲鱼 组好就能立刻开完部署 deep seek 本地大模型零延迟聊天 phone hocus 本地生图秒出四 k 艺术图 live portrait 动画 yufu two x 超分辨率全离线跑隐私完全自己掌控,这就是废物利用加一键部署的爽感!想要手搓服务器?看我大深罗秋天!

煤矿兄弟们,零基础也能部署的本地 ai 来了,专门适配煤矿工程移动三防、采掘,机电运输全能用,数据本地运行不泄露,低配电脑也能跑。 最低配置,六核 cpu, 十六 g 内存四 g 显存, m v i d i a 显卡,一百 g 固态硬盘, windows 十十一系统就行。 推荐配置用八核 cpu, 三十二 g 内存十二 g 显存的 rtx 三零六零,跑模型更流畅。注意必须用 mbidia 显卡, amd 显卡不支持 gpu 加速,四 g 显存只能跑轻量模型哦, 五步就能搞定部署,全程不占 c 盘。第一步,修改文件路径,管理员打开 cmd 窗口,一键把 python 欧拉玛模型文件的存储路径都改成 d 盘, 改完重启 c m d 就 生效。第二步,安装开放三点一版本,复制指令,静默安装,不用手动点下一步,安装后验证版本就行。第三步,安装欧拉玛模型运行工具, 三十秒自动安装,失败了手动启动服务即可。第四步,下载美矿适配模型,配置国内镜像加速, tfc 二一和 quan 七 b 模型随便选,单,模型四到五 g, 网络稳定,别关窗口。第五步,安装核心依赖库,用清华源加速, 十六个库一键装完,输出成功就搞定,全专业都能用。不管你是做一通三防、采掘、机电还是运输, 只要把训练文件夹里的资料换成对应专业的规章案例措施, ai 立马适配。现在关注加点赞加评论,煤矿 ai 私信发竹行注式操作指南,全套 c m d 指令,完整拍板脚本和四大专业训练模板,评论区扣一额外送 ai 问答话术模板,本地部署不花钱,煤矿效率直接拉满!

今天录了一个完整版的 open globe 本地部署和对接飞速机器人使用的过程。 快捷键 win 加 s 先进入终端,然后输入 wsl in stock 安装 wsl 的 环境,安装完成之后需要重启一下系统,然后再输入 wsl 有 本土去安装这个 linux 系统,这里等待它走完 整个安装过程。 然后我们就可以输入官方的安装 openglot 的 安装指令去完成 openglot 的 安装, 接着进入 openglot 的 快速配置线导。首先是大模型的配置,大模型的配置需要大家提前拿到大模型的 api key, 我 用的是第四个,所以选择倒数第二个, 输入 detect u r u r l 链接,再输入 a b i key。 接着需要配置的是通讯工工具,然后我这里演示的是对接飞书的。对接飞书的话,我们要先到飞书的这个创作者开发者平台去提前创建一个机器人, 然后拿到这个机器人的这两个重要的信息先记录下来。 这里特别需要注意的是先添加一下它的权限,全部给它开始, 然后回到我们的终端去配置飞书的机器人,根据提示去输入刚才录入的信息就可以了。 飞书配置完成,然后会来到一个浏览器的搜索配置,这里需要大家先提前拿到对应的浏览器的 ipad, 然后填到这里, 来到这里的话,那基本上 opencloud 的 配置就已经完成了。最后回到我们的飞书后台,完成最后的机器人配置, 到这里所有的配置就完成了,大家就可以正常的在网页版去使用 open color, 也可以去飞书搜索刚才设置的机器人去进行对话。

都二零二六年了,还有人不会本地部署 ai? 今天小伙伴们看到这个视频有福了,恭喜你们又学会了一项新技能,我今天就为大家详细介绍如何本地部署 ai。 首先到网盘下载我这套工具, 下载下来后解压到你能找到的地方,打开文件夹只有四个内容,我特意写了一个脚本,本地 ai 部署工具, 就算是小白也能轻易上手。我们双击打开它会看到三个选项,如果是为了体验使用 ai, 选择一回车,如果想要学习研究,选择二回车。今天我们只讲一键安装, 小伙伴们根据提示一步一步安装所有的程序。这些软件我都安装过了,就不再次安装了。大模型对 a m d 不 太友好,我为了匹配 a m d 用户, 特意调试了相应的执行文件,因为达用户可无视脚本,可以自动识别大家的显卡。 安装完成后,桌面上会多一个小绵羊的图标,这个图标就是欧拉玛式运行大模型的引擎, 我们可以在这个应用程序右下角选择你想要下载的大模型。我下载了 deep seek 和千问两个给大家做测试,我们可以试着和他聊聊小家伙还是蛮有趣的。 当然,我们不局限于欧拉玛客户端和 ai 交互,可以通过按 win 加 x 按键打开 power shell, 管理员 输入 alama run deep sec 二一八 b。 具体输入内容取决于你下载的大模型名称。我下载的是 deep sec 二一八 b 的, 所以这样调用,我们可以尝试和 ai 聊一下 怎么样有趣吧。我给各位还留了两个软件,一个是 amd 显卡专业支持软件,一个是 chatbox 应用软件, chatbox 可以 调用欧拉玛引擎的大模型,实现联网查询、本地知识库建设。我想你也想要拥有一个懂你的小助理吧!好了,今天的视频就到这里了,科技无所不在,我们终将跟随科技的脚步向前发展。

如何在苹果移动端设备上部署本地 ai? 一 期视频给你讲清楚。首先打开 app store, 搜索 locally ai, 这里出现的这个四角星就是我们要用的工具。下载完以后打开软件。接下来点击左上角的按键,打开设置内容。点击这里的 managemodels, 往下翻,可以找到许多可以本地部署的 ai。 这里打开了一个 sim os, 往下翻,找到芭比拉玛并点击当老卢,这里已经下载了,点击即用即可。相比联网大模型部署本地的优点是无需联网。此处断开所有网络,打开飞行模式。现在我们让它生成一首诗,看看效果。 注意,本地大模型数据两元,不如研网大模型处理能力较弱,但是最大的优点是隐私性极强。本地 ai 所处理的所有数据均不会上传互联网,只会保留本地欣赏一下互联网拉满的优秀作品。除此之外,还有纤维三以及 dsr 预模型的可供选择。 如果你想要能够识别理解图片的,请选择带有威慑图样的模型。此外,本地部署模型有一个好处是你能够训练一个独属于你的模型。你可以将自己的学习情况已经被标注至 ai, 让其为你制定学习计划或者处理不可上传至互联网的资料时贡献力量。下一期出一期,如何专业的将你的数据投喂给本地 ai 进行训练?

最近我发现网上很多人在盲目跟风本地部署,完全没有注意硬件门槛,结果要么是配置不达标导致部署失败,要么是强行跑起来后发现这个 ai 的 智力跟预想中的超级智能助手差得太远。 本地部署大模型,最吃硬件的是显卡的显存和电脑的运行内存。显存决定了智力上限和运行速度,显存越大,你就能运行参数量更高、更聪明的模型,并且回答响应极快。 运行内存则决定了金融下限,当显存不足以完全装下模型时,运行内存会充当后备缓冲,确保模型能够运行而不至于报错崩溃,虽然这会牺牲一定的运行速度。 那么什么样的硬件条件可以匹配什么级别的模型呢?大家可以参考下面这张表。 大模型的能力通常以参数量 b 为单位,一 b 等于十亿个参数量,在同类结构下,参数量越大,综合能力越强。小模型一点五 b 到九 b, 相当于机灵的初级助理,能够处理简单的翻译总结,但遇到复杂逻辑容易断篇。 中等模型十四到三十二 b, 相当于职场熟手,能胜任大部分专业写作和中等难度的逻辑推导。大模型七十 b 往上,专家级别,拥有极强的知识储备和复杂推理能力,能处理多部思考任务。 而我们平常用的豆包、 deepsea、 伽米奈三等云端模型,基本都是大几百 b 参数量的集群,这远非个人电脑所能企及。 所以回头来看,想要在本地搭载真正强大的模型,硬件门槛确实不低。不过目前模型的迭代速度极快,小儿强的模型正在普及。未来,我们也许不再需要顶级硬件,就能在本地满足绝大多数生活需求。 当然,在条件允许的情况下,更大的显存永远是你本地 ai 体验的第一生产力。

你看,这是昨天一个做短视频的老板找我配的一套本地模型的部署方案。他的要求很直接,不是想学 ai, 也不是为了跟风,而是想让 ai 真正进公司干活。那他们公司本身是不缺人的,缺的是效率。因为每天都要做选择题,写脚本,盯数据。事情看起来有人在做,但是最后还是老板自己清 在定内容产出呢,也非常依赖核心员工,一旦离职,结果不堪设想。所以他找我就是想搭一套能真正参与公司运营的本地模型系统。那我给他配的思路很简单,直接按岗位分工来做,因为业务体量大,完全交给单一机器内存贷款是有上限的,所以给他搭配了四 个 agent, 分 工写作。 ceo agent, 每天汇总运营重点,告诉老板今天最该盯什么。运营总监 agent, 负责盯内容流程、项目进度和执行情况。销售总监 agent, 负责客户沟通、辅助方案整理和话术输出。财务总监 agent, 负责经营数据、利润情况和报表统计。那这样搭建好以后,很多原来靠老板自己 问自己催的事情,就可以交给系统来跑。比如说每天输出文案,整理脚本,看押批数据、定发货进度,每天给你推送同行的最新爆款视频, 解去自动拆解结构给你建议。那这一些都是可以结合本地业务流程来做的,而不是单纯装一个机器模型摆在那里。现在越来越多老板找我做这个, 其实原因很简单,不是他们突然懂了 ai, 而是都开始意识到企业后面拼的不是谁先听懂概念,而是谁先把 ai 变成自己的供应链。 所以我现在做的不是那种网上通篇教你如何部署,因为老板不需要学技术,而是直接用好它。根据你的需求,我会帮你选择适合的模型和机器配置,然后在我的模型上跑一遍测试给你看,满意的话我们就定这个方案,不玩虚的,凭结果说话,直接落地,并且给你技术兜底做陪跑, 不用担心说用不好。而且本地模型数据更隐私,毕竟你也不想自己的财务数据公开,或者说训练了很久的爆款直接被同行轻松拿走。所以如果你也想搭建一套落地公司业务的本地模型系统,可以找我。

想在本地部署 openclock 的 同学,这个视频你们跟着一步一步来做,基本上都可以成功的。这里我用 windows 系统来举例啊,如果你们是苹果或者 linux 系统呢,那部署起来会更加简单。其实要在 windows 上面来部署呢,也不是很难, 需要我们手动去安装的东西呢,其实就两个啊,一个 ws l, 还有一个就是 openclock。 你 们在网上面看到那些啊,让你们在 windows 下面呢,又安装 nodekit, 完完全全是多余的啊。 不是说 opencl 不 需要 note 和 get, 而是说装在 windows 下呢,它一点作用都没有,因为我们是在 wsl 下面去跑的,也就是那 windows 下的一个 linux 系统, 你在 windows 里面给它装这么一堆东西, linux 里面还是没有的,到时候呢, opencl 还是要给你再重新装一遍这些东西。所以呢,我们就直接在安装 opencl 的 时候,让它检测到环境需要什么,它就会自动给我们安装了。 就比方你们现在看到的这个终端啊,现在呢,我还是在 windows 目录下面的,我来检测一下 no 的 版本,可以看到这个的版本号呢是二四点幺四点零,这一个呢是我本来就装在 windows 系统下面的,现在呢,我进入一下 wsl 这里呢,大家可以理解成啊,我在 windows 下面呢,进入了一个 linux 的 子系统,然后在这里呢,我同样查看一下 node 版本,可以看到两个的版本号呢,是不一样的,一个是二十二,一个是二十四。 因为到时候我们的 openclock 是 要在 wsl 下去跑的,所以 openclock 它环境需要的 node git 这些呢,都要在 wsl 下面去安装才有用的。 我们给它装在 windows 下面呢,一点用都没有,所以我们不需要额外安装那些,我们直接去安装 w s l, 把这一个装好呢,我们的部署就成功一半了。其他环境需要的那些 node git, 到时候安装 opencloud 的 时候呢,它会自动帮我们安装的。虽然我们不用手动去装这些 node git, 但是呢还是要做一些额外的准备啊,比方科学上网, 学上网这一点非常重要啊,要不然的话,这个过程呢,很有可能你就会因为网络的问题啊,没办法部署成功。其次我们的电脑呢还要做几个设置啊,这一点呢,很少人说到,但是还是挺重要的。首先我们打开任务管理器,在左边呢,进到性能选项卡, 然后看一下右下角啊,它有一个虚拟化啊,我们要保证虚拟化呢是一起用的状态,基本上呢它默认都是一起用的啊,如果说没有起用的话,我们就手动给它起用一下,然后我们通过运行窗口输入这一个命令, 打开 windows 功能,拖到最后,这里面呢有一个适用于 linux 的 windows 子系统,还有虚拟机平台啊,这两个呢,我们都要给它勾选上啊,勾选上之后呢,我们就点确定就可以了, 等他应用我们的更改,然后呢我们就要启动一下我们的电脑大模型,这里呢我就用千问来给大家举例啊,因为他有免费的头梗赠送,所以呢大家可以来到千问这里啊,先注册一个账号。 安装这个之前呢,我们还要对网络进行一下配置,选中我们连接的这个网络啊,右键属性, 现在呢,我们都还不需要配置科学上网啊,就用我们本来的网络设置就可以了,我们就来改一下这个 dns 服务器啊,给他编辑一下, 我们就来改一下 ip 四的 dns 地址,默认呢,他可能是自动获取的,我们给他手动填啊,这个地址你们就按我一样的填就可以了。准备工作做完之后,我们就来打开泡泡消,这里呢,以管理员的身份运行 这里,我们就输入 wsl instyle 这条命令,然后根据它提示的这条命令哈,我们来安装一下,有帮图, 安装完之后呢,它可能新弹出一个窗口啊,也可能在本来的窗口啊,让你新建一个用户名和密码,你就按照提示来输入就可以了。 输入密码这里大家要注意,它是不显示出来的,你就正常输入,确保输入的没有问题就可以了。最后看到有颜色的这一行,带有你创建的用户名的这一行啊,就证明你的友邦图已经安装成功了,也就是那你的 ws l 就 安装成功了。 接下来我们就准备安装 open curl 了,来到 open curl 的 官网,现在呢,我们就要把科学上网配置好了,要不然呢,它会出问题啊。 找到 runs on your machine, 左上角先切换成简体中文,然后呢点安装, 我们就复制它快速安装的这条命令,这个时候就可以打开 wsl 了,没问题,成功进入了 linux 系统,然后把刚才复制的安装 opencloud 的 命令粘贴运行一下,现在它提示我们输入刚才创建的用户密码, 输入完之后它就开始安装了,像这里它会先检测环境需要的东西啊,像这里 node js not found it's already now 啊,它第一步就会把 node 给你装上, 下面就正式安装 open curl, 这里大家可以看到 git 它都给你安装好了,所以通过 wsl 方式呢,我们是没必要在 windows 下面手动来安装这个 node 而 git 的, 你一装还装错地方,甚至呢,装这个东西还装出问题,所以还不如直接给 openclip, 它自己来帮你安装。现在呢,它就帮你安装 openclip 的 二零二六三点幺二版本。 意识到出现 openclip 这个图像,我们 openclip 的 安装呢就已经成功了,接下来呢就做一些简单的配置就可以了,现在问我们是否继续啊,选 yes, 然后呢 crystal 快 速开始。下面这些呢,我们都是保持可以跳过的,先给它跳过啊,否则呢,就选默认,先让它把 open color 给装起来,后面呢再更改配置都可以了。选 skip now 给它跳过啊,选第一个默认也是保持默认啊, select channel 啊, step now 给它跳过。 search provider 也是给它跳过,问我们是否配置 skills no, 后面再配置都可以的,这个 whose 也是给它跳过。 ok, 现在我们就可以打开 open crawl 了,它上面呢有一个地址,我们按着键盘的 ctrl 键,然后点一下它, 他就会打开 openclaw 的 web 页面。这个呢是和 openclaw 的 智能助手聊天的页面,但是因为我们现在还没有接入大模型啊,所以呢,和他聊也没什么用。接下来呢,我们就要去接入千问的大模型,同样打开 power shell, 进入 wsl, 然后运行一下 openclaw config 这条命令,选 local, 然后就 model 这里模型的话我们去选到千问, 现在它是等待千问那边的授权,授权完毕呢,就接入成功了。这里我们可以复制一下这个地址,然后到浏览器去打开, 因为刚才已经让大家注册好千万的账号了,这边呢,直接点确认就授权成功了。其实到现在啊,我们的大模型呢就已经接入成功了, 现在就可以回到 opencloud 的 web 界面了。现在呢,我们和智能助手聊下天呢,只要他能回答我们的问题,就证明我们的大模型呢已经接入成功了, 没有问题,已经可以正常回复了。这样呢,我们的 openclaw 就 部署完成了。这个视频呢,就先到这里啊,下个视频再带大家来把 qq 飞书这些聊天工具呢,接入 openclaw。

二零二六, ai 火了,很多人开始瞎跟风,搞起了本地部署 ai 了,到底什么人需要部署本地 ai, 又部署本地 ai, 需要一怎么一个配置呢?接下来我花三分钟时间,你不用懂任何的技术,你只要跟着去对照,你就能出结果,特别的简单。首先呢,先看看你的需求啊,你为什么用 ai? 记住满足我以下说的两条,你就值得去试一试。本地部署。第一个呢,就是你经常用 ai, 比如说你用它写文案啊,做些小项目啊, 这些你能天天用的上?第二种呢,就是你特别在意隐私,你不想把自己的聊天记录或者工作的文件或者私人的照片你上传到网上,你怕泄露。第三呢,你想离线的时候你也能用, 就没有网的时候,你打开电脑你也能用 ai, 不 依赖网络。第四呢,就是你想长期的省钱,不想一直给 ai 充会员,或者你一次部署终身受用。第五呢,想自己折腾,比如你想改改模型啊,做一个专属自己的 ai 管家呀, 店铺 a a 啊,或者想搭建一个自己的知识库啊,如果你没有满足我以上说的两条,或者你平时只是用来简简单单查查资料,你就不需要往下看了,但是如果你的需求足够的话,接下来就认真听了,本地部署 a a, 它真的不是随便一台电脑它就可以部署的, 其实它是有一定的门槛,但是不高。我分两种情况跟大家说一说。最低的门槛呢,就是跑一些小模型,你凑合能用就行啊。 cpu 最好是近几年主流的英特尔或者是 amd 的 就可以, 不用多高端,但是内存至少是十六个 g 以上,硬盘剩余的空间不得小于五十个 gb, 你 不要安装完了,到时候没有空间了啊。如果你想用的爽啊,用的跑的快啊,我就更推荐什么呢?因为打的独立显卡,比如像 rtx, 三零六零啊,四零六零或者以上的显存至少是在六个 g, 你 的内存至少是三十五个 gb, 这样你用起来就不会卡顿,不管你是用来做图像啊,还是用来写东西,它都非常的流畅。最后,如果有需要部署教程的哈,后台可以发一份完整免费版的攻略给到你。

今天我教你本地部署 deepsea 二一,完全免费,不联网,不吃配置,小白也能一变成功!第一步,安装奥拉玛百度搜索奥拉玛,进入官网后点击 download 进入下载页面,选择对应系统的版本进行下载。下载完成,找到安装包,双击进行安装,默然点击 and so 就 可以了。 按 win 加二弹窗,输入 c、 n、 d, 进入命令框界面输入奥拉玛 v, 有 以上信息显示,则安装成功。第二步,安装 deepsafe 二一模型,返回奥拉玛官网,点击左上角的 models, 选择 deepsafe 二一模型。 模型有多个版本,每个版本对应的内存不一样,大家可以根据自己的内存选择对应的版本。复制模型粘贴,按 enter 键运行,耐心等待下载完成后 显示 success, 则安装成功。第三步,安装 chatbox ai 百度搜索 chatbox ai, 进入官网页面,点击下载 chatbox ai 即可 下载完成。双击文件开始安装,选择自己需要安装到的位置点击安装, 安装完成后会自动打开 chatbox ai 应用,点击设置模型提供方,选择欧拉玛 api 二已对应的版本, 所有需要的应用都安装完毕,现在可以开始和你的专属 dipstick 二仪聊天了。

一分钟教会你部署最近大火的 open claw。 本期视频要说的方法是本地部署,可以直接把 open claw 部署到本地,并且可以使用千万的免费模型,无需担心出现 token 消耗过多的情况,可以说是最经济的部署方法了。话不多说,我们直接开始操作。 首先我们打开带有部署工具的齐油加速器,先点击右上角小方块,找到口令入口,输入口令领会员,然后搜索 openclaw 一 键部署。找到后点击右边的一键部署工具,选择好安装路径和工作路径,然后直接进行一键部署即可。 接着只需要等待十分钟左右, openclaw 就 会自动部署完成了。部署完成后,我们配置一下自己需要的模型,点击开启极速配置即可。配置完成后刷新状态,如果状态是健康,就代表配置完成了。接着我们需要接入大模型千问,点击右边的这个授权, 等待千问授权后登录自己的账号,授权成功后,点击开始对话,就可以和 openclaw 进行对话了。本期视频到此视频我们说说怎么给你的 openclaw 添加技能。

这是我刚收到的苹果新款 macbook neo, 用它养龙虾,你觉得靠不靠谱呢? 今天我就用它手把手教大家如何配置 macos 版的 open core, 本地部署步骤呢,很详细,需要一步一步往下看,保证成功。建议呢,先仔细看一遍,再跟着操作。第一步,安装 get 苹果自己家的开发者站点,仔细看,这里 搜索 command line force for xcode, 根据我们现在的系统版本,新的呢是 xcode。 二十六点三,点击箭头,点击安装包,下载到本地后,打开后按提示安装就可以, 直到安装成功。这个时候呢,我们点击右上角放大镜图标输入终端,打开后输入这串命令,看到版本号就是安装成功了。 第二步,安装 homebrew, 我 们需要在终端输入这一行安装命令,提醒一下。接下去呢,出现类似的命令,记得暂停视频,复制后可以在千问豆包等大模型工具问一下,以免复制的时候识别错误。 输入后呢,按回车,他会自动开始安装 homebrew 了,这里会问我们通过什么下载 homebrew, 我 们可以输入一,也就是清华大学这个敲回车,然后会要求我们需要输入开机密码, 输入后直接按回车就可以,这里会问我们是否删除之前这台机器安装的红不入,直接输入 y 回车,他会帮我们自动备份。再接下来呢,我们还要按一次回车开始安装红不入,安装成功后会需要我们再次输入密码,直接输入后回车就可以。 接下来会让我们选择哪个国内镜像,这里我是直接按他提示输入五回车,然后我们等待他安装完成,直到出现安装成功的提示后,我们先关闭一下终端界面,然后呢,在程序屋重新打开它,让配置生效。 这里有个提醒,如果你是 mac os 二六之前的版本,你呢也可以先按照第二步安装 homebrew, 安装完毕了之后呢,再安装 git 就 比较简单了,直接在现在重新打开的终端里输入 pro install git。 回车后呢,它就会帮你自动安装完成了。 第三步,安装 node js 仔细看 node js 官方界面左下角,点击 macos 安装程序,获取后呢,打开安装包,后面按提示安装,直到安装完成。 第四步,安装 open clone, 再次打开终端,输入这个命令回车就可以了,不用管它。再输入这条命令回车,只要输入正确,依然不用管它。之后我们再输入这行命令, 这个时候他会要求我们输入开机密码,回车后他就开始安装了,我们需要稍微等待一下,看到终端里有类似这样的提示,里面的具体数据呢,我们可能会有不同,不用在意。这说明欧邦克洛安装成功了,但是还没完。 第五步,配置 openclore 配置之前,我们需要先输入这行命令,这个命令的作用呢是删除我们本地已经安装过的飞书插件目录,以免后面引起冲突。输入后按回车就可以。接下来还需要输入 openclore on board, 启动 oppco 初识化配置向导,这个时候你就能够看到龙虾的 logo 了。这个呢,有一个官方风险提示,我们要继续只能选择 yes, 可以 用左箭头键选择按回车确认。这里我们只要保持 quick start 模式,直接回车就可以。 这里就是需要我们选择我们的 oppo colo 准备连接的大模型了,基本上覆盖了目前主流的大模型,如果你已经有创建过某个大模型的 api, 就 可以通过上下箭头键选择插播一个大模型 api 密钥配置。 我这里给没有创建过大模型 api 密钥的小伙伴演示一下我自己在用的 kimi 的 mojito ai api 密钥的创建过程。首先是 kimi 开放平台, 然后呢左侧选择 apikey 管理,之后在右侧点击新建给他取个名字,比如 opencore bot 项目,这里选择一个就可以了,然后点击确定,这个时候呢,我们就可以看到密钥了,这个密钥一定要保护好,不要让人看到,要不然被有心的人拿去的话,他用的就是你的额度了。这里不是点确定,而是点击右侧的这个复制按钮。 好,再次回来,我们可以点击程序屋上的终端,这里我们选择刚刚注册的 kimi, 也就是蒙秀的这个敲回车这个位置呢,我们根据实际情况,我们刚刚是注册的国内的,需要选择点 c n, 这个选择好后回车 这里我们因为是直接复制密钥的,所以直接在 face 的 api key 这里回车就可以。 ok command 加微把我们刚刚复制的密钥直接粘贴回车后,我们保持它默认的这个就可以直接回车。 这里会要求我们选择使用哪个聊天软件来通讯。目前呢,我们可以直接用向下箭头选择到最下面的 skip for now, 这里会涉及一些准备步骤,我们可以在视频后面再配置,选择 skip for now 后回车, 如果跳出设置 provide 后,依然先选择最下面的 skip for now。 先跳过回车,这个时候他会问我们是不是现在需要配置 skills 了,我们可以选择 yes 看一下,你用向下箭头键往下看,每一个的后面呢都有详细的场景说明, 如果有你需要的,可以选中它后敲一下空格键,再敲一下就是取消。这里我们依然先选择 skip for now, 反正后面呢还可以配置的空格键选择再敲。回车, 这里有一系列需要我们配置各种平台的密钥的,我们暂时也都可以先选择 no, 如果你的确已经有密钥了,当然也可以选择 yes, ok, 来到这里 hux, 我们也先用空格键选择 skip for now。 回车,这里会跳出一个窗口,我们先选择允许。然后呢,终端这里会问我们用什么方式起用 boot, 我 的建议是 web ui, 对我们普通用户来说也会更直观一点。选择后,回车,这个时候他会自动打开一个界面,这就是和 oppo cola 的 一个聊天界面了,我们可以先和他聊一下,比如我们可以用中文说一句你好,收到他的回复,呵呵,证明我们的配置已经成功了。 原则上来说,我们的小龙虾呢,已经养殖成功了,但是还有一步更重要的,才能够方便我们用聊天软件随时随地的给他下达干活指令。 也就是呢,即使我们在外面,也可以用手机上的聊天软件给他下指令。那么我们用目前口碑相对更好的飞书来举例。第六步,创建飞书机器人。 首先是飞书开放平台,我们可以准备一个个人账号,登录后点击右上角开发者后台,这里呢,点击创建企业自建应用,给他起一个名字描述,这里也随便填写一下, 选择一个图标,或者呢也可以自定义上传一个图标,然后点击右下角创建,这里我们点击添加机器人,暂时点击左侧的权限管理,点击开通权限 搜索框,这里我们输入 i m 冒号,注意这里的冒号呢,是需要切换到英文输入法的冒号的, 这里我们可以把全部都勾选,点击确认开通权限,这个位置有一个提醒,你看一下应用发布后,当前配置方可生效, 我们需要点击提醒这里的创建版本,这里我们输入版本号,按照他的提示,比如一点零点零更新说明,这里呢,我们也可以写上创始人版本下滑,点击保存,点击确认发布。 ok, 飞书机器人创建完毕。第七步,连接 oppo 克洛和飞书, 依然是在终端输入 open core config 回车,这里选择 local, 这里我们选择 channels 回车,然后是选择默认的这个 config link 回车, 这里呢,我们找到飞书回车这个位置,我们得选择 download from npm 回车安装飞书渠道插件这个位置,选择 yes 回车。稍等片刻后,需要输入飞书的 app, 先按一下回车, 之后再是飞书的开放平台左侧,点击凭证与基础信息,点击 app secret 这里的复制键,再是回到终端 command 加 v 粘贴回车,这个时候还要我们输入 app id, 再次在飞书开放平台点击这里的 app id 下面的复制键,然后呢,再到终端 command 加 v 粘贴回车,这里通讯方式选择 web socket 回车飞书这里我们选择 cn 的 这个就可以回车。 是否允许群聊使用?我的建议是选择下面的 open 回车,下一步可以直接用向下箭头键快速下滑到底部,选择 finished 确认配置完成,这里呢,问我们的是配置私信访问策略,这里需要选择 yes 回车之后这个位置,我们可以直接选择 perry 回车,这个菜单里我们可以选择到底部的 continue 回车。 ok, open core 和我们的飞书正式配置完毕。 最后环节,我们在终端输入 open core get away 启用它。再是在飞书开放平台选择左侧的事件与回调,点击订阅方式,这里的按钮 确认是这个默认的长连接,点击保存这里再是点击添加事件,搜索框里输入接收消息,将接收消息勾选,点击添加按钮,再是点击左侧的权限管理,点击开通权限。 搜索框里呢,输入通讯录,把这个获取通讯录基本信息勾选,点击确认开通权限,再次点击右下角的确认,这里依然会看到版本发布后当前修改方可生效的提醒。我们还是点击创建版本,输入新的版本号,比如一点零点一 更新说明,这里呢,我们可以是添加消息,接收能力,下滑到底部,点击保存,点击确认发布。 第八步,与 open core 对 话,我们可以尝试拿起手机飞书,点击开发者小助手下滑,找到我们前面命名的那个应用,点击打开,我们可以给他也发一句问候,比如你好, 这个时候呢,你会收到这样的一个安全配对提示,不是错误,是为了安全起见生成的配对码, 我们只要复制提示里最下面的这行命令,在终端里再次输入回车, ok, 显示配对完成后,回到手机飞书再给他发你好,很快呢,就能够收到他的回复了, 哦吼,正是在我们 mac 上部署完成了 open core, 同时呢,也可以用手机上的飞书,电脑上的飞书,随时随地的给他下指令了。 这就是完整的 macos open core 本地部署教程了,适用所有的苹果电脑 制作,不容易,有用记得点赞分享。接下去呢,还会有如何配置 skill, 如何省托坑等等的一些必备技巧分享,大家记得持续关注。如果大家还想了解如何一键云部署的话呢,也可以留言,需求多的话,我也来做一条详细的教程。

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

大家好,欢迎回到我的频道,前面几期视频我给大家演示了如何在 v i y 里安装优盘图 linux 处理机,也讲解了如何在优盘图中配置 note g s 和 git 来满足 openclaw 的 运行环境。那这期视频我就来教大家如何在优盘图 linux 操作系统中安装部署 openclaw。 在本期教程里,我们将从 github 下载 openclaw 最新的源代码进行安装。如果你下载不下来,也可以在评论区里留言,我把我下载好的 openclaw github 源代码分享给你。 我现在就在 umber linux v i r 训练机里边,我们打开 firefox, 我 看看 github 好 不好。访问今天为车,今天很幸运可以访问,那我们在这儿搜索一下,在搜索框输入 openclaw 车在这个项目 open club, open club 就是 我们要访问的项目。点击一下,打开它,今天速度还挺快,这是咋回事?我们点击这个绿色的扣按钮,有一个 download zip, 我 们还是下载下来吧,避免安装的时候突然访问不了,挺麻烦的。点击下 download zip 就 开始下载了,下载也很快, 超乎我的想象。好,现在下载好了,那这个应该是最新版本的,如果你要是担心这个最新版本里面有 bug, 因为它是刚刚提交的,有的最近的是三十八分钟内提交的。 那你可以下载这个最新的 release 版,你看这有一个 release open club, 二零二六点三点十三,那最新的 release 版是三月十三号的,我们点击这个链接进去,他就打开了这个页面,那这个页面里边就记录了他都修改了哪些问题。在这最底下有一个 south code, 你 也可以下载这个 最新 release 版的源代码,点击这个链接,它就把最新 release 版这个版本给下载下来了。下载好之后,我们来到这个下载目录,那这两个字库文件都在这了,我先修改一下这个屏幕的分辨率,这样屏幕就文字大一点, 我们看一下这两个版本,那我们还是安装这个三点十三,因为这个是 release 版。右键单机点击提取,解压缩到这个文件夹下,我在我的主文件夹下建立了一个文件夹叫 work, 然后把那个解压缩后的 open class 代码拷贝到这个 work 目录下, 我们右键单机桌面,点击,在终端中打开,打开一个终端窗口,我们再确认一下 node 和 get 的 版本,那 node 是 vr。 二十二点二,十二点一,这个是符合这个要求的,那 get 二点五,一点零,这两个版本是可以的,因为我们从 oppo colo 原代码来安装这个 oppo colo, 它需要 p n p m 这么一个呃命令,所以我们先安装 p n p m, 我 们运行这行命令。 soluo 空格 n p m 空格 install 空格横线 g 空格 p n p m 回车,它需要输入密码, 也就是那个哈喽那个账户的密码,他就开始安装 pmpm 了。好,现在已经安装好了,那我们先运行 npm 杠 v 看一下版本, npm 是 十点九点四,那 pmpm 呢?杠 v, 十点三,二点一, 可以,这个 n p m 和 p n p m 我 们都已经安装好了,那现在我们先来到 open k l 源代码所在的这个目录,我们把这目录地址拷贝一下,回到命令行。好,那现在就到这个目录下了,这个就是这个 open k l 的 原文件。在这个目录下,我们先运行一下这行命令, p n p m install 回车,它就会把依赖的或者需要的那些包全都下载下来,并且安装好。当你看到这些信息, 那就证明需要下载的包都已经安装好了。然后我们再运行另一行命令,就是 pmpm 空格 ui 冒号 build, 这个命令运行很快,当你看到这些信息,就证明这个命令已经运行好了。然后我们还需要运行一下这行命令,也就是 pmpm 空格 build 回车,等这个命令运行好之后,这个 open klo 基本上就安装好了。好,到现在为止, 这个 open colo 就 算安装好了。然后我们还需要运行一下这行命令, p n p m 空格 link, 空格,横线,横线 global, 那 这行命令就会把这个 open colo 这个命令设置为可以直接调用的 c r i 命令, 方便你调用,让它出现一个错误,这个错误是什么原因其实也写清楚了,告诉你怎么改。需要运行 p n p m 空格 set up, 先来创建一下这个 global bin 这个 directory, 那 我们就运行一下, 还要运行 south home hello, 点 best i c 现在已经生效了,现在我们再运行一遍 p n p m 空格令格航线 global, 那 现在这个 openclaw 这个命令就可以直接 在命令行里边调用了。然后我们运行这行命令, openclaw, 空格 unbox, 空格航线航线 install 航线 demo, 那 这行命令就开始设置这个 openclaw, 并且安装后台的守护进程,也就是后台服务, 这个 open 卡拉就会在后台一直运行了。我们看这个命令执行之后,就是这个界面第一个配置界面问你是不是继续,那你就通过这个左右键选择。 yes, 然后按回车,然后 unboxing mode, 就是 是 quick start 按回车 model, 也就是大圆模型,你选择哪个?因为我们使用本地的奥拉玛,所以我们选择奥拉玛,那奥拉玛 base url, 也就是我们这奥拉玛模型的 url 是 多少, 我们现在去看一下。我们在 windows 上打开奥拉玛这个应用程序,点击左上角这个图标,有一个 settings, 点击一下,那在这右边有一个选项叫 expose orama to the network, 这个选项一定要打开,否则奥拉玛是不能够被网络上的其他应用程序访问的。 我们再在 windows 里边打开一个 windows power 或者命令行窗口,运行命令 ip config, 那 我们就可以找到我们这台计算机的 ip 地址, 那我们这 id 是 幺九二点幺六八点二零四点幺,我们在浏览器里边输入这个网址 gdp 幺九二点幺六八点二零四点幺,冒号幺幺四三四,回车之后,如果看到奥拉玛 is running 这个页面,那就证明我们这个奥拉玛是可以通过网络上的其他应用程序来访问的。 我们回到这个 uberto linux 这个虚拟机里边,把这个 alama base url 地址改成幺九二点幺六八点二零四点幺,冒号幺幺四三四,回车会让你选择一下 alama 的 mode 是 cloud 加 local, 那 么选择第一个回车, 然后它有提示让你登录进 alama cloud, 我 们就把这个链接拷贝一下,点击 connect, 连接成功了,我们再回到这个命令行, 他问你是否登录进去了。 yes, 我 们回车。现在你就可以选择这个大语言模型,具体使用哪个,那我们就使用缺少的 kimi 二点五这个云端的模型就可以了。按回车,再让你选择那个 china, 就是 你用哪个聊天软件去管理这个 opencloud。 我 们先不用这个了, 我们会在以后讲,我们选择 skip now 回车,选择第一个路由 search, 因为我没有这个路由 search 的 api key, 所以 路由 search 就 不能使用,但是你可以去到这个网址去获取 ikey, 可以 以后再配置,现在它让你选择 skill, 问你是不是配置 skill, 我 们可以选择 yes 啊,回车用上下键来选择,选中之后按一下空格键,这变量就把它选着了。 回车这个 homebrew 我 们也可以安装一下,选择 yes 回车 google api key, 这个我没有,就选择 no, 全都 选中就可以了。 hook, 这个我们也先 skip 它,就开始安装这个 getaway, 也就是这个网关 getaway 已经装好了,他问你想怎么去跟这个机器人聊天,或者机器人互动,我们就选 open the web ui, 那这样他就会打开一个浏览器,你可以在浏览器里边跟他聊。第一个是 tui, 就是 基于文本的那个用户界面,我们还是用外部 ui, 那 现在当你看到这个界面,就说明这个 oppo cola 已经安装好了,这些信息都还是比较重要的,所以我建议你最好把一些重要的信息保存下来, 比如说这 ctrl u i, 也就是我们刚才不是选择基于 web 来管理这个机器人,所以它有一个链接地址,通过这个地址是可以打开这个管理界面的, 那这个地址我们把它拷贝出来,在这个浏览器里边粘贴进去,那这个就是 open k l o 的 这个控制台,当然这个我都跟他聊过一点了, 所以有这些信息。那我跟他说个你好,他巴拉巴拉说了一大堆,我问他现在都能干些什么?他回答了一大堆,好像感觉他非常能干。这些东西都怎么做?以后我可以给大家做视频,来演示一下他怎么才能做到这些功能。