今天跟大家分享一下如何使用 open core 去设定一个多 agent 的 一个模式。首先呢,我们会通过这条命令去添加一个新的 agent, 那 这个名字是根据我们实际需要进行填写的,像我这边需要去 专门弄一个编程专家,那我就会给他起一个叫 call 点。执行这条命令之后,我们会给这个 agent 单独配一个工作空间,就是每个 agent 的 它的工作空间是独立的,它是互不干扰的。 那接下来会给他配一个模型,我这边先用的一个模型进行一个测试,然后接下来就会给它配一个通道,那我这边是采用飞速的方式进行接入的,配置完之后,他在一整台这边就会多了一个叫 call 点了,那除了主规划之外,就是我们这个 call 点就是我们新增的一个 a 整台, 然后在 open curl 的 这个配置文件里面,它这边也会新增相关的配置,然后在这边那 agent 它这边有个,它这边有个 list, 那 这边有个主绘画的一个 agent, 那 这个 call 点是我们新增的一个 agent, 那 配置完之后我们就要去设定这个 agent, agent 一个人格,那我我这边会通过 ai 的 方式来进行一个输出,这个这部分就不用我们自己去设定了,我们就提出我们需求,让它进行一个修改就可以了。 那我这边的提示词是这样写的,我会让他去艾特这篇文章,然后让他了解就是每个 agent 需要 包含的有哪些内容。那这篇文章是在这个网站这边去的,就是每个 agent 它有包含了几个文件,像 agent 点 md, 其实一些操作指令告诉 ai 应该怎么做,那 so 点 md 就是 ai 的 一个 灵魂。告诉 ai 他 是谁? user 就是 我们用户,我们自己用户是谁? i don't care 是 ai 的 一些基本身份, toos 是 一些工具,就是 ai 使用的一些 skill。 那 may may 点 d 是 一些长期需要记忆的,那然后下面有一篇的目录,这个是用来做短期记忆的,每天都会做一个总结。 那这边都有介绍每部分需要编辑的规则是怎样的。那我们看一下我们这边 ai 帮我们实现怎么样呢? 那他就会给出这个基本身份是名字叫 cloud code, 资深前端的软件工程师, ai 助手。前端啊,即 open core, 它的一个定位是把需求变成可维护、可测试的交互。一个软件部分都是 ai 帮我们生成的。那我们来看下一个文件,这个是 ai 的 灵魂, 那现在我们看下一个就是它的 agent, 我 们继续 那用户的画像,说的就是我,我看一下,这个可能比较重要,这是为了更好的写作,不是为了收集隐私,不要记入敏感信息。那基本信息,我叫 oliver, 那 时间就是北京时间, 这是心跳的一个轨迹,周期性的一个工作,我们不需要心跳检查,把本电流空气的起动时保持最小,以免脱口干纹。我们先这样弄,然后要在人格里想画出来,就主要要记住这样 看一下,然后这个 让他再调整一个版本,我们采用飞书测试一下,我们来问一下他,你好,你是谁?我这个需要授权一下。 好像没起来哦,我们重启一下服务,我刚开始可能忘记重启了,再重启一下。 ok, 我 们再测试一下 哦,感受到配置完那个 agent 之后,需要那个重启一下服务。 那另外关于这几个这几个文件的一个介绍,我们在这个网站这边是有个详细的介绍,就是打造 ai 的 一个人格,它有介绍工工作空间一些文件的作用,大家有需要的话可以私信我,我分享给大家,今天分享到这边,谢谢大家。
粉丝59获赞511

兄弟们,上期教大家怎么在 nas 里面一键部署 openclaw, 以及怎么进入控制中心,以及目前默认使用的大模型是什么?那就有好兄弟要问了,我就不爱用免费的,我就爱用收费的,收费越贵我越开心,怎么办呢?好办,在配置里啊,找到 models, 点击第四个 model providers, 第一行呢,有个 enter, 点它到了下面这里啊,有个 customer 杠一名字,你可以随便改啊。 model provider api adapter 这里啊,选择付费大模型对应兼容的接口协议工具,然后在这里输入你付费大模型的 api key base url 啊,这里输入你的套餐专属连接,然后呢,在这里点击 add。 api, 同样选择付费大模型对应兼容的接口协议工具啊。 id 这里点击 add。 如果你的付费大模型指的是文本和深度思考啊,那就选择 text。 如果这是文本深度思考和视觉啊,那就再点一下 add, 选择 image 名字这里呢,就随便填写一下。然后呢,将 resending 打开,然后回到聊天啊,检查一下模型状态,输入你现在有哪些模型,看它的回复后啊,输入切换到 ok, 你 的收费模型就切换好了。为什么不输入给他,让他自己配着呢?因为这个模型啊,他可能有一点傻,他不一定会按照你的要求去输入你想要配置的模型 id, 可能会自动调用免费的 id, 然后呢,就导致小龙虾直接崩溃。那如果模型设置错了,小龙虾崩溃了怎么办呢?哎,别急,下期告诉你。

登录官方地址, win 加二,然后输入 power shell, 找到安装命令,复制粘贴进 power shell, 回车执行后开始等待。 放心, node 安装成功,开始配置。方向键选 yes, 选 quick start, 建议选择即将使用或者正在使用模型选择,跳过以后后续不会生成 api 文件,会复杂一点。 这里我用的 minimax, 我 选择一下,选择对应模型型号, 这里可以配置连接软件,后续也可以配置先跳过 用于搜索的模型选择,我这里跳过 是否安装技能,后续再安装。 建议选择 command logger, 方便查错 session memory 保持对话记忆。空格键选择回车确认。 最后一步选择 open library, 龙虾就安装完成了。 因为我没有前面输入 key, 所以 这里你可以直接告诉龙虾你的 key 进行配置。 等待龙虾自己配置一下, 龙虾表示已经配置完成, 整体安装结束,测试一下 搞定。

装了一堆 scares, 配了半天龙虾,干活还是稀烂,那大概率呢,不是模型的问题,是你这两件事没有做。第二,先问他一句话, 目前你有哪些 scares? 有 哪些是需要配置的?如果需要配置,请告诉我具体的步骤, 然后他就会把这些情况告诉你。很多朋友呢,装了一大堆 skill, 但是发现龙虾干活还是不给力,有时候啊,就是你压根都没有配置和启动。第二呢,就是去配置 md 文件啊。 md 文件比较核心的是有三个,分别是 so 点 md, agent 点 md, user 点 md。 它们不是什么高级设置,也不需要你懂代码。但一旦配置好,你会明显感觉到你的龙虾完全变了。先看 so 点 md 啊,顾名思义啊,就是龙虾的灵魂。 他定义的呢,不是龙虾能做什么,而是龙虾的说话风格,处事原则,遇到模糊情况时的一个判断方式。 甚至呢,他被允不允许有自己的观点,他是整个框架里最底层的文件,影响 open core 所有行为的底色。也正因为如此啊, open core 默认是已经给他了一套人格模板的,可以直接问他, 看一下你的搜点 md, 他 会把当前文件的内容读给你。你会发现啊,默认模板写的东西不能说不对吧,但太通用,太空泛了,而且啊,没有立场。 所以呢,我们可以根据我们想要的,让他写的更针对一些,能更适合来当我们的 ai 搭档。比如,可以直接让他需要运用第一性原理去思考 速度及优势。完成比完美重要,发布比打磨重要。结论永远在第一句, 任务完成后呢,主动给出一条最重要的改进建议,只说一条,还有不要等着被问,有判断就说。但每次呢,只说最重要的一件事,不要一次输出五条建议。 ok, 那 写完后,我们就可以输入,根据以下内容更改 cdmd, 然后复制就可以了。 当然,这个 md 文件呢,并不是这样一成不变的,而是在使用的过程中呢,慢慢调整成最适合你自己的。那如果说受点 md 呢,是关于他的,那么 user 点 md 呢,就是关于你的, 这是比较容易忽视的,但又是应该第一天就需要去完善的文件,它记录的是你这个真实的人, 你的基本信息啊,职业背景是什么,现在在做什么项目啊,你的工作偏好,以及一些重要提醒。那看起来很简单,但这些信息是龙虾每次启动都会独取的背景底色。 没有他,龙虾就会对你一无所知啊。每次对话他都像第一次见你,你得重新解释背景,重新说明偏好,重新建立语境。 有了它,龙虾就知道你在做什么,知道怎么跟你说话,知道哪些事情,不用反复确认。最后,这个 agent 点 md 呢,是相当于龙虾的工作说明书,它解决的问题是非常实际的,就是每次启动的时候应该按什么顺序做什么事,记忆管理的规范是什么 工具调用的逻辑,以及任务的执行边界和规范。总结呢,就是先立规矩,再谈干活。好了,希望这些对你使用小龙虾会有所帮助哦!

open club 整挺火,后台私信主要关注两个问题,一,小龙虾是什么?二,怎么安装?因为我和我的关注者都不是什么 ai 专家,大多可能是因为小龙虾很火比较好奇,我就言简意赅了,小龙虾不是什么新的 ai 模型, 他是一个利用 ai 的 工具。如果你不给小龙虾分配模型啊,他是连聊天都没法聊的。如果给了他模型,那就厉害了,他可以读写操作你电脑上的所有文件,甚至接入其他程序的接口,操作这些程序,帮助你工作好了。第二个问题, openclaw 怎么装呢?上个月底一个上海粉丝啊,花了五百块装 openclaw, 离谱。 其实官方是有脚本的,安装起来并不麻烦,但是网上的教程却存在不同的安装方式的 原声安装和类似于虚拟机的 wsl 安装。这里各位不要被这个说法迷惑了,好像虚拟机就不太专业,不太灵活。实际上呢, windows 的 原声安装受制于安全策略,装好之后的 opencll 权限仅限于一个指定的文件夹, 反而是 wsl, 你 可以理解成微软的官方虚拟机啊,它的权限是可以控制你整台电脑的,这样才可以真正帮助你工作。而且后面小龙虾玩够了,你只要把这个 wsl 卸载, 电脑还是干干净净的,不像原生的安装方式啊,需要手动清理很多垃圾。第二个不同呢,就是接入方式的不同。如果你已经在电脑上部署了 ai 模型,那就可以直接让小龙虾调用,完全免费。但是这个工作效率嘛, 受限于你的电脑配置,像我这台电脑,真实体验下来并不好。而第二种方式是使用像千问呢, deepsea 这些官方提供的 a p i, 就是 你坐在家里,让他们的云服务器给你跑 ai 模型,这个体验就太爽了,缺点就是需要付费。当然喽,每家都是有免费额度的, 你可以挨个注册嘛,嫖完了所有的免费额度,再决定要不要付费。所以呢,我这里的安装教程就是 windows wsl 安装加上云端模型的接入。安装步骤拢共分三步,第一步,环境安装。先安装 wsl 搜索框,输入 power shell, 右键管理员运行, 输入 wsl install 回车,等待安装完成重启。 重启之后进行 linux 的 安装,再次 power shell, 输入 wsl install 乌班图二十四点零四这个版本回车。 安装完成后会提示设置 linux 账号,可以直接回车,然后设置 linux 密码,这里它不会显示你输入的字母,你就自信地输入简单的密码,然后回车并再次确认输入密码。 再回车之后,会发现命令符变成绿色和蓝色了,说明我们已经进入 linux 虚拟机了。第一步我们的环境就配置好了。第二步就是 open color 主体了,直接在命令框输入回车,等待完成, 直到出现黄色字体,就表示这个炙手可热的 openclaw 已经完成安装了。紧接着最后一步,配置 openclaw, 控制方向键向左回车回车。到了选择 ai 模型这一步,我选择用千万来做示范,控制方向键向下找到千万并回车, 选中弹出的网页链接, ctrl 加 c 复制并粘贴到浏览器,登录千万账号。这一步的意思是告诉千万允许 open color 调用它的模型,如果没有账号呢,咱就注册一个。确定授权以后,回到 open share 的 界面,这里也同时得到了响应键盘回车 配置技能。这一步,选择下面的 skip 跳过,然后继续选择 skip 跳过,一路选 no。 到了这一步,把除了 skip 之外的四个选项用空格键全部选上,按回车确定。最后一步,选择第一个回车, openclaw 也部署完成了,我们已经可以和他交流了,教程也结束了,更多的高阶功能需要安装一些额外的 skill, 这个就靠你自己摸索了。当然了,你也可以直接问你的 openclaw。

这只视频是小白安装 openclaw 这只龙虾的教程,带你一次性搞定安装配置、接入 ai 模型等必要流程。没有代码基础也没有关系,我会把每一步都拆解给你。 opencloud 是 一款能在你本地电脑二十四小时不间断自主运行的 ai 智能体。它由 peter stacker 采用 tabscript 开发,目前还获得了 opencloud 的 官方认可与支持,并作为开源项目进行扶持。安装 opencloud 第一步就是进入它的快速开始页面, 复制官方指令并黏贴到终端执行。整个过程呢大概需要一到两分钟。安装结束后呢,我们就可以进行快速配置,让它顺利启动。如果你是初次使用的,我更推荐直接采取快速开始模式,操作会更简单。 接下来需要为它对接 ai 模型,比如 open ai 的 或者 astropack 的 都可以。我这里以 astropack 为例,使用它的 api key 来完成配置。进入 cloud 的 开发者平台,点击开始构建创建并获取 api key。 记得给密钥设置一个标签,比如命名为 open cloud, 再把密钥复制黏贴回终端里对应的 ethopic api key 输入栏。之后,你还可以选择具体使用的模型。我这里呢选的是 cloud office for。 不 过要提醒一下, opencloud 调用模型的频率是非常高的,使用成本呢可能会迅速增加, token 会烧得很快。 完成模型配置后呢,你还可以设置与 opencloud 通讯渠道,比如 telegram、 whatsapp, 还有就是 skill 配置,包括谷歌地图、 nano banana、 notion 或者 openeye 深层图片等拓展功能。 这里就先不配置占据略过优先,保证系统能正常运行起来,下一期视频会逐步完善更新给大家的。 下面的基础配置都完成后,就到了最后一步选择,你可以通过终端直接使用 openclaw, 也可以选择网页 ui 界面操作, 如果用终端模式,就能在这里直接与它对话了。而我在演示中选择的是网页 ui 会跳转到带画指令的页面,你可以像使用拆 gpt 一 样,轻松便捷的与 openclaw 进行交互。

首先呢打开 openmate 平台,这是一个网站,这个网址在这里。进来之后呢,先介绍自己,右侧可以选择学习的模式,不想动手设置的话,直接选择自动生成就可以了,系统会自动搭配两个角色陪你一起上课。 好,我们选择自动生成,那么平台呢,还有互动讨论设置,你可以根据自己的需求选择讨论内容多一点或者少一点,我们这里先选择少一点最大讨论人数。接下来还可以选择上课的语音的音色,有多种可以选择,还能够视频效果,选一个自己听着舒服的就行,同时也支持切换语言,能开启联网功能。 英文,英文可以切换,英文可以选择开和不开,如果你有现成的 pdf 文件,也可以在这里点击上传,没有点没关系,直接输入你想学的内容就行,比如我现在输入小学数学简易方程的方程的全部知识点,梳理和练习。 接下来我们点进入课堂,系统就会自动生成课堂的角色或教师,李老师、助教,小助包括三名学生,一般都会搭配两到三名不同基础的同学,一位基础薄弱,一位基础较好,不同的角色呢,会互相配合,帮你更好的理解知识。角色分配好了以后呢,平台会自动的生成教学大纲和教学内容,还会生成生动的语音讲解。我们先来看第一讲的内容, 同学们好,很高兴和大家一起探索数学奥秘,我们来看看这里的数学观察。天平保持平衡,说明左盘重量等于右盘重量,如果我们不知道礼物盒的具体重量,可以大方的设它为 x 克,这就是我们常说的未知数。根据平衡关系,我们可以列出这样一个式子, x 加二十等于五十。现在李老师给大家详细分析一下这个概念,大家请看数学上标明的意思,含有未知数的等式叫做方程,这简单的一句话里有两个引标 标错,一、必须是大张旗鼓的写等号,如果没有等号,那顶多算是一个代数,而不能成为方程。二、必须含有未知数。通常我会用字母 x, y 或 a 来表示表盘,你的记忆里可以重点标注一下这两个不可缺。 学习过程,二加三等于四,所以不是方程,而右边 x 加三等于五,既有等号,也会出现一个标准的方程,大家会理解,比如什么是方程,怎样找等量关系,如何正确的接方程等。发言之后呢,老师会给出点评,其他的角色同学也会提出问题,一起来交流学习。 学完之后还有学堂测验,帮你及时的巩固知识点。整个流程下来,不用自己找资料做规划, open mic 直接帮你打造了一个沉浸式的 ai 互动课堂,自学的效率非常高。 现在这个关于简易方程的内容就全部生成完了。那么这个时候呢,我们就可以在右上角的导出 pptx 这个选项,把档案或是互动式页面的这个资源包下载下来,我们现在导出这个 pptx, 那 么打开文件就可以得到一份完整的课堂的 pptx 版,非常的方便。 openmind 的 功能不仅限于这一点,它还可以安装在你的龙虾里面,作为一个 skill, 如果你有现成的学习资料,例如我想学习一本电子书,那么你就可以选择在这里上传 pdf 文档。例如,我想要学习穷爸爸富爸爸这一本书,我就把它上传上去。我想生成一个适合小学生学习的课堂,我就可以这样写提示词,生成适合小学生学习的 课堂,我就点进入课堂,我就会得到一个这样的,这是我之前生成好的课堂,这是课堂的内容,完整度还是非常高的,想要体验智能学习的赶紧去试试吧!

哈喽哈喽,我是大海,很高兴和大家见面了,今天咱们来讲一个 open 可乐小龙虾的替代方案,它呢比小龙虾安装更简单,使用更方便,而且很有可能在你本地配置不高的情况下,速度还更快, 程序员朋友肯定一眼就认出来了,咱们使用的是 vs code 的 客户端,搭配了一个 clean 的 插件,然后咱们大模型呢,使用的是咱们本地的欧拉玛跑的大模型,而且今天大海将给大家介绍一个新的一个模型啊, 为什么说这套方案它能够替代小龙虾呢?小龙虾之所以厉害呢,主要是取决于两个,一个是它的长上下纹,带有记忆功能,还有就是它能够对工具进行一个调用, 但是呢龙虾它安装起来是比较复杂的,而且如果说咱们本地的这个电脑配置一般的情况下,你开启这个龙虾就要有一个 linux 的 环境,不管是用虚拟机的方案还是 wsl 的 方案,它都会去占用咱们系统的一部分性能。 那么如果说本地电脑配置不高的情况下,我们还要跑本地大模型,那么龙虾他对话起来就会非常的卡顿了。那今天给大家介绍的这种方案 vs code 呢,本身他是程序员去敲代码的这样一个工具,但是只要你给他加装了一个 clean 这种能够调用工具的 插件上去的话,那你也可以直接实现和自己的这个编程工具进行对话,不管是日常我们的文档管理啊,你和他对话,让他帮你完成一些事情啊,联网搜索呀, 还有包括我们的一些 i m c p 的 工具啊,使用浏览器啊,甚至说拿这个工具帮我们制作一些自己本地的软件,或者说帮我们进行一些网站开发,它都可能能力比那个 openclo 还更强,因为它日常是我们程序员朋友去使用的一个工具,相信程序员给自己设计的这个东西一定是差不了的。 这个本地模型呢,依旧是千万三点五的一个量化版本,但是这个量化版本呢,它强就强在它是用这个 cloud 四点六 opus 去蒸馏过的,所以它在逻辑推理方面以及这个工具调用方面都是比较强的, 而且在奥拉玛的官方可以下载各种量化版本。我这里呢今天使用的是一个四 b, 你 可以看到它总大小只有五点三 g, 我 可以轻松的把它装进我的显卡当中,哎,这样跑的速度也是可以的,可以接受的。 我们直接来让他帮我们执行一个任务,执行完任务之后,我们再给大家详细的讲如何的安装我们的软件插件,以及如何配置我们的模型接口。好吧,我这里直接给他一个开发软件的小人物,相信这个难度呢,对于咱们本地模型来说还是有点的。 帮我生成一个桌面小软件,点击开启一个秒表计时器,鼠标的左键呢,开始计时,右键啊,这个时间暂停。我们把这个命令呢发送给他, 可以看到他的第一个动作就是去连接我们本地的那个欧拉玛,我们可以看到他开始分析了,用户需要一个桌面秒表应用功能,包括左键开始计时,右键暂停。我将使用 python 的 什么库来创建一个图形界面应用,你会看到他会有任务分解这样的过程,对吧? 创建 python 秒表应用,实现左键开始计时功能,实现右键暂停功能,显示计时时间,添加重置功能,测试应用。然后接下来呢,他将创建一个基于他的应用好,他开始了,然后呢, 它会自动去安装需要的一些插件和环境,这个就是这个 cleen 的 强大之处,它和小龙虾其实是 差不多相同的,但是你会看到它是基于 vs code 的 这样一个编程的 id 工具来实现功能的,所以它在安全方面做的是很好的。同时呢, 他在系统级的去调用一些工具的时候,也是比小龙虾可能更得心应手。比如说去创建文件,去修改文件,可以看到他这里的对应的文件的代码已经生成了,但是他需要我们去批准,他的一个动作就是批准他要创建一个新文件,可以看到这就是我们这个 ms code 加上 clean, 它对于安全的一个管控,一些关键性的,比如说关于文件增加修改这些东西,它都会来询问我们的意见,那我们什么都不用做,只需要点击,哎,是不是要保存,是不是要去执行就行了?点击保存 好,你会发现他这里说这个 u v 已经安装了,但必须重启 vs code, 他 才能实现。他的这个功能可令他自己想到了一个对策,就是说,呃,不需要说是去安装 python 环境了,他给咱们创建一个这个 html 的 界面,一个网页端的桌面程序,也能实现对应的功能,那我们看他接下来要怎么操作啊? 好,他又来让我们创建一个新文件,这时候我们点击保存,其实我已经能在桌面上看到这个文件了啊, stopwatch 啊,就是秒表啊,他说文件已经创建成功,现在用浏览器打开测试,然后呢,他说是这个需要我去批准浏览器的权限,我批准,如果说你不想点这么多的这个批准的话,你可以展开这个 批准这管理这里。哎,把他想要的权限去给他勾上,他就不会每次都让你来批准,比如说我这里把使用浏览器以及编辑项目文件都给他勾上,大家要注意,这里的读取所有文件和编辑所有文件是不能随便去勾的啊,有可能对你其他的文件造成问题,但是去编辑和读取项目文件是没有问题的。 好,这里我们也不等他自己去测试了,我们来手动测试一下,我直接去开启这个对应的秒表,按照咱们的这个规则是左键开始, 然后右键暂停,没问题,然后还能重置。这个整体的功能是实现了,而且样式大海也非常的喜欢,而且大海也正需要这样一个应用,但是呢,我还是想要一个桌面级的应用,所以这里呢,我给他关闭,我跟他说 python 已经安装好了,请帮我生成桌面用的程序, 你看他要制定了新的计划。针对我这个安排,他说用户 python 已经安装好了,让我重新生成桌面程序,我需要一检查 tony 的 这个 keep 是 否可用,然后呢?来安装一个依赖,然后再运行秒表程序。好,所有的任务终于已经跑完了,我们来看一下它这个实际的效果怎么样啊?桌面上出现了很多文件,我们就点最后这个启动秒表啊,确实是出来了啊,然后左键点击 右键暂停功能也没问题,当然我觉得这个界面也太丑了,对吧,不如这个 html 写出来的还是比较难的啊,不过幸好是两个都能用, 那么相信看到这里呢,大家已经能体会到这套工具加上本地大模型的强大之处,那么接下来大家就跟上大海的脚步,我们一起来安装这套方案。首先呢是去 vs code 的 官网下载它的安装包,我们这里直接点击 download for windows。 好, 这个速度也是非常快,下载好了之后呢,我们直接打开文件, 同意此协议。下一步,那这个地方可以自由的选择你安装的位置,下一步,下一步,那这里可以自由的选择是否把这个 code 添加到上下文菜单啊?我这里不添加,我点击下一步, 然后接下来我们点击安装,然后这样呢我们就完成了 vs code 的 安装,我们点击完成在打开的这个界面呢,他默认是一个英文的界面,如果说你习惯用中文的话,点击左面的插件市场,我们在这里搜索一个中文,那这里我们可以看到一个中文简体的语言包,我们去给他安装 啊,然后他右下角就会弹出来,改变成中文,然后重启,我们点击好,这时候我们打开整个界面,就变成一个中文界面,接下来咱们依旧点击左侧的这个扩展, 然后呢我们在里头搜索咱们今天要用的卡拉 ok, 他 会给我们非常多的版本啊,如果说你是习惯看英文界面的话,你就安装这个原版,下载量是最最大的,如果说你喜欢中文的话呢,咱们下载量还挺大的。卡拉 ok, 我 们安装 信任发布者和安装好,很快他就安装好了,然后呢我们可以把这个窗口往右拖一拖,对吧?啊,这个地方点击标记已完成,这里呢我们可以选择前按模型,也可以选择自带 api 的 密钥。如果说你是用的云端大模型啊,你有比如说 到的四点五或者 g p t 五等,你就继续,对吧?这里我们使用自己安装的大模型,我们就自带 api 密钥继续。然后 api 的 提供商呢,我们这里选择 open ai 的 啊,也就是兼容 open ai 格式的啊,接下来呢就输入基础 u i l 和兼容的 api 密钥,我们就可以继续开始使用了。 如果你还不知道如何去安装这些软件啊,不花一分钱在咱们的本地安装大模型来调用的朋友呢,去看大海之前的这些视频补一下课啊,相信呢,你也能学会如何的去安装。那么接下来呢,我就先从奥拉玛开始,首先打开本地的奥拉玛,然后这里呢,我去选择一个本地已经安装好的模型,打开了之后我们可以先在这尝试 和他对话啊,看正不正常,可以看到他这个对话方式,他是有一个思考过程的,对吧?然后接下来呢,我们是去设置一下对应的这个欧拉玛,这里我们去把他的上下文长度给他加到一百二十八 k。 然后接下来呢,我们去浏览器访问一下欧拉玛的本地的服务, local host 单口号呢是幺四三四,哎,可以看到我老马一直装,你没问题。好,接下来呢,咱们再给他后头加个斜杠 v 一, 然后继续斜杠啊 models, 哎,这个时候我们就可以得到对应的这个 id 啊,这个是一会我们要填的。好,接下来呢我们就把这个 到 v 一 这里啊,不要加 models 复制起来,然后到我们刚才的这个位置啊,基础输入的 url 啊,这个 v 一, 然后呢 a p i 这里我们可以随便输,比如说我这里输一二三模型的 id 呢,就是咱们这里已经打印出来 复制粘贴,然后这时候我们点击继续啊,把这个地方擦掉,然后呢我们来试一下和他打个招呼。嗨,你好,那奥拉玛这里呢,我们可以关掉这个窗口,只要他在后台运行就可以了。 好,只要他正确的回复了你的要求。你好,在的,我有什么可以帮助你?我可以帮你干嘛干嘛干嘛。那么咱们这个设置呢就已经好了,你可以开始和他对话了。 那么咱们今天视频到这里就结束了,相信大家也能通过自己本地的 vs code 加上 client 这个很好用的插件来实现我们本地大模型的调用,去帮助我们真正的解决一些实际的生产问题。好吧,那咱们下期节目再见,拜拜。拜拜。

我们现在来看这个奥特曼啊,现在已经登录进去了,登进之后我们看一下我输了岳阳楼记,当然他在开始加载的时候比较慢,因为他要生成很多的 ppt, 然后还要生成很多 a 帧,然后这就是我们看一下岳阳楼记它相关的内容。同学们好,欢迎来到今天的语文课堂, 今天我们要一同走进北宋文学史上一座巍峨的峰碑岳阳楼记。这篇文章不仅以词藻优美著称,更因其深邃的政治抱负,在千年间积累了无数人人之事。 首先让我们认识这篇文章的作者范仲淹,他不仅是杰出的文学家,更 是北宋著名的政治家,诗人,尊称他是范文正公。所以我们可能在本地部,在那时候你可能需要文政很多,是对一名文政比较偏道德与事业上的大模型来操作。这个关于这篇文章的创作气息其实非常有趣。当时范仲淹的好友唐子京被贬八零军 后重修了岳阳楼,他特意寄来一幅洞庭秋晚图,很简单,这就有了我们今天的学习和实地的去看了篇。而这篇文章正是大家耳熟能详的这句 先天下之忧而忧,后天下之忧。我们现在在登录过程中也是消耗了个人的政治报表啊,也是消耗了我们 tiktok 的, 消耗了很多 tiktok, 所以 我们需要各位去这个注册一些 tiktok 啊,现在是整个讨论的环节,看我们可以进行讨论, 我们看一下啊, 好,这是整个 off-mark, 它能这个使用的一些模型啊。首先它会有一个大圆模型,大圆模型它推荐了几个 openai, 当时我们国内用不了,这以上都用不了的啊, deepseek, 这个是可以用的,还有这个同一千万 kimi mini max, 智普 ai 也可以用,然后豆包这个我们国内也可以去用。然后它的这个文本转语的 tds, 这个大模型呢,它推荐的是 openai, 然后智普 ai t t 然后那个同一千万的 tds mini max, 因为我们在用的时候也是建议各位用我们的那个阿里的通用千问,还有这个火山的豆包模型,这两个搭配去用。第三个是 asr 语音识别,语音识别这块其实做的比较好的还是通用千问,然后它这里边有个独特是 pdf 的 处理 啊,那 pdf 这个就叫 user user pdf 啊。呃,这两个 pdf 呢,它其实是国内的团队做的, 这两个呢也是需要我们进行一个登录注册,然后这两个呢都会给我们一些免费的这个 token 去使用。这块是因为如果你没有这两个 pdf 处理的话,你刚才看到那个文件啊,它生成不了这两个文件,是这两个大模型是作为这个 pdf 解析和内容提取的。 另外我们有很多的内容是需要图像生成的。目前呢,国内在这个商用一块做的比较好的是火山的啊, city dream, city dream 的 这个,它的这个图像生成非常不错,当然你可以可以用同一千万的图像生成啊, minmax 也不错 啊,在视频的深沉方面,我们看一下视频的深沉方面呢,肯定现在是首选的 c d s, c d s, 现在他们测着二点零这个东西啊,他的深沉呢,我们沟通了一下,他们的这个 成功概率在百分之六十,就是在二点零百分之六十之前,一点五的话在百分之五十到五十左右,他现在二点零已经上了百分之六十,这块就非常不错,就是不会出现人物失真。 然后还有就是微粒 max, 这个也是可以做视频生成的,所以我们在用这个 open max 的 时候,就是建议各位啊,建议各位用阿里的通用千问,还有这个火山的豆包的模型,用这两个 来进行一个搭配使用。这里边它还有一个网络搜索,因为这些你要学的内容,它其实在网上找出相关的内容,然后整理的, 所以就用塔维尔这个搜索,这个搜索非常不错,但是这个也是需要进行一个注册啊,获取他的 api k 也是有一定的免费流量的。这后面的这个代理配置因为都在国内,我们用的都是国内大模型,所以不需要进行一个代理配置啊。这是关于这个你如果要去布置这个 oppo max 的 使用权限哦,需要他的 api k, 那如果你所以这个东西其实他对这个 talkin 的 消耗也是比较多的,所以很多人现在在做 talkin 的 这个生意,这也是我们研发出来的一个新的生意吧。好了,今天关于 open mac 的 使用啊,我们到这里结束,后期我们再 找时间跟各位具体讲如何去部署 open mac 啊,这个清华大学的开研项目,个人觉得用了段时间就发现相当不错。

前天我安装了 alama 本地大模型, 今天呢,就想在本地安装 open 可乐,让 open 可乐调用这个 alama 的 本地大模型。 首先呢,我用这个豆包大模型,然后问他一下怎么在本地安装 apple, 在 mac 电脑上面安装, 然后我就按照他的指令一步一步来安装。 由于是新电脑,所以不能直接复制拉取 opencloud 的 这个命令,先打开这个终端 看。我一开始直接复制这个命令拉取的话,它就出错了,它说缺少这个运行的环境, 所以根据它的提示,我就先安装了一个 pro 这个命令的环境。 把这个环境安装好了以后呢,还要安装这个 node js 这一个环境,这两个环境都安,安装好了以后才能安装这个 opencool, 否则的话是装不上去的。 现在反正都有大模型,有什么问题的话,你直接把这一个问题啊贴到这个大模型里面,然后问他下一步该怎么办就可以了。 用 blueprint 测试好。 blueprint 已经安装好了, 那现在安装的是 node js u d g s 已经安装成功,这时候就可以安装 oppo nano, 将 oppo nano 从原代码拉取下来, 将命令行输入到终端里面去, 这时候提醒我说镜像有问题,所以还是直接拉吧。 本来想它能不能快一点,通过镜像能不能快一点,但是镜像不行,这下面就按部就班的,根据它的提示,能够我们一步一步来安装 openclaw。 安装 openclaw 的 时候先选择呃,这个快速安装模式, 现在这个 open class 是 最新的,二零二六点四点九, 那 quick start 这个模式,我们选择 quick start, 下面配置飞速机器人, 这个飞速机器人的,呃,应用权限,这个上面要仔细一点, 我这个 oppo 可乐安装好了以后一直连不上飞速,后来查找原因,嗯,就是这个飞速机器人的这个应用权限没有配置好, 这种还要记得发布,不发布的话它也是不行的,就是音乐没有声,音效好。这个 opencloud 已经启动了, 等 oppo 可乐启动了以后,这时候我连接它的这个本地大模型还是不行。为什么呢?因为这个我连接的一开始连接的是千万三点五二十七 b, 二十七 b 这个大模型呢太慢, 所以它一直在这动, 后来我把它大模型改成千万三点五的九 b, 你 看这个是我连接飞速的时候,连接了好长时间都没连接上,后来还是一步一步排查原因啊,才才找到了。就是它的应用权限里面 没有配置好, 最终那个飞速机器人要和这这一个 opencloud 要进行配对,在飞速机器人里面发一个,你好,它会产生这个配对码,把这个配对码呢粘贴到这个聊天 界面上面去,它会自动的进行配对。那第一步呢,就是要把这个 搭模型要配置好,这个搭模型也花了我很长时间,主要是,嗯,电脑后台开的程序太多了,可能它运行不起来,跑不起来,所以现在更换了一个千万三点五九 b 的, 你看现在界面显示飞速配对成功了, 然后我问他,你用的什么大模型,看看这个模型有没有突出 这个反应。 open color 的 反应还是有点慢啊,这要等一会儿,它不像那个直接和大模型对话, 你看他出来了, 他显示的是饿了吗?千万三点五九 b, 这个模型九 b 参数是千万三点五的这个版本,然后他还告诉我运行的速度有点慢是什么原因, 你看它也出来了,说显存或者内存的限制,其实这个在本地跑这个大模型还是有一些弊端的,除非你的硬件特别好。 好的就这样这个本地的 openclock 和本地大模型就已经安装好了,谢谢。

今天给大家介绍一个 open 可乐和可乐的扣子的绝配神器 cc switch, 这个工具太屌了, get 上狂揽四十 k star, 能实现一键切换各种大模型五大核心功能,让你的工作效率直接翻倍,直接看操作, 我们来看一下它有哪些核心功能。第一个能够同时支持 cloud code、 codex、 gemini、 open code 和 open cloud 五大平台的可持续化管理, 非常厉害。第二个能够支持一键添加 api k, 这里选择大模型的供应商,然后在这里选择相应的 k, 点击添加就可以完成配置,这然后在主界面点击启动,就可以实现这个软件下的 api 的 一键切换,非常方便,包括龙虾的啊。 然后第三种功能就是 skr 的 管理,它支持这个 skr 的 格式化,你看这里是你所有安装的 skr 以及所有的介绍,在这里支持删除,还有添加。 第四个 mcp 的 管理,对于 cloud code 的 这种 ai 编程呢,大家需要外接 mcp, 在 这在这里就可以实现一键托管。 还有第五个,这个是非常有趣的一个功能,就是可视化查看历史对话,在这里可以查看你的所有历史对话,并且支持恢复对话和删除对话,包括龙虾的,还有可捞的扣子的,这个工具非常全面。

今天给大家推荐一款与 openclaw 绝配的效率神器 c c switch, 这款工具在 github 上以狂揽四十 k star, 支持一键切换多种大模型五大核心功能,让工作效率翻倍。第一个,多平台可适化管理,同时支持 cloud code codex、 gemini、 open code 和 openclaw 五大平台。第二个,一键添加 api key, 选择模型供应商,填入 key 即可完成配置,主界面一键起用自由切换。第三个, skill 格式化管理,清晰展示所有已安装 skill 及介绍,支持删除与添加。第四个, m c p 一 键托管 cloud code 等 ai 编程工具,快速接入 m c p 服务。第五个,历史对话格式化,与 open cloud 的 所有记录都可以查看,恢复或者删除功能全面,操作直观,让你的 ai 工作前所未有的顺畅。

今天我们来聊一下如何更换 opencloak 的 大模型,我们在安装完 opencloak 之后,选择配置了那个 opencloak 大 模型,有可能没有选择配置,那么现在如果我们要更换大模型的话,应该怎么来操作?好,我们先看一下当前我们的大模型是什么样子的,我这里的话,那个 opencloak 的 网关是没有随那个计算机启动来启动的, 那么我先来把那个网关给它启动起来,我这里的话通过网页来进行访问我的那个 openclaw。 好, 先打开那个 power shell。 好, 我先来启动网关。 openclaw gate way run 好, 到这里的话,我们的网关启动起来了,那么我们打开浏览器来访问我们的 openclaw。 好,我们的 wifi 口已经打开了,那么我们可以看到那个上面这里我默认的那个大模型的话是 deepsea 的, 那么这里的话是我之前配置过的那个大模型。如果现在我要新增那个其他大模型,或者是更改成其他大模型的话,那么我们也是可以来进行配置的。好,我们先把这个窗口给它最小化。 好,这里的话我们暂时不动它,我们重新打开一个 power show。 好,这里的话我们通过命令来更改那个大模型。 open close config。 好, 敲回车, 好,打开以后看到这个 mod, 这里那么显示的是 deep sec, 那 么当前我们的那个大模型就是这一个,那么接下来的话,我们就开始配置那个新的大模型,那么这里有两个选项,一个的话是那个 local 就是 本地的,然后另外一个是远程的,那么我们配置那个本地的就可以了。敲回车, 好,这里的话我们选择那个 mod, 这里就是上面这个是工作器,然后这个是 mod, 然后我们选择 mod 这里就行了。好,敲回车。 到这一步的话,就跟我们安装那个 openclock 配置的时候的那个选项是一样的了,那么我们这里的话就选择自己要 呃新增或者是改动的那一个大模型就行了,那么这里的话它列出来那个很多那个大模型,如果没有那个的话,我们选择这一项 custom provide, 这里就是自定义的进行配置就行了,那么我这里的话配置那个 kimi, 就是 我已经有那个 tipsick 了,我这里的话要配置这个 kimi 的 这一个大模型,那么我们敲回车, 好,这里的话就根据那个实际的情况,我这里是在那个就是点 c a 上面注册的,那么我们点这个就可以了,那么它的 t 的 话,我刚刚已经注册好了,那么我这里直接拷贝进来就可以了,我直接拷贝进来就是这一个。 好,点一下鼠标右键这个配置的话,跟我们在安装那个 openclo 的 时候的配置是一样的,我们敲回车就可以了。 好,那么它这里的话就有那个就是大模型的选项,就是下面有两项,一项是那个我新增的这个 kimi 二点五的这一个,然后下面的那个是那个 deepsea, 如果我们不显示 deepsea 的 话,我们把那个 关刀往下面移,然后我们敲一下空格,就他那个加号取消了,就表示不要那个大模型了,如果每一项都想保存的话,那么我们就保持它是一个加号的,这样就可以了,那么如果说不要的话,我们就把它取消,就是把那个加号取消就可以了,这个切换的话是通过空格进来进行切换的。好,把它选中 这里的话,我两个都保持就可以了。好,敲回车。好,这个我们往上移一点,如果还要继续那个配置大模型的话,我们选择那个 model 这里如果是不配置的话,我们就选那个 continue, 然后敲回车。好,那么到这里我们就配置完了,我们重启一下网关, open close get away restart。 好, 我们重启一下网关。 好,我们的网关重启好了,那么我们打开那个浏览器,然后我们刷新一下。 好,我们刷新好了,那么我们点一下这里,那么我们的那个 kimi 那 个大模型就已经加载进来了,它是默认的,我们要其他模型的话,我们就选择就行了,就是我们要哪一个模型来进行那个 以那个 openclaw 连接的话,我们选择对应的就行了,那么这个就是在那个 openclaw 里面,我们怎么来更改那个大模型的一个方法。

哈喽,大家好,我是老于,最近有很多粉丝咨询我怎么不适合使用小龙虾,希望能亲身体验一下小龙虾的能力,并能结合自己的工作和业务提升效率。有很多粉丝是完全没有任何 it 基础的小白, ai 的 普及是必然的趋势。 我之后会从小龙虾的部署、大模型的选择配置以及与社交软件的对接几个方面做一个系列教程,希望能够帮助到大家,让每个普通人都能用上小龙虾。请大家持续关注我的作品,分享更多 ai 工具和使用教程。

朋友们注意了,最近超火的 open mac 来了,它是清华大学打造的教育智能体,十分钟就能帮你弄懂各种难题, 手机、平板都能流畅使用。还有很多人不知道怎么下载安装,今天我就手把手教大家。首先点击视频右下角的分享箭头复制链接, 接着打开手机自带的应用商店,打开这个蓝色工具,会自动弹出安装包,进入后找到它,先保存在安装就能正常使用了。

哈喽哈喽,我是大海,很高兴又和大家见面了,昨天呢,大海给大家录制了一个教程,就是在我们本地的这个电脑上去安装我们本地的大模型欧拉玛啊,然后呢再去用我们的虚拟机安装一个 open close, 然后实现我们完全本地化养虾的一个全过程,对吧?不需要偷啃,也不需要花钱, 但是呢,很多朋友反映说这个安装过程还是比较复杂,尤其是安装虚拟机和后面半段,这个安装 open close 啊就云里雾里了,最后可能还是安装不好,那么今天呢,大海就给大家来一个更快速的方法,大海直接把自己的这个 ym 虚拟机昨天安装好的这一套打包成一个压缩包,大家下载下来一解压就能用了,对吧? 当然这个 openclo 这个本地大模型还是要需要大家自己去安装一下,根据自己的实际需求和你的电脑的配置,然后去安装一个属于自己的模型,那么下面这个 openclo 的 安装大家可以直接一步带过了,对吧?我们来看一下今天这个 教程啊,首先呢我们就要安装一个虚拟机,然后呢把这个大海的虚拟机压缩包打开,修改一点点内容,然后咱们直接就给他访问,非常的方便。那首先第一步我们来安装一个 vm 虚拟机啊,这一步如果说已经做了的朋友,你就跳过这一步,直接看第二步,对吧? 大海这里呢去安装一个啊,没有下载的同学呢,你就去这里下载一个,直接去安装这个 vm 虚拟机,它是向下兼容的,如果大家想使用我今天打包的这个程序,你必须版本至少要高于我昨天是十七点六点四,所以大家这个版本至少也是十七点六点四,不够的你就去升级到这个版本, 点击下一步接受下一步。这个地方呢,安装的时候我们自动安装这个对应的程序啊,以保证我们能使用。 然后呢什么什么我们下一步,对吧?其实就是一直下一步就行了,然后我们直接下一步,下一步 安装好,这里已经安装好了,我们点击完成。然后呢我们就开启我们的这个 v m v 二迅疾,开启了之后呢,大家这个地方不要新建,也不要这个打开,对吧?把大海打包的这个迅疾给它下载下来啊,我给大家提供了网盘链接,随便选一个进去下载好, 然后这个下载出来的安装包就是长这个样子,一个无邦图六十四位的 vip 压缩包。然后呢你就自己找自己的固态硬盘,比如说我,那这个盘是固态硬盘的吧?我我新建一个文件夹进去, 我这个压缩包呢,打包是两 g, 解压后是五 g, 所以 说大家最少最少你的那个固态硬盘上要留十 g 到二十 g, 对 吧?去给它用来运行,如果说你想很好的体验的话,至少也得五十 g 左右啊, 这个地方我们直接去给它放进去,放进去之后我们直接给它解压缩,全部解压缩就可以啊,好,解压缩好之后呢,我们就可以直接从我们的这个虚拟机里头去打开虚拟机,找到你刚才解压缩的这个文件夹, 然后呢里头会有一个六十四位文件,我们直接打开它,好,然后你就打开了这个虚拟机,点击虚拟机,然后给它设置,主要是看看大海设置这个四核八 g 你 能不能带动啊?你的电脑的硬件配置比四核八 g 低,你就 把它改的小一点啊,不然太大那个开启不了。接下来就是这个选项,这里呢,我们选到高级,看看他有没有起用这个侧通道缓解的禁用啊,一定要把这个地方勾上好,这个地方勾完成之后,我们就可以直接开启我们的迅疾啊,这个地方弹出了我已移动或者我已复制,你就随便选一个,我选择我已复制。 好,这里我们就已经登录了,对吧?登录名是无邦图,登录的密码是大海增援网,无邦图 密码是大海资源网啊,好,然后这就登录了,对吧?登录了之后呢,我们要去远程连接一下,不然这样操作太麻烦了,你点击上面的虚拟机 s s h, 我 们去连接到 用户名呢,我们还是无绑图。然后呢,我们直接选择连接,然后这里呢?连接的时候他问你 yes no, 你 就 yes, 对 吧? 然后呢, password, 就是 大海资源网,对吧?盲书就可以。好,我们就进入了我对应的这个地方啊,大家进来之后呢,就是如果你要去试用一下,那没问题,如果说你试用了之后感觉不错,你准备长期用的话,大家一定要把自己这个乌帮图系统的那个密码改一下, 这个改密码的命令就是这个搜索 password, 呃,乌帮图,这是改这个乌帮图登录用户 的这个,嗯,登录密码,然后你速度 password, 就是 后头不加用户,不加误绑图,那他改的是这个 root 权限的密码,然后这两个密码都应该改一下,因为这个大海的视频暴露在公网上的,你将来要长期使用你这个密码,别人能访问到啊,这,这不太好,大家还是要去改这个密码的哦,密码现在都是大海资源网。这原程连接了之后呢,咱们就可以把这个地方关掉了,把虚拟机关掉,我们 点击叉,然后让他在后台运行,因为这里我们远程连接了吗?就可以直接去操纵他,然后呢我们去输这个 ipaddr 啊,看一下他的本机地址是多少,右键粘贴进去,回车, 然后呢找到这个 e n s 三三,然后下面有一个 int, 对 吧?然后你看这个地址和昨天不一样了,昨天是呃, 幺六零幺二八,我今天变成了幺九二幺六八二四七幺二八,对吧?你要记住这个地方是二四七幺二八,把后半段记住,一会咱们会用到。好,知道这个之后呢,我们接下来就 s s h 转发小龙虾,对吧?我们直接在这里去给他搜索 powershell 啊,找到这个 powershell, 然后我们去打开,然后呢 powershell 里头就是用这条命令,对吧?把它复制一下这个地方,我们右键粘贴进去,然后呢把最后这个改一下,对吧?这是二四七点幺二八啊, 回车,然后输入一下你改好的登录密码,我这里还是大海资源网,对吧?回车,好,然后你就转发成功了,然后我们就可以直接通过这个下面这个幺八七八九这个带这个的去登录了啊,我们直接在这个浏览器就去 黏贴,然后他就访问了,对吧?访问了之后呢,我们就用我给你的这个登录 token 密码给他 连接好,就登录了,就和大海昨天就长的一模一样了,对吧?当然现在有一个很很大的问题,是什么呢?就是现在咱们这个连接是连接上了,对话不了,因为你这个电脑上还没有欧拉玛大模型,而且即使你有欧拉玛大模型,你这个连接这个地方也不对,对吧? 啊?我说你好,他开始一只猩猩转圈圈了,对吧?很多朋友都是这个问题,所以说呢,咱们还得给大家演示一下这个欧拉玛的问题啊。 那么今天呢,大海是给大家做一个快速演示,如果你想详细的了解欧拉玛的安装和具体如何去选择配置和模型,去看大海昨天的教程,非常的详细啊,非常详细,讲了大概十五分钟,欧拉玛 好,这个地方我们直接去安装,然后呢,如果说不会的朋友,你就去参考我昨天的这个文档教程啊,就是这一篇,这一篇开开篇就是安装欧拉玛啊,好,然后呢,弹出这个,我们直接 install 欧拉玛的这个下载地址,如果说大家下载慢的话,在昨天的这个文档里, 他有对应的这个网盘分流链接,大家去我的网盘里下载,速度会快一点啊,奥拉玛的官网呢?我们这里要访问一下,一会要下载一个模型,我今天呢就选一个小一点的模型,为了给大家演示嘛,对吧?咱们看千分三点五最小的模型是多大? 千分三点五最小的模型是零点八 b, 二 b, 四 b, 咱们就来个零点八 b 的, 对吧?最小的这个只要一 g 嘛。这个模型,然后呢这个复制上, 今天是为了演示,快啊你,你实际上零点八 b 在 电脑端根本没法用,零点八 b 这种模型是给手机准备的,是给移动端准备 各种小设备。安装好了之后呢,咱们先不管他,根据咱们昨天的教程,还要给他去配置一个全局的系统变量啊,我们直接在这个 windows 里这里搜索系统变量,然后呢编辑系统环境变量,打开这个窗口,点击环境变量,然后去下面系统变量里头点击新建,然后呢把咱们这个欧拉玛 host 给它复制进去, 然后呢变量值复制,我这个幺幺四三四啊,大家都是同样的粘贴,然后呢直接点击确定就行了。这个地方我们点击确定修改了这个环境变量之后呢,我们要重启一下欧拉玛啊,把这个欧拉玛在这里去啊,去给它退出, 然后呢我们再重新把这个安装的欧莱玛去给它打开好,然后接下来呢,我们是要找到这个 windows 真机 ip, 我 们从这里呢搜索一个 cmd, 在 这个界面下呢,我们去给它输入一个 ip config, 也是在这里复制就行了, 复制,然后在这里去粘贴,回车找到这个 vm。 net 八下的 ip 为四地址啊,今天你看我变了,变成幺九二幺六八二四七点一啊, 把这个 ip 地址给它复制出来,在浏览器里头黏贴,然后呢去给他后头加个英文的冒号,加上欧拉玛的端口。幺幺四三四, 回车允许啊,这个地方呢就可以看到我们访问对应的地址,幺幺四三四,欧拉玛 is running, 对 吧?能看到这个就说明行了。然后接下来呢,我们就是去给我们的 open close 把我们的欧拉玛弄上去,这个欧拉玛还没有安装咱们对应的这个大模型,对吧?咱们刚才复制的大模型 在这里啊,咱们把这个重新复制一下,然后呢在这个里头我们右键回车,然后让欧拉玛去拉取对应的前文三点五的镜像啊,整好了咱们可以在这个窗口里试一下啊,你好 好,前文三点五啊,这次不不错,虽然是零点八 b 啊,但是他还能回答,行,然后我们把这个地方关掉就行了, 这个欧拉玛已经安装好了,然后就是看我们的教程,对吧?现在我们这都已经搞定了,然后最后就来到了最后一步了,欧拉玛的模型也准备好了,我们就来到这把这个网关和模型重新配置一下啊,这里复制 啊,在这里呢,我们去右键粘贴进去,然后去回车,然后这里呢?首先我们是 yes, 对 吧?然后呢?呃,我们来,呃,这个快速开始, 然后呢我们去升级数据,就是选择第二个,然后这个地方我们的欧拉玛我们去,呃,选到欧拉玛回车,然后呢你看这个地方,这个地址就不对,对吧?这个地址我们要用哪个呢?幺九二点,幺六八点, 呃,二四七点,幺幺幺四三四,就是用这个地址啊,把这个复制一下, 这个地方右键粘贴进去,然后给他回车,这个地方他让你选是本地还是云端家本地,大家一定要选云端家本地,因为你一选本地,他就开始给你拉取那个超大的模型啊,这个肯定是不行的, 那么想要设置这个云端家本地,你欧拉玛就得登录云端账户才可以啊,没有欧拉玛账户的同学呢,你就在这里你去注册一个啊,大家最好是用啊,比如说 altlook 邮箱,就是微软的啊,比如说这里我就用一个 altlook 邮箱啊,然后呢它会让你创建密码,然后呢它就会给你的这个 邮箱里头去发一个验证码。好,然后呢还需要一个手机号,我这个地方呢用我国内的手机号啊,咱们国内手机号前头就是加八六,好也正常收到了, 这样我就注册好了欧拉玛的账户,然后就能登录了啊,你就拿你的这个欧拉玛,把欧拉玛界面打开,然后呢你会看到这里可以找到你刚安装好的模型,我这是千万三点五零点八币啊,刚安装好的,然后呢你点击左上角这个 呃 city, 然后呢点击这个登录,然后它会跳转到你的网站账户,你直接点击 connect 连接 好,这个时候你这个奥拉玛账户你就登录上,而且呢登录这个账户有一个好处,就是云端大模型能免费用啊,只不过它每个月每一天都有限额,那么具体限额的消消耗量什么的,大家去看昨天的视频啊,我们这里就可以选择了,在这里我们选择 云端加上本地的大模型,然后这里呢我们就可以找到我们本地的模型,比如说这里可以找到我们欧拉玛三点五零点八 b, 就是 咱们刚刚安装的,我们直接回正,然后呢剩下的这些内容咱们就不需要,对吧? 全部都是稍后再设置,这个地方设置我不需要,然后呢空格不需要 网关,咱不需要的网关咱们已经登录了,这个地方我们直接退出,然后呢也是等一会再设置好这个地方我们就搞定了,对吧?搞定了之后呢,我们把这里我们重新去给他刷新一下,然后模型这里呢我们就可以选择我们刚刚安装的千问三点五零点八 b, 对 吧? 好,然后我们来尝试的和他对话,你好,这个地方你会卡住对不对?那你当你这个地方卡住的时候,你就先切换一个其他模型,先给他刷新,对吧?先给他切换一个云端模型啊,这里,比如说我给他切换一个这个, 哎,啊,来了来了,稍微等待了一下,你好,我是你的 ai 助手,然后千分三点五零点八币,对吧?没问题,这个地方呢我们就已经完成了我们的快速配置,只要大家把这些包什么的安装包下载好,那么大家也能像大海一样在十几分钟的时间内呢,把我们这个大模型配置好,直接本地用起来, 好吧,那么大家注意使用的时候呢,要注意去修改自己各个地方配置的那个密码,不管是系统登录密码还是 open clone 登录密码相关的这些具体的设置呢,大家可以返回去看我昨天的视频,好吧,那么咱们今天视频就到这里结束,我们下期视频再见,拜拜。拜拜。

今天呢,通过 airm studio 部署了谷歌的这个 jimmy 四二十六 b a 四,呃, a 四 b 量化模型啊,斯比特的量化模型啊。我这边我测试了一下,速度还挺快,大概能在 每秒六十五点二 tokens, 呃,其实我的电脑配置的话也不是很高, 显卡是十六 g 的 四零七零太 super, 内存是六十四 g 啊, cpu 是 i 五的幺四六零零 kf 啊,我觉得能达到六十五秒啊,六十五 tokens 每秒速度还是比较快的啊。其实大家都可以按照我这个模板去做了,就我这个配置的话也没有那么复杂,给大家看一下哈。 上下文呢,我是设置的三万。今天我测试了一天的 open cloud 呃,目前装好了一些技能的前提下哈,没有出现再切换为新的绘画,但是也不排除他切换了新的绘画,但是我的这个技呃技能什么的配置的还是可以啊。 所以说我的上下文长度设置为了三万啊。之前我也问过豆包,豆包给我推荐的是一万六千三百多啊,但是这个上下文太短了,偶尔会切换为新的绘画,所以把它调整为三万。 gpu 卸载和 cpu 的 现成值大小啊,都把它拉到头啊,也是三十七十啊。苹果批处理这个都不用改哈,它是有个关键的哈,就 number of layers of which 哎,就这个 设置为一半啊,就十五,因为我这个满的是三十,所以设置为十五啊。重要的一点就是 k v 缓存量化模型哈,因为我用的是 q 四的这个斯比特的这个量化模型,所以我就把它选择为 q 四杠零 啊,但我也尝试过选 q 四杠一啊,不行,我这模型加载不起来啊,具体的原因我也不太懂哈, 然后我就按照这种方式设置的,就能达到六十五 tocs 每秒,这个速度我觉得还是蛮快的,我用它去跑 mccloud 速度还是可以的哈。因为我目前我在做一个记忆宫殿的这个呃插件啊,当然是根据这个 呃社化危机女主的这个为原型,让她自主啊,自主编辑的这样的一个插件,现在还没有做完,都已经用了呃,两个多呃,三个小时了,现在已经处于尾声了啊,快部署完了, 等明天我看一下他这个记忆宫殿做好的这个记忆宫殿具体的用途啊,具体的这个使用的结果怎么样呢?再给大家做一个分享。

今天跟大家分享一下 openclock 怎么配置沙箱模式。那先说一下为什么要配置成沙箱模式,主要一个核心原因就是 openclock 作为一个能操作我们电脑的智能体,本质上就是把系统的控制权交给了一个可能被患错或被恶意利用的一个模型, 那沙箱模式就是为这种风险提前做的一道安全保险,所以建议大家把这个功能开起来,整个过程我已经把它梳理成一个文档, 包括沙箱镜像如何获取,那怎么修改对应的配置文件,以及如何验证沙箱是否生效。那接下来我演示一下具体的一个效果,我这边有一个软件专家的智能体,然后让他开发一个完美版的贪吃蛇游戏, 然后我们回到命令行终端查看一下容器的状态, 然后我们这边就发现 coding 这个智能体有一个容器在跑,那我们做沙枪的目的就是把所有的一个废话 就是放在容器里面运行,防止它去误操作我们自己电脑上的一些文件,或者执行一些危险的命令,那整体的效果是这样的。然后如果大家有需要这份文档的话私信我,我分享给大家。