今天听课终于弄懂了 open cloud 的 真正价值,它不是单纯的对话 ai, 而是一款能听懂指令, 动手执行的开源智能体。它的意义在于打破了 ai 只会说不会做的局限,让大模型拥有了直接操控电脑执行任务的数字之首。 具体实操很简单,本地部署后,用自然语言下达指令,他就能自动整理文件, 抓取数据、生成汇报,把重复工作变成一键交付。对我们来说,这是体校的利器,也是未来工作的趋势。现场做了一个小测试,让肢体做一个网页版小游戏贪吃蛇, 对方仅用了十分钟就生成了该程序,让我大为震惊。第一想法就是前端编程,做视觉及 ui。 这部分人得失业不是未来,是马上失业,科技的进步是一把双刃剑。
粉丝1830获赞4466

最适合 oppo 酷路的一个天选基座模型,我想除了阶梯五点四应该没谁了吧?一个优秀的一个 ag 的 基座模型, 我的理解是需要三个方面都比较优秀,一个是代码能力,一个是世界知识,一个是多模态理解。当这三个都能达到 s o t a 的 时候,那它几乎必然是一个最流的 ag 的 模型。当然还有一个重要的因素,那就是使用的一个价格。在过去的话,酷路的 oppo s 四点六,它几乎是 ag 的 模型的一个代名词,因为它在上述三个方面都特别的强, 但是它的一个使用价格真的很高,所以使用起来真的很肉疼。而这一次 g p t。 五点四的一个出现,真的就补齐了这个短板。 g p t 五点四,它在代码能力方面是和 g p t。 五点三 code x 是 齐平的,然后在世界知识方面,它比 g p t。 五点二要更加强大,同时它还能使用订阅额度,二十刀就能让你使用的超级爽。可以看这张图,在八个评估指标里面, 五个它都是达到一个最优的。总结一下, g p t 五点三,更强的一个视觉支持,加上更多的一个工具模型调度能力 机,超级便宜的 codex 额度,这四样加在一起,这就是一个完美的 code cool 的 一个天选基座模型,所以现在在使用 open cool 的 你们,可以尝试把模型换成 gpt 五点四,我相信你会发现一个新的大陆。

五步,配置免费大模型首先打开英伟达模型页面,选择同意,点击右上角登录按钮,输入自己的邮箱, 点击确定后输入密码并进行校验,通过校验后进行创建账户,邮箱会收到校验邮件,把验证码给输入进来,点击继续,这里都不要勾选,直接点提交即可。 随后会让我们输入用户名,随意输入个名字,点击创建,点击右上角的验证按钮,输入加八六和自己的手机号码,八六和手机号码中间不要敲空格,直接输手机号就行。随后点击发送验证码, 把验证码输入进来,点击验证按钮,至此注册流程就完成了。点击 mouse, 在模型页面中搜索自己想要使用的模型,都可以免费使用,这里我们就以千问八十币为例,点击进入千问八十币的页面中, 点击知晓并继续按钮。在使用页面中点击右上角的 view code, 会弹出使用 python 调用大模型的代码段,点击生成 api key 按钮来获取调用大模型的 key。 首先复制 bash 一 二二幺切换到 pi, 二十秒中进行粘贴敲回车,再切换到页面中复制 api k, 继续切换到 power 式样中进行粘贴并敲击回车。把模型名称也粘贴进来。 确定这里我们直接回车,选择保持当前,来到配置通道这里,这块我们先不配置,向下找到 skip for now 进行跳过 这里继续向下选择 skip for no, 敲击回车进行跳过, 倒到了技能配置这里,这块也先选择 no, 先不配置这里选择 skip for no, 然后敲击空格,敲击空格后会从点变成加号,表示选中了,然后敲击回车, 终于开始安装了,等待一会安装完成。这里选中第一个 t u i, 直接敲击回车就行了,表示启动并出使唤机器人。至此, openclo 就 安装完成啦,可以尝试跟机器人打个招呼。哈喽, 可以看到 openclo 已经回复我们了, 打开一个新的 power shell, 输入,打开控制台的命令,会自动打开网页,可以看到之前打招呼的 hello 和 open cloud 的 回复, 告诉 openclout 你 称呼我为阿亮,你的名字是助手,可以看到他的回复还是挺快的。 openclout 有 很多技能包可以安装,简单配置个打开浏览器的技能包来看下效果。 在 powerclout 中输入上面这条命令, 会自动开始安装技能包。安装完成后,我们来到管理页面,输入给我打开浏览器,使用百度搜索减肥。 嗯,效果还是挺不错的,响应速度也很快。虽然安装完成了,但我们的龙虾现在还是一个裸龙虾,很多操作都说没有权限,下期我们将正确的配置龙虾,补齐必备技能。

今天给大家推荐一个非常热门的 ai 应用, cherry studio, 这个 ai 应用呢可以说集成了对话,编程,绘画以及支持接入多种 ai 大 模型的接口的,这种功能可以说是一应俱全,你只要有了这个 cherry studio, 可以 说你的需求呢,基本上都可以通过这个软件呃完成。我们看一下它主要的功能,包括 ai 对 话, 你可以在左侧创建智能体,比如说外部搜索的智能体啊,这个问答的智能体,还有写代码的这种智能体,再就是 ai 编程,这个就是专门用来写代码的这样一个功能。再就是 ai 绘画,在左侧呢,你可以选择接入的模型以及图片的比例 啊,就是图片生成。还有这样一个专区,也是非常的适合我们用这个去生成图片,做图片的艺术创作。再一个 cherry studio 支持接入市面上所有的 ai 大 模型, 可以说覆盖面非常的广,在这个地方你只需要配置对应的 a、 p, i、 k 和对应的地址就可以了。为了更全面的了解 chris studio, 我 们看一下它的文档, chris studio 包含基础的问答以及对话的导出,还有 ai 智能体的这种搜索的市场,还有就是支持绘画,小程序翻译,文件管理,全球搜索这些功能,再就是刚才提到的可以接入多种大模型, 还有就是可以自定义这个界面,并且 chris 队还支持本地搭建一个知识库系统,你可以导入你的 pdf 啊, word 文档, ppt, excel, tst, markdown 这种合适的文件导入,然后搭建你的本地的知识库, 可以说就是这个软件已经集成了我们目前能想到的所有的对 ai 的 使用的方式了,而且还可以支持知识库的导出,并且可以把网站作为知识库的来源导入到这个知识库系统中,支持后续的解锁。还有一些特色的功能,比如说快捷问答,还有快捷翻译,内容总结解释说明。我们再来详细的看一下这个知识库的介绍了。 在这个地方你可以选择插入大模型,然后创建知识库。之后呢在这里选择插入的大模型,添加文件进行一个向量化, 然后我们还可以导入 pdf 以及导入网址,网站笔记。把这些知识点导入之后,就搭建了我们的一个知识库。后续所有的问答呢,我们都可以基于知识库中所给它录入的这些信息进行一个针对性的问答。 cherry 九九不仅支持日常一些常见的功能的使用,还包括一些进阶的一些玩法,比如说 mcp, 应用链, 还有鞋代码,还有 agent。 可以 说拥有了 cherry studio, 基本上你能够想到的一些需求,它都能够帮你一站式的解决。我是不吃辣的 chris, 关注我,带你了解更多 ai 相关的开源项目和工具。

我用了一千万拓展去验证最适合 open globe 小 龙虾的模型搭子来了,亨特阿尔法,它目前在 open road 上是一个免费的,是一个另一门公司测试的模型。呃,据传闻它可能是 deep deepsea v 四版本,或者说是智谱,或者说是小米的新一代模型。然后它的特点就是一万亿参数,然后上下文有一百万, 它是相当于,呃可以处理七十五万字的中文或者一百五十万的英文单词,在一个对话框内,那相当于就说它是我们之前推荐的 g 月星辰三点五,就 sleep sleep 三点五 flash 的 四倍,然后专门为了 opencloud 啊小龙虾这种 app 去做了优化,然后它目前也是在 opencloud 上是免费的。然后魔性 id 我 贴在了我们视频的评论区里面, 呃,我让他去呃做了一些安全的测试,就是我们之前上个视频提到的自防护,呃,就相当于模型 agent 的 自防护能力,然后可以看到就是亨特尔法是百分百通过的,然后 sleep 三点五 flash, 然后通过度只有百分之六十五,那相当于就是说这个模型能力上,亨特尔法是远远强于 sleep 三点五 flash 的。 呃, open road 上呢,就是,呃有很多免费的模型,目前是有二十八个,那在第一梯队的呢?相当于就是我们的亨特尔法,它是接近了 g p d 四或是 cloud 的 这种商用模型的能力。呃,后面还有很多其他的特殊的免费模型,比如说多模态啊,视频啊这种,我下一个视频会给大家介绍。 那比如说就是,呃,我们来看就是亨特阿尔法六大模型的横向对比,那从整个的呃就是编程能力来看,肯定是商用的 cologne 最强,然后推理能力和编程能力都是商用的 cologne 最强。然后 agent 的 控制调用呢?嗯,那就是亨特阿尔法这种免费的专门 agent 的 设计,最强,你可以看到远远超过。 嗯,包括那样,就是,呃那个亨特阿尔法的定位,它其实本质上呢,其实是专用呃 a 技能做设计,那它和最强的付费的 a 技能模型呢?那其实是是也各有胜负。对, 那我们看到我这边的 status 状态呢,其实是呃它的上下文,你看我新的窗口采用了百分之四,非常的充裕。 嗯,和那个呃 sleep 三点五 flash 的 对比呢,相当于可以看到 a 技能的能力,然后呃 超文档处理是远远超过的。然后中文能力呢,它其实是属于待验证。因为呃, steve 三点五阶跃星辰呢,他知道是中国公司模型,亨特尔法也知道是中国公司的,所以说中文能力呢,其实属于一个待验证的状态。 然后推理速度呢,因为它有 a t 的 参数,呃,相当于是呃那个参数更大,然后推理说会更慢。呃,但其实是呢,呃,我们其实是等待时间,没有强,很强要求的话,那其实还是这种 a 级的能力上还是远远超过的。 那我们现在可以看到,就是我这边用了那个接近一千万的脱贫去做了验证和测试。对,呃,九九点六百万。 那亨特尔法啊,他现在在那个小龙虾的登陆排行榜上是,呃排名第八。对,然后我之前推荐的 super 三六 flash, 现在是远远排名第一。那,那我觉得后续的话就是亨特尔法,呃,他不管是更,嗯,就是正式发布他名称之后还是怎么样,那我觉得还是一个很大的竞争空间的。对, 然后这是我之前跑了一个测试,用它去跑的一个呃哆啦 a 梦的图像,因为它是纯文本的模型呢,它只能靠文本里面简介和想象,这是用 svg 来绘制的,相比于它的上半部分,其实是已经绘制的非常接近了。 然后整体上的话呢,其实是在呃 log 里面,比如说,呃,或者说我们看到 a p i k 对, 它其实都是免费的,对,都是一直已经切到了那个呃,对,你可以看到我的小龙虾都已经切到了亨特尔反应在用,对。

最近用了几天 openclaw, 这是个好东西啊,就是那个 tokens 消耗起来啊,实在是太猛啊。但是免费的 a p i 呢,要么就是太旧的大模型,要么呢就是限流的太厉害。 如果你想本地部署大模型呢?那对硬件的要求呢?确实又太高了。还好呢,最近我发现这个微软刚刚发布的 ferrari gb, 一 款专门为操控电脑而生的小模型, 它是由阿里开源的千万二点五 v l 模型模改而来的,通过视觉感知屏幕内容,然后呢,利用鼠标和键盘模拟用户的点击和输入行为,比如滚动网页啊,滚动页面啊,页面跳转等行为,从而完成各种的自动化的任务,譬如操作浏览器 填写表单、自动购物、网页搜索等,不用依赖任何后台代码。关键的是啊,这个模型比较小巧,只有七十亿的千万化, 即使是普通显卡呢,也能用,笔记本当然也可以用,你可以非常便捷的用 lm studio 或者欧莱玛等进行本地部署。还可以呢,跟微软开源的人机协助网页自动化神器 magenta ui 实现无缝集成。当然,你也能通过微软自家的 adori foundry 实现云托管, 它使用起来呀,不需要 api, 也不需要消耗 token, 数据不出户,隐私更安全。感兴趣的朋友啊,可以拿过来研究研究了。

今天给大家分享一个比较便宜的普通小白都能用的一个大模型。我们知道我们在学习 ai 或者使用 ai 的 过程中,就会发现 它是一个巨大的氪金的东西,因为会消耗大量的 token, 很多大模型靠这个 token 的 消耗令来盈利来赚钱。今天分享的这个呢,就是阿里云的一个最新的叫扣丁普兰的 这个头,跟他这个主题呢,说是量大环保,支持阿里云的千万的三点五,还有 mini max, 还有 嗯 g m m 等等各种模型,他是按照消耗的次数调用的,次数就每月呢大概有一万八千次的这个调用额度,每月的这个套餐费用是四十块钱,现在打折啊,现在二十块钱 对于普通小白是完全够用的,因为很多人反映这个 投币量很少,而且比较慢,如果你只是说我掌握一下 ai 的 基本应用,跑一下简单的流程,知道这个 ai 是 干嘛的, 我觉得是完全够用,它还支持这个龙虾,还有支持可乐扣的。另外一个呢,就是我们在调用这个 api 的 时候,一定要记得是扣丁普兰的 api, 不是 那个百炼的 api, 因为百炼的那个 api 呢,它是后付费的,你消耗多少投币就扣多少钱。 我上个月签约的时候,当时结果 api 填的是那个百炼的,他一天就给我花费了一百块钱,当时把我吓坏了。我觉得阿里云他这个售后比较好,因为是今天那个售后小哥给我打电话, 我把这个事情给他说了,他说你是调用错了 api 了,今天就把那个 api 给改过来了,我觉得这个是比较划算,因为一个月就二十块钱,大家可以试试。

一口气讲解 upclo 如何使用,这是一个比较长的视频,建议大家先收藏再观看。我们基于如下五个维度,一口气讲解 upclo 从安装到日常使用的核心步骤。核心知识点,首先第一步是安装,网上的教程基本都可以完成安装,但是其中一些配置项到底是干嘛的,还是需要了解学习一下的。 其中之一就是模型配置,不同模型来自不同的供应商,有不同的特性,有擅长规划推理的,有擅长图像理解以及图形图像视频生成的能力不同,费用也不同。追求全面高质量的 g p t。 长本创作的 cloud 多模态和创意的 jammin 低成本推理 deepstack 本地部署中文研究 glm, 像我本人用的目前就是 glm 的 四点七,感觉还是比较可以的。嗯。 紧接着就是聊天,各种聊天软件的接入接入飞出聊天软件接入飞出聊天软件。网上很多人说是接入飞出插件,其实并不完全对,应该是接入了一个飞出的插件集, 因为我打开了那个飞出的插件的那个源码看了一下,它其中涉及了渠道插件、工具插件以及 skills 的 集合,相当于是 skills 集合,是一个操作飞出的 sop。 然后渠道插件是完成了飞出的消息的接收与发送的功能,以及一系列的工具插件完成了与飞出交互的一些核心的能力。并且它还对接了 webshop 的 插件 来对接飞出后文的后台的长连接,用来监听你在飞出上面给你的龙虾机器人发送的消息。当然还有另一种方式是 webhub 的 方式,因为我每个人电脑部署在家里,无公网 ip 出口,所以实现不了优先使用长连接, 使用不同渠道不同的对话框,与你的龙虾机器人进行聊天,就会采用产生不同的绘画,不同的绘画的定位维度。首先是渠道就是你的聊天工具,然后你的是群主还是个人?群主 id, 个人 id 定位到一个对应具体的绘画,具体的绘画可以指定具体的 agent 代理, 也可以指定具体的模型来完成。不同的特点。假如我有一个编程,编程龙虾机器人,然后我和他有个编程的任务方,那就给他指定一个编程的代理,然后里面封装一些编程的规则和原则啊,并且给他一个擅长推理的模型。嗯, 这里刚刚提到一个 agent 的 概念,不同渠道绘画可以指定不同的 agent 完成不同的角色扮演。其实我们说养龙虾,养龙虾就是在不断打造属于我们自己的 agent, 给它丰富 skill 技能,集合,给它丰富它的短期长期记忆,给它丰富自它自己给自己写的一系列的工具脚本,来替你完成各种各样复杂的任务。 结合插件体系,我们可以享受开源的红利,自由装备开发者贡献的插件插件还在工具渠道命令服务。

每天一个 openclaw 闭坑技巧,今天要讲的是 openclaw 到底装哪个模型?百分之九十的人都装错,性能直接浪费一半,到底选哪个模型? 今天一次性把答案讲透,最后告诉你谁才是免费人气王!一、读文档长文本 k m k 二点五,上下文最长处理的 pdf 核常报告最擅长 二、全能代码千问 y 三点五,阿里云支持稳代码生成强,综合能力最精三、创意 拟人 mini max m 二点五,写文案做社交,回复语感最像人,拟人话最棒四、免费人气王 step 三点五 flash 开源免费本地部署永久免费 openroot 免费 云端 api 有 免费额度,个人用户开发者首选一句话总结,白嫖首选 step 三点五,办公读文档选 kimi 全能写代码选 quan 创意拟人选 minimax 关注我,下期教你两分钟配置好 step 三点五 flash!

大家好,欢迎回到我的频道,前面几期视频我给大家演示了如何在 v i y 里安装优盘图 linux 处理机,也讲解了如何在优盘图中配置 note g s 和 git 来满足 openclaw 的 运行环境。那这期视频我就来教大家如何在优盘图 linux 操作系统中安装部署 openclaw。 在本期教程里,我们将从 github 下载 openclaw 最新的源代码进行安装。如果你下载不下来,也可以在评论区里留言,我把我下载好的 openclaw github 源代码分享给你。 我现在就在 umber linux v i r 训练机里边,我们打开 firefox, 我 看看 github 好 不好。访问今天为车,今天很幸运可以访问,那我们在这儿搜索一下,在搜索框输入 openclaw 车在这个项目 open club, open club 就是 我们要访问的项目。点击一下,打开它,今天速度还挺快,这是咋回事?我们点击这个绿色的扣按钮,有一个 download zip, 我 们还是下载下来吧,避免安装的时候突然访问不了,挺麻烦的。点击下 download zip 就 开始下载了,下载也很快, 超乎我的想象。好,现在下载好了,那这个应该是最新版本的,如果你要是担心这个最新版本里面有 bug, 因为它是刚刚提交的,有的最近的是三十八分钟内提交的。 那你可以下载这个最新的 release 版,你看这有一个 release open club, 二零二六点三点十三,那最新的 release 版是三月十三号的,我们点击这个链接进去,他就打开了这个页面,那这个页面里边就记录了他都修改了哪些问题。在这最底下有一个 south code, 你 也可以下载这个 最新 release 版的源代码,点击这个链接,它就把最新 release 版这个版本给下载下来了。下载好之后,我们来到这个下载目录,那这两个字库文件都在这了,我先修改一下这个屏幕的分辨率,这样屏幕就文字大一点, 我们看一下这两个版本,那我们还是安装这个三点十三,因为这个是 release 版。右键单机点击提取,解压缩到这个文件夹下,我在我的主文件夹下建立了一个文件夹叫 work, 然后把那个解压缩后的 open class 代码拷贝到这个 work 目录下, 我们右键单机桌面,点击,在终端中打开,打开一个终端窗口,我们再确认一下 node 和 get 的 版本,那 node 是 vr。 二十二点二,十二点一,这个是符合这个要求的,那 get 二点五,一点零,这两个版本是可以的,因为我们从 oppo colo 原代码来安装这个 oppo colo, 它需要 p n p m 这么一个呃命令,所以我们先安装 p n p m, 我 们运行这行命令。 soluo 空格 n p m 空格 install 空格横线 g 空格 p n p m 回车,它需要输入密码, 也就是那个哈喽那个账户的密码,他就开始安装 pmpm 了。好,现在已经安装好了,那我们先运行 npm 杠 v 看一下版本, npm 是 十点九点四,那 pmpm 呢?杠 v, 十点三,二点一, 可以,这个 n p m 和 p n p m 我 们都已经安装好了,那现在我们先来到 open k l 源代码所在的这个目录,我们把这目录地址拷贝一下,回到命令行。好,那现在就到这个目录下了,这个就是这个 open k l 的 原文件。在这个目录下,我们先运行一下这行命令, p n p m install 回车,它就会把依赖的或者需要的那些包全都下载下来,并且安装好。当你看到这些信息, 那就证明需要下载的包都已经安装好了。然后我们再运行另一行命令,就是 pmpm 空格 ui 冒号 build, 这个命令运行很快,当你看到这些信息,就证明这个命令已经运行好了。然后我们还需要运行一下这行命令,也就是 pmpm 空格 build 回车,等这个命令运行好之后,这个 open klo 基本上就安装好了。好,到现在为止, 这个 open colo 就 算安装好了。然后我们还需要运行一下这行命令, p n p m 空格 link, 空格,横线,横线 global, 那 这行命令就会把这个 open colo 这个命令设置为可以直接调用的 c r i 命令, 方便你调用,让它出现一个错误,这个错误是什么原因其实也写清楚了,告诉你怎么改。需要运行 p n p m 空格 set up, 先来创建一下这个 global bin 这个 directory, 那 我们就运行一下, 还要运行 south home hello, 点 best i c 现在已经生效了,现在我们再运行一遍 p n p m 空格令格航线 global, 那 现在这个 openclaw 这个命令就可以直接 在命令行里边调用了。然后我们运行这行命令, openclaw, 空格 unbox, 空格航线航线 install 航线 demo, 那 这行命令就开始设置这个 openclaw, 并且安装后台的守护进程,也就是后台服务, 这个 open 卡拉就会在后台一直运行了。我们看这个命令执行之后,就是这个界面第一个配置界面问你是不是继续,那你就通过这个左右键选择。 yes, 然后按回车,然后 unboxing mode, 就是 是 quick start 按回车 model, 也就是大圆模型,你选择哪个?因为我们使用本地的奥拉玛,所以我们选择奥拉玛,那奥拉玛 base url, 也就是我们这奥拉玛模型的 url 是 多少, 我们现在去看一下。我们在 windows 上打开奥拉玛这个应用程序,点击左上角这个图标,有一个 settings, 点击一下,那在这右边有一个选项叫 expose orama to the network, 这个选项一定要打开,否则奥拉玛是不能够被网络上的其他应用程序访问的。 我们再在 windows 里边打开一个 windows power 或者命令行窗口,运行命令 ip config, 那 我们就可以找到我们这台计算机的 ip 地址, 那我们这 id 是 幺九二点幺六八点二零四点幺,我们在浏览器里边输入这个网址 gdp 幺九二点幺六八点二零四点幺,冒号幺幺四三四,回车之后,如果看到奥拉玛 is running 这个页面,那就证明我们这个奥拉玛是可以通过网络上的其他应用程序来访问的。 我们回到这个 uberto linux 这个虚拟机里边,把这个 alama base url 地址改成幺九二点幺六八点二零四点幺,冒号幺幺四三四,回车会让你选择一下 alama 的 mode 是 cloud 加 local, 那 么选择第一个回车, 然后它有提示让你登录进 alama cloud, 我 们就把这个链接拷贝一下,点击 connect, 连接成功了,我们再回到这个命令行, 他问你是否登录进去了。 yes, 我 们回车。现在你就可以选择这个大语言模型,具体使用哪个,那我们就使用缺少的 kimi 二点五这个云端的模型就可以了。按回车,再让你选择那个 china, 就是 你用哪个聊天软件去管理这个 opencloud。 我 们先不用这个了, 我们会在以后讲,我们选择 skip now 回车,选择第一个路由 search, 因为我没有这个路由 search 的 api key, 所以 路由 search 就 不能使用,但是你可以去到这个网址去获取 ikey, 可以 以后再配置,现在它让你选择 skill, 问你是不是配置 skill, 我 们可以选择 yes 啊,回车用上下键来选择,选中之后按一下空格键,这变量就把它选着了。 回车这个 homebrew 我 们也可以安装一下,选择 yes 回车 google api key, 这个我没有,就选择 no, 全都 选中就可以了。 hook, 这个我们也先 skip 它,就开始安装这个 getaway, 也就是这个网关 getaway 已经装好了,他问你想怎么去跟这个机器人聊天,或者机器人互动,我们就选 open the web ui, 那这样他就会打开一个浏览器,你可以在浏览器里边跟他聊。第一个是 tui, 就是 基于文本的那个用户界面,我们还是用外部 ui, 那 现在当你看到这个界面,就说明这个 oppo cola 已经安装好了,这些信息都还是比较重要的,所以我建议你最好把一些重要的信息保存下来, 比如说这 ctrl u i, 也就是我们刚才不是选择基于 web 来管理这个机器人,所以它有一个链接地址,通过这个地址是可以打开这个管理界面的, 那这个地址我们把它拷贝出来,在这个浏览器里边粘贴进去,那这个就是 open k l o 的 这个控制台,当然这个我都跟他聊过一点了, 所以有这些信息。那我跟他说个你好,他巴拉巴拉说了一大堆,我问他现在都能干些什么?他回答了一大堆,好像感觉他非常能干。这些东西都怎么做?以后我可以给大家做视频,来演示一下他怎么才能做到这些功能。

有没有部署过 openclaw 的 啊?它能不能够就是让它自己去进行一个建模呢?就是那种精准参数的,因为感觉 ai 生成的还是不太精准,因为一些什么细节的数据啊?

很多人问我,我是怎样一个月用了不到一百块钱就用上了全世界顶尖大模型?今天我来教大家如何把 github co pilot 接入 openclaw。 这边说,比如像你在某一上买了一个账号,因为某一上的这种 github 账号是非常便宜,它带那种 github co pilot 的 会员, 比方 pro 啊 pro 加或者 enterprise, 反正就是这个会给你额外的额度,还有这些顶级模型你的能用的能力。然后呢,进来之后呢?比如像你看,你可以看到你在这个抠拍的这底下这个选项啊,进到你自己的这个 settings 里边,然后你可以看到你自己的这个用了多少,然后用了多少,这个付费的请求就是说,比如像那些顶级模型,它会寄到这里头, 这里头呢,我觉得这个额度呢是基本几乎不会被超的,这个超的话也比比像你买一百九十九一个月的 kimi 套餐便宜很多。就像这块,你看这些模型, oppo 四点六、三点一, pro 还有 g p d 五点四,都是可以直接用的,这是最新的,世界上最强的模型。然后呢,这个跟它那个 oppo 的 这个打开之后呢,我们就需要去到下一步,就是到去如何把你的这个 oppo 和 oppo pro 来进行一个连接。 很多人会疑问说,比如像我已经有这个 github 它的这个使用权限了,我的账号已经做好了,可是呢,我是不是只能在我的 ide 里头用,比如像 vs code 呀, jeffries 这些 ide 里头用, 但是它如何真的跟我的 open call 来配置呢?它 open call 在 近期的更新中加了一个专门给 github 了的适配选项。为什么选择 github 了?因为它 所有顶级模型几乎都可以畅用,所以我们现在来如何配置,我们来看 先运行一下它的配置,这个先运行一下它这个配置,然后我们走了,走完前面这一块,然后在这一块大家可以看到有一个叫 copilot, 让你选是不是 gitlab, 回车进去它会出来一个这个,让你给你的 gitlab 来跟它这个绑定一下,我们回车按出来一个网址圈这个网址,把这个代码填进去之后就可以使用你这个 gitlab 跟它成功的就是说来连接了。这边登录完之后呢,大家就可以看到这些所有的这些顶级模型大家都可以使用, 你像这个 oppo 四点六,还有新出的 jamaican 三点一,然后我们大家备受瞩目的 gpd 五点四都可以使用这样一块,显示是卡拉斯 windows 只有一百二十五 k, 但实测下来进入它的 home 六 ui 里头大概是在二百 五十 k 左右。然后虽然跟原声的差距还是有的,但是呢作为 他的这个价格非常的这个便宜,比如像去某鱼上买这种账号,一个月也就七十块钱,八十块钱,反正我用下来没超过八十块钱就非常便宜, 大家就这样,然后我这个石头下来也是比较不错,因为我很多的这个现在的我的 webcointing, 有 一些 webcointing 我 都会是直接用 open call, 因为我首先用它这个便宜的比较顶尖的大模型,用这种方式可以, 时下这比 kimi 的 这个 q 音套餐便宜,而且模型质量比 kimi 的 高很多,这一生就到这里了,还有问题可以私信或者评论区问我。

随着 open core 的 爆火,调用大模型所花费的掏根数也随之水涨船高,如果你还在用 api king 的 方式,那么离破产可能只差几句话了,因此我做出了一个违背祖宗的决定,给大家带来国内四家平台 cookie plan 月套餐的对比。首先出场的就是我们的 mini max, 然后就是 g m l 智谱, 然后是火山引擎,最后就是我们的阿里百链平台。介绍完了这四家厂商,接下来就来介绍一下我们的规则说明。 我们仅以四家平台的月 coding plan 套餐作为对比,记住是月而不是季度或者是年。然后就推出我们的换算规则,换算规则就是一 p 等于十五次模型调用, p 就是 promote, 一 promote 就 相当于你使用 coding plan 套餐完成了一次完整的调用,而一次完整的调用在模型后台可能被切成了十几个任务, 有读取上下文,提出建议,修改建议,调用工具之类的就会非常的复杂。然后官方为了简化计费计算,就统一把这十几次连续的模型调用打包成了一次 promote。 然后我们再来介绍它的额度限制,它有第一种就是五个小时限制,一次额度就是你每五个小时达到了它的调用上限, 它就会限制你调用,然后直到这五个小时过去,然后它会再刷新额度,然后就可以再次使用,然后一个月就是这样一直重复。接下来就是周总额度限制,就是在五个小时的额度限制之上,你每次花费的 token 在 一周内累计不能超过它一周内的总额度上限。 然后就是月总额度,在周总额度限制的前提下,每家你每周所使用的额度不能超过一个月的总额度上限。如果你超过一个月总额度上限,那么你这个月就不能再用这个套餐了,因为它已经额度用满了。最后我再来提一下,我们的月是按每个月三十天来计算的。好了,接下来就介绍一下我们的第一家平台 mini max。 mini max 我 们看一下它是有六种套餐的,我们先来看最下面三种,从 star 每五个小时掉,我们的 promax 数也是逐渐长高的。 然后再看上面三种,有 plus 极速版到 ultra 极速版,它的价格也是这样递增的,然后它每五个小时可以调用的 oppo 的 次数也是在递增的, 但是它多了一个后缀就是极速版。极速版就是相对于下面三种套餐来说,它们模型的调用速度快了不少。然后我们总结了上面的价格和每五个小时的额度限制,我们就统计出了这样一个表格, 因为 mini max 只限制五小时额度,所以我们就通过一周大概等于三十三点六个五小时,推算出了它的周最大额度上限。然后我们再计算出一个月等于一百四十四五个小时,可以推算出它的月额度最大上限。 因此我们整理出了这张表格,然后就是它支持的模型定有 mini max 二点五、 mini max 二点一和 mini max 二。然后我们再来看第二家智普, g m l g m l 是 有三种套餐呢,只有 leader pro 和 max 版本。智普也是在国内 callenplan 套餐中它是最抢手的,每天早上十点钟刷新,你去看一看,其实很快货就会被抢空了,也不知道为什么,难道是饥饿营销吗?然后我们来继续往下看,相比于 mini max 的 每五个小时只限制一次额度,它增加了一层规则,那就是周额度上限。 既然有了周五的双线,因此我们可以算出每个月大概有个四点三个周,我们可以得出大致的月利润最大双线。然后我们再看它支持的模型,它 leader 套餐不支持 gm 幺五模型,然后其他所有套餐都支持 gm 幺五和 gm 幺四点七及其所有的历史文本模型。 接下来我们再来看第三家,也是我们的火山引擎,也就是豆包,它只有两种套餐, leader 和 pro 套餐。然后它跟前面两家比的话,不一样的就是 它不采用了 promote 来计数,它采用的是模型调用次数,但是在它的文档中也说明了它每一次调用也会花费大概十几二十多个不等的调用次数,所以我们也可以 理论上给它计算回来,这样就得出了每五个小时然后周额度和月额度的 promote 次数。然后可以看到它支持的模型是 豆包二点零, coder, 还有豆包 coder, 还有 g m 幺四点七,然后 d s c v 三点二,还有 kimi 二点五,支持的也是非常多。然后再看最后一个就是阿里一百链平台,它的套餐是和豆包其实一模一样的,然后它的收费标准还有额度上限都和豆包是完全一模一样的, 它两个不愧是相互对标的模型平台,搞的套餐都是一模一样的。然后再来看它支持的模型是千万三点五 plus kimi 二点五, g m 幺五 和 mini max 二点五,还有千万三, max 还有千万三, codenix 还有千万三, codenix 还建妙四点七,所以从模型的角度上来说,它还是略胜火山引擎一筹的。 我们介绍完了四个平台,我们再看下全平台的性价比对比。我们的性价比对比,采用它每个月理论上能调动的最大蓬勃的次数, 除上它的价格,我可以算出来多少 promote 美元,这样我可以计算出它理论上最大的性价比。然后我们可以看到,在这个排名中, mini max 家族可以说是遥遥领先,垄断了第一的位置,接下来就是我们 g m l 垄断了第二的位置,接下来就是豆包和火山引擎 并列第三名。好吧,这究其原因其实也很简单,因为 mini max 平台它只限制五个小时的调用额度, g m l 平台只限制一周的调用额度, 火山引擎和百联平台限制了一个月总额度,所以从理论上极限来计算,那么必然是限制越少,它理论上调用的次数就越高,所以 mini max 领先于 g m l, g m l 领先于火山引擎和百联平台。然后分析了极致性价比之后,我们再来看模型丰富度对比, mini max 中只有支持它的 mini max 的 三款模型,智普只支持它的 g g m l 家族, 然后火山引擎的话就支持豆包还有 deeptech gm, 它都支持。最牛的就是百炼平台了,它有八款模型,分别是千问系列,还有 kimi gm 幺五, gm 三七。 mini max 二点五,它可以说是把过年以来国产最好的四款模型都集齐了,也就是 我们的千问三点五、 plus kimi 二点五、 gm 幺五、 mini max 二点五,这可以说是过年以来最好的四款模型。 从模型丰富上对比,我们的百例平台有八款模型,我们的火山引擎只有五款,仙妙的话只有三款, 还有迷你 max 的 话也是只有三款。从模型丰富上对比,我们的百例平台遥遥领先。说完了模型丰富度和我们的性价比,接下来我们就推荐一下。推荐那当然是要为不同人群量身定制的,我们第一个就是为小白新入门的小白人群推荐, 每个月预算大概四五十块钱,我们就推荐他火山引擎和百联引擎的 live 套餐,他足够便宜,而且每个月有一万八千次的模型调用,也足够你入门了。 然后他的模型还很丰富,就可以支持你用多种模型,让你感受一下是不是新手小白,肯定都很想感受一下不同模型的效果到底怎么样,这是非常适合新手小白入门使用。接下来就是追求极致性价比的人群了,他每个月预算大概一百到一百五十元,我就推荐 mini max 的 max 套餐, 它的性价比最高,理论上来说是美元,可以调用三百六十三次 promote, 理论上每个月可以调用六十四点八万次大模型,所以它的价格也适中。然后性价比是最高的,就是最适合追求极致性价比的人群。 然后如果你如果是日常开发者,预算在一百五到两百元之内,那么推荐你用 g m l pro 或者火山引擎 pro。 g m l 的 理论上调用次数还有豆包的都是很多的,而且豆包上的模型也比较多,然后 g m l 五的编码能力也是非常强的,这样就推荐我们日常开发者使用。 如果你是,如果你是 vivac 的 重度依赖用户,那么就肯定是提高你的预算四百到九百了,那我们就推荐你用 mini max ultra speed 或者是 g m l max, 那么调用次数是有着最大的保障,同时还兼具着最最快速的响应速度,这样足够重度用户使用,不仅兼顾了量,而且还有速度,而且因为它有足够大的量和足够大的并发症,所以它还可以支持多团队使用,团队可 能买这样一个大套餐就够一个团队使用,但是接下来我们再看,如果你是一个疯狂的模型体验党,然后呢?预算大概在四百到两百元,那么肯定推荐你是百练的 excel 或者是 pro 套餐了,它有八款模型 可以供你选的,同时还有四款是国内最好的大模型,一站式可以体验多种 ai。 最后一种就是追求稳定额度的,他们就推荐火山引擎和百联引擎, 他们的每个月调用次数都有明确的上限,不像其他平台 promote 计算的模模糊糊,然后它还不会产生多余的额外花费,算是可预算可控场景,适合追求稳定额度的人群。这样一份 cookie plan 保姆级入门教程,你喜欢吗?

哈喽,大家好, opencode 之所以能火啊,能让普通人也能靠它省时省力的做事情,核心在于它有三大核心能力, 尤其是第一个让不懂编程的人也能直接用。那么我们今天来介绍一下它的三大核心能力。第一点呢,就是小龙虾,它可以自己去写代码,造工具,比如说你要提取一百个文档里的关键信息,不懂编程怎么办呢?这个时候你只需要给 opencode 下一个指令,它会自己去写对应的 python 脚本, 在写完了之后,然后他会提取对应的信息,提取完了他会把对应的这个脚本给删掉,不会让这个脚本占用电脑的空间,这就是所谓的免洗工具,也就是说我们用完就可以扔掉了,对不懂编程的小白特别的友好,也不会占用我们电脑的一个运行的空间。 第二点也非常的重要,它能够拆分任务去生成紫黛里,而紫黛里听起来是一个新鲜的概念,但实际上并不是特别的新鲜,就是在于让 omgala 这只龙虾它会生小龙虾, 也就是说他会去外包工作,比如说我给 openclaw 下一个指令,让他去写一个行业分析报告,这个时候他可以去拆分成若干个外包来进行去做这件事情。第一个小龙虾他会去搜集对应的数据,第二个他会写对应的内容,第三个他会排版的美化 不同的小龙虾,去做不同的事情,分工协做,而会使这个任务做得更好。但是请注意的是,我们可以去设计让小龙虾不能再生成新的小龙虾,因为这会避免无限的套路啊,否则这个事情蹭蹭外包出去就会没人干了。那么第三点呢,在于 open globe, 它有 skill 技能。 所谓的 skill 啊,其实就是工作的 sop, 标准化的操作流程,就相当于是一个任务的手册。比如说我们让 openclaw 去查文献对应的 skill 呢?它会去安排好你应该怎么样去查文献,怎么样提取信息以及怎样的排版。 而 openclaw 在 社群里面有非常大量的 skill, 而这些大量的 skill 就 指导着它该怎么样地去做事情。 那么 openglola 既然有这三大核心能力,它可以一直帮我们干活吗?它可以一直运行,那这一直运行的话又会不会很烧钱呢?下一次我们来讲解一下 openglola 的 非常核心的心跳机制和上下文工程,教你 ai 如何帮你打工,记得不要错过哦!

普通人用 openclaw 最适合用哪一个大语言模型?我用了七天之后,呃简单的给大家做一个总结吧。我前后已经用了三个大语言模型,分别是 kim code, daisy 还有 minimax 啊。首先说 kimi code, kimi code 其实它的能力我感觉是非常强的啊,但是它有一个很大的一个问题,就是它的呃 token 是 有呃非常明显的这种数量限制的,当然这不是最大的问题,最大问题是它呃恢复的时间比较长,好像是七天吧, 就一百多个小时啊,这个等待的时间是一般人接受不了的,除非你在进行会员模型。 那我呢就选择了买新的大医院模型,就换成了 deepsea。 deepsea 呢,它的能力好像变差了很多,就我感觉它它的这种呃处理任务的能力是比较差的。 当然可能是我呃用的时候 openclog 可能有些地方没有配置好也有关系,但是它给我的直接的感受就是它的能力下降了非常多。除了能力之外的最大的问题就是什么呢?就是它的上下文的长度是这三个模型里最小的。 那最后就讲的这个 minmax 是 我目前呃正在用的一个大语言模型,它最大的好处是, 呃一个它便宜,呃初级的会员二十九块钱,它有这种呃 token 的 数量限制,呃,但是它数量限制之后恢复的时间会比较的短, 呃,比如说五个小时,呃它就恢复一次。普通人用 opencloud 的 话,这个 token 的 数量是足够用的了。这三个大语言模型我我最推荐的是 mini, 其次呢是 kim code 啊, dipstick 我是 直接不推荐的啊。

呃,非常荣幸请到咱们李嘉诚老师,李嘉诚老师是我们黑马大魔 ai 大 模型的这个自身相比人员大家老师。呃,现在我们说 ai 大 模型不止不仅是咱们黑马的王炸学科,也可以说是当天市场的当红炸子鸡。嗯, 那其实就用这个大白话先给大家做一个科普吧,就说什么 ai 大 模型。嗯,那可能我们不会用非常严谨的数学来去讲,但是我可以用一个通俗的比较贴近的案例去给大家去科普一下。大家都学过 y 的 k、 x 加 b, 是 吧?这是一个非常简单的函数,那其实大模型本质上其实就是一个非常复杂的一个大函数 函数,但一旦说到函数,它里面是不是有很多的什么 y 龙、 k、 x 的 k 和 b 这样的参数,我们是不是要求出来?对,其实本质上我们说大模型的大模型,就是因为它的参数达到了十亿级别,就是这样的 k 和 b 啊,达到了十亿甚至更多一千七百多。因为 g、 p 三,大家有印象吗?就是 g p 三,它其实已经达到了一千七百多亿的参数, 大家可以想一百一千七百亿就是入参,就是它的参数被达到一千七百亿啊。对,但大家知道刚刚我给大家举的这个例子,它是一个非常简单的现象啊,对不对?但实际当中这个 ai 的 这种大模型绝对不是简单的现象,它是一个非限性的,它会加各种的一些几何函数啊,包括一些其他的那种层啊,包括什么 这个像那个尺画呀、卷积啊等等。嗯,会让这个模型它变得更加的非限性,让它更具有表达力。嗯,所以说你可以这么理解,其实就是如果说咱们没有接触过这一块的话,你可以就可以把整幅一个非常复杂的庞大巨大,对,然后有很多的参数。嗯,那其实大家想一个问题,实际当中我们就是拿着数据 来让这个模型,就是这个函数来去拟合这样的规律。对对对。然后我们拿到椅子的数据输入给他,不就让他去预测出一个值吗?这个值是无限趋近于百分之百,但是一定是一定会有损失的。对对对,对。 ok。

openclaw 保姆级安装教程,搭配免费大模型,让你唱完龙虾,十分钟搞定 openclaw openclaw 最近实在太火了,但是自己搭建的时候难免会出现各种问题,比如这样的这样的, 所以很多人已经开始做起了上门安装五百一次的生意。这里教你小白安装法, 包括环境配置、权限问题、下载速度等等,看完不仅立省安装费,你熟练后甚至都可以接上门安装的单了。我们直接开始第一步,安装 no js, 虽然 opencon 官方文档并不要求我们提前安装 node js, 但先把这一步做完,可以避开很多坑。首先来到 node js 的 官方下载页面中,点击 windows 安装程序按钮开始下载。但是由于 node js 的 服务器在国外,所以下载速度会很慢, 也可以通过 node js 中文网来下载,下载速度会有明显提升。下载完成后,你打开安装包, 安装位置可以保持默认,也可以选择你想要安装的文件夹。接下来呢,我们就一路无脑点击下一步, 然后点击 insert 开始安装,这里要稍等片刻,完成后点击 finish 按钮, note g s 就 安装好啦。第二步,安装 get get 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 get 的 配置有关, 所以安装了 get 可以 提前避坑。来到 get 的 官方下载页面,根据电脑的架构选择对应的下载链接开始下载。下载完成后,打开安装包,点击下一步, 这里同样可以保持默认,也可以选择你想要安装的位置。再往后,如果你不是专业的开发者,不必纠结这些配置,一路点击 install 开始安装, 等待一小会儿。安装完成后,我们可以把这个对勾给取消掉,它会打开 git 的 更新说明网站,对安装没有影响,然后点击 finish git 就 安装完成啦。第三步,安装 openclaw, 在菜单栏搜索 powershell, 这里要注意以管理员身份运行,然后会打开一个大黑窗口。为了避免 powershell 默认策略太严格,等着安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略, 这里输入 y, 然后回车表示同意这一次修改。为了避免 npm 源导致的下载失败问题,我们需要切换 npm 镜像的下载源,输入一下这个命令,然后回车运行。 很多人安装的时候都会出现这个报错,这个错误的本质是 npm 在 执行 get 操作时拉取仓库或者依赖失败导致的国内访问 get help 困难。先把 get 协议强制切换为 https, 输入一下这个命令,回车运行。上面三条命令能避开很多坑,确保我们一次性安装成功。然后我们再输入这个 open cloud 的 官方安装命令,并回车执行。 这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络或专业网络访问此应用?点击允许。当你看到一句来自 open club 的 欢迎信息,就说明 open club 已经安装成功啦, 不过这还没完。第四步,配置 open club。 open club 会展示一段话,提醒您使用它可能存在风险。问是否继续? 这里可以按键盘上的左方向键选择 yes, 然后回车确认继续回车。 下一步需要选择 open class 背后的大模型服务商有很多选择,比如 open api、 千问等很多。这里教大家使用免费的大模型。我们先选择 v l l m。 第五步,配置免费大模型。