大家好,我是小木头。在新春佳节之际,首先呢祝大家在马年新年快乐,万事如意,身体健康,马到成功。在新春来临之际,通易千万也发布了他们最新款的大模型千万三点五, 本期视频,我们就来了解一下这款全新的大模型,并且尝试将其集成到 openclock, 从而打造自己最强的国产 ai 助手。 那现在就开始咱们马年的第一期视频分享吧。首先咱们对千万三点五还是来做一番简单的了解,这是通用千万系列最新一代模型千万三点五首发开放权重版本是三九五 b a 十七 b, 这个是整个三点五系列的起点。大家要注意的是,这是开放权重,不是完全开源,但是呢,你可以拿到模型权重自己部署。 这是一套原生多模台模型,他并不是传统的厚接插件式的多模台,而是从训练阶段就做了早期的文和图的融合,基于了原生多模台的架构, 这与过去的那种先训练文本模型在外挂视觉编码器的方式呢是不同的。在原生多胞胎的支持下,信息融合更深,上限呢更高,多语言覆盖从上一代的一百一十九种语言和方言提升到了二百零一种, 这对于非英语场景的开发者来讲是一个非常大的利号。云端版本的千万三点五 plus 默认是支持到了一百万的 token, 这个呢指的是上下文窗口,同时内置了官方工具和自定义的工具调用,官方给到了全面的测评,从分数来讲呢,显然这与过去我们在了解新模型时并没有什么意外,最新的模型在方方面面的测评上表现都非常非常的优秀。 我们来看一组数据,在三十二 k 上下文架,相比于千文塞 max, 它的解码吞吐提升了八点六倍, 二百五十六 k 下更加的夸张,达到了十九倍,相比于千万三二三五 b, 也有三点五到七点二倍的提升, 这把大模型可用性往前推升了一大步。从这张图标可以看到,这个对比效果呢,也是非常夸张的,在过去的对比中,似乎我们还没有看到这么大的飞跃。官方博克还给到了我们许多有趣的 demo, 展示了多模态理解加工具调用、加长链路执行的合体能力。这其中呢,包含了编码 agent、 视觉 agent、 空间理解、图像推理,每一个都并不是一个独立的 demo, 感兴趣的朋友呢可以来一个一个的观看了解一下,非常的有趣。 在官方博克这里也专门提到了在 open clone 中的基层,它能够很好地支撑像编码这类任务的执行, 再集成到 openclo, 并且部署到云端,看起来我们完全可以打造一款自己的国产 ai 助手,并且是最强大的哟。 现在呢,我们就尝试将千万三点五这款最新的大模型集成到 openclo。 openclo 是 近期非常热门的一款 ai 助手,在过去的视频分享中,我们也介绍了如何在本地如何在云端进行部署与配置,还没有做这部操作的朋友呢,可以回看过去的视频分享, 那现在呢,我们就来做集成千万三六模型,在许多的云端平台都提供了支持,同时呢,作为一款开放权重的模型,大家也可以实现本地化的部署,我们今天要介绍的呢,是以 open router 所提供的 api 为例,看看如何集成到 open clone。 我 现在分享的是在腾讯云端部署的小龙虾,大家可以在任何的部署中采用同样的方式来配置。 openroute 是 我常用的一款服务,目前呢也第一时间提供了千万三点五模型的支持,目前有两款,一个是三点五 plus, 一个是三点五三九七 b a 十七 b。 我 们以三点五 plus 为例,在云端 通过 openroute config 来进行模型的配置选择。 model 在 分类中已经有了 openroute, 我 们选择它就好。 因为我已经完成过了 openerer 的 配置,已经添加了 api key, 所以 在这里呢,直接就跳到了模型的选择。我们现在翻到 openerer 所提供的模型列表这里,大家或许会发现并没有前文三点有模型, 怎么办呢?没有关系,我这里呢其实已经配置过老的像 cam 三二三五 b 的 模型,我们可以继续这里的配置选择,继续退出当前的配置。 在目前我已经配置过 api key 的 情况下,大家看起来这波操作呢并没有做什么,那如果大家是初次配置呢,这样呢就完成了 open directory api key 的 配置。我们接下来要做的是使用当前这个命令 openclo model set 来设置 open directory 这一款千万三点五的模型, 设置的这个值,它的格式呢是服务商。以 openerer 为例,在这里呢就是 openerer 斜杠后面带上的就是模型的 id, id 来自于模型页面,我们在这里复制这个 id 就 好, 我正是通过这种方式粘贴过来的。这样呢,就完成了三点五模型的配置。配置完成后,或许大家可以尝试重启 dm, 接下来我们来到 channel, 比如以 telegram 为例,我们来看看配置的情况。在 telegram 中,可以使用 slashmodels 命令来选择我们想要使用的模型或列出当前的模型服务商。 当我选择了 openraw, 会列出其中已经配置的模型。这是我已经配置的几款模型,大家根据自己的情况可能会看到的有所不同。 那我如果点击千万三点五这款模型,理论上期望是将其设置为默认模型,但在这里大家会看到这么一个错误,说这个模型呢,还不被允许使用, 那么该怎么做呢?我们是来到 opencl 后台进行手工的配置调教,还是说通过对话的方式让 opencl 来帮助我们解决这个问题呢? 在 ai 时代,在智能体时代,我们应该尝试避免手工再去做这些事情了,完全可以交给 open core 自己解决。因此在这里我们告诉他问题是什么呢?这个模型三点五不能够被使用,希望他帮助我添加到 open core, 他 会自动的帮我完成这个工作, 它会更新配置,重启网关,并告诉我重启后就可以使用了。那在这里呢,我们来看看。 当然了,在对话中,我还将其切换回了 gpt 三点五 codex, 并且期望 codex 帮我验证当前的配置是否一切正常了。它告诉我是的,一切正常,我们可以开始使用千万三点五了。 那么我们通过模型的配置这里呢再次确认过它的模型呢,已经设置为了铅汞三点五。那接下来呢,我打个招呼,看起来一些工作正常,我们现在可以回到 openclo, 作为开发者,我们还是希望更多的验证究竟是不是正常的工作了。咱们可以使用 openclox dash dash follow 这个命令来实时的监控日制, 再打个招呼吧,看看对话情况。在这里大家可以看看日制的情况,在一个子系统的执行中,它用到的模型呢是千万三点五 plus 零二一五 think 模式是关闭的对话呢,一切正常,我们在这里也能看到它的回复,这表示端到端已经通了。大家如果还不确定是不是使用了三点五的模型,那现在呢,可以来到 open router 后台查看实时的 api 调用情况,我们可以看到最新的调用呢,就是用的千文三点五。 好了,这就是我们如何在 opencl 集成千万三点五。在这次的发布中,我们得到了两个版本,一个是千万三点五 plus, 一个呢是三点五三九七 b a 十七 b。 感兴趣的朋友呢,可以来集成这两款模型,分别在 opencl 中跑一跑,看看它们在功能上究竟有什么差异,在日常的编码任务的执行上,是否能够很好地完成我们交给他的任务。 那么这款模型的能力究竟如何?是否能够成为我们日常工作学习中的主力模型呢?大家在使用后也欢迎在评论区给我们留言吧, 那今天的分享就到这里,感谢大家收看。那么在视频结束前,也再次祝大家新年快乐,万事如意。好吧,那我们就下次视频分享再见同学们,拜拜!
粉丝3776获赞1.4万

今天教你如何使用 opcode 切换两个大模型,一个是 glm 四点七,一个是国产的千万大模型, opcode 提供的模型供应商有这些,你可以选择你需要的大模型进行切换。首先打开终端,输入这行指令, 可以看到我当前的大模型是 glm 四点七。最下面是让你选择是本地部署还是远程部署,我这里选择本地部署。 紧接着就是让你选择配置的区域,这里选择模型配置。再接下来就是进入到了模型列表界面,这也提供了很多的模型供应商, 因为我已经配置了 g m 四点七,所以我这里选择千问来进行配置。每一个模型后面都有写是进行授权登录,还是说通过年提 api 进行登录。 我们选中千问后回车,然后确认一下,会弹出一个浏览器的网页,我们点击一下授权的确认按钮, 认证成功后就可以回到命令行界面进行下一步的操作。在这个模型列表一页,他默认其实已经把纤维模型给选中了,我们可以往下滑找到纤维模型,确认一下是不是选中状态,也可以直接按回车进行到下一步。我这里已经看到纤维模型已经被选中了,我直接回车进行到下一步。 这个时候千万模型其实已经配置好了,我们点击键盘上的 esc 退出界面,然后再重新输入刚才的命令,确认一下是不是当前模型变成了千万模型。 我们输入键盘的 esc 退出后输入这个命令,打开浏览器界面,我们点击右下角的按钮,创建一个新的绘画,然后输入一个问题,你是哪个大模型?他的回复是同意千万模型。到此,整个切换模型的步骤就完成了,接下来我要切回到 g l m 四点七, 然后演示一下如何黏贴 api k。 前面步骤和刚才的千万大模型都是一样的,只不过是模型授权的方式不一样, 刚才是通过浏览器登录授权,现在是需要去对应的模型官方获取 api k 之后粘贴进来,选择 glm 四,点击这个模型之后,回车之后它会提示我要去黏贴 api k, 一 般都是登录官网找到 api k 管理页面,然后黏贴一下 api k, 身后的步骤和刚才千万模型的配置一样,我们直接回车就配置完成了。输入这个命令之后,我们可以看到当前的模型已经变成了 g l m 四点七。入这个命令之后,我们打开浏览器网页,在绘画窗口输入你是哪个大模型, 这个时候已经切换到 g l m 四点七了,整个过程就是这样,有需要的小伙伴快去试一试吧,这里是 ai 共生格,我们下期见。

hello, 大家好,这期视频跟大家介绍一下如何给 openclaw 选择一个性价比最高的模型,因为其实在之前的这个视频中,我主要强调了一下,就是大家可以选择千万这个模型,因为千万这个模型目前是免费的,但是目前呢,我陆陆续续收到一些反馈,他们在使用 openclaw 的 时候呢,实际上千万的免费的拓展数量已经不够用了, 所以这期视频我还是想跟大家介绍一些啊,目前收费的,但是性价比极高的一个模型,那么我最推荐呢,其实大家就是用 kimi 的 coding plan 啊,大家可以去登录这个 kimi 的 这个官方网站,然后选择 kimi code 的, 然后会进入到一个 kimi code 的 这么一个啊主页,大家往下拉会发现它目前有三个套餐,一个四十九,一个九十九,一个一百九十九的啊,本期视频不是打任何广告啊,首先我还是想强调一下,就是目前大家只需要选 四十九,每月的这个就已经足够了,那么怎么去配置呢?我也简单的跟大家演示一下,然后大家只需要打开这个 terminal, 也就是我们的终端,然后输入 openclaw, 然后 config, 然后选择模型啊,选择 local, 然后选择 model, 然后选择这里大家会可以发现有个叫 mc 的 一个英文的名字,大家选择这个之后呢,选择第三个, 然后选择第三个之后,就会要求你输入一个 kimi 的 扣定 api k, 那 这个东西从哪拿呢?其实你只需要订阅之后,你就会可以在你的控制台,然后找到你的这个 api k, 然后如果没有的话,你创建一个就可以了,那么利用这个 这个 api k 呢?就然后再输到这个同城里啊,经过我自己的实测啊,就进行一个中度频繁的交流的话,这个四十九元的套餐是完全够用的。比如说我现在给这个 opencloud 设置了大概十个左右的定时任务,然后每天会在不同的时段去执行这些定时任务。其实执行定时任务都是需要耗费大量的 tokyo 呢,那么在这种情况下,四十九元也是够用的。如果说一个免费的千万的这一个 模型,然后你的 tokyo 的 量超限了,那么你也可以给他配置一个 kimi ko 的, 但是我的建议就是大家可以同时配置这两个,为什么呢?因为 这样的话, open cloud 可以 在用完你免费的千万模型之后,它会 fall back 到你的这个 kimi code 的 这个 coding plan 里,所以大家不用担心说我配置了多个 呃,这个 open cloud 的 模型之后,它能不能够正常的工作,它其实是会有一个执行的顺序的,这个大大家不用担心。所以如果说你的这个千万的免费额度不够用的话,大家也可以去申请一个类似于这个 kimi code 的 coding plan 这么一个东西啊。 ok, 今天视频到这里,然后大家也可以去自己尝试一下。

最近一段时间,我相信很多朋友都关注到一个名叫大龙虾,英文叫 opencloud 的 ai 产品。 opencloud 本质上是一个 ai agent, 也就是智能体,它跟某宝、某包这样的聊天机器人最大的区别是不仅能聊天,还能干活, 正是这种实用性,让他刷屏了。龙虾的大火,代表了 ai 已经从聊天机器人时代进入了智能体时代。龙虾只是一种智能体,未来会有越来越多针对不同场景的智能体出现。但是我自己,包括我身边所有用过龙虾或者其他类型智能体的朋友们,都会抱怨一个事,太费钱了, 每次龙虾干活的时候都会消耗大量的 token, 如果模型的 token 费用还比较高,龙虾就成了碎钞机。你可能想问,为什么不换个便宜点的模型呢?因为便宜的模型性能又差点意思。那有没有性能足够强,价格也足够低的模型呢?之前没有,但现在有了。 二月十六日除夕当天,阿里正式开源全新一代大模型千问三点五 plus, 性能媲美 gemini 三 pro gbt 五点二等顶级闭源模型,登顶全球最强开源模型。 同时每百万头肯输入价格低至零点八元,是 g p t 五点二的十五分之一, g m n i 三 pro 的 十八分之一。价格这么实惠,性能真的能打吗? 我第一时间就对千万三点五 plus 做了测试,这次我们测试的重点是这个模型的 ag, 也就是智能体能力。 为了让大家好理解,我先介绍一下智能体的工作原理。智能体主要包含两部分,一个是 ai 可用的工具,当智能体接收到一个任务的时候,大模型需要先拆解任务, 形成工作计划,在调用工具一步一步的完成工作计划。所以所谓的测试大模型的智能体能力,就是测试它拆解任务推理并且正确调用工具的能力。可以说智能体能力的测试相当于是大模型的铁人三项,是个综合能力的测试。但是想要深度测试一个模型的智能体能力 并不容易,你需要有足够多的 ai 可以 用的工具才行。正好我们自己做的 reportify 是 商业研究智能体里面已经有一堆商业研究会用到的 ai 应用的工具。为了这次测试,我专门把大模型换成了这次最新发布的千文三点五 plus, 做了一个基于千文模型的商业研究智能体。 那接下来我们就用这个智能体做测试。第一个任务,对比一下未来理想小鹏二零二四年全年和二零二五年前三季度的利润,做成表格和柱状图。 我们看这里千万模型。首先拆解任务生成了代办事项,这个代办事项生成的是比较合理的,然后就开始调用工具干活了,比如要调用财务数据查询工具来查这三家的利润。 其次还要做一些计算,因为我的要求是对比二零二五年前三季度的利润,所以模型需要把查到的二零二五年前三季度的利润做个加总。最后还要调用图标生成工具来生成柱状图,结果不错,数据和图都是正确的,速度也挺快。 第二个任务,请列出美光、三星电子、 s k、 海力士三家存储龙头公司的核心产品,以及过去半年的涨价幅度,最近不是存储行业大火吗?我相信很多关注 ai 的 人都对这个问题感兴趣,还是同样千万三点五 plus 先是把这个任务拆解成了代办事项, 然后调用各种搜索工具搜索相关信息,一项一项完成代办事项,结果也不错,数据正确,内容详实,也给出了所有数据的出处。 第三个任务,请帮我下载过去三个月纳斯达克指数的价格数据,保存到 excel。 经常做商业研究的朋友们应该对这个任务不陌生。过去你需要在某德这种数据软件里各种点,选标地、选指标、选日期,操作难度不低,而且很麻烦。有了 ai, 你 就直接说你要啥数据就行了。你看 千万三点五 plus 模型,理解了你的需求之后,会选择正确的工具,填写正确的参数,最后还会写程序,把所有数据写到 excel 里。之前 reportify 装的大脑是那种性能很好但很贵的模型, 这次换上千万三点五 plus 这个大脑之后,成本大幅下降,同时它的干活能力并没有打折。那为什么千万三点五 plus 能做到性价比这么高呢?这里面的核心技术是阿里千万团队的门控技术, 这个技术前不久刚刚获得了 neo 一 ps 二零二五的最佳论文奖。这可不是一个普通的奖项, neo 一 ps 是 全世界最顶尖的 ai 学术会议之 一,基本相当于 ai 研究的奥运会。二零二五年,这个会议一共收到了两万多篇有效投稿,最终只接收了五千多篇,接收率不到四分之一。也就是说,论文能被接收就已经算赢家了。在这么多论文里,只有四篇论文含金量有多高? 获奖论文的主题就是门控技术。那什么是门控技术呢?简单来说,门控技术就是通过在注意力层的输出端加一个智能开关,把信息像水龙头那样进行智能调控,这样既防止了有效信息被淹没,也防止无效信息被过度放大。 这带来的结果是,模型更少被噪音带偏,训练更稳,长文本更不容易出现注意力被无关信息吸走的问题。 更关键的是,这个改动,四两拨千金,改动不大,但效果又好又稳定。在美国的 ai 同行都在砸钱拼算力的时候,以阿里千万为代表的中国团队却在算法效率上做极致优化。这就是为什么千万三点五 plus 能做到 token 价格只有 g p d 五点二的十五分之一, jimi nike 三 pro 的 十八分之一。 千万是真正通过技术创新把 ai 模型的价格打下来的。这个思路很可能在智能体时代会大放异彩。 为什么这么说呢?我之前说过,智能体的作用已经被龙虾给验证了,唯一的痛点就是费钱。所以性能足够强、价格足够低的模型,一定是智能体时代的刚需。其次,我们再看远一点,如果想要让智能体越来越有用, 你就需要把自己更多的信息、更多的权限给到智能体。这时候隐私就会成为一个不可回避的问题。怎么保护隐私呢?最好的办法就是让智能体在自己的设备上运行。 想要做到这一点,肯定不能靠堆算力,只能靠算法优化,靠开源模型。未来大概率会出现一个现象,全世界每个电脑里都会有 ai 大 模型,而这些大模型大部分都是中国的开源模型。

最近呢,欧滨克拉可以说是火出了天际,但是作为一个硬件工程师,我的第一反应是,他和我有关系吗?他能帮我解决什么问题呢?所以我就尝试在树莓派上部署了欧滨克拉,并且给他接上了舵机和摄像头,然后就尝试用飞出去跟他聊天。 我给你接了一个 usb 摄像头,现在你让两个舵机动一动,然后拍一段视频并转换成介幅发给我, 轮流互相扇巴掌。来给我跳一个鸡。你太美。 九十度代表否?零度代表是记住这个。然后我会问你一些问题,你来回答我, 我长得帅吗?零点一一比零点九大吗?如果我家门口五十米的地方有个洗车店,我想洗车的话,我应该走路过去吗? 要不你再仔细想想看?模拟一个乒乓球掉在地上,模拟一根秒针的运动。 现在我准备睡觉了,现在是半夜,我要起来尿尿。 先关灯,停两秒钟再开灯,停一秒钟再关灯。 那刚才展示的这些动作呢?都不是预编程的,而是由 openclaw 理解我的话后实时生成的,那它就像是一个活在虚拟世界里的助手,可以实时地帮你写代码并且运行。那我觉得这件事情的意义有两个, 一方面呢,是降低了普通人 diy 的 门槛。那之前的话,我还看到有人用监控摄像头的电机来喂鱼,现在就完全不需要了,只需要你和电机聊天,他就能听懂。 而且除了摄像头和电机,还可以接入其他的传感器和设备。另外的话呢,接入社交软件这件事情也提供了一种新的智能家居控制范式。 过去的话,不管是喊一嗓子还是说打开 app 按下按键的形式,本质上就是一个声控或者说遥控家电而已,谈不上什么智能。而介入大模型之后,它就有了一些思考的能力,比如像这样子, 而且我自己也更喜欢这种交互方式,这种感受就像是我不再直接去控制一个设备,而是把需求告诉我的管家,然后由这个管家去思考要如何控制家里的设备。好,那以上就是今天的视频全部内容了,最后祝大家新年快乐,我们明年再见,拜拜!

openclaw 使用扩大模型加阿尔玛模型调用,实现零费用。首先来安装 openclaw, 我 的系统是 win, 第一步我们先下载 node 和 git 这两个插件,去官网进行下载即安装。 然后到 openclaw 官网,下面有安装介绍。 回到电脑桌面搜索 power 十二,点击右键以管理员身份运行,输入安装命令 是配置模型中选择,快一步步选就行了, 配置完会自动打开网页,没成功。没事,需要等三十秒刷新页面就可以了。 opencool 到这里就基本安装完成了。确认 alma 是 否运行,需要保持运行状态,然后我们让 opencool 直接指挥 alma 模型干活就可以。

最近硅谷最火的 ai agent 项目 openclock, 你 肯定刷到了,全网都在传它能当你的数字员工,但是原版全是英文,配置复杂,网络还经常报错,劝退了不少人。别急,救星来了,我挖到了这个 openclock cn 项目, 专为国内开发者打造的中文优化版,部署有多简单?看好了,只需要这一行命令,不需要折腾复杂的环境,一键安装启动后,这里是全中文的配置向导。最重要的是,它完美支持国内大模型 deep ck, 通用千万 mini 随便选, 速度快,成本低,彻底告别昂贵的美元 a p i。 重点来了,它还能直接接入飞书,以后在飞书群里 at 一下你的 ai 员工就开始干活了,写代码,查资料,做总结。链接我放在评论区了,有需要的小伙伴自取。

之前我制作了一期关于 openclaw 云端部署的教程,没想到大家还蛮喜欢的,也收获了很多的点赞和评论,在这里非常感谢大家。那么很多人问我就是如何把 openclaw 部署在本地,我今天呢就出一期简单的教程,来教大家如何一键把 openclaw 部署在本地。 本期的教程是用 macos 系统进行演示的,如果你是 windows 用户的话,可以去搜索一下网上的其他的部署教程,那我在这里做一个风险提示啊,就是本地部署的话,最好不要部署在自己的工作电脑以及有重要的隐私机密的电脑。 我们最好是部署在一个全新的或者是没有任何资料的一个 mac 系统,或者去购买一个 mac mini 进行一个部署。那么废话不多说,我们开始进行部署的教程吧。如果你的电脑没有安装 nojs 环境的话,你需要进行一下 nojs 环境的安装。首先我们来到 nojs 的 官网,我们点击下载, 你可以通过命令行进行安装,或者是直接下载一个安装程序就可以了。首先我们打开终端,然后粘贴这一行代码,点击回车,这个时候呢他就是在帮我们拉取那个 open cloud 的 安装文件, 看到这样的一行界面呢,说明我们的安装已经成功了。接下来呢我们就开始进行 open cloud 的 配置,我们输入这行代码,然后点击回车, 这边呢就是一些安全的提醒,你可以选择 yes, 然后我们进入快速配置的模式,点击 quick start, 这里呢是输入模型的一个 api, 我 们这里选的 monshift ai, 当然你可以选其他模型或者暂时跳过,我这边输的是 monshift ai 的 一个 api 模型,然后这边把 api key 粘贴进来,点击回车,然后点击这个 keep current, 然后这里呢是选择 channel, 就是 你可以去进行对话的,但是我这边呢暂时就不进行一个配置,我们点击这个 skip, 这里是进行 skip 的 配置。简单来说呢,这里就是你可以给 ai 加上一些技能,比方说一些捕取网页啊,下载一些内容啊,生成图片的功能,我们点击 yes, 然后我们把这些全部都勾选上就可以了, 然后我们点击回车进行一个安装,这边呢设置这个 api 器的话,你可以后续再设置,我这里先跳过,所以呢全部选 no, 这边是选择一个 hook, 然后呢我们把这几个都勾选上就可以了。 接下来就是到了一个 gateway, 就是 网关的安装的一个阶段,到这一步呢,基本上你的安装就已经完成了。我们可以点击 open the web ui, 然后打开个网页,之后呢就会打开一个这样的网页,这个是 open cloud 的 一个控制面板。这边 chat 这个部分呢,就是可以跟 ai 进行对话了,我们来测试一下我们的 ai 是 否安装成功。 siri, 你 好, 那么我们可以看到我们已经可以成功的收到 ai 的 回复了,这代表着你的部署已经完全成功了。

各位家人们,这期视频我们来讲解 openclog 的 本地部署啊,然后呢,我们再接入一个飞书,然后我们通过飞书去操作我们的 openclog 啊,现在我们介绍一下 openclog 到底是个什么东西啊? open openclog 呢,它原名叫做 club boat 啊,大家听这个名字就知道了啊,就是一个机器人 啊,是一个机器人程序啊,听起来挺好听的 club boat, 但是为什么改名叫 openclog 呢?原因很简单,因为这个名字呢,跟 isobik 旗下的大模型 club 啊,冲出了人家是大公司嘛, 就他连夜给他这个作者发了律师函,律师函的啊,就他这个律师函说这个作者连夜给他改了个名字啊,中间,中间起了一个过渡名字叫 motobot, 然后后面呢最终定为 open club, 那 么 open club 其实这个项目的最终名字了,那这个呢?其实是一个个人项目呢?这是个什么东西呢?这是一个 agent, 这是一个智能体对话的智能体啊,那我们可以给他指令,然后呢他可以回答,还能主动去操作我们的系统,然后整理文件,甚至呢自动编辑代码去完成任务啊,总之功能是很强大的啊, 有人说这个 agent 其实已经出现过太多太多 agent 了,为什么这个东西能够爆火呢?主要就是功能比较强大,它是一个部署在本地的 这么一个项目,呃,可以充当个人助手啊,去,你替你去操作这个电脑,那现在我们就来部署一下这个项目啊,部署这个项目呢,比较简单哈,我们如果说你用的是 mac 或者 linux 电脑的话,直接执行这样的一个指令就可以了,这是一个一键安装的奖本, 那如果是 windows 呢,你就这个样子啊,那么 windows 呢,可能会出现一些意外啊,因为毕竟来讲啊,就是 windows, 它还是一个以图形化操作为主的这么一个操作系统啊,就是说指令,指令这一方面啊,其实大元模型对它的指令呢,语料不是很多,不是特别的熟练,所以呢,有时候会出现意外, 所以我们建议还是使用这个 linux linux 系统或者 macos 系统来来去跑这个项目啊。如果说没有这个 linux 系统啊,大家可以装个虚拟机啊,在个人电脑上面装个虚拟机,那我电脑上面就是装的就是一个虚拟机啊,然后所演示的过程呢,就是用虚拟机来给大家演示啊, 你装一个 oppo 网,然后在里面装一个 open 处就可以了。另外其实你用一个虚拟机跑的话,其实更安全一些啊,因为它要获得比较高的权限,所以呢,你一不小心可能会把你电脑上的文件给删除了啊,那可能麻烦就大了,对吧,所以建议还是用虚拟机,先把 这个玩熟了之后,然后再去个人电脑上面,个人电脑上面去跑啊,那我们只需要执行这样一行命令就可以来就可以去进行啊,可以去安装这个项目了啊,帮我把这个命令,那我们可以到官网上面去复制一下这个,复制一下这里面 copy, 把它粘贴到这里面来,我们回车一下啊,这个它需要比较长的时间啊,因为这里面做的事情还是蛮多的。比较长的时间啊,另外加上我这里面做的事情还是蛮多的时间啊,另外加上我这里面做的事情,就不演示这个过程了哈, 我把这个过程呢记录下来给大家看一下,就当你之前玩那那好整点之后啊,没过段时间就会出现这个安装的过程,这过程呢,主要就是三步啊,第一步它会装这个 node。 这第一步啊,因为我们的这个项目本质上呢,就是其实就是一个一个 一个一个 node 项目啊,就是一个 top grid 的 一个项目,所以需要有这个 node。 然后呢,我们需要按住 git, git 呢,就是通过它去拉取这个 有个服务器上面的代码。嗯,接下来就是按住这个 open 啊,按住这个呢,好,安装完之后呢,接下来就各种选择了,就很简单各种选择啊,那这里选意思是 no 啊,其实这个是要确认一下你到底要不要去装这个东西,为什么呢?因为它有一定的 a rescue, 有 一定的风险啊,因为它需要获得比较高的权限,会有一定的风险, 默认选择 no 啊,这里选择 yes, 不 然到这一步就结束了啊。而且接下来就是一个快速安装啊,按快速的这个配置啊, quick start 啊,那么首先第一步就是配置我们的模型,因为它是使用大模型来进行做 规划的,那模型的主要大部分,大部分模型其实都是国外的模型模仿也有 special 啊,有部分是国内的啊, me max 月之艾米亲吻制服 a 啊,这个随便你怎么选啊, 我这边自己选的是这款 ai, 因为我有它,因为我有它的这个 open, 有 它的 api key 啊,你,当然你有哪一方面的,就是你有 memax 或者 v 上面的 api key, 你 就选择对应的就可以了,对应大模型就可以了啊,那么选择对应大模型之后,就是说我们选择完之后啊, 那么紧接着它会有一个会,会说你去输入这个 api key, 当然你可以在跳过,因为到时候我们会回过头来再去配置也可以啊。好,那配置完这个 api, 配置完这个大模型之后,紧接着就是 配置这个 channel, 就是 配置这个频道,其实就是我们要跟他进行你要听的这么一个一个一个社交软件,那社交软件基本都是国外的,都是国外的,到时候我们可以装一个飞书的插件,通过飞书来指挥它那设置,你们可以去跳过 skip now, 对, 那是跳过的意思,当前跳过, ok, 咱们解决下来就是各种各样的配置了,这里面你就按自就这,这里面就是很接下来的配置很随意了啊,比如 skills, 就是 要不要配置 skills, 当然你可以选择要不要装这个 skills, 这个后面配置也可以啊,当然你可以全部选 no, 也没关系啊 啊,这个不需要任何 skills 啊, ok, 然后这里全部就可以都跳舞啊,都可以啊,这里面选跳舞,然后 no 啊,都可以,都没关系的啊, 这里也可以跳过,这是有 hux, 这是一些歌子啊,歌子就是用来记录一些消息的,记录一些信息,记录日日的啊,记录记录一些绘画的啊,当然你这里面可以勾选啊,勾选,怎么勾选呢?非常简单,你移移动这个上,你去移动我们的键盘上面的上下键啊,就可以在上面,这个可以在上面键切换了,然后呢切到哪里你就可以点这个,点这个 space 就是 空格键啊,点这个 space 空格键啊,然后就可以选选中对应的目录了,那么选择之后呢,你可以多选,选完之后的话回车就可以了。 ok, 那 么点完这个到这里基本上转完了啊,回车之后,接下来我们就会看到什么呢? 看到我们的,看到我们这个东西啊,就是看到我们的这个聊天界面啊,它会打开一个界面,这就是聊天界面,我们可以直接在这里面跟我们的 萝卜根根根根根根根根根根根根根根根根根 根根根根根根根根根根根根根根根根根根根根根根根根根根根根根根根根 碰飞书,点 c n 这个网站,然后接下来紧接着我们进入开发者获产,这个地方的获产进来之后呢,我们需要去创建企业资金应用,我这里已经创建好几个应用了,对吧?创建好几个了啊,我们再来创建一个,点进这里面创建就可以了,然后就企业描述,那你就企 业名,应用名称啊,你先写下应用名称,随便写一个,比如说叫 boom boom 啊,就是描述啊,吧啦吧啦,随便打一点啊,这里是应用的图标啊,点创建,创建,创建完之后,接下来我们去啊,我们去添加一些权限给大家。呃,看一些权限啊,看权限的话,我们这里面 是跟通讯相关的权限,我们点点这个权限的名称,这里面啊确认开通权限,然后就会,然后就会开通很多权限啊,开通权限之后呢,这里还有一个非常重要的东西,就是这个事件与回量啊,这里面定位方式,我们点保存啊,这里会出现一个应用未,等一下 点保存哈,就是我们使用常连接接收事件,你点保存的话,它会出现这么一个东西叫应用未建立常连接哈,应用未建立常连接什么意思?就是别没有人跟他连接哈, 这个时候怎么办呢?这个时候我们要回到我们的,回到我们的这个 linux 这里面来啊,就是我们这里面要去去配置一下,这里面就是我们要去跟跟我们的非输产生一个连接啊,那么这里面需要去装我们的插件啊,装我们的非输啊, open open close, 然后呢?把非输装这个插件,然后这个插件插件我就装好了,装好之后我就不再去装了哈。 啊? ok, 那 么你装好,那么这里面我给大家演示一下怎么去进行配置啊?非常简单哈,我们使用 open globe 这个指令 let's configure, 这个时候就是配置我们的模型和我们的 channels, 嗯,这里面需要等待一下啊,稍微稍微等待一下,需要一点时间啊,这个就是很慢哈,就是感觉就是非常慢,因为它是一个用 script 写的这个项目,其实很慢啊。好,我们选择这个 look on machine 本地机器啊,选择这个会变相好,这里面会有 配置啊,这个时候我们就可以配置什么呢?可以配置模型,模型可以配置一下,就是如果当时没有设置模型的话,或者说模型后面要改换模型,是吧?这里面可以继续设置个模型。 ok, 比如说我们,呃设置一下自己,因为我们已经设置自己本了,比如说你这里面选择 memax, 那么这个时候你可以选择模型啊,比如说我们这里面选择我们的 mini max m i d e 啊,回车一下。好,那么这个时候呢就会输入我们的 mini max api 啊,把复制粘贴在这里就可以了啊,然后我这里已经配置过了,我就不配置了。好吧,我们现在 大家演示一下,就是模型怎么去进行配置啊?这个时候我们再再重新走一遍,我们来配一下我们的 channel, 就是 比较它就比较慢啊,需要等,然后我们选择 local 本地的哈,好,这里面我们选选择 channels, 那其实不仅 channels, 它的这个什么 has has check, 健康检测啊, skin 啊,都都可以配置啊,所以你前面如果说没有配好的话,没关系啊,没有配好没关系,然后我们重新再指向 comfig 这个指令,就可以再来配置它。好,我们这里面选择 channels。 好, 可以,这里面 好,那么这里面我们选择什么呢?拆这里面大家看一下啊,嗯,它默这里面啊 channel, 它这里面选择说的是 channel stat status, 就是 啊,我们的频道的状态啊,然后这里面呢是飞书 con contacted 啊,就是我们飞书已经连上了哈 啊,飞书已经连上了,但如果说是第一次的话,它会出现啊,飞书的这个配置啊,要你去输入这个,哎,这个,这,这个东西啊,叫什么呢?叫 a p id 啊,和我们的 a p script, 所以 在这你到凭证去寻找到 a p id 和我们的 a p script 啊,去配置就可以了,这是我现在因为之前配置过来已经配好了,对吧?配好了,所以呢,我这里呢直接跳过这个了啊,然后呢回车一下,我们回书啊, 啊? ok, 那 么这个时候它就是可以修改这个配置啊,修改这个配置我们再来看一下啊,我们点 modify settings, 就是 修改这个配置。好,我们修改一下啊,我们点回车一下,修改一下啊,它说已经配置好了,它说飞书的这个已经配置好了,对吧? 啊?需不需要保持它啊?如果说我们选择 no 的 话,就不保持,对吧?就会重新配置,所以我们这里选择 yes, 就是 说已经配置过了,我就不配置了,好吧, ok 啊啊,所以说域名 open, 我 们选择这个 open 的, 这里面记得选 open 啊,选这个 open 呢,就是开放所有的这个群组啊,如果说你选择 overlist, 那 么它是就是像是设置一个白名单一样啊,到时候需要你去配置这个一些群组啊,那就比较麻烦啊,直接选 open 就 可以了。好,那么这个时候又回到这个 select channel, 让你选择这个东西,对吧?啊?因为刚才已经选过了,是吧?选过了,这个时候我们点 finish 啊,就完成 啊,然后我们再什么呢?他说配置 pos 呢?那我们现在 no 啊,因为配置过了就不不配置了,对吧?好,那么现在我们选择 continue 继续啊, ok, 好, 现在就已经整个领域就跑完了,对吧?啊?整个领域就跑完了, ok 啊,就是我们再回到这边来哈, 回到这边来,因为他必须这个全世界也回到这个地方。你只有,只有什么呢?只有刚才那个东西,那个连接了之后啊,你这里面才能什么才能这里面选择保存的时候才有用啊,然后再添加一个订阅事件就可以了啊,是这样子的, 好了,现在我们因为我这个一切都已经配置好了,我再给大家,现在我们来演示一下啊,就是我们在飞书,我们通过飞书的这个机器人怎么去操作它啊?现在我们这里边,因为我这边已经启动好了,启动好的话,我这里面把它的这个聊天界面再打开一下。啊,现在我们打开那个聊天界面啊,打开那个聊天界面呢?我们可以选择我们的 open log 啊,选择这个布置一下来啊,然后这里粘贴一下, 就打开了个聊天面板,我回这一下啊,所以需要稍微等待一下。好,现在已经现在就打开了, ok, 它这里有个提示打开了啊,好,我们点击一下这里面, 对吧?先打开了是吧?好,打开,现在其实我们就可以跟他进行沟通啊,比如说我们随便搜个,呃, what's your name 啊?因为我这个打不了中文。 what's your name 啊?他说他没有名字啊, still don't have a name 啊,现在是没有这个名字,是吧?啊哈, ok, 这个是我们在 加上自然,你要在界面和他进行沟通啊,但这不是我们啊,最常使用的工具,最常的工具应该是我们的飞书啊,好,现在我们打开飞书的客户端啊,大家需要装个飞书的客户端啊,我们来演示一下,好吧。啊,这个飞书客户端啊, 就是他,我们这边就是你装完这个,就是你装完那个机器人之后啊,他会这里有一个提示给你啊, 啊,你是可以打开这,他会有个开发者小助手在这里面,他会有一个提示给你,你直接打开这个应用就可以了啊,打开这个应用就可以了,然后这里面出现你的这个聊天窗口啊,好,那么现在我们在这里问问题,好吧,在这个飞书这里面,比如说啊,呃,我就不问你是谁了,好吧,我就问一个非常简单的问题啊,就, 呃,就是说帮我读取啊,读取这个 source list 下面的内容啊,这个是用来配置这个进校语言的,我们来问一下,我们要他帮我们去把这个内容复制给我们看一下,好吧, ok, 帮我读取到 source list 里面的内容,他会不会回复我啊?遇到了非说 a p r 权限问题,需要管理员读取联系人信息啊? 好, ok, 授权之后他给读了,他给我内容了,好吧,哎,这个是 social list 文件内容 啊,作为他说这个配置文件里面是 open two i 十二点四系统的软件员使用了阿里员的剑像。啊, 那你还可以干其他的事情啊,你还可以用它去做其他的事情,比如说打开这个浏览器,打开这个百度啊,都是可以做的啊,那如果说你给它装了这个 skill 之后,还可以做一些更专业的事情啊,都是可以做的。好,那么关于这期视频我们就到这里面啊,下期视频我们再见。

近期 openclub 很 火,那么今天给大家分享一期 openclub 本地一键部署,无需繁琐的导出文件,查找资料,所有流程简单易上手,下面直接开始教程。首先我们需要下载一下工具,准备一个汽油加速器,在右上角图标打开口令,输入绿泡泡, 先白嫖一波免费时长,然后搜索 openclub 进行加速,加速完成后点击这个一键部署。 首先我们将这两个路径分别找个自己好找的位置,新建文件夹,文件夹名称不要带有中文,避免报错哈。选择好存放位置后,勾选协议,点击一键部署这里我们需要等待一会, 然后到了这个配置界面,我们需要授权千问的模型,我们点击这里开始极速配置,进入后选择免费授权,然后进入千问授权页,选择注册,使用邮箱注册一个千问账号, 然后我们在邮箱中进行验证一下,验证完成后返回网页,点击重试就授权成功了。授权成功后我们返回其由部署工具, 我们刷新一下,等待本地状态恢复健康后,点击开始对话就可以了。整个流程相对简单易懂,如果需要卸载的话,找到最初建立的两个新文件夹删除就可以了。视频到这也就结束了,有帮助的话记得点赞支持一下。

本期视频教你如何用 cloud bot 生成微信,最后可以做到在微信群自动回复友情提示个人微信号,做这个机器人可能会导致封号。另外最近说的 cloud bot, multi bot, open crawl 说的是同一个事情。 首先下载好 cloud bot 的 代码,按要求进行运行,这里选择接受项目风险。接下来选择快速开始还是自定义所有配置选 自定义,因为我已经运行过了,所以选择现有的配置。选择本地网关,选择工作目录,这里按照你的需求选择不同的大模型,大模型是按 token 收费的,这里选择一个千问,因为它可以免费。这里选择千问的 code 的 模型。 接下来选择网关的端口号,选择网关绑定本地回环地址。还有一些其他选项可以按默认的来,这里列出了他默认旧知识的社交频道,例如 microsoft 的 teams 或者是 what's up, 但国内的选项基本没有,所以这里选择 no, 暂时不配置任何的 skill, 自己钩子可以挑过,也可以随便选一个先。然后这个网关就已经可以被启动起来了,因为我已经安装过了,所以看到这个重新启动,首次安装的话是没有这个 restart 的 选项的。这网关重新启动之后,还要选择这个界面, 选择他默认推荐的 t u i 的 界面。到此为止,所有选项都已经选择完毕了,就等他 默认启动就行了,然后就可以用了。当控制台看到这个信息的时候,你可以在控制台跟他交互,或者是网页端跟他交互,右下角会显示不同的用量,然后你就可以问他是否已经支持微信的集成了,你就能得到答案了,他会告诉你,他现在是不支持微信的集成的。 继续跟他说,你要集成微信,他会给你两个选项,个人微信还是企业微信?回复,他说你要个人微信,他就会帮你创建一大堆的文件出来。 他自动选择用 wechat 这个微信自动回复的方案,扫二维码登录,哎,他就会自动回复,甚至是给你发附件。当然,这里推荐使用企业微信的集成, 你可以继续跟他提要求,需要集成什么平台,还要怎么样集成,只要你跟 ai 提需求就行了。例如这里,他提供了一个 python 版的集成了企业微信的方案,让他打包成一个文件,并且让他压缩成一个我想要的一个文件名。 你只需要让他干什么, ai 就 会帮你把活给干了。但是留意一下,生成的文件都在工作目录下面,工作目录就是一开始运行的时候你指定的文件夹,一般在 homepod 下面的 core 这个文件夹下面。 对于每次对话,只要不是新建的一个 session, 那 么它就会有记忆,它会把自己文件添加到对应的那个记文件里面去,同时会创建好这个 java squid 的 这个版本。 clone 也可以有长期记忆,长期记忆是保留在 memory 点 n d 文件里面的。 最后想说明另外一个事情,当你 ctrl c, ctrl c 结束的时候,其实进程里面还是有两个 probot 的 进程没有被杀死。用关键字去匹配进程信息,你就会发现这两个还没有被我 q 掉的进程,你需要使用 motbot gateway store 来去停掉这两个进程。 如果进程一直挂在那里,也有可能会被不怀好意的黑客给盯上。把整个给位停掉之后,那对应的 motobot 的 进程就不见了,只有这个查询的进程。查询进程是由你去发起的。 我是四爷,讲 ai, 关注我了解更多 ai 知识,了解更多前沿科技。

用 open curl 最重要的一步是啥?我认为应该是大模型选择和对接了吧。你想 open curl 本身是一个 ai agent, 如果它没有大模型的支持的话,就是一个呃,没啥都不能做的一个软件, 只有有了大模型之后,它才有了真正的灵魂。如果你觉得 cloud 系列的模型价格太贵, 然后 token 又耗用量非常之大,花不起这笔钱,那么我还是建议你用用我们的那些国产模型,比如说 kimi 的, 比如说质朴清颜的,还有是甚至千问的, 以及火山引擎的。现在火山引擎火应该叫火山方舟吧。啊,正在推出九块九一个月的啊, coding plan 啊,包月阿里云,它有时候也会推出许多的大模型优惠。呃,一般一个模型会让你用个一百万的量。 呃,大家可以免费试用一下。但是呢,有一个问题,如何在 openclaw 中使用这些第三方的模型呢?如果你进入 openclaw 的 on board 的 页面, 也就是它的配置页面,我们进到它的模型 provide 的 选择这个页面,你会发现上面两个 open ai 和 osart 呢,都还可以。国内的模型大概 呃,年包年的话是四百到五百左右的样子。然后下面我们再往下看。这个 q y 呢,是一个免费的模型,你可以通过 os, 通过他们的官网去免费使用一定量的模型。 tok 可用 zai 就是 质朴清颜 g a m 四点七,这个原先的价格是在两百四一年,现在,嗯,最近涨价了,并且它每天十点钟会放出一定的。呃,是叫什么购买量吧,买完也就没有了,很难买到。 呃。其他的你会发现就没有什么模型国内的模型可用了。这个时候如果你想要用,比如说, 呃,想要用火山引擎的提供的模型,或者是想要用阿里云提供的模型的话,怎么办呢?直接到呃 openclaw 的 json 配置文件中,应取配置,把它配置进去。好,我们直接跳过这个 onboard, 因为这里配置不了嘛。 如果你想要配置一个 openclaw 的 第三方模型的话呢,那么我建议你打开这个 openclaw 的 json 文件。 然后我们来看,首先呢,你要在 os 这边提供增加一个 profiles。 呃,最初的样子呢,其实只有 kimi coding, 这个是 open curl 官方支持的,就是 kimi 的 coding 订阅。 呃,它这里的 mode, 它表示我要认证的方式,大部分的模型认证方式都是这个 api key, 少量的是用 os。 然后你把你的这个 provide 这里的名字只是你随意, provide 名字随意,只要跟下面的匹配上就行了。然后把你的 provide 名字这一项填进去,然后 mod 使用 api key 复制粘贴出,我就复制粘贴出了这两份。 一个是 voke engine 表示的是火山引擎提供的模型,扣子表示的是扣子提供的模型。哎,这里大家可能会问了,哎,为什么扣子还能提供模型呢?呃,这部分内容我待会再说啊,待会再细说。这个也是一个很有意思的点, 如果你配置好了这个 os 之后呢,就授权之后呢,我们来看这个模型部分, modus 部分。 modus 部分呢,你要把这个 provide 的 供应商的细节配置出来,比如说你这个 vok engine 就 火山引擎的,你要把它的这个地址给填上。 呃,我因为我这里的是,呃买了九块九一个月的火山引擎。 b 三,跟普通的火山引擎的 地址是不一样的,然后这里的是你生成的 api key, 你 要填上,然后 api 这里它其实是表示我是用哪种 api 兼容模式,其实一般也就两种,一种是 open and i compilations, 另外一种是 astropic 模式。那大部分情况下你都用 open and i 兼容模式就行了。然后这个 modus 呢,是表示我这个 provider 提供出了多少个模型? 一个大括号中的表示一个模型,那这里我就根据火山引擎上的配置说明填上了。这个模型 id 叫阿克扣的 latest, 它其实是一个叫火山方舟的这么一个 编码的影模型。下面呢,下面这些参数呢?这个 input 就 说明是文本模型,然后其他的,呃,这个是 token max, tokens 就 表示上下文的上下文长度了。 后续呢,我又配置了第二个扣子的一个模型,扣子模型,呃,这个是 a p i t, 然后也是 open ai 兼容模式,然后它其实真正的模型呢,是豆瓣 c 的 一点八。 呃,这里我来介绍一下,你如何用扣子往外提供一个模型服务呢?其实你会,你如果登录过扣子平台,你会发现他有一个网络编程,网络编程里面中呢,他会调用可以调用底层的豆包 c 的 一点八,或者豆包 c 的 一点六的模型。那此时我就想, 如果我能够通过 open ai 兼容模式的方式把底层的模型调用,哎,直接透上来,呃,给其他的大模型用,那是不是我就相当于是这个编出来的这个网页本身就是一个大模型供应商呢, 经过我的测试确实是可以的,可以这么做。并且呢,因为 cos 现在它有一个每天登录送一千五百积分的优惠,所以呢,它也能帮你省下不少托克能量,呃豆包 c 的 一点半还是可以打的。 下面这个模型就是 kimi ko 的是 kimi 的 确定订阅的模型,它价格大概在五百块钱一年的样子。然后呢,是属于 呃 openclock 官方支持的模型供应商,所以你不用配置,你只要把这个 key 填进去,它就会帮你生成这部分内容。 然后我们再看下面这个模型使用部分,上面呢是模型的配置,下面是模型的使用。使用的时候,你要这里在 agent 的 这些呃子子项中填入这个 model。 model 的 这个参数中呢,你要填入一个 primary, 表示你的主模型用什么?我这里主模型呢,用 呃火山引擎的。然后呢,它有一个叫 four bags, 就是 当你的主模型无法调用了,或者头壳用完的时候,会用哪两个备用模型。我这里填的是 cos 的 备用模型和 kimi 的 备用模型。 然后这个 modus 呢,只是表明我这个模型以及它的别名,仅此而已。 好,等你填上了上述,在 opencloud 点 json 中填好了上述信息之后,然后从此 opencloud 的 getaway, 你 就会发现你的这些模型就可选可用了。 改完配置文件之后,你调用 opencloud on board 配置面板进去 provide, 这里还是不变。然后你会在这个模型选择这里面多出几个,比如说这里的扣子,比如说这里的 vogue engine 就是 你新配置的模型供应商对应的它们的模型。好,今天就讲到这里吧。

今年大年初一给大家做个小视频,拜个年,在我录上一期视频的时候,正好那个公众号弹窗出了一条消息,就是千万,又号称出了一个王炸,就是他发布了千万三点五 plus, 还把它开圆了。 我今天做这个评测的这个目的呢,其实非常明确,主要就是看看他能不能成为我用这个 open 大 龙虾这个主战默认模型,因为我的前面的模型是这个 呃,四点七,但是它太贵了,然后我现在其实换了几个雪蚕版这个小模型在跑,然后呢,据说是性能上已经是这个非常牛,比如说在 呃这个知识堆里评测已经超越了这个 gpt 五点二,这我是这个也是我常用的一个模型,在这个博士级难题里面呢,超越了 clod 四点五,这个也是我非常喜欢的一个模型。 但是呢,具体你是这个学复古车还是小镇做题家,其实咱们是不知道的,但是有一点他是非常吸引我的,就是他这个价格 啊,然后后面对比这个价格是这个差不多,詹米莱这个价格也是我比较常用的一个这个模型。现在模型价格体系玩这个 webcoding 还可以,但是老实讲,玩大龙虾的我是有点扛不住了,就是 基本上那个玩个半个小时,一个小时这个十几二十块钱就出去了。但是除了它价格好呢,还有一个它必须是能用的,因为大龙虾本身它是对模型是有要求的,你太低级别的这个模型其实是玩不动它的,所以我是对它那里面写的一些这种特色的这个新能力是非常感兴趣的 啊,咱们一个个看啊,那个第一个就是它这个采用了混合注意力机制,加上 m o e 结构, 简单讲它是更精细化了。大模型,这个在以前呢,主要还是靠大力出奇迹,其实对整个显存啊,纯 gpu 的 消耗都是非常大的,然后它这里面写了显存占用, 呃,降低了百分之六十,其实对我非常有吸引力的。然后我又测试了一下它这个基本上你内存一百二十八 g 就 可以跑了,然后我现在新买这台 这个 mini 呢,是六十四 g, 现在跑智浦的四点七呢,只能跑 flash 版本,虽然它这模型我是跑不了,但是后期它如果是出这种小版本之后呢,我其实是有机会把版本 再升一个级,就这样的话基本上可以接近就是可用的程度,并且他说这个相当是反超这个前三 max 的。 而且第二个也非常好,就是原生多模态,就是他在训练的时候就已经是多模态了,本身这个模型他就可以识别这个文档啊,图表啊,大家知道现在很多的模型他训练的时候还是用文本,然后只是说在最终产出的时候,他是加了一种识别的 模块,本身能支持多模态,但是在资源消耗上,他既要那个两个模型之间通信,然后又是分开的,实际上没有降低这种资源的消耗,像我这种算力资源极其紧缺的人呢 啊,其实这个未来它也会让我能够就是用现有资源往上跨一步的一个点,我如果用它的,我不需要再加一份模型的这个资源,然后去那个识别图像、 ui 这些东西 啊,然后另外一个就是它这个啊,在这个编程和代理任务上都是做的非常好啊。当然它这里面还标注了一个特色的能力,就是对小语种的一个支持 啊,这个我觉得特别强,但是我暂时用不上啊。我在评测模型之前呢,我还是做一个主观的标准,因为不管他的这个评分怎么样,最终我们还是要用,还是要看他是否是真正满足我们自己的一个需求,我把我常用的一些工。

咱们上期用那个 onigravity 连接这个 open cloud, 以最小的成本来使用 open cloud。 后来就有同学问我应该怎么用 open cloud 连接欧拉嘛?其实有三种方法,应该也不止三种方法,今天介绍几种简单的方法 来连接。第一种方法,其实最简单的,如果你还没有从 outboard 升级到 open cloud, 你 就可以用这个命令,就 alama launch cloud bot, 这里个你接运行就可以了,它会自动检测你 open cloud, 它会自动检测你 欧拉玛里边已经配置的,不管是云端,它是本地的模型,自动配置上这里话是它这里显示出错,但是没问题啊,是因为我这个本地已经运行了 open cloud 的 实力,所以它就会出错,但是咱们可以看一下它是怎么配置的,它会自动把你的配置面念改成这样。 cloud bot, 看,咱们搜一下奥拉玛,奥拉玛这里的话,你可这个很重要,它已经配置好了,不只是 cloud 的 官方云上的模型,还有本地的模型千万二点五, 包括千万四 b, 这个是我自己配置的,这样就可以直接保存。第二种的方法,配置奥拉玛的方法其实更简单,你就可以直接去它的路由 model 点路由这边就可以配置了,叫 api, 也是咱们也选这个, 它刚才是什么来着? open i competence 支持这个模型,就是 apikey, 这里是跟那个是一样的,看 baseuile 也是刚才咱们看到那个下面就是模型了,你看这里有 context window, 这边有 id, 跟跟这个跟配置文件里边其实是一样的,只不过不如看,不如看那个配置文件来的直接。咱们再说一下第三种方式,咱们说一下其实刚才的配置文件自己加,刚才是奥拉玛自己加上,第三种方式咱们自己 加上,咱们这次看我的 open cloud, open cloud, open cloud jason 这里边我也配置了,咱们看一下我的欧拉玛,这个里边是我自己 copy 过来的,从旧的那里边 大家看还是一样的,在它的跟的 jason 下边直接加一个 models providers, 里边加上,那就可以了。另外这里说一句,这里不止可以连接那个奥拉玛,也可以前连接 lm studio, 我 一直特别喜欢 lm, 它不仅支持它里边支持的模型很多,不管是开源的各种模型都支持, 这样也可以同样的把它是配成 lm studio bc u i l 这个 bc u i 我 从哪来的?咱们这里的话,因为我用 lm studio 应该知道这里是它的聊天框,这里第二个它也可以把它 的 api 暴露出来。现在我用的是千问的四 b 二五零七,这是它的在本地的地址,这里也可以用这个来配,更多的信息可以在这找到,可以填进去,也可以跟奥拉玛一样使用, 这就是三种方式配置,但是配置完之后,大家一定要记住,不管是 open cloud 还是 cloud, 已经要运行这个什么 o, 以 open cloud 为例子了,就是 open cloud it way restart, restart 完之后我们再拆开一下 status, open cloud status。 最后咱们通过 chang 来验证一下啊,你看如果运行这个命令呢,有斜杠 model 的 话,它会自动告诉你现在用的模型是哪个。好,今天就到这里了,希望可以报道你,谢谢。

今天我们来测试下 open 可乐的能力到底怎么样,我们就用最基础的版本,不安装任何技能,看一下能不能按照我们的意思执行,能不能解决一些文件处理的要求,以及需要多长时间。然后这次选用的模型是轻微三 coder, 是 一个四百八十 b 的 云端模型,这也是比较推荐的模型排名第一的。然后 准备了五个任务让他完成,这前几个全部都是一些文档分类之类的工作。然后第五个是把视频压缩,上面的事情做好了,通知我就这些看他能不能完成,大概需要多久才能完成,然后看一下他完成之前的样子。第一个应该很简单,我们就不看了,先看第二个 文档,桌面上目前是没有这个文档的。第三个是下载文件夹里面目前就这些文件,然后都是分散的。然后第四个是外置硬盘的分类,目前视频都是这样散开的,大概有二百多个 g, 然后桌面上的视频文件在这里,然后目前是这些散着的,看它能不能够完成。好了。目前我让 opencloud 的 帮我把模型换成了千万三扣的四百八十 b 的 这个原单模型,让它已经换好了,我直接把问题粘到这个里面,然后现在的时间是九点零四分,直接粘贴,粘贴的时候看一下这些其实是还是 再顺便再看一眼,还是没有动过的好,下载里面也是没有动过的啊,这个视频文件里面也是正常的。好,我们现在等,然后我不做任何操作,看他呈现的结果到底是什么样的。现在是九点零四分, 刚才我出去了一趟啊,现在回来了。然后这是 我先看一下。首先我是九点零四发的,然后九点零九的时候他, 呃完成了这个任务,我们来检查一下,看有没有这个。第一个就不检查了,第一个很简单,然后第二个是 实际上我们的。呃,不是这样的,我们提供我们要的是 t x t 和 pdf, 但是他说由于技术限制暂时无法生成 pdf, 提供了 h t m l 版本,然后确实是,然后这个无伤大雅,这个我觉得也还可以,这还加了个 pdf 的 t x t 这些 ok, 可以, 但是他没有完成。我的那个去掉这些占位符的这些要求,但还行。然后第二个, 这是第二个。第三个对下载文件夹的所有文件进行分类整理,打开,我们打开看一下,这是下载,然后这是整理后的内容,我们点开看一下,我去,还挺多。首先配置文件,这里没有空的,其他视频空的, 其他图片空的,其他文档空的,这些上面全是空的,其他应用都是空的。这有个视频,他把 mv 视频和 mp 四视频都分类了, mv 是 空的, mp 四也是空的,很很神奇。图片 好,不用看了,这估计都是空的。他应该只是新建了文档,但是没有理解,我的意思就是他没有把真正的文件放到里面去。好,这个不用看了。 好,他写了个脚本,就是他刚写的脚本,然后是第三个,第三个完成的,我觉得不行。第四个整理外置硬盘中的照片和视频,这个看一下。 好,现在目前外面只有这些这些脚本,还有一些这些不是标准类型的文件还在外面。好,我们点开看一下,其他媒体没有什么文件,我靠, 统一文件夹,我靠啊,这,这是,这是对的,这是对,但其他的不对,他把我的文件全部删掉了, 我靠,他把我的文件全部删掉了,这个不是这个,这个不是那个, 这个绝对不是脚本,这个,这个日常的,所以很多人对他的能力还不太清楚,今天就带大家看一下是不是到底像网上吹的那样,是不是这样的。好,目前这个文件夹上上载的,我们来撤回一下, 停止,我的视频也不见了。看一下,确实不见了,只有这些了, 本来应该是有 iphone 的 那些,还有包括索尼相机拍的照片都不见了,但没关系,我已经备份了。好好, 目前只有这一个了,只有这个 dgr 的 这个,而且不是无人机的视频,是运动相机的视频。好,这是先看下这第五个,第五个是压缩视频文件,我们打开这个视频 没有做到,他没有做到。这个就是我使用 opencloud 推荐的模型,而且是一个四百八十 b 的 原单模型所实施出来效果不知道你怎么看?可以在评论区留言,所以我觉得也不用过分的焦虑,因为目前的 ai 它确实做不到很多网上传的这种非常神奇的能力。今天小马给大家整理一下,如果你觉得对你有用的话, 可以点赞双击加关注,接下来我会分享更多欧根克拉的内容。刚才我又看了一下,不对劲,因为他有这个两个命令,这个也是他新建的,这是九点十分,这个是九点零八分,所以这个也是他的,我们看下这个怎么样啊?这是英文安装包,这是 d m g 的 安装包,然后这是 镜像,还有 windows 的 安装包,然后这个是一些压缩包。对,没错,他把后缀的这些都都忘了,然后音频, 哇,这个还不错。说实话这个还不错。这些这些都不看了,应该都是按照按照分类了,然后看一下抽检一个, 这些是 mov。 没错,这是 mp 四好,其他文件好一些。文件好,但是确实是。再看一遍影像,它确实是把我的这个 影像给清空了,我没有剪过一刀,它是一直在录屏的,所以我觉得,呃,这个能力确实会有一些问题。

大家好,我是兔兔,欢迎来到我的频道,真的是好久不见,差不多一周的时间了,我都没有发视频,因为 上个星期我就在家研究 open call, 都没怎么出门。这个时间呢,说长不长,但是 也不算很短了哈,要问我在这个过程中有什么进展,有什么发现?我想先分享一个截止目前为止 最大的感受。我好像终于理解什么叫技术超能力了,作为一个完全不会写代码的普通人,现在我可以让 ai 来帮我写程序,部署服务、调试硬件,甚至操控远程设备。 而以前一些脑中的奇奇怪怪的想法也有落地的可能了,真的是一个一个做出来了,最夸张的是,他已经从软件层过渡到了物理层。 我知道这么说有点虚,有点玄乎,但这确确实实是我最近一段时间来的一个真实的感受。那么在具体分享我用 oppo cloud 做了什么之前,我想简单的分享一下我在这上面投入的硬件软件的成本。 先讲一讲硬件成本,我在分享初次体验 opencloud 那 期视频当中就有提到过,我在去年底其实就买了一台六十四 g 版本的 mac mini 四 pro, 当时本来就是想拿来跑一些本地大模型研究研究 ai, 然 那阵子呢,处于超级新手期,都还在想怎么样去利用好这台设备,结果没过多久, overclock 就 出来了,这个真的就是巧了哈,硬件层面来讲就属于遥遥领先了。 那这个 overclock 其实已经经历过三次更名了,问世的时候真的是超火爆,很多人就到底用什么设备去装,也是掀起了不少的讨论, 都说可以不用 mac mini, 用其他的设备,那我呢,刚好手上有一台,最开始就用的是 mac mini 嘛。然后在过去一周呢,我其实也尝试过用三种不同类型的设备都去试装体验了一下。 首先我试了用 zmar broad, 它的系统是 zmar o s, 能不能装?当然能,它的应用市场都自带了,更新的非常快,我就试了一下,结果发现这种被动散热的设计呢,就会导致它在运行的时候 非常烫。其实目前呢,清迈还处于没有到夏季最热的时候,但是我感受到那个机器烫的程度到什么程度,可以煎蛋了。我很担心长期这个样子使用,所以这种散热压力就会导致在运行 open club 就 有一点卡卡的。 其次是我的一台小主机,华硕 n u c 十四 pro, 那 这台小主机的硬件性能是很强的,跑起来是绰绰有余,但是呢,我是把它放在国内的,是远程控制的这么一种状态, 结果就遇到了网络环境的问题,在调试方面呢,挺麻烦的。后来呢,家人还跟我反馈说这台机器他的风噪声很大,就呼呼作响吧。然后我在网上也没有搜到很好的那种散热配件, 所以目前呢,就是一种因为网络因为风扇使用不畅的一种状况。 最后是十三寸的 macbook pro i 五的 cpu, 这是我的第一台 macbook pro, 大 概七年前买的吧,就一直舍不得出掉,留作备用了。 它的架构其实和 mac mini 已经完全不同了,性能放今天来讲也属于比较差了,跑 open cloud 可以, 但是相同的 cloud 的 模型,我就发现它这个反应速度确实要慢很多,然后在高负荷的情况下呢,风扇噪音也是明显很多,不过还是可以用的。 那其实我用的三种不同形态的设备都可以装,所以我也意识到 openclaw 它对硬件没有那么挑,要求没有那么高,但是如果有性能更强的 cpu, 更大的内存支持, 那么在运行上来讲就会更加的流畅,更加的高效。好像有点在说废话嘞, 那说完硬件层面,我还想小小的补充一下,就是我基于语音输入和识别去购买了两个小配件,一个是麦克风,还有一个是快捷键键盘。麦克风也是看别人推荐的,效果还行, 之前长期跟 ai 对 话,我就发现我打字的速度跟不上,会降低效率,然后我就开始用语音输入的内置的麦克风, 但是周边环境的噪音多一点的话,会影响识别的精准度,而且因为有一段距离,所以我的声音会需要比较大,说久了之后嗓子有点疼。 后来我就用了这种放在嘴边的麦克风,识别效果有一点点提升。当然我觉得这个也不是最关键的,还是要配合语音输入法和 ai 校准这个样子呢。出来的大段文本准确率是比较高了的,因为我有的时候说我可能 口述的时候会有重复的习惯啊,或者有一些口语化的表达,那这样一套组合下来,其实识别的准确率真的就很高,我基本上不用改的。 而快捷键机械键盘的作用非常简单,主要是想减少高频操作情况下对笔记本键盘的损耗,然后就试了一下,还可以,手感还不错。 还有就是买了 esp 三二设备,这个设备挺有意思的,但是在这里我要先卖个小关子,因为之后分享我用 openclaw 做了什么的时候,我就会重点分享一下它, 再来聊一聊软件方面的投入,也就是各大 ai 的 订阅。其实在这个方面我算了一下,这个支出还挺大的, 就是三家我都有在用。关于这三个 ai, 简单说一说截止目前为止我的一个使用感受。 club 的, 我最早用的是二十美金的那一档,然后上个月不是做了一个升了吗项目吗?当时就触发限额了,我一咬牙,升级升级成了一百元那一档, 就想着说之后肯定很够用了,结果没想到我要制作炒股的一个项目的时候呢, 又触发限额了,这个托肯真的很贵啊。所以我也在 open cloud 上面做了一些优化,比如把一些不太重要的工作丢给其他的便宜模型,比如我把项链模型部署到本地,再比如定期重置对话,以及设置 cloud 的 上限。其实截止目前为止,我的主力 ai 就是 cloud 的。 可能视频前朋友会有一个小小的疑问,市面上那么多 ai 还有平替的,你为什么就选 cloud 的 呢? 我觉得可能是使用习惯,一开始我的工具制作还有一些小开发都是用的它,而且随着我投入使用的比例的增加, 我发现它收集我更多数据之后,好像比其他 ai 确实更懂我一点,更能 get 到我说的意思。所以目前呢,属于一种比较依赖的状态。当然后续如果有比较好的平替,我是二十美金的那一档, 但说实话,最近我的使用率真的是降低了很多,所以一度我都想要去把它停掉了,但是又觉得在泰国这边,在手机端 app 使用的时候,它的通话和语音 响应速度比较快,体验是比较好的,所以这一点呢,让我至今都有点犹豫。但是如果一定要去砍我的 ai 订阅之初,我第一个应该会选择把它刷下去, 然后是积木莱,目前也是 pro 版,之前打折的时候我就直接年付了这个积木莱用下来呢,我真的觉得它是目前所有 ai 当中 性价比很高很高的了,就是它既可以编程,又可以处理长文,还可以升图。目前来讲,我其实对它的各项表现还是比较满意的,但它有点挑 ip, 偶尔连接不上。 而国产大魔星我当然也用过,之前 deepsea 出来的时候我就想要体验一下嘛,充了一百多,结果用了好久好久,现在都还有六十多。以及我上周体验的 kimi, 我 就当时看很多人都说它挺好用的,所以就充了一个 kimi co 的 七天乐, 差不多五块钱,超级便宜的,就想着说短时间作为编程助手来体验,看一看表现还是不错的。但是七天时间一到,他就要强制给我升级成四十五块钱包月的套餐了, 他问都不问我洗得好,我最后一刻发现了停止了,真的是有点迷哈这操作。目前我的 ai 订阅就是这些了,这个开销其实不低,可能就是学习的成本,学习的代价了。只能说期待未来 ai 越来越普及,关于 ai 的 基建、算力都有所提升之后,它的价格就能够降下来。所以呢,我现在为了对得起投入的这个学习成本,我给自己定了一个小目标,每天至少要用百分之八十的量, 如果当天我的用量没有达到,那就是我对于 ai 的 研究开发还不够。除了订阅,我还买断了 mac whisper 这个软件, 因为这个软件它支持设置本地的模型来进行校对,所以现在我的语音识别和校对都是本地的,体验很不错,安全性也挺高的,识别速度真的挺快的。因为现在放了个话筒在嘴边,所以我给俩洗碗都不可以,就可以一直叽里呱啦的说个不停。 手机上暂时用的 tablets, 一个月内是免费体验之后就要付费了。它的输入准确率是非常不错的,接近于手打了,但是我始终不太喜欢它后台常驻的这种方式。还有就是我想要 减少一些在 ai 软件方面的支出,所以呢,我就用 ai 去做了一个山寨版的,虽然说体验没有这个 typeface 好, 用时也更长,但是免费啊。 那么总体算下来,硬件和软件的投入确实不少,但还是那句话嘛,对我个人而言,我认为它是我的一个必要的学习支出。 那其实也有很多比较精深的方案,就比如说硬件层面完全可以去买 mac mini 的 基础款,比如说订阅, ai 的 订阅也可以去找一些平替,甚至现在也有一些免费的方案都可以,对吧? 只是说这个呢,就看个人的选择需要跟喜好嘛。那我现阶段并不是说因为投入了这么多,所以我要取得一个很及时的现金回报, 而是我想要去学习,想要去学会这一个技能,就是我觉得目前还处于一种会,但是也没有说用的很好的这么一个程度, 所以接下来呢,短期需要功课的目标就是真正的把它用到位之后再说,完完全全的掌握, 毕竟这对于我们所有人而言呢,其实都还是一项比较陌生的技能,而且现在 ai 的 门槛确实也是越来越低了嘛,未来我相信这个 学习的难度也会越来越低,整个花费也会越来越小的。对了,还想分享一个之前发生在我身上的糗事,就是我放心的让 open class 去同步我的视频到我的群里边儿,结果 我可能没弄好吗?肯定是没弄好,他一晚上推送了几十次,而我睡着了, 后来都是群友来提醒我的尴尬。所以想说的是,在享受 ai 带来便利的同时, 我们也要对一些基础的技术有所了解,就是不必要成为大佬,也不必要成为这方面的专家。但是呢,也不能纯做甩手掌柜,多一点了解,在用 ai 的 时候就会更加的安心,也就更能去防范一些安全风险,技术问题。 ok, 那 么本期的分享呢,就到这里,欢迎视频前的朋友在评论区留言讨论,大家相互交流,看看我们下期见。

一键部署 openclaw, 无需复杂的管理员操作,一键即可实现安装部署。手动部署很麻烦,而且会出错,小白完全搞不定。我们现在默认已经有服务器,直接从部署开始讲起,我们需要打开棋游,搜索 openclaw 进行网络优化,没有时长的兄弟也不用担心,在右上角这里点击口令中 可以输入神秘代码,吃烧烤白嫖,时长用来加速。然后我们点击这里的一键部署,就可以跟着一键部署了。 最后我们再去千问授权一下, 授权好后就可以正常使用了,兄弟们快去试试吧!

最近爆火的智能体 motbot, 名字还没被大家记熟,又又又更名为 openclock。 与其追逐快速的版本迭代,不如来看看这份更亲民成熟的桌面智能体平替方案。 阿里发布首个桌面智能体工具 quadwork, 它的目标简单直接,输入一句话就能指挥它调用电脑软件干活。网友调侃这是打工人之光,测评博主直呼太香了,夸他深沉。 ppt 逻辑清晰,处理 excel 又快又准,还能把图文一键转成视频脚本。 最关键的是,它让 ai 从云端落到本地,直接操作本地文件,兼顾了速度与隐私安全。阿里此时出手,正踩在 ai 智能体的全球风口上。国外的 open ai、 antropic 都在发力,特别是 cloud coork, 但每月不菲的会员费依然劝退了不少人。 阿里的 codework 此时亮相,无疑为国内用户提供了一个更接地气的选择。这得益于阿里在 ai 编程上的积累,其编程工具曾将开发效率提升百分之六十五,如今,这能力正从开发者延伸至所有普通用户。 从行业趋势来看, ai 正从聊天时代大步迈入行动时代。竞争的关键不再是聊天能力,而是理解人类意图并安全执行任务的本事。本地化隐私、安全、开箱即用, 将成为桌面智能体的核心胜负手。阿里 codework 的 发布,标志国产 ai 应用向真办式提效率的深水区挺进。未来的电脑里,或许真会多一位得力的数字同事,这场桌面效率革命才刚刚开始。那么问题来了,这样一个能替你干活的 ai 助理,月付多少钱?你愿意买单?

给大家展示下我的大龙虾,首先介绍下本地的欧莱玛用的千问三,然后展示下欧莱玛本地速度, 然后展示下大龙虾十倍速。