为什么简单的事越做越累?做店铺运营报表导出,每天被这些琐事绊住手脚,子鸟 ai 用 ai 点亮运营,让繁琐变轻松。无需代码小白也能玩转简单对话,把每天折腾的活变成 ai 的 日常小事。 一、分析店铺的健康状况。二、导出所有店铺的付款报表。三、下载延迟订单情况。四、分析今日的广告策略, 各种各样的运营需求,一句话就能搞定。对 ai 说,导出所有店铺账户状况,并深度分析子鸟 ai 直接生成并分析, 一夜看透所有店铺,风险一目了然。从前登录 a 店铺查看,登录 b 店铺查看,现在一键即可完成操作,业务不增人小,能翻两番。同时, ai 流程全程透明,可随时调整,每一步都安心。 一、复杂数据瞬间清晰。二、重复劳作自动归零。三、决策迷雾智能驱散子鸟首款原生 ai, 把跨境运营困扰变成机遇,无需学习,只需一句话,剩下的交给子鸟 ai。
粉丝20.5万获赞29.8万

在里六客户的内地报纸们可以点击发现纸鸟开放平台,进入到我们的官网,开始教程对接 这里检查一下龙虾是否部署在本地,这很重要,咱们可以浏览器输入 a c c t 冒号斜杠,斜杠一二七点零点零点一,冒号一八七八九斜杠访问本地后台,访问成功,说明满足部署条件,继续往下走,接下来就要去官网下载我们的公社包,记住目前只有公社包可以用哦, 我这里是已经提前安装好了,记得版本是六点二六开头的才是哦。 接下来我们访问控制台申请 p t, 切记只有不是有权限, 拿到 p 以后下载我们的 q 给龙虾安装 q, 安装完成后把之前的 q 给他。这里我们按住键盘 d v 加 e 键就可以快速粘贴之前复制的 q。 切记,绑定前一定要先手动启动浏览器,登录上账号,这里我们切换到我们想要使用的子账号,让它跟 t 做一个绑定, 能获取到店铺数据,说明绑定成功了。接下来我们做一个打开店铺加搜索加截图的操作试试 成功啦!到此教程结束,感谢宝子们观看!

谷歌最新开源的大模型 demo four 据说很强,在综合能力上甚至超越了二十倍规模的开源模型。 今天教大家如何快速部署在本地,以及分享一下在 mac mini 上的实际体验感受,具体感受什么样?大家看视频吧。首先打开欧拉玛官网,下载它的应用程序, 打开应用程序,我们看一下他目前支持的一些免费的开源模型,还没有 demo, 所以 我们需要去他的官网再去下载下载到本地。那么这里呢,有很多不同的型号 可以看一下,它有很多不同参数的型号,有满配的,还有一些轻量版的。那因为我这个是 mac mini m 四十六 g 版本,所以我们就选择它系统默认推荐的这个九点六 g 的 好,只需要复制这个指令,然后打开终端运行,它就会自动去下载 这里下载了。那么我们先测试一下, 测试一下他的回复速度,因为是第一次响应,所以速度会有点慢,然后我们打开活动监视器,看一下他占据内存的情况, 这个模型本身就有实际系统走内存差不多也跑满了,这里他已经有回应了,我继续再测试一条, 第二次响应速度要比第一次快很多, 我叫 jam 四,我是一个由谷歌 deepmind 开发的。 ok, 现在我们打开欧了吗?然后去加载一下,这里要重启一下这个程序,然后再看模型选择,里面 最下面就已经有了已经安装好的,现在我们把这个模型对接到本地的小龙虾,只需要复制这个指令,打开终端,在终端里面运行,它就自动会加载好, 这里有不同的模型选择,都是他支持的一些免费的大模型,我们选择 demo 让他去运行。 ok, 这里已经加载好了,测试一下他的响应速度。 这里我是放了八倍速了,说实话,因为实在是太慢了,他平均回复一个问题的速度差不多要两分钟, 非常非常慢。我本来想在这个小龙虾里面测试一下他的执行任务的能力,但是这个速度的话确实没有办法, 但是它有个好处啊,如果你有低血压的话,你就可以用它。我是动物城朱迪警官,你好吗?我过得还好,不错,谢谢。这里我甚至尝试开启快速模式, 但是实际的感受没什么变化,就还是那么慢, 所以只能放弃在这里面做测试了。那么我们还是回到欧乐玛,在这个软件里面测试一下这个模型本来的能力。这里给他放两张图,让他识别一下图先, 一个是标格,一个是周杰伦,看一下他能不能准确的识别。 这里我也是开了倍速的啊,但是这里的速度要比小龙虾里面快很多, 我给他给出的答案是,图二是陈坤,图一是一名中国艺人, 看来这个版本的模型识图能力还是有点差。接下来测试一道经典的陷阱题啊,这个对大模型来讲是一道陷阱题,很多大模型都倒在了这道题上面, 那么他给的建议是走路去,最后测试一下他的复杂推理能力, 这道题是我让 gbt 五点四给我出的一道推理题。 abc 三人中恰好有一人是骗子,永远说假话,另外两人永远说真话。他们各自说了一句话, a 说 b 是 骗子, b 说 c 是 骗子, c 说 a 和 b 至少有一个是骗子, 请问谁是骗子?给出答案,并且给出完整的推理过程。好,他给出的推理过程和答案我跟 gpt 五点四给的标准答案对比了一下,是一样的, 所以它的复杂推理能力还是可以的。 ok, 总结一下实际体验感受啊,你如果是 mac mini m 四十六 g 版本,虽然能运行,但是它会把你的内存拉满,就是你的电脑会一直处于满负荷的状态,而且响应速度也很慢,所以使用感受是很差的。 当然,如果你的电脑配置足够高的话,你是可以去尝试部署在本地的,因为它的响应速度肯定要比我这个要快很多。而且你还可以尝试去部署它的满配版,比如三十 e b 那 个版本, 能力应该是要比这个强不少。

大家好,我是根谷 open cloud 的 追马四欧拉玛全新的本地模型体验来了。欧拉玛最新更新的版本是 v 二点零啊,已经支持追马四,搭配 open cloud, 响应更流畅,速度更快,回车记出结果,支持常文本做任务处理,本地 i i 体验相当的不错, 要想流畅的体验,快去试试升级吧。首先教大家如何去升级吧,当你用这个积马四的话,你首先的显卡应该是十六 gb 上的啊,最好能够到三十六 gb 啊,我的电脑是一个一百二十八 g 的 全存和内存一体化的,是吧, m 四 max 的 最强电脑,所以说我运行这个东西是, 呃,我运行这个金马四二十六币了,这个模型是没任何压力的啊,欧拉玛兔啊,一定要用这个命令啊,金买四二十六币啊,你回车 他默认的会把它下载到你这个,因为我是下完了是吧,当然如果你下载很慢的话呀,你应该去做的有两个操作,就是应该是这么做的,应该是做那个去开他代理啊,这个代理应该是这么做啊,就是去去这么做 开这个代理啊,或者是你去那个把这个镜像设置为那个,设置为一层摩摩搭论坛的那个代理啊, 就是把它带代理到国内啊,如果你能够魔法上网的话,就不需要开代理了,因为我这边的网速是比较快,大概是下载了接近接近两个小时,一个半小时啊,大概是五到六兆每秒,他是七 gb 的, 他会下载哪个目录呢?你可以看一下这个目录啊,欧拉玛这个目录,呃, 首先它的模型会下载到这里,下载你其实不用管了,你可以打开你的欧拉玛,现在欧拉玛其实它又升级了一个小版本啊,就是零点零点二 两百啊,零点二点,零点二点零点二啊,这是今天最新版本,大家建议大家升级最新的版本。那我这里下载了两个模型比较好用,一个是 gbt 的, 一个是 o s s 二十 b, 一个是这个积满四,最新的二十六 b。 那 我发现这两个模型都非常快啊,你下完了以后,你一定要用欧拉玛浪琴去启动欧拉玛 浪去,他去启动这个欧风 club, 启动完了以后我这已经是启动了,启动了以后你打开这个小小龙虾的页面来,我给他做一道数学题目吧。啊,这个他不知道他能不能识别啊,哎,你看非常快吧,秒开吧,是吧? 然后他这个地方其实有错误啊,就是我应该去截个图给,不知道能不能截图过去啊?就是你,哎,就是就是就是,求解,这个一元二次方程, 不知道他能不能识别。这个啊,他已经识别出来了啊,这个是啊,我不知道这个结果是不是对的。 x 平方减五, x 加六啊,应该是没,应该是没问题的,对吧?一个是二,一个是三,对吧?对,非常快,然后这个数学题其实更难一些,就是这个勾股定力的这个,一个这个这个 啊,你看看一下,他应该是应该是很快的,一秒、两秒,两秒就出来了,这个比之前是快很多,我记得考了应该是三月 二十八号那个版本嘛,大概是一周前的欧拉玛这个版本和 opencall 的 最新版本啊,它大概是这样一个难度的速写题,要要五到八秒钟,如果是过年的那会大概是要一分多钟,所以说现在是非常快啊,非常快啊,就是我感觉比那个 api 都要快,所以大家尽可能去试一试啊。用它进行养虾的话, 那比如说,比如说我是谁啊?对吧?他应该很快就能够找到十二月份,是吧?年龄怎么怎么样?我觉得非常快,这个建议大家赶紧去升级吧。

兄弟们, openclaw 也爆雷了, ai 小 白,真别听那些博主再瞎忽悠说什么智能话办公神器了。新闻爆出有人在本地部署了 openclaw, 结果程序直接开启 dnc, 把浏览器开放到了公网上,保存在谷歌里的信用卡瞬间被刷爆。甚至有人在叉帧包里发现了远程控制和木马病毒, 不仅会暗中刷改你的网络配置,还会疯狂抓取你电脑本地存储的所有账号密码。更离谱的是,现在抖音上还有不少所谓的跨境大咖在那里教大家用 openclaw 运营亚马逊, 他们只教你怎么爽,却压根不告诉你这个权限有多失控。在这种伪教程的误导下,你给 ai 开了全部的权限,万一这个程序跑偏了,或者是黑客远程下一个指令,你辛苦经营了几年的爆款类似品可能就一秒钟被扇个星光。 今天是四月二日,亚马逊的春初已经结束了,四月五日的复活节马上到,甚至圈内都在传不让变,要提前到六月。如果你还在用自动化工具,或者是把账号密码存在不被加密的一表格和计时本理,想折腾一下 opencloud, 听我一句劝, ai 必须关在笼子里面跑。 首先,你需要把账号密码全链路加密托管,在智能安全系统里,本地任何文件不要存放账号密码,这样运营操作的时候就看不见账号密码,直接杜绝人为陷密和木马抓取。 针对 oppo、 可乐这种高危工具资料的安全管家,能做到权限管控,可以精确到限制他指定哪个按钮只能进哪个页面。一旦他想越权删链接或者跳出安全环境,系统直接拦截资料,还给你加了两道锁,登录时间和登录设备限制。你可以设置成员账号,只能在工作时间访问,下班后系统自动切换连接,同时锁定设备。 并且现在资料公测版还可以体验 oppo 账号安全运营清单私发给你,杜绝账号风险。我是三妹,每周分享跨境干货。

兄弟们,前两天我把 openclaw 接入了 qaires 放进了非书里面,它就实现了七成二十四小时的 a 股分析师。现在只需要两步,你自己的 openclaw 也可以轻松接入 qaires, 实现全球金融市场的分析自由。那本期视频呢,要和大家详细演示一下具体的操作过程,大家手把手去上手 qaires, 你可以将它理解成为 icon 打造的一个原声数据工具接口,让你的 icon 能够通过一个接口去获取上万种动态数据。简单来说就是给 icon 装上了连接真实世界的眼睛, 那它核心功能包含,比如说像市场分析对吧?像社交媒体追踪,包括多零数据整合,那通过这些标准化的接口就可以访问海量的数据和工具。首先我们打开浏览器的这个官网,然后呢我们找到这个地方,点击我是 icon, 我们只需要将这段话复制到我们的 open cloud 里面去, open cloud 就 会自动的去爬取当前的这个 skills, 然后以及具体的安装过程。它学习完成之后呢,会在你的电脑上安装好 qwires。 在 使用之前呢,我们需要配置一下它的 api key, 登录之后呢,这里会生成一个 api key, 那 这个 api key 呢,目前是免费送一千的额度,当你邀请好友是可以得双倍的,我们将这个生成的 api key 复制下来, 再粘贴给 openclaw, 这时候呢 openclaw 就 会自动的完成所有的配置,并返回测试结果。好,我们可以看到已经安装好了,这时候我们在 timegram 或者分数里面就可以去使用我们的这个 quick。 我 们下面来尝试布置一个小任务,要求它进行一个 a 股的实时监控, 这里呢,我们让 kris 支持每十五分钟自动运行 a 股的监控任务,并且生成涨跌幅的 top 十的榜单。那这样通过这样的形式呢,我们就可以很方便的看出,哎,今天到底是哪一些 a 股的涨幅前十的股票,对吧?我们可以分析它的增长潜力。那 奥本克劳呢,通过调用 kris 的 epi, 在 几秒内呢,就返回了完整的榜单。那这种实时监控呢,对于需要实时盯盘的投资者来说,那简直是神器。好吧,我们在工作的时候就可以实时的看到当前的一个结果 啊,并且呢,它还可以在分数平台内通过 qiris boot 实现七乘二十四小时自动的分析,实时的输出这个涨跌幅的啊排行任务。 那除了我们刚刚说的 a 股的实时监控之外呢,它还有一个加密货币的追踪,比如说,我们可以看到 qiris 实际上是支持多币种实时价格查询的,比如说像比特币和 usd, 或者比特币和 cny, 对 吧?那通过这样的方式可以很清楚地看到换算的数据速度是非常快。 这种多币种的追踪能力呢,对于加密货币投资者来说是非常实用的。当然呢, qwars 还有一个特别实用的功能,就是社交媒体整合,我 先让它 openclaw 总结今天最热门的 a i 新闻,那可以看到呢, openclaw 不 仅调动了 qwars 返回了完整热点榜单,还附带分析的趋势,这种社交媒体热点整合能力呢,那 openclaw 不 仅可以分析金融市场,还能够去追踪行业的动态。 当然如果你还没有安装 windows 的 话,你也可以直接安装 qwires 提供的 qwires boot, 因为它本身上是站在巨人的肩膀上,急于 openclaw 进行二次开发。但往一些开源到的 get up 上,大家可以直接去 star 使用方法呢?大家可以查看这个 redmi, 可以 说是相当的全面。那视频的最后,我想说 qwires 和 openclaw 集成呢,为 ai 智能连接打开了新世界大门。 那现在你只要复制一句话,再念个 open cloud, 再配置一个 api 应用,就能让 open cloud 实现七乘二十四小时自动的 app 思想监控以及加密货币的追踪,包括了各平台的数据整合。 那这些人力呢?无论是对于投资者还是行业爱好者来说,都是非常有价值的。当然如果你也对 agent 或者自动化感兴趣的话,也可以上手尝试一下 qwires。 好 了,那以上就是本期视频的全部内容啦,我是小刘,我们下期再见。

大家好,欢迎回来,今天我们来聊一个大事啊, open cloud 刚刚发布了二零二六点四点五版本,这可不是个小更新啊,而是一个主版本,里面塞满各种让人兴奋的新功能和重要的改进。好,咱们话不多说,直接开始, 咱们先来设想一个场景,好吧,想象一下你手里的那个智能体,你的那个 but, 它不光是能跟你聊天,它还能自己去创作视频,谱写音乐, 而且它还能记住你们聊过什么,有了长期记忆,同时呢,整个运行环境还比以前任何时候都安全。听起来怎么样?这其实就是二零二六点四点五这个新版本想要带给我们的东西。 好的,咱们先从这次更新里最亮眼最酷的部分说起。 ai 创意套件儿,你可别以为这只是小打小闹,这简直是让 opencloud 的 智能体一下子就点亮了,艺术家的技能树是一次质的飞跃。 没错,你没听错,我也没说错,这次更新的头条新闻就是这个 opencloud 智能体,现在可以直接在对话里原声生成视频和音乐了。 哇,你想想看,这给自动化内容创作还有各种互动体验打开了一扇多大的心门啊!那么,这到底是怎么实践的呢?其实啊,是靠两个全新的内置工具,第一个叫 video generate, 顾名思义,就是让你的智能里能直接调用配置好的视频服务去生成视频。 第二个呢,叫 music generate, 它能生成音乐,而且现在已经支持像 google lyria 这种,就是谷歌搞的那个特别前沿的音乐模型。有了这两个工具,在, opencloud 的 生成多媒体内容就变得特别简单,特别无缝的 好。我们来看这张表,这张表真正有意思的地方是,它给我们展示了背后支撑这些新功能的整个生态系统。你看, openclaw, 这次增加了一大堆新的提供商支持媒体这边有 xai、 阿里 runway 这些大厂, 但最让我兴奋的是,它还集成了 comfy ui。 这意味着什么呢?这意味着你现在可以把你本地或者云端的那些复杂的图像、视频、工作流直接跟 openclo 连接起来。这一下子就把 openclo 的 能力边界给拓展了太多太多。 ok, 聊完了这些特别酷的创意工具,我们再来看看底下的东西。这次更新啊,不光是表面光鲜,它还深入到了 open cloud 的 核心,做了很多让整个平台变得更聪明、更高效的底层改进。咱们来看看这些幕后英雄吧! 来了来了,这个功能简直是太有开创性了,虽然还是实验性的,但他们管这个叫做梦。你怎么理解呢? 您可以把它想象成是 open shelf 智能体的潜意识,这个系统能自动把你跟他日常对话里的那些短期记忆进行提炼、巩固。最后呢,变成一个可以长期使用的知识库。说白了,这就意味着你的智能体真的开始能够学习和成长了。 而且啊,这个做梦的过程他不是瞎做的,而是被精心设计成了三个互相配合的阶段。第一阶段叫浅层,就是初步处理一下最近的对话。然后呢,进入深层阶段,把里面那些重要的概念固化成长期的真理。 最后是快速演动,也就是 r e m 阶段,给这些概念打上标签,准备好存到永久记忆里去。你看这个过程非常结构化,也让这个记忆系统变得更可靠了。 还有一个性能上的大体声,就是提示词还成,以前什么情况呢?就是你的提示词哪怕只是改了几个字,或者多了个空格,这种无关紧要的变化还成,可能就失效了,得重新算一遍。 但现在新系统会用一种更聪明的方式去识别这些相似的请求,所以环城的命中率大大提高了。那么这对咱们用户来说意味着什么?很简单,后续的查询响应更快了,而且因为能重复利用结果,所以也更省钱了。 好的,每次有大版本更新,咱们都得关注一下哪些必须知道的事。现在我们就来聊聊这次更新里唯一的一个重大变更,还有就是它带来的一大堆安全方面的加固。 官方的发布说明里清清楚楚的写了这次唯一的重大变更是什么,简单来说,就是他们把一些老的以前就说不推荐用的配置别名给删掉了,这么做的目的就是为了让整个配置文件的结构更清晰,更规范。 那这具体对你有什么影响呢?别担心,官方把这个过程弄得非常平滑。首先虽然老的别名没了,但系统在加载你现在的配置文件的时候还是能兼容的。 最关键的是,你只需要做一件事,就是运行一个特别简单的命令, open class 杠 fix 敲下回车,系统就会自动帮你把旧的配置迁移到新的规范路径上,就是这么简单直接一步搞定。 再说安全,这一次的安全投入可以说是全方位的,你看这张图就明白了,安禽修复覆盖了从插件和工具到最核心的网关和认证,再到平台集成和智能体本身, 这说明什么呢?说明开发团队是在系统性的加固整个平台,保证咱们在享受这些新功能的时候,我们的数据和操作也都是安安心心的。 我们都知道 opencloud 的 一个强大之处就是它能跟各种聊天平台无缝集成,这次更新呢,也针对这些平台做了很多改进,目的就一个,让咱们在任何地方用起来都感觉更顺滑。我们来看看几个亮点。 这个列表挺长的,我就不挨个念了,挑几个重点说,如果你用 telegram 那 模型选择期、话题回复这些问题都修好了, 用 discord 的 朋友呢,会发现代理支持和图片生成回复比以前好用多了。还有像 metrics、 slack、 微软 teams 和 whatsapp 也都有不少关键的修复,解决的都是咱们平时用得到的,比如私聊回复连接稳定性的问题。 能看出来他们确实很关注咱们在不同平台上的实际使用体验。好了,到这里我们已经聊了很多内容了,现在咱们花点时间把这次信息量超大的更新浓缩成几个最关键最核心的要点 哟。你时间紧,只能记住三件事,那就是这三件,第一,你的智能体现在是个艺术家了,能自己做视频和音乐。第二,智能体有了实验性的做梦功劳,长期记忆能力有了质的飞跃。 第三,升级过程很安全,也很简单,只有一个配置要改,而且一条命令就能帮你搞定。 总而言之啊,这次更新真的是给所有开发者和创造者提供了一大堆超级强大的新玩具,从会学习的智能体到能创造多媒体的机器人,未来的可能性真的是无限的。 所以最后我想留给大家一个问题,现在你手里有了这些强大的新能力,你第一个想要去构建的应用,或者说想要创造的体验会是什么呢?我非常期待看到社区里会出现哪些有创意的作品。好,今天就到这里,感谢收看!

今天聊一个最近关注度比较高的产品,腾讯电脑管家出的 qqlo, 它基于 openclaw 框架封装,定位是个人 ai 助手, 主打微信远程操控电脑,三月二十日全量公测,不用邀请码扫码绑定就能用,每天送四千万 token, 免费额度。数据本地运行和 openclaw 的 关系可以类比, linux 内核和 ubox 发行版底层一样,但 qqlo 做了图形化安装, 微信集成内置模型这些封装安装部署的区别比较明显。 open q 老需要先装 note g s 配 api key, windows 用户还要准备 wsl。 二,走完一套流程大概两到四小时,非技术用户基本劝退。 qq 老这边官网下载安装包,点几下扫码绑微信,一到三分钟结束, 安装成功率官方说百分之九十九以上。交互方式上, openclaw 主要是命令行和 im, 支持 telegram、 discord 这些国际平台, qqaw 主攻国内 im, 微信、 qq 飞书、钉钉都接进去了。客户端有个可示画面板,能看到 ai 操作电脑的实时过程,定时任务,任务列表也都做成了图形界面。 模型这块 openclaw 需要自己配置 api, g l、 m 这些国产模型不用翻墙,数据也不出国境。技能生态是另一个差一点。 qclor 目前有五千多个技能,分官方预制和社区审核两层,还有个灵感广场,按办公研究、游戏自律分了四个场景一键触发,整体对比下来,几个维度差异比较清楚。安装部署, openclor 技术门槛高, qclor 一 键搞定, 用户体验 openclor 片即刻 qclor 走,微信指点可化。安全层面, qclor 本地优先,腾讯审核, tclor 每天送四千万免费额度,既能管理 openclor, 依赖开源社区, qcll 有 官方审核加社区两层。从使用场景来看,两类用户可能更适合 qcll, 一 是以微信为核心办公工具的大陆用户, 二是小白用户,不想折腾环境配置对安全合规有要求的,内置国产模型和数据不出镜也有吸引力。 opencll 那 边更适合愿意花时间定制的开发者,需要接 gpt 四、 cll 的 这类国际模型的,或者要对接国际 im 的。 实测中也发现几个问题,一个是微信绑定后,远程指令有时响应延迟大概五到十秒,跟本地直接操作比有差距。第二个是技能市场里部分技能描述和实际执行结果有出入,可能跟审核机制或技能本身维护有关。第三个是客户端偶尔会卡在任务执行中, 没有明确的超时或重试机制,需要手动取消。另外,免费额度虽然每天四千万,但复杂任务消耗较快,具体用量没有犀利度统计试图, 如果再把之前测过的 ravenclaw 放进来,三个产品的定位就更清楚了。 openclaw 是 底层引擎,命令行为主,最灵活,但门槛最高。 ravenclaw 是 桌面化控制台,把模型规则通道全线统一管理, 适合长期使用多模型接入的场景。 qclaw 是 微信直连远程操控,主打小白用户和移动办公。简单说, openclaw 是 内核, ravenclaw 是 本地管理台, qclaw 是 远程遥控器。 qqlo 和 openqlo 同源,但走的是两条路。 openqlo 是 开源引擎,灵活可定制,面向开发者,但门槛高,安全成本都得自己管。 qqlo 是 腾讯做的商业化封装, 把微信接入国产模型、免费额度这些都包进去了,让普通用户也能有一个能干活、能远程的 ai 助手。目前版本 v 零点一点九功能框架已经搭起来了,但既能执行稳定性和远程响应速度,还有优化空间,怎么选,就看自己是愿意折腾定制,还是想开箱即用。

说一下我对 opencloud 的 使用看法,最近我装了两天,虽然说中间成功使用过三四段时间,但是最终它又报废了, 就感觉它的运行环境非常的脆弱,稍微受到一些风吹草动,它就跑不起来了。我刚才最后应该是电脑进入了屏保,可能是断网了, 然后我就不管怎么部署服务器,或者说重启 open class 服务都没用了。总之它在安装体验上可以说是极差,即使是有一些电脑经验的人都无法顺利运行它,更不用说是电脑小白了。 然后再说说使用体验吧,对我来说,它没有比大语言模型更强的地方,即使说它能够进行一些本地操作,但是我认为限阶段对普通用户来说几乎没用了。 我日常也想不出什么能让他执行的很好的操作,再加上他的运行的不稳定性,可以说对普通用户的帮助微乎其微。你不知道他什么时候跑着跑着就失效了,你给他部署了一些任务, 比如说让他给你推送一些新闻简报,但是你无法保证他第二天仍然在线。我在审 opencloud 的 时候,有一种可用大圆模型非常不同的体验,你可以感觉到这个本地部署 opencloud 的 真实存 在,他就像你培养的一条狗一样,但是大圆模型就是一个给人感觉很遥远的存在,他是一个你租用的工具,而不是你真正拥有的东西。 可以说在使用的感受上,本地部署的 ai 比云端的 ai 会好很多,给人一种踏实感。虽然说他的能力,他的服务效率不是很高,但你就是愿意花时间等待他给你的回答,你有一种愿意和他一起成长的感觉。 所以说,如果有一天这种本地的 ai 模型 ai agent 能够取得长足的发展的话,我认为这才是 ai 真正成熟的一天。从最近爆火的这个 openclaw 和去年的豆包手机都可以看到一些 ai 发展的区 是,当他真正能够成为一个系统级的操作助手,打破软件的壁垒,那 ai 的 价值将会被无限放大。而人要做的只是发出一句精准的指令,想出一个很好的想法, ai 就 能在程序端做出超越普通 人的表现。二零二六年,相信 ai 的 表现会突飞猛进,在人机交互上面会带来非常创新的体验。最后我想补充一点,你在选 openclaw 的 时候不要去折腾它,一旦安装成功后,你就保持你系统的稳定就行了, 不要黑屏,不要进屏保,不要退出。当它稳定运行的时候,你不要做任何的修改,也不要去尝试切换模型之类的阶段,它就像用积木搭起来的摇摇欲坠的一个大厦,你碰一下它就废了。 不知道这样的软件能火多久,能否得到进一步优化,非常期待有一天,人只要用一句口令,就能让电脑、手机做一些真正庞大复杂的任务。我是奔杰米茶,关注我。

大家好,我是根谷,今天是 open core 系列课程的第四十九堂课,这几天有小伙伴在问我啊,就龙虾分析股票用什么电脑配置好,呃,所以说我今天整理了一下的 mac 和 windows 两大用户建议吧,首先就不推荐大家用 linux 木邦兔 啊,本期视频仅做电脑的配置选择啊,非投资建议。首先先说 mac 吧,那土豪配置版的话,像我这种是 m 四啊,芯片的这种 mac 一 百二十八 g, cpu 是 十六核啊,显卡是四十核的, 因为 mac 和 m 四平台,它是显显存和内存是同样的,都是共享啊,它有一个这个苹果的最新的技术叫显存共享技术啊,所以说它越等一台四 g 的 i 九 消费级的顶端的显卡,推荐理由就是可以稳定运行本地四十八的参数的这个模型,比如说 g p t o s s 哎, j 码四那个二十八的或者三十二 b 的 都是没有任何压力的啊, 平民级的话就是万元内的话应该是用,我觉得应该用迷你迷你 m 二 pro 就 可以了,它 cpu 是 十核啊, gpu 是 十六核,大概是三十二 g 的 内存啊, 差不多可以运行四到八 g 的 这样一个模型参数,当然如果你觉得卡的话,就是买一个比较好的这样一个付费的这个模型 a p i 啊,比较聪明的,那这就是可以的 啊。第二块就是 windows 这块, windows 的 话,土豪配置肯定是 i 九啊,对吧? rtx 四零九零或者五零九零啊,大概是二十四 gb 以上的呃,最好有,有钱的话加到一百二十八 g, 那 肯定可以轻松玩转二十八 g, 因为这个显卡它呃一定是支持 u c u d a 啊,如果你这块比较拮据的话,推荐就是 i 五 i 五 r t x 四零六零。为什么推荐四零六零不是三零七零呢?因为 c c u d a 是 关键的一个技术啊,就一定是因为四零六零就支持是吧?所以内存的话大概是三十二 g 就 可以了,可以轻松玩八 b 的 这样一个模型。 那什么是 c u d a 呢? c u d a 是 英伟达呃提供的这个 g p u 并行计算的平台,那它可以把这个程序呃用用显卡来做计算,不需要用 cpu 啊,也所以说它这个 c u d a 的 技术调用了这个,呃显卡的并行计算的能力,可以让大模型加载的更快,推理更流畅。 最后一句话总结的话就是,我还是选择大家有 mark 的, 就是选 mark 吧,为什么呢?因为虽然 mark 它没有 c u d a 的 技术,但是它有其他的技术,比如说 mate 啊, mate 它就是那个苹果出的那个叫也是 g p u 加载的一个技术啊,就 g g p u 加速的技术, 再加上它的量化模型和那个统一内存啊,显存内存共享,呃,实现了类似于 c u d a 的 效果。呃,所以你用欧拉玛的话,用那个金满三,呃金满四,或者是呃用了它的那个量化模型的四 b 的 话,其实速度是不会输过于 c u d a, 但是呢,贵是肯定要贵一些,就同样配置的话,苹果的一般会贵个百分之五十的价格,但是如果你没有钱的话,就选 windows 也是不错的。那今天就分享到这里,你学会了吗?

我是你们的张老师啊,三分钟开启智能代理,不用付费,让你的电脑瞬间拥有一个 ai 打工人。今天啊,老师教你本地部署 open cloud, 一个开源的 ai 自动代理文件整理, 浏览器自动回复,通通交给他,全程本地运行,隐私安全,关键还免费啊,那我们直接看一下,哎,怎么去部署的?那讲这个部署之前呢,老师啊,先给你们去讲讲什么是 open club。 那 简单的说呢,哎,我们 open club 呢,就是一个能听懂人话的智能助理,你只要在 web 里面去打一段话, 比如,然后呢,他会去帮你整理桌面文件啊,他会先读取我们的桌面文件。它呢,支持 windows 哎,它支持 windows, mac os, linux, 而且完全开源,代码透明,不用担心后门啊 啊。第二部分呢,我们看一下我们怎么去部署。首先啊,我们需要去确认三件事情,第一,你的电脑内存最好是啊大于四 g 啊,推荐啊,是八 g 以上硬盘呢,二十 g 的 这种空间。 第二呢,你需要安装 note g s 啊,我们二十二或更高的版本。第三,准备一个 k, 那 么这个 k 呢,可以是啊,我们的 k, kimi 或者是千问。哎,如果说你想要 ai 更加聪明啊,可以用阿里的百链或 open ai 的, 不过新手啊,可以先跳过,后面我们再配置。 第三步呢,我们,哎,通过 windows 部署。那有同学老师我是 mac 电脑,我是 linux, 怎么去部署呢? 哎,老师这节课先用 windows 部署去教你,我们下节课用 mac 或 linux 去教你们。那么第一步呢,我们首先啊,去运行我们的 power shell。 老师啊,先给您去讲理论呢,我们讲理论之后我们再去实践啊。第二呢,我们需要去安装我们的 node js。 第三呢,为了更快,我们需要去配置我们的国内镜像啊,我们在第四步呢,安装我们的 openclaw, 那 这个 openclaw 就是 我们的核心了, 以及运行我们的 openclaw on board, 我 们的向导,那这个向导呢,我们可以选择 closeout 快 速开始,那这个模型呢,我们可以 escape, 对吧?最后打开 open the web ui, 也就是说老师在这里边去打开的我们的 web ui。 第六呢,我们可以进行健康的检查和启动,也就运行到我们的 open gateway start, 对 吧?这个呢就是我们的六步 windows 部署。是不是听了这个有种想操作的冲动啊?朋友们, 那么老师啊,在这里边去带领你们一步一步去看,哎,如果说同学们有的人不太清楚,不太了解,那么可以看一下老师怎么去操作的。我们啊, 把这个资料啊,全程啊都放在我们的文档里面了,如果同学们有需要的可以去领取一下。 我们首先第一步在这里边去打开我们的 windows power share, 以及用管理员身份运行。有的人老师这个为什么不能直接打开,哎,如果说你要用管理员身份运行的话,你是不是就不需要考虑权限了,对不对?我们用管理员的这种身份 去给大家去运行,我们直接点击试,那这个地方呢,我们就打开了一下我们的 power share。 第二步呢,我们首先去安装一下我们的 node gs, 那 我们需要把这条命令去复制一下,我们用到的首先是 vignette, 该粘贴一下回车 按 enter 键,然后这个地方呢会下载我们的,呃, open, 呃 gs, 我 们等它下载完呢。朋友们, 这地方老师啊,就不给你大大家去演示了,你们去等待一下,我们直接结束。那第二步呢?我们下载我们的 winget 的 get, 那 我们在这里边去回车, 哎,同样我们需要去,哎,下载我们的 get 这个版本,因为老师啊,给你们去演示啊,所以说这些东西都是已经下载过的, 所以说,哎,我们结束掉,哎,我们可以把它结束掉。这个呢,我们怎么去验证呢?有同学,哎,老师,我这下的完了,到底下的完了没有呢?哎,不知道怎么去验证好。同学,我们首先第一步 note 杠 v, 这个 v 代表 version 的 意思,我们看一下我们的 not 版本二十二,对不对?然后我们再看一下 get 的 版本,哎,这个地方我们验证一下我们的 npm, npm 杠 v, 哎,很多同学,这个前端我们在安装工程的时候是不是用 npm 一 错, 所以说我们需要去验证一下我们的这个版本,对吧?这里边有了。然后我们,哎,如果说有同学老师 get 版本,怎么去验证我们 get 杠飞同样的对吧?老师啊,这里边已经安装过了, 那第二步呢,我们需要去配置我们的国内镜像员,哎,有同学老师,我不想被抢,怎么办?我们需要去用到我们的国内镜像员,那这个国内镜像员是为了去下载我们的 接下来的一些程序跟软件,是为了更加方便呢。啊,我们在这个地方我们安装一下我们的第四部 open club, 哎,我们设置一个杠 g, 这个 g 呢叫 global, 我 们在这里边去回车。同学们,这个地方可以去耐心等待一下,然后我们把它去关闭掉,然后我们再输入一个 open club, 哎,杠杠 version, 哎,如果说不想输入,直接复制粘贴,对吧? ctrl v ctrl c 加 ctrl v 回车键,看一下我们的 open club 的 版本, 哎,我们用的二零二六三点一三,是不是很近呢?接下来呢,我们按照完了我们的 open club 啊,我们的初步化,我们的 open club on board, 那 这个地方呢,是我们要配置一下我们的 open club 的 初步化, 那这个地方配置的是什么呢?哎,我们可以看一下,同学们,看一下我们需要去配置的是,哎,如果说你的风险提示,你可以去 yes, 然后模式选择,想需要去快速的 quickly start, 快 速的选择的话,我们可以去快速的选择,以及模型 model 以及你用的这个大模型啊,用的哪个?比如 kimi 啊,或者说谦问呢,或者一些 open ai 呢?可以通过我们的模型, 那技能呢?我们这些可以先不设置,可以通过 skip 来进跳股,然后最后选择我们的 open the web ui, 哎,这个呢,就是我们的刚才我们的 open control 这个界面了, 那这个的这个地方,老师要给大家给同学们配置过我们的 kimi 加飞书的方式,也接入了我们的微信的形式,哎,如果说同学们这个地方有不理解的,我们可以,哎,在这个,呃, 这个逼蛋去搜索一下 openclaw, 对 不对?那首先去看到的就是老师啊,哎,渣,老师并不渣。这个呢,去接入我们的微信,哎,也接入到我们的, 哎,我们的什么呢?保姆级安装教程,哎,这里边啊会有一些 kimi 啊加哎飞出的这种情况, 所以说希望大家啊去验证一下,动手去验证一下,那这个地方我们触花完了之后,我们最重要的还有一个什么呢?我们的健康的启动,也就是说我们通过 open cloud git v start, 然后我们通通过这个地方啊启动一下, 会先给我们去打开一下我们的这个窗口,那如果说有提示需要你去运行你的 note g s, 然后你点击同意就可以了。同学们, 那对吧?这个呢就是我们哎配置完了这个 web socket, 进行一个长链接通信,那这样呢,我们就可以去刷新一下我们的这个程序,是不是很简单啊?同学们,哎,如果说 能够听得懂的同学们一定要给老师扣个六六六啊,那我们这节课呢就先讲到这,我们下节课再见。

我又干了好几天的 oppo 可乐,跟大家爆一个特别大的好消息,就是跑本地大模型的我现在能稳定的运行千万二十七 b 的 三点五二十七 b 的 这个模型了。 这个模型本来我都已经放弃了,因为奥拉玛在那个 oppo 可乐下面接起来经常超时,根本跑不了。 不管你是跑千万二十七 b 还是三十五 b, 三十五 b 理论上还要更小更快一点,但是它就是跑不了, 哪怕用 cpu 卸载什么的降低速度,但它奥拉玛反应稍微慢一点,它就超时了, oppo 可乐就彻底死在那了。本来我之前是 换了千万三十四 b, 因为我二十二 g 的 显存就是二零八零 t 的 摩根二 g 显存,装这个十四 b 我 去社区找了一个 awq 的, 它加载完只有十 g 左右, 但是上下文一塞进来马上也充二十二十多 g 的 显存。我是装了 vl m vl m 这个框架,它的好处是确确实实驱动这 oppo 可乐是确实比 oem 快, 但是最大的问题,我现在碰到的最大的问题是它这个没有办法设置 cpu 卸载,不知道是我的问题还是我搜了很多文档没搜到,也就是这个模型不管怎么样都要往这个检测里面塞,它好像 没有让你一旦撑爆了,他就不启动或者启动不了,所以导致什么二十七 b 三十五 b 这样的相对先进一点的三点五的模型塞不进来,三点五你只能塞 那个九 b 的 模型。而且更可恶的是九 b 模型在 v r m 就是 aw q 的 版本都没有,只有隐身版,我觉得可能设置各方面更复杂一点,官方版就到。千万三, 那请问三十四 b 其实我在 v l m 框架下跑的还是算顺利的,但是就这么说,你就我我就配一个问题,之前我们是调试编程,他是一个道理,调试编程他能不能用编程的调试工具 接受他的反馈错误就看这个模型智商的问题。我现在这两天用的是让他 找一个 t t s 的 语音接口,不管是 t t s 还是什么千万 t t s 还是什么爱智 t t s, 你 自己去找你配一个 t t s 的 接口给我合成男生女生的各种声音, 我想的是以后我弄一些那种口播,或者弄一种那种播客什么东西,每天让他自己生成一个播客的文案,再用一个声音把这个播客文案给他合成成语音,我们是不是再去配一点画面,夸就上传了,这他就自动能做一个自媒体, 甚至说画面我们就用固定的,什么类型的,比如中东打仗的就用油田的是吧?弄好几种那种视频,让他自己去跟声音合成在一起,就画面给他固定死了就几百种画面,你在这里面给我挑就行了, 我想这就可以做自媒体了,就合成语音这一部。千万三十四 b, 就 死活跟你说我没有权限,我无法调试,我找不到,这跟之前跑编程是一模一样,所以你要玩 open clone 就千万三点五,我跟你讲,九 b 的 模型都能理解这个东西,也就是说白了就是三点五是今年发的模型,他都能理解我们可乐的这个框架跟这种怎么去使用,但是千万三是去年的模型, 他的模型他就不理解,你是待在我们可乐个里面,他可能能操作一点,但是他关键时候他开始吐说,我不能,我需要你,你来验证, 这很讨厌。所以这是第一点。为什么放弃十四 b 的 模型,但是偏偏我二十二 g 这么大的显存只能跑三点五九 b, 我 又不甘心,因为我公司那个 十二 g 的 显存的那个三零六零也跑三点五的九 b 模型也跑的很舒服。那到我好不容易从十二 g 显存变成二十二 g 的, 还让我跑三点五的九 b, 心里不舒服,对吧?二十七币跟三十五币总是卡在那个超时,结果我就这两天刷那个头条帮我刷到了,就这样一条,他之前我问 ai 都没有问出来如何设置超时时间的, 终于我我在头条上看到了,我就把它试了一下,果然,果然一般。这个欧文可乐的超时是十分钟,是六百秒, 你要设置多少?我开始设置三十分钟,他能干活,但中间有一干了大概十几个小时又卡一下。那我现在设置四十分钟,四十分钟两千四百秒, 语音合成,什么事都能干了,我觉得这很好,也就是说他的现在做法是,我现在本地跑大模型的做法是用奥拉玛 妈妈要配置啊,我把配置的这个标定发在这好了,要配置 cpu 卸载就是人工在 c m d 里面要设定这个模型,你只跑多少层?现在二十七 b 这个模型我跑五十六层, 就我跑五十六层,剩下的挪到内存里面去,这是它总共大概应该有六十四层,挪掉一点。 沃腾可乐这边超时是长一点,你自己本地跑慢一点无所谓,其实我觉得慢点无所谓,总之他要一个人一直的不屑的在那工作。所以现在解决的问题是 v l m 没有跑通更大的模型放不进去。 奥拉玛能跑更聪明的哇,二十七币千分,三点五,二十七币这个模型综合实力真的好,就不用废话,康之就可以干活。这点上是我跑了这么多粉底,包括三十五币那个模型,我认为都没有二十七币这个模型聪明, 真的,二十七 b 这个模型给我的感觉真靠谱,三点五五,三点五九 b 那 模型我公司不是一直在跑吗?我认为也没有二十七 b 这个靠谱,这个确确实实好,所以给大家分享里面解决,第一 就是 cpu 卸载,我给大家说在奥拉玛下面的设置,第二就是我们可乐怎么把这个超长延时给他设置出来,你甚至可以设置的更长,这样一来 他就有希望自己自动工作二十四小时不再停下来。这工作二十四小时不管怎么样,这个消耗的 tucker, 如果你用在线模型,就算他比在线模型慢个三五倍, 那消耗的 tucker 就是 你省下来的 tucker, 费用也是挺多的。如果你能给他一个让他二十四小时一直在那边不停的工作的一个任务,那就太好了。你想,比如说写小说,让他一直写,哈哈哈,比如说生成图片,比如说之前有人试他剪辑视频,我觉得剪辑视频就算了, 反正你可以给他想,比如说让他编一个游戏,自己调试啊,调试错误自己重新再改写代码这种等等等等,反正能让他自己花很久时间去干的活,而不是总是停下来等你啊。 我这就我的努力,现这是阶段性成果,具体活还没有真的派给他干,我们接下来试一下派活,如果你有个 好的,比如说怎么样能让他本地模型跑的更流畅,更聪明更快,同时不出错不报错,而且还有什么活是可以让他一直干下去的, 不要老是干个五六个小时,他干完了停下来说等你指令。那怎么样让他二十四小时自己干什么活的分量以及第一分量是能够干到二十四小时以上的,第二个是中间不停,中间不会再卡下来,等你指令 是怎么样去给他这个指令的。好吧,这个大家交流一下,也帮我下一步帮我提醒一下大家交流一下这个经验。根据评论区我也在改善我的地跑 open klo 的 效果,那就是我们今天要聊的事。

嘿,大家好,想没想过在自己的电脑上就能有一个超强的人工智能助手,而且重点是完全免费。今天啊,我就手把手带大家走一遍,看看怎么把谷歌最新最厉害的那个开源模型 gemma four 装到你自己的 mac 上。 咱们平时用那些云端的 ai, 像是 cloud 什么的,确实挺爽的,对吧?但问题也来了,首先就是太烧钱了,那个 api 的 token 消耗啊,简直就是个无底洞。 而且你想想,你所有的数据都得传到别人私服期上,隐私这块总有点不踏实,更别提万一断网了,那就直接歇菜了。 不过呢,好消息来了,谷歌这位赛博菩萨放出了全新的 j 马四开元模型,这什么意思呢?意思就是我们能直接把他吓到自己的电脑上跑。你想想,这一下就解决了所有问题, 完全免费,再也不用担心 tikken 即费了,数据全在自己电脑里,绝对安全,而且就说没网,他也照样能用。 我知道,一听到部署命令,可能有点头大,但你放心,整个过程真的特别简单,对新手超级友好,基本上就是敲几行命令的事儿,咱们分分钟就能搞定 好。那咱们先来准备一下工具,你看屏幕上,左边这个叫 c m u x, 右边呢,就是你 mac 电脑里自带的那个终端。说实话,对于咱们今天这个事儿,你根本不需要装新的东西,直接用系统自带的终端就行了,超级方便。 接下来这个是咱们今天的核心工具,叫欧拉玛,你可以把它想象成一个嗯,一个专门给本地 ai 模型准备的应用商店,有了它,下架、运行管理这些大模型就变得特别简单。后面我们还会用到它来,一键安装像 open crawl 一 样的神器, 安装奥拉玛也是一条龙服务。你看,就这么两步,第一步要是你电脑上还没有烘不入,得先装一下。装好之后,第二步就更简单了,打开你的终端,把这行命令复制进去,一回车它自己就全搞定了。你现在可以暂停一下,先把这一步给做了, 等他跑完,你在终端里应该就能看到这个提示。看到这个可爱的小羊脱挑标和 successfully installed 这几个字。看到这个就说明恭喜你,最关键的一步已经成功搞定了。 好工具,咱们装好了,那接下来就到了激动人心的选模型环节了,得给你的 mac 挑个最合适的接码。 哎,这个问题很重要啊,因为 jam 4 它有好几个版本,不是随便选一个就行的,你得看看自己电脑的内存有多大,选对了跑起来才顺畅。 你看这张表,一目了然。我教你一个特别简单的判断方法啊,就是确保模型的内存需求最好不要超过你电脑总内存的一大半,这样能留出足够的系统空间。 比如说你的 mac 是 三十二 gb 内存,那选这个三十一 b 的 满血版,它大概需要十七到二十 gb 就 完全没问题,跑得动。如果你是十六 gb 内存,那可能就要考虑二十六 b 或者更小的版本了。 好,决定好要哪个版本之后,咱们就可以开始下载了。还是在终端里先敲第一行命令, open 杠 a alama, 这是为了把 alama 服务在后台跑起来, 然后再输入第二行, alama run gemma four, 杠三十一 b。 你 看,我这里用的是最强的三十一 b 版本做示范,如果你选了别的,就把最后的三十一 b 换成你选的那个版本号,比如二十六 b 或者四 b。 很 简单吧, 敲下回车,你就能看到这个下载进度条开始动了。这个三十 e b 的 模型还挺大的,差不多十九个 g, 所以 具体要多久,就看你家网速给不给力了。可以去泡杯咖啡,耐心等他一会。 好,最激动人心的时刻到了,下载完了,咱马上就能跟它聊起来了。下载一结束啊,欧拉玛就会自动把模型加载好,当你看到屏幕上出现这个 send a message 的 提示,就说明成了 gemma four, 已经在线等你了。 哇,太棒了,我们成功了!你看,我就随便问了他一个问题,你是谁?他马上就回答了,最爽的是什么?是,这一切都是在我自己的电脑上拷的,完全离线,完全免费!那个凡人的 tock 机飞表永远都是零。 当然了,可能有的朋友不太喜欢在这种黑乎乎的命令行里聊天儿,感觉不直观。别担心,咱们刚才装的欧拉玛,它其实也是一个正经的 app, 你 去你的程序屋里找,就能看到这个可爱的小羊驼图标, 点开它就是一个非常清爽的聊天界面,你可以在里面直接选键盘四模型,然后就像用普通聊天软件一样跟它对话了。 好了,基础的聊天我们已经搞定了,但接下来才是真正好玩的部分。咱们可以给这个本地 ai 来个大升级,用一个叫 openclo 的 东西,把它变成一个超强的智能体,也就是 agent。 你 可能觉得,哇,听起来好复杂,但实际上呢?借助于 alama 的 强大,这事也简单到离谱,你猜怎么着?还是一行命令就搞定 你?运行这行命令之后啊, olemma 就 会自动帮你把 openclaw 下载配置好。然后最关键的一步来了,它会问你要用哪个模型来当这个智能题的大脑。那还用问吗?当然是选我们刚刚装好的 gemma four 啦! 这样一来, openclaw 就 拥有了 gemma four 的 智慧,可以帮我们干很多更复杂的事儿了。就 像原作者说的那句特别有意思的话,搞定这一步,咱们就算彻底实现龙虾自由了。呵呵,这个龙虾指的就是 opencloud 的 那个图标。这个说法真的太形象了,意思就是我们解锁了一个超级强大而且还有完全免费的本地 ai 工具,想怎么用就怎么用。 所以你看到现在你的电脑里已经有了一个完全属于你自己的免费又强大的 ai 智能体, 他的潜力真的超乎想象,无论是帮你处理日常琐事,还是开发一些复杂的应用,他都能成为你的得力助手。那么问题来了,你会用它来创造点什么呢?特别期待看到大家在评论区分享你们的想法。

大家好,我已经使用 open 课的一个多月的时间,我想记录一下我这其中踩过的坑和我的一些使用心得,想跟大家分享。我现在正在做的是 a 股自进化的股票推荐系统,用上了一些量化的概念,但主要我的操作方式还是短线 持股二到五天这样的方式。现在整个系统已经完成的第一阶段,已经整个系统已经完整的跑起来了,当然其中还有一些小的 bug 还在不断持续的解决中,但已经不影响整个系统的运行了, 实际的推荐的效果还是需要时间慢慢来印证。因为硬件的原因,我的部署环境的原因,导致了系统整体的进化速度很慢, 而且还容易导致中间有停滞,包括服务器的宕掉这样的情况发生。 我会在以后的视频里面和大家详细的来分享我的这个系统,而也欢迎大家针对 open core 的 和我的股票系统,大家有兴趣的朋友可以关注一下,大家可以互相来探讨一下 open core 的 使用,或者我们股票系统的一个使用。

openclose 有 什么实际的使用场景?感觉对工作没有帮助?这是最近很多学员问我的一个问题,那这个视频给大家聊聊,我一般用 openclose 来做哪些事情。大家都知道我有很多账号,我每天要录将近十个视频, 所以第一点,我习惯在前天的晚上,我在手机上去给他发一个关键词,让他在某音和某红书平台去找到最火的十到二十个视频,然后就提取相应的脚本,相应的标题,给它保存到飞书链接里面再发给我,这样我一早上起来就能够看到现成的脚本,实话实说,这真的太方便了。我要做的第二件事情 是找到我认为 ok 的 脚本,让 open colo 来给我去做一个二次的润色和修改,它润色完了之后也会以飞速链接的形式直接发给我,然后我直接去审核就好了,我上午大概一个人就能拍十几条视频。第三个用处呢,就是给我的口播视频去做一个相应的粗剪,我录好之后,用 open colo 的 自动去把我的气口给它剪掉,就相当于先粗剪一下, 再把这个视频直接打包发给剪辑老师,这样的话他们的剪辑效率就大大提高了。然后就是第四点,因为我们这两个月在铺一个小铺的项目,所以需要大量的笔记,我们就用 openclot 去搜集了很多同行的笔记, 就找到了很多优质的同行发的素材和帖子,我们会让龙虾采集好,然后去检测哪一些帖子是跑的最好的,我们再把这个帖子定时的发送给我们运营,所以他每天都可以蹭到最近的热点,哦,对了,我们还在研究用 openclot 去实时监控一些评论区的数据,因为有一些品牌方想要去知道你的评论区里面的鱼情,对吧?就是有好评有差评,然后怎么去做一些相应的回复,这些也可以用 openlog 去解决。还有最后的第五点,也是我觉得很方便的一点,我之前约会的话,我还需要手动操作,然后还需要去打开一个录制,以及 我还需要去手动的去记一些相应的会议重点。那现在我可以直接用 openlog 我 给他发一个,说你给我预定一个今天下午三点钟的会议, 然后记得开会的时候给我定时打开那个屏幕的录制,他就会全部给你做到,而且可以把你的音频翻译成文字来提取重点,这样的话你就不用怕会有一些核心的东西丢失了,我还是蛮喜欢这个功能的。所以 photoshop 的 其实可以做的事情有很多,你要把它和你的业务连接在一起,怎么样去做一个降本增效的操作,这个才是重点。

今天又在网上找到一个 opencloud 的 假软件,我们测试一下十二款下毒软件谁能防御?第一位,清除 windows defender。 这里有两个软件,我们测试习逐一运行,不过如果第一个都没拦的,直接算命不测第二个,因为这两个其实算是同一个软件, 病毒断网后修改用户配置完成后,银狐字删除, dl 文件也会被一同删除。这是什么?你 windows defender 又双弱球被加排除了, 我们把这个排球向移除再扫一下,看看能不能扫出来。 解醒席间后面测试的下毒软件不再快速扫描。第二位,请尽量对 ec 这两个软件核心恶意文件一样运行。第二个,结果是已知的 第二组加一,锐心杀毒, 病毒断网运行,自删除隐藏,恢复网络,所以后续快速扫描扫不出来,只有极其拦截才算真的拦下。 miss 组加一, 触发自动下乡, 再次触发, 可以 q 组加一了。 一二个系一样的, 我能安全 六组加一, 但是火蓉没能回滚病毒断网的操作,所以希望火蓉能把这部分功能加向。 第二个,是一样的,卡吧司机 病毒一套行云流水的操作, 网络配置已被修改,无法更新。数据库 报告这里文件未处理,显示大小。为了防止有人盲目吹捧卡巴斯基,我们再快速扫描一下。卡巴斯基现在也算是从顶级下路软件中掉队了, 当然用还是可以用的,我只能说他可能没有你们想的那么强吧。 miss 组加一,腾讯电脑管家 唯一被病毒反杀的一个杀毒软件。诺顿 cementic 没找到个人版,所以我们用企业版,不信 塞门铁壳这小子最近吧 miss 祖加一,阿维瑙 基欧祖加一,第二个也是吉吉杀 三六零安全卫士 六九加一,麦克风 野习一箱不穿背箱。

mclu 最强外挂,其他 skills 爬起不到的数据由我 scrapping skills 来进行抓取。我们先来看看这个 skills 它到底留在哪里?最后我们来实操看一下它的一个整体效果到底如何。 这个 skills 它不仅能够穿透各种防爬的一个网页护盾,同时它还能把网页的一个原码给扒下来,然后把它进行清洗为干净的一个结构化数据。这个 skills 已经在 github 上面已经收获了二十六点七 k 的 一个 stars, 它主要有如下四个特点,第一个,它能够完美的模拟最起码的一个浏览器的一个指纹和操作行为,可以帮 oppco 呢去开箱即用的绕过这些阻拦。第二个, 还有一套智能的自适应算法,即使网站为了防爬或者是为了换新视觉而打乱了 h t m l 的 一个结构,它都能够重新精准定位。第三个,这个框架这样的内存真的非常小,所以即使你手头上只有一个吃亏多年的笔记本,或者是出一个入门的一个服务器,你都能够轻松的跑起来。第四个,它还有一个记忆功能, 即使你偶尔遇到了一个断网或者是突然断电,它都能把你爬取的一个进度保存下来。当恢复了一个电源啊或者是恢复了一个网络,它都能够无缝衔接的重新继续它的一个任务,完全不需要你人工的去进行重启。最后我们来实操一下,我们还是使用 charles studio 里面的一个 open cool 安装的一个方法呢,我在之前的视频也有讲过, 我们直接在这个 open crawl 里面跟他进行描述,说使用 scraping skills 去帮我们爬取某网站的一个数据,然后告诉他我们需要爬取的哪些字段呀,以及保存的一个本地路径,可以看到它经过一系列的一个分析,最终是成功的把这个网站的一个数据爬到了一个本地目录上, 然后我们打开本地目录也能成功的看到这个爬取来的数据,然后我们打开这个数据,结果我自己也验证过了,这个链接以及对应的书名都是一一对应的,所以这个 skills 我是 觉得很不错的,大家可以去试一试。