做跨界电商总会遇到一个两难的问题,今天我们就来聊聊这个,看看有什么新解法。一边是全球 ai 的 强大能力,另一边是本地数据的绝对安全。这个选择你每天都在做,比如你要做多语言营销,或者生成一些创意内容,那肯定得靠国际 ai 模型。 但是呢,讲订单、库存这些核心数据,一步都不能离开我们国内的系统。所以你看,不管选哪个都得妥协,要么牺牲性能,要么就得承担数据风险。这种来回拉扯,说白了就是在拖慢你全球业务的脚步。 但如果你根本不用选呢?现在一个叫 opencloud 的 新方法解决了这个矛盾,重点是它本身不是一个 ai 模型,而是一个总指挥,专门给别的模型派活。 你可以把它想象成一个全球 ai 调度中心,什么任务该给谁,他都一清二楚。比如说写文案交给国际模型,而查数据、处理订单这些就交给安全的国内模型。 这样一来,两边的好处你都能占到,既有顶级的性能,又有绝对的安全核心。就在这,效率和安全终于不用再二选一了,这个老问题已经翻篇了,那么面对一个越来又无国际的世界,你的 ai 战略真的准备好了吗?
粉丝64获赞118

如果你是做电商的,或者是做重复办公室工作的,一定要用这款 ai 智能体 open cloud, 就 也就是现在爆火的小龙虾,它和普通的大模型完全不同,它不只是聊天机器人,而是拥有电脑操作权限的一个执行者,就是直接给你结果的,不是只给你答案, 就他能二十四小时不眠不休的干活,就你只要下达指令,对吧?他就能打开浏览器,然后查竞品,做 excel, 整理数据啊,发邮件啊,抓取行业动态对吧?填财务报表,包括监控,竞能排名啊,全流程他全部自动执行, 哪怕就是一个模糊的指令,他也能就是自己拆解步骤,在各大搜索引擎找到解决方案,像专业员工一样规划路径。 更厉害的是啥呢?这不它能打通商业闭环,就咱们电商运营,对吧?要盯了一些,比如像排名啊,销量啊,控价,包括一些评价,对吧?它全部能自动收集汇总,成为你的真正的专属业务数字分身, 把咱们普通 ai 只能做一些交互的一些问答。而小龙虾呢,它能操控鼠标文件 api, 就 从给建议变成直接的干活,你包括像一些发帖、运营、售后,给你全部搞定,这你受得了吗? 我身边有个兄弟,他让公司的百分之八十员工转岗,就是一百个人,最后精简到二十个人,就我很庆幸这五年我没怎么招人。像客服啊,设计啊,运营岗,小龙虾他全部都能高效的替代。 就我现在做 ip, 包括群内一些问题的一些整理啊,包括视频的分发,然后包括一些话题的一些策划,对吧?全靠他解决。 淘宝一些后台运营啊,竞品一些数据统计,包括一些差评的监控,还有一些客服的售后投诉处理,他两个小时就能干完人工几天的活。现在创业,你千万不要招没有思考能力就只做重复工作的人,公司只需要思考者就是创造者, 按部就班的执行岗,未来肯定都会被 ai 所取代,管理纯粹浪费时间啊。你看一下沟通啊,激励啊,团建啊,其实都没必要用 ai 砍掉所有环节,一个人就能顶一只团队啊。就小龙虾最核心的优势 是打破平台的壁垒,然后抖音刷到爆款,它能自动给你拆解视频啊,核算利润啊,给出可执行的方案, 全程合规操作,而且它能规避平台的一些风险,知道吧?而且它还能跨平台跟你做私域个性化定制,就不断地投喂你的一些业务数据,就他能越来越懂你的业务。 终于迎来咱们真正的属于个人创业时代,就是你只需要掌握核心的能力啊,比如产品开发和一些产品痛点的挖掘,供应链的整合,剩下的执行全部交给 open cloud, 就 一个人能抵过去五百个人的效能, 就别再纠结就业失业率,企业先活下来才是最关键的,就没有人会主动革自己的命,对吧?但是咱们老板必须要主动拥抱这个工具, 这个时代竞争的核心绝对不是说人力了,是工具效率知道吧?不会用 ai 工具,你迟早会被市场淘汰,赶紧把小龙虾用起来,这才是电商和创业的终极破局之道。

这期我们给 openclaw 接上大脑,我们用的是阿里云百炼的 coding plan, 里面包含了宽三点五 plus、 kimi、 glm 等八个模型,几分钟就能跑通。 首先进入到 openclaw 的 安装页面,具体怎么下载,网上教程很多,这里不再赘述。接下来就是安装向导,输入命令 openclaw on board, 接下来按方向键选择 y e s 回车,引导方式选择手动 回车。接下来设置为本地网关工作区目录,直接回车,下面选择模型厂商,我选择下面的阿里云百链回车。认证方式,选择阿里云百链的 coding plan 回车。接下来要获取 coding plan 的 api key, 打开云百链的控制台,登录进去, 找到 coding plan 的 我的订阅,下面复制以 sk 开头的 api key, 复制好后右击粘贴到向导里回车。下面需要选择模型, 我先选择的是第一个宽三点五 plus 回车,接下来一直默认回车, 直到提示是否配置聊天通道,先不配置选择 n o 不 配置技能起用钩子,这里按空格选中暂不配置回车,这里安装网关服务 回车。接着再回车,这里就基本配置完毕并进行对话了,这时需要多等一下,首次启动网关需要等一会就能对话。下面接入剩下的七个模型,在阿里的 callin plan 网页 把剩下的七个模型名称复制一下,在对话框输入,把阿里云百链的这些模型添加进来,并保存至 open claw json key 与主模型的 key 一 致,然后把刚才复制的模型名称复制进去发过去,等待片刻就会提示你已经添加到 open claw 点 json 里。 这里一定要强调两点,一是要写进 openclaw 点 json 文件,二是要表明和主模型 api key 一 致。下面输入命令,验证模型是否真正添加进去。 打开 power shell, 输入 openclaw models list, 现在显示的列表里有八个模型代表添加成功。

兄弟们接, gpt 五点四绝对是 oppo 量子性价比最高的模型, gpt 五点四给出来答案绝对比 mini max 和 kimi 给出来的好太多了。可以这么说, gpt 五点四绝对是目前性价比最高的选择了。天呐,我一直都是用的量子四点六,但是那个成本实在是太高太高了, 我必须用量子四点六那种俯模型,再接一个 mini max 作为一个俯模型来完成所有的任务。但现在呢?这个 gpt 五点四真的 随便用,但是唯一一点就是你在部署的时候啊,要在终端里面用代码改一下他这个端口,想省钱又想获得很牛逼的大冒险,这个能力的朋友赶快去试一下吧!这个吉利克斯绝对是你最佳的选择。

大家好,在你装完 openclip 之后啊,第一件事要做的事情就是去选择一个模型,那模型作为 openclip 的 大脑,它起到一个非常关键的作用,那这么多模型,那他们之间有什么区别呢? 那为什么你的模型只能识别文字,不能识别图片呢?那本期视频呢,就跟大家讲一下不同的模型之间能力的区别,以及怎么去配置模型。那对于一款模型来说,它的能力有接收信息,那信息类型啊,有可能是文字,也有可能是图片, 也可能是视频、音频或者其他就是你发的信息的内容可能包含这些类型。那么大模型在接收到你这些信息之后,他对你的信息进行回复,也有可能有这些类型,比如说他回复文字,给你回复图片,给你生成一张图片,或者说做出来一个视频, 或者说做出来一个音频音乐,那么也有可能是进行一个网页的搜索,你让他调用了搜索的工具进行一个网页的实时搜索, 那么这这两个东西就是一个输入和一个输出,那不同的模型之间的差异啊,就表现在接收和回复这个信息的内容区别上。那么 open core 官方呢, 截止目前也统计了一个模型的一个使用的一个排行榜,那么这个排行榜里面的模型的排名,不是说我们传统意义上那种模型的一个综合排名,它更多强调的是在 open core 里面的任务的完成的成功率和这一个排名,大家可以看一下, 就是平均的一个排名,就是比如说第一的是 gemini flash, 那 么第二的是 mini max 二,二点一,那么对于 mini max 它现在已经发布到二点五了,但是二点五的表现是在这个排行榜是比较差的, 这个也是非常奇怪的。那么前面还有这个 kimi 的 k 二点五,就这些模型在任务完成的成功率是比较高的,所以这也可以作为啊模型选择的一个参考。 接下来我们就来说一下不同模型在接收信息和返回信息之间的差异,大家可以去选择。就是你在完成任务的时候,为什么有些模型处理的不好,那比如说我们 dbisc, 那目前 v 三点二版本它只支持一个文本的输入和文本的输出,那么对于千万三点五 plus 来说,它能接收文本,也能发图片,它也能去理解这个图片是什么。比如说在我的这个 openclip 的 这个非书的聊天里面,我上传一张图片,那模型来识别一下图片中的文字, 如果你的配置的模型它不支持这种啊图片的识别,那么它出来的结果就是跟实际的结果是有很大的差异的, 那么可以看到它识别出来了这个图片里面的所有信息是完全非常准确的。那么在刚刚的演示里面,我们可以看到千万三点五 plus 它是有一个图片理解能,所以大家在用的时候一定要注意自己的业务的场景 啊,选择正确的模型。那么这里边除了图片理解呢,这边还有一个网页搜索,就是说它本身模型它本身支不支持这种搜索这种内容,因为对于模型来说,知识库它是有一个截止时间的,比如说你可能你 模型的训练数据可能只是截止到二零二五年,但是你现在搜索二零二六年的,那就有些模型他是具备这样的网页搜索能力,他就可以调用这种 实时搜索能力,那么有些是不支持的,那就要配置这样的 m c p, 官方也出了这样的工具,比如像豆包系列,二点零最新的模型也是一样支持文本和图片,那么他这边也是可以单独去开通网页搜索的能力啊。 那我们可以看一下,就是啊这几款国产的,比如说 mini max m 二点五、 m 系列和这个智普的五点零,他们这个图片的识别是需要单独去配置 mcp 的, 不然的话他是没办法去识别的。 那 timi k 二点五的话是原生就支持图片识别,那么国外的模型,比如说 colossal 四点六和 jpeg 五点四,还有 jimmy 的 三点一 pro, 那 么它们都支持图片识别,也支持这种啊网页的实时搜索,那算是这个综合能力算是比较好。那其他的比如说你要去让模型去申请个图片, 那基本上我们现在用到的这主流的这个啊主模型啊都不具备,那么你就可以去调用他们专门的图片模型。比如说像千万,他有专门的万象系列的生成图片的,那么都包括有纪梦相关的模型,那么像 jimmy 的 话,有专门的这个深图的模型也是可以的。就是这些 又需要去单独去配置,在你去生成图片的时候去告诉他去调用这个模型去做这个事情,那像这个火山,这个 cds, 二点零系列都是可以去生成视频的,那么这个就是一定要知道,就是一款模型,它不是万能的, 你可能需要不同的模型来配合去完成你的业务的场景,所以一定要一定要弄清楚你的业务场景里面涉及到了文本、图片、视频、音频, 就把这个东西先想明白了,再去找对应的模型配置好,就才能去把整个东西,整个东西串起来。选好模型之后,很多模型厂商都会有两种购买方式,一种叫做按 token 购买,就是 按用量购买,用多少啊你就付多少,这种方式是比较自由的,它是不受任何限制的。那么第二种就是按这种 coding plan, 就是 套餐的方式,那这种套餐是什么样子呢?一般是有 有限制,比如一个月能用多少次,然后一周能用多少次,然后五小时能用多少次,它是有一个这样的一个限制,会每隔五小时会刷新,每一周会刷新,然后总流量是不超过啊,每个月总流量那么像智普啊, mini max, 豆包,还有这个千万 都出了相关的这种啊这种代码的套餐啊,就是可以可以编码,又可以用在 openclo 里面,那每一个套餐这个量是不一样,大家一定要注意去看,它可能在官方的介绍里面会说啊多少多少次请求,但是要换成就是你的一次对话,就是你跟 openclo 对 话一次,可能要 调用很多这样的一个请求,那么这样的次数是没有他说那么多的。最后呢,就是我们选择好了模型之后啊,我们怎么去配置?第一种方法就是啊原声的就是它 openclo, 它本身你在配置的,你在安装的时候它是有模型的一个列表的,比如说你输入这个 openclo config menu, 那 么 到这一步的时候,你选择这个 model, 就是 你需要去配置这个模型这边的话就会选择很多啊,它本身的支持这个 pro i 的, 就是它本身已经内置了这这些模型的链接,那么你点进去之后,你就可以去输入你的 a p i t, 或者说输入你的这个认证授权的一个链接啊,那这能快速的去完成。那还有一,还有一些它可能是不在这里面的,比如说像千万千万的这个 codeplain, 还有一些其他的这种模型的配置啊,那么你就可以使用这种 cc switch, 那 这款软件,那这款软件呢?有一个单独的一个菜单,那么点进去之后你可以去进行配置,也是一个图形化的界面。那接下来就是这种比较繁琐的,就是去编辑这个这个 配置文件,那这个是 openclip 的 一个啊,总的一个配置文件,那这里面的话,你就要去修改这个 providers agents 里面的内容。一般是 如果你选择哪个模型厂商的话,它会提供这样的配置文件修改的,这个啊完整的字幕串,你直接去给它修改掉就行了。那么如果你自己改这个接线文件,因为这个接线文件非常大, 嗯,不太方便了,你可以借助这个 ai 编程工具,比如像 tree 啊,像 cos 啊去帮你去修改它,它这边是可以去给你修改,而且可以去给你修复可能修改出来的问题啊。 那除了这上面的方法之外,那就可以用它自己的这个外部端里面的设置里面找到这个 modus 的 节点啊,但是它这个说实话非常非常难用啊, 我觉得用上面的方法都比它这个官方这个界面用的会可能会更简单一点。那你如果配置完之后啊,最好是重启一下,那么你在页面上可以点去重启,或者说输入这个 open curl, get away restart 这些命令去重启,重启完之后,那么你就可以去使用新配的模型了。 ok, 那 本期视频到这,希望这个视频对你有所帮助。

神图模型用啊,这个其实就是 nolan, 把它拿了看一下 later。 哦,有了,还挺快,不又用别的模型跑了。我们现在看一下这个图片审好了吗?还没有审完全审好,但是这个图片总体看的还可以,差一点意思。 这个还行啊,但是这个爪子这个位置有点假。后面这个,这个可以吗?我感觉挺诱人的。可以啊哈,这里头包装很高级。 可以,亚马逊风格电商主图。 nice。 那 比如说搞个亚马逊的电商主图来去模仿别人的品,把它链接给他就好了。要要要, 要个五张还是五张看一下。哇,蛮高级蛮好的一个配色,看第二张。嗯,高级是高级,但是这配色打的是什么市场呀?牛逼哦,好 black man, 呵呵呵。 啊,那不得不说这个配色黑配什么颜色就是显得高级是吧。哦,还给了个细节图可以吗?像我们再问一下他,呃,我能不能给你一个表格链接里面有的不同产品的 u l, 你 每天固定一个点,是 针对每个 u l 生成有张这样的电商产品主图,然后如果生成完了,或者发现某天我没有给你新的, 嗯,产品又来了,你通过我后续后后续给你接的飞书,或者说或者说别的什么都可以当做也就设置一个地址任务嘛,每天都跑,固定每天都跑,那个流程放在那就可以酷酷上你想要的作品了。 啊啊,这个方案掉了,其实可以接飞书也可以接好多,然后我现在比较喜欢用的就是 tui, 虽然握笔会比较清晰,但是你看他这个经常网关断掉,不是很好用,然后你那个下载 app 也可以,然后我这个接了,这个叫什么东西?我也不知道,这个很少用,反正发出来的时候会给他用,就这样。还有一个问题就是有的人会觉得这个头跟很贵啊,但是我这里有很便宜的头跟给你啊,就这样恰口饭。

最适合 oppo 酷路的一个天选基座模型,我想除了阶梯五点四应该没谁了吧?一个优秀的一个 ag 的 基座模型, 我的理解是需要三个方面都比较优秀,一个是代码能力,一个是世界知识,一个是多模态理解。当这三个都能达到 s o t a 的 时候,那它几乎必然是一个最流的 ag 的 模型。当然还有一个重要的因素,那就是使用的一个价格。在过去的话,酷路的 oppo s 四点六,它几乎是 ag 的 模型的一个代名词,因为它在上述三个方面都特别的强, 但是它的一个使用价格真的很高,所以使用起来真的很肉疼。而这一次 g p t。 五点四的一个出现,真的就补齐了这个短板。 g p t 五点四,它在代码能力方面是和 g p t。 五点三 code x 是 齐平的,然后在世界知识方面,它比 g p t。 五点二要更加强大,同时它还能使用订阅额度,二十刀就能让你使用的超级爽。可以看这张图,在八个评估指标里面, 五个它都是达到一个最优的。总结一下, g p t 五点三,更强的一个视觉支持,加上更多的一个工具模型调度能力 机,超级便宜的 codex 额度,这四样加在一起,这就是一个完美的 code cool 的 一个天选基座模型,所以现在在使用 open cool 的 你们,可以尝试把模型换成 gpt 五点四,我相信你会发现一个新的大陆。

那这几天看到有博主说 open clock 可能在很短的时间内就会消耗你上百万的 token, 今天抖音私信又有一个朋友在跟我确认这个事情,他也很担心,就是怕用上了 open clock 之后 token 负担不起。那刚好今天早上我遇到了这个问题,我最后也找方法去避开了,所以我给大家分享一下。首先 给大家看一下这个统计图,我用的是腾讯云的,之前我接过那个腾讯云的 deepsea 的 模型,也就是让 openclaw 去用这个模型。 那我今天上午问了他一个问题,确实不多啊,他就问题很少,但是他消耗了我七十五万的头肯,大家看一下,也就是今天 那短短的也就是不到一分钟时间,所以这个是事实,但是也不用太过于焦虑。因为什么我给大家看一下,我最后把它切换成了 mini max, 我 买的是它一个月的套餐, 我不是给 mini max 做广告。那它这里呢?你可以用任何的这种订阅式的模型,它这里是五个小时有四十次的对话。那任何的这种订阅式的模型,它几乎都是这么去定量的,按照你的对话次数, 所以我把它切换过来以后,他只会按照对话次数去计算,而不会按照你的 token 数量。所以如果五个小时我超出四十次对话了,那大不了这个模型我现在用不了了,他不会让我有更大的损失。 所以我觉得如果大家真的担心说 token 负担不起,那就去买一个这种按月订阅的模型就可以了,所以我觉得避开这一点就可以了,其实也没有那么恐怖。

哎,好的好的,大家好,我们今天手动来带大家从零到一部署在自己电脑上面部署一下最近火爆全网的这个 cloud bot 啊,现在已经改名叫 opencloud, 我 们从零开始,首先我们去 opencloud ai 这个官网,然后往下滑,它有一个 one liner 的 这个 quick start, 非常简单,你只要在复制这个代码,然后开一个命令行,然后把它黏贴进去, 它就会自动去安装这个 opencall, 它会去检测联盟装着 homebrew, nojs 和 git 啊,如果没有的话呢,它会帮你去安装,我这边已经有了,所以它自动开始在安装这个 opencall。 好 的,安装完毕,安装完毕的话,它会自动会进入这个 onboarding 的 这么一个流程啊,它也是非常人性化。首先让你先来先签个协议啊,说这个很 powerful, 但也很 risky 啊。我知道了, onboarding mode, 我 们选 quick start。 然后第一步呢,是我们要接一个模型啊,在后端的模型,它虽然就 open call, 它只是一个中间层吧,你后端的模型还是需要用自己的 a p i 的。 之前呢是我我尝试使用这个 cloud code 的 订阅,可以接入这个 open call, 但是前段时间 cloud code 把它给封了,所以现在就必须只能调用 a p i, 所以美国的模型 api 太贵了,所以我们这里选择支持一下国产。我们使用 kimi 的 模型啊, moonshot ai, 然后 kimi 最近也是浪潮了,自己的这个 kimi k two 呃,二点五的这么一个模型啊,能力上据说是跟 opps 四点五非常相像啊,也是很厉害,然后价格可能只有十分之一,所以我们来体验一下,所以我们这里选 moonshot ai, 月色暗面, 然后把我们之前复制好的一个 api key 给复制进去, create a api key, 然后我们选择一个模型,我们就选 kimi k 二点五。然后呢,我们在这里选的是 在第二步呢,是选这个 channel, 就是 call bot, 呃, open call, 它是可以让你用过用你的这个即时聊天软件,然后来调用它的啊,这里就会去配置一下这个即时聊天软件。我在这里选的是,呃, whatsapp, 然后我们来看一下 whatsapp 怎么 link 啊,它会给你二维码,然后我们要拿 whatsapp 扫一下二维码。 好,我们拿这个 whatsapp 刚刚扫了一下这上面的二维码,然后,呃,现在是可以去继续去设置一下详细的配置。 whatsapp, 它里面有一些 phone, 呃,这个是 phone setup 啊, separate phone just for open call。 我 选择用一个单独的电话号码在 whatsapp 里面,然后这里使用,选择 recommended power mode allow form。 说实话不是很知道是干嘛了。嗯,选择 default 好 了,然后下一步呢,是 configure 这个一些技能啊,这里我先不 configure, 但是我们看一下, 呃,这个 open call 它有哪些技能啊?这些技能本质上来说就是它到底能做哪些事情,你可以看它这里有非常多的集成的这个 integration, 就 你的密钥,密钥管理系统 word 是 可以用来发这个 twitter 的, 然后 bear nose 是 可以用来这个记笔记的一些东西,然后有非常非常多的这个,还有什么 g u g 这种 就是 gmail 啊什么的,非常非常多 open ai 啊什么的很多啊,我们这里今天先不配置了,然后回过头也可以再配置,到时候会问你一些问题,要不要这些 a p i key 有 多选? no no, 如果到时候需要的话呢,可以再单独回过头来配置 好。然后最后一步呢,是这个 hook 啊,自动的这个操作,然后它可以在某些特定的环境下面被触发,然后帮你操作。比如说它这里有一个 session memory 的 这个 hook, 就是说它可以在每个赛季结束的时候呢,自动把赛季的这个你们聊天对话记录呢,保存到他们的这个长期的这个 memory 当中。这里我觉得还是开一下比较好,因为 open call 它是自带这种长期 memory 的 功能的,然后如果每每每一次跟他对话,它会更新长期 memory 的 话,你会发现这个 open call 越用越聪明。 好,然后这些都是系统自带的,我就都开了,然后都开了,然后去设置 gateway, gateway 就是 说是呃呃,如如何去开这个?开个关口,然后让可以让这个你在 whatsapp 里面发送的消息被传递到这个电脑上的 open call 里面。这里我之前已经装过了,所以我们在这里的话就是 reinstall 一下。 好,我们这里的 git 已经装好了,我们现在有有有方法去 hack。 我 的 bug 就是 初设啊,初设的话我们可以推荐是走这个 t u i, 也就是它自己会开一个网页,然后这有一个链接好,然后可以尝试发个消息 啊,很可惜啊,消息没有发成功,我要来 debug 一下。哎,好的,刚刚发现是因为自己的那个 kimi 账号没有充钱啊,现在充了钱就变强了啊,我们现在已经可以 跟他对话了,然后我们在终端呢,可以输入这个 open opencloud dashboard, 然后呢我们来重新进进入这个网页的 ui 啊,然后这里呢我跟他说了个嗨,然后他现在会介绍一下自己可以干哪些事情啊?怎么怎么样,怎么怎么样都是英文啊,太,太烦了,我看他看中文那里边啊, 好,他现在等于说一开始的对话呢,他会让你去呃设置一下他的名字是什么,然后怎么称呼我,然后他是干嘛的?嗯,然后同时呢我们我来就展示一下这个我们这个 whatsapp 的 这个能力啊,就你看我们这边, 嗯,其实 whatsapp 上面是可以给大家直接发消息的,然后在这里的所有的信息呢,我们也都可以在 whatsapp 里面跟他呃聊天,然后他就只要你的这个网关是上线的,他就是可以呃去跑的。 那么今天视频就到这里呢,我们就简单的装一下 cloud bot, 未来的话我们也会在这里继续更新一下 cloud bot 到底能在呃能对我的工作流程带来多大的影响啊?期待可以创造更好的内容给大家,谢谢。

普通人用 openclaw 最适合用哪一个大语言模型?我用了七天之后,呃简单的给大家做一个总结吧。我前后已经用了三个大语言模型,分别是 kim code, daisy 还有 minimax 啊。首先说 kimi code, kimi code 其实它的能力我感觉是非常强的啊,但是它有一个很大的一个问题,就是它的呃 token 是 有呃非常明显的这种数量限制的,当然这不是最大的问题,最大问题是它呃恢复的时间比较长,好像是七天吧, 就一百多个小时啊,这个等待的时间是一般人接受不了的,除非你在进行会员模型。 那我呢就选择了买新的大医院模型,就换成了 deepsea。 deepsea 呢,它的能力好像变差了很多,就我感觉它它的这种呃处理任务的能力是比较差的。 当然可能是我呃用的时候 openclog 可能有些地方没有配置好也有关系,但是它给我的直接的感受就是它的能力下降了非常多。除了能力之外的最大的问题就是什么呢?就是它的上下文的长度是这三个模型里最小的。 那最后就讲的这个 minmax 是 我目前呃正在用的一个大语言模型,它最大的好处是, 呃一个它便宜,呃初级的会员二十九块钱,它有这种呃 token 的 数量限制,呃,但是它数量限制之后恢复的时间会比较的短, 呃,比如说五个小时,呃它就恢复一次。普通人用 opencloud 的 话,这个 token 的 数量是足够用的了。这三个大语言模型我我最推荐的是 mini, 其次呢是 kim code 啊, dipstick 我是 直接不推荐的啊。

open club, 呃,我,我不太确定是不是我设置的问题啊,所以说我拍这个视频大家来一起看一下,就是说,呃,我在使用国产的这个模型和呃国外的这些模型之间,它的使用上面体感的一些 啊,非常明显的一个差距,他到底在哪里?就是我刚才做了一个什么操作,就是我去啊,我去升级了我的 open cloud 版本,从二月十二号的这个版本迭代到了二月十七号这个版本,那么我在升级过程当中呢,我看到了有一个 vcom 的 这个插件的报错, 嗯,我给大家来看一下,就是说遇到了什么什么问题?就是说这个插件他报了这个错误,就是说啊可能存在一些风险的代码,对吧?那么 这个插件的话呢,是之前我在测试 wacom 接入 openclaw 这样子的一个项目里边,我去做测试用的,那么测试完成以后呢?这个这个插件其实是用不到的,呃,所以,呃,我看到有这样子的一个风险提示,我想把这个插件从我的啊这个 plugins 里边去移除掉, 所以我就问了一个这这样子的一个问题啊,就是说,呃,你自己去搜一下有没有 wacom 的 这个插件,那么你看一下它是如何回复的?就是说 他其实现在的这个回复的话呢,已经有点脱离我的问题了,就是说这些是 crm 自己生成的,不是我主动发的,对吧?然后需要我查什么东西呢? ok, 到这里没有没有没有太大的这个问题,我就主动的耐心的解释一下嘛,就是说我遇到了这个,我收到了这个, 然后呢,你看他是他是怎么样子去去回答我的,就是说他从头到尾他一直都是说这个东西不赖我,你不要去找我,就类似像这样子的一些公司老油条的这样子的一些,呃,考虑问题的逻辑啊,就就很匪夷所思知道吗?这不是我主动发的消息, 也不是让你搜索 wecom 插件的,就是这样子,那么我就问了嘛,就是说啊,你既然这个东西的话,你既然是 chrome 报的,那你告诉我是哪一个 chrome 对 吧? 他回答的其实都是都是不是我想要的东西。然后呢,我从这个上面去切换到了啊,这个 切换到了这个 jimmy 三 jimmy 三 flash。 然后呢,我就让他去查一下嘛,就是我把上面的这些问过的问题全部都丢到同一个问题里边去啊, 你看一下,让我们检查一下 wecom 的 这个插件的配置,然后他就去搜,搜完了之后呢给到我这个一个报告, 就是我不太确定到底是我配置的问题,因为我只是切换了一下模型而已,其他的变量我都没有变, 但是执行的效果结果大家都是可以有目共睹的,就是就是他可能会出现这样的问题,所以我不太确定是不是我自己配置的问题啊。如果说,呃, 你知道有什么解决方案的话呢?也欢迎在评论区里面留言去告诉我。呃,至少我遇到这个问题,他自从我开始呃使用这个 mini max 开始就一直存在了这个问题啊,大家如果说有这个经验的话呢,大家可以分享一下到底我该怎么办?

我用了一千万拓展去验证最适合 open globe 小 龙虾的模型搭子来了,亨特阿尔法,它目前在 open road 上是一个免费的,是一个另一门公司测试的模型。呃,据传闻它可能是 deep deepsea v 四版本,或者说是智谱,或者说是小米的新一代模型。然后它的特点就是一万亿参数,然后上下文有一百万, 它是相当于,呃可以处理七十五万字的中文或者一百五十万的英文单词,在一个对话框内,那相当于就说它是我们之前推荐的 g 月星辰三点五,就 sleep sleep 三点五 flash 的 四倍,然后专门为了 opencloud 啊小龙虾这种 app 去做了优化,然后它目前也是在 opencloud 上是免费的。然后魔性 id 我 贴在了我们视频的评论区里面, 呃,我让他去呃做了一些安全的测试,就是我们之前上个视频提到的自防护,呃,就相当于模型 agent 的 自防护能力,然后可以看到就是亨特尔法是百分百通过的,然后 sleep 三点五 flash, 然后通过度只有百分之六十五,那相当于就是说这个模型能力上,亨特尔法是远远强于 sleep 三点五 flash 的。 呃, open road 上呢,就是,呃有很多免费的模型,目前是有二十八个,那在第一梯队的呢?相当于就是我们的亨特尔法,它是接近了 g p d 四或是 cloud 的 这种商用模型的能力。呃,后面还有很多其他的特殊的免费模型,比如说多模态啊,视频啊这种,我下一个视频会给大家介绍。 那比如说就是,呃,我们来看就是亨特阿尔法六大模型的横向对比,那从整个的呃就是编程能力来看,肯定是商用的 cologne 最强,然后推理能力和编程能力都是商用的 cologne 最强。然后 agent 的 控制调用呢?嗯,那就是亨特阿尔法这种免费的专门 agent 的 设计,最强,你可以看到远远超过。 嗯,包括那样,就是,呃那个亨特阿尔法的定位,它其实本质上呢,其实是专用呃 a 技能做设计,那它和最强的付费的 a 技能模型呢?那其实是是也各有胜负。对, 那我们看到我这边的 status 状态呢,其实是呃它的上下文,你看我新的窗口采用了百分之四,非常的充裕。 嗯,和那个呃 sleep 三点五 flash 的 对比呢,相当于可以看到 a 技能的能力,然后呃 超文档处理是远远超过的。然后中文能力呢,它其实是属于待验证。因为呃, steve 三点五阶跃星辰呢,他知道是中国公司模型,亨特尔法也知道是中国公司的,所以说中文能力呢,其实属于一个待验证的状态。 然后推理速度呢,因为它有 a t 的 参数,呃,相当于是呃那个参数更大,然后推理说会更慢。呃,但其实是呢,呃,我们其实是等待时间,没有强,很强要求的话,那其实还是这种 a 级的能力上还是远远超过的。 那我们现在可以看到,就是我这边用了那个接近一千万的脱贫去做了验证和测试。对,呃,九九点六百万。 那亨特尔法啊,他现在在那个小龙虾的登陆排行榜上是,呃排名第八。对,然后我之前推荐的 super 三六 flash, 现在是远远排名第一。那,那我觉得后续的话就是亨特尔法,呃,他不管是更,嗯,就是正式发布他名称之后还是怎么样,那我觉得还是一个很大的竞争空间的。对, 然后这是我之前跑了一个测试,用它去跑的一个呃哆啦 a 梦的图像,因为它是纯文本的模型呢,它只能靠文本里面简介和想象,这是用 svg 来绘制的,相比于它的上半部分,其实是已经绘制的非常接近了。 然后整体上的话呢,其实是在呃 log 里面,比如说,呃,或者说我们看到 a p i k 对, 它其实都是免费的,对,都是一直已经切到了那个呃,对,你可以看到我的小龙虾都已经切到了亨特尔反应在用,对。

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

哈喽,我今天一分钟学会用 open 加 ipa 搭建一套跨境路由器自动化系统来看效果。现在只需要通过小龙虾加 ipa, 就 能实时监测亚马逊上各关键词和对应商品的用户评论,不需要在手动处理。接着借助飞书的 ai 功能,可以根据海量的用户评论,自动提炼出产品的核心卖点、受人群、用户痛点等等相关的信息。 同步后的所有的字段还能搭建成数据可识画看版。第二大模型,从多维度做综合分析。接下来介绍实操。这里我们主要用到两个本地工具,第一个是八爪鱼 r p a, 另外一个是智谱的 auto car 小 龙虾。首先第一步,我们来到八爪鱼 r p a 官网,先把工具下载到本地,再 下载完成后这里需要用管理员的身份来运行八爪鱼 ipa, 方便后续的操作。接着第二步,我们需要获取适配 o two card 的 ipa 自动化应用,可以直接在八爪鱼的应用市场搜索,找不到的话可以找我分享,在获取完成后打开应用。接下来到了第三步,需要打通 ipa 和小龙虾的连接, 来到智普 auto cloud 的 官网,需要把小龙虾手动下载到本地,有需要的可以跟着我的步骤来。在下载完成后,要先登录到小龙虾的应用页面。最后我们回到八爪鱼 r p a, 运行刚才获取的应用,先给小龙虾起个名字,接着八爪鱼 r p a 就 会自动执行 全部的安装操作,按照顺序去依次创建飞书应用,开通导物导出权限。最后接入到 auto curl, 小 龙虾不需要我们手动操作,可以全流程自动化,整个执行的速度非常快,在 ipa 执行完后,我们来到飞书就能看到已经自动创建好的应用,我们来测试一下, 如果有响应就表示已经把 r p a 和小龙虾打通了。下期视频会分享具体的操作,如何让小龙虾结合 r p a 去做竞品调研和用户分析,基本的思路就是这样,有需要的可以分享。好了以上本期视频呢,觉得有用的话不用点赞关注,咱们下期见,拜拜!

现在一堆人推荐云版的 open curl, 那 你用过就知道,一到真实场景实在拉胯,两分钟帮你把现在所有的 open curl 形态从哼到拉排清楚。第一种叫本机的 mac mini 部署,这是目前最能打的方案,因为它生态最完整,工具最丰富,而且不会被风控。 现在随着迭代,安全性能也逐渐补上了,可以给到哼。第二种就是像 auto qq 啊这种, 它们都能一键接飞书或者微信,能自动配置 ui 也很友好,一上来就可以给你一大堆的 skills。 但问题是你就模型被绑定,而且能力上限也会被限制,但是仍然可以给到人上人。 第三种就是像 nano curl, zero curl, coco 这种,这种开源的工具是工程玩家最喜欢的,比如说 nano curl 极简可控, zero curl 安全而且是极致性能, coco 多 agent 可以 给到顶级,但是仅限高端玩家。 最后说说各种云部署,其实又分两种,第一种就像 kimi cloud、 max cloud 这种厂商深度集成的。 第二种就是像阿里云镜像,腾讯云镜像的 lighthouse, 还有火山的镜像等等。这两种都有一个非常棘手的问题,就是它容易被封控,它登录很困难,而且非常容易被拣出,云 ip 被限制, 很多高价值的信息都需要浏览器登录才能拿到。要解决这个风控问题,你需要搞代理啊,指纹啊,环境等等,费的劲直接能把我半条命都搭进去。但是看在一键接入方面上,我还是给 kimi cloud 和 max cloud 给到 npc, 最后各种云的镜像直接给它拉就完了。核心结论, opencloud 的 能力上限不只是模型,还取决于两件事,一是能用什么工具,二你在什么环境里运行。

装了 openclaw, 但发现它什么也干不了,甚至有点蠢。除了需要配置各种插件和 skill 之外,它最需要的是一颗足够聪明的大脑。今天来分享我的配置方案,用 mini max m 二点五驱动 openclaw, 性能逼近 cloud 的 up 四点六,但成本只有它的十分之一。走订阅制,每个月一杯奶茶钱,非常适合在 openclaw 中使用。 接下来给大家展示我是如何用 opencll 来提升我的工作效率的。第一个,接入飞书,通过手机帮我剪辑口播视频,现在我直接在手机上发给 opencll, 一 句话就搞定了。帮我剪掉所有停顿重复的地方,然后导出发给我。它会自动调用语音识别,定位无效片段精准剪切。 以前剪一条口播至少要两个小时,现在三分钟出片。装了 opencll, 但发现它什么也干不了,甚至有点蠢。 除了需要配置各种插件和 skill 之外,它最需要的是一颗足够聪明的大脑。第二个,帮我整理文档,自动上传到飞书知识库 ai 时代,每个人都应该建立一套属于自己的知识库,有了 openclaw, 就 可以实现知识文档自动分类,自动入库。 我设定了一个定时任务,每天生成的文档自动识别内容,并根据分类上传到对应的知识库中。比如我今天写了一篇关于 openclaw 闭装 skill 的 笔记,它会自动识别内容,归档到 ai 开发知识库的 openclaw 分 类一下。第三个,帮我打开浏览器,注册各种账号,获取 api k。 当时我需要一个文本转语音的 api k, 正常流程是我自己打开浏览器注册登录,找到 k 页面,然后复制,但我就跟他说了一句,帮我注册 eleven lives, 拿个 api k, 他 就真的自己打开浏览器填表注册成功拿到了 k。 那一刻我是真的被他的执行力震惊到了,为什么每个都能这么顺?两个原因,一, mini max 二点五,自带的任务拆解和工具调用能力,他能真正理解你的意图,拆解有逐步执行。二,题词给的足够清晰,你不需要会写代码,但你需要学会把需求说明白。