粉丝4338获赞19.7万

这是我一人公司的几个 ai 智能体,现在已经全部到货了,我这原本的两台已经完全不够用了,我买这么多 mac studio 做部署本地大模型, 你知道是为了什么吗?之前这个是二百五十六 g 显存的 mac studio, 这个性能其实已经非常强了,但是我发现在用 opencloud 的 时候,我有很多个 agent, 有 我的 ceo, 财务主管,还有运营总监、设计师等等,他们全部都在这一台 mac 里,那就会导致我这个大模型的压力非常大。就算我有二百五十六的显存, 但是它的内存宽带已经限制住了,所以我安排这么多的 max studio, 就是 为了让每一个智能体都能有一个独立的大佬,而不是共享。那我有五个大佬,加上之前的两个,七个大佬去帮我完成很多的工作,那他们可以做什么呢?像做视频, 做设计,整理财务报表。但这一切我只需要给我的主 agent, 也就是 ceo 去发号施令,那他就可以去控制我其他所有的 agent, 让他们各司其 并且二十四小时不停歇,给大家分享一下我是怎么配置的。因为达新出的这个太阳模型,它的能力是非常不错的,我准备用它来去做我的 ceo 的 大佬,千万的这个 code 三的这个模型负责编程,那这个 mini max 的 文案润色呀,各方面都非常好,所以 运营总监我就准备用 mini max, 但是这个模型的数据量是非常大的,直接占用了一百三十多 g 的 容量,是一个一百八十 g 的 模型,所以我会用二百五十六 g 的 这台设备去跑 这个 a 证,然后我会用其他的这些去做我一些零散的工作,比如说像这个千问三的 vivo 八 b, 就 可以在这个三十二 g 的 mac 上,因为它主要是用来分析图片,像小红书啊、抖音啊以及各种咨询,用它就足 够了。还有像 g p t 一 百二十 b 的 模型,它的逻辑性是非常强的,它就需要用六十四 g 的 设备去跑,用这个模型去分析一些财务报表、股票信息、黄金等等都是没有问题的。所以这七台设备去跑不同的模型,所有的设定全部都会设置好。最重要的是这一切 全部都是在本地,完全不用线上的 a p i, 也不用付费 token 的 消耗。就算所有这些大模型,像千万 g p t 这些全部倒闭,那这些模型也会永远为我服务,这种拥有感和体验感才是本地模型的魅力。配合上 opencloud 一 人公司就能直接开张了。

opencloud 刚刚推送了 v 二零二六点三点幺幺版本,这次更新到底有什么很火呢?一分钟带你从普通使用者和晚安大佬两个视角直接开解。首先呢,咱们从普通用户的角度来看,体验直接拉满。第一呢,可以限时白嫖新模型, 系统的内置临时增加了韩特尔法和后面这两个新模型,趁着现在有一周的限时使用时间,大家赶紧去试。 第二呢,记忆力跨界进化。这一次呢,新增了谷歌的佳木丽提供的多模态记忆搜索,连你发的图片和音频都能作为记忆被精准解锁了。第三,针对苹果电脑 增加了新的专属的模型选择器, ios 呢,也换了底部停靠栏,更像的是欧拉玛的本地化配置,也成了一等公民小白也能无脑上手。但是,如果你是一名网络安全从业者,这次的更新可以说救了大命。 最核心的安全更新是修复了一个高危的跨站 web socket 劫持漏洞,以前在受训的员可能会偷偷拿到 operator 点默认的权限, 现在呢,官方直接在往官层强制了浏览器原验证物理,切断了这条劫持路径。另外呢,官方还清理了 ai 代理中容易泄露模型控制令牌,比如说像这种符号, 有效降低了提示词注入的风险,同时给此命令加上了专门的环境变量,方便我们日后做进城溯源和安全审计。一句话总结,用户用的更爽,黑客无从下手,别犹豫了,赶紧去升级点赞关注,硬核科技不掉队!

g p t 五点四终于发布了,很多人激动到根本睡不着,因为用过 opencloud 的 人都知道一个痛点, cloud 哪都好,但它贵得要命,而且 antropic 直接把 cloud 的 订阅额度疯了, opencloud 里想用只能应接 api key, 那 个烧钱速度小团队根本扛不住。 openai 的 模型倒是能用订阅额度,但 g p t 五点三 codex 代码是强,说话就是一坨天,书没有人味,世界知识更是一塌糊涂, 你就说夹缝里有多难受。然后 g p t 五点四来了,代码能力跟五点三 codex 齐平,世界知识比五点二还强, 工具使用能力比 cloudsonnet 四点六高了将近十个点,上下文窗口直接从四十万 token 拉到一百万,原生计算机操控能力内致敬来了, 还能直接用 codex 的 订阅额度,二十刀用的超级爽。 gdp well 真实业务场景测试百分之八十三超过了 cloud open 四点六的百分之七十八。这一刻你会发现, gpt 五点四不只是补上了短板,它是 openclaw 等了很久的那个答案。

度使用 openclaw 一个月,我终于把 openclaw 和电商的应用场景做出来了。给你们看一下 openclaw 和亚马逊的结合,竞品监控、 review 分 析、选品调研、 listing 优化、广告投放这些东西全部都交给 openclaw, 让 openclaw 去帮你做这些重复的事情。 和 tk 的 结合,热点追踪,有视频素材收集、账号运营、广告投放,数据分析,全部都交给 openclaw 来做。 openclaw 最牛逼的一点在于, 你在做一件事情的时候,他在同时帮你做另外一件事情,这就是 opencloud 提交的关键。 opencloud 带给我的震撼真的是太大了,每一天都有新的发现,每一天都有新的探索。这个时代, ai 永远不会替代人,但是会替代那些不会使用 ai 的 人,让我们用 ai 改变这个行业。

噔噔噔噔,这个就是我给家里部署的麦克斯六六本地大模型服务器,用来跑 open klo 是 一个什么样的效果呢?我这几天研究的很疯狂,然后把我的结论告诉。首先我大概介绍一下这两台机器, 下面的这台机器是我的老机器三十二 gb 的 m 一 max, 上面的这台机器是这个最新的 m 三要求的二百五十六 gb, 因为我觉得二百五十 gb 跑绝大多数大模型完全没问题。我给你看一下我大概跑了一些什么模型,可以看到我有各种容量的,各种大小的, 各种版本的大模型,其实我目前用的最多的就是这个 mini max 的。 然后如果追求速度的话,那这个千万的这个最新的三点五是非常不错的, 同时扣的模型也是非常不错的。那实际它真正运用这个本地大模型和我们线上模型在体验上有什么区别的啊?现在模型大家都体验过,我就不用多说了,那本地模型它非常的安全,你完全你所有的内容都不会处在, 完全在你本地跑,那很多人就会担心了,那我本地这个模型去跑的话,速度会不会非常慢?然后说一句话,大概要个几分钟?并不是的,我给大家演示一下,我们可以分三个问题来测试,比如说第一个问他可以做什么, 看一下啊他的反应,你看他开始思考了,已经开始输出了,看到他可以做很多很多很多事情,但我现在是用电脑操作,方便大家看未来使用的话,其实都是用手机 imessage 信息或者是微信直接让他回复,这样的话你不用盯着这样的屏幕,我现在只是为了给大家去展示, 你看他可以做很多事情,反应基本上跟线上是一样的。那比如说我让他推荐一下二零二五年的高分韩剧,因为这个问题就比较复杂了,他不能基于他的知识库了,他必须联网去搜索看一下这边模型已经开始在思考了。他去 网上去搜索的二零二五年的高分韩剧,然后是在豆瓣上去搜索的,说明哪怕我们这个是用的本地服务器,他依然具有网络的功能,同时你的这些内容只包含你。 呃,这个问的问题,但是实际你的真实数据是不会被传到网上的,比如说相对比较安全。如果你用网上的线上 a p s。 用 open club, 我 觉得毫无价值,因为你在出卖你的隐私。既然我们用到了 open club, 你 就必须要保证你的内容绝对的安全。现在是四点零六分, 可以看到是四点零六分,我这个问题是四点零五分问的,一分钟就可以得到一个被他优化过的一个啊,回复可以看到非常的细, 他也不是简单的随便给你说一下,那比如说这个片子啊,你看我后一个问题,比如说下载第一个到我的迅雷,其实这个就涉及到一个工具调用,就不是简单的一个大模型的一个对话,他是真正操作我的电脑啊,而且我的迅雷之前告诉他是在我的纳斯里面的, 因为这个操作就相当于复杂了,他要在我的 nas 里面去找迅雷,同时帮我找刚刚的第一个 这个电影的内容种子资源找了之后还得迅雷去下载,大家可以记录一下时间啊,我发过去是四点零六分,看一下他大概要多久处理完这个任务, 目前他已经找到了这个资源的名字。 ok, 可以 看到他这个片子他现在已经添加成功了,而且进度是百分之百的。问题是因为我之前可能测试已经下过啊, 现在的时间大概是你看过去的两到三分钟,他通过这个需求帮我去找电影,同时帮我下载成功,然后帮我监测进度,帮我查现在的进度, 整个流程大概三分钟可以搞定,线上我测试了大概是两分钟可以搞定,这个数据差距其实并不大,你要知道线上像这样的一个操作,你可能呃一个人民币就没有了,但是如果是本地,你可以无纸巾的使用,他上十年都没有任何问题, 而且他可以一直在后台给你做这么多事情。所以说我觉得如果你在乎隐私,又喜欢 open 这种没有纸巾的偷看的使用,那本地部署大模型就是最终的解决方案。 刚刚给大家分享完的就是我这个顶配机器的使用体验,那下面的这台机器就是我三十二 gb 的 体验,下一期给大家分享。如果我没有三十二 gb 的 跑小模型,速度又怎么样了?

哈喽,我是严校长,之前几期视频去讲了这个本尼大模型吧,然后很多人就觉得这个本尼大模型在速度上肯定是非常的差的。然后这期视频主要给大家实战演练一下啊,只见我们用录屏的形式看一下。呃,我最近发现这个模型啊,就是刚出的千万三点五三十五 b a 三 b 这个模型, 你看我用的是这个八位的一个量化版本,但这个版本其实跟我们线上去使用的话,差别并不是很大,特别在高峰时期,他不会被压缩。 如果你用线上模型 open color 想省钱不用的话没有意义,你训练的东西没有用,然后你大量使用的话,你的这个开销,特别是多 a 镜头的这种场景,你的成本是相对比较高的。所以说如果你有重度的 open color 依赖的话,可以尝试一下和我一样用麦克斯丢丢 去做本地模型的部署,可以看到我这台机器是二百五十六 gb 的 版本,这个机器目前跑这个东西都是小儿科啊,你看就占用了六十。然后我们来看一下这个本地模型到底速度怎么样, 我们先做个简单的测试啊,比如说你可以做什么?大家重点是关注他这个回复的这个速度,以及这一块他思考的这个时间啊,可以看到这个速度基本上是秒出的呀,可能现在赛文比较小啊,可以看现在能跑到四十七啊,可以跑到四十七 啊,然后这个是八位的啊,这个八位如果我换到四位,我们常用的这个版本的话,可能速能跑到五十多啊。比如说我们来点复杂的,比如说 天气怎么样?因为这个涉及到要一个联网搜搜索嘛,他会在网上去搜啊,他的步骤可能你看现在已经操作了两步了,第三步了啊, ok, 把他读到了我当前地址啊,然后天气都带出来了啊。比如说我再问一下别的地区, 因为这个就要考虑到一次两次的上下文的连连接,而不是简单的常用的这种。呃,人工智能进行一个单次对话,你看他联想到了我后面发的这个深圳的话,他能联想到这个天气的信息。然后我们接着来去 啊,问一个复杂啊,比如说推荐一下二零二五年的高分韩剧啊,这个其实是有点难度的啊,首先他要在网上去扒资源啊,找到有用的信息,然后进行整理。 这个步骤对于本尼达模型其实压力算是很大的,你看一下我们这个目前新出的纤维三点五,在这个本尼达模型上的效果怎么样?可以看到这个速度 其实有很多人应该用过线上的版本,你们又不觉得我这个速度并没有很慢是不是?而且我这个是没有弄虚作假了,这些片子可以看到都是都是新出的,而且刚刚的思考过程都是看得见的。 然后我们来反过来推一下,你看现在上下文是有一定下降的啊,跑到四十五,但是四十五点七 t 肯啊,这个叫 t g 头肯,就是吐字的,这个速度其实是已经很合理了,我们再继续给他一点有难度的啊,比如说这个片子啊,我直接跟他说嘛, 这个具体讲什么?好看吗?啊?你继续进行二次追问这样一个测试方法是很容易测出一个模型以及对于 open klo 的 适应能力,可以看到速度依然可以很快的出来。 然后我们再继续增加难度,比如说这个片子一出来,我觉得你看他,他甚至给我一个建议啊,就是他可以帮我搜磁力链接,这个就很强啊。我说,呃,找找四 k 的 吧 啊,其实这个又又叠加个难度,首先上下文的长度变长了,哎,再加上他对互联网解锁的这种能力就更强了。因为我们用的是巴巴比特这个电话版本吗?如果试比特可能会弱一点,但是他只影响他试错的这种 几率吧。可以看到这种他已经不断的在尝试了,如果你是精度比较低的,他可能试错的次数会多一点,但是基本上都能出结果,而且可以看到我现在的这个显存。 嗯,这点三条文基本上不会有开销。比如说你预算有限的话,你可以入 m 三要求的这个九十六 gb 现存的这个版本,如果你呃预算 大概在两万左右的话,也可以买六十四 gb 的 m 二要求的话,你跑四 b 的 量化体也不会差很多 啊。你看这个,这个他现在就是遇到了问题啊,你看,呃,就说在某个网站上没有找到这个资源 啊,这就是现在本地模型,我目前来测试就是很容易出问题的一个点,但是这个问题我觉得是可以解决的,因为通过你去优化它的 skill, 它可以解决更精准的一些,因为我现在是完全让它呃重新尝试,相当于没有没有教学的部分啊,让它自己去尝试, 那后期你就可以完全用自然语言去沟通,然后他会更了解你的习惯,写出更合适的 skill 啊。这些视频主要是给大家讲,就是关于本地大模型啊,以及这些使用体验上的速率以及性能的问题,可以看到一些正常使用都没问题。 我们再做点哪一点呢?比如说打开浏览器,进入小红书,搜索 back 丢丢,其实这个是有点难度的啊,就哪怕很多线上模型,我们去跑浏览器的自动化,其实都呃不是那么容易成功的。而加加我们现在已经有一些上下文的堆积了,然后我在中间突然插入了一个和上下文完全没关系的 啊,内容其实对他来说是有一定的难度的,可以看到他第一次试错了,他第一次直接用这个,呃,直接去抓了呀,他就是很简单,他打不开浏览器,但是他用了一个其他的方式帮我推出来了这个目前我想找到的东西,也就说他又找了一个别的解决方案啊,但是千万三点五,这个本身是一个小模型啊, 如果我们后期去切到这个 mini max, 你 看它这个,嗯,空间都占用一百三十八,实际跑起来大概占一百八十 gb 的 现存。比如说如果你预算更高一点,大概五万的预算的话,你完全可以入这个二,像我一样二百五十六 gb 的 这个 m 三要求啊,就跑这个 mini max, 像这些什么浏览器啊,以及呃下电影啊这种小科的问题吧,但是它的速度可能就跑不到五十头克,每秒大概有三十头克,但是日常使用完全够了。 ok, 那 下期视频我们会继续分享如何?呃,更高效地使用本地这个大模型,来去跑一些 open klo 的 一些复杂任务。

今天跟大家讲一下这个在小龙虾里面,他这个的模型是怎么切换的,那我当前这个模型是 glm glm 五的模型,那如果说我要切换成呃 glm 四点六 v 的 这种模型,那该怎么切换呢?那切换里面我们有这么几种办法。 呃,先给大家说一下,一种我们先打开一个终端,在这个终端里面呢,我们输入这么一个命令,叫 openclock apple color, 然后呢 o d l 是 model 四,那设置 set j ai, 这是智普的那个前缀 j ai, 然后写杠 g l m 杠四点六 v, 那 这个就是切换成把把这个默认模型切换成 g m 四点六 v 的 版本,然后我们敲回车一下, 敲回车完之后呢,它这里呢会告诉我们模型已经设置成功了,然后呢我们给这个小龙虾呢的网关重启一下, 重启一下,这个可以重启一下, 那重启完之后呢,我们回到这边来,我们去刷新一下这个浏览器,你看它当前呢这一个会增加了,多增加了一个叫 g l m 四点六 v 的 这么一个呃默认模型, 那这个呢是我们切换模型的一种方法,当然大家这里看到的这是一种呃通过它这种内置的这种 p p n 的 一个命令, 呃可以设置的,那如果说呃这里面的那个模型默认的模型不在我们的小龙项链表里面,比如说像 deepsea 这这种模型,那要怎么设置呢?因为 deepsea 它是不能通过这种呃简单的命令去设置,它只能通过自定义的呃 模型去设置,那它这边呢有两种,一种两种命令,一种是直接通过什么通过这种呃非交互模式的这种条命令就可以执行,比如说像这个, 比如说像这种像这种一条式的命令,它这里是什么呢?它这条命令呢?它这个是什么?呃是像这个参数呢?是。呃 执行非交互模式,使用非交互模式。那第二个叫 modelcare 了,这一个呢?按本地模式配置网关,这个是按本地模式配置网关。那第三个是什么呢?第三个是使用自定义的 api t 接入,这个是使用指定 api t 接入的参数。那第四个参数呢?这个第四个就是给这个呢?呃提供商命名为叫 dbseek, 对 吧? 那第五个这个参数呢?这个是什么?这个说明让它兼容 openai 的 协议。那第六个呢?第六个是什么设置?呃, deepsafe 的 这个接口地址。那第七个是什么呢?第七个是,呃设置默认模行为 deepsafe chat。 那第八个这个呢?那就简单了。第八个这个就是填写我们在数据库上创建的这个 api t, 这个就是 api t 的 序号。那第九个这个是什么呢?确认接受非交互模式的风险提示,一定要加这句话,要不然如果说少了这个,它上面的这个就执行不成功,那我现在来给他执行看一下 啊,这里已经告诉我们。呃, justin 呢?已经备份了,然后呢?这里也执行完成了。那执行完成之后我们要记得什么?记得是,呃,我们要给它一个重启网关,网关重启一下。 网关重启完之后我们直接在这上面刷新一下就可以了啊,刷新一下它当前这个 deepsea 的 这个什么?呃,模型已经加载进来了,那我们可以直接什么跟这个呃, 我们直接问用 deepsea 看一下 它,这里会回复我们是由深度求索公司那一个研发的这个大模型, 那这个模式像这种方式呢?都是用一条的命令方式,那还有没有办法用?呃另外一种方法呢?就不用一条命令,我们用那种直接 on 使用的是什么? openclock on board 这条命令呢,就是类似于刚刚安装的时候我们去执行,那我接下来也给大家去演示一下这个呃,我们用这种命令,使用 openclock, 使用这样子的粗俗化的方式去呃配置我们的 deepseek 的 这个呃模型。那首先呢,我现在呢先给它做一个啊,先把这个呢做一下来还原。其实所有我们所有配置的这个 wincore 的 这些配置参数都在这个文件里面,我先把这个删掉, 删掉完之后复原这个文件, 我重命名一下,我复原这个文件之后呢,我们我在这里呢先给他什么,先把它网关 重启一下啊,重启完之后我们确认一下是不是恢复到我之前的呃初设设置,我刷新一下啊, 这已经呃复原到最早的之前的设置了。好了,我现在呢给大家去演示一下这个什么呃通过这个叫做 open, 通过这条命令怎么去呃配置我们的 deepcom 这个模型,那我们执行这条命令叫 opencloud on board 的 这个命令, 那这个执行完之后呢?他就是我们,就像我们第一次安装的时候会告诉我们这个呃一些风险信息吧。完了我们给他确认一下这个选择 yes 啊,这个还是继续选择 quickstar, 那 这里呢告诉我们什么配置,是否继承原来的值,那我们选择第一个就可以了。 use assign 就是 继承原来的值, 那关键就是这些位这个位置了,这个位置这里的模型驱动商呢?有这么多个,那我们要选择哪一个呢?我们选择的是这个叫做 custom, 因为这里没有 dsp 的 那个默认的夫商,所以说我们这里要选择的是自定义的 夫商,那我们选择这个回车,那回车完之后,关键这个位置的 api, 那 个 api base url, 这一个要改成什么?就是我们的模型的接口地址, 这里的接口地址呢?要改成我们的这个叫 deepsafe v 一 的这个默认模型,那我们啊路径改一下,黏贴进来,就一定要改成这什么 a p i deepsafe, 点 com 点 v e 这个 u r 的 地址呢?是兼容 openai 的 接口模式。那我们回车,那这里呢?我们是什么?呃,黏贴那个 api key 的 值,那我们把 api key 的 值黏贴进来, 然后呢这个位置这里有三个参数,是选哪一个呢?我们要选择的是什么?叫做呃,说明兼容和 ai 模式协议,然后我们这里选择第一个兼容 open ai 协议, 那这里呢? model id 又是什么呢? model id 呢?这里呢是设置默认模型,也就是这个提供了哪些的默认模型?然后我们选择呃,输入 d e e p s e k 默认模型,然后显示 a t, 其实就是这一个, 其实就是呃这个位置接口文件里面的这个,其实就是这个, 其实就是这个。这个 deepsafe 提供的这一个叫做什么?推理模型跟聊天模型,然后我现在先选择的是聊天模型,叫 deepsafe chat 的 这个模型。好了,那我们给它 model id 选择了 deepsafe chat, 那这里的是什么呢?那 point id 又是干什么的呢?那 point id 它其实是是模型的一个小名,那我们这里的小名呢?也可以叫让它默认叫 custom api, 这个默认的也行,那我们选择用默认值吧。 那第二个是这个是别名,那这里的别名呢?我们也可以不填,没关系,我们直接敲回车也不填。然后第三个,这什么使用的一些我们交互的方式吧,那这个我们直接跳过啊,这里呢也是直接跳过, 然后这个是配置技能,那技能像我们之前也配置过了,我们可以选择 low, 也可以选择 yes 或者点 yes, 在 这里面跳过也行。我们先跳过,那这后面都是跳过了啊,像谷歌的,国外的这些 a p i 我 们都跳过,目前都没有申请 好了,那这个是不可使的,这个也跳过,那现在最后步呢?这个是什么呢?我们再重启一下就可以了。重启网关, 重启完关之后我们选择的是什么?还是继续选择 open 的 web ui 的 这个方式,然后呢它这里呢?它这里呢?你看它这种方式也可以把这个 deepseek 的 这个模型给它配置进来,那这个就是我们呃默认的这种, 呃自定义的方式,把 deepseek 的 一些那个 a p i 呢?呃配置到小龙虾里面去好了。呃,这个今天呢,呃,跟大家讲的这个第三方的 a p i 呢?呃就到这里了。

这两天被吹爆的 openclaw, 先别装非凡,这几天复盘了一个 openclaw 实践群里一千一百八十九条群消息。先说一个扎心的结论, openclaw 现在更像玩具,做不成你的同事,因为滚费钱。如果你想把它接进飞书,当能托付的同事,真别急。 你如果只是想在本地玩自动化,做点小任务,那可以试,但也别上生产。今天呢,我们不讲 opencore 的 分工尾计,只讲四个十锤坑,看完你就知道该不该入坑,怎么入坑最不亏。第一锤,部署两难。 opencore 最大的尴尬是本地很脏,但会抢你的电脑,云端部署很方便,但它的差异化会变弱, 本地部署的卖点只能操作你的电脑文件系统。但问题是,你俩要不分时段上工,要不就抢工位, 那上云呢?上云当然能跑,但那和拆 boss 有 啥区别?所以这事不是你怎么部署,而他自己的定位还不清晰,到底主打本地还是主打云端服务呢?第二锤, 选模型就等于选账单。在 a 阵框架里,模型上线就是你复活的上线。群里三分之一的讨论都在纠结模型,但最后赢的往往不是最强的,而是最不让你心疼的计费方式。很多人会选 mini max, 占比大概在百分之四十, 理由很简单啊,因为它包月付费,不用盯着偷看,像在烧钱。那反观 cloud 呢?它能力公认是强的,但被吐槽也是最多的,因为 cloud 的 订阅额度它不给用,只能走 api 调用,一次就拍几千块飞走了。 所以对入门者来说,更稳的打法是先用包月模型跑通流程和新关键任务,再上 cloud, 自然垂。百分之二十一的讨论都在问能不能接飞书啊, 这不是技术细节,而关乎增长。天花板官方原声支持 telegram, what up 非说要自己接,那不少人跟教程折腾半天接上了,但体验是翻车了,有的回复被拆成多段,对话不连贯,维护成本也很高。 然而不进工作平台就进不了工作流,进不了工作流就永远是玩具。四锤稳定性真正让 open call 从同事调回玩具的,就是它的稳定性。 用实操的时候,反复会出现两件事,第一是 chrome 自然语言,定时任务跑不通,经常出错。第二呢,聊着聊着突然就 no output, 对 话中断,还不给错误提示,那生产率。工具来说,最贵的不是功能,而是可信,只要断一次,后面你还敢托付吗?据从群里真实的讨论来看,它的高频场景是日程任务管理、邮件处理、代码辅助、写报告、 ppt 生成。 低频却很高价值的场景是数据抓取和分析、定时任务自动化、跨设备协助。但这些对稳定性要求极高,也是最容易翻车的。 还有一批呢,是争议场景,大家对准确性和安全边界还没有共识。以目前的 open call, 对 更多大众来说,没有一个杀手级的场景,还不能看成是一把瑞士军刀。 我觉得也不用急,因为 agent 还在早期阶段,大家对个人智能体的需求是非常渴望,只是理想的产品形态还在进化中也说不定,大模型厂商随时可能推出官方 agent, 而且像 cursor 这类垂直工具也越来越强,所以暂时先交给时间吧。今天非凡的研究报告呢,是我们的 ai 员工写的数据非常完整,需要权威的评论区见。

这是一款让你不用任何 a p i t 就 能让你电脑流畅运行 openclaw 的 开源工具。记住这个项目名字,它通过浏览器自动化技术,完全不花一分钱,让你的 openclaw 直接利用网页登录去调用 gpt、 cloud、 jammer、 币豆包等等主流模型,完全不需要任何的 a p i t, 让你零消耗,用上 openclaw 就 非常顶。

今天给大家介绍一款网站,可以免费部署 open clone 以及电商一键生成,还有 ai 漫剧生成 以及各种大模型的使用。此网站已经接入市面上大部分的模型,不需要翻墙,不需要购买 api 就 可以直接使用。

最近呢,刷到了一个视频,全网都是关于这个 open collab, 也就是养龙虾的一个 af 的 工具。作为一名电商人来讲的话, 我有一个大胆的设想,是什么样子的呢?有没有一种可能,我通过 open collab 去做一套本地部署的一个大模型,然后让他实时接入我店铺管理,比如说自动上架, 自动去分析竞品数据,自动的去给我调整我直通车的推广计划,比如说限额出价投产品,对吧?以及可以自动给我回复客服消息, 但是他回复客服消息,他是需要考虑这个消费者的一个心理和一个心情去回复的,因为做苹果电商的商家都明白这个事情,对吧?但是呢,我也不知道这个项目他是可行不可行的,当然我也知道,如果说这个项目一旦做出来之后, 他也不能说百分之一百可以代替人工去做一些生产力的一些工作,他可能只是作为作为一个辅助的一个工具而已。如果说你有这个相关的经验,包括有这个阅历的话,你可以和我提些建议,因为我本身对于这个程序也是一个门外汉,懂吧?呃,感谢大家。

只需三分钟即可搞定。整体分为三步。第一步,在 kimi klo 构建云端 open klo。 为什么选择 kimi klo? 之前我是单独配置 open klo 加单独配置模型的方式,对信手来说步骤比较繁琐。现在可以通过 kimi klo 一 站式将模型和 open klo 配齐。 只需一分钟,在 kimiclock 的 控制台点击 create 按钮,一分钟就可以配置成功,无需额外的复杂设置,非常方便。第二步,现在你已经是个初级老板了,现在给你的 kimiclock 赋予牛马使命。在 linux 中,我们可以使用 cron 来设定, cron 就是 linux 中用来定时自动执行特定命令或脚本的工具,因此这个指令最基本的版本可以是,你可以基于这个命令进行衍生。这儿给大家一个小技巧,本质上 color 运行在一个 linux 环境中, 因此如果你不熟悉一些 skill, 你 完全可以直接让克拉模仿你平时的动作。因为四 q 本身也是工作流。例如分析任务,你就可以改成设定一个空,让任务每隔二次时间打开浏览器,输入网址, 查看网站上的数据,形成数据分析报告,看完之后关掉浏览器。当你知道这件事之后,你完全可以忘记原来对于电脑操作的理解,享受老板的工作方式。假设安装一个软件, 可以说使用并搜索 wps 并且安装。第三步,将你的工作流与 kimi quir 沟通并固化为 skill。 我 们直接跟 kimi quir 沟通,我们可以根据 kimi quir 的 回复选定一个方向,让它给我们整理出完整的交易工作流程。你看这段 pro 是不是 p u a l 拉满,如果你觉得没有位,可能你已经是老板了。 kimi kala 会返回一个任务列表,这时克洛还不知道这些任务其实是他要执行的。我们接着让 kimi kala 把这些内容做成固定的 skill, 这样可以稳定方便地嵌入到矿例行任务中。 你可以让 kimi kala 打印出来具体的 skill 内容进行检查并叠代,最终固化的 skill 如视频所展示。当然,你也可以直接使用 kimi kala 官方哈布里现成的四 skill。 自己封装 skill 是为了让大家更好地理解什么是 skill 以及如何创建。如果你会建立自己的 skill, 那 么使用别人的 skill 也就轻而易举了。现在我们就可以修改第二部中的 chrome 命令,让它定时执行我们刚创建的这个 skill。 整个能够自动钉盘分析的框就配置完成了修改。 chrome 的 执行时间可以定时给你提醒。

hello, 大家好,我是老明,我想跟大家分享一下我真实使用 open cloud 的 感受, 就是这个软件呢,我已经安装部署好了,导估了我大概三四个小时才搞好。它的安装的难度其实对于普通人来说还是蛮繁琐的,远远不像网上讲的说什么一行命令就可以安装,那是建立在你所有的这个插件啊,所有的背景环境啊,以及其他的这种什么 语法都调试好的情况下。但对于一个普通人来说,你安装这些前置的脚本,前置的这个呃配置环境也是需要花费一定时间的,而且中间会遇到很多 bug, 你 需要一个一个去把它给调试完毕。 而且就算你安装好了这个 open, 可能很多人还不会打开,因为它很复杂,它是需要在终端里面打开一个外部 u i 的, 然后还要把它连入什么 discord 呀, telegram 啊,什么 imessage 这些东西,它不是那么容易的。然后我呢,我是全程用的 cloud code 帮我安装的 open cloud, 就是 我是拿呃 克拉的 code 接入了 g m g l m 五的大模型,借用它的力量才帮我成功的部署好了。我问卡,如果说我自己不借助其他的这个 ai 的 这个力量的话,可能很难去把它部署好。 这是第一个就是前置的部署的难度比较大,对普通人来说会花费很多的精力和时间,会让人心态爆炸。第二个就是我使用下来头肯的消耗量非常大, 就是我让他去执行一个很简单的任务,他要花费很多很多的 talk, 就是 我买了那个智普的 g m 五的一个 max 套餐,我就用了几个小时吧,基本上就给我烧了, 好像是烧了将近一周的额,额度我记不太清了,反正是这个量是非常非常恐怖的。这是第二个点,就是 token 的 消耗量非常大。第三点呢,就是我不知道该不该说哈,我不知道是我的网络的问题还是 呃,大模型春节期间的响应的人数太多了。就是 就是,我用了 g m 五的大模型接入到 open code 里面,响应的速度非常非常慢,我问他一个问题,基本上都是三四分钟之后才回答我的,这让我有点受不了,这个响应速度太慢了。然后我被迫无奈,我把它换成了 mini max 二点五,这下的话速度很快,但是 mini max 二点五它的智能相对来说执行复杂任务的这个能力又相对来说不如 g m 五, 所以说这也是我觉得值得勾背的一点。就是主要就是三点,第一前置安装难度我不小,第二点是透坑消耗量大,第三点是响应速度比较慢。 那我也不扯什么其他的,什么安全性啊,权限太高啊,这些倒无所谓,因为我是 我们可以把它用在一台全新的麦克迷你上或者一台全新的设备上。这个倒无所谓,主要就是我说的前三点,一个安装难度不小,比较复杂,第二个就是投可消耗量大,第三点就是这个响应的速度相对来说比较慢,而且再补充一个第四点,就是他能做的 很多事情,基本上你在电脑上是一样能做的,他只不过给你提供了一个七十二小二十四小时的一个移动终端的助手而已。

好,各位好,我是小刘,今天我们一起来看一下小米最新发布的一款新模型 miimoway two pro 啊,这个名字有点绕口啊,但是因为 opencloud 带来的热度哦,它也是在匿名的榜单里面排名第一名,就是这个模型的表现是最好的, 那它支持一照的上下文,大家可以看到,其实呃它和很多的模型进行对比,它也是排到了比较强烈的一个位置哦,这个橙色的是 miimoway two, 大家看有一个小米的图标对吧?那我们可以看到跟呃 cloud 比起来其实相近哦,就是很多地方打分的话,其实我感觉跑分没有很多实质意义啊,就是很多的跑分是专门 很多模型是专门针对跑分进行训练的,但实际上编程并不怎么行。那我自己呢,也是用了一下这个 miami 二兔去嗯,来完成日常的工作。 我觉得相比于 cloud 的 oppo 的 四点六来说还是有一点差距,但它这个价格确实会便宜一点,大家可以看一下它支持一照上下文,那一照的话就是我觉得 就很不错了,相比于那些像,比如说像 dpigs 对 吧,它就高很多。你看这是一个简单的排行对吧?它排到这个位置,排到这个智普的后面,就是智普五的五点零的后面嘛, 它也是一个万亿参数的高价购,就我觉得什么呢?它有点,就是有点那种扫地僧的感觉,之前一直没有看到他身影忽然冒出来,你看它的这个位置,还是一款很强的模型哦,就简单用下来的话,它也是推出了三个型号,这个 fresh 的 话是比较快的,然后这个 v two 的 话是旗舰版本,然后我们现在点击这个地方有一个呃, try not, 然后点击进来就可以去尝试了。那我自己也尝试一下,我觉得怎么说呢?嗯,用一下还可以,但我感觉它有点慢,相比于这个那些其他的模型来说,这里也是可以支持。还有一个 miimo cloud 也可以直接去使用它, 大家可以看到,对吧?其实整个的开放页我觉得还是不错,那我就不测了,我觉得没什么好测的,因为测的话也是做这些基础的操作,你就做前端开发,对吧?你做一个简单游戏,大家可以看到这是其他人做的,已经有很多的博主做过测试了。那我们简单来看一下这个这款模型吧。大家看到一照上下文开放了这个 api 支持一百万的令牌, 然后这是他的收费,哦,就是,呃,每百万 token 就是 一美元那输出啊,就是啊,就是可以看到这边有一个那个具体的一个价格,然后缓存也是一样的,对吧? 那从和对比的什么对比的?这个拿的是 cloud 四点六和它进行对比,那这样对比的话是不是很划算的?性价比非常高。然后它也是什么?小米的 agi 的 第一个里程碑,就是因为这是小米第一个模型嘛,对吧?它,嗯,确实表现非常出色。第一个模型就这么出色了,是吧? 因为它是属于呃,后起之秀嘛。就我开发出了一个简单物流管理系统,你看大家可以看到对不对? 效果是非常的不错,是不是?你看我跟他说开发一个简单的物流管理系统他就开发出来了,你看这个仪表盘,包括这个,呃,效果,这个展示效果是不是非常 nice, 是 不是?然后呢,我们再看一下其他效果,比如说这物流管理系统,再开发一个学生管理系统的原型图, 那这个圆形图我们也看一下。呃,这个效果我们点开,你看是不是也很不错,是吧?这个 miami 2 pro 我 觉得真的强烈推荐大家去尝试一下,当然相比于 cloud 的 索尼四点六还是有差距,而且我在想啊,这个 啊,当然我只是一个猜测,因为这个 miami 2 之前没有水花,呃,它做出来的效果感觉跟 cloud opus 四点六有点相似,真的 第一次就这么出色,大家觉得怎么样呢?好吧,好,这是我最对这款模型的一个基本的解读。好吧,大家觉得他是否进入了全球顶级的水平呢?大家可以去尝试一下。好了,那本期视频就全部看完了,我是小刘,我们下期再见。

最近 openclaw 也就是大龙虾特别火,因为我自己也在用,所以很多朋友问我说这是一个什么新的大模型啊?然后以及到底有什么用处?这里先解释一下, openclaw 其实自己本身不是一个大模型,它仍然需要任何一个大模型来做底层的支撑。其实 openclaw 是 ai 的 操作系统,它是一个项目经理, 如果用更专业的术语来去定义 openclaw 的 话,它其实是一个能力调度系统,它可以统一调用底层的大模型,你训练好的 skill, 它有长期的记忆系统不会飘移。更重要的是它还有各种工具的接口,比如说飞书、钉钉、浏览器的自动化等等, 所以它就可以自动地帮你去处理聊天、发帖等等各种任务。大模型会负责推理、思考、计算,而 openclaw 这个 ai 操作系统则负责让它 真正的开始工作起来。作为一个品牌营销人,我自己最近在用它做什么样的事呢?其实主要在做三件事。第一个就是品牌调研的自动化, 我让他每天给我去整理资讯,去整理行业的调研的数据,以及对竞品做研究。我现在设置了七八个的自动化流程,让他每天按照固定的时间把跑出来的内容给我推送到飞书里面,这样我就可以随时看到成果。 ai 时代大家都很焦虑,所以还有一个小小的好处就是当我觉得我在睡觉的时候, opencloud 大 龙虾还在干活,这也能够让我缓解一些焦虑。 第二个作用就是它能够帮我自动发小红书、飞书聊天,飞书因为已经有自动化的机器人的接口而发铁呢,就需要让大龙虾直接操作浏览器,它可以自动策划内容,生成文案,然后再自动分发到新媒体上。当然这种自动发布内容还不够完美,需要再一点一点的调教。 我的第三个用法就是对我们的品牌策划方案的输出和优化。因为我们作为一个品牌咨询公司,其实有很多底层的模型,我把这些模型投喂给大模型,让它生成 skill, 然后这些 skill 再投喂给 open cloud, 让它用这些自动工作流去帮我生成方案,或者对我的方案进行修改, 这样就会让大模型输出的内容不再是随机生成,而是按照我们自己的方法论和体系生成的,这样就等于把我们的经验变成了自动化的系统。使用大龙虾,其实很多人会纠结一个问题,就是 token 的 消耗太快了。 没错,因为你不能用使用一个技术工具的成本去理解这件事儿,而是要用一个使用员工的成本去理解它。 如果 open collab 不是 一个工具,而是一个 ai 员工的话,它可能能顶两三个人的工作,所以它烧的就不是 token, 而应该是人力成本的投入。所以 open collab 是 ai 的 操作系统,是你的项目经理,它不是工具,它正在变成你的员工,变成你的同事。

opencloud 真是直接把国内 ai 圈给炸醒了,这十款全国产的 ai 龙虾,功能真是一个比一个狠, 看完直接颠覆认知字节的 ai 龙虾,独特之处在于打开网页就能用,是火山 callin plan 里的赠品,不用单独花钱。还有腾讯的 qcloud, 牛逼的地方在于是唯一能连个人微信的 ai 龙虾。百度 com 属于云端零部署 啊,要说独特之处的话,只能是百度生态啦!阿里 coco 开源免费即刻开发者,英伦用户的最爱。而质朴的奥特卡在国内场最火,不过人家确实是国内第一个实现一键安装的。还有 mini max max 酷狗十秒级速云端部署,特点是手机也能用,别人说性价比高,但我没用过预制暗面 kim kong 云端托管集成 kimi 大 模型, 内容多支持离线任务。朋友有道 lobster ai 全中文界面主大学生党入门选手猎豹 e g 科奥 极致简化安装低配电脑影跑纯小白入门款迷你科奥,国内第一个主打手机端的 ai 龙虾,只配备小米红米手机,目前还在内测,对百分之九十九普通用户来说,不要再迷信国外工具啦,国产 ai 龙虾更安全更顺手。

跨境的兄弟们,你们都用上 opencolor 了吗?有接触 ai 跨境的,最近肯定刷到过 opencolor, 今天咱不吹不黑把,它到底是什么?作为我们跨境电商的运营者,要不要去使用以及使用难不难?使用的成本高不高?跟大家聊一聊 好, opencloud 到底是什么?我们来看一下啊。他是一个全流程的自动化助手,不是那些单点的工具啊,帮你选品上架,说白了他就是你能给他一句指令,他能从头到尾一站式的流程,标准化的帮你去处理跨境所有工作, 从你的 tk, 选品,利润计算,写文案,做视频,整个流程,他自动的给你跑很多闭环,不用你一步步的手动操作,他作为助手呢,自己的全自动, 这才是他真正的定位,他不是一个小小的工具,而是一个 ai 自动化的操盘助手。那么我们接下来看一下,作为跨境电商从业人员,到底要不要用, 那么是因人而异的啊。如果你是跨境的新手,刚做没多久,那么我劝你真没必要现在去折腾。第一步他安装就有门槛,目前也不算特别的稳定,那么你还要去,你刚入门,你本应该专心去选品,做流量 出单,结果你一头抓进自动化工具里去了,去配环境啊,调 bug, 是不是反而把最核心的事给耽误了,就真的是捡了芝麻丢西瓜? 但如果你是一个小团队或者工作室或者企业,现在已经跑通了整一整套流程,想降本真效,那值得去研究。他能作为你的助手帮 去干活以前繁琐的一些重复性的工作,还能实行流程的标准化,帮你去省时间,省人工,放大规模,提高效率,这工具是真能帮上忙的。第二个问题呢,就是使用到底难不难? 我给大家说句最客观的大实话啊,基础使用是不算难的,但你想要用好它,对 ai, 小白来说是不简单的。 那么最简单的第一步,那你肯定是要做好搭建,也就是安装的部署。安装部署呢,你要去搭服务器,你要环境的配置,你要对接 api 接口,可能对小白说看一眼就头大了,这是第一道坎, 安装的方法我已经整理好了。然后呢,第二步就是基础的使用了,装完之后,你只要会说指令,让他进行文案简单操作是能搞定的,但是你想要用好它, 需要写精准的指令,要自动化的一些流程,解决一些爆错的卡顿,你需要不断的去琢磨试错,所以对 ai 小白小馒头,你得花不少功夫,而且试错的成本也挺高的。那么我们再来看啊,这个成本到底高不高?咱们细算一下账啊, 别信什么一杯奶茶钱用一个月真实成本他是这样的,首先服务器的成本一年几十块,这是小投,可以忽略不计啊。这一部分啊,真正烧钱的是 token 的消耗。先给大家说大白话, token 就是 ai 的计件工资, 你让 ai 读一个字,写一句话,爬一条数据,处理一个视频脚本,都要消耗,这个 topic 能理解吗? topic 用完了,你就得花钱买,那么不同的 ai 模型价格也不一样,比如说 gbt, 大概一千万的 topic 等于五十块钱,具体 的消费要多少,成本高不高,要根据你的业务量来团队,企业可以自己根据你的链路跑一次前链路,测试一下这个脱贫的消耗,但是一定是比你的人工成本更低,能理解吗? 好,最后给大家讲一下,我们做跨境电商一定要去拥抱 ai, 因为 ai 是跨境电商最容易落地的板块,但是不要盲目的去追 ai 工具,工具你用不完也学不完,一定是行业加 ai。

正在使用 openclaw 的 小伙伴们要注意了,就在刚刚啊, openclaw 的 全球模型调用榜单正式出炉,国产黑马揭秘星辰、史蒂夫三点五 flash 正式登顶!而且这次榜单的前五名啊,咱们国家的模型直接包揽了其中的三名, 除了揭秘星辰,还有 mini max m 二点五和 kimi 的 k 二点五,两个模型把一众海外昂贵的币源模型都甩在了身后, 这意味着什么呢?意味着咱们的 ai 应用的门槛被彻底踩碎了。这款模型呢,采用的是 m o e 的 架构,处理任务时只激发了部分参数,速度快到每秒三百五十个 tock, 而且它的成本极低啊!以前呢,我们使用 g p d 四写每日工作记录和邮件,每个月呢,就要花费上千元的 api 的 调用费用。 后来呢,我们直接换到了这种高性价比的国产模型,配合我们搭建的自动化工作流,现在啊,几十个账号一块发布,每天自动回复几千条咨询,成本降低到了原来的十分之一。那么很多人可能会担心啊,因为便宜没好货吗? 这模型足够聪明吗?其实啊,对于企业百分之九十的日常任务,比如说客服的回复,文案的改写, 然后数据的整理,这些国产模型的能力啊,其实也完全足够了。真正的壁垒呢,从来不是你用了多贵的模型,而是你有没有把行业的经验投喂给他。我们团队呢,现在就有一套三十个维度的数据投喂的方法论,能够帮你把这些高性价比的模型呢,训练成懂你业务的数字员工, 不管模型怎么变,你的企业的知识库才是你的核心资产。当模型不再是瓶颈,企业之间的竞争力啊,就只剩下一个维度, 谁能够更快地把 ai 这一样翻过去,把技术变成实实在在的生产力?我们这边呢,整理了一份大模型落地到行业的全流程的 sop 文档,有需要的可以来说一下。