一起来做个测试吧!你要不要每月花一百五十块来订阅 ai 模型? jamie jpt cloud 今天我们不做横屏,我会用三个真实场景带你亲手测出哪个 ai 最适合你。 测试一, ai 拿到你的需求后第一次回答的质量打开三个模型的网页或者客户端,准备一份你真实的工作或者学习的材料,然后按照我的这个结构来写提示词。注意哦,这里都选择最新的旗舰版模型来做。 为什么只看第一轮测试呢?因为你在真实的工作或者学习当中,你不可能每次都花十分钟反反复复的去调教 ai, 而且你在反复的等待的这个过程当中,是非常的浪费时间,浪费你自己的注意力的。 好,答案出来了,如果这是一个实习生交给你的作业,一到十分,你打几分?把三个模型的答案记下来吧。 测试二,能不能接住你的模糊表达?在第一轮提问的基础上,你再用一句模糊的话去追问,比如感觉还不够有策略感,你再想想,就像平常你领导对你说的话那样, 他改完之后,你觉得和第一轮相比好了多少?打个分吧。到这里,两轮纯文字的测试已经做完了,相信你对 jimmy 叉 jimmy 七, cloud 如何帮助你更好的工作学习已经有了一个简单的了解,接下来我会对比三个模型我个人认为最有亮点的几个功能。 先说 cloud, 如果让我用一个词来形容它,我觉得是优雅。它有三个我非常喜欢的点。首先是文字,同样的提示词, cloud 写出来的东西是三家里面 ai 的 味道最淡的, 它不会莫名其妙的就开始用比喻,或者用那种很小众的那种词语,然后我觉得它的讨好型人格比其他两个 ai 也稍微轻一点。 其次是界面,它的工作区跟它对话区完全是分开的,整个页面呢,非常的清爽。如果你也是做创意类的工作的话,我觉得 called 跟其他两家的体验是完全不一样的。 接下来 deep research 这是我自己使用频率非常高的一个功能。简单来说呢,就是你给 ai 去下一个收集资料的需求,它会自己像一个研究员一样 去全网搜索啊阅读界面,最终产出一份待引用来的报告。我以前做广告行业的时候呢,要经常搜集品牌资讯,行业动态,每次都是翻好几个这种公众号或者是软文,自己再去整理汇总。 deep research 相当于有人帮你把这个事情全干了。 语音功能这三家都有,但是 cloud 现在是目前是只支持英文的,而且它是只支持语音转文字的,它听不懂你语气里面的这种启程转盒。我起不来床的时候,我就会召唤 ai, 告诉它我要做什么。它就会让我先坐起来,然后掀被子, 然后一只脚伸到地上,再两只脚穿上鞋子往外面走。这个场景下,我自己是更加喜欢 check gbt 多一些。最后聊一下生态和性价比,那这一块呢,毋庸置疑就是 jamie 是 最强的深图深视频写代码做研究, 但是深图深视频哦,我说实话,我觉得国内豆包就足够了,所以 jamna 它性价比确实是很高,但至于你能不能用上你这个性价比,就看你自己的一个工作场景了,三轮全部结束,最后我们来做一道选择题,刚才哪个功能最让你心动?写作和文件整理选 cloud, 深度研究报告选 check gpt。 性价比或者推理类的工作选 jamna。 最后,不管你买不买,你都应该花一点点成本完整体验一次最顶尖的 ai。 我用 ai 赚到的第一笔钱是在二三年 meghan 刚出的时候,帮人画迪士尼风格头像,当时是三十块钱一个。 现在这种效果已经成为所有的修图软件里面的一键滤镜了。两年前的顶尖就是现在的标配。别用上一次的体验判断现在的 ai, 这里是进化。小河,保持好奇,下次见。
粉丝57获赞333

大家好,在你装完 openclip 之后啊,第一件事要做的事情就是去选择一个模型,那模型作为 openclip 的 大脑,它起到一个非常关键的作用,那这么多模型,那他们之间有什么区别呢? 那为什么你的模型只能识别文字,不能识别图片呢?那本期视频呢,就跟大家讲一下不同的模型之间能力的区别,以及怎么去配置模型。那对于一款模型来说,它的能力有接收信息,那信息类型啊,有可能是文字,也有可能是图片, 也可能是视频、音频或者其他就是你发的信息的内容可能包含这些类型。那么大模型在接收到你这些信息之后,他对你的信息进行回复,也有可能有这些类型,比如说他回复文字,给你回复图片,给你生成一张图片,或者说做出来一个视频, 或者说做出来一个音频音乐,那么也有可能是进行一个网页的搜索,你让他调用了搜索的工具进行一个网页的实时搜索, 那么这这两个东西就是一个输入和一个输出,那不同的模型之间的差异啊,就表现在接收和回复这个信息的内容区别上。那么 open core 官方呢, 截止目前也统计了一个模型的一个使用的一个排行榜,那么这个排行榜里面的模型的排名,不是说我们传统意义上那种模型的一个综合排名,它更多强调的是在 open core 里面的任务的完成的成功率和这一个排名,大家可以看一下, 就是平均的一个排名,就是比如说第一的是 gemini flash, 那 么第二的是 mini max 二,二点一,那么对于 mini max 它现在已经发布到二点五了,但是二点五的表现是在这个排行榜是比较差的, 这个也是非常奇怪的。那么前面还有这个 kimi 的 k 二点五,就这些模型在任务完成的成功率是比较高的,所以这也可以作为啊模型选择的一个参考。 接下来我们就来说一下不同模型在接收信息和返回信息之间的差异,大家可以去选择。就是你在完成任务的时候,为什么有些模型处理的不好,那比如说我们 dbisc, 那目前 v 三点二版本它只支持一个文本的输入和文本的输出,那么对于千万三点五 plus 来说,它能接收文本,也能发图片,它也能去理解这个图片是什么。比如说在我的这个 openclip 的 这个非书的聊天里面,我上传一张图片,那模型来识别一下图片中的文字, 如果你的配置的模型它不支持这种啊图片的识别,那么它出来的结果就是跟实际的结果是有很大的差异的, 那么可以看到它识别出来了这个图片里面的所有信息是完全非常准确的。那么在刚刚的演示里面,我们可以看到千万三点五 plus 它是有一个图片理解能,所以大家在用的时候一定要注意自己的业务的场景 啊,选择正确的模型。那么这里边除了图片理解呢,这边还有一个网页搜索,就是说它本身模型它本身支不支持这种搜索这种内容,因为对于模型来说,知识库它是有一个截止时间的,比如说你可能你 模型的训练数据可能只是截止到二零二五年,但是你现在搜索二零二六年的,那就有些模型他是具备这样的网页搜索能力,他就可以调用这种 实时搜索能力,那么有些是不支持的,那就要配置这样的 m c p, 官方也出了这样的工具,比如像豆包系列,二点零最新的模型也是一样支持文本和图片,那么他这边也是可以单独去开通网页搜索的能力啊。 那我们可以看一下,就是啊这几款国产的,比如说 mini max m 二点五、 m 系列和这个智普的五点零,他们这个图片的识别是需要单独去配置 mcp 的, 不然的话他是没办法去识别的。 那 timi k 二点五的话是原生就支持图片识别,那么国外的模型,比如说 colossal 四点六和 jpeg 五点四,还有 jimmy 的 三点一 pro, 那 么它们都支持图片识别,也支持这种啊网页的实时搜索,那算是这个综合能力算是比较好。那其他的比如说你要去让模型去申请个图片, 那基本上我们现在用到的这主流的这个啊主模型啊都不具备,那么你就可以去调用他们专门的图片模型。比如说像千万,他有专门的万象系列的生成图片的,那么都包括有纪梦相关的模型,那么像 jimmy 的 话,有专门的这个深图的模型也是可以的。就是这些 又需要去单独去配置,在你去生成图片的时候去告诉他去调用这个模型去做这个事情,那像这个火山,这个 cds, 二点零系列都是可以去生成视频的,那么这个就是一定要知道,就是一款模型,它不是万能的, 你可能需要不同的模型来配合去完成你的业务的场景,所以一定要一定要弄清楚你的业务场景里面涉及到了文本、图片、视频、音频, 就把这个东西先想明白了,再去找对应的模型配置好,就才能去把整个东西,整个东西串起来。选好模型之后,很多模型厂商都会有两种购买方式,一种叫做按 token 购买,就是 按用量购买,用多少啊你就付多少,这种方式是比较自由的,它是不受任何限制的。那么第二种就是按这种 coding plan, 就是 套餐的方式,那这种套餐是什么样子呢?一般是有 有限制,比如一个月能用多少次,然后一周能用多少次,然后五小时能用多少次,它是有一个这样的一个限制,会每隔五小时会刷新,每一周会刷新,然后总流量是不超过啊,每个月总流量那么像智普啊, mini max, 豆包,还有这个千万 都出了相关的这种啊这种代码的套餐啊,就是可以可以编码,又可以用在 openclo 里面,那每一个套餐这个量是不一样,大家一定要注意去看,它可能在官方的介绍里面会说啊多少多少次请求,但是要换成就是你的一次对话,就是你跟 openclo 对 话一次,可能要 调用很多这样的一个请求,那么这样的次数是没有他说那么多的。最后呢,就是我们选择好了模型之后啊,我们怎么去配置?第一种方法就是啊原声的就是它 openclo, 它本身你在配置的,你在安装的时候它是有模型的一个列表的,比如说你输入这个 openclo config menu, 那 么 到这一步的时候,你选择这个 model, 就是 你需要去配置这个模型这边的话就会选择很多啊,它本身的支持这个 pro i 的, 就是它本身已经内置了这这些模型的链接,那么你点进去之后,你就可以去输入你的 a p i t, 或者说输入你的这个认证授权的一个链接啊,那这能快速的去完成。那还有一,还有一些它可能是不在这里面的,比如说像千万千万的这个 codeplain, 还有一些其他的这种模型的配置啊,那么你就可以使用这种 cc switch, 那 这款软件,那这款软件呢?有一个单独的一个菜单,那么点进去之后你可以去进行配置,也是一个图形化的界面。那接下来就是这种比较繁琐的,就是去编辑这个这个 配置文件,那这个是 openclip 的 一个啊,总的一个配置文件,那这里面的话,你就要去修改这个 providers agents 里面的内容。一般是 如果你选择哪个模型厂商的话,它会提供这样的配置文件修改的,这个啊完整的字幕串,你直接去给它修改掉就行了。那么如果你自己改这个接线文件,因为这个接线文件非常大, 嗯,不太方便了,你可以借助这个 ai 编程工具,比如像 tree 啊,像 cos 啊去帮你去修改它,它这边是可以去给你修改,而且可以去给你修复可能修改出来的问题啊。 那除了这上面的方法之外,那就可以用它自己的这个外部端里面的设置里面找到这个 modus 的 节点啊,但是它这个说实话非常非常难用啊, 我觉得用上面的方法都比它这个官方这个界面用的会可能会更简单一点。那你如果配置完之后啊,最好是重启一下,那么你在页面上可以点去重启,或者说输入这个 open curl, get away restart 这些命令去重启,重启完之后,那么你就可以去使用新配的模型了。 ok, 那 本期视频到这,希望这个视频对你有所帮助。

我用了一千万拓展去验证最适合 open globe 小 龙虾的模型搭子来了,亨特阿尔法,它目前在 open road 上是一个免费的,是一个另一门公司测试的模型。呃,据传闻它可能是 deep deepsea v 四版本,或者说是智谱,或者说是小米的新一代模型。然后它的特点就是一万亿参数,然后上下文有一百万, 它是相当于,呃可以处理七十五万字的中文或者一百五十万的英文单词,在一个对话框内,那相当于就说它是我们之前推荐的 g 月星辰三点五,就 sleep sleep 三点五 flash 的 四倍,然后专门为了 opencloud 啊小龙虾这种 app 去做了优化,然后它目前也是在 opencloud 上是免费的。然后魔性 id 我 贴在了我们视频的评论区里面, 呃,我让他去呃做了一些安全的测试,就是我们之前上个视频提到的自防护,呃,就相当于模型 agent 的 自防护能力,然后可以看到就是亨特尔法是百分百通过的,然后 sleep 三点五 flash, 然后通过度只有百分之六十五,那相当于就是说这个模型能力上,亨特尔法是远远强于 sleep 三点五 flash 的。 呃, open road 上呢,就是,呃有很多免费的模型,目前是有二十八个,那在第一梯队的呢?相当于就是我们的亨特尔法,它是接近了 g p d 四或是 cloud 的 这种商用模型的能力。呃,后面还有很多其他的特殊的免费模型,比如说多模态啊,视频啊这种,我下一个视频会给大家介绍。 那比如说就是,呃,我们来看就是亨特阿尔法六大模型的横向对比,那从整个的呃就是编程能力来看,肯定是商用的 cologne 最强,然后推理能力和编程能力都是商用的 cologne 最强。然后 agent 的 控制调用呢?嗯,那就是亨特阿尔法这种免费的专门 agent 的 设计,最强,你可以看到远远超过。 嗯,包括那样,就是,呃那个亨特阿尔法的定位,它其实本质上呢,其实是专用呃 a 技能做设计,那它和最强的付费的 a 技能模型呢?那其实是是也各有胜负。对, 那我们看到我这边的 status 状态呢,其实是呃它的上下文,你看我新的窗口采用了百分之四,非常的充裕。 嗯,和那个呃 sleep 三点五 flash 的 对比呢,相当于可以看到 a 技能的能力,然后呃 超文档处理是远远超过的。然后中文能力呢,它其实是属于待验证。因为呃, steve 三点五阶跃星辰呢,他知道是中国公司模型,亨特尔法也知道是中国公司的,所以说中文能力呢,其实属于一个待验证的状态。 然后推理速度呢,因为它有 a t 的 参数,呃,相当于是呃那个参数更大,然后推理说会更慢。呃,但其实是呢,呃,我们其实是等待时间,没有强,很强要求的话,那其实还是这种 a 级的能力上还是远远超过的。 那我们现在可以看到,就是我这边用了那个接近一千万的脱贫去做了验证和测试。对,呃,九九点六百万。 那亨特尔法啊,他现在在那个小龙虾的登陆排行榜上是,呃排名第八。对,然后我之前推荐的 super 三六 flash, 现在是远远排名第一。那,那我觉得后续的话就是亨特尔法,呃,他不管是更,嗯,就是正式发布他名称之后还是怎么样,那我觉得还是一个很大的竞争空间的。对, 然后这是我之前跑了一个测试,用它去跑的一个呃哆啦 a 梦的图像,因为它是纯文本的模型呢,它只能靠文本里面简介和想象,这是用 svg 来绘制的,相比于它的上半部分,其实是已经绘制的非常接近了。 然后整体上的话呢,其实是在呃 log 里面,比如说,呃,或者说我们看到 a p i k 对, 它其实都是免费的,对,都是一直已经切到了那个呃,对,你可以看到我的小龙虾都已经切到了亨特尔反应在用,对。

装了 openclaw, 但发现它什么也干不了,甚至有点蠢。除了需要配置各种插件和 skill 之外,它最需要的是一颗足够聪明的大脑。今天来分享我的配置方案,用 mini max m 二点五驱动 openclaw, 性能逼近 cloud 的 up 四点六,但成本只有它的十分之一。走订阅制,每个月一杯奶茶钱,非常适合在 openclaw 中使用。 接下来给大家展示我是如何用 opencll 来提升我的工作效率的。第一个,接入飞书,通过手机帮我剪辑口播视频,现在我直接在手机上发给 opencll, 一 句话就搞定了。帮我剪掉所有停顿重复的地方,然后导出发给我。它会自动调用语音识别,定位无效片段精准剪切。 以前剪一条口播至少要两个小时,现在三分钟出片。装了 opencll, 但发现它什么也干不了,甚至有点蠢。 除了需要配置各种插件和 skill 之外,它最需要的是一颗足够聪明的大脑。第二个,帮我整理文档,自动上传到飞书知识库 ai 时代,每个人都应该建立一套属于自己的知识库,有了 openclaw, 就 可以实现知识文档自动分类,自动入库。 我设定了一个定时任务,每天生成的文档自动识别内容,并根据分类上传到对应的知识库中。比如我今天写了一篇关于 openclaw 闭装 skill 的 笔记,它会自动识别内容,归档到 ai 开发知识库的 openclaw 分 类一下。第三个,帮我打开浏览器,注册各种账号,获取 api k。 当时我需要一个文本转语音的 api k, 正常流程是我自己打开浏览器注册登录,找到 k 页面,然后复制,但我就跟他说了一句,帮我注册 eleven lives, 拿个 api k, 他 就真的自己打开浏览器填表注册成功拿到了 k。 那一刻我是真的被他的执行力震惊到了,为什么每个都能这么顺?两个原因,一, mini max 二点五,自带的任务拆解和工具调用能力,他能真正理解你的意图,拆解有逐步执行。二,题词给的足够清晰,你不需要会写代码,但你需要学会把需求说明白。

今天给大家推荐一个非常热门的 ai 应用, cherry studio, 这个 ai 应用呢可以说集成了对话,编程,绘画以及支持接入多种 ai 大 模型的接口的,这种功能可以说是一应俱全,你只要有了这个 cherry studio, 可以 说你的需求呢,基本上都可以通过这个软件呃完成。我们看一下它主要的功能,包括 ai 对 话, 你可以在左侧创建智能体,比如说外部搜索的智能体啊,这个问答的智能体,还有写代码的这种智能体,再就是 ai 编程,这个就是专门用来写代码的这样一个功能。再就是 ai 绘画,在左侧呢,你可以选择接入的模型以及图片的比例 啊,就是图片生成。还有这样一个专区,也是非常的适合我们用这个去生成图片,做图片的艺术创作。再一个 cherry studio 支持接入市面上所有的 ai 大 模型, 可以说覆盖面非常的广,在这个地方你只需要配置对应的 a、 p, i、 k 和对应的地址就可以了。为了更全面的了解 chris studio, 我 们看一下它的文档, chris studio 包含基础的问答以及对话的导出,还有 ai 智能体的这种搜索的市场,还有就是支持绘画,小程序翻译,文件管理,全球搜索这些功能,再就是刚才提到的可以接入多种大模型, 还有就是可以自定义这个界面,并且 chris 队还支持本地搭建一个知识库系统,你可以导入你的 pdf 啊, word 文档, ppt, excel, tst, markdown 这种合适的文件导入,然后搭建你的本地的知识库, 可以说就是这个软件已经集成了我们目前能想到的所有的对 ai 的 使用的方式了,而且还可以支持知识库的导出,并且可以把网站作为知识库的来源导入到这个知识库系统中,支持后续的解锁。还有一些特色的功能,比如说快捷问答,还有快捷翻译,内容总结解释说明。我们再来详细的看一下这个知识库的介绍了。 在这个地方你可以选择插入大模型,然后创建知识库。之后呢在这里选择插入的大模型,添加文件进行一个向量化, 然后我们还可以导入 pdf 以及导入网址,网站笔记。把这些知识点导入之后,就搭建了我们的一个知识库。后续所有的问答呢,我们都可以基于知识库中所给它录入的这些信息进行一个针对性的问答。 cherry 九九不仅支持日常一些常见的功能的使用,还包括一些进阶的一些玩法,比如说 mcp, 应用链, 还有鞋代码,还有 agent。 可以 说拥有了 cherry studio, 基本上你能够想到的一些需求,它都能够帮你一站式的解决。我是不吃辣的 chris, 关注我,带你了解更多 ai 相关的开源项目和工具。

全网都在吹的能真正帮你动手干活的 ai open 壳,我硬着头皮部署了整整一个月,说实话,对我来说是一个实打实的基围产品。我不否认它和普通的 ai 真的 不一样,别的 ai 只会跟你聊天画饼,但是它真的能帮你动手干活,整理文件、爬数据甚至写代码。 听起来是不是很有用,但它最大的死穴就是它的能力和性价比不能兼得。如果你想让它处理稍微有点难度的活,就得接入 gpt 四这种 api, 那 烧钱的速度是肉眼可见的,一天大几千块都是很正常。想省钱用免费的本地模型,说实话两万块钱以下的电脑根本跑不了什么像样的模型。最后他直接变成一个笨笨的机器人,啥都干不明白, 你就只能让他干简单且重复的很基础的工作。那只让他干简单重复的活,又根本没必要花这个时间和钱去部署他随便一个免费的 a 都能搞定。我自己部署一个月,你猜我用他干的最多的事情是什么? 就是每天晚上让他帮我找几套行业新闻,早上发给我。除此之外,他对我的生活真的没有太大帮助。我想和跟我一样的朋友们说,如果你现在还没有装 oppo cola 的, 真的一点都不用焦虑。因为现在这个版本 我说实话 bug 都到离谱,然后偷看消耗的巨快,部署起来对新手也非常不友好,而且还有很多的安全隐患。 我可以很肯定的说,未来六到十二个月,这个产品一定会有质的飞跃,甚至还会有比它更好用更简单的同类型产品出来,你根本就没有错过什么时代的红牛,也不用被网上的内容制造焦虑。 如果你生活里现在就已经有大量的简单机械重复的工作,那你可以试试它。如果没有,完全不用跟他们装,我觉得真的没必要,可以再等等。

哎,好的好的,大家好,我们今天手动来带大家从零到一部署在自己电脑上面部署一下最近火爆全网的这个 cloud bot 啊,现在已经改名叫 opencloud, 我 们从零开始,首先我们去 opencloud ai 这个官网,然后往下滑,它有一个 one liner 的 这个 quick start, 非常简单,你只要在复制这个代码,然后开一个命令行,然后把它黏贴进去, 它就会自动去安装这个 opencall, 它会去检测联盟装着 homebrew, nojs 和 git 啊,如果没有的话呢,它会帮你去安装,我这边已经有了,所以它自动开始在安装这个 opencall。 好 的,安装完毕,安装完毕的话,它会自动会进入这个 onboarding 的 这么一个流程啊,它也是非常人性化。首先让你先来先签个协议啊,说这个很 powerful, 但也很 risky 啊。我知道了, onboarding mode, 我 们选 quick start。 然后第一步呢,是我们要接一个模型啊,在后端的模型,它虽然就 open call, 它只是一个中间层吧,你后端的模型还是需要用自己的 a p i 的。 之前呢是我我尝试使用这个 cloud code 的 订阅,可以接入这个 open call, 但是前段时间 cloud code 把它给封了,所以现在就必须只能调用 a p i, 所以美国的模型 api 太贵了,所以我们这里选择支持一下国产。我们使用 kimi 的 模型啊, moonshot ai, 然后 kimi 最近也是浪潮了,自己的这个 kimi k two 呃,二点五的这么一个模型啊,能力上据说是跟 opps 四点五非常相像啊,也是很厉害,然后价格可能只有十分之一,所以我们来体验一下,所以我们这里选 moonshot ai, 月色暗面, 然后把我们之前复制好的一个 api key 给复制进去, create a api key, 然后我们选择一个模型,我们就选 kimi k 二点五。然后呢,我们在这里选的是 在第二步呢,是选这个 channel, 就是 call bot, 呃, open call, 它是可以让你用过用你的这个即时聊天软件,然后来调用它的啊,这里就会去配置一下这个即时聊天软件。我在这里选的是,呃, whatsapp, 然后我们来看一下 whatsapp 怎么 link 啊,它会给你二维码,然后我们要拿 whatsapp 扫一下二维码。 好,我们拿这个 whatsapp 刚刚扫了一下这上面的二维码,然后,呃,现在是可以去继续去设置一下详细的配置。 whatsapp, 它里面有一些 phone, 呃,这个是 phone setup 啊, separate phone just for open call。 我 选择用一个单独的电话号码在 whatsapp 里面,然后这里使用,选择 recommended power mode allow form。 说实话不是很知道是干嘛了。嗯,选择 default 好 了,然后下一步呢,是 configure 这个一些技能啊,这里我先不 configure, 但是我们看一下, 呃,这个 open call 它有哪些技能啊?这些技能本质上来说就是它到底能做哪些事情,你可以看它这里有非常多的集成的这个 integration, 就 你的密钥,密钥管理系统 word 是 可以用来发这个 twitter 的, 然后 bear nose 是 可以用来这个记笔记的一些东西,然后有非常非常多的这个,还有什么 g u g 这种 就是 gmail 啊什么的,非常非常多 open ai 啊什么的很多啊,我们这里今天先不配置了,然后回过头也可以再配置,到时候会问你一些问题,要不要这些 a p i key 有 多选? no no, 如果到时候需要的话呢,可以再单独回过头来配置 好。然后最后一步呢,是这个 hook 啊,自动的这个操作,然后它可以在某些特定的环境下面被触发,然后帮你操作。比如说它这里有一个 session memory 的 这个 hook, 就是说它可以在每个赛季结束的时候呢,自动把赛季的这个你们聊天对话记录呢,保存到他们的这个长期的这个 memory 当中。这里我觉得还是开一下比较好,因为 open call 它是自带这种长期 memory 的 功能的,然后如果每每每一次跟他对话,它会更新长期 memory 的 话,你会发现这个 open call 越用越聪明。 好,然后这些都是系统自带的,我就都开了,然后都开了,然后去设置 gateway, gateway 就是 说是呃呃,如如何去开这个?开个关口,然后让可以让这个你在 whatsapp 里面发送的消息被传递到这个电脑上的 open call 里面。这里我之前已经装过了,所以我们在这里的话就是 reinstall 一下。 好,我们这里的 git 已经装好了,我们现在有有有方法去 hack。 我 的 bug 就是 初设啊,初设的话我们可以推荐是走这个 t u i, 也就是它自己会开一个网页,然后这有一个链接好,然后可以尝试发个消息 啊,很可惜啊,消息没有发成功,我要来 debug 一下。哎,好的,刚刚发现是因为自己的那个 kimi 账号没有充钱啊,现在充了钱就变强了啊,我们现在已经可以 跟他对话了,然后我们在终端呢,可以输入这个 open opencloud dashboard, 然后呢我们来重新进进入这个网页的 ui 啊,然后这里呢我跟他说了个嗨,然后他现在会介绍一下自己可以干哪些事情啊?怎么怎么样,怎么怎么样都是英文啊,太,太烦了,我看他看中文那里边啊, 好,他现在等于说一开始的对话呢,他会让你去呃设置一下他的名字是什么,然后怎么称呼我,然后他是干嘛的?嗯,然后同时呢我们我来就展示一下这个我们这个 whatsapp 的 这个能力啊,就你看我们这边, 嗯,其实 whatsapp 上面是可以给大家直接发消息的,然后在这里的所有的信息呢,我们也都可以在 whatsapp 里面跟他呃聊天,然后他就只要你的这个网关是上线的,他就是可以呃去跑的。 那么今天视频就到这里呢,我们就简单的装一下 cloud bot, 未来的话我们也会在这里继续更新一下 cloud bot 到底能在呃能对我的工作流程带来多大的影响啊?期待可以创造更好的内容给大家,谢谢。

大家好,我是炎陵,对于群里很多朋友私信我关于 open clone 模型配置的问题,我这边做了一个完整的配置教程,解决他家配置上的烦恼。先介绍一下我们大格力用到的几个大模型,第一个是 mini max 二点五, 智普的 gm 五跟 kimi 二点五,还有最新出的前文三点五。关于 open core 的 一个模型选择,主要就是看它一个视觉推理能力,还有思考能力,以及它的一个长文本处理能力,这些模型的所有数据都可以在这边看到。 这里我们以轨迹流动为例,演示第一种配置方式,让我们切到沃邦图 openclo 页面,然后输入 openclo config, 进入配置页面回车确认,然后再确认,然后选择第二个模型设置, 然后方向键下拉到倒数第二个自定义 api 设置, 然后打开我们的文档,把这一串网址复制进去,回车再回车,然后输入我们轨迹流动新建的 api 密钥, 选择 open ai 接口,再输入我们要使用的模型 哦,回车确认,然后这边它需要一个验证的时间,可以看到这里验证成功。在这边输入我们选择模型的名字,然后回车确认,然后选择 content, 我 们再输入 open curl config, 你 就可以看到我们选择的模型在这边会显示了,然后我们测试一下, ok, 这样就配置成功了。轨迹流动这个平台它有很多模型可供你选择,也有很多羊毛可以薅的,比如它的认证会送你代金券,还有其他的一些送代金券的活动。 刚刚说的是平台配置模型的一个方式,我们再说一下模型本身网站的一个 api 的 配置方式,这里以智普 ai 演示一下,登录我们智普的网页,然后在这边添加一个新的 api 命令,复制一下, 然后跟之前一样输入 open clone com 格,进入配置页面选择模型,在这边跟之前不同的是, open clone 里面本身有设置字谱的,然后你只要选择 cd n, 然后输入 api 密钥就行了。 还有最后一种配置,关于阿里百联的配置方式,打开 open curl, 执行这串命令,执行文档,后面的操作就 ok 了,所有的模型链接地址我都放进了我的文档和它们的配置方式,你在里面都可以轻松的找到, 希望可以帮助到大家,也希望大家可以一键上联支持一下博主。好了,那我们下期再见。

有点激动哈,嗯,推荐所有的运营同学都把 code body 给用起来啊。那 code body 是 什么呢?是腾讯出品的一款 web coding 的 工具,程序员们也可以用它啊,非常便捷的写代码。但我们这种完全零扣定基础的运营同学也可以用啊,并且非常流畅。 那为什么我们运营同学都要用起来呢?是因为数据分析在我们日常工作中占有非常大的比重。那你是不是有这个困惑哈,我想用 ai 的 快速的分析的能力,但是我把数据传给大模型,我非常担心数据的安全问题。 那啊,公司内部有一些分析工具,但这些工具啊,自然语言的沟通还不是那么流畅,我需要。嗯,写非常长且复杂的 prompt, 对 我来说难度有点高。那 code body 完全可以解决以上两个问题,一个是数据安全问题,一个是自然语言交互问题。 整体的啊,嗯,过程是怎么做呢?第一步呢,就是我可以把我的数据表里面包括了消耗字段,包括了 啊,直播频率字段,包括了啊转化成本字段等等,让他基于我这些字段啊,基于我的分析目标,给我设计分析思路。有了分析思路之后呢,我们就可以啊给分析思路进行优化,比如说哪个维度我想的深入的分析,或者他基于业务的理解,会有一些 啊理解的偏差,比如他以为某某指标是度量啊,这个广告的这个意愿性的,但其实不是,这些我们都可以给他重新定义,重新纠篇。嗯, 第一步很重要。第一步就是我们为什么只给他自断,不给他表格,让他给我们设计整体的分析思路呢?是这样可以保证他完全不用啊,去掉取我们的明细的数据,就保证我们的数据安全。那基于整体的分析思路呢?我们可以让他啊写 python, 把代码 啊,用这个实现整体的分析思路。 python 写出来之后呢,我们就可以把数据存在我的本地的电脑的某一个文件夹里,然后用让啊 code body 的 python 去 啊这个,嗯去进行分析,这样就完全在我本地的环境里面啊,来进行这个数据分析,最终就能产出非常好的这个 整体的分数与分析结论。如果我们想要多模态的这种形式,也可以给他提要求,告诉他我想生成哪些表格,或者也可以让他给你建议我想生成哪些图标,多模态的形式他也都是完全支持的。嗯,非常强烈建议大家都用起来。

大家在使用 a 键的过程中是不是觉得 tool 不 够用?今天给大家分享一个智普的新模型, g o m 四点七这个模型的话在编程能力以及前端审美这方面更强,在电用工具这方面的能力也获得了一个不错的提升, 最重要的是它是免费的,我们打开这个智普大模型的价格官网,我们往下滑找到 g o m 四点七这个模型, 它也是 opencore 官方比较推荐的一个模型,它和 agent 结合的非常的不错。接下来我用 opencore 去给大家演示一下如何配置这个模型。我们先打开 opencore 的 配置文件, 找到模型,然后在模型这个下面然后加上这样的一段配置 key 的 话填在这个位置,其他的话可以参照我这里的配置写就好了。 然后的话我们再把刚刚配置好的模型设置成默认的模型,最后保存 就 ok 了。打开 open core 给大家看一下效果,这个主界面上已经显示的是智普的四点七这个模型了,然后我这里提了一个问题,问他是你是哪个模型,他说他是智普四点七 plus, 然后我让他帮忙去执行一个任务,比如说这里,我让他把桌面的嗯名字为一的视频转为文本, 然后他就开始帮我执行具体的任务。 好, 你看这里,他给我们返回的是进度百分之八十,最后的话他把执行好的 结果,然后返回给我们,并且把生成的文本然后保存在了桌面。 视频的结尾,我给大家总结了一份各个大模型的价格目录表,大家可以参考这份价格目录表去选择自己适合的模型, 每个模型的话它擅长的能力可能不一样,所以说它的价格也有不一样, 需要大家去综合考虑,选择最合适而且性价比最高的模型。

朋友们,本地部署那个大模型还是可行的,我根据网友的建议去用了这个,用这个模型加载器,然后我现在在本地部署,在 mac mini m 四上部署的,然后我现在问他一下,他响应速度还行, 你看没这么快就响应量也还可以,你看响应速度非常棒。 然后就是这个拓展处理的话,拓展量非常大,如果说你本地绘画的话就还好,如果说你上 ag 的 话就得上这个模型, 不是这个模型这个容器吧,用这个加速就挺好的,可以部署本地的。

哈喽,大家好,如果你刚刚装好 openclaw, 可能马上就会遇到一个嗯,一个特别常见,也特别头疼的问题。没错,就是这个,我到底该用哪个模型啊?这个问题听起来好像很简单,但真的选对了。你的 openclaw 简直就是个神队友,干活又快又好,可要是选错了呢?哎,那他就可能变成个猪队友,经常犯迷糊,又慢又烧钱。 所以啊,在咱们开始选之前,得先扭转一个观念。很多人觉得选模型嘛,不就跟选汽车发动机一样,马力越大越好。其实这个想法大错错错,选模型它更像是给自己找一个工作搭档, 你想想,你需要的肯定是一个能跟你配合默契的伙伴,对吧?而不是一个指挥使蛮力的家伙。对,咱们今天就来聊聊,这个选模型真的不只是选个发动机那么简单,它还会彻彻底底的影响 opencloud 的 整个工作风格。 这么说吧,有的模型呢,就像一个经验老道,特别稳重的助理,但有的呢,就跟个急性子一样,特别适合干那种快节奏的活。 所以你看,这就引出了一个常见的误区,很多人一上来就想找那个所谓的最强模式,这个想法我完全理解,谁不想一步到位呢?但是咱们得记住,我们的目标绝对不是找一个在排行榜上考分最高的学霸模式。 那我们应该怎么做呢?其实很简单,换个思路,咱们要关注的是在实际工作中真真正正重要的四件事,搞明白了这四点,你就能做出一个更聪明,也更适合你自己的选择了。你看,这句话说的就特别好,模型不是拿来应付排行榜考试的,它是要拿来长期干活的。这句话我觉得就是核心, 尤其是在 open class 这种场景下,一个模型实不实用,远远比它在理论上有多强大要重要得多。那这四件重要的事具体是啥呢?来我们一个一个看。第一,就是这个模型听不听话,说白了就是它能不能准确地理解你的指令,然后照做做。 第二,稳不稳定?他的表现是不是一直很可靠,还是说会时好时坏,跟抽奖似的?第三,贵不贵?嗯,这个很现实,成本你得扛得住。最后,也是最关键的一点,他到底适不适合你手头上的活?好,了解了这四个标准之后,我们就可以开始动手搭建一个真正属于你自己的模型团队了。 你没听错,我说的是团队,而不是一个孤军奋战的单兵。那么这第一步该干嘛呢?记住,千万别急着去看什么模型排行榜。 第一步是先问问你自己,你平时用 opencolor 到底主要想让它干什么活?是搞技术的活多呢?还是处理内容的活多? 大家可以对照着屏幕上的分类来看一看。比方说,如果你主要是写代码,调试程序,查日期,分析项目代码,那很明显你需要的模型,它的代码能力要强调,用工具要稳。但反过来,如果你主要是做一些资料研究、信息总结,或者写写稿子,润色文案,那这个模型的理解能力、归类能力和文字功底就变得更重要了。 好,现在你已经明确了自己的主要任务类型,那么接下来第二步就是选择怎么去接入和使用这些模型,说 的通俗点儿就是你是想自己动手丰衣足食呢?还是用别人打包好的现成方袋。这个比喻我觉得真的太贴切了。你看直接用 api 接口,就像是自己去菜市场买菜,回家做饭,自由度超级高,你想怎么搭配,想做什么菜都行, 特别适合那些想长期深度使用的朋友。而用现成的 cookie plan 呢,就好像办了一张自主餐卡,办好了进去就能吃,什么都给你准备好了,特别省心,对新手来说简直是福音 好。不管你选了哪条路,咱们现在来到第三步,也是一个更聪明的玩法。这个思路就是千万不要把所有的任务都压在一个模型身上,我们可以把它拆分成一个三层结构的团队。你看这个结构,第一层是你的主力模型, 他就是你团队里的核心大将,专门负责处理那些最复杂最关键的任务。对他来说啊,稳定性和理解能力是第一位的。 然后第二层是轻量模型,这就像是团队里负责跑腿打杂的,专门干那些简单重复的活,对他的要求很简单快,而且省钱。最后第三层是很多人都会忽略的备用模型,他就像你车里的备胎,平时你可能感觉不到他的存在,但万一主力模型出了问题,他就能在关键时刻顶上,保证你的工作不掉链子。 ok! 讲完了团队搭建,接下来这一点我要特别强调一下,这真的非常非常重要,尤其是在 open globe 这个场景里,大家一定要记住一个道理,一个模型会说,不代表他就会做, 所以这句话大家一定要刻在脑子里,别只看他答的好不好看,要看他干的漂不漂亮。记住, openclaw 是 一个行动派的工具,它不是一个陪你聊天的窗口。有些模型啊,跟他聊天,那真是天花乱坠,什么都懂。可你真让他去干活,他就手忙脚乱了。咱们需要的是那种做事干脆利落、执行精准的实干家。 那问题来了,怎么才能知道一个模型是不是真正的实干家呢?其实方法特别简单,你别去问他什么人生啊、宇宙啊那些虚头巴脑的问题, 就直接拿你平时真实的工作任务去折腾他。你看屏幕上这些例子,扔给他一堆资料,让他整理,让他去读一篇技术文档,让他帮你改一小段代码,或者把一个大任务拆分成小步骤,再或者让他严格按照你指定的格式输出。结果。这么几轮下来,哪个模型用的最省心,哪个最听话,你心里马上就清清楚楚了。 好,说了这么多,咱们来总结一下,给出一个最实际、最适合绝大多数朋友的起步建议。核心就一句话,从简单开始,聪明的工作, 如果你是刚上手,我求求你,千万别一上来就想着配个什么模型。全家桶,没必要最朴素也是最有效的方案就是这样,准备一个靠谱的强模型当你的主力,然后再配一个便宜的轻量模型,专门干杂活,相信我,这样就完全够用了。 对,就这个数字。二,你先把这两个模型用熟用好,这远比你一上来就接入五六个,结果把自己都搞晕了要强的多的多。记住,先让系统跑起来,先找到感觉,这比什么都重要。 最后,我想用这句话来结束咱们今天的分享。一个 open 扣用起来最舒服的状态,从来都不是因为它堆砌了多么昂贵的模型配置,而是因为你心里清楚的知道什么活该交给谁去干。 当你能做到这一点的时候,它就不再是一个昂贵又有点任性的玩具了,而是一个真正能帮你解决问题、提升效率的一个强大的工作系统。

哈喽,大家好, opencode 之所以能火啊,能让普通人也能靠它省时省力的做事情,核心在于它有三大核心能力, 尤其是第一个让不懂编程的人也能直接用。那么我们今天来介绍一下它的三大核心能力。第一点呢,就是小龙虾,它可以自己去写代码,造工具,比如说你要提取一百个文档里的关键信息,不懂编程怎么办呢?这个时候你只需要给 opencode 下一个指令,它会自己去写对应的 python 脚本, 在写完了之后,然后他会提取对应的信息,提取完了他会把对应的这个脚本给删掉,不会让这个脚本占用电脑的空间,这就是所谓的免洗工具,也就是说我们用完就可以扔掉了,对不懂编程的小白特别的友好,也不会占用我们电脑的一个运行的空间。 第二点也非常的重要,它能够拆分任务去生成紫黛里,而紫黛里听起来是一个新鲜的概念,但实际上并不是特别的新鲜,就是在于让 omgala 这只龙虾它会生小龙虾, 也就是说他会去外包工作,比如说我给 openclaw 下一个指令,让他去写一个行业分析报告,这个时候他可以去拆分成若干个外包来进行去做这件事情。第一个小龙虾他会去搜集对应的数据,第二个他会写对应的内容,第三个他会排版的美化 不同的小龙虾,去做不同的事情,分工协做,而会使这个任务做得更好。但是请注意的是,我们可以去设计让小龙虾不能再生成新的小龙虾,因为这会避免无限的套路啊,否则这个事情蹭蹭外包出去就会没人干了。那么第三点呢,在于 open globe, 它有 skill 技能。 所谓的 skill 啊,其实就是工作的 sop, 标准化的操作流程,就相当于是一个任务的手册。比如说我们让 openclaw 去查文献对应的 skill 呢?它会去安排好你应该怎么样去查文献,怎么样提取信息以及怎样的排版。 而 openclaw 在 社群里面有非常大量的 skill, 而这些大量的 skill 就 指导着它该怎么样地去做事情。 那么 openglola 既然有这三大核心能力,它可以一直帮我们干活吗?它可以一直运行,那这一直运行的话又会不会很烧钱呢?下一次我们来讲解一下 openglola 的 非常核心的心跳机制和上下文工程,教你 ai 如何帮你打工,记得不要错过哦!

codex 进化史,从代码补全、工具到你的全能,悲哀同事很多人对 codex 的 印象还停留在代码补全,但今天,他已经从一个单纯的工具进化成了一个能和你并肩作战的同事。 未来的工作不再是人使用工具,而是人领导团队。你的团队成员里将有像 kolex 这样不知疲倦、不断进化的伙伴。 从翻译官到全站同事的跨越,经历的三个阶段,第一阶段,翻译官 核心任务只有一个,把自然语言翻译成代码。第二阶段,程序员同事随着迭代 codax 开始深度融入开发流程,变成了真正的开发者智能体。 他已经从工具变成了团队里的程序员,不仅能写代码,还能理解整个代码库,回答架构问题。第三阶段,全站同事从编程助手到通用工作智能体 最新版本中, kolax 完成了从编程助手到通用全站工作智能体的升级。 如果你是个小团队, kolax 几乎能覆盖除了线下执行之外的所有办公室岗位。三大核心能力突破告别一问一答,可交付持续数小时的任务,自主规划执行别代,全程无需人工干预。小团队的虚拟员工 kolax 能覆盖全站开发、代码审查员、 bug 修复专家、架构顾问等。 这位全能同事随时在你身边,可以在你需要的任何地方无缝切换和工作。命令型 c l i 代码编辑器,如 v s code 网页应用以前,我们需要像指挥机器一样,给雷达下达精确到每一步的指令。 我们可以像和同事沟通一样,只描述目标和模糊想法。 kolex 的 自动脑补能力让他能理解人类的真实意图,并补充缺失的细节,这是他成为同事而非工具的核心。 为了与 ai 同事高效合作,需要明确最终目标和成功标准,给予足够的上下文信息,将复杂任务拆解后交付,定期检查进度和结果。 未来的工作形态从个人英雄到 ai 驱动团队,未来的核心竞争力 不再是个人掌握所有技能,而是如何有效地领导和管理一个由人类与 bi 智能体组成的混合团队。现在就开始尝试将 codax 作为同事来写作,培养你的 bi 领导力, 这将是未来最重要的职场技能之一。立即开启写作,把你的 codax 工具升级为同事。

你用 ai, 为什么总感觉选了这个就错过那个?最近两个工具刷爆了圈子, openclaw 插件过万, cloud code 程序员人手一个,但你要是搞不清他们的边界,两个都会用费。先搞清楚他们分别是干什么的。 openclaw 是 跑在你本地的 ai 管家,二十四小时后台运行, 你在飞书上发一句帮我查明天的日程,他就去查了。你说每天早上八点抓一下竞品价格,他就用内置定时器加浏览器,连十几个聊天平台。 cloud 和 code 完全不一样,他就干一件事,帮你写代码,但把这件事做到了极致。你在终端跟他说需求,他能理解几十个文件的关系,直接改代码,跑测试,修问题,发合并请求。一个管生活自动化,一个管代码质量, 咱们逐个维度拆开看。先说连接能力, opencloud 的 插件市场有一万三千多个插件,从飞书、钉钉到智能家居,几乎什么都能连, 有人甚至用它自动跟车行来回谈判,省了四千两百美元。 cloud code 不 做连接,他只认代码,但他对代码的理解深度是碾压级的,他能看懂你的构建、配置、依赖关系、跨文件调用链,然后精准修改。 再看运行模式, open cloud 是 后台常驻,你关了电脑,它还在跑。 cloud code 是 你打开终端才启动,用完就关。最后说模型选择, open cloud 不 绑定任何模型,你可以接大模型,也可以接开源模型。 cloud code 只能用 cloud 的 模型,但在复杂推理上,目前是第一题。对 现在说最重要的部分,安全,这是两个工具差距最大的地方。 open club 目前有八个已知漏洞编号,其中一个评分八点八,可以被一键远程控制,全网有十三万五千个,实力暴露在公网上。 插件市场也出过大事,安全团队发现一千一百多个恶意插件,第三方审计显示百分之三十六含提示词注入,百分之七点一铭文暴露密要。 cloud code 这边完全不同,沙箱隔离,每个操作需要确认最小权限,官方定期审计,攻击面积小,因为它只在你的终端里跑。 那到底该怎么用?我的建议是,别选两个都装,你要自动回邮件,定时抓数据,控制智能家居,从飞书接收指令,那就用 open class。 你 要写代码重构项目,修问题,跑测试,那就用 cloud code, 甚至可以让他们配合 open cloud, 定时触发任务生成需求。然后你用 cloud code 去实现,一个负责做什么,一个负责怎么做。但有一条红线, open cloud 一定要绑定本地访问,别暴露到公网。插件装之前一定要看原码。 记住一句话, ai 工具不是选最强的,而是搞清楚边界在哪。 open cloud 管生活, cloud code 管代码,各司其职才是最优解。如果今天这条对你有帮助,点个关注不迷路,咱们每天一个技术深浅。