粉丝1005获赞7596

老师啊,嗯,那现在这个网上说的这个 openclaw, 这个小龙虾,它是什么呀?啊?我们平常用的 ai, 比如说像元宝啊,豆包,它就是大模型,更像是一个会思考的大脑,它没有手没有脚, 一个动不了,我们问他,回答,他可以教我们怎么在电脑上删除一个文件,但是他不能够替我们怎么去做 open clone 呢?就相当于一个身体,他有手有脚,但是他不负责思考啊,他真正的任务是去这个承载、连接和执行,真正理解我们需求,跟我们对话,去帮助我们处理任务的还是那个大模型啊。呃, 小龙虾它收钱吗?哦, openclaw 它本身是免费的,但是,呃,当你让 openclaw 干活, openclaw 就 要去问它的大模型这个怎么做,那个怎么做?大模型每回答一次就要去消耗算力,但这部分是要收费的,它的收费是按照 token 来,你用了多少 token 就 花多少钱。 那这个 token 是 什么呢?这 token 其实就是大模型的计算单位啊。比如说我们给龙虾发个信息,它收钱,龙虾回我们信息也收钱,我们使用 这个复杂的模型,它收的钱更多。如果说我们调用那个简单的模型,出了一个比较有难度的任务,反而会因为效率低下去收更多的 token, 费用更高。总的来说就是很烧 token 的 一件事情啊。就之前不是腾讯有一个免费帮大家安装 opencloud 的 东那个事情吗?它其实是引导用户去 使用它的云服务啊。一般来说,首月的七块九的 coding plan 是 不够用的,还是要继续购买其他套餐。也有用户在腾讯的官方微信上面说了这个。呃,十二小时烧光了一百八十八块钱。是的,这么贵哦, 老师。嗯,感觉人人都在用这个龙虾。嗯,就是不知道怎么去诱惑这个龙虾。那我先问你几个问题啊,你给不给元宝充钱? 不给啊,哎,那你知道什么叫 a p i skills 这些东西吗?不学这个有点陌生啊。 ok, 小 子,那你现在就别跟我说你要去 用好龙虾了,你谈不上用好,你根本就没必要去用它,你顶多安装好了,调试好了是把它当做一个搜索引擎。那你还不如去啊,用元宝去写材料,它还给你免费,但是用小龙虾的话它是收费的啊,我感觉。嗯,我只能把它当搜索软件用。 哦,说实话啊,我再说点扎心的话,你知道什么叫提示词工程吗?那你肯定也不知道 skis 逻辑是什么了是吧?哎,那我就说吧,那你就说让这个 ai 在 固定的范围,固定的风格,然后固定的格式里面输出,保证它不乱,不错,这个你也可能做不到啊。 ok, 那 也就是说你基础的问答都不行?那基础?既然基础的问答都不行的话,你别谈什么更复杂的 agent, 更复杂的这个自动化 open pro 跟你一点关系都没有好吗? 那我再跟你说,我再问你,你能说出每天你能有两个小时这个事情人家一个小助理帮你干的吗?并且你用这两个小时能创造更大的价值,有没有? 没有? ok, 那 你就说你根本没必要去养龙虾好吧,这 ai 它不是许愿池那个王八不是我们会的这个技能就 就一夜暴富了啊,我就立刻能够洞察商业社会的需求,然后明天就成为马云了。啊,这不是这样子的啊。嗯,我说我现在,嗯,看着 ai 这么强大,有点焦虑,怎么办?哦,你焦虑很正常啊,小子,你以前是学好数理化,我走遍天下都不怕,就是过去那些我们能够被复制的明确的,量化的一些印记呢, 它很快都会被 ai 接管的,所以你感到担心焦虑是因为你的这个工具属性被剥夺了,现在的你就只剩下你这个自己了,你发现你自己可能这个不太会来事儿,人情世故还不太懂,是吧?所以你茫然很正常啊。 那对啊,我该怎么办呢?我认为啊,就是 ai, 它虽然很好用,它很能够作为一个工具,但是它不能够替代解决一个问题,就是信任的问题, ai 给我们一个方案,它不用负责执行的是自己。我问你一个很简单的问题,你为什么今天晚上会来问我这个问题?因为你是我老师啊, 你在往深了想,我给你传授的一些知识会怎么样?嗯,你说错了,你会被, 嗯,领导者。对,如果我错了,我部门领导会找我,我的院长会找我,我得为我说出的每一句话去负责呀,对不对?我没有 ai 那 么厉害,我不是永远都正确的,只是我给你交错东西了,我一定要去承担这个责任的,我一定会受到惩罚的,所以你才会信任我,对吧?是因为我有东西失去你才信任我,对吗?嗯, 那,所以给到你的建议就是多在我们楼层走一走啊,都会来事啊。承担承担责任,看看老师有什么需求,锻炼锻炼自己这个人情世故啊,语言沟通的能力,就想办法把自己从一个工具人的属性。哎,让自己回到一个鲜活的,生机勃勃的灵动的人呗。 嗯,就这些你还有什么问题吗?我都要下班了,天都黑了,没什么问题了。行,那我们下次再见啊。下次见,老师,拜拜。拜拜。再见。

各位朋友,今天我要给大家介绍一下我们龙虾的控制中枢纽,之前我给龙虾建了个办公室,现在给他整一个更专业的面板,支持多个模型供应商同时接入感切换模型。 咱们先看看这个面板,面板左边是快速控制龙虾的区域,这里有打开 ypu 的 按键,还有重启哦喷科尔的按钮、检查版本升级以及故障修复的功能。沙箱模式设置了三个等级,包括安全白名单和关闭选项, 最后还有停止服务的按钮。左边控制栏把原本需要在终端操作的采用指令都集成在一起了,上面能看到 cpu 负债、内存占用、存储使用率以及活跃的指令数, 这些都是龙虾运行时硬件的显示磁标。面板下面是整个龙虾的矩阵,要是龙虾的某一带泥被触发,对应的绿色灯就会亮起,等会由我给大家演示一下。 这个面板最大的便利之处在于可以自定义多个接入模型的供应商,你可以在这里填写 r、 p i 进行联通, 连通之后就能看到模型管理界面。在模型管理里,你可以添加自定义的模型,要是有新模型出现,直接搜索就行。 比如我随便添加一个挂孔模型,要是它是多模态模型,点击 v 键就能把模型添加进来, 添加成功后就能看到它已经在列表里了。这里还能无缝切换所有子弹里的模型, 同时可以查看子代理的设定下边界。点击应用之后,日子里面的默认模型就会改成 glm 的 四点七,这样一来就极大地方便了有多个模型供应商接入的情况, 能轻松解决每个子代理的模型切换问题。接下来我给大家测试一下,我们刚刚问了你现在是什么模式,大家可以看到这边的指示灯已经亮了,现在我们使用 ko 的 这个代理,看看他的灯会不会亮。大家看子代理正在运行,他换起了工具,模型也修改了。 现在抠的纸代理开始工作了,他把任务交给纸代理审查了。抠的纸代理主要负责代码相关工作,他更注重代码质量和非速度。以上就是这个控制中控面板的整体情况了,关注我还有更多好玩实用的 skills。

如何免托肯本地装小龙虾?最近这个 openclock 非常火,我也在我的本地装了一个小龙虾,但是装小龙虾最难的一个地方就是他的托肯啊,非常好这个托肯,但是我装的这个版本的话,他是一个免托肯版本,他是一个。怎么逻辑呢?就是你不要去配这个 apikey 啊,你 配的是什么?配的就是他网页的这个接口啊,就是说你通过这个网页的接口来调用这个模型的能力啊,比如说你可以去配这个 智谱的模型啊, deepsea 的 模型啊,啊, kimi 的 模型,豆包的这些模型,只要你的网页能够访问去抓这个网页的接口, 你就把这个接口的这个模型的能力去给你的这个小龙虾用,这样的话你相当于就不用再去配 apis key 了,就相当于不用再花费自己的这个托肯了。我现在的话本地已经配好了,我就问他一下你是什么模型?因为我连的是这个 deepsea, 它相当于已经帮我连上这个 deepsea 了 啊,现在这个非常好用,就不需要再配这个托克了。这个的话就是我的这个 open cloud 他的一个配置的文件。给你们看一下他访问的这个接口啊,接口的 url 的 话就是 deepsea 的 官网模型的话, deepsea chat, 然后 deepsea 的 推理模型 就是这么配的,就说你不需要再去配那个 api key 的 那个接口了,直接去掉网页的接口来配你的这个本地的小龙虾,也是可以用的,如果你们感兴趣的话可以后台戳我。

国产模型和顶尖模型之间的区别没有那么大,没有大到用 skill 去弥补不了的程度。我也用我的小龙虾做了海报,然后但是我觉得它做的很丑,为什么你的龙虾可以做的更好看?我觉得不是你的龙虾和我的龙虾的聪明的问题,而是这个龙虾它的手够不够好用,它的那个四肢够不够发达的问题。 我是给他配的那个 gmail 的 那个生图模型,然后给他装那个 skill, 我 还自己会写一些 skill 去给这个龙虾去用。现在的这些大鱼模型,它是没有生图能力的,它只能 去输出文字,那我们就一般是通过输出文字的方式让他去嫁接一个生图模型,那你生出来图好不好看?是不是遵循了你的指令,你会你的意思,那这个生图模型它就也很重要。然后还有非常重要的点就是其实很多模型他没有被专门训练过去,怎么去写这个生图的提示词?那你是不是就得教?教的话是不是就得有 文档?比如说那个 tina 找了个小助理,那小助理那个可能二十来岁都会上事,啥也不懂,比如让他去生图,他可能也不知道干啥好的,那个随便找个模型就用了, 可能就没那么好。但是如果是一个新人,他入职进来之后,他有一整个 s o p 文档,如果你要升图,你怎么用?而且有个完整的升图文档去给这个毕业生,是不是就能够把这个任务完成更好?这个东西它对于我们家来说就是 skill, 就是 skill 会比切换模型更好用。 对我的评价是这样的,就是模型它的这个提升有时候是上限提升,以及说让你更省事,但是你如果愿意花功夫,然后你平时写的好,它的提升也是非常非常大的。

二三年比的是 g、 p、 d, 谁的版本更新,二四年比的是谁的模型更聪明,二五年呢,大家比的就是谁的 a 阵跑的更快。到了今年,毋庸置疑肯定是小龙虾,但是真正的核心是小龙虾,加上什么颜色 q 才能达到你想的效果呢? 模型之战现在基本上已经打平了啊,从这个 gdp 五到这个 kimi 啊,包括 deepsea 等等任何一个单拿出来日常任务呢,基本上大家都大差不差啊, 模型天花板呢,大家正在接近这场中备竞赛,已经进入了差不多的这个阶段,在接下来的过程中,谁能杀出来,这就看配合,看如何的这个阶段,在接下来的过程中,谁把 ai 啊,跟这个 q 结合起来用的比较好。 q 呢,是给 openclaw 的 任务说明书,告诉 ai 面对特定场景的时候呢,应该走哪套流程,该用哪些接口,按什么顺序来操作啊。简单的给大家说一下,就是模型等于大脑, q 等于手脚加工作手册,哎,就这么简单,你理解就行了。一个没有配备 q 的 openclaw 呢,每次都要重新去调用 ai, 他 没有这个记忆, 配好了,是 q 的 这个 oppo 可乐呢?哎,接到指令他就知道应该怎么去做,直接该干啥干啥就去了,就,就这么简单利索啊。今天呢,我给大家,哎,简单说一下,这个是 q 啊,他已经肯定是未来的必需品啊,国内模型厂商都在抢这个 oppo 可乐的入口, kimmy 推出了 kimi klo, max 推出了 max klo, 本质上都是帮你在云端搭建好这个 open klo, 顺便默认用我的模型。为什么争这个呢?因为 open klo 加 sku 用户的滔肯消耗是之前的几十倍,这是最高的用户价值,用户群体。 所以说,嗯,现在呢,一些公司已经把内部的 sop 工作流写成了 sku, 让全公司的人 啊用 open cloud 按同一标准去跑 sql, 正在从个人工具升级为主制能力,普通人咱们应该怎么跟上呢?接下来跟大家说一下啊,不用一口气装好多的 sql, 最实用的起点,首先就用官方智能搭配出的这些工作流, open cloud 内置他基本就支持联网搜索、浏览器操控,包括文件提取、定时任务、多平台发消息,这些组合起来基本上也能解决大家平时百分之八十的工作流 啊,这就是已经给大家解决了很大的问题了啊。关于市面上第三方的这些死扣呢,安全性他不是很保证,如果要选,优先选用官方认证或来源清晰的。

免 token 配 opencloud 小 龙虾?最近这个 opencloud 非常火,很多人装了这个龙虾,但是这个龙虾最关键的问题就是非常好托肯啊,非常烧这个托肯,但是我装的本地的这个是一个免托肯版本,它这个逻辑是什么逻辑呢?就是说你不需要配自己的那个 apikey, 就是 不是用自己的这个 apikey 去烧这个托肯啊?它配的是什么?它配的是这个网页它的接口啊, 就是说如果你能够访问这些模型网站的这个网页啊,登录上去之后,然后呢去能够访问这些接口的话,相当于把这个接口作为这个模型的能力来配给你的这个小龙虾来用啊,我现在本地的话已经配好了,我现在问他是一个什么模型啊?我这边连的是 deepsea, 就 要登录你的 deepsea 的 这个 这个网页,然后能够访问它的接接口就可以了,它相当于给的我一些回应啊,相当于我这个小龙虾已经配好了,而且是不需要你再去耗费你自己的 apikey 去烧自己的托管的,非常好用。如果你们感兴趣的话,可以在后台私戳我。

上期视频教给大家本地部署 oppo pro, 本期视频让大家的小龙虾接入大门型并连接手机,让你随时随地二十四小时拥有赛博助手。首先大家要明白,一键安装此操作大部分都是云部署,没有权限调动自己电脑内的文件进行办公,大家要区分清楚本地部署和云端部署的区别,我们要的是本地部署,这样才能自 理由操作自己的电脑文件。配置 ai 模型,打开新的命令页面,输入 opencloud comfind, 选 loca 回车,找到 model 回车,这里就有小龙虾支持的 ai 接口了,我自己用的是大模型,以我自己为例,右上角找到控制台点 a p i k, 添加新的密钥,复制备用。回到命令行,把密钥粘贴进去, 选自己 ai g l m 杠四点五杠 a 二模型空格为选择回车确认选择配置部分,直接选择下面选项即可。此时你的小龙虾已经 接入大模型了,接下来重点来了,我选择的是接入福书,打开福书开放平台,找到开发者后台点企业自建应用,给机器人起个名字,这里大家自行发挥,然后去权限管理,批量导入权限,权限详情图记得截图保存。接下来我们回到终端,输入 opencloud chatmail, 我 们选择 yes, 然后找到福书确认安装,这时候需要配置福书的 app 密钥,在凭证页面找到 id 和密钥填进去, 此时就要连接配置了,选 webescape, 连接国内图书端口,继续选择 open, 下一步选择频道最下方选项,回车完成选项即可。最后三个选项都选 no, 不 用复杂配置。回到图书配置世界已回调 创建版本确认发布手机收到消息,点开应用终端,执行授权命令。命令在绘画栏你创建的应用内,你可以点击直接复制即可。现在你的手机就能随时随地召唤小龙虾了,发消息就能操控电脑不关机,还能二十四小时在线。后续我将更新小龙虾实用 skill, 让小龙虾拥有更多技能来帮助你!大家记得跟紧续载玩转 open club!

最近很多 ai 一 群项目开始从 mcp 转向 coi 工具了,比如说小龙虾的项目,比如说 publicity, 最近发博课说他们准备全面抛弃 mcp 转向 coi 了。 今天就跟大家聊一下为什么 ai agent 的 项目越来越喜欢 c r i 了。首先第一个问题就是 m c p, 它有严重的上下文污染问题,因为 m c p 的 工具调用方式是 agent 一 启动就需要把所有的工具全部加载进上下文中。 如果你有十个 m c p server, 一 百个工具,这些工具描述会在一开始就全部加载进模型的上下文里面去,这会导致大模型在做脱扣的时候,上下文变得非常长。 而 c l i 的 模式就完全不一样,它支持工具的渐进式的批录。 agent 可以 通过 c l i 的 命令一步一步探索,比如可以通过刚刚 help 的 命令去查看到底支持什么工具, 还可以通过指令率去查看工具支持什么样的参数,这些工具信息是逐步加载的, 而不是一开始就塞进模型的上下文里面。第二就是 c o r 工具天然对大模型比较友好,因为整个 linux 和开元社区 有大量的 c i 命令和使用文档,所以大模型其实早就驯服了这些数据。而 m c p 的 调用方式是大量的 jason scammer, 这对大模型来说会更加复杂,而且还要输出很多跟 jason 格式相关的格式化的头肯。 第三点就是 coi 工具,它可以支持一些 type 操作。很多 mcp 的 工具返回结果的时候呢,其实你是需要一些后处理的,比如说一些过滤的操作, 还有就是搜索截取关键的片段。以前 mcp 想要支持这种后处理操作的时候,你是需要额外的工程代码去处理的。 但如果是 coi 的 话,你可以直接用,可以用 pipe 操作, agent 只需要输出几个 linux 命令,然后通过 pipe 操作连接在一起,通过 gui, file, find 等 linux 命令 就可以完成对工具结果的后处理,这对工程来说更简单更灵活,维护的成本也会更低。 最后就是 coi 其实非常适合和 skill 进行搭配,你可以在 skill 点 md 里面去教 ai a 人怎么样用你的 coi 命令, 在不同的场景下应该用怎么样子的 coi。 如果你用 mcp 的 话呢,就会在 skill 点 md 里面出现大量的方寸扣啊,这声 scammer 等等,会使得你的整个 skill 点 md 非常混乱。 所以总结来说, c l i 在 模型上下文以及工具结果后处理的角度呢,它都有非常巨大的优势,这。

你们说等三六零 pro 出来了,电脑同时安装三六零 pro 和腾讯的 qq 会怎么样? qq 呢?我是昨天拿到了内测邀请码,然后试用了一下,说一下自己的一个使用感受。首先第一个就是它部署真的很简单,有数就行, 所以它大大降低了普通人使用龙虾的一个门槛,但是它目前还只支持 mac 系统, windows 系统暂不支持。第二个就是内置的 kimi 啊, deepsea 啊, mini max 大 模型,都是免费使用的,不仅可以直接连接微信,随时随地远程让 ai 干活,同时它还支持五千加的一个 skills。 第三个就是这个 skills 生态最近不是很混乱吗?所以呢,腾讯也推出了一个面向国内的 skillhop 技能社区,然后这个技能社区呢,已经聚合了来自官方生态的一点三万多个 skills。 所以以后你安装 skills 真的 特别简单,因为你安装的时候,它就直接给了你信息,你只需要复制粘贴到 qq 里面就行了。 第四个就是这个安全疑虑了,所以腾讯也做了一个 ai 安全生态,主打一个全面。所以最后呢,就看这个推出来的一个反响了。然后大模型厂家以及云服务商,我相信他们也终于看到了大模型的一个落地商机了。

最近大家是不是都被 opencloud 这个小龙虾给刷屏了,是不是有很多人还不知道怎么用呢?我听说有人花了好几百上千来让人上门安装的,其实完全没有必要,今天我就教你怎么用几分钟的时间来装好小龙虾, 而且还能用上最适合 opencloud 的 开模型 step 三点五 flash。 最后呢,咱们再去学几个 skill, 让你的小龙虾像黑客帝国里的 nio 一 样,不断地学习进化。 我用的是揭月星辰的小龙虾自动安装包,之所以选择了揭月是因为两个原因,第一呢,它能在几分钟之内帮你自动部署好小龙虾,省去了你手动部署,弄半天也弄不好这种麻烦。第二呢,它会帮你揭好揭月的 step 三点五 flash 一个模型,而这个模型是全球开发者用脚投票出来的,最适合小龙虾钓用模型。在 全球模型聚合平台 open router 啊,有一个 open cloud 的 模型调用榜单,这个就是看那些真正跑到小龙虾类的模型谁被用的最多的结果。你绝对意想不到,目前排名前三的全都是国产模型,而本月全球调用量排名第一的就是 step 三点五 flash。 那接下来我们开始部署。首先呢,我们去接阅 ai 的 官网,把这个桌面小助理下下来,打开小月,直接选执行模式,把这段指令丢给他。大家只需要在这里把 api k 换成你自己的就可以了。大家可以通过 openroute 这个平台来获取 step 三点五 flash 这个模型的 api k, 然后他就开始苦苦干活了, 你可以在旁边实时的看到他每一步都在干啥,是拉代码配环境还是写配置?大概过了十分钟呢,他就会告诉你, openclo 开始跑你的任务了, 来跟他打个招呼吧。那接下来我们让我们的小龙虾去学习一些技能,让它可以像黑客帝国里的逆流一样去自主进化。现在国内有很多的 a n 的 技能聚合,平安 有最近很火的这个水产市场,这里边有很多的宝藏 skill, 我 们可以把小龙虾送到这里边去上学,让它自我进化,去学习更多的 skill。 比如这里我用了宝月老师的小某书新一图生成器这个 skill 在 小月或者 open color 里边输入安装命令技能包就能瞬间激活。 现在我把我的内容发给他,很快呢,他就会自动生成一套可以让我直接发母书的全套图文了。但是如果你需要其他的 skill, 按照这个方法直接安装就可以了。好了,本期养虾的教程就到这里了,大家快去给自己养一只吧!

欢迎大家收看三十岁买卡老马农挑战下班搞艺人公司。今天已经大概是第九天了,说实话有点记不清是第几天了, 今天花了非常多的时间在研究这个 gbt 五点四,非常有意思,然后所以我这期视频呢,就会讲讲 gbt 五点四它这个新的特性到底有哪些。然后为什么我自己觉得这个还是不太适合用来做小龙虾的底层模型? gbt 五点四这次主主要会有三个不同的特性,第一个呢,是说它开始终于支持这个一百万上下文窗口了,也算是跟 jammer 或者 opus 这样子的一一线模型对齐。 第二个呢,是说它现在会有更强大的这种完成啊复杂工作流程的任务的流程,比如说像,像 coding, 对 吧?我们都知道以前的 gbt 分 就 codex 版本和不是 codex 版本的,那现在呢,这个版本里面,他们把这两个联合在了一起,让五点四这个模型理论上来说就既可以 作为一个很好的 chat bot, 也可以用来作为一个 agent 大 脑。然后最后一个呢,就是一个最重磅的消息啊,就是他们其实现在 gpd 五点四支持一个所谓的叫 computer use 的 这么一个特性,就是说它可以像素级的去理解你的电脑屏幕上面发生的事情,并且知道怎么去移动鼠标,怎么去控制键盘,然后来控制你的电脑,像人类一样操纵你的电脑。 然后很多人看到这几个特性就很兴奋嘛,他们就会说 gpd 现在是一个最适合用来做小龙虾大脑的这么一个底层模型, 我也很兴奋啊,我把自己的这个已经退定多年的 g p t 的 定员又捞了回来,然后第一时间去试用了一下,但目前为止我感觉还是比较的一般的。还是主要有两个理由啊,第一个就还是它确实有点太贵了,它自己的价格呢,在 g p t 本来的这个一线的档位上面,又提高了大概百分之二十左右,是两块五的 input 和十五块的 output。 那这个价格呢?是比这个堪比天价的 open 四点六是还是便宜不少的,但还是对我来说,因为有点太贵了。我自己的小龙虾呢,其实已现在已经用习惯了,就是 kimi 和 mini max 的 这种国产模型,我觉得用的也挺好的,所以 g p t 四五点四的价格呢,大概是我现在使用价格的六到七倍。 然后要说第二点,我认为其实比较更加重要一点,就是说其实大部分人的用小龙虾的使用方式,我认为其实都不太需要这么复杂这么高级的大脑。说真的, 我观察了一下市面上面大部分朋友用小龙虾的这个具体使用场景啊,基本上都是啊,我在这边去收集点信息,在那边去看点什么新闻,然后总结成日报,或者总结成一个什么呃消息,然后每天早上推定时发送给我,或者说可以帮我去管理一下邮件,帮我写一封邮件,或者帮我写一封这个,管 理一下我的订阅这种东西。那这些已经现有的这些使用场景呢?我觉得第一是既不是用不到它这个 computer user 的 能力, 又不需要那么多复杂的编排的功能。 g p d 五点四还有个特殊的功能,就是它可以去做 tool search, 就 如果你给他很多工具的话,他不会一下子全部漏到他的他的这个上下文窗口里面去,而是会去进行一些挑选,但其实很多人的小龙虾我觉得都不需要这么多复杂的这个 tool search 的 功能。 那最后呢,也给大家一个个人精选啊。最近是发现了一个宝藏模型叫 jammy 三点一 flash flashlight, 那 这个是呃,谷歌前两天发的这个模型啊, 非常非常的快,是极度蒸馏了这个 gm 三点一 pro 的 能力,然后价格也是非常非常便宜。然后他的能力上呢,是能够做非常快速的响应一些文本的一些回应啊,他不能做很复杂的这种编排的这种比如工具的编排,但是对于一些文本的响应是非常好用的。 对于如果对你来说是小龙虾只是用来做一些总结啊什么的,我觉得这个这个模型会是一个你可能会去想考虑使用的模型。 好了,今天主要再讲一讲自己玩各种模型的这个经验总结啊,希望对大家有帮助啊,我们在短期的未来呢,其实我自己也会去多去玩一玩欧本卡,因为我觉得欧本卡其实是一个对于艺人公司来说非常好用的一个东西,很多老板都在研究嘛,对吧,我也想去研究一下这个东西。 如果有朋友想看这个艺人公司的老板到底是如何用欧本卡来给自己提效的,那么可以在评论区扣个一啊,我下期可以单独讲一讲。喜欢这期视频的话呢,请点赞收藏,我们下期再见。

如何本地部署 openclog? 无需付费,无需 api, 可调用多种大模型,适合想尝试但是分币不花的同学。今天嘴对嘴教会你,记得一键三连鼓励一下。第一步,环境准备,我们先来安装 get, 点击电脑开始菜单,这边输入 powershell, 然后右击以管理员身份打开,输入上面这一段代码,注意空格,然后按下确认键,等待安装即可。这边已经提示我们安装成功了。第二步,安装 elama, 进入欧拉玛官网,点击右上角的下载,这边有三个系统版本可供选择,大家根据自己的系统自行选择,然后复制上面这段代码,打开之前的 power shell, 把刚才的这段话复制进去,等待下载安装 已经提示安装成功了,我们点击开始菜单,找到刚才安装的欧拉玛,打开欧莱曼以后,我们发现这边有很多模型可供选择,我们也可以自行选择模型,比如我选择最近刚发布的千问三点五模型。第三步,安装模型, 大家根据自己的配置找到合适的参数进行下载,复制上面这一段代码,然后点击开始菜单,输入 cmd, 把刚才复制的代码复制进去,等待下载安装即可。 由于模型比较大,大家需要耐心等待,我这边直接跳过了,我们显示已经安装成功了,我这边输入你是谁,他会跳出思考过程,然后说我是通一千问系列最新的模型。接下来我们回到奥拉玛,点击左上角的设置菜单,打开 expose alama to the network 这个选项, 然后往下拉,找到 context list 这个选项,把上下文长度设置六十四 k 到一百二十八 k 之间,如果你显存高,可以调高。第四步,安装 openclaw, 我们进入 openclaw 官网复制上面这段代码,记得不要看错了,它有 mac os 版本的。然后重新打开 powershell, 把刚才复制的代码复制进去,跟之前一样等待安装即可。这边显示已经安装,我们点击允许我们输入 alama launch openclaw, 然后点击确认键。 接下来可以通过 tab 键来选择你想要的模型,因为之前我们下载了快三点五模型,所以我们直接选择这个。安装好以后,我们复制上面这个链接到浏览器打开即可。 看到这里就恭喜你成功安装了 openclaw, 下一期我会教大家如何链接 qq, 实现全自动工作,小伙伴们别忘记点波关注哦,咱们下期再见!

最近 openclaw 这头龙虾呢,活得一塌糊涂,但是很多文科生朋友提起来里面的这种专业术语哈,一个个都很萌,别慌,今天呢,我们就来拆解一下这些龙虾术语到底在说些什么。 很多人呢,一听 openclaw 就 以为是新出的,拆的 gpt, 打开就能聊,大错特错。 openclaw 他 不会自己说话,也不会思考,他其实就是一个 ai 身体,他并不是大脑。那什么才是大脑呢?就是大模型, 像 gpt 四, deepsafe, 豆包、 kimi 这些就是真正思考的大脑。 openclaw 它不绑定任何的模型,今天你可以用 gpt 四,明天可以换豆包都可以。那对比一下模型呢?它就像是发动机, openclaw 就是 整辆车发动机的品牌,你可以随意更换,不影响整车的结构。 那既然说到开车了,油钱怎么算呢?这个就是 token, token 呢,可以约等于一个中文汉字,或者是零点七五个英文单词。你发的消息和 ai 回的消息,它都是按 token 来收费的。 但有个关键点哈,你发的字和 ai 回的字,它是分开计算的,而且通常 ai 回的比你问的会贵出二到五倍,也就是 ai 说的越多,花的也就越多。如果你用的还是一些高端的模型的话,差距会更大。像 gbt 四 o 是 gbt 四 o mini 的 十五倍的价格。 你明明感觉就聊了几句嘛,但是一个月下来,账单一出来就吓了一跳。原因就很简单,因为每句话都在花钱,一天呢,聊个几十条,一个月就积累起来了。所以当你问钱花哪了,大部分都是 talking 的 费用。这笔钱呢,也不是 openclaw 收的,它是模型公司按用量来收的。 我们再说说 agent 是 什么哈,普通的聊天机器人呢,你是问一句,他答一句,你不问呢?他就不回答, agent 就 不一样了,你给他一个目标,他会自己的想步骤自己做,做完以后再告诉你结果,中间哪怕出错了,他还会自己调整再试。你不用全程盯着, 这个就是作为 agent 的 open call, 他 能够在后台一直跑的原因,你不用守着电脑,他还可以帮你工作,是不是就很省心了? 但 agent 他 会思考,会规划还不够,他还得有技能才行,你让他发邮件,他首先得会发邮件才行。这个就是 skill 技能 skill 呢,是 openclaw 装的技能插件,像读邮件啊,运营写代码,你没有装 skill 的 话, ai 他 就不会。打个比方,你雇了一个聪明人来上班儿,但是他没有公司的门禁卡,你再能干也进不了这个门儿。装 skill 就是 给他配门禁卡,配了哪张卡,他就能够进门干哪件事儿。

小伙伴们大家好,今天感冒了,声音有点奇怪,最近聊了好多期腾讯的小龙虾。 coldbody 和 workbody, 其实是一个产品的两个版本,好多粉丝跟我说用它完成了不少以前不敢想的事,后面我可能也会请他们来分享各行各业的案例, 但也有不少人说根本什么都做不出来。今天我刚刷到一个做三 d 打印的博主,特别典型,他让 coldbody 帮他建一个三 d 打印用的汽车模型,结果搞了一坨像肥皂一样的东西,他就录视频说产品太差。 我今天就以这个为例,还原一下我是怎么用 codebody 从踩同样的坑到最终做出来,再把整个流程沉淀成一个可费用的 skill 的。 先说那个博主的核心问题,他跟 codebody 说了一句,给我设计一个铃木维特拉汽车的三 d 打印模型,并把 s t l 文件发给我,然后 codebody 就 开始干活了。 我也是一样这样操作的。酷狗八的会怎么干?他不是三 d 建模师,他是程序员,他的本能反应是找一个可以用代码驱动的建模工具。我这边选 open s c a d 开源的 三 d 建模软件,纯代码写模型,不用鼠标拖来拖去,这个选择有没有问题呢?理论上没有, open s c a d 确实能做三 d 打印模型,业内也有人用它做机械零件。酷狗八 d 很先是很认真的做了一份工作,计划从车身到轮毂、车窗、灯组、保险杠,一路排下来,像模像样的。自己上网搜了维特拉的各种细节尺寸,还生成了几张 ai 参考效果图。 接下来就是写代码,核心思路就是画三十图的轮廓,然后把这三个轮廓各自拉伸成三 d 实体,然后用波尔计算去交集。理论上交集的部分就应该是车身的形状了。听起来挺合理的,结果一渲染出来,我都 起效了哈。三个二 d 轮廓本身就很抽象,侧面像条鱼,顶面像个棺材板,前面像半个鸡蛋。三个一交集出来的东西确实像块肥皂,轮,轮子还是横着的。这就类似那个博主看到的东西,到这步为止呢。那个博主说的是对的,确实做不出来,但问题是那个博主停了,他下了个结论,走了, 我没走,扣对不对?还不死心,继续在这个肥皂上加轮毂,加后视镜加天线,结果更离谱了,所以一定要变形。失败的大巴 问题不是 code body 不 行,是这条路不通。 open s c d 的 中交交集法本质上就很难做出光滑曲面,这个汽车的曲面需要的是 nervous 或者吸粉曲面。 open s c d 连这个概念都不支持,那它做汽车就像用 excel 画油画,工具选错了, 那正确的工具是什么呢?其实有两条路,第一条是用 m c p 接管专业建模软件,现在已经有 blender m c p 这种项目了。就是,哎,通过 m c p 协议去操纵 blender 这种专业三 d 软件,用自然语言指挥它建模画图 啊。如果你追求的是精确的参数建模,那像机械零件,工业设计,这肯定能实现。但我没走这条路。为什么?因为我 做了一个经验判断,三 d 打印的车模土生,三 d 一 般就够了。你想三 d 打印出来东西本身就有曾玩巴掌大的车模,你用 blender 轻雕细琢,和土生三 d 两分钟出来的模型打印出来,肉眼根本没区别,投入产出比 完全不在一个量级。所以我选了第二条路,直接调腾讯会员三 d 的 api。 会员三 d 有 个功能,叫土生三 d, 你 给他一张图片,他给你生成一个完整的三 d 模型。 而且这个 api 现在有免费使用额度,我直接把 api key 贴给 codebody。 当然过程也不是一帆风顺,图片、 传餐的格式、文件解压之类的坑还是有一些的。但好在 codebody 踩完坑能立刻改代码重试,整个调试在对话里就闭环了,不用我自己去折腾,我也不会。搞定 api 之后呢,它先生成了一张维特拉的参考图,红车身、黑车顶的四分之三视角提交给会员三 d。 两分钟以后,模型就下来了。 这个火山、大灯轮、后视镜这些细节都很清楚,有些地方因为角度问题有些误解,所以我就让他重新生成了一遍,换了张银色侧面的效果图做参考图第二版,整体更匀称,细节也更到位。从那个肥皂块到这个完整的车模呢,核心区别就一个,换了条路径。 那这一步其实也可以交差了,但我多做了一步,把整个流程沉淀成了一个 codebody 的 skill 技能包。那什么是 skill 呢?可以理解为一个经验包啊。把我踩过的所有坑,写好的所有脚本,总结的所有注意事项打包成一个可附用的模块。下次再做任何物体的三 d 打印模型, codebody 就 可以自动加载这个 skill, 不 会重新踩坑,也不用每次再把生图、接口、地址、 api 这些重新配给它。 所有的东西呢,跟具体的车型就无关了,你给他一张椅子,他也能生成三 d 打印模型。为了验证呢,我当场又做了一个我家的这个标志,五零零八,从生成参考图到最终拿到 s t r 文件,全程是给我自动执行,不到十分钟, 最后还让库德贝里做了一个对比,网页单页面的这个腹部流滚动,五个版本一次排开,每个版本都能三 d 交互浏览,都有对照图可以展开看。所以回到开头,聊几个我觉得很重要的事。 那个博主的问题呢,不是 codebody 不 行,是它的用法不对接。这个案例呢,我想总结几条用 agent 的 心得。第一呢,有了 agent, 人不是没价值了,你让他反复去尝试收 token, 他 大概率早晚能给你做出来。小龙虾就是这个逻辑,但实践成本和 token 成本会非常高。 而我在这个过程中做了什么呢?我看了一眼 open cad 渲染出来的轨道,立刻就知道这条路有问题,不尔交集,做不出来。为什么?我知道?因为我二十年前学建筑的时候学过画画几何,熟悉三 d 建模,了解三 d 打印和图上三 d 的 基本逻辑和术语,看得出来问题在哪。一句话把方向纠正了, 所以对人的要求变了,不是要你技能全面,什么都会做,而是你要有通俗性的了解,知道这个领域大概有哪些工具,哪些路径,哪些坑。你不用亲手写代码,但你得看得懂方向对不对。 你的认知决定了天花板 a 阵子的效率,决定了完成速度。第二,遇到问题别问我,问 code buddy。 这段时间好多朋友用 code buddy, 遇到问题会来问我,说实话,我给的答复基本都一样,你把问我的这段话直接发给 code buddy, 不是 敷衍你吧?他是一个对话式的工具,你跟他说这里报错了,这个效果不对,换个方案他能理解,而且他比我懂的多啊,很多时候你觉得他不行,其实就是你没跟他说清楚。 第三,是把 ai 当成一个新来的同事,这个这个很重要,他能力很强,学东西很快,但他是新来的,他不知道你工作的具体细节,所以一开始你要有耐心得花时间跟他磨合。 但一旦他学会了一件事沉淀成 skill, 下次再做同样的事,他就非常高效了。就像这次,第一辆折腾一个多小时,第二辆十分钟就搞定了。而且一定要从简单的事做起。 我见过很多人有两种心态,简单的事觉得用不着他,我自己干,复杂的事觉得跟他说清楚太麻烦,还不如自己做。这两种想法加在一起,你就永远有理由不用他。 但如果你从简单的事干起呢?先了解他的能力、边界和脾气,慢慢加满,你会发现他能接触的事越来越多。说到底,那个博主如果不是看一眼就走,而多说一句换个方法,结果可能完全不一样了。也欢迎大家分享自己用 what 的 角度看懂未来的方向。

就在刚刚,小龙虾更新了最密集的一次版本升级,从官方更新的日历来看,一口气出了两百多个 bug, 覆盖了平台几乎所有的核心模块。这次更新最核心的亮点是全新 context engine 插件接口,简单点说就是 ai 记忆和上下文系统现在都可以插件化了,开发者可以自己定义上下文策略。 新版本还支持了 openai 的 gpt、 五点四、谷歌的 gmini、 三点一 flash 等最新模型,推理速度和成本都有优化。另外多 agent 的 写作也更方便了,现在副 agent 的 可以直接给子 agent 的 传文件,不用再折腾共享目录。 整体来看, opencloud 正在从一个 ai 工具慢慢变成真正的 agent 的 开发平台。目前我们让小龙虾自己进行了升级。关注下期视频,我们聊聊小龙虾的安装部署成本。