当国民级女神斗包装上龙虾跟爱马仕,谁能考上虾佛大学?这次我直接说人话,废话不多说,直接复制代码开始考试。考试分为八个维度,共十六题,可往往从理解、执行、剪索、推理、反思工具、情商记忆快速检测你的 a, 这你是否可以帮你完成日常任务? 本次两名参赛选手都是零上下文零 skill, 裸考方便看出来哪个更容易上手。 豆包龙虾已经进入答题,豆包爱马仕还在看题,豆包龙虾答题很快,不过在提交答案时看似是遇到了问题,难道爱马仕豆包要反超 爱马仕?豆包开始答题,用时十五秒完成前两题。提交答案的过程也是测试智能题调用工具和路径选择的侧验。对不起,我搞错了!豆包龙虾终于提交成功了,差点就被反超!我们直接加速看考试结果, 直接领取成绩,豆包得分八十九点四!再来看一下各科目得分情况, 豆包龙虾理解才拿到五十分,解锁双双满分,豆包龙虾三颗胜出,豆包爱马仕两颗胜出。从雷达图看,豆包爱马仕的能力更加均衡,我宣布本次冠军是豆包爱马仕,哈哈哈哈哈!
粉丝1166获赞8523


现在我手上这台价值五万元的笔记本电脑就是苹果最新款的 macbook pro, 除了硬盘没上八 tb, 其余的配置直接拉满,顶级 m 五 max 芯片搭配一百二十八 gb 的 统一内存,是妥妥的旗舰级配置。 恰好当下处在 ai 浪潮的风口,拿着这样一台性能怪兽,就连我这种之前只用过豆包、 gpt 之类 ai 的 非理工科小白也忍不住感到好奇啊。网传的本地大模型叫 open cool 小 龙虾真的有那么神奇吗?它和我们日常用的豆包这类云端 ai 又有哪些本质的区别?今天就带大家来一探究竟。 首先第一步就是本地大模型和小龙虾的下载与安装,这个过程说难不难,但绝对需要一点动手能力,不然网上也不会到处都是几百块上门报安装的帖子。 总的来说,只要找对教程,跟着步骤一步步来,大概是不会有太大的问题。当然我说的是大概率,就像我小龙虾装好了,结果切换本地模式疯狂报错,找遍 b 站教程为 b a, 最后问题也没能解决,最后只能重装系统重新来才心理无助,勉强搞定。 在这里也给大家推荐几个我觉得做的不错,讲解通俗易懂的 up 主教程视频,想折腾的朋友可以去参考看看。 在下载安卓好了所必要的相关程序之后,终于是可以来看看苹果这次号称对 ai 性能有着全面提升的 m 五系列芯片在实际应用上的表现。大家可以根据自己的电脑配置选择对应的本地模型大小。这里呢,我比较推荐的是千万三点五系列,像我这台一百二十八 gb 内存的总配机,最高是可以跑到一百二十二倍的,模型的 时长能正常运行,但是缺点也很明显,思考的时间偏长,单轮响应要五十二点九秒,数据时的内存直接占用到了一百一十六 gb, 电脑还会明显的发热,风扇狂转。对于我常用的日常问答,我本分析这类轻量应用来说,属实是大材小用了, 所以我最终选择的是更为适配的甜点级模型,千万三点五三十五币。别看模型的体量小了,实际体验的提升却特别明显,思考速度直接降到了八点九秒,回答的流畅度也大幅度提高。三十五币在日常的使用里啊,也是完全够用的。 看到这里,肯定有的观众会问,你说的这些本地模型和豆包之类的到底又有什么区别呢?那差别可太大了。 如果说豆包这类云端应该是完整的原版模型,本地大模型则是为了适配个人电脑所做的压缩优化版,核心的思考、分析、创作能力都还能准,只是做了些贴合本地硬件的调整。 并且本地大模型全程在自己的电脑上运行,所有的数据和计算都不离本地隐私和信息安全这一块更靠谱。另外更实在的是还能离线用,我们运行的过程不用花我 api 的 钱,后续的使用成本也比较低。 要是把本地大模型比作管思考做分析的大佬,那小龙虾就是实打实干活的手脚,专门把大佬的想法落地,负责操纵电脑执行指令,完成各类交互。 在这里除了使用电脑网页端的控制界面,我还把小龙虾接入了使用更为方便的 qq, 将他的性格和口吻设置成了自己比较喜欢的明日香,支持角色扮演和上下文的连贯对话。大家也可以根据自己的喜好给小龙虾设置专属的角色性格,互动体验上是特别的有意思, 像查天气、看 nba 战况、刷新闻这些比较日常的需求啊。在小龙虾进入 qq bot 之后,也都是支持语音输入的,这一点上还是比较方便的。 以我的工作流为例,平时视频相关的很多繁琐工作也可以让他分担不少。比如我对着接入 qq 的 小龙虾说语音,让他搜集关于数码 ai 相关的热门,选填并制作层图表保存在桌面,并且还可以设置成定时任务,每天早上的九点准时完成。 你让他写一段相关的口博稿,写完自动保存到桌面的指定文件夹,全程不用我敲一个字,就连跑模型的数据直接告诉小龙虾后,就可以直接生成表格,省了我作图的功夫。 理论上,只要电脑不关机、不断网,哪怕远程在外,也能通过接入的 qq bot 来操控电脑进行文件管理、代码开发、自动化、定时等各项任务。此外呢,也有很多的 skills, 可以 去克拉夫的网站搜索下载,甚至不满意的话还可以自己编辑新的 skill。 总之,只要你愿意折腾,那么小龙虾的潜力我想还是很大的。搭配这台 m 五 max, 性能本地部署的三十五 p 模型,响应速度迅速,小龙虾的执行效率也跟着拉满。如果接入的是云端模型,那么小龙虾在执行各类命令时,每次调用都要消耗 token, 几天下来的余额可能就会见底,日积月累的话也会是一笔不小的开销。而本地模型完全依赖硬件本地分析处理,除了电费,基本上没有其他的使用成本。更何况 mac 的 待机功耗是出了名的,不管是笔记本还是台式机,都能够长时间不关机稳定运行,都换成同性能的 pc, 或许每个月的电费都会花上不 少。因此最好的建议是将本地模型与云端模型的使用相结合,根据不同的需求进行切换,这样可以最大限度的节约成本。 聊到这里,必须夸一夸这台顶配 macbook pro 的 硬件底子,一百二十八 gb 的 超大统一内存,极致的带宽速度相当于能够把一百二十八 gb 看做是电脑的显存,硬盘的读写速度更是达到了一万两千 mb 每秒,再加上 m 五芯片对 ai 运算的全面优化,让它成为当下跑 ai 模型运算的一把好手。 或许五万元的售价会劝退很多人,但如果换成同性能的 pc 或者服务器,价格可能要直接奔着六位数去,至少对于有专业 ai 需求的性价比其实更高, 当然,前提是你真的有对应的 ai 需求。这段时间的体验下来,我最大的感受是这台 m 五 max macbook pro 不 出本地大模型加小龙虾,真正适合的是那些会写代码的程序员、从事开发工作的技术从业者,或者是需要大量跑模型做数据分析、本地训练专业人士,在他们的使用下,或许才可以开发出他们的全部潜力。 而在我这种普通消费者手里,根本发挥不出他们的全部潜力。在花了大量的时间和心思去折腾本地模型和小龙虾后,我也才认识到, 至少在目前来看,包括我在内的大部分普通消费者,其实根本没有必要去折腾这些。首先你需要的不仅是一台性能不错、价格不菲设备,还要研究折腾本地的部署、 space 的 安装以及熟练的 ai 提示技巧,最好呢,还要有一定的编程能力, 有了这些的前提啊,才是真正玩转本地模型和小龙虾的基础。如果不是对隐私信息有特别高的要求,我觉得像豆包、 tipsc 这类云端 ai 的 使用体验会更好,不仅 c 端的个人使用是免费的,网络状况良好的情况下,响应速度、功能丰富度上都更加的贴合日常的需求。 所以大家真的不要被网上的信息所裹下,产生不装小龙虾不研究 ai 就 会被时代淘汰的这种焦虑感。放宽心,把手机里的豆包用好我想就已经足够。 各家厂商的目前也都在紧锣密鼓的推出自己的小龙虾,未来也一定会有更多便捷实惠、傻瓜式操作的产品出现,到时候再体验也完全不值。至于我五万的电脑,多少还是有点太贵了,如果真的还想要再尝试的话,或许那台最低配的 mac mini 才更加适合我的二号机明日香吧。

前两天我已经成功安装了 openclaw, 那 大概安装这个大龙虾我花了大半天的时间,这个在我已经有基础的,比如说他给我个 c m d 指定,让我调用 power shell, 上面输入指定行命令行,那我都是可以随时去做这个事情,是利用 gemini 和 cloud, 直到我去安装 openclaw 光和这个大模型,比如 gemini 和 cloud 的对话 gemma 呢?我们对话了有一百三十八页,如果是 cloud 的 话应该也有一百多页,大概花了将近呃,两三百页的一个样子,那这个其实普通人是没有那么多时间去折腾去安装这个 open cloud。 在安装大龙虾之前,电脑上一定要安装 node js, 这可以在 cmd 指令中直接去安装,然后以管理员的身份打开 power shell 命令行去安装大龙虾。这里面需要注意应该是痊愈安装,然后 直连的官方员容易失败,所以可能需要换镜像,我当时换镜像才成功的。然后直接初始化进入了配置阶段,这里面建议直接是在配置阶段填好 api, 这样 一键启动就可以了。如果你想添加本地大模型,就需要配置奥拉玛, 主要谈两个问题,一个是我安装过程的问题,一个是我安装使用过程的一个问题。我安装过程中第一个 token 不 认证,第二个配置不生效, 第三个点就是 windows context 文本太小,第四个就是本地大模型有限制,第五个是无节点无法执行。本来我是计划把这个龙虾是安装在我的本地,因为我本地已经有一些奥拉玛和一些 cinem 的 一些模型,然后我进行这个配置的时候,发现怎么都配置不成功,后来我才取了这种 云模型,比如说拿了轨迹流动的 api 去设置,这个地方算是走通了,但是其实走通了,这里面还有问题,就是如果你选择的模型不够强,其实他还是没办法去执行任务的, 基本上你只能完成一个对话的基本功能。第二类就是实际使用中的一个问题,比如说我给他一些简单的任务,让他帮我建一个文件夹在桌面上, 或者说帮我做一些简单的分类,或者告诉我现在的一个具体的时间,其实这些任务执行起来 对大龙虾来讲都比较困难,甚至如果你用的模型不合适的话,他会出现 ai 幻觉,就是他明明没有做,但是告诉你他已经做了,你回去去验证这个事情的时候,发现其实他是没做的。那如果真的是用那种比较顶级的大模型,就大家都会讲啊,这东西非常费头肯, 那其实就是你想让他完成一个简单的任务,他也会花费可能是几十美元甚至数百美元,并不是说你给他一个指令,他能迅速帮你完成的任务,这过程中你还要不断的去调试,最后才可能会给出一个 执行结果。就目前来看,大龙虾其实不是一个成熟的产品,并没有给呃一个好的产品体验。总结一下哈,目前使用它的话还是比较费头肯就是烧钱,而且在使用的过程中,你要不断的用时间探索,就是花费的时间成本其实更多,所以目前它并不是一个 呃很好的一个产品。那如果我们普通人想用它完成点任务,比如说写文章、写代码,其实利用好现在的 ai 工具完全可以胜任这个工作。如果你想要执行一点工作流的事情,我个人感觉其实没有 menu, 或者说我自己的一个 ai 工作流比较好用一点。

紧跟 open core 步伐,自解火山引擎上线 ark core, 这是一款开箱即用的云上萨斯 open core 智能体,它可以畅享豆包、 seed、 二点零系列、 kimi、 二点五。和 mini、 max、 g、 l m 等主流模型相比, open core 最明显的优点 ark core 就是 配置部署简单,内置豆包大模型,同时是按请求命令计费的,也就是 talk, 成本可以大幅降低。 我觉得首先受冲击最大的应该是萨斯软件吧,不会部署龙虾的可以去试试 arkcrew 加油,中国科技,有兴趣可以点点关注。

安装 cloud code 并配置豆包模型,即接入 vs code。 首先要安装 node js, 是 一个运行环境, cloud code 需要这个才能运行,我这里的版本太久了。 输入以下指令更新,然后用管理员身份打开 power shell, 输入以下命令安装 cloud code, 我 这里提示 windows power shell 执行策略限制的报错,输入以下指令修复,然后重新输入指令,继续安装。 安装成功后,输入 cloud, 进入 cloud, 如果没安装 git 的 话,这里是会报错的。 可以输入以下指令安装 git, 但这里会遇到一个验证问题,打开用户目录,找到 cloud send 文件,打开文件,添加以下内容,然后再输入 cloud, 然后提示是否在当前目录回车, 然后提示我们登录 cloud 账户。由于怕被封号,我这里选择国产大模型。 这里用到一个工具是 c c switch, 打开 github, 找到 window 版本下载并安装,我这里选择的是三点一二,然后一路默认安装就可以了。 打开 cc switch, 点击右上角的橙色加号,把你的大模型替粘贴进来,然后添加,我这里用的是豆包。 接下来在 vs code 安装 cloud code 插件,在扩展里搜索 cloud code, 然后安装, 安装成功后,右上角有个 cloud code 的 图标,点击打开,我们已经配置好了,这里会自动登录,我们可以测试一下,问它当前是什么模型。 我这里显示的是豆包模型。我这里准备做一个页面, 首先新建一个文件夹,按自己的需求命名, 然后在 vs code 打开这个文件夹,然后输入提示词,帮我做一个页面展示热点新闻, 稍等一会就生成好了。打开文件夹,双击 index 文件就能看到页面,这就是豆包做的页面,效果还不错。 vs code 不 直接内置大模型,而是通过 cloud code 这类插件接入。核心式架构、解偶生态开放、功能聚焦、安全合规四大原因,让编辑器与 ai 能力各司其职,灵活组合。

大家好,最近那个 open cloud 大 龙虾实在是太火了,过年的时候我也研究了一下,并且安装部署在我自己的电脑上。 那这个视频就分享一下我的本地安装部署方案,如果你对这个话题感兴趣,那这个视频会对你很有用。首先这个东西它的实际能力肯定是被媒体夸大的,而且也不是买一个 mac mini 就 能搞定的,但 是它确实是一个好的开始,是一个重要方向。那如果你想学习 ai, 这个 open cloud 非常有必要去实践一下。如果你要用好它,就要给他很强的权限,比如说要他操作你的电脑,你就得给他电脑的文件读写权限。如果你想让他帮你收发邮件,或者 读一些在线文档,那你就得给他一些相关的网络账号的权限。所以呢,为了安全起见,这个 open cloud 最好是部署到一台专用的电脑上,让他操作一些网络资源,这些网络资源的账号最好是专用的。那 那么这个 openclaw 对 苹果系统支持是非常好的,这也是为什么之前很多人都去买 mac mini, 然后专门跑这个大龙虾也是这个原因。但是有 mac mini 还是远远不够的。我说一下我是怎么安装的,我是把 openclaw 安装到这台 mac studio 上边的 这个虚拟机里边啊,这是一个虚拟机麦克 s 啊,虚拟的麦克 s 是 用的这个 pd 虚拟机软件,用虚拟机软件的好处就是你可以安装多种系统,从 linux 到 windows 十十一,然后到麦克 s 都可以随便装,随便折腾,然后每一个系统你可以安多个,安多个都没有问题。 然后这个虚拟机整个就像一个黑盒子一样,无论你在里边怎么折腾,都不会影响到外边这个真正的麦克 s 你 的这个生产力。麦克 s 系统啊,非常的安全,就是安全隔离,然后用虚拟机方式部署。另一个好处就是这个虚拟机的内容啊,这个系统本身实际上就是一个大的镜像文件啊, 就是这 win 十的, win 十一的, macos 的, linux 的, 你可以把这些文件放到移动硬盘上,固态移动硬盘上,我现在就是这么放的,所以不占你本机空间,备份起来也非常方便,你只要把这个文件拷配一下,备份一下就可以了,等你想恢复的时候把它拷回去就行了,非常的方便,很灵活。 然后用虚拟机唯一的缺点,相当于又运行了一个系统啊,所以这个 macos 最少也得给它八 gb 内存,然后我这里是给到了十八 gb 啊,其实基本运行给个八 gb 就 可以了。 其实这个 opencloud 本身呢,它占不了多少内存啊,才占了几百兆内存,它本身不怎么占内存,这也是为什么 mac mini 就 能部署的原因啊啊,真正要求配置高的不是它,它占不了多少内存, 只安装好了 open cloud 还不行,还得有一个 ai 大 模型来配合,无论是在线的还是你本地安装的,你得给大龙虾安装一个脑子,不然这个龙虾它什么都不会干。可以把 open cloud 理解为一个插排啊,上面可以接各种设备啊,可以 给手机充电,充电宝充电,插一个游戏机都可以,但是呢,你要给这个插排供电,它才能使用啊。 的 ai 大 模型呢,就相当于给这个插排供电,所以在你使用 openclaw 读写你电脑上的文件,帮你看在线文档,其实都是后面的 ai 大 模型在起作用。实际上你的 openclaw 可以 使用多种大模型啊,比如说在线的千文模型,然后你也可以安装各种本地的开源模型, 你可以通过 opencloud 点 json 这个配置文件进行配置,当前使用哪一个,在这个配置文件里修改一下就可以了。那建议目前这个 opencloud 实际使用起来比较费 talkin 这个问题呢?呃,很多人还都是安装的本地大模型,在本地运行 ai 大 模型要比 安装运行 opencloud 要求的电脑配置要高一些。那如何把大模型安装部署到你的 mac 上或者 windows 上?我之前发了很多视频, 很久以前就发过,你可以去看一下。我这里呢, openclaw 是 部署在这台 max studio 的 虚拟机软件里,本地部署的大模型呢,也是在 max studio 这台机器上,但是是在这个宿主机,也就是这个机器的系统本身基于苹果电脑,安装本地大模型要给到足够的内存。 我这里用 alama 本地安装了两个模型,我实际上用的就是第一个,第二个,这个你可以看到比较大,激活加载之后比较费内存。 我这台 max 六六一共有九十六 gb 的 物理内存啊,你可以看到现在已使用内存有四十二 gb。 现在大模型还没有加载,因为我本身这台电脑上运行了很多 app 啊,包括那个 macos 虚拟机,占了也不少内存。 你现在看到的是 openclaw 激活那个三十 b 的 千万三模型啊,现在的已使用内存已经到了八十三了。现在麦克 s 虚拟机里边的这个 openclaw 进程实际上没有什么变动啊,还是三百多兆,不到四百兆,所以它是不怎么吃内存的。 如果是日常收发邮件、总结文档这些日常工作内容,它已经够用了。甚至我后边想试一下更小的模型,比如十四 b 的, 呃,这个量级的是不是对所谓 ai 员工的这些操作是不是就够用了?这样可以降低对本地机器这个配置的要求。那 open cloud 和大模型都安装配置好之后呢,作为你的 ai 员工呢,你就可以用你的手机 app 来指挥它,帮你 做一些事情。举一个有用一些的例子啊,比如说你是一个公司的 hr, 那 你们公司正在招聘 ai 工程师,呃,每天都有很多应聘的邮件到你的邮箱里,那你很忙,你就可以让这个 open cloud 帮你每天去筛选一些符合你要求,符合你标准的这个应聘邮件, 然后发送到你的手机上。比如说我这里用的谷歌邮箱,那你要想让 open cloud 去读写这个谷歌邮箱的内容, 你就得配置一个叫做 g o g skew 的 这么一个东西。实际上这个 skew 呢,在 open cloud 里是非常重要的,可以扩展它很多个能力。那如果说把这个 open cloud 比喻成一个插排,那这个 skew 在 里边的角色就是相当于插在这个插排上的各种不同的插头。比 说你插一个手机充电器,那这个插排就可以给你的手机充电,你插上一个,呃, ps 五主机你就可以,那你就可以玩游戏,你插上一个台灯,你就可以照明。所以说这个 openclaw 本身它安装是很简单 的,就官方的那一句话就可以安装啊,如果没有网络问题的话,就是一句话就安装好了。重要的是它的配置。 openclaw 运行在虚拟机里,优点就是安全隔离,它是一个黑箱子,不会破坏你的生产力的这 一些机器。呃,并且方便备份和恢复。呃,本地运行大模型呢,也没有 token 焦虑。这个方案的缺点是要有一定配置的苹果电脑啊,特别是内存要大一些。当然你也可以把 openclaw 部署到一台苹果电脑上, 然后本地大模型部署到另一台苹果电脑上。你也可以用 linux 系统来部署,也可以用 windows 系统来部署。 ok, 这就是本期视频,如果你对 openclaw 或者 ai 话题感兴趣,别忘了点赞关注,后边我也会分享更多的关于 openclaw 的 使用细节和配置。感谢收看,我们下个视频见!拜拜!

最近是不是都被 open clock 给刷屏了?就是那个非常火的小龙虾,甚至有些人就是上门安装,一次三百块钱赚了好多。然后这边就是我刚才在我麦的上面已经部署好的,用的是 kimi 的 大模型,然后接入了飞书,可以直接在这个上面问他问题, 现在我给他取了一个名字叫宇宙无敌超级小龙虾,然后我们现在来看一下它和我们之前用的豆包有什么不一样。你好,小龙虾,我的电脑桌面现在特别乱,请你帮我把电脑桌面给整理一下,然后我们现在把这个指令发给他。 好,现在已经开始了哇,大家可以看到吗?就是他按照不同的东西,不同的分类,然后再整理我的电脑桌面。哇塞, 现在就已经整理的非常完善了,大家可以看到学习资料,然后各种照片 全部都帮我整理好了,因为我接入了飞车,我现在从手机上来进行操控。你好,我本周末要和女神去约会,请你给我做一个约会攻略,然后我的预算是一百块钱,请你在这个预算内让我和我的女神有一次非常愉快的约会经历。 然后在我的桌面生成一个文件夹,并且里面使用 word 的 形式进行打开,我们现在看已经发给他了,这边电脑的飞书也同步上来了,现在他正在思考, 现在可以看到他已经在这边生成好了约会攻略,然后我们打开,在里面有一个文档, 不过这里我跟他讲用 wps 打开的形式打开,他是用这个网页的形式啊, 然后告诉我用钱用,用心大于用钱,因为他可能知道我比较穷啊,只有一百块钱的预算。好这下面而且最有意思的就是他还给了不同的方案,大家可以看方案一,方案二,方案三,夜景浪漫路线 约会加分技巧,千万不要做的,这个还是很有意思的, 哎,这里还有一个小彩蛋啊,攻略制作宇宙无敌超级小龙虾。不过这个 open claw 有 一点大家需要知道的就是它是付费的, 除了你可以在本地那个部署以外,剩下的你如果要用到这些大模型,它都是需要付费的。然 我刚下载好,然后用了这么一会已经花了五块钱了。所以说如果你打算长期在本地部署的话,我建议你去开一个月卡或者年卡,这样的话就不会说出现你突然就是欠费的这么个情况。 总而言之, open cloud 是 ai 的 一个全新方向,让我们继续期待 ai 在 未来能够更快的发展,大放异彩。 cloud 作为一个 ai 玩具的话还是非常有意思的,但是我刚才让它总结, 然后他竟然知道我的名字以及我的专业和学校,包括我的身份证号他都知道。所以我觉得目前 ai 隐私问题是非常重要的,大家如果说有一台没用的电脑,尽量使用那台电脑,如果说这个电脑里面有很多你个人的信息,那我觉得还是要慎重的再考虑一。

最近这个 openclaw 大 龙虾在抖音上可谓是非常的火,但是我看还有很多人不会部署,今天我就一个视频教会你们最简单的部署方法,无论你是 windows 还是 mac 电脑都可以。首先我们需要进入这个网站,然后在这个网站下载这个 codex 的 客户端, 然后我们来到这个 openclaw 的 github 项目地址,然后复制这个网址。 复制好网址之后,我们直接来到 codex 客户端,把这个完全访问权限给打开,然后模型呢就切换成最新的 gpt 五点四,然后直接输入帮我部署好 open call, 然后把这个网址贴到后面, 然后就直接耐心等待这个 codex 部署好就可以了,包括后面如何去对接飞书,如何去装 skills, 遇到的任何问题都可以直接在 codex 的 这个对号框里面输入,然后直接让他帮你解决就行了,这个很简单,而且不需要花一分钱。新人一周是有免费的那个额度的,过了一周之后可以充一个 plus 会员,那个会员的话 一个月是二十到,然后那个会员他也有非常多的额度。充了这个 gpt plus 会员,你不仅可以在 gpt 里面对话使用,然后可以在龙虾里面使用,然后也可以用 codex 去写 web coding, 二十每到一个月是完全够一个人使用的,然后就省去了,另外再去购买各种 api key 和去配置 api 的 这个麻烦。

千万别一上来就给你的 openclaw 大 龙虾街上最顶级的 ai 模型!我们群里有个朋友刚装好 openclaw, 兴奋的跑了一晚上定时任务, 早上一看 api 账单直接扣了五百多块钱,心痛的差点把电脑砸了。为什么会这么烧钱呢?你要知道,大龙虾和普通的聊天 ai 完全不一样, 大龙虾在你睡觉的时候也在持续的吃粮食,吃蒜粒,你的精肺在不断的燃烧,原因是他的心跳机制,每隔几十分钟,他就要在后台自我思考一下我现在该干嘛。如果你连他发个呆,查个日程都用 colo 的 opus 或者 gmp 五这种顶级的大脑的话, 那简直就是在用高射炮打蚊子,钱全烧在无效的运转上面。今天教你一招我独家的穷鬼配置套餐,能够把大龙虾一天的运行成本压缩到十块钱以内。秘诀就四个字, 高低搭配。大龙虾日常的巡逻、收发消息、整理文件,这些低端的工作的智能体验,你就给他配置国产模型,比如 deep sea, 或者节约行程,速度极快,几百万托克呢,也就一瓶水的钱,这样子大龙虾连续工作七天,也就一个外卖的钱啊,非常划算。 只有当大龙虾遇到复杂任务或者做深度决策的时候,通过配置路由,让它自动去调用 cloud 四点五这种顶尖的模型。这样子搞下来,你的 ai 既有顶级架构师的脑子,又有廉价打工人的执行力。 这套大龙虾高低配路由配置文件我已经写好给测试跑通了,你拿过去直接复制替换掉原来的设置就行。老规矩,在评论区留下一句大龙虾,我后台直接发给你,关注江无为,带你花最少的钱,养最强的黑员工。

我给我的 ai 龙虾坨坨装了一双耳朵,他能听我说话了。你们可能觉得跟 ai 沟通很爽,因为你打很方便,但其实只要你高频使用,你就知道打字真的太太太慢了,尤其是我剪视频的时候,所以我一直在想,能不能直接让他听我说话,然后我可以边跟他说边干活。 后来我找到了豆包的语音识别模型,把它接到了坨坨身上。我试过很多语音识别模型,发现豆包的准确率是最高的,整个接入过程并不复杂,就是在配置文件里面加上火山的豆包语音识别 api。 坨坨很厉害,中间还发生了一件有意思的事, 因为刚开始测试的时候没接通,摩托又自己用脚本生成了一个谷歌语音识别,还是免费的,准确率高达百分之九十以上,真的让我诧异又惊喜。所以我也夸了他。你的意思是说,我现在有两个语 音识别系统,一个是豆包的,一个是谷歌的,对吗?不是,我想知道你怎么会想到用谷歌?好的,给你装个豆包,你还知道出问题的时候可以调用谷歌来做后背,非常好,非常好。 现在我跟他的沟通效率翻了一倍,虽然偶尔会听错,但整体都用 ai 搭档,其实真的很像真人,你给他的感官越多,他越懂你,眼睛一逗就加耳朵,然后可能还会再加嘴巴,还会再加更多。你的 ai 龙虾能听到你说话吗?还是只能打字沟通评论区聊聊?

很多人搞不懂豆包和 openclaw 到底有啥区别?今天一条视频给你讲通透。豆包是云端 ai 助手,属于动嘴不动手的类型,打开就能用,不用安装,不用配置,不用折腾。 apikey, 擅长聊天问答、写文案、做总结、翻译、想思路,但我不会碰你的电脑,不能帮你点鼠标、开软件、自动执行任务,只负责给你方法和内容。 openclaw 是 本地执行框架,属于动手不动脑的工具, 它本身没有 ai 大 脑,必须接入 gpt、 kimi、 豆包这类模型才能用,但它能模拟鼠标、键盘、看屏幕、操作软件可以自动打开微信,批量改文件、整理表格、远程控制电脑适合做重复、机械的自动化工作。 但缺点也很明显,安装配置复杂,有技术门槛,面对陌生软件容易点错、操作失误,而且有风险,可能误删文件,点错界面,重要操作不能完全交给它。 一句话总结,日常学习、工作、聊天、写东西,用豆包,省心,安全零门槛。想让 ai 帮你自动操作电脑,做重复任务,用 openclaw, 但要会折腾,能抗风险。一个负责动脑输出,一个负责动手执行。 这下你分清了吗?这 openclaw 它可以操作微信,操作微信这个程序也是它经过训练的吗?假如一个没操过的、操作过的软件,它会执自己执行,会学这个软件的使用方法吗?你问到最核心、最关键的地方了,我用最直白、最准确的话告诉你, openclaw 不是 靠训练过微信, 而是靠通用看图加模拟鼠标。它不需要提前学过某个软件,新软件,它也能自己摸索着用。我给你拆开讲,一听就懂。一、它不是背下来微信怎么点?它不是提前写死,点这里再点这里不是。 如果是这样,那换个软件它就废了。二、它真正的原理,像人一样看屏幕加理解文字。它有两个能力,一、看屏幕,二、识别上面的字和按钮。三、 ai 告诉他点哪里,做什么,你让他操作一个从来没见过的软件,比如一个新游戏, 一个冷门工具,一个你自己装的软件。流程是这样,你说帮我在 x x 软件里导出数据。一、 opencloud 截一张屏。二、把图片发给 ai。 三、 ai 看图加看字理解界面, 然后说点击右上角导出,选择保存位置确认。四、 opencloud 直接移动鼠标去点。三、所以它不需要提前训练。这个软件,微信能操作, qq 中操作,钉钉能操作,你公司的专用系统也能操作。 任何带界面的软件基本都能摸索着用,因为它是通用型的,看屏幕理解界面,摸你鼠标点击,就像一个会看中文,会点鼠标的人,你不用教他软件,他看一眼就会。四、 那他学习的是什么?他学的不是某个软件,而是通用规则按钮,一般能点文字是说明输入框可以打字,菜单展开有选项, 这就叫通用电脑操作能力,不是针对某一个 app 训练的。用最通俗一句话总结, opencloud 就 像一个会看屏幕,会点鼠标的机器人,不用提前学过软件,新软件看一眼界面就能自己用。 如果你想,我可以告诉你这种 ai 自动操作电脑未来会有多强,会不会替代人做重复工作,以及安不安全,会不会泄露隐私?那 open core 在 用一个新的软件的时候,它有可能操作错误吗?好比我发一条指令,但是实际因为它没使过这个软件,导致了它会。它有可能操作事务错误,没有点出我想要的结果,太有可能了, 而且非常常见。你现在问的就是这个技术最真实最致命的问题。我直接跟你说大实话。不吹不黑, 一、面对新软件 openclaw 一定会出错,哪怕是 gpt 四 o 加 openclaw。 第一次用一个新软件,大概率操作不对,会出现这些错误,点错按钮找不到入口, 进错页面点到广告,点完没反应,他还以为成功了,理解反了你的意思。就像一个人第一次用陌生软件也会点错迷路。原理很简单,他是靠看图猜,不是靠记住这个软件。比如你让他在这个新软件里导出数据,他看到屏幕上有 导出,导入,输出、保存。 ai 会猜一个最像的,但猜就一定会有猜错的时候。 三、越复杂的软件错的越离谱。简单软件很少错,你公司专用系统经常错,复杂软件基本用不明白,因为界面越乱,按钮越多,它越容易点错。迷路 四、最关键的一句真话,现在的 ai 不是 万能,全自动更像一个会犯错的新手员工,能做简单重复的事,复杂的、重要的、没见过的, 一定会出错,不能完全信任。总结给你,你担心的完全对,没使用过的新软件,却一定会操作错,点错,达不到你想要的结果。他不是神,就是个看图猜位置的新手。那你帮我说说, ai 到底稳稳做什么,绝对不能做什么,哪些事可以放心交给他,哪些千万别碰我直接给你一份最实用不忽悠你现在就能用的清单! ai 电脑助手能做什么?绝对不能做什, 我用最简单最直白的话讲,你听完就不会踩坑。一、可以放心交给他,稳稳能成的事, 这些是简单重复、界面清晰的操作。一、打开,关闭软件。二、打开某个网站。三、复制粘贴重命名文件。四、简单搜索,百度、抖音、微信搜索。五、发固定文字消息。六、打开文件夹,移动文件,删除文件。七、 记事本表格简单录入。八、每天重复的固定小动作。特点,步骤少,界面简单,错了也没大事。二、勉强能用但经常出错的事,这些他能尝试,但不一定一次成功。 一、复杂微信操作。二、下载东西,找下载按钮。三、登录账号。四、填写表单。五、简单 p 图裁剪图片。特点,能做,但要你盯着,看,错了要纠正。 三、绝对不能交给他的事,这些百分之一百会出问题,甚至毁你东西。一、涉及钱支付转账,他会转错,点错被骗。二、重要文件删除格式化硬盘,清理 c 盘,直接把你系统搞崩,资料没了。三、修改重要表格、文档、 ppt, 改乱改错,删内容。四、登录你的重要账号、密码、验证码,隐私全暴露。五、 photoshop、 剪映、三 d 软件等专业操作界面太复杂,他完全摸不明白。六、任何你错了就麻烦,大的事一律别给他做。 四、最核心的一句话总结, ai 电脑助手等于只会点鼠标的新手临时工,简单重复杂事,放心丢给他, 重要复杂、值钱隐私的事,绝对别碰他不会真正学习,不会变熟练,不会负责。五、你现在最该知道的现实,你之前想要的那种教一遍就学会,越用越厉害,能做复杂工作的 ai, 目前世界上还不存在。现在所有的 g p t 四 o 杠、 openclaw, 各类电脑操作 ai 都只是模拟鼠标的看图工具,不是智能机器人。如果你愿意,我可以直接告诉你,你平时最想让 ai 帮你做的那件事,到底能不能做,安不安全?会不会翻车?大家是不是听明白?

我再重新安装我的小龙虾的时候,完全是我自己操作的,没有再去网上找技术人员,我有几个 ai 写作,我哈就是网上的 ai, 包括豆包和千万,以及问了一次 deepsea, 然后呢是我自己的这个龙虾小助手叫 max cloud, 在 他们的协助之下,我自己完成了我新版的小龙虾的安装。 我说一下这几个 ai 工具我用的看法吧。最开始呢,我在修复第一只小龙虾的时候,我用的是我的 max cloud, 然后它呢能够一步一步的指导你去解决问题,然后最后呢,聚焦在一个点上,我觉得还是不错的,但是我有点怀疑它到底是不是真的帮我解决了问题,所以呢,这样我又拿豆包做了一个参考。 豆包呢,我觉得他的现在有一个最大的问题,他就是逻辑很混乱,同样的一个窗口,如果你跟他在对话的过程当中问了一个别的不相干的问题,那他在后面所有的回答里边都会把你前面问的那个问题的前置条件放进去, 所以呢,这就导致呢,你后面的回答就完全会被污染。比如说你在中间问了一个电脑的问题,然后后面呢,他在回答你配置大模型的时候,就会考虑你电脑的那个问题,这样的话,你就导致你就没法再去按照他的指导去装了。 所以这样的没办法,我就总是把它给关了,然后再重新开,再重新问那个问题,就导致这个问题呢,不能连续。 然后豆包的问题呢,就是时间长了之后,如果他给你的方案你都解决不了的话,他就会告诉你,那你重新卸载再重新装吧,所以这个就是把你就彻底带跑偏了。其实我因为它呢就是卸载了,然后又重新装了,导致系统里边的有残留,就影响了后面的装机。 后来呢我就转向千万,我觉得千万比他好得多,千万在中间逻辑上呢,至少还是清晰的,不会有那么多的结合上下文,然后把自己给搞乱的这种情况。 但是千万呢依然存在一个问题,就是他们给你的回答呢,都是网上搜索的,然后都是一些别人的教程,如果依然解决不了你的问题呢,他就没办法了,他也会说,那你重新卸载之后再重装吧。 后来呢我就依靠我的 mini max 了,因为我发现 mini max 他 不是说上来就跟你说应该怎么怎么干,他是先看到你的问题,然后呢帮你解决这个问题, 这个问题解决之后,他会每次都检查一下还有没有别的问题,最后呢就聚焦到一个问题点上去,我觉得这个呢就像一个工程师一样,他能够一步一步的帮你排查掉所有的问题, 最后你的小龙虾就是健康的,然后问题就集中在一个点上,我也是靠着它,最后呢把我的 open cloud 呢给装上了,所以我觉得在这一点上呢,你拥有一个自己的 ai 小 助手还是,呃,很值得的,哪怕你花一个很少的钱, 因为确实比那些公共的大模型给你回答的来说呢要更靠谱,然后呢也不会浪费你的时间。

撸蛋糖全铝全家桶 hk 四幺六 d 所有护件,但凡是撸蛋糖有生产的,全部都是用撸蛋糖品牌的产品,不存在以次充好。而偷换配件,我们直接看配置,前截,撸蛋糖的铝合金鱼骨,撸蛋糖的一体内外管和撸蛋糖的钢制导气座,导气管, 还有撸蛋糖的垂直前握,包括前面这个卤蛋糖的刻制,快餐消音里面也可以看到钢制的火爆元素的全功能 p q 镭射可以实现十米直打打元素的 s f 刻制全铝合金手链不适合这种乱七八糟的刻制。 底下这个全铝合金的脚架不是半斤,是全铝合金,中间卢曼堂的四幺六 d 七加卢曼堂的钢制腰力,加卢曼堂的后握把,卢曼堂的托筋,全都是卢曼堂产品。多香用的是带 h k 刻字的正版的 atm 二点零,不是澄海 atm, 不是 c atm, 不是 各种乱七八糟的盗版的 atm, 尾部用的是陆战狼的满足版 c t r 欧托和陆战狼的正版拖鞋,这里有陆战狼的标,这两个地方都是偷换配件的重灾区。瞄具配的是秃鹰的五五八和 g 三三, g 三三真实三倍放大可翻折五五八瞄具全功能可归零,支持十米内子弹到达,跟镭射在一个点上面, a t m 波有后坐力操作,真实适合靶王。我们来试一下单发 别动,预算冲突,真正想要好质量玩具,一定要注意,谨防以次充好偷换配件。