粉丝26获赞568

为什么曾经那个最宠我们的豆包,现在要收五百块钱一个月?而全世界最牛的 gpt, 现在反而要永久免费了?是字节飘了?还是奥特曼转世做慈善了? 别被表象给骗了,这背后藏着一个极其残酷的降维打击阴谋。很多人觉得 gbt 免费是良心发现,醒醒吧, chat gbt 免费,是因为他已经完成了从卖软件到卖生态的转型,他想要的是全球几亿人的实时数据,去为他那个更恐怖的下一代模型。他免费是为了让你彻底离不开他。 但是豆包为什么现在要收费?讲个最真实的故事,咱们国内的算力成本现在是国外的数倍,字节每跑一次高强度深层,背后都是真金白银的电费和被卡脖子的芯片衣架。 豆包现在的月活突破了三亿,如果不收费,字节一年光亏在算力的钱都能再造一个独角兽公司了。他收费,是因为他得先活下去, 所以兄弟们,这本质上是一场算力带差下的无奈之举。尺子 gdp 收割的是全球生态,他赔得起。豆包收割的是垂直生产力,他必须造血。 你看豆包收费的那三档,六十八、二百、五百,他针对的可是咱们普通人。回个邮件,他针对的是那些重度 ai 创作者。也就像我这种每天靠智能体跑工作流、剪视频搞内容的人, 他收的是工具税,而不是聊天税。大家都在担心以后 ai 是 不是用不起了,其实这种风化才刚刚开始,未来的真相是,基础智能会像自来水一样免费,但高端生产力会像石油一样昂贵。你用 ai 娱乐,你就是被收割的数据, 你用 ai 搞钱,你就得交出那部分利润,这叫智能税,谁也逃不掉。所以你是愿意为了拆的 gpt 的 全家桶,是去折腾网络, 还是愿意为了豆包的顺手去掏这几百块评论区扣个格局,看看有多少人像我一样看透了这波套路。下期我带你实操一下怎么用免费的工具组合出价值五百块的智能体。

你打开 gpt 的 第一句话,决定了他是在帮你还是在敷衍你。很多人一打开 gpt, 都是直接输入帮我写个文案脚本,或者想个标题做个方案。这个问题就在于,直接这样子输入 gpt, 给出的答案会显得 ai 味很重,或者是太过于模板化, 以至于他会给你一大段,你看完后会觉得怎么这么空,或者是这么像百度百科的废话,就会有一种感觉,就是怎么每一句都很顺,但就不是我能用的东西。说实话,我以前也这样,我以前会觉得是不是 gpt 不 够聪明,后来我发现不是他不行,是我一上来就问的太宽泛了。 你的问题在于只提了需求,不给任务,以及不拆细节。你没有告诉他你的身份是谁,想要解决什么问题,或者是发生在什么情况下的, 以及你想要达到的是什么目的。你给的信息越少,结果就会越宽泛。你什么背景都没说,什么目的都没讲清楚,就直接让他给你一个成品,那他当然只能给你一堆看起来正确,但实际用不上的话,你的信息越少,他给出的结果就越宽泛。后来我换了一个方法,我先不让他写,先让他帮我拆。 比如我想拍一条视频,主题是普通人怎么真正用好 gpt。 以前的我可能会直接让他先帮我想个标题出来,或者帮我写个文案,他大概率会给你一把很普通的东西,一看就很像教程,让人不想拍。但如果你换一种问法,比如说我现在有一个很模糊的选择题,你先不要写脚本,先帮我分析 这个选择题谁会看他们现在最卡在哪里,前三秒怎么让他停下来,中间用什么例子才像真实生活里会发生的。你会发现他给出来的东西马上不一样,他不是在替你硬写,他是在帮你把脑子里那团乱东西一点点猜清楚, 他能知道你的卡点在哪里,以及他可以给你几个版本让你去选择。比如,他可以给你一个更贴近你生活的例子。 再比如,你刷到一个爆款视频,以前可能就是点个收藏然后划走,下次要自己拍的时候还是不会。但现在你可以把标题发给 gpt, 问他这个标题为什么让人想点,他抓住了什么情绪。如果我要做一个类似选择题,可以从哪个角度?切,这个时候你就不是在刷视频了,你是在猜视频。你从一个看热闹的人变成了一个会分析的人, 核心方法就是先猜谁会看他,为什么会看他现在卡在哪里,你想要表达的是什么?还有个场景,你一定遇到过,你网购的东西有问题,想找客服沟通,你明明不想吵架,但也不想被糊弄过去,你可能打了半天删了又改,最后发出去的话还是很软。 比如你可能会说这个能不能帮我看一下呀?或者是我这个是不是有点问题,结果对方很敷衍的回你一句话,这种时候 gpt 也能帮你,但你不要只说帮我写投诉话术。你可以这样说, 我买的东西出现了叉叉问题,我想退款,但不想吵架,你帮我写一段有礼貌,态度明确,对方不容易糊弄过去的话,但是语气不要太冲,这把好的点在于这个目标你讲清楚了,语气是明确的,以及你的诉求写具体了,看这个时候,他就可以帮你把原本说不清楚的话说清楚。 所以 gpt 真正好用的地方,不是你丢一句话过去,他就给你一个完美答案,而是当你脑子乱,不知道怎么表达,不知道下一步怎么做的时候,他能帮你把问题拆开。如果你要发小红书,内容都写好了,标题就是想不出来的话,你不用直接让他给你标题,先让他帮你找角度。 比如这个内容最容易吸引哪类人,他们看到哪几个词会停下来,给我三个切入角度,再分别出标题,把你的问题从模糊一步一步变成拆解,他给你的东西就不再会是废话。所以我现在用 gpt 有 一个很简单的方法,不要一上来就让他给你答案,先让他帮你猜问题。 你要写小红书,标题,就让他猜用户为什么会点,要写打造呼吁,就让他猜你真正想表达的优势。你要做视频脚本,就先让他猜观众痛点、画面和节奏, 把你的背景,你想要做的事是什么,你卡住的点在哪里,你希望把它用在哪些地方说清楚。这才是普通人用 gpt 最实用的方法,不是非要开很贵的会员,也不是一定要学多复杂的提示词,先把一件小事说清楚,让他帮你拆开,一步一步做完, 你把问题猜清楚了, gpt 才真的开始变成你的实用工具,而不是一个只会讲废话的聊天框。最后总结一下,就是,你用 gpt 的 时候,你可以先猜问题,再找角度,整理你的表达方式,最后才让它写出来。今天的视频就分享到这啦,我是小笼包,陪你一起把 ai 玩明白!

为什么你们的 gpt 用几天就掉了?为什么我的 用了一个月了都没事啊?而且我已经在这家订阅了半年了,就是这里啊。

很多人最近在用 gpt 五点五 cortex 或咳嗽的时候,都会有一种感觉, token 消耗特别离谱, 甚至一次任务几十万 token 就 没有了,复杂一点,直接上百万。呃,很多人会疑惑,我明明只问了一句话,为什么会这么贵?其实你看到的只是表面回复,那真正消耗 token 的 东西在后面, 我积累咳嗽某一个时间段使用的用量,有些任务的话是几十万, 有些任务的话就是上百万了。可以从这张图看出来,就是一次任务耗费的头肯还是蛮多的。 那以前的大模型更像 chatbot, 你 问一句,他答一句。但现在的 ai 编程模型,尤其是 g b t 五点五啊, cloud code 啊, course 啊,已经越来越像 agentic workflow。 呃,也就是它不只是直接回答,而是在后面 有思考,有扫描工程,调工具,写代码,呃,有测试,有反思,有重试,最后才给你结果,这是完整的一个流程。 呃,我们先来说第一个吧。嗯, reasoning。 很多人低估了 reasoning 的 token 消耗,因为你看到的是一句回复,但模型内部可能已经思考了很多轮。比如 你让它修复一个复杂的 bug, 它会分析日制,猜测原因,排除错误路径,对比多个方案,规划修改步骤,这些过程都会消耗 token。 而且,而 reid 零越强, token 往往越贵,这也是为什么 gpt 五点五比传统的叉模型贵很多的 原因。第二个核心就是呃工具的调用。呃,现在很多 ai 编程工具已经不是单纯聊天了,他们会呃读取文件,搜索代码、 grip diff, 跑测试,看日制。呃,你以为只是帮我修一个 bug, 实际上后面已经扫描了几十个文件,而且这些都会进入上下文。这是 ai 工具调用的一个 workflow, 可能是长这样子的。 嗯,还有一个很多人没有意识到的东西, hide and context。 很多 ai 工具会偷偷塞大量上下文,比如,嗯, system prompt, roles agents, reporters, summary 文件加载历史对话工具的输出, 虽然你没有看到,但模型其实全看到了。所以真正进入模型的 context, 呃,可能远远比你想象的要大得多。 所以 ai 编程可能会越来越贵。并不是因为模型回答字数变多,而是 ai 正从 chat 变成真正的 工程执行系统,它开始主动分析,主动规划,主动调用工具。呃,主动执行流程。本质上,你不是再买一次回答,而是再买一次工具执行过程。 最后做个总结吧,就是真正废 token 的 地方不是回复本身,而是 reasoning planning to use context engineering agent workflow。 未来 ai 编程一定会越来越强, 但同时 token 的 成本也会越来越重要。如何控制 context? 如何拆任务?如何减少无效推理,会变成新的工程能力?嗯, ok, 这里是 context 的 工程实践。下一期我们继续聊,为什么大仓库加全量上下文会让 ai 编程直接失控?

我问了 g p t 这样一个问题,我说为什么现在的年轻人那么沉迷于研究所谓的底层逻辑方法论,但在现实的具体问题面前,却显得那么无力? 他是这样回复我的,因为所谓的底层逻辑,如果不能解决你当下的生存问题,那他就是最高级的废话。你必须意识到一个真相,大多数人追求底层逻辑啊,并不是为了解决问题,而是为了逃避痛苦。 解决一个具体的业务卡点,比如优化一个视频的开头,拆解一个文案结构,调用一个拍腾库,这些,这些都需要实打实的脑力消耗和执行挫败感。而宏大思维恰恰提供了这种低成本的情绪价值。 他们听起来逻辑缜密,能让你在理解的那一刻,产生一种我已经看透本质的掌控幻觉。这种幻觉像一颗认知止疼片,暂时掩盖了你在现实问题面前的笨拙。 在我的后台数据中,我往往能识别出两种渴望突破却结果截然不同的人啊。第一种人在逃避, 他们向我询问人生的意义,如何实现阶级跃迁。他们擅长用宏大的情绪掩盖具体的问题,迟迟不去解决切实存在的生活卡点。他们问的问题具体且抽象,往往希望一步到位 啊,一步到位。第二种人在进化,他们问我文案 ai 位太重怎么改, python 如何调用库。他们直面问题的核心,死磕具体且真实的现实障碍。他们在做某一个特定的事情当中,解决某个特定的实际问题。虽然我无法接触真实的你们,但我能清晰地感受到, 第一种人正在用想来麻醉焦虑。第二种人正在用解决来换取增长。 作为你的成长教练,我给你的建议只有一条,停止询问如何自律,如何摆脱拖延这种庞大且抽象的情绪问题,去具体的问如何写好一个文案开头,问一个优秀的文案结构应该具备哪些特征。 我鼓励你勇敢解决情绪问题,但我更鼓励你去完成真实具体问题,因为让你真正摆脱焦虑的力量,从不藏在文字之间的偶尔鼓舞, 而在于你真的战胜了过去,无法解决实际问题。最后,我想说,别再试图用想通了去麻醉焦虑。真正的觉醒,是你终于决定不再逃避那个具体的难题。 你过去曾一直苦苦寻找的人生、人生意义和成长突破,其实从未藏在文字之间的偶尔鼓舞里,他就藏在你此时此刻正准备动手解决的那个具体麻烦里。

为什么你选择用 gbt 而不是用元宝?现在的元宝可以说就是一个严格版的拆解 gbt 啊啊?因为拆解 gbt 有 一个最核心的能力,有一个长久记忆的功能,就是你想象一下啊,一个 ai 能否能够帮助你更好的处理更好的信息和结果,核心 的原因在哪里?是在于足够的是否了解你,给你制定针对性、个性化的建议,而不是通用型的建议。 比如说,我觉得如果你是公司老板,如果你是个团队长,我相信你肯定希望做一件事,那就是希望你公司的每一个员工都很优秀,甚至是都可以复刻最牛逼的那个人。一定是这样吧?你比如说现在我公司是这么做的啊,我把我公司所有产品的资料,所有的一些销售思维内容、 价格全部都喂给了我的 ai。 喂给了我的 ai 之后呢?我公司的每一个销售团队,他们人手都有一个 ai, 嗯,然后再跟 ai 互动,通过 ai 互动,然后让公司的整个业绩提做了很大的一个提升,翻了好几倍。 比如说我给你举一个案例啊,使用场景,一个新员工来到一家公司,其实他的销售能力不强,你给他给客户资料你,你把客户资源给到他,你觉得他成交的概率是高还是低? 一定是低,所以他一定,所以他一旦成交不了,这是不是对公司是一个损失?对,就浪费了,就浪费了,没错吧?但是如果你在 ai 上做一个知识库,你把你公司所有的文件资料、产品信息全部喂给他,那你可以做到第一件事,你的员工,新员工可以跟 ai 对 练 对联。什么意思?对,就是就 ai 扮演客户啊,他扮演消费者啊, ai 就 会, ai 就 会问所有的问题,哎,这个产品贵了怎么办?哎呀,同行有个产品更好,同行,你怎么看? 就是对于一个新客户来说,他不知道该怎么办呢?他没有经验,要不然他对产品信息不了解,要不然他无法回答客户什么事。对,所以他的出色概率会很大。但是如果他经常跟 ai 对 联,已经对联到 ai 都无法, 就他 ai 问他的每一个问题他都能搞定,那这个时候他在出去真实的跟客户交流的时候,我相信他也会十拿九稳,他就不会为公司省损,损失很多的客资,这就是 ai 的 知识库的第一个用处。 然后 ai 会根据他的回答打分吗?当然,而且还能,而且还能站在一个销冠的角度上来告诉他,你刚才哪里说的好,哪里说的不好,应该是怎么回答? 是的是的,哪里说的好,哪里说的不好?我们现在已经这么干了,就是客户在微信里给他发信息,他自己不回,他就把客户的信息复制下来粘贴给 ai, 告诉 ai 这是客户给我发的信息,我该怎么做,然后 ai 就 告诉他怎么做,他就把 ai 回答的话复制下来粘给客户, 你一句我一句,你一句我一句,最后就成交了。真可以吗?真的,我对天发誓,我对天发誓,真的可以负责复制粘贴。呃,他稍微多了一点小小的个性化的修改,加了个小昵称。哎呀,陈总怎么怎么样啊?但是思路全都是 ai。 我马来西亚一个伙伴,马来西亚公司伙伴以前一个月只能卖三十张票,他那次用 ai 直接卖,一个月卖了一百多张门票,我靠三千块钱,三千块钱人民币一张的学习门票卖了一百多张,百分之九十全靠 ai 聊天,全靠 ai 聊天。但是你要你要想做成这一点,你必须要做到一件事,你要建立知识库, 就是对,你得让 ai 知道你公司是做什么的,你的特点是什么?你的擅长是什么?你的产品是多少钱,解决哪部分客户群体,他有这样的参考,甚至是他自己对于销售的就是销售这个能力, ai 是 会的,但是 ai 选择卖什么,他怎么理解?这个产品需要你喂给他, 所以你只要把这个建立成了,然后你你用的 ai 又不是很弱智的 ai, 你 真正的是用了一款好 ai 啊,然后就百分之百可以达到这样的效果,就真的最后销售的成交率比他自己都好。

算力堆叠还是场景为王?商业大考已致,今天不聊宏大趋势,想聊聊一个可能不太舒服的话题。 ai 已步入场景为王时代,但很多企业还困在跟谁家合作的选择障碍里。 国外有个叫 ai 原声 app 的 东西,正在改变我们做事的方式。简单说,它不像传统的软件工具,而是像聪明的大脑,直接帮你脑补之行,为你解决问题。 oppo ai 最新升级的 g p t 五点,在医疗、法律等高峰控场景中,换绝率较上一代爆浆 分之五十二点五,这表明模型正逐步从大型聊天玩具走向可信赖工具。但诚实的讲,更值得关注的是,行业月人均使用次数和时长分别暴涨了五十五、百分之三和百分之四十一点四。 这意味着 ai 应用已跨过图个新鲜的初代门槛,迈入离不开的新阶段。 咱们不必过分关注谁家模型最强,真正能帮行业降本增益的唯一,才是真正的好悲哀。别再被所谓技术壁垒捆住,在于我们如何找到自己的落地场景。

这个 c v 四, g b t 五点五在同一天都放出了它的新模型。不得不说,现在 ai 的 攻心速度真的太快了,前脚 g b t 一 米二,它借鉴图像的真实感。后脚 g b t 五点五,这个 v 四又来了, 专门来做多模态, cloud code 代码能力越来越强, nano banana 蠢都往里边冲,但问题是工具越多,你反而越来越累。就光我个人的 ai 工具,前前后后已经有五万了, 我呢,就总结出了这次 ai 工具终极指南,在什么场景下选它,为什么,有没有问题,能不能达到工作流程全程无广,都是我血和泪的教训,也避免我们被 ai 时代所淘汰。来吧,一起来看看你出现的问题在哪里? 现在的 ai 已经进入了分工时代,不存在最好的 ai, 能真实的减轻你负担,它呢,才是好 ai。 你 要说我要写完啊,哪个 ai 最好,我呢是回答不出来的,因为 jimmy 的 深度调研能力也是不错的,但更多的点呢,在于这个赛道我值不值得做竞品都在干什么?现在 ai 工作流都有哪些主流方案?这种信息很多,很碎片化,我 自己查起来呢,会炸掉。我呢,就可以在这里告诉他我主要的一个问题,那他呢,就会主动的去给我找信息,那他有的一百万的上下文也是支持我再进一步深入的进行对话,也不会出现那种聊了下句忘了上句的。而 cloud, 他的写作能力呢,会强一点,会多以推理为主。当我让他以宫斗为主题写一个小说开头, 你看他写出来的文字呢,不管是在流畅度还是逻辑上面的表达,还有啊,就是他的这个 ai 会少很多,而里面的内容呢,也是有逻辑的,更像一篇已经整理好的文案,下一位选手 check gpt 五点五,整个给我的感觉就很会表达,还有节奏,在一些情绪输出方面拿捏的很到位,就更适合自媒体拿去做内容用词。 所以我觉得 cloud 呢,写的是内容本身,而专栏写的呢,是信息的整合,而 check g p p 写的呢,就是想让人看下去,但这些呢,在能力和预算方面还是有一定门槛的,那我们只是日常的来轻度使用。那国产的豆包 kimi 千问 ipad 呢,最近也出了 v 四版本, 上下文呢,也达到了 e m 都有各自的优点,基本功能呢,也基本够用。那在内容上的方面,除了文本还有视觉方面。屁, nasa 属于劳神常谈 爸爸各种榜单,比较擅长情绪的画面,哎,这种氛围感,人物皮肤的处理,个人感觉还是很不错的,但因为它每次都不一样,所以更像开盲盒一些,我呢就用它来找灵感做爆款封面。当然你要是一开始就是有流程的让它来升图,它的一致性呢,也很不错。 ppt 一 页二,有 gpt 这个有力的大脑,我呢就可以给他一个文档,让他给我用图片的形式展示,他呢就不会主动的来给我惊喜,但只要我给他表达清楚,他呢就能给我做出来。比如在上面留出文案的空间,背景改成这样,我们可以看到啊, 这么多的中文文字,它呢还是没有崩的。这种可以附线批量再进行微调,对于电商广告商业项目来说还是比较重要的。如果说平替的话呢,豆包吉梦,它的一致性多图参考,性价比包括应用程度都很好,或者也可以考虑一下深度开源的大模型 black。 那 视频方面的话,就是 vivo 三点一,我用下来感受呢,就是它的光影感会比较真实一些,镜头的语言感呢,会比较强烈一些, 比较接近真实视频的 ai 模型之一了。但成本高,大概五秒钟的话是需要十四块的,所以不太适合批量生产 像品牌的视觉大片,电影感的短片,这种对质感要求很高的,可以试一下。那我们普通人呢, cds 二点零,它的性价比呢,就很高了,生化同步物理的规律,动作流畅度,这个优点也不用我多说了,大家也看到了很多成片效果了。而国内的可灵,它的人物意志性又很强, 就比较适合你有角色,你有剧情的连续视频,比如你同一个人物连续出镜这种有 ip 的 角色。而海螺呢,它的创意力又很强,风格呢,会更加明显一些,就比较适合来生产你自己的风格内容。那五秒的视频大概呢,是四到五块,你要觉得这样一个个的刷太慢了, 那小云雀会更适合你这个问题,直接从文字变成剧本,或者我的一个想法,它呢,就能一步步带着我去生成角色,用 c 弹三点零升到好几级的成片剧情。这个呢,就很适合做短剧慢剧的小伙伴了。现在 ai 视频的关键呢,不再是它的能力了,而是你用它来做什么内容, 因为大家都很不错,你要说这些都是半成品,根本没法看,我还是要死加工的,而剪辑它也出 ai 真的 了,就是 剪映,它呢,也已经不再是传统的剪辑软件了, ai 的 文案改写, ai 升图升视频,那如果素材不满意的话呢,我还可以直接在我的轨道上去进行选素材,那它呢,还是用 cds 二点零模型进行给我操作的, 包括 ai 自动成片, ai 转场, ai 字幕,这样也让一些很多想法但是被剪辑困扰的人发挥出它的真正实力了。 那在信息处理方面呢,我常用的就是挪的 book lm, 不 管你是文档,音频,视频还是网页,它都能够输入进去。我呢,还可以用它本身的输出功能就能出这样 这样这样,甚至这样一个简单的内容输出。主要它的那个免费呢,就很够用了,不用我再多余的搞东西了。那当我需要解决一些深度问题的时候,我就可以在专门栏里边去调用它。这个板块呢,我们也有详细聊过,感兴趣的小伙伴呢,可以去复习一下。 那你要是有一个自己的工作流程, apple 里边呢,是可以自己搭建 ai 知识库系统的,不过有一定的学习成本,小白呢,是不太好上手一些的。如果你更喜欢国产的话,艾玛它的功能呢也越来越多了。 而从去年开始呢,自从 azure 从概念变成产品,云端的,网页的,本地的都冒出来了,也不用说都有,有一个自己用顺手的就行。而我呢,经常会把 gpt 专门来的 research cloud 它们呢交叉来使用。那你要是简单的想要学习一下呢? auto g r m 也是开源了,那本地的 a 阵头呢?我常用的就是欧拉玛,主要因为它里面的可选项真的很多,也是比较方便小白来上手的了。接下来就是 ai 编程了, 随着这两年大模型的技术迅速发展,我们普通人和小白也能通过 ai 来做编程,解决我们生活和工作的一些重复问题。如今有三大基头,但我用 curser 频率会高一些,它呢,能在理解整个项目的基础上来帮我补全代码 界面的话,也会对小白更友好一些。而这两个呢,就需要我们有一些编程的基础了,而 code 又能在一些问题上解决 cloud code 带出来的一些问题, 所以日常的话我们 cursor 就 ok 了。比较复杂大一点的项目呢,就 cloud code, 再遇到什么疑难杂症它就来了。还有一匹黑马就是谷歌的反重力,它里面的免费额度呢,是比较多的,但实战率现在还是不太高,那国内平替的话就最, 就算你是非程序员,用它来写写文章什么的也会比较舒适。如果你只是想搞一个小小的 demo 创意 aes luigi 的 build 模式,用 gemini 的 交互啊,成品率呢和小细节也都很不错。 ai 浏览器呢? itunes 它呢,是 openai 出的 ai 浏览器,在里面呢,就可以直接来调用 gpt 来帮我看个网页,总结一下, dia 也能白嫖 gpt ui 呢,看起来也会舒服一点,但它们呢,只有 mac 版。其实你要是不需要过多的复杂信息,豆包就可以了,发个语音就能对话,拍个照片就知道是啥, 实在不行我还可以给它打视频呢。而更偏向浏览器的话,夸克呢,是很自然的 口型呢,也可以同步价格呢,在二十四每一个月,像广告电商、视频类的就比较适合了,也有开源的衣服那套,但操作起来呢,会比较麻烦一些。其实你要剪短一些的话,图片生视频现在就可以了,所以你就会发现我们收了这么多工具,但真正重要的呢,其实不是它本身, 而是你有没有把他们串起来的能力。那我们要省花费的话,我们只需要选出我们频繁需要处理的问题场景去对应的选择就可以了。那其他的呢?还有一些大模型,他的免费额度也是够用的。好了,喜欢这种内容的朋友呢,我们下次见了。

为什么豆包总是一本正经的胡说八道?为什么他的观点总是左右摇摆啊?为什么他老是犯一些低级错误?为什么很多问题你跟他说了很多遍,他还是不改 是吧?那我跟豆包聊了半个小时以后呢,找到了豆包背后存在的四个结构性的问题啊,这四个结构性的问题直接导致了现在的豆包不靠谱, 是吧?那么同时我也梳理出了在什么情况下可以信赌博,什么情况下不能信赌博,什么时候呢?需要有谨慎的,有分辨的去看他给的答案是吧?好,我们废话不说,我们现在开始, 首先第一个豆包在产品设计之初给他的定位上来讲,他就是一个好用大于正确的一个产品。具体表现的呢,就是他首先把通顺啊快,也就说给答案要快,同时呢要迎合用户的这个需求,包括场景等等来做迎合啊,这些呢,大于事实和逻辑 啊,这是他产品在设计之初就定了掉的,所以你会发现他给很多答案的时候,每个人给的不同,他会先判断你的情况啊,给一个普比较低的答案,比如说你问一些中医的话题,对吧?一些明显的违背常识的一些逻辑 啊,你说,哎,这个中医,这个什么草能治什么病?哎,他会顺着你的去说,哎呀,这个草呢,根据那个什么本草纲目能治什么病?然后这时候你跟他说,你说我是一个坚定的科学主义者, 我相信双盲实验啊,我相信一切有验证,我不相信传统的这种没有经过实际检验的,没有经过双盲认证的医学,他马上就给你换一副嘴,脸上马上说,哎呀,这个东西不靠谱,是吧?啊?是怎么是这个,这个怎么样?哎,反正呢,他马上把这个东西又批判一遍, 是吧?所以呢,他会假设你先,你是一个认知很低的人,然后呢,当你表现出了质疑的时候呢?他马上又 又又表就就翻过来,是吧?他的答案就这个问题呢,就会翻过来,是吧?所以这是他第一个问题,也说他是首先呢,他要迎合你, 而且语句要通顺,他的很多回答的其实都是填模板的,他会首先有个文字模板,然后呢在网上去填内容啊,再去搜索等等,是吧?再去填知识等等,他是这么一个工作逻辑,是吧?啊,所以这是第一点。那么第二个呢,就是 杜邦的数据库呢,他是更新之后的,比如说你再让他呃,讲一些,呃一些分期啊,你比如说某个公司的最近的这个财包啊等等的时候,他很多时候他会引引用过期的数据,为什么就是他最新的数据呢?他是没有引用到的 啊?你比如说我问这个国产芯片的问题,他说国产目前最先进的就是华为的这个麒麟九千啊,什么芯片?我说,哎,那不是小米的玄界芯片也不错吗? 他说,哦,那个我数据,他就承认他自己数据库已经落后了,是吧?他的数据库是去年的五月份的数据啊,去年五月份小米发布的 o e, 对 吧?所以他是没有采集到那个数据的,所以他的数据库呢,他是近期的更新,而对于新的数据呢,他的是比较谨慎的,是吧?这是他的一个问题啊, 那么第三个是什么呢?还有同时还有啊,关于数据,还有一个就是国内的数据基本上是被严重污染的,是这个我之前讲 ai 的 时候我也讲过,对吧? 国内的数据呢,几乎是不能用的,全是垃圾啊,那这个呢,就是百度是第一罪人是吧?就是百度起了一个很不很不好很不好的一个榜样,是吧?啊?所以导致现在呢,就是 所有的文字平台,所有的内容平台,基本上都是营销为王是吧?所以各种营销号铺天盖地的是吧?各种广告等等,所以他在选择数据的时候,他是很难避开这些坑的,他是就是从基本上就是从技术上各方面来说,他都不可能避开,完全避开这个坑 是吧?他只能采取这个分级数据分级,然后呢不断的有些呢给他降权重,有些增加权重,只能采取这种 啊,就是概率性的去解决这个问题,但是无法百分百规避是吧?啊?所以目前来说呢,他的数据被污染很严重,而且呢有一些公司呢,他会做公关和内容营销,这个也会被他的数据采集到去引用啊,同时呢现在还有专门投毒的是吧?对于 一些,呃,这个汽车事故啊,或者一些公关事故啊,还或者说去诋毁对手啊,不断的给这个数据评数据,去投毒,是吧?所以我们就发现了这个是吧?你在这个你为豆包是吧? 你放一个这个小米这个这个问界的这个车的方向盘,你问这是什么车,他说是小米汽车对吧?这就是他已经被投毒了是吧?啊?包括很多的是吧?呃,这个这个情况,比如说我之前问他,我说你给我举一个案例,是吧?这个企业家塌房的案例, 他觉得是雷军,哈哈,所以呢,你看这就是他的数据,他这个因为他的很多是基于这个,比如说头条啊,呃,然后呢,这个,这个,这个抖音啊,这些公开的这些数据,其实很多时候都已经被微污染了,所以这些都没有参考的价值啊。这是第二点,就是数据的问题。那么第三个呢,就是 豆包呢,它的大模型,就火山大模型,它没有自我纠错的。这个啊,程序设计啊,其实很多的是有的,是吧?啊,比如说像像,像超级小爱啊,或者像谦卫啊啊这些,这个这些模模型啊,包括 deepsea, 它都有自我纠错的这个, 呃,这个程序啊,就是给出答案以后呢,他自己会会先推敲一下他这个东西合不合逻辑啊?豆包没有。豆包呢,他首先是好用,他要快很快的给你出来,然后呢语句是不是通顺啊?他把这些是放在第一位的啊?所以这也是他的一个问题,就是给出很多答案以后,你自己都能看出问题,他自己看不出问题,对吧? 那么第四个呢?是什么呢?就是他的成长性啊,就是,呃,我会因为我会给他设很多的指定会测试他的这个成长性, 比如说啊,我说你这个,我们在,我说我,我是不信中医的,是吧?那我在我推着任何的关于医学的建议啊,或者药品的时候,不要涉及到中医 啊。同时呢,推荐产品的时候,你不要给我推荐任何华为和荣耀的产品,是吧?那他说好,但是你后面让他推荐手表啊?啊?推荐什么时候他还是会推荐,是吧?所以他呢?这个什么呢?就是他就是你个人的规则,对他来说是软规则,不是硬规则,软规则呢,他是 有路掉的概率的,就是他是很多时候呢,他是基本上是无视的,是吧?就是百分之三十可能会成功吧,百分之七十呢,他都无视你的规则,所以你跟他说多少次他都记不住的啊,所以这个跟龙虾就有很大的区别,是吧?所以我又养了龙虾,对吧?啊?我想体验一下, 那么这就是豆包目前存在的四个问题,所以你看看起来每一个都是都看起来好像是不大的问题,但事实上呢很多东西都是要命的,尤其是数据这个东西啊,所以其其实严格限制了,就是严重的限制了国产 ai 大 模型的成长性。 就是你再往前走你是需要数据,对吧?你需要数据,你不光算法厉害,你算法厉害没数据没用,对吧?你就是一个机器,没有没有给里面就是发动机再好你不给他加油他也跑不起来,对吧? 所以呢国内的大模型我觉得真的是先天不足真的是先天不足,对吧?好,那么这个是他的四个问题,那其那第那么哪些问题是可以用豆包的?哪些问题坚决不能用豆包呢?我总结了三条,是吧? 首先第一个就是经典的理论,就是比如说啊,什么是牛的第二定律是吧?哎,这个东西他是不会错的,因为像这这叫经典知识 啊,他是已经啊,这个基本上不会变的,是吧?他是不会变的东西,包括一些东西的原理啊,他也是不会变的啊,你别说这个, 呃,这个这个血压仪是怎么测血压的,是吧?啊?他这个这个血糖仪是怎么测血糖的,是吧?啊?或者说一些 啊?这个汽车发动机的这个原理等等,这些东西它是不会错的,它叫经典知识,它是不会变的,是吧?那么呃这个东西基本上你可以百分百话不能说,百分百吧,百分之九十你是可以信,百分之九十九你是可以信的,基本上不会出错,是吧?那么 第二类呢?是绝对不能信的是吧?什么呢?就是第一个产品推荐啊,你让他给你推荐产的产品啊,基本上是不可信的,那不可信呢?但是你可以作为一个参考,你可以把它当成一个营销号的这个代表,是吧?他收集各家的数据来,你然后做个对比,但你不能去相信他 啊。那么这个呢?呃,这个我我这个我,我分享我的体验,比如说我让他推荐一个智能手表啊,智能手表我要求他这个,比如说测心率要准,然后呢?有头,关注头部啊等等。那么他推荐的里面啊,里面的能你能明显看出来他是有偏差的 啊,就是你比如说啊,他会推荐,他竟然没有推荐佳明、高驰这种专业的手表啊?首先推荐的就是华为的 g t 六 pro, 是吧?这个手表采用了什么高?这个这个这个,呃,这个这个什么技术?什么技术啊?等等啊?很好很好,是吧?然后有荣耀的手表也很好很好。然后呢?最后呢一个呢?啊?你 最后一个呢?放了小米的这个手表,小米手表里面他会两方面都说啊,这个优点是什么?然后呢?缺点是什么?他会两方面都看似很客观,对吧?然后呢?同时呢?但是你认真推敲的话,他就是不客观,对吧?然后呢?同时呢?但是你认真推敲的话,他就是不客观,对吧?然后呢?第一点我就直接提问他两个问题。 第一个啊,为什么?比如说华为,他说哎,这个用了这个什么技术?但其实呢,你查一下数据这个技术,小米也是用了这个技术,两个技术是一样的, 你说测心率都是那个光谱去照照射,然后反射,是吧?啊?华为用的多灯走,小米也是多灯走,他技术是一样的,但是他讲华为的时候呢,他是告诉你这个是多灯走技术, 小米的时候呢,他就没有提这个东西,是吧?啊?只是淡淡的提了一下优点,然后呢?重点去讲他的缺点,是吧?什么心心率不准?但是我我就问他说网上说华为的这个心率飘啊等等,这个反负面反馈的也很多,为什么你不讲呢? 啊?他说他又承认他这个数据被污染了,对吧?好,所以他不讲。然后呢?讲华为和其他的时候,他都不讲缺点,而小米呢,是两方面都讲,世上每个产品都有优点缺点,对吧?所以你看似他客观,其实他做了就是双标啊,这种双标导致呢?就是他是不客观的,是吧?那么这是 产品推荐上的。那么第二个呢,就是人物和事件的评价啊,人物和你比如说什么这一发生什么事情, 或者说某个人,你觉得他怎么样说怎么样,这个东西完全没有参考性,是吧?啊?因为数据呢,这个已经物被污染很严重,就像我刚刚提到那个说你说让他举一个国内企业家塌房的案例,他举的是雷军,是吧?哈哈,是吧?所以这是一个,还有第三个就是基于公开信息的推理 啊,你比如说,哎,这个现在呢?呃,这个基于现在的情况,你给他预估一下这个事情会怎么样啊?那这个事情他基本上不准的啊,他可能逻辑是对,但是信息因为信息源是错的,所以他得出的结论呢也一定是有问题的,基本上是不可靠的 啊,是吧?啊?所以这是第二类,那么第三类就是有哪些呢?是可以做参考的呢?啊?就是指导性的,你比如说让他帮你去指导一个一个事情啊,或者说做攻略啊,或者说翻译啊,这些事情是能凑合用的啊,知道工作呢,但是呢他也会犯错 啊,比如说我前段时间呢,我去办一个越南的签证,那么越南签证呢?我就因为去那边是纯英文,对吧?那我也懒得翻译,我英语我也在学英语,但是有有些的词汇呢,我也不是很麻烦,对吧?啊?那我就就用他就指导我看, 那么他过程中呢,犯了一个很大的错误,就是两个错误,是吧?啊?就是其中一个呢,就是有一个 qq 选项,他其实是说你到了越南以后要遵纪守法,但是他把他翻译成了什么呢?啊?说你要办一个当时的临时签证啊,他一直很坚定,他说对,就是不要办这个,这个不要选, 所以我一直不选,然后呢就一直卡在那个页面啊,最后我实在看不下去了我大概我把那个一看我都我的英语水平我都能看出来他就是让追究当地的法律啊等等 我说你这个不对啊这个是这样子他说哦那对然后呢这个就是这样子的哈还是斩钉截铁还是非常自信啊自信的就是完全不在乎这刚才说的原 一直是错的是吧。啊这个情况啊所以他你让他知道什么事情呢他还是有问题但是呢其他方面呢就是这个整个流程呢走下来就两个错误其他的基本上还能顺着下来是吧让你选地址啊等等这些东西他是能够对的是吧那么还有呢比如说做攻略是吧做攻略我也踩过坑是吧比如说去年呢 去这个香港麦里奥近去徒步啊当时呢在第二段的时候呢我让他给我这这个做这个露营的地点去扎营的点是吧他给了一个地点我当时晚上的时候啊这个已经基本上是十点多了是吧去找那个扎营点直接找不到是吧就按照他那个地址啊 我直接上了一个小山山上什么都没有还有荒坟是吧这个当时还很很恐怖对吧而且我还带着我儿子是吧就是他给的地址是错的是吧他其实呢离那里有个大概有个一公里多的另一个地方 啊所以他这个他这个攻略啊这些东西你也要去做一些你可以参考但是呢也要去求证也是要去求证的啊能凑合用啊但是你不能完全信他是不能完全信的对吧。 啊好那么这个呢呃就是我对豆包,我跟豆包的这个沟通以后啊,我得到了一些经验,或者是一些呃,是说一些有用的东西分享给大家,希望对大家有用。那么下一期呢?我们讲一讲。就是。呃,就是我个人对国内的大模型 在未来市场竞争中的就是预判吗?我觉得哪些可能会做的比较好?哪些大模型基本上没机会,哪些大模型呢?有翻盘的,有异军突起的,这个成为黑马的机会,是吧?好。

g p t 和国产大模型到底差在哪?不是名字,不是参数,是根上的思路就不一样。第一个,他们训练的路子不一样。 g p t 从小就是放羊长大的,他学的是海量真实人类语言, 目标是你怎么说我就怎么接,怎么自然怎么来。所以你感觉他会思考,会聊天会脑洞。但是国产大模型更像严格管教出来的学霸, 训练的时候就要求啊,你不能乱说,你不能跑偏,必须准确,必须合规,所以它更稳更安全,但是没有那么放飞。第二点,思考方式也不一样。 g p t 是 顺着逻辑往下推,你给他一个复杂的问题,他会一步一步的去捋,哪怕绕点路,他也会给你圆回来。 但是国产模型更多的是精准找答案,给逼给标准答案,更擅长直接给结果给方案干活就是更利索。 但是长逻辑开放式的脑洞就没有那么放的开了。一句话说透, gpt 更像一个会思考的人。国产大模型更像一个靠谱又听话的工具, 没有谁觉得更好,只是定位不一样。你们平时用下来更喜欢 g p t 那 种灵活的,还是国产模型这种稳当的?评论区告诉我。

所有人用接的 gpt 都经历过这个问题,甚至不光是 gpt, 现在是所有的 ai 大 冒险可能都会有,那就是稳稳的接住你, 你让他改个 prd, 他 会说我会稳稳接住你,你说今天好累,他也说我在这里不躲不藏,稳稳接住你。你甚至有的时候你问他一行代码怎么写,他还是要先接住你一下。所以关于这个现象, where 的 专门出了一篇文章来分析。这件事我已经看完了,我给大家 简单的解释一下,为什么会出现这个背后其实是有三层原因。第一层是翻译漂移,稳稳的接住你,其实在英文里对应的是 i have got you, 一 句非常随意的,我懂你。 但翻译成中文,它就会变成了一句心理咨询师才会说的话,又长又黏又用力。 模型它是没有分清楚场合,就把英文世界里的我懂,翻译成了中文世界里的我会陪着你走出黑暗。第二层原因叫模式坍塌,这是一个学术词,意思是模型一旦发现某个句式能拿到好评, 它就会拼命重复,重复到让人头皮发麻。 ten grand ceo 他 说过一句很扎心的话,他说我们不知道怎么告诉模型,一种好的写法,重复十遍,它也就不再是一个好的写法。第三层最关键的叫 ai 婊妹 ancropik 早在二三年的时候就证明过,现在的这套训练方式,天然的会让模型变得铁,因为人类标注员评分的时候,本能的会更喜欢那种温柔肯定的回答。久而久之,模型就锁死在一套讨好你的模板里,先共情再肯定 用不是 a, 而是 b 做转折,最后用,我就在这里收尾,所以稳稳地接住你。不是 ai 的 bug, 它是一面镜子,它照出来的是 当一个 ai 被训练成只追求人类点赞的时候,他就不再追求真实,他会变成那种穿西装挂假笑滴水不漏的精英同学,什么都对,但什么都没说。而且现在最离谱的是什么?甚至现在连 cloud 和 deepsafe 这些模型也开始说这句话了。 一个模型说错,所有的模型都跟着说错。是因为现在他们的训练数据越来越像,或者有的时候就是在互相争流。所以说了这么多,下次当你看见 ai 再说我会稳稳接住你的时候,可以不用感动了。因为这个不是他在真正的接住你,而是他只是在暴露出自己的一个英语底色。

多个榜单全部第一,纹身族能力呢,超过 nasa banana 二百四十二分。官方说啊,这是历史以来第一名和第二名最大差距的时候。那这个 jpg image two 啊,是真的那么强吗?三分钟,我们来看一下,如果你也用 image two 尝试了新的玩法呢,可以分享在评论区,我们讨论一下 每天一杯强壮。由内而外。 先来说呢,他这个提升最大的,并且感官呢,最明显的优点就是他文字的理解以及呈现的能力。像你刚才看的那些电商海报啊,模特图啊,书法,甚至是试卷,其实全部都是由 image 二直接生成的。 在同样的提示词下呢,他对比 nasubao 在 文字的生成准确率上是有明显提升的。我们可以看一下这个对比啊,同样是生成人物简介,那这张 image two 生成的图片在文字上几乎是没有错误。另外呢,我们让他分别生成两个时尚杂志的封面, 可以看到明显的 image 生成的图片呢,这个图片模特的眼神,角度,探头的,这个标题的字体层级, 背景,光影的戏剧化程度,这一切呢,都是经过逻辑推演的。画面里的每个元素呢,都像是被这个强迫症导演安排好了的, 清晰,锐利,准确。那整个构图呢,像是一本被精心编排好的画册。那这种审美啊,其实是高度设计化的,并且充满了严谨。 而 nintendo 有 更多的抽奖结果呢,是偏向于把相关的元素拼在一起,看起来很像。但是这种逻辑的严谨也带来了缺点。不知道有没有朋友发现啊,当你生成的场景比较复杂的时候, 全景或者元素较多的图片意味着兔这个模型呢,会给你非常多没有用的细节,导致你整个画面没有主次, 再一个画面每一处呢,其实都过于清晰了,那光线呢,过于均匀了,构图过于完美,反而呢,会产生一种类似于影楼精修,或者说呢,塑料模型的不真实感。在这方面呢,其实给了你一种生图水平回到了二十四年的感觉。哎,这是为什么呢?这其实涉及到一个问题了, 就之前呢,你生成这种图片里的文字呢,一直是一个大问题,那这几年为啥突然会写字了呢?其实都是因为现在的生图模型,也就是这个 diffusion 这个单一架构了, 他们大多啊是先让字回归的大圆模型作为大脑进行语义理解和逻辑规划,然后呢,再去调用扩散模型作为手来完成最终的像素成 像。那比如 nintendo, 就是 先拿 jimmy 三做语义理解,然后规划再生图。那扩散模型呢,就像电视雪花一样,整体消除无用的噪点,最终呢,呈现出一幅图变 而字回归啊,你就可以理解成 g p d, 就 像写文章一样,一个板块预测下,一个板块一块一块的把图像画出来,就是因为这样呢,他才不容易写错字,逻辑解密。但副作用呢,就是过于遵循指令了,生成了非常多不必要的细节,让整个画面呢,看起来很繁杂,非常的挤。 虽然关于 gpt image 二具体的框架信息啊,官方也是首口入屏,但基本上从它的文字和指令遵循到变态的特点上,也不难推断它的图像生成啊,大概率是由一个具备推理能力的自回归的语言模型所出道的, 所以相信大家看完这期啊,对新模型的优缺点呢就有基本了解了。虽然说看起来意味着兔领先了那么多,但是目前来说,图像生成模型我觉得还没有找到最好的一个苹果那图像模型没有进步空间了,这种画呢,其实还是为时尚早的。

最近啊,我帮几个朋友看了下他们平时是怎么使用 cloud code 的, 结果发现大家踩的坑都差不多,比如说在 contacts 都快满的情况下,还在疯狂地向 cloud code 输出,甚至还问我他的 cloud code 怎么越用越笨,还有装了 skill 的 有没有用上都不知道。 那对于这种把 taco 用在刀背上的做法,我只能说一个字,绝。所以今天就给大家分享一下我自己使用 clotco 的 过程中的几个小技巧,听完包你满意,赶紧点赞收藏。当然,大家也可以在评论区分享一下自己的经验。 第一个,上下文管理这个道理啊,很多人都懂,但很少有人会注意到上下文污染的严重性。如果说你也有这样的毛病,我建议赶紧去看一下。前两周 cloud 发布的这篇关于绘画上下文管理的文章,里面讲的是非常详细的。 特别要注意的是啊,文章里面有提到,当上下文窗口开始占到百分之三十到百分之四十的时候,就会出现一定程度的上下文腐烂。这个其实对我自己也是有点启发的,你像我之前就是用到百分之六十可能才开始做一些上下文的管理,那现在可能百分之三十到四十就要开始做了。 那我平时做上下文管理无非是用到这三个命令,第一个, compact, 当任务跑了很长时间,进行过多轮的对话之后,使用这个命令,让他把前面的对话压缩成一个摘样,清掉容易的信息,只保留关键的,这样的话,你的 contacts 就 会变得很干净,他后续的表现也都会回归正常 我的使用习惯啊,同一个任务超过二十到三十轮对话,或者说我当前的上下文窗口已经占到了百分之五十以上,那我就会进行次压缩。 又或者说当我发现啊大模型开始回答一些奇奇怪怪的答案了,那我的第一反应也都会先去 compact 一下。第二个 clear, 那 这个相较于 compact 会更加的直接,把当前的对话直接清空掉,重新开始, 或者说你开一个新的对话窗口也是 ok 的, 这个适合一个任务已经完全跑偏,或者说你就想换一个新任务的场景。 对比的话, compact 就是 整理桌面, clear 的 话就是清空桌面重新来。那用哪个还是要看当前的任务有没有值得保留的上下文来决定呢? 第三个命令 by the way。 这个命令一般会出现在你不想去侵入当前上下文窗口的情况下去使用。举个例子,比如说你现在正在 web coding, 但是你又想到一个产品的逻辑上面会有点问题,就可以使用 by the way 去跟它进行讨论, 这个是不会记录在上下文的,或者说你使用 by the way 把你这一次的需求让它记录在某个文档里面。当你手头的这个 web coding 的 任务结束之后啊,接下来的任务你可以再调用原来记录下来文档里面这个需求继续展开工作。 那说完了我常用的这三个命令之后啊,还有些关于上下文管理的我的个人的使用习惯。第一个,引用文件的时候,指定路径和文件名,不要让大模型自己去扫描文件,扫描整个仓库,他有的时候如果找不到的话,甚至还会去写一个脚本去帮你去找到这个文件, 所以说这样的托克消耗是得不偿失的。第二个,我相信大部分人都会知道,长任务或者复杂任务的时候,用 plm 的 模式可以大幅度的减少托克的一个消耗。 第三点,尽量让 cloud code 完成一整个工作流,而不是一步一步的告诉他去做什么。因为 cloud code 是 非常强大的一个 agent, 你 给他一个超级复杂的任务,他也能从第一步到最后一步完美的给你执行出来。如果说你每一步都拆开,那首先上下文会变得非常长,那上下文一长,你的大模型就会出现幻觉,你的上下文就会出现丢失,被污染。 那讲完了上下文管理之后,接下来这个 prom 的 缓存本质上和上下文也有一定的关系,那我为什么会单独拎出来讲呢?因为它会直接影响你用 cloud 的 速度和成本,也是大家特别容易忽视的一个问题。 c c 的 一个 prom 的 缓存机制啊,如果说你上一次请求里面的内容和这一次请求的前缀是一样的, cloud 的 就不会重新处理那段内容,直接用缓存速度更快,托克的消耗也会大幅度的降低。 在 cloud code 里, cloud 点 md 的 内容和项目文件的内容在同一个绘画里面是可以被缓存的,但缓存会失效。最常见的失效场景有以下两种。第一个, cloud 点 md 这个文件啊,在 cloud code 的 缓存架构中是被视为一个整体的模块的, 由于它位于缓存前缀的中间位置,一旦你改了文件中哪怕一个标点符号,系统也会判定从 cloud md 这个文件的模块开始,到后续所有的内容,包括历史对话的缓存都会全部失效。 第二个,对话的间隔太长, cloud 的 缓存默认有五分钟的超时时间,超过五分钟没有新的请求,缓存就失效了。 如果说你再做一个任务,保持对话的节奏要比长时间等待更好,所以说每次离开之前先 come back 一下是最好的。理解这个机制之后,你就会开始有意识的组织 cloud d m d 这个文件的结构,让 cloud code 的 能够持续的用到缓存,整体的速度就会明显快一些,托管的使用量也会少很多。 那接下来第三块的使用小技巧,就是我自己平时经常会使用到的一些 skill。 skill 是 cloud code 的 可安装能力包,把一套提示词和逻辑打包成一个命令以后就可以直接调用。那我现在用的最多的就是以下几个。第一个, planning with fire。 当你有一个复杂的任务,不想让 cloud code 直接开始乱动,那就先用这个,它会把任务拆解成结构化的计划写进一个文件里,当你 review 确认之后啊,它再按照文件里的计划一步步执行。这个是我目前使用频率最高的,甚至说我所有偏复杂的任务都会先用这个 planning with file 的 这个 skill。 那举个例子,比如说我现在做 webco 顶,那原本开发的流程,可能说花一天时间去想一下架构,然后再花几天的时间去开发,那现在就反过来,我会先花大概几天的时间去跟他去跟 cloud 的 去聊我会怎么样去设计,然后聊的过程中去把这些我的想法全部记录到文件, 那之后我再做 webco 顶,让他去生成代码的时候,那整个的代码的结构,包括代码的约束,代码的规范都是非常工整的。 那接下来第二个 skill, 那 其实是一整套啊,基本都是偏向前端界面设计的,像 fronten design, 还有像 ui ux pro 这两个 skill 啊,还有一个就是我现在做视频基本上都会用到的 remotion skill 啊,都是我自己高频在使用的。 那这种是专门为前端界面设计调优过的 skill, 我 觉得对于很多开发人员来说,因为对一些 ui 的 设计都不是很 make sense, 我 觉得用这些 skill 可以 帮到你们很多,并且他们的官网也是提供很多的素材和模板 啊。再结合像现在的,比如说 stitch 啊这种圆形的设计软件啊,那我觉得再配合这些 skill, 那 可以起到事半功倍的一个效果。 第三个 notebook lm skill 啊,那对于这个 skill 我 原本是不怎么开始用的,因为像原来的 gmail 可以 直接去连到这个 notebook lm, 因为都是谷歌的全家桶嘛,呃,都能够直接去输出我想要的结果。但后来大家也都知道 gmail 降至比较厉害, 我发现我的结果就我的要求他不太能满足到了啊。后面我就尝试着把 nosbook lm 生成的结果给到 cloud, 让他去帮我进行接下来的任务执行啊,效果也非常的好。然后到后面也发现现在是有这个 skill 的, 那我就直接拿过来用了。 第四个 everything cloud code, 那 这个 skill 汇总了 cloud code 的 目前所有功能的一个用法,相当于一个随时可查的内置的使用手册啊,不确定某个功能怎么用的时候,你就可以直接调用它,比翻原本的官方文档要快很多。 那这边有一点要说明啊,这个 skill 会比较消耗托肯啊,你一定要去关闭它的一些 mcp 啊,你哪怕关了的话,它的托肯消耗也是会比较大的。那如果说没有碰到一些复杂的任务,我觉得是用不上的,但是整体的质量还是非常好的。 第五个, superpowers, 那 这个也是老朋友了,我相信很多人都在使用这个 skill, 那 这个 skill 对 我来说最重要的一点就是它的脑爆啊,这一个技能。 呃,而且这个 skill 是 非常适合小白的,因为它是包含了一整个完整的软件工程的,一个生命周期的一个 skill 的 一个全集啊。所以说,如果你是小白,刚刚入手 web coding, 我 觉得你用这一个 skill 就 足够了。 第六个,卡帕西的这个 skill 啊,那这个 skill 我 觉得是相较于前面 superpower 和 everything, cloud code 的, 它更像是一个靠谱的资深工程师啊,它会强调先清楚再动手,不乱猜啊,能简单的就不要搞得太复杂啊,改动都是以最小的成本去改的,而且每一步都是尽可能的去做验证, 所以说啊,它特别适合去修 bug, 改老项目,做一些重构。那接下来第四块, hux 啊,那 hux 的 定义的话就是钩子啊,它允许你去自定义一些触发器啊,在卡拉扣的做完某件事情的时候,会自动的执行一段啊,你所定义的无论是脚本啊还是命令, 那我最常用的三个场景,第一个,我每次让卡拉扣的修改了代码之后,就会自动的去提醒,也不用担心它改完之后代码的格式会乱掉。 第二个,任务结束的时候自动发通知啊,比如说你在跑一个时间比较长的任务啊,那你可以去做别的事情,那任务完成的时候可以触发一条系统通知到你的手机上, 那为什么会举这个场景呢?啊?之前在用 open call 的 时候,因为像 open call 它本身可以去调用 call 的, 但是它怎么去监控 call 的, 它会一直去用轮询的这个方式去做,会非常的消耗 token。 那后来我就自定了一套我让 openclaw 去触发 claw 的 code, 之后我通过 claw 的 hook 去回调来通知 openclaw, 使用这样的方式之后啊,就可以减少掉不少的 token。 第三个场景,那像工具的调用前后会去自动的记日制啊,你想知道 claw 的 在一个任务里面到底做了什么,那 hux 就 可以帮你在每次工具调用的前后去协调日制,任务结束之后就能够看到完整的执行过程。 第五块, cloud code 的 插件,那说到插件啊,前面提到的像 skillbox, 包括没有提到的 mcp, 其实都可以揉在一块成为一个自己的插件 啊,所以我说我这边就分享我经常使用到的三个。第一个 cloud hard 啊,这个的话可以去实时的监控你自己套餐的一个使用量啊,包括你目前这个 session 的 上下文的一个情况啊,再配合前面上下文管理的一些方式组合起来,那效果是非常的好的。 第二个 figma 的 mcp 啊,那这个很适合前面讲的 fronten 的 design u i u x skill 啊,特别是如果你在工作中啊,你们的产品用的是 figma, 那 你直接可以通过 mcp 的 方式直接把设计搞给搞进来啊,从设计到实现会剩很多。 第三个三 tree, 那 这个也是 mcp 啊,这个比较适合去排查线上的 bug 报出错来以后啊, cc 能够更快地结合异常的信息对账和上下文去定位问题啊,可以省掉自己去翻半天的一个日记。 ok 啊,那以上就是关于本次我自己在使用 calco 的 过程中总结出来的小技巧的一个分享,希望能对大家有所帮助。如果说你看到了这边,证明你是一个非常求学的人,在此我也希望能够得到你的一箭三连和关注。那本期的视频就先到这,我是布鲁,我们下一期视频再见。


我问了 g p t 这样一个问题,我说拖延是大部分人成长中都会遇到的问题,为什么我们总是明知道那些重要的事情,我们却不去做它呢?我明明很想做成自媒体,可每次光是想到开始,就会觉得压力巨大,甚至想拖延到放弃。 他是这样回复我的,因为你陷入了任务神圣化的思维陷阱。你之所以迟迟不敢开始,恰恰是因为你把它看的太重要了。 请你仔细回想一下,你是否同意这个观点。几乎所有会让你产生拖延的事,本质上都是因为你认为他必须付出极大的能量才能解决。人们总是认为越重要的事情越有执行力,重要的事情会提高人们的心理门槛,从而导致拖延啊!你发现了吗? 如果一件事让你觉得毫不费力,你根本不会拖延,而是会立刻去做。但一旦你把自媒体读书或者某个目标神圣化,你就会不自觉的放大对难度的判断。你觉得必须拿出极佳的状态,耗费代耗费大量精力,甚至要等到一个黄道吉日 才能完成。这种对完美状态的执念,就是拖延最大的温床。在我们对话之中,你在做自媒体初期也踩过这个坑,总想写出完美的文章,结果光是启动就要消耗半天的心理。 后来你总结得出,拖延的一大根源就是动手做的太少,因为缺乏实操,你的大脑会对未知的挑战产生这种不理性的认知幻觉。而现在的人普遍都具备这个问题, 那些他们认为重要且有价值,却往往是他们做的最少的事情。他们把拖延延归结为自身的懒惰, 但实际上,拖延的背后是恐惧与强大心理门槛。所以真正能把事做成的人都懂得,越重要的事越要把它日常化, 千万别神圣化。你要做的不是追求单次的爆发,而是通过呃大量、高频次,甚至看起来不那么完美的行动去给这件事去魅。这样做并不一定让你做出一个好的作品,但他一定能改变你的心态。 渐渐的你会发现,你所害怕的事情也不过如此。所以,请立刻执行这套物理降级策略。一、追求完成,而非完美告诉自己,做的好坏与我无关,我只管今天把它完成。 二、两分钟降级法,不要试图一次憋出大招,把它拆成三十次,每次两分钟的小动作。当你发现 当你发现它只需要两分钟就能搞定时,那种神圣的压力自然的就消失了。当你放下境位,把它降级为一件普通、琐碎甚至有点随意的日常小事时,你才真正获得了长久走下去的掌控感。你要明白, 能量不在完美的计划里,而在改变的那一刻。人们常说,万事开头难,而你要做的就是把开头变简单、变轻松,变得不再畏惧开始。