这个大神是开发 cloud code 的 一个工程师,他最近发了两篇在构建这个 cloud code 的 时候的一些经验教训。这篇文章如果你是 cloud code 的 的使用者,你看了之后会让你的 cloud code 更加的熟练,效率更加的高。 如果你是一个智能体的开发者,这个至少让你少走十倍的弯路。因为现在几乎所有的编程智能体,不管 open curl 还是 manage 这些几乎都是在沿用 cloud code 的 这种智能体的一些经验。 ok, 我 们今天就来详细看一下这篇文章。首先他的标题就说了一下,让我们像智能体一样思考,或者我觉得更像是让智能体像我们一样思考,而不是我们五官的强加给他一些工具,强加给他一些我们认为好的一些工具方法, 而是要让他按照我们人的一些方式方法去操作。要怎么样去构建这些工具?到底是要构建非常多的工具呢?还是应该去构建一些少的工具?然后比如说工具,纸张也是工具,手动计算也是工具,计算器更是工具,但是你就必须要掌握更高级的技能, 然后电脑他也是工具,但是你就又必须要掌握编辑代码的一些功能,他其实想表达的是工具是根据模型的能力不断引进和变化的。 然后他们就说了一下最开始他们的一个坑怎么样去跟用户进行交互,比如说他们完成一个计划的时候,要用户同意这个计划,或者说去改进这个计划,去反馈,去沟通他怎么样用的。最开始他们是有一个退出计划的工具,退出了之后使用这种纯文本的方式, 虽然这个看起来实现起来最简单,也是最符合直觉的,但是这个事情会让 cloud 感到困惑,因为他要求 cloud 又向用户提供了计划,又要求他们回答关于这个计划的一些问题,就有点违背他的常识,就让 cloud 感到困惑。他们就换了一种方式, 比如说他们就固定了这个 plan 计划之后,他会让他们输出一个结构化的内容,比如说 markdown 格式,然后他们来做解析,然后让用户进行回答,但是他们发现这个虽然是 ok 的, 但是输出来的这种结构化的内容,往往他没有按照这种格式来,就容易出问题。 最后他们就使用了一个工具叫 ask user question 的 工具,就专门调用了一个工具来问这个用户 cloud 的 问题具体的选项是什么?他们发现这个 cloud 可以 在任何时候调用它,因为它非常符合我们人的一些习惯,我们人的一些资料 做完一个任务的时候,你应该用问一下用户,它是非常符合这个逻辑的,所以说他想要总结出来的就是这些工具必须非常符合逻辑,非常符合我们人的一些习惯。 你出了一个计划的时候,那么你下一个就是应该去问他,那么你设置这样一个工具,就会强化他问他的这个过程,而不是直接去退出这个计划。就很奇怪,我们设置一个计划,然后退出计划,然后再去问用户,这个就完全不符合逻辑。 然后他也说了一下,这个东西它并不是最终的一个解决方案,因为不同的模型可能它适用的方法可能不一致,因为模型的性能是在不断的提升的。然后这个就是更新的一个功能,因为之前我们用 cloud code 的 时候,我们会发现有这种 to do list, 它会列出来它想要操作的一些东西。 然后他们就发现了,现在大模型能力提升了之后,它甚至不用列这种 to do list 的, 它的这种上下文指定遵循的能力都是非常好的。 并且用这种 toto list 的 它其实没有把它写下来,并没有持久化,当有多个智能体进行协助工作的时候,这些东西是不能传递的,所以说它并不适合多智能体的工作。然后它们就出来了这种 task, task 它其实本质上是把这些任务计划全部写在了一个 markdown 的 文档里面,不同的模型它们是共享这个文档的, 它们都可以进行修改,都可以进行读取,这样的话它就更加适合这种多智能体的写作。因为这种 opus 的 这些模型出来了之后,因为它指令遵循能力是非常强的,它之前可能说了一下计划,它后面就会按照这个计划一步一步的执行。当然模型稍微差一点的能力,这个能力是不太够的, 比如说大家做开发的时候,应该是可以感受的到的。嗯,很多模型它把它的计划它就给你乱乱做了,这就是为什么要有这个 to do list 的 一个原因。 但是像这种能力非常强的模型出来了之后,你这个 to do list 写好了之后,它会严格的按照这个 to do list, 它就有点苛刻了,题型过于苛刻就导致它会完全按照它,就算中间有一些修改它都不会做,修改它的泛化性就差了。 所以说他们提出来了这个 task 的 一个理念,一个方案,然后就是这个搜索,因为像这些编程工具,它最大的一个问题就是拿到它想要的一些上下文,拿到它去完成任务的一些上下文,但是这个怎么拿怎么拿是符合逻辑的,怎么拿是最省 token 的。 然后他也说了一下他们的一个经验,最开始他们也是使用的这种 reg 向数据库解锁的方式,但是他发现在各种环境下是不太稳定的。而且最重要的是这种 reg 的 方式,它是预先获取的上下文,它并不是 cloud 模型自己去查找的, 他拿到的东西就有点奇奇怪怪的,他就不符合他的上下文。我突然想这个东西,突然我的脑子里面就多了这些对应的参考文献参考的一些内容,这个事情就很背论,他就不符合人的一些思想, 同时这些大模型都是人的这些语料库训练出来的,所以说他不符合人的思考,那么他一定效果是不太好的。 然后他们就做了最简单的一个方式, grab, 就 跟我们人程序员去做编程一样,我们都是使用这种方式去做关键词的一些解锁,让他自己去搜索文件,搜索关键的内库这些来进行自行的构建上下文, 这样的话他上下文就是连贯的,他自己去拿,自己去拿到想要的东西不够,他就又可以自己去拿,而且这个东西他是自己可控的,而且他是有这样的一个渐进式批漏的理念, 但是他当时是没有提出来,他们引入了 skills 之后,他们正式地提出了这样渐进式批录的一个概念。 skills 相信大家都已经非常了解了,就是先读取一个原数据,然后如果这个原数据这个 skills 是 完成这个任务需要的内容,那么这个 cloud 他 就会去看这个 skills, 然后去完成这个工作。 然后他们也说了一下模型的能力是不断地引进的,一年多的时间, cloud 从无法自己构建上下文,到可以跨文件的嵌套解锁,然后自己找到准确所需的上下文, 这个是由于模型的能力的引进,所以说它的性能是在不断不断增加的。可能最开始还是需要 reg 解锁的这种方式,但是现在到底它需不需要,或者说它需要多大的数量级才需要这种 reg 解锁的方式,这个是大家可以值得商榷的,而且最好 他都是主动解锁,而不是强行的塞到这种 cloud 的 脑子里面。他也说了一下这种渐进式纰漏,因为现在 cloud code 大 概有二十个,他们加每一个工具他们都会非常精细的评估这个东西到底是不是能加,是不是应该加。然后他们也说了一下这种 m c p, 这种 m c p 的 方式,他们使用的是直接把工具作为一个标识符放在那儿,他如果需要的时候,他自己去会去看那个工具,这样的话你 m c p 的 提示词就不会称爆它的上下文,它会放在系统提示词里面,然后他们用了一个搜索的方式去搜索这种 m c p 的 工具, 并且他也建议比如说另外一种渐进式,譬如的方式是让起一个子智能体去拿到一些想要的结果,但是绝对不是,中间的信息也是你需要的,而是你只需要那个结果就可以,那么你就应该起一个子智能体去拿你想要的结果。 ok, 最后他也说了一下这个智能体的构建或者工具的构建,或者 skills 的 构建是一门艺术,而不是科学。 我个人的感觉是你一定要给他的这种逻辑和思考或者工具一定要是符合我们人的操作习惯的,而不是把你想当然的把它当做一个工具,要把他的思维当做我们人的一些思维,然后给他编程的这些工具可能会更加的准确一点。
粉丝1.7万获赞18.8万


很多人用了 cloud code 的 一段时间,都会发现一个问题,一开始很聪明,后面越用越笨,回答越来越乱,头啃还消耗巨快。那其实很多时候并不是模型本身的问题,而是你不会用这五个最基础的命令。那今天这条视频带你一分钟掌握。 第一个命令, config。 这个命令可以说是 cloud code 的 控制中心,那输入斜杠 config, 你 可以查看和修改当前的各种配置,比如是否自动压缩会话,是否自动切换思考模式等。建议你把每个配置项都了解一下。 第二个命令, model。 如果你想切换模型,直接输入斜杠 model, 就 可以看到当前支持的模型列表,直接选择就可以切换普通任务,你可以选择 so net 模型, 复杂任务你可以选用 opus, 性价比最高。第三个命令, clear。 很多人会发现一个问题啊,聊着聊着, claus 回答开始抽风了,越来越乱,越来越慢,而且 token 消耗飞快。这其实是因为上下文啊太长了,这个时候只需要输入斜杠 clear, 就 可以清空当前对话的上下文, 重新开始一个新的绘画。我建议每个独立的任务啊,都可以开启一个新的绘画。第四个命令, compact。 如果你不想完全清空对话,但是又想减少上下文的长度,那就用斜杠 compact, 它会自动压缩历史绘画,保留关键的信息。简单理解啊,就是给绘画做一次瘦身。 那第五个命令, continue。 有 时候 cloud code 会回答到一半的时候,因为意外的各种情况,导致终端的窗口不小心被关闭了。很多人这个时候啊,就会把之前的输入再重新来一遍,但其实大可不必如此,那直接输入斜杠 continue cloud 就 会接着之前的回答继续输出。 总结一下,学会这五个命令,不仅可以让输出的质量更高,关键是还更省 token。 那 你觉得哪个 cloud code 的 命令最好用呢?欢迎在评论区告诉我,我是新启,关注我,每天分享一个外部限定的小技巧。

今天这个视频教你无痛安装 cloud code, 在 国内的网络环境下,用上 cloud gpt 等国外的顶尖模型,有些人可能还不了解 cloud code 是 什么,先简单介绍一下。 cloud code 可以 说是现在最强的 ai 编程工具, 再加上最近爆火的 skill 加持,很多人也用它写作、学习、做数据分析、办公等等。 cloud code 可以 说是现在最火热的 ai 助手之一,网上有很多的安装教程, 但是实际上你去安装就会发现不是那么回事,网络限制、安装配置中出现的各种问题能把你搞得焦头烂额。我也是看了很多的教程,结合自身安装过程中遇到的一些坑, 整理了一份 cloud code 在 国内网络环境下的安装使用指南,这份指南能帮你省下几个小时的折腾时间。接下来我会将原理和操作方法用通俗的语言给大家讲明白。好了,我们开始。 首先在安装 cloud code 之前,我们需要做好前置准备。 windows 电脑需要先下载 git, mac 系统自带 git, 无需下载, 不去这个网站选择 windows 叉六十四 setup 这个版本下载。安装完成以后呢,在 powershell cmd 中输入 git vision, 如果能输出正确的版本号,就代表 git 安装成功了。接下来要安装的是 node js 跟 npm, 我 们去这个网站选择适配自己的安装包下载即可。安装完成以后呢,如果你是 mac 用户,在启动台搜索终端, windows 用户在开始菜单里找到 git bash。 为了讲解方便,后面我们统一把终端和 get bash 统称为命令行。接下来我们在命令行输入这两条指令,如果都能显示版本号,就代表 node js 和 npm 安装成功了, and code 安装的所有的前置条件就已经完成了。 接下来我会手把手教你安装和使用 cloud code。 具体从哪里下载呢?我们有两个选择,一个是 npm 的 官方源,一个是国内的镜像源,你可以把它们类比成一个软件仓库, cloud code 也发布在这个仓库里面。那所谓的镜像源呢,其实就是官方的软件仓库同步复制了一份,那因为默认的 npm 源在国外 我们访问不是很方便,所以我们选择国内的镜像员下载 cloud code。 接下来是实际的操作步骤。首先我们打开命令行,输入下面的命令回车执行,然后再输入这条指令, 如果显示我们刚刚配置的镜像员地址,就代表我们已经成功的切换到国内的镜像员了。接下来你只需要在命令行中输入这条指令,回车执行即可安装。那这里要注意一个常见的问题啊, 系统可能会提示权限不足,这个时候你就只需要重新执行这条命令,输入管理员的密码。这指令的意思呢,就是我要用管理员权限强制覆盖安装 cloud code 的 最新版本。当安装完成以后呢,你在命令行输入这条指令,如果输出版本号,就代表 cloud code 安装成功了。 第三步是给 cloud code 配置模型。我们首先要去模型供应商平台开通账户,获取 api key, api key 相当于你在模型平台开户的凭证, 可以自己去创建获取。另外呢,要有可用的 token 额度,你可以在平台充值或者购买套餐。对模型供应商呢,大家可以根据自己的需要去选择, 你像国内的智普 glm 五、 mini max 的 m 二点五都是不错的编程模型。如果你想用 cloud opera、 四点六、 gemini、 三点一 pro 等国外的顶尖模型啊,因为国内的网络环境问题,你可以通过一些合规的中转站去订阅。 接下来我们就要把 api k 请求地址给到 cloud code, 在 这里我们用到一个叫做 c c switch 的 工具,下面是具体的操作步骤。首先我们去这个地址下载 c c switch, mac os 系统下载这个版本, windows 系统下载这个版本安装完成以后呢,打开 c c switch, 选择第一个标签 cloud, 点击右上角的加号。 第二步呢,选择要接入的模型供应商,如果没有我们需要的供应商,可以选择自定义配置。这里有三个最重要的信息需要注意一下。首先是 api key 和请求地址, 这两个是我们必填的,也就是前面我们在模型供应商中获取的信息。请求地址呢,在 cc switch 中,根据选择的供应商已经预填好了,一般在模型供应商平台的 api 文档中也能看到 行信息是选填的,但是也建议你指定一个模型,因为有些供应商会支持多个模型,换人情况下,你不知道他选择哪一个模型。接入 cloud code, 这里要注意的是,填写的模型必须是供应商支持的模型,否则 cloud code 会无法识别。那其他的配置信息呢?保持默认即可。 配置完成以后呢,我们选择一个供应商起用,后面你也可以切换至其他供应商,这样 cloud code 就 能够接入不同的模型。 不过要注意的是,每次切换供应商以后,都需要在 cloud code 里面切换模型,这样配置才能生效。那把 cloud code 装好了,模型也配置好了,接下来我们终于要使用 cloud code 了,我们在命令行中输入 cloud, 然后回车直行,这样 cloud code 就 被起用了。 当我们在 cloud code 里输入这个指令,回车直行,就会弹出模型选择的列表,我们用键盘的上下箭头选择第一个默认的模型,也就是 c c switch 里起用的那个供应商。接下来你就可以指挥 cloud code 帮你干活了。 在选择和切换模型后,啊, cloud code 可能会出现找不到模型的情况,这个时候你可以进行下面这几步排查。 首先你可以退出克拉的 code, 重启后再试一下,如果还是不行,你就要去核实一下 c c switch 中的 api key 请求地址,模型的名称是否填写错误,微商平台是否有充足的余额和套餐。 另外,我还整理了 cloud code 的 三类常用的指令,放在了指哪里。第一类是启动类的指令,在中单命令中执行,包括 cloud code 的 重启,继续上次对话,查看历史对话记录。第二类是对话类的指令,在 cloud code 里输入斜盖,你就能查看所有的绘画指令。 第三类是安装卸载类指令,前面我们安装的时候也已经用到过一部分。最后再给大家分享一个小技巧,如果你在安装和使用过程中遇到了任何你解决不了的问题,你可以连同问题和截图一同给到 ai, 你甚至可以直接给豆包共享屏幕,让他现场指导你。一般情况下,大部分问题都能够解决。这份 cloud code 的 安装指南除了有详细的安装步骤和注意事项,我还对用到的一些技术概念和工具做了小科普,如果你想要这份安装指南,我可以分享给你,而今天的视频就到这里,别忘了点个关注,我们下期见!

ok, 上上一期教大家安装了这个 cloud, 这一期教大家怎么去配置国内的大模型啊?配置国内的大模型的话就很简单,只需要设置一下这个对应的对应的一些参数就可以了。 首先我们要了解到国内的大模型它基本上都是支持这个 open ai 协议的,然后有一些模型它已经是支持 ostopic 这个协议的。然后然后的话,我这里以智普 ai 为例啊,它是支持这个 osrbic 这个协议的, 然后它新用户的话会赠送这个两千万的 talking, 你 正好可以来进行这个练手,现在已经出到了 g m l 五。好,我们打开它的官网 这个智普 ai 开放平台,可以看到它这里有很多模型可以用,然后我们使用的话,它关这个 cloud, 它是 默认是使用这个 osnoop 这个协议,然后我们获取令牌。首先打开这个智普 ai 平台,然后我们需要登录一下这里,我已经登录好了,然后创建一个新的 api key, 比如这里啊,我这里就不新创创建了吧,这里我因为我之前创建了很多。 然后我们再打开这个文件夹,点 close 这个文件夹,这个文件夹在哪个位置啊?比如我们打开,然后点到我们的 c 盘,然后选择用户,然后你对应的你的用户名叫什么,你系统的用户名叫什么?就点开这个文件夹,下面有一个点 close, 前面的这个路径不一定像一样,但是后面这个点 close 下面的是一样的,因为我们这里没有启动它,这里还没有那一个命令,所以我们先把这个 close 启动一次 啊,没有那个文啊,没有那个文件哈,就这个 setting 点接受这个文件,需要首次启动过后,它会自动生成,你输入 close 进行启动一下, 那我们回测一下,然后选择信任这个文件夹啊,比如我输入一个,你好,这里显示 显示它这个模,它这个模型不可用,然后我们在这里来啊,这里它没有促死化,正常来说它这里会自动生成一个 setting 剪节省文件,如果没有的话,我们新建一个也是一样的啊, setting 把后缀改成 jsen, setting 剪节省,然后再编辑一下, 我们直接打开这个,然后把这个参数直接复制进来,然后这里填你的 api key, 这个 api key 的 话,我们就是比如我们在字谱上面,然后就可以拿到这个 api key, 然后我这里以这个 code 这个 api key 为例,这个 api key 的 话大家最好是不要泄露出来, 然后这个模型的话,你可以自动的自己去配置,这个模型的话,我们可以打开这个官网,可以看到它这里有一个大模型,然后可以看到有很多模型啊,比如新出的 g m 五, g m 四点六 v, 这些都是可以用的,我们这里以 g m 五为例吧,然后把这个模型名称改成 glm 五, 然后地址的话就不用变了,然后 这个模型的话我们就设置的御姐参数,可以看我们我们后面的讲解,这里就跟着配置就行了。然后这一个是啊,就是给它开启最高的权限,它每次执行这种任务,它就不需要让我们再进行确认了,然后 ctrl s 保存一下, 然后关闭,然后我们再重新启动一下这个 code 关闭,然后再右键输入 cmd, 然后再输入 code 测试一下。 对,等待它启动, 然后再按任意键,然后选择 yes 啊,这里我们可以看到它这里模型它是并没有改变,这说明我们没有配置成功,可以测试一下。你好,它这里应该是没有配置成功的,因为它这里模型没有变, 你再看一下是不是路径配置错了。 q d 点 close, 点 setting, 点节省,是不是文件名称输入输入错误了,最好去 settings, 少了,少了一个 s, 我 们这里可以看到这里我们少了一个 s, 所以 导致了没有配置成功。我们来把这个文件名称修改一下,换成正确的,然后我们再重新启动一下,依旧是 win 加 r, 输入 cmd, file a, u d, e, 再重新启动一下,好,再回车,选择确认这个文件夹, 然后选择我接受,然后这里我们看到我们这个模型已经变成了我们刚配置的 glm 五,所以这里算是配置成功了。然后我们再输入个你好, 然后它如果正常回复,那应该是没有问题的啊,这当前套餐未开放 glm 五的权限,所以我们这个模型给它换一下,我们可以在手这里手动更换一下 model, 也可以直接修改这个配置文件,比如这里改成改成四点七吧,四点七, gm, 四点七。 好,我们这里重新启动一下,我们重新启动吧,就不不在这个刚 model, 刚 model 它是用来配置模型的,这一这么一个命令,我们重新启动一下,还是依旧输入 close, 然后继续回车信任这个文件夹,然后输入。你好,测试一下我们配置的这个模型是否成功? ok, 这里是可以了 啊。好,这里配置国内的这个大模型已经成功了,当然你可以选择使用这个 open ai 的 协议。我们以这个摩塔社区为例,我们可以使用 npm 安装一个一个这个插件,然后 它需要在这个 dongle 的 router, 这个路径的话是和那个 dongle 的 这个文件夹的路径是一样的。然后我们在这个里面 config 点接受里面去配置一下这个你获取到的这个 api key 和 这个对应的模型名称就可以了。比如这里是配置的千万三 qd, 这个依旧是一样的,然后启动命令可能不一样了,它需要变成这个 c c r 扣的。这里的话,你如果使用的那个大模型,它不支持这个光学的这个协议的话,你需要去下载一个这个插件,然后它就可以支持 open ai 的 这个协议了。 ok, 其他的的话我们这里也有几个举例,比如阿里的,阿里的你需要去他的官网也去获取一下 k 或者 kimi, kimi, k 二,然后其他的 deepsea 也可以,我这里经常使用的是智普 ai。 好 的,这里这一期视频就到这里了,下期我们来讲一下这个常见的这些命令。

这是一期 cloud code 的 安装教程, cloud code 是 目前世界上最强的智能体,没有之一。你是不是以为它只是写代码的?但其实它在写作、写 ppt、 写文案、画图等多个领域表现都很好。它可以帮你干任何你在电脑上干的任何事, 甚至爆火的 minus 背后的核心推力引擎也大概率是它。接下来我给大家介绍一下保姆式 cloud code 安装教程。依次执行完下面这三个命令,你就成功安装了 cloud code, 并解决了中国区域 cloud code 不 可用的问题。首次启动需要登录,如果你没有官方账号,可以配置 连接国产模型。配置国产模型有两个方式,第一种方式,修改 colocore 的 配置文件。第二种方式,通过 cc switch 这个软件去自动化配。如果你有谷歌 pro 账号,我们可以把谷歌大删人的模型反带到 colocore 中使用。安装完 colocore 的 一定要安装的一个插件 superpowers 为什么需要它?普通的 ai 往往追求速度,拿到需求立刻开始写代码,这经常导致逻辑漏洞、结构混乱,以及改了一个 bug 却引入三个新 bug 的 恶性循环。 superpass 通过测试驱动开发来保证代码的质量。第一步,当你提出一个需求的时候, ai 会主动向你提问,理清需求细节,探索边缘情况,生成设计文档。 然后它会将大任务拆解为无数个二到五分钟可以完成的小任务,确保执行过程不偏航。最后,它会先写报错的测试,再写通过的代码。这种流程确保了每一行代码都是可工作的。

好,大家好,今天我想给大家来说一下我最近使用 cloud corework 和 codex 这两个产品之后,我对他们两个之间的一个理解。 我通俗的用一个也不太完全恰当的一个比喻, cloud 我 觉得它更偏向于一个文科生,为什么这么说呢?不是说它的代码写的不好或者怎么样,而是说感觉和它的代码写的不好或者怎么样,而是说感觉和它交流以及它输出的感觉,你跟它交流起来非常的顺畅。 codex 为什么说他跟上理科生说他在写代码的质量方面当然是很好,其次是他在和你交流以及他在执行还有输出的时候,他会非常的严谨,但他严谨的同时他能够很好的完成你的任务,但是与此同时他不会给你更多的一些体验,以及更好的一些 你下达任务以外的一些东西,他是那种你给他指定范围的东西,他可以干的特别好,大概是这样。同时我觉得 codex 他 在回复的这个方式上,他也非常的格式化和古板,就是让人阅读起来或者说看起来没有那么的舒服。 这里举一个例子,就是我同样让他们两个在帮我执行了一个数据分析的一个任务,我同样把一篇论文以及我的数据扔给他以及目标扔给他。你可以看到 co worker 他 在给到一些结果的时候,他会非常明确的给出一些小段,而且他的每一个段都是经过他的语言提炼和文字 表达,非常像和一个人在交流的一样的感觉,他给到你一个非常舒服的一个感觉,你看起来就很舒服,比方说他会解释这些差异,这些东西都不是说我要求他去做的,我可能只是给他定了一个大的方向,他就会从我的这个方向中可能会 挖掘到或者相关的一些点给到我,这个就让我非常的舒服,看起来就像是一个真正在干活的一个人,他给到我的一个结果, codex 你 可以看到他给我的输出的这些东西非常的简单直接,很格式化,看起来就像个就像给机器在看的这种东西一样,你给他说什么他就给你什么,他也不会给你更多的一些解读或者怎么样,除非你去指定给的这些东西都非常简单,一个数据结果,一个 文件保存路径等等这些东西。所以我在阅读起来的时候我就会觉得不太舒服。我现在有一种办法,就是说我让 codex 去执行任务,然后执行好任务,有了结果之后我再让 cloud 去帮我汇总和解读,这个组合我用下来感觉现在是蛮好的。对,所以这里我并不是严格的去 批判这两个谁好谁坏,我只是觉得他们两个在不同的场景,不同的任务下,嗯,会有不同的一些表现,看大家自己的喜好更偏向于用哪一种。