粉丝66.6万获赞390.6万

hello, 大家好,今天给大家讲解一下使用 code 这款产品了,然后 code 呢是阿里开发的一款基于 a 剪式的编辑软件,然后类似 cursor 啊,有时候有自己的 try 啊, 那么呢,我也是做相相对于同样的需求,就是这个视频剪辑平台,之前我用 cursor 去做了第一版的那个实现,那今天呢,我也是基于这款需求来使用 code 的 这款编辑软件来实现了。那么呢, 先看一下,就是我把这任务交给他之后呢,他会拆分成好几步,他会按照这几个步里面去逐一的实现,然后呢最后实现出的效果呢?是他是长这样的,但我刚才用了一下的话,他的体验并并不是很好,就是他出版的那个效果,其实跟我想象中的还是有点差别的。 ok, 其实这里面呢,我其实想让它去实现一款产品,就说是一站式的视频剪辑平台,上面我可以基于一些自然语言去对视频进行编辑的, 就是类似跟传统的那个剪映的产品不太一样,因为剪映的时候呢,它是需要自己去调整的,比如说今天我要听一下字幕的话,我要去呃 调整下视频呢,切分呢,它都是基于那个人工去手工去做的,那当然它的音频的视频呢,它是可以借助于 ai 来去进行识别的,但我今天我这款它我想做的事,我们基于自然语言去进行对话,因为不管说今天编程软件也好,还是说现在市面上的那个视频生成平台也好, 他都不是,他都是借助 ai 能力,能够让人人人类呃理解自然语言进行对话,然后实现效果。今天要像我们的那个分享键,像我们的 啊,扣德啊,有我们,我们也是基于这种对话式的去完成我们编程任务的,那么在视频剪辑平台上面呢,我也希望说能够做到这一点,接对话框来说,比如说我需要去添加字幕,添加字幕还有中英文,中英文, 然后类似这款就这样去去做,那么呢我可以说这样的话呢,可以把我们呃从繁琐一些剪辑任务中撤离出来,那么我们大大提高我们视频剪辑的效率。 然后呢,虽然说不过这款实现的不太好,就是可能是我给的需求不太明确吧,没有达到我效果,那么呢我可以给大家讲一下,就是我们是怎么用的它这里面呢? 我们的我们的扣点呢,就是他下载下来的时候呢,对免费个人版来说,他是有一定的免费额度的,他这里是有快递的,为单位的,那么我们下来说是两二十 k, 就是 两百二十万的快递,那么呢就是同 a 证,我们可以在这选这个模型,这里有 kimi 啊, mini max 啊,还有我们千万 这里面呢,然后他这里有个模式,因为这是编辑模式,他有个对话模式,对话模式呢,就是说我就是你可以接对话这里给他各种任务,因为之前我跟他说了一些,明确了,他这里面 使劲的,不过他这个头粉消耗太快了,我就很快就用完了,所以说没办法继续去去进进步优化了,对,然后我只是体验一下产品,要大家的话也可以去下载下来体验一下啊。 后面呢我也会使用其他的编程软件,像 code 啊,还有 color code 啊这些编程软件去实现这个需求,那么我们还是以同样的这个需求进行对比了,我看一下哪个产品它的体验 跟我们的实现效果是相对比较好的,那么相对来说的话,还是 coco 它是比较好一点的。对,那今天视频先到这里了,感谢大家观看。


找别人去部署,收费都已经达到了五百元一次,我们也是首次来使用这个大龙虾,在完全小白的情况下,来看一下这个大龙虾我们能不能通过 ai 的 方式全自动部署到我们的电脑里面, 然后去使用它。据说这个大龙虾可以完全操作我们的电脑,完全释放我们的双手。好,废话不多说,我们先来使用 ai 将大龙虾 尝试着去自动的进行部署。桌面上我们那个网页是一个终端的形式,我们新建了一个龙虾文件夹,然后打开了一个终端, 完全基于网页上,我们选择部署大龙虾的 ai 工具是使用 coder, 使用它的模型 autemeter 极致模型,一点六 x 翻倍。首先发给 coder, 我 们先描述一下关键词,最近火爆全网的 open curl 可否部署到我们的系统上,回车看一下这个模型,我们就选择这个刀刻的方式去部署好,回车 来提交这个答案。扩展了网络上的教程以后,问我们使用哪种 ai 来对接 open klo? open klo 它只是一个 ai 网关,说白了它就是一个壳, 核心还是使用 ai 的 智能模型 ko 的 给出了五个步骤,预计应该是一分钟 可以完成。按照 code 给出的提示,我们来通过这种方式 token 的 方式直接访问这个链接,就可以登录 openclo 来看一眼它的这个网页端的效,前面有 code 的 模型和 openclo 之前在调试时候的对话, 然后左边是菜单栏,接着来问一下他,你都可以做什么?点击发送,这样 open close 就 会调用对接的谷歌 gemini 模型来进行回复,好给,除了回复,他可以做很多事情,运行终端,搜网页,抓网站内容,控制浏览器, 各种任务,发送消息什么的都可以做。这些任务的执行我们就不再测试了。这就是我们第一次使用 open klo, 甚至不知道这个发音对不对的情况下,通过扣嘚纯聊天的方式 对 open klo 进行的部署。如果你也喜欢这种聊天的方式去部署 open klo, 可以 访问加运点 set, 参考里面的文章。

那个大家好,我是那个 code 这边做 agent 的 一个同学,然后今天主要是跟大家聊一聊,就是怎么把 code 给用好,然后然后现现现场应该有很多朋友可能是刚开始用这种 ai 编程,也有可能是 呃用了比较久的时间,然后我会尽可能的然后把初期一些用法,还有一些进进阶的一些用法,然后都跟大家聊一聊,然后大家可能也可以就发到群里或者成为我们的大使,跟我们一起去呃交流,然后 ai coding, 反正也是 啊,这两年开始刚火起来,我们相信他也是一个比较星辰大海的一个过程,然后我们可以一起去把这个事情呃就是用的更久,然后用的更大一点。对 啊,第一,第一个其实就是说呃 ai ai 编程的一个简介,其实呃之前说大家很多同学可能会用过这种辅助式编程,就说他可能会去帮你去做一个代码补全,就你敲入几个字母或补充几个函数,这样子,就是就是 之前的辅助式编程啊,然后其实在里面大部分还是靠自己去嗯写各种各样的代码,其实我们现在呃更多是在第二个阶段到第三个阶段,然后这样一个阶段就第二个阶段是什么?就是说我把我的意图呃 描写描述给这个 ai, 然后让他来跟我一起写作,然后去把你整个的需求给给完成在这个阶段。然后其实啊我自己当前阶段还是用这个比较多,我可能现在有百分之九十几代码都是通过这种方式跟 ai 去写作,去帮我,帮我把我的需求给 做完,然后未来我们在逐步的向第三个阶段引进,就是说呃不断的呃去委派我们真正的可以把一个需求完整的交交给一个呃我们的一个 agent, 他 可以不仅帮我们把需求做完,他甚至可以帮我们把呃验收的一部分工作也帮我们做掉,确保我们的整个的需求是完整的交付给我们。 对,然后我先跟大家简单说一下,就是大家 ai 编程的呃三个眼镜的一个呃方向,对,然后第第二怕就说我跟大家介绍一下,就是我们抠的整个系列的产品,就是为了方便大家呃更好使用 ai coding, 其实我们在呃 几个主流的呃编程软件上都都有这个给大家提供一个比较好的 ai 编程的形态。第一个其实就是我们主要的一个 呃入口,就是我们 q 的, 我们自己研发一个 q 的 id, 它是一个基于上下文驱动 id, 就是 我们自己会呃帮你内置我们的上下文引擎,然后理解你的需求,结合你整个的代码仓库去完成你的这个这个需求。这里我看看能不能放放一个视频哈, 哦,好像这个视频放不了,一会我一会我给大家演示一下吧。对,第二种形态就是说我们也给大家对于很多高级的用户哈,然后他其实喜欢呃 c l i 这种形式,然后今年 c l i 也比较也比较火嘛,就是有一部分比较资深用户,其实他喜欢在 mini 行里做。另外另外一方面就是说 c l i 这种形态 其实可以很方便地集成在你的工作流里面,比如说你在 github 上,你可以去啊把我们 c i i 集成进去,自动帮你做代码审查,或者做一些软件研发工作流的一些东西。对, 然后我们呃其实很多后端开发者他还是比较喜欢用 jedi bronzes 嘛,其实我们也推出了呃 jedi bronzes 这样子一个插件,大家可以在 jedi 所有的产品里,包括 idea 呀、 android studio 啊啊拍叉嘛、 go long 这样的系列产品里都可以安装我们的 code 插件, 也可以去使用我们完整的一整套的 agent 的 能力。对,然后我们在这里面产品里我介绍几个主要的产品功能,哈,第一个就是我们的这个 agent 的 目的就是说我们这个 id 右侧大家可以看到有个对话面板,就是你在这里输入你的需求, 呃,然后你把需求告诉他,就比如说你请你帮我编辑一个网站,你告诉他就行了,然后他会结合你整个的代码去帮你把这个需求给完成。 然后我们内置的一个呃代码解锁引擎,就是,呃,我们可以解锁十万个代码,代码文件就自动化,帮你把这些里面的锁影啊、项链啊都给你处理好。然后根据你的需求,我们会动态的去把你的 呃这个呃相最相关的代码自动的放到你的上下文里面,让模型知道你这个仓库是干什么,比如说你可能是一个前端仓库,一个后端仓库,或者说是你里面有些健全的逻辑,这样子的一些东西,我们都会自动把你解锁出来,放到啊放到大模型里面,然后给给模型去用。 然后我们也呃也推出了 quest mode, quest mode, 其实我们我们其实面向未来的一种模式,第一它是提供就是 speck drive 这种研发模式,就是你呃呃去先可以先去跟 ai 先去探讨,就说我这个 呃归曰是什么,然后,然后我的详细的需求,然后我的验收标准是什么,然后等你跟 ai 讨论清楚之后,你再去让 ai 去执行。我们在这个模式下,因为我们追求 追求的是一个啊,长城的翼步的尾拍的一个模式,我们也提供啊,就你可以选择在本地执行,你也可以说我们也给你自动打通一个云端容器,你可以你可以提交几个任务,说到我远程一个容器去执行, 对,然后我们在这个模式下会不断去引进 ai 自主编程,就是我们最开始提到的第三个阶段的这样一个产品的能力。 啊。啊,我们其实呃呃在所有的竞品里面哈,我们提供一个非常差异化的能力,就是 rapper vicky, 就是 我们可以为大家所有的仓库去生成自动化,去生成文档,自动化去更新文档, 嗯,在在大部分的企业里啊,其实呃这个文档维护都是一个比较大的问题,就是很多人写的代码其实不太乐意去更新文档, 然后或者说是经过很多年的流转,其实很多信息都缺失了,我们会我们可以自动的去根据你的仓库去帮你生成一个结构化的文档,然后呢,当你有一些代码变更的时候,我们也可以去自动化的去帮你去更新这个文档,然后极大的减少了这个维护的成本。 对,然后值得一提的是,除了这个,大家看代码的时候可以用用这个功能哈,在你写需求的时候,我们有时候会需要把一些文档也注入到模型里面,我们会自动的解锁这个微 k 里面的知识,自动的帮你放到这个呃呃 a 阵的上下文引擎里面。 对,这个是我们新一代的这个技术架构。对,然后我们上面给大家提供的几种,嗯比较啊,就给大家提供的产品能力嘛,就是啊代码不全,就是我们刚才说的第一个阶段,第一个阶段就是 ai 编程的提供能力,然后包括我们现在的对话式编程, 还有还有长城任务,就我们这种 spec drive 啊,或者异步尾拍式任务啊这种编程模式。对,然后下面是我们的一些呃核心的技术吧,大家可以了解一下, 我们可以针对每个场景去看一下。对,针对于补全这个场景,我们其实呃大家在敲出来代码字,就就是大家补全那个时刻嘛。你, 你,其实你敲出来几个字符,我们是要非常实时的,根据你这个敲出来的字符,结合你整个的呃相前后呀左右啊或者相关的代码去帮你补出来这个能力,其实这个要做出毫秒级的这个精准的推荐, 需要花很大的功夫的。对,然后在对话式编程这一块,然后我们需要啊给你的每个仓库都自动化,去快速的去建立整个的 啊全量的缩影,然后我们去帮你去自动化的生成这个啊, rapper vicky, 另外我们还要把成本降到一个非常低的程度,让大家就花净非常少的钱,就可能想到享受到这样的一个 呃呃技术的一个红利吧。在长征任务这一块呢,其实呃大家不知道有没有发现,就不管你用各种呃 ai 对 话类的还是 ai 编程类的软件吧,都会有个问题,就是说呃你其实呃之前提的一些需求,或者你个人的一些偏好,他都会忘,你每次打开都是一个新的窗口嘛? 比如说我这个应用,它明明是拍成三点七的,对吧?然后 ai 可能呃用错了,用了一个三点六或什么之类的,然后这次你你教它了,它能不能记住,下一次就不问你了。其实我们完全内置的这样的一个引擎, 就是呃 ai 犯过了错误,或者说是你之前的一些个人的偏好,一些项目的知识,我们都会自动帮你记下来,在以后的时候 ai 就 不不会再犯了,我们所有的这些流程全部都是自动化的。 对我们整个产品其实啊有一个比较核心的理念,就是说尽可能的把所有的东西都自动化掉,因为我们发现在 很多场景下,如果让你让用户去管理很多东西,就会产生就是说维护不及时,或者说他懒得做,或者上手门槛比较高的事情。所以对于呃像刚才我提到这种记忆的这种东西,我全部都是自动化的去会帮用户给 哎做掉。在长征任务这一块,我们其实呃在大家可以认为我们在云上给大家提供了这种非常安全的远程的杀伤技术,然后让 ai 可以 在里面如果你有个非常复杂的任务,它可以在里面甚至可以干几个小时,对 对,最底层的话就是我们自己,呃,有自己专门训练的一个顶级的大模型,还有全球最好的大模型。如果大家用我们这个 code 可以 看到有几个模型分析选项嘛?对, 大家可以按照自己的需求去选择不同的模型,然后可以选全球最好的,也可以选择啊,一些性价比比较高的模型,一会我也会给大家啊,详细介绍一下啊。那一块 接下来就是先先先简单讲一个 code, 这样这则这个可能是面向一些就是刚用 ai coding 的 一些用户,这是我自己一个实战啊,就是说 我们先回答,就 coco 能帮你做什么?就是我的一些呃,理解啊,第一就是说它能让你的开发效率就是可能极大的,可能就是真的是十倍。就之前的时候我想要做一个原型验证或技术的验证,我可能说我要去 啊什么 github 上查查资料,或者说是百度上查查,或者谷歌查查,查很久,然后再去做什么,我现在找 ai 快 速帮我去把这个东西就可以,就我如果我知道怎么做,我可以快速把它实现出来,可能真的需要几分钟就可以做出来。还有就是说 每个人的技术能力的边界都会得到非常大的一个提升。其实我是一个纯后端的同学,但是我自从用了我们扣的然后这样的 ai 编程工具之后,我其实也可以选前端了,我也可以去写 l s 的 小程序了, 所以就引出我们第三个,其实每个人都会变成都可以成为一个非常超级的个体,就一个人其实可以可以干很多事情,你可以去做前端的研发,后端的研发,上千的部署其实都可以做了。 第四个我觉得很重要一点,就是说自定义化的需求就会得到极大的满足。就之前的时候大家拿到呃,就是可能拿到软件,比如说你的微信,就是微信可能他每年迭代,迭代很慢啊,他呃他一年就迭代那个几个小功能,你,你很不满足。未来大家可能自己就可以自己做一个 自己的聊天软件,或者说自己做一个自己的生活管家这样子的,然后只可能只需要花几个小时时间就可以做出来,所以我觉得自定义化的需求在 ai coding 这个时代会得到极大的满足。 对,我可以介绍一个一个我自己在家给家人用的一个例子啊,因为我养猫嘛,就是呃猫嘛,然后有很多需求,其实有很多要记录,比如说我什么时候给它买,买了猫粮要驱虫嘛,然后有时候可能要带它洗澡,各种各样的东西。然后呢家人就希望我给他做一个软件,能不能把它 他的需求都给记起来,因为市面上有很多软件不符合他要求,有些功能都没有。然后他不可能是呃,就是人家的软件也不会,也不一定听我的需求嘛。那我就呃帮我的家人做一个,就只花了呃,周末就花几个小时,时间很快。 而且我是一个之前完全不会写 ios, 不 会写前端的一个用户,然后我真的实现了,就是真的不改一行代码,就把这个呃呃这个 ios 软件做出来,然后给了我的一个页面,其实就是说 在这个里面我们可以让 ai 帮我们做几件,第一个是就是说希望他帮我做设计方案,就是我就是呃我,我可能我最开始只有一个大胆,呃,就是一个非常大概的一个印象嘛,比如说, 呃我可能只需要一个养猫软件,我需要呃有记账、库存、日程管理、日记这样的功能嘛,但是呃这几个之间要不要有些联动?然后我的一些日程,我的库存和我日程管理, 比如说我的猫粮快消耗完了,它要不要自动去帮我去建一个日常之类的,帮我提示出来。这些东西我可能一开始没有那么 呃想好,就整个的产品方案和东西,我没有那么想好,我们可以去找 code 帮我们去做一个方案,就跟它说我想要为家人去做这样的一个软件, 请你帮我设计一下,他就会帮我去设计设计出来,然后里面你可以去看一下他设计的方案,如果你发现他设计的不太好,你可以再去跟他讨论。其实在这一步大家有没有发现其实我在做一个产品经理的角色,我和抠的一起去成为这个产品。 对,我接下来就是说如果跟他讨论好了,那你就跟他说啊,其实就跟他说一句很简单的话,就说我左上角大家不知道能不能看清,就实现功能,你写到代码库就行了,然后我跟他说他其实就可以去实现了,就很简单,你用自然语言跟他对话就可以了。 然后其实大家呃我,我当我实现这个代码之后,可能会有些报错啊,就是呃我们用我们用那个 x code 打开之后或者调试的时候,它可能会有些编辑报错啊,或者说是有些大家觉得页面不合理啊,该怎么办呢?其实呃在 ai 这个时代,就是你也可以不用自己去看那个错误,也不用去谷歌,你直接把它把报错丢给 code, code 就 会自动帮你去分析这个,这个报错是由什么原因 呃造成的。我其实不太会那个 swift 这样的语言,我之前就是遇到就是 ios 软件启动报错了,我直接去把整个的报错就直接丢给 q 的, q 的 就会自动去帮我查,哦,它可能是某个主键,然后依赖的包有问题,它就自动去分析出来帮我修掉了。其实在调试这方面也可以交给我们的 q 的, 对,就是调试报错解决,就是刚才那个就如果你有些方案什么不知道的话,你也可以跟我们扣的聊对,接下来就是说一些进比较进阶的一些呃用法吧,就是呃 怎么样才能用更好的呃效果,然后更耐用。然后我们可以从一些基本的概念讲起。第一个就是说呃长上下文对模型效果影响,其实我呃我们 给把一个需求给到模型的时候,不止你呃把需求给他,其实我们会联动的去把呃你当前所处的一个代码的环境,比如说你是怎么操作系统的,然后你仓库里相关的代码其实我们都会给到模型,然后这些其实都构成了整个的呃上下文 啊,可以看到其实业界上现所懂模型哈当当这个上下文的长度啊,变长之后,它的呃它的效果其实都会出现比较大的下降, 就是其实大家模型现在的有效上下文程度可能只有一百多 k, 大家虽然可能有些公号称可能有啊 one million 或 two million, 那 其实有效上下文可能就是一百多 k, 所以 我们呃在这里我们有一个观点,就是说其实在这个有限的上下文窗口中,其实呃大家尽可能只给模型非常非常必要的上下文 就无关的,或者说是跟本次就没有关系的,就不要给他,不然他的效果会受到比较大的影响。我们可以来看一下我们整个 code 里面这个上下文里有什么, 最上面其实是大家作为一个用户可以调控的,就你可以去呃选择你这个模式是什么?我们退,我们有好几种模式啊,就你可以选择 agent, ask, 对, 然后你也可以有呃 quest, 各种各样的模式, 然后啊第二种是第二个是模型选择,大家可以选择啊不同不样的模型,我们会根据不同各种各样的模行动态的为大家适配最好的效果的提示词,让大家能得到最好的效果。第三个就是需求,需求就是说你想让 ai 帮你做什么?对, 第四个就是附带一些文件和目录啊,就比如说你你,你已经知道哪几个文件要改了,或者说你啊让给 ai 传了几个图,说你要帮我去根据这个图来做什么东西,就是上面这四个,上面这四个其实是大家可以去调控的,就是通过调控大家的输入, 然后可以获得更好的效果成本。下面那个上下文引擎全部都是自动化的,我们扣的全部帮你做好的,就比如说第一个是啊,你的环境信息,你的操作系统是什么,然后你的工作目录在哪里?然后如果你上下文多了,我们会自动的去有最好的压缩策略去帮你压缩。 嗯,就是,然后在大家在一个窗口内可能会进行多轮的追问嘛,就第一步你可能说让我帮我干一个前端的一个呃功能,接下来第二步可能是说帮我去做一个呃后端的需求嘛,那你前端的前端后端可能是有关系的,那我们会自动帮你把前端的历史上下文也会给带上去。 对,然后记忆就是你过去的一些偏好,比如你的风格呀,啊,你怎么用这个软件啊?然后你们项目的项目内可能有些规范啊,对,我们也都是会自动把你给带上了。 嗯,还有规则,规则就是说,比如说你的老板要求你啊,给每个函数你写的时候都都,比如说函数尽可能简洁,每个函数都要加注式,就是一些规则,然后你,你写一个规则,我们都会自动帮你带上来,还有代码仓库相关的 呃东西,对,然后其实,呃我们这时候我们把所有东西给模型之后,模型就会产生一个工具调用, 所以我自己写了一个循环执行啊,循环执行意思就是说啊,我,我把这些所有需求给模型,模型可能是说,哦,那我这时候我要先看看你的 readme 是 什么,它就会发起一次工具调用,发起一次工具调用,然后它就去读了一下 readme, 然后其实这时候这个 readme 就 会夹到它的上下文里面,所以它上下文就会变长一点,那读了 readme 之后,它可能又会说,那我需要看一下你的 doc view, 它就会不断地循环调用,直到它觉得它现在获取的信息能满足你的需求了, 才会停止这个。呃,工具调用。对,这是整个上下文里面有什么?就整体来说就是上面是大家可以调控的,下面就是我们 code 会自动的,就会帮大家啊,做最好的方案,自动的话去帮大家去获取最优最高质量的上下文。 对,哎,刚才大家举手的时候,我看到还是有挺多同学其实用过 code 的, 包括,嗯, 有很多同学啊,可能也在啊,可能想知道 credit 和上下文的关系,其实简单一点,就是大家可以这个 credit 就 可以和 tucker 消耗的成本是正正相关的。刚才其实我们聊的上下文其实就是说他可能在在在整个模型执行过程中消耗了哪些的上下文, 所以其实就在上面。呃,就整个上下文,就你,你给模型多少的 token 啊?然后不同的模型价格可能也不一样,所以它就会影响你的 credits。 对, 那接下来是我的一些实践的一些经验啊,就是说,呃,那那那既然,既然大家选择的东西就是不管选择的模式啊,选择的模型啊,其实都会影响你的效果啊,成本,那我们应该怎么去用呢? 嗯,这里是。呃,在我们 qq 上讲,我是推荐就说,比如说你阅读这个代码仓库的时候,其实你可以用我们的 reaper wiki 去了解你的代码仓库,你可以通过 reaper wiki 去跳转到你的代码,然后去看看呃,怎么实现的。 然后如果 reaper wiki 里面可能一些没有的知识,你就通过我们的这个 ask 模式去问,让 ai 去找。然后这个 ask 模式是一个止读的模式,它不会编辑你的代码的, 可以跟跟我们的这个 code 进行不断的探索讨论,最终得到你想要的这个模式啊。如果你是一个比较明确小需求,比如说我就是要增加一个什么,把,把这个图片保存到啊本地文件的这样一个函数,你已经非常明确了, 或者说我要就是要写一个一步并发的东西,你就,你就切到我们这个 a 键的模式,直接写就好了,它其实 a 的 模式是一个快速执行,是一个非常高效编码的一个场景。 如果再复杂一点任务,大家怎么办呢?我是推荐先切到我们的这个 ask 模式,先跟他聊,多聊几轮,直到你觉得他产出这个方案,你觉得是非常一个呃,你想要的合理的这个方案,然后你再切回到 aj 的 模式去让它实现代码。 当你有非更复杂,就比如说我就是要做一个啊,非常庞大的,比如说大家要做一个淘宝,或者做一个什么啊自己的软啊那个小程序出来非常大的需求。然后大家就可以去体验一下我们这个 quest 的 模式,我们在这个模式下支持你这个零到一的需求, 也支持你有一个 spec 之后这种长任务,然后根据你的规范去去去去执行这样研发一个任务。对,这是我们的几种模式啊,我推荐的几种场景, 对,然后每一分钱花到刀刃上,就是大家其实选的模型背后的价格的系数其实是不一样的,那如果用我抠的,我们其实是分了几个等级, 就是说我们最下面可以看到就是一个呃,免费的一个模型的等级,就是说用 light 模型的话,其实你所有的东西都是免费的。你一些非常简单的任务,比如说我想知道这个函数干啥的,或者说你我,你帮我加一个什么小循环什么之类的,大家可以用这种。然后有些常规的任务,你可以用 eiffany, 它的系数是零点三,就比较便宜。 如果大家日常开发就 daily use, 就是 说我我我。其实觉得有些同学可能觉得这种各种模式很复杂,也不相管,那就用我们的这个 auto 模式就行了,我们会根据你的意图,你的场景,你的仓库,你的情况,自动化,帮智能路由帮你录一道最合适的模型,让你的效果最好。 然后在这个情况下就是综合下来是一个最划算的模式。其实最推荐大家使用这个 auto 模式,就是又划算,效果又好 啊大家。当然大家有可能会有些稍微复杂一点的任务,我就是要用更强的模型,可以切到我们的这个复合文字,它的系数是一点一,其实也没有很贵,就是比我们的这个 auto 可能只贵了零点一对。 然后我们还有一个就极限挑战有些的 bug 的 场景啊,有些非常复杂的场景,就可能你觉得,呃, 嗯,就普通模型都搞不定,或者你自己搞了半天都搞不定,其实可以切到我们这个,呃, altru 模式全球最强,我们真的是全球最强,就是如果这个搞不定,就是没有其他能搞定,就是这个是呃,就是呃可以解决到现在 ai 能解决最强的任务,可以切到我们这个 altru。 对, 但这个成本也会更高一点, 我们会倾向于你在一些极限挑战的时候会用这个模型,这样大家的成本会控制到一个比较合理的水平。嗯 啊,接下来是一些简单的一些小小的一些经验。就是就是第一个就是说给模型尽可能多的有用的信息。 其实我在研发的时候就如果我知道,比如说改哪个模块啊,改哪个文件文件夹,或者说改哪几个文档, 然后你可以去呃通过我们这个呃加号或者艾特的东西把把相关新闻给模型,这样子的话,其实模型会 呃尽量的减少探索就就是模型啊,一般完成你需要进行几轮的工具调用吧,一般他的逻辑是说我先跟你的需求去探索一下仓库探索,探索一会之后他再确定他的方案,再去写这个代码吧。如果你最开始已经给了他,那他就减少探索了吗?那他花的钱就更少了。 然后有时候他看探索的时候可能也有些幻觉,如果你给了他精准的上下文,那他可能效果也会更好。对, 但如果他探索可能有问题的话,你可能后面还要给他追问,让模型啊,就是跟他聊好几次,这样其实也会消耗你的这个呃 talk。 其实我我比较推荐大家在第一次的时候,就是当你知道有些东西可以给模型的时候,你就给模型。 对啊, m c p 的 话,因为它其实现在的很多 m c p, 它的工具其实又呃有非常多,有些 m c p 可能有好几十个工具,其实工具的定义我们都是会给模型的啊,这时候其实也会占非常多的上下文,嗯,就 m c p 吧,大家推荐它就是按需开启,我们扣我们扣的这里面, 呃呃在设置里面有个 m c p 服务,大家可以在这里点击起用或禁用,可以在只在一些指定的场景下去把这个 m c p p 开启 啊,控制上下文的长度。其实我们发现很多用户其实就在这一个菜单的 window 里哈,一直问一直问一直问啊,其实呃呃当你的整个的叉,呃呃这个左边聊天这个 window 啊变长之后, 你你的那个就是整个上下文就会非非常长,你的你的成本是很高的,然后如果你超过了,呃,比如说快到两百 k 的 时候,其实它的效果也是会下降的。其实我非常推荐大家,如果呃两个需求啊,就两个需求没有什么关系,就尽可能多开,多开就点右上角这个加号, 然后我们在下面这个用量表,大家可以看到这个十三点六,其实我们给大家也也也也提供用量了,就是我当前这个模型最大支持的窗口是多少,这个两百 k 呢,就是代表就是说我这个模型最大的窗口是两百 k 十,那个二十七点二就代表是说我们你现在的这个需求啊,已经消耗了这么多,当当这个很大的时候,然后我一方面我们会自动帮你去压缩啊,当然当然你也可以去选择那个 compeg, 你 也可以去主动压缩,当然我我最推荐的是就是你,你如果需求没有关系了, 你就新开一个,如果你觉得需求还有关系,你就点这个啊,压缩上下文就好了。对, 我们可以有个例子啊,就做一个对比,就刚才是说我们要不要去新开这个窗口,我们做一个对比,就是说如果你,你这个就是你,你追一次追问请求啊,如果你是一百 k 的 上下文开始,对最最终的话,你可能消耗了。我们这里有个公式啊,就是说你假设你进行了 啊十四的这个工具调用,它里面有一部分,比如说我们百分之九十用了缓存,然后乘以这个价格,然后加上没有缓存的地方乘以价格,最终算出来可能是一个一美金的额度。但如果你是一个新开的绘画,是从二十 k 的 这个上架文开始,最终你可能只花了啊零点二二美金这样一个东西。 通过通过新开一个绘画其实是能大幅有效的帮你节省这个 credits, 可以 看到在这个场景下其实可以,呃,能帮你节省百分之七十八的一个成本。 呃,我们抠的其实内置的这个 rules 就是 rules 的 话,呃,其实在企业级开发,在生产级开发其实有很多很多规范,比如说你部门的一些要求,或者你自己有些要求,其实有些价编码的规范,架构设计,还有一些安全又合规的东西, 呃,都可以去新建。 rose, 我 们,呃可以看到我们这里有个 rose tab, 呃,在左上角的第二行哈,呃,第三行那里你可以去选择啊几种模式,我们是支持你去选这种模式,就一方面你可以去, 呃,在需要的时候就手动艾特这个 rose 在 生效,有时候你也可以让模型决定这个东西要不要生效,然后你也可以让它一直生效。对,就是让 ai 一 次性的帮你去产生这样符合编码规范的,一个就是代码其实也是能帮你省掉很多很多的成本。 还有一个就是说让模型记住历史的经验啊,一般来说我们会自动去帮你去更新记忆,就是说你之前模型犯过的一些错, 我们其实是会帮你自动的啊,记入到我们的这个记忆里面,那有时候可能啊,模型觉得不重要,你觉得重要,那怎么办呢?你可以去添加,手动添加到我们的 rose 里面或 a j 的 里面,你也可以主动触发啊,让我们扣的。记住,你可以就在右边跟他说,请你记住刚才你犯了一个错, 然后你要记住你以后不要再犯这个错了,我们就会自动把你记住。对,可以看到右右上角,我会跟他说,请记住,然后你, 嗯,每次你 python 其实都要用三点一一的版本,如果没有的话,没有安装依赖,请你自行安装。就我经常会遇到 python 的 项目,他用错版本,我就跟他说你这个项目一定要用三点一,跟他说一声就好了,然后他就会记住,对,就记住。呃,就如果之前的错误他不再犯了,你就不,后面的时候你 你其实就少了几次,追问就少了几次,要解决这种错误,其实也能减少很多的成本。 我们。呃,其实 coco 给大家提供了非常多可可适 credits 可适化的工具,就大家用量,就是左边其实是一个任务的参考啊,就是说在 ask 模式, agent 的 quest 和 rapper vicky, 呃,你出发不同不同的任务,你大概会,嗯消耗消耗多少的 credits, 大家可以有一个,就是大概心里有一个大概的一个尺度,对,然后方便你去根据你不同的任务去选择不同的 credits, 然后右边这个就是说我们不同的模型,其实啊有不同的系数,大家可以按照自己的这样的一个 呃需求去不断地选,就是日常开发的可以用 auto, 然后在极致性能的时候,你可以去选择一点六系数的这样子全球最强的模型,对, 好在下面有个链接,就是说你在 cold 的 官网,你是可以看到你每一次每每一个需求的消耗了多少,大家可以也可以去啊这里看看,就是说哪里消耗多了,哪里消耗少了,其实都可以有一个追踪,然后你也可以感受一下就是什么样的任务,然后你应该怎么去合理的控制这个 credits? 人来说我们扣的在,其实我们在成本啊,效果啊,速度,我们一直在做一个呃呃平衡,就是我们自己内部花了非常多时间,然后不断的让让大家去呃呃 在同样一个任务啊,即使呃就是呃,就是你用户,用户选择之后,我们通过各样的缓存机制和压缩机制,让让大家一个需求的成本不断的降低,就是我们从发布到现在,然后其实大家单个需求的任务是其实是降了很多的, 对,然后效果我们也是在不断不断的优化,就是不断提升我们整个上下文的感知能力,对仓库的这个啊理解,对关键信息的召回,然后然后大家的这个体验的速度,我们也是不断地去帮大家自动地做好。对, 然后其实我今天分享的这个内容就这么多了,我可以给大家简单看几个产品啊,就我们扣的就是这,其实这个就是我们的扣的 id 哈,就是大家打开之后, 呃这个就是我们的对画面板,你可以在这里去切,就是我们刚才说的一个是 a 阵的模式,这个这个模式就是帮大家去做事情的,它是有写代码的能力的,也可以有执行命令行的能力的。就是如果你有些 任务要写或要哦因为任务要实现,代码要实现,再用这个。如果大家只是现在想跟呃那个 a 阵多聊几轮,要要要问一问一些东西,大家可以切到这个问答的一个模式 啊,这个就是我们选模型等级,就是一般的话推荐大家就用 auto 啊,如果你在一些非常非常难、非常难的场景的话,可以切到一些更好的模型,去去去试一试。这个就是我们的那个用量表, 对,大家可以在这里看到我啊当前绘画的一个用量表。然后如果大家有些需求,比如说呃呃你,你如果其实就是说呃你,你描述可能没有那么清楚,或者你自己没想好,也可以点我们这个功能去一键的去帮你去优化这个提示词, 对,就是你输入一个框后,这里就会点这里就可以帮你去优化这个提示词。对,然后左边的话,我,我刚才随便敲了几个字母啊,大家真实的时候可以写,就比如说帮我,帮我加一个权限或什么之类的,它就会帮你,你再点一下这个,它自动会帮你去优化好你的提示词。 左边大家可以通过这个点开我们的一个 rap, ok, 就是 我们会自动帮你整个仓库生成文档,大家可以看一下,其实我们生成的非常的详细,就有整个项目它是一个呃呃什么样子的,然后每个模块是怎么样子的,然后每个里面呃它的一个逻辑还 然后怎么调用的,其实我们都有帮大家详细生成好,而且我们其实和代码做了一个非常好的联动,就说如果你看到这块逻辑啊,你不确定,或者你想详细研究一下,我们下面都会给你就这个逻辑来源于哪或来源于哪哪几个。就有些逻辑,比如说,呃,你要登录逻辑可能来自己多个文件嘛, 就之前之前说大家可能要一层层的的找,要找很久,我们这里直接给了你我们这些逻辑在哪,你可以去点开这个,它自动会去帮你跳到对应的代码。对,大家可以看到这个联动做的是非常好的,可以看到,对, 大家可以试用一下我们这个呃 ripper vk, 然后右上角其实就是我们的这个设置, 设置里面啊,刚才就啊就这边有我们的 quest 和刚才我提到一些啊 mcp 服务规则记忆,然后我们自定义指令,其实都可以在这里看到,对,这个就是我们整个呃,那个 code 这边 啊,我们这是我们的 quest 的 模式,就是我们的啊异步尾派,然后面向下一代的一个产品模式,我们马上就会发新版,到时候大家可以来体验一下。对, 然后接下来就是说,呃,对于后端用户哈,呃,就是有这个,呃呃, jadbroons 系列嘛,大家就就插进市场,直接搜我们,搜我们的这个,呃, 搜我们在在这个我这里网看看,就搜我们的这个 code 插件,一键安装就可以了。然后你再用这里打开 code 就 可以在有很多用户不是很很其实很依赖于整个 java prince ide 嘛。然后就可以在这里使用我们的所有的 agent 的 能力,大家在这里也可以去切 agent, 也可以去切 ask, 也可以去切模型, 这些东西都有啊,添加上下文这些都是可以的。对,然后还有一个产品就是我们的 c l i 有 code, c l i 大家安装之后就是说在你的命令行直接敲 code c l i 就 可以进到里面,然后你可以在终端里用,也可以在你任何一个喜欢的 id 里面用, 就比如说在我在就我比较喜欢这本书的 id 嘛,大家可以在这本书的 id 里面用。对,然后这里面也可以享受到我们全部的这个,呃, ag 的 能力,嗯,我今天的分享就到这里,好,谢谢大家,嗯。

然后就会发现 coder 使用它的 auto mate 极致模型开始在网页端正式的工作了,分析速度非常的快, coder 的 更优雅的使用 桌面上这个文件夹的项目就是我们这个风车油箱系统,但是它里面有一些 bug 需要我们去修复,所以我们来使用网页端的扣的来操作这个 windows 上的项目,可以看到这个项目已经挂载到了网页上,就是这些文件夹 是和这个文件夹相对应。接着我们来在终端里叫出 code, 输入 code clone, 将这个终端最大化一下,然后我们来选择一个模型,输入杠 model, 一 般我们就用这个 ultimate 一 点六叉 翻倍的这个模型。然后这个账号的状态是 pro available, credits 是 九十四,还剩余九十四,积分稍微有点少了,按 esc 键可以退出,按一下 uzi, 的 确啊,还有二百零六,我们需要将这个 这个账号得换一下,要不然积分太少了不够用。先将这个账号退出啊,接着呼叫一下钢铁侠,这个钢铁侠是在加运典赛的这个 ai 工具箱抠的钢铁侠这篇文章。然后我们继续回到这个项目里,将中单打开对应的这个目录,没有问题,接着输入抠的 blank, 我们来重新登录一个新的账号,选择 log in log in ms browser 是 用浏览器登录,直接复制这个链接,右键一下就会跳转登录界面,点击 continue, 这样直接就登录成功了,按一下 u z, 这个积分又变为了三百积分。好,这个时候我们就可以描述我们这个 bug 的 问题,将总结好的 bug 历史问题复制一下,然后粘贴到网页上, ctrl v, 然后就会发现抠的是用它的 alt mate 极致模型, 开始在网页端正式的工作了,分析速度非常的快,给出了修复的指引,我们接下来就可以分析一下他的修复是否正确,然后继续让他去实施这个修复。


小白一分钟就可以一键的把龙虾养在微信里。直接在微信里跟他说,把桌面上名字带海报的图片发给我,你看他直接啊,就把我电脑上的图片发到我微信里了。如果你的桌面太乱,让他把桌面上所有的 pdf 文件整理到一个文件夹里,瞬间搞定。 可以说,每天九点给我推送 ai 相关的热点资讯,它就能定时定点的给我推送到微信里。就连周末的出行计划啊,它也能根据位置查询天气,然后给我计划一个详细的路线。这就是腾讯刚上线的 qq 乐,简单到离谱啊!来,跟我一起操作,一分钟就能本地部署完成。直接打开官网,我 打在屏幕下方了,选择你自己的系统就可以养虾了。它里边啊,还内置了很多现成的技能,还可以随意的更换 mini max 啊, kimi 等大模型,你完全不用会技术,电脑呢,也 不需要很高的配置。重点是 qqlab 每天还有免费的掏坑额度,我们普通人呢,也能养出既听话又干活的龙虾了。我整理了一份 qqlab 进阶技能安装指南,评论扣一告诉我,下一期啊,我来分享用它实时的推热榜、整理资料等实用的技能。点个关注,咱们下期见!

的这个项目积分跑到了二百五十二,如果继续执行下去的话,很有可能会超过三百,那么就会调用他的轻量级模型,会非常的耽误事情,可能会将这个代码改乱,所以这个时候我们要优雅的切换一下 这个账号,而且让当前的这个对话不失意。可以选择文件,打开最近的文件,随便选择一个没有内容的项目,比如这个 pk。 接下来第二步,将这个账号进行退出, 完整的将它退出,打开已经准备好的钢铁侠,点击呼叫钢铁侠,等钢铁侠执行完毕以后,接下来来登录我们这个已经准备好的全新的账号。 再次打开 code, code 的 图标是这个,左下角点击人头,直接登录哦, continue, 然后打开 code, 用量这里就变为了零杠三百,这样又有一个三百积分的赋语,足够去执行一个非常长的任务。再切换回刚才的项目,再次查看一次用量, 零杠三百和模型进行对话,模型使用的是极致一点六叉的这个翻倍发送一个 begin, 他就会去执行上面的这些任务,这个任务非常的长,这样就会在不失意的情况下来继续完成我们项目的任务。 code 更多使用技巧和手册可以参考加运,点 side, 找到 ai 工具箱,找到钢铁侠这篇文章。

同志们,我找到了 cloud coir 的 平替阿里做的这个 qq, 然后呢这个这个东西非常非常好用,就是专门为我们打工人的日常工作准备的。我们看一下这个东西 它怎么用?它这里可以帮你整理文件,然后还可以帮你做内容创作,包括演示文稿、 ppt、 word 什么多媒体内容,它都可以做。然后还可以帮你做文档的处理和分析数据。 比如说你在这里跟他讲,呃,你帮我写一份小红书爆款的文案,然后放在桌面上,然后命名为什么,然后他就直接可以帮你命名做到,然后如果说你的桌面太乱的话,那么你也可以说你要去帮我呃整理一下桌面, 你看他这里还有势力,比如说扫描我的桌面文件夹,找出所有重复的文件,保留最新版本,还有你看访问我的桌面文件夹,按文件类型自动分类到不同文件子文件里,还有你看 还可以帮你就是读取你的文件信息,然后呢再去命名,然后这些他都可以帮你做到。这就相当于我前段时间我很火的那个 open club, 他的一个手动版本。 open club 他 可以做定时任务吗?但这个的话不用做定时任务, 你自己人为的,然后呢去给他一个指令,然后呢他都可以做到,然后这边可以加新任务,新任务完了之后这边有技能,那么技能他就是他啥是啥意思呢?他就是可以帮你完成,比如说搜索功能,然后呃创作功能,还有一些, 我们看一下分析类的,还有什么?还有文章,还有文章配图类的,这些都可以,然后需要大家去玩玩看,非常非常建议大家去安装一下看看,然后网址我就放在评论区。

这视频介绍如何装阿里巴巴 coder code 去 code com download 选操作系统 下载了,启动它,拉到 applications 去苹果电脑的启动台 选界面。 continue continue sign in 我用 google gmail sign up 和 sign in trust folder continue yes i trust the authors。

公司最近给配了一个月的 cursor, 我 之前主要使用的是阿里的 coder, 使用下来我觉得 cursor 还是要稍微更好用一些。 首先在 tab 补全上面, cursor 在 你多个文件切换之后,基本上还是能准确预测到你要补充的字段或其他信息, cursor 就 要稍微欠缺一点。在智能提问上面, cursor 的 响应速度以及处理速度都会快一些,特别是在一些细节的处理上面, cursor 会更精准一些。然后 cursor 还会时不时的能预测到你下一个要跳转的文件。 cursor 在 我之前使用过程中几乎很少能预测到文件。 此外, cursor 再启动大型 java 项目时,出实化速度会快很多,然后在后续的使用过程中也会更流畅一些。这个确实是我比较喜欢的一点,不过国内的 coder 以及 tree 等这些智能编辑器 更新频率很高,也越来越优秀,希望能早一点跟上国外的水平吧。

真正好的 ppt 应该是把思路表述,让别人一眼就能看明白你在说什么,你的逻辑是什么。说的太好了,现在大纲基本上呢,应该是已经生成了,然后,哇,我们看到非常快的速度, 一页一页的 ppt 就 像变魔术一样在我们眼前。是的,已经呈现出来了。对,而且你就感觉它,它有重点,有有有有,有强弱。我们看这些内容啊,其实它生成之后是有非常高的自由度的,你看比如像字体啊、字号啊,对齐啊这些,可以说是做到既精致 又专业。好,我们看到呢,我们现在助教哈,已经一下子上传了好几个 excel 的 文件,一长串,很专业。好,我们看到呢,我们现在助教哈,已经一长串,很专业。好,我们要去合并、 清洗、计算、统计以及报表生成,它是一步接着一步,全是 excel 里面特别转化、经历特别复杂,特别容易出错的专业操作。真的太厉害了。

充招在头,简历的朋友啊,先停一下,都 ai 时代了,一份 pdf 简历啊,真的越来越不够用。面试官随手问一句,有没有作品及链接,当场就把人问住了。今天啊,探长教你五分钟零代码,用一句大白话生成一个能直接发网址的个人官网主页, 比简历啊更专业,比口头描述更直接。好了,我们直接上硬菜这个工具啊,叫 q 的,是一个智能编程助手,你不需要懂代码,只要像跟朋友说话一样,描述你想要什么。比如啊,我是一名五年工作经验的内容营销专家,帮我做一个带导航的技能展示, 作品集展示和联系方式的内容营销专家,主页,他就能自动生成。具体啊,大家可以看一下我的提示词这里啊,有个小细节要注意啊,输入提示词的时候啊,尽量把需求啊说清楚,越具体越好。 你可以这样想,你是在给一个超级执行力的助手交代任务,如果你说帮我做个简易,他只能猜你想要什么。但如果你像我描述的这样,他教出来的东西啊,就直接能用了。 描述越清楚,越理解越准,你后面改了就越少。你看,代码生成的页面,直接渲染出来了,实战项目直接在网页上展示,比文字描述震撼多了。 很多零基础的朋友可能会问,这页面生成完,然后呢,别人怎么看到呢?我用一句话说清楚,逻辑啊, q 的 就是那个全能的中央厨房,你把物料也就是你的需求啊,给他,他帮你做出那桌好菜,就是这个炫酷的页面。 当菜做好了,要端给面试官看,就需要阿里云服务器,它是一个云端部署环境,大厂背书,稳定安全。 有了它,你的主页不只是自己能看到对方,只要有链接,随时啊都能访问。选服务器的时候啊,推荐大家直接选择 ur 规格,它的性能比上一代最大提升了百分之三十五, 性价比啊,非常到位。更值得一提的是啊,如果你是学生啊,认证立享十九元学生专属双利包,做个人主页啊,完全够! 不管你是做研发、设计、产品还是运营,这种专属云端名片都能让面试官直观看到你的成果。不是纸上一句熟练使用某某工具, 而是真实可访问的东西。直接拿案例说话。为了帮大家省 credit, 少走弯路,我把各个方向最好用的提子词模板都放在评论区了,直接拿去操作页改改细节就是你自己的版本。 想要完整部署教程的朋友啊,直接去阿里云官网搜索关键词, ai 简历啊,手把手教程啊,都在里面,跟着走就行,求实际啊,加上这种外挂,真的稳!好了,我是正能量,长关注我,带你跟上 ai 时代!

在一个网页上同时爽用 coder 和 kiro, 而且是远程访问,先看一下演示,首先我们访问了自己搭建的这个服务,一二三,风车 ai 点 top, 接着打开终端,可以在终端里直接输入 kiro 杠 klon, 回车,将终端进行最大化,方便好看。二 model 就 可以选择它里面的模型,最高级模型是 kolod, 索尼的。四点五,回车,接着就可以和 kiro 通过远程的方式进行终端聊天, 好 q 给出了回复,接着我们告诉他创建一个文本文档,给一个三百字作文,然后回车,这是我们本地搭建的服务,远程访问的话可能有一些延迟, 但是做一些简单的操作是没有问题,输入 t 让他去执行,非常快啊,就已经将这个作文写完了。我们来将这个终端先进行最小化,在网页上刷新一下,这里有一个作文,双击打开 看一下,好写了一个作文,春日的思考三百字,非常的优雅。先将那个作文进行删除,可以在回收站里 将它进行恢复,操作习惯和 windows 特别相似,但是比 windows 还要优雅。接下来演示 code, 再次打开终端,可以输入 code 克拉,接着输入杠 uz, 我 们先看一下它这个积分,积分是零。杠三百是一个 pro 的 账号,我们选择的模型是 glm, 杠五,可以输入杠 model, 同样的来选择里面的模型, 最高级的是 code 的 ultimate 极致模型。一点六 x, 简单的作文操作,使用这种模型就可以向终端最大化一下。接着我们告诉他修改作文点 txt, 也就是 kiro 创建的这个文档,增加三百字这车哦, kiro 开始工作,他来读取这个文本文档, 如果我们操作 excel 的 话,也是完全没有问题,在网页上上传一个 excel, 接着让 code 或者 kiro 直接去整理去操作,非常的方便,不需要我们在 其他电脑上有任何的环境,只要有网络就可以好。 code 完成了修改,增加了三百字 扩展内容是什么都告诉了我们,我们来看一眼,让这个终端隐藏,继续打开这个作文,看一下扣字,在这个文文本档里,下面又增加了三百,可以右键这个作文,点击下载 就可以将这个作文下载下来,到本地进行打开查看,那个作文就可以交给老师了,我们也可以右键上传文件 来上传一个本地的文件,对其进行操作,可以选择一个压缩包上传上来进行解压,或者直接选择一个文件,这个文件上传速度也非常快,这就是 code 和 key, 通过远程网页的方式快速的使用本地的服务搭建也非常简单,只需要在家里哎部署一个 钢铁侠或者 kiro 恶灵骑士,通过家运典赛特可以参考这里面的两篇文章,部署也非常的简单,都已经将镜像做成了傻瓜式的操作, 鼠标点一点就可以拿到一个一模一样的这种网页远程操作的这种方式对于我们移动办公远程使用 ai 的 话,这种方式是再好不过了,处理一些临时的文件,临时的小项目,非常的实用,感谢大家的观看。