我昨天刚把翠的 solo 新版跑了一遍,吐槽一句,以前我最怕的不是写代码,是写到一半卡在各种杂活。朋友们, 这次这个新版可太值了!他会先把任务拆给你看,要做什么先做什么,怎么验证都一步一步给你摆出来,这样你就不用在脑子里开十个县城, 先把路给你铺好了。而且他把写代码和做交付分开了,代码归代码,文档步骤说明这些,以前最耗时间的,现在一条链路直接串起来,真的更像个贴心助理。新版的技能我也特别喜欢,你可以把自己的固定流程做成技能, 像生成结构、补测试跑通,再顺手出一份 readyme, 以后每个项目都能附用,省的可不是一分钟,是一整套习惯。还有个细节很加分,跑命令不在一团乱,像卡片一样更清楚,抢任务也能在后台管理, 少了很多我刚刚到底跑了啥的焦虑。要是你也会写方案写文档,新版对这些工作流明显更顺,需求拆解、执行、复盘闭环更完整。我是微光, 我会继续把 solo 新版的能力做成可复用的实测模板。想看我下一期测 build m c p 记忆和规则到底怎么落地。关注我,别错过!
粉丝18获赞181

我们来下载一个锐的国际版,锐的国际版的下载地址是三 w 点锐点 ai, 它的国内版的下载地址是三 w 点锐点 cn。 ok, 已经下载完成了,下载完成了之后我们来安装一下, 我一般都会用两套吹啊吹的国际版,它是可以付费订阅的,一个月大概是七十多块钱,订阅完成之后呢,它就能用到一些 呃, gbt 了。还有这么类的一些模型,如果说我在用国内版的时候,它的一些问题帮我解决不了,我就会切换到我的 国际版去,但是国际版确实用起来非常香啊,香到什么地步呢?我每个月的用量让我在月初的时候就就用完了。 我们来看一下,打开开始深蓝,我比较喜欢深蓝色调过个人用户, 他会让我让我登录,这会就正在登录当中了。我是用我的谷歌账号登录的,其实之前也听过一个博主,就在现在你如果想用国际版的一些内容的话,注册一个谷账号还是比较方便的。他所有的 可以用谷歌账号登录, github 账号登录,还有什么什么账号登录啊,但如果没有的话,你也可以选择在下面自己去注册一个账号。 ok, 我 点 log in and open tree。 好 的,它这里就就完成了,完成完之后我们来看一下啊。 哦,他应该是我上个月把把那个用量用完了之后啊,我就把自动续费给取了, 这点如果大家有用到的话,一定要注意,默认他是给你开了自动续费的。我之前有一段时间还纳闷,我说我把这个吹的我这个月都用完了, 到了下个月的时候他还是 pro 状态,他还是能让我用。哎,这个时候我就很纳闷,我还以为我占了自洁公司的便宜,后来我才知道,每个月都扣着我的账单着呢,后来我就把那个就取掉。 我们看这是这是它支持的一些模型,我们看看 g p t 的 四点五,还有这么类的,三点一都是比较比较新的一些模型,当然这个 mini max, 二点七和 kimi 的, 还有 dipstick 的, 它就没有什么。 呃,什么值得我们去?嗯,为他付费的点,因为国内版的翠他是免费的,他还不让你充钱,对吧?他就能用到这些模型,我们就必须升级到 pro 之后,他的次数才会多一些。那我可以在这里问一下,他不升级 翠国际版到 pro 账号能用吗?来,我可以问问他 新建项目。我试着打开个文件夹啊,随便打开一个文件夹,悟空的这个吧, 他每次一开始的时候会让你添加信任,他才会帮你在这个文件夹里面去做操作。 他现在找了我说不升级。吹到国际版到 pro 账号能用吗?看他会给我一个什么样的一个回复。 还有这边它不是有个系统提示吗?啊,默认的话,我们 windows 系统的话,它的这个提示是默认开着的,我也建议大家把这个开着,我们在处理任务的时候,它会 在完成之后给你一个声音提醒。哎,有了这个声音提醒的话就比较有意思,因为一般情况下我们给这些编程的底层原理是一样的。 我看啊,根据吹的官方计费,国际版有免费版和 pro, 不 升级到 pro 也可以继续使用账号,免费版不是停用账号,而是功能和额度受限,目前官方免费版的额度大概是一月五五千次, 一个月五千次, ok, ok, 那 也可以,我们就暂时就先不用升级了,先不用升级了,就先放在这, 如果后面有的一些任务它比较难的话,我们切到这个国际版的模型里面,它确实效果会比较好啊,因为我之前用可以说用这种 id 的 编辑是做过深度的开发的,而且我还是一个不懂编程的人,纯自然语言的深度开发完了之后呢, 开发的个成果是什么?就是我自己的这个个人网站三 w 点 开发的成果就是我的这个个人网站,当然呢,我的这个个人网站 在当时在做的时候啊,用到了, cursor 也用到了,主要是用的 cursor 和 tree 啊, tree 也用了国内版和国际版,反正就各种来回切,当时我就感觉到一点,并不是 cursor, 它并不是神的,它也并不是万能的, 有的一些我的一些需求我给他说了很多次,他也他也解决不了,但是用吹一两次就解决了啊,所以我觉得没有好坏吧,只有适不适合解决你那个场景的问题啊。今天这个就是给大家分享,我们可以点开一下看一下这个升级到 pro 它的一个价格啊,一个月的价格,这个一个月的价格是十五美金,算下来可能也得小小小几十块钱,按月的话是, 呃,这么多钱,还有按年的话也就也就也就更贵了是吧?嗯,按年的话看着这个还好一些, 所以根据大家的一个使用情况吧,而我觉得如果说是你也不想折腾什么其他乱七八糟的,你就想,呃,我有一个这个东西可以用, 也不想折腾其他的,我就按一个退就行了,我也不需要按什么其他多的软件,我就把一个软件用透,对吧?我也不想来回切换。那我觉得升级一个国际版还是非常有必要的啊, 至少我觉得这份钱没有白花。你不想现在 oppo 可乐? oppo 可乐出来之后,好多人也去订阅了什么迷你 max 了,什么 kimi 的 cooling plan 的 计划,一个月花个四五十块钱,但是你想想你在 oppo 可乐到底给你有多少的产出? 其实从我的理解来讲,他就没有产出,纯成成了大家的一个高级玩具了。你不像我,这个我虽然说也也付费了,我真的有产出呀,我这里有我的一个个人网站,对吧?有个人网站还能给给我的,给我的粉丝们去提供一些一些服务。 好的,这个关于国际版的这个话题呢,就聊到这。当然呢,仁者见仁智者见智,看大家自己啊具体怎么去选择了。

给大家安利一个软件,其实 qq 这个软件不仅仅是程序员可以用,对于各种小白来讲,甚至是一些财务啊,会计啊,其实如果你想要操作电脑的话,其实它都可以使用。我感觉它其实比 open clone 小 龙虾更适合普通人, 尤其是它的模型还都是免费的。比如说有些人装 open clone 的 时候,其实他都不知所措,在谷歌上其实也很难解锁到。 你去问 ai, ai 因为他不知道 open code 具体的代码实现,他也回答不了你,或者说他会产生很多幻觉,根本没办法正确的回复你的问题。那怎么办呢?这其实很简单,我教大家一个处理办法。 首先你要去下载一个 q, 但你不要下载这个国际版,适合正中国宝宝的其实是 c n 版本,你输入 q, 点 c n 回车,然后你就会看到它的中文界面,这个时候你去安装它,下载安装它, 安装好了之后你就会得到一个这样子的页面,但如果是全新的话会是这个样子。 那我们怎么去安装小龙虾呢?打开小龙虾的 github 代码页面 github 点 com open core 杠 open core, 然后点击这边选择 a, c, p, s 和 s, h 都可以拿到它的链接,之后你在终端里面去执行, 这个时候你就去克隆它,把这个项目克隆到你的本地,然后你再用 q 去打开它, 这个时候你就会得到像我这样势力的一个样子, 我们可洛的完整代码就在你的电脑上了,这个时候你再去问处,他能够几乎百分之百的解决你安装我们可洛当中遇到的各种各样的问题,因为他有最完整的上下文,他遇到不理解的报错,他直接可以去阅读代码。 而且大家看最完整的是这边,它提供了完整的目前国内最主流、最强大的一些 ai 模型,它确实是完全免费的,大家尝试一下吧。

coser 跟 cleo 的 区别,你感觉的区别是啥?我当时用 coser 就是 当时做签署试用的,就原来还没有限流的那种。 cleo 是 那个国内版本的吗?啊?那这个其实最大的区别两边是模型, coser 会更加的自由一些,就是你可以自己去对接所有支持 open ai 的 模型。 但是这个 cleo 呢,它里面只能是内置的几个厂家,然后你可以写一个那个 k, 然后用,那不在那个支持范围内呢?你就用不了 它里面的具体的功能来讲,差不多都是现在那个,像什么 build 啊,就是 mcp 都有,你就是直接一句话,它不光是给你写代码,它环境什么它全都给你装好,但是它那个装好像都装到了被子环境里,你跟他说我现在我的机器上已经装好了康大环境,你给我切到什么什么环境再继续运行,你需要跟他告诉说这个 这个趣用呢?他有一个这个全局的设置,就是相当于每次给这大模型提交这个提示词的时候,他有一个前缀的一个全局的一个设置,你可以把你的那个一些环境信息什么的全都放在那里面, 你用的时候就他就他出这个幻觉的,这个概率就会降很多。你可以在里边写上代码,必须按照什么格式去写,然后目录结构是什么样的,然后必须要投放命名, 你把这些规定都给他写好,他生成代码质量会高很多。这个小技巧必须得是你拿着这个做过一个体量比较大的项目,最起码你得上万行的项目,你才能得摸索出来。

做单反机开发,现在你必须得用 ai 工具,而且推荐用锤,有了它之后你工资肯定涨的会更快。第一步,先下载 点击,下载完了之后大家就像普通的 windows 软件安装一样,下载好之后大家双击直接安装就可以。那我们怎么样使用它呢?你要注意这个锤工具的话,它有点像现在比较火的那个小龙虾,它可以直接操作你本地上磁盘的文件,你只要有一个基础的工程建好, 你要什么功能,基础功能或项目当中的功能直接甩给他,也可以当甩手掌柜。我测过几个代码都是一条过的, 一个 bug 都没有,这个很恐怖,我们赶紧看一下怎么用。我们先建一个基础工程,打开 item 三二, qq max, 这应该是你很熟的,这个时候他正在打开,我们就新建一个工程,咱们就简单的配一些外设助手画,配个时钟就行了,剩下的甩给 ai, 输入我们单算机的型号, 经典款 s m 三二 f 幺零三 c 八 t 六。双击打开,我们先配一下时钟,这里我们选择外部时钟,这儿有一个 clock configuration, 点它 h s e 八九七十二,这儿选 p l l c l k a p b y 呢?咱们选择这个除二,它配成三十六兆,这边是七十二兆, 这没问题了,我将来的现象当中涉及到了一个点灯,这有个板载的灯,我把 gpl 配一下,在 pc 十三上直接输 pc 十三选 output, 这个地方把调试配上,点击生成,我们选一下工程的位置,比如说我们选这 工程名称,我们 light demo, 这我这选择一点八点六,这个影响不大好,我们选择戴纳瑞特扣的 一号代码,没写,只是在图形界面点点点,然后选择 open 工程,大家看到在我的这个位置当中就出现了这些相关的文件, 你编一下,剩下的事情就交给 ai 工具 tree, 我 们选择打开文件夹,找到这个工程的这个顶级目录点选择, 因为将来要操作我本地的文件,我直接点击试,这个时候你可以给他提要求了,我说实现 led 灯的闪烁,加一点难度, 用我们自己定义的延迟函数,比如说延迟时间五百毫秒。好,现在他开始写代码,现在这个工具太火了,提示我前面有一千七百个人,我这是在排队,你看现在就开始写了, 排队其实是有点虚的,我昨天晚上用的时候都没有排队,那一千多人也是一秒钟就排到了。写代码的过程当中有一些错误他会自己去纠正, 你瞪大眼睛看着他干活就行了。好,任务完成,我们打开看一下,好嘞,写完了,零 error 零警告,我们下载,我们按一下复位按钮,大家看他就是在闪烁, 在刚才的这个工程当中,我们只去建了一个基础工程,然后把这个文件夹告诉这个吹工具,他就自动的把整个代码实现了,像这种最基本的外设控制没有任何问题,即使是项目当中的问题,你指导着他去做,也非常的好用。明白, 他其实还可以非常的强大,你可以直接这样去问他,你连工程都不用建,你就直接说我要实现一个什么功能,我的硬件环境,我的这个开发环境,包括我的板载灯的一个引脚的编号等等,你把这个问题描述清楚,他可以指导着你怎么样使用 comix, 怎么样新建工程,怎么样配时钟,怎么配 g p l 这种方式对于更加小白的同学来说,你,你真的可以一点都不懂,按照这个指示自己把一个设计硬件的小项目做出来,大家赶紧去用一下。

兄弟们,上周可以更新了三个重大的功能,我们一个来拆解,尤其最后一个绝对是你需要的。首先他支持的 linux 版本,这个可以说是梦寐以求,期待了整整一年的时间,他终于实现了。 而第二个功能就是他终于更新了两个大模型,一个是迷你 max, 二点七,说是能比肩 cloud 的 奥普斯四点六,实际上他是吹牛逼,他根本不行,他其实是很拉胯的一个东西,大家千万不要去用,要用,绝对要用,后面这玩意 三点一 pro 给你来,三点一 pro 绝对强无敌啊,强的不能再强。我跟你讲,这种相当于是安卓模型,真的不要太用,后面后的真的是苹果模型,真的是好的不得了。 其最重要的是第三个代码审查之前的出入真的是给你乱写代码,很多时候他明明写了一大堆 bug, 根本跑都不能跑,但他会说给你说已完成, 这个时候他终于有这个功能,他带你再把取完之后,他自己再检查一遍。怎么打开呢?在设置里面跟我一步步操作。首先你要打开这个右下角的设置,这里面之后你要点到这个 beta, beta 里面有这个,把它打开, 打开之后你再退,他就不会下边了,他就会变得靠谱,他就不会明明没办成,给你说办成了,靠不靠谱的事情不会再发生了,好,拜拜。

最近大家写代码有没有这种感觉?我们已经越来越离不开 ai 的 补全了,特别是用了 coser tab 之后,那种按一下 tab 键,代码就自动生成出来的感觉,确实很爽。但是目前的 ai id 大 多数都还在做填空题啊, 我写一行,它补一行,一旦涉及到复杂的重构,比如我要修改一个底层的参数,它到底能不能帮我把这个参数所有引用到的地方全部修改了?最近字节的却搞了一个大动作, 发布了 q pro, 官方号称它是从单点推荐升级到仓库级的编程路线推荐。简单说,它就是不仅预判了你的代码,还在预判你的下一步操作。真的有这么神吗?它是 coser 平替还是超越?今天我们就来拿两个真实的项目做一下吹 q pro 和 coser type 的 深度横屏。 首先是热搜环节,这里有一个相对简单的项目,是一个支持文字和 m c p 交互的 ai 对 话应用。我们先看基础的光标处续写,我在写这个对话逻辑的时候,大家看两边的反应速度都非常快啊。体感上,在这个 hand message 的 函数的补全上,延迟非常低, 几乎都是跟手的。注意,这里我引入了一个新的工具包, coser 能够识别到,而却也在这里触发了智能导入,直接帮我把 import 的 语句写好了。 到这一步啊,两者其实是难分伯仲的,单个文件的补全,各个模型都已经卷得非常好了,但接下来的环节,我觉得才是见证分晓的时候, 重头戏来了。这是一个多语言多站点的项目,里面包含了 ai 解题、 pdf 问答等多个模块代码关系是比较复杂的,我们来做一个硬核测试,让它在 package 式里面的 ai chat 模块里面去给这个 send message 接口新增一个 message type 的 参数。 我们先看左边的确认,我在声明处刚写完了参数类型啊,注意看这个 q pro 瞬间就给出了反应,弹出了一个跳转提示,它不仅补全了当前的代码,还预测到了我需要到文件的其他调用处去修改代码,我只需要按下 tab 键直接起飞,瞬间跳转并完成了补全啊。 再看一下标杆扣色,同样的仓库,同样的位置输入参数,哇,当前的代码补全也是非常的快啊,没有任何问题, 嗯,但是大家发现没有,就是他在写完之后,他停住了。虽然啊 ctrl 也有扩展加加的预测能力,但是在这种复杂的跨文件的场景下面,他有的时候也会断裂,这个时候呢,就需要我去手动的搜哪里调用了这个函数,然后一个文件一个文件的去修改了,有的时候还是很打断我们 开发的新流模式的,这就是区别啊。在单文件的场景里面,两个都是什么?在跨文件的重构系统上,雀的独立的 locator 方案给了我一种,他对整个仓库的地图开的很全, 他不是在等你写代码,而是在预测你的下一步动作。刚才的重构中,我还发现了雀有一个 coser 目前还没有的功能,叫做 cube 图, 大家看这里,当你触发了一个连续修改,比如,嗯,像刚刚的重命名或者加参数,翠就会在这个面板里面把它预测到的所有后续的步骤列成一个清单,你可以清晰的看到 ai 编辑的意图,它想改哪里,为什么要改 一目了然啊。你既可以像刚才那样按 tab 一 路狂奔啊,也可以在这个视图里面去点击跳过去审视,而且你还可以按住 option 键,直接预览代码采纳之后的样子。这个功能解决了我用 ai 编程最大的一个焦虑,黑盒改。 我以前用 ai 改代码,有的时候它改太多了,我心里反而有点不踏实,却把这个过程透明化了,这一点我觉得对代码质量有洁癖的开发者来说非常加分。 测了一圈下来,我总结一下,雀蔻 pro 在 q 一 点零的基础上面,这次确实是自闭啊。在简单的场景下,他和 coser 一 样快一样准,但是在跨文件的复杂场景下面,他的仓库级预测和意图可量化,让他不仅是一个代码补全工具, 更像是一个懂你整个项目的结对编程伙伴。当然啊,有一说一,作为一款还在快速迭代的新产品,确 在细节的打磨上和老前辈 coser 来比,还是有很多提升空间的。比如在测试的过程中间,我就发现偶尔在某些变量的重命名的场景下面,自动跳转的触发还不能做到百分百稳定。另外,对于用惯了 coser 的 快捷键和插件生态的朋友们来说,切换过来确实是需要一点适应期的。好在它的迭代速度 非常快,工具再强呢,也是为了辅助我们。 q pro 最好的体验就在于它没有打断我的思路,而是帮我续上了心流。如果你感受到了网络延迟,或者是想体验这种格式化的全库预测,却绝对值得一试,关键是它还很便宜。 好了,各位,这就是本期翠 q pro 和 coser type 的 体验,如果你觉得这个视频有用,别忘了删联,我是敖丙,我们下期节目再见。拜拜。

同样是 t r e 工具,同样是 glm 五大模型测试环境完全一致。提示词一模一样,工具都是 t r a e, 唯一变量就是模型来源。一边是 t r a e 自带的内置 glm 五, 另一边是我们自己配置的智普官网 glm 五 plan 版,全程无剪辑,纯真实跑测。 先看 t r a e 内置 glm 五,从开始生成到完整输出,整整耗时八分十三秒,最终生成了二十五个文件,能明显感觉到生成过程偏慢,文件数量偏多,荣誉代码和重复配置也会更多一些,整体结构不够精简,查看生成的效果。 再看智普官网 g l m 无 plan, 同样的开发需求,仅耗时四分四十五秒就全部完成,文件数量直接精简到十六个,速度快了将近一倍,代码结构更干净,逻辑更聚焦,没有多余的无效文件。首页框架一次性成型, 查看生成的效果, 综合对比生成的效果,大致相同的情况下,配置智普官网 glm 五 plan, 效率直接翻倍,代码质量更稳。同样的时间能多做好几个页面,如何选择需要您自己决定。

朋友们,字节推出的原声 ai 编程工具吹,不知道大家之前有没有使用过这个工具呢?在前两天推出了一个子产品叫 solo, 但这个 solo 呢,指的不是之前的吹 solo 模式,而是一个专门为打工人开发的桌面 ai 助手,类似于 cloud co work。 那今天呢,就给大家分享一下这个工具有什么功能,和我自己实测的具体使用场景和案例。首先目前呢,它主要有两个模式,第一个模式呢,是 mtc 模式,这个模式主要用于日常办公,比如读取文件,处理文件,联网查资料,写材料,生成 ppt, 然后做分析等等。 然后另外一个模式呢,是扣的模式,这个模式顾名思义就是主要用于写代码,搭网页,做工具,那这两个模式之间的同个界面就可以无缝切换,也是大家不需要再同时打开多个界面。 同时呢操作起来也非常简单,只需要对话告诉他你具体的工作任务就行。然后这个工具呢,也有自带的技能市场,然后呢,也是按不同任务去来划分的,只需要安装不同的技能,之后呢,他就可以按照任务规范去执行特定的任务。 那接下来呢,就说一下我实测这个工具的具体使用案例。假如呢,你是一个奶茶店老板,然后美团饿了吗和门店都手记了三份格式完全不一样的表格, 但是你想整理总结怎么办呢?这时呢,你就可以直接扔给 solo, 然后等差不多十到二十分钟,你就可以获得一张类似于我图片这种整理好的总表和一份给合伙人看的分析 ppt。 而在这个过程中呢,完全不需要你手动去使用 python 甚至是 excel 表格。然后第二个场景呢,是行政场景,假如你是个会计员,然后月底你有一大堆乱七八糟的文件和合同发票混在一起,需要整理总结, 那这会呢,也可以直接把这套所有的呃信息材料呢丢给 solo, 然后让他去自动分类加提取关键信息加汇总 excel 表格, 全程呢,大概只需要五分钟,但这种工作如果人工来做,至少也得半天的时间。所以总的来说呢,这个工具实测下来呢,是非常实用的 ai 办公助手,能大幅提高你的办公效率。那这期视频呢,就先分享到这,感谢大家观看。同时如果你喜欢我的内容呢,也记得点个关注,咱们下期再见!

这两天国内 ai 最热门的事件应该就是翠发布了二点零 solo 模式,所以我赶紧来录一个视频,给大家深度评测一下。现在市面上的 aiid 有一堆,但说实话,差异化比较小, 我都快没兴趣评测了,而吹这个 solo 模式有点新鲜感。今天我用 solo 开发了这个 ai 应用,面向海外点餐场景,就上传一个菜单,照片会调用大模型识别菜品,在动态的生成一个中文的点餐页面 会解释菜品信息,甚至使用了 ai 来生成每一个菜品的图片,选完餐后拿给服务员就行,相当实用。出国旅游一趟,菜单都看不懂,收个二三十块钱不过分。生成这个 app 大概只花了十几分钟, 安装环境开发修改错误,呃,部署上线全流程,我没有改一行代码,没有跑一行命令,全是 solo 吭哧吭哧自己完成,这也是它的一个主要卖点,看具体功能前得先科普。 补一个词, contacts engineering。 近日,一众大佬像 shopify ceo 啊, google deeper mind 的工程师啊, long train 的官方博客都在说这个词,他们表示,啊, prompt engineering 已经是过去式了。 ai agent 的开发并不是要找一个什么有魔力的 prompt, 而是要能够高效精准的给 ai 提供解决任务所需要的。所有上下文推荐大家可以看一下原文。而 solo 呢,就是想做第一个以 context engineering 为核心理念的开发助手,那赶紧实测一下,看看他怎么做到的。 先看 u i, 首先最左侧不再是传统 i d e 的目录窗口,而是一个 a i 的 chat 窗口,相当于 a i 的功能被提到了更高的优先级,然后右边有四个 tab, 分别是编辑器,终端,浏览器,还有文档。对传统 i d e 来说,最核心的代码编辑器反而变成了其中的一个 tab, 包括文件的管理、 get 的 管理,插件管理,都被放在这一个 type 内的一个子分区。这说明什么呢?就是他的一个理念,叫做携带码,就是软件开发中的一部分工作,所以,哎,只是作为其中一个 type, 那我们发送需求给他,让他实际开发一下看看。 可以看到他现在已经开始写文档,用流行的话讲叫 spect driven, 文档里呢,也是有图有表。对于和我们预期不符的地方,我们可以手动改一下, 确认后呢,就可以点开始开发。可以看到他已经跑了一些命令来初始化这个项目,这命令都不是我手动跑的,都是他自动的。然后他又安装 装了依赖这些命令的运行,结果会自动的作为上下纹给到 ai, 体现了 contacts engineering, 就如果遇到暴坐呢,他也会自动的去修复。 可以看到他已经开始写代码了, 写代码部分还是和以前差不多,可以 review 它的修改,选择接受或者拒绝。 可以看到他现在把项目跑起来了,在浏览器 type 下面就能使用这个应用了,甚至可以点击一键部署。我们先来测试一下我上 传这样一张菜单的照片,可以看到有了三道菜可以点,但其实是因为代码里面用的假数据,目前还没有调用。 jamna 大模型。好,我们现在要求他自己去网上搜索一下啊,怎么样使用这个 jamna 的大模型? 可以看到他自己在联网搜索,通过联网搜索,他发现现在已经不能使用这个叫 generative ai 这个库了,已经被 google 废除了,应该使用 gen ai 这个库,他先安装了,并开始修改代码,相当的智能。 那如果他遇到变异的错误,或者在浏览器运行的时候有控制台里的错误呢?他都会作为上下文自动的提供给 ai, ai 就会一直处理,直到所有问题都解决了为止。他弄完了,我们来测试一下,这里有个设置按钮,我们填入 jamenite 的 a p i k。 哎,他开发很好,没有让大家偷看到我的 a p i k。 保存上传这一张菜单照片,他在让 ai 处理了,期待一下。 好,可以看到这次不是假数据,二十八道菜确实就是我菜单上那些菜,而且用 ai 生成了,对应的图片都是一一对应的,看起来相当的美味。我们添加几道菜到购物车里 提交一下,可以看到他已经生成了,我直接可以复制订单,里面既有中文也有英文,我给服务员看呢,他也能看得懂, 之前我自己开发的时候还要求他把价格也计算进去,也是一句话就能完成。那如果对某个部分的 ui 不满意呢?可以用这个选择元素的功能,选中想要修改的元素,直接添加到对话,这就比用筹 文字的方式穿搭要方便多了。那既然没问题,我们试一下部署好,他部署完成了,拿到了一个链接,他是部署在 versal 上面,我们打开看一看, 哎,完全没问题,可以发给别人用了。最后总体评价一下,我认为 solo 模式在开发前端项目、小项目, 还有做新项目的 mvp 啊,都会比原来的 ide 模式更加高效,那当你项目长大之后呢,需要人工介入的部分就会越来越多,这时候你还可以切回旧的模式,相当于啊, solo 模式帮你高效的解决从零到一的问题,然后普通模式呢,解决一到一百。 我回看了一下,有点难以置信。我花三千五评测 davin 的视频是今年一月一号发的,也就是说一年之前还没有任何的 ai id 带有 ag 的模式, 而短短几个月之间就已经是天翻地覆的变化了。目前你要使用 solo 模式的话呢,需要使用国际版开通 pro, 再使用一个 solocode 来激活。我还剩几个会放在评论区,记得送我一个免费赞,谢谢!

大家好,今天我将为大家展示如何借助 ai 开发工具,仅用二十分钟就快速完成一套完整的毕业设计项目图书管理系统。接下来我会把本次项目用到的详细开发提示词分享给大家。 本次我们主要使用 codex 进行代码生成工作,我们先将完整的开发提示词粘贴到对话窗口中,然后选择对应的 e i 开发模型 g b t 杠。五十四,点击发送按钮之后,只需要耐心等待模型自动解析需求,生成代码,逐步完成整个系统的开发工作即可。 目前整套项目已经全部申请完毕,接下来就让我们将项目运行起来,一起来看看最终实现的运行效果如何。

大家好,今天我将为大家展示如何借助 ai 开发工具,仅用二十分钟就快速完成一套完整的毕业设计项目社区志愿者服务系统。接下来我会把本次项目用到的详细开发提示词分享给大家。 本次我们主要使用 codex 进行代码生成工作,我们先将完整的开发提示词粘贴到对话窗口中,然后选择对应的 e i 开发模型。基于 e 杠五点三杠 codex, 点击发送按钮 之后,只需要耐心等待模型自动解析需求,生成代码,逐步完成整个系统的开发工作即可。 不过在实际操作过程中,我也发现 g e t 杠五点三杠 codx 在 运行效率上表现一般, 不仅响应速度偏慢,在处理逻辑问题时也显得不够灵活,尤其是在前端页面相关的实线上,一直卡在同一个问题上,反复调戏却没有进展,始终无法顺利推进。 无奈之下,我只好将模型切换为 gbt 杠五点四。没想到切换之后,问题很快就得到了解决,代码生成和逻辑处理都顺畅了许多。经过一番调整,目前整套项目已经全部生成完毕。接下来就让我们将项目运行起来, 一起来看看最终实现的运行效果如何。

今天给大家推荐一下字节的 t r a e r。 因为确实有点被小镇喊到了,我之前写了一个 agent 啊,我是借助于浏览器作为媒体啊,是一个网页,但是呢,浏览器它会提供一个接口,是可以用来直呼直接访问用户本地文件的, 所以呢,我觉得用这个接口然后再做一个网页啊,那用户可以操作文件的同时,然后还不用下载安装,不输任何东西, 那就很方便了,对吧?但是我自己那个 agent 的 相对来说比较简单啊,然后是能力上差一些,所以龙虾开园之后呢,我是希望能把龙虾的能力接进来, 但是龙虾的代码呢,它是针对后端环境来写的,我这个东西如果是按我这个 agent 的 模式呢,它就必须运行在浏览器里面,它是有存前段的环境,所以相当于我必须要在一个存前端的环境下,把整个龙虾很多的一些 啊,特性啊特性全部重写啊,相当于重写了,挺复杂的一个项目,我觉得,然后今天啊,一天搞完了,就一天,就一天, 所以我觉得两个感受吧,第一就是工具与这个东西呢,它可能没有大家想象的差距那么大了,之前我看我说我看考拉的科德莱马还被喷了,对吧?呃,就是它那个核心循环能看到啊,核心循环是在一个 gs 文件里面,它那是能看到的, 然后呢,他那个循环很明显也很简单,然后提示词呢,他可能看的不是很全啊,能看到东西不全,但是相对来说也是比较通用的,所以核心的区别可能还是在记忆系统啊,还有一些提示词上面那各个厂家的工具可能差距没有大家想象那么大 啊,我在网上还经常看到说呀,这个东西不行,对吧?很纯,但实际上呢,可能是什么?就是说方法, 就是 ai 口令或者是 web 口令啊,方法上面能够起到的作用还是挺大的,所以接下来简单分享一下我的整个过程吧。啊,仅供参考啊。首先第一步呢,我就是直接把龙虾的代码考到 项目文件夹里面了,直接考过来,然后让 t r a e。 我 说你去给我读代码啊,读完了之后呢,你把龙虾的所有特性列出来,我这个当前 a e 认可的所有特性,你给我列出来做一个对比, 对比完了之后呢,我再去一条一条的看啊,这个接下来一个最关键的特点就是你自己还是得一条一条的去看,你必须得能看得懂那些特性到底是啥,你得能看得懂才行。 不是说现在你搞 ai 拷钉,你自己啥都不管了,然后也自己去搞啊,这个不可能的。然后呢,有一些特性啊,是我需要的,有一些特性呢,它压根就不现实啊,你说我把它拿拿过来用,不可能啊,有一些特性压根就实现不了的, 所以你自己还是得有一些判断在里面。然后完了之后呢,我把那些我要的特性列出来,我说你去给我设计方案,然后 t r v 开始设计一套方案,然后第三步, 在方案的基础上啊,这还没完,我会让他去做一个拆分啊,就是你给我拆分出来一个实现方案,就是第一步做什么?第二步做什么?第三步做什么?把这个东西拆分出来, 当然每一步之间啊,最好是不干,能互相之间不干涉的,对吧?拆分完了之后呢?第四步啊,直接去执行嘛,就是一步一步的啊,直接去写代码执行嘛,整个过程中我没有做任何的干涉,然后没有做任何的测试啊,整个过程中一气呵成,写全部写完, 完成之后的最终效果是这样子的,它写出来了一个超级大 bug, 然后改这个 bug 用了大概一可能有一个小时的时间,然后但是这个 bug 改完了之后呢,剩下的就是一些边边角角的小毛病了,然后整个的 a r e 就 到了一个可用的状态, 所以今天还是比较兴奋的一天,然后又把 t r e 这东西推荐给大家试用一下吧, 同时它还有个最大的好处在哪? g r e 最大的好处在哪啊?便宜就是便宜啊,我买的年费会员六百二十多块钱,九十美元啊,六百到二十多块钱, 然后如果你是用科斯这种啊,科斯一个月二十美元吧,应该是很贵了,然后如果你是用克拉克的这种你,那你得自己去买头肯,你自己买头肯的话呢?目前最便宜的是 g l m, 它是一个季度四百多 啊,所以总共算下来,大家可以算出来,对吧?六百二十块钱一年啊,还是非常便宜的一个价格,这讲给大家。

今天咱们做个真实对比测试。同样的智普官网, glm 五 plan 大 模型,同样的提示词和 md 文档,分别搭配 cloud code 和 tree 两款开发工具,生成一整套前端工程,看看差别到底有多大。 先用 cloud code 搭配 glm 五来生成,整个过程分三步完成,第一步是整体生成文件,一共产出三十六个原码文件,耗时十分五十秒。第二步安装依赖启动前端服务,用时一分三十秒。 第三步生成模拟数据,再次启动服务,用时两分十秒。 整体流程清晰,执行速度也比较快,最终呈现效果如下。 再来看 tree 搭配 glm 五,它支持一步直接生成,不用多轮交互,全程只需要一次对话就能跑完,最终生成三十四个源码文件,整体耗时大约二十一分钟, 最终呈现效果如下。 从最终生成效果来看,两套方案做出来的前端工程其实差别并不大,功能和结构都能满足需求, 但在使用体验和效率上区别就很明显了。 cloud code 需要多轮对话操作,但整体耗时更短。 tree 可以 一键生成,一步到位,不用反复交互,不过时间会更长一些, 所以同一个模型在不同开发工具上的表现确实会不一样。到底是模型更关键,还是工具更重要?大家可以根据自己的使用习惯,自己来判断,自己来选择。

免费的头肯随便用,没有任何限制。最近使用了 oppo cola, 头肯是太费了,随便一用一下就用完了。 自己的这个 ai 开发软件,缺氧是免费,可以用各种模型,我就想这里能不能想点办法。然后借鉴了 oppo cola 的 思路,写了一个飞速机器人, 用手记上这个飞书啊,控制这个电脑上的翠。我现在给飞书机器人发一个消息啊,发一段指令。如何计算润年这个 new 呢?表示开启一个新的绘画啊,这里已经有四个绘画了,现在我们来发送, 你看啊。好,来了,产生了第五个新的绘画,现在他正在执行。 咨询完了以后呢,他会给我手机发送一个回复,是不是像 open core 一 样?差不多了, 接下来准备用 open core 去接入这个机器人,这样子有一些重型的写代码的工作就交给这个确认来做好了。这个确认呢,写本地的文件, 稍等片刻,瑞典已经即将完成, 现在马上要发送回来啊。这个呢,比调用 api 肯定是慢,因为这是个图形界面,但反正在手机上使用,不着急的话,我觉得也可以接受。 哇哦,不错呦,好消息来了,已经完成了日历的计算代码在哪里?怎么计算好?