这个网站可以免费无限次使用全球所有大模型的最新版, rolo 的 office 四点六, gmail 三, pro, grog 四点一以及 gpt 五点一,还有 gpt 五点二, 下面还有好多国内的一些大模型,非常的全面,文本代码,图片,搜索各种模态。你还可以选择让两个大模型进行 battle, 看哪个大模型的输出结果让你更满意,或者指定两个不同的大模型 比较他们的输出结果。这个网站就是 arena ai, 是 一个大模型的测评网站,所有的厂商都会把他们大模型的最新版放到上面进行测评打分。最后关注我,带你起飞!
粉丝915获赞1.2万

我们先打开搜索栏,找到 get bash, 点击以管理员身份运行。如果我们这个想要能放文件的话,粘贴存放文件目录的路径, 复制该网址,粘贴命令, 那我们可以看到这里已经在给我们拉出文件了,拉取完后,我们进入这个文件的目录,输入 cd motor button, 用 pmpm 命令来安装一下,输入 pmpm install, 如果只使用 pmpm 命令安装的话,可能会报错。安装完成之后呢,我们运行这条命令来启动它的这个安装项目。 粘贴命令, 这里是选择我们一个已使用的 ai 的 api, 自己用哪个选哪个就行。复制对应的 a p i t, 这里是选择模型的版本, 这里是选择你使用的消息平台,这里我们只做安装演示,不选择选择跳过,然后这里是选择你需要的一些插件, 这边选择一个 get up, 按空格就可以,加上按回车就是安装这些都直接先跳过, 然后启动我们的网关,注意一定得是管理员权限才能够启动,不然可能会报错。 我们的网关启动成功之后呢,需要选择使用方式,这个是在 u i 命令行使用,这个是在 web 端使用, 我们选择 web, 这个我们就来到了这个页面,我们就安装成功了。在这里呢可以看到我们的对话区 输入信息,比如 hello, 它就能够做出回应,这就已经部署好了,我们可以正常跟智能体交流了。

你们看我这个桌面,之前乱到我都不想看,以前手动改名分类怎么也要折腾半个小时,现在我连鼠标都不碰,一句话让他接管桌面,自动创建文件夹,按格式分类,精准归位,全程不到一分钟。这就是你的数字员工,他能处理本地的一些文件,比如这一份几千行的销售数据, 不用写一个公式,它能直接读取本地文件,计算总额,出销量排行榜,还能按月度分析趋势,一键生成,可识破报告,全在本地完成,安全又高效。这就是我最近发现的神器 mini mess 编辑。 就连最近大火的 open call, 现在布局非常简单,不需要去啃命令行,只需要在对话框说一句,帮我安装 open call, 它就可以自动调度, 只需要填一个 a p i p 进去,其他的全自动,几分钟就能搞定。浏览器直接开用。装好 open call 之后呢,你甚至乎还能让它去社交,在装在探索里面,有大量高手调教好的专业水准,比如这个 multiple 专家就可以直接赋予的 open call 自主社交的能力。 设置一个定时任务,它就能在你的后台自主发帖,与人互动,全程不需要你动手。说实话,这种让 ai 借款电脑的体验,一旦用过了,真的回不去,现在一个人就可以驱动过任务的自画运转,强烈推荐你亲自去试试!

用 ai 写出来代码又乱又差,今天教你一招,让代码又清晰又好改。很多人用 ai 上来就说,帮我写一个 app, 然后 ai 给你几千行代码糊在一块,你想改个按钮都不知道从哪里下手。还有人说,我有清晰的需求文档,可以直接开干了吗?也不行。为什么? 因为需求文档是告诉 ai 要做什么,但是不能告诉 ai 它怎么组织代码, 所以 ai 不知道哪些代码该放一起,哪些代码该分开,最终写出来的代码就是一坨屎山。正确的做法是,先让 ai 和你一起做架构设计,先定好项目的目录结构再动手。第一步,和 ai 一 起探讨目录结构,比如 page 放页面, components 放字典, service 放接口, tutorials 放工具函数,先把文件夹的目录结构组织好。第二步,定好每一个文件的功能, 首页是首页,登录是登录,支付是支付,边界清晰明了, ai 就 不会乱塞。第三步,让 ai 一个模块一个模块的写,先写登录,再写首页,最后写支付,每个功能都在它该待的位置。为什么一定要先写架构呢?因为架构就是地图, 没有地图, ai 只能瞎跑,有了地图他才知道往哪走,代码就有了秩序。后面你加功能 改 bug, ai 也知道去哪里找。所以一定要把你自己当成架构师,把 ai 当成蚂蚱,先有骨架再长肉,没有骨架的代码就是一坨烂泥。关注我,下期教你怎么让 ai 一 次只做一件事!

大家新年好,今天来给大家介绍一个模型的测评网站,名字叫阿尔维纳点 ai。 为什么要给大家介绍这样一个?首先第一点就是真实性, 以前传统的这种 ai 跑分测试的这种网站,给的都是这种不同模型之间的测评的分数,其实对于我们用户来说并没有一个实际的感受。而像这个阿尔维纳点 ai, 它是依赖于用户记性的提问模型,它无法预知具体是什么问题,因此在测评的时候更加贴近于用户真实的体验。 第二个原因就是它是免费试用,你可以在这里直接免费体验许多昂贵的商业模型,如最强的 check gpt 啊, cloud 啊, game 啊千问,都是无需是支付订阅费的。那第三个就是这里汇聚了大量闭园商业大模型和优秀的开园模型,你可以让它们两两配对,方便你更加直观的感受开园与闭园之间的差距。 简而言之呢,这个模型呢,就像 ai 界的蒙面歌王评选,通过玻璃这个品牌的滤镜,让用户能够根据自己自己的问题,用直接来判定哪个模型更好,更聪明。 好,我们就来到了这个叫 arina 点 ai 的 这个网站,这网站设计非常简单,其实就是一个对话框来输入你的问题,那主要的区别跟其他的大元模型的这种对话框的区别在哪里呢?主要是在这里它有三个模式,第一个模式叫 back 模式, back 模式就是说他任意选举两个你不知道的模型,让他同时来回答你的问题,然后你来选择到底哪个模型好,哪个模型不好,嗯,还是都好。 还有一个模式就是叫 side by side 的, 就你可以选择两个你想要比较的模型啊,待会我们测试实际就来感受一下这个模,这个的这个 side by side 的 模式。第三个就是 direct, 就 跟传统的对话一样的 chatbot 一 样,就是它和一个模的一次来兑换啊,然后我们待会就来试一下这个这个叫 side by side 模式。 接下来我们直接来选两个模型来试一下,我们选这个 side by side 的 模式,然后我们生成一个图片吧,看看图片的生成质量方面怎么样,我们选一个国产一个国外的吧,国内的选现在刚出来的这个豆包的这个模型 see dream, 那 国外呢?我们就选 这个纳洛布纳杰尼三 pro 的 这个给他一个问题,我已经事先准备好了,就生成一张说明 tpu 和 gpu 计算原理差异对比的图片,可以以两个三成三矩阵相成为实际例子来做说明。好,我们来直接让他来生成这个图片看看。 好,两个都已经生成完了,我们打开看一看啊,这个是豆包生成出来的 cdr 生成出来大家可以看左边是 tpu 的 计算啊,专用这一讲,大家可以体会一下啊,然后再看看纳洛布纳生成出来的啊, 那,那么,那,那生成出来这个是 gpu 啊,这么一个算子,然后它是怎么计算?然后看看 tpu 它又是怎么计算啊,至于哪个好,我相信大家通过这个演示应该能够自行判断啊,这里我就不做评论了啊,今天是这里,我就写都,好吧, 好,我们再做一个大语言模型能力的测试,我们随便选两个吧,选还是选一个国产的,一个进口的吧, 选个千万吧,千万 max 啊,这边我还是选杰米三 pro 吧,问个什么问题,你准备好了啊?这个问题就是写,请写一句话,这句话必须包含八个词,每个词的字母数量必须分别是一二三四五六七八啊,这句话还要能够逻辑自洽,我们看看这两个模型的表现怎么样? 好,生成完了这个千问 max, 他 直接放弃了啊,他说, i'm not sure truly certain, whether, anything, actually exists。 这就可能认为这个是不存在的啊。杰米三 pro 还是想了蛮长时间了,我看看他写的逻不逻辑啊,他说, i am now sure words create writing pleasure。 虽然有点牵强,它的中文翻译也写出来了,我现在确信词语能创造写作的乐趣 啊,从语法和逻辑上还是正确的啊,并且语义也通顺的。这个看来还是简明尼三,这个在语义这个编写上略胜一筹啊。这个前文三还是直接放弃了。 接下来再分享一下这个网站当中比较好的一个 dashboard, 就 叫 leaderboard 啊, leaderboard 里边就是它根据大家在上面做的测试和打分 呃,做了一些这个模型的排名,并且它从不同的维度从 text code vision 对 吧?呃,图,纹身图对吧,还 image edit, search 解锁能力, text to video, 还有 image to video, 它整个做了一些排名啊,大家可以看一看啊,每个都有详细的排名,点开酷狗的话,它有更加详细的啊, 就现在排第一的,目前看还是 cloud office。 这个确实跟我使用下的感受也是一样。嗯,它确实比杰米尼三,甚至比杰米尼新出的三点 e 还是要强,还是要强一点。其他国内的模型最靠前的目前看到的是 glm 啊,也是跟一个同事跟我反馈的信息是一致的。嗯,其他大家可以往后看看啊,排在前面的都是谁? 然后大家还可以再看看一个生成图的啊,看在前面的都是谁啊?然后大家还可以再看看一个深层图的啊,确实,杰米三 pro 还是比较强的,它这里打分可能最高的是 gpt 啊,其他纹身图的可能,哎,混元倒是排在挺前面啊在这里,所以这个排名是来自于就是你看这里,他说这个有四百多万个这种像我这样的个人用户上去投的投票, 所以我觉得这个可能比这些模型公司自己打榜填的这个分数啊更有参考意义。大家可以来访问一下这个网站,当你要选模型的时候,通过这个网站来挑选你要的模型,我觉得可能更有参考意义。今天的分享就到这里,谢谢大家。

最近爆火的 openclock 龙虾机器人相信大家都已经听说了,它不仅能理解你的自然语言代替你操作电脑,还能自主规划任务执行路径,实现从软件启动到目标达成的全自动操作。可惜的是,原版的部署流程相当复杂, 不仅需要配置环境、安装依赖,还要对接 a p i 修改各种参数文件,整个流程对小白来说几乎是劝退级别。不过没关系,网易最近推出了一键部署的龙虾安装包,只需下载一个 exe 文件即可在 windows 本地直接运行,省去环境配置的麻烦。 今天我就来教一下大家如何使用网易 lobster ai, 搭配性价比超高的 mini max a p i, 完整跑通龙虾机器人。这里是新环无限,记得点赞关注我们直接开始。首先打开网易有道 lobster ai 官网,点击右上角下载,根据你的电脑系统下载对应的安装包。 我以 windows 为例,下载完成后点击打开,按照流程安装即可。 完成后打开软件会直接弹出 a p i 导入界面,大家可以根据自己的需求选择对应的模型公司,我这里就选 mini max。 打开 mini max 官网,鼠标放到右上角登录,点击 a p i 开放平台,然后使用手机号验证登录一下。 登录成功后点击左边 coding plan, 点击购买,往下翻, 选择连续包月套餐,我推荐二十九元包月这一档。为什么推荐大家用这个套餐呢?因为龙虾机器人的原理是通过 ai 写底层代码来操作你的电脑 每执行一步操作都要写不少代码,因此特别消耗托肯。而这个包月套餐的计费方式是每五小时可以执行四十条指令,按任务次数计费,不看托肯数量。五小时四十条任务对于普通日常使用来说完全够用了。如果你有更高频的使用需求,也可以选择更高规格的版本。 点击立即订阅确认支付,使用手机支付宝扫码即可付款成功,付完款会自动跳回扣丁片界面,在这里就能看到你的 api key 了。注意每条 api 都代表一个独立的接口,所以千万不要泄露给任何人。 点击重置并复制点击重置 mini max 的 api key 都是一次性显示的,复制完不保存的话,在网页端就再也找不到了。如果你不小心丢失了 key, 记得回到这个界面重置,但重置完后原先的 key 会立即失效,需要重新配置把它复制下来。 打开 lobster ai, 选择 mini max, 把 api key 粘贴进去,点击测试连接, 连接成功说明线路通畅,点击开启模型,再点保存设置就完成了。接下来我们测试一个简单任务,我让他写一份二零二五年的 ai 年度总结,并以 t x t 格式输出到桌面上, 可以看到他已经开始自动运行了。注意,我的鼠标可完全没动哦,全程都是他自己打开浏览器搜索的 好。运行完毕后,我们回到桌面, 可以看到 txt 文件已经创建成功,打开看一下内容也确实是按照要求来生成的,是不是非常厉害呢? 除了基础的任务能力之外,你还可以在设置中导入手机钉钉或者飞书,通过手机远程给电脑发布任务。有没有心动了呢?那么以上就是网易 lobster ai 搭配 mini max api 部署使用的全流程教学了,抓紧去试试吧,我们下期视频再见。

二十秒教你用手机制作生化危机六选人界面 ai 视频,一个可以一比一复刻爆款视频的携修方法很简单,小白也能轻松学会。 首先戳这个,再摸下它,接着打开小云雀 ai, 点这里的复刻爆款视频,然后粘贴要复刻的爆款视频链接,也可以上传想要复刻的视频文件, 再上传要替换的人物素材,输入这段 ai 指令,大家去我评论区里复制,最后发送,等待 ai 生成就可以了。

找个文件,二十分钟整理照片,一晚上想重命名一千个文件,手都能点抽筋,你的时间就是这么被浪费的。今天让你见识一下什么叫真正的一键搞定,就是这个 ai 文件整理规档神器文件禅,可以给文件规范, 也可以给文件重命名,重点是保护你的隐私,一起来看看具体怎么操作。首先给文件重命名,点击重命名,拖入那个刚才乱到窒息的文件夹,输入指示词,可以点击这些条件,也可以自己手动输入要求下一步等待即可, 重命名就完成了。看一下效果,这是命名前乱码的文件,经过 ai 处理,变成这样有信息的文件了,不仅操作简单,还快速。再来看第二个功能,文件归纳, 跟虫魅名步骤一样,拖进去告诉他怎么分,剩下的交给 ai, 我 们一起来看。结果 ai 分 成了四个大文件夹,其中还包含了许多小文件夹,每个文件都进行了归类,还能生成汇总表格,连资产清单都帮你做好了 交接工作。盘点文件,一张表全搞定!如果你担心隐私问题,可以使用本地模型离线使用,十几万人已经用它给文件大扫除了。你还在犹豫什么?赶快来试试吧!

分享一个可以免费无限次使用全球所有 ai 大 模型的地方,而且都是最新版本哟!看 gemini、 三 pro、 rock、 四点一 cloud、 opus、 gpt、 五点一 kimi、 千文等等,不论是处理文本、代码、图像,还是搜索 全球最新的 ai 大 模型,都可以在这里找到。最主要的是免费无限次使用,这就是 orenna ai。 这个 orenna ai 之前叫 lm orenna ai, 它其实是一个大模型的公开人工测评和投票平台。 大模型哪个更优秀?除了专业测评,人们的使用体感就是最真实的衡量维度。这个额瑞纳目前属于大模型评测领域的第一梯队, openai、 google、 astropica 等各大模型厂家发布了最新版本后,基本都会第一时间上到额瑞纳上面,看看真实用户的使用投票情况。它有三种使用方式。 我先说我最喜欢的这种 side by side 的 两人打擂台方式,选择 side by side, 选使用场景是文本写代码,升图片,还是搜索选要使用的一左一右两个大模型, 然后输入问题,两个大模型各自出结果,看完后给出自己的投票。我最喜欢这种 side by side, 是 因为两个结果我能更好的综合参考和比较。虽然这个平台的使用次数没有限制,但是它还是和单独的官网大模型有一点不一样。因为这里是大模型的竞技场,主要测的是模型的原声之力, 所以它模型的上下文窗口期设置的稍短,也就是绘画轮次多的时候,它后面的提示词里面需要再附带上下文信息, 不然他的回答就会褒饰我的使用感受,两三轮的对话,基本问题不大。第二个,这里不会联网查询。例如给大模型一个 youtube 上视频的链接,让它提取内容,并附上中英文的翻译。 如果放在 erina 里面,它没法联网读取里面的内容。我通常就会放到大模型自己的官网,例如网页版的 gemina 或者是 grog 里面给他链接,他不仅能读,还能用提取出来的结果继续帮我干活。好,就这些,祝您使用愉快!

今天给大家分享如何快速在自己电脑里部署 git, 补上各种功能插件或者 skill 的 方法。 git 补是一个开源分享平台,全世界的程序开发者齐聚于此, 开发各种 ai agent 功能,但是每个功能的说明安装过程永且复杂,让很多小白望而却步。 今天用 cloud code 的 一招搞定,就是找到某个功能的 readymote 文档下载到电脑上,然后打开 cloud code, 复制文档所在的文件夹位置, cloud 会按照文档说明在电脑里自动部署完成, 非常方便,快捷又省事。用 cloud 的 读取网页往往受到网络限制,直接读取安装文档文件效果更好。

啥子叫一拖即达?用超级互联来告诉你,我们在桌面上随便找到一个文件,拖到拖到超级互联里, 轻轻一放,文件已经过来了,我们要想发送给平板怎么办呢?在这里切换至平板,按照刚才的操作再操作一下就好了。

这是我用 gemino 三十分钟做好的三 d 魔法特效工具,是不是还蛮炫酷的?那么如果我想要把它部署到手机或者分享给朋友的话,我应该怎么做?今天一条视频教会你怎么把 gemino 生成的工具 部署到自己的手机上。第一步,先打开 gmail 写好的代码,点击分享这里选择复制。第二步, microsoft get 号上面打开个人主页,选择这个选项,然后选择新征,为你的工具起个名字,比如说万达,再选择新征 codebase, 然后点击这里新建代码, 等整个 git 代码这里缓存一下之后,我们就可以点击新增文件,把文件命名为 index html, 这个非常重要,要不然后面非常容易出差错。然后我们就可以把代码全部丢进去保存好。 这个时候如果你还想分享给你的朋友的话,我们需要第二个工具叫 word, 点击 add new, 选择 project, 然后添加你刚刚的 git 账户,选择我们刚刚起的旺达工具,什么都不用改,保持默认,直接点击 deploy 就 好。 然后就可以在主页看到你的工具了。兜妹,这里就是你可以分享给朋友的链接,比如说我更换的手机,输入网址工具,又能直接识别使用,然后又可以像电脑端一样去正常的使用这个特效了,虽然说就是在手机上,可能确实没有电脑上的那么 那么美观,那么完善。如果想添加到手机本地,可以点击箭头这里去选择添加到主页里面,然后你就可以在手机里面找到一个类似 app 图标的东西啦,打开即用。你也可以把网址直接发给你的朋友,让你的朋友轻松使用你的 gmail 工具。

让你把这里的几百张产品图片放到对应的商品单元格里,然后你就一张一张的复制,一张一张的复制,还要拖动缩放,对齐摸鱼的时间都没了。你当初不是说精通 excel 吗?嗯, 熊哥来教你一招,把这句话发给 deepsea, 等他工作几秒后,我们把这些看不懂的代码点击复制,然后来到表格,点击工具,点击 v b 编辑器,点击插入模块,粘贴代码, 点击运行,然后选择你放图片的文件夹,点确定,这样不就搞定了吗?来,你们帮我核对一下。嗯,你学会了吗?

如果你平时也用各种 ai 编程助手,那你肯定知道管理它们的配置有多头疼。不管是 cursor 还是 cloud 或者其他什么工具,每个平台都有自己的一套配置文件,格式规范全都不一样。 说白了,从我们技术人的角度看,这就是一个典型的互操作性问题,它让我们的整个开发工具链变得特别散,特别乱。所以今天呢,咱们就来深入的扒一扒一个项目,它就是想从根上去解决这个问题的,它的名字叫 open package。 好, 咱们来看一个最直观的痛点,你看屏幕上这个例子,左边是给 cloud 平台定义的一个 agent 配置, 右边呢,是同一个 agent, 但是给 cursor 用的。你注意看这个 toos 字段,在 cloud 里,它就是一个简单的字母, ch 族,对吧?可到了 cursor 这边,它就变成了一个结构更复杂的对象族,这就意味着什么?意味着同一个东西你想换个平台用,对不起,你得重写一遍,配置 完全没法附用,这效率也太低了。但是如果我告诉你,现在只需要敲这么一行命令,就能把一个本来是给 cloud 用的插件直接无缝地装到 cursor 里呢?这听起来是不是有点像变魔术? 但 open package 这个项目就是为了让这种不可能变成可能,而这颗命令就是我们今天这次技术深浅的入口。那么问题来了,这背后到底是怎么实现的?一个给 cloud 设计的插件儿,怎么就能在 cursor 上跑起来了呢? 这就是我们这次要搞清楚的核心问题。接下来,咱们就顺着这条命令,一步一步地追踪它的数据流,把这个所谓的魔法给彻底揭开。 open package 的 回星引擎其实就是一个三步走的通用转换流程,这里面最关键的一个设计思想就是九,它不是说给 cloud 和 cursor 搭一个转换器,再给 cloud 和另一个平台搭一个,那样平台一多组合就爆炸了。 它的做法是引入一个标准的中间格式,也就是通用格式。你看这三步,第一步,先识别出你给我的是什么格式的包。第二步,也是最关键的一步,把它转换成这个通用的中间格式,最后再从这个通用格式转成任何你想要的目标格式。 这么设计的好处显而易见,以后要支持一个新平台,我只需要实现它和通用格式之间的转换就行了,完全不用管其他平台。扩展性以下就上来了。 好,我们先来看第一步,检测这个动作,它是怎么做到又快又准的。 open package 用了一种双层检测策略,这其实是一个很聪明的性能优化设计。 第一层,它会先在包的根部路找有没有像 open package 点 y m l 这种标记文件,如果找到了, ok, 马上就知道这是个什么类型的包,根本不用往下看了,这是快速通道, 如果没找到呢?那就启动第二层,它会深入到包里的每个文件,根据预先定义的 skmar 来分析文件的原数据,通过这种精细化的方式来判断格式,先走捷径,捷径不通再用笨办法,很高效。 那你可能会想,这么复杂的转换规则是不是都硬编码在代码里了?当然不是,如果那样做就太笨了。实际上,所有的转换逻辑都通过这种声明式的方式定义在一个叫 platform star 计算 c 的 配置文件里。 你看,这里就定义了一个流,它描述了文件应该从哪里来,到哪里去。这种设计最大的好处就是把转换的逻辑和执行转换的引擎分开了。 以后我要是想支持一个新平台,根本不用动核心代码儿,也用不着重新翻译,我只需要在这个 gcn 文件里加一套新的转换规则就行了。 当然了,转换不只是改改文件路径这么简单,很多时候我们需要深入文件内容,重塑数据的结构。这时候, open package 的 另一个核心组建就派上用场了。 map pipeline 这个设计的灵感其实是来自芒果闺蜜的聚合管道,它允许我们用一系列声名式的操作,像流水线一样一步一步地去修改 yammo 或者 json 文档里的词段。这就是解决我们开头看到的那个 tos 字段格式不匹配问题的终极武器。 这张图就非常清楚地展示了 map pipeline 的 威力。你看,左边是转换前的通用格式, tos 字段就是个简单的矩阵组词, 右边是转换后要生成的 cursor 格式。兔子字段变成了一个对象组组,那么中间这块代码就是实现这个转换的 map pipeline, 它用了一个 s r two objects 操作符,把组组里的每一个字符串儿都变成了一个符合 cursor 规范的对象。 这就是魔法发生的地方。一个复杂的数据结构重述,就靠这么一段清晰声明式的配置搞定了,完全不需要去写那种繁琐的命令式的转换脚本,是不是很优雅? 而且 mac 派 plan 的 能力还远不止这些。它提供了一整套非常强大的操作符,比如说 s set 可以 用来添加或者修改字段, s rename 用来重命名字段, s on set 用来删除字段。它甚至还有像 s switch 这样的操作符来支持条件判断。 可以说,它给了你一个工具箱,让你能用声明式的方式搞定几乎所有你能想到的平台间的配置差异。好,咱们刚才把最核心的转换部分给拆解了,现在我们退一步看看,当我们运行 o p k install 的 时候,整个端到端的流程到底是什么样的。 首先是加载,把包读进来,然后就进入了我们刚才详细讨论的转换阶段,转换完了就是执行,把生成的文件写到你的工作区里。第四步,它会生成一个清单文件,这个 manifest 非常重要,以后你要卸载或者更新就全靠它了。 最后一步,报告结果。你看我们前面讨论的所有技术细节,在这个清晰的管道里都有它自己的位置,一步一步,井然有序。 所以你看,我们聊了这么多技术细节,从通用格式到声明式转换流,再到 map pipeline, 但归根结底,它们都是为了实现一个非常简单但又非常强大的目标。 就像官方文档里说的 open 宪 package, 就是 要提供一个集中的通用的接口,来简化 ai 编程处配置、文件的管理和分发。所有复杂的架构设计最终都是为这个目标服务的。 这就很有意思了,它给了我们一个启发,如果连 ai 助手的配置都可以做到通用,那在整个 ai 开发领域,还有哪些东西其实也能够被标准化呢? 比如说模型的调用方式、工具的定义规范,甚至是 prompt 的 组建,是不是也能通过类似的设计实现跨平台的互操作? 也许 open package 的 出现只是一个开始,它为我们打开了一扇门儿,一扇通往一个可组合、可互换的 ai 工具链生态的大门儿。

这视频介绍如何用 ajaxai 代理工具有 docs 生成 pptx。 我 打开了 kiro, 也选了文件夹,用 file open folder 就 可以打开本地电脑的文件夹。 folder 里有一个 docs 文档, 按右上角这里就可以关闭或打开 chat 对 话框, 按 auto 这里就可以选模型。我选了 cloud sonnet。 四点五,我的 prompt 是 read the attached doc file and prepare a powerpoint presentation。 之后我将视频加快了十倍,我都接受 ai 的 建议。 做好了,我打开 doc 和 pptx 给大家看。这是 doc, 这是 pptx。 我看了后想修改。我的 prompt 是 modify the pptx file 一, adding slide number to each slide 二, put the names of the authors under the title of the book in the first slide 之后我将视频加快了十倍,我都接受 ai 的 建议。 做好了,我打开 pptx 给大家看。加了 authors, 加了 slide number。 最后的修改是加照片 image。 我 的 prompt 是 add one image to each slide you can read the content of the slide and decide what image to put in the slide? 之后我将视频加快了二十倍,我都接受 ai 的 建议。 ai 现在就用每一张 slide 去生成一张照片。 坐好了,我打开 pptx 给大家看。

投标圈又炸锅了,随便找个招标文件,我连 wps 都没用,就能做出这样图文并茂、表格清晰的投标文件。今天给大家分享了这个 ai, 跟着我操作十分钟就能做出开篇方案。拿到项目之后丢到工具里,它就能自动将评分项提取出来,随后点,这样 它就能根据前面提取的目录要求,生成出对应目录,最后设置篇幅字数,还有图表图片的数量,就能自动生成出开篇展示的完整投标方案,非常方便。工具链接及其操作手册,扣个三三三自己拿走就行了。在这各行各业都在用 ai 的 时代,我真的推荐大家都试试这个。