gbt major two 到底在哪里用?最近一直在对问,那就再给大家一个优秀的选择吧,顺便教你做高质量的分镜图公式。众所周知,视频好不好看要图说了算,不管做单帧画面还是重要素材,都是一段漂亮视频的重要前提。 打开 live tv, 建立一个图片节点模型,选择这个,然后拖入你的人物图场景图道具图。提问,有同学想要学习怎么制作这样的参考图资产库吗?请吱一声哦! 然后我们遵循这个原则,填写你的提示词模板。啥?这你都懒得填写好吧。把你的参考图连接到同一个文本节点,输入这段提示词,你就得到了一段提示词。然后把参考图连接到同一个图片节点,输入提示词遮小氛围可不是随便做做就有的哦。然后再拉一个视频节点走你。 我是安庆,关于 iqoo 实时提问。
粉丝2.0万获赞9.1万

给你们看个东西啊,这个包是我们拿 ai 设计的,没想到我们还拿下了红点和衣服奖。现在更离谱,我想给他拍条视频,不用相机,不用模特,只需要一张照片,把它扔进刚出的 g p t image 二里, 输入下面这段提示词就能生成这样有时间内容参考画面、运镜,甚至旁白的分镜脚本,全部都是中文字,而且不会乱码,甚至还会提示你背景音乐和风格。而我只是输入了这样一句提示词,再扔进即梦。废话不多说,看成片 简约出行、从容随行,多功能防水通勤背包那种质感大片,以前起码拍三天,现在三分钟。所以啊,以后做产品视频真就是一张图的事。

你敢信只要一张截图,就能直接生成九张连贯分镜?最近在推特上爆火的 gemini 加 nintendo pro 组合太强了!你随便借一张电影画面,它就能自动推演出连续九格分镜!脚本人物一致性、场景匹配全部在线,而且只要一段提示词就能搞定! 提示词我已经整理好了,想要的到这个网址,输入神秘代码,六六六九,拿到之后, jamaican 粘贴给他。打开 jamaican 粘贴提示词,上传截图,他直接给你一张九宫格分镜图,拿着它,你就能做出场景一致的连贯短片,是不是超级方便?

我发现百分之九十的人用二十五宫格分镜都用错了,如果你还在把分镜图直接喂给 ai, 那 不是在做视频,而是在浪费钱。大家好,我是阿叔,网上的教程都在教你直接生成高清细节拉满的二十五宫格分镜。但经过我的深入体验,我发现这里面有一个巨大的坑, ai 需要花极大的算力去处理二十五个高清画面,导致用于分镜推演的算力根本就不够。这样就算你成功生成出分镜图,它的可用度也很低,你需要反复的抽卡。所以我给提示词做了一下升级, 让揭秘奶用草图的形式推演故事的发展走向,并生成分镜图。关键来了,千万不要直接把这张图扔到 cds 里面去生成视频,因为视频模型需要的是故事发展的关键画面。让 ai 一 次性处理二十五个不同的画面,出来的视频大概率会像这样 发生扭曲激变。你可以输入下面这段提示词,将某个单帧画面单独提取出来,生成高品质的关键帧。最后再把你选好的图片喂给吉梦,补充视频生成的提示词。这样 ai 就 只需要解决帧与帧之间的过渡问题, 算力就能得到充分释放,能大幅度降低你的费片率。这套分镜推演的万能提示词和提取单帧画面的指令我都给大家准备好了。评论区扣分镜直接拿走!我是阿叔,不讲玄学,只给干货!别忘了点赞、评论收藏,咱们下期见!

全新迭代漫剧分镜工作流来了,调用最强生图模型 g p t m h 二,效果超好,出图零崩坏,多宫格一键适配,不用调任何参数,看完直接让你产能翻倍。今天教大家在扣子工作流调用 g p t 以慢级二生成多宫格的分镜图片。 大家都知道这个模型,他生成的图片效果都是非常不错的,我们来看一下生成的多宫格,整体的画风,人物的一致性非常厉害。然后是十二宫格, 后边我做了一个一百宫格,十乘十的效果非常不错。然后工作流的全程他的节点不是很多, 接下来我会带着大家一步一步的搭建,同时在视频结尾我会给到大家这个关于最新模型的一个提示词合集,包括其他的生图案例都可以给到大家。我们随便打开一个浏览器,在这里搜索扣子的网址, w 点扣子,点 cn, 进入到主页之后,在左边有一个扣子编程,找到这个资源库,然后右上角点击资源,点击工作流,那么名称的话,我们可以自定义描述, 登进图片,一键生成,点击确认。进入到工作流之后,它有开始,结束两个节点结束我们先不用管,在开始这里我们需要有几个输入,呃,我把它复制过来。 第一个 input 就是 我们的一个故事剧本,变量类型默认 string, 这里可以描述一下故事剧本。然后第二个是我们的分镜数量,这里就用这个拼音名称, 呃,变量类型的话,我们语句 index number 都可以选择根茎数量。第三个就是我们的把图片比例可以是正方形,竖平衡平, 嗯,把这个 b 填全部去掉,因为我会带着大家一步一步的测试。第四个就是我们调用这个模型需要用到的一个 key, 我们的工作流总共就是两大步,第一步就是识别我们的想要生成的这个分镜数量,去调用大模型生成这个提示词,在这里的话,我们的第一个节点找到这个意图识别, 呃。模型的话,我们就默认这个二点零 little 它的变量值,我们把开始的分镜数量给到它,就是说如果我们的这个分镜数量匹配于四宫格, 那么它就会通过我们对应的大模型来生成这个对应的提示词,把名称改一下, 生成四宫格题二词。接下来是我们的九九宫格, 十二宫格,还有十六宫格。如果说大家想去做什么,五乘五,二十五宫格,一百宫格的,都是可以去修改这个题二词,那么这个大模型我们直接创建副本, 再创建两个, 这里还有个其他意图,呃,其他意图的话,我们就默认这个十六宫格吧。它的输入,我们把开始的 input 剧本给到它,啊,这两个我们都是把这个剧本给到对应的大木星, 这个第一个把它复制过来, 也是一位电影级写实短片场景生成专家,精通镜头语言与写实美学啊。这个大模型的题词大家都可以基于自己的理解去修改,都是可以的,它并不是固定的。 然后在用户提示词这里,我们 shift 加上括号,引用上这个引 put, 嗯,默认输出的话,我们就这个 auto put。 然后是我们的九宫格, 它的输入,我们还是把这个 input 故事剧本给到它,呃,这个用模型的话,我们选择二点零 pro, 这里同样的继续引用默认 auto put 的 输出 十二宫格,用模型的话就选择二点零 pro, 输入同样的剧本 系统提示词,我们可以来测试一下这个大模型的生成效果,如果说不理想的话,我们可以去修改,这里就是故事剧本,比如说我们随便写一个, 比如说这个史诗级大片,科幻,科幻风格吧,严谨一点,武士打斗点击运行, 我们可以稍微等一下,看一下他的这个图片提示词啊,是什么样子的,如果说我觉得可以,那么我就可以继续的去生成,这里用了一分三十秒运行成功,我们来看一下他的输出,十四集大片,五次打斗,然后点击预览, 然后大家基于这个对提示词的理解觉得 ok 了,那么我们就可以直接生成图片,所有动态均符合物理规则,无 ai 重复纹理, ok。 然后接下来我们在这里找到一个节点,这个叫变量聚合, 把这四个大模型的突出组合在一块,因为它是在根据这个意图识别之后调用不同的模型,那么每一次都不一样,所以说我们需要一个节点把它们组合在一起,又把这个 auto put 返回。 然后我们还有一步就是再添加一个负面的题词,再限制一下这个图片的啊,这个风格,在这里我们添加一个文本处理,添加一个固定的文本, 那就是增加权重吧,嗯,它的变量值,我们把变量句和 group 推给他,然后这里直接 ctrl v 复制 高清四 k 镜头,逻辑连贯,紧别与情绪,毕竟符合这个电影张力哦和 no 后面第二次不要变形这些的。 接下来就是我们的第二步,调用这个 m g 二的插件,在这里搜索礼盒,我们往下滑 这里啊 gt。 二图片生成就名称叫这个,我们点击添加第一个 生成分镜图片,它的 key 就是 我们 s 的 一个 key 提示词 command, 我 们就把这个增加权重的 auto put 给到它, 然后这里处同步异步。嗯,我们在这里选择处同步,就是直接等它生成好就行了,差不多就一分钟左右。 接下来是这个参考图片,以慢记 us, 在 这里它是需要宿主格式。嗯,大家可以看我前面的一个视频教学,这里有讲到怎么去把自己的一个图片转换成这个宿主格式,让它去参考。接下来是这个比例,同样的把开始的这一个给到它。 接下来是我们需要注意的一个点,就是为了避免这个图片生成失败,我们需要提高它的这个成功率,就是添加一个选择器,当它这个生成图片的 url 为空的时候,就是生成失败,那么我们会让它继续生成,在这里创建副本, 它继续生成,否则片段聚合 返回的就是生成图片的 url, 连接上结束 它的节点就只有这么几个,非常的简单,添加聚合 pro 谱一,呃,我们点击试运行故事剧本,呃,先把这个 key 复制上吧。获取的这个教程我也是整理在了 excel 文档, 以类的话我们做横屏六比九跟进数量,我们做一个九宫格,然后故事剧本我们还是以刚才的那一个 指示集科幻大片五是在都市打斗,点击试运行,我们在这里的话就可以稍微等一下,我们的工作流用了两分四十二秒运行成功,它再结束,返回了一个图片链接,我们来看一下这个生成的图片效果, 这个场景、镜头语言、人物细节,整体画风都是非常不错的啊,效果非常不错, 我们只是在开始输入了一个我们想要的故事剧本啊,什么风格?科幻大片循环引擎,武士打斗,它生成的这个质量和之前的香蕉 pro 是 完全没法比的,这个效果是相当的,可以这个题儿词看一下, 远景中景日写第二次,写得非常好,两分四十二秒啊,只有五十二秒,是这个调用图形生成对应的图片啊,这个时间还是非常快,后期我们也会上这个对应的四 k 二 k 这个清晰度。 那么啊,同时后期我也会教大家怎么去在工作流里调用极梦的 cds 二点零,直接一键生成想要的视频,那么今天的工作流到这里也就结束了,感谢大家的观看。

哈喽,各位小伙伴们大家好,然后我们教大家今天去做的这个东西叫什么呢?就是一个二十五宫格分镜师的这么一个东西,它其实是一个智能体啊,它是怎么做的呢?就是我们可以去把你的产品和你的角色丢进去,或者说你单产品丢进去,也可以直接制作, 比如说我这边把我的产品拖进来,然后把我的角色也拖进来,对吧?然后我直接跟他说这是是一个鞋子广告,然后商业大片,对吧?然后直接让他要求一下,要求角色 穿着鞋子,对吧?然后直接有了这些东西之后,我直接丢给他生成就可以了, 然后他这边会给你生成一个关于二十五宫格分镜的这么一个接生代码,然后你直接把这一串接生代码直接复制一下,比如说我这边把它复制, 然后直接丢到这个生图工具这边,然后粘贴进来,然后紧接着你也要把你的产品和人物角色拖进来啊, 因为我这边是一个鞋子广告吗?然后我需要他有一个我的人物模特,然后紧接着我直接给他在最后编写一下,就是鞋子 产品细节,然后参考图片一,然后角色模特参考图片二,对吧?因为这是我的一个限制吗?我得去给他有一个参考,然后有了这个东西之后,直接点击生成就可以了, 然后紧接着他这边就是一个我们生成好的这么个效果,他会根据你的产品包括你的人物去进行一个剧本的编辑,然后他可以直接去用到我们的视频生成工具之中,然后给大家去看一下 这个东西,他其实是一个智能体啊?他是如何创建的呢?就是我们直接来到界面这边,然后我们点开这个界面,对吧?我们点开这个地方, 然后他这边有个新建键嘛,我们得用他这个新建智能体去建造一个分饰的一个角色。然后点击一下,然后这边你可以直接给他命名嘛,是吧?就比如说叫二十五 宫格进师,对吧?这个地方你可以直接给他命名一下,然后再紧接着你把那个文档直接打开,就是我们会有个二十五宫格分饰的文档,你直接打开之后呢?你把它复制一下, 把你们的内容复制完之后,直接在这个地方粘贴啊,直接粘贴进来之后,然后点击保存就可以用了,是吧?然后点击保存就可以直接去用到这个真人体了。

太好用了,我就用了一张图, ai 就 帮我生成了二十五宫格分镜图。那么如何用一张图 去生成二十五宫格分镜图呢?今天一个视频教会你,今天我们要用到的工具是 gmail。 首先我们打开 gmail, 上传你要生成二十五宫格分镜图的图片,然后粘贴这段提示词,提示词我已经完全写好了,如果你们想要,可以在评论区扣一,接着在这里记得选思考模式,接着我们点发送, 这时候 jamie 呢就会给我们说出一段接生代码,这个接生代码就是生成二十五宫格分镜图的提示词,我们复制一下,继续上传你想要生成二十五宫格分镜图的图片,然后粘贴刚才生成的接生代码的提示词,这里还是选择思考模式。 紧接着我们继续点发送,等待,耐心等待一会就生成好了。我们可以直接下载下来, 你可以从左往右去看一下,故事情节以及人物的一次性都表现的相当的好。有了这些风景,你就能生成一段连续的视频画面做风景,用这个办法真的非常的简单,记得点赞收藏,我们下期再见。

ai 时代,普通人一定要用上这三个大模型。 jimmy 负责消化长文档,帮你快速理清背景。 check gpt 接手创意与结构,从大纲到脚本一气呵成。 walk 实时抓取热点和舆论风向,让内容不脱节。最后拿着分镜找 gpt image。 二精准出图,长文本策略热梗配图全搞定。

哈喽,大家好,这里 alex。 我 在深度分析了几个百万博主的视频以后,越来越确定的一点就是不要再让一个 ai 从头干到尾了。 我把这套由 clark、 j g p d。 和 jimmy 组成的自媒体 ai 工作流整理成了一个模板,无论你是用 trapball 或者是用 agent 的, 都可以直接跳用。我发现很多人现在在做内容的时候,还是习惯上去找一个最强模型,让他去查资料,想选题,写脚本, 出文案,做展示,最好什么都给你做好,听起来很美好,但最后的结果往往都没办法看。那你想想,要是一部电影,他的导演、摄影、演员都是同一个人,那这部电影大概率其实也不太行。 说到底呢,其实不是模型不够强,而是当你把判断、执行、呈现全都塞进了同一个 context window 里的时候, 会出现两种结果,要么就是你在用最贵的模型做最不值钱的重复输出,要么就是前面一个小东西错了。所以我后面的整条内容都得返工,费时又费力。所以我现在做内容的方式就是直接给他们做分工,好当研究员, 叫 gpt 当执行者, jimmy 来当设计师。所以我们来说一下为什么这么分。首先是 cloud, cloud 非常聪明,所以它最适合做开头的高净值的判断,像做一些内容的判断,结构的定位,还有整体切入的点,这种相对来说比较关键的一步,我都会交给 cloud op 四点七去做。然后 chart gbt 作为执行者,他更适合做中间的那层推进,就是已经有明确的结构框架,交给他去写脚本,写文案,出一些 demo, 出一些初稿等等。因为 chart gbt 不 仅便宜量大,而且执行力非常强,他不会偷懒。第三就是 jammin 是 设计师, jammin 的 审美到目前为止我觉得还是 完全领先于前面两个的。当内容已经成型以后,我再让他去做一些流程图啊展示页,做一个简单的视觉整理,把一团 复杂枯燥的信息变成一个能讲、能看、能有价值、能保存的东西。这么做的好处有几点,第一就是更省钱, cloudops 非常非常贵,所以我只用它做最有价值的判断。第二个就是能做更少反攻,就是在你的判断、执行和呈现拆开以后,前面的哪一步错了不会说,让后面的全部跟着一起重构。第三就是更容易成稿。大多数人其实在用 ai 的 时候都想能够一次性搞定,但其实 ai 输出的结果都是有随机性的, 当随机性的次数过多以后,它的结果就会越做越乱。所以当你把它拆开之后,内容反而更容易从你的想法推进成一个产品。我最近要做一个 honey sanchez interview 的 解读,我不会一上来就让 c g p t 开始写副本,我会先让 call 去结合我的内容库 去告诉我怎么猜这个题它值不值得我做。如果我要把它讲给一些非技术背景的观众,最值得切入的角度是什么 等这些问题被 clark 猜清楚以后呢?他去帮我做一个选择题的确立,然后做一个结构的大纲,然后我再把这个大纲交给我们的 q g b t 去做一个 demo, 去模拟一个 honey's engineering 的 demo, 或者是诗朗动画等等。 因为很多的技术上的内容,你光讲概念其实是非常枯燥的,观众根本是听不进去的。所以 q g b t 的 作用就是把 把一些抽象的概念变成观众能够看得懂,能够跟着你走的一个演示流程。最后我再把我前面做好的内容交给我的 jammy, 让他把这一整套内容做一个视觉的结构展示,这样观众看到的就不再是一堆枯燥的文件,而是一套具有吸引力的内容资产。所以对于 工作流来说,倒并不是说哪个模型最强,而是说你要去找哪个模型最适合干哪一段。你要用搭内容小组 的想法来去构建你的工作流,而不是去找一个最强大脑去承包一切。所以如果你也想直接套用这种方法,我把这套自媒体工作流都整理好了,直接丢给你的 agent 就 ok 了。好,那么今天内容就到这里。

我花三天时间用 g p t image two 跑了五百张分镜,三十六集的短剧成功交付。 g p t image two 在 空间场景上直接碾压 nano banana pro, 彻底解决了同一场景下多镜头、多角度的连续性问题。我称它为空间全景。废话不多说,我们直接看例子。 好的好的,师傅,我马上就到,已经在电梯里了。 妈,我今天自己做了饭,荤素搭配,认真吃着呢,你放心。出租屋十三平,室友是我自己, 我想辞职,我再也不要上这个破班了。 你也在跟我一起长大吗? 这是一个非常复杂的出租屋,室内它狭小但五脏俱全,同时存在大量的镜头切换。但 g p d e m g two 拥有极其强大的全景图指令遵循能力,一键就可以生成过去需要专业软件才能生成的空间全景图。 因此,我只需要生成一张图,就可以预览整个空间,再根据分镜的需要生成不同 机位秒出,既节约了时间,又节约了成本。你学会了吗?

做视频最费时间的不是剪辑,而是找分镜。现在用 gpt image 二输入一句想法就能一键生成视频,可直接用的分镜图片, 远景、中景、特写、推进、跟镜、镜头节奏都帮你规划好像这种十秒短视频的分镜图也能快速出图,而且价格很实惠,做其他图片质量也都是非常优质。

哈喽,朋友们,之前分享了很多期关于 cloud code codex 的 视频,但我发现评论区讨论最多的就是国内怎么使用,确实天下苦, cloud code codex 就 已 光网络这一关就能劝退一大半人,账号支付节点每一步都在折腾,更别说团队场景下每个人单独搭一套环境的成本要有多高了。后来我自己也折腾过几种办法,中转 api、 进项站、买海外卡,要么不稳定,要么一到团队层面就抓掐。 前段时间试了一个叫 evo ai 的, 但是目前我用着比较顺手的,它里面直接内置了 cloud code 和 codex, 打开就能跑,不用你再去配账号,调整网络。同时它也提供 cloud gpt、 gmail 的 api 中转,自己接到别的工具里也行。 一个平台覆盖了两种方法,但我今天想分享的是他新出的这个团队管理功能。先说第一个,安人分配托客额度,后台能看到团队里的每一个人,然后给他们单独设置额度。核心开发可以多分一点,像做支持、做业务、做产品的可以少分一些,或者按项目走也是可以的, 用完自动停,不会出现一个人把全团队额度刷光的情况。以前的订阅制是什么体感?整个团队共用一个上限,根本不知道是谁在用,用在哪,超了就超了,事后也没法追溯。 现在每个人的成本都能够算到 top 这一级,账算的清清楚楚。第二个,也是我个人最看重的支持数据采集,平台会记录每个成员每天用了多少 top, 问了什么问题, 打开后台你就能看到这个月谁是众多用户,谁压根没用过团队整体的 ai 使用率是涨还是在跌,那这数据拿来做什么?注意,这不是监控,是判断,判断谁可能需要一对一的使用培训,判断哪个岗位的 ai 渗透率还偏低,判断我们在 ai 工具上花的钱有没有真正落地到产出上。 所以 ai 时代的团队管理不能再靠感觉得有数据来支撑。再补充一点,统一入口的额外价值对团队节奏影响其实非常大,新人入职当天就能够开工,不会因为环境还没配好卡上个两三天 团队所有人用的都是同一套工具,沟通和节奏的语言也是统一的。最后我总结一下, vivo ai 比较适合三类人,第一,技术团队负责人或者老板想把 ai 在 团队里推下去,但手里缺一个统一的管理后台。 第二,身在国内,想让团队直接用上 cloud 的 gpt jimmy, 但不想每个人都去折腾环境。第三,想精细化控制成本,按人分配,而不是大锅饭一个十字。 当然了,个人用也行,毕竟谁不会喜欢一个 app 里面直接能用预三加的工具呢? ok, 那 以上就是关于国内使用 cloud code 的 codex 的 分享,希望能对你有所帮助。我是布鲁,我们下一期视频再见。

你与西门庆狼狈为奸可认罪, 你还在用九宫格和二十五宫格做 ai 视频分镜吗?过时啦!过时啦!先带大家看一段直出的视频,质量 从实招来!你与西门庆武大郎有何私情?奴家冤枉你,若不说,今天就把你吊死在这里!不,我没做过,求求大人,我说,我说!大家好,我是英老师团队的邦尼,好久不见啦! 这次我们使用的工具还是立部 tv, 方法很简单,在画布里使用 g p t emoji。 二要求,按照最标准的分镜逻辑输出故事版,要包含每个分镜格的拍摄方式、拍摄参数、台词、构图、景别等详细描述, 然后再把角色三式图和分镜表同时给 seasons 二输出视频即可。稳定性远超九宫格和二十五宫格的方法。屏幕前的小伙伴们,你们学会了吗?我是应老师团队的 ai 科普频道,我们下次再见!

一定要一定要一定要尽早的用上拆了 gpt 或者 jimmy。 我 感觉按照现在 ai 发展的速度,自己以后一个人拍个电影都不成什么问题,是吧?脚本你不用自己写, ai 给你写好,镜头那些组建逻辑也不用你自己写, ai 给你弄好, 你只需要把故事逻辑理清楚,然后分镜设计好,自己以后拍个电影都不是什么问题,真的,包括你以后电影那些宣发,那些封面, ai 全部都能帮你做好。你看今天我拿那个 ai 帮我生成了一个封面。

今天主播带大家看看 gpt 一 键生成全短聚分镜,这里是两百万帮我演一场戏,假装我男朋友把我哥气走,演戏演男朋友,这里主播省点积分就生成短一点的视频,嘻嘻。 呵,直接老实点,你家的钱什么时候到就给 livv 生成视频。

当我头一回用 gpt emoji 二打完一张图,我就把 jimmyemoji 给雪藏了。你要是还在拿横评分数选模型,先看这个结果。 那天是四月十八号, gpt emoji 二你知道吧,就是 openai 现在主推的图像生成模型。真正让我彻底确认的是五月三号那次复测, 我拿 notebook lm 自己出的 jimmy 四全解析图,让 gpt 反推一遍提示词,然后用同一句提示词,同时让 gpt emoji 二和 jimmyemoji 都出一张结果。 gpt 这边五十多个中文字,零个错字, jimmyemoji 同样位置五个错字。注意这个时间线 雪藏动作发生在四月十八号,第一次用 g p t emoji 二之后五月三号只是我补证据,到今天五月四号, jimmy 一 妹子已经十六天没回过主链,坑就在这。我雪藏它不只是因为这张图错字,出图不准确,只是眼前问题, 配合工作流费劲才是主链问题。 g p t emoji 二这边可以一套 api 直接接近我的工作流。 jimmy 一 妹子放进主链就很别扭。横屏最容易漏掉的是后面连续生产会不会突然翻车。 横屏博主测的是单图上线,我做的是连续跑一百张图,单图分高不代表生产量稳定。更狠的是,我这次没让 jimmy 做陌生体。我用 notebook lm 自己出的原图当老师, 让 jpt 反推提示词,再把同一句提示词喂给 jimmy, 让他照着自家老师的答案学,他学不出来。这已经接近生产事故的预告测试,看的是一张图能不能经验 生产,看的是一百张图里有没有哪一张会把中文写崩。下面这三张图就是我删 jimmy 的 现场证据。 notebook lm 自己出的 jimmy 四全解析是这张浅底性能图架构图,中文里有两处小错,一个是到底,一个是接近接近 gpt image 二反推提示词之后出的是这两张,一张智核未来横版,一张智源新纪元竖版, 五十多个中文字,一个错字都没有。 jimmy image 用同样提示词出的是这张五个中文错字很刺眼,前代一应该是前一代, 前代代应该是前两代,前前代世应该是前两代,世代。你公司公众号,你抖音封面,你客户海报,中文出错一个就翻车。更反直觉的一刀来了,问题没出在提示词字典,用 mind 给 nano banana 准备的那套字典,星标数一万一千七百七十三,比 gpt 字典还大二点七倍,听起来字典更大, 应该更适合进主链。可我这十六天一百张图还是全用 gpt emoji 二跑。原因很简单,主链工具怕的不是字典少,是图出错接不顺,后面还要人来补。所以这条我不做模型排行,只给生产。结论, google 的 jimmy emoji 让 notebook lm 自家产品当老师,学出来的中文还是五个错字,放进我的工作流也不如 gpt emoji 二顺。字典是开源资产,谁都能用,但主链里真正贵的是中文别错,工作流别卡,还能一套 api 接进去。

你们一定一定一定要赶紧去用上 gpt, 这就是目前最强的 ai, 没有之一。这也是我自己深度使用不低于二十个 ai 软件会得出的确定性答案。你不用跟我说什么 cloud 将来是最强的 ai 软件。 评判大模型能力的有以下七个标准,我拿这七个标准问了市面上几乎所有的大模型,得出的答案就是一致的, gpt 就是 目前来说综合能力最强的 ai。 所以 说,还有不会用的赶紧去用,不会的评论区留言我教你。