近期随着 emoji 二点零生图模型的爆火,很多人都已经掌握了生成超清晰图片的能力,但是也有很多用户遇到了一些问题,就是当你的提示词要求过多的情况下,生成的图片会出现偏差, 总结就是质量不过关,但提示词少了又无法达到你想要的效果。那么这里不得不提一下这个 promptify 提示词生成插件,给大家演示一下功能。我们在流量网页时,碰到自己喜欢的图片风格, 只需要右键使用插件一键解析提示词,可以看到有两种解析模式,一种是比较简单的普通版,可以获取简单的提示词,可能生成的图片不精准。另一种是 jason 版,非常精细,基本可以还原图片百分之九十九的细节,选择好后直接点击开始生成,就会直接给到我们该图片的 ai 提示词, 这种提示词会最大限度的发挥并控制 em 二点零的能力,然后我们就可以以使用该提示词进行图片生成了。最后教大家如何使用这个插件,我们打开浏览器搜索这个网址,进入后点击这里进行下载安装就可以了。那么本期视频到此就结束了,我们下期视频再见。
粉丝1159获赞4.8万

什么?你还不会使用 emoji 二点零?或者说使用的时候经常出现乱码和生图失败的问题?别担心,本期视频手把手教你使用 emoji 二点零并解决乱码问题。首先是乱码问题,导致该问题的原因就是提示词太烂了,我们需要使用插件生成专属提示词, 没错,就是 promptify, 不 仅可以生成提示词,还能直接使用 image 二点零。话不多说,直接教大家如何使用。首先我们打开浏览器搜索这个网页,进去后找到 promptify, 找到后点击下载离线安装包,下载完成后,我们打开文件所在的地方, 把这个文件解压一下,记得解压到我们能找到的地方。接着打开浏览器,点击右边的管理扩展,每个浏览器的具体位置不一样,我这里使用的是 chrome 浏览器,进去后先点击右上角开启开发者模式,开启后点击左上角的加载已解压的扩展程序,选择我们刚刚解压的插件文件夹,直接点击确定即可。 最后再教大家如何使用 image 二,我们打开这个扩展后,随便右键点击一个图片,选择使用 promptify 生成提示词,随便选择一个生成,生成后点击使用提示词生成图片,就会弹出生成图片的选项, 我们选择 image 二点零即可,这样就能使用 image 二进行生成了。以上就是本期视频的全部内容了,可以帮助大家生成最完美的提示词。

image 二点零遇到乱码或者生徒失败,十有八九不是工具不行,是提示词实在太烂了,模型根本听不懂,你要干嘛?那怎么办?咱得靠插件来生成专属提示词。没错,就是那个 promptify, 它不光能帮你写提示词,还能直接调用 image 二点零,非常方便。话不多说,直接开搞。咱们先打开浏览器, 去搜这个网站地址,我会贴在简介或者屏幕上。进去之后找到 promptify 的 下载区,点离线安装包下载,下载完一定记得去文件夹里把它解压了,最好解压到一个你好找的地方。 接着打开浏览器,点击右边的管理扩展,每个浏览器的具体位置不一样,我这里使用的是 chrome 浏览器。进去后先点击右上角开启开发者模式, 开启后点击左上角的加载已解压的扩展程序,选择我们刚刚解压的插件文件夹,直接点击确定即可。最后再教大家如何使用一位数二、 我们打开这个扩展后,随便右键点击一个图片,选择使用 promptify 生成提示词,随便选择一个生成,生成后点击使用提示词生成图片,就会弹出生成图片的选项, 我们选择 image 二点零即可,这样就能使用 image 二进行生成了。行了,按这整套操作走下来,大概率不会再蹦乱麻脸了,赶紧去生成你的图吧,我们下期再见!

大家好,今天聊一个颠覆认知的重磅消息,比谷歌 nonbanana 更强的 ai 生图模型, open ai 未发布的 gpt 一 魅之二已经意外泄露, ai 造假正是进入截图及伪造的全新时代。 四月初, l m arena 评测平台突然出现三个匿名模型,代号是胶带系列 masking tape alpha、 packing tape alpha、 gaffer tape alpha, 几小时后就被紧急下架,但测试样本早已传遍全网,它就是 g p t image 二。 为什么说它颠覆格局?此前谷歌 nano banana pro 一 直是生图天花板,可 gpt image 二直接实现全面超越,核心突破就是文字渲染能力的质变。过去 ai 生图写文字总出错,英文正确率都不到百分之九十五,中文更是乱码。 但 gpt 一 妹之二能精准生成清晰的中文、英文、日文,连银行转账截图、产品标签、霓虹招牌上的小字都完美还原,肉眼完全无法区分真假。 这意味着什么?截图彻底失去法律效力和可信度。以前我们用截图留证核验信息,现在 g p t 一 魅之二能生成以假乱真的假截图、假票据、假聊天记录,没有专业工具根本鉴别不了。截图为证的时代已经终结。 更关键的是,普通用户现在就能用专属提示词提前体验。给大家三个直接能用的实用模板,截图生成照片级逼真的手机银行截图,清晰显示交易记录、日期、金额、商户名称,完整可变 iphone 十六屏幕咖啡店自然光背景产品拍摄高清精酿啤酒瓶照片标签细节完整显示酒厂名称、酒精度与配料表棚内柔光纯白背景 场景文字东京雨夜巷道街景,多处日英双语霓虹灯招牌清晰,含拉面店卡拉 ok 招牌、湿路面反射灯光,真实感拉满。 目前 gpt 音魅之二还在辉度测试,五月或将正式发布,届时 ai 声图会全面普及,造假门槛降到零。 最后提醒大家,从今往后不轻信陌生截图、不转发位置凭证,遇到关键信息一定要交叉合验,避免被伪造图片误导。 ai 技术本无对错,但滥用造假终会反噬。觉得有用,点赞收藏,转发给身边的人,一起警惕 ai 伪造新风险!

你们有没有发现,在网上找的那些 chat gpp 为啥越用越难用?不是回复慢卡顿,就是一直夹在转圈,动不动就卡死。我程序员朋友跟我说了大实话,网上吹的那些所谓正版 chat gpp, 其实都是商家接的 ipi 自己做的外壳,根本就不是正经原版。大家都知道想用官方原版 app, 正常途径很高,普通人也不好操作,那如果自己真的刚需想用该怎么办?有的告诉你们,一、 信息差,其实 china gpt 是 有官方镜像可以直接使用的,并且自带超火的一麦集二点零升图功能,完全不用花冤枉钱充会员费乱收费,手机电脑全都能适配使用。感兴趣的朋友直接在评论区留言就行。

如何借助 chat gpt 和 image 二高效的绘制这种精美的科研视域图呢?给大家分享一个非常实用的方法。好,首先第一步我们需要用顶刊的视域图去训练 gpt, 得到相应的高质量提示词。我们直接找一张细节比较丰富的顶刊视域图发给 gpt, 让他呢去学习这幅图的绘图思路和绘图风格,并且呢给出能够复刻生成这张图的详细提示词,要求这个提示词要详细到在任意的纹身图模型里边都能够生成原图的程度。 最后我们告诉 gpt 这幅图的主要内容,方便他去理解和学习这幅图的绘图过程。对话时一定要选择最新的 gpt 五点五的 cking 模型,不要选 instant, 然后发送 不到一分钟之后呢就给出提示词了。好,我们来一起快速的看一下。如果想要完美的复刻生成这种顶刊的视意图, g p t 认为我们的提示词应该包含哪些内容,应该包含一些整体的风格,要求 每个区域应该去具体的会制哪些内容,还有一些整体的视觉风格,要求文字标签, 构图参考,还有一些负面提示词,也就是一些通用的注意事项。除了这版非常详细版的提示词之外, gpt 还给出了一套经典版的提示词,我们直接把上面这一套详细版的提示词复制, 把它粘贴到一个新的 gpt 窗口,调用一米二,同样也是用 ckey 模型。然后呢让它去出图,目的呢当然就是为了验证我们这套提示词的好坏。好几分钟之后呢,图就生成了,第一感觉呢就是生成的图也是非常的精美, 我们把它下载下来,跟顶开原图放在一块对比一下,大家可以看到生成的图基本上所有元素的立体感比原图都要更强, 尤其最明显的比如这个肿瘤细胞群生成的图比原图更形象,更立体, 再比如这个半透明小鼠的器官生成的图片明显也要更加形象。再比如这些烧瓶、纳米颗粒、血管线立体单个肿瘤细胞的洁面图,这些部分的立体感都加强了, 其实还有一些细节的提升,大家看左侧的这个光电热的示意图,原图里边只是简单的用箭头表示一下,而在一米二生成的图里边, 他把这三部分光电热都形象的画了出来,所以呢,个人感觉一米二生成的这张图比顶刊原图要更上一个档次。 如果大家发现你们的生成的图片一般可以继续呢,用这个指令反复优化我们的顶刊提示词,反复生成图片,直到呢生成的图片满意为止,拿到我们最终的高质量提示词。 好,第二步,第二步我们要做的就是对刚才的这份高质量的非常详细的提示词进行提炼。刚才的提示词我们也看了,其实呢它就是两部分内容的混合体,一部分呢就是适用于任何场景的一些通用提示词,另一部分呢就是作者特定的一些内容需求。 现在呢,我们就让 gbt 把通用提示词那部分详细的提炼出来,将来呢,我们就可以直接套用在我们任意想要会制的内容上。 我们返回第一个对话窗口,接着给 gbt 这样一条指令,让它去从上面的提示词中去提炼提炼这份详细的通用提示词, 要求考虑到从上面这个顶刊制图学到的所有要点,包括排版、布局、信息密度、配色字体等等, 并且呢,要适用于机制图、流程图、架构图、技术路线图等等各种类型的视域图,适用于各种研究领域。将来呢,我们可以直接套用任意的内容需求,就能生成高质量的科研视域图。 好几秒钟之后呢,我们就拿到了这份他提炼好的通用提示词,是非常的详细全面,包括整体风格、排版布局、配色、字体标签、图形元素、信息表达、画质质感, 适合各种场景以及一些质量标准。负面提示词可以说是方方面面,各种科研绘图需要注意的事情都考虑到了。 好最后一步,第三步,结合我们想要的这种内容需求,直接套用刚才这份高质量的通用提示词,我们就可以高效出图了。 我们先试试机制图的这种出图效果,直接复制刚才那一大段详细的通用提示词,再加上我们的内容需求。比如这里我把内容需求简单的描述为光催化、电催化、光电催化的这种机制对比, 然后发送,大约呢过了四分钟左右,一米至二就把图片生成了,大家可以看看效果,出图质量是非常的不错。 好,我们再试一下这个中数图的这个效果,还是直接复制那一大段非常详细的通用提示词,加上一个内容需求。比如我这里输入荧光分子在化学、生物材料等领域的应用概述图 也是这个,大概花了四分钟的时间,一米二就完成出图了,效果也是很棒。好,最后简单总结一下我们的思路呢,就是先用顶刊图去训练 gpt 生成提示词, 再让 gpt 去提炼出一套高质量的通用提示词,这样我们可以保存以后,将来自己结合自己的内容需求,随时去调用它。 这套方法的出图效果呢,目前要比那种简单粗暴的直接参考图片生成图片的效果要更好。所以呢,在这里分享给大家,并且建议呢,大家尽量不要用那种接入一米之二的外部网站 gpt 官网呢,它的这个状态才是最满血的状态。好的,谢谢大家。

给大家准备了一份 gpt 图图使用技巧和提示词指南,给我点个心心点我头像拿吧! openai 全全量上线的下一代图形生成模型 gpt 图图并非普通版本迭代,而是创意工具,升级为可交互的视觉工作操作台。它最大的亮点是生成毫无 ai 位的图片, 自带实拍照片真实感,能做到以假乱真。同时彻底解决了以往 ai 绘图文字乱码出错的通病。再加上强大的世界知识增强能力,模型不再模盲目的堆砌元素, 你看到第一眼,你真的以为那是一张真实照片?照片真实感没有 ai 味。 如果你觉得上一张图不够真实,那看下面这一张,真的真正做到以假乱真。再看上面图中文字,不再乱码出错。给大家准备了一份 gpt me too 使用技巧,给我点个心心点我头像拿吧!

hello, 大家好,我是 qk, 那 么最近 gbt 不是 出了 image 二吗?然后我今天呢就给大家讲一讲用这个 gbt image 二完成你的一个画图的任务, 那么适用场景是什么呢?比如说你要生成一些图片,是用于海报的,视频封面的或者头像的,你都可以用它来帮你生成。 关键点是什么呢?就比如说你普通人并不太,就是,比如说你审美可能不太,就一般,就像我这种,然后或者是你对对美术的一个了解也一般,然后呢这个时候呢,你就要善于去利用 啊 ai 去帮你去完成这个工作,而不是把这个工作自己去,因为我是以普通人的角度嘛,所以说就这一部分的东西呢,就交给 ai 去做,而不是说我自己去做。那么 所以呢,比如说我自己直接讲一个例子,就说,呃,领导给了我一个任务,让我完成一个五一的,一个放假的一个啊,不是放假的海报,是一个推广,就推广武汉五一旅游的。那么这个时候呢,我们要如何去设计呢?就 你可以把这个问题直接抛给 gpt, 首先让他帮你生成一个大概的一个描述,比如说他给了几个方案, 翻一是什么城市地标的拼转发,二是国潮插画风,然后翻三是电影感的大片,然后翻四各种,这个好像是没有具体的,这个是这个整体的融合吧,那么呃, 这个他给了这几个方案,然后这个时候你得结合你的一个需求,比如说,呃,你的需求是要做一个这种呃拼接的,或者说你有自己,他这里没有列出来,然后你要, 但是你有自己的风格,你就直接说给他听,让他去帮你啊,先描绘一下,然后你他把这个大体的描绘了一下之后呢,你就直接让他说,那么就用方案商生成, 然后你就可以看到他生成一个图片,其实就是非常夸张的,是你,你给我自己去做这个图片,我是真做不了,因为我的一是我的审美就就那么点,是吧?二是这个各种的 这种素材呀,还有各种东西的拼接啊,这个让让我自己去做的是真的是做不出来,但是他给你基本上就很快就,嗯,几分钟也不用,就可能几十秒就给你生成了。当然他这个图片可能生成的会有瑕疵哈,比如说这个 我记得好像我不太确定武汉这个后面这个这个塔是不是武汉的,这个我怎么感觉像是上海的那个塔,所以这个我也不太确定啊,因为我也没具体的啊,我也不是武汉的,本地的,也不是经常去,所以这个但是他确实生成的,比如说 他这个这个是宣传的一个图片吗?他就说时间是吧?四月三十号到五月五号,然后呢描述英雄的城市,然后后面比如说标志的一个景点啊,黄鹤楼啊,武汉长江大桥啊,东湖风景区啊,武汉的美食啊,各种各种,就是 他这个海报其实真的是非常的非常的好,真的对我来说,可能我本来对这方面也不太了解吧,对,但是,但是我觉得好看还是能看得出来,这个确实生成的非常好看,那么 所以这个就是我说的,就是你不理解,你就把你的背景和需求说给他听,让他帮忙,然后他生成了大概的一个东西,之后呢?然后你 再去选择一个最好的,比如当你领导让你做做一个需求,是吧?不满意又提给你,然后你又要改,那么你如果是用 imagine 二的话,你就可以在非常快的一个时间内去完成任务。 那么关键点的第二个呢?就是使用 permit 去生成这个工具来辅助你。呃,生成一个比较详细的一个东西,那比如说这个其实我用的很少,因为我觉得这种, 呃,一是你给我生成了,我也不太了解这个东西。二是这种应该是如果是你是专门从事这种美术行业的话,你就可以去学学这个东西,然后你可以生成一个,你 就可以生成一个你你那脑海里面想象的,因为我这个生成的比较比较泛吧。但是如果你的 这个 promise 写得很好的话,就是可以生成一个更详细的一个东西,那么那我也不知道,是吧?那当然你是普通人,你也想修改这个段,你也可以去 啊提一下,比如说,呃,我想用通过这个去修改,然后你给给出这个图片的一个 promise, 然后我去修改一下,那他就给出一个什么,大概就是就是这个描述的话,你给我是真的不会,比如说是这个光影,什么体积光,逆光,电影级调色 高动态范围,这个我一个也不懂啊,但是啊,然后呢,这个风格当然就是你可以在你了解的一个范围,比如说这个版式,是吧?你比如说 像上方留白用于大标题这种,你可以稍微改改,改成你的一个需求,然后这种前景啊,这种东西你可以稍微改改,然后改完之后呢,再让它重新去生成 啊。其实一般,嗯,普通人这个用的少,就是你有这个需求,我觉得你得专门去学学。普通的话其实就大概就是把你的就像我用的第一种比较啊,小白脸的比较 简单点的方法,直接问他,让他去给你解决这个问题就行。对,然后最后呢是 让我又用他体验体验了一下这个其他的一个东西,比如说就是我有个产品,就是我这个水杯让我拍了张图片给他, 然后我说我要把这个产品上架到一个电商平台,你给我生成一个产品的介绍图片。 大家这个时候其实你最你如果有这个参数,比如说这个水杯高度有多高,然后什么保温,然后内里面用的是什么?三零四,还是还是其他的一个材质,然后还有其他参数,你把它用文字发给他,他能生成的更好哈,但是我就直接把这个发给他,然后他就给我生成了, 你可以看看,就是说这个真的特别像我去刷京东啊,或者淘宝的时候刷到的一个,呃,生成的一个效果图啊,这个 真的是太夸张,我觉得它生成的真的是太夸张,就是现在这这这里有点稍微有点不像。当然如果你的啊相机再专业点,然后拍摄的角度再好一点的话,因为你可以看到我本来 本来他拍的是这样子吧,你看这种,你看他都给你生成这样子了,然后如果你拍的再好一点的话,他可能给你生成的一个效果就更好,但我这里没加参数啊,这个参数就你,你有这个需求,你可以自己加。 对,然后后面我就稍微再体验了一下一些其他东西,比如说我想要生成这个,是吧?啊?英雄联盟的一个相关东西,但他给的这个不是我想要的,因为我,呃就是想生成的是个游游戏类的图片,因为我不是看 看大家说这个生成这个游戏类的截图啊,或者是一些聊天的记录已经到了一些就是几乎以假乱真的程度吗?在我我就试一下这个功能。那这里看的话,如果你是了解这款游戏的话,大家还是能看出一个破绽,但是如果你不了解的话,其实真的是, 嗯,就就可能真的是会被说,哦。我在比如说是吧?你对象说我在打游戏,然后发来这个截图给你,是吧?其实他没在打,但是这个确实你不认识的话确实很难分出来这个东西。 那么这个大概就是今天讲的一个图片的生成,大概大家可以去体验一下这个东西的生成,然后你可以自己去体验一下这个东西的生成,然后后续如果你有任务 是吧?你领导交给你一个画图的任务,然后你就可以用它去很好的画。对,然后,呃,其实现在市面上还有些其他的一个生成的一个平台啊,但我觉得应该目前比较夸张的就是这个 gpt match 二吧,其他的话你也可以去体验一下它的一个, 呃,当然它可能没有像这么就是你问他给的这种方案给你啊,但是,但是你可以比如说我把这个东西,呃 生成一个,让它生成一个 permit, 然后再再发到这里这些平台上面,然后让它就可以生成一个比较专业的一个图片给你了,然后下面就是一个这种生成的话就,嗯,大体大差不差吧?但我觉得 还是直接问 gpt 比较好,这个是我之前收藏的一个网站。那我觉得就直接问 gpt 就 行,让它给你去生成。那么好,今天的视频大概就这样,我们下期再见。

gpt 一 max 二正式上线了,这简直是创意者的福音,从此一键生成精美图像不再是遥不可及的梦。无论你给出的是简单直接的提示词,还是复杂细致的描述,它都能呈现出令人惊艳的效果。接下来就为大家展示两种不同风格海报的生成过程。

多个榜单全部第一,纹身族能力呢,超过 nasa banana 二百四十二分。官方说啊,这是历史以来第一名和第二名最大差距的时候。那这个 jpg image two 啊,是真的那么强吗?三分钟,我们来看一下,如果你也用 image two 尝试了新的玩法呢,可以分享在评论区,我们讨论一下 每天一杯强壮。由内而外。 先来说呢,他这个提升最大的,并且感官呢,最明显的优点就是他文字的理解以及呈现的能力。像你刚才看的那些电商海报啊,模特图啊,书法,甚至是试卷,其实全部都是由 image 二直接生成的。 在同样的提示词下呢,他对比 nasubao 在 文字的生成准确率上是有明显提升的。我们可以看一下这个对比啊,同样是生成人物简介,那这张 image two 生成的图片在文字上几乎是没有错误。另外呢,我们让他分别生成两个时尚杂志的封面, 可以看到明显的 image 生成的图片呢,这个图片模特的眼神,角度,探头的,这个标题的字体层级, 背景,光影的戏剧化程度,这一切呢,都是经过逻辑推演的。画面里的每个元素呢,都像是被这个强迫症导演安排好了的, 清晰,锐利,准确。那整个构图呢,像是一本被精心编排好的画册。那这种审美啊,其实是高度设计化的,并且充满了严谨。 而 nintendo 有 更多的抽奖结果呢,是偏向于把相关的元素拼在一起,看起来很像。但是这种逻辑的严谨也带来了缺点。不知道有没有朋友发现啊,当你生成的场景比较复杂的时候, 全景或者元素较多的图片意味着兔这个模型呢,会给你非常多没有用的细节,导致你整个画面没有主次, 再一个画面每一处呢,其实都过于清晰了,那光线呢,过于均匀了,构图过于完美,反而呢,会产生一种类似于影楼精修,或者说呢,塑料模型的不真实感。在这方面呢,其实给了你一种生图水平回到了二十四年的感觉。哎,这是为什么呢?这其实涉及到一个问题了, 就之前呢,你生成这种图片里的文字呢,一直是一个大问题,那这几年为啥突然会写字了呢?其实都是因为现在的生图模型,也就是这个 diffusion 这个单一架构了, 他们大多啊是先让字回归的大圆模型作为大脑进行语义理解和逻辑规划,然后呢,再去调用扩散模型作为手来完成最终的像素成 像。那比如 nintendo, 就是 先拿 jimmy 三做语义理解,然后规划再生图。那扩散模型呢,就像电视雪花一样,整体消除无用的噪点,最终呢,呈现出一幅图变 而字回归啊,你就可以理解成 g p d, 就 像写文章一样,一个板块预测下,一个板块一块一块的把图像画出来,就是因为这样呢,他才不容易写错字,逻辑解密。但副作用呢,就是过于遵循指令了,生成了非常多不必要的细节,让整个画面呢,看起来很繁杂,非常的挤。 虽然关于 gpt image 二具体的框架信息啊,官方也是首口入屏,但基本上从它的文字和指令遵循到变态的特点上,也不难推断它的图像生成啊,大概率是由一个具备推理能力的自回归的语言模型所出道的, 所以相信大家看完这期啊,对新模型的优缺点呢就有基本了解了。虽然说看起来意味着兔领先了那么多,但是目前来说,图像生成模型我觉得还没有找到最好的一个苹果那图像模型没有进步空间了,这种画呢,其实还是为时尚早的。

gbt image 二点零一出,整个电商界瞬间炸锅了,来,我们平时在网上浏览商品的时候,在别人这个商品主页刷到的所有炫酷的这个电商限定页,我们只需要保存一张这个产品图, ok, 然后我们再复制一段这个产品信产品信息,然后我们就只需要 找到上方这个电商板块, ok, 我 们可以看到有很多功能啊,我们往下滑来到这个电商限定页,然后把刚才的这个产品图给到它这里,再把我们刚才这个产品信息也给到它。然后下面这个目标国家语言啊,就如果说有跨境需求啊,就是可以根据具体某一个国家进行设计啊,然后 国内的话我们就默认中文就可以了,然后这个产品的细节图啊,就是可以保持这个产品的最新啊,大家旋填就可以,然后我们记得点击发送, ok 啊,这个时候我们就看到后台全这么直线,不用管, ok 啊,我们运行结束之后,我们直接在对焦的话这边看一下刚才的结果啊,好,他总共是给了我们八张图啊,我们整体预览一下啊, 兄弟们。

这两天 gpt 作图特别火,不要去下载,因为你下载下来你也不是为了赚钱,你就是想玩玩。首先这是没什么必要, 再一个说你就下载这东西你自己不会下载你不会去弄,你去让别人教你百分之五十的呃,百分之八十的可能性你会被锁机。 那就是你要再花几百块钱把你手机解开了啊。没什么必要,安卓的话更别下, 除非你自己去研究下好吧,否则你的东西你的钱都不翼而飞了。你到时候又要发抖音又要哭了。没啥必要的, 我觉得这东西你都这么大了,就连用个这个都需要去,别人教你的话你还不如现在上床睡觉呢。

来测试一下你到底会不会被现在的 ai 给骗到? 来公布正确答案,六号,你猜对了吧?没错,这些图全部都是 g p m h。 二生成的,对比曾经的地表最强 nasa nasa 二已经是一眼的差距了。另外,它还让我觉得很恐怖的一点是,你看这张图右下角的日期,再看墙上的挂历, 没错,是对应上的,但是细节上还是有点问题啊,因为九六年的二月实际上有二十九天,而且在其他的图里也能找到一些微小的瑕疵,不过整体问题不大,因为这也几乎算是到了以假乱真的临界点了。 g p t m i。 二这次的杀手锏是拥有了思考能 力,也就是在接收到指令后,他会先解锁规划甚至自查。这也就带来了一个极其实用的功能,完美的排版和逻辑 连贯。但美中不足的是,如果你做图太快, gpt 仍然会有限流的问题。不过现在有一个解决办法,我们可以在 ai 工具站中直接调用 m i 这儿的模型,就可以无限升图了。 而且当我们输入提示词,你看到了吗?它比 gpt 还多了一步,它会先搜索相关的内容,用来获得参考资料来提高一致性,这样的话,输出的结果就会 更加的真实,包括评论和画面都非常的匹配。从今以后,有了它,你就可以做出各种实用性拉满的图片、文字、海报、封面设计,还有各种创意图。那这种去掉 ai word 的 ai 图是不是已经可以完全拿去直接用了?

我实测了 gpt image 二点零在电商的各种玩法,从电商图再到详情页、产品主图,还有产品创意海报,全场景我都实测了一遍,结果真的让我倒吸一口凉气。 稳坐 ai 深途神坛的 banana, 这次是真要被拉下神坛了。先给大家报个最硬核的成绩,在 ai 深途专业跑分榜上,当其他头部模型还在一千两百分上下贴身厮杀的时候, g p t 一 米九二点零直接甩开第二名 banana, 整整两百多分,不是小幅度迭代,是实打实的降维打击。 做过电商的都懂,之前用 ai 做一张合格的主图,得写几百字的提示词,但这次的英妹姐二点零,你只需要一句大白话。比如一个男生在户外拿着风扇帮我设计一个电影级海报,科技风格,他就能直接出一张九十分以上的成片,审美完全在线, 不用费劲调参数。还有英妹姐二点零的中文生成也稳到离谱。同样还是这个产品,我直接告诉他,帮我根据这个产品生成一张电商详情页,等待他的生成结果。我们来看一下,不仅文字零错误, 他还帮你把排版都设计好了。我还实测了产品投图,甚至产品海报,我感觉他的设计能力可以媲美专业的设计师了。 除此之外,哪怕是旅游规划图、产品设计图、深层产品说明书,我们都可以通过大白话告诉他,大大降低了 ai 深图的门槛。 ai 的 更新速度实在太恐怖了,我把所有提示词都整理成文档了,扣六六六!

这两天火爆全网的 g p t m h 二很强,但是在使用中,你是否也遇到了这样的纹理崩坏问题?今天两步带你解决。第一个是同一个对话里, 图会越改越脏,很大一个原因就是上下纹残留,后续生成的图片就可能会受到污染,原本不明显的错误纹理会被逐渐放大。第二种情况是提示词很长,画面纹理又特别复杂的时候,对话的第一张图也可能直接崩。 那现在怎么办?第一,如果你的图是越改越脏,刷新页面开心对话,有时候能缓解上下文污染。第二,在你的提示词后面加上这一段提示词,能有效缓解纹理崩坏问题。所以这个问题现在看不是单一原因, 用户光靠改提示词只能部分缓解,最后还得等官方后续修复。你遇到过这种情况吗?有没有更好的解决办法?评论区聊聊。

最近我花了一点时间专门去测试 g p t, 因为已经不是随便的玩两张图,是真的连续跑了很多不同类型的内容,想去看看他现在到底到哪一步了。测完之后,我最大的感受就一句话,深图这件事情其实已经开始变味了。它不只是一个,一个更强的画图模型,它越来越像一个 真正能理解我们易读的这种视觉内容助手,甚至有点像设计师、排版师、内容编辑几个角色都走在了一起。你给他一句话,他不只是把图生成出来,他是在帮我们把一个完整的作品给做了出来。这是最让我震撼的,不是观影,不是质感,甚至都不是所谓的审美,而是中文。真的,中文这件事特别关键。以前很多模型一涉及到中文,尤其是密集的这些中文 复杂的排版,说明性的内容基本上就会开始崩,字一多呢就会糊,结构一复杂呢就乱,稍微有点信息密度,整个画面就不太能看。但这次我连续测下来,发现情况已经完全不一样了,它已经能去处理很多以前很麻烦的东西,比如说图建式的拆解图,比如说科普百科卡, 还有一些健身训练图、旅游攻略、电商详情图、人物关系图,甚至高考试卷、手写药方这种高密度的中文场景,它都能生成, 而且他开始能处理我们的这一个信息,这个变化其实是非常大的。很多人以前理解 ai 深图,还是停留在海报、头像、壁纸、好看的图片这个层面,但我测完之后越来越觉得不对。真正的大的变化是,他已经开始进入那种过去特别费人力的工作了。你以前想做一张像博物馆展板一样的内容,你得查资料,想结构、写说明, 还要做一下标注和排版,然后还得统一审美。但现在很多时候你一句话过去,他给你的已经不是一张图了,而是一个完整的这种信息组织方案,比如说科普卡、训练卡、旅游攻略、电商详情页这些东西,以前要么找设计师,要么自己一点点在深图工具里面去拼。现在你会发现,他会开始替我们补信息,替我们去理解场景, 替我们去决定办事,最后再一起渲染出来。这已经不是单独的这种画图能力升级了,我感觉他背后更像是一个 a 者在工作,你给他一个目标,他自己去理解,去补全,去组织,最后再把图做出来,跟我们以前理解的深图工具已经不是一个东西了。 还有一个点我觉得特别明显,就是提示词这件事情,门槛都在飞快的下降。以前大家总觉得想出好图就得写很复杂的提示词,镜头、风格、光线、材质、构图、参考流派,恨不得全写进去。但这次我测试的时候发现很多场景下根本都不用给他一句大白话,他就能去生成。这就很夸张了, 因为我觉得未来很多 ai 工具的一个竞争,可能是比的是哪种 ai 工具能更懂我们的意图,哪一个更像能跟我们一起完成任务的人。所以我这轮测试做完下来,就有一个特别强烈的感觉, gpt 真正厉害的不是把图画的更像真的,而是它开始从画图工具变成了这种视觉内容生产工具, 只要我们有想法,它就可以帮我们去做出来。以前的话卡住我们的不是想法,而是动手的能力,但现在这个环节呢,正在被快速的缩短,当然它也不是完美的, 一些真正的艺术感,真正的人情味,还有长期稳定的判断力,这些东西还是要依靠我们来做执行的。但方向已经很清楚了,以后我们真正要学的可能不再是怎么把提示词写的像咒语,而是我们想表达什么,我们的脑子里的画面如何去给到它呈现出来。

今天被 g p t 以卖的图生成的各种图片给刷屏了,但是新手小白是不是有这么一个疑问,他的提示词是怎么写的?我们今天就以拖鞋为例, 从中间随便找一个超百搭拖鞋也太好穿了。然后找一张图片,然后我们截屏,然后打开我们的工具, 这面有很多功能,今天我们就不讲了,我们就今天就讲这个图片及图片生成,然后在这里点击图层图,给他一个提示词,给这个拖鞋设计张高级的信息丰厚的电商详情页,然后我们上传刚才我们截屏的这个拖鞋的照片。上传这个图片 好,上传好,直接点击开始生成图片已经生成好了,我们直接点击保存图片, 好,我们来打开看一下,我们来看一下效果,帮我们生成图片,它的详情图,颜色、尺码等等都有,是不是又给你省钱了?

你早上起床打开手机刷几张图,你能否分辨出哪些是人制作的,而哪些又是被 lost function 优化的呢?如果不能,那么恭喜你,你的审美和视觉判断系统已被入侵了哦。 你有没有注意到,我们现在看这几张图,像是同一个人产出的呢?同样的光,同样的构图逻辑色温,也带给你那种微妙的高级感,甚至都是类似的。 这不是谁模仿谁或者抄袭谁,而是我更倾向于认为是大部分人的审美正在同质化。今天我们我们要讲的不是之前那些硬核的实验,也不是 ai 抢饭碗中娜娜姐的话题, 而是 image two 带来的更高行业壁垒,以及设计师和创作者真正失去的是什么。还有,人与 ai 之间的双向驯化导致了 santa alignment 审美趋同进步来讲,审美正在被 ai 定义,我们开始用它的标准来评价我们自己。 我们先来看一组数据哈, mini jennie, 一个大概一百人的团队,没有免费用户,二零二五年创收大约五亿美元, 这说明什么呢?这说明视觉生产从一个需要庞大人力的行业编辑成本现在逐渐归零了。以前如果做品牌视觉,我们需要一个懂设计、软件甚至审美以及客户需求的庞大团队,但是现在呢?一个创业者三条 prom 可能就足够了, 但是注意我的用词,我说的是足够了,而不是更好。这中间其实差了一整个行业的生态。而这五亿美元的创收,绝大部分其实来源于那些 呃,本来应该留向初级设计市场的钱,比如说刚毕业的这些学生接的那些呃五百块钱 logo 单,五千块钱的小品牌 vi 等这种呃枯燥的重复劳动, 所以发生的其实不是 a i t 带了谁,而是进入行业的成本被系统性的提高了。而由于 technology pipeline 兼没知识管道阶段, 进入这个行业的资格被提高。你想成为一个能跟 ai 竞争的资深设计师,你必须先做过那些现在广泛被 ai 替代的脏活累活。 斯坦福的研究表明, ai 暴露度最高的职业里,初级岗位掉了百分之十六点五, 而同岗位的年长工作者就业反而稳定甚至增长。这说明 ai 极大的扩张了专业拥有专业技能的人的能力,但是却弱了那些初级 初级的人的这些一些能力。而且更隐晦的是,单个的学生找不到工作,归因永远是市场不够好,你的能力不够。而没有人会说是 ai 提高了进入行业的进入资格,因为系统的效应被分散到每个个体的蓄势中消化掉了。 第二点,我个人认为,设计师或者说创作者真正的困境不是被替代,而是认知。你大概就说过这样一句话, ai 只是工具,创意永远是人的。怎么说呢?这句话一半一半吧。我们来拆解一下什么叫做创意。 在设计领域,创意不是凭空而来灵感,创意是大量视觉输入以后,你的脑子里形成了一套判断系统,什么好看,什么构图有张力,而什么配色让人不适。 而在研究领域呢,创意是在大量论文和常年学习实践沉淀以后,脑子里形成一套稳定的逻辑系统,什么逻辑链硬核,什么假设需要反复测试,而边界又在哪里? 现在问题来了,当你每天看到的图,甚至说是文章,不是创作者自己写的,或者说是融入自己思想以后和 ai 共同创造的,那么你的审美和判断系统在被什么训练呢?不是被人类的审美历史训练,也不是被大量论文思想训练, 而是被一个在评分上优化过的函数训练。而这个 story 模型是用一组标注者打的偏好分数。也就是说,你今天看的 ai 高级感,它的源头是几千个西方用户的美学偏好,被压缩成了一个 文件,然后扩散模型,用这个分数做了二 l h f 式的对齐,然后你每天刷几张这种图,就是就是,这就是一条完整的那个 assented alignment pipeline, 你 不是它的用户,你是它的下游训练对象啊。 而当你刷到的图被你点赞收藏,二次创作又爬回训练级 ai 风险研究领域里有一个词叫 model collapse, 叫模模式,他缩 模型,用自己的训输出训练自己之后分布的尾端,也就是因为 top k top peak 采用截断会被截掉,方叉会消减,最后所有的输出会收敛到分布的中心。 而视觉上的表现是你现在刷小红书的感受,同样的光,同样的构图,色温,流水线式的那种高级感。这不是不是博主在模仿抄袭,我更倾向于觉得是这整个视觉生态系统在有 ai 这个变量参与以后做的一种 模式,它缩就是 model collapse, 而你的审美判断系统正在被这个它缩后的分布 read 重新训练。 你以为你在用 ai 的 标准评判 ai 的 输出,但你也在用 ai 的 标准评判人类的作品。这不是科幻,这在认知科学上其实是一个嗯,相当古老的命题,你的大脑会适应你给他的输入。 而当几十亿人的视觉系统被同一个同一种高度同质化的输出投喂了以后,我们安慰自己,创意是人的,但其实在这个过程中,创意依赖的感知系统在潜移默化的偏移。 看到这里,恭喜你要长脑子喽,回去看看我刚刚论文有没有发现哪里不对呢? 我对你也用了好几个标准的 ai 操作手法。首先,我反复使用对其管道训话这些工程化的词来描述一个社会现象,这激活的是你对科学性的权威启发。是 authority heuristic, 你下意识的觉得这个东西被工程语言描述了,所以说它是真的哦。但是 authentic eleven 这个词在文献中虽然是有定义的,但是是定义相当松散的,我把它当成一个硬核术语在使用,为的是让你把它当成结论。 第二,我把 me journey, 四十四十人、五亿元,五亿美元、 model collapse, 百分之十六点五这些数字和论文堆在一起,给你制造一种 机制已经被证实清楚的感觉。带你回去看看我前面引用的斯坦福的那篇说百分之十六点五这个数字其实不准,原始论文里跨职业是百分之十三,软件开发细分是百分之二十。我取了一个折中数字,因为这样听起来更加客观可信。 这正好是数字上的奥斯罗蒂夫斯基。精确的小数让事情变得已经被事情显得已经被充分测量。 第三,同篇我都在讲双向训化。他人和 ai 的 关系结构上其实是不对称的。 ai 的 被训化是 loss function, 在 反向传播中更新参数。你的被训化 是在几十年甚至几十年塑造的神经回路,在被一个完全不同尺度的框架反复刷新甚至铆定。 把它们放在一个词里叫双向,是修辞上的等价,而非机制上等价。但是这里重点是损失函数 loss function 随时可以改,只有你的改变基本上是不可逆的哦。 下一集我会讲三个比视觉审美更加不容易察觉的层级,你的语言如何被格式化,你的决策权如何被影响,以及你的情绪参照系统怎么偏移。 所有主流讨论 ai 的 趣事都在说 ai 越来越像人, ai 能力越来越强。但下期我们讲一个完全相反的角度,人越来越像 ai。 不 仅仅是语言上,还有一些更加深层的东西。好了,这是灿灿,我们下次再见哦!

哈喽,大家好,本期视频呢,主要给大家介绍一下 gbt 的 一妹纸二点零的更新方向,适合的不同人群以及如果你想做出各大博主同款的图片,提示词应该怎么写。但是由于视频的时长有限,所以想了解完整提示词的朋友们也可以找我要一下中文版的提示词文档。 首先, emoji 二点零拥有超越以往更高的精确度与控制力。我们以往提供给 ai 的 图片作业要求并不能够被完整的呈现,只能够得到一些与园艺大体相近的结果。但是现在它能够渲染出颗粒度极细的元素,包括微小的文字以及图标系统。 举个简单的例子,科学的杂志或者是手写的文章,我们给他这样一段简单的提示词,他就能够生成这样的图片。 第二,更强大的多语言能力。特别是在中文、日语、韩语、印第语和孟加拉语中表现出色。我们都知道,在使用一些海外的模型时,它并不能够非常好的理解中文原意,但是现在它不仅能够保证文字渲染正确,还能保证语言表达流畅连贯, 比如日本的少年漫画,中文的漫画和韩语的广告等等。所以适合工作以及兴趣爱好,包含海报、解说图、图表和漫画领域的朋友去尝试和体验。 第三,卓越的风格表现力与写实度。在各种视觉风格上呢, image 二点零能够具有更强的活人感,这是因为它能够更敏感地捕捉到摄影图像的关键特征,包括那些增强真实感的细微瑕疵, 比如自然抓拍、超现实肖像凸立电影感写实,同时它也能够更好的呈现电影、剧照、像素、艺术、漫画等独特的视觉语言的风格。在纹理、光影、构图和细节方面,模型会表现出更高的一致性, 这对于游戏的原型设计、故事版创作、营销创意尤为实用,比如讲堂照片、时尚书籍、一次性相机和街头摄影。 第四,此次更新还支持不同的风格,比如日本青年漫画、电影海报、现代独立漫画等等。 其中有一个官方的更新呢,是它的角色设定图,如果你长期跟 chigpp 聊天,可以给他这个提示词,让他根据你自己的形象去生成一个你的角色设定图。看到这里,大家应该都已经发现,新的模型在图像交互方式上具有更高的灵活性, 比如电影的海报、设计图等等。支持从三比一的超宽比例到一比三的纵向比例。换句话来说就是它能够契合各种格式需求,无论是宽幅、横幅、演示文稿、换登篇,还是海报、手机屏幕、书签以及社交媒体的素材,比如篮球扣篮、延时的摄影、 iphone 全景、 中国传统绘画、日本漫画风格和故事书等等。第五,现实世界智能将世界认知引入到图像创作中,也就是截止到二零二五年十二月之前的知识都会被更准确的输出。对于解说图、教育图表和视觉摘要等输出具有非常强大的优化作用, 比如对角画、信息图、二零二五的设计趋势等。需要注意的是呢,在一位数二点零在加入思考模型之后会投入更多的时间,也可能是功能过于强大导致的食物人数过多,也就是说,他目前虽然具备了生产力级别的能力, 但是并不具备生产力级别的。效率慢的话,生成一张图片可能要几分钟到十几分钟。此外,他在某些任务上仍然存在挑战,尤其是涉及到精确箭头或者是部件标注时,仍然需要人工核对。 所以不建议目前为止没有使用 gpt 的 朋友去盲目的开他的会员。你可以通过一些国内的 api 接口去使用。如果想要作为生产力工具存在,那大家可能还是要等一等国内的厂商。最后说一些题外话。