c d s a i 大 模型,现在的话很多人的需求量是非常高的,那像现在在官方这样,豆啊,像这个吉梦啊这些等等 ai 的 应用里面的话,都可以去免费去体验,它是有这个额度的限制的, 然后深层的话每天你就是可能就是几个视频的一个限制。然后我们这边的话之前也是开发有这个 ipi 的 接入的,那目前接入的话它都是一个测试的一个接口就是测试的,那测试的接口已经现在是关闭,也没办法去做对接了, 听说的话在这个月二十四号的时候,官方会开放这个 ipi 接口,就是啊,官方提供大家可以去对接这个接口,到时候我们会第一时间去做这个对接, 大家如果想详细体验的话可以联系我们到时候,然后另外我们这边现在还有这个 solo 的 接口,还有 vivo 的 接口等等这些模型,目前主流的模型我们已经都对接接入了, 所以在接入之前的话,我们先可以体验我们的 solo 的 一个接口的视频生成,这个效果也是非常不错的,也是可以说是全球第一踢退的一个模型。 cds 也是目前国产里面最厉害的一个模型,如果想详细体验呢?到时我们再联系。
粉丝5395获赞1.7万

这些这些这些 都是我用极梦 synx 二点零生成的效果。嗨,我是 ai 先生,我也算是一个干了整整十年的影视编导了哈,所以我花了整整两天时间,光充值就充了一千多,把极梦所有的功能案例以及网上各种神奇的用法 全部都测试了一遍,就只为了帮大家搞清楚一件事情, sims 二点零是不是 ai 界的 deepsea? 它真的有网上吹的那么强吗?以及它有哪些神奇的用法,并对咱们普通人有何影响?这应该是全网最完整的吉梦 sims 二点零评测解析视频, 视频有点长啊,但全都是干货,并且我把以下全部的测试的使用技巧,案例、提日词素材全部都整理到了线上文档,这么干的视频要个三连不过分吧? ok, 家人们坐好准备发车, 想要看懂 sims 二点零对于 ai 视频是否有颠覆意义,是不是 ai 界的 deepsea, 咱们要先搞清楚整个 ai 视频行业的发展脉络,那咱们就先花点时间来梳理一下啊。其实早在二零二二年菜的 gpd 刚刚震撼全球的时候啊, 就已经有了 ai 视频的概念了,但还没有一个完整的产品。甚至当时我们为了跟风啊,还把实拍的视频调个色,加个风格化, 伪装成 ai 视频。视频行业的朋友应该知道我在说什么哈。直到二零二四年, oppo ai 的 ai 视频模型 sorry 一 点零上线,这才一下子拉开了 ai 视频的大幕,尤其是这几个 ai 画面,不知道大家还有没有印象啊,当时确实把我给震撼到了。之后呢,国内的厂商也快速跟进, 快手的可灵、抖音的极梦也逐渐成为了咱们国内使用频次最高的两个 ai 模型,毕竟国外的 sora 和双威啊, 封门槛太高了,论性价比啊,还得是咱们国内的软件更懂咱们国内的市场。但即便是发展了两年,各种 ai 视频软件的顶配还是有几个核心的痛点, ai 视频一直没办法解决。第一个,人物不真实,虽然在质感上已经有了非常大的突破,但是很多人物的动作或者表情还 还是不太符合现实的物理规律。而第二个呢,人物缺乏一致性,生成剧情和故事的时候往往需要多个镜头画面,但这个时候主要人物就很难保持长的一样。第三,生成的结果不可控,就是每次生成都需要开盲盒,俗称抽卡,又花钱又浪费时间。那么这个极梦的 sims 二点零解决这个问题了吗? 其实啊,目前几个顶级的 ai 软件,他们的攻克方向各有不同,就比如说骚扰二,在技术上其实领先了很多,它采用的是 trance 八八的架构和隐士物理引擎,尽可能的还原物理规律,让画面的人物更真实。而可灵呢,则是采取了小步快跑的策略,迭代了很多 的版本。现在的三点零版本呢,是主打的人物动作的精细化。我不知道大家有没有印象,可灵之前有一个画笔的功能,轻轻一画人物这一块确实也沉淀了很多年了。当, 当然,这也和他背靠快手庞大的短视频美资库有关系。快手上什么最多呢?还不就是跳舞直播的小哥哥小姐姐比较多吗?那抖音呢?刚好相反,抖音这几年主打的是短剧或者是精选视频, 所以极梦主攻的方向就是在镜头的故事性和人物的一致性上。哎,那可能有朋友要问了,这个极梦和这个 sims 到底有什么关系?其实啊,这俩还真的不太一样, 因为极梦 ai 呢,它是属于字节推出的 ai 视频创作平台,它其实是归属在剪映的开发团队,也就是深圳的脸萌。而这个 c 震四呢,其实是字节实验室里自研的底层视频生成模型。 其实这俩并不能完全等同于一个东西,但两个产品呢,实际上是深度绑定的。这个 c 震四呢,不对外开放任何接口,也不允许第三方调用。 如果大家想要使用的话,只能在极梦平台豆包 app 和小云雀 app 以及火山引擎的这个 app 上来进行 使用。而 synx 二零二五年初上线之后呢,一共也就更新了两个半版本,到最近的二点零版本,能有这么夸张的成绩,进步速度啊,也算是相当快了。咱们在用之前呢,先来重点介绍一下这个 synx 二点零的核心的技术优势是什么? 它是采用了双分支扩散变换器的模式,视觉分支啊,是基于三 d 卷积加川字发嘛架构处理时空信息,生成帧序列。而音频分支呢,则是基于波形扩散加川字发嘛架构来处理声音,频谱生成顿化和音效。 说白了呢,就是相比于传统的 ai 视频,先拍画面再配音,我这个画面和音频呢,同时生成,就像有一个剧组一样,导演在这里想镜头,而音效是同时配声音,所以这个镜头的效果呢,就大大提升了。哎,那 这样的话,未来是不是还有可能是三分之或者四分之?编剧来想剧情,导演想画面,摄影师来想镜头,而演员来想表演, 甚至音效师再来想声音。哇,但这样想想, ai 电影还不马上就要来了, ok, 说了这么多啊,相信大家对于整个 ai 行业的发展脉络和痛点,以及吉梦森纳斯二点零的优势都了解的七七八八了哈,吹,都吹了这么多了,我也没收什么钱,那究竟好不好用?是骡子是马,咱们必须拉出来遛一遛。 ok, 我 现在就给大家实际演示一下这个极梦怎么使用哈。目前呢,这个 cns 呢,是只支持字节旗下的平台可以使用,主流的呢,就是这个极梦 ai 和小云雀, 这俩呢,都有 app 和网站,如果简单一点呢,就可以用 app, 那 复杂一点呢,我建议大家还是用网站好一点。那这两个软件有什么区别呢?就这个极梦呢,它是主站,它的功能会非常的全,但是呢,因为用的人也很多,所以生成一次呢,要等很长时间。那个小云雀啊,我自己实测,我就发现它生成的快很多, 当然它的功能不是很全,如果你想上传参考视频,它就不行。对,所以可能按你自己的需求来使用哈。 但是用过的朋友应该都知道啊,这两个软件有一个最致命的缺点,就是这个积分太贵了,每天一几百个积分也就只能用两三次。那今天大家算是来着了啊,我给大家分享一个我的秘密基地,随便升,不收费, 就是这个字节旗下的内侧中心火山方舟,大家可以看一下,你看这就是 sims 二点零,并且所有的功能都可以免费使用。但是既然是测试啊,人家肯定也有一个问题,就是他只能支持首尾帧,目前的参考视频目前还不支持测试。 ok, 我 们接下来就用极梦官网给大家来演示啊。 进来之后呢,大家可以先点击左上方的这个灵感,打开这个输入框,在下面呢,大家可以先点击左上方的这个灵感,打开这个输入框,在下面呢,大家可以先点击左上方的二点零。 当然可能有同学要问了,哎,我的这个打开怎么没有这个 c c 的 二点零,最高只有到一点五,那实际上可能你是一个新号, 你可以选择左下方的这个一元会员,先白嫖个七天啊,然后就可以使用这个 c c 的 二点零了。那接下来呢,我们还可以选择它的功能,比如说全能参考或者手尾针,这两个用的比较多啊, 然后也可以选择画幅以及选择时间,那有一个点大家要注意这个,每一次你的生成需求,他都会评估你的积分,这个积分大概是三十多分,所以有些新人朋友啊,就是一开始还没想好怎么升,就胡乱的提交,导致这个积分都快用完了,还没有生成想要的片子, 所以大家一定要小心。大家其实也不用担心啊,我会把我接下来所有测试的这个素材提制词,包括成片全部都放到我的教程里,大家可以模仿着来使用,让大家少走弯路啊,把这个积分用在刀刃上 哦,我自己其实也摸索出了一些白嫖积分的野路子,等一下我再给大家讲。 ok, 我 们接下来就围绕 c n s 二点零的核心功能,从不同的使用场景有简入深的来带大家测试一下。 第一层呢,我们先来测试一下这个 c n s 主打的这个人物移植性和运镜效果,为了这个保证这个真实性呢,我还同时邀请了两位对比选手, 一个呢是这个全球遥遥领先的这个骚扰二,另一个呢是极梦的一生之敌可灵。三,第一题呢,我们就简单一点,我找了一张图片, 这个大家应该都不陌生啊,这个是全游里面雪诺对阵千军万马的画面,大家都知道后面的剧情啊,我们让 ai 来续写一个不同的剧情,怎么样?我先上传了一张图片,提示词呢是镜头跟随着男的的男子,然后一群骑士冲过来,他转身要跑, 然后镜头侧拍,后边的马冲过来把他顶翻。最后一个镜头呢,是镜头自上而下的俯拍,他被顶上了天空。 ok, 我 把这个提示词发给了吉梦以及包括可灵。大家看看啊,我们选的是三点零版本,以及发给了这个三二二, 因为为了公平起价,我们每个平台只给一次升成机会,来看一下他们的能力。 ok, 我 们先来看一下吉梦的效果, 这个镜头跟随运动还是非常不错的,被顶翻的感觉也很真实,真的有点像拳游里的画面啊。 ok, 我 们再来看一下,可怜可怜,这个人物被撞的怎么这么窝囊呀! ok, 我 们看一下。 sorry, 哇, sorry, 这个人物的质感明显要好很多,但是最后怎么飞起来了,有点离谱哎,大家发现一个问题没有,我给到三个平台的都是一个人物的背身,可玲和 sorry 其实都没有认出来,只有吉梦认出来这是全友里面的女男主角雪诺。 哇,这可能就是 tim 担心的那个问题,大数据快速解锁就可以知道这个人到底长什么样子。 ok, 吉梦,可灵、 sorry 分 别是一二三,大家觉得哪个好一点,可以打个分。接下来呢,我们再用它的首尾针来测试生成一下画面,这也是可灵的拿手好戏了,我们看一下吉梦能不能反超我的手针呢是一个小米汽车的图片,尾针呢是一个变形金刚, 奇石呢是汽车飞快的驶过,然后冲出悬崖,在空中变成了机器人。然后镜头呢是环绕拍摄,最后机器人落在地上,整个的风格呢是这个末日沙丘风。来,我们同时看一下,两个视频的效果 还是挺明显的,积木这个镜头环绕就非常有感觉,可怜的就在死满。 ok, 左和右大家觉得哪个好一点呢?第二层咱们再来测试一下他的仿拍视频的能力,这个就复杂很多了啊,需要调用到图片、视频以及音频,我就不让另外两个小手参与了, 我先找了一个抖音的热门音乐。这个银龙鱼大家应该也不陌生啊,我又找了五个动物来替换掉视频中的五个舞蹈演员, 来我们看一下生成的效果,还是挺真的。哇,这两个老哥怎么没有去掉啊,还有那个狮子在旁边摸鱼哎,不过大家看到没有,他整个的镜头运动和原视频非常接近,并且甚至是黑夜的噪点他都还原出来了, 真的不错啊,我今天这个功能真的急么?可以再深更一下,感觉以后的抖音热榜全部都是 ai 生成的视频了。哎,那如果想要仿照更专业的 t v c 广告呢? 那这个时候我们的人物啊,就要更精细一些了。我先让娜娜补,娜娜帮我生成了一个模特的三式图,然后再找了一个苹果的经典广告题,日词呢,就是把视频中的女主角换成男主,把手机换成板砖,然后完全模仿原视频的画面意境和人物动作。来我们看一下效果, 板砖有点突兀,但这个质感还不错,哎,最后怎么又切成手机了?这个女生还出现了有点小 bug, 不 过几分钟就能生成一个这样质感的广告,已经很牛了,想要入局广告行业的同学们可真的要三思了。 ok, 前面呢还都是小顺牛刀。第三层,咱们直接让他来拍个电影怎么样?要玩就玩最大的 黑之王悟空。不是前两天刚发了那个钟馗的 cg 短片吗?让我有点好奇呢,就是他最后被蒙面的那个人到底是谁?结束的时候不是戛然而止了吗?没关系,我们让 ai 帮忙去续拍一下。这个准备的环节就比较复杂了,我给大家简单描述一下。就是我先让拆的 gpd 帮我构建了一下接下来的剧情以及分镜头脚本, 然后再让那那不单的生成每一帧的画面,最后把这些图片全部都上传到节目的这里。其实词呢,也相对说复杂一点,就是零到八秒呢,我先描述在昏暗的客栈里,有一个人们套着头套,然后八到十秒,孙悟空和钟馗打起来了, 十一到十五秒,孙悟空直接冲上了钟馗的眼睛,大概这样的一个剧情。哇,我这条真的等了好久,来我们看一下效果,还原度还是挺高的, 帅啊,大家觉得怎么样?这个镜头质感是不是已经可以在黑神话悟空里以假乱真了? 不过就是时间有点赶啊,中间有点小 bug, 大家见谅啊。哦,如果大家在生成的时候积分不够用的话,我给大家推荐几种我常用的方法。第一个呢,就是多注册几个手机号,新号啊,可以白嫖,吃点低保,又或者是开个一元会员都可以用。 那又或者呢,是参加一下集梦的这种拉新活动,或者去海鲜市场淘一淘?但这个呢,就不好明说了,我把我过去踩过的坑或者觉得比较有用的都放到文档上了,大家可以按需来使用。 不过呢,大家注意到没有,我整个的测试呢,从单个的运动镜头到访拍视频,再到组合起来讲电影故事,一整套流程下来,其实就是一个完整的电影制作流程。 所以啊,你看似这个 cds 二点零只是对运动镜头的一个阶段性的升级,但它实际上呢,是突破了整个 ai 生成视频的瓶颈,让 ai 彻底颠覆影视行业更近了一步,这也是让 tim 都如此惊讶的真正原因。能看到这里的朋友呢,相信对于 ai 视频都非常的感兴趣,也有一定的见解了哈。 我呢也想说几句我自己的真心话,如果一定要评价或者总结的话,说实话,这个 c c 四二点零的升级啊,其实并没有让我那么觉得惊艳,我也不想无脑的吹它,它确实在人物一致性和运动镜头上有了非常大的改变,但如果以一个电影画面的标准来看的话,它差的还很 远。但其实我也看到了希望。你想啊, ai 视频从二零二四年问世到现在也就两年时间,已经能做到这种效果了,如果再给它两年呢?再给它五年, 咱们等得起,他又能给我们多少惊喜呢?也许到未来的某一天,我们就不需要再等待了,那些易难平的大作,全运的游戏,三体魔界, 咱们都可以用 ai 来实现,各位会期待哪一步呢?好了,这就是本期视频的全部内容了,感谢点赞,这会让视频推荐给更多的人。如果需要上述的所有的案例、提示词以及教程,欢迎留言,我免费送到。在这里呢,祝大家二零二六年新年快乐!

c 弹子二点零最近刷屏了,很多人第一反应是 ai 做视频更像了,但我看完只想说一句,这次不是像不像的问题,而是 ai 开始按物理规律生成世界。什么意思?当你看到机甲高速摩擦地面时,火花往哪飞,亮度怎么衰竭? 看到重物倒地时,粉尘怎么翻滚,气浪怎么扩散,甚至玻璃碎裂的瞬间,画面和声音是同步长出来的。这不是素材拼接,也不是模板特效,而是模型在底层推演力怎么传递,能量怎么释放。说白了,视觉模型正在从 模仿世界走向理解世界,这是一次待机变化。但如果你只看到模型更强,那其实还只看到了上半场。因为当模型开始理解世界,真正决定行业高度的,反而不再只是模型本身, 而是你有没有能力把模型的能力变成稳定、优质、快速交付的工程系统。为什么这么说?因为模型越强,对最终落地层面的要求就越高,尤其是一致性。比如人物前后是不是同一个人,侧面、正面、背面看是不是一张脸? 场景换机位之后,柱子、窗户光线位置还对不对的上?人物走进场景是不是还站在合理位置?如果这些问题解决不了,那即使模型再强,出来的也可能只是 demo, 不是 作品。甚至连 cds 自己都讲的很坦诚, 他最近也专门发文说,目前 cds 在 细节稳定性、多人口型匹配复杂,编辑上还存在不足,需要持续优化。翻译一下就是 短期内很难出现保证每一次生成都完美的模型。所以现在比拼的已经不只是模型少几个 bug, 而是谁能把不完美的模型 跑成稳定交付的流水线。尤其当下 ai 已经开始进入百亿智能体协同的阶段,真正拉开差距的,正在从模型本身转向应用层和系统能力。这就好比最近的 oslo 模型,未必碾压 open ai, 但靠智能体形态反而在很多场景里跑到了前面。 所以下半场拼的不只是模型参数,而是内容生产范式和真正解决产业问题的能力。那么这里给你一个更明确的判断,行业真正的分水岭,正在从谁的模型更强,变成 谁能把模型跑成流水线。说的再具体点,就是从 ai 视频的抽卡式生成走向工程化生产。说穿了就七个字,先搭世界再拍片。也就是先把角色建成资产,把场景建成空间,把道具 光线布局全部确定下来,再让 ai 在 这个世界里拍。这套逻辑本质上跟电影工业一模一样。你想想,导演拍电影,一定是先搭紧选角定美术,然后才开机,而不是上来就按快门赌运气。 而对于这件事,国内首个工业级 ai 漫剧智能体生产平台纳米漫剧流水线,本质上干的 就是把这套电影工业的方法搬进 ai 系统。它不是给你一个生成按钮,而是给你一整套,从剧本拆成分进脚本到角色场景自动入库,再进入空间引擎,并在同一个空间里切机位, 丝滑生成分镜图、分镜视频,最终完成剪辑成片。换句话说,当以上这些都变成可附用的底层资产,人物才不会乱变场景,才不会穿帮镜头切换才有空间逻辑,你会发现,这已经不是玩 ai 作画,而是在用 ai 拍电影。 同时你再想想,如果这时候再叠加像 cds 这种开始理解物理规律的视觉模型,会发生什么?简单说就是模型负责越来越真实, 流水线负责越来越稳定,两者叠加才是真正的内容生产力革命。所以我给你一个结论,未来 ai 内容行业真正值钱的不是谁先用到最强模型,而是谁先建好把模型快速 持续的变成优质作品的系统能力。最后总结一句,模型决定能力上限,流水线决定产业化上限,前者解决能不能生成,后者解决能不能规模化生产。当能力上线叠加产业化上线, ai 内容才第一次进入工业时代。 所以我说这才是 c 弹子这类模型进化和纳米 ai 这种慢距流水线出现在同一个时间点爆发的真正原因。 那么你觉得当一个人就能用一条纳米 ai 漫剧流水线拍出电影级漫剧,你最想先拍什么题材?历史?科幻?悬疑?还是现实主义?评论区聊聊。

当国内互联网大厂还在拿着旧地图通过发红包抢占用户心智时,新一轮的战争已经在更高维度打响。一边是来自硅谷的 anthropic 上周用 cowork 血写了软件行业,一边是北京的字节用 cdance 二点零颠覆了全球影视行业。这里是财经乌多邦,今天我们就一起来看看,这两家公司到底是怎么 餐桌子的。 上周, ai 在软件业引起了一场腥风血雨,甚至有人直言 sars 行业已死。短短一周,全球软件股蒸发了八千三百亿美元, 大概相当于三个茅台的市值。事情的源头是一家叫 anthropic ai 公司,他们在今年年初一共做了三件事,而且一件比一件狠。第一件呢,是他们在一月十二日推出了一个叫 cover 的工具。和传统 ai 不同,他不再只是回答问题,而是替你执行任务。但是这个工具发布后,没有 引起太大的动静,真正引爆华尔街的是他们做的第二件事情。一月三十日,他们发布了十一个专业的插件。注意,这还不是新的模型,仅仅是十一个新的插件,他们直接统领了财务、销售、法律各行各业。其中最先引起关注的是他在法律专业上的能力。 这里交代一个背景哈,很多律所的工作模式是法务助理加上专业软件。比如说你是一个律师事务所老板,你的律所每天要处理大量的合同, 怎么处理?你得雇一个法务助理买一套专业的软件。比如说唐僧路透的 yslo 软件,他一年的花费大概是五万美元。然后这个助理每天的工作是在这个软件里面查条款,审合同,标注风险点,写合规报告。 现在呢,装这个 ai, 配一个法律插件,后台就可以全自动的审核同标风险,出报告,每月只要一百多刀,从五万的成本直接降到了一百多,这是破天荒的第一次。一家做底层模型的 air 软件,把应用层直接端掉了,并且接管了整个业务的工作流。那现如今呢?整个华尔街陷入了恐慌,并宣称 sars 末日真的来临了。摩尔大通也发文称, anthropic 正在吞噬整个世界,让 sars 商业模式坍塌,且无数可逃。 很快很多人就意识到了不对啊,既然 ai 能够取代法律软件,是不是也能取代其他的软件,比如说金融分析、销售管理、客户支持呢?要知道,传统软件服务行业一共有三大支柱,现在这三大支柱全都面临着巨大的冲击。第一根支柱呢,是按席位收费。 以前一个公司有一百个员工,就得买一百个软件账号,每个软件一年得几千美元,你用不用都得交这笔钱,这是萨尔斯公司最稳定的收入来源。但现在呢,可乐的智能体能把这些专业的软件的活直接干了,而且可乐的不是按习收费,是按照使用量收费,这直接击穿了萨尔斯的商业模式。萨尔斯行业的第二根支柱呢,是 复杂的操作界面。以前软件公司会把界面设计的很复杂,因为复杂的界面能够形成壁垒,用户的学习成本太高,不容易换软件。但现在呢,告诉我,你根本不需要在后台看界面, ai 会自动帮你在后台干活,你只需要告诉他,帮我省一下这份合同,然后等待结果就可以了。第三根支柱呢,是功能的封闭性。 以前软件公司会把功能封闭起来,形成自己的生态。就拿作图软件来说,每个绘图软件都有自己的工程文件,而且其他软件是无法识别的, 你要用这些功能就必须待在他的生态里。但现在呢, cloud 通过一个叫 m c p 的协议,就能够接入各种外部工具。什么叫 s c p? 就是模型上下文协议, 简单说就是一套标准化的接口,让 ai 能够像人一样看到一个新工具,自己琢磨怎么用。这意味着 ai 不需要待在各个软件的生态系统里面,它能够自由的调用各种工具,哪个工具好用用哪个,不存在被绑定的问。 所以你看, sars 赖以生存的三根支柱被全面冲击,这不是简单的优化,而是深层意义的颠覆。所以在 cowork 推出专业插件后,软件股一路暴跌,于是就有了新闻里说的 ai 学习软件业的说法。 但是到这一步还没完,还记得前面说过吗? anthropic 一共做了三件事,现在只收了两件,第一件是推出了工具 cowork, 第二件是上线了十一个专业插件。假如说这两件事情让软件行业一夜入冬,那么第三件事情就是雪上加霜了。第三件事呢,是二月五日推出了 coloordos。 四点六,这是一个新版的基础大模型, 前面说的 cowork 还有专业插件都是在这个基础模型上运行了。说白了,前面的改进是让 ai 更会干活,更懂专业流程,而这个基础模型的作用是让 ai 从根本上更聪明。而且要知道,前面讲的很多事情还只是 anthropic 一家 ai 公司掀起的波澜。这还不算 open ai、 谷歌这些 其他的 ai 巨头,假如说这些 ai 巨头一起行动,对软件业的冲击只会更大,这也是为什么软件公司的投资者会在上周那么的悲观。 接下来呢,我们聊聊字节。最近 say dance 二点零是一个强到令人害怕的模型,没有用过的朋友们呢,可以看一看影视剧峰 team 的最新一期节目, 在节目中做了一个测试,他只上传了一张自己的照片,没有任何音频的输入。结果那个 cdance 二点零生成的视频里,那个数字 team 开口说话了,而且用的是 team 本人一模一样的声音, 说明 team 的生物特征数据,无论是长相还是身文,早就已经被未经 ai 模型了。而细思极恐的是,不仅 team 在训练库里,会不会只要在抖音发布视频的人都已经成为了这个超级模型的一部分了,如果这个功能被滥用,后果不敢想象。这个事件风波呢,也引起了 cindance 二点零下架了支 是真人人脸的功能。除了舆论风波, c 的二点零之所以引起这么大讨论的原因,主要还是因为能力的大幅优化。首先是一致性的问题,过去做 ai 视频最大的痛点是抽卡,同一个角色换个镜头就换了张脸,而字节似乎完美的解决了这个痛点。 大家可以看到,无论是大特写还是远景,这就是同一个人,菜就多练。除了一致性的问题, 很多 ai 模型最让人头疼的就是运镜,但在 cdance 二点零零自己引入了一个类似虚拟摄影机的控制层,大家可以看看这个黑客帝国六的测试。 speed defined here breaking boundaries reshaping reality your battlefield your rules 看着这个怪兽级的模型,我只能 说现在谁也拦不住自己,短时间内只有版权伦理和监管能够拦一拦了。那不管是 cloud 还是 c dance 二点零,真正让我们后背发凉的或许不是 ai 今天能做什么,而是他的进化加速度。好了,本期财经乌托邦的内容就到这,我们下期再见。

cds 二点零刚刚发布就引起不小的轰动,今天给大家整理了九种实用玩法,干货满满,建议码住,随用随看。一、剧本漫画成片这个方法很邪修,把这个漫画或者剧本直接丢给他,然后让他根据参考生成动画片,看看这效果,鸡皮疙瘩都起来了。 二、九、宫格分镜,直出视频给这个模型一张九宫格分镜,加一段简单的描述,就能得到一段炫酷的大片,比自己手搓强太多了,无论是做漫剧、动画、广告、大片都用得上。 三、视频巨写哎,这个功能就有意思了,他可以帮你脑补出视频前后的剧情,不仅能向前退演,更能接着拍剧情,镜头连贯不割裂,这可玩性可太大了呀! 四、运镜控制想要指定的运镜根本难不倒他,随手拍一段运镜给他做参考,分分钟给你还原。五、多语种对话,多人同框,想让谁说就让谁说,支持多种方言语种,几乎没有 ai 感,还可以上传音频文件来精准控制音色。六、动作控制 动作也要精准的要求,只需上传动作视频,加上我们的角色图,填写好咒语,想要的动作就能精准迁移。 七、一句话, p 视频,像 p 图一样 p 视频,把光头强变回来,给他加点杀马特发型, 我怎么变这样了?八、特效参考,不会剪辑不会 ae 也想做特效大片,用这个方法就对了。 九、终极玩法二点零支持图像、视频、音频、文本四种模态输入,这些素材都可以被用作使用对象或参考对象。你可以参考任何内容的动作、特效形式,运镜、人物、转场、声音, 只要提示词写得清楚,模型都能理解。另外还给大家准备好了官方的玩法手册,来一起学习吧!

最强 ai 视频模型一夜封神,字节跳动为什么反手就给他上了锁?这波自废武功防的到底是什么?说的就是字节跳动刚刚亮相的 c 单词二点零,他直接把 ai 视频生成的战场拉到了物理意义上的中局。只要你给他一句话或者一张图, 他就能生成一段电影级短片,光影运镜,细节逼真到让网友惊呼 sorry, 在他面前都像上个时代的玩具。黑神话悟空。制作人冯记更直接评价, 这是地表最强视频生成模型,标志着 aigc 的童年结束了。这款王炸一出手,瞬间点燃了全球科技圈和资本市场,海外用户高价球码,国内资本市场更是一路狂飙。今天早盘,影视传媒板块集体暴动,中文在线、光线传媒等多股二十厘米涨停, 引力传媒、掌月科技等字节概念股更是走出二连版。市场情绪如此高涨,看中的正是他能为整个内容行业带来巨大的降本增效空间,但能力越强,风险越突出。模型效果太真,万一被用来冒充真人造假诈骗怎么办? 连冯记也公开表达了担忧。而字节跳动的反应可谓迅速,二月九日,平台紧急通知,内测期间,暂不支持上传真人图片或视频作为素材。想用自己的脸生成视频,必须先通过严格的真人活体验证,等于给这支神笔加了一道牢固的安全锁。业内专家指出, 这是企业在技术狂奔中必须坚守的责任底线, cdance 二点零的克制恰恰是一种负责任的表现,他提前划清了创意和侵权的界限,在做的出和不能乱用之间, 主动按下了暂停键,这已不只是技术问题,更是整个行业必须面对的长期课题。当然,封禁一个功能拦不住大趋势他对产业的冲击。一开始,专业公司的短距动画制作效率可能提升十倍以上。对普通人来说,视频创作门槛正在被踏平, 全民导演时代不远了,同时,好故事、好版权的价值会越来越凸显。所以, cdens 二点零这场高光与风险的测试告诉我们,顶尖的科技竞赛不仅是比谁跑得快,更是比谁方向盘握得稳。在打开创造自由新世界的同时,守住尊重与安全的边界,或许才是真正的终局玩法。

吉梦 cds 二点零最近非常的火,很多用户的话都在催我们这边赶紧上线,那这个模型其实也就是刚上线几天的时间了,我们也是花了一天的时间紧急揭露了,就是在原来的基础上,在这个 solo 的 小程序的一个基础上,增加了这个吉梦的 cds 二点零的一个模型, 可以直接去对接这个官方去生成啊,这个生成效果还是非常不错的。但是需要注意的是,就是这个模型的话,它是目前是限制了一些真人,比如说一些自己的照片,或者一些真人或者一些明星的照片,它是不能够上传的,如果上传的话,它这个可能会失败啊,就没办法,这个是官方的限制, 因为目前的话在运营过程中可能是啊因为一些违反的一些相关的一些规定,所以说这个 cds 二点零目前是不支持这个真人的一个照片的上传的,那之前像支持真人照片上传的,像 v o 啊 solo 二这一块,目前是支持这个真人照片上传的, 所以大家去生成的时候需要注意了,如果你上传这个动漫人物的一个照片或者其他一些物品照片,这个是没有问题的,你可以放心的去上传,我们这边已经有这个成功的案例,如果想详细体验的可以联系我们。

豆包的视频生成模型 cds 一 经推出就变成美国严选了,美国电影业协会要求字节跳动停止 cds 二点零的侵权活动。具体的详细的理由是说, 在一天之内,中国人工智能服务 cds 二点零就大规模未经授权使用了美国的受版权保护作品,字节跳动推出的这项服务没有采取有效的侵权防护措施,这是对保护 创作者权力,支撑数百万美国就业岗位的既定版权法的模式,字节跳动应立即停止其侵权行为。 那这里面具体的法律问题,我想自己接下来会进行一些改进。我想说的是他们的双标,在当年唢呐推出来的时候,他们可没有说什么侵权呢, 可能为啥呢?因为唢呐生成的要么就是手指头多一个,要么就是画面不连贯,实在是不能对他们构成威胁。而今天我们看到豆包生成的视频, 简直可以以假乱真,那这个时候就会威胁到他们好莱坞相关的,比如说你去制作一些预告片,那么这个视频可能过去要花个几百万美元,几千万美元现在可能花个一两美元就搞定了, 毕竟宣传片他不像那种正片那样需要长时间的连贯的。这种豆包视频生成是一个特别好的方式, 就是典型的玩不起了就开始掀桌子了吗?大家还记不记得当年 oppo i 推出说了的时候,国内那些打了引号的轻型者,就凭看了几个视频,根本就不了解视频生成底层的框架,就开始大吹特吹, 并且由此去反思到我们的教育机制,就说为什么这种原创性的开创性的都诞生在美国,我们的教育是不是出了问题,而我们的天才是不是被埋没了? 殊不知在美国做大模型的很顶级的人才,大多数是中国本科培养出来的。那经历了这不到两年的时间,我们看到索拉在哪些方面有进步呢?反而是字节的 cds 一 经推出就把好莱坞吓出一身冷汗。 我今天要站出来指责的是他们的双标,是他们这种只许州官放火,不许百姓点灯。 说了在训练的时候八遍了全球的素材,那就是合理使用,那 cedison 二点零就因为生成的内容太像了,那就变成了侵权。也就是当西方科技在领先的时候,他们就开始讲科技无国界。 当中国的 ai 追上甚至反超的时候,他们就立即撕下面具,掏出版权大棒,试图通过政治手段来扼杀竞争。同样的,日本共同社也站出来此地无银三百两, 开始说担心深层使用动漫角色的内容,但这种担忧的背后, 难道不是对中国 ai 碾压式的进步产生的恐惧?但是他们越是这样的指责,更加说明我们 ai 开始走向领先。正如以前网友说的,白宫严选 他们开始双标了,恰恰说明在 ai 视频生成这个赛道上,我们不仅追上了,而且把他们的饭碗端走了。所谓的威胁创作的权益,本质上就是在说你们中国人不应该在这条赛道上走的如此之快, 更不该动我们的奶酪。所以相比我们这些博主在制作一些视频说我们的 ai 不 差的时候,美国电影协会和日本共同社,他们这种抗议 比我们的宣传更有说服力。那大家就回顾整个 ai 的 产业,在文字上去年就被 deepsea 追上了, 那今年在视频和图片上又被 cds 追上了,那如果美国的 ai 不 能形成垄断优势,当这次美股再下跌下去的时候,他们靠什么再把它拉起来?我们一起拭目以待吧。这里是名媛,爱国爱家爱自己。

哈喽,大家好,我是日行一善,今天我们来讲解一下吉梦新上线的这个 c 单词二点零模型,这个模型刚一上线啊,就是效果非常炸裂,很多人都在用, 尤其是这个模型生成出来的 ai 慢距的效果,效果是非常牛的,像开头我们看到的那个视频,都是通过这个 c 单词二点零给我们来生成的这个模型的这个升级啊,主要有这么四点,它可以参考图像,可以精准的还原画面的这个构图,还有角色的这些细节, 以及参考视频支持镜头的这个语言,复杂的动作节奏,还有创意特效的这个复刻,以及我们可以上传视频,让他平滑的延长与衔接,按照用户的这个提示词生成连续的镜头 以及这个模型,他有编辑的这个能力,可以把我们想要编辑的这个视频上传,对已经上传的这个视频进行角色的更替删减,还有增加,这个模型非常强大。我们再来看一个实力, 这个动画效果已经非常炸裂了,这个是对哪吒二做的一个番外的一个延伸, 我们可以上传这个角色的这个图像,再生成一段提示词,就能给我们生成出这样非常炸裂效果的这种漫剧的视频,以及这个效果哪吒跟敖丙的一段打斗的一个特效, 像这个效果无论从运镜还有这个镜头的切换都是非常丝滑的,但是从细节上稍微还有一些瑕疵,但能做到这个程度已经非常牛了。 好,这次这个 s 二点零的这个能力的提升啊,主要针对于物理的这个规律,它生成出来的更合理了,还有动作的表现更加的流畅,还有对我们输入提示词的这个指令,生成出来的视频更精准, 以及风格保持的更稳定。下面我这里有些提示词啊,大家有需要的可以找我领取一下。好, s 二点零的这个模型,它支持这个多模态的一个输入, 既可以上传我们的文本图片、视频、音频这些素材都可以上传给到这个 s 二点零做参考。我们的提示词中也可以参考我们上传的这些素材做特效,还有运镜,还有人物场景声音, 只要我们这个提示词说清楚模型,他就能够理解,所以这个 s 二点零的这个能力,多模态参考的能力可以参考万物 以及强创意的一个生成,再加上我们提示词的指令响应的更加精准,他的理解能力也非常棒的。以及我们给他上传完首尾帧的这个图像,还可以上传一段视频做参考,让他参考我们视频,比如说视频中的打斗动作或者说风格都是可以的, 以及之前我们很难做到的一些视频效果,现在都可以做到,比如说这个一致性,就画面里的人物,首先要保障这个人物的一致性,还有镜头风格的一致性,现在的这个二点零都已经解决了,就是从人脸到服装再到字体这些细节,整体的一致性 更加准确,以及高难度的一些可控的运镜,还有动作的精准复刻也是可以做到的。我们可以看一下这个视力效果, 这个人物一致性保持的就非常好,以及我们做这种角色的这种参考我们上传人物的这个角色,再上传一个视频,模仿这个视频的打斗动作,好生成出来这样的效果。我们来看一下 这个效果都非常不错。以及我们还可以做这种创意的模板,复杂的特效的这种精准的复刻,好,照着这个模仿做这个创意的转场广告的这种成片,还有电影的片段都是可以的。 好,有需要这个提示词的可以找我领取一下。好,以及我们做这种 ai 慢剧,做这种剧情补充的这个模型也是可以帮我们做到的, 以及他有对这个视频做这个延长的能力,参考我们上传的这个视频,帮我们去延长这个视频后续的剧情,以及这个模型他的提升对这个音色更加准确,声音更加逼真,以及这个以及镜头的这个连贯性做的也非常好。 好,我们可以看一下这个一共是上传了五张图,一镜到底,追踪的这个镜头从街头跟随跑步者上楼梯,穿过走廊进入房顶,最终俯瞰整个城市。好,我们可以看一下这个视频的这个效果, 无论从这个角色转场,还有这个人物一致性上做的都是非常的好。以及我们可以针对于我们上传的这个视频做二次编辑,还有对音乐的这种卡点,比如我们可以看这个就是海报,我们上传几张模特还有服装的这个图片, 我们可以生成这样的这个效果, 这种对于做服装展示的视频就非常好。以及下面我们这种做剧情的,他的这个情绪演绎的也是非常到位。我们来看一下这个 啊,沉思了一会,突然开始崩溃,大叫,抓镜子,动作崩溃,情绪表情完全参考我们上传的这个视频。好,我们来看一下。 好,这个情绪做的也非常好啊, 所以这个吉梦 s 二点零的这个模型上线,代表着我们国产的这个视频模型又上了一个更新的一个台阶。好, kill the game, 大家有需要我这个全套提示词的可以找我领取一下。我们再回顾一下开头的这个视频画面。 好,今天的课我们就讲到这里啊,有需要这个题诗词的可以找我一下。好,谢谢大家。

各位最近用 cds 二点零,是不是有种感觉,它价格是亲民了,但偶尔好像不太聪明了?别慌,我是小餐。今天咱们就像老中医号麦,聊聊这降智到底是啥情况。最近圈子里的热议话题, cds 二点零开放后,用的人那是乌央乌央的, 结果呢?有些朋友反馈,以前让他生成个侠客对决,镜头语言电影感十足。现在有时候生成出来侠客的剑可能差点意思,或者背景细节有点偷懒。这感觉就像你常去的一家小馆子,原来大厨慢工出细活,道道是精品。突然有一天,他火了,成了网红店,客流翻了几十倍。 后厨再厉害,一时间也可能忙不过来,偶尔出餐慢一点,或者口味有那么一点点不稳定。现在的 cds 二点零,就有点像这个突然爆火的网红。后厨本质不是降智,是算力过载。 首先得说清楚,这不是 ai 本身变笨了,更不是技术倒退,他的大脑还是那个聪明的大脑。核心问题出在算力和流量的短时失衡上,你可以把算力想象成一条高速公路,模型是跑在上面的车。原来路上车不多,每辆车都能飙到一百二十码,顺畅的很。 现在因为免费开放,价格友好,瞬间涌进来成千上万辆车,大家都想上路,结果就是在某些高峰时段,这条路有点堵, 每辆车可能只能跑六十码,甚至需要排队。表现出来的降智,比如细节模糊,逻辑稍乱,其实是系统在超高病发请求下,为了确保大多数人能尽快用上,所做的一些临时性的资源调度和结果优化, 这是一种保通策略,优先保证服务不崩溃,让更多人能体验。为什么会出现这种情况,恰恰说明了两点。 第一点,技术真的够硬,东西不好不会吸引这么多人挤破头来用。这波流量狂潮本身就是市场用脚投票对产品力的最大认可。 第二点,普惠策略成功把门槛打下来,让更多创作者、小团队能用上顶级工具,这个方向无疑是对的,只是成功的速度可能比预想的还要快。 任何一个现象级的技术产品,在经历用户量指数级增长的阶段,几乎都会遇到类似的压力测试,这可以说是技术普惠路上一个幸福的烦恼。那么问题能解决吗?答案是肯定的。这种由于基础设施扩容速度暂时跟不上用户增长所带来的体验波动,在技术层面有非常清晰的解决路径。 首先肯定是硬件扩容,这是最直接的宽高速公路的方法,增加服务器集群,部署更多高性能计算卡, 就像给后厨增加灶台和厨师。接着进行软件优化,通过优化任务调度、算法模型推理效率,让同样的算力能承载更多的请求,相当于优化交通信号灯和道路规划,提升整体通行效率。最后,还得把架构升级,采用更先进的分布式计算架构,弹性应对流量高峰, 以字节跳动背后的技术工程能力应对这种规模的挑战,是有成熟经验和雄厚资源的。这更像是一个时间问题,而非能力问题。技术团队此刻大概率正在连夜添置灶台、优化动线,遇到生成结果不尽如人意时,可以尝试错峰使用或者将复杂任务拆解。 这就像避开饭点去网红店体验可能更好。短期波动是技术爆发期增长的正常半生现象。 一个有能力打造出如此水准产品的团队,绝不会对用户体验下滑坐视不管。我们正在亲身参与一个工具的成熟过程, 他的每一次卡顿,未来都可能转化为更稳健的架构。现在的每一条反馈都在帮助他变得更好。 技术前进的道路很少是一条直线,它更像是在解决一个个问题中螺旋上升,给 cds 二点零一点时间和耐心,也给我们自己一点观察和期待。相信很快,那个又快又聪明的完全体就会回来。

朋友们,字节刚刚啊,扔了一个核弹,我们先看视频啊 啊,你能想象这完全是由 ai 生成的吗?没错,这个视频啊,并不是什么好莱坞大片,而是利用字节跳动最近发布的 cds 二点零视频模型制作的,它是拳打三二兔,脚踢谷歌,成为了目前 ai 视频模型领域 绝对的世界第一。这可不是我说的啊,是美国的 time 时代周刊说的。哈喽,大家好呀,这里是热衷研究 ai 和出海搞钱的小邓,今天呢,小邓就带你 一口气了解自洁最新的 cds 二点零视频模型,它到底强在哪儿?怎么免费用?有哪些行业应用场景?我们普通人又能用它干什么?甚至如何用它赚钱呢?前方干货满满,欢迎先来唠唠它到底强在哪?三个点,每一个点都是 革命性的提升。这第一呢,就是人物的一致性,这是以前 ai 视频最大的硬伤,生成一个人脸前一秒呢,还挺正常的,下一秒直接变鬼片,眼歪嘴斜,脑袋乱飞。而 cds 二点零就彻底的解决了这个问题,同一个角色啊,从头到尾都能长一个样,表情自然,动作连贯。你不说这是 ai 生成的,其实 普通观众啊,根本看不出来,这点是所有后续玩法的基础,人物立不住啊,什么都白搭。 第二呢,就是大范围的电影级运镜,以前的 ai 视频,你让它做个复杂运镜呢,就会立刻崩盘,人物一跑起来就变形了,打个架呢直接哎糊成一团。但是 cds 二点零特效,打斗、高速跑酷、三百六十度环绕跟拍,这些电影级的运镜,全都能轻松 hold 住那种你以为必须拉专业特效团队才能做的镜头啊?现在一句提示词就出来了,它对物理世界的理解已经和其他 ai 完全不是一个量级。 第三,就是导演级的分镜设计。这个呀,其实最让我震惊的,你只需要给他一段简单的描述,再加以两张参考图,他就能自己设计分镜,什么时候给特写,什么时候切全景,什么时候角度,不推荐,他自己 都会安排。这就不是在双手中裁,而是有导演思维在里面。以前我们以为 ai 只能打下手,但现在呀,他开始抢导演的活了。 那些学导演动画特效专业大学生,估计啊,现在有点感觉天塌了。对了,就来音效和台词啊,它也能一键生成环境音、背景音乐、人物对白全部同步输出, 混音质量啊,直接就能用。以前呢,做后期配音配乐要折腾一整天甚至一周,但现在一键搞定,你就说离不离谱吧。好能力,讲完了,咱们接下来啊,就聊点实际的,我们普通人怎么利用 cds 二点零模型,结合行业和场景拿来搞 钱呢?哎,这第一个场景呢,就是带货短视频了。不管你是想做 tiktok 还是国内的短视频,是中文、英文、日文、法语、德语。现在啊,你用 cds 二点零做口播带货视频,逼真程度已 经可以直接商用。 hello, 大家好,我是阿 may 啊,今日同大家介绍呢部 x two 的 f two ultra uv 激光雕刻机,它系一款集三 d 雕刻即可以噉样,你放个玻璃球入去,它就可以雕到里面嘅三 d 人像。它采用冷光雕刻技术,非常适合 diy 爱好者同埋小型企业使用,所以大家如果有兴趣嘅话,就唔使再犹豫啦。 this is the name of my lipstick, it's the hope formula i named it hashtag lipstick for hope。 你 想复制一条爆款短视频?以前呢,可能要找场地、找演员、找导演、调设备,但现在,换张脸,改段词,几分钟就能批量复刻。对普通来说呀,它几乎是零门槛,一键啊,就能 轻松上手。而第二个场景就是自媒体 ip, 很多人做 ip 账号不想露脸,以前呢,用数字人真的是一眼假观众啊,很不满意。但现在呢,用极梦生成的虚幻形象,不管是唱歌跳舞、唠嗑,还是科普自然道理, 分不出真假。不想出镜没关系啊,可以让 a i t 你 出镜,你只需要决定方向。类似选择题、文案拍摄这种执行方面的事情啊,全都交给他一人,公司有它就 不再是梦,这对于整个自媒体行业的创作模式其实都是有巨大的冲击的。当然啊,小邓觉得即使有了 ai, 真实感和活人感,反而呢,是现在最稀缺的,所以我还是每个视频都坚持自己 肉身出镜拍摄的,大家不要再问是不是 ai 啦。第三个场景就是短剧了,短剧以及短剧出海这个赛道现在有多火,你应该知道了吧?千亿规模级别的市场,比影视行业还要大,不管中国和美国,都愿意为了看短剧疯狂的剁手充钱。但以前拍短剧呢,你得请演员吧,租场地吧,讲剧组吧,成本就压在那。 现在 ai 生成的人物够稳定,画面够清晰,分镜够专业,完全可以平替掉大量短距离的真人拍摄,一个靠女人吃饭的废物也敢坐在这? 他是我的男人,轮不到你来说三七, 尤其是那种竖屏爽剧啦,动漫啦,用 c dance 二点零来做,简直就是天然适配啊!就这点本事也敢在我面前放肆, 这招你挡不住 短剧这个赛道的制作门槛啊,正在被 ai 踩成屏蔽,我们普通人也可以开始入局。而第四个场景呢,就是影视行业。以前电影行业实拍很难实现的镜头,或者需要花几十上百万做特效的场景,现在用 ai 也能生成。当然啦,目前它还代替不了院线大片的精髓要求,但对于相当一部分的网络电影画面虚构来说,已经是完全够用了,而影视行业的成本结构也将会被彻底重写。在未来呀,我们每个普通人都可以是导演,用 ai 一个人生成一部院线电影可 不再是梦想。哎,我说了这么多呀,你肯定迫不及待的想知道怎么才能赶紧用上这个东西了吧?那 cds 二点零呢?现在可以在极梦的官网或者是小云雀上面试用,注册账号就有体验额度,够你好好玩一阵的了。提示词根本不用,写的很复杂,简单描述清楚你要什么场景,什么人物什么动作,他就能 立刻给你结果,门槛非常非常低,使用很简单,而且效果很炸呀,所以我建议每一个人现在就去试试看。好啦,以上就是本期视频的全部内容,欢迎点 点赞关注。最后啊,多说两句,面对 ai 时代,从出品的技术和模型的变化,很多人会感到很焦虑,觉得自己学的都赶不上 ai 出的会担心自己因为 ai 而失业。但小邓觉得呢,我们普通人也不需要太过焦虑,因为 ai 啊,哪怕再强,他依旧是没有自 主意识的。社会上也还是需要能够精通和调教 ai 的 人,即使 ai 取代掉了一些初级的岗位,比如说 ai 编程、工程师啊, ge 负责人啊等等。焦虑啊,其实是没有用的,行动才有用, 新手试一试,用过之后你就知道 ai 的 边界在哪,就会开始想象它怎么能帮到你。说实话,我现在更多的感觉是兴奋,就像过去的移动互联网爆发,给我们普通人的创业和就业带来了非常多新的机会,我们可能正站在 ai 黄金十年的真正爆发起点上,后面的东西只会越来越离谱, 越来越好玩。你想啊,这才是题梦!二点零、三点零会是什么程度呢?别忘了点赞关注,小鹿,带你细聊 ai 和出海港前的那些事儿!

千万别等到别人用 ai 赚到第一桶金了,你还在研究怎么剪辑,就在刚刚, cds 二点零彻底杀疯了,全网博主都在测为什么?因为它真正实现了言出法随,不用拍摄配音、分镜,动动嘴 ai 就 能通通搞定。现在很多博主都藏着掖着不敢交,今 我把这套三大基础加十大进阶玩法,还有这几十个爆款 cds 二点零提示词模板全盘脱出,需要这份文档的小伙伴直接在评论区扣六六六就行,我会一一安排,目的只有一个,让你抓住这波红利,现在学,现在做,现在赚,干货都在这了!屏幕前的吴彦祖们给个免费的三连支持下, 我们直接开始喂饭教学。从大语言模型到 ai 生成图片,再到 ai 生成视频,相信这些年 ai 技术的进步大家都有目共睹, 特别是 ai 视频技术更是以极快的速度,从仅仅能够生成画面勉强能看的视频片段,到完整的视频短片,甚至到现在有 ai 产 出的电影。而今天我们要讲解的就是极梦 ai 新推出的一个划时代意义的模型, cds 二点零模型。这个模型相比于原先的极梦三点零,三点五模型在各个方面的功能和效果上都有极大的增强,且新增了很多之前没有的用于控制画面的功能。 我们下面就来看一看这个模型到底都推出了哪些新功能,并增强了哪些效果吧。我们首先来看手真图生视频的效果增强。来到极梦 ai 的 生成页面,在下方将生成模式切换为视频生成模式,可以看到此时的默认模型就自动选择了 s 二点零模型, 与我们先前使用的视频生成模型不同之处在于,可以看到这个模型在最右侧的时间选项上,从原先的最长十秒 提升到了十五秒,且秒数的选择更加丰富,不仅是只有五秒和十秒可选,从四秒到十五秒这之间的秒数都是可以选择的。手真图生视频有一个最大的问题 就是当时间过长时,整个画面会变得不太稳定,特别是在进行切镜头之后,画面当中事物的形象都会多少发生一定的改变,而 s 二点零模型就很好的解决了这样一个问题。我们来看下面这样一个例子。以这张图片为例,使用 s 二点零模型进行了手真图生视频,这个是最终视频的呈现效果, 可以看到最终的视频呈现效果还是非常自然流畅的,不仅画面当中事物的一致性保持的非常好,且整个的剧情,包括画面当中人物的表情动作都生成的十分自然细腻,就像是真人演绎的一样。 而且我们可以看到最后在文字的表现力上和提示词中所要求的内容也非常的契合。我们再来看 s 二点零模型,第二个增强的部分就是动态慢单图直接出切近视频, 这一项功能之前的模型也是可以实现的,只是效果往往不尽人意,同样会出现在贴近之后画面当中原本的事物发生造型上的改变的问题。这个例子我们使用的是这张图片,整体是一个废土风格,两个留着墨西干头的人物开着改装车行驶在荒野上,下面来看看最终视频生成的效果,哈哈哈哈哈哈, 可以看到整个视频的生成效果非常的丝滑流畅,人物、车辆和环境的造型并没有随着切近而发生造型上的变化,并且向人物朝 天上开枪,画面当中出现爆炸,人物开车躲避,这些提示词所描述的内容都十分自然合理的呈现在了视频当中。要知道在先前的视频生成模型生成的结果中,这样激烈的运动是很容易出现画面的崩坏的,而 s 二点零模型就极好的解决了这样一个问题,像我们刚刚展示的两条视频, 论是第一条制作创意广告,还是第二条通过单张分镜头图片来生成动态慢,这两段视频都是我生成一次就成功的生成出来的。由此可见,这个模型生成的视频在稳定性上表现的还是非常出色的,只要提示词能够描述的详细到位,大概率是不需要抽卡就能生成我们想要的效果的。要着重推荐的是 s 二点零模型在生成做菜视频时效果非常的棒,几乎达到了以假乱真的地步。以这张图片为例,图片的内容是一个案板,上面放着擀面杖,旁边分别放着和好的面团以及调好的馅料,相信大家都能联想到接下来要生成的是一个包饺子的视频,这里使用的依然是单张分镜头图片来生成一整段视频, 自带切镜效果的。大家在生成这样的视频时需要注意,我们最好能够手动的在提示词当中写下切镜这样一个描述,虽然很多时候不写切镜也可以生成切镜的效果,但明确的要求总好过随机的生成。我们下面来看一看最终的生成效果, 可以看到整个的视频生成效果非常的惊艳,特别是人物在最后一个镜头包饺子时的画面,整个饺子皮被手指捏动时产生的形变,以及像先前经常容易生成崩坏的手指头的逻辑关系 结构,准确性在这个视频当中都没有出现任何的问题。我们下面来看第四项功能,不同于刚刚我们所讲的原有功能的增强,这项功能是极梦 ai 视频生成模型的新增功能,即运镜、场景、角色与动作迁移。它能够替换形象与场景,可以用于复刻创意广告, 或者是一些运镜和转场效果。我们这里先来看一段原视频片段,在片段当中人物走在街道上,然后对着街道商店的橱窗照了照镜子,之后是过马路显 被车撞到,在完全通过马路之后向路过的车辆伸手行李。接下来我们就要进行视频迁移了,首先迁移的是人物形象,这里我找了一张单机游戏赛博朋克二零七七中抢你引手的形象图片, 使用图片处理模型,将人物的背景去除之后作为素材使用。需要详细说明的是,这里要使用的就不再是首尾帧功能,点击首尾帧下拉菜单, 可以看到在最上方有一个全能参考选项,这个选项不止支持我们上传图片,还支持上传一段视频作为参考。 我们要做的事情就非常简单了,首先将原参考视频上传到这个位置,然后将人物形象继续上传,同时如果想要替换街道背景的话,这里同样我找到了一张赛博朋克二零七七这个游戏当中接到的截图画面,将这个画面同样上传到预备窗口当中, 这样以来我们就同时具备了原视频参考、人物造型参考和街道参考,接下来就是详细的描述提示词这里就不再赘述了,我们直接来看成片和原片的对比效果,顺带的我也将提示词打在这里, 可以看到整个这一段的视频效果真的非常惊艳。无论是视频生成模型对提示词中所提及的夜之城这个概念的理解,还是人物在对着橱窗玻璃照镜子时镜子的反光效果,以及险些被车辆撞到时人物的真实反馈,不仅复刻了原视频画面当中镜头的运镜, 同时也加入了一些非常自然的人物小动作。例如像原视频中人物照橱窗玻璃时就仅仅是照了一下玻璃,而在生成的 ai 视频中,人物还扶了一下自己的墨镜。并且我们还可以发现在人物身处的背景环境中还出现了一些参考图片中没有,但却非常符合游戏赛博朋克二零七七当中所出现的赛博朋 克都市的画面,这就意味着这个视频生成模型在训练数据的类型和数量上是非常丰富和庞大的。我们再来看第五项功能,这同 同样是一个新增功能,就是根据已有的视频动态展现形式来制作动态漫画。如果大家有过一定的视频生成经验,会发现如果我们仅靠一张漫画图加手真图升视频的功能,想要生成一条动态漫画,虽然最终呈现的效果,漫画当中的人物确实可以动起来,但如果我们想要人物做一些漫画化的夸张表情, 实反反复复,最终做出来的仅仅是 ai 模型所预设好的表情风格,或者说表演风格可能和我们想象的表演风格并不一致。而使用这种方法,我们就能够上传一条视频参考,让 s 二点零模型将漫画做成动态漫画的同时,也去模仿参考视频 当中所展现的制作风格。例如此次生成,我们就以这条漫画为例。在生成好之后,提示词方面我们就描述以从左到右,从上到下的顺序进行漫画演绎,保持人物说话的台词和图片上的一致,分镜切换和重点情节加入特殊音效,整体风格温馨幽默。演绎方式参考视频, 下面来看看最终的效果如何吧。今晚星星好多啊。是啊,不过没我的薯片亮。你看这片薯片形状和那颗星星一模一样。等等,这片薯片有个缺口,难道你刚才偷吃了一口?我没有?好了,不管谁啃的,一人一半。 可以看到最终呈现的效果非常的生动自然,不仅表现在生成的人物在一致性上保持的很好,同时像生成的音频人物所说的台词与图片中的台词是完全对的上的,也十分智能的对原本图片漫画当中 同一个分格框中的人物进行了单独的且很符合时宜的取景拍摄,可以说在很多决策上已经达到了和人非常相似的地步。再来看第六条, 这同样是一个新增功能。在过去,我们想要凭空制作一条 ai 视频,通常需要先使用 ai 大 语言模型写一段脚本,在获取了脚本之后,我们需要根据脚本内容逐一的生成分镜头图片, 在筛选好图片之后,再使用图片来生成对应的短片,包括后期的配音配乐、剪辑成片同样是不可缺少的重要环节。而极梦 s 二点零新增的这项功能就允许我们直接上传分镜头脚本的截图,通常这个截图当中包括镜号、时长、 别运镜和画面内容的描述。有了这些信息之后,我们直接将这个图片信息上传到预备窗口当中。而提示词方面,我们就描述直接根据图片的分镜头脚本,包括分镜景、别运镜、画面描述和文案创作一段多少秒的关于什么样风格的短 片。而最终生成的效果,我们就成功的跳过了图片生成,图片生成后的筛选和修改,以及添加配音、配乐、剪辑成片,直接以一个脚本获取了成片内容, 而且可以看到最终的呈现效果也非常的不错,每一个镜头都对应了脚本当中所描述的画面。当然如果大家感兴趣,也可以下去之后尝试更加复杂的脚本内容。再来看第七条, 这同样是一个新增功能,那便是可控性更高的视频延长功能。如果大家有过一定的 ai 视频生成经验,会发现部分网站确实是有视频延长功能的,例如像 made journey 或者是在任意 ai 视频 平台,我们通过截取尾帧,我们通过导出尾帧竞帧画面的方式,将上一个视频结束时的画面作为手帧图继续升视频。这些操作都可以将原视频进行延长,但极梦 a i s 二点零模型所新增的这个视频延长功能会更加可 控。在下方的预备窗口当中,我们首先要做的就是上传一段需要进行延长的原视频,为什么说这项新增的功能会变得更加可控呢?因为进一步的我们可以继续上传分镜头图, 留下一张图片,我们来上传这个熊猫骑着摩托车在公路上行驶的画面。再下一张图片,我们上传这个熊猫骑着摩托车在飞越一个小丘的画面。在上传好这些分镜头图片之后,我们就对提示词做相应的描述。留这里我们描述的是延长视频到十五秒。参考图片一,图 片二,熊猫骑摩托车的情形,补充一段脑洞视频具体如下,画面一,直接使用视频一,画面二,熊猫骑摩托车在道路上疾驰。画面三,熊猫骑摩托车做飞坡特技。画面四,熊猫骑摩托车来到悬崖边上下车欣赏日出。在这四段画面当中,第一段画面用的就是原视频, 而第二段和第三段画面使用的是参考图中的画面。而第四段画面我们是直接使用文字描述的, 可以看到最终的成片效果也非常不错,整个的视频以十分可控的方式对原视频进行了内容上的延长。再来看第八项功能,就是一镜到底的能力,不同于先前在极梦 ai 上使用智能多帧功能来生成一镜到底视频, 使用 s 二点零模型的全能参考,我们不仅可以生成一镜到底的视频,而且在视频生成的内容中,可以让上传的参考图片不仅作为视频当中的某一帧画面出现,也可以让其 视频当中出现的某一个物体,某一个人出现。举个例子,我们接下来要看的视频,其中的第一个画面是人物在过安检时的画面,第二个画面是人物已经通过了安检行走在机场大厅的画面。 而第三个画面,我需要的是人物路过一个女特工形象的人,但事实上我只生成了这个女特工的形象,并没有生成人物和女特工碰头时的画面同样没有生成人物,只生成了机场大门 target confirmed。 而最终生成的一镜到底的视频效果还是非常出色的,其中图片一和图片二都很好的还原在了视频当中,作为视频的关键帧出现,而图片三和图片四充当了整个视频当中所出 的元素。这样的方法不仅能够很好的免去在制作分镜头时的麻烦,同时像我们制作人物时没有制作背景,也很好的避免了在一进到底视频的运动中,整个机场的风格、建筑的样式前后不一致情况的出现。我们再来看第九项功能,就是情绪参考复刻,这项功能同 是吉梦 ai 的 一个新增功能,不过说是新增,它有点类似于以前的动作迁移功能,但区别在于这项功能不仅能够复刻动作,像人物的微表情拿捏的也非常到位。此次生成就以这张图片为例,话不多说,我们直接放出对比视频以及在生成时所使用的提示词来看一看效果如何。 可以看到和原视频对比,人物的整个表情还原的非常细腻,更 更让人惊叹的是像原图片当中没有出现的皇冠上半部分和人物下半部分的衣服,当其出现的视频当中时,整体的材质设计风格也与原本画面当中已有的内容非常契合,可以说这也是 s 二点零视频生成模型的一个强大之处。 我们下面再来看最后一项功能,就是特效制作效果的增强。如果你习惯使用极梦 ai, 会发现极梦 ai 目前有一个短版,那就是在生成特效视频时,整个特效的丰富程度以及特效的自然程度 相比于生成其他类型的视频都是不太尽人意的。我们这里就以这张图片为例,图片本身带有了一定的特效效果, 使用手真图生视频的功能,具体的提示词是这样描述的,镜头推进到人物面部特写,人物突然睁开眼睛,眼睛散发着金光,镜头拉远, 突然起身,借力跳起,迅速升空,一只手做托举天空状,四周的金色发光粒子效果的灵力像托举天空的手掌聚集人物,最终化作发光粒子效果的金色凤凰飞向远处。可以看到这段提示词描述的既具体, 同时在人物的行为上又相对比较复杂。那吉梦 ai 的 s 二点零模型是否可以胜任呢?我们下面就来看一看成片效果吧。 可以看到最终的成片效果,无论是声音还是画面还是特效,包括运镜方面,可以说整个的效果一气呵成, 且完全符合提示词的描述。相比于过去极梦 ai 所做出的特效效果,可以说 s 二点零模型在特效的制作上有着飞跃性的提升。那么到了这里,关于极梦 ai 的 cds 二点零模型有哪些方面的新增功能,以及哪些方面的功能增强,我们 就演示完了,这也是从这个模型推出以来,在结合之前我使用极梦 ai 时的一些痛点所摸索出来的功能,相信大家在自己使用时可以继续发现他的一些其他强项,如果有的话,不妨打在评论区我们一起讨论分享。如果觉得本期视频对你有帮助,也不妨点赞关注支持一下。 这节课所演示的视频素材我都放在了评论区的置顶中,如果需要的话可以查看自取,我们就下期视频再见,各位同学,欢迎来到极梦 ai 课堂。 着 ai 的 不断发展,有不少长官反映,目前极梦 ai 视频平台的教学已经慢慢不可用。在学习很多教程的时候,相信大家都遇到了这种 情况,不论是平台的页面布局还是实际使用时的功能选项,都会与教程有所不同。同时最新的极梦 ai 生成的画面质量都有了肉眼可见的提升,所以我花费了近三个月时间,整合了极梦 ai 视频 制作的所有干货,开启一个全新的极梦 ai 教学篇章。本套视频我就带着大家了解最新的 ai 视频制作攻略,从利用大语言模型写剧本脚本,到最终使用剪辑软件进行后期剪辑成片,带着大家从零开始学习。相信无论是刚刚接触 ai 视频制作的小白, 还是过去曾经尝试过一些 ai 视频生成,对 ai 视频有所了解,但还不够深入的小伙伴,都能通过我们系列课程的学习 中制作出完整的 ai 视频作品。我们的教学将包含不同风格、不同类型的 ai 视频制作,既有理论知识,也有实操案例,手把手的教大家学会 ai 视频作品的制作。那么话不多说,我们下面就开始吧。 说到制作 ai 视频,目前市面上可以选择的非常成熟的 ai 视频制作平台有很多,像国内的比较出名的有可灵, 而国外的就是 made、 journey、 runway 等等,该如何选择平台呢?其实早期的国内很多 ai 视频生成平台生成的效果是不尽如人意的,但随着视频模型的不断更新,目前国内平台生成的视频质量已经完全不亚于国外的很多视频生成平台 中,以可林和极梦最为突出。而论性价比来说,在极梦 ai 平台每天都会赠送六十六点到一百点的视频生成点数,且即便是最低档的会员,在使用图片生成功能时,目前也是完全免费的,且最低档会员每个月能够生成二百一十六个标准视频, 可谓是目前最具性价比的 ai 视频生成平台之一,且在保障了性价比的前提下,生成质量是完全不输其他的视频生成平台的。所以接下来我们的系列课程将会使用极梦 ai 这个工具 为大家进行讲解。这节课我们首先来简单的介绍一下极梦 ai 的 生成界面,可以看到整个的界面布局非常简洁,我们可以直接在首页当中找到它的生成功能。其中第一个功能是 agent 模式,这个模式并不指定我们要生成的内容是什么,而 是通过提示词的描述,让极梦 ai 自动调用当前平台当中可以提供的功能,将这些功能单个或者组合进行使用。具体的功能有这些,像最基础的图片生成以及其主要功能视频生成。还有像数字人功能, 让人物开口说话以及动作模仿功能,让指定的造型根据上传的视频参考进行跳舞等等,可谓是包含了目前所有的跟 ai 视频生成相关的主流功能, 非常的全面。在首页当中我们还可以看到下方展示的由其他作者生成的 ai 作品,我们任选一个,打开这个 ai 作品, 可以看到在右侧能够查看生成这个作品时使用的详细参数,可以快捷的点击下方的作同款,将作者生成这个作品时 使用的所有参数都导入到生成预备窗口当中,我们可以对这些参数稍加修改来生成符合自己需求的作品。也可以点击这里的提示词选择使用,只选择作者在生成这个作品时使用的提示词, 当然也可以只选择作者在生成这个作品时使用的参考图。所以实际上大家在生成图片时需要什么样的风格,需要什么样的内容,在大多数时候是不用自己扣脑袋想的,我们只需要来参考其他作者的 生成参数,并灵活的为己所用即可。至于生成作品的美术风格方面,可以说非常的宽泛,写实的,动漫的,具体的,抽象的,人物的,风景的,还有像 u i 设计, 海报设计等等,在极梦 ai 上,以目前的模型能力都是可以生成的非常精美的。在首页的上方还有很多分选项,除了查看其他作者生成的 ai 图片或者 ai 视频片段作品之外,点击这里的短片选项还可以查看由其他作者在生成视频片段之后,再去剪辑成片的完整 ai 作品, 而我们最终的制作方向就是制作出这样的完整 ai 视频作品,我们也可以从中汲取后期时的灵感, 看一看是如何转场、配音、配乐和添加特效的。在短片右侧还有一个活动选项,在这里有极梦 ai 参与或者主办的一些 ai 相关的活动赛事,通常奖品都非常丰厚,有生成积分,有些还有现金或者实体物品的奖励。 而右侧是一个搜索框,可以搜索我们想要的内容。比如有时我们生成的 ai 作品需要用到人像照片的图像生成,但 不知道如何生成人像质量更好,我们就从中搜索人像。在搜索结果中可以看到很多不同风格类型的人像,如果觉得效果不错的话就可以点击查看,从中来寻找我们需要的提示词或者参考图内容,将其修改之后为己所用。 我们现在点击左侧的灵感选项就可以返回到首页来看。下方有一个生成的分选项,在这个页面就是专门用来生成 ai 作品的页面了,在这里可以查看过往的生成记录,同时在最下方选择生成模式来生成相应的 ai 作品。 生成好的 ai 作品可以点击左侧的资产选项,以此来查看过往中我们生成的所有内容。上方还有对应的筛选分类, 就可以查看图片作品是收藏的还是所有的。查看视频作品以及在极梦 ai 当中,同样是可以生成 ai 音乐的。此外,在资产选项下方有一个画布功能, 点击打开这个功能之后,我们会进入到一个简易版本的图像处理页面,有点类似于 ps, 当然它的功能会比 ps 少很多。在这个页面,我们可以上传图片,对图片进行裁剪或者简单的修改,也可以直接通过纹身图的方式生成一张新的图片,将 直接至于当前的画布中进行后续的修改。具体的修改包括添加文字,使用画笔工具进行涂鸦擦除,或者是简单的拖拽画布。所以大家如果本身已经会用一些本地端的图像处理软件,比如说 ps 之类的, 我建议还是用本地端的图像处理软件。在极梦 ai 上的这些功能还是少了一些,我们现在点击左上方返回首页。下面来给大家简单讲解一下极梦 ai 的 会员机制。点击左下方就会打开会员的充值页面,通常来说,大家选择包月其中的最基础的会员 已经足够使用了,因为首先目前会员生成图片是免费的,不消耗积分,这相比于其他生成图片还需要花费不少积分的平台来说,已经是相当良心的机制了。此外每天还会赠送一定量的积分,最低档的会员每个月可以生成二百多条视频。 对于一般强度的制作 ai 视频作品或者作为练习时选择的充值档位而言,这个生成数量可以说是绰绰有余。通常制作一个两分钟左右的视频,需要的生成视频条数即便是将那些生成的不好的结果算在内,也不过是四十条左右,所以大家在学习阶段就选择最低档位的基础会员,但 即便不是极梦 ai 的 会员,同样可以生成 ai 视频,用赠送的点数就行,但一般来说需要排队的时间比较长,也许生成一条视频会员只需要消耗一分钟的时间就能生成出来,而非会员的话就可能需要几十分钟甚至一个小时以上。 不过大家在生成 ai 视频时,受限于视频生成模型本身的机制,可能在生成一些特定场景、特定动作、特 落地运镜的时候,未必能生成出我们满意的结果,这个时候可能就需要用到其他的 ai 视频生成平台, 要用不同的视频生成模型才能生成理想的效果了,所以有时候我们也不免要使用到其他的视频生成平台,大家的思维还是要放的宽泛一些。那么以上就是本期视频的全部内容,下一期视频将会给大家讲解 无论是生成图片还是制作 ai 视频,最基础的一个部分,那就是如何书写提示词。如果觉得本期视频的内容对你有帮助,不妨点赞、关注、支持一下,我们就下期视频再见。大家好,在上一期视频中,我们讲解了极梦 ai 的 界面功能,介绍这期视频我们来学习如何正确的书写提示词。 首先来到极梦 ai 的 首页,我们来看一看由其他作者生成的作品都是如何写提示词的。例如像这张图片, 看到这样内容精美的图片,在提示词的编辑上同样非常的丰富。首先描述的是这幅图片的风格,是一个由粒子组成的古风插画,还包括了很多细节,像笔触、线条、明暗对比、 金箔等等。我们再来看下一幅作品,例如像这张汽车海报的作品,同样在提示词的描述上也非常的丰富,最终获取的结果可以看到也相当不错。而在具体的内容方面,像大师级、排版级、反主义、半吊、图案、 杂色等等这些同样是先对画面风格进行了描述,然后中间部分则是在描述海报当中有哪些内容及主体。 我们现在再来看下一个由其他作者生成的作品。可以看到像这样简单的一只三花猫的图片,想要生成出来也并非直接描述的是一只三花猫,同样包括了主体描述、质量描述以及像三 d 超精细渲染这样的风格描述。 通过这么几幅图的鉴赏,我们会发现,想要生成精美的 ai 图像作品,并非是我们一两句话就能生成的,往往通过简单的描述很难生成好看的或者是我们想要的作品效果。 想要生成和其他作者类似的作品其实非常简单,我们就只需要直接在极梦 ai 的 首页点击查看其他作者的作品,然后将右侧的提示词复制下来,从中挑选我们需要的内容,再结合我们本身想要生成的内容来生成就可以, 往往这样会导致我们生成的作品会缺少原创性,且在风格和内容上是无法实现完全可控的。所以要想生成好看的作品,通常有这么几种方式可以实现。第一种就是借助大语言模型的 辅助,比如豆包 deepsea。 举个例子,我们现在输入一段提示词,这里我们就书写生成一台汽车,同时提出要求优化上述提示词,让生成的结果更加精美。现在点击发送可以看到最终生成的结果。豆包 ai 给出了三个备选方案, 分别代表着三种不同的风格,一个是写实高级的风格,一个是未来科幻的风格,还有一个是复古经典的风 格,我们下面就来生成对比一下。例如现在回到极梦 ai, 点击生成选项,在下方的下拉菜单当中选择图片生成。我们首先就描述生成一台汽车,然后回车发送,可以看到此时生成的结果 确确实实是一台在马路上比较常见的汽车造型。但不难看出,我们生成的这些汽车造型更多的像是一些杂志上的汽车宣传海报,不仅在汽车外形的设计上并没有原创性,同时像汽车所处的环境背景以及美术风格都相当的常见,且在图像的质量上 也并没有发挥出当前使用的 ai 模型该有的实力。我们现在将豆包 ai 帮我们修改的细节更加丰富, 数更加具体的提示词复制过来,然后回车发送,可以看到此时生成的结果,能够明显的看出要比我们第一次告诉 ai 只生成一台汽车所生成的画面更加精美,不仅表现在整体氛围上,像汽车设计本身的原创性 以及画面的细节表现都要明显优于我们之前所生成的图片内容。因此,当大家使用简单的提示词无法生成满意的高质量的效果时,不妨尝试使用大语言模型 辅助我们去优化提示词。不过现在虽然生成的图像通过大语言模型的辅助更加精美了,但依然存在一个问题,那就是可控性,我们还是无法根据自己的想象来生成指定的效果,所以这里我们就需要总结经验来学习一套提示词的万能框架。 经过对无数个作品的总结,以下我们总结出了一个在生成任意图片时都能够使用的万能框架,那就是风格加视角、加主体、加背景加细节加光影加质量词。 以当前我们所展示的这张图片为例,首先来看风格,我们想要生成的是高精度建模风格 u e 五质感那么熟悉游戏画面的同学应该能够一眼感受到,当前生成的画面 就像是一个在游戏当中的建模风格,同时有着虚幻引擎的建模质感,这就是风格的描述。当然,风格的描述类型有很多, 在我们当前所描述的属于在质感方面的风格,那么除了质感方面,在美术方面同样有风格之分。像此时生成的这张图片,他背景当中的霓虹灯以及复古和科技相结合的画面, 其实就属于赛博朋克风格。所以我们这里所书写的赛博朋克风格的城市夜景,他既属于对画面背景的描述,也属于对画面美术风格方面的描述。 除了风格之外,生成一幅画面描述视角通常也非常重要,例如此时我们描述的是正面视角,那么最终生成的图片就是一个正面朝向观众的汽车在城市当中的图 片。那么相对应的,我们现在来到极梦 ai, 将正面视角换成侧面视角,然后点击发送,可以看到此时生成的结果。在整体的质感和美术风格上,与刚刚我们所展示的图片保持了高度的一致,同时汽车也转换成了侧面的视角,当然侧面也分为正侧面、斜侧面 及后侧面等等。我们可以更进一步的优化提示词的描述,让其描述的更加细致具体。除了视角之外,接下来就是对于画面主体的描述,这是一幅画面当中不可缺少的内容,像我们当前给出的提示词框架,并不是说每一个部分都要具备才能生成图片,但一幅图片当中 主体是作为基础的内容,我们描述的是风景,是汽车还是人物,至少都要有一样去描述出来,即便是空无一物,那此时描述的主体也可能是天空或者纯白色,这些内容都可以作为画面的主体。 那么对于这张图片所描述的主体就是敞篷跑车,这里我们用黄色的字体进行了标记。那么有了主体之后,往往还要描述主体所存在的背景,像当前的背景就是赛博朋克风格的城市夜景。如果有时想要方便抠图,那 通常我们就描述简单的背景,白色的背景。接着往下看,我们继续还要描述画面的细节,也就是用来修饰主体和背景或者其他的内容,比如说风格的,像当前在提示词当中的科技与复古风结合的银灰色敞篷跑车,这些内容就是用来修饰画面的主体的,描述了它的颜色 的设计风格。同时我们想要生成赛博朋克风格的城市夜景,这里就追加了一个细节描述,那就是霓虹灯广告。接下来就是光影,其实像光影的描述,除了直观的描述光从哪个方向照射,光是什么颜色之外,通常描述时间也能够代表画面当中整体的光影描述。 就像白天也分为清晨可能有浓重的雾气,正午阳光最为强烈,傍晚阳光变得不那么强烈,但颜色偏向于暖色等等。至于夜晚的话,则更多的是人造光源。 所以像当前在提示词中我们所描述的夜景,其实就可以直接使得生成的结果出现更多的人造光源,再配合着霓虹灯广告,就组成了我们当前画面当中所 出现的光影表现。而最后的质量词非常重要,像我们刚刚所看到的几个案例,比如说这个汽车海报,其实上面就使用了大量的质量词,例如大师级排版、充满汽车文化与机械张力、 传递速度与个性的态度场景,这些内容都在极力的想要生成的结果,在视觉观感上能够有更加优秀的表现。此外,像这张图片可以看到,在提示词当中,几乎大部分都是由质量词组成的,像绝美的眼睛、高级感、线条清晰、超高清、 丰富的细节等等,这些都能够有效的提升画面生成的质量。而在我们生成的这幅图片中,加入的是一些比较常规的质量词,并没有指定的方向,算是一个比较通用的描述,像电影感构图,电影质感胶片颗粒质感,八 k 大 师级构图。 有了这些内容的描述,基本上能够保障任何画面生成的质量都能够有足够的细节以及优秀的构图,还有好看的光影。那么学会了这些知识,我们下面就来实战练习一下。回到极梦 ai, 我们下面在不看提示词的前提下来思考一下像这张图片该如何通过自己对这节课知识的理解来生成相近的内容。我们首先来书写风格,像当前的这种风格就是一个偏写实的风格, 所以这里我们直接描述写实风格。而视角方面,这幅图更像是一个微距摄影,所以这里我们就书写微距摄影。背景,虚化镜头,聚焦主体。接下来再来描述主体,一个穿着探险服的拟人仓鼠, 一只手提着一盏煤油灯看向镜头。然后来描述背景,这里我们就描述森林。接下来是细节,一片有些干枯的叶子撑在蚁人仓鼠的头顶, 煤油灯发出的暖光照亮周围的环境。然后来描述光影,这里我们就描述阴天,让画面当中能有一个自然光照,同时前面所描述的细节,煤油灯发出的暖光其实同样也是一个光影描述。最后就来书写质量词,这里我们就沿用刚刚的案例图片在生成时所使用的质量词。 尺寸方面,我们就设置为与参考图比较相近的尺寸,这里设置为三比四,然后点击生成,看一看最终的效果如何吧。可以看到一段时间后,我们就成功的生成了与参考图十分相近的结果,但同时这里出现了一个问题, 那就是我们所描述的一片有些干枯的叶子撑在蚁人仓鼠的头顶。这句描述并没有生成,我们想象当中 整个叶子在地面上撑起一个类似于小帐篷的效果。所以这里就需要我们对提示词进行进一步的优化和修改。点击重新编辑选项,我们将关于这个部分的描述做一些修改。这里我们就将提示词修改为一片比仓鼠大很多的有些干枯的叶子像帐篷一样 撑在拟人仓鼠的头顶。现在点击发送,可以看到这次生成的结果,就和刚刚我们在首页上看到的那张图片在效果上十分接近了。以上就是本期视频的全部内容,如果觉得对你有帮助,也不妨点赞关注支持一下,我们就下期视频再见。 大家好,我们这节课来讲解在使用 ai 生成图片时,如何控制所生成图片的视角。中视角的核心概念是观察者, 就是镜头与被摄主体之间的相对位置、方向和距离关系,它决定了画面呈现的透视效果、主体形态和虚实氛围。我们举一个简单的例子,现在打开三 d 建模软件 blender, 首先来看在视角当中谁是观察者,也 就是镜头在什么位置。其实这一点很好理解,在观察这个世界时,我们的眼睛就属于在拍摄中镜头的位置。而在当前这个三 d 建模软件当中,三 d 模型的 观察者所处的位置便就是当前这个软件当中镜头所处的位置。在这个三 d 所构成的世界中,我们移动视角 或者改变远近都是在改变我们作为观察者所处的位置,以此来看到不同的视觉效果。而背射主体就是我们当前所看到的这个三 d 小 猪,而我们作为观察者和这个被观察的主体之间是有不同的关系的。例如相对位置, 此时我们作为观察者和被观察主体之间的相对位置,就是我们位于他的斜侧方四十五度左右的位置。同时我们在观察这个主体时,我们所面朝的方向以及主体的方向也是相对的, 此时就需要一个坐标系来规范一个观察的方向。例如现在在这个三 d 空间里,绿色的线条表示的是 y 轴,红色的线条表 示的是 x 轴,而还有一条线呢,是我们看不见的 z 轴,也就是纵向的这条线。我们假设来规定 y 轴这个方向,小猪面朝的是前方,小猪背对的是后方,那么现在我们正从小猪的前方去向小猪的后方观察,这样的形容就是成立的,像 z 轴和 x 轴在规范好 它的朝向以及位置之后,同样可以相对。这么来讲,当然在现实世界中有非常多现实存在的物体可供我们观察,例如像马路 间或者是街道这样横平竖直本身就已经被条条框框概念化的东西。最后就是距离关系,我们将镜头拉近所看到的画面和镜头拉远所看到的画面是不同的,这点想必大家很好理解,近大远小嘛, 以上我们所说的这些,共同决定了画面呈现的效果,也会给观众带来不同的视觉体验。我们下面来看一看常见视角的分类。如果说要按照相机所处的位置来分类,大体上可以分为三大类,一个是镜头视角分类,像平拍、俯 拍、仰拍、鱼眼镜头、长焦镜头、广角镜头等。而第二类是按照拍摄的高度来分类,像使用无人机拍摄就属于高拍,而把相机放在地面上拍摄就属于低拍。然后就是决定了取景框大小的,按拍摄距离来分类的方法,远景 风景、近景特写,还有微距镜头。当然除了这三大类,其实还有一个比较小众的分类方法,那就是一些特殊的角度,例如像倾斜镜头拍摄,营造画面的失衡感,跟随镜头拍摄,让画面稍微带有一些模糊效果, 增强画面的运动感。或者是过肩镜头,虽不是第一人称视角,但能够让镜头的位置和画面的主体更加接近,能够增强代入感。我们现在来简单实践一下,看看使用刚刚的知识是否能够生成满意的效果。例如现在我们想要生成一个富有运动感的镜头,让镜头拍摄一个人物正在 跑步的画面,那按照刚刚我们所学习的视角分类知识,比较适合使用的就是跟随镜头。然后这里我们继续书写拍摄运动员在跑 道上跑步的背影,进一步的我们要求画面带有动态模糊效果,然后点击发送,可以看到此时生成的效果,就生成了一幅在镜头跟随拍摄下,运动员在跑道上跑步的画面,同时还加入了动态模 糊,使得整个画面更有动感。而如果使用常规的描述,我们只生成运动员在跑道上跑步的画面,然后点击发送,可以看到此时生成的效果。相比于刚刚我们所生成的跟随拍摄的效果, 整个画面就显得不是那么具有代入感了。加上本身拍摄的画面非常清晰,并没有带有动态模糊的效果,所以即便是这样的镜头,人物的姿势非常有张力,拍摄的构图也 聚焦在了人物身上,但依然在给人的感受方面不如我们刚刚生成的画面在整体的镜头感上那么富有张力。 在凸显人物的不同情绪时,视角的使用方法也会有所区别。例如,我们想要表达一个人物的微表情,此时我们就需要特写镜头来表达。例如,现在我们想要生成一个人物生气的画面提示词,我们就书写特写镜头,人物眉头微皱,有 生气为车发送,可以看到此时生成的画面就是一个人物的特写镜头给到了人物的面部特写,这个人物所展示出的愤怒效果几乎要从屏幕当中溢出来了。而我们现在将特写镜头删除,然后再次点击发送,可以看到此时生成的效果。由于不再是一个人物的面部特写, 只是一个人物的上半身近景画面,这时表现人物生气的效果在严重程度上就没有之前所表现的那么到位。 总结来说,想要生成什么样的视角,大家可以直接在提示词中去书写,这样的视角通常都能生成理想的画面,而生成不同视角的难点并不在于如何去生成,而在于在合适的情绪、合适的氛围下,选择与之匹配的视角进行提示词的书写,就像我们刚刚所展示的两个案例那样。 再来看第三点,就是目前市面上比较爆款的拍摄视角的应用。当前画面所给出的三张图片就是目前在市面上热度较高的三个拍摄角度,一个是过肩视角,一个是自拍第一人称视角,一个是第一人称视角,这些视角往往都能带给人很强的代入感, 同时也让这个 ai 生成的画面显得更加贴近真实。那么我们该如何去生成这三款不同的比较热门的视角呢?像刚刚的常见视角分类当中,其实就没有这些视角,这也是这三种不常见视角 能够成为爆款的原因,因为它的角度更加新颖,观感更加刺激,观众也更减少见。我们首先来看月间视角怎么生成,其实就如刚才所说的,我们想要生成什么视角,就直接去描述这个视角就可。 这里我们就描述月间视角,一个摩托车手在夜晚的城市骑摩托。当然这里我们需要提到一个概念,就是在描述视角时,除了镜头的视角之外,其实也包含了所拍摄主体 本身的角度。例如当这个人物面向我们的时候,我们可以说拍摄的是人物的正面视角,但当人物转过身去,虽然相机的视角没有改变,但人物的视角改变了,那么生成的结果也会不同。我们可以说此时拍摄的是人物背面的正面视角, 说正对人物的背面,所以当有些画面无法生成时,我们就需要在提示词中除了描述相机的视角,再追加一个对人物 朝向角度的描述。例如这里我们已经描述了阅肩视角,而这个骑摩托的人我们可以再次追加描述他的朝向角度。 这里我们就追加一个摩托车手背对镜头,在夜晚的城市骑摩托,然后点击发送,可以看到此时镜头的位置就位于了人物的身后,同时这个摩托车手的朝向也是朝着镜头所对着的方向进行骑行的,这就是月间视角。当然,像人物跑 或者是枪战,或者是其他类似的比较有刺激画面的画面情况,我们都可以使用阅间视角来增强观众的代入感。此外,在极梦的灵感页面,我们搜索自拍,同样可以搜到很多像这样的以第一人称自拍视角为主题的 ai 作品。 那么像这样的作品又该如何生成呢?我们下面同样来演示一下。提示词方面,我们就书写第一人称视角自拍,然后后面跟上我们想要自拍的内容有什么。例如这里我们书写的是一个美女在遛狗,点 机发送,可以看到此时生成的画面就像是一个美女在手持手机遛狗时自拍的画面了。这样的画面是不是显得非常自然真实呢?如果没有左上方 ai 生成的标识,可以说几乎这样的画面是可以以假乱真的。特别是当这样的图片在生成为 ai 视频 之后,整个画面在第一人称自拍视角的加持下,会显得更加生动,富有表现力。而第三个比较爆款的拍摄视角,那就是第一人称视角。我们将自拍两个字删除,但需要注意的是,这样的视角并不适合呈现所有的画面,就像是第一人称视角自拍画面当中至少要出现一个人物一样。但 单纯的第一人称视角在更多情况下适合应用在交通工具的第一人称视角上。比如这里我们就书写骑自行车,然后点击发送可以看到此时我们就生成了以第一人称视角 所拍摄的骑自行车的画面,其画面自带了一些运动模糊的效果,非常有冲击感。除了像骑自行车,包括像坐过山车,可以看到生成的效果同 同样非常富有视觉冲击力。当然,大家如果有其他好的点子,也可以尝试用低人称视角来生成其他情况下的图片。这些图片在非 ai 拍摄的情况下其实也比较常 见,只不过在 ai 时代,像这样的视角生成的比较少,但同时又非常贴近生活,所以使用这样的视角生成能够让 ai 生成的视频作品有着更加能够带入真实生活的表现。我们最后来一起做两组实战练习来生成指定构图的图。 我们首先来看第一张图片,这张图片很好分析,他就是一个非常常规的在正面视角朝向镜头的人物半身肖像。所以这里我们就描述正面视角人物正对着镜头半身像,然后点击发送,可以看到此时生成的结果。在人物和镜头之间的距离, 以及人物所面向镜头的角度上,和我们所给出的参考图一致,但人物露出身体的部分却相对来说少了很多, 这主要是由于我们在生成图片时所选择的宽高比决定的。这里我们将宽高比从十六比九改为九比十六,然后再次点击生成,可以看到这次生成的画面,人物在身体的部分就显露出了更多,但这个结果依然和我们左侧的人物所露出的身体占比有 所差异,所以这里我们就追加描述人物,站直身体,正对镜头,从膝盖到头顶,然后点击发送,可以看到此时生成的结果当中我们就成功的生成了一张在视角上与参考图的视角基本一致的人物了。 我们下面再来看第二张人物该如何生成其对应的视角。这个人物由于并非正面朝向镜头,所以在此次生成中,除了需要描述相机的视角之外,还要描述人物的朝向。首先来描述相机, 这里是一个较为典型的地面拍摄视角,然后来描述人物的朝向,人物侧四十五度,背对镜头,然后是全身站立, 下面点击发送,可以看到此时生成的结果,就生成了与参考图十分接近的结果。我们需要从中寻找一张在相机位置上更加接近原图的,也就是更加接近地面的。可以看到第一张和第四张相机在高低位置上都 会更加接近地面,是一个地面视角。那么以上就是本期视频的全部内容,在这节课程中,我们所讲到的镜头概念和镜头分类这些理论知识我也都整理成了一个文档,放在了评论区的置顶中,大家需要的话可以自取,如果觉得本期视频的内容对你有帮助, 不妨点赞关注支持一下,我们就下期视频再见。大家好,我们这期视频来讲解抖音上那些非常热门的爆款视频该如何制作,一共来讲解三种类型,分别是萌宠类创意视频、萌宠走秀类创意视频 和微缩场景类创意视频。首先来到极梦 ai, 和制作其他的创意视频一样,先来获取提示词,以此来进行图片的创作。在搜索栏我们直接搜索萌宠, 可以看到此时在搜索结果当中就展示了很多极具创意的由其他作者制作的萌宠类 ai 作品,我们可以从中挑选一个在展示形式和创意上都比较喜欢的,然后点击查看大图,在右侧将作者生成这张图片时使用的提示词复制下来,然后打开豆包 ai, 将提示词 直接粘贴到输入栏中,按下 shift 键加回车进行换行,然后书写。请帮我根据上述提示词再编辑五条萌 萌宠创意图片的提示词,然后点击发送,可以看到片刻之后我们就获取了五条极具创意的萌宠图片的提示词,现在将提示词复制下来,然后来到极梦 ai 的 生成页面,在左下方将模式切换为图片生成, 粘贴刚刚我们复制的提示词,然后设置合适的生成参数,比如这里的比例我们就先设置为十六比九,下面点击生成,大家在生成时具体的比例可以根据将来要发布的平台来决定, 段时间后就生成好了,可以看到此时生成的结果还是非常富有创意的,整体的画面质量也非常高,不过这里我们一共获取了五条提示词内容,如果对生成的结果不够满意,可以回到豆包 ai 再复制一条新的提示词,我们再来尝试生成一个。用新提示词生成的结果,可以看到再一次生成的结果也非常不错,整个的图片内容是非常富有创意的, 生成的动物也十分可爱。而我们下面要做的事情就是将图片生成为视频了,从众多生成结果当中挑选一个我们最为满意的,然后将鼠标悬置在上方,点击弹出菜单,当中的生成视频选项就是这个位置,再点击之后将图片加入到视频生成的预备窗口中。 而提示词方面我们就书写镜头的运镜和画面当中事物的变化,这里运镜方面我们就书写固定镜头,而事物的变化我们可以不做书写,也可以书写一些简单的内容,例如狗充满好奇的看着镜头,现在点击发送一段时间后,视频就生成好了,来看看效果如何吧。 可以看到整个视频的质量还是非常高的,这也得益于我们生成的图片质量本身也极具创意,且画质也相当不错。我们下面再来看第二类创意视频,萌虫走秀类创意视频 依然是回到极梦 ai, 来到首页,在搜索栏中搜索萌宠走秀,可以看到此时就获得了很多萌宠走秀的 搜索结果,我们从中挑选一张自己喜欢的,然后点击查看大图,同样的在右侧将作者在生成图片时使用的提示词复制下来,回到豆包 ai, 重复刚刚的操作,将提示词粘贴到输入窗口,按下 shift 加回车进行换行。 要添加要求,请帮我根据上述提示词再编辑五条萌宠走秀创意图片的提示词,现在点击发送,一段时间后提示词就生成好了。当然生成的这些提示词都是跟小狗相关的,如果我们想要生成不同动物的内容,也可以在要求当中要求生成的提示词要包含各种动物。 我们下面要做的事情就是将提示词复制下来,然后回到极梦 ai 的 生成页面,将提示词粘贴到图像生成的提示词输入框中,下面点击发送,可以看到一段时间后图片就生成好了,整体的生成效果还是非常不错的。同样,如果对生成的结果不够满意,想尝试其他的风格, 也可以继续复制当前生成好的提示词。我们不光可以要求豆包 ai 一 次生成五条,如果想要选择面更加宽泛的话,可以让它一次性生成二十条 中挑选我们想要的。不过相信大家都具备这样的能力,所以这里就不再做荣誉的演示,我们直接来生成视频,从生成的四张图片中选择一个还不错的,将鼠标旋至在上方,然后点击弹出菜单中的生成视频选项。而提示词方面 需要描述镜头的运镜和画面当中事物的变化。运镜方面,像这种人物向前走的视频,我们通常描述镜头跟随,而事物的运动,我们就描述 主体向前走,因为此时图片当中并不是一个人,而是一个拟人形态的狗,所以我们描述主体是比较稳妥的描述方式,下面点击发送一段时间后,视频就生成好了,来看看效果如何 吧。可以看到整体的生成效果还是不错的,当然如果大家想要发布平台的话,不妨多做几条类似的视频,将它们在剪辑软件上整合成一个视频来发布,这样观感上会更好一些。我们下面来看最后一种爆款类视频的制作,就是微缩场景类创意视频。 依然是回到极梦 ai 的 首页,在搜索栏中搜索微观,可以看到此时就出现了很多由其他作者生成的微缩景观类的创意图片, 我们依然是从中挑选一张,然后点击查看大图,将作者生成图片时使用的提示词复制下来,然后回到豆包 ai 将提示词粘贴,按下 shift 加回车键,紧接着提出要求, 请帮我根据上述提示词再编辑五个微缩场景类的创意提示词,点击发送一段时间后提示词就生成好了,我们任选一个将其复制下来,然后回到极梦 ai 的 生成页面,将 将提示词粘贴到图片生成的提示词输入框中,然后直接点击发送,片刻之后图片就生成好了,可以看到整体的生成效果还是不错的。同样的,如果对当前生成的风格和效果不够满意,可以再次的回到豆包 ai 当中,复制一个新的提示词,然后返回极梦 ai 粘贴提示词点 生成。可以看到这次生成的结果还是十分讨喜的,与我们刚刚所看到的作者生成的图片非常相像,其实整个的氛围给人的感受也非常新奇,其实很多爆款视频之所以能够成为爆款视频, 大部分都是因为视角比较独特,给人的观感比较新奇,而这类微缩场景类的视频正是如此。我们下面就点击生成视频,将图片变为动态的。 这次方面我们就分别书写固定镜头,然后根据画面现有的内容来描述需要的事物变化。例如最上方的小人在挤抹茶酱,下方拿着铲子的小人在用铲 子铲奥利奥碎。现在点击发送一段时间后,视频就生成好了,可以看到整体的生成效果充满了趣味,且人物的行动也符 格式词的描述。我这里也整理了一些生成今天所讲解的爆款类视频的提示词,如果大家需要的话,可以查看评论区的置顶评论。以上就是本期视频的全部内容,如果觉得对你有帮助,也不妨点赞关注支持一下,我们就下期视频再见。 大家好,我们这节课来讲解如何使用极梦 ai 来生成真人和动漫的合照,一共分为三个步骤,分割转会、 合照合成和视频生成。我们首先来看分割转会,来到吉梦 ai 的 首页,点击左侧的生成分选项,将下方的生成模式修改为图片生成。我们先来使用参考图生图的方式对图片进行分割转会,将参考图上传到图片的预备窗口中。首先上传的是原图, 我们接下来上传风格参考图,例如这里我们就上传一张这样的风格参考。在上传好之后,提示词我们就描述 将图一的风格转换为和图二相同的风格,其他部分保持不变,现在点击生成一段时间后,我们就成功的将上传真人写实照片风格的图片转换成了偏二次元风格的图片。我们将转换好之后的图片下载下来, 然后将下载好的图片作为参考图上传到图片预备窗口中,将刚刚的风格参考进行替换。此时的两张参考图分别是 原始风格的人像参考和进行了动漫风格转会之后的人像参考。下面开始进行提示词描述,这部分的描述可能会需要一些技巧, 所以此时我们不妨来借鉴一下其他作者的提示词描述。回到灵感首页,在搜索栏中我们搜索动漫合照,可以看到此时的搜索结果就出现了很多动漫合照。我们要做的事情就是挑选一个自己想要的角度,然后点击查看大图, 将右侧作者在生成这张图片时所书写的提示词复制下来,然后回到生成页面,将提示词粘贴到输入窗口当中。需要检查一下在提示词中有没有需要删减的部分,比如关于性别的或者关于人物的穿着描述的。 在适当的对提示词进行修改之后,就直接点击生成一段时间后图片就生成好了,我们从中挑选一张较为满意的结果,例如像这张 写实的人物和偏二次元风格的人物在美术风格上还是有很明显的区别的,其画面也没有产生明显的崩坏。在挑选好之后,点击下方的生成视频,然后来描述镜头的运镜和画面当中事物的变化。运镜方面我们就描述固定镜头,而事物的运动方面,我们就描述两个人物向镜头招手, 当然大家在制作时如果有其他的创意,也可以如实的描述。现在点击生成一段时间后,视频就生成好了,来看一看效果如何吧。可以看到整体的视频表现还是非常自然的,除了像这样的和自己的动漫形象合照来生成 ai 视频之外,在刚刚的搜索结果中,我们也能看到很多 一些知名动漫形象合影的图片,那么像这样的 ai 图片又是如何生成的呢?其实也非常简单,我们依然是选择任意一个自己喜欢的合照的展现形式,在选择好之后,将提示词复制下来,回到生成界面,然后选择图像生成功能。在这个位置我们依然需要上传两张参考图, 待会生成时合照的第一个形象。至于第二张参考图,自然就是上传我们喜欢的知名动漫角色的形象,例如这里我们就以这个形象为例,在上传好之后,将刚刚复制的提示词粘贴过来,同样的需要检查一下在提示词中有没有需要删减的部分, 特别是对人物造型方面的描述,要符合当前我们所上传的图像造型。在对提示词进行了适当的修改之后,我们还需要根据描述的人物姿势来修改一下生成的比例, 像当前的姿势是俯视角度的站姿,所以相比于十六比九的横屏比例,我们选择竖屏比例会更加合适,这里就选择九比十六。下面点击生成一段时间后,图片就生成好了,可以看到整体的生成效果还是不错的,非常完整的保留了两个人物的特征,并且在美术风格上也进行了明显的区分。 不过通常我们使用极梦 ai 的 熔图功能,在画质上的表现可能会有一定程度的欠缺,可以看到人物的边缘会有些锋利,同时细看人物的面部也会存在一些失真现象。这是当前四点零模型在进行参考图升图时大概率会出现的问题。 在这里可以选择细节修复或者智能超清选项,将生成好的图片进行修复。这里我们选择智能超清选项,超清模式就选择为自动,参考程度同样保持默认,这里的放大倍数就选择四 k, 因为本身图片就是二 k 的。 下面点击生成一段时间后,图片就处理好了,可以看到经过智能超清后的图片在效果上会更胜一筹,原本失帧的部分都非常好的进行了修复。当然大家也可以通过后期的一些功能,例如局部重绘, 只是 comui 的 工作流对画面进行进一步的修复。我们今天生成的这些图片使用的提示词我已经整理好放在评论区置顶了,大家需要的话可以直接查看评论区的置顶。以上就是本期视频的全部内容,如果觉得对你有帮助,也不妨点赞、关注、支持一下,我们就下期视频再见!

ai 视频的兴亡,最强的视频模型,改变视频行业的 ai 漫剧最终的答案 等等等等,这就是网上赋予 gmail 二点零的评价。一个同时支持图片、音频和视频多维度参考,并且有自己创作想法的全新 ai 视频模型。这期视频我们就来看看它到底有多强。 首先我们进入季梦主页,在视频生成里面可以看到全新的 cds 二点零模型,目前我们只能在首尾帧和全能参考这两个功能上用到它 默认的参数设置。生成一段视频消耗三十个积分点,现在仅仅只能参考两张图片,切换到全能参考,这时候最多就可以同时上传九张图片进来, 消耗的积分依然不会增加,但如果我们上传进来的是视频,那么扣除的积分就会大幅度的提高了。 cds 二点零是一个能够混合参考的多模态模型,除了可以给他提供参考视频外,我们还能给他提供参考音频和对应的图片一起混合参考。 正是因为 cds 二点零有着这样一个交互参考的特性,因此它的玩法就非常丰富了,这些在教程的后面都会一一给大家演示。我们先来测试一下 cds 二点零锁尾针的功能, 这里给他上传一张女生在玩滑板的图片,进来,第一次输入,女生从滑台上冲下,完成一系列高难度的滑板动作。我们来看看生成的结果,可以看到 cds 二对复杂的动作和物理规律的表现,相比过往的视频模型是有着非常明显的提升的, 而且稳定性非常的高。我抽了四次卡,所有生成的素材都是可用的,完全没有出现姿态扭曲的情况。同样的贴纸,用之前的视频三点零模型来生成,对比一下可以看到动作就没有那么真实自然了,而且生成出来的女生样貌一致性保持度也没有 cds 二点零好。 另外, cds 二点零首尾针对细微的文字保持度也是有所加强的。例如这里就上传戏剧迷全面掌握 ai 视频雅诗兰黛广告案例中的两张图片进来, 输入对应的变化题页词,我们把原图放大来看一下,可以看到瓶身上的文字其实是非常清晰的,但由于字体太小了,这是非常不利于模型进行计算和裁样的。 案例中是用之前的三点零视频模型来制作,乍一看啊,没有什么问题,但如果放大拉近来看,这些细小的文字还是会有扭曲的情况出现。 这次我用 cds 二点零来对比测试了一下,很明显 cds 二点零对于这种细小的文字保持度会更好一些,有着更高的细节精度,这对 ai 产品广告制作来说啊,是一个很好的提升。 在缩尾帧功能里面,我们只能上传两张图片,那如果我们要做多张图片的串联过度,就可以切换到 cds 二点零最核心的全能参考功能, 这里面就可以直接给他上传最多十二个素材进来。例如这里给他上传四张图片,同样可以在这里实现多图缩尾帧串联的效果。现在我想通过这四张图片实现人物变成一只熊在咆哮。 在全能参考里面,我们要调用素材有两个方法,一是点击这边的引用参考按钮,这样啊,就可以选择对应的素材了。还有一个更快捷的方法,就是在贴纸里面直接输入 at 这个符号,那么就可以快速的弹出上传素材调用框, 这里选择第一个图片提示词输入,把它作为手针,镜头慢慢拉近人物突然抬起头,面部特征就参考图片二,接着大声的咆哮表情,参考图片三,最后变成一只熊。参考图片四,通过这样用提示词的方式把素材一关联起来, 那么我们就可以得到这样的效果了。 可以看到啊, cds 二点零的多图串联过度是非常丝滑顺畅的,完全看不到图片与图片之间过度刹车的问题,那么我们再来上点难度。 这次上传五张场景完全不一样的图片提示时可以随意一点,直接按出五张图片,然后补充到一镜到底。追踪镜头,从街头跟随跑步者上楼,穿过走廊,进入屋顶,最后俯瞰整个城市,那么我们就可以得到这样的效果了。 hustle all night, never gonna quit till i reach the top now, let's get it on hustle all all night, come on, hocus staying low with a tempo o bright come on, come on, come on! 整个过程是一气呵成的,对于不能衔接的画面, cds 二点零会自动地进行贴近转换,那么我们利用 cds 二点零的这个特性,现在制作产品广告是非常简单轻松的,我们只需要拍摄几张产品的图片,把它上传到季梦, 输入这样一段贴纸词,鞋子的侧面就参考图片二,鞋子的材质就参考图片三,要求鞋子和鞋盒各个细节都要展示出来,并配上大气的背景音乐点击生成,这样非常高清,各个细节都能清晰呈现的产品视频就生成出来了, 我们再来增加一点难度, cms 二点零现在虽然能够很好的在多图之间施划过度, 但如果我想进一步控制某个图片与图片之间的变化时长,应该怎么操作呢?这时候我们就可以用到 cds 二点零的 time 提示格式了。例如这里上传五张历代保时捷九幺幺的图片进来,如果直接交由 cds 二来过渡啊,那么它只会在不同车型之间过渡变化。 但现在我是希望每款车型都要在公路上先行驶一段时间,接着再进行过度变化,所以这时候就要用到太耐的方式来指定视频的变化效果。以图片一作为手帧, 零至一秒的画面,图片一的汽车在公路上高速行驶,一至三秒的画面,图片一的汽车变形拆解整合组装,变化成图片二,接着三至四秒画面,汽车又在公路上高速行驶。以此类推,一直把所有款式的图片串联起来, 把提示输入给 sims 二,点击生成,那么我们就可以得到这样的变化效果了。 前面我们测试的都是 cds 二点零图片之间的过度能力, 那么接下来我们就要测试一下 cds 二点零对提字词的理解和创造性了。例如这里上传一张蒙娜丽莎的图片进来,然后给它输入一系列非常复杂的提字词,要求它有心虚的表情。 先是左右瞄了一眼,然后从画框中弹出来,拿起台面上的可乐喝了一口,露出满足的表情。这时候传来脚步声,蒙娜丽莎立刻把可乐放回原位,保安没有发现,把可乐拿走了,最后画面出现对应的字幕和旁白, 来一口可乐,清爽直上头。可以看到整段提子词交代的人物表情细节和要完成的事项是非常非常多的,时间直接设置成最长的十五秒,点击生成预,似乎我们就得到这样的效果, 来一口可乐,清爽直上头, sax 二点零对我们所交代的所有细节几乎无一遗漏,毫无瑕疵的完整的呈现出来。一分钟就能制作出这样一段有配音的广告大片了, 这就是限阶段 ai 视频惊人的能力,就连影视巨峰的 team 也连夜给 sax 二加更的一段视频,所以我们必须跟紧时代的节奏,拥抱 ai, 学习 ai 和掌握 ai, 这样才不至于被时代所淘汰。 想系统性学习 ai 视频的同学,可以关注一下戏剧迷,全面掌握 ai 视频这一套系统课程。好,我们回到 cds 的 评测,接下来我们请出这次评测的主角,一个手拿着汉堡包的胖子。 在接下来的测试中,我们需要这个主角通过 cds 二完成一系列更加复杂的任务。把小胖的图片上传进来, 贴纸输入,让小胖手拿着汉堡包被一群人追逐。在逃跑的过程中,不小心碰到路边的水果摊,汉堡包丢在了地上,小胖迅速的把汉堡包捡起来,连滚带爬的继续逃跑。设置十二秒的生成时长,点击生成这样一段媲美好莱坞电影大片就生成出来了, 最令我惊喜的是, cds 二并不会像过往视频模型那样,即便时常设置到十五秒,它的各个分镜稳定性都是非常高的,这个效果就是直接一遍就生成出来了,完全不需要多次抽卡,非常的厉害。 对于 cds 二对体语词的超强理解能力,现在我们制作各种电影短片, ai 慢剧啊,都是非常简单的。例如同样上传我们的小胖图片进来,让他用图片中男人的形象, 然后通过刚刚给大家讲解的太耐题词格式,生成一段减肥励志电影破茧的预告片,规定每个时间段要表达的画面和内容,还可以指定小胖的说话内容,让他说出我不想再这样了。接着就是激昂的背景音乐,小胖开始疯狂的减肥,设置一下生成的分辨率, 时间,直接拉满十五秒,点击生成,那么我们就可以得到这样的画面了,难道我这辈子就只能这样了吗?我不想再这样了。 刚刚我们用的都是 cds 二图片参考功能, cds 的 视频参考啊,才是它最灵魂最核心的能力。例如这里我们从网上看到一段炫酷的视频,现在我们通过 cds 就 可以非常轻松地把它复刻出来了, 只需要把这段视频上传到 sims。 但需要注意的是啊,一旦我们用上它的视频参考能力,消耗的积分也会大幅度的提升。可以看到,如果生成十五秒的视频,需要消耗的积分就来到了恐怖的一百九十五点。 接着把我们想复刻的主体图片上传进来,贴时输入参考视频一的运镜和节奏,用图一的跑车来进行复刻,点击生成,那么瞬间同款视频效果就生成出来了。 所以合理利用好 cds 的 这个视频参考功能,我们就可以很轻松的制作出各种好莱坞导演级别唯美的片段出来了。 只需要在网上啊找到自己喜欢的广告片段,把它保存下来,导入到即梦,就可以让我们自己的角色模仿对应的拍摄手法,实现同款的效果。 想要更接地气一点,那么我们就可以找一段炫酷的舞蹈视频,把它上传给 cds, 让我们的主角小胖参考视频中的运镜和节奏,同时也参考视频中女子的跳舞动作,点击生成,这样小胖就丢掉手中的汉堡包,展示出优秀的舞蹈出来了。 刚刚展示的都是单视频单图片的参考方式,我们再来上点难度,直接用手机随手拍一个运镜的视频,向上向下,接着往左转,再往右看, 把这样的视频上传到 sims 作为参考,然后就可以给它上传多个场景的图片,贴时输入以图一作为手帧画面,参考视频的二下方的场景是图片。三, 接着把左右场景的画面都定义一下,点击生成,那么同款运镜第一人称的视频画面就生成出来了。 再来复杂一点的超高难度运镜,直接把这样一段把观众都转晕的电影视频上传到 cds, 主角依然是我们可爱的小胖。接着上传几张自己生成的酒店构造图,根据原视频的运镜方式,输入这样一段贴纸,点击生成,那么这样的好莱坞大片大家也能轻松地实现出来, 同理,我们给小胖添加几个坏人 npc 的 对手,拿着棒球棍和大扳手,并生成一个指定的背景图片,给他上传一段打斗的参考视频进来,让小胖模拟视频中的动作。这些动作参考片段可以是实拍的视频,也可以是三 d 建模,简单的骨骼姿态动作, samsung 二都是能够识别的,然后指定在图片三的场景中与图片二的黑衣人进行打斗。点击生成,这样灵活帅气的小胖打斗视频就生成出来了, 就连坏人是拿着扳手的工具都能非常稳定的还原出来。不得不惊叹,季梦这次推出的 samsung 二确实非常非常的强, 不过在测试的过程中,如果对于过于炫酷的快闪视频, samsung 的 参考能力就会有一定程度的下降和污染。 由这里把这段视频上传给 cds, 同样把小胖上传进来,并给他上传五套不同的衣服。图片要求小胖作为模特分别穿上图二至图六的衣服。参考视频一的运镜,每穿一套衣服都切换一个镜头,点击生成,可以看到生成的效果,总体来说还是不错的, 对于衣服也能够完美的穿上,但某些画面中会有原视频人物污染出现,如果想实现这样的快闪视频效果,那么就需要多抽抽卡了。 six times 二的出现也是 ai 慢剧制作者的福音,现在我们只需要提供这样一张九宫格的图片,也可以在图片上简单备注一下必要的注示,把它上传到 six times。 提示词非常简单,让它根据九宫格的图片说明制作出美式漫画风格的动画,那么我们就可以得到这样的效果了。 对于打斗动校啊,也是很多同学喜欢制作的,现在我们可以先生成两个人物角色的形象图, 然后再生成一张九宫格的打斗图片,直接上传到 cds, 提示输入图一的女生与图二的男生参考图三的九宫格漫画进行打斗,然后补充上一段通用的打斗提示,点击生成,那么我们就可以得到这样一段非常炫酷的打斗效果了, 而且人物一致性保值度是非常好的,男生衣服上的阿迪 logo 在 各个风景中都能很好的保留下来。 此外, cds 二还能对视频进行向前或者是向后延长处理,这个功能对视频创作也是非常有用的。 例如现在我只生成了一段五秒钟从咖啡杯上生长出甜甜圈的视频,我希望接着这个视频在后面继续进行创作,那么就可以把它上传到 cds 贴时输入,让它把视频延长十五秒。后面就是对应的 type n 格式描述,指定它在不同时间段生成的效果。 点击生成那么一段完整的瑞幸咖啡广告就在原来的基础上接着补充生成好了。 samsung 二还有一定的视频编辑和替换能力,利用这里给他上传一段李连杰打斗的参考视频,主角依然是我们的小胖,要求他把视频中右边的黑衣男人替换成图片中的胖子, 点击生成,可以看到前半段替换效果还是非常不错的,但由于参考视频本身是有多个分镜的,在后面的视频中胖子就不能替换出来了,所以更好的做法是对原视频进行对应的拆分,然后分段来替换。 另外在视频替换方面, cds 二很多时候会加入一些自己的想法,他不会原封不动的还原原视频,利用这里让他把视频中左边的白衣男人,也就是星爷替换成图片中的小胖, 点击生成,可以看到生成出来的效果,虽然星爷是被替换过来了,但画面中的动作和背景也有一定程度的改变,所以对于视频编辑替换方面啊, cds 二还有进步和改进的空间。 关于 cds 二,我们可以实现的创意玩法是非常多的,这几天我也是跑光了两个季梦会员的所有积分,进行了各种效果测试,才给大家带来了这个真实的使用评测视频。毫无疑问,在春节到来之前,季梦提前给我们准备了一个大大的新年礼物, 它在很多方面都已经是超越了索尼二和微软了,因此 cds 二点零也快速的出圈,已经火爆外网。确实, cds 二点零又把 ai 视频创作推向了一个全新的高度。

最近这几天都有很多人在问我, c 段子出来了以后,对我们个人 ip 行业会有什么样的一个影响?我们这些做个人 ip 的 是不是要完蛋了?我可以很负责任的告诉他,以前那些视频大模型出来的时候,我真的没觉得有啥,但这一次他的视频效果我看完以后, 我真的觉得拐点要来了,因为他不是说他好不好看的问题,而是他把视频从能用变成了导演级的可控。说白了我们就是张艺谋,我们就是 陈凯歌,我们能够创作出我们普通人的大片。你过去有没有发现,我们在做一条 ai 视频的时候,我们要做三件事情,第一,我们要写极其精确复杂的提示词,甚至有很多人用贩卖提示词为生。第二个我们要反复抽卡。第三个我们还要加上人工去反复的补救修改。 但是 c 件现在做一件非常可怕的事情,你只要给他一个故事线,他可以自己分镜,自己运行,自己配音,我给你算一笔账,你就知道冲击有多大了。 以前咱们拍一个镜头,如果想要精美,我们需要打光硬镜,我们需要有专业的现场调度的工作人员,我们还需要可能后期加工包装一个月的时间,整体的制作成本,一分钟的内容我们可能就要花几万块钱。而现在用 cds 来生成一个十五秒钟我们 可用的高清视频,我们的成本可能已经降到了六块钱、七块钱。以前 ai 视频它没有那么高的可用度,因为它的抽卡成功率好低。 你有没有发现你生产一条视频,你点那个生成之后,我们经常会出现我们生成的东西不是我们想要的东西,或者说镜头语言不连贯,声音不连贯, ai 人机感很强。 而今天我们发现抽卡成功率高达百分之八十以上,就意味着内容生产的可用度非常高,整个的高质量内容的生产变成工业流水线了。 而且 cds 它可以去调取视频、音频、图片、文字,并且它可以理解你要表达的意思是什么,保持人物的一致性,声音的一致性, 情节的一致性。这就意味着 ai 视频已经不再简单的是把咱们脑中的画面想象画出来,而是它自己在构建一个有情绪、有因果、有故事的真实的世界。这就已经超越了上一个时代 ai 视频的生产质量了,完全不是一个 level。 那现在回到我们个人 ip 这个行业,很多人担心说 cds 会不会击穿我们个人 ip 这个行业。我首先来明确回应大家,如果你的核心能力是拍摄、是剪辑、是运镜、是灯光,那 可能确实是的, cds 可能会让内容生产这件事情,让个人 ip 的 从业者再也赚不到钱。在 cds 强大的 ai 视频能力面前,我们会发现已经沦为一种最基础最基础的配置了,说白了就是以后人人都有。 你看一下 c 大 师的背后,他是四节跳动,运用了大量抖音的语料去训练这些视频。所以未来我觉得最冲击的第一个就是短视频行业,那个人 ip 到底现在还会剩下什么东西呢?什么样的人能在个人 ip 这个行业里面继续生存下去?第一个我认为审美会变得越来越重要, 我们说的审美不单单指的是好看,我们指的是品味,我们指的是内容审美、画面审美、场景审美,我们的审美是贯穿在咱们内容创作的方方面面当中的。 第二,我觉得 ai 它取代不了是人的判断力,因为我们都知道 ai 最难生产的就是观点和判断。 ai 它是没有观点的,它能整合海量信息, 但唯独它不可能替你下判断,不可能替你决策。当我们在拍摄视频的时候,观点判断 变成了视频的核心,而外在的包装都不再重要了,你需要有自己的主见。而判断力来源于哪里呢?来源于你自己丰富的人生阅历,来源于你自己的知识结构沉淀的体系,来源于你生长出来的血肉。所以这些东西都是 ai 无法取代人类的,也无法取代你的。 你在视频当中,你应该更大胆的、更勇敢的去告诉别人你的判断是什么。一个没有判断力的人,一个没有知识体系的人,我觉得未来他做 ip 的 成功概率会非常非常低, 所以你会发现中长视频一定是未来的一个大的发展方向,因为视频必须得中长化,才能体现人的知识体系和人的判断力。那种三十秒钟的短视频,你会发现 ai 比你做的好多了, 比你漂亮多了,比你精美多了。所以未来还有什么?我认为我们要去做中长视频,十分钟、十五分钟以上的中长视频,并且这些视频是有判断、有逻辑、有深度、有体系的。第三类,我觉得 ai 取代不了的是真情实感的故事, ai 是 没有感情的,但人类有 人类对另外一个人类的真情实感,永远会无数次的去感动,无数次的感觉到被连接。 ai 可以 生成一个极致完美的人,但他生成不了你失败的那一刻的心情和感受。 ai, 他 感受不到创业的艰难痛苦,他也感受不到被合伙人背刺,背负现金流的压力。 ai, 他 感受不到这些感情,他感受不到人类的亲情、友情。人是这个世界上最大的变量,而 ai 世界当中我们会发现人类的真情实感会是未来最宝贵的资产。而我现在对于所有正在做个人 ip 和想要做个人 ip 的 人,我只给你们一个建议。 现在 cds 的 出现已经明确在告诉我们,如果你是一个只靠包装出来的演员,你靠运镜,你 靠剪辑,你靠无数的手法去把你堆积起来,那这样的人做个人 ip 肯定会做不下去的。那么未来这个时代欢迎什么样的人来做个人 ip 呢?我认为有审美,有判断,有真实的故事阅历的人,那么你是最适合这个时代去做个人 ip 的 人。 我觉得我们生活在一个非常幸福,也是非常恐惧的时代,这个时代能把原来一百万成本作为一件事情变成一百块,所以整个世界的秩序正在崩塌,整个世界的成本结构也正在重新构建。整个内容行业正在经历一轮大的洗牌,有的人会在这轮洗牌当中掉落下去, 有的人会在这轮洗牌当中重新站起来。每年春节都是 ai 发布跨时代产品的一个时间段,所以春节咱们在刷着春晚的时候,同时也要关注到 ai 的 进步,关注到 ai 的 模型的发布, 因为你忽略的这些模型,你忽略的这些小的技术细节,有可能就成为颠覆你的行业,颠覆你业务的一个关键的拐点。我们必须得保持时刻的警醒,我们为这个伟大的时代兴奋、恐惧、站立。

来,仔细看,这只是一家普通餐厅菜单里的随机一页,而把它丢给了 ai 之后,一对长达十米的探店视频美食吃播就这样凭空的出现了。我只想说,游戏可能真的已经结束了。如果在座的各位有人不是那么的关注 ai 行业,那我必须要给你讲述一下,过去这几天到底发生了什么? 字节跳动,也就是抖音的母公司在二零二六年二月九号这天,发布了一款叫做 cdance 二点零的 ai 视频生成模型,而刚才你所看到的全部画面,没错,全都是由 cdance 二点零这一款 ai 模型来制作的。 而且关键是什么?是你不需要任何所谓的专业属性,比如说代码,比如说编制,比如说数学,无所谓,你只需要用自然语言去直接描述你想要的效果,就已经可以让 cdens 二点零开始为你工作了。而最终的效果如何?来,先别说话,我们一起看一段视频, 干嘛突然拍呀,丑死了啦!千万不要怀疑,这真不是实拍,而是完完全全由 cds 凭空捏造出来的一段纯 ai 视频,我只能送他一个字,无敌!在二零二三年的时候,威尔史密斯吃意大利面, ai 能够产出的视频就只能有这样的成果。 到了二零二四年,相同的提示词, ai 进步水平肉眼可见,但是呢,依然不够,二五年可以接受了,但是还做不到以假乱真。在懂行的人看来,这依然是一眼 ai。 而现在呢, cdens 二点零所产出来的内容质量,刚才各位也都看到了,无论是画面的真实性,还是面部特征,音色、口型,都几乎完 说这种划时代的产物绝对不过分。以往但凡是涉及到视频制作的工作,无论是电影、短剧、广告,还是企业宣传片,其实每一项归根到底都是重体力活。 为什么?因为你需要编剧,你需要导演,需要摄影、演员、后期特效,每一个环节都意味着时间、金钱。哎,遇上脾气不好难以相处的,打上一架,那都是家常便饭。而现在呢, ai 正在做的,就是把视频生产的核心成本,从庞大的人力与设备开支,转变为算力的编辑成本。 哎,什么意思?简单来讲,就是未来做一个视频,你所需要付出的成本就只剩下了电费,还有 ai 运行的算力费。 当制作门槛和运行成本降到足够低的时候,一个视频产能爆炸和全民创作的时代即将到来。对普通人来说,这是好消息吗? 我认为啊,一定是!为什么?因为在过去的生产关系当中,想象力、创造力其实是廉价的,而执行力是最昂贵的。这里我举个例子啊,流浪地球,流浪地球这个故事其实是刘慈新在两千年的时候写的一个两万字中篇小说。在被郭凡导演成功的影视化之前, 这个故事其实是没有任何声响,也没有太多影响力。但是呢,拍出来,放出来,摆上了大荧幕之后爆了,这说明什么?说明最值钱的是把想象力、创造力给成功落地的那个执行力。 而未来,当 ai 视频模型真的发展到了白菜价的时候,嘿,你不再需要资本,不再需要组建团队,不再需要花费重金到好莱坞去求学,哪怕是普通人,只需要一个滚烫的灵魂,一个不甘平庸的大脑,一样可以做出好东西,好内容。 就像是这一段视频,强烈的漫画风格,流畅的打斗特效,以及富有创造力的动作设计,各位可以思考一下啊。如果是在职场当中,你需要找人,找公司来制作如此等级的动画短片,嘿,你需要付出的费用大概是什么水平,以及内容产出的时间需要等多 cds 二点零对于这一段画面的制作成本是六十美元,换算成人民币四百块。四百块,你让大学生给你做,他做不出 出这个水平,哎,做的是这个水平的四百块,你给他报个价,看看挨打不挨打。所以我的看法很简单,技术的升级一定是利好普通人,对于有头脑有创意有想法的人来说,起飞了,不信你可以看看。就这两天高质量的 ai 短剧 已经是拳王满天飞了,而 cd 二点零只是推开了一扇门,在门后是一个人人都是导演,人人都是创作者的时代,一切全凭本事。

为什么好莱坞和迪士尼对 cds 反应这么强烈?那是因为这个是真动摇西方文化霸权和软实力的工具。 那西方的软实力到底是什么?那不是枪炮,不是航母,不是制裁,那是靠文化审美、价值观、生活方式、媒体趋势, 让你主动羡慕,主动认同,主动模仿,甚至主动替他辩护,他的载体很日常。好莱坞电影、美剧,欧美音乐名校神话、精英趣事,还有被包装过的所谓自由平等、精致秩序。 西方软实力的本质就是话语权加审美霸权加价值观垄断,他不强迫你,他只是定义标准,然后让你打心底觉得我向往的才是最好的,是高级的是对的啊,过去几十年的全球信息渠道几乎被西方垄断, c n n b b c, 好 莱坞欧美社交平台,他们给你看的是干净的街道,精致的生活,法治的画面,浪漫的剧情啊,不会给你看阶级固化、种子矛盾,财富撕裂、街头乱象,政治急化和底层的真实生活。 很多没有出过国的人,向往的其实不是真实的西方,而是西方精心筛选美化包装出来的宣传形象。这个就是软实力最厉害的地方,你以为你在追求理想,其实你是在消费他的趋势。 所以这就是 tiktok 厉害的地方。 tiktok 是 渠道,平权以前世界的声音是西方说,全世界听啊,西方媒体决定,你看什么信什么。 tiktok 是 谁都能拍到,全世界都能看见亚菲拉的普通人第一次不用西方记者代言,自己拍自己的生活,自己的文化,自己的真相。 cds 是 创作工具,平权,以前能做高质量视频,讲好故事的工具是握在好莱坞啊,西方软件西方的 ai 模型的手里,连续式模板都是西方定义的。 c 段子让普通人也能做电影机视频,东方文化中国故事能被精准表达,非西方创造者不用再套用西方的模板啊。工具在手,蓄势自由。 所以 tiktok 加上 c 段子是把滤镜砸碎,让世界不再只看到西方筛选的宣传,而是看到真正多元真实不被篡改的人间。嗯,这就是蓄势平权,也是我们真正意义上的文化破局。

我觉得 cd 和 z 是非常重要的一点,就是它采取了统一的这种音视频理解生成的架构来 做这个视频的这样一个生成。通过这种方式的话,其实对于用户来说,他可以通过参考文字、参考图片、参考音频、参考视频这种多模态的方式来灵活的来组合。而且模型呢,对这种多模态的素材都会有很好的理解,能够理解你们的镜头语言, 理解你的构图,能够理解你们的这种指令,然后最后去创造出这种呃丰富的和交互的这种视频的这个作品。其实他对镜头语言,对这个镜头的调度,他是做了非常多的这种学习,你可以认为他就是一个非常聪明的导演,只要把你的需求给大家提供出去,哎,他其实就是可以 有一个很好的结果去把这个镜头给呈现出来,所以这样就大幅的降低这个创作的这个门槛。 基本上绝大部分和视频相关的领域,你包括说影视的制作,短剧的制作等等。那这块武器包括已经在和这个尚美影还有贾德克导演做一些合作,特别是现在粤语的广告现在以视频化的方式来呈现,也包括我们看到他在一些教育的场景 做一些科普的视频,让学生们能更好的去理解各种支点。我们可以看到就是确实是 c 档,是通过更好的技术大幅的降低了这个影视创作的成本。我们可以看到在各行各业都会有很多的这种应用, 这市场响应特别强烈,我们看到每天在就很多用户有很多很 好的创意,他通过适当的实现,然后在媒体上来这个分享,我自己家里就创了好几个积梦的高级会员,每天也有很多企业来向火山这边来咨询,那目前的话我们其实已经在火山上线了体验中心,可以让企业来通过体验中心来看这个模型的效果,然后正式的 api 我们也会在春天来了之后正式的 对我来推出。有很多这个外国的朋友,他自带翻译软件来学习怎么用吉梦,怎么用东宝。对来来创作这个视频我觉得也非常有意思, 我们很早的时候就和导演组在商讨怎么把我们的各种模型,特别是 c dance 应用在总台春晚的各个节目里面去。从这个意义上也可以说春晚其实是 c dance 二点零的第一个客户。其实春晚一直在探索是更好的 把科技和这个东方还有传统的文化美学结合在一起,那刚好 cdons 二点零其实他在训练阶段就用了大量的这种东方美学的这样的这种素材,而且呢他也在这种 镜头语言的控制,在这种复杂的这种交互呈现上其实也有非常强的能力,所以刚好我能很好的满足导演组的这个视觉的创意,所以我们也希望是能够在今年的春晚上通过西藏能给大家带来更好的体验。