粉丝19.9万获赞115.2万

大家应该都发现了, c 胆三点零现在不让上传真人图片了,很多电商老板都着急了。其实这个问题非常简单,收藏我这条视频仔细听好了。其实你可以用 jimmy 的 三,让他给你写出一个非常符合这个真人的提示词,比如说细致到瞳孔、肤色、发色、身形等等的这些细节,让他给 你写出一个非常完善的提示词。然后你把这个提示词给到 nano banana pro, 让它去生成一个跟这个真人差不多的图片,你再把这个图片给到 season 二点零去生成视频就可以了。这个方法我们已经测试过了,非常好用,赶快去试试吧!

这些这些这些 都是我用极梦 synx 二点零生成的效果。嗨,我是 ai 先生,我也算是一个干了整整十年的影视编导了哈,所以我花了整整两天时间,光充值就充了一千多,把极梦所有的功能案例以及网上各种神奇的用法 全部都测试了一遍,就只为了帮大家搞清楚一件事情, sims 二点零是不是 ai 界的 deepsea? 它真的有网上吹的那么强吗?以及它有哪些神奇的用法,并对咱们普通人有何影响?这应该是全网最完整的吉梦 sims 二点零评测解析视频, 视频有点长啊,但全都是干货,并且我把以下全部的测试的使用技巧,案例、提日词素材全部都整理到了线上文档,这么干的视频要个三连不过分吧? ok, 家人们坐好准备发车, 想要看懂 sims 二点零对于 ai 视频是否有颠覆意义,是不是 ai 界的 deepsea, 咱们要先搞清楚整个 ai 视频行业的发展脉络,那咱们就先花点时间来梳理一下啊。其实早在二零二二年菜的 gpd 刚刚震撼全球的时候啊, 就已经有了 ai 视频的概念了,但还没有一个完整的产品。甚至当时我们为了跟风啊,还把实拍的视频调个色,加个风格化, 伪装成 ai 视频。视频行业的朋友应该知道我在说什么哈。直到二零二四年, oppo ai 的 ai 视频模型 sorry 一 点零上线,这才一下子拉开了 ai 视频的大幕,尤其是这几个 ai 画面,不知道大家还有没有印象啊,当时确实把我给震撼到了。之后呢,国内的厂商也快速跟进, 快手的可灵、抖音的极梦也逐渐成为了咱们国内使用频次最高的两个 ai 模型,毕竟国外的 sora 和双威啊, 封门槛太高了,论性价比啊,还得是咱们国内的软件更懂咱们国内的市场。但即便是发展了两年,各种 ai 视频软件的顶配还是有几个核心的痛点, ai 视频一直没办法解决。第一个,人物不真实,虽然在质感上已经有了非常大的突破,但是很多人物的动作或者表情还 还是不太符合现实的物理规律。而第二个呢,人物缺乏一致性,生成剧情和故事的时候往往需要多个镜头画面,但这个时候主要人物就很难保持长的一样。第三,生成的结果不可控,就是每次生成都需要开盲盒,俗称抽卡,又花钱又浪费时间。那么这个极梦的 sims 二点零解决这个问题了吗? 其实啊,目前几个顶级的 ai 软件,他们的攻克方向各有不同,就比如说骚扰二,在技术上其实领先了很多,它采用的是 trance 八八的架构和隐士物理引擎,尽可能的还原物理规律,让画面的人物更真实。而可灵呢,则是采取了小步快跑的策略,迭代了很多 的版本。现在的三点零版本呢,是主打的人物动作的精细化。我不知道大家有没有印象,可灵之前有一个画笔的功能,轻轻一画人物这一块确实也沉淀了很多年了。当, 当然,这也和他背靠快手庞大的短视频美资库有关系。快手上什么最多呢?还不就是跳舞直播的小哥哥小姐姐比较多吗?那抖音呢?刚好相反,抖音这几年主打的是短剧或者是精选视频, 所以极梦主攻的方向就是在镜头的故事性和人物的一致性上。哎,那可能有朋友要问了,这个极梦和这个 sims 到底有什么关系?其实啊,这俩还真的不太一样, 因为极梦 ai 呢,它是属于字节推出的 ai 视频创作平台,它其实是归属在剪映的开发团队,也就是深圳的脸萌。而这个 c 震四呢,其实是字节实验室里自研的底层视频生成模型。 其实这俩并不能完全等同于一个东西,但两个产品呢,实际上是深度绑定的。这个 c 震四呢,不对外开放任何接口,也不允许第三方调用。 如果大家想要使用的话,只能在极梦平台豆包 app 和小云雀 app 以及火山引擎的这个 app 上来进行 使用。而 synx 二零二五年初上线之后呢,一共也就更新了两个半版本,到最近的二点零版本,能有这么夸张的成绩,进步速度啊,也算是相当快了。咱们在用之前呢,先来重点介绍一下这个 synx 二点零的核心的技术优势是什么? 它是采用了双分支扩散变换器的模式,视觉分支啊,是基于三 d 卷积加川字发嘛架构处理时空信息,生成帧序列。而音频分支呢,则是基于波形扩散加川字发嘛架构来处理声音,频谱生成顿化和音效。 说白了呢,就是相比于传统的 ai 视频,先拍画面再配音,我这个画面和音频呢,同时生成,就像有一个剧组一样,导演在这里想镜头,而音效是同时配声音,所以这个镜头的效果呢,就大大提升了。哎,那 这样的话,未来是不是还有可能是三分之或者四分之?编剧来想剧情,导演想画面,摄影师来想镜头,而演员来想表演, 甚至音效师再来想声音。哇,但这样想想, ai 电影还不马上就要来了, ok, 说了这么多啊,相信大家对于整个 ai 行业的发展脉络和痛点,以及吉梦森纳斯二点零的优势都了解的七七八八了哈,吹,都吹了这么多了,我也没收什么钱,那究竟好不好用?是骡子是马,咱们必须拉出来遛一遛。 ok, 我 现在就给大家实际演示一下这个极梦怎么使用哈。目前呢,这个 cns 呢,是只支持字节旗下的平台可以使用,主流的呢,就是这个极梦 ai 和小云雀, 这俩呢,都有 app 和网站,如果简单一点呢,就可以用 app, 那 复杂一点呢,我建议大家还是用网站好一点。那这两个软件有什么区别呢?就这个极梦呢,它是主站,它的功能会非常的全,但是呢,因为用的人也很多,所以生成一次呢,要等很长时间。那个小云雀啊,我自己实测,我就发现它生成的快很多, 当然它的功能不是很全,如果你想上传参考视频,它就不行。对,所以可能按你自己的需求来使用哈。 但是用过的朋友应该都知道啊,这两个软件有一个最致命的缺点,就是这个积分太贵了,每天一几百个积分也就只能用两三次。那今天大家算是来着了啊,我给大家分享一个我的秘密基地,随便升,不收费, 就是这个字节旗下的内侧中心火山方舟,大家可以看一下,你看这就是 sims 二点零,并且所有的功能都可以免费使用。但是既然是测试啊,人家肯定也有一个问题,就是他只能支持首尾帧,目前的参考视频目前还不支持测试。 ok, 我 们接下来就用极梦官网给大家来演示啊。 进来之后呢,大家可以先点击左上方的这个灵感,打开这个输入框,在下面呢,大家可以先点击左上方的这个灵感,打开这个输入框,在下面呢,大家可以先点击左上方的二点零。 当然可能有同学要问了,哎,我的这个打开怎么没有这个 c c 的 二点零,最高只有到一点五,那实际上可能你是一个新号, 你可以选择左下方的这个一元会员,先白嫖个七天啊,然后就可以使用这个 c c 的 二点零了。那接下来呢,我们还可以选择它的功能,比如说全能参考或者手尾针,这两个用的比较多啊, 然后也可以选择画幅以及选择时间,那有一个点大家要注意这个,每一次你的生成需求,他都会评估你的积分,这个积分大概是三十多分,所以有些新人朋友啊,就是一开始还没想好怎么升,就胡乱的提交,导致这个积分都快用完了,还没有生成想要的片子, 所以大家一定要小心。大家其实也不用担心啊,我会把我接下来所有测试的这个素材提制词,包括成片全部都放到我的教程里,大家可以模仿着来使用,让大家少走弯路啊,把这个积分用在刀刃上 哦,我自己其实也摸索出了一些白嫖积分的野路子,等一下我再给大家讲。 ok, 我 们接下来就围绕 c n s 二点零的核心功能,从不同的使用场景有简入深的来带大家测试一下。 第一层呢,我们先来测试一下这个 c n s 主打的这个人物移植性和运镜效果,为了这个保证这个真实性呢,我还同时邀请了两位对比选手, 一个呢是这个全球遥遥领先的这个骚扰二,另一个呢是极梦的一生之敌可灵。三,第一题呢,我们就简单一点,我找了一张图片, 这个大家应该都不陌生啊,这个是全游里面雪诺对阵千军万马的画面,大家都知道后面的剧情啊,我们让 ai 来续写一个不同的剧情,怎么样?我先上传了一张图片,提示词呢是镜头跟随着男的的男子,然后一群骑士冲过来,他转身要跑, 然后镜头侧拍,后边的马冲过来把他顶翻。最后一个镜头呢,是镜头自上而下的俯拍,他被顶上了天空。 ok, 我 把这个提示词发给了吉梦以及包括可灵。大家看看啊,我们选的是三点零版本,以及发给了这个三二二, 因为为了公平起价,我们每个平台只给一次升成机会,来看一下他们的能力。 ok, 我 们先来看一下吉梦的效果, 这个镜头跟随运动还是非常不错的,被顶翻的感觉也很真实,真的有点像拳游里的画面啊。 ok, 我 们再来看一下,可怜可怜,这个人物被撞的怎么这么窝囊呀! ok, 我 们看一下。 sorry, 哇, sorry, 这个人物的质感明显要好很多,但是最后怎么飞起来了,有点离谱哎,大家发现一个问题没有,我给到三个平台的都是一个人物的背身,可玲和 sorry 其实都没有认出来,只有吉梦认出来这是全友里面的女男主角雪诺。 哇,这可能就是 tim 担心的那个问题,大数据快速解锁就可以知道这个人到底长什么样子。 ok, 吉梦,可灵、 sorry 分 别是一二三,大家觉得哪个好一点,可以打个分。接下来呢,我们再用它的首尾针来测试生成一下画面,这也是可灵的拿手好戏了,我们看一下吉梦能不能反超我的手针呢是一个小米汽车的图片,尾针呢是一个变形金刚, 奇石呢是汽车飞快的驶过,然后冲出悬崖,在空中变成了机器人。然后镜头呢是环绕拍摄,最后机器人落在地上,整个的风格呢是这个末日沙丘风。来,我们同时看一下,两个视频的效果 还是挺明显的,积木这个镜头环绕就非常有感觉,可怜的就在死满。 ok, 左和右大家觉得哪个好一点呢?第二层咱们再来测试一下他的仿拍视频的能力,这个就复杂很多了啊,需要调用到图片、视频以及音频,我就不让另外两个小手参与了, 我先找了一个抖音的热门音乐。这个银龙鱼大家应该也不陌生啊,我又找了五个动物来替换掉视频中的五个舞蹈演员, 来我们看一下生成的效果,还是挺真的。哇,这两个老哥怎么没有去掉啊,还有那个狮子在旁边摸鱼哎,不过大家看到没有,他整个的镜头运动和原视频非常接近,并且甚至是黑夜的噪点他都还原出来了, 真的不错啊,我今天这个功能真的急么?可以再深更一下,感觉以后的抖音热榜全部都是 ai 生成的视频了。哎,那如果想要仿照更专业的 t v c 广告呢? 那这个时候我们的人物啊,就要更精细一些了。我先让娜娜补,娜娜帮我生成了一个模特的三式图,然后再找了一个苹果的经典广告题,日词呢,就是把视频中的女主角换成男主,把手机换成板砖,然后完全模仿原视频的画面意境和人物动作。来我们看一下效果, 板砖有点突兀,但这个质感还不错,哎,最后怎么又切成手机了?这个女生还出现了有点小 bug, 不 过几分钟就能生成一个这样质感的广告,已经很牛了,想要入局广告行业的同学们可真的要三思了。 ok, 前面呢还都是小顺牛刀。第三层,咱们直接让他来拍个电影怎么样?要玩就玩最大的 黑之王悟空。不是前两天刚发了那个钟馗的 cg 短片吗?让我有点好奇呢,就是他最后被蒙面的那个人到底是谁?结束的时候不是戛然而止了吗?没关系,我们让 ai 帮忙去续拍一下。这个准备的环节就比较复杂了,我给大家简单描述一下。就是我先让拆的 gpd 帮我构建了一下接下来的剧情以及分镜头脚本, 然后再让那那不单的生成每一帧的画面,最后把这些图片全部都上传到节目的这里。其实词呢,也相对说复杂一点,就是零到八秒呢,我先描述在昏暗的客栈里,有一个人们套着头套,然后八到十秒,孙悟空和钟馗打起来了, 十一到十五秒,孙悟空直接冲上了钟馗的眼睛,大概这样的一个剧情。哇,我这条真的等了好久,来我们看一下效果,还原度还是挺高的, 帅啊,大家觉得怎么样?这个镜头质感是不是已经可以在黑神话悟空里以假乱真了? 不过就是时间有点赶啊,中间有点小 bug, 大家见谅啊。哦,如果大家在生成的时候积分不够用的话,我给大家推荐几种我常用的方法。第一个呢,就是多注册几个手机号,新号啊,可以白嫖,吃点低保,又或者是开个一元会员都可以用。 那又或者呢,是参加一下集梦的这种拉新活动,或者去海鲜市场淘一淘?但这个呢,就不好明说了,我把我过去踩过的坑或者觉得比较有用的都放到文档上了,大家可以按需来使用。 不过呢,大家注意到没有,我整个的测试呢,从单个的运动镜头到访拍视频,再到组合起来讲电影故事,一整套流程下来,其实就是一个完整的电影制作流程。 所以啊,你看似这个 cds 二点零只是对运动镜头的一个阶段性的升级,但它实际上呢,是突破了整个 ai 生成视频的瓶颈,让 ai 彻底颠覆影视行业更近了一步,这也是让 tim 都如此惊讶的真正原因。能看到这里的朋友呢,相信对于 ai 视频都非常的感兴趣,也有一定的见解了哈。 我呢也想说几句我自己的真心话,如果一定要评价或者总结的话,说实话,这个 c c 四二点零的升级啊,其实并没有让我那么觉得惊艳,我也不想无脑的吹它,它确实在人物一致性和运动镜头上有了非常大的改变,但如果以一个电影画面的标准来看的话,它差的还很 远。但其实我也看到了希望。你想啊, ai 视频从二零二四年问世到现在也就两年时间,已经能做到这种效果了,如果再给它两年呢?再给它五年, 咱们等得起,他又能给我们多少惊喜呢?也许到未来的某一天,我们就不需要再等待了,那些易难平的大作,全运的游戏,三体魔界, 咱们都可以用 ai 来实现,各位会期待哪一步呢?好了,这就是本期视频的全部内容了,感谢点赞,这会让视频推荐给更多的人。如果需要上述的所有的案例、提示词以及教程,欢迎留言,我免费送到。在这里呢,祝大家二零二六年新年快乐!

昨天还在狂吹极梦的 sedans 二点零,今天官方直接封杀真人素材,一堆人急得直跺脚。但对我们来说,这根本不是问题。换个思路, 既然真人素材不能用,那就用 gamemini 把真人拆解成提示词,再扔给 nano banana pro, 生成一张神似真人的图,最后丢给极梦 sedans 二点零完美闭环。真不懂你们在纠结啥,快来试试吧!

emotion level zero confirm now, execute protocol omega。 朋友们,这次真的不是科技圈在自嗨了,字节跳动的 cds 二点零直接把资本市场都给点着了。 就在今天早盘, a 股影视传媒板块直接掀起涨停潮,中文在线、光线传媒直接二十厘米涨停,自接概念股排队封板。在黄牛圈里,这个还在小范围内测的模板价格甚至被炒出了高价。大家都在疯狂的求邀请码, 为什么?因为市场预期他能给影视行业带来巨大的降本增效。但就在大家狂欢的时候,官方突然踩了一脚急刹车, 真人输入给禁了。资本市场之所以这么疯狂,是因为这两天海内外大佬的测评证明了它不仅是强,而且强的像个导演。影视巨峰的 team 发现这个 ai 它懂试听语言, 你给他一个动作,他会自动帮你切分镜,切特写,打斗有物理反馈,甚至连音效都能自动的配好。这哪是生成视频啊,简直就是把摄像、灯光、剪辑你音的活他全给干了。海外的一位博主也测出来,他的控制力简直可怕, 人物三百六十度转身,不崩坏,没有扭曲,没有变形,他甚至能随意的篡改剧情,让黑帮大佬手里的酒杯瞬间变成薯片,光影和微表情纹丝不动。 这就是为什么股市会涨,因为大家看到了未来拍电影可能真的不需要那么多钱和人了,但能力越强,风险越失控。 之所以官方突然紧急调整,是因为我们发现这个 ai 他 知道的太多了。影视巨峰在测试的时候,发现一个非常恐怖的细节,他只上传了一张照片,没有给声音样板, ai 竟然自动生成了一个他本人的音色,甚至给他一张建筑物正面照, ai 能脑补出背面的样子,而且是对的。这说明什么?说明他认识我们,而且他学了海量的视频数据,这 直接引发了巨大的信任危机。如果任何人拿一张你的照片,能生成一段你从来没有做过的,连声音都一模一样的视频,是不是还挺恐怖的? 面对这种失控的风险,字节跳动的反应还是非常快的。最新的消息是,平台正在进行紧急优化,目前已经暂不支持输入真人的图片或者是视频作为主体参考了。为了保障创作环境的健康,这个全知全能的上帝视角被暂停封印了。 这两天,我们见证了 ai 的 高光时刻,也摸到了它的轮理红线 c 弹子二点零,证明了技术已经成熟到可以颠覆行业,但是也提醒我们, 在没有护栏的高速公路上狂奔是会翻车的。对于这次紧急调整,你觉得是保护了我们,还是限制了技术?咱们评论区一起聊聊,关注我,在 ai 的 浪潮里,咱们保持清醒!

朋友们,你敢相信吗?现在全世界都在疯传 c 代斯二点零,电影行业的天塌了,连好莱坞都坐不住了。以前咱们总担心美国在 ai 上领先一大截,可这次中国技术直接弯道超车,干了一件让全世界都震惊的事,用一句话就能拍出电影级别的视频。 过去 ai 做的视频,一眼假,镜头乱晃,人物僵硬,嘴型对不上,声音剪辑更是东拼西凑。可 c 代斯二点零完全不同,它能自动安排专业级的镜头,运动、推拉、摇移一气呵成,人物表情自然, 全程不变脸,画面流畅的像真人拍摄。有位学了七年电影制作的博主看完直摇头,我现在感觉百分之九十的知识都白学了,非常化!悟空的制作人冯继也忍不住点赞,称他是当前地表最强的视频生成模型, 还特别庆幸这项技术来自中国。还有美国科技公司创始人直言,中美 ai 视频技术的差距已经大到有些难堪,中国这些模型看起来比美国领先了整整两代。甚至有网友惊呼,好莱坞要完蛋了,以前几百万美元才能拍出的镜头,现在只要付得起电费就能做出来。更神奇的是他的导演思维, 以前 ai 不 懂故事节奏,现在它能根据你的描述自动安排镜头,怎么推怎么拉怎么切换,就像有个经验丰富的导演在背后操刀,而且人物全程不崩裂,不会上一秒是帅哥,下一秒变路人,这对影视行业来说简直是颠覆性的突破。声音方面也升级到吓人, 以前 ai 配音像机器人,音效还得人工一帧一帧贴,现在 cds 的 二点零能做到文图、生化四位一体。 你写一段文字,它自动生成画面、配乐、环境音,连口型都精准对上,误差不到一毫秒。最绝的是,它甚至支持八种语言,切换起来毫无违和感。 最让人头皮发麻的功能是看脸出声。你只上传一张人脸照片,不用录任何声音, ai 就 能猜出这张脸该配什么声音。有位叫 tim 的 视频博主,试了下,只传了自己的照片,结果生成的视频里说话的声音居然就是他本人。他自己都惊了,他怎么知道我长这样?声音就得是这样的? 因为这个功能太真实,平台怕被滥用,干脆暂时关掉了,连开发者自己都怕了,你说厉害不厉害?还有更夸张的,你给一张建筑正面照, 它能三百六十度转着拍,还原出背面的样子。你画个漫画草稿,它能变成动画电影。你想把网文改成短视频,一键搞定,一个人一台电脑干翻过去一个几十人的影视团队,真不是吹牛,这已经不是简单的技术进步,而是一场影视行业的大地震。 以前只有大公司才拍得起大片,现在普通人也能轻松做出好莱坞级别的作品。从通一千问帮你点奶茶,到 cds 二点零,让你一句话拍大片, ai 正在把创意的门槛彻底打碎。从 deep seek 打破文字模型的垄断,到 cds 二点零在视频领域正面应当海外巨头。 当国产 ai 站上世界之巅,最大的受益者其实是每一个像你我这样充满创意的普通人。未来拼的不再是谁的设备更贵,谁的脑洞更大,谁的故事更打动人? 无论你是想记录生活的普通人,还是怀揣导演梦的创作者,好莱坞级别的特效工厂现在已经为你二十四小时待命。 ai 是 最强的画笔,而你就是那个握笔的灵魂画手。 那么问题来了,你觉得 ai 未来会取代导演和剪辑师吗?如果你有这样一个魔法工具,最想拍什么样的视频?我是率先在全球提出归机生命与归机文明的归机智能创始人司马华鹏,关注我,每天传播正能量,带你解锁更多银河科技!

你看我的会员还有到二零二七年呢,我,啊,我没有 cds 二点零啊,兄弟们,我为什么呀? 啊?我退出呢,兄弟们,你看啊,我一退出,退出之后我给你们看看神奇的东西,哎,它有了, 什么意思?这个做局被资本做局了,我充钱没有,但是不充钱的有 什么意思?我再登一下, 好,我进来了,还是没有,你看,就没了,就没有了,他的 cds 二点零就没了。啊, 为什么呀? 图片五点零 preview, 这个不也是新模型吗? 视频呢?视频就没有,就没有 cds 二点零,我是会员啊, 我退出了之后我不是会员,他居然冒出来 cds 二点零,我现在是会员了,我还充了钱呢,我没有 cds 二点零。为什么? 什么意思 啊?这什么情况啊?兄弟们?这钱白充了,我被资本做局了,兄弟们。 我靠,你看,我又退出了,退出之后 它又有了,你看 cds 二点零,你看,为什么? 为什么不给我用?我登录之后就没有,我犯了天条吗?难道我什么意思?这个啊, 我视频生成就是没有,就不给我用,为什么?我犯了天条不限时全员免费吗?什么意思啊?我还充了会员啊,这个地方写了应该给我用 cds 二点零模型,但是他就不给我用, 坏了。兄弟们,我是全网唯一一个还没有用上 cds 二点零的,我还充了会员,被资本做绝了,兄弟们。

ai 圈又炸了,各大科技博主为他连夜制作出视频,他就是极梦 cds 二点零。这一版本的出现大幅降低创作门槛,这是我仅花一分钟做出来的视频, 根本不用去理解那些专业的提示词,你只要像日常聊天一样说出需求,他就能精准理解,并在此基础上优化。他是从未接触过 ai 的 小白,也能轻松上手制作 极梦 cds 二点零将会震惊整个 ai 行业, ai 漫剧等相关行业将迎来爆发期,加上各大平台对 ai 漫剧的扶持,这是普通人入局的最佳时刻。专属 ai 提示词、免费工具包和入门课程我已经全部整理完毕, 感兴趣的六六六,话不多说,咱们马上开始实操。大家好呀!相信今天不少小伙伴都在体验极梦二点零新推出的视频模型,它的实力大家有目共睹,上线后就成为了 ai 创作圈的焦点,不过还有些小伙伴没来得及去尝试,对它一无所知。 不用着急,这期视频我分三个模块,详细讲解它的用法、能力和福利,保证大家看完就能上手,轻松玩转这个强大的视频工具。 一个模块,实测模型能力。我会分享今天测试的各类案例,包括人物、场景等不同风格,说明每一个案例的提示词和生成思路, 让大家清楚的知道它优势的适用场景,避免浪费使用次数。第二个模块,教大家白嫖和低成本使用技巧,这是大家最关心的, 我会把所有使用方法分享给大家,让大家不用多花钱就能进行体验。第三个模块,免费分享视频生成模板、分析图、提示词和生成方案都有,大家直接套用, 零门槛就能出优质视频。最基础的玩法就是人物三式图搭配提示词生成视频能严格控制每个细节,开头的演示片段大家也看到了,画面清晰,动作流畅,还原度高,就是其他模型无法实现的。而且生成的速度快,几十秒就能出一个十五秒的视频。 我的提示词模板会免费分享,大家复制、粘贴、替换核心参数,就能快速生成自己想要的效果,不用费心研究提示词写法。 第二个趣味玩法,截图上传小说内容生成视频,不管是网络小说还是自己写的文字截图,上传到 cds 全能参考二点零,它就会自动解析文字,生成对应的视频片段,把文字格式化,特别有意思。这里提醒大家,小说的内容较长, 它会提炼核心部分生成十五秒的视频,重点是让大家看到它的多模态能力。内置智能体识别图片文字,这也是它强大的关键。和 nasa 一 样,先处理需求,再生成效果更精准。 第三个玩法,用分镜图生成视频,适合想创作完整视频的小伙伴。先用 nano banana 生成宫格人物分镜图,标注好动作和场景,上传后极梦二点零会完美还原分镜细节,搭配提日词,补充光影画面风格即可。提日词模组我会整理好免费提供, 新手也能轻松操作。关于使用方法和白嫖技巧,一定要登录极梦网页版,手机 app 暂时没有这个功能。 入后找到视频生成入口,就能进入二点零版本,首次注册付费的小伙伴有一元开通的福利,非常划算,一元能获得一千多积分,能生成十多次视频,足够新手练手尝试所有玩法。操作完成后,上传素材,输入提示词,就能快速生成视频。 最后, ai 视频教程 cds 二点零使用手册和所有模板,大家评论区或者私信就能领取。如果有任何的问题都可以留言,我会第一时间回复,别忘了关注我,后续分享更多玩法和技巧。这期视频就到这里,大家赶紧去上手体验吧!

美国硅谷最不想承认的一件事终于发生了,当奥特曼还在满世界筹集七万亿美金想把地球变成算力工厂的时候,中国人用 deep sea 和 cds 扯下了暴力堆算力的折旧布。 其实很多人到现在都还不理解,就为什么我们能用硅谷几十分之一的资源做出同级别的效果,这背后呢,其实是一个他们不愿意对外说的真相。就科技,他很烧钱,但在科技圈烧钱多,他并不代表技术一定强,有时候呢,他只是为了掩盖算法层面的平庸。 那以前呢,我们总觉得中国 ai 是 在追赶,但实际啊,从去年的 deepsea 开始呢,这个逻辑就开始变了,我们是在有限的资源里逼出了最极致的脑效比,那是第一次,让那些习惯了靠算力垄断收割市场的巨头们感到了恐惧。 有人说这是草根奇迹,但我更愿意称之为智力对暴力的降维打击。那如果说 deepsea 它只是让硅谷感到了压力,那字节跳动最近放出这个 cds 二点零啊,则是直接给好莱坞影视剪辑行业送上了一份退休预告啊。 那二月十二号,这个 cds 二点零呢,正式发布了,并全面接入了豆包和即梦,还上线了火山方舟体验中心。那以前呢,一个五分钟的片段,那你从剧本啊,分镜拍摄到后期音效,起码要一个团队至少忙活半个月时间以上啊。那现在呢,用 cds 啊,可能一顿饭的时间就做完了。 为什么会这样呢?是因为啊,这个 cds 二点零,它实现了原声音视频同步。什么意思呢?就是啊,就你给他一句话,哎,他就连这个画面带背景音乐,甚至连这个角色喘息的声场,空间感,一次性就全都给你整出来了。 那这就可能导致影视行业出现一个很诡异的现象,就是老一代的好莱坞导演呢,还在研究怎么做某个画面的特效,那新一代的导演已经在用提示词批量生产电影了。 那这个时候啊,有人肯定会说了,就 ai 拍出来的东西,他没有灵魂呐,哎,我理解他想表达的意思,但我更了解人性。 试想一下啊,当 ai 生成的画面精准度超过了百分之九十的人类摄影师,当他的运镜比大师还要稳的时候,那他口中那个昂贵的灵魂,在流水线生产的商业市场面前,到底还值多少钱呢?那我们还可以看一个很有意思的啊,中外 ai 路径的差异,甚至可以说是一种偏见。 那硅谷的 ai 们总是喜欢聊 agi 啊,也就是聊通用人工智能,聊怎么取代人类。而中国的 ai, 你 像谦问啊,像 cds 啊这些,那他们的目标就很务实,甚至呢,都有点儿卑微啊,但也让硅谷 ai 们恐惧,就是他们只想啊,帮你点奶茶,帮你拍视频。 这也导致了有些人就嘲笑咱们中国的 ai 太过于功利了啊,没有理想主义。但我们回想一下,就人类历史上每一次的技术革命,哪一次是因为理想而普及的呢?都是因为好用和便宜啊。 我们并不想要一个什么都能聊,但什么都干不好的数字诗人,我们要的是能帮人真正干活的 ai 工具。那当大众分不清这黑神话钟馗的视频,它到底是人化的,还是 cds 生成的时候,那传统意义上的艺术门槛,其实已经彻底崩塌了。 从二零二五年 deepsea 的 效率神话,到二零二六 cds 二点零的视听革命,中国 ai 正在用一种暴力进化的方式告诉全世界,规则变了。 那接下来的二零二六,会是一个极其割裂的时代啊。一部分人呢,会利用这些工具,一个人就活成一个团队,实现财富跃迁。而另一部分人呢,会死守着所谓的经验和喋喋不休的抱怨,在算法的浪潮里逐渐隐身。 那面对 ai 的 爆发,您是焦虑还是兴奋呢?其实啊,不管我们咋样,历史的车轮都会滚滚而过,并不会看路边的任何人是在欢呼还是在哭泣。 这种 ai 进步,对我们普通人来说,那到底是最后的机会,还是最大的危机?其实每个人心里啊,都有个答案了,而这个答案可能比 ai 本身更残酷。我是岩哥,关注我,看懂经济科技与国家发展。

首先这不是一条广告,而是我用 cds 二点零测试的一套打斗画面。怎么说呢,嗯,我真的被吓坏了。 过去要做这么一套效果,先不说能不能实现吧,从角色设定到分镜设计,再用 ai 辅助构思动作提示词,再手动反复修改, 运气好一点的,抽个三十次就能拿到一个五秒的可用镜头,而现在一口气全都给解决了。今天这条视频,我们就一起来看一看他都更新了哪些既好玩又好用的神奇功能。 首先还是要拜访一下吉梦老师。选择视频生成,我预先设计了两名角色形象,把它们分别上传上来。选这个模型,全能参考模式比例,选择十六比九十五秒的视频, 我把题词分成了三段,第一段零到四秒打艾特,选择对应角色图,以图一为手针,用西区苛刻变焦从正面推进镜头,交代第一个人的状态, 四到八秒交代图二角色出场动作和环境。最后八到十五秒详细描写两个人的打架细节,用了什么招式,再指定一个运镜效果走你。 我们看模型,会通过分析画面质感、风格来判断他属于什么类型。这条视频很明显他理解成了是游戏画面,整个的打斗感特别像某种赛博朋克动作类游戏的效果,挥刀的动作有点慢,但是该有的特效都给到了,有点意思。 同样的原理,我们换成这种仙侠风格的图片后,效果就完全不一样了,明显感觉人物的动作更流畅,特效也更丝滑了。就单凭这个影视级音效这一点,就不知道节省了多少时间,真是越刷越上头, 咱们换个机甲的试试。我准备了三张图,分别是机甲、越野车和杀虫。同样是拆分成三段,零到八秒描述越野车和沙漠的背景,让他完成在空中变形成机甲,最后发射激光炮消灭杀虫这么个剧情。 这越野车岁数也是有点大了,变个身零件丢了一半。你别说,这机甲变身的味还真挺对,我以前试过很多模型都做不到这个效果。 仔细看,他开炮之前会有一个蓄力充能的过程,从头到尾一镜到底,没有任何多余的环节,就是最后杀虫没打爆,换成这个结尾就完美了。 这次的一大亮点是视频参考,所以我准备了一条骑自行车的视频作为素材,注意时长不要超过十五秒,否则就上传不上去。玩法很简单,还是选全能参考。注意首尾针虽然也支持这款模型,但是想要上传视频参考,你就只能用这个。 我分别上传了一张人物形象图和这条参考视频,我们将视频中的运镜和人物动作,把故事背景放在古代街头看效果, 这真是太丝滑了。注意看,我并没有指定分镜,他会根据视频参考自主设计,并且给出的地理环境和围观的这些路人的状态也太到位了吧。十五秒切了十二个镜头 放在过去,升分镜图就够合一乎了。并且我同样把主角换成熊猫,把背景设定在动物园里,用同样的一条参考视频,给出的却是完全不同的感觉。真的从来没想过 a i 还能这么玩。 我准备了一条只有两秒钟的视频,开头我让 ai 给我续写,后面的剧情延长到十五秒,然后按照我给他的剧情继续表演,看看他的演技。 哦买噶,线索是什么? c dance 二点零发布了以后傻子都会做视频了,这演技确实够浮夸的。注意,我只是提供了一个思路,至于怎么运镜和如何表演,基本全是靠 ai 自己脑补的,我甚至自己都不知道是什么效果,这实在太可怕了。 最后咱们来模仿一个动作,我分别找了五个男团演员来替换原视频中的五个跳舞的男生,题词很简单,效果更炸裂。 关于玩法真的是太多了,在这篇文档里列举的很详细,我大概一个多小时才给他看完。感兴趣的同学记得在评论区里大声喊出那三个字,咱们回见!

九天无人机航母居然可以把蜂群无人机部署到外太空了?真的假的呀?呵呵,当然是假的。这是馆长用字节跳动新发布的新一代视频制作模型 cds 二点零做的一个小短片。这两天 cds 二点零算是炸了锅了,上一次在内外网同时引起轰动的还是 deepsea 呢。 关于这款产品有多牛逼,各位随便翻翻网上铺天盖地的 ai 视频,就能直观感受的到。今天馆长主要聊聊 ai 领域现象级的炸裂产品总是先诞生在中国吧。 ai 生成视频呢,有几个难点是无法绕过的。首先是时空一致性,视频的本质就是一张张的图片快速播放嘛, ai 生成单副的图片是没有问题的,但是要把这些图片连起来就很容易出 bug。 因为 ai 没有记忆力,当它专注于当前这一帧的图片应该怎么生成的时候,转眼就会忘记上一帧的内容。当我们看一段细节随时会变化的视频的时候,就会感到很诡异。 视频的时间越长,场景越丰富,要保持连贯性就越难。第二点是常识生逻辑与修饰能力。通俗点讲就是 ai 视频的剧情往往会很不合理,因为 ai 每生成一张图片的时候,都是在即兴发挥。举个简单的例子,这个人被车撞了,现在躺在医院里。正常人类的思维是,人被撞了,受伤,缠满绷带,打满石膏,躺在医院的病床上。 而 ai 的 思维可能是这样的,人被车撞了,这个人现在和医院的地板保持平行状态。 ai 无法理解我们不经意间省略掉的逻辑关系,因此可能会构建出一些脑洞大开的剧情,这就需要我们把脚本详细到非常微小的细节,而这往往与便捷和省事的需求是背道而驰的。第三点,物理真实性问题。 现实世界的规则,比如物体会树脂下落呀,光影反射和折的角度啦,物体碰撞时的动量守恒等等等等这些我们可以自然感知的现象, ai 却需要长时间的学习,而 而且他学到的只是表象,而不是原理。举个例子,他看到苹果掉在了牛顿头上,那下次苹果换成了橘子就不一定往哪飞了。第四点,高分辨率与细节保真。 ai 生成的东西毕竟是假的,在分辨率不变的前提下,一旦纠齐细节,就能发现很多诡异的现象。什么六根手指了,文字乱码了?为什么细节总是出问题呢?因为高清视频的数据量实在是太大了,一张幺零八零 p 的 图片大概有两百万像素, 一秒三十帧的视频大概有六千万像素,一分钟就是三十六亿像素。 ai 要在这么庞大的信息中保证每一帧、每一个角落都合理,这个要求本身它就不合理。第五点,如何正确理解提示词。说白话就是听得懂人话。一万个人心中有一万个哈姆雷特,如何让 ai 通过哈姆雷特四个字准确 get 到你心中的那个哈姆雷特长啥样呢? 综上,要想让 ai 快 速准确的根据用户简单的提示词迅速生成逻辑合理的视频是非常困难的。 要想彻底解决上面的几个问题,只有一个关键词,那就是算力。但是这个看似正确的解决方案几乎跟没说一样,就好像你说,我苦恼、我郁闷、我焦虑,我跟你说,有一个字可以解决你的所有问题,那就是钱。这个解决方案没问题, 只要你有了无穷无尽的钱,你所有的问题都会迎刃而解了。可现实是,你的钱是有限的,如何用有限的钱解决你眼前的问题,这才是真正牛逼的解决方案。 在 ai 视频领域也是一样的,只要算力无限,什么记忆成本,什么物理引擎,什么人类逻辑,老子分分钟给你构建出一个完美无缺的真实世界。可问题是,以人类目前的科技水平而言,提升算力的成本和算力提升所产生的边际收益根本不成比例啊。 美国 ai 的 方向一直都是算力之上,英伟达 ai 芯片的平台研发成本已经攀升至上百亿美元,还必须搭配 hbm 的 内存和台积电的先进封装才能发挥效用。这套系统确实强,但也贵到只有极少数巨头才玩得起。 更关键的是,模型性能随算力增长的曲线已经进入了平缓区,过去那种翻倍算力、翻倍效果的红利期已经结束了。同样的算力增量,现在只能带来越来越小的精度提升,而资本回报周期却在无限的拉长。 于是我们看到一个诡异的局面,英伟达估值突破了五万亿, ai 企业的融资额不断刷新记录,但实际产出的能被普通人感知的价值却微乎其微。 open ai 至今没有跑同盈利模式, astropik 还在靠融资续命, mjordan 虽然赚钱,但规模远不足以支撑这种估值泡沫,美国 ai 正处于一个危险的分叉口, 要么找到真正的大规模陆地场景,要么泡沫破裂,连带拖垮整个科技谷,甚至成为引爆美国经济的大雷。而中国 ai 走的是另一条路,即用有限的钱,先解决你眼前最着急的问题。极致算力的 ai, 我 们是对不起, 但是塞进炼钢炉、地铁炸机、药物筛选和电网调度里的 ai 的 算力,我们还是绰绰有余的。这套思路听起来不够性感,但极其务实。在世界顶尖巨头都在玩命追求算力的当下,还有一个非常反直觉的现实,各位可以仔细想一想,究竟哪种场景迫切需要极致的算力呢?好像都不是你我能接触的到的吧? 而工厂、矿山、医院、学校、超市这些和你我生活息息相关的场景,对算力的需求好像并没有很大,对不对?芯片之间怎么对话,数据怎么流动,网络怎么不丢包?这些连接层面的瓶颈,才是真正的天花板。单颗芯片再强,如果连不通、传不动,那就是一座孤岛。 tds 二点零的成功,某种程度上正是这种务实路径的产物。他没有用史无前例的算力堆出一个参数怪兽,从没有打算丛林生成一切字节最牛逼的是什么?是赖以成名的算法,是全球 number one 的 实时更新的数据库素材,是最懂中国人的中文语义。增强解码器 可以基于大量短视频数据构建动作模板库,例如挥手、走路、转头等用户输入提示以后, ai 选择最匹配的模板进行微调,大幅降低计算量,不盲目追求骚扰级别的极限性能,而是聚焦于中国市场的高频需求,例如电商短片、教育动画、正午宣传以及搞笑脑洞视频在终端 gpu 上即可以运行,基础功能适合大规模普及。 它解决的每一个问题,都是来自创作者最真实的痛点。它证明了一件事,在视频生成这条赛道上,算法智慧和工程能力可以部分对冲算力的劣势。 说白了, cds 二点零就是让普通老百姓拿来玩的,追求再高一点,做个商业宣传片,做一部 ai 电影也完全不在话下。当然,这并不意味着算力不重要,恰恰相反,英伟达购置起的算力高强依然是真实存在的。但 cds 二点零让更多人看清了一个事实,技术门槛的降低正在引发价值链的重构, 创作者的竞争力正在从如何拍摄转向了讲什么故事,以及如何讲好一个故事。以前那些有着丰富的精神世界,但受制于现实物质条件的人将大放异彩, 这种人没有国界。现在你在外国社区随处都能看到向别人安利汉语的国际友人,毕竟这款功能强大又亲民的 ai 视频工具, 对咱们的母语汉语更加友好。没想到消灭同行英语的居然是一款跨界的 ai 视频工具,太好笑了。 cds 二点零凭借着原声多模态架构,首次在国内实现了将视觉、听觉、信号在训练阶段的深度融合, 让创作者可以通过图像、视频、音频甚至首尾人来精确指挥 ai, 而不是一类传统的玄学般的提示词,从而真正做到了整体画面的一致性、分镜的可控性、生化同步的准确性、镜头的连贯性等方面都达到了真正可用的状态。这也就意味着 ai 视频工具已经可以真正成为深度融入影视、广告、电商、自媒体等多个行业, 成为实实在在降本增效的生产工具。这也让 cds 二点零被一些用户誉为地表最强的视频生成工具,不仅在国内市场掀起了一场影视剧上市公司的涨停潮,还在海外引发了一号难求的盛况。就连全球首富马斯克也在转发某个网友有关 cds 评论的时候, 发出了模型发展的速度如此之快的感叹,拥有主场优势的手机前的小伙伴们,还不赶紧打开集梦操练起来!

昨天字节紧急叫停了 cds 二点零的真人人脸,你再不叫停啊,不知道会出多离谱的事。我甚至都看到了东北于姐大战詹姆斯。 官方呢?说的其实很客气啊,说内测关注远超预期,要优化创作环境,强调创意的边界是尊重,但明白人都清楚,这不是客气话,这是真的怕了呀。 cds 二点零有多强,这几天刷到的人都知道。我就不放图片了啊, 放上去,免得到时候被投诉啊。你丢一张真人照片进去,他能直接给你生成一段完整视频,人物不穿模,动作自然,表情连贯,镜头切换、运镜、光影全都是电影级别的。以前 ai 做真人,要么糊,要么脸崩,要么一动就穿帮。现在这个二点零版本,几乎做到了以假乱真。 普通人随手一张照片,就能让 ai 造出一段你根本没拍过的视频,成本极低,速度极快,效果极真。技术强到这个地步,问题立刻就来了,不是功能不够好,而是太好用了,好用到失控。 有人把明星照片丢进去,生成各种虚假广告、恶意视频,有人把普通人的自拍拿去合成不雅内容在群里传播。还有更狠的,用 ai 换脸,冒充领导,冒充家人,视频通话骗走几百上千万的真实案例,早就不是新闻了。以前这些操作还需要一点点技术门槛, 现在呢? cds 二点零一放开门坎直接归零啊。谁都能做,一张照片就能毁掉一个人的名誉,一段合成视频就能骗走一辈子积蓄。平台如果不拦着,接下来就是大规模的肖像权侵权、网络暴力、电信诈骗,虚假舆论根本压不住 内测刚一开,各种违规使用风险内容肯定已经冒头了,平台再不紧急刹车,后果不堪设想。就希望这次叫停他是暂时的,不是永久,要不然白瞎了这么好的模型了。

说一句可能会被骂的话,这次不是影视行业要进入寒冬,而是影视行业原来的生产逻辑彻底塌了。 字节的 cds 二点零正式发布,很多人还没有意识到这意味着什么,但是可以肯定的是,大量靠做视频吃饭的人危险了。上次让我有这种感觉的,还是谷歌发布 jimmy 三点零的时候。当时我第一次看到你随手画一张简笔画, ai 就 直接能够帮你蹭蹭一段视频, 它不是 ppt 动画,也不是拼接的剪辑,而是有镜头有运动、有节奏的完整视频。那一刻,我意识到一件事,拍视频这件事已经不再是专业门槛儿了。而现在的 c 蛋四二零,直接把这件事推进了更恐怖的阶段。 以前你用 ai 做视频,还需要建立起一大堆的工作流,现在这些都不需要了。 c 蛋四二零最大的变化就是一句话,你可以像跟人说话一样,让 ai 帮你拍电影、 图片、视频、音频、文字,你有什么就丢进去什么。你可以说这是人物,这是背景,这是我想要的故事,他就真的能够帮你生成一段完整的视频。重点是,你越来越难以分清楚,这到底是 ai 做的,还是真实拍摄的。 过去 ai 视频最大的问题是什么?穿帮人物走路像滑冰,动作不符合常识,看一眼就出戏。现在不一样了, c 弹三点零最大的升级是什么?他开始懂物理了, 动作变得更加自然,镜头变得更加连贯,人物的重量感、运动轨迹都更接近于真实世界。你不需要懂什么叫做物理引擎,你只需要明白,现在的普通观众已经很难一眼分辨这到底是 ai 生成的还是真实拍摄的,这才是最可怕的地方。 你在想一件事,以前拍这样一条像样的视频需要什么?需要编剧、导演、摄影、灯光、剪辑、调摄,一整个团队, 一堆的设备,需要花费巨额的成本。现在呢?一个人一台电脑,在家里面,没有剧组,没有演员,也没有通宵的剪片, 只要你有好的想法,剩下的全部交给 ai。 这已经不是提高效率了,而是直接干掉了中间层。所以我才说一句很残酷但是非常现实的话,影视行业的寒冬可能才刚刚开始。 并不是说电影会消失,而是大量中低端重复性的岗位会直接被淘汰,广告商、宣传片、短剧、解说类的内容都会被这种技术快速吞掉。 那未来到底什么样的人能够留下来呢?未来留下来的一定不是只会用软件的人,因为工具已经彻底平全了, ai 的 工具会变得人人都能够使用。 未来能留下来的,一定是脑子里面有判断力,会审美、会讲故事、懂人性的人。虽然这些概念有一点虚,但是这些才是区分人和 ai 最重要的标准。

家人们,出大事了!字节跳动 bite dance 这次是真的不给活路啊!我刚用零点五倍速扒完了外网最新的内部爆料,看完我真的后背全是冷汗,你们敢信吗?就在 sora 还在画大饼的时候,字节跳动旗下的 c dance 二点零已经悄悄搞出了核武器,这哪里是软件升级, 这分明就是要把全球剪辑师的饭碗给砸了!很多家人问我,这东西到底强在哪?别急,今天我就带大家揭秘这个怪物的三大杀招。第一招,通吃一切的大杂烩输入 以前的 ai 只能看懂文字,现在的 cds 二点零竟然支持十二种混合输入图片、视频、音乐、音效、提示词, 把这些乱七八糟的素材一股脑全丢进去,他自己能看懂怎么剪。第二招,自带声卡的音画同步,这才是字节跳动的恐怖之处,他生成的视频是自带音效的,不需要你后期找素材,视频里的人脚踩在地板上,声音立马就出来了,直接卡点。 第三招,让甲方闭嘴的对话式修片视频生成了,不喜欢不需要重做,直接在对话框里输入,给主角换件红衣服,把镜头延长三秒,换个赛博朋克背景, 它就能像个听话的后期描改,而且角色长相完全不变。重点来了,很多人问哪里能玩?告诉大家一个秘密,这东西其实已经在极梦 ai 里直接上线了,你去搜一下就能用,而且效果跟我说的一模一样。 不仅如此,外网还爆料,这套技术未来还要直接塞进剪映里!这意味着什么?意味着字节跳动要把它在抖音上积累的所有算法优势全部降维打击到剪辑软件里以后,你在手机上动动嘴, ai 就 能帮你拍大片。看完这个爆料,我只有一个感觉,人类在这个被算法统治的宇宙里,可能真的只是个引导程序吧。 面对字节跳动这波降维打击,你觉得剪辑是该怎么办?一是赶紧转行去当那个指挥 ai 的 抖音操盘手,二是死磕到底,赌 ai 永远剪不出那种有灵魂的网感。是一还是二?评论区告诉我这里是 ai 风向标,关注我,紧追那些全网最主流的 ai 产品。

c dance 二点零让美国电影协会彻底急了,他们现在正搁外边警告字节跳动的 c dance 二点零大规模侵权,理由呢,是大量受版权保护的作品被未经授权使用, 因为用户只需要两行提示词就能生成阿汤哥大战皮特,指环王截肢同志。但我看这件事并非如此,美国电影协会现在不是怕侵权, 而是怕两行字就能拍电影。这一件事不是由美国人做成的。去年秋天, openai 发了 solo 二同样被骂,然后呢? openai 加了防护,迪士尼签了授权协议,两百个角色合法使用皆大欢喜。就是你发现没有,美国电影协会不是反对 ai 深层内容, 而是反对不受他们控制的 ai 深层内容。 openai 是 自己人,可以谈,可以合作,可以授权。字节跳动是外人必须停,必须封,必须谴责。 版权法对于无耻的美国人来说,就像是一根橡皮筋,需要的时候拉紧,不需要的时候就松一松。之前十四的编剧看了克鲁斯大战皮特,他绝望的说,一个人坐在电脑前就能做出和好莱坞分不清的电影。他说对了,但是他绝望的方向错了, 真正该绝望的不是好莱坞要完了,而是这么好的工具居然是中国人做的。如果这是美国公司的产品,此刻应该在谈新一轮融资,而不是被协会发警告函。爱尔兰导演罗宾逊只用了两行提示词就能生成那只疯传的视频。 而面对争议,他反问,我应该因为输入两行字按一个按钮就该失业了吗?当然不应该,但是美国电影协会的潜台词其实是,如果你用的是美国 ai, 两行提示词就是创意。如果你用的是中国 ai, 两行提示词就是侵权。 所以这件事根本就不是技术的问题,而是看谁掌握了技术,这才是问题。所以美国电影协会的声明表面上是维权,但本质上是官门, 门里是迪士尼和 openai 的 两百个角色授权合作,门外是字节跳动和所有想用两行字拍电影的普通人。他们不是不敢拥抱未来,他们是不敢拥抱一个不由他们定义未来的未来。

各位好,自从 cds 二点零问世,为了找到控制这个超强模型的方法,帮我们最高效的去制作动漫啊,我和粉丝们整整花了三天时间,一起在直播间进行了非常多的测试,也很感谢这几天有我的粉丝的陪伴,希望你们在评论区可以留下你们的帅屏让我看看。 那么在测试的过程当中呢,我们陆续使用了市面上主流的以及我们设想过的不同方法,这里呢我决定分别做几期视频,告诉大家每种制作方法的优点和缺点。 那么在这里我首先把几种可以控制的内容做成了表格啊,大家可以简单的观看。最右侧是我个人的推荐指数,就是你做剧的过程中使用的这个推荐方法。 以上仅代表个人观点,如果有不同的观点我们可以留言讨论,那当然了,就是以上的推荐指数呢,均以做剧的角度考虑啊,我不考虑短片,短视频等方向啊,如果你只是想出一个绚丽的广告片短片,那么以上的方法可能都不适合你, 那当然除了测试的方法以外啊,我们还有各种的小技巧啊,也通过我们这几天的摸索,不断的摸索出来, 在这个短系列当中,我们也会逐步的分享给大家。那这个视频是我们这个系列的第一个视频啊,这个系列可以叫就是 cds 二点零的 ai 动漫制作方法啊,我将把自己认为最好的方法在这里分享给大家,那 万分感谢你的观看,同时也请你一定看到最后啊。首先我们先看一下使用这种方式制作的三十八秒片段 啊,注意,这里的三十八秒是我用了三个十五秒拼接的拼接的,因为有很多小伙伴说,哎,那我如果用了 cds 二点零,视频跟视频之间要怎么拼接呢?就是两个十五秒要怎么拼接呢?这里给大家做了一个简单的示范,这个片段取自于脑动脉交响视频,没有任何使用,就是视频参考的功能啊, 使用了参考图,也就是我们讲的关键帧加提示词的方式啊。我们在这里先看一下整个动漫片段的效果,我一定要改变自己,我真的可以吗? 不要哀求,学会争取, 若是如此,终有所获。 ok, 那 么看完了之后呢?为了防止我自己做的就是有评价,有偏颇,我给了两个同样看过这本剧的朋友们看了一下这个片段, 他们有点兴奋的问我是不是交响诗篇就是出重制版了,然后怎么是中文的?这个时候我知道了,这个方法的确可行啊。啊,我觉得 cds 二点零你简直是个天才,真的是一个好强好强的模型。那么言归正传,我觉得我们在讨论方法之前呢,首先得谈论一下制作慢剧这件事情, ai 它最重要的能力是什么? 又或者说 ai 对 我们而言最重要的能力是什么?是创意能力?是动作能力?是特效吗?还是完全真,还是诱式音效的配合等等要好? 在我看来的话,就是我个人认为 ai 应该拥有的最重要能力叫控制能力,那恰好这个模型可以说控制力完全拉满,甚至可以夸张的帮助我们接力思考,完成接下来的剧情延展,画面的延伸,还有稳定性的控制,真的很夸张, 就是这个模型出来之后呢,我感觉自己看到了个非常可怕之物,不过也同时看到了颠覆新世界之门啊,没错,是一扇改变影视行业,动漫行业通往新世界的门啊,请燃烧我的中二魂! ok, 那 么前面讲完了对模型的吹捧啊,但是我们真正在制作的时候还是会碰到很多问题,因此我们才测试了大量的一个方法,寻找方法之中最能符合我们制作的一种。 那么在这里的话,我找到了关键帧加分镜提示词这种方式。首先什么是关键帧啊?关键帧就是动画里定动作定状态的核心画面,核心画面啊,而不是我们传统的首尾帧,这里是有区别的。然后第二个 分镜提示词,分镜提示词是依照于关键帧的,就是跟每一个关键帧去配套,你的每一个镜头里面是怎么描述的啊?然后关键帧在中间的什么位置,然后你的音效,然后你的时长,然后你的运镜方式是怎么样的?这个就是我们的提示词构成。 那么在这里我简单列了一下上面的六个关键帧啊,以及我们对应的六个镜头它中间的一些内容。这里的话我截了一下我在记梦里面的图片, 我们可以看到,呃,就是我这边其实是使用了七张分镜图,七张分镜图,然后又有一个两张的人物图,这两个人物是为了就是帮助 ai 去判断整个人物的形象是长这样的啊,然后就防止它出现跑偏等情况。注意,这里一共给了九张参考图, cds 二点零,目前测试下来最高的也是九张啊,同时它还能放入视频加音频,时长总计十五秒 啊,就是他整一个能放入的文件大大增加了,只是他目前还没有出现资产库这样一个功能啊,相信未来也会出现这样的功能啊。 好,为了更好的方便大家理解呢,这里我把图片跟提示词对应起来,每一个镜头的图片跟提示词如果我们对应起来,你就会知道具体发生了什么事情。首先是第一张图片,第一张图片呢,会发现红头发的人物跟黄头发的人物他们有一个交汇,就是说明对话要开场了。 好,然后这里我们给到一个镜头,小林坐在位置上喝咖啡,然后卡尔进入到画框图片所在的位置。哦,这里艾特的是这张图片, 然后叫了一下小林,然后小林接着回头抬头看了卡尔一眼,固定镜头,那么这里的话就是把我们刚才讲的啊,运镜画面描述,镜头序号,镜头时长,还有就是人物这些内容告诉了 ai, 然后 ai 就 帮我们制作出了对应的第一个镜头, 当然这跟我们传统的就是首尾针的制作方式有一点像,就是你一个一个镜头的剪啊,但是实际上也还是有挺大的差别的,我们回头再看,然后第二个镜头,这里的话,我们使用的是一个类似首尾针的这么一个功能啊,就是告诉 告诉 ai, 我 们的镜头是这样的,那么在镜头二里面啊,二到四秒,镜头反打至参考图啊,参考图是上面这张,这里,然后接着固定镜头,卡尔从背后掏出的礼物是背后,所以他有一个从背后掏出来的动作,接着高举礼物开心的递给小林,那么该镜头的尾帧是这个 就是我在一个镜头之内告诉他了收尾帧,这个就是他非常夸张的一个理解和推理能力 好。那么在镜头三里面呢,我们使用了四到七秒啊,镜头切换至这个就是告诉他画面的开始就是这样的一个开场。小林疑惑的看着小林是这个人物,然后歪着头,头上出现了一个问号,然后小林伸出左手接过的礼盒,拿在手中 固定镜头啊,这里跟前面其实也是一样的一个推理,接着第四个镜头啊,因为我们的镜头聚焦到人物的近景了,然后这时候再把镜头拉远,再回到人物的一个中景,七到九秒,镜头切换至这个图片啊,然后同时手中的礼物角度和镜头三保持一致,是这个 镜头三啊,就是防止他的人手一下收回来了。然后小林疑惑的说到,卡尔,你是抽的哪门子风啊?就是这个是对话内容,我们在对话的时候也要关注你的镜头时间,比如说我这里是七到九秒, 他这个镜头时间能不能满足。说这样一段话,如果你不知道怎么办,你就自己念一遍,看看要几秒钟。卡尔,你这是抽的哪门子风啊?可能两秒钟是差不多的, ok, 那 么我们就把这个两秒钟的对话内容填进去, ai 会帮我们自动的判断。 那么镜头五啊,我们再切到人物的一个近景,然后九到十二秒,卡尔身上冒出了很多的爱心,爱心是特效啊,发出粉色的爱心的光,但是他可能会参考这个图片啊,爱心不断的从身体里飘出,卡尔身子扭动,表现的娇羞和兴奋。这是一个固定镜头, 最后啊,然后小林叹了一口气,说,你是不是认错我的性别了?然后用这个镜头,其实我们可以看到是啥呢?你把每一个分镜的分镜头做出来关键帧,然后关键帧匹配对应的镜头提示词, 这个镜头提示词是描写该镜头内发生了什么,以该张参考图为主要的匹配方式。 ok, 那 么在这里的话,我们就来看一下整个成片的效果。小林,嘿嘿, 卡尔,你这是抽的哪门子风,是不是认错我的性别了? ok, 这是跑了一遍就跑出来的,其实没有多余的制作,我认为他制作的水准和原片几乎是一样的啊,控制力几乎拉满了。这里我们来看一下原片,再做一下对比。 小林,嗯,怎么了?嘿嘿,给你情人节快乐,尝尝看吧。 啊哈,托儿,什么?当然了,我们看完了原片之后,还是要秉持着最客观的态度来给视频挑一下刺啊。首先,在这个画面里面, 他加了一个我不想要的转场,因为我这里想要的是固定镜头,但是他有一个渐显跟渐影的一个叠化转场,那这个叠化转场其实在我看来不是很舒服啊。我们可以看到是这样的一个画面, 好人物的这些配音,包括问号的配音都感觉挺好的。然后其实这个画面的镜头其实我没有给到他啊,这里是 ai 自动推理出来的 啊,这个自动推理出来的问题倒不大因为这里的确是有一扇门啊但是有的时候他给我们推理呢比如说这里本来是一扇门他给我们变成墙了。 ok 那 么这个镜头咱们就用不了了。 然后人物的背视呢是因为我前面给过他背视图所以他能很轻松的把这个图片给做出来啊只是在我看来这个镜头是我没有给他的所以我在这里觉得有点美中不足。但这个镜头可以用吗。可以用的你这是抽的哪门子风 好。然后这里又用了一个叠化的转场这个叠化的转场是我不太喜欢的至少我个人不太喜欢啊我希望他是固定的。硬切 是不是认错我的性别了。好那么整体的话跟我们的每一个分镜头其实基本都是完美对应的除了就是增加了一个分镜头啊这个分镜头可能是我不太想要的是把这个分镜头替换了 但是其他的全部都按我们的镜头来所以怎么说呢啊这个控制能力我认为是可以达到百分之九十以上的强度了有的时候如果你觉得不满意你可以改一下提示词再多跑一遍啊一般来说我们的费偏比一比一都已经很高了。好的那么挑完了刺那我想你是不是会说呢 啊这个好像就等于我们以前的手搓嘛每一个镜头然后给他拼接起来对吧。啊所以我们简单的也可以叫他其实是手搓的。进化版好像也没有发现什么新大陆嘛这好像只是用了这个新模型进行了加速哎根本就没有什么飞跃性的进步,对吧? 但是如果你这么想,我就想说,兄弟你可能错了, ok, 接下来我们就去讲述 c, 但是二点零在这种操作方式之下,跟我们原来的差异到底在哪里?又给我们提供了哪些非常净化的能力? 那当然了,我们使用的都是叫全能参考这个模式啊,我们并没有使用收尾针,因为他的参考能力达到了天花板,他可以完全按照你的参考来。 那首先我们这里就要讲一下关键帧的制作,而在以往的话,我们更多的是用首尾帧去进行拼接,因为很多模型它的参考的能力其实并没有那么强,包括大家用的很多的,比如说像 solo 二这样的模型,它也只有手帧的一张图片给你去使用。 不过在 cds 二点零这里啊,它的关键帧制作就会变得相对的简单很多,那关键帧跟首尾帧它有什么区别呢?首先这里我们要讲一下啊,为什么我们使用的是关键帧而非首尾帧,因为我们需要这个人物在场景中的一个重要作用。 我们简单的来举个例子啊,以往像我们第一个镜头,像这个图,我们如果要做出右侧的这个,这个就是我们那个画面还没有开始的状态啊,左侧人物是一个空镜,人物是一个空镜, ok, 这个人物需要从这里走到这里,要我们以往需要怎么做? 懂行的小伙伴一定想到了首尾针,没有任何办法使用首尾针,对吧?但是在我们这里的话就不需要了, 我只需要给他一个中间针,也就是这样一个动作的关键针就行了,这个关键针要把里面的内容全部表现出来即可,他手上拿着东西,然后他整个人物的一个状态,他在屏幕中的一个位置就可以了。 ok, 现在我们来看一下这里面的一个动作。 ok, 到这里其实才是一个尾针,我们可以看到手针是这样,然后尾针是这样,其实我们这张图只是在中间进行了这样的一个中间针而已,那这样的一张关键针对我们来说制作的难度就会比原来要低很多。 首先像这样的场景不需要直接做手尾针了,除非你要固定它的动作啊,有的动作你可以让它自由发挥嘛,你就不需要去固定了。 其实很多的关键针就是他的制作会相对简单,因为比如你要让人物在这张图里面既做出这个样子,又做出右侧的人物测试的这个样子啊,这个图其实是有点难做的,但是我们这里并不需要 去把这张复杂的图做出来,我们只要做一张最简单的右侧人物,他是一个背时状态,左侧人物呢?他是一个走过来的这个状态就行了,那这样的话对我们制作就会相对的简单很多。 好,那我们再看一下提示词啊,小林坐在位置上喝茶,小林是这个女生吗?然后卡尔进入到画框图片所在的位置,是这个位置,哦,你看他对应的, 然后叫了一下小玲,接着小玲回头抬头看了卡尔一眼,固定镜头, ok, 就 这么简单,他就完美的复刻了我们整个想要的场景,所以有一些动作你只要简单的跟他讲就行了,那么这一个简单的提示词就完成了。我们以前可能要做两张参考图啊,而且要做一个复杂的测试图的情况,现在 这样一张参考图, cds 二点零就帮我们全部搞定了,你就说是不是制作难度大幅度降低了啊?其次呢,我们要讲一下,就是转场那手搓模式下,其实我们很难去做比较酷炫的转场了,有的时候你甚至需要一些其他的软件协助,不过这个模型呢,它能帮我们精准的控制转场了, 比如这个画面我们来看一下,我一定要改变自己。好,我们看到这里有一个摩托车轮胎啊,他从前面飞驰过去的样子,看到吧,轮胎其实是我加过来的。 好,这个就很符合我们想要的预期了啊,那这里是怎么做的呢?很简单,其实我就是这样给他写了一个提示词,零点五秒闪过一个转场,转场是男生骑着摩托车 的轮胎,然后从画面前闪过啊,接着车子快速的驶离镜头啊,呈现出来这个画面, 那这个画面后面有个艾特,我没有复制上来。那我们可以看到这个转场其实做的非常的好啊,就是要我平常做,我是觉得我自己是做不出来的,但是在这个模型的加持之下,能很轻松的把它搞出来。 此外呢,我还试过类似,比如说你见光特效啊,人影的去叠画这些的转场,他都能做到,只要你把提示词给他精准就行了。 所以这个模型跟以往不一样,以往我们每一个镜头之间,我们可能要用别的软件,现在完全不需要这么麻烦,我们仅仅只需要把参考图给他,然后在提示词里面告诉他你要什么样的转场,他会根据参考图里面的一些物品信息或者是人物信息来帮助你去制作这个转场,真的太棒了。 接下来呢是一个叫特效一智加音效连续啊,因为我们传统去制作大部分的首尾针可能是五秒钟啊,当然也有多的可能十秒十二秒, 但是他们去制作的整个音效并不是很好啊。其次整一个特效,因为你不是一个片段出的,有的时候特效无法连续,那么这个模型他的最长时长目前有到十五秒啊,十五秒的话很容易让我们一次性跑完一个连续的特效以及一个连续的音效 啊。在这里再插一句,这模型的声音音效真的非常牛逼,特别清脆,没有像 solo 二这种有波点式的杂音,让我听起来非常的舒服,就好像是我人配的一样啊,不对,应该说比我自己配的要强的多得多。 ok, 那 么在接下来我们再来看一个其他功能啊, 在他的全能参考里面还有一个叫表情参考,这里我是复制了官方的文档啊,实际上官方是给到了几张分镜图,我们看一下,这是第一张, 第二张,第三张,哎,第三张的样子是不一样的哦。然后第四张实际上简单讲一下,就是人物从这个样子,然后到了一个近景,然后再到熊,最后他变身成为了一只熊,中间要有一个咆哮愤怒的表情。那么在这里参考的是这一张图, 那以往我们去做这样的图片的过程当中,肯定是需要加大量的提示词,表情狰狞,非常愤怒,对吧?现在完全不需要,只要加一张参考表情进去,然后就可以做出这样的效果。我们来看一下, ok, 这个表情就跟他前面的表情非常类似啊,只是拳头没有拿上来啊, 包括里面的牙齿也是一样的,所以他这整一个参考能力很强,我们再也不用去用那些很难去描述的提示词来去描写他,而是更简单的直接给他一个表情参考即可。 ok, 说完了这个,那么除了表情参考,当然也有动作参考了,那这个是我自己做的,我们看一下左边的这个动作,是动作一, 然后右侧的这个动作,哎,一个见光,一个挥刀啊,这是动作二,我们来简单看一下我做的这个独眼龙大战美少女的片段。 ok, 这是第一个动作。 ok, 这是第二个动作,我们可以看到有类似的见光 啊,这是第二个动作啊,其实效果还是挺不错的,只是视角有不同,然后动作没有百分百的追上啊,不过在我看来就是整个动作参考的参考强度还是可以的。那这也就意味着我们去在使用一些动作片段的时候,无需再像以前那样 啊,我们要去设计各个的分镜头,而是给他一些动作的类似的参考图,甚至是参考视频,他就可以帮我们去按照这个样子去进行替换,整一个替换的效果还是比较不错的。那么综合了我们讲的比如说动作参考,表情参考啊,音效特效、连续 转场功能以及关键帧的,其实我们可以看到它的整一个加持,跟我们原来的一个镜头,一个镜头去做手搓,已经发生了翻天覆地的变化。如果 c 段是二点零,它的时长能再延长,比如说到二十五秒,三十秒,我们进一步的制作速度还将提升。 现在我们看完了上面的介绍,最后再来看我制作的这一个片段,这个片段呢就是我前面做的交响诗篇的这个片段啊, 我们把前面的内容,然后再放到这里进行一个加固。参考图一到八就是我的分镜训练者,这个是我在季梦的最前面加的一句话,其实我是告诉他一个大概的意思,防止他理解错了。我现在在我的每一个视频里面都会加,最后我会把这个整体的分镜词,然后贴在我们的画面上, 那现在的话,这是我们的第一个参考图。参考图我们要的是啊,这样反手捏机车把的这么一个动作 啊,然后分镜一零到二秒,使用这张图啊,固定镜头啊,然后蓝盾的手猛的转动,车把,使用尘土做转场,这里没有给我做好,他变成捏车把了啊,不过也无伤大雅。 第二个就是我们的就是飞驰的分镜,用这个做了一个中间针,就是描写他接近画面的状态,并且把整一个元素放大,比如说摩托车的元素啊,人,衣服、物品的元素,防止他在自己放大的过程当中啊,出现了一些元素上的偏差, 那么我就告诉他,分镜二一到四秒切近至这张图啊,向后平移运镜,蓝盾骑着摩托车运动速度要显著快于镜头的后退速度,接着呈现出画面三,接着零点五秒,蓝盾超过镜头,使用男主的衣服遮挡镜头做转场,有残影,等一下咱们看一下。 然后镜头三就是男主飞出去了嘛,但是飞出去了他是属于一个尾帧,尾帧我们想要的到他这样一个画面,或者我们说他是关键帧,他肯定不是首帧,因为我们需要人物还没有进入画框,然后进入画框的一个过程, 所以分镜三四秒到七秒。先测试镜头啊,这个是测试镜头,蓝盾从画框右侧高速进入,接着从崖边飞出,画框右侧高速进入。就这句话啊,人物飞至最高点是这个样子,接着人物下坠啊,这里打错了个字,在空中给人物和摩托车减速掉落,固定镜头。 好,我们回头看一下啊。第四个镜头,七到九秒,镜头跟随蓝盾缓缓落下,始终保持向下的平移啊,切近。是这个,然后蓝盾在空中失去平衡,同时在天上转了一圈,男生的表情始终坚毅,为了防止他出现害怕等情绪啊,防止 ai 理解错误。 接着镜头五九到十一秒,画框下方的摩托车快速的向下离开镜头。那我们在这里有一个摩托车,这个摩托车我让他先离开 啊,然后男主失重落下,头发是向上吹起的,因为我怕他不理解物理的规律啊。然后镜头呢,向下平移运,就是跟人物一起向下,始终保持蓝盾嘛啊,在画框中心的位置下方是黑色的崖壁。 第六个镜头啊,十一到十五秒,切近至这个啊,然后镜头匀速的拉近,是匀速的拉近哦 啊,同时主角快速的从上向下坠落,身后的崖壁上有向上的残影以及动态模糊啊,因为加了动态模糊,他就会有一个往下掉的状态,否则只给这样一张图, ai 有 的时候不理解,所以我们要把这里写的细一点,那紧别递进至这张图 啊,然后到这张图之后呢,就保持不动了。接着男主在心中默念,我得试试,我可以飞起来。 ok, 那 么这里我们来看一下这个片子的成片, 我得试试,我可以飞起来的。 好的,就在我看来,这一个片段的制作可能跟原片的水平是差不多的啊,当然我这边更是高清版。那前面我们讲了这么多的优点, 这里也得给大家讲一下这种方式的缺点,毕竟万物都有两面性吧。以上的这种方法呢,是我目前找到的最强控制以及最高质量的制作方法啊,但是这种方法他并不是效率最高的,他也有比较大的缺点。首先第一个很大的问题就是制作参考图很费时, 其实我们很多小伙伴本身在做 ai 动漫的时候,卡住你的难点本来就是参考图,这个就最难的。 然后这个最难点呢,咱们还没有绕过去啊,据我判断啊,就是可能以后模型再强一点,也很难完全绕过去,至少要有大量的需要你参考图去进行参考的部分哦。 然后这些参考图你还必须得自己做啊,只是这个模型它用了关键帧,可以让我们比原来会简单很多。接着就是你的这个提示词不好写啊,这个提示词你如果让 ai 帮你写的,我认为多半是写不好的, 所以我是自己写,因为我清楚嘛,就是我自己想要什么画面。但是如果你把你的画面的提示词完全交给 ai 去写,它当然可以按这个格式帮你出,不过它是否能按照你的本意去进行,整个画面的生成 就会有出入了。那所以我还是建议,如果你要让 ai 写也没问题,但是你一定要在 ai 写完自己看一遍,然后去修改, 不要把你的最重要的提示词部分也交给他。然后第三个缺点就是我们无法最大化 cds 二点零的创意能力,这个模型他有很强的自主导演和创意的能力, 但是在这种模式之下呢,他其实很容易被禁锢住,反而可能发挥不出他的想象力。所以我们在做的时候,可能当一些需要创意的时候,需要一些炫酷的场景的时候,你想象不出来,让他去发挥他的想象力吧,你不要去限制他,少给提示词, 当你要控制内容的时候,就像我上面做的一样啊,把所有的参考图给他,然后把提示词写给他, ok, 那 么这个方式其他的缺点我暂时还没有想到,如果你对于我这个方法还发现了缺点的话,也欢迎进行讨论。好的,那么在最后的过程当中,还有两个小要点要给到大家啊。首先呢,就是这个模型,他的副像提示词非常重要, 因为有的时候他会在底端会出现字幕啊,我们要告诉他不要在底端出现字幕啊,同时还有 bgm, 因为我们 c, 但是二点零它给的音效质量非常高。如果你是 solo 二我就不讲了,你整一段音频都是不能用的,但是 c 但是二点零它就不一样了,它的音效我们大部分是要保留的,它给的音效我认为比我自己做的还好嘛。啊,所以我们的 bgm 的 存在其实会让音效一起被剥离啊,我们要告诉它啥呢? 不要生成 bgm。 这句话我也亲测过了,听得懂这两句话,我们在制作动漫的过程当中都要把它加进去啊,当然你说真人剧也是一样。第二个要点呢,就是不要单纯的依靠他人物的配音啊, 因为每个视频出来的音色声调都会有点不一样,他会帮我们对好口型,剩下的我们自己来配就行了啊。不过我听粉丝说就是有一种上传音色的方法,不过我的账号目前还没有找到这个功能, 所以这个呢,我目前保留,如果大家有尝试会觉得 ok, 那 我们再进行讨论。好的,那么到这里我们这一期的视频就结束了,在这个视频里面我分享了我自己认为最好的一种方案,那么在下个视频中,我们会来探讨多宫格的一个用法以及它的优劣势啊,非常感谢你看到这里, c 弹四二点零 真的很令我感到兴奋,请问你也有同感吗?我是栗子,感谢你看到这里。下一期可能是过年之后了,在这里提前祝愿大家亲朋好友身体健康,万事如意,二零二六大展宏图, 各位新年快乐!