粉丝667获赞8644

大家应该都发现了, c 胆三点零现在不让上传真人图片了,很多电商老板都着急了。其实这个问题非常简单,收藏我这条视频仔细听好了。其实你可以用 jimmy 的 三,让他给你写出一个非常符合这个真人的提示词,比如说细致到瞳孔、肤色、发色、身形等等的这些细节,让他给 你写出一个非常完善的提示词。然后你把这个提示词给到 nano banana pro, 让它去生成一个跟这个真人差不多的图片,你再把这个图片给到 season 二点零去生成视频就可以了。这个方法我们已经测试过了,非常好用,赶快去试试吧!

最近自建豪洞发布了新的视频生成模型,叫做 c dance 二点零,几秒钟就能生成一个电影级短视频,刷刷耳瞬间不香了。但是很快啊,日本的动画电影文化联盟以及美国的演员工会都向他发出了提醒,说是未经允许使用了他们成员的肖像和 声音。这点呢,早有记载。影视巨峰呢,在前段时间就连夜发布了一条关于 c dance 二点零的视频,他可以转到楼的另一面,那现实中我们的楼的另一面是什么样呢?是这样的, 这不恐怖吗?那这个确实是有点恐怖了,而且还有媒体透露说,迪士尼已经发出了停止侵权,喊更恐怖了。我靠, 关于这个西站三点零的争议点,一开始就是因为版权问题,这类视频模型一旦可以稳定的输出,像是某个作品,宇宙中的角色,或者呢是带有明显识别度的片段风格,版权方呢,就会变得非常敏感。因为对影视行业来说,授权、延伸、发行、宣发都绑在了上面。如果说大众开始能接受 a 明星 一件成片,那对于人类艺人来说,它的价值就会被系统性的给压下来,好像是 好事啊。听到这里呢,可能有朋友很气愤,说,哎呀,你这不是双标吗?你怎么能这样?所有 ai 不 都是这么训练的吗?你为什么单说 cds, 你 看你又激,那能一样吗? 此事件呢,也有记载,在二五年的三月底,欧朋爱在拆 i g p t 上发布了四欧的原声声图,当时互联网上出现了大量的 ceo 萨姆奥特曼,顺便一提,他现在还没换呢,还是吉普利风格的头像 什么情况?那当时有没有像现在一样集中反对呢?有倒是有,但是没有像这次这样爆发的这么大,当时大量的讨论呢,都是集中在这样的风格模仿,会不会是不尊重创作者?训练数据是不是没有授权?当时山姆奥特曼并没有选择道歉,而是直接发了一条推文,说是 gpu 已经快爆炸了,你们先冷静冷静,然后呢,就给降智了。哎,现在回想起来还真是 依稀当年泪不。所以这样一对比,各位就能明白,这次跟上一次不一样的地方, open i 那 个更多停留在风格上的模仿。而这个 cds 视频生成模型呢,可以直接用明星的脸去生成,所以说不管是这个电影公会还是版权方,他们都快速的介入,动作呢,也非常强硬。这个时候可能又有朋友说了, 骚扰二不也是视频生成模型吗?为什么没有人说他?你怎么知道没有?你看你又急。那能一,如果你用过骚扰二,你就不会问出这样的问题,因为他的政策一直在缩减。我不知道各位有没有看过,就是之前很火的那个科比 reaction 的 视频,非常多海量的,然后骚扰二又进行了进步的限制。那么问题呢,我认为有以下几点, 首先呢, siri 的 视频生成质量没有这个 cds 二点零的高,你还抢不了演员的饭,但是这个 cds 二点零他确实牛大了,你真他妈要抢我饭了,我还不管你?第二点就是你应该有明显的限制,就像吴鹏该这样,你说给我生成一个科比的视频, 他会直接拒绝你,但是字节跳动呢,他就没有做这个限制,人家本来就是奔着查你过来的,结果发现你就摆在桌上,完全不掩饰,所以他告你啊 你你常呃,顺便一提,现在这个时间他们已经进行了更新,你再去尝试让他生成一些明星的,他就会拒绝你了,哎, 真是。咦嘻,当总之呢事就是这么个事,因为你强了,因为你用人家东西了。这个行业里偷摸用不公开的素材进行训练,本来大家应该都不知道,即使你用了,我也看不出来,而且对我的利益呢,没有造成损失,就你爱用用我就不管你。 但是有一天我发现,哎,不对啊,你怎么还能用我的东西抢我的饭碗呢?所以说这些利益受到损失的人呢,都开始群起而攻之,至于跟地缘政治有没有什么关系, i don't know who care。 而且对我们普通人而言,你肯定越厉害我越要用啊,我花了钱肯定希望模型好用,你的模型如果真的在限制的时候脚往过正了,这个时候才对我们的利益造成了损失,我们才会喷你。 至于现在谁做了什么事,都会有另一方来找他,我们就看个乐子。最后呢,我想再提一个,我今天看到一个特别离谱的新闻,这个新闻不一定跟 c d 二点零相关,但是呢,还是有些相似之处,就是他也是跟 ai 生成视频相关的,有人用 ai 制作了上海嘉闵县塌陷的视频,传播非常广, 海外也涉及到了。我倒是没有注意那个视频,就只顾着看评论区兑现了,让我不禁感叹物种的多样化。然后今天呢,就出警报了,人已经被抓了,好像是一个四十九岁的女性,说是为了吸粉啊,真的太恐怖了。作为一个博主,我也经常有这种困, 所以不管 cds 二点零的最终结果是什么, ai 生成视频高度可信的情况已经不可逆了,影响的又何止是他们这些影视圈啊,已经开始外溢了,都上升到公共事件了。 下次各位在看到离谱视频的时候,一定要擦亮双眼,不要急着去带节奏。那本期视频就是这样,就是临时来给大家一个分享,春节不打烊 春节不打烊我录了两遍,不知道哪个读音对菜。给大家拜个早年,祝各位早生贵子!

c 档是二点零和可灵三点零,到底哪个更厉害?到底应该买哪一个?这是这几天大家问我一个最多的问题,我今天花点钱给大家从多个维度进行测试。 呃,我们不把它当成玩具啊,所有的案例呢,我们按照真正能干活的方向去猎取啊,一次成型绝不抽卡,我不做任何评价供你们选择。首先说大家最关心的费用啊,我以两家官方最优惠的充值方式来计算,一条十五秒的呢。呃, c 档是二点零的均价大概是四毛三 啊,可林三点零的均价是六块三毛六啊,两个价格差距还是非常大的,下面我来直接开始测试啊!首先是多分镜提字词的听话程度啊,这是一个非常详细的分镜提字词,包括构图啊,人物动作、情绪、音效、质效、磁场等多个要素。 别看它短,这是一个相当复杂的分庭题的词,我们看能不能理解。长脑子是用来干嘛的?别给我磨洋工利索点,谁给你的胆子不报备就敢乱拍板,别只会等指令,自己不会扛事,全是摆设,就没人懂得自我反省。 长脑子是用来干嘛的,别跟我磨洋工利索点,谁给你的胆子不报备就敢乱排版,别只会等指令,自己不会扛事,全是摆设就没人懂得自我反省 啊!再来测试一下多图输入的稳定性,这是我一下给到六张图片,三个人物,三个产品啊,我们来看看人物还原度和产品还原度,以及对于广告创业的理解。 大街辣条,快乐没烦恼, 下面再继续测试开放创意程度。我在家随手拍了一只小熊提子词,说两句台词,咱们其他的不说,具体表现形式呢?交给魔心去自由创意。终于躲开怪兽了, 还是这样安全些!哈哈哈, 终于躲开怪兽了,还是这样安全些!这测试一个他对于本土文化的理解,看看是否能够接地气,能不能理解我们的真实的生活。今年咱全家整整齐齐,妈你做的扣肉还是那味,哈哈哈, 祝爷爷奶奶福如东海,寿比南山!哦中,这年过的得劲!今年咱全家整整齐齐,妈您做的扣肉还是那味, 祝爷爷奶奶福如东海,寿比南山!中,这年过的得劲!再来测试一个相当复杂的视频复刻,呃,我们这两个电影人物呢?参考 a 视频的动作, b 视频的运镜,而且还要根据我设计的提示词来设计这个场景, 可林完全没有做到,他直接把人物进行替换了。那后面我就不测试了,毕竟价格也挺贵的。就这样吧,大家自己看。

新发布的极梦二点零耗费价格多少?在哪用?有哪些玩法?不足之处是什么?先说价格,每秒视频六积分,约等于六毛钱,单次生成视频可选择,最短四秒钟,最长十五秒。第二个问题在哪用?目前使用最多的是在极梦电脑网页端,仅会员用户可用, 手机极梦 app 暂不可用。值得一提的是,小云雀有极梦二点零模型选项。第三个问题有哪些玩法?二点零模型中文声视频片段静态变动态 全能参考,也就是多模态融合支持,同时上传十二个参考文件,适合专业级内容创作。复杂去式 ip 角色还原。哪些人用极梦二点零模型最多?超过百分之四十为短视频创作者,百分之二十五为电商运营,百分之十五为短剧、慢剧创作者。 不足之处一、复杂视频仍需较长时间,多次测试海贼王经典打斗动作镜头用时二十分钟左右。二、画面偶尔闪回,极少数情况下有杂音。

广告人的天塌了,不到五块钱大片你也能拍的出来? ai 要干掉的何止是相机和那些摄影师们,他现在要干掉的是整个一方公司。这就是吉梦最新推出的 ai 大 模型 cds 二点零。 因为模型能力过于强大,官方不得不紧急地限制人脸素材的输入能力。 kim 就 吐槽自己只上传了一张个人照片,系统竟然自动生成了包含他真实声音的情况之下,我也没有给我的声音文件, 只是把我的脸传上去,这个 ai 居然知道这张脸的声音是我的。这个声音我给你们演示一下,这是我们用一句话加上我的照片生出来的结果。 正常面对 ai 模型,我的态度就是,哦哦哦,又发布了,然后又会炒一堆很厉害的概念,然后实际体验不佳,然后翻篇。但是这个模型一开始我看到的演示视频就让我觉得,啊,这个你不觉得恐怖吗? ai 在 二零二六年春节来临之际,对于影视行业来说,真的是炸响了一个大雷子。 接下来,我用三分钟时间,一步一步的教会你,人人都可以做一条视频广告的时代到来了。大家好,我是在奇士别克的社播主何老师, 我们来应个景哈。假设我们今天要给一款烟花做一个十五秒的电商广告,那么因为深圳既然禁放,何老师手头呢,肯定也没有这个实物。所以我先下载了一张烟花实拍图片,然后丢给了 manila pro, 帮我生成了一套烟花前后两面的白底电商图。 还挺神奇啊,他竟然自己就打了个生产地湖南浏阳,听上去还挺靠谱的,当然,这一步如果你手头是有产品的,可以直接拍一个三十组,就可以忽略这个环节。第二部 国内的广告参考片呢,比较大的平台是新片场,我在上面下载了一条四十多秒的化妆品广告,觉得还不错,因为 cds 的 参考能力呢,是上限十五秒。 所以呢,我就对样片呢进行了简单的剪辑,把觉得不错的镜头呢剪辑在一起,压缩了一下整体时长。第三步,接下来丢给 ccloud 二点零新推出的全能参考功能,它呢,支持视频跟图片参考混搭。我使用的是二十三号新推出的 fast 模型,等待的比较短,十五秒的生成费用呢,也只有二点零的六折。 我上传了参考视频一条产品的主图,两张照片,提示词是这样的,完全参考视频一的剪辑结构和运镜效果,特效动作,制作一条关于图片二的电商视频。 图片一是产品的背面图片二是产品的正面,注意去除参考视频中化妆品的元素,增加各种烟花爆竹的图片。 十四到十五秒画面,品牌 mario k 的 字幕替换为礼炮双响。这里呢, cuddle 二点零可以像群发消息一样,使用艾特这个标记来艾特对应的素材。因为生成视频的上限是十五秒,我们可以对每一秒进行精准的描述,包括警别啊,镜头运动啊,甚至是后期的文字啊,特效什么的。 比如我要求 ai 在 第十四十五秒出现产品名称。接下来我们来看成片儿 talk, 这个过程啊,只用了三分钟,加上找样片做电商百里图,一共花费不到半小时的时间,算力方面呢,我使用同一段提示词,共生成了两版内容, 一共花了一百八十积分。现在呢,请大家作为甲方爸爸啊,给这条视频定个价,按照吉梦标准,会员九百五一年的价格,一百八十积分呢,折合人民币就是三块六。而如果我告诉你,翻拍最新的苹果手机的广告也是一样的成本,那么各位甲方爸爸们, 请你们决策,你们是要重金请大导演原创一条,还是请 ai 仿拍一条?而选择 ai 仿拍的甲方爸爸们,你们是打算自己干呢,还是请人干呢?如此简单的操作,会不会让很多做低端行活的广告公司消失了呢?甲方和乙方的区别是什么呢? 在以前呢,乙方报价单上那一堆堆的专业器材名称,我们都是按天写他们的使用单价的。那么现在呢?这报价单上写什么?电脑显卡型号?还是你的网站会员积分? 当乙方不再拥有专业性甚至垄断性的生产资料的时候,根据马克思主义政治经济学的原理,那么甲乙双方的生产关系就会发生改变。你注意到了没有啊,这条视频的最关键的核心资产不是摄影的技术硬件,也不是显卡算力,而是那条参考样片。 阅片量恰恰成为了未来视频创作中更关键的要素了。你看过的片子越多,脑子当中的画面呢,就越有细节,输入给 ai 的 指令呢,就越精准。 同时,你看过的片子越多,那么审美也会随之提高,越能启发 ai 呢,做出高水平的回应。同 样是用手机拍,有人把女朋友拍成超模,有人把女朋友拍的想跟你分手。总之呢,无论是甲方还是乙方,和 ai 互动的这个人,月片量成为了未来的核心竞争力,也决定了这个人的身价。但同时,月片量在 ai 时代呢,对于创作者也会变得越来越难。为什么? 因为当这种无脑模仿、粘贴复制式的视频越来越多,越来越容易的时候,信息污染将不可避免。以前呢,咱们看十条视频,那可能就有一条有深度,有思考,有借鉴意义的视频啊,优秀的。而现在呢,你刷一百条都不一定能看到一条了。 在这里,还有一件事何老师拿出来讨论啊,就是我们不停的阅片的目的是什么?是为了找抄袭的对象吗?以前我们在学校里开各种审美课啊,这种鉴赏课,那是为了站在这种前人大导演的这种肩膀上来提高审美,然后未来是做自己原创的内容。 而如果我们只是为了单一的模仿而做视频,那这才是视频创作者最大的悲哀吧,不停地制造视觉垃圾,但是呢,无论你愿不愿意,视觉垃圾这种东西已经来了,这种海啸马上就要到来。好的,今天和老讲这么多,讲的对,拜托,一键三零,讲的不对的,欢迎评论区同我。

这两天豆包上线了免费的 cds 二点零模型,但是跟季梦的 cds 二点零对比,感觉是两个东西啊。这个是季梦的,我生成了一个我的 ai 形象,然后跟季梦说帮我生成一个在夕阳西下玩滑板的视频,然后季梦给了我,这个 就挺真实的,如果没有 ai 提示,真的很难分辨真假。但我用同样的提示词跟 ai 形象给到豆包,他给了我,这个 只能说也挺好,就是这个人物跟我的 ai 形象已经没有任何关系了。所以如果你想正儿八经的搞点有价值的 ai 视频,还是老老实实付费吧。好,那针对极梦,我们再来看一下,如果给他特定场景、 特定声音、特定剧情,会怎样呢?来试一下。这是我写的小剧本,我将它分成了两段剧生成,然后这是我要求固定的场景、人物、道具以及我的声音,接下来看看生成的效果如何。 皇上,今年的高铁票奴才又没有抢到。哎呦,都说了以后叫大哥,清朝已经亡了,是皇大哥,高铁票抢不到,你就用黄包车拉我回去啊。 这。哎,累死老奴了,该死的高铁票为什么这么难抢?看完这个视频,其实还是有挺多瑕疵的,比如这里的这个场景,明显跟我提供的场景是对不上,但然后面我又调整了提示词, 深层了几遍,但每一次多多少少都会有一些些的瑕疵,不过总体来说还是很好的,起码他的分镜很专业,很连贯。好。最后来总结一下,就是,经过测试,肯定还是付费的 cds 二点零更具备可玩性,但是一旦给到他比较细致的要求,目前来说还是有缺陷的,不过如果你不那么抠细节的话, 那么普通人也能做出来很多看着很专业的小段子电影或者是动漫了,而且上手门槛真的很低,再加上如果你的脑洞够大的话,那这个就真的很适合你了。

全网最近爆火的 sanders 二点零真的是太恐怖了,就比如我想给我的桌上的财神玩偶做个大片,只需要给他拍张照片,然后打开小程序,点开相册,找到这张照片,然后上传上去, 再给他一段提示词,给这个财神玩偶做一个跳出来给大家送祝福的视频, 然后点完成,然后我们选择十五秒点立即生成就 ok 了。视频已经生成好了,让我们一起看一下。新 的一年财神到了,祝大家二零二六年财源滚滚,事事顺利,好运连连,愿你们笑口常开,现在的 ai 真的 进步太快了,就问大家,这样的视频你看到感觉炸不炸裂?

先看视频, 那这个视频呢,我想跟大家聊这样三件事,第一就是为什么让 ai 做出这种画面比你想象中的难很多。第二,我会手把手的教大家怎么把这种视频做出来。那第三个呢,也是我觉得最重要的,我觉得这个事情对大家而言,或者对未来意味着什么。最近 cds 二点零,我相信很多对 ai 感兴趣的人,肯定刷到了 他自己在自己的官方文档标题里面写的是 kill the game, 然后黑神话悟空的制作人呢?冯继也说 a i g c 的 童年时代结束了,然后马斯克都转发说 it's happening fast, 然后发展太快了,我当时看到铺天盖地的新闻,今天虽然是情人节,然后学长硬拉着我要过情人节,我说我不能过,我一定要把这个视频做出来, 然后全网呢,都在用它做各种非常炸裂的视频,大家看,比如说什么怪兽大战啊,太空石狮,魔法世界,这些看起来很震撼,但我想说一个可能反直觉的事情,就这类视频反而是 ai 最容易做好的,因为没有人知道外星球长什么样子, ai 随便怎么生成呢,都不会穿帮。 但是我呢,做了一件更难的事情,我让一只恐龙住进了我们家,还生成了一个这样的短片,我们家的这个客厅布局,院子的样子,以及这个钢琴的位置。哎,老粉丝比我还熟悉任何一个细节,不对,那这个视频的 ai 感就非常强,但大家看刚刚的这个成片,其实还算是不错吧。 先说这个让恐龙住进我们家为什么比这个星球大战的视频更难呢?那大家刷一下就会发现,现在大家用 ai 做的视频,绝大多数都是幻想的场景,那这些场景很炸裂,我也试了一下,就比如这,我给了这个 cds 二点零,我给了一段学长和小帅在床上就是乱打的照片,然后我跟他说,让他参考这个视频打斗, 把这个小孩改成英雄,然后成人改成角色模仿这种史诗级的对决。 这个场景虽然看起来很炸裂,对于 ai 来说其实非常简单,但是我刚刚给大家看这个恐龙住进我们家的视频,我却搞了大半天。 那为什么呢?其实是 ai 生成视频的底层逻辑,它是从海量训练数据中学习,就什么画面是合理的,那幻想的场景在训练数据里并没有标准答案,卫星球长什么样子谁都不知道,所以它怎么生成呢?大家感觉都还不算错,但是像刚刚这种恐龙真实的场景就很不一样, 用 ai 呢呢?他学过无数张就真实可信的照片,哎,他知道哎,沙发应该是比人要大的,然后光影哎怎么去打的,这个透视应该怎么变?所以 一旦这个恐龙放进去的比例不对,任何这种家具的穿模、光线的矛盾或者比例,大家其实一眼都能看出来不对劲,马上就会识别 这个是 ai 生成的。所以我觉得真正 care the game 的 不是生成这种炫酷的画面,而是让 ai 融入了我们这种真实世界的场景,我觉得这个才是最难的。 接下来呢,我也想教大家我是怎么做的,就迫不及待想跟大家分享。我觉得主要就是三个关键的点,首先第一步就是你得设计一个角色,我为什么选恐龙呢?是因为小时候,在他在很小的时候就跟我说过,他说,哎,妈妈,我小时候想养一头恐龙, 所以你一开始呢,要选一个纹身图的工具,要把这个恐龙的形象生成出来。那其实我自己也是试了这个十几个版本,我用的呢,其实就是积木,学长当时说让我用纳努不纳,我说我就用积木吧,有的就是太写实了。像这个版本的恐龙呢, 就是有点太写实了,我觉得不是那么可爱。最终呢,我选了这种皮克斯风格的,就是他身上还有一点水珠,还有一点鳞片,看起来呢就是既油耗又温暖,还很写真。你得在这些所有的图片中选一个你最喜欢的主体, 然后每一次都要参照这同一张照片作为主体。那设计这个角色的时候,你需要三张参考图,一张呢是管这个整体的造型哎, 一张呢是管这个身材的比例,还有一张呢就是面部特写的表情,然后每次生成视频的时候都要带上这个作为参考,确保恐龙呢在每个镜头里长得都一样。第一步,这种纹身图我觉得相对来说还是比较简单的。那第二步就是场景匹配,就是把家里就拍个遍。我今天早上起床第一件事情 就是去院子里拍照片,客厅拍照片,然后卧室拍照片,然后我把家里我觉得可能恐龙会出现的场景全拍了一遍。那拍的时候我就会大致去想, 哎,这个恐龙大约是站在哪里比较合适家具的位置会不会跟恐龙很冲突?比如说我客厅呢,就平视拍了一张,然后我还俯视也拍了一张,然后院子呢,我也是站在了一个倾斜的角度以及卧室呢,我拍了小十二的这个背影,因为它是不能出现真人的,所以千万不要拍人的这个正脸照。补充一下,当你确定完角色以及场景之后,你就可以正式的 来进行视频的生成了,然后呢我也会附上这个 cds。 二点零的时候,我也想提醒 大家,大家首先去选这个视频生成,然后它有两种模式,一种是这个首尾帧,就是你传首帧和尾帧,我选的是这个全能模式,那我全能模式你就可以传更多的照片,而首尾帧只有两张。 比如说我生成的第一个场景,就是恐龙在这个院子里面敲这个窗户的场景,我就跟他说艾特图一,图二是这个场景背景,图三呢是这个 恐龙的质感,体型比例呢则是参考图四,那这样的话,它生成出来的那才是更丰富的。那这些提示词呢,每一个都会说这个画面是怎么样的?超高清,八 k 画质,电影级质感,然后细节清晰等等, 这些提示词看起来都很长。然后这个提示词呢,都是我用 cloud 写的,我把我大致的想法告诉他,我说,哎,请你帮我写成能够丢给这个视频生成的提示词,然后他就会给我这样子的提示词,非常的方便,你可以用 cloud, 你 也可以用任何一个 ai 来帮你写提示词。弄完了这些场景呢,第三步呢,就是镜头的衔接, 这个呢非常重要,因为 ai 生视频有一个天然的问题,就是每个视频它都是独立生成的,比如说我在生这些的时候,我都设定了它生成五秒钟,那他不知道上一条是什么样子。所以呢,如果你不处理哈,恐龙在镜头 a 里面朝左,在镜头 b 里面可能就朝右了。比如说我拿客厅那个左和镜头举个例子,恐龙当时扫掉了尾巴上的杯子, 这条视频的最后一帧就是恐龙侧身的样子,然后我就把它这个侧身的样子就截图保存下来了。我下一个场景是希望生成这个头探出来,然后他很无辜的表情特写, 我就把最后一个他身体转动扫掉杯子的那个截图上传,告诉 ai, 这个保持恐龙的位置和朝向不变,然后镜头从全身推到脸部特写,那同样的方法就是这个无辜表情,之后,恐龙他惊恐的转身, 而他的尾巴就砸掉了这个钢琴,然后我再把这最后一针截下来,下一条就是恐龙趴在地上一动不动,假装什么都没有发生。这三四个镜头就是扫杯子,然后他露出无辜的表情,然后砸掉钢琴,最后装死。 这镜头连起来呢,就非常的流畅。这四个镜头全部是我用上一针接下一针的效果,虽然呢,每个都只有五秒,但连起来就加了一点故事感,然后你再加一点点花字,就非常像一个完整的短片。当然坦诚的说哈,并不是每一条都一次性成功。 a i c 视频呢,还是有点像抽卡,有的时候第一次效果就很好,有的时候我也调了好多次的参数,整个过程确实是花了我三四个小时,但是大家想一下哈,原来这种效果可能要专业团队做真的做很久,但这次大家看这个成片,就是我觉得真实效果的一致性,就我们家的所有的东西,基本上都是没有动的,我 看完当时确实非常的激动,所以也迫不及待录视频跟大家分享。好,那最后呢,我也想聊聊这个开头说的三个问题的最后一个问题, 这个事情到底意味着什么?我自己呢,确实是非常兴奋的,我觉得这对正在找工作的同学来说,可能意味着会用 ai 这件事情,他可能已经不再是加分项了。那现在呢?他已经变成了一种基本功。我觉得未来不论你是想做内容、做营销、做设计、做产品, 当你的竞争对手,他一个人能干一个团队的活,而你还在用传统的方法,我觉得差距就会慢慢拉开。那我身边有一个很传统的朋友,他说他去年的时候他还在公司里面说我们要抵制用 ai, 今年已经跟大家说要全面拥抱 ai, 而且给他们公司的所有员工的电脑全部买了各大公司的最高级的模型,让他们去用。所以呢,我觉得大家真的可以去试一试啊,当然就是 cds 二点零。 这次我觉得就是如果你不充会员,你要等很久很久,我前一天晚上没充会员,等了我三四个小时,然后今天就氪金充了会员,然后升的就非常快了。然后我觉得每个孩子心里呢,都住着一只恐龙。最后呢,我也想把这个短片放在 p 二了,特别感谢 ai, 他 让我用一台电脑就给孩子造了一个梦想的世界。

玩了下 cds 二点零,大概理解冯绍峰的大结局是什么意思了,以后导演是真的要过时了,影视产业将会迎来一场真正的革命,就算是好莱坞那些模式化、产业化的样板戏,也会迎来真正的颠覆。 大家可以看一看下面我自己生成的几段视频,不要嘲笑,因为确实就是瞎写瞎玩的,一分钱没花,脑子已经动了一点点,总共就用了几分钟。我是一个完全没有编剧能力,完全不懂分镜的外行,随手瞎写了几段没头没尾的故事, 他居然能够大部分理解了我的意思,创作出了大概的场景。注意,我这个人不会写故事,只有骨架,没有细节,但他居然猜到了我想干什么,帮我丰富了氛围和细节,甚至给到了情绪,这是一件非常了不起的事情。 字节跳动搞出来的这个东西,完全可以把全世界的 ai 生成视频吊着打,什么 sorry, 在 cds 二点零面前简直就是个弟弟。 之前大家也都用过很多 ai 纹身视频,但那些的理解力都不太行,需要不断的用文字去限制定义训练。 想要生成一段可用的视频,需要一个起码有点专业编剧知识的人去操作,现在根本用不着。只要不是文盲,只要能写字, 摸索几遍,马上就能搞出自己想要的东西了。建议大家都去玩一玩,你玩的越多,他就越聪明,越难明白你的想法。你玩的越多,那些编剧导演们的小技巧就越来越清楚,越来越没有秘密可言,你甚至能够看出他们的公式是什么, 然后你就会感慨,原来如此,我上我也行。实际上这是算法和大数据给你的超能力。以前大家喜欢脑补关公战、秦琼,现在你们都可以实现了。以前看小说、电视电影 总有很多意难平,现在你可以在自己的世界里改写传奇,让自己喜欢的情节发生,让自己喜欢的主角得偿夙愿。 今后每个人都会拥有自己的赛博理想国。以后最开心的人一定不是导演和编剧,而是那些网文作者。他们只需要把小说稍微调一调,就能直接生成影视剧,他们甚至可以轻松的把脑子里笔下的恢弘场景转化为可视的画面。 而那些白嫖、抄剧本、拍烂片、搞诈骗的资本和导演们,躺着挣钱的好日子结束了。因为你们对文字的理解远不如作者和读者,而且这玩意还在不断进化,终有一天,他做出来的作品可能会突破我们今天所有人的想象。 很久之前我就说,人工智能的未来不在美国,而在中国。管他们的概念多么天花乱坠,管他们的想法多么天马行空,要做事还是要落到实处的。 ai 的 本质是算力,算力的基础是电力,虚拟现实的基础是无数现实的场景和数据。我们有着无穷的电力,无穷的数据,无穷的应用场景。 万丈高楼平地起,美国工业衰败,数据匮乏,场景稀少。强行上概念,那就是空中楼阁、梦幻泡影,镜花水月。基础不牢,那是要地动山摇的。放个预言吧,现在是美国 ai 和中国差距最小的时候,现在他们做不到,以后就更加没机会了。 对了,真正的创作者不必灰心丧气, ai 的 进步打击的永远是那些尸位素餐、混吃等死的人。对于真正有才华有思想有进取心的人来说,这是如虎添翼,是最好的时代 啊啊啊啊啊。

吸电二点零,很多人都没办法上传这个真人的这种素材照片了,那么都会显示失败,那么我今天总结的有两种解决方案。先说第一种吧,你们可以看到我这里上传本人的照片都是失败的呀,然后呢?后面我为什么这里就成功了呢? 这里成功了是因为我做了一个三四图啊,这是我三四图啊,用这个纳洛本纳的把它合并成三四图,合并完之后呢?嗯,直接上传就可以了,他就识别你是 ai, ai 的 这种三四图就可以生成了。 对了,忘了说,你们这里最好这个分辨率选择这个四 k 啊。然后呢,这个提示词就这样子,很简单的把三张图片合拼为一个三四图,非常简单。 然后如果你们不会用工作流的话,你们也可以用别的这种 ai 的 模型去把它这个素材给转一下,变成 ai 的 素材,它就可以生成了。 然后剩下另外一种方法我就先不说,我也不知道说这种方法他会不会马上被下架,所以你们能用即用吧,好吧,等有需要我再更新第二种,好吧,哈哈哈哈。

哈喽,大家好,今天聊个扎心的话题,你们刷短视频的时候是不是经常看到这样的说法, ai 视频是平民神器, 人人都能拍电影,零门槛创作。先别急,我今天要给这个想法泼盆冷水了, ai 视频根本不是救命稻草,对普通人来说,他可能是把双刃剑。为什么这么说呢?我先问你几个问题,给你一台手术机器,你能做开颅手术吗?给你一台单反相机,你能变成王家卫吗? 达人,很明显对吧? ai 视频也这个道理,像 c 电磁二点零这工具,只会让真正厉害人更厉害,让新手更迷茫。你想啊,以前导演还被预算限制,被场地掐脖子,现在呢,直接解放了他们的想象力,他们的审美武器终于可以。而你用 ai 生成的视频呢?说句不好听的,可能只是给平台白调的数据思, 这里有个真相,很多人没意识到。第一,苏尔这种模型看着神奇,背后是啥?是成千上万的 h 一 百显卡堆起来的技术护城河,你家那台笔记本真的能跑得动吗?第二,未来能玩转 ai 的 只有两种人,要么你是创意天才,要么你是超能力战士。 所以别急着去学提示词,先去问问自己,如果离开 ai, 你 的价值是多少?如果答案是零,那加上 ai 呢?不好意思,你还是个零。但这不是让你放弃,相反,认清现实,才能找到真正的出路。先打磨自己的核心正例, ai 才会成为你的放大器,而不是遮羞布。好了,今天就聊到这里,如果你觉得有收获,点个赞,让更多人看到,咱们下期再见!



cds 二点零出了,大家都说强,但为什么你用实拍照片亲身视频总是失败?其实不是模型不行,是你没有用这一招,三种解决方法告诉你。第一种方法,手机版的积梦,创建数字人分身数字人分身,打开积梦, 点右下角我的创建数字人分身,露露自己的人脸就可以了, 那然后就可以去点出镜描述你的梦境,艾特你自。第二种方法,把真实人物的照片改为手绘电影插画风格的图片。那么第二种方法,上传一张实拍照片,让他转成手绘电影插画风, 让他生成这种正面和左右侧身的这种全身照,要求他保证参考角色的长相一致,服饰颜色都不变,角色要使用全彩的颜色,白色的背景, 那他就可以生成一张图片,里面有这种正脸,左边和右边的侧脸照片,再用这张照片去让他生成视频。视频风格里面你要写这里一定要要求他转成真人实拍短剧这个字,我看你往哪逃, 我是想判你无期徒刑。在我心里。第三种方法,用任意的图片 ai 软件,把真实人物的照片只是替换衣服和背景, 形成新的一张图片。那第三种方法就是先用谷歌修改自己这张照片,我是先上传了一张自己的实拍图,让它换成这种风格的西装,一张由 ai 生成的换装照,和我写的一个一个记情, 让他去深沉这个视频。这一次,我看你往哪逃,动手吧,我不怕死,我是想判你无期徒刑,在我心里。

目前我们自己去生成大部分带人脸的照片,其实都是可以通过的,我们测试下来,除非说你用的是那种公众人物的人脸,或者说那种很近景特写的那种人脸,再或者就是说真实度很强的照片有可能被打回 其他的大部分情况,官方现在都是睁一只眼闭一只眼,就哪怕他完全禁止了一个带人脸的人物去生成视频,其实我们也可以去参考一下之前我们在 solo 二的一些做法,比如说你把一个你的真实的一个九宫格的一个分镜图, 然后把分镜图提交给他,然后在提示词里面再补上一些人物的面部的一个描述,这样子话生成出来的人物的视频跟你需要的一个人物基本上是百分之八十到百分之九十的相似度,其实还也还行的。 然后再就是第二个办法,就是把你的图片丢给豆包啊,或者说丢给啊现在 crem 五啊,然后让他去生成你的人物的一个 ai 图片,然后再把这个 ai 图片丢给 sims 二点零,让他去生成视频,这样子的话大概率也是能通过的。 其实就我自己的看法的话,我觉得 c 档四二点零应该是不太可能完全禁止你去上传带人脸的人物的,这样子的话对很多人来说就会变得非常鸡肋, 所以这件事情目前其实影响不大,大家不用担心。然后最近有朋友在问我,我们的工具什么时候能够接入到那个 c 档四二点零?其实不是不想接入,而是官方公告就是他的 c 档四二点零的 api 接口会在二十四号的那个下午六点钟才会去做一个开放,所以目前除了官方的一些渠道,是没有其他平台能够去使用那个 c 档四二点零的, 所以目前大部分号称接入了 cds 二的一个工具或者平台的话,呃,我觉得大家要谨慎一些,然后防止上当受骗。等官方的 a p i 开始开放的时候,我们也会尽快接入到我们的工具上。我是牧童,目前正专注于用 ai。 呃,为服装行业去提供一些解决方案。我们下期视频再见。