粉丝2.5万获赞14.6万

我们都被教育,努力学习,付出就会有回报,但在 ai 面前不是这样的,我们过去挑灯夜读,在学校学习的各种特效拍摄,在他的面前是没有任何价值的。这也就是说, 当我们越努力花时间去做一个片子,越大规模,我们做的事情就越没有意义,因为我们会离他越来越远。这时候也许有朋友会说,那为什么你们自己不好好学学 ai 生成,跟上时代呢? 你知道吗?最残酷的点就在这里,因为我们已经学了十几年的传统视频制作,我们反而被限制了想象力,也就是说,我以前的努力在 ai 时代反而成了我自己的枷锁。 就是这样,可能我说的话你会觉得有点夸大,或者杞人忧天,那不如我们再来看点别的东西。刚刚的列车尽头其实是二零二五年初的模型生成的,那现在呢?你注意到了吗? 这些都是假的,这是假的!这是假的!这也是假的!这些都是假的,都是 ai 生成的,甚至连我也是假的。哎,帮我把背景换成大峡谷怎么样? 嘿,我开玩笑的,大家怎么可能是假的?只不过我不是 team, 我 可以吃任何东西。 我是蜘蛛侠,我是蝙蝠侠。只要你想,不需要任何人花心思工作,你只要说就可以了。哦,想坐银河列车的尽头吗?我来帮 你。在这样的场景之下,你还能分辨出哪个是投入过我们汗水的画面?


啊你好这声音是我想的那个人吗?他他来了林克斯快来抱我。哇你娃这么大了是可以啊我的 bro bro 来了抱抱。哎呀 哎呦哦哦情的手也到了。觉得我这个可以。 这个这个可以做什么呢?现在有个比较重要的来涂防晒了吗?我没涂没涂。来来把这防晒涂了。好好专门给你戴的。谢谢你谢谢你。你戴的我涂在脸上你涂在脸上涂在脸上涂到我脸上。对对对好。因为他们不让我戴戴啊。那行, 来吧。还在吗?有还在还在还在。谢谢你啊你真好。因为其实你就算戴面罩嗯也把你人取了啊,你就算戴这种很很强的雪地反射,而且这个天很蓝很透, 那你就会被晒伤了。对,一定会晒伤的,就是你只是露出来那一点部分都会被晒伤是吗?对,很恐怖的。好的我我我你帮我涂吧。我我我来吧我来吧。大家稍等一下我们再反正我脸上多涂的这些就是给你准备的。太好了,先把这个涂了再说。好的 ok。 哎 你觉得我应该怎么往下。这是什么啊这是什么?这是他们给的我的一张纸吗?这是拿来画的纸。这个是。我刚听到什么猫叫啊。我刚也听到有有叫声啊,好吓人啊。那这里如果有猫叫只能是一种猫。 别别搞,我们的直播全程在专业指导下进行拍摄,小朋友们请不要模仿这块地方。 曾经我不知道多久以前有过一种叫做东北虎的动物的墓地,我们二十四小时都有求生专家以及应急救援团队在现场随时待命。这个地区啊不是这就在这个地区有过一种叫做野生东北虎的动物 希望不要遇到,但是现在不可能了现在是动面积了。直播华定范围内在直播前请求生专家全部勘探过。我我我这还行。那个呃因为我倒比较需要你给我些建议。 我们应该怎么继续我们要立起白花啊。我觉得这个地方首先我们任务任务不是要清个五五五平米的空地吗?嗯然后这个空地它其实雪还挺厚的应该能给我们增加一些防风的效果。嗯然后包括把挖出去的雪堆在上面 我们挖因为我现在操作应该没太大问题。对我觉得挺好我们越挖的越深旁边的这个挡风的越大所以现在就是开始来挖这个如果说你觉得不累的话你要累的话就休息一下我挖。 对因为我是吃好了来的。我也吃好了你都已经我用这个挖你用那个挖你是十二点走的好吧你用那个铲子吧你用这个这个这个我我我用这个我用这个。没事没事。哎那个是彻底插不上来的是吗。啊就插上来比这个更费力。 哦哦明白明白是他们进这个呃小屋里面不行我不看影响住哪个来支持他们肯定会使坏所以我我觉得有条件我们还是外面自己能扎营但是真的不行我们就到里面去搞。是是哎呀 这帐篷就是很宽很多对吧。对他往旁边去吐。我觉得你这个长度其实挺好的。挺好的 可以看到有 links 的 帮助一下好起来了因为反正我们时间也也比较多嘛就不要急。嗯然后 像这样慢慢来工作来做一些这种活动也是有好处的,就不会质问。对,你是在运动的吗?你在产生热量。嗯,这样是特别好的。呃,有雪砖,但是我造出来雪砖。 对,我们可以搞些雪砖堆在旁边。那就得这样重的,这样压下去。哎呦我去,好像他不是很实。这个雪的问题就是他不实哦,没办法。 ok, 我 来把这个砖头调一下下,要是有雪具就好了。有雪具,其实罗江还可以试一下 啊。变成砖头还是比想象中要好一点哈。这个比我想的好一点。嗯,没有那么那么粉。雪砖,老师们,雪砖。哎呀,先把这个挖出去。 我们的字幕是用的 ai 自动识别的,方便大家理解,所以它的准确度可能不是很高哦。哎呦。

今天我们来看看几条绝对重磅的 ai 新闻,都是过去二十四小时内刚刚爆出的,这三大进展可能会彻底重塑我们在两千零二六年对 ai 的 认知。咱们直接进入正题好,先来说说今天可能最重磅的消息。 据 the information 最近的报道, deepsea 计划发布其下一代重磅模型,代号 r, 预计在两周左右推出。如果你一直关注 ai 圈,肯定记得 deepsea 曾震惊业界。早在两千二五年一月, 当时他们发布了 r 一 模型,这款模型的推理能力足以媲美 open ai 的 顶尖水平,而其成本却仅为美国科技巨头投入的零头, 这直接引发了万亿美元规模的抛售潮,集中在科技谷,根本不需要数亿美元的投入来打造具有竞争力的 ai, 但这正是事情有趣的地方。 the information 的 报道提到, deep seek 至今已有约一年未发布任何新品。尽管事实上他们在十二月刚发布了 v 三点二版本,所以当文中提到长达一年多的发布空窗期时,他们指的应该是重大模型的发布,很可能就是 r 系列及其后续的下一代产品。 这个时间点其实相当关键。关于二二何时发布一直众说纷纭,起初传闻是在两千二十五年五月,后来传闻的时间推迟了,有报道称可能要等到两千二六年初, 如今已是两千零六六年一月下旬,却有消息称可能就在两周后。这一情况的背景显得尤为耐人寻味。据多方消息称, deep seek 正面临着一些严峻挑战, 他们曾尝试使用国产华为升腾芯片来训练 r, 显然这是受到了官方的鼓励,但在稳定性和性能上却遭遇了瓶颈。 据报道,他们不得不重新换回英伟达硬件,已进行这一关键训练阶段。再结合大环境来看,这次发布的实际在竞争格局中显得非常微妙。 mini max 刚刚发布了 m 二点一模型,甚至可能即将退出 m 二点二模型。此外还有 kimi k 二点五该模型也已上线,且这两个开源模型都相当出色。因此,中国目前并非只有一款模型在 ai 竞赛中领跑,而是拥有多种选择。 minimax 和 kimi 如今都备受资本青睐,因为这两家公司均已上市,市场竞争正变得愈发激烈。但该报告特别提到了字节跳动,并指出竞争可能会进一步加巨。建于 deepsea 计划发布该模型,就在字节跳动会有新动作的中期。可能有人还不了解,字节跳动是 tiktok 的 母公司,而且他们一直在 ai 领域投入巨资, 所以局面不再只是 deep sea 与 open ai 或 ansok 的 竞争,而是全球各大科技巨头之间的正面交锋。那么, r 究竟有哪些值得期待之处?根据各路爆料和报道,据传该模型体量庞大,参数量可能高达一点两万亿, 但其最精妙的地方在于,据称每次推理仅激活约七百八十亿参数。这正是采用了混合专家 see deep seek 招牌的架构,传闻中的定价更是低得离谱, 每百万输入 token 可能只要零点零七美元,每百万输出 token 也才零点二七美元,这一成本远低于美国的各大顶尖模型。 据说该模型不仅代码能力超群,还能在多语言环境下保持强大的推理能力,不再仅限于英语, 且有迹象表明,它可能还将支持多模态输入,如图像和视频。但我认为最重要的一点在于,如果 deep seek 能兑现这些承诺,势必会给西方的 ai 实验室施加更大的压力。我们已经看到 open ai 和谷歌为应对 deep seek 早前的发布而纷纷降价, u r r 表现符合预期,整个行业恐将再次迎来大洗牌。所以两周之后,一切自见分晓,大家拭目以待吧。好了,来看第二条新闻。 这条消息绝对让人脑洞大开,谷歌刚刚宣布开放 project jenny 的 访问权限,其核心是由 jenny 三、世界模型驱动的。你可能会问,究竟什么是世界模型? 不妨这样理解,传统的 ai 视频生成器虽然能制作出沉浸感十足的片段,但本质上它们只是影片,看完即止,仅此而已。而世界模型则截然不同,这是一个能生成完整交互式环境的 ai 系统, 让你能够真正地在其中进行实时探索和漫游。 google 早在两千零二十五年八月就首次公布了坚尼三, 但当时仅面向研究人员以及一小部分测试者开放。而就在今天,两千了六年一月二十九日,他们正式将此功能开放给美国的 google ai ultra 订阅用户,这是其定价高达每月二五十美元的高级订阅服务。 那么 project jenny 具体是如何运作的呢?首先,你需要通过文本提示词来描述你想创建的世界,甚至可以直接上传一张图片作为基础 系统,随后会生成一个可交互的环境,支持以七二零 p r s。 四针的规格实时探索。但接下来才是真正精彩的部分。这个世界不仅仅是一张静态快照。 随着你在其中移动, jenny 三会实时生成前方的景象。这完全根据你的操作,它能动态模拟物理规律和交互反馈,不像 genie 二等早期版本仅能维持约十到二十秒的交互。 jenny 三能维持数分钟连贯的虚拟世界。系统具备所谓的视觉记忆,能记住一分钟前的场景状态。因此,如果你离开某个物体后再折返,它依然会留在原处。它们还新增了可提示世界事件这一功能, 这意味着你能改变虚拟环境,利用文本指令实时完成。比如,你想让天降大雨,只需输入提示词即可。想添加动物或是改变天气,通通都能实现。谷歌并没有把它仅仅定位为一个好玩的玩具,他们看到了真正的应用前景, 它们已经在使用 jennie 三训练 s e m a。 智能体,也就是所谓的可扩展指令式多世界智能体。测试显示, s e m a。 能完成多部任务,犹如在虚拟仓库中定位特定物体,且全程都在给你生成的世界中进行。对于游戏开发者和创作者来说,这可能具有革命性的意义。 你无需再耗费数月搭建环境在传统引擎中,而是能直接构建出完整的关卡原型,甚至是整个世界。而这一切只需通过文字描述即可。 而对于机器人和自动驾驶的训练来说,这也是一项巨大的突破。你可以在绝对安全的虚拟环境中进行无数次模拟,然后再进行实地测试。当然,目前的他并非完美无缺,谷歌对其局限性表现的非常坦诚。 深沉的世界并不总是具有照片级的真实感,也不一定能完美契合。提示词环境中的文字渲染往往不够精确,除非你在提示词中明确指定,而且仅限于几分钟,使得连续交互无法长达数小时。 此外,还有最关键的一点,目前仅面向美国的 google ai ultra 订阅用户开放,每月约二五十美元,确实价格不菲。 不过 google 表示计划拓展至更多地区,最终面向更广泛的用户开放。但即便存在这些限制,这依然是一个巨大的飞跃。我们所说的这种 ai 系统,不仅能生成内容,还能生成完整的交互式现实,既懂物理规律,又能响应你的操作, 这简直不可思议。第三条新闻源自一些消息,是 testing cabo 爆出的,这让我们一窥 google with stitch 筹备的新功能。如果你还不了解的话, stitch 是 google labs 推出的一款 ai 驱动的 ui 设计工具, 它就好比为你配备了一位 ai 设计师,能将你的文字描述转化为真实可用的 ui 界面,你只需描述想要的效果,它就能生成设计稿及相应的代码。 据此次爆料显示, google 正在为 stitch 开发一种名为深度设计模式的功能,以及可能的智能体管理器和语音输入功能。显然,这些功能尚处于极早期阶段, 属于即将进行的界面大改版的一部分,但我们不妨探讨一下这背后的含义。其中深度设计模式尤为引人关注,虽然具体细节尚未完全透露,但顾名思义,这应该是 stitch 的 进阶版本,绝不仅仅停留在表层的 ui 生成上。这就好比目前的 ai 模型分级,既有处理复杂任务的 pro 模型, 也有用于快速迭代的 flash 模型。深度设计模式可能正是 stitch 的 同类方案,即通过消耗更多算力来打造更精密、更完善且经得起推敲的设计。这意味着它能更好地理解设计系统,做出更细腻的布局决策,提供更加的无障碍支持, 甚至能直接生成整套设计系统,而不仅仅是单个页面。它们特意将其命名为深度设计,而非简单的高级设计或专业模式, 这暗示其背后可能运用了更复杂的推理或规划能力,可能借鉴了一些技术进步,正如我们在 gemini sandum, 希望大家喜欢今天的视频,我们下期见。

今天我们来了解一下键盘如何跟酷乐队进行连接。首先打开酷乐队 app, 点击右上角的齿轮点高级,下面有一个蓝牙 mini 设备,点开找到我们键盘的蓝牙 party keys, 连接成功以后,键盘就可以正常发声了。另外酷乐队还支持后台使用, 只需要返回高级页面,把后台运行打开,这样我们就可以一边用平板看谱子一边进行弹奏了。

别看他名字平平无奇,靠他做的 ai 漫剧播放量直接破而已。看完 ai 视频创作神器,本地运行,超乎隐私,角色设计、场景搭建到视频生成全流程一站式搞定,部署贼简单,模型还能自己配,不用复杂操作,下达填空,出个提示词,坐等出片就行。

一句话, iphone 十七 pro, 它的视频画质现在已经超过了所有厂商的旗舰运动相机,卡片机,甚至是 pocket 三,还有部分的微单就是真的 和顾客的采访,那个是用手机拍的,甚至苹果的整个发布会都是用 iphone 来拍摄的,那他们为什么拍出来画面这么清晰,能够做发布会级别的画面? 答案就是有很多秘密藏在里面。而苹果从二零二三年开始推出这个 apple log, 它一直藏在你的手机里面,在以前的视频制作过程之中, log 是 专业相机才有的配置,而如今手机上你也能够使用它,所以我们的课程就是为了帮助大家学会怎么样用手机拍出特别高质量的影像,有八节课让你学会开 log, 还有专业级别的调色, 不管是以后你来做一位博主还是做什么,相信你买我们的课,送我们飓风相机的这个永久的这个版本,它是一个非常简单没有门槛的一套相机系统, 它拍出来的真的非常的漂亮,它的质感非常的棒,和苹果原生相机的画面质感完全不同,能够轻松的拍出电影感,在你的朋友圈能够发出超级超级高清的这个动态图片。