粉丝1.1万获赞5.1万


大家好,我是孤芳一夏,我们今天说一下 circle map 的 cookie, 那 什么是 cookie 呢?我们先举个例子, cookie 不是 曲奇饼干,它就类似于我们打电话, 当我们拨通对方的手机号码之后呢,我们就会和对方建立实时的一个通信,那么我们只能把我们相关的这些信息传递给接电话的这个人,对吧? 那么这时候呢,有人在给我打电话的时候,他一定提示的是占线状态,只有我把现有的电话挂断了之后呢,别人才能打进来,对吧? 那么我们 cookie 其实就是建立连接的一种安全机制,当我们输入用户名和密码登录到这个系统之后呢,我们把这个系统的 url 去复制到另外一个浏览器里面,他是打不开的,因为他没有去建立 cookie 的 一个连接。 好,那么接下来我们就用 sqlmap 去看一下是否需要 cookie, 那 么这边是 dwa 的 一个网站,我们使用的是 sql 输入,我这边其实已经登录进来了, 那么首先呢,这是一个输入框 input, 它要求我们输入的是 uid, 是 吧?我们这边呢有个 submit, 就是 我们的点击按钮,是吧?我们点击它,这就出来相关的这些内容了,对吧? 那么接着呢是我们的这个 url, 我 们这边 id 五,说明它是以 get 方式进行的一个传输,是吧? 那么这时候呢,我们首先先复制相关的这个 url, 接着呢在我们开列里面输入 circle map, 然后杠 u, 然后这时候呢,我们得用双引号把它引起来, 然后呢这边就是我们刚才复制的 url, 然后进行个粘贴回车, 好,那么这边提示了一个三零二,它要求我们是网页进行一个跳转,我们 circle map 呢,主要进行一个 circle 注入,如果它进行一个网页的登录的一个跳转的话,那么我们 circle map 是 没有办法完成 circle 注入的,所以呢,我们这边应该判断的就是 cookie 值可能不完整。 好,我们去看一下如何去查询我们的 cookie 值,好吧,单机右键检查 network, 然后进行一个刷新 sub meet 是 吧?然后 hide us, 然后我们找一下相关的这个 cookie 值。好,找到了,我们把这个内容进行一个复制, 然后这收获了 circle map, 然后 circle map 呢?后面杠杠 cookie 等语 粘贴 回车,然后是发现了马赛克数据库是吧?然后是 yes, 然后是使用哪种级别进行一个注入是吧?默认的是 level 一 是吧?然后 yes。 好, 这边告诉我们了,找到了相关的注入点,还问我们需不需要其他的注入点,我们这边就不需要了,然后默认的话是 no 是 吧? 那么接下来的相关内容和我们之前所说的一样了,好吧,刚刚 dbs 就是 查看所有的代码 base, 好 吧?好。


兄弟们,这里的消息来了,我本来刚刚发布的骚扰视频生成模型,直接从文字就能生成长达六十秒的高质量视频,画面细节逼真的不像话, 镜头语言跟专业导演拍的一样,这什么概念?就是说以后拍视频可能再也不用扛摄像机了,一句话就可以搞定,这对咱们做视频的来说绝对是一个颠覆性的变化。 说实话,这消息一出,影视圈都炸了。传统拍个视频要拍摄剪辑 特效,搞个几周很正常,现在 ai 几分钟就可以出片。很多人开始担心工作不保,但也有不少人看到了新机会, 毕竟工具升级了,咱们内容创作者的效率直接起飞。未来一年,咱们一定可以看到一大堆 ai 生成的视频内容,抓住这一波红利的人,说不定就可以成为下一个头部创作者了。


openai 刚刚锁的 ceo, 视频生成模型,画面细节逼真的不像话,镜头语言跟专业导演拍的一样, 这什么概念?就是说以后拍视频可能再也不用扛摄像机了,一句话就能搞定。说实话,这消息一出,影视圈都炸了。传统拍个视频要拍摄剪辑特效,搞个几周很正常,现在 ai 几分钟就出片,很多人开始担心工作不保,但也有不少人看到了新机会,毕竟工具升级了, 咱们内容创作者的效率直接起飞。未来一年,咱们肯定能看到一大堆 ai 生成的视频内容,抓住这波红利的人说不定就成下一个头部创作者了。关注我,带你了解更多 ai 前沿资讯。

sara open ai 的人工智能 ai 生成是视频大模型,在二零二四年二月十五号一经发布就引发了全球关注, 硅谷 ai 视频论文作者这样评价到相当好,这是毋庸置疑的。 number one number sarah 好在哪里?生成是 ai 视频的发展挑战在哪里? open ai 的视频模型一定是正确的路线吗? 所谓的世界模型达成共识了吗?这期视频,我们就通过与硅谷一线 ai 从业者的采访深度来聊聊生成是 ai 视频打模型的不同派系发展史,大家的忠义,还有未来路线? ai 生成视频这个题啊,我们其实在去年就想做了,因为当时跟很多人聊天啊,包括跟 vc 的投资人聊的时候发现呢,其实大家对 对于 ai 视频模型和叉 gbt 这种大语言模型的区别呢,并不是非常的清楚,但是为啥没做呢?就是因为在去年年底啊,市场中做的最好的,也就是比如说 runway 这家公司旗下的真旺和真 two 这两种的视频生成视频,以及文字生成视频的功能, 我们生成出来的效果呢,确实有点一言难尽哈。比如说呢,我们又让未生成的一个视频 prompt, 提示词是 super mario walking in a desert, 超级玛利奥漫步于沙漠中,结果呢,出来的视频是这样的, 怎么看怎么像马里妖是跳跃在月球上,无论是重力还是摩擦力,物理学,在这段视频里面好像突然不复存在了。然后呢,我们就尝试了另外的一个提示词, a girl of people walking down a street at night with umbrellas on the windows of 雨夜,大街上一群人走在商铺窗户沿的伞下,那这段骑士词呢,也是一个投资人 gary or harrison 尝试过的,结果呢,出来的视频是这样的,你看这空中漂浮的雨伞,是不是很诡异? 但是呢,这已经是去年代表着最领先技术的 runway 了。那么之后呢,我们知道,华人创始人 demi 郭昌立的 pica lapse 也是火了一阵,被认为呢,比 runway 效果呢稍好一些,但是依然是 受制于三到四秒的长度显示。并且呢,生成的视频呢,依然也存在着视频里面的理解逻辑,首部构图等等的缺陷问题。 所以呢,在 open ai 发布 sora 模型之前,生成是 ai 视频模型呢,并没有像差距于 t 还有 me journey 这样的聊天,还有纹身图应用一样引发全球关注。其中很大原因啊,就是因为生成视频的技 数难度非常高,那视频呢,是二位空间加时间,从静态到动态,从平面到不同时间片段下面的平面,显示出来的立体效果,不但需要强大的算力和算法,还需要解决一致性、 连贯性、物理合理性,还有逻辑合理性等等一系列的复杂问题。所以呢,生成是视频大模型,这个选题呢,一直都在我们硅谷幺零幺的选题清单上,但是一直拖着,没错,就想等生成是 ai 视频模型有一个重大突破的时候,我们再来做这个选题。结果没想到这么快,这个时刻就来了, it's from a new tool just announced a few hours ago by open ai called sora that is insane dude, that is absolutely crazy this does feel like another chat gpt dolly moment for ai sora 的展示毫无疑问是吊打此前的让位和 pklops 的。那么首先呢,最大的突破之一,很直观的就是生成视频长度是大大的延长了, 之前啊,让位和皮卡呢,都只能生成出三到四秒的视频,太短了。所以呢,之前能够出圈的我们看到的 ai 视频作品啊,就只有一些快节奏的电影预告片,因为其他需要长一些素材的用途呢,根本就无法被满足。 而在 runvi 和 peca 上,如果需要更长的视频,就需要自己不断提示叠加视频时长。但是呢,我们视频后期紧急时, jacob 就发现就会出现一个大问题,痛点就是 你在不断往后延长的时候,他后面的视频会出现变形,那就会导致你前后视频的画面不一致了吗?那这张素材 就用不了了。而 sora 最新展示的论文和 demo 中就表示可以根据提示词直接生成一分钟左右的视频场景。与此同时, sora 会兼顾视频中人物场景的变换以及主题的一致性。那么这样我们的剪辑师看了之后呢,也直呼兴奋,他其中有一个视频是 一个女孩走在东京的街头的那个视频,那个是真的让我觉得直接秒了之前全部的智能视频的 ai 模型了, 因为他一边走,你会发现他背后的那些广告牌上面的信息是不怎么变化的。其他的一些视频生成一个天空呀,大自然这样的一些场景,他都不 未必能够保持到你视频第一秒跟最后一秒有一个一致性在里面。这次的 sola, 它是全程广告牌,这么细节的一些画面都能够保 保持着连贯性,所以呢,就算在视频动态的运动情况下,随着空间的移动和旋转, sora 视频中出现的人物和物体呢,也会保持场景一致性的移动。那么第三啊, sora 可以接受视频图像或者提示词作为输入模型呢,会根据用户的输入去生成视频, 那比如说公布出来的 demo 中一朵爆开的云,那么这意味着 sora 模型可以基于静态图像来制作动画,做到时间上向前或者向后来扩展视频。 第四呢, sorry 可以读取不同无论是宽屏还是垂直的视频进行采样,也可以根据同一个视频去输出不同尺寸的视频,并且呢保持风格稳定。那比如说这个小海龟的样片啊,这其实对我们视频后期的帮助呢,是非常大的。那么现在 youtube 还有 b 站等等幺九二零乘以一零八零 p 横屏的视频呢,我们需要重新的去剪辑成垂直的幺零八零乘以一九二零的这个视频来适配抖音还有 tiktok 等短视频平台。但可以想象呢,之后也许就可以通过 sora 一键 ai 转换啊,这也是我非常期待的功能了。第五, 距离相干性和时间连贯性更强了。那么此前呢, ai 生成的视频有个很大的困难,就是时间的连贯性,但是 sora 能够很好的记住视频中的人和物体, 即使被暂时挡住或者移出画面之后再出现的时候,也能够按照物理逻辑的让视频保持连贯性。那比如说 sora 公布的这个小狗的视频啊,当人们走过它,画面被完全挡住再出现它的时候呢,它也能够自然的继续运动, 保持时间和物体的连贯性。那么第六 sorry 模型已经可以简单的模拟世界正态的动作了。那比如说画家在画 上留下新的笔触,那么这些笔触呢,会随着时间的推移而持续的存在,或者呢,一个人他吃汉堡的时候呢,会留下汉堡上面的咬痕?那么有比较乐观的解读就认为啊,这意味着模型具备了一定的 都是能力,能够理解运动中的物理世界,也能够预测到画面的下一步会发生什么。因此呢,以上的这几点 sora 模型带来的震撼更新啊,是极大的 提高了外界对于深城市 ai 视频发展的期待还有兴奋值。虽然 sorry 也会出现一些逻辑错误呢,比如说小猫出现了三只爪子,觉醒中有不符合常规的障碍物, 人在跑步机上的方向反了等等。但是显然,比起之前的试车视频,无论是 runway 还是 pick, 还是谷歌的 video poet, sora 都是绝对的顶先者。而更重要的是啊, opena 似乎通, 如果索尔想要证明对算领对参数的大力出奇迹的方式也可以适用到生成视视频上面来,并且呢,通过扩散模型和大一元模型的整合,那么这样的模型新路线来形成所谓的 世界模型的基础,而这些观点呢,也是在 ai 界引发了极大的争议和讨论。那么接下来我们就来试图回顾一下圣城市 ai 大模型的技术发展之路,以及试图解析一下 sora 的模型是怎么运作的,它到底是不是所谓的世界模型呢?