粉丝5415获赞57.5万

这两天戴尔和老黄搞到一起了,一打开首页就看到这么张图,自从挖矿的热度降下去以后,老黄的算力是无处安放,但是这次有了更消耗算力的东西, 就是 chat gpt 全日制。老黄和戴尔共同在线上发布了新一代的 powage 服务器,这种人工智能烧算力的能力是每三四个月就要翻一番,而戴尔的新一代 powage 服务器专为 ai 而生,这一块服务器就装老黄八块 h 一百, 之前老黄从烤箱里端出那一大坨,实际就是大多数装到了戴尔的服务器里。这种大型的 ai 运算并不像是挖矿,还是有很高的技术要求的呃,需要大型数据中心的集中采购,而戴尔在 这方面遥遥领先于同行。估计老黄也是看好了戴尔稳定的产品能力和享誉全球的服务能力啊。而对我们来说也是大树底下好乘凉,同样搭载老黄四零六零显卡和 英特尔十三代酷瑞的 g 幺六,享受两年的上门服务和七乘二十四小时的专家热线。

苏巴和老黄会讲中文吗?从他们黄仁勋和苏志峰中国味十足的名字就可以知道他俩是华裔,但是中文还真不一定都会讲。首先,老黄肯定是会中文的,证据有三, 一,老黄出生于台湾,大概七岁左右才去了美国,在七岁之前都得说中文,有一定的学习基础。第二,老黄在小米三的发布会上给雷军站台的时候,中文还是比较标准的,不可以讲英文,要讲中文 完全没有那种外国人说中文的味。第三,老黄在串台女歌手直播时,我们可以听到很明显的一声,没有你唱什么, 可以看出哪怕不是出席活动,也会冒几句中文出来,照样所述,老黄虽然长期生活在美国,但是中文并没有忘干净,而出发这边则基本上是不会讲了。出发虽然也出生于台湾,但是三岁左右就去了美国,要知道三岁的小孩话都说不太清, 更不要说学习了,几乎没有中文基础。我翻遍很多视频网站,也没有找到叔妈说中文的片段,虽然有小道消息说他能看懂,但是大概率是不会讲的。


这是著名 it 巨头英伟达创始人黄仁勋的一段厨房演讲。先别急着把黄仁勋如何牛叉,本视频的重点不是这个, 然他本人确实很牛叉,作为华人创立了显卡巨头英伟达,就是恩威迪亚也成了亿万富翁。现在的问题是,你能看出视频里的黄人轩到底是真人还是电脑合成的吗? double killthree, 他所占的厨房原来全都是假的,刺不刺激,意不意外?说实话,要是不提前告知,我是绝对看不出来的。原来现在的视频技术竟然已经达到了如此高度,简直能以假乱真了。在十几年前,想必大家对影视 剧中的五毛特效记忆犹新,假的不能再假。后来电脑特效技术越来越先进,只要肯投入,一定能做的很逼真,比如阿凡达。但是呢,我们人类的眼睛非常毒,再逼真的特效跟现实世界还是有那么一点差别,虽然逼真,但也能一下子就看出是假的。 这是啥原因呢?其实很简单,细节决定一切。现实世界中有着丰富的细节,比如光线的角度、影子的位置、皮肤表面的纹路等。如果要把所有细节都模拟出来,需要的计算量和存储量难以想象。 然而,老黄就是黄仁勋的这段演讲视频,那可是颠覆了我们以往的认知,其细节处理已经达到了混淆现实与虚拟世界的程度。比如说他脸上的亮光,由于人脸不是静止的,光,照在脸上的角度时刻在变,因此那一抹油光也是处在千变万化的动态过程中。 以前这种细节都被忽略了,但现在通过强大的数字视频图像和 ai 技术,这种亮光也被形象的模拟出来,就是因为大量细节被真实的还原,所以才让你无法分辨真假。当然,要想实现这种效果,没有强大的技术实力是没戏的。 在这段视频的制作过程中,英伟达的技术人员先是使用好几百个单反相机,把黄仁勋的上下左右都拍了个遍,包括各种各样的姿势,这样才能在电脑中构建出他的三 d 人体模型,然后再利用数字技术 判断在说某一句话时,他的面部表情和身体姿势是如何变化的。这样我们就得到了一个能说会道的三 d 动画假人,但这还是一眼就能看出这就是个 cg 动画,比五毛特效强不了太多。接下来就轮到 a i 上阵了,现在一种很流行的技术叫 ai 换脸,就是把已经拍好的视频 或影视剧中的角色用另一个人的脸来替换,达到移花接木的效果。黄仁轩这个演讲也用到了这种技术,但可不是单纯的换脸,而是用 a i 来还原他脸上应该有的所有细节,包括亮光、纹路、表情、肌肉的变化等等等等。 具体方法是让他先做几个典型的动作,然后让 a i 用深度学习的方法,把各种细节渲染到刚才那个三 d 模型上,使他活了起来。而这个模型的一切表情和动作原本并不存在,都是 ai 自动生成的,就像是 ai 创造了一个活人一样。 不光是黄仁轩个人的形象,演讲视频里的一切场景,包括那个厨房和里面的所有物品都是电脑合成的,是一个典型的虚拟现实场景,用现在时髦的话说,这就是一个原宇宙,假如再配上 vip 虚拟设备的话,足以让你沉浸其中而不自知。就像 电影头号玩家所描绘的虚拟世界一样,现在英伟达的虚拟现实技术已经越来越贴近真正的现实,例如他们开发的自动驾驶汽车模拟平台,是一个更加全面的原宇宙。 在这个虚拟世界中,驾驶汽车,路况、场景、光线和各种物理过程都足以乱真,真实到可以用来测试其他厂家的自动驾驶技术和软件。 有了如此强大的能力,未来的视频电影很可能不需要真拍了,直接用电脑 ai 就可以合成,要什么有什么,而且能让你看不出是拍的还是合成的。如果哪一天实现了,无数电影演员有可能要失业,甚至还有可能出现虚拟的电影明星。 不过话又说回来,这种能实现虚拟现实的视频技术,用你自己的电脑肯定是没戏的,再高配置也不行。任马君知道是男人就喜欢好电脑,当然女人也不例外。好 电脑的标准从来都是跟着时代走,现在大概需要一颗几千块钱的八盒十六线城 cpu, 配上个十几 g 显存的显卡, 再来上六十四 g 内存,其他硬盘主板之类更不必说。但就是这样一台可能上万块钱都下不来的电脑,玩个高画质游戏倒是流畅。要想构建虚拟现实原宇宙也是白扯,那些运算处理都不是个人电脑能玩得起的。 实际上这些高难度和海量的工作可以在云端完成。现在有一种技术叫视频云,像火山隐形视频云就是其中的代表。 用户只需要一台显示终端,比如手机和平板,通过数据通信与视频云连接,视频云负责处理海量的视频数据,然后把结果画面显示在用户面前。这样一来,你足不出户也不用砸钱买硬件,就能拥有一台超级视频计算机。不要说云游戏、抠图 这种常规操作,虚拟的地球或者太阳系出来也不在话下,而且现在的趋势也让人不得不选择视频云。据估算,二零二一年全球产生的视频数据将达到六百万亿亿字节,如果都用 dvd 存储, 这一堆光盘摞起来的高度将达到几百万公里,是从地球到月球距离的十倍,相当恐怖。这么海量的数据,凭借各位的手机或个人电脑是不可能全部处理的,必须由拥有强大硬件支持的视频云才能完成。 而视频中很重要的组成部分就是大量的 gpu, gpu 也是因为打首创,与 cpu 不同的是, gpu 不太关心图形图像之外的东西,而是专注于图形处理,用 有大量的处理单元,还能编辑码和并行计算,很多运算在 gpo 内可以直接完成,而不用去依赖 cpu。 现在英伟达 gpu 的芯片制成也已 达到了七纳米,在处理海量的视频数据时,由大量 gpo 构建的视频云会形成巨大的优势。例如火山隐形视频云就使用了业界领先的英伟达 gpo 软件站,并且开发了各种强大而独特的算法,可以满足视频场景下的各种需求。 比如你想搞视频创作,用视频可以不用滤幕就实现抠图,也可以给老电影自动上色,就像新拍的一样,还可以做出能三百六十度观看的视频,各种酷炫的效果。 对于看视频的观众来说,随着视频和五 g 六 g 通信技术的不断发展,过不了多久,你可能就要扔掉你的高配置电脑了。 只要有个显示终端,利用视频云就可以玩超大型的云游戏,看更高清的视频。或者干脆带上 vr 设备进入虚拟的远宇宙,实现头号玩家中那种沉浸式的感受,在里面开车、开飞机,上天入地,无所不能。哎,说不定还能遇到老黄呢!