粉丝30获赞215


是啊,这英伟达的这一手操作真的是让人应接不暇,一前一后, h 二零和 h 二百全都出来了。对啊, h 二零就是咱们中国的特供版,也就是咱们之前说的阉割版的阉割版,而咱们 h 一百还一直都买不到,人家 h 二百已经出来了,咱这里就一口气把这俩都说一下吧。 h 二零是怎么回事呢?就是因为英伟达要去满足美国的出口限制,令 h 二零的性能确实让人大跌眼镜,直接缩水百分之八十。 以前 h 八百虽然带宽差一点,但好歹算力是放在那,跟 h 一百是一样的,现在 h 八百能干的事,你得要五块 h 二零才能干的了。换句话说,以前咱们的大模型可能要跑一个月,现在用 h 二零就得跑五个月, 这不是明摆着掐咱们的脖子吗?是啊,所以才说 hr 零是阉割版的阉割版吗?但是啊,咱们各个大厂还得买,而且就现在这个态势,你不买, 买以后可能还买不着了。大家会觉得奇怪,华为不是已经有那个算力底座了吗?再怎么差也不会比这 h 二零差吧?确实是这样啊,用咱们国产的芯片完全能够替代,但是大家为什么还得去买呢?就是之前咱们说的这个原因吗? 英伟达他有一个平台叫酷打,大家以前一直在用英伟达的芯片,也就一直在用这个酷打的平台,你不管是 h 一百, a 一百还是 h 二零、 h 八百,只要是在酷打平台上面,你就可以跑。 所以说啊,咱们现在这些大厂之前一直是用无宁伟达的产品,肯定在库达上面做的事情很多,要切换到华为的平台上面就是很难嘛,也不是说完全没办法,就是成本很高,华为也得投入很多的人去配合你,所以这个事情都得慢慢来, 在过度阶段呢, h 二零肯定该买还得买,这就是英伟达还敢拿出阉割版的阉割版的原因吗?但是哈又但是哈。 话说回来, hr 零的采购量肯定不会像 h 八百那么多了,它的性能实在是太差了,在大模型的训练上面实在没办法用。 我们都知道啊,你搞大模型的训练还是应用,你都必须要用大量的芯片,成千上万个芯片穿在一起,芯片性能差一点,你可以多穿点芯片,但也不是说想放多少就放多少。 h 二零他最多就是放五万块在一起用,组成一个算力底座,他的算力还不到 h 一百所组成的算力底座的十分之一。 好,咱不跟 h 一百比是吧?咱就跟几年前的 h 一百比,那 h 一百是最多可以一点五万张放在一起用,就这 h 二零他们集群的算力还不到 a 一百集群的百分之八十, 而且这么多芯片串在一起,系统的稳定性啊,耗热呀等各方面全都是问题。也就是说,如果你想继续用这 hr 零去搞什么大模型的训练,就这个性能,你 跑出来的大模型肯定是人工智障啊。而就在这个时候,英伟达的 h 二百出来了,把咱们中国人确实是残的眼红的很呐,这个 h 二百到底有多厉害呢?之前对于各大人工智能的公司来说啊,特别是搞大模型的公司, 像微软呀,谷歌呀, facebook 啊,都是大批量的在采购。英伟达的 h 一百可以说是一卡难求,因为这个芯片它们的内存非常的强大,数据传输的非常快, 像 h 一百是九百 g b 每秒,好呢, h 二百相比于 h 一百有多大的提升啊?首先贷宽又大了,达到了四个 t, 这个是什么概念啊? ai 的训练它是肯定要成千上百万芯片结合在一起用的,但是卡和卡之间的传输速度就成为了比较重要的读点,现在 h 二百的这个内存带宽就等于是打破了这个读点,所以你可以认为不管是多少块芯片连在一起,它都是一块芯片,这对于大 模型来说非常的关键,当然他们的性能也是翻倍了,但是能耗呢,下降了一半。 h 二百还有一个提升,显存非常的大,有一点一个 t 要做人工智能大模型的训练,他的算力当然很重要,但是你的内存里面的数据不够多,他也是吃不饱的。 显存有一点一个 t 就等于是你有一个很大的粮仓,可以随便的吃东西,这也是 ai 芯片和显卡之间的一个很大的区别,对吧?之前咱们说嘛,显卡它虽然算力很强,但是是不能用于大模型的训练的,所以有了这个这么大的显存, 又有这么宽的带宽,数据就相当于是在高速公路上面飞奔啊,大模型的训练当然就更加的畅快了。 h 二百他们的名字还真就没白取,相比于 h 一百,他在模型训练的这个性能上面又是翻倍了。根据英伟达自己的说法啊,几百亿的参数,大模型训练的时间直接就缩短了一半,然后这 这个芯片很快也会进入量产了,相信美国的各大科技企业也就会继续的加大他们的订购量。对啊,在 ai 时期,所有的企业都在烧钱,只有英伟达在使劲的赚钱,在淘金的时代,你卖铲子仍然是最赚钱的,现在全世界最大的卖铲子的公司就是英伟达,这黄仁勋真的是淫麻了, 而且后面还有更多的芯片,像 x 一百, b 一百啊,全都要出来,他们已经把预告都已经发出来了,但是啊,我看到很多的自媒体不停的欢呼雀跃,高兴个啥呀,跟我们有关系吗?我们能买到的是什么? 是 h 二零,相当于 h 一百,性能缩水了百分之八十,咱们这边变慢了五倍,他们那边变快了两倍,这一定会对我们大模型的训练产生非常大的影响啊,我们人工智能的脖子就是被卡在这了吗?当然,面对这样的情况,虽然很无奈,可是还得想办法解决啊。华为的算力底座是 一个解决方法,只不过短期他也很难发挥效果,转换到华为的平台上面也不是一朝一夕能够完成的,而且华为的性能也是相当于 a 一百嘛,发热量还更大一些。我们更应该考虑的是怎么样集中力量打歼灭战,伤其无指不如断其一指,把咱们的算力拢一拢,好好的把几个主要的大模型做好, 怎么样最高效地利用好咱们现在的算力,才是现在咱们最该思考的问题。有关于 hr 零和 hr 百,咱们就先说这么多吧,情况就是这么个情况了。
