粉丝6.4万获赞118.9万


上期我们做出了两样超级美食,那么接下来再来搞起点。首先先从起点钻石搞起,直接买一组。哎,对了,先来买一组绿宝石,合成一下绿宝石块,然后学习一下。这绿宝石不是我从村民哪里兑换的, 而是高蛋搜刮海底遗迹的时候找到的。合成出绿宝石块,然后放入转换桌学习一下, 接着再买上几组,再把背包清理一下好了。做起点需要用到中子素态收集器,不对,应该是压缩器。哎, 这个不是,果然要的是压缩器啊,既然这个不是,那旁边的这个肯定就是了。 ok, 这次就对了,打开后放上绿宝石,要一直放一直放,直到压缩到相对应的值才会给一个起 点,现在正在压缩的是起点绿宝石。 ok, 有了,直接拿出来。这个东东好像是没有 emp 的吧,先看看再说。 哦,原来是有的,一个这玩意居然这么贵,学习一下,然后直接拿出一组来,接下来再来做起点钻石。先拿一组青金石,然后拿上一大堆钻石块。 好了,差不多了,先把青金石合成青金石块,然后来做起点钻石。这个压缩器现在只能做起点绿宝石,那就用红物质丁头锤撸掉,然后再放下。 ok, 现在他变成了一个崭新的压缩器,那就赶紧来做起点钻石吧。 ok, 好了,直接拿出来,然后还是 打开转换桌学习一下。接下来是起点青金石,起点红石,起点金, 还有起点铁。好了,现在就差起点石英了,不过起点石英我已经做了,只不过没有录,那么下期我们就来做中望珍珠潭末影龙好了,最后点个赞再走吧!


卧槽啊,这个帅这个帅,怎么戴上去的?这款万代新品的高大头相信很多人都收到了,我带着扎骨头开箱远阻头,多多少少,是不是有点嚣张了?哦,这个尺寸可以啊,重量适中不重, 有个专用的支架,脸设计的非常正,贴上水贴之后效果得到进一步提升,比我这个自制的渣骨头紧致太多了。 这里是电池仓,隐藏开关在这里三处公园。其实大家最好奇的还是这个东西能不能带啊?一千多,如果只是个摆件显然不够, 咱们先看一下构造,直接带肯定是不行的,在这里大家发现会有很多螺丝,咱们打开看一眼哦,看里面的空间超级大的,脑袋塞进去不是大问题 啊啊啊啊,卡住了,好土啊,刚才太猛了,直接套进去太危险了,里面有几处卡存要事先剪掉眼睛,这里的结构也要拆掉,不然会划伤,然后里面的支撑结构不符合人体功能学,咱们找了一个摩托车头盔的内衬,把它固定进去。 嗯,这下舒服多了。这款远组头很多小伙伴没预定到,现在可以去天猫旗舰店,有限量一千一百一十一个金属配色版,仅在天猫万代官方旗舰店发售啊,下手再晚一点又该错过了,来吧,启动!


有一种领先叫你的产品能够做到全世界最高的利润率。有一种领先,就大家明明都知道你的产品最少也有十倍利润,但是呢,却还都得捧着钱排着队求着你卖。 有一种领先叫你所有的客户明明心里都恨不得想干掉你,但却还得强颜欢笑,极尽赞美之词来给你站台。有一种领先叫绝口不提,遥遥领先的领先。 今天凌晨的英伟达 gtc 二零二四黄仁勋黄教主告诉我们什么叫真正的零钱,什么叫真正的技术壁垒。他告诉了我们,如果你能用三十一年时间来坚持做同一件事,来搞同一种技术,那么到最后你到底能垒出一堵多么高的墙 来吧!来看看黄教主今天都发布了啥?全新布莱克威欧购价,支持十万亿参数的模型训练和推理。基于布莱克威欧购价的新 gpub 二百 有两块芯片,一共有两千零八十亿个晶体管组成,芯片间传输速度每秒十 t。 第二代 transformer 引擎通过新的微商量缩放动态范围管理算法,四位浮点 ai 推理,使计算和模型大小直接翻倍。第五代 nv link, 每个 gpu 每秒一点八 t 的双向吞吐量,最多支持五百七十六个 gpu。 高速通勤超级芯片 gb 二百有两个 b, 二百 gpu 组成三十倍性能,但能耗呢,比上一代 oppo 低了二十五倍。 把三十六个 cpu 和七十二个 gpu 插入液冷机架, ai 训练能达到七十二 p flops, ai 推理能达到一点四亿 flops, 可以部署二十七万亿参数的模型。 这么说大家可能无感,咱们就换种说法,以前要训练一个一点八万亿参数模型,就像 gpd 四吧,一点七万亿参数,那就需要用八千块 h 系列的 gpu, 光能耗就是 十五兆吧。但是如果换成了 b 二百,同样的工作只需要两千块 gpu, 而工号呢,只需要四兆吧。如果是 gpd 三点五这样的小模型,一千七百五十一参数的,那 gb 二百的性能是 h 一百的七倍。除了硬件,还有软的 数字人生云平台和机器人平台、沉浸式内容生成中心和人工智能技术模型,还有给科学家们预备的量子云计算模拟服务和为金源厂预备的光客技术软件库,英伟达将继续加速反哺金源厂。 说实话啊,其实上面这些我本来都不想说,因为这些东西咱是看得见摸不着,他们全都对咱禁售负责任的。说,在目前的情况下,在 gpu 这个领域,咱们没有任何机会了, 一个能打的都没有。也许有人不同意啊,那就请您来告诉我,现在有哪个国产 gpu 能和英伟达较量一下呢?还有 再告诉大家一个残酷的事实,基于 chase former 加高的人工智能,咱们基本上也没机会了, gpt 五发布在 g, 他的模型规模和能力将会完全颠覆您的认知,而我们连能对标 gp 四这种一点七万亿参数模型的技术都没有,而且没硬件没数据,怎么搞模型训练呢? 所以最后的机会只有一个,那就是放弃 transformer, 放弃注意力机制,放弃这条人家走过的比较好走的路, 把新模型构架搞出来,走出自己的一条路来,只有这样才有最后一搏的机会,我坚信这条路能走的通,所以我在恶补先行。代数、函数、乘法状态、空间模型、离散数学等等等等, 确实学的特费劲,但是谁让咱底子薄呢,那就得玩命学,而且我相信只要功夫到了,就有能学会的一天。总结一下吧,因为他的迭代速度是越来越快了,从一年一更变成了一年树更, 我想不出来啊,英伟达到底还积累了多少技术,他到底手里还有多少存款?我只知道英伟达已经不再是一家硬件企业了,他已经变成了一家人工智能公司,而且目前看没有对手。英伟达做 gpu 做了三十一年, spaces 造火箭造了二十二年, 特斯拉做电车做了二十一年,欧文爱死磕 transformer 磕了八年。没有这一种技术,一个产品的长期积累是不可能称霸这个领域的,因为这不科学,也不现实,这是任何营销手段都弥补不了的。如果一个科技企业做不出自己能独步江湖,绝对领先无可替代的产品,那他的存在就没有任何意义, 也迟早会被淘汰,会被遗忘。还有,人工智能的竞争绝对不是马拉松,最多是一场五十米短跑,所以呢,胜负马上见分晓,大家就拭目以待吧!