就在今日凌晨,英伟达在 s c 二零二三大会上突然宣布推出新的顶级 ai 芯片 h 二百。而与上代产品 h 一百相比, h 二百的性能直接提升了百分之六十到百分之九十。 h 二百芯片是首款采用 hbm 三一内存的 gpu, 其最大的亮点是拥有高达一百四十一 gb 的显存,为大语言模型训练和推理提供了强大的支持。这款芯片不仅在内存容量上有显著的提升,同时在处理速度上也做了重大改进。 与 h 一百相比, h 二百的带宽从三点三五 t b 每秒增加到四点八 t b 每秒。而与 a 一百相比,它的容量几乎翻了一番, 带宽增加了二点四倍。由于 h 二百和 h 一百都是基于 cooper 加购,所以他们在 h g x 服务器系统中是相互兼容的。使用 h 一百的企业可以直接更换最新的 h 二百,而无需 重新设计。同时,英国打野表示,软件创新才是发挥芯片最强性能的重点。通过持续优化,如今 h 一百在 gpt 三推理上的性能, a 一百高出十一倍,而 h 二百则比 a 一百高出十八倍。英伟达也对外承诺,他们正在积极增强 oppo 的软件优化,并在未来几个月内持续增强 h 一百和 h 二百的性能。此外,英伟达还对外宣称,未来英伟达每一年都会为世界带来一款新的数据中性芯片。
粉丝4430获赞4.6万

美国硅谷又出一个科技重磅新闻,我都等不及回家,直接在车上录了给大家听。刚刚,英伟达发布了目前世界上最强的 ai 芯片 h 两百,巩固了英伟达在 ai 芯片界的霸主地位。 其实他们的上一版去年发布的 h 一百芯片就已经是当今世界最先进的人工智能 ai 芯片了。 所以有人说,如果 h 一百现在是 ai 算力芯片的黄金,那么英伟达又成功的制造了铂金和钻石。从技术角度,英伟达 h 两百芯片是基于 hope 架构,配备了英伟达 h 两百 tensacore gpu, 拥有高达一百四十一 g 的现存, 因此可以为深层性 ai 和高性能计算的工作负载处理海量的数据。相对于 h 一百, h 两百的性能提升最主要是体现在大模型的推理性能表现上。 在处理大语言 ai 模型的时候, h 两百的推理速度比 h 一百足足提高了接近一倍。关键呢, h 两百他还是与 h 一百兼容的,这意味着之前使用 h 一百训练和推理 ai 模型的企业,现在可以无份更换成最新的 h 两百芯片。 现在全世界的人工智能公司都陷入了算立荒,英伟达的高端芯片 gpu 可以说是千金难求,我听说甚至已经成为了贷款的抵押品。随着 h 两百的发布呢,大科技公司们又要开始疯狂的囤货了。 在这一次的发布会上,英伟达甚至全程都没有提任何竞争对手,他只是不断的强调,英伟达的 ai 超级计算平台能够更快地解决世界上一些最重要的挑战。确实,在人工智能芯片里, 与英伟达已经把他们的竞争对手也曾经是他们的老大哥,包括英特尔和 amb 远远地甩在后面了。这一波老黄黄仁勋真的是赢麻了。 高端 ai 芯片呢,最主要是应用在云服务器上,用于人工智能的训练和计算。那么在云服务器方面,除了英伟达自己投资的靠 live 等服务器之外,亚马逊的云科技、谷歌云、 微软的矮血云以及甲骨文云等基础设施都将成为首批部署基于 h 两百芯片服务器的供应商。大家可以看到,在这个名单里面并没有我们中国的企业的名字, 那么 h 两百卖多少钱呢?因为它暂时没有公布。之前一块 h 一百的 gpu 售价是在两万五千美元到四万美元之间,训练一个 ai 模 模型至少需要上千块这样的 gpu。 现在你理解我之前视频里和大家说的 child gpt 人工智能时代,谁才是最大的赢家了, 这也是为什么英伟达被称之为人工智能领域的顶级军火商,而这个领域是我们与国外先进水平差距最大的领域。我们讲人工智能有三架马车,分别是数据、算法和算力。 最后一个算力就是今天讲的,因为达在人工智能的布局所在,因为算力涉及到芯片的设计和制造,这是三架马车里面最硬核,技术壁垒最高的领域。 经常有很多家长问我,现在人工智能能编程这么厉害,我的孩子还能不能学理工科?还能不能学电子计算机?答案是,不仅能学,简直是太能学了!未来 我们国家乃至全世界在人工智能的三驾马车领域,都会持续的需要大量的技术人才。如果你希望孩子在我今天所说的技术壁垒最深的算力方向有所贡献,那么本科可以学啊,计算机、电子、 微电子、半导体、数学、物理等专业。研究生阶段可以主攻集成电路设计、计算机体系架构、高性能并行计算等方向。这些都是我自己读博士相关的一些方向。那我博士毕业之后呢,就直接进入谷歌公司做芯片架构师了。 当然,无论是什么方向,软件编程的技能都是必备的。如果你对孩子的未来发展仍有困惑,欢迎加入我们下方链接的国际视野高位认知年度家长社群,这是我们今年的情怀项目,我们会用一年的时间,二十 多场讲座,在一个社群里面和大家深入探讨人工智能下的家庭教育。我也会在社群和大家分享理工科的细分方向,以及我们的孩子如何去进行编程学习和进阶等话题,期待与你深度交流。

英伟达发布目前世界最强的 ai 芯片 h 二百,叫前任霸主 h 一百,性能直接提升百分之六十到百分之九十。英伟达北京时间十三日发布了下一代人工智能超级计算机芯片, 这些芯片将在深度学习和大型语言模型方面发挥重要作用。比如 openai 的 gpt 四新芯片相比上一代有了显著的飞跃, 将被用于诸如天气和气候预测、药物发现、量子计算等任务。此次发布的关键产品是基于英伟达的 hopper 架构的 h g x h 二百 g p u 是 h 一百 g p u 的继任者,也是该公司第一款使用 h b m 三 e 内存的芯片。这种内存速度更快,容量 量更大,因此更适合大型语言模型。借助 h b m 三 e, 英伟达 h 二百以每秒四点八 t b 的速度提供一百四十一 g b 的内存, 与 a 一百相比,容量几乎是其两倍,带宽增加了二点四倍。在人工智能方面,英伟达表示, h g x h 二百在了么二上的推理速度比 h 一百快了一倍,随着生成是 ai 的大爆炸,未来对算力的需求只会更大。老黄真的赢麻了。如果你想了解更多关于 ai 芯片的信息,关注博主,获取一手资讯!

to optimize computer performance the h200 stands as the world's premier gpu featuring hbm3e memory, marking a significant milestone in our pursuit of maximizing competitional capabilities the h200 offers a remarkable leap in memory performance boasting 4.8 terabytes a second a memory bandwidth and showcasing a substantial 1.4x increase compared to the h100 gpu h200 also significantly expands memory capacity by nearly 1.8x reaching a total of 141 gigabytes per gpu the integration of faster and more extensive hbm memory serves to accelerate performance across competitionally demanding tasks including generative ai models and hpc applications while optimizing gpu utilization and efficiency。

兄弟们,这可能是全网首批 h 八百的实物讲解视频,我太激动了,我面前又摆了一套房啊!兄弟们,废话不多说,我们先上机考他, 大家可以看到他的上机参数, 那有点大家要注意, 当卡的温度达到九十度的时候,他的功耗会降为二百瓦。再说参数, gpu 显存为八十 gb, 显存贷宽为二 tb 每秒, tdp 为三百到三百五十瓦。采用第四代 tising car 和支持 fp 八精度的 transform 引擎, 其非常牛掰的 hopo 架构强第二代多实力 gpu 技术支持在虚拟环境中实现多租户、多用户配置,安全的将 gpu 划分为独立且大小合适 的实力,为受到保障的租户最大化的提升服务质量。他的外观和 a 八百基本没有什么区别,都是大金砖双槽,全高全长,但是他的金手指和 a 八百有很大的区别,镶嵌式 更显豪气。目前 h 八百的手价是二十万,有想要的兄弟吗?欢迎在评论区留言。

ai 最强算力又被颠覆了,当全世界的 ai 厂商都在疯抢 h 一百的时候,黄老板居然又掏出了全新一代的 h 二百芯片,还是这个小东西,单机显存达到了一点一 t, 并且搭载了速度更快的 hb m 三 e 显存, 显存带宽更是来到了四点八 t, 更大的显存和更快的内部带宽,大大的减少了跨卡通信的次数,这样一来就大幅提高了模型推理的速度。七百亿参数的拉马二推理速度提升了将近两倍,而工号却直接腰斩下降了百分之五十,还是皮衣皇那句话, the more you say! 并且 h 二百和 h 一百可以相互兼容,也就是说它同样可以搭配 grace 组成一个一百五十六 t 显存的超级计算机。虽然显存得到了大幅提升,但是算力却和 上一代的 h 一百一模一样,模型训练的性能仅仅提高了百分之十。这也预示着随着越来越多的人了解和使用 ai 模型的推理需求正在飞速增长。 各个大厂以及全球的各大顶级超算中心纷纷表示将会使用 g h 二百来构建自己的超级计算机,因为达更是计划在二零二四年生产二百万块 h, 按照四万美金的单价计算。不得不说,皮一黄现在真是赢的头发丝都麻了, that's right, the more you buy, the more you save! 而在老黄的规划中,这个东西 才刚刚走到这,后面居然还有更加离谱的 b 一百和 x 一百, ai 的进化速度很有可能会再次超出我们的想象。点个关注,快人半步!

十一月十三日,英伟达发布了最新的 ai 芯片 h 二百 dancer called gpu, 配备了一百四十一 g 的显存,可谓生成是 ai 和高性能计算工作,附载处理海量的数据。 据官方透露呢,与英伟达 h 系列上一代的 h 一百芯片相比,新产品的容量近乎翻倍,性能提升高达百分之六十至九十。 而上一代的 h 一百芯片,即全球关注度最高的人工智能初创公司 open a, 用来训练大语言模型 g p t 四的芯片。 h 二百与 h 一百基于相同的 hopper 架构,可以加速基于 transfer 架构的 a l i m, 还和其他的深度学习的模型处理高 高性能计算应用程序的性能相比,上代也有将近百分之二十的提升,可以实现更快的数据传输,减少复杂的处理瓶颈。 对于模拟科学研究和人工智能等内存密集型 hpc 应用, h 二百更高的内存宽带可确保高效的访问和操作数据。与 cpu 相比呢,获得结果的时间最多可以加快一百一十倍, 关键是其其能耗相比于 h 一百还减少了大约百分之五十。 h 二百芯片发布的当天呢,因为达到股票上涨了百分之零点五九,盘中一度涨幅达到百分之一点四, 因为达到官网目前尚未透露 h 二百芯片的售价。不过可以参考的是,上一代 h 一百于今年早些时候开始量产, 每一个 gpu 的售价约为两万五千美元,约合人民币十八万二。另一边呢,看向国内市场,目前国内的 ai 芯片相关的厂商主要包括含五 g、 景加 v 云天丽飞、恒硕股份、海光信息、复旦微店、 安陆科技、蓝起科技、航宇威国新科技、紫光国威、国科威等等。其中含五 g 的 a s i c 芯片是国内 ai 芯片的龙头,景加威的 gpu 芯片是国内 gpu 的龙头。好啦,今儿我们就先聊到这吧,咱们下期接着聊。

在二零二三年全球超算大会 sc 二零二三上,芯片巨头鹰尾巴发布了 h 一百芯片的继任者,也是目前世界最强的 ai 芯片 h 二百。相比于其前任产品 h 一百, h 二百的性能直接提升了百分之六十到百分之九十。 h 二百芯片的最大特点是其每秒处理四点八 tb 的数据速度,并且能够提供给芯片高达一百四十一 g 的存储容量。 与 a 一百芯片相比, h 二百不仅容量翻倍,而且带宽增加了二点四倍。此外,英伟达并不会向中国厂商供应 h 二百芯片, 这并非由于价格和产能问题导致,而是美国最近出台的人工智能 ai 芯片管制新规所致。在这样的大背景下,英伟达只能为其他地区客户提供性能下降百分之八十的版本的 h 二百芯片。这种举措引发了业界对于中国厂商未来发展的担忧。

ai 最强算力又被颠覆了。在最近的 se 二十三世界超算大会上,英伟达发布了迄今为止最强大的 ii 芯片 h 两百。 其实去年发布的 h 一百芯片就已经是当今世界最先进的人工智能 ai 芯片了。所以,如果说 h 一百现在是 ai 算力芯片的黄金,那么英伟达又成功的制造了铂金和钻石。从技术角度,英伟达 h 两百芯片是基于 hop 架构,配备了英伟达 h 两百天色 core gpu, 拥有高达一百四十一 g 的显存, 因此可以为生成性 ai 和高性能计算的工作负载处理海量的数据。相对于 h 一百, h 两百的性能提升最主要是体现在大模型的推理性能表现上。在处理大于 ai 模型的时候, h 两百的推理速度比 h 一百足足提高了接近一倍。关键呢, h 两百它还是与 h 一百兼容的, 意味着之前使用 h 一百训练和推理 ai 模型的企业,现在可以无缝更换成最新的 h 两百芯片。自打叉 g、 p、 t 四发布,全世界的人 工智能公司都陷入了算里慌。英伟达的高端芯片 gpu 可以说是千金难求。现在的 h 一百卖四万美金一张,您说 h 两百得卖多少钱呢?从今年下半年开始,就能明显感觉到英伟达加快了新产品的发布速度。从 gh 两百到 h 两百, 明年还要发布 b 一百,二零二五年还会推出性能超出所有人想象的 x 一百。那英伟达为什么要这么高频地发布新产品呢? 说白了,就是要用不同定位的产品填满各个细分市场,占领市场份额,然后疯狂赚钱。这就是黄老板的阳谋。一颗 h 一百,成本仅仅三千三百二十美元,却能卖到四万美元的高价,单颗利润高达三万六千美元。而明年,英伟达会把 h 一百的产量提高三倍,达到两百万克。 也就是说啊,仅仅 h 一百这一款芯片,就能给英伟达带来七百二十亿美元的利润,这可还没算其他产品的利润呢。确实,在人工智能芯片领域,英伟达已经把他们的竞争对手,包括英特尔和 amd 远远的甩在后面了。这一波,老黄黄仁勋真的是赢马了。

刚刚 nvidia 又放出了两颗核弹,我是三副机器人庞博士,下面我就在硅谷给大家做第一手的解读。第一颗核弹就是他最新的 gpuh 两百,跟他前一代 h 一百相比,他最大的提升就是他的内存达到了惊人的一点。一 tirebox, 它这个跟我们以前计算机里看到的内存条是不一样了,它采用的这个最新的技术叫 h b m three e hbm, 就是 high bandwids memory, 也就是高带宽内存。这个首先是把 dram 内存用三 d 封装的技术叠了起来, 然后把它和 gpu 芯片放在了同一块 gpu 的底板上,他们之间的通信就通过这块经营员直接做了,这样内存的容量就大大的提高了,同时他们和 gpu 的通信速度也有显著的增长,达到了每秒钟四点八个 tarbat。 然后他又把所有的软件 做了优化,这样就使得叉 gpt 这样的大模型的推理速度大大的提升,跟他的 a 版相比提高了十八倍。他的第二个核弹就是他的 cpu 和 gpu 的合体 gracehopper gh 两百,他这个也是把他的 arm 的 cpu 和他的 gpu 封装在了同一块精原版上, 这样他的 cpu 和 gpu 之间的传输速度就非常快,而且他们可以共享内存,他的内存也达到了惊人的六百二十四 gabax, 而且上面有七十二个 arm 的计算盒,这个的算力跟叉八六的芯片相比提高了一百倍,而功耗却只有二分之一。

各位准备好了吗?我们即将进入英伟达家族的世界,相信大家都知道 chat gpd 这可不是个简单的东西,得有强大的算力支持,在这背后,英伟达的 gpu 功不可没。首先是 v 一百,这个大跌,哦不,应该说是 ai 界的硬汉,采用十六纳米 fifth 工艺, 五千一百二十个哭的核心和最多三十二 g b 的 h b m 二现存。这家伙的 tensor cors 加速器在深度学习中是真正的王炸,能为你提供高达一百二十倍的性能提升,加上 n v ling 技术,让大模型训练瞬间飞起。 接下来是 a 一百 v 一百的儿子,他从老爸那继承了不少基因,但是明显吃了比老爸还厉害的蓝色小药丸。六千九百一十二个哭的核心,整整超过了老爸近两千个。不止如此,他还掌握 做了 tf 三二这门高级武功,而 make 技术更是让他可以像变形金刚那样把自己分成七个小部分独立操作,专为 ai 与混合精度工作负载设计。简单来说,他就像一个擅长多任务处理的超人。那 h 一百呢?这货有八百亿个晶体管, 是全球首款支持 pcie 五与 h b m 三的显卡,采用四纳米工艺,还有个很酷的 transformer 引擎, 专门处理语言模型。不夸张的说,你给他个大型语言模型,他能为你提速三十倍。因为某些大佬不让 a 一百和 a 一百来中国玩,但为了中国市场,英伟达推出了 a 八百和 h 八百。 a 八百可以说是 a 一百的小弟, 也被网友调侃为阉割版。总体来说主要是数据传输速率上的限制,但在整体性能差距不大。还有 h 八 八百与 a 八百相比,在显存贷宽上也有明显的提高,对比之下, h 八百的性能大约提升了三倍。显存贷宽是决定 gpu 处理速度的关键, h 八百的显存贷宽到达了三 tbs。 简单的说,就好像一条不限速的高速公路,数据就像超跑在这公路上飞驰,很酷吧。 h 八百强大的秘密在于英伟答对 hopper 架构的创新和优化。好了,希望你们通过我的介绍对这些硬核的 gpu 有了更深入的了解,留下您的点赞和关注,下次再见!

英伟达的节奏越来越可怕了,这去年刚发布的 h 一百还买不着呢,现在又发布了世界最强 ai 芯片 h 二百, 这到底要怎样啊啊?前面 oba 刚发布了人类历史上最强的人工智能还没两天,英伟达又出来搞事,这是你们人类都开始偷偷进化没通知我吗? 来三个数据带你看看什么叫做最强芯片!首先,相比已经被抢破头的 h 一百芯片, h 二百直接提升了百分之六十到百分之八十的性能,接近翻倍,这是仅仅过了一年时间的结果啊! 其次, h 二百和 h 一百可以相互兼容,以前使用 h 一百的公司不用做任何调整,适配换上 h 二百直接用。而且 h 二百在处理 lam two 的推理速度上比 h 一百提高了将近一倍,而工号却只有 h 一百的一 一半。更重磅的是,在发布会上公布的这样的产品路线图,在天花板 h 二百的上面居然还有 b 一百和叉一百这样的产品规划,这两个家伙到底会是什么样的性能怪兽?恐怕黄山勋自己都不敢预测了。 在 h 二百的加持下,英伟达 g h 二百的超级芯片将会为全世界的操算中心提供更为强大的 ai 算力。 全球顶级的超算中心都宣布了自家使用 gh 二百的计划,看看 gbt 四现在令人瞠目结舌的进化速度,再想想英文答案那张产品路线图以及 h 二百的可怕性能, ai 技术很有可能在不远的未来迎来人类无法想象的飞跃。就像英伟达宣传的那样,英伟达的 ai 超级计算平台能够更快的解决世界上一些最重要的挑战。我是彭高州,在瞬息万变的 ai 世界为你领路。


众所周知啊,由于美国的经历,我们现在国内的高端 gpu 都是中国特供版的,那说白了就是阉割版嘛, a 一百到国内就成了 a 八百, h 一百到国内就成了 h 八百,那么 a 到 h 到底差在哪里了呢?我们直接拿 s 叉 m 版本的 h 八百进行参数对比,只能说这个参数对比对于不了解的人来说还是比较出人意料的, 除了 fp 六十四和 mnik 上传输数据的明显削弱,其他参数和 h 一百都是一模一样的。而 fp 六十四上的削弱主要影响的是 h 八百在科学计算、流体计算、有限员分析的超算领域的应用,而现在正火的深度学习等场地并不会受到影响, 受到影响最大的还是 nbank 上的肖战,但因为架构上的身体虽然比不上同为 hope 架构的 h 一百,但是比 ipad 架构的 a 八百还是要强上不少的。说白了,老王想要抓住国内市场,就算是阉割也不会阉割的特别 过分。美国政府想限制国内的超算,那就把超算性能砍掉,传输率减少,改个名字 gpu 照卖吗?只要保证 h 八百在大部分场景之下的性能不受影响,能满足大部分人的使用需求就够了,毕竟也不会有人跟钱过不去。 所以其实 h 八百和 h 一百的性能差距并没有大家想象那么夸张,就算是砍掉了 f p 六十四和 m n k 的传输速率,性能依旧够用,最关键的是它合法呀,所以如果不是应用于超算的话,也没必要冒着风险去选择 h 一百。

为了应对美国政府最新的出口鉴定,英伟达又推出了三款性能阉割版的算力芯片。然而这次我认为中国企业不会再像当年的 a 八百和 h 八百那样选择买单,因为新的芯片性能实在太差,对国产算力芯片不会构成多大的威胁。哈喽,大家好,我是亦凡。 美国政府新的出口鉴定和之前相比要严格很多,用了一个叫做性能密度的全新指标,最终的结果就是包含 a 八百和 h 八百在内的主流芯片几乎都无法再向中国出口。 这次英伟达推出的三款芯片,性能和华为升腾完全就不在一个档次上,中国企业选购新版芯片的可能性是非常小的。二零二二年十月的老板出口禁运是总算率大于四千八,并且带宽大于六百 g 的芯片,才会禁止对中国出口。英伟达的策略是维持 a 一百和 h 一百的算率,但是把带宽下调到四百 g, 继续向中国出口新版 gdp, 是用了一个叫做性能密度的指标, g 每平方毫米芯片的算率有多大?这个指标一出,包括 a 八百、 h 八百、 l 四零、民用显卡四零、九零等在内的芯片全部超标,无法对中国出口。 英伟达的应对策略是顾忌重演,推出了 h 二零、 l 二零以及 l 二三款新的性能严格版芯片。我们来看一下这三款芯片的性能到底如何。 尽管这三款芯片都符合最新的出口进联要求,但作为算力芯片最核心的指标,计算能力实在是太差。 性能最高的 h 二零在八位精度下的算率只有二百九十六 tops, 连 a 一百的一半都不到,而华为升腾九幺零的算率高达六百四十 tops, 是 h 二零的两倍还要多,可以说这两款芯片的性能完全不在一个水平 线上。升腾九幺零直面的竞争对手其实是 a 一百和 a 八百。之前会有大量企业继续使用英伟达阉割版的 a 八百芯片,无非就是性能缩水还在可以接受的范围内,同时又丢不掉英伟达的 coda 生态。 如果现在只能买到性能缩水一半还要多的 h 二零芯片,相信绝大部分企业都是不能接受的。最终的结局就是越来越多的中国企业会切换到华为升腾英伟达新版芯片,对国产算率不会产生什么影响。 如果你喜欢本期视频的内容,别忘记帮一凡点一个赞,那我们下期视频再见!

英伟达啊,深更半夜发布了这个 s 两百,这款呢是继这个 h 一百芯片发布仅八个月之后啊,就推出的,一经发布之后的话呢,依旧是禁售,我们国家啊,要获得相关这个批准文件之后才能对我们国家出售,说实在的这个都是瞎扯淡,之前我们国家想要去买这个 h 一百的时候,那都是基本上不卖给我们的啊, 卖给我们都是什么 h 八百? h 八百是这个 h 一百的阉割板啊,整体的它的传输速度的话呢,只有 h 一百的一半,而这个 a 八百同样是阉割板的价格,还卖的贼贵啊,卖给我们, 其实美国佬对我们国家这种高端科技的风俗是非常的严峻的,并不是像大家在网上看的那样子啊,什么原代码这些东西,代码全部向你开放,真正的核心的技术呢,要是掌握在自己手上的啊,不要认为知识产权保护这东西没有用啊。新发布的这个 s 两百啊,是这个 s 一百的升级产品啊,依旧采用的是英文达 oppo 这个超级 芯片架构,主要是面向超大规模大模型训练和推理场景啊运用我们要知道我们现在这个文星岩啊,大模型四点零确实还是非常牛逼的,因为我个人用的话呢,呃,也感觉非常不错,目前的话呢,这个三点五的版本是免费的,四点零的话要收费啊,美国老看到我们这个大模型这一块的话,发展非常好啊, 所以说他们也很着急啊,是不是也在对我们大力的这个打压。与上一代的这个 h 一百相比的话呢, h 两百的话能够达到每秒四点八 t 的速度啊,提供一百四十一 gb 的内存啊,几乎容量的话呢,是翻倍的啊,带宽增加二点四倍, h 两百的传输速度的话呢,大约是这个 h 一百的一点九倍啊, s 两百对这个切的 gbd 三点五的传输速度的话呢,则是 s 一百一点六倍啊,而且啊是这款超级 asp 还是非常牛的啊,目前啊,我们的这个 s 九零跟这个计算卡 s 四千的话,已经在这个数据备案库中了啊,相信很快应该会跟 大家见面了,包括我们这个 dx 十二也在加速研发之中。目前很多哥们说我们这个国产型啊,兼容不了多少游戏啊,因为游戏的驱动啊,他是需要一定的时间了,并不是大家所想象那样的闭门造车自己去优化程序就可以了,他是需要这些游戏场上给到我们这些游戏参数和对应的接口才可以不断的去优化调整的啊,如果说人家不给你的话,你是闭门造车造不出来的啊, 我们要知道这些游戏产证背后全都是美国老师,要知道我们目前国产显卡这个 s 八零的话呢,整体的硬件实力是已经超过这个三零六零的啊, 而这个计算能力方面的话,是跟这个四零六零差不多了,只相差零点七 t, 还是非常牛的啊,通过这个事件的话,我们就可以看出啊,我们必须要走自主自强这条道路才有可能啊,不被打压,不被欺负,大家说是不是?欢迎大家在评论区留言啊,这期视频的话就先到这里,拜拜。

中国华为终于又一次站上了人工智能的风口浪尖。八月底,中国 ai 大厂科大讯飞的创始人刘庆峰在一场高峰会上放言,中国人工智能领域的算法没有问题,但我们的算力似 始终被美国英伟达按住。但好消息是,华为的 gpu 芯片能力现已与英伟达 a 一百一样了。我特别高兴自豪的告诉大家, 华为的 gpu 能力现在已经跟英伟达 a 一百一样了。华为创始人任正非高度重视华为,联合科大讯飞已经做到对标英伟达的 a 一百。 这个喜讯的背后,却是一场风云诡谲的战略齐聚博弈。近年,中国在 ai 人工智能领域的崛起遭遇美国权力围剿与打压,而我们的这场反围剿战役也已打响。局长,这就带你回顾跨越十年的全球 ai 新 片博弈。一九五六年,美国达特茅斯河边的一场学术会议上,延续伟大科学家统领提出的会思考的机器的构想,麦卡西明斯基及信息论开创者香浓等数位美国科学家开启了对机器人能否拥有人类智能的讨论。 会上,麦卡西第一次提出了 ai 人工智能一词。麦卡西明司机这些号称 ai 之父的科学家们无疑是过度乐观的,他们相信 ai 将在未来十余年改写人类科技史,而必是人工智能仅被使用在跳棋等游戏中。 日后数十年,人工智能并没能从期盼中走进现实世界,仅停留在好莱坞的科幻电影里。就算在一九九六年一场国际象棋世界冠军加里卡斯帕罗夫与 ibm 超级计算机深蓝之间的崎岖博弈中,机器战胜了 人类,世界冠军也无法让人类相信 ai 会立即改变世界。 早期的 ai 人工智能分为两大门派,一派相信将人类的知识存储下来,构建一个专家系统,就能让机器拥有类似人类的智能。这一门派被称为符号主义。另一派则笃定 真正的人工智能是需要通过计算机构建与模仿人类大脑思考的神经网络。这一门派遵循连接主义,前者忽视了人类对于世界认知的有限性,后者虽然低估了人类大脑思考网络的复杂性,但只要能构建出几十层神经网络,就可以让电脑拥有部分人类思考的能力。 二零零六年,多伦多大学教授辛顿等人基于上世纪八十年代的机器学习理论,推出了深度学习概念,也就是构建深度的神经网络,让机器人模仿人类思考 新论的人延续了廉洁主义的火种,燃起了新一轮人工智能的烈火。 这是一台电脑,除了操作他的鼠标、键盘、触屏、显示器等,他的使用主要依靠内部存放大量数据信息的存储系统与处理这些信息数据的中央处理器 cpu。 这一体系正是与图灵齐名的冯诺伊曼发明的, 也被称为冯诺伊曼基。而人工智能正附着于冯诺伊曼式电脑。科学家将数据输入并存储给电脑,通过深度学习算法,结合 cpu 算力,就能让机器拥有识别物体,做出是与否、对与错的判断,甚至能让机器完成人类指定的工作。 所以,数据算法芯片带来的算力就成为发展 ai 最重要的三大要素。二零一二年左右,一个叫温达的华裔科学家计划让他的 电脑拥有识别出各种猫的能力。于是他利用深度学习算法,为给他的电脑千万张不同品种猫的信息标注图,且并联了一点六万块中央处理器 cpu 芯片作为算力。最终,猫识别系统获得了成功,震惊了业界。而成功的代价是吴文达烧掉了一百万美金, 花了这么多钱,就为让电脑识别出猫,值得吗?值得!因为吴恩达的计算机视觉实验在日后以中国为代表的不少互联网大国获得广泛应用,在电子支付、互联网电商监控、安防、汽车辅助驾驶等领域获得了巨大商业价值。 温达也曾回到中国,成为了中国科技大厂百度的首席科学家。但那是 ai 依旧存在一个巨大的芯片算力难题。十年前的 cpu 大多是双核、四核的,他的问题是无 无法并行的同时计算处理多个任务。因此,温达的猫识别系统就需要将一点六万个 cpu 并联计算,带来大量的发热耗能与算力成本。那怎么办呢?实际上,一台电脑除了处理主任务的中央处理器 cpu 外,还有处理图像任务的 gpu, 也就是图像处理器。 他拥有上百个内核,能够同时处理大量计算任务,在图像任务处理领域能力卓越。当 ai 价值还未充分发掘前, gpu 仅被注重画面质量的电脑产业重用,但基于机器学习、深度学习的 ai 图像识别能力被商业化放大后, gpu 愈发成为 ai 算力之王。 美国无疑是全球芯片霸主,在电脑处理器领域,英伟达、 a、 m d、 英特尔三强鼎立,其中英伟达最为专注于研发 g p o 图像处理芯片。伴随着 ai 的大 发展,因为打 gpu, 价值就被无限的科技可能性放大。创始人黄仁勋曾提出皇室定律,要求因为打每六个月升级一次 gpu 产品,并且是功能翻倍。在过去十年的 ai 大潮中,黄仁勋抛弃过包括手机 soc 芯片在内的其他业务, 专注于 gpo 算力,也因此,因为达遥遥领先于其他对手。二零二三年五月三十日,因为达终于握住了芯片之王的权杖,成为首家市值超一万亿美元的芯片企业, 是第九家进入万亿美元市值俱乐部的公司,因为它属于芯片的 ic 设计公司,它的背后还站着一家芯片巨头,那就是张忠某创办的台机店。 黄润勋的英伟达负责好芯片设计就行了,台机店负责代工出尖端的 gpu 产品,两家公司合作的天衣无缝。也因此常有人开玩笑说, 如果再加上第二大 gpu 芯片公司 amd 的掌门人苏兹锋,可以说美国 gpo 芯片领域完全是由我们华人掌控。但正是这些华人无奈的卡住了中国的波子。二零二二年八月,美国拜登政府开启对中国科技业的新一轮打压 围剿,玩华为麒麟手机芯片,美国新的 ai 芯片出口管制又横空出世,在大国博弈中放出无情的杀招。 发展人工智能产业,中国的优势就在十四亿人口与数字化经济下产生的庞大数据,还有能编写各种算法的大量 ai 工程师们,但最关键的算力芯片上,我们当下举步维艰。 ai 芯片分很多种,除了特定框架下的专用 ai 芯片, gpu 的使用最为普遍,而且中国曾一度领先全球,但美国发动性 芯片为小后,中国开始慢慢落后,特别是最近 chat gpt 大模型的破缺,对于算力的需求就更大了。要知道,强大的 chat gpt 背后,正是因为达 a 一百芯片的算力支持。如今全球科技巨人们还将 ai 与云计算结合,推出数据中心云上 ai 服务, 这就进一步加大了对 a 一百的算力需求。美国对英伟达最高端的 a 一百、 h 一百做出出口线之后,英伟达也试图在中国市场推出阉割版的 a 八百、 h 八百,但不久后,连阉割版产品也被传出禁售的消息。而美国政府也许并没有考虑到 中国在英伟达数据中心业务中的营收占比达到百分之二十五,中国市场一个季度的收入就高达百亿美金,限制令让英伟达感受到了巨大的压力。因此,华润勋说,美国政府为抑制中国半导体制造业发展而 实施的出口管制,捆住了因为他的手脚,让芯片公司无法在其最大的市场销售先进芯片。他更警告,因为他自己需要跑的非常快,中国在这一领域投入了相当庞大的资源,所以不能轻视 这个酷爱穿皮夹克的技术。朋克深知中国举国体制下,也许任何事情都有可能。他说的没错,不久后,景加威摩尔县城、 绍兴兴动木西等中国 gpu 厂商冒着被台机电切断产能的风险,担负起破局的重任,但这些中国力量中,最为国人熟知的还是华为。二零一九年,华为已被美国盯上了。 年八月,在深圳总部,华为发布了一款自研机 p u 芯片升腾九幺零,华为将其定位为采用自研达芬奇架构的 ai 处理器,以当时的数据升腾九幺零的性能, 当时国际顶尖 ai 芯片因为达 v 一百的两倍,算力上相当于五十个 v 一百,训练速度也比 v 一百提升了百分之五十到百分之百,可以搭配华为研发的生死 month or ai 架构。 本以为华为将再次上演 gpo 领域的弯道超车,没想到美国的科技霸权之处突然砸向华为,切断了台机店的怠工,也因此升腾九幺零无法进行迭代,之后被英伟达的 a 一百、 h 一百超越。虽然升腾九幺零也像麒麟九千一样成为绝唱,但华为并没有放弃 在内部大量应用到云服务企业、 it 以及人工智能领域。二三年八月,科大讯飞创始人刘庆峰的激情演讲,再次点燃了我们对华为 gpo 算誉的无限期盼。对标英伟达 a 一百,刘庆峰是吹了惊天大牛,还是华为真能做到? 你们觉得呢?评论区和区长聊聊。