老黄又来掀桌了啦!
在今天凌晨的2023年全球超算大会(SC2023)上,英伟达推出了全新GPUH200。
作为前代H100的升级款,老黄直接不装了,在官网上单方面将H200称为“当世最强”。
但更秀的是,没人会因此质疑他们违反广告法,因为在AI时代,对手们真只能眼巴巴地看着英伟达的车尾灯。
从英伟达官方透露的数据来看,H200最强的就是在大模型推理表现上。
以700亿参数的LLama2大模型为例,H200推理速度几乎比前代的H100快了一倍,而且能耗还降低了一半。
能取得这么强的成绩,自然是H200的硬件给力。
从参数方面看,H200的主要提升就是把上一代“G皇”H100的显存,从80GB拉到了141GB,带宽从3.35TB/s增加到了4.8TB/s。
而这些进步则主要要归功于HBM3e内存技术。
今年8月的时候,SK海力士推出HBM3e之后,据宣称单颗带宽可以达到1.15TB/s,相当于在1秒钟内传输了230部FHD高清电影(每部容量5G)。
在SK海力士官宣HBM3e之后不久,包括三星、美光在内的内存厂商们,都陆续跟进了这一技术。
这个HBM3e,其实就是之前大家都在用的HBM3的升级版。
说白了就是有更高的性能、更高的带宽,好处就是芯片能用更快的速度传输数据,同时还降低功耗。
非常适合眼下的AI和大数据运用。
于是英伟达第一时间就找到SK海力士进行了合作。
所以我们能看到这才没多久,H200就已经用上了这一新技术。
比起技术升级更方便的是,H200和H100都是基于英伟达Hopper架构打造的。
所以两款芯片可以互相兼容,那些装满了H100的企业不需要调整,可以直接更换。
不过,乍一看好像是王炸,但实际上H200可能只是H100的一个“中期改款”。
因为我们发现,H100和H200单论峰值算力的话,其实是一模一样的。
真正提升的参数只有显存、带宽。
而在此前,大家常用来评判AI芯片性能的重要参数:训练能力。
H200相较H100的提升也并不明显。
从英伟达给出的数据来看,在GPT-3175B大模型的训练中,H200只比H100强了10%。
在世超看来,这种操作大概率是有意为之。
之前各个大厂忙着打造自家的大模型,对GPU最大的需求毫无疑问就是训练,所以当时大家的需求是提升训练能力。
而如今,随着AI大语言模型不断落地应用,训练模型在厂商眼中可能已经是牛夫人了,大家反而全去卷推理速度。
所以这次H200很可能是故意忽略“算力”升级,转而进行推理方面的发力。
不得不说,老黄的刀法依旧精准。
当然了,这也是英伟达工程师们给老黄挤牙膏的本事,谁让人家显卡真就遥遥领先呢。
哪怕只是做了个小提升,H200还真就能当得起“当世最强”的名号。
而且根据瑞杰金融集团估计,H100芯片售价在2万5-4万美金之间,那加量后的H200只会比这高。
而如今像亚马逊、谷歌、微软和甲骨文等大厂的云部门,已经付完钱排排站,就等着明年H200交货了。
毕竟,哪家大模型随便升个级不要几千个GPU?
只能说这波老黄又又又赚麻了。
但问题就是,加价对于AI芯片永远不是问题。
今年初创公司、大厂、政府机构等等为了抢一张H100挤破脑袋的样子还在上演,所以明年H200的销量根本不用愁。
“是人是狗都在买显卡”,去年说完这句话的马斯克也不得不转头就加入“抢卡大军”。
更夸张的是,英伟达方面还说了,推出H200不会影响H100的扩产计划。
也就是明年英伟达还是打算卖200万颗H100芯片,也能侧面看出,AI芯片是多么不愁卖。
但面对全球嗷嗷待哺的市场,英伟达其实也有点力不从心。。
像OpenAI作为打响AI革命第一枪的人,结果因为没有足够的GPU痛苦得不行。
比如因为算力不够用,自家GPT们被各种吐槽API又卡又慢;
因为算力不够用,GPT更强的上下文能力始终没法全员推广;
因为算力不够用,GPT们没法卖给客户更多专有定制模型。。。
光连OpenAI创始人奥特曼,就已经出来好几次炮轰过算力短缺。
而为了解决这个问题,OpenAI也想了不少办法。
比如自研AI芯片、与英伟达等制造商展开更紧密合作、实现供应商多元化等等。
上个月初就有消息说OpenAI已经在找收购目标了。
更进一步的是特斯拉,他们就在7月推出了由定制AI芯片D1打造的Dojo超级计算机,用来训练自动驾驶系统。
当时摩根士丹利直接吹了一篇研报说:特斯拉这波下来,比用英伟达的A100足足省下了65亿美元。
当然,这也不是说马斯克的这个自研的AI芯片就比A100强了。
而只是因为自研芯片只需要干自家的活,更符合自己需要、也没有算力浪费。
就好比英伟达的芯片是一锅大杂烩,谁来了吃都能吃饱饱;而自研芯片虽然只是小碗菜,但它可以按照个人口味做,虽然做得少、但更合胃口。
其他大厂也没闲着,比如微软要自研“雅典娜”、谷歌在年初就在自研芯片上取得突破进展。。
但就像我们前面说的,这次H200其实只是一个“中期改款”,还不足以打消其他厂商们的小心思。
按照英伟达自己放出的消息,大的还是明年会来的B100,从图里看它至少是有指数级的提升。
所以世超觉得,大家伙忙活半天,在硬实力面前,黄老爷的位置恐怕还是会越来越稳。
你看像是即使强如Meta早在2021年就意识到,自己怎么干都比不上英伟达的GPU性能,转头就从老黄那下了几十亿订单(Meta最近好像又有点自研的心思了)。
还记得老黄刚宣布英伟达是“AI时代的台积电”的时候,有不少人冷嘲热讽。
结果现在才发现,这句话居然是老黄的谦辞。
毕竟2022年台积电“只”占了全球晶圆代工产能的60%,而英伟达如今已经占据了可用于机器学习的图形处理器市场80%以上的份额。
总感觉,等老黄的大招真来了,这些大厂们的芯片自研项目恐怕又得死一片吧。。。
撰文:八戒编辑:江江&面线封面:焕妍
本文由天龙八部发布网于2023-11-16发表在天龙八部私服发布网,如有疑问,请联系我们。
本文链接:http://www.sichuansc.cn/sichuansc/403.html