英伟达秀全球最大GPU,黄仁勋从烤箱里拿出的产品果然「爆了」

  • A+
所属分类:技术资讯

技术编辑:Carl博客编辑部Carl博客报道:Carl博客
是他,还是那个男人,熟悉的皮夹克。
黄仁勋5月14日晚上在厨房举行了英伟达GTC 2020在线简报。受新的冠状病毒传染病的影响,英伟达计划的现场活动被取消,3月24日没有任何新闻发布会。千呼万唤,黄仁勋终于在烤箱前见到了大家。
这个GTC预热后不走寻常的路。黄仁勋在大会前一天从烤箱中拿出新的安培体系结构GPU NVIDIA A100进行了日光浴。
这个“世界上最大的”真的不是谎言
令人惊讶的是,虽然不能进行离线活动,但英伟达连现场直播都懒得登录,黄仁勋亲自播放了在自己厨房录制的视频,展示了新产品。果然手里有“硬”,就不注意形式了。
英伟达的第一个安培体系结构GPU基于7纳米工艺,拥有大小为826毫米的540亿晶体管,可以训练或推断出比波塔体系结构高20倍的性能。
NVIDIA A100采用TF32的第三代Tensor核心核心,无需更改任何代码,即可将FP32精度的AI性能提高20倍,达到每秒19.5万亿次。
多实例GPU-MG将单个A100 GPU划分为7个独立的GPU,为不同的任务提供不同的计算能力,从而最大限度地提高最佳利用率和ROI。
NVIDIA A100的新效率技术利用AI数学固有的稀疏性,优化后性能提高一倍。
英伟达将NVIDIA A100的特点概括为以下5种:
1.超过540亿个晶体管成为世界上最大的7纳米处理器;
2.具有TF32的第三代Tensor核心是加速现成的单精度AI培训的新数字格式。NVIDIA广泛使用的Tensor Core现在更灵活、更快、更易于使用。
3.结构稀疏性是一种新的、高效的技术,它利用AI数学中固有的稀疏性实现更高的性能。
4.使用多实例GPU(多实例GPU或MIG),A100可以拆分为多达7个独立的GPU,每个GPU都有自己的资源。
5.第三代NV链路技术可以使GPU之间的高速连接翻倍,从而使多个A100服务器充当单个巨大的GPU。
黄仁勋这样说。“Ampere体系结构的突破性设计为英伟达第8代GPU提供了迄今为止最大的性能飞跃,将AI教育和推理结合在一起,提供了比上一代高20倍的性能。这是历史上第一次在单一平台上同时加速水平和垂直扩张。A100在提高吞吐量的同时降低了数据中心成本。”
NVIDIA A100是第一个基于NVIDIA安培体系结构的GPU,可在NVIDIA第8代GPU中提供最大性能提高,也可用于数据分析、科学计算和云图形,并已全面启动和交付给世界各地的客户。
全球18大服务提供商和系统构建商在他们的服务和产品(包括ariyun、AWS、100度云、Cisco、戴尔技术、Google Cloud、HPE、Microsoft Azure、Oracle等)中提供NVS
单节点AI计算能力高达5 PFLOPS,DGXSuper POD配置为140个DGXA100
黄仁勋还介绍了基于NVIDIA A100的第三代AI系统DGX-A100 AI。DGX-A100 AI是世界上第一个单节点AI计算能力达到5 PFLOPS的服务器,每个DGX A100最多可以拆分为56个独立运行的实例,还收集了8个NVIDIA A100 GPU,每个GPU支持12路NVLink互连总线。
据悉,DGXA100的AI计算性能是其他高端CPU服务器的150倍,内存带宽是其40倍,IO带宽是其40倍。
黄仁勋这样说。“AI已应用于云计算、汽车、零售、医疗保健等众多领域,AI算法也越来越复杂和多样化。ResNet模型的计算能力需求从2016年到现在增加了3000倍,需要更好的解决方案。”
这样强大的DGX-A100 AI销售价格当然也不便宜,标价为19.9万美元,约141万韩元。
黄仁勋还提到了英伟达的下一代DGXSuper POD群集,其由140个DGXA100系统组成的AI计算能力相当于多达700 Petaflops的数千台服务器的性能。
据悉,第一个DGXSuper POD将部署在美国能源部阿贡国家实验室,以进行新的冠状病毒传染病相关研究。
五大硬件、软件、自动驾驶平台合作已经确定
黄仁勋发表了NVIDIA Merlin,这是构建下一代推荐系统的端到端框架,除了上述两种重磅产品外,该系统还迅速成为更加个性化的互联网引擎。Merlin将创建100 TB数据集推荐系统所需的时间从4天减少到了20分钟。
英伟达此次还推出了大量与AI领域相关的产品,包括以太网智能NIC mellan ox ConnectX-6 Lx smart NIC、EGX边缘AI平台和多种软件更新扩展。
1.以太网智能卡Mellanox ConnectX-6 Lx SmartNIC
ConnectX-6 Lx是业界第一个针对25Gb/s优化的安全智能卡,提供了两个25Gb/s端口或一个50Gb/s端口。
2.EGX边缘AI平台
EGX边缘AI平台是第一个基于NVIDIA安培体系结构的边缘AI产品,它接收高达200Gbps的数据,并直接发送到GPU内存以处理AI或5G信号。
3.火花3.0
英伟达还在spark 3.0中宣布了NVIDIA GPU加速支持、基于RAPIDS的spark 3.0,打破了提取、转换和数据加载的性能基准。Adobe Intelligent Services将计算成本降低了90%。
4.NVIDIA Jarvis
黄仁勋在发布会上详细介绍了新的端到端平台NVIDIA Jarvis,该平台可以充分发挥英伟达AI平台的强大功能,创建实时多模态交互式AI。
5.Misty交互AI
实时演示显示了名为Misty的AI系统实时理解和回答与天气相关的一系列复杂问题的交互过程。
英伟达还在新的NVIDIA驱动器平台上嵌入了安培体系结构。据了解,像小马支线、法拉第未来等自动驾驶企业宣布采用NVIDIA DRIVE AGX计算平台。
英伟达的NVIDIA Isaac软件定义的机器人平台也用于BMW集团工厂。Yingweida机器人技术全球生态系统复盖了分销、零售、自主移动机器人、农业、服务、物流、制造和医疗保健行业。
英伟达AI生态战部署,中国的AI芯片开发和发达国家差距正在缩短
英伟达这次时隔3年的发表是诚实的。首次介绍的安培体系结构提供了20倍的性能,NVIDIA A100 GPU可以说是性能的飞跃。
简报虽然不是现场直播,但仍然在暴饮。比千代更强的DGX-A100 AI也确认了黄仁勋经典名言“买得更多就赚得更多”。英伟达的AI解决方案复盖了所有领域,正在形成强大的AI生态系统。
中国工程学院学者倪光南表示:“芯片设计阈值很高,只有极少数企业能负担中高端芯片开发成本,芯片领域的创新也受到了限制。””他说
英伟达在该GTC中展示的安培体系结构和基于它的一系列AI平台都没有显示出ici巨型企业的实力,再次确立了性能基准。
据Gartner的预测数据显示,全球人工智能芯片市场规模预计在未来5年内将暴涨,从2018年的42.7亿美元增至343亿美元,增长7倍以上,AI芯片市场的增长空间将大幅增加。
中国的AI芯片开发尽管与西方发达国家相比存在一些差距,但在过去两年中,中国的AI芯片新企业获得了数亿美元的资金。华为等公司也开发了令人印象深刻的芯片设计。
但是,在半导体领域,与美国相比,半导体开发非常复杂,也有人指出,中国人力不足,进入全球销售排名前15名的中国半导体公司缺乏多数。

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: