每一届英伟达GPU技术大会(GTC),黄仁勋都很少让投资者和观众们失望,因为产品足够硬核。
从数据中心DPU处理器、Jetson AI开发套件、边缘计算EGX AI平台到超级计算机等,围绕AI主题,英伟达的护城河不仅越挖越深,且越挖越宽。
最让业界关注的可能是英伟达与Arm的融合后会带来什么?2020年9月中旬,英伟达官宣将以400亿美元收购ARM让芯片行业震动,英伟达是全球GPU和AI芯片领域的领头羊,而ARM是全球最大的芯片IP供应商,全球超过90%的手机和平板都采用ARM架构,收购带来的技术整合将如何重构计算市场?
英伟达正在加速扩张其数据中心业务的雄心,新型处理器DPU将从CPU上卸下“关键”的网络、存储和安全工作负载,并启用新的安全和管理程序功能,DPU亮相代表着英伟达朝着成为“数据中心规模公司”的目标又迈出了一步,在其最新的财报中,数据中心的收入首次超过了游戏销售。
黄仁勋表示:“数据中心已成为新型计算单元。在现代化、安全的加速数据中心中,DPU已成为其重要的组成部分。CPU、GPU和DPU的结合,可构成完全可编程的AI计算单元,提供前所未有的安全性和算力。”
英伟达推出了两款DPU产品:Blue Field-2DPU与BlueField-2X DPU,BlueField-2 DPU现已开始提供样品,并将于2021年正式上市。
BlueField-2 DPU集成了8颗64位Arm-Cortex A72 内核,拥有2 个超长指令字(VLIW)加速引擎,以及两个100Gb/s的网络通道(Mellanox ConnectX 6 Dx NIC),在网络性能和存储性能上有大幅提升,并且提供了更多硬件安全功能,包括无代理微分段、高级恶意软件检测、深度包检测和应用程序识别,远远超过了纯软件解决方案。
据了解,DPU是一种新型芯片,将英伟达的芯片技术与该公司在2019年以75亿美元收购Mellanox所获得的网络,安全性和存储技术相结合,CPU,GPU和DPU可以共同提供一个具有AI功能,可编程性和安全性的计算单元,单个BlueField-2 DPU可以提供高达125个CPU内核相当的数据中心服务。
“这使我们拥有了最好的同类服务器。它实际上是采用了所有这些软件定义的基础结构,并将其放置在同一服务器中的芯片上。我们相信,DPU将成为以后每台服务器的核心,无论运行的应用程序负载如何。”黄仁勋说道。
关于DPU的发展规划,Blue Field-2 DPU 现在每秒可以处理0.7 万亿次操作(TOPS),而Blue Field-2X及其Ampere GPU可以完成60 TOPS。英伟达估计,到2022年,BlueField-3X将达到75 TOPS,到2023年,BlueField-4预计将达到400 TOPS,是BlueField-2的600倍。
配套的是,英伟达还推出了基于DPU的软件生态架构DOCA(Data-Center-Infrastructure-On-A-Chip Architecture)。DOCA架构基于开放的API,可用于数据包处理的P4,用于网络的DPDK,用于存储的SPDK,CUDA和英伟达AI。DOCA可以与主要的OS和虚拟机管理程序无缝兼容、集成,而为DOCA编写的程序可以在BlueField-2 DPU以及未来所有版本上运行。
英伟达官方表示,DOCA就好比是服务器领域的C U D A(统一计算设备架构),CUDA是英伟达在GPU以及AI领域大获成功的关键,它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎,方便开发人员基于最新GPU架构编写程序,DOCA很大程度上是想复制这种成功经验,助力DPU的崛起。
英伟达表示,EGX Ai平台已经被科技公司广泛采用,用于企业和边缘数据中心,该平台将成为加速数据中心的新组成部分。
2020 GTC期间,英伟达再次带来两款性能强大的EGX边缘AI平台产品:适用于较大型商业通用服务器上的EGX A100,和适用于微型边缘服务器的微型EGX Jetson Xavier NX。
EGX A100 是首个基于 NVIDIA Ampere 架构的边缘AI产品,EGX Jetson Xavier NX则是全球体积最小、性能最强大的AI超级计算机,适用于微型服务器和边缘智能物联网盒。借助于NVIDIA边缘AI平台 ,医院、商店、农场和工厂可以实时处理和保护来自数万亿个边缘传感器的海量数据流,该平台实现了服务器群的远程安全部署、管理和更新。
EGX A100聚合加速器和EGX Jetson Xavier NX微型边缘服务器分别被设计用于满足不同尺寸、成本和性能需求。例如搭载了EGX A100的服务器可以管理机场中的数百台摄像头,而EGX Jetson Xavier NX则可用于管理便利店中的少量摄像头。而云原生技术支持能够确保整个EGX产品家族都可以使用同一经过优化的AI软件轻松构建和部署AI应用。
英伟达官方表示,未来的企业数据中心将不会在一个位置拥有10000台服务器,而是会在10000个不同的位置(包括在办公大楼、工厂、仓库、基站、学校、商店和银行中)拥有一台或多台服务器,这些边缘数据中心将帮助支持物联网(IoT)建设。
为了简化并确保在这些服务器上大规模部署AI应用程序和模型的安全,英伟达还宣布了一项名为Nvidia Fleet Command的新服务早期访问计划,该混合云平台将边缘计算的安全性和实时处理功能与远程管理相结合,并简化了软件即服务的工作。
为了让新一代学生、教育工作者和爱好者能够挖掘AI和机器人技术的潜力,英伟达发布了售价仅5 9美元的入门级A I开发者套件,进一步扩大了 Jetson边缘AI平台的受众范围。
Jetson Nano 2GB开发者套件主要用于在机器人和智能物联网等领域创建动手项目以进行AI教学。为支持这项工作,NVIDIA还宣布提供免费在线培训和AI认证计划。Jetson社区目前已有成千上万名开发者提供了大量开源项目、简略操作指南和视频,两者将形成互补。
Jetson Nano 2GB开发者套件由NVIDIA JetPack SDK提供支持,NVIDIA JetPack SDK随附NVIDIA容器运行时及完整的 Linux软件开发环境。
因此,开发者可以将他们的Jetson应用程序及其所有依赖项打包到一个可以在任何部署环境下运作的容器中。它还由NVIDIA CUDA-X加速计算堆栈提供支持,该堆栈也被用于在自动驾驶汽车、工业物联网、医疗、智慧城市等领域创造突破性AI产品。
英伟达还宣布了两款专业用途的图形卡:RTXA6000和A40,均采用了最新的Ampere架构。有趣的是,两个型号都具有完全相同的GPU 配置,即84 个带有GA102GPU的流式多处理器。
RTX A6000是工作站图形卡,而A40是供服务器使用的,因此从技术上讲 A40可以视为TeslaT4的后继产品。不同之处在于,A40将具有显示输出,而特斯拉服务器卡过去没有提供。RTXA6000和A40配备了四路DisplayPort 1.4连接器。
两款卡均具有48GB的GDDR6 non-X内存,但是每种型号的规格都有所更改。A6000具有16Gbps模块,而A40则保持14.5Gbps。
全新NVIDIA RTX A6000和NVIDIA A40将帮助专业人士应对这些挑战,并解决从台式机到数据中心的企业工作负载问题。新一代GPU基于 NVIDIA Ampere架构,采用了全新RT Core、Tensor Core和CUDA Core 加速图形、渲染、计算和AI,与上一代产品相比增速显著。
官方表示,RTX A6000将于今年12月中旬上市,而A40将于明年年初上市,价格尚未透露。
英伟达还推出了一系列与医疗保健相关的计划,旨在加快药物发现,预防医学等方面的工作。
其一,宣布与葛兰素史克(GSK)建立合作伙伴关系,以帮助开发用于疫苗和治疗发现的AI驱动的实验室。英伟达详细介绍了与马萨诸塞州布里格姆综合医院合作建立的AI模型,以预测具有COVID-19症状的急诊室患者的氧气需求;其二,英伟达透露,将为英国最快的超级计算机Cambridge-1贡献硬件和专业知识。
英伟达预计将在2020 年底之前将Cambridge-1投入使用。Cambridge-1是GSK、阿斯利康、盖伊和圣托马斯NHS基金会信托基金、伦敦国王学院和牛津纳米孔学院的联合项目,它建立在英伟达的DGX Super POD 架构上, 预计将提供400 petaflops的AI性能和8 petaflops的Linpack性能,这将使它在全球功能最强的超级计算机TOP500列表中排名第29。
英伟达表示,Cambridge-1由80个Nvidia Mellanox Infini B and网络连接的Nvidia DGX A100系统提供动力,并将成为其第一台设计用于外部研发访问的超级计算机,准备就绪后,安装和启动只需几周的时间。
英伟达将向Cambridge-1计划投入约4000万英镑资金,并提供Nvidia Clara Discovery之类的软件,这是一套涵盖成像、放射学和基因组学的机器学习医疗保健工具,Clara Discovery具有经过预先训练的AI模型和特定于应用程序的框架,旨在帮助研究人员构建药物化合物,开发病原体反应并应对相关挑战。
最后的最后,黄仁勋透露了将如何打好A R M这张牌:首先,英伟达将与 A r m在GPU、网络、存储方面进行合作;其次,英伟达还将与Arm合作为 HPC、云、边缘计算和PC创造平台,其中涉及芯片、系统和软件;最后,英伟达将会把自身的A I能力和RTX引擎开放给Arm平台,现在这些功能都是X86平台专属的,Arm将会成为领先的加速和AI计算平台,帮助英伟达进一步扩大市场版图。