微软Cognitive Toolkit正式上线,支持GPU加速

2017-01-03 06:44
智能制造 2016年11期
关键词:云端框架深度

微软Cognitive Toolkit正式上线,支持GPU加速

2016年11月15日,在美国盐湖城SC16超算大会上,NVIDIA宣布将与微软共同加速企业内部的人工智能。

得益于首款基于微软Azure云端或内部运行的NVIDIA Tesla GPUs定制式人工智能框架,企业现在可实施覆盖数据中心和微软云的人工智能平台。该优化平台可在NVIDIA GPU(包括采用了Pascal架构的GPU和NVLink 互联技术的NVIDIA DGX-1超级计算机)和Azure N系列虚拟机(目前仍是测试版本)上运行微软的Cognitive Toolkit。

NVIDIA和微软协作,致力于加速基于GPU系统和微软Azure云端的Cognitive Toolkit,为企业提供以下服务:

多功能:Cognitive Toolkit让用户在单一框架下借助NVIDIA DGX-1计算机或NVIDIA GPU系统进行本地模型训练,然后在Azure云端运行此类模型,这种可扩展的混合方法可帮助企业迅速创建原型并部署智能特性。

高性能:相比在CPU上运行,由GPU加速的Cognitive Toolkit可以更迅速地执行深度学习和知识推理。融合Pascal和NVLink互联技术的NVIDIA DGX-1计算机比Cognitive Toolkit的CPU服务器快170多倍。

广泛可用性:由NVIDIA GPU驱动的Azure N系列虚拟机目前已向Azure用户推出预览版。Azure GPU可用来加快模型训练和评估。由于数千名用户已使用预览版,目前各种规模的公司均已在Azure N系列虚拟机中运行Tesla GPU。

Cognitive Toolkit和GPU的组合为深度学习的数据应用提供了前所未有的性能和易用性。因此,企业可利用人工智能更好地进行决策,更迅速地研发新产品和提供服务。据悉,在过去的短短两年中,NVIDIA开展深度学习的合作企业数量增长了194倍,已经超过19,000家,广泛分布在医疗保健、生命科学、能源、金融服务、汽车和制造等行业。

猜你喜欢
云端框架深度
框架
深度理解一元一次方程
广义框架的不相交性
云端之城
深度观察
深度观察
深度观察
美人如画隔云端
WTO框架下
行走在云端