刘洪宇
InfiniBand以其高带宽、低延迟、易扩展的技术特性,被认为是刀片服务器以及集群节点之间最佳的互联技术之一。尤其在高性能计算领域,这种服务器与存储连接方案占据着绝对上风。我国目前速度最快的高性能计算机曙光5000A就是基于Mellanox提供的ConnectX DDR Infiniband互联技术搭建网络的,它实现了20Gbps的传输速率、1.3us的低通信延迟。
I/O不该成为瓶颈
3月30日,Mellanox宣布,其第四代架构的QDR模式Infiniband解决方案已将上两个数字刷新为40Gbps和1us。在产品性能按计划提升的同时,Mellanox还计划将该方案向企业级数据中心及云计算市场扩展。
Infiniband的思路是以网络为中心搭建系统,将计算、存储与网络分开,但三者一定要保持相对平衡,这样才能保证整体性能。目前,企业级应用及数据密集型应用需要进行大数据量计算和存储,这就对网络的I/O带宽提出了高要求,服务器虚拟化还提高了对网络可用性的要求。
网络带宽和延迟在很大程度上决定了系统的整体效率以及处理器与存储的使用率,进而影响到性能与功耗。在以太网难以满足部分用户对于集群、存储网络和高速服务器互联所需的传输效率和延迟水平时,用户对更快、更可靠的渴求就开始促动Infiniband在数据中心推广应用了。
网络一体化优势何在
在整个系统中,服务器 — 交换机 — 路由器 — 存储之间通过线缆相连,Mellanox目前的解决方案包括了网卡、交换机、路由器及线缆在内的全套产品,均支持最高40Gbps的传输速度。虽然以Infiniband技术见长,但Mellanox并不排斥其他互联技术,相反,它通过虚拟协议支持(VIP)技术,可以使单一光纤线缆上运行多种协议,应用保持并行状态,设备自动为各协议应用分配相应的传输带宽。每个通路都有独立资源,这才是网络一体化的真正优势。
Mellanox技术负责人利特·申纳尔(Gilad Shainer)表示,支持VPI技术的ConnectX网卡端口是一种高整合性设备,能根据接入的网络设备类型,被配置成Infiniband、以太网、数据中心以太网(DCE)、FCoE等端口,以单一网卡取代混差的多个不同类型的网卡。这种网络一体化的解决方案简化了不同系统之间的网络互联,实现了降低网络复杂度的目标。更重要的意义是,其提供的广泛支持使企业级数据中心、高性能计算及嵌入式应用在选择设备时能获得尽可能大的灵活性。
ConnectX本身就具有高可靠性传输、低延迟和高带宽的特性,并通过由适配卡完成网络协议处理及RDMA收发操作,将处理器从这部分工作中解放出来。通过合理配置,数据中心用户可以获得从性能到成本及管理复杂度等多方面明显的改观,其可扩展性可以胜任1万个以上的节点互联。利特·申纳尔举例说,通过I/O整合,JP摩根的数据中心利用率已从15%提高到了75%。在虚拟化方面,ConnectX适配卡支持硬件I/O虚拟化,并提供专用适配器资源隔离和保护虚拟机,将虚拟机性能提升到接近物理机的程度,增强了虚拟化性能。
未来网络是动态的
Infiniband的发展已经有了明确的路线图,而越过这些指标与技术细节,我们不妨设想,未来高性能系统或数据中心的网络究竟该是什么模样?随着计算模块以英特尔至强5500为开端走向智能化,网络等模块最终势必也将走向智能化,最终实现智能的数据中心。利特·申纳尔认为,走向简化的网络一体化是当前的大趋势,而目前有两个不同的路径。有的厂商强制用户走一种固定的方向,当这种互联没办法满足应用需求时,用户为了实现一体化,还必须使用这样的网络,这并不是成功的网络一体化解决方案。
“理想的解决方案是,硬件只是介质,上面进行不同的应用传输,都有相应的虚拟协议来支持,对用户不要做任何限制,完全是透明的。” 利特·申纳尔说,“未来的网络将是动态网络,网卡和交换机都是智能的,它们都是传输介质,不必分为各种模式,而是集各种协议为一体的单一产品,至于他们工作在什么状态下,是高性能计算模式下的MPI还是通信模式下的的TCP/IP……这些完全都由应用来决定。网卡和交换机可以自动识别应用类型,工作在相应模式下,并为应用分配相应的独立资源。
利特·申纳尔反问记者,预计动态网络何时才会实现?他随即给出了自己的答案:“2011年,这种想法就可以实现了,一开始可能先实现部分功能,后来就会逐渐实现全部功能了。”