服务电话:

400-801-5670

如何选择深度学习GPU服务器?

发表时间:2019年11月05日 作者: 浏览次数:1057

首先我们需要了解一下常见的GPU和GPU服务器。


按总线接口类型,可以分为:NV-Link接口、传统总线接口以及传统PCI-e总线三种。


NV-Link接口类型的GPU典型代表:NVIDIA V100采用SXM2接口。DGX-2上有SXM3的接口。

NV-Link总线标准的GPU服务器可以分为两类:NVIDIA公司设计的DGX超级计算机&合作伙伴设计的NV-Link接口的服务器。DGX超级计算机不仅仅提供硬件,还有相关的软件和服务。


传统总线接口的GPU,目前主流的有这几款产品,比如 PCI-e接口的V100、 P40、P4、T4等。其中比较薄和只占一个槽位的P4和T4,通常用于Inference,目前也已经有成熟的模型进行推理和识别。

1.jpg


01根据业务需求来选择GPU型号

在HPC高性能计算中需要根据精度来选择。比如有的高性能计算需要双精度,这时如果使用P40或者P4就不合适,只能使用V100或者P100;同时也会对显存容量有要求,比如石油或石化勘探类的计算应用对显存要求比较高;还有些对总线标准有要求,因此选择GPU型号要先看业务需求。


02根据应用领域来选择GPU型号

GPU服务器人工智能领域的应用也比较多。在教学场景中,对GPU虚拟化的要求比较高。根据课堂人数,一个老师可能需要将GPU服务器虚拟出30甚至60个虚拟GPU,因此批量Training对GPU要求比较高,通常用V100做GPU的训练。模型训练完之后需要进行推理,因此推理一般会使用P4或者T4,少部分情况也会用V100。


03选定GPU型号后,确定GPU服务器

 当GPU型号选定后,再考虑用什么样GPU的服务器。这时我们需要考虑以下几种情况:

  • 在边缘服务器上需要根据量来选择T4或者P4等相应的服务器,同时也要考虑服务器的使用场景,比如火车站卡口、机场卡口或者公安卡口等;在中心端做Inference时可能需要V100的服务器,需要考虑吞吐量以及使用场景、数量等。

  • 需要考虑客户本身使用人群和IT运维能力,对于BAT这类大公司来说,他们自己的运营能力比较强,这时会选择通用的PCI-e服务器;而对于一些IT运维能力不那么强的客户,他们更关注数字以及数据标注等,我们称这类人为数据科学家,选择GPU服务器的标准也会有所不同。

  • 需要考虑配套软件和服务的价值。

  • 要考虑整体GPU集群系统的成熟程度以及工程效率,比如像DGX这种GPU一体化的超级计算机,它有非常成熟的从底端的操作系统驱动Docker到其他部分都是固定且优化过的,这时效率就比较高。