在具体的论述之前,先说几个结论:
1.目前只有NVIDIA GPU能完整的支持深度学习,所以请购买较新的nvidia显卡(pascal、turing架构以上)
2.GPU上的投资回报比基本呈线性变化,因此可以按照自己的需要配置不同GPU。
3.保持工作站长期稳定工作需要一个靠谱的电源,所以在电源选择上追求稳定。
4.在现有预算下,GPU>CPU=RAM>=SSD
为什么要为深度学习专门配置工作站(服务器)?
1.深度学习需要大量的并行计算资源,而且动辄计算几天甚至数周,而显卡(GPU)恰好适合这种工作,提供几十上百倍的加速,性能强劲的GPU能在几个小时内完成原本CPU需要数月完成的任务,所以目前深度学习乃至于机器学习领域已经全面转向GPU架构,使用GPU完成训练任务。
2.如今即使使用GPU的深度学习任务也要持续数天乃至数月(取决于数据规模和深度学习网络模型),需要使用单独的设备保障保证训练任务能够7x24小时长期稳定运行。
3.独立的深度学习工作站(服务器)可以方便实现实验室计算资源共享,多用户可以在个人电脑编写程序,远程访问到深度学习服务器上排队使用计算资源,减少购买设备的开支并且避免了在本地计算机配置复杂的软件环境。
因此比较推荐大家购买中科云达GPU服务器,因为中科云达的GPU服务器几乎都是配置好的,而且操作相对方便且没有什么噪音影响自己。