主机运维
当前位置:时讯云电脑 > 资讯 > 主机运维 >
AI服务器的优势、现状及定义
发布日期:2019-12-12 阅读次数: 字体大小:

  在即将到来或已经到来的人工智能时代,我们会听到更多关于人工智能服务器这个术语的信息。那么,什么是人工智能服务器?为什么人工智能服务器适合人工智能时代?

  人工智能服务器的定义

  从硬件架构的角度来看,人工智能服务器主要是指采用异构形式的服务器,大多是机架安装的。在异构模式下,可以是中央处理器+图形处理器、中央处理器+现场可编程门阵列、中央处理器+TPU、中央处理器+专用集成电路或中央处理器各种加速卡。

  在内存模块、存储模块和网络模块等其他组件上,它们与传统服务器没有什么区别。主要改进是支持更大的内存容量以满足当前实时负载增加的需求,提供更多的外部硬盘插槽,并广泛支持固态硬盘(固态硬盘),如NVME/PCIE,以满足数据洪流的需求。网络模块的主要特征是带宽增加。

  虽然人工智能服务器可以采取多种异构形式,但目前广泛使用的是中央处理器+图形处理器。因此,当业界谈论人工智能服务器时,它通常默认为GPU服务器。因此,在第二部分中,作者提到的人工智能服务器的优势主要是GPU服务器。

  人工智能服务器的优势

  传统服务器主要使用中央处理器作为计算能力的提供者。中央处理器是通用处理器,采用串行架构,擅长逻辑计算。它负责不同类型的数据处理和访问。同时,逻辑判断需要引入大量的分支跳转中断处理,这使得CPU内部结构复杂。因此,提高中央处理器的计算能力主要是通过堆叠内核来实现的。

  随着云计算、大数据、人工智能、物联网等技术的应用,数据近年来呈指数级增长。国际数据中心的统计数据显示,世界上90%的数据是近年来产生的,这就考验了中央处理器的处理能力。目前,中央处理器的物理进程和核心数量正在接近极限,但数据量不会停止,服务器的处理能力必须提高。因此,在人工智能时代,只使用中央处理器作为计算能力提供者的传统服务器无法满足需求。

  与中央处理器不同,GPU使用并行计算模式,每张卡有数千个内核。GPU擅长处理密集型计算应用,如图形渲染、计算视觉和机器学习。经过几年的验证,基于GPU的服务器也被证明适合这个时代。


  为了更恰当地满足各种应用需求,客户可以根据自己的需求选择支持8个3.5英寸SATA/SAS硬盘。网络选择多样,可以选择支持双千兆、四千兆和双千兆双万兆配置。所有网络都支持管理重用,以满足各种网络应用场景。

  优化散热

  整机的结构布局充分考虑优化散热和节省功耗,以支持高温环境。关键部件是根据发热量专门设计的,可以在保持性能的同时降低风扇转速,从而降低功耗和噪音。

  合理扩张

  虽然支持4个图形处理器卡,但也可以有1到2个PCI-E插槽可用,可以扩展到100Gb infiniband HCA、Nvme固态硬盘等。具有很好的灵活性和兼容性。

  方便的管理

  具有IPMI远程管理功能,可以异地监控管理服务器需求,并具有监控系统各组件运行状态、操作系统远程安装、故障报警等功能。维护成本大大降低。