人工智能服务器技术架构分析

2020-11-25 20:20
无线互联科技 2020年24期
关键词:数据处理架构运算

邓 睿

(吉林工业职业技术学院,吉林 吉林 132000)

1 人工智能服务器与传统服务器硬件架构间的差异

AI服务器采取异构方式。常见的构成形式有CPU+加速卡、CPU+TPU、CPU+GPU等。传统的普通服务器数据处理核心较为单一,以CPU为主[1]。

人工智能服务器有着深度学习的功能。针对使用者使用需求的不同,于特定场景,可在特定学习过程中,自动调整模型。在兼容度方面,可同步兼容FPGA/AISC,使用者同样可根据自身使用要求,对于使用频次较高的应用,提供专属加速通道,具备智能化的数据处理优先级划分程式,服务器运行时发生崩溃的概率将得以降低;在计算密度方面,将突破以往各代人工智能服务器,整体项目的TCO明显降低。

在数据表达配置方式上,人工智能服务器采用的方式则更为灵活为优化后的异构拓扑配置方案。当前数据处理最常应用的3类拓扑形式为cascade,common和balance。

2 人工智能服务器架构的整体思路

以传统单纯CPU视角下,审视人工智能条件下数据处理核心的架构方案。采取异构方式,强化CPU综合性能,将其称之为CPU+。针对服务器整体,不必整体全部改造;针对无改造意义的模块,仍可应用传统CPU架构;针对数据处理核心,人工智能计算负载核心,则应用多核心处理方案。基于阿姆达尔性能定律,当前人工智能技术架构可按此导向开展:针对整体数据与计算结果,借助CPU完成初步汇总与归纳;而针对数据的细化分析处理,则由GPU加速部件完成。由于这类数据在基于异构方式下,数据处理的效率可得到提升,因此也就实现了性能提升的效果。虽然从全局上看,人工智能与普通服务器均是基于CPU架构模式,但在不同应用场景下,两者间的设计方案仍存有一定差异[2]。例如边缘推理场景,涉及的计算量与场景限制内容会较多,此时智能服务器在数据处理效率上将占据优势,调动的数据集呈现出较高的数量级。云端推理场景下,其在瞬时数据吞吐量、瞬时性、能效性上要求更高;在VR云端训练场景下,需要具备低时延,高性能、高存储、高性能,双向数据处理时间越同步,应用效果越佳。因此,人工智能服务器在部件构造技术应用方面,需根据处理核心调动水平的不同,开展有针对性的优化。将涉及思路予以归纳总结,列举如下:(1)数据传输连接时延性低。应用场景中包括服务器→服务器间、数据处理部件→数据处理部件间,用户→云端数据处理中心间的联系[3]。高带宽、低延迟是实现最基本要求。(2)计算能力与存储层次相匹配。只有两者达到同一处理高度后,数据处理中涉及的缓存、内存、外存等功能的实现才不会遇到架构上阻碍,性能才能根本性的得到提升。(3)并行处理能力延伸。CPU仍需作为服务器数据处理主要模块,设计人员需在此基础上,植入同样可执行并行式数据加速模块,如ASIC,FPGA,GPU等。

3 人工智能服务器核心架构技术

3.1 补充CPU运行性能的相关芯片技术

人工智能服务器运行时需搭载计算性能更为出色的计算机芯片类型,现今市面上应用的主要有ASIC,FPGA,GPU等。(1)ASIC主要起到运算优化,提升运算效率的作用。普通芯片在运算逻辑上相较于人工智能算法模式,较为冗余,是拖长运算时间的主要因素。ASIC在应用时通过对上述运算模式与神经网络运算中尚且无须应用计算模块剔除。将运算重点放在加速支持,性能优化算法上,如DNN运算中使用的加法、乘法运算等。(2)FPGA主要起到自动编程的作用。人工智能,智能化的重要体现即为自动性[4]。用户使用时,输入相关参数,相关底层配置文件,并设定逻辑规则,系统将自动输入出多种优化计算形式。用户不仅能够对芯片内部构造,如存储器与门电路间的连接形式进行优化,也能实现不同时刻最为适配的加速方案输出。不仅如此FPGA还可完成多任务执行与多任务数据同步传输的指令,这正是人工智能实时处理数据,快速表达数据的有效渠道。但是这项技术由于功能远优于其他芯片类型,技术含量较高,故其应用时对技术人员编程水平要求较高。受限于我国当今在本领域发展时间较短,相关技术尚未成熟,当今这项技术仍存在着计算占比低及成本高的问题。且当今国内尚未有厂商内生产此项芯片,主要由Intel、Xilinx公司掌握核心技术。(3)GPU适用于处理数据间无依赖、数据类型高度一致,且运算过程连续的数据类型。如渲染曝光照片,并行渲染全局像素等。其在并行性表现上是当今性能较为优越的类型之一,得益于其运算效率高,图像文件渲染效果好的优势,未来其在人工智能服务器将占据不可或缺的地位。但在应用GPU时,一定要注意运行环境的匹配性。例如人工智能算法的推理,分析其运算形式,只涉及输入与输出,并不属于并行性运算的类型,故其在性能表现上将处于一般水平,适配的运行环境应用,其并行运算的优势才能得到充分发挥[5]。当今国内尚未有厂商内生产此项芯片,主要由AMD、NVidia公司掌握核心技术。

3.2 其他核心技术类型

将其予以汇总,包括以下三大类型:网络I/O技术、主板线路技术、与存储技术。(1)网络I/O技术主要起到网速提升的作用。这项技术具备着高扩展性、低延时与高带宽的优点。技术原理的适配性使得其在以太网领域有着广泛的应用,超高网速100 Gbit/s的网速,以及可提供更加统一的接口标准,使得此技术发展方向较为明晰,也可在传统以太网技术的发展下,应用原有设备,实现新旧网络的平滑融合。(2)主板线路技术主要起到线路优化,满足海量数据处理需求的作用。应用点对点的传输形式,且在传统PCIe总线编码方式基础上,实现跨GPU节点的内存操作,数据的处理与储存不再受限于内存,突破现有技术连接慢的现状。(3)存储技术主要用于提升单位存储单元容量,采用QLC与SSD技术。实现了每单元存储量为4 B,但可擦写次数下降。SSD技术中访问性能上有所提升,当前主要应用NVMe接口。应用相关技术的同时,要在设计方案上予以优化,例如人工智能加速服务器在应用上,功耗较高,故在制冷散热、电源设计方面需重点考虑。为从全局上优化服务器机房整体运行功率以及机房中影响因素如称重差、配电低、空间小的因素,则可在整体服务器设计方面专门定制。上述涉及的每一项技术,都是行业发展的一项重大变革。

4 结语

人工智能技术于各行各业的不断渗透下,服务器产业被推向了新的高度。而铺天盖地的人工智能改变世界的宣传也为人工智能服务器产业领域的发展加上了一层美好的滤镜。相信在不久的将来,有关服务器核心架构方面的技术将得到突破性的进展,人类社会也将因为AI技术而产生天翻地覆的变化。但当前人工智能服务器领域仍存在不少痛点:(1)经济方面,人工智能技术引入成本较为高昂,普通企业引入存在困难。(2)工程化布点困难,与之匹配的相关技术认为发展至适配水平。(3)算法场景应用局限大,仅能在有限场景开展应用,普适性不强。(4)缺乏深度应用以及顶层设计内容。故在未来的发展中,人工智能服务器核心技术的研发仍将是热点领域,经由建设满足实际应用的评估体系与行业标准能够促使核心技术更为稳定的发展。AI服务器可以说是趋势,但目前人们也还有一条较长的路要走。

猜你喜欢
数据处理架构运算
基于FPGA的RNN硬件加速架构
重视运算与推理,解决数列求和题
认知诊断缺失数据处理方法的比较:零替换、多重插补与极大似然估计法*
ILWT-EEMD数据处理的ELM滚动轴承故障诊断
功能架构在电子电气架构开发中的应用和实践
有趣的运算
LSN DCI EVPN VxLAN组网架构研究及实现
拨云去“误”学乘除运算
基于希尔伯特- 黄变换的去噪法在外测数据处理中的应用
一种基于FPGA+ARM架构的μPMU实现