
许多数据中心都配备了高性能图形处理单元(GPU)和Renschor处理单元(TPU)。这些加速器处理大型大规模上的人工智能(AI)和自动学习集(ML),并并行执行复杂的操作,并以高速交换数据。本文讨论了连接AI加速器组的互连和连接器。本文引用了AI加速器,例如可编程场矩阵(FPGA),这些矩阵(FPGA)使用GPU,TPU,在某些情况下,并行处理以执行大型语言模型(LLM)来处理复杂的大型计算。这些设备将复杂的工作负载分为小任务,同时执行数十亿个操作。大多数AI模型都是基于神经元网络,该网络受益于这种伟大的平行体系结构,该架构可以加速培训和推理。如图1所示,IA加速器通常在紧密耦合组中实现,以有效共享数据,同步IZE计算和共享规模培训数千个处理单元。图1。Google数据中心包括一个井联的AI加速器架,用于大型自动学习工作负载。这是TPU V4基础架构图。 (图片:Google))这种配置有助于满足AI工作量,高性能需求的降级。它还可以提高性能,最大程度地减少瓶颈,并接受复杂和计算密集型任务的真实时间推理。数据中心使用专门的互连技术将AI加速器组链接起来,以允许有效的尺度操作,从而使节点之间的高速通信器。这些互连承认交换大型数据,同步处理和复杂工作负载的并行执行。 AI加速器的常见互连包括:NVLINK - 高级NVIDIA带宽的专利互连,可以从GPU到GPU的直接通信,具有低延迟和高能量效率。使用NVSwitchadMitte技术和数据交换,专用连接器和加速器之间的高速组合。使用NVLINK,可以将GPU作为单个高性能计算机单元共享一个统一地址空间,并允许在多个GPU环境中有效攀登内存组。如图2所示,NVLink 4.0为H100 GPU提供了双向带宽,最高900 GB/s。图2。NVIDIAH100 GPU使用NVLINK 4.0实现HASTA 900 GB/s的双向带宽度,这使GPU通信在多个加速器组中以高速GPU。 (照片:NVIDIA)UAULINK- ULUSTA ACCELERATOR链接是一个开放的互连标准,旨在在单个计算机胶囊中攀登高达1024 AI加速器的组。规范1.0允许每个通道200 g,并通过高密度内存的语义连接实现以太网级别的带宽和PCIE延迟。 Ualink承认节点之间的阅读,写作和原子交易,nd定义了用于多个可扩展节点的通用协议桩。 Ualink将其定位为加速器POD内部比例的高性能替代品,目的是允许节点与典型以太网相比,节点通信的延迟较小。 Compute Express Link(CXL)允许在CPU,GPU和其他加速器之间进行低潜伏期的连贯通信。通过支持缓存的一致性,内存的分组,资源的交换和内存的分解,改善了资源的使用。 CXL 1.1和2.0在PCIE 5.0和CXL 3.0上执行,然后使用PCIE 6.0,然后实现高达64 GT/s和128 GB/s Bixirectional带宽的传输速度。快速以太网可以帮助他在分布在服务器和节点上的加速器簇之间移动数据。诸如400 GBE和800 GBE之类的技术使用NICS和光学电缆或铜电缆支持高性能通信。以太网是nvlink和uiuliimplemeNTO的延迟比NK更高,但在机架级别和数据中心提供了广泛的交互式和灵活的实现。光学互连和形式因素。光纤链接可以高速传输数据,长距离,架子和加速器组的链接通过节点。消耗比C电缆连接更多的功率,并超过信号的完整性挑战,例如衰减和EMI。这些互连通常基于标准化方式的因素,例如小型小通道(QSFP),4个通道的小密度(QSFP-DD)和8个通道的小型连接(OSFP),它们充当两个电气纤维连接的物理界面和光学光学连接。这些相同的形式因素被广泛用于数据中心的其他高速光学互连,例如Infiniband及其自身的光学链接,进一步扩大了它们在可扩展计算基础架构中的作用。高性能IntercONNECTION基于各种物理层组件,例如连接器,插槽和电缆接口。这些组件有助于保持信号完整性,机械兼容性和可扩展系统设计。通过斑块,设备和电路系统传输电信号和光学信号,以促进集群基础架构的可靠功能。互连定义了通信协议和信号标准,但信任这些物理界面可以大规模有效运行。共同的连接器和界面技术如下说明。 PCIE接口将加速器卡连接到主机系统和其他组件。最新一代(例如PCIE 5.0和6.0)提供了可扩展的带宽,但可以在多耦合的多阶层环境中变成瓶颈。还原通常用于将信号完整性保持到长电路板轨迹中。 Equiso(OAI)连接器结构用于开放计算机项目的开放加速基础架构。接受高密度模块之间的连接,减少信号损耗,管理阻抗和加速模块化,简化了主动电缆设计(AEC)的机械整合(AEC)将数字信号处理器集成到铜电缆中,以增加长距离的信号强度。这允许电气链路保持被动电缆无法触及的数据的完整性。高速板连接器使用PAM4调制器在数据速度高达224 Gbps时启用直接模块通信。它们支持AI平台内的密集和低延迟通信,并密切集成了加速器组。光纤连接器:QSFP,QSFP-DD和OSFP形式中的因子是纤维和电气以太网连接的物理接口。这些泄漏格式在NIC,切换端口和光学模块中广泛实现,并接受PAM4调制以在各种实现方案中保持信号性能。如图3所示,越来越高的绩效AI加速器基于液体冷却。这些系统中使用的许多连接器必须满足严格的机械和热量要求,以确保安全可靠的操作。图3。具有集成的快速和多个断开连接的液化GPU服务器,用于高密度AI训练负载。这些连接器经过精心设计,以便在NVIDIA H100 NVIDIA平台等系统中接受安全和高性能的冷却。 (图像:SuperMicro)这些连接器通常可抵抗高达50°C(122°F)的温度,并接收最高13升/分钟(LPM)的制冷剂流速,并保持低压下降约为0.25 psi(PSI)。他们使用基于水的液体和介电体来提供操作而不会泄漏,防止腐蚀并将Easymind与框架中的收集器整合在一起。大多数流冷却连接器包括用于维护的快速切割而无需滴水。较大的内径(U大约5/8英寸)在整个AI架子上允许流量高。一些提供混合设计,将高速数据传输与液体冷却通道结合在一起。其他产品与3英寸的正方形不锈钢管,温度变化,压力变化兼容,它是由固体结构制成的,可抵抗振动。 AI数据中心基于各种互连和物理连接器来链接加速器卡,从而可以交换高速数据并促进大型平行性。这些组件对于维持紧密耦合组的性能,信号完整性和机械可靠性很重要。