360智算中心:万卡GPU集群落地实践(360大事回顾)
360智汇云
1. 引言
360智算中心是一个融合了人工智能、异构计算、大数据、高性能网络、AI平台等多种技术的综合计算设施,旨在为各类复杂的AI计算任务提供高效、智能化的算力支持。360智算中心不仅具备强大的计算和数据处理能力,还结合了AI开发平台,使得计算资源的使用更加高效和智能化。
360内部对于智算中心的核心诉求是性能和稳定性,本文将深入探讨360智算中心在万卡GPU集群中的落地实践过程,包括算力基础设施搭建、集群优化、AI开发平台建设、以及训练和推理加速的实现。
2. 基础设施建设
2.1 服务器选型
以A100/A800为例,主机内拓扑采用如下
2片CPU
2张存储网卡(负责带内管理、访问存储)
4块PCIe Gen4 Switch 芯片
6块NVSwitch 芯片
8块GPU芯片
4张IB网卡
2张存储网卡采用的是25Gb/s的网卡,通过PCIe直连CPU,主要有2个用途,第一个是带内管理,如ssh登录、监控采集等,第二个是访问分布式存储,如读取训练数据、写Checkpoint等。大语言模型训练过程中,对于文本类数据读取量级要求并不高,且一般都会采用异步加载的方式,此时25Gb/s的网卡带宽可以满足需求。但是模型训练过程中保存checkPoint时,会有瞬时大量写流量,此时25Gb/s的网卡会成为瓶颈,阻塞训练的正常进行。为了平衡成本与性能的问题,我们内部采用了软硬件结合的方案,首先两张网卡采取bond4的网卡绑定方式,可以将整体带宽提高到50Gb/s,虽然牺牲了一定的容错能力,但是极大提高了网络的量。另外我们也在训练框架层做了2个方面的优化,第一个优化是通过分布式的方式存储checkpoint,将整个模型的checkpoint部分分别在不同的节点上保存以减少网卡的压力。第二个优化是多阶段异步保存,第一个阶段将模型与优化器从显存拷贝到内存,不阻塞模型的训练,第二个阶段将内存中的模型拷贝到分布式存储,其中第一个阶段结束后就可以继续训练了,第二个阶段可以在后台异步进行。软件层的优化主要是在基于网卡受限的场景下,通过减少checkpoint保存时间最大化GPU有效训练时长,最后经过验证,智脑7B的模型保存时间从最开始的383s降低到5s,性能提升约70倍。
8块GPU通过6块NVSwitch芯片全互联,在A100中每块GPU与每块NVSwitch芯片由2条双向25GB/s的NVLink3连接,所以每块GPU共有12条双向25GB/s的lane,即12 25 2 = 600GB/s。A800在NVLink这里做了阉割,只有8条,所以变成了8 25 2 = 400GB/s,很多人都担心在大规模分布式训练时A800的NVLink会成为瓶颈,我们经过多次内部验证,至少在跑千卡训练任务时,NVLink并不是瓶颈。
我们内部采用的是4张200Gb/s 的Mellanox CX6网卡,采用200Gb/s网卡的原因是同主机GPU与相邻的网卡之间通过PCIe Gen4 Switch芯片通信,PCIe Gen4 x16的通信带宽是单向32GB/s,网卡的通信性能是200Gb/s = 25GB/s,接近PCIe的通信性能,如果采用400Gb/s的CX7网卡,此时受限于PCIe Gen4的带宽,CX7的网卡性能很难发挥出来。NVIDIA推荐的单台A100配备8张CX6网卡,我们经过验证和调研,如上图所示,Megatron-LM在32台A100节点上跑7.5B模型的时候,4张网卡单次迭代时间是2张网卡一半,但是8张网卡相比于4张网卡提升非常小,因此为了节约成本,我们采用了4网卡的方案。硬件拓扑为每块PCIe Gen4 Switch配备一张网卡,与之相邻的2块A800可以启用GPU Direct RDMA通信,可以通过nvidia-smi topo -m佐证查看,经过实际验证,开启了GDR后大模型训练速度最高可以提升50%。
2.2 网络建设
传统的数据中心网络一版聚焦在对外提供服务的流量模型设计,流量主要是数据中心与外部流量交互,即以南北向流量(数据中心外的流量)为主,东西向流量(数据中心内部流量)为辅。而智算中心的流量则以东西向流量为主,南北向网络为辅。
360智算中心借鉴NVIDIA DGX-SuperPod-A100架构,如上图所示为SuperPod的一组基本单元SuperPod SU(Scalable Unit),每个SU包含200台A800以及4台Leaf交换机,这20台节点间的同号网卡之间通过单台Leaf即可直接通信。
上图中展示的是200台A800的网络架构,即10组SU的组合,其中Leaf层和Spine层采用全互联架构,这种架构下,即使出现极端情况Spine交换机只剩下一台存活,整个集群仍能正常通信。但是Leaf交换机或者Leaf交换机与节点间的线缆、光模块等出现异常,会影响正常训练。不同GPU的通信路径如下:
同一个Node内的GPU通过NVLink通信。
同一个SU内不同Node的挂在同号网卡下的GPU可以通过Leaf交换机通信,即同轨通信,现在大模型训练的通信基本都为同轨通信,通信路径为HCA -> Leaf -> HCA。
同一个SU内不同Node的挂在不同号网卡下的GPU需要跨Spine通信,即跨轨通信,这种通信方式在大模型训练中非常少,通信路径为HCA -> Leaf -> Spine -> Leaf -> HCA。
不同SU的GPU需要跨Spine通信,通信路径为HCA -> Leaf -> Spine -> Leaf -> HCA。
当前的网络架构上限是200台A800主机,如果此时想要支持更多的GPU,需要将2层的架构升级为3层,即在Spine层之上再增加一层 Core Compute Switch,来支持更大规模的GPU集群。
3. Kubernetes集群建设
3.1 调度能力
360智算中心基于Volcano来优化调度流程,解决了在大模型基础设施中调度过程中碰到的一些难点,其实现的核心调度策略包括以下几点:
Gang调度:满足“All or Nothing"的调度需求,避免Pod的任务调度导致集群资源的死锁与浪费。
BinPack调度:最小化资源使用量,优先将碎片任务调度到同一台机器,最大化集群的整体利用率。
优先级与抢占:提供了P0~P5一共6种优先级,其中P0~P2为高优先级任务,可以抢占P4、P5的任务,同时P3既不会执行抢占动作,也不会被高优先级抢占。满足了不同任务的重要性区分,确保关键任务能够顺利执行。
网络拓扑感知调度:实现了智能化的资源调度和任务分配,感知各个节点间的网络拓扑关系,将通信频繁的任务分配到带宽高、延迟低的区域,提升数据传输效率,减少网络瓶颈。最简单的拓扑感知调度为将任务尽量分配到同一台交换机下的多个节点,我们经过验证后发现,这个调度策略在某些特定场景下可以带来超过20%的收益。
延迟调度:大模型训练场景中,占用大块资源的任务结束时由于资源释放的顺序不确定,导致资源需求小的任务总是被优先调度,此时优先级规则是不生效的。基于这种场景我们提出了延迟调度的方法,当低优先级的任务资源满足时,采取延迟调度的方式,解决了资源需求大的训练任务长期饥饿的问题。
异构算力调度:我们实现了在单一智算集群中构建NVIDIA-GPU和多种国产化芯片,兼容昇腾等主流AI芯片,并且全面适配支持了X86、arm架构,通过配套的AI开发平台一键调度海量异构算力资源。
3.2 网络方案
360智算中心在RoCE V2和IB这两种主流的高性能网络方案都有落地,具体方案如下图所示:
根据第二节中物理机上的介绍,A800共有6张网卡,其中以太网卡lan0、lan1做bond4后作为主机的管理平面网络,做南北向通信,IB网卡lan2~lan5作为主机的数据平面网络,做东西向通信。
主网络插件VPC负责维护整个k8s集群管理平面的网络,对应每个pod中的eth0网络接口。第三方网络插件multus cni、macvlan等主要负责维护整个k8s集群数据平面的网络,对应每个pod中的net1~net4网络接口。
network-operator是NVIDIA推出的专门用来在k8s集群中启用RDMA网络的解决方案,包含以下核心组件:
mofed:Mellanox网卡驱动,推荐将网卡驱动直接部署到物理机上,不通过network-operator的容器化方式部署,这样可以提高整个系统的稳定性,否则当network-operator出现异常时,会导致宿主机失联,只能通过BMC方式连入主机。
rdma-shared-device-plugin:将服务器上的mlx网卡以k8s扩展资源的形式暴漏出来,供业务申请使用。
Secondary CNI:在k8s集群中建立第二个网络平面,以支持分布式训练多机多卡的网络通信。
Multus-cni:k8s环境中的容器多网络方案,能够attach多个网络接口到pod中,是meta类的cni插件,能够和第三方插件搭配使用并且不会产生冲突。
container-networking-plugins:包含多个cni插件,主要利用macvlan插件,为pod中申请的mlx资源创建新的mac地址以便从新地址转发流量。
whereabouts:负责在集群范围内对挂载到pod中的mlx网卡分配对应的ip地址
相比RoCE v2网络,IB网络有以下区别:
除了IB网卡外,还需要专门的IB交换机支持,通过UFM来统一管理IB网络。
在k8s集群中不需要通过第三方网络组件建立第二网络平面,此时可以不需要再配置Macvlan。
4. 训推加速
4.1 QLM训练加速
Qihoo Large Language Model (QLM) 是360内部基于Megatron-LM开发并深度优化的训练框架,完美适配智算中心的万卡集群。通过定制调优,QLM在训练MoE模型时的MFU超过47%,Dense模型超过56%。在原有Megatron-LM的基础上,QLM还引入了以下核心能力:
千卡模型训练:支持超过千卡规模的大模型训练,并优化了长文本(超过360K token)的训练性能。针对智脑模型进行了专门的GDR、3D并行加速和定制优化,Dense模型训练速度达到了175TFLOPS,整体性能提升了8倍。
兼容HF模型格式:QLM具备与Hugging Face模型格式的无缝转换功能,方便开发者在多平台间灵活使用,提高了模型的可移植性。
训练过程可视化:通过可视化界面实时监控训练过程中的关键指标,如损失函数、学习率、训练性能等,帮助研究人员快速发现问题并优化模型。
训练过程Profile:QLM提供了全面的性能分析能力,可以对训练过程中的各个阶段进行深度剖析,帮助定位计算和通信瓶颈,进一步优化训练效率。
模型评测:QLM集成了多种评测工具,支持对模型的训练效果进行全面评估,确保模型性能达到预期。
模型微调:QLM支持灵活的微调功能,用户可以在预训练模型的基础上进行定制化微调,以满足特定业务需求。
4.2 GLLM推理加速
Gaia Large Language Module (GLLM) 是360内部开发的一款高效大模型推理引擎,旨在满足NLP领域日益增长的需求。GLLM兼容NVIDIA和昇腾等多平台硬件,集成了多种推理加速技术,与VLLM相比性能提升超过10%。
多平台硬件支持:GLLM能够无缝运行在不同的硬件平台上,无论是在企业内部应用还是面向客户的AI产品,都能提供高效、稳定的推理服务。
Continuous Batching:GLLM通过动态批量处理推理请求,极大提高了GPU利用率,降低了每个请求的平均处理时间,优化了系统性能。
PageAttention:通过优化内存访问机制,Page Attention提升了长文本推理的内存利用率和计算效率。
PrefixCache:这一缓存机制减少了重复计算,特别是在长上下文推理场景中,显著降低了首字返回的延迟。
GLLM强大的推理性能使其在众多自然语言处理场景中展现出广泛的应用潜力,其可以用于智能客服、内容生成、信息检索、语音识别等多个领域。GLLM凭借其多平台硬件支持、业界领先的技术特性以及显著的性能提升,成为360公司在大模型推理领域的重要资产。随着技术的不断发展,GLLM将不断引入新的特性,持续为用户提供更高效、更智能的大模型推理解决方案。
5. AI平台建设
5.1 平台基础能力
现代AI开发平台的核心能力在于为企业和开发者提供强大的工具与基础设施,以支持模型开发到部署的全生命周期。随着大模型训练规模的不断扩大和任务复杂性的提升,AI平台必须具备灵活而高效的功能,以应对多样化的场景和需求。以下是AI平台的核心能力的详细探讨。
交互式建模:交互式建模是AI平台支持用户进行实验性数据分析、特征工程、模型设计与验证的重要能力。它强调实时性和灵活性,允许数据科学家和算法专家在轻量化的环境中快速迭代模型,调整参数并观察即时反馈。平台集成了Jupyter Notebook与VSCode,提供开箱即用的可扩展云端IDE环境,并支持多租户实时协作。
分布式训练:分布式训练是AI平台的一项核心能力,尤其在大模型训练中尤为重要。通过秒级调用海量计算资源,用户可以轻松启动千卡训练任务,支持3D并行、极致通信、训练过程可视化及故障自愈等功能,广泛应用于大规模多模态训练和自然语言处理,显著提高训练效率,缩短开发周期。
在线部署:在线部署是AI平台将训练好的模型以API或微服务形式部署到线上供业务调用的重要能力。平台能够根据业务需求自动伸缩部署实例,满足高并发需求。同时,实时监控模型服务的运行状态,包括响应时间、并发请求数和资源消耗,确保服务的稳定性和高可用性。
资源池管理:AI平台提供对计算、存储和网络资源的统一管理与分配能力,确保多租户环境下资源分配的公平性与有效性。通过动态调度、负载均衡、资源隔离、弹性伸缩和故障恢复等机制,确保在多用户、多任务环境下高效、稳定地利用计算资源。
其他优化手段:提升整体资源利用率是AI平台的核心能力之一,特别是在多个用户共享有限计算资源时,平台需要合理安排任务的执行优先级。平台提供低效任务优化、最大排队时长限制、抢占等功能,能够自动识别并终止低效任务,避免资源浪费,在某些特定项目下,AI平台帮助其整体资源利用率提升了25%以上。
AI平台的核心能力涵盖了从模型训练、资源管理到服务部署的各个环节。通过分布式训练、交互式建模、在线部署、最大排队时长限制和低效任务优化等功能,平台不仅提升了模型开发和部署的效率,还为用户提供了灵活、智能的资源管理工具,确保了平台的高效运作和任务执行。
5.2 可视化能力
在AI平台中,可视化能力是提升用户体验、优化系统性能、以及加速模型开发的重要工具。以下是各项主要可视化能力的详细补充:
集群资源可视化:集群资源可视化提供整个计算环境的资源使用情况,帮助用户和管理员了解系统运行状态,主要包括节点状态监控、网络流量监控、磁盘和IO监控、资源调度监控等。
模型训练资源监控:模型训练资源监控侧重于对计算资源的实时追踪和分析,主要包括GPU/CPU利用率监控、显存和内存使用监控、温度和功耗监控、SM利用率等常规监控,通过这些监控可以判断是否达到硬件瓶颈。
任务维度指标统计:任务维度的指标统计功能帮助用户深入了解每个任务的执行性能,主要包括:任务运行时长分析、任务执行成功率、TFLOPS统计、Token处理速度等业务相关指标,并支持根据这些指标进行任务成本评估和优化。
训练过程可视化:训练过程可视化是模型开发者调试和优化模型的重要工具,它涵盖的视图包括但不仅限于损失函数和评估指标曲线、超参数调节和对比、实时训练日志、多模型对比可视化、梯度和权重监控等,帮助用户选择最优的模型架构和训练策略,快速定位问题。
AI平台的可视化能力通过多层次、多角度的数据展示与分析,不仅为开发者提供了全面的模型训练和资源管理工具,还帮助他们快速定位问题并优化整个训练流程。这些能力提高了系统的透明度,减少了排障时间,并使得大规模的模型开发和部署更加高效、智能。
5.3 故障容错
当训练任务扩展到千卡级别以上规模时,训练过程因GPU出现故障导致任务中断的概率会急剧增加,在训练集群中,平均每周都会有3-7次的GPU故障,这些故障会引起GPU集群利用率下降。因此在AI平台中,我们推出了QihooSMI,一个可以确保系统稳定性和高效性的故障检测与自愈工具。它涉及多个维度,包括运行时环境、硬件故障、网络故障和慢节点的检测与修复。
运行时环境检测:运行时环境的异常主要表现为导致训练任务异常退出、训练任务性能下降、甚至内存泄漏等问题。如nvidia-fabricmanager服务未正常启动会导致训练任务失败,但是这个服务对于用户来说是屏蔽且无感的,用户无法通过应用程序的日志定位到这一问题。基于当前场景,QihooSMI实现了智算中心的运行时环境监测,检测的内容包括系统内核模块缺失与版本异常、驱动异常、关键软件服务状态异常及版本缺失、集群关键组件的检测与异常修复等。这些故障可以在秒级定位到运行时环境故障源,并可以立即修复同时不影响运行时任务。
硬件故障检测:硬件故障通常表现为服务器宕机、GPU硬件故障、硬盘损坏等。这些故障往往会导致计算节点不可用或性能大幅下降,尤其在大规模模型训练场景中,硬件故障可能会严重影响整个训练任务。QihooSMI实现了GPU ECC故障检测、掉卡、网卡异常等常见GPU故障检测,同时采取了故障隔离、节点排干等一系列自愈策略,及时止损。硬件故障往往需要运维人员下线维修,因此当硬件故障发生时,QihooSMI便能秒级定位到故障且及时告警运维人员,在节点下线维修前这一过程完全做到自动化处理,提高运维效率。
网络异常:网络故障在分布式系统中尤为常见,表现为节点间的通信延迟增加、网络中断、数据丢包等。网络故障会严重影响大模型训练任务的效率,因为分布式训练依赖于节点间的高速通信。IB网络的故障检测与恢复依赖于UFM,可以实现故障的隔离、网络拓扑自愈等能力,如当Spine交换机异常时,UFM可以自动调整路由,将数据流量引导到正常的链路上。RoCE网络异常主要通过Prometheus、Grafana等工具监控节点间的网络带宽、延迟、丢包率等指标,并通过告警及时监控感知。
慢节点:慢节点是分布式训练中的常见问题,指的是某些节点的性能明显低于集群中的其他节点,导致整体训练任务的速度降低。慢节点的定位对于智算中心的挑战是该节点已经通过了QihooSMI的扫描与检测,但是将其加入到大规模训练中却会引起集群训练任务下降,因此如何从大规模机器中(如128台A800)定位到这台慢节点是一件非常耗时的工作。传统的方式是通过提交训练任务的方式以二分法定位,这种方式往往需要几个小时才能定位到慢节点。QihooSMI基于NCCL-Tests实现了轻量级检测程序,5分钟内即可定位到集群中慢节点,极大提高了检测效率。
AI开发平台中的故障检测与自愈机制通过软件、硬件、网络和慢节点的监控和自动修复,保障了平台的稳定性和高效性。针对不同类型的故障,系统应具备灵活的检测手段和自愈策略,以降低人为干预的频率,提升系统的自动化水平。当训练任务因遇到故障导致失败时,AI平台可以3分钟内做到定位故障源、隔离故障、并将任务自动拉起,整个过程完全自动化,无需人工干预。在未来,随着AI训练任务的规模和复杂度增加,360AI平台中的故障自愈能力将朝着更加智能化和精细化的方向发展。
6. 总结与展望
360智算中心的万卡GPU集群建设,结合了AI、大数据、异构计算和高性能网络等多种先进能力,为大规模人工智能计算任务提供了强大的计算能力。本文详细介绍了从基础设施建设、网络设计、调度优化到AI开发平台与训推加速的全面落地实践,以及在大模型训练中应对的诸多挑战。
未来,智算中心将进一步扩展集群规模,提升异构计算支持,优化AI平台的可视化和监控能力,并积极探索智算中心相关技术和跨领域技术的融合。通过持续的技术创新与能效优化,360智算中心将在AI基础设施领域持续跟进,为未来的复杂AI任务提供更强大的支持。
本文作者可以追加内容哦 !