DeepEP是一个专为混合专家系统(MoE)和专家并行(EP)设计的通信库,提供高吞吐量和低延迟的GPU全互联内核,支持低精度运算,包括FP8格式。它是首个专为MoE模型训练与推理打造的开源EP通信库,已在GitHub开源,并且与DeepSeek-V3论文中提出的组限制门控算法相匹配,为大规模分布式AI模型训练和推理加速。