DeepSeek第二炸!开源首个用于MoE模型训练通信库

DeepSeek第二炸!开源首个用于MoE模型训练通信库

作者: 发表时间:2025-12-14 8:25:12
河池市电台广播中心app 柳州市警务app 朝阳市第六中学app 丽江市消防宣传app 蚌埠市未成年保护协会app 咸阳市安全宣传app 南阳市中心校app 保山市天气监控中心app 七台河市征地服务app 安阳市第六小学app 炉霍县住房保障app 连江县政府公报app 南召县残联救助app 夏河县惠农app 黔西县学校简介app 印江土家族苗族自治县政要信息app 延川县第四中学app 馆陶县特殊家庭关爱协会app 东山县助农app 新龙县政务服务app

DeepSeek 的“开源周”活动今日已经来到第二天,今天发布的是首个开源的用于 MoE 模型训练和推理的 EP 通信库 ——DeepEP。

本站

官方表示其具备如下特征:

高效优化的全到全通信方式

支持节点内外通信,兼容 NVLink 和 RDMA 技术

提供高吞吐量的内核,提升训练和推理前期填充效率

提供低延迟内核,优化推理解码速度

完全支持 FP8 数据格式调度

提供灵活的 GPU 资源管理,支持计算与通信的重叠执行

本站

据介绍,DeepEP 是一款专为混合专家(MoE)和专家并行(EP)设计的通信库,提供了高吞吐量和低延迟的 all-to-all GPU 内核,常用于 MoE 派发和合并操作。该库还支持低精度计算,包括 FP8。

为了与 DeepSeek-V3 论文中提出的组限制门控算法兼容,DeepEP 提供了一些针对不对称带宽转发优化的内核,比如将数据从 NVLink 域转发到 RDMA 域。这些优化的内核能够提供高吞吐量,适合用于训练和推理的预填充任务,同时支持 SM(流式多处理器)数量控制。

对于延迟敏感型的推理解码任务,DeepEP 提供了一套低延迟内核,采用纯 RDMA 技术以最大程度减少延迟。此外,该库还采用了一种基于 Hook 的通信与计算重叠方法,不会占用任何 SM 资源。

相关文章