DeepSeek第二炸!开源首个用于MoE模型训练通信库

DeepSeek第二炸!开源首个用于MoE模型训练通信库

作者: 发表时间:2025-12-10 5:35:10
玉溪市法律服务app 阜阳市工商信息app 昌都市招标信息app 德州市第四中学app 晋城市灾害救助app 开封市公开信息app 贺州市第三小学app 贺州市出口管理app 徐州市惠农app 茂名市农业app 遵义市旅游协会app 铁岭市第五小学app 博爱县国土信息app 绛县中心校app 嵩明县警务app 辉南县工商信息app 桂阳县政务监督app 岚皋县工商局app 东阿县旅游监督app 明溪县审计公开app 西平县农业局app 卓资县新闻中心app 神池县街道办app 汶川县工商局app 友谊县公路管理app 巴楚县非物质文化遗产app

DeepSeek 的“开源周”活动今日已经来到第二天,今天发布的是首个开源的用于 MoE 模型训练和推理的 EP 通信库 ——DeepEP。

本站

官方表示其具备如下特征:

高效优化的全到全通信方式

支持节点内外通信,兼容 NVLink 和 RDMA 技术

提供高吞吐量的内核,提升训练和推理前期填充效率

提供低延迟内核,优化推理解码速度

完全支持 FP8 数据格式调度

提供灵活的 GPU 资源管理,支持计算与通信的重叠执行

本站

据介绍,DeepEP 是一款专为混合专家(MoE)和专家并行(EP)设计的通信库,提供了高吞吐量和低延迟的 all-to-all GPU 内核,常用于 MoE 派发和合并操作。该库还支持低精度计算,包括 FP8。

为了与 DeepSeek-V3 论文中提出的组限制门控算法兼容,DeepEP 提供了一些针对不对称带宽转发优化的内核,比如将数据从 NVLink 域转发到 RDMA 域。这些优化的内核能够提供高吞吐量,适合用于训练和推理的预填充任务,同时支持 SM(流式多处理器)数量控制。

对于延迟敏感型的推理解码任务,DeepEP 提供了一套低延迟内核,采用纯 RDMA 技术以最大程度减少延迟。此外,该库还采用了一种基于 Hook 的通信与计算重叠方法,不会占用任何 SM 资源。

相关文章