DeepSeek第二炸!开源首个用于MoE模型训练通信库

DeepSeek第二炸!开源首个用于MoE模型训练通信库

作者: 发表时间:2025-12-03 11:57:31
农安县第四小学app 象山县社会求助app 桦南县工商信息app 广宗县第三小学app 五台县农业局app 宁海县防灾信息app 抚松县农业局app 邱县热点专题app 萝北县征地服务app 涿鹿县水务app 阜城县公共文化服务app 柳林县非物质文化遗产app 昔阳县灾害救助app 黎城县新闻中心app 泰来县第三高中app 绥棱县公正处app 青冈县教育局app 呼玛县学校简介app 灵丘县劳动局app 义县第四中学app 蔚县第一高中app 如东县第四高中app 临县防灾信息app 兰西县工程造价app

DeepSeek 的“开源周”活动今日已经来到第二天,今天发布的是首个开源的用于 MoE 模型训练和推理的 EP 通信库 ——DeepEP。

本站

官方表示其具备如下特征:

高效优化的全到全通信方式

支持节点内外通信,兼容 NVLink 和 RDMA 技术

提供高吞吐量的内核,提升训练和推理前期填充效率

提供低延迟内核,优化推理解码速度

完全支持 FP8 数据格式调度

提供灵活的 GPU 资源管理,支持计算与通信的重叠执行

本站

据介绍,DeepEP 是一款专为混合专家(MoE)和专家并行(EP)设计的通信库,提供了高吞吐量和低延迟的 all-to-all GPU 内核,常用于 MoE 派发和合并操作。该库还支持低精度计算,包括 FP8。

为了与 DeepSeek-V3 论文中提出的组限制门控算法兼容,DeepEP 提供了一些针对不对称带宽转发优化的内核,比如将数据从 NVLink 域转发到 RDMA 域。这些优化的内核能够提供高吞吐量,适合用于训练和推理的预填充任务,同时支持 SM(流式多处理器)数量控制。

对于延迟敏感型的推理解码任务,DeepEP 提供了一套低延迟内核,采用纯 RDMA 技术以最大程度减少延迟。此外,该库还采用了一种基于 Hook 的通信与计算重叠方法,不会占用任何 SM 资源。

相关文章