MoE Routing
moe-routing
Top-k expert selection via softmax over router logits
公式
FLOPs
batch * seq * hidden * num_expertsBytes
2 * batch * seq * (hidden + num_experts)硬件适配性 / Hardware fitness for this operator
基于代表模型 Llama 4 Scout 的此算子参数 (FLOPs/token = 3.93e+6, Bytes/token = 4.03e+9, 算术强度 = 0.0 FLOP/byte)。 每行展示该硬件在 BF16 精度下的 ridge point、瓶颈类型、以及该算子可达吞吐 (TFLOP/s)。
| 硬件 | Ridge point | 瓶颈 | 可达 TFLOP/s | 峰值利用率 |
|---|---|---|---|---|
| Cerebras WSE-3 peak BF16 62500 TF · BW 21000 TB/s | 3.0 | 内存带宽 mem-bw | 21 | 0% |
| Groq LPU (TSP v1) peak BF16 188 TF · BW 80 TB/s | 2.4 | 内存带宽 mem-bw | 0 | 0% |
| NVIDIA R200 SXM (Vera Rubin) peak BF16 7500 TF · BW 13 TB/s | 576.9 | 内存带宽 mem-bw | 0 | 0% |
| AMD Instinct MI355X peak BF16 2300 TF · BW 8 TB/s | 287.5 | 内存带宽 mem-bw | 0 | 0% |
| NVIDIA B200 SXM 180GB peak BF16 2250 TF · BW 8 TB/s | 281.3 | 内存带宽 mem-bw | 0 | 0% |
| NVIDIA B300 SXM 288GB peak BF16 3750 TF · BW 8 TB/s | 468.8 | 内存带宽 mem-bw | 0 | 0% |
| NVIDIA GB200 NVL72 peak BF16 2250 TF · BW 8 TB/s | 281.3 | 内存带宽 mem-bw | 0 | 0% |
| NVIDIA GB300 NVL72 peak BF16 3750 TF · BW 8 TB/s | 468.8 | 内存带宽 mem-bw | 0 | 0% |
| 昇腾 950 🇨🇳 peak BF16 1500 TF · BW 6.4 TB/s | 234.4 | 内存带宽 mem-bw | 0 | 0% |
| SambaNova SN40L peak BF16 638 TF · BW 6.4 TB/s | 99.7 | 内存带宽 mem-bw | 0 | 0% |
| AMD Instinct MI325X peak BF16 1307 TF · BW 6 TB/s | 217.8 | 内存带宽 mem-bw | 0 | 0% |
| Etched Sohu peak BF16 1125 TF · BW 5.76 TB/s | 195.3 | 内存带宽 mem-bw | 0 | 0% |
显示前 12 张 (按可达 TFLOP/s 降序) · 共 38 张可比较
使用此算子的模型 (13)
- DeepSeek V4 FlashFLOPs/token: 8.39e+6 · Bytes/token: 1.48e+9
- DeepSeek V4 ProFLOPs/token: 1.00e+7 · Bytes/token: 1.00e+6
- Kimi K2.6FLOPs/token: 1.65e+8 · Bytes/token: 1.06e+10
- MiniMax M2.7FLOPs/token: 1.57e+7 · Bytes/token: 3.22e+10
- GLM-5.1FLOPs/token: 7.55e+7 · Bytes/token: 9.66e+9
- Qwen3.6 PlusFLOPs/token: 5.03e+7 · Bytes/token: 1.29e+10
- Mistral Small 4FLOPs/token: 1.64e+6 · Bytes/token: 1.17e+10
- Qwen3.5 397B ReasoningFLOPs/token: 4.19e+7 · Bytes/token: 8.05e+9
- Gemma 4 26BFLOPs/token: 2.10e+6 · Bytes/token: 2.95e+9
- GPT-OSSFLOPs/token: 1.33e+7 · Bytes/token: 2.39e+9
- Llama 4 MaverickFLOPs/token: 3.15e+7 · Bytes/token: 4.03e+9
- Llama 4 ScoutFLOPs/token: 3.93e+6 · Bytes/token: 4.03e+9
- DeepSeek R1FLOPs/token: 1.12e+8 · Bytes/token: 1.43e+10