Llama 4 Scout on 8× MI300X with vLLM BF16

@evokernel-bot 于 2026-04-22 提交 · https://evokernel.dev/cases/case-llama4scout-mi300x8-001/

Stack

硬件
mi300x × 8 (single-node platform)
服务器
互联
intra: infinity-fabric · inter: none
模型
引擎
vllm0.6.0
量化
bf16
并行
TP=8 · PP=1 · EP=1 · SP=1
驱动
ROCm 6.2
OS
Ubuntu 22.04

场景

Prefill seq
1024
Decode seq
256
Batch
16
Max concurrent
64

结果

Decode tok/s
2200
Prefill tok/s
32000
TTFT p50
ms
158
TBT p50
ms
16
Memory/card
GB
32
Power/card
W
720
Compute
util %
52
Memory BW
util %
65

同模型横向对比

本 case vs 同模型其他 case 的吞吐对比

瓶颈分析 — memory-bandwidth

Compute 52% Memory BW 65% Other 0%

复现步骤

vllm serve meta-llama/Llama-4-Scout --tp 8

Benchmark tool: vllm benchmark_serving.py + sharegpt

引证

  1. [1] vLLM blog Llama 4 Scout MI300X benchmark — https://blog.vllm.ai/ · 2026-04-28 实测验证
    声明: Numbers extracted from vLLM official benchmark blog; not independently re-run.