Meta AI
Meta
模型
3
部署案例
5
模型 (3)
部署案例 (5)
- Llama 3.3 70B on 8× A100 SXM4 80GB with vLLMa100-sxm4 ×8 · llama-3.3-70b · 1480 tok/s
- Llama 4 Scout on 8×H100 SXM with vLLM (public benchmark)h100-sxm5 ×8 · llama-4-scout · 1850 tok/s
- Llama 4 Maverick on TPU Trillium (v6e) 256-chip podtrillium ×256 · llama-4-maverick · 5800 tok/s
- Llama 4 Scout on 8× Hygon DCU K100 with vLLMdcu-k100 ×8 · llama-4-scout · 850 tok/s
- Llama 4 Scout on 8× MI300X with vLLM BF16mi300x ×8 · llama-4-scout · 2200 tok/s