LLM推理优化我认为总共可以分为以下几个方面:
- 优化KV Cache - MQA
- GQA
- MLA
 
- 调度 - Continuous batching
- KIMI的调度系统Mooncake
 
- 魔改模型结构或者魔改 attention 计算 - MOE架构
- flash attention
- paged attention
 
- 量化 - AWQ
- GPTQ
 
- 其他角度 - 一次解码 n 个 token 来尽可能充分利用子回归解码中没有充分利用的算力 - 投机采样
- Lookahead Decoding
- Prompt Decoding
 
 
- 一次解码 n 个 token 来尽可能充分利用子回归解码中没有充分利用的算力