Skip to content

Latest commit

 

History

History
216 lines (158 loc) · 7.9 KB

turbomind_config.md

File metadata and controls

216 lines (158 loc) · 7.9 KB

TurboMind 配置

TurboMind 是 LMDeploy 的推理引擎,在用它推理 LLM 模型时,需要把输入模型转成 TurboMind 模型。在 TurboMind 的模型文件夹中,除模型权重外,TurboMind 模型还包括其他一些文件,其中最重要的是和推理性能息息相关的配置文件triton_models/weights/config.ini

如果你使用的是 LMDeploy 0.0.x 版本,请参考turbomind 1.0 配置章节,了解配置中的相关内容。如果使用的是 LMDeploy 0.1.x 版本,请阅读turbomind 2.x 配置了解配置细节。

TurboMind 2.x 配置

llama-2-7b-chat 模型为例,在 TurboMind 2.x 中,它的config.ini内容如下:

[llama]
model_name = llama2
tensor_para_size = 1
head_num = 32
kv_head_num = 32
vocab_size = 32000
num_layer = 32
inter_size = 11008
norm_eps = 1e-06
attn_bias = 0
start_id = 1
end_id = 2
session_len = 4104
weight_type = fp16
rotary_embedding = 128
rope_theta = 10000.0
size_per_head = 128
group_size = 0
max_batch_size = 64
max_context_token_num = 1
step_length = 1
cache_max_entry_count = 0.5
cache_block_seq_len = 128
cache_chunk_size = 1
enable_prefix_caching = False
quant_policy = 0
max_position_embeddings = 2048
rope_scaling_factor = 0.0
use_logn_attn = 0

这些参数由模型属性和推理参数组成。模型属性包括层数、head个数、维度等等,它们不可修改

model_name = llama2
head_num = 32
kv_head_num = 32
vocab_size = 32000
num_layer = 32
inter_size = 11008
norm_eps = 1e-06
attn_bias = 0
start_id = 1
end_id = 2
rotary_embedding = 128
rope_theta = 10000.0
size_per_head = 128

和 TurboMind 1.0 config 相比,TurboMind 2.x config 中的模型属性部分和 1.0 一致,但推理参数发生了变化。

在接下来的章节中,我们重点介绍推理参数。

数据类型

和数据类型相关的参数是 weight_typegroup_size。它们不可被修改

weight_type 表示权重的数据类型。目前支持 fp16 和 int4。int4 表示 4bit 权重。当 weight_type为 4bit 权重时,group_size 表示 awq 量化权重时使用的 group 大小。目前,在 LMDeploy 的预编译包中,使用的是 group_size = 128

批处理大小

仍通过 max_batch_size 设置最大批处理量。默认值由原来的 32 改成 64。 在 TurboMind 2.x 中,max_batch_sizecache_max_entry_count无关。

k/v 缓存大小

cache_block_seq_lencache_max_entry_count 用来调节 k/v cache 的内存大小。

TurboMind 2.x 实现了 Paged Attention,按块管理 k/v cache。

cache_block_seq_len 表示一块 k/v block 可以存放的 token 序列长度,默认 128。TurboMind 按照以下公式计算 k/v block 的内存大小:

cache_block_seq_len * num_layer * kv_head_num * size_per_head * 2 * sizeof(kv_data_type)

对于 llama2-7b 模型来说,以 half 类型存放 k/v 时,一块 k/v block 的内存为:128 * 32 * 32 * 128 * 2 * sizeof(half) = 64MB

cache_max_entry_count 根据取值不同,表示不同的含义:

  • 当值为 (0, 1) 之间的小数时,cache_max_entry_count 表示 k/v block 使用的内存百分比。比如 A100-80G 显卡内存是80G,当cache_max_entry_count为0.5时,表示 k/v block 使用的内存总量为 80 * 0.5 = 40G
  • 当 lmdeploy 版本大于 0.2.1 时,cache_max_entry_count空闲内存的百分比用于 k/v blocks,默认值为 0.8。例如,在 A100-80G GPU 上运行 Turbomind 加载 13b 模型时,k/v blocks 使用的内存为 (80 - 26) * 0.8 = 43.2G,即利用剩余 54G 中的 80%
  • 当值为 > 1的整数时,表示 k/v block 数量

cache_chunk_size 表示在每次需要新的 k/v cache 块时,开辟 k/v cache 块的大小。不同的取值,表示不同的含义:

  • 当为 > 0 的整数时,开辟 cache_chunk_size 个 k/v cache 块
  • 当值为 -1 时,开辟 cache_max_entry_count 个 k/v cache 块
  • 当值为 0 时,时,开辟 sqrt(cache_max_entry_count) 个 k/v cache 块

前缀缓存开关

enable_prefix_caching是前缀缓存(Prefix Caching)功能的开关。值为True时表示开启,False表示关闭,默认为False

前缀缓存功能主要适用于多个请求具有相同的prompt前缀(比如system prompt)的场景,该相同前缀部分的 k/v block 会被缓存起来,被多个请求重复利用,从而节省了重复计算的开销,提高推理性能。相同prompt前缀长度越长,性能提升越大。

由于前缀缓存对 k/v 重复利用的最小粒度是block,如果相同prompt前缀不足一个block(前缀长度<cache_block_seq_len),则推理性能不会有提升。

kv 量化推理开关

quant_policy是 kv 量化和推理开关。

  • quant_policy=4 代表 4bit k/v 量化和推理
  • quant_policy=8 代表 8bit k/v 量化和推理

具体使用方法,请参考 kv quant 部署文档

外推能力开关

默认 rope_scaling_factor = 0 不具备外推能力。设置为 1.0,可以开启 RoPE 的 Dynamic NTK 功能,支持长文本推理。

关于 Dynamic NTK 的原理,详细请参考:

  1. https://www.reddit.com/r/LocalLLaMA/comments/14mrgpr/dynamically_scaled_rope_further_increases
  2. https://kexue.fm/archives/9675

设置 use_logn_attn = 1,可以开启 LogN attention scaling

TurboMind 1.0 配置

llama-2-7b-chat 模型为例,在 TurboMind 1.0 中,它的config.ini内容如下:

[llama]
model_name = llama2
tensor_para_size = 1
head_num = 32
kv_head_num = 32
vocab_size = 32000
num_layer = 32
inter_size = 11008
norm_eps = 1e-06
attn_bias = 0
start_id = 1
end_id = 2
session_len = 4104
weight_type = fp16
rotary_embedding = 128
rope_theta = 10000.0
size_per_head = 128
group_size = 0
max_batch_size = 32
max_context_token_num = 4
step_length = 1
cache_max_entry_count = 48
cache_chunk_size = 1
use_context_fmha = 1
quant_policy = 0
max_position_embeddings = 2048
use_dynamic_ntk = 0
use_logn_attn = 0

这些参数由模型属性和推理参数组成。模型属性包括层数、head个数、维度等等,它们不可修改

model_name = llama2
head_num = 32
kv_head_num = 32
vocab_size = 32000
num_layer = 32
inter_size = 11008
norm_eps = 1e-06
attn_bias = 0
start_id = 1
end_id = 2
rotary_embedding = 128
rope_theta = 10000.0
size_per_head = 128

在接下来的章节中,我们重点介绍推理参数。

数据类型

和数据类型相关的参数是 weight_typegroup_size。它们不可被修改

weight_type 表示权重的数据类型。目前支持 fp16 和 int4。int4 表示 4bit 权重。当 weight_type为 4bit 权重时,group_size 表示 awq 量化权重时使用的 group 大小。目前,在 LMDeploy 的预编译包中,使用的是 group_size = 128

批处理大小

可通过max_batch_size调节推理时最大的 batch 数。一般,batch 越大吞吐量越高。但务必保证 max_batch_size <= cache_max_entry_count

k/v cache 大小

TurboMind 根据 session_lencache_chunk_sizecache_max_entry_count 开辟 k/v cache 内存。

  • session_len 表示一个序列的最大长度,即 context window 的大小。
  • cache_chunk_size 表示当新增对话序列时,每次要开辟多少个序列的 k/v cache
  • cache_max_entry_count 表示最多缓存多少个对话序列

kv int8 开关

当启动 8bit k/v 推理时,需要修改参数 quant_policyuse_context_fmha。详细内容请查阅 kv int8 部署文档。

外推能力开关

设置 use_dynamic_ntk = 1,可以开启 RoPE 的 Dynamic NTK 选项,支持长文本推理。

关于 Dynamic NTK 的原理,详细请参考:

  1. https://www.reddit.com/r/LocalLLaMA/comments/14mrgpr/dynamically_scaled_rope_further_increases
  2. https://kexue.fm/archives/9675

设置 use_logn_attn = 1,可以开启 LogN attention scaling