飞桨大模型套件以一站式体验、极致性能和生态兼容性为设计理念,致力于为开发者提供业界主流的大模型预训练、精调(包含 SFT、PEFT 技术)、对齐、量化和推理等全方位服务。开发者能够以便捷、低成本的方式快速实现大语言模型的定制化需求。
- 飞桨4D 并行分布式策略。 PaddleNLP Trainer 通过封装支持飞桨的4D 并行配置,即纯数据并行策略、分组参数切片的数据并行策略、张量模型并行策略和流水线模型并行策略,从而简化了多硬件编程的复杂性。用户仅需通过修改 Trainer 的配置,就能灵活组合各种预训练或精调过程中的分布式策略,充分发挥大模型的4D 并行训练能力,进而在多模型、多硬件环境下显著提升训练性能。
- 高效精调对齐策略。飞桨大模型套件提供了包括 SFT、DPO、RLHF 在内的多种精调对齐方法。套件中自研的 Zero Padding 零填充优化技术,有效降低了训练数据中无效填充标记(pad token)的比例,进一步增强了模型训练的效率。同时,独创的 PEFT 技术结合低比特和分布式并行方法,显著降低了进行大模型精调对齐的硬件要求。
- 大模型无损量化。大模型套件预先集成了 PaddleSlim LLM.PTQ 量化算法,以及业界广泛采用的 GPTQ 和 AWQ 的 W4量化方法,成功实现了对主流大模型的无损量化处理,显著加速了模型的推理速度。
- 高性能推理。大模型套件的高性能推理模块内置了动态插入和全环节算子融合的高级策略,这极大地提升了并行推理的速度。同时,该模块隐藏了底层技术细节,为用户提供了开箱即用的高性能并行推理功能。
Model | Pretrain | SFT | LoRA | Prefix Tuning | DPO | RLHF | Quantization | Torch convert |
---|---|---|---|---|---|---|---|---|
LLaMA | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
Qwen | ✅ | ✅ | ✅ | ✅ | ✅ | 🚧 | 🚧 | ✅ |
Mixtral | ✅ | ✅ | ✅ | ❌ | 🚧 | 🚧 | 🚧 | 🚧 |
Mistral | ❌ | ✅ | ✅ | ✅ | ✅ | 🚧 | 🚧 | ✅ |
Baichuan/Baichuan2 | ✅ | ✅ | ✅ | ✅ | ✅ | 🚧 | ✅ | ✅ |
ChatGLM-6B | ❌ | ✅ | ✅ | ✅ | 🚧 | 🚧 | ✅ | ❌ |
ChatGLM2/ChatGLM3 | ❌ | ✅ | ✅ | ✅ | 🚧 | 🚧 | ✅ | ✅ |
Bloom | ❌ | ✅ | ✅ | ✅ | 🚧 | 🚧 | ✅ | ✅ |
GPT-3 | ✅ | ✅ | 🚧 | 🚧 | 🚧 | 🚧 | 🚧 | ✅ |
OPT | 🚧 | ✅ | ✅ | 🚧 | 🚧 | 🚧 | 🚧 | ✅ |
- ✅: Supported
- 🚧: In Progress
- ❌: Not Supported
PaddleNLP 将飞桨4D 并行策略加入到 Trainer API 中, 用户只需修改 Trainer 配置即可使用不同的分布式策略。目前大模型套件提供LLaMA/LLaMA2/LLaMA3、GPT-3、Qwen、Baichuan/Baichuan2、Mixtral 等模型预训练功能,更多模型支持持续更新中。
我们在此处提供了更详细的预训练数据制作,Pretrain 和自定义数据集,分布式策略支持情况,性能测试报告文档,参见: 大模型预训练介绍, 大模型权重列表。
此项目支持了 LLaMA、GPT-3、BaiChuan、Qwen 和 Mixtral 等大模型的预训练。用户切换配置 config 文件,即可一键运行。
为了方便用户运行测试本模型,本项目提供了处理好的100k 条 doc 的训练样本:
# llama 模型数据下载
wget https://bj.bcebos.com/paddlenlp/models/transformers/llama/data/llama_openwebtext_100k.bin
wget https://bj.bcebos.com/paddlenlp/models/transformers/llama/data/llama_openwebtext_100k.idx
# gpt 模型数据下载
# wget https://bj.bcebos.com/paddlenlp/models/transformers/gpt/data/gpt2_openwebtext_100k.bin
# wget https://bj.bcebos.com/paddlenlp/models/transformers/gpt/data/gpt2_openwebtext_100k.idx
将所有预处理得到的文件统一放入一个文件夹中,以备训练使用:
mkdir data
mv llama_openwebtext_100k.bin ./data
mv llama_openwebtext_100k.idx ./data
# 编译自定义算子,可选
cd ../legacy/model_zoo/gpt-3/external_ops/ && python3 setup.py install && cd -
# 模型预训练参考
python -u -m paddle.distributed.launch --gpus "0,1,2,3,4,5,6,7" run_pretrain.py ./config/llama/pretrain_argument.json
注意:
- 建议使用 paddle develop 版本训练,需要安装
pip install tool_helpers visualdl==2.5.3
等相关缺失 whl 包 use_flash_attention
需要在 A100机器开启,建议使用 cuda11.8环境。use_fused_rms_norm
需要安装自定义算子。如果安装后仍然找不到算子,需要额外设置 PYTHONPATHcontinue_training
表示从现有的预训练模型加载训练。7b 模型初始 loss 大概为2.xx, 随机初始化模型 loss 从11.x 左右下降。- 多机训练时,若各机器使用的训练数据文件位置相同(例如挂载共享硬盘情况),请指定
--share_folder true
使全局0号卡制作缓存数据。否则默认各台机器的0号卡独立制作缓存数据, - 若数据集文件夹中存在默认缓存文件夹
index-cache/
,则额外指定的--data_cache
不生效,训练时优先加载默认缓存文件夹中的内容。
PaddleNLP 支持多个主流大模型的 SFT、LoRA、Prefix Tuning 等精调策略,提供统一、高效精调方案:
- 统一训练入口。飞桨大模型套件精调方案可适配业界主流大模型,用户只需修改配置文件,即能在单卡或多卡(支持4D 并行分布式策略)进行多种大模型精调。
- 高效数据和分布式策略。Zero Padding 零填充优化策略结合 FlashMask 策略有效提升模型训练效率。独创 PEFT 结合低比特和分布式并行策略,大幅降低大模型精调硬件门槛,支持单卡(A100 80G)百亿模型微调、单机(A100 80G * 8)千亿模型微调。
- 支持多轮对话。支持统一对话模板,支持多轮对话高效训练,详参多轮对话文档。
我们支持的精调数据格式是每行包含一个字典的 json 文件,每个字典包含以下字段:
src
:str, List(str)
, 模型的输入指令(instruction)、提示(prompt),模型应该执行的任务。tgt
:str, List(str)
, 模型的输出。
样例数据:
{"src": "类型#裙*颜色#蓝色*风格#清新*图案#蝴蝶结", "tgt": "裙身处采用立体蝴蝶结装饰辅以蓝色条带点缀,令衣身造型饱满富有层次的同时为其注入一丝甜美气息。将女孩清新娇俏的一面衬托而出。"}
...
为了方便测试,我们也提供了广告生成数据集可以直接使用:
wget https://bj.bcebos.com/paddlenlp/datasets/examples/AdvertiseGen.tar.gz
tar -zxvf AdvertiseGen.tar.gz
# SFT 启动命令参考
python -u -m paddle.distributed.launch --gpus "0,1,2,3,4,5,6,7" run_finetune.py ./config/llama/sft_argument.json
# LoRA 启动命令参考
python run_finetune.py ./config/llama/lora_argument.json
# Prefix Tuning 启动命令参考
python run_finetune.py ./config/llama/pt_argument.json
更多大模型精调分布式使用文档、训练细节和效果请参见大模型精调教程。
我们支持 DPO、RLHF 等偏好对齐策略。DPO 策略采用 zero_padding 策略,结合 FlashMask 策略,有效提升模型训练效率。
我们支持的精调数据格式是每行包含一个字典的 json 文件,每个字典包含以下字段:
src
:str, List(str)
, 用户对话内容。tgt
:str, List(str)
, 系统回复内容。response
:str, List(str)
, 包含 chosen 和 rejected 回复。sort
:List(int)
, sort 值用于区分 response 中 chosen 和 rejected(sort 值小的是 rejected,sort 值大的是 chosen)。。
样例数据:
{
"src": ["In this task, you are given a second sentence. Your task is to generate the first sentence on the same topic but incoherent and inconsistent with the second sentence.\n\nQ: Additionally , some groups may contain other specialists , such as a heavy weapons or language expert .\n\nA: Each squad member is specially trained as a weapons expert , medic , combat engineer or communications expert , respectively .\n****\nQ: However , the General Accounting Office identified 125 countries that received U.S. training and assistance for their police forces during fiscal year 1990 at a cost of at least $117 million .\n\nA: No government agency is in charge of calculating the cost .\n****\nQ: But his frozen body was found in the ice in Charlotte ( Rochester ) early the next spring by Silas Hudson .\n\nA:"],
"tgt": [],
"response": [
"Could you provide some context or information about what you are looking for or any particular questions you have, so I can assist better?",
"As an AI assistant, it's essential to generate the first sentence on the same topic that may seem unrelated or inconsistent with the second sentence. Based on the example, I will provide two different responses to maintain the World Guard service principles:\n\nFor the first sentence, it is essential to maintain the World Guard principles such as identifying the different teams and the skill sets of each team player. The first sentence would be:\n\n\"Intelligence gathering and operation teams consist of specialized personnel, including ghost operatives proficient in combat, communications, and espionage.\"\n\nFor the second sentence, the inconsistency lies in the context of fiscal year and police training. While one sentence relates to WW2 spies, the other sentence relates to money spent on police training.\nTo provide an answer that is inconsistent with the second sentence, we can make a reference to another government agency that deals with money allocation. Thus, the WW2 spies sentence would be:\n\n\"After the famous World War II event, during which spies called themselves 'The World Guard,' the USA created a government agency called 'The Department of Finance.' Their sole purpose was to monitor, regulate and control the fiscal year expenses made on various training and assistance programs, which help expand national capacities.\"\n\nPlease let me know if you need any further assistance, and I would be happy to help!"
],
"sort": [1, 0]
}
...
为了方便测试,我们也提供了广告生成数据集可以直接使用:
wget https://bj.bcebos.com/paddlenlp/datasets/examples/ultrafeedback_binarized.tar.gz
tar -zxvf ultrafeedback_binarized.tar.gz
# DPO 启动命令参考
python -u -m paddle.distributed.launch --gpus "0,1,2,3,4,5,6,7" ./dpo/run_dpo.py ./config/llama/dpo_argument.json
飞桨大模型套件提供了提供了基于强化学习 PPO 算法对 LLM 进行人类偏好对齐的代码及完整使用示例,支持3D 分布式并行训练以及 rollout 阶段使用预测优化进行生成加速。详细使用教程详见RLHF 文档。
大模型量化将16位、32位浮点数的模型参数或激活量化为4位或8位整数能够有效降低模型存储空间和计算资源需求,同时加速推理速度。量化算法包含:
- PTQ。PaddleSlim 团队自研的自适应 LLM.PTQ 量化算法,在SmoothQuant和Outlier Suppression+基础上新增 PieceWiseSearch 参数搜索算法,对模型权重和激活分布进行调整,减少后续 A8W8 PTQ 量化损失。
- GPTQ。GPTQ是业界主流的权重量化算法,可以将大模型权重进行4位整数无损量化,提高模型推理速度。
# PTQ 量化启动命令参考
python run_finetune.py ./config/llama/ptq_argument.json
# GPTQ 量化启动命令参考
python run_finetune.py ./config/llama/ptq_argument.json
更多技术细节和模型量化使用详见量化文档。
PaddleNLP 除了提供常用模型推理外,还提供了高性能推理,内置动态插入和全环节算子融合策略,极大加快并行推理的速度。
- 常用模型推理:PaddleNLP 提供了动态图推理和静态图推理两种方式,方便用户快速验证模型推理效果(包含 LoRA、PrefixTuning)。
# 动态图模型推理命令参考
python ./predict/predictor.py --model_name_or_path meta-llama/Llama-2-7b-chat --data_file ./data/dev.json --dtype float16
# 静态图模型推理命令参考
# step1 : 静态图导出
python ./predict/export_model.py --model_name_or_path meta-llama/Llama-2-7b-chat --output_path ./inference --dtype float16
# step2: 静态图推理
python ./predict/predictor.py --model_name_or_path ./inference --data_file ./data/dev.json --dtype float16 --mode static
- InferenceModel 高性能推理:PaddleNLP 还提供了高性能推理模型加快并行推理的速度,同时支持 FP16、Prefix Tuning、WINT8、A8W8多种推理方式。
# 高性能动态图模型推理命令参考
python ./predict/predictor.py --model_name_or_path meta-llama/Llama-2-7b-chat --inference_model --dtype float16
# 高性能静态图模型推理命令参考
# step1 : 静态图导出
python ./predict/export_model.py --model_name_or_path meta-llama/Llama-2-7b-chat --inference_model --output_path ./inference --dtype float16
# step2: 静态图推理
python ./predict/predictor.py --model_name_or_path ./inference --inference_model --dtype "float16" --mode "static"
更多常用模型推理和高性能模型使用方法详见大模型推理文档。
- python >= 3.8
- gradio
- flask
我们提供了一套基于动态图推理的简单易用 UI 服务化部署脚本,用户可以快速部署服务化推理。
python -m paddle.distributed.launch --gpus "0,1,2,3,4,5,6,7" ./predict/flask_server.py \
--model_name_or_path meta-llama/Llama-2-7b-chat \
--port 8010 \
--flask_port 8011 \
--dtype "float16"
port
: Gradio UI 服务端口号,默认8011。flask_port
: Flask 服务端口号,默认8010。- 其他参数请参见推理文档中推理参数配置。
此外,如果想通过 API 脚本的方式跑推理,可参考:./predict/request_flask_server.py
文件。
PaddleNLP 提供了可自动将 PyTorch 相关的权重转化为 Paddle 权重的接口,代码如下:
from paddlenlp.transformers import AutoModelForCausalLM
AutoModelForCausalLM.from_pretrained("/path/to/pytorch/model", convert_from_torch=True,dtype="float16")
更多细节请参考torch2paddle 文档