请问可以给出alpaca_data_zh_51k在chinese-llama-2-13b模型上 sft 的参数设置吗 #148
Answered
by
ymcui
Emily53469
asked this question in
Q&A
Replies: 1 comment 2 replies
-
我不太清楚你现在的实验目的是什么。一般来说,也可以考虑直接在Alpaca-2-13B上用自己的数据继续精调。 |
Beta Was this translation helpful? Give feedback.
2 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
我在一张 A100 上使用alpaca_data_zh_51k 数据集在chinese-llama-2-13b上进行 sft 试图复现chinese-alpaca-2-13b模型的效果,但是评测发现效果和chinese-alpaca-2-13b模型差的有点远,下面是我的sft参数设置,和示例代码相比,调整了 batchsize、lora 参数并使用了 bf16,可否给出一些参数设置的建议或者是否可以给出你们进行 sft 的参数设置?
Beta Was this translation helpful? Give feedback.
All reactions