-
Notifications
You must be signed in to change notification settings - Fork 0
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
在基于提示的对话生成中,实验数据和您的论文相差很多,希望作者可以给出建议 #7
Comments
不好意思,最近比较忙,没法及时回复。想问一下对于prompt-based generation, 你有先进行训练再进行生成么?如果也有训练,可能的原因是训练不充分,导致GPT-2没法很好地根据plan path指导对话的生成。 |
作者您好。非常感谢收到您的回复。对于prompt-based generation,我严格按照readme文件中的训练语句训练GPT-2模型。对于您给出的训练不充分这个原因,我可以理解为增加GPT-2的训练轮数吗?还是说修改其他的训练参数呢? |
你好,建议是增加训练轮数。 |
您好,我们的代码中保留了top-k、top-p decoding的方式。为了方便不同模型的对比,我们最后采用的greedy decoding(如论文中所述),即 |
好的,非常感谢您的回复。祝您生活愉快,科研顺利! |
作者您好,非常感谢您上次的回复,您的回复对我有很大地帮助。在复现您的实验过程中,对于上次您给我的建议,我已经正确的生成了对话路径(路径生成的实验数据如下图1),但是针对于基于提示的对话生成,我在IN数据集上进行了实验,实验结果和您的论文还是相差很多(数据如下图2)。对于我的这个问题,麻烦请教您是什么原因,希望您可以给出一些建议!
图1
图2
The text was updated successfully, but these errors were encountered: