Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

在基于提示的对话生成中,实验数据和您的论文相差很多,希望作者可以给出建议 #7

Open
LLLLLearn opened this issue Sep 26, 2024 · 6 comments

Comments

@LLLLLearn
Copy link

作者您好,非常感谢您上次的回复,您的回复对我有很大地帮助。在复现您的实验过程中,对于上次您给我的建议,我已经正确的生成了对话路径(路径生成的实验数据如下图1),但是针对于基于提示的对话生成,我在IN数据集上进行了实验,实验结果和您的论文还是相差很多(数据如下图2)。对于我的这个问题,麻烦请教您是什么原因,希望您可以给出一些建议!
图1
路径生成
图2
对话生成

@iwangjian
Copy link
Owner

不好意思,最近比较忙,没法及时回复。想问一下对于prompt-based generation, 你有先进行训练再进行生成么?如果也有训练,可能的原因是训练不充分,导致GPT-2没法很好地根据plan path指导对话的生成。

@LLLLLearn
Copy link
Author

作者您好。非常感谢收到您的回复。对于prompt-based generation,我严格按照readme文件中的训练语句训练GPT-2模型。对于您给出的训练不充分这个原因,我可以理解为增加GPT-2的训练轮数吗?还是说修改其他的训练参数呢?

@iwangjian
Copy link
Owner

你好,建议是增加训练轮数。

@LLLLLearn
Copy link
Author

LLLLLearn commented Oct 9, 2024

作者您好,在对话生成阶段,我对于您公布的代码中top_k和top_p参数(如下图)存在疑惑。通过阅读您公布的代码,top_k作用是保留概率最高的前 k 个 token,top_p作用是保留一组候选 token S,其中S是最小子集。您的代码将这两个参数赋值为0,那么在generata函数中,top_filtering这个函数将不会被调用。想请问作者在实验的过程中,这两个参数值设置成多少合适呢?
image
image
另外,我选取了一些论文中的参数,并给出了我在训练过程中的参数值(在下图中用红框标出),想请问作者那些参数对实验的影响比较大(和您的论文数据相差比较多)
image
image

@iwangjian
Copy link
Owner

您好,我们的代码中保留了top-k、top-p decoding的方式。为了方便不同模型的对比,我们最后采用的greedy decoding(如论文中所述),即top_ktop_p参数均设为默认值0。由于所有实验是在两年前完成的,经过代码整理后,原始版本的代码没有保留下来,但图中标出的参数大部分即为论文中的参数设置,所以对实验结果影响不大。在比对论文后,建议你把num_epochs设为10。

@LLLLLearn
Copy link
Author

好的,非常感谢您的回复。祝您生活愉快,科研顺利!

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants