Skip to content
/ KoBERT Public
forked from SKTBrain/KoBERT

Korean BERT pre-trained cased (KoBERT)

License

Notifications You must be signed in to change notification settings

zzingae/KoBERT

 
 

Repository files navigation

Transformer 기반 한국어 seq2seq Chatbot

drawing

Requirements

CUDA 10.1

학습 데이터

https://github.com/songys/Chatbot_data

학습 (fine-tuning)

python train.py

KoBERT (encoder)를 freeze 후, Transformer decoder를 질문/답변 데이터셋으로 fine-tuning

  • KoBERT의 학습된 input embedding으로 output embedding과 softmax weights를 초기화
  • output embedding는 freeze 하고, 나머지 Transformer decoder의 weight를 학습

KoBERT 사용 후, validation accuracy 10% 상승

학습 시 50% 확률로 Teacher forcing을 사용하지 않았을 때, validation accuracy 9% 상승

Decoder layer 개수를 3개에서 6개로 늘렸을 때, validation accuracy 2% 상승

추론 및 attention visualization

scripts/prediction_notebook.ipynb

drawing

참고

About

Korean BERT pre-trained cased (KoBERT)

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Jupyter Notebook 92.9%
  • Python 7.1%