Skip to content

Latest commit

 

History

History
8 lines (5 loc) · 468 Bytes

README.md

File metadata and controls

8 lines (5 loc) · 468 Bytes

transformer

Transformer是谷歌在17年发表的Attention Is All You Need 中使用的模型,经过这些年的大量的工业使用和论文验证,在深度学习领域已经占据重要地位。Bert就是从Transformer中衍生出来的语言模型。我会以中文翻译英文为例,来解释Transformer输入到输出整个流程。

运行:python main.py
测试:python test.py

代码解释请查看链接 https://zhuanlan.zhihu.com/p/403433120