在云端存储学习的过程产生的代码
(私库,用于存储代码,因为是给自己看的,同时里面有非常多早期的代码,比较不规范)
正在学习NLP,通过复现一些论文来学习nlp的一些思想
该GitHub用来放置一些复现的代码
Bi-LSTM-CRF:实现双向LSTM+CRF的中文分词模型
CBOW_Embeddings:粗略尝试中文embeddings
CNN:使用tensorflow重构本科毕业设计人脸表情识别代码,并使用了bagging
cnn_sentence2vec:简单复现“Learning Semantic Representations Using Convolutional Neural Networks for Web Search ”
Encoder_Decoder:使用tensorflow提供的seq2seq尝试做一个翻译模型,但是效果很差
FastText:复现 “Enriching Word Vectors with Subword Information”
glove:复现glove模型,暂时搁置
house_price_predict:实训时的房价预测系统
doc2vec:复现 “Distributed Representations of Sentences and Documents”
Sentence2vec:复现 “A SIMPLE BUT TOUGH-TO-BEAT BASELINE FOR SENTENCE EMBEDDINGS”
imp_rnn.py:自己撸了一个不太好用的rnn以加深理解
cnn_nlp_tfrecord:简单复现“Learning Semantic Representations Using Convolutional Neural Networks for Web Search ”(没有word hashing)并在一个数据集上与多种不同类型的模型对了一些对比实验
Transformer:复现transformer并尝试用于中英翻译
snli_loader:使用transformer跑了SNLI的数据集,6层hidden_dim为400效果一般,78%准确度
Bert:Bert源码,fork了阅读,并拿来尝试做一些任务,比如SNLI,随意跑了一下,达到了88.6%的准确度