Chinese NER Using Lattice LSTM 阅读笔记_Ono_online的博客-CSDN博客
【NER-1】-2018 ACL Lattice-LSTM_latticelstm代码_应有光的博客-CSDN博客
lattice model(结合上面两个博客来看)
18分钟彻底搞懂LSTM网络原理,NLP,深度学习,自然语言处理_哔哩哔哩_bilibili
如何从RNN起步,一步一步通俗理解LSTM_rnn lstm_v_JULY_v的博客-CSDN博客
与原版lstm作对比,理解网络的记忆这个概念
1.
代表词向量表,从中查阅字对应的词向量,然后输入BILSTM
词粒度模型的相关改进主要在于将词内的字信息整合到词表示中,即
标黑的那句话:以论文中例子为例,“南京市长江大桥”,桥为一个字,大桥和长江大桥分别通过命中词信息传递得到词的表示,然后存到桥的信息中,词汇信息融入该词汇的最后一个字符中,如下图。
这里的融入应该是字向量和所有词向量矩阵的拼接,形式,组合成一个向量,其中两个参数是当前字信息和词信息拼接后计算得到的词输入门因子和单字LSTM中计算得到的字输入门因子进行softmax归一化得来的
h是最后的隐藏层输出,c是最终的记忆状态