RNN既可以表述为循环神 经网络(recurrent neural network),也可以表述为递归神经网络(recursive neural network),前者一般用于处理以时间序列为输入的问题(比如把一个句子看成词组成的序列),每次向循环神经网络输入一个词,知道整个句子输入结束。后者一般用于处理图结构或树结构问题(比如为了处理歧义问题,我们构造语法树为输入,而不是循环输入每一个词)。
下图是循环神经网络的展开
图1
下面是一个句子对上图的应用
图2
可以这样理解:将所有用到的英文词向量化之后,the表示为(0.4,0.3),对应图1中的x输入,经过神经元计算之后输出为(1,3.5),神经元内部的计算方式为:
函数f通常是诸如tanh或者ReLU的非线性函数,U,x,St-1都为向量且U、V、W都是待训练参数。输出O可以选择softmax函数,其表达式如下
这里的变量i对应图1中的变量t,可见
也就是说循环神经网络所有输出之和为1,输出O的计算公式为
其中V和St都是向量。也就是说神经元先计算隐状态St,然后计算输出Ot
下面以树结构为例来说明递归神经网络的输入与计算
1.将句子分词之后,给每个词一个向量,这里词的向量化可以采用one-hot或者其他一些向量化工具,比如Google的gensim
2.将词按照树形结构输入,以图3为例
图3
2.1 首先计算“两个”和“外语学院”的父节点的向量,计算方法是:假设“两个”的词向量表示为c1,“外语学院”的词向量表示为c2,那么父节点对应的向量P为
其中W和b是训练好的参数,tanh是双曲正切函数,表达式为
2.2 依次迭代计算各个父节点对应的向量,最终得到根节点对应向量。
因为是以语法树输入的,所以对于歧义问题有较好的处理能力,比如图3中的句子也可以用图4的语法树来表示:
图4
事实上,图3与图4对应的根节点向量完全不同,因为词向量的输入顺序是不一样的。
在得到根节点向量后,我们就可以去完成一些更高级的任务,比如计算语义相似度或者情感分析等。