textcnn

textcnn参考链接textcnn可选三种卷积核,每种卷积核默认128,给的图式是两个,其中输入嵌入矩阵的行为文档的单词数,列为单词的嵌入矩阵的大小,选一个batch即一个batch的文档数。用的时候扩展到四维,第四维是1。学习的参数就是卷积核的维度即2✖️单词的维度,3✖️单词的维度,4✖️单词的维度,另外每个还有一个b,即卷积层学习的参数是((2+3+4)✖️单词的维度+3)✖️卷积核数128。…

大家好,欢迎来到IT知识分享网。

参考链接
textcnn可选三种卷积核,每种卷积核默认128,给的图式是两个,其中输入嵌入矩阵的行为文档的单词数,列为单词的嵌入矩阵的大小,选一个batch即一个batch的文档数。用的时候扩展到四维,第四维是1。

学习的参数就是卷积核的维度即2✖️单词的维度,3✖️单词的维度,4✖️单词的维度,另外每个还有一个b,即卷积层学习的参数是((2+3+4)✖️单词的维度 + 3)✖️卷积核数128。每个卷积操作要经过一个relu激活函数,之后才会最大池。

到了全连接层之前经过一个dropout,全连接层会对128✖️3=384的全连接层(行向量,用x的转置表示),学习一个W矩阵,大小为384✖️2(2分类),这样就可以x的转置✖️W+B就变成2分类了,此时的B是1✖️2的b,之后接一个softmax进行归一化。

学习的是上述参数矩阵,但是可以对输入词嵌入矩阵进行微调,让更好的学习上述的参数矩阵

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/10820.html

(0)

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信