激活函数-Concatenated Rectified Linear Units

激活函数-Concatenated Rectified Linear UnitsICML2016UnderstandingandImprovingConvolutionalNeuralNetworksviaConcatenatedRectifiedLinearUnits本文在深入分析CNN网络内部结构,发现在CNN网络的前几层学习到的滤波器中存在负相关。theyappearsurprisinglyoppositetoeachother,

大家好,欢迎来到IT知识分享网。

ICML2016

Understanding and Improving Convolutional Neural Networks via
Concatenated Rectified Linear Units

本文在深入分析CNN网络内部结构,发现在CNN网络的前几层学习到的滤波器中存在负相关。
they appear surprisingly opposite to each other, i.e., for each filter, there does exist another filter that is almost on the opposite phase

这里写图片描述

下图说明在第一卷积层,蓝色的直方图分布以-0.5为中心点,对称均匀分布,也就是说有较多成对的滤波器。越到后面的层,蓝色的直方图分布越集中,成对的滤波器越少。
这里写图片描述

也就是说学习到的滤波器存在冗余。对此我们设计了CReLU, It simply makes
an identical copy of the linear responses after convolution, negate them, concatenate both parts of activation, and then apply ReLU altogether
这里写图片描述
这里写图片描述

和其他方法结果对比
这里写图片描述

CReLU 的重构很好
这里写图片描述

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/16012.html

(0)

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信