经典CNN
经典CNN
LENET-5
AlexNet
VGGNet
计算量非常大
GoogleNet
同一层用不同尺寸的卷积核:Inception
ResNet(深度残差网络)
当深度到达22层以后,再堆叠更多的层数,模型性能反而会下降,因为太多层的堆叠经常会使得误差积累导致梯度离散。
ResNet:卷积层之间加一个shortcut
假设传统神经网络输入为x,输出为F(X),则需要学习的就是F(X)这个函数映射。
而对于ResNet,输入为x,输出为H(X)=F(X)+X,我们需要学习的是F(X=)H(X)-X这样输入与输出差别,即残差。
常用的ResNet unit:
第一层和第三层使用1x1的卷积核能极大的减少参数量。
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 YY's Blog!
评论