ECE408 Lecture 11 Feed-Forward Networks and Gradient-Based Training
这次回顾ECE408 Lecture 11,这次介绍了前馈神经网络和梯度下降法。
课程主页:
搬运视频:
这一章大部分内容都比较熟悉,这里只回顾为什么要使用CNN做图像分类。
用MLP做图像分类
考虑一张$250\times 250$的图像:
- 输入:将二维图像处理为一维向量;
- 全连接层太大:
- 每个节点$250^2=62500$个权重!
- 大约总共有~4B总权重!
- 如果层数大于1参数就会更多,并且这样的网络无法处理更大的图像;
- 总的来说,需要太多的计算和内存开销;
图像处理中传统的特征检测使用:
- 滤波器,卷积核;
- 我们可以在神经网络中使用它们吗?
2D卷积
MLP和卷积的对比
- MLP层有固定的结构,所以输入/输出的数量是固定的;
- 卷积支持可变大小的输入(对同一事物的观察)
- 不同长度的音频;
- 不同像素的图像;
为什么使用卷积
- 稀疏交互
- 小空间区域中有意义的特征;
- 需要更少的参数(更少的存储空间、更好的统计特性、更快的训练);
- 需要多层以获得广泛的感受野;
- 参数共享
- 重复应用kernel计算层输出;
- 平移不变性
- 如果输入被平移,输出也被类似地平移;
小结
卷积:
- 2D矩阵;
- $Y=W\star X$;
- Kernel大小小于输入,更小的感受野;
- 更少的参数;
MLP:
- 向量;
- $Y=WX+b$;
- 最大感受野;
- 更多的权重;
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 Doraemonzzz!
评论
ValineLivere