卷积神经网络(CNN)结构与工作原理详解
该思维导图概述了卷积神经网络(CNN)的主要结构与功能,包括输入层的原始图像、卷积层特征提取及卷积核的使用、激活层引入非线性、池化层降低维度以控制过拟合、全连接层的特征展平和分类结果生成。输出层根据任务选择Softmax或Sigmoid输出形式,利用损失函数评估网络表现,并通过反向传播和梯度下降法优化模型性能。
源码
# 卷积神经网络(CNN)
- 输入层
- 原始图像
- 数据类型
- 二维数组
- 彩色图像(RGB)或灰度图
- 高度
- 宽度
- 颜色通道数
- 卷积层
- 特征提取
- 卷积操作
- 卷积核(Filters)
- 卷积步幅(Stride)
- 零填充(Padding)
- 产生特征图(Feature Map)
- 局部连接
- 共享权重
- 参数减少
- 对平移不变性的适应
- 多个卷积核
- 学习不同特征
- 激活层
- 常用激活函数
- ReLU(Rectified Linear Unit)
- Sigmoid
- Tanh
- 引入非线性
- 使模型能够学习复杂函数
- 解决线性可分性问题
- 池化层
- 降低特征图的维度
- 最大池化(Max Pooling)
- 选择区域内最大值
- 平均池化(Average Pooling)
- 计算区域内平均值
- 减少参数数量
- 控制过拟合
- 降低模型复杂度
- 全连接层
- 网络最后阶段
- 特征图展平(Flattening)
- 权重和偏置线性组合
- 得出最终分类结果
- 概率输出
- 类别标签
- 输出层
- 选择输出形式
- Softmax函数
- 多分类任务
- Sigmoid函数
- 二分类任务
- 损失函数
- 评估网络表现
- 计算输出与实际标签的差距
- 常用损失函数
- 交叉熵损失
- 均方误差(MSE)
- 反向传播
- 计算梯度
- 基于损失函数的结果
- 权重调整
- 梯度下降法
- 学习率选择
- 动量法
- 优化模型性能
- 超参数调节
图片
