1 深度学习要解决的问题

机器学习流程

  • 数据获取
  • 特征工程(重点)
  • 建立模型
  • 评估与应用

特征工程的作用

  • 数据特征决定了模型的上限
  • 预处理和特征提取是最核心的
  • 算法与参数选择决定了如何逼近这个上限

深度学习相比机器学习的优势是能够利用神经网络提取计算机能够识别的特征。

2 深度学习应用领域

无人驾驶,人脸识别,医学检测,屏幕变脸,分辨率重构

问题:参数很多,移动端速度可能比较慢

3 计算机视觉任务

图像分类任务

计算机视觉

  • 图像表示:计算机眼中的图像
  • 一张图片被表示成三维数组的形式,每个像素的值从0到255
    • 例如:3001003

计算机视觉面临的挑战

  • 照射角度
  • 形状改变
  • 部分遮蔽
  • 背景混入

4 视觉任务中遇到的问题

机器学习常规套路

  • 收集数据并给定标签
  • 训练一个分类器
  • 测试,评估

K近邻算法

K是半径。圆内哪种形状多绿色点就是哪种结果。

image-20230729155008726

计算流程

  • 计算已知类别数据集中的点与当前点的距离
  • 按照距离依次排序
  • 选取与当前点距离最小的K个点
  • 确定前K个点所在类别的出现概率
  • 返回前K个点出现频率最高的类别作为当前点预测分类

数据库样例CIFAR-10

简介

  • 10类标签
  • 50000个训川练数据
  • 10000个测试数据
  • 大小均为32*32(像素)
image-20230729155232155

图像分类

image-20230729155500951

测试结果

image-20230729155559099

为什么K近邻不能用来图像分类

image-20230729155729888

5 得分函数

线性函数

image-20230729162542146

数学表示

10分类任务

Wi向量表示对于第i个类别,3072个像素点的权重。i = 1, 2, 3….10

b代表对10个不同类别分别进行微调

image-20230729163315765

6 损失函数的作用

线性函数计算方法

3分类问题为例

image-20230729163506345

权重参数越大,代表该像素点对于该类别越重要。正代表越接近该类别,负代表越不接近该类别。

W矩阵开始可以随机产生,迭代过程中调整。

image-20230729163845561

损失函数

image-20230729164014068

举例

sj-sy+1代表错误类别得分-正确类别+1

1代表容忍程度,正确类别得分至少比错误大1才能说明神经网络具备分类能力

image-20230729164541261

7 前向传播整体流程

损失函数

image-20230729165417692

正则化惩罚项

由于权重参数带来的损失

image-20230729170230635

softmax分类器

image-20230729170515118

归一化normalize

概率越大,损失应该越小

image-20230729171159611

前向传播

image-20230729171303325

8 反向传播计算方法

反向传播

逐层求偏导

image-20230729172115751

链式法则

image-20230729172257268

9 神经网络整体架构

示例

image-20230729195515069

反向传播可以一大块一大块计算

image-20230729195628974

门单元

梯度角度考虑

image-20230729195859202

10 神经网络整体架构细节

image-20230729201127354

非线性

如max(0,x)

在每一步矩阵计算之后添加非线性

image-20230729201417503 image-20230729201449122

11 正则化与激活函数

正则化的作用

image-20230729202538252

λ太小容易过拟合

参数个数对结果的影响

image-20230729202815827

激活函数

image-20230729202928218

激活函数对比

Sigmoid可能会出现梯度消失

image-20230729203302449

12 神经网络过拟合解决方法

数据预处理

image-20230729203427609

参数初始化

乘上0.01使得权重差异不会过大

image-20230729203635417

DROP-OUT

每一次训练过程中,每一层随机杀死一部分神经元,不更新参数,目的是降低过拟合风险。不同的训练随机选择不同的神经元杀死。测试阶段不杀死,用所有神经元测试。

image-20230729203954229

13 卷积神经网络应用领域

检测任务,分类与检索,超分辨率重构,医学任务,无人驾驶,人脸识别

14 卷积的作用

卷积网络与神经网络的区别

image-20230729205412201

整体架构

image-20230729205539236

卷积

image-20230729210031844

15 卷积特征值计算方法

图像颜色通道

image-20230729210250441 image-20230729210407322 image-20230729210439211

输入的通道数为3,每个卷积核也有3个通道。每个通道卷积,三个通道结果相加,再加偏置

image-20230729211013442

16 得到特征图表示

特征图个数

image-20230729211230392

特征图个数与卷积核相同

两个卷积核W0和W1,得到两个特征图

image-20230729211509585

平移卷积核

image-20230729211720601

17 步长与卷积核大小对结果的影响

堆叠的卷积层

卷积核维度和输入维度相同,特征图深度和卷积核个数相同。

image-20230729212125308

卷积层涉及参数

image-20230729212213072

步长

image-20230729212258324

步长越大,提取特征越粗糙,得到的特征图越小。常用值为1.

卷积核尺寸

卷积核越大,特征图越小。

18 边缘填充方法

卷积核移动后可能有重叠,部分点重复计算。边界点被利用次数比中间点少。为了使边界点利用更多一些,在图像外填充0。

卷积核个数

决定特征图个数。每个卷积核内的数字不同。

19 特征图尺寸计算与参数共享

卷积结果计算公式

image-20230729215040677

卷积参数共享

每一个区域选用相同的卷积核,从而减少参数个数。

image-20230729215503110