神经网络基础概念

大厂面试准备的DL基础概念回顾。

网络结构相关

Network

  • Resnet block

Convolution

  • Standard Conv
  • Tranpose Conv
  • Depth-wise Conv 深度可分离卷积,每个通道进行卷积,按通道方向1x1逐点卷积
  • Dilated Conv 空洞卷积,卷积核内部加入0值,增加感受野
  • Deconvolution

Attention

  • SE (squeeze and excitation GAP+FC+RELU+FC+Sigmoid
  • SK 类SE,使用不同kernel大小(3x3 5x5)获取不同的attention并施加到channel上
  • CBAM 类SE,除了GAP加了MP(max pooling),分别在channel和spatial(7*7 kernel)维度上attention
  • ECA FC替换为conv,减少计算量,去掉了通道之间的注意力
  • Self Attention ,QKt是矩阵相似度,softmax进行归一化,然后与V值相乘获得带权表示

Normalization

  • BN,每个batch进行归一化,避免梯度消失和梯度爆炸,提高训练速度
  • IN,对每个图片每个通道归一化,适合单张图片训练任务
  • Condition BN,使用网络求解出scale/bias,适用于CGAN VAE图像生成任务
  • AdaIN,自适应IN,可以通过参考样本注入style(scale/bias)

Activation

  • Sigmoid 实数映射到0-1
  • Tanh 实数映射到-1-1
  • ReLU LeakeyReLU PReLU max(0,x) max(0,ax) a可学习
  • Softmax

Pooling

  • GAP 每个通道特征图像素平均
  • MP 按照窗口对特征图降维

训练相关

Loss/Metrics

classificaiton

  • Softmax/Cross Entropy 多分类的概率问题,交叉熵求导是P-Y ,概率减去label
  • BCE loss (二进制交叉熵损失)

image quality

  • PSNR 基于像素均方误差的归一化表示
  • SSIM 均值/协方差,计算图像相似度
  • LPIPS 预训练模型
  • FID 比较生成数据和真实数据在特征空间的距离

GAN

  • Adversarial loss ,对抗损失
  • Cycle loss , 循环一致性损失,CycleGAN,pix2pix


神经网络基础概念
http://example.com/posts/59633/
作者
ykk648
发布于
2023年5月15日
许可协议