文 | 曾响铃来源 | 科技向令说云与智能的融合已经成为共识,正在产业层面产生现实的价值,推动产业智能化加速到来。而最早将二者融合的百度也没有停下脚步,正在行业层面持续引导云与智能的深度融合发展。今天的“ABC SUMMIT 2020百度云智峰会”除了公布2020年“成绩单”,发布和升级一系列新产品、解决方案以及新生态计划,CTO王海峰在《壮“智”凌云 加速产业智能化》的主旨演讲又强调了百度智能云基于“云智一体”的独特竞争力。“云智一体”一方面可以看作百度智能云持续发展一个新的阶段,另一方面,也代表百度将自己最先尝试与落地的云+智能进一步往前推进,它的背后,是云+智能这一协同模式的羊群效应越发...... Last article READ

煮酒论英雄:深度学习CV领域最瞩目的成果top46

  来源:Smarter

  作者:皮特潘

  【新智元导读】本文盘点深度学习 CV 领域杰出的工作,从基础研究、分类骨架、语义分割、实例分割、目标检测、生成对抗、loss 相关、部署加速、其他方面等筛选出最瞩目的成果。

  如果 06 年 Hinton 的深度置信网络是深度学习时代的开启,12 年的 Alexnet 在 ImageNet 上的独孤求败是深度学习时代的爆发,那么至今也有近 15 年的发展历程。

  本文盘点深度学习 CV 领域杰出的工作,由于本人方向相关,故从基础研究、分类骨架、语义分割、实例分割、目标检测、生成对抗、loss 相关、部署加速、其他方面等筛选出最瞩目的成果。

  注意,本次盘点具有一定的时效性,是聚焦当下的。有些被后来者居上的工作成为了巨人的肩膀,本文不会涉及。

  本文会给出核心创新点解读和论文链接。如果你是大牛的话,可以自查一下。如果你是小白的话,这是一份入门指引。每个工作本文都会有网络结构或核心思想的插图,并会进行导读式解读。水平有限,欢迎讨论!

  入围标准

  承上启下,继往开来。或开启一个时代,或打开一个领域,或引领一个潮流,或造就一段历史。在学术界或工业界备受追捧,落地成果遍地开花。共同构建成深度学习的大厦,并源源不断地给后人输送灵感和启迪。

  入围成果

  • 基础研究: Relu,Dropout,Adam,BN,AtrousConv,DCN 系列
  • 分类骨架: VGG,ResNet (系列),SeNet,NIN,Inception 系列,MobileNet 系列,ShuffleNet 系列
  • 语义分割: FCN,U-Net,PSPNet,Deeplab 系列
  • 实例分割: Mask R-CNN,PanNet
  • 目标检测: Faster R-CNN,Yolo 系列,FPN,SSD,CenterNet,CornerNet,FCOS,Cascade R-CNN,DETR
  • 生成对抗: GAN,CGAN,DCGAN,pix2pix,CycleGAN,W-GAN
  • loss 相关: Focalloss,IOUloss 系列,diceloss, CTCloss
  • 部署加速: tf int8,network-slimming,KD
  • 其他方面: CAM,Grad-CAM,Soft-NMS,CRNN,DBNet

  Relu

  论文标题:Deep Sparse Rectifier Neural Networks

  核心解读:Relu 相比 Sigmoid,训练速度更快,且不存在 Sigmoid 的梯度消失的问题,让 CNN 走向更深度成为的可能。因为它大于 0 区间就是一个线性函数,不会存在饱和的问题。对于 Relu 也有一些改进,例如 pRelu、leaky-Relu、Relu6 等激活函数。单纯的 Relu 在 0 点是不可导的,因此底层需要特殊实现,放心,框架早已做好了。

  Dropout

  论文标题: Improving neural networks by preventing co-adaptation of feature detectors

  核心解读:在训练时,按照一定概率随机丢弃掉一部分的连接。在测试时,不使用丢弃操作。一般的解释是,Dropout 作为一种正则化手段,可以有效缓解过拟合。因为神经元的 drop 操作是随机的,可以减少神经元之间的依赖,提取独立且有效的特征。为了保证丢弃后该层的数值总量不变,一般会除上(1-丢弃比例p)。

  多说一句,目前由于 BN 的存在,很少在 CNN 网络中看到 Dropout 的身影了。不过不能忽视其重要的意义,且在其他网络中(例如 transformer)依然扮演者重要的角色。

  BN

  论文标题:Batch Normalization: Accelerating Deep Network Training b y Reducing Internal Covariate Shift

  核心解读:首先 Normalization 被称为标准化,它通过将数据进行偏移和尺度缩放拉到一个特定的分布。BN 就是在 batch 维度上进行数据的标准化,注意 FC 网络是 batch 维度,CNN 网络由于要保证每一个 channel 上的所有元素同等对待,因此是在 BHW 维度上进行的标准化操作。其作用可以加快模型收,使得训练过程更加稳定,避免梯度爆炸或者梯度消失。

  有了 BN,你不必再小心翼翼调整参数,并且 BN 也起到一定的正则化作用,因此 Dropout 被替代了。上述公式中均值和方差通过滑动平均的方式在训练的过程中被保存下来,供测试时使用。当今 CNN 网络,BN 已经成为了必不可少的标配操作。另外还有 LN(layer Normalization)、IN (instance Normalization )、GN(group Normalization)的标准化操作。不过是作用在不同维度上获取的,不在赘述。

  Adam

  论文标题:ADAM : A METHOD FOR STOCHASTIC OPTIMIZATION

  核心解读:应用非常广泛,SGD、momentum 等方法的集大成者。SGD-momentum 在 SGD 基础上增加了一阶动量,AdaGrad 和 AdaDelta 在 SGD 基础上增加了二阶动量。而 Adam 把一阶动量和二阶动量都用起来—Adaptive + Momentum。

  Adam 算法即自适应时刻估计方法(Adaptive Moment Estimation),能计算每个参数的自适应学习率。这个方法不仅存储了 AdaDelta 先前平方梯度的指数衰减平均值,而且保持了先前梯度的指数衰减平均值,这一点与动量类似。

  AtrousConv

  论文标题:MULTI-SCALE CONTEXT AGGREGATION BY DILATED CONVOLUTIONS

  核心解读:我们常说网络的感受野非常重要,没有足够的感受野训练和测试会丢失特征,预测就不准甚至错掉。AtrousConv 被称为空洞卷积或膨胀卷积,广泛应用于语义分割与目标检测等任务中,在不增加参数的情况下,提高卷积的感受野。

  也可以代替 pooling 操作增加感受野,捕获多尺度上下文信息,并且不会缩小特征图的分辨率。可以通过设置不同的扩张率实现不同感受野大小的空洞卷积。不过在实际的语义分割应用中,发现会出现网格现象。

  DCN 系列

  论文标题:

  • v1: Deformable Convolutional Networks
  • v2: Deformable ConvNets v2: More Deformable, Better Results

  核心解读:传统卷积只是在 NXN 的正方形区域提取特征,或称为滑动滤波。可变形卷积是卷积的位置是可变形的,为了增加网络提取目标几何信息或形状信息的能力。具体做法就是在每一个卷积采样点加上了一个偏移量,而这个偏移量是可学习的。另外空洞卷积也是可变形卷积的一种特例。

  类似的还有可变形池化操作。在 V2 中发现可变形卷积有可能引入了无用的上下文来干扰特征提取,会降低算法的表现。为了解决该问题,在 DCN v2 中不仅添加每一个采样点的偏移,还添加了一个权重系数

  ,来区分引入的区域是否为我们感兴趣的区域。如果该区域无关重要,权重系数学习成 0 就可以了。在目前的目标检测等任务中,增加变形卷积都会有不同程度的涨点,可谓是涨点必备。

  VGG

  论文标题:Very Deep Convolutional Networks For Large-Scale Image RecognitionVery Deep Convolutional Networks For Large-Scale Image Recognition

  图侵删

  核心解读:VGG 采用连续的几个 3×3 的卷积核代替 AlexNet 中的较大卷积核(11×11,7×7,5×5),可以获取等同的感受野,并且增加了网络的深度和非线性表达能力,来保证学习更复杂的模式,并且所需的总参数量还会减小。从 VGG 开始,深度学习向更深度迈进。该结构亦成为了早期目标检测、语义分割、OCR 等任务的骨架网络,例如 Faster R-CNN、CRNN 等。

  NIN

  论文标题:Network In Network

  核心解读:本文有两大贡献:

  1,提出全局平均池化,也就是 GAP (global average pooling)。有了 GAP 操作,可以轻易的将网络适用到不同输入尺度上。另外 GAP 层是没有参数的,因为参数量少了,GAP 也降低了过拟合的风险。GAP 直接对特征层的空间信息进行求和,整合了整个空间的信息,所以网络对输入的空间变化的鲁棒性更强。

  2,提出 1X1 卷积,几乎出现在目前所有的网络上,起到通道升降维、特征聚合等作用。通过 1X1 卷积还可以实现全连接操作。单凭这两点贡献,NIN 在该名单值得一席地位。

  ResNet

  论文标题:Deep Residual Learning for Image Recognition

  核心解读:cvpr2016 最佳论文奖,ImageNet 当年的冠军。论文提出的残差连接几乎可以在每一个 CNN 中看到身影。网络的深度是提高网络性能的关键,但是随着网络深度的加深,梯度消失问题逐渐明显,甚至出现退化现象。所谓退化就是深层网络的性能竟然赶不上较浅的网络。

  本文提出残差结构,当输入为x时其学习到的特征记为H(x),现在希望可以学习到残差F(x)= H (x) – x,因为残差学习相比原始特征直接学习更容易。当残差为 0 时,此时仅仅做了恒等映射,至少网络性能不会下降。正如 kaiming 所说“简单才能接近本质”,就是一条线连一下。让我想到了工程师划线的典故,重点不是画线,而是把线画到哪。该论文提出了 resnet18、resnet34、resnet50、resnet101、resnet152 不同量级的结构,依然是现在分类网络中的主流,以及目标检测、语义分割等算法的主流骨架网络。

  SeNet

  论文标题:Squeeze-and-Excitation Networks

  核心解读:它赢得了最后一届 ImageNet 2017 竞赛分类任务的冠军。重要的一点是 SENet 思路很简单,很容易扩展在已有网络结构中。SE 模块主要包括 Squeeze 和 Excitation 两个操作。Squeeze 操作:将一个 channel 上整个空间特征编码为一个全局特征,采用 GAP 来实现,Sequeeze 操作得到了全局描述特征。

  接下来利用 Excitation 操作将学习到的各个 channel 的激活值(sigmoid 激活,值0~1)作用到原始特征上去。整个操作可以看成学习到了各个 channel 的权重系数,从而使得模型对各个 channel 的特征更有辨别能力,这应该也算一种 attention 机制。

  Inception 系列

  论文标题:

  • v1: Going deeper with convolutions
  • v2: Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
  • v3: Rethinking the Inception Architecture for Computer Vision
  • v4: Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning

  核心解读:该系列的前身都是 GoogLenet,其提升网络性能的方式就是增加网络深度和宽度,深度指网络层次数量、宽度指神经元数量。于是就有了上图的经典 inception 结构,简单来说就是并行采用不同大小的卷积核处理特征,增加网络的处理不同尺度特征的能力,最后将所有的特征 concat 起来送入下面的结构。

  • v1: 把 GoogLenet 一些大的卷积层换成1*1, 3*3, 5*5 的小卷积,这样能够大大的减小权值参数量。
  • v2: 就是大名鼎鼎 BN 那篇文章,网络方面的改动就是增加了 BN 操作,可以看 BN 那部分的介绍。
  • v3:利用分离卷积的思想,把 googLenet 里一些7*7 的卷积变成了1*7 和7*1 的两层串联,3*3 同理。这样做的目的是为了加速计算,减少过拟合。
  • v4:把原来的 inception 加上了 resnet 中的残差结构。

  MobileNet 系列

  论文标题:

  • v1: MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications
  • v2: MobileNetV2: Inverted Residuals and Linear Bottlenecks
  • v3: Searching for MobileNetV3

  核心解读:轻量级网络的代表作,核心操作就是把 VGG 中的标准卷积层换成深度可分离卷积,计算量会比下降到原来的九分之一到八分之一左右。

  • v1:原本标准的卷积操作分解成一个 depthwise convolution 和一个1*1 的 pointwise convolution 操作;
  • v2:使用了 Inverted residuals (倒置残差)结构,就是先利用 1X1 卷积将通道数扩大,然后进行卷积,再利用 1X1 卷积缩小回来,和 Resnet 的 Bottleneck 恰好相反。通过将通道数扩大,从而在中间层学到更多的特征,最后再总结筛选出优秀的特征出来。另外使用了 Linear bottlenecks 来避免 Relu 函数对特征的损失。
  • v3: 利用神经结构搜索(NAS)来完成 V3,并继承了 V1 的深度可分离卷积和 v2 的倒置残差结构。并且使用h-swish 激活函数来简化 swish 的计算量,h的意思就是 hard。对于网络输出的后端,也就进行了优化。

  ShuffleNet 系列

  论文标题:

  • v1: ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices
  • v2: ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design

  核心解读:ShuffleNet 的核心是采用了 point wise group convolution 和 channel shuffle 操作,保持了精度的同时大大降低了模型的计算量。这里的 shuffle 打乱是均匀随机打乱。在 V2 中,作者从 Memory Access Cost 和 GPU 并行性的方向分析了高效网络设计准则:1.使用输入通道和输出通道相同的卷积操作;2.谨慎使用分组卷积;3.减少网络分支数;3.减少 element-wise 操作。

  FCN

  论文标题:Fully Convolutional Networks for Semantic Segmentation

  核心解读:CVPR 2015 年的最佳论文提名,也是 CNN 进行语义分割的开山之作。本文提出的全卷积、上采样、跳跃结构等也是非常具有意义的,对后来者影响巨大。

  U-Net

  论文标题:U-Net: Convolutional Networks for Biomedical Image Segmentation

  核心解读:Unet 初衷是应用在医学图像上,属于 FCN 的一种变体。由于效果优秀,被广泛的应用在语义分割的各个方向,比如卫星图像分割,工业瑕疵检测等。尤其在工业方向大放异彩。Unet 网络结构是非常对称的,形似英文字母 U 所以被称为 Unet。非常经典的跳层链接也有 FPN 的影子。另外,该结构也是魔改的对象,类似 unet++、res-unet 等不下于数十种,侧面反应该作品的确很棒。

  PSPNet

  论文标题:Pyramid Scene Parsing Network

  核心解读:PSPNet 也是在 FCN 上的改进,利用金字塔池化引入更多的上下文信息进行解决,分别用了 1×1、2×2、3×3 和 6×6 四个尺寸,最后用 1×1 的卷积层计算每个金字塔层的权重。最后再通过双线性恢复成原始尺寸。最终得到的特征尺寸是原始图像的1/8。最后在通过卷积将池化得到的所有上下文信息整合,生成最终的分割结果。

  DeepLab

  论文标题:

  • v1: SEMANTIC IMAGE SEGMENTATION WITH DEEP CONVOLUTIONAL NETS AND FULLY CONNECTED CRFS
  • v2:DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs
  • v3: Rethinking Atrous Convolution for Semantic Image Segmentation
  • v3+: Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation

  核心解读:

  • v1:通过空洞卷积提升网络的感受野和上下文的捕捉能力,通过条件随机场(CRF)作为后处理提高模型捕获精细细节的能力。
  • v2:将最后几个 max-pooling 用空洞卷积替代下采样,以更高的采样密度计算 feature map。提出 ASPP(astrous spatial pyramid pooling),既组合不同采样率的空洞卷积进行采样。另外 DeepLab 基础上将 VGG-16 换成 ResNet。
  • v3: 改进了 ASPP:由不同的采样率的空洞卷积和 BN 层组成,以级联或并行的方式布局。大采样率的3×33×3 空洞卷积由于图像边界效应无法捕获长程信息,将退化为1×11×1 的卷积,我们建议将图像特征融入 ASPP。
  • v3+:提出一个 encoder-decoder 结构,其包含 DeepLabv3 作为 encoder 和高效的 decoder 模块。encoder decoder 结构中可以通过空洞卷积来平衡精度和运行时间,现有的 encoder-decoder 结构是不可行的。在语义分割任务中采用 Xception 模型并采用 depthwise separable convolution,从而更快更有效。

  Mask-RCNN

  论文标题:Mask R-CNN

  核心解读:本文是做实例分割的,也是经典 baseline。Mask-RCNN 在 Faster-RCNN 框架上改进,在基础特征网络之后又加入了全连接的分割子网,由原来两个任务(分类+回归)变为了三个任务(分类+回归+分割)。另外,,Mask RCNN 中还有一个很重要的改进,就是 ROIAlign。可以将 fasterrcnn 的中的 roipooling 类比成最近邻插值,roialign 就会类比成双线性插值。

  PANet

  论文标题:Path Aggregation Network for Instance Segmentation

  核心解读:实例分割的路径聚合网络,PANet 整体上可以看做是对 Mask-RCNN 做了多个改进。其提出的 FPN 改进版 PAN-FPN 增加了自底向上的连接。在目标检测任务上,例如 yolov4 和 v5 上也大放异彩,可以看作是 FPN 非常成功的改进。

  Faster R-CNN

  论文标题:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

  核心解读:经典的不能再经典,随便一搜就可以找到无数篇的解读。两阶段目标检测鼻祖一样的存在,和 Yolo 等单阶段网络抗衡了 3 代之久。所谓两阶段就是第一个阶段将前景的候选区域 proposal 出来,第二个阶段利用 proposals 进行分类和精修。像 RPN、anchor、roipooling、smooth L1 loss 等影响深远的概念都来自于此。题外话:最近看了很多任意角度目标检测,其中两阶段的都是以 Faster Rcnn 作为 baseline 进行魔改的,足见其地位。

  YOLO 系列

  论文标题:

  • v1: You Only Look Once: Unified, Real-Time Object Detection
  • v2: YOLO9000: Better, Faster, Stronger
  • v3: YOLOv3: An Incremental Improvement
  • v4: YOLOv4: Optimal Speed and Accuracy of Object Detection
  • v5: github.com/ultralytics/(没有论文,只有代码)

  核心解读:如果说 Faster RCNN 是两阶段的第一人,那么 YOLO 系列就是单阶段的第一人。单阶段意味着速度更快,实现更简单。针对 YOLO 的魔改也不在少数,例如 poly-YOLO、pp-YOLO、fast-YOLO 等。下面分别简述各自的核心特点:

  • v1:显式地将图片等分为 NXN 个网格,物体的中心点落入网格内,该网格负责预测该物体。可以这样理解,NXN 个网络意味者网络最终输出的 tensor 的尺度也是 NXN,对应特征向量负责回归它该负责的物体。注意 v1 是没有 anchor 的概念的,回归的尺度是相对与整图来看的。
  • v2:最大的改进就是增加了 anchor 机制,和 faster R-CNN、SSD、RetinaNet 的手动预设不同,YOLO 系列全是利用 kmeans 聚类出最终的 anchor。这里的 anchor 只有宽高两个属性,位置依然是相对与网格的。有了 anchor 就有匹配规则,是利用 iou 来判定正、负、忽略样本的。
  • v3:基本设定和 v2 一致,不过是加入个多尺度预测,基本思想和 FPN 一样。为了适配不同尺度的目标。也是目前工业界应用最广泛的模型。
  • v4:运用了非常多现有的实用技巧,例如:加权残差连接(WRC)、跨阶段部分连接(CSP)、跨小批量标准化(CmBN)、自对抗训练(SAT)、Mish 激活、马赛克数据增强、CIoU Loss 等,让精度也上了一个台阶。另外说一句,该团队最近出品的 scaled-Yolov4 将 coco 刷到 55.4,强的没有对手。
  • v5:马赛克增强的作者,同样是改进了网络的骨架和 FPN 等,另外为了增加正样本的数量,改进了匹配规则,就是中心网格附近的也可能分配到正样本,提高了网络的召回率。与 v4 相比,有过之而无不及。

  FPN

  论文标题:Feature Pyramid Networks for Object Detection

  核心解读:本文提出 FPN (特征金字塔)结构,就是自上而下的路径和横向连接去结合低层高分辨率的特征。把高层的特征传下来,补充低层的语义,可以获得高分辨率、强语义的特征,有利于小目标的检测。也是目前主流网络的常客,魔改版本也很多,例如前述的 PAN-FPN、ASFF、BiFPN、NAS-FPN 等等。

  SSD

  论文标题:SSD: Single Shot MultiBox Detector

  核心解读:多尺度预测的先驱,在没有 FPN 的时代采用了多尺度的特征图,并设置 anchor,采用 VGG16 作为 backbone。名气很大,但目前应用是比较少了。我认为由于不像 Yolo 有后续的版本持续发力导致的。现在要是设计目标检测,VGG 肯定不够用了,换掉。FPN 也要加上,等等,即便是 baseline 是 SSD,那么魔改出来肯定不叫 SSD 了。

  CornerNet

  论文标题:CornerNet: Detecting Objects as Paired Keypoints

  核心解读:虽然不是 anchor-free 的开山之作,但一定是将 anchor-free 重新带回大众视野的作品。该论文采用 bottom-up 的做法,就是先找到所有的关键点,再进行配对。论文使用目标 box 的左上和右下两个关键点来定位。为了后续的配对,网络会额外预测 embedding vector,使用推拉 loss,形象比喻是将同一个目标的点拉到一起,不同目标的点推开。bottom-up 的思想非常值得借鉴。

  CenterNet

  论文标题:Objects as Points

  FCOS

  论文标题:FCOS: Fully Convolutional One-Stage Object Detection

  核心解读:CornerNet 是将 anchor-free 带回大众视野,CenterNet 是将 anchor-free 受到追捧,那么 FCOS 就是使 anchor-free 走到巅峰,足以和 anchor-base 抗衡。本文利用 FPN 处理不同尺度的目标预测,并创造性提出了 centerness 分支来过滤低质量的样本,提升网络击中的能力,并减轻后端 NMS 的压力。和 CenterNet 只采用中心点作为正样本的做法不同,该论文将目标一定大小的中心区域都设置为正样本,大大提高了正样本的数量。不仅可以加速训练收敛,还可以提高召回率,nice work。

  Cascade R-CNN

  论文标题:Cascade R-CNN: Delving into High Quality Object Detection

  核心解读:比赛的常客,说明精度的确很高。由于 Faster R-CNN 的 RPN 提出的 proposals 大部分质量不高,导致没办法直接使用高阈值的 detector,Cascade R-CNN 使用 cascade 回归作为一种重采样的机制,逐 stage 提高 proposal 的 IoU 值,从而使得前一个 stage 重新采样过的 proposals 能够适应下一个有更高阈值的 stage。利用前一个阶段的输出进行下一阶段的训练,阶段越往后使用更高的 IoU 阈值,产生更高质量的 bbox。是一种 refine 的思想在里面。

  DETR

  论文标题:End-to-End Object Detection with Transformers

  核心解读:真是打败你的不是同行,而是跨界。Transorfmer 在 NLP 领域已经大杀四方,目前它的触角悄悄伸到 CV 领域,可气的是性能竟然不虚。DETR 基于标准的 Transorfmer 结构,首先利用 CNN 骨架网络提取到图像的特征,和常见的目标检测的做法一致。

  不过后端却没有了 FPN 和 pixel-wise 的 head。替换而来的是 Transorfmer 的 encoder 和 decoder 结构,head 也换成了无序 boxes 的 set 预测。当然什么 anchor、nms 统统见鬼去吧。一经提出就引起了轩然大波,在很快的将来,会雨后春笋斑蓬勃发展的,例如后续发力版本 Ddformable DETR。我觉得,不过还需要时间的考验。

  GAN

  论文标题:Generative Adversarial Nets

  图侵删

  核心解读:祖师爷级别,脑洞大开的典范。活生生打开了一个领域,也是目前 AI 最惊艳到人类的一个领域。思想非常简单:既然无法评价生成的图片质量,干脆交给网络来做吧。GAN 的主要结构包括一个生成器G(Generator)和一个判别器D(Discriminator)。生成器负责生成图片,判别器负责判别生成图片的真假,二者交替训练,互利共生。足以以假乱真。

  CGAN

  论文标题:Conditional Generative Adversarial Networks

  核心解读:GAN 能够通过训练学习到数据分布生成新的样本,其输入数据来源随机噪声信号,是无意义且不可控的,因此生成的图像也是随机的,不能控制生成图像类别。如果真的要使用的话,还需要人工或者额外的网络来判定类别。本文将类别编码结合噪声信号共同输入网络,类别编码控制生成图像的类别,噪声信号保证生成图像的多样性。类别标签可以和噪声信号组合作为隐空间表示。同样判别器也需要将类别标签和图像数据进行拼接作为判别器输入。

  DCGAN

  论文标题:Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks

  核心解读:DCGAN 将 CNN 与 GAN 结合的开山之作,因为原始 GAN 是利用 FC 实现的。 DCGAN 的出现极大的推动了 GAN 的蓬勃发展。其主要特点是:去除了 FC 层,使用了 BN 操作和 Relu 等 CNN 通用技术。利用不同 stride 的卷积代替 pooling 层等等。

  pix2pix

  论文标题:Image-to-Image Translation with Conditional Adversarial Networks

  核心解读:本文是用 cGAN 思想做图像翻译的鼻祖。所谓图像翻译,指从一副图像转换到另一副图像,例如手绘和真实图。本文提出了一个统一的框架解决了图像翻译问题。当然直接利用 CNN 生成器(例如U-Net)去做图像翻译也可以,只是比较粗暴,并且生成的图像质量比较模糊,效果不好。于是 pix2pix 增加了 GAN 的对抗损失,用以提升生成的质量,结果效果显著。后续还有进阶版本 pix2pixHD 的出现,效果可谓又上一个台阶。视频转换有 vid2vid 可用。

  CycleGAN

  论文标题:Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks

  核心解读:CycleGAN 的推出将图像风格转换推向了新的高度。简单来说就是能把苹果变为橘子,把马变为斑马,把夏天变为冬天等等。它解决的是非配对的域转换。上文说了 pix2pix 虽然惊艳,但是存在必须依赖配对样本的缺点。CycleGAN 利用循环一致 loss 解决该问题。说句题外话,真正在使用的时候,能配对尽量配对,可以显著提高生成的图片的质量和训练效率。

  W-GAN

  论文标题:

  • 上篇:Towards Principled Methods For Training Generative Adversarial Networks
  • 下篇:Wasserstein GAN

  核心解读:本文将 GAN 理论研究推向新的高度。GAN 自提出依赖就存在着训练困难、生成器和判别器的 loss 不可信赖、生成样本缺乏多样性等问题。本文提出一些实用且简单的 trick,并推出 Wasserstein 距离,又叫 Earth-Mover(EM)距离。由于它相对 KL 散度与 JS 散度具有优越的平滑特性,理论上可以解决梯度消失问题。另外,本文的理论非常扎实,在业内广受好评,非常值得一读。

  Focalloss

  论文标题:Focal Loss for Dense Object Detection

  核心解读:focalloss 已经惊为天人,RetinaNet 又锦上添花。focalloss 是解决分类问题中类别不平衡、难样本挖掘的问题。根据预测来调整 loss,有一种自适应的思想在里面。retinaNet 是 anchor-base 中的经典作品,结构简单通用,成为很多后继工作的首选 baseline。

  IOUloss 系列

  论文标题:

  • iou: UnitBox: An Advanced Object Detection Network
  • giou:Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression
  • diou: Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression
  • ciou: Enhancing Geometric Factors in Model Learning and Inference for Object Detection and Instance Segmentation

  核心解读:IOU 是目标检测最根本的指标,因此使用 IOUloss 理所当然是治标又治本的动作。进化过程如下:

  • IOU Loss:考虑检测框和目标框重叠面积。问题是:1.两个 box 不重合时,iou 永远是0,作为 loss 不合理。2. IoU 无法精确的反映两者的重合度大小,因为对尺度不敏感。
  • GIOU Loss:在 IOU 的基础上,解决边界框不重合时的问题。就是引入两个 box 的外接矩形,将两个 box 的外部区域作为加入到 loss 里面。
  • DIOU Loss:在 GIOU 的基础上,考虑边界框中心距离的信息。将目标与 anchor 之间的距离,重叠率以及尺度都考虑进去。
  • CIOU Loss:在 DIOU 的基础上,考虑边界框宽高比的尺度信息。也是目前最好的一种 IOU loss。

  diceloss

  论文标题:V-Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation

  核心解读:旨在应对语义分割中正负样本强烈不平衡的场景,并且可以起到加速收敛的功效,简直是语义分割的神器。不过也存在训练不稳定等问题,因此有一些改进操作,主要是结合 ce loss 等改进,比如: dice+ce loss,dice + focal loss 等。

  CTCloss

  论文标题:Connectionist Temporal Classification: Labelling Unsegmented Sequence Data with Recurrent Neural Networks

  tf int8

  论文标题:Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference

  核心解读:这是 google 发布的 8bit 的定点方案,几乎又是祖师爷级别的论文。深度学习部署落地才是根本,撑起部署三件套的量化、剪枝、蒸馏三竿大旗中最高的一竿。模型部署的时候,你可以没有剪枝和蒸馏,但是不可以不用量化(土豪用户忽略)。不管是 TensorFlow 的方案,还是 pytorch 的方案,或者是 GPU 端扛把子的 tensorrt,其后端精髓都来源于此。

  network-slimming

  论文标题:Learning Efficient Convolutional Networks through Network Slimming

  核心解读:CNN 网络部署有三个难题:模型大小、运行时间和占用内存、计算量。论文利用 BN 中的 gamma 作为通道的缩放因子,因为 gamma 是直接作用在特征图上的,值越小,说明该通道越不重要,可以剔除压缩模型。为了获取稀疏的 gamma 分布,便于裁剪。论文将 L1 正则化增加到 gamma 上。本文提出的方法简单,对网络结构没有改动,效果显著。因此成为了很多剪枝任务的首选。

  KD

  论文标题:Distilling the Knowledge in a Neural Network

  插图:APPRENTICE: USING KNOWLEDGE DISTILLATIONTECHNIQUES TO IMPROVE LOW-PRECISION NETWORK ACCURACY

  核心解读:知识蒸馏的开山之作。我们可以先训练好一个 teacher 网络,然后将 teacher 的网络的输出结果

  作为 student 网络的目标,训练 student 网络,使得 student 网络的结果

  接近

  为了传递给 student 网络平滑的概率标签,也就是不能置信度太高,太接近 onehot。文章提出了 softmax-T。实验证明是可以有效提高小模型的泛化能力。

  CAM

  论文标题:Learning Deep Features for Discriminative Localizatiion

  核心解读:特征可视化是可解释研究的一个重要分支。有助于理解和分析神经网络的工作原理及决策过程,引导网络更好的学习,利用 CAM 作为原始的种子,进行弱监督语义分割或弱监督定位。本文是 利用 GAP 进行的,这个概念来自 network in network,利用全局平均池化获取特征向量,再和输出层进行全连接。GAP 直接将特征层尺寸

  转化成

  ,既每一层的特征图里面的所有像素点值求平均获取对应特征向量值作为 GAP 输出。GAP 后端接的是 FC,每一个权重可以看作对应特征图层的重要程度,加权求和就获取了我们的 CAM。

  Grad-CAM

  论文标题:Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization

  核心解读: CAM 的局限性就是网络架构里必须有 GAP 层,但并不是所有模型都配 GAP 层的。而本文就是为克服该缺陷提出的,其基本思路是目标特征图的融合权重

  可以表达为梯度。Grad-CAM 可适用非 GAP 连接的网络结构;CAM 只能提取最后一层特征图的热力图,而 gard-CAM 可以提取任意一层;

  Soft-NMS

  论文标题:Improving Object Detection With One Line of Code

  核心解读:NMS 算法中的最大问题就是它将相邻检测框的分数均强制归零(即大于阈值的重叠部分), soft-NMS 在执行过程中不是简单的对 IoU 大于阈值的检测框删除,而是降低得分。算法流程同 NMS 相同,但是对原置信度得分使用函数运算,目标是降低置信度得分.

  CRNN

  论文标题:An End-to-End Trainable Neural Network for Image-based Sequence Recognition and Its Application to Scene Text Recognition

  DBNet

  论文标题:Real-time Scene Text Detection with Differentiable Binarization

  核心解读:本文的最大创新点将可微二值化应用到基于分割的文本检测中。一般分割网络最终的二值化都是使用的固定阈值。本文对每一个像素点进行自适应二值化,二值化阈值由网络学习得到,将二值化这一步骤加入到网络里一起训练。DB (Differentiable Binarization),翻译过来叫可微分二值化(因为标准二值化不可微分)。当然基于分割的文本检测可以适应各种形状,例如水平、多个方向、弯曲的文本等等。

  后记

  这仅仅是一份入门指南,指引你进入深度学习的海洋。经典之所以称之为经典,一定是每一次阅读都有新的发现,所以强烈建议大家去读原文。共勉!

  文/李茜楠     来源:盒饭财经(ID:daxiongfan)   京东金融凭借着一系列 Low 到不像官方的广告,成功被送上各大平台的热搜。   在飞机上,一位农民工兄弟的母亲想吐,空姐让其升舱,农民工没有足够的钱付费,后排老板向他直接拿过他的手机帮他开通了,帮他申请了 15 万元贷款,还滔滔不绝地介绍起了京东金融。   类似广告还有:姐姐结婚,弟弟突然闯入借手术费,姐夫急中生智,直接拿着小舅子申请了 15 万元贷款;街边老人晕倒,外卖小哥将其送到医院,老人为表感谢帮直接拿过他的手机,帮他申请了 15 万元贷款等。   广告出圈有多种方式,传播度、话题度、名人效应等......Next article READ