快捷搜索:  汽车  科技

图像识别一般用什么算法(计算机视觉必读)

图像识别一般用什么算法(计算机视觉必读)基本思路 使用CNN从图像中提取图像特征,用RNN从文字问题中提取文本特征,之后设法融合视觉和文本特征,最后通过全连接层进行分类。该任务的关键是如何融合这两个模态的特征。直接的融合方案是将视觉和文本特征拼成一个向量、或者让视觉和文本特征向量逐元素相加或相乘。给定一张图像和一个关于该图像内容的文字问题,视觉问答旨在从若干候选文字回答中选出正确的答案。其本质是分类任务,也有工作是用RNN解码来生成文字回答。视觉问答也是视觉和自然语言处理两个领域的交叉任务。尽管深度神经网络取得了优异的性能,但巨大的计算和存储开销成为其部署在实际应用中的挑战。有研究表明,神经网络中的参数存在大量的冗余。因此,有许多工作致力于在保证准确率的同时降低网路复杂度。Adaptive attention之前的注意力机制会对每个待预测词生成一个二维注意力图(图(a)),但对于像the、of这样的词实际上并不需要借助来自图像的

图像识别一般用什么算法(计算机视觉必读)(1)


新智元专栏

作者:张皓(南京大学)

【新智元导读】深度学习目前已成为发展最快、最令人兴奋的机器学习领域之一。本文以计算机视觉的重要概念为线索,介绍深度学习在计算机视觉任务中的应用,包括网络压缩、细粒度图像分类、看图说话、视觉问答、图像理解、纹理生成和风格迁移、人脸识别、图像检索、目标跟踪等。

图像识别一般用什么算法(计算机视觉必读)(2)

网络压缩(network compression)

尽管深度神经网络取得了优异的性能,但巨大的计算和存储开销成为其部署在实际应用中的挑战。有研究表明,神经网络中的参数存在大量的冗余。因此,有许多工作致力于在保证准确率的同时降低网路复杂度。

Adaptive attention之前的注意力机制会对每个待预测词生成一个二维注意力图(图(a)),但对于像the、of这样的词实际上并不需要借助来自图像的线索,并且有的词可以根据上文推测出也不需要图像信息。该工作扩展了LSTM,以提出“视觉哨兵”机制以判断预测当前词时应更关注上文语言信息还是更关注图像信息(图(b))。此外,和之前工作利用上一时刻的隐层状态计算注意力图不同,该工作使用当前隐层状态。

图像识别一般用什么算法(计算机视觉必读)(3)

视觉问答(visual question answering)

给定一张图像和一个关于该图像内容的文字问题,视觉问答旨在从若干候选文字回答中选出正确的答案。其本质是分类任务,也有工作是用RNN解码来生成文字回答。视觉问答也是视觉和自然语言处理两个领域的交叉任务。

基本思路 使用CNN从图像中提取图像特征,用RNN从文字问题中提取文本特征,之后设法融合视觉和文本特征,最后通过全连接层进行分类。该任务的关键是如何融合这两个模态的特征。直接的融合方案是将视觉和文本特征拼成一个向量、或者让视觉和文本特征向量逐元素相加或相乘。

图像识别一般用什么算法(计算机视觉必读)(4)

注意力机制 和“看图说话”相似,使用注意力机制也会提升视觉问答的性能。注意力机制包括视觉注意力(“看哪里”)和文本注意力(“关注哪个词”)两者。HieCoAtten可同时或交替产生视觉和文本注意力。DAN将视觉和文本的注意力结果映射到一个相同的空间,并据此同时产生下一步的视觉和文本注意力。

图像识别一般用什么算法(计算机视觉必读)(5)

双线性融合 通过视觉特征向量和文本特征向量的外积,可以捕获这两个模态特征各维之间的交互关系。为避免显式计算高维双线性汇合结果,细粒度识别中的精简双线性汇合思想也可用于视觉问答。例如,MFB采用了低秩近似思路,并同时使用了视觉和文本注意力机制。

图像识别一般用什么算法(计算机视觉必读)(6)

网络可视化(visualizing)和网络理解(understanding)

这些方法旨在提供一些可视化的手段以理解深度卷积神经网络。

直接可视化第一层滤波器 由于第一层卷积层的滤波器直接在输入图像中滑动,我们可以直接对第一层滤波器进行可视化。可以看出,第一层权重关注于特定朝向的边缘以及特定色彩组合。这和生物的视觉机制是符合的。但由于高层滤波器并不直接作用于输入图像,直接可视化只对第一层滤波器有效。

图像识别一般用什么算法(计算机视觉必读)(7)

t-SNE 对图像的fc7或pool5特征进行低维嵌入,比如降维到2维使得可以在二维平面画出。具有相近语义信息的图像应该在t-SNE结果中距离相近。和PCA不同的是,t-SNE是一种非线性降维方法,保留了局部之间的距离。下图是直接对MNIST原始图像进行t-SNE的结果。可以看出,MNIST是比较容易的数据集,属于不同类别的图像聚类十分明显。

图像识别一般用什么算法(计算机视觉必读)(8)

可视化中间层激活值 对特定输入图像,画出不同特征图的响应。观察发现,即使ImageNet中没有人脸或文字相关的类别,网络会学习识别这些语义信息,以辅助后续的分类。

最大响应图像区域 选择某一特定的中间层神经元,向网络输入许多不同的图像,找出使该神经元响应最大的图像区域,以观察该神经元用于响应哪种语义特征。是“图像区域”而不是“完整图像”的原因是中间层神经元的感受野是有限的,没有覆盖到全部图像。

输入显著性图 对给定输入图像,计算某一特定神经元对输入图像的偏导数。其表达了输入图像不同像素对该神经元响应的影响,即输入图像的不同像素的变化会带来怎样的神经元响应值的变化。Guided backprop只反向传播正的梯度值,即只关注对神经元正向的影响,这会产生比标准反向传播更好的可视化效果。

图像识别一般用什么算法(计算机视觉必读)(9)

梯度上升优化 选择某一特定的神经元,计算某一特定神经元对输入图像的偏导数,对输入图像使用梯度上升进行优化,直到收敛。此外,我们需要一些正则化项使得产生的图像更接近自然图像。此外,除了在输入图像上进行优化外,我们也可以对fc6特征进行优化并从其生成需要的图像。

图像识别一般用什么算法(计算机视觉必读)(10)

DeepVisToolbox 该工具包同时提供了以上四种可视化结果。该链接中提供了一个演示视频:Jason Yosinski(yosinski.com/deepvis#toolbox)

图像识别一般用什么算法(计算机视觉必读)(11)

遮挡实验(occlusion experiment) 用一个灰色方块遮挡住图像的不同区域,之后前馈网络,观察其对输出的影响。对输出影响最大的区域即是对判断该类别最重要的区域。从下图可以看出,遮挡住狗的脸对结果影响最大。

Deep dream 选择一张图像和某一特定层,优化目标是通过对图像的梯度上升,最大化该层激活值的平方。实际上,这是在通过正反馈放大该层神经元捕获到的语义特征。可以看出,生成的图像中出现了很多狗的图案,这是因为ImageNet数据集1000类别中有200类关于狗,因此,神经网络中有很多神经元致力于识别图像中的狗。

图像识别一般用什么算法(计算机视觉必读)(12)

对抗样本(adversarial examples) 选择一张图像和一个不是它真实标记的类别,计算该类别对输入图像的偏导数,对图像进行梯度上升优化。实验发现,在对图像进行难以察觉的微小改变后,就可以使网络以相当大的信心认为该图像属于那个错误的类别。实际应用中,对抗样本会将会对金融、安防等领域产生威胁。有研究认为,这是由于图像空间非常高维,即使有非常多的训练数据,也只能覆盖该空间的很小一部分。只要输入稍微偏离该流形空间,网络就难以得到正常的判断。

图像识别一般用什么算法(计算机视觉必读)(13)

纹理生成(texture synthesis)和风格迁移(style transform)

给定一小张包含特定纹理的图像,纹理合成旨在生成更大的包含相同纹理的图像。给定一张普通图像和一张包含特定绘画风格的图像,风格迁移旨在保留原图内容的同时,将给定风格迁移到该图中。

特征逆向工程(feature inversion) 这两类问题的基本思路。给定一个中间层特征,我们希望通过迭代优化,产生一个特征和给定特征接近的图像。此外,特征逆向工程也可以告诉我们中间层特征中蕴含了多少图像中信息。可以看出,低层的特征中几乎没有损失图像信息,而高层尤其是全连接特征会丢失大部分的细节信息。从另一方面讲,高层特征对图像的颜色和纹理变化更不敏感。

Gram矩阵 给定D×H×W的深度卷积特征,我们将其转换为D×(HW)的矩阵X,则该层特征对应的Gram矩阵定义为

G=XX^T

通过外积,Gram矩阵捕获了不同特征之间的共现关系。

纹理生成基本思路 对给定纹理图案的Gram矩阵进行特征逆向工程。使生成图像的各层特征的Gram矩阵接近给定纹理图像的各层Gram。低层特征倾向于捕获细节信息,而高层特征可以捕获更大面积的特征。

图像识别一般用什么算法(计算机视觉必读)(14)

风格迁移基本思路 优化目标包括两项,使生成图像的内容接近原始图像内容,及使生成图像风格接近给定风格。风格通过Gram矩阵体现,而内容则直接通过神经元激活值体现。

图像识别一般用什么算法(计算机视觉必读)(15)

直接生成风格迁移的图像 上述方法的缺点是需要多次迭代才能收敛。该工作提出的解决方案是训练一个神经网络来直接生成风格迁移的图像。一旦训练结束,进行风格迁移只需前馈网络一次,十分高效。在训练时,将生成图像、原始图像、风格图像三者前馈一固定网络以提取不同层特征用于计算损失函数。

示例归一化(instance normalization)和批量归一化(batch normalization)作用于一个批量不同,示例归一化的均值和方差只由图像自身决定。实验中发现,在风格迁移网络中使用示例归一化可以从图像中去除和示例有关的对比度信息以简化生成过程。

条件示例归一化(conditional instance normalization)上述方法的一个问题是对每种不同的风格,我们需要分别训练一个模型。由于不同风格之间存在共性,该工作旨在让对应于不同风格的风格迁移网络共享参数。具体来说,其修改了风格迁移网络中的示例归一化,使其具有N组缩放和平移参数,每组对应一个不同的风格。这样,我们可以通过一次前馈过程同时获得N张风格迁移图像。

人脸验证/识别(face verification/recognition)

人脸验证/识别可以认为是一种更加精细的细粒度图像识别任务。人脸验证是给定两张图像、判断其是否属于同一个人,而人脸识别是回答图像中的人是谁。一个人脸验证/识别系统通常包括三大步:检测图像中的人脸,特征点定位、及对人脸进行验证/识别。人脸验证/识别的难题在于需要进行小样本学习。通常情况下,数据集中每人只有对应的一张图像,这称为一次学习(one-shot learning)。

两种基本思路 当作分类问题(需要面对非常多的类别数),或者当作度量学习问题。如果两张图像属于同一个人,我们希望它们的深度特征比较接近,否则,我们希望它们不接近。之后,根据深度特征之间的距离进行验证(对特征距离设定阈值以判断是否属于同一个人),或识别(k近邻分类)。

图像识别一般用什么算法(计算机视觉必读)(16)

DeepFace 第一个将深度神经网络成功用于人脸验证/识别的模型。DeepFace使用了非共享参数的局部连接。这是由于人脸不同区域存在不同的特征(例如眼睛和嘴巴具有不同的特征),经典卷积层的“共享参数”性质在人脸识别中不再适用。因此,人脸识别网络中会采用不共享参数的局部连接。其使用孪生网络(siamese network)进行人脸验证。当两张图像的深度特征小于给定阈值时,认为其来自同一个人。

图像识别一般用什么算法(计算机视觉必读)(17)

FaceNet 三元输入,希望和负样本之间的距离以一定间隔(如0.2)大于和正样本之间的距离。此外,输入三元的选择不是随机的,否则由于和负样本之间的差异很大,网络学不到什么东西。选择最困难的三元组(即最远的正样本和最近的负样本)会使网络陷入局部最优。FaceNet采用半困难策略,选择比正样本远的负样本。

大间隔交叉熵损失 近几年的一大研究热点。由于类内波动大而类间相似度高,有研究工作旨在提升经典的交叉熵损失对深度特征的判断能力。例如,L-Softmax加强优化目标,使对应类别的参数向量和深度特征夹角增大。 A-Softmax进一步约束L-Softmax的参数向量长度为1,使训练更集中到优化深度特征和夹角上。实际中,L-Softmax和A-Softmax都很难收敛,训练时采用了退火方法,从标准softmax逐渐退火至L-Softmax或A-Softmax。

活体检测(liveness detection) 判断人脸是来自真人或是来自照片等,这是人脸验证/识别需要解决的关键问题。在产业界目前主流的做法是利用人的表情变化、纹理信息、眨眼、或让用户完成一系列动作等。

图像检索(image retrieval)

给定一个包含特定实例(例如特定目标、场景、建筑等)的查询图像,图像检索旨在从数据库图像中找到包含相同实例的图像。但由于不同图像的拍摄视角、光照、或遮挡情况不同,如何设计出能应对这些类内差异的有效且高效的图像检索算法仍是一项研究难题。

图像检索的典型流程 首先,设法从图像中提取一个合适的图像的表示向量。其次,对这些表示向量用欧式距离或余弦距离进行最近邻搜索以找到相似的图像。最后,可以使用一些后处理技术对检索结果进行微调。可以看出,决定一个图像检索算法性能的关键在于提取的图像表示的好坏。

图像识别一般用什么算法(计算机视觉必读)(18)

(1) 无监督图像检索

无监督图像检索旨在不借助其他监督信息,只利用ImageNet预训练模型作为固定的特征提取器来提取图像表示。

直觉思路 由于深度全连接特征提供了对图像内容高层级的描述,且是“天然”的向量形式,一个直觉的思路是直接提取深度全连接特征作为图像的表示向量。但是,由于全连接特征旨在进行图像分类,缺乏对图像细节的描述,该思路的检索准确率一般。

利用深度卷积特征 由于深度卷积特征具有更好的细节信息,并且可以处理任意大小的图像输入,目前的主流方法是提取深度卷积特征,并通过加权全局求和汇合(sum-pooling)得到图像的表示向量。其中,权重体现了不同位置特征的重要性,可以有空间方向权重和通道方向权重两种形式。

CroW 深度卷积特征是一个分布式的表示。虽然一个神经元的响应值对判断对应区域是否包含目标用处不大,但如果多个神经元同时有很大的响应值,那么该区域很有可能包含该目标。因此,CroW把特征图沿通道方向相加,得到一张二维聚合图,并将其归一化并根号规范化的结果作为空间权重。CroW的通道权重根据特征图的稀疏性定义,其类似于自然语言处理中TF-IDF特征中的IDF特征,用于提升不常出现但具有判别能力的特征。

Class weighted features 该方法试图结合网络的类别预测信息来使空间权重更具判别能力。具体来说,其利用CAM来获取预训练网络中对应各类别的最具代表性区域的语义信息,进而将归一化的CAM结果作为空间权重。

PWA PWA发现,深度卷积特征的不同通道对应于目标不同部位的响应。因此,PWA选取一系列有判别能力的特征图,将其归一化之后的结果作为空间权重进行汇合,并将其结果级联起来作为最终图像表示。

图像识别一般用什么算法(计算机视觉必读)(19)

(2) 有监督图像检索

有监督图像检索首先将ImageNet预训练模型在一个额外的训练数据集上进行微调,之后再从这个微调过的模型中提取图像表示。为了取得更好的效果,用于微调的训练数据集通常和要用于检索的数据集比较相似。此外,可以用候选区域网络提取图像中可能包含目标的前景区域。

孪生网络(siamese network)和人脸识别的思路类似,使用二元或三元( -)输入,训练模型使相似样本之间的距离尽可能小,而不相似样本之间的距离尽可能大。

图像识别一般用什么算法(计算机视觉必读)(20)

目标跟踪(object tracking)

目标跟踪旨在跟踪一段视频中的目标的运动情况。通常,视频第一帧中目标的位置会以包围盒的形式给出,我们需要预测其他帧中该目标的包围盒。目标跟踪类似于目标检测,但目标跟踪的难点在于事先不知道要跟踪的目标具体是什么,因此无法事先收集足够的训练数据以训练一个专门的检测器。

孪生网络 类似于人脸验证的思路,利用孪生网络,一支输入第一帧包围盒内图像,另一支输入其他帧的候选图像区域,输出两张图的相似度。我们不需要遍历其他帧的所有可能的候选区域,利用全卷积网络,我们只需要前馈整张图像一次。通过互相关操作(卷积),得到二维的响应图,其中最大响应位置确定了需要预测的包围盒位置。基于孪生网络的方法速度快,能处理任意大小的图像。

CFNet 相关滤波通过训练一个线性模板来区分图像区域和它周围区域,利用傅里叶变换,相关滤波有十分高效的实现。CFNet结合离线训练的孪生网络和在线更新的相关滤波模块,提升轻量级网络的跟踪性能。

生成式模型(generative models)

这类模型旨在学得数据(图像)的分布,或从该分布中采样得到新的图像。生成式模型可以用于超分辨率重建、图像着色、图像转换、从文字生成图像、学习图像潜在表示、半监督学习等。此外,生成式模型可以和强化学习结合,用于仿真和逆强化学习。

显式建模 根据条件概率公式,直接进行最大似然估计对图像的分布进行学习。该方法的弊端是,由于每个像素依赖于之前的像素,生成图像时由于需要从一角开始序列地进行,所以会比较慢。例如,WaveNet可以生成类似人类说话的语音,但由于无法并行生成,得到1秒的语音需要2分钟的计算,无法达到实时。

变分自编码器(variational auto-encoder VAE) 为避免显式建模的弊端,变分自编码器对数据分布进行隐式建模。其认为图像的生成受一个隐变量控制,并假设该隐变量服从对角高斯分布。变分自编码器通过一个解码网络从隐变量生成图像。由于无法直接进行最大似然估计,在训练时,类似于EM算法,变分自编码器会构造似然函数的下界函数,并对这个下界函数进行优化。变分自编码器的好处是,由于各维独立,我们可以通过控制隐变量来控制输出图像的变化因素。

图像识别一般用什么算法(计算机视觉必读)(21)

生成式对抗网络(generative adversarial networks GAN)由于学习数据分布十分困难,生成式对抗网络绕开这一步骤,直接生成新的图像。生成式对抗网络使用一个生成网络G从随机噪声中生成图像,以及一个判别网络D判断其输入图像是真实/伪造图像。在训练时,判别网络D的目标是能判断真实/伪造图像,而生成网络G的目标是使得判别网络D倾向于判断其输出是真实图像。实际中,直接训练生成式对抗网络会遇到mode collapse问题,即生成式对抗网络无法学到完整的数据分布。随后,出现了LS-GAN和W-GAN的改进。和变分自编码器相比,生成式对抗网络的细节信息更好。以下链接整理了许多和生成式对抗网络有关的论文:hindupuravinash/the-gan-zoo。以下链接整理了许多训练生成式对抗网络的其技巧:soumith/ganhacks。

图像识别一般用什么算法(计算机视觉必读)(22)

视频分类(video classification)

前面介绍的大部分任务也可以用于视频数据,这里仅以视频分类任务为例,简要介绍处理视频数据的基本方法。

多帧图像特征汇合 这类方法将视频看成一系列帧的图像组合。网络同时接收属于一个视频片段的若干帧图像(例如15帧),并分别提取其深度特征,之后融合这些图像特征得到该视频片段的特征,最后进行分类。实验发现,使用"slow fusion"效果最好。此外,独立使用单帧图像进行分类即可得到很有竞争力的结果,这说明单帧图像已经包含很多的信息。

图像识别一般用什么算法(计算机视觉必读)(23)

三维卷积 将经典的二维卷积扩展到三维卷积,使之在时间维度也局部连接。例如,可以将VGG的3×3卷积扩展为3×3×3卷积,2×2汇合扩展为2×2×2汇合。

图像识别一般用什么算法(计算机视觉必读)(24)

图像 时序两分支结构 这类方法用两个独立的网络分别捕获视频中的图像信息和随时间运动信息。其中,图像信息从单帧静止图像中得到,是经典的图像分类问题。运动信息则通过光流(optical flow)得到,其捕获了目标在相邻帧之间的运动情况。

CNN RNN捕获远距离依赖 之前的方法只能捕获几帧图像之间的依赖关系,这类方法旨在用CNN提取单帧图像特征,之后用RNN捕获帧之间的依赖。

此外,有研究工作试图将CNN和RNN合二为一,使每个卷积层都能捕获远距离依赖。

作者简介

张皓:南京大学计算机系机器学习与数据挖掘所(LAMDA)硕士生,研究方向为计算机视觉和机器学习,特别是视觉识别和深度学习。个人主页http://lamda.nju.edu.cn/zhangh/。

参考文献

1. A. Agrawal et al. VQA: Visual question answering. IJCV 2017.

2. M. Arjovsky et al. Wasserstein generative adversarial networks. ICML 2017.

3. N. Ballas et al. Delving deeper into convolutional networks for learning video representations. ICLR 2016.

4. L. Bertinetto et al. Fully-convolutional siamese networks for object tracking. ECCV Workshop 2016.

5. W. Chen et al. Compressing neural networks with the hashing trick. ICML 2015.

6. Y. Cui et al. Kernel pooling for convolutional neural networks. CVPR 2017.

7. M. Danelljan et al. ECO: Efficient convolution operators for tracking. CVPR 2017.

8. E. Denton et al. Exploiting linear structure within convolutional networks for efficient evaluation. NIPS 2014.

9. C. Doersch. Tutorial on variational autoencoders. arXiv: 1606.05908 2016.

10. J. Donahue et al. Long-term recurrent convolutional networks for visual recognition and description. CVPR 2015.

11. V. Dumoulin et al. A learned representation for artistic style. ICLR 2017.

12. Y. Gao et al. Compact bilinear pooling. CVPR 2016.

13. L. A. Gatys et al. Texture synthesis using convolutional neural networks. NIPS 2015.

14. L. A. Gatys et al. Image style transfer using convolutional neural networks. CVPR 2016.

15. I. Goodfellow et al. Generative adversarial nets. NIPS 2014.

16. I. Goodfellow. NIPS 2016 tutorial: Generative adversarial networks arXiv: 1701.00160 2016.

17. A. Gordo et al. End-to-end learning of deep visual representations for image retrieval. IJCV 2017.

18. S. Han et al. Learning both weights and connections for efficient neural network. NIPS 2015.

19. A. G. Howard et al. MobileNets: Efficient convolutional neural networks for mobile vision applications. arXiv: 1704.04861 2017.

20. H. Hu et al. Network trimming: A data-driven neuron pruning approach towards efficient deep architectures. arXiv: 1607.03250 2016.

21. I. Hubara et al. Binarized neural networks. NIPS 2016.

22. A. Jiménez et al. Class-weighted convolutional features for visual instance search. BMVC 2017.

23. Y. Jing et al. Neural style transfer: A review. arXiv: 1705.04058 2017.

24. J. Johnson et al. Perceptual losses for real-time style transfer and super-resolution. ECCV 2016.

25. K. Kafle and C. Kanan. Visual question answering: Datasets algorithms and future challenges. CVIU 2017.

26. Y. Kalantidis et al. Cross-dimensional weighting for aggregated deep convolutional features. ECCV 2016.

27. A. Karpathy et al. Large-scale video classification with convolutional neural networks. CVPR 2014.

28. A. Karpathy and L. Fei-Fei. Deep visual-semantic alignments for generating image descriptions. CVPR 2015.

29. D. P. Kingma and M. Welling. Auto-encoding variational Bayes. ICLR 2014.

30. S. Kong and C. Fowlkes. Low-rank bilinear pooling for fine-grained classification. CVPR 2017.

31. A. Krizhevsky et al. ImageNet classification with deep convolutional neural networks. NIPS 2012.

32. T.-Y. Lin et al. Bilinear convolutional neural networks for fine-grained visual recognition. TPAMI 2017.

33. T.-Y. Lin and S. Maji. Improved Bilinear Pooling with CNNs. BMVC 2017.

34. J. Liu et al. Knowing when to look: Adaptive attention via a visual sentinel for image captioning. CVPR 2017.

35. W. Lie et al. Large-margin softmax loss for convolutional neural networks. ICML 2016.

36. W. Liu et al. SphereFace: Deep hypersphere embedding for face recognition. CVPR 2017.

37. J. Lu et al. Hierarchical question-image co-attention for visual question answering. NIPS 2016.

38. J.-H. Luo et al. Image categorization with resource constraints: Introduction challenges and advances. FCS 2017.

39. J.-H. Luo et al. ThiNet: A filter level pruning method for deep neural network compression. ICCV 2017.

40. L. Maaten and G. Hinton. Visualizing data using t-SNE. JMLR 2008.

41. A. Mahendran and A. Vedaldi. Understanding deep image representations by inverting them. CVPR 2015.

42. X. Mao et al. Least squares generative adversarial networks. ICCV 2017.

43. P. Molchanov et al. Pruning convolutional neural networks for resource efficient inference. ICLR 2017.

44. A. Mordvintsev et al. Inceptionism: Going deeper into neural networks. Google Research Blog 2015.

45. H. Nam et al. Dual attention networks for multimodal reasoning and matching. CVPR 2017.

46. J. Y. H. Ng et al. Beyond short snippets: Deep networks for video classification. CVPR 2015.

47. F. Radenović et al. Fine-tuning CNN image retrieval with no human annotation. arXiv: 1711.02512 2017.

48. A. Radford et al. Unsupervised representation learning with deep convolutional generative adversarial networks. ICLR 2016.

49. M. Rastegari et al. XNOR-Net: ImageNet classification using binary convolutional neural networks. ECCV 2016.

50. F. Schroff et al. FaceNet: A unified embedding for face recognition and clustering. CVPR 2015.

51. K. Simonyan et al. Deep inside convolutional networks: Visualizing image classification models and saliency maps. ICLR Workshop 2014.

52. K. Simonyan and A. Zisserman. Two-stream convolutional networks for action recognition in videos. NIPS 2014.

53. V. Sindhwani et al. Structured transforms for small-footprint deep learning. NIPS 2015.

54. J. T. Springenberg et al. Striving for simplicity: The all convolutional net. ICLR Workshop 2015.

55. Y. Taigman et al. DeepFace: Closing the gap to human-level performance in face verification. CVPR 2014.

56. D. Tran et al. Learning spatiotemporal features with 3D convolutional networks. ICCV 2015.

57. A. Nguyen et al. Synthesizing the preferred inputs for neurons in neural networks via deep generator networks. NIPS 2016.

58. D. Ulyanov and A. Vedaldi. Instance normalization: The missing ingredient for fast stylization. arXiv: 1607.08022 2016.

59. J. Valmadre et al. End-to-end representation learning for correlation filter based tracking. CVPR 2017.

60. O. Vinyals et al. Show and tell: A neural image caption generator. CVPR 2015.

61. C. Wu et al. A compact DNN: Approaching GoogleNet-level accuracy of classification and domain adaptation. CVPR 2017.

62. J. Wu et al. Quantized convolutional neural networks for mobile devices. CVPR 2016.

63. Z. Wu et al. Deep learning for video classification and captioning. arXiv: 1609.06782 2016.

64. J. Xu et al. Unsupervised part-based weighting aggregation of deep convolutional features for image retrieval. AAAI 2018.

65. K. Xu et al. Show attend and tell: Neural image caption generation with visual attention. ICML 2015.

66. J. Yosinski et al. Understanding neural networks through deep visualization. ICML Workshop 2015.

67. Z. Yu et al. Multi-modal factorized bilinear pooling with co-attention learning for visual question answering. ICCV 2017.

68. M. D. Zeiler and R. Fergus. Visualizing and understanding convolutional networks. ECCV 2014.

69. L. Zhang et al. SIFT meets CNN: A decade survey of instance retrieval. TPAMI 2017.

猜您喜欢: