计算机系统应用教程网站

网站首页 > 技术文章 正文

CVPR 2017最佳论文出炉,DenseNet和苹果首篇论文获奖

btikc 2024-10-22 10:36:23 技术文章 14 ℃ 0 评论

李林 编译整理

量子位 报道 | 公众号 QbitAI

正在夏威夷举办的CVPR 2017,刚刚评出了今年的两篇最佳论文(Best Paper Awards):

一篇是Densely Connected Convolutional Networks,作者包括清华大学的Zhuang Liu、康奈尔大学的Gao Huang和Kilian Q. Weinberger,以及Facebook研究员Laurens van der Maaten。

地址:https://arxiv.org/abs/1608.06993

这篇论文去年8月就已经在Arxiv上发布,提出了一个叫做DenseNet的模型,让CNN中的每一层都以前馈的方式和所有其他层相连。

L层的传统卷积网络具有L个连接,而DenseNet具有L(L+1)/2个连接。对于每个层来说,它之前所有层的特征图都是输入,而它的特征图是之后所有层的输入。

他们在论文摘要中说,DenseNet有几个明显的优点:减轻了梯度消失问题、加强了特征传播、鼓励特征复用、减少参数数量。

这个团队还在GitHub上开源了DenseNet的代码:https://github.com/liuzhuang13/DenseNet。

另一篇正是去年12月亮相的苹果首篇论文Learning from Simulated and Unsupervised Images through Adversarial Training,作者:Ashish Shrivastava, Tomas Pfister, Oncel Tuzel, Joshua Susskind, Wenda Wang, Russell Webb。

https://arxiv.org/abs/1612.07828

这是一篇关于图像合成的论文。以下是摘要:

随着图像技术的进步,在合成图像上训练模型变得更加容易,而且有可能不再需要再进行成本高昂的标注。然而,由于合成图像和实际图像在分布上存在差异,基于合成图像的学习可能无法达到期望的性能。

为了减少这一差异,我们提出了模拟+无监督(S+U)学习,这一方式的任务是通过非标注的真实数据来学习一个模型,以增强模拟器输出的真实性,同时保留模拟器中的标注信息。

我们为S+U学习开发了一种类似对抗生成网络(GANs)的方法,但是使用合成图像作为输入而不是随机向量。我们对标准GAN算法进行了几处关键性修改,以保留注释、避免失真以及稳定训练。包括:1)一个“自正则化”项,2)一个局部对抗性损失,3)使用图像改善历史来更新鉴别器。

我们的研究表明,这种方法能够生成高真实度的图像,并且通过定性和用户研究得到证明。而定量研究使用了视线估计和手势估计。我们在使用合成图像方面展示出显著的进步,并在没有任何真是标注数据的情况下,在MPIIGaze数据集上获得最高水平的结果。

苹果这周新开的机器学习官方博客(Apple Machine Learning Journal)上又重新介绍了这篇论文。地址:https://machinelearning.apple.com/2017/07/07/GAN.html

和Best Paper Awards一起,CVPR还评出了下列奖项,

最佳论文鼓励奖(Best Paper Honorable Mention Awards)

Annotating Object Instances with a Polygon-RNN

作者:多伦多大学的Lluís Castrejón、Kaustav Kundu、Raquel Urtasun、Sanja Fidler

地址:https://arxiv.org/abs/1704.05548

YOLO9000: Better, Faster, Stronger

作者:华盛顿大学的和艾伦人工智能研究院的Joseph Redmon、Ali Farhadi

地址:https://arxiv.org/abs/1612.08242

学生最佳论文奖(Best Student Paper Award)

Computational Imaging on the Electric Grid

作者:以色列理工学院的Mark Sheinin、Yoav Y. Schechner和多伦多大学的Kiriakos N. Kutulakos

地址:http://www.dgp.toronto.edu/ACgrid/17.cvpr.acam.pdf

十年时间检验奖(Longuet-Higgins Prize)

Object Retrieval with Large Vocabularies and Fast Spatial Matching

作者:牛津大学的James Philbin、Ondrej Chum、Josef Sivic和Andrew Zisserman,以及微软研究院的Michael Isard

地址:http://ieeexplore.ieee.org/document/4270197/

青年学者奖(PAMI Young Researcher Award)

获奖者:

Facebook人工智能研究院研究员、加州大学伯克利分校博士后、芝加哥大学博士Ross Girshick;

法国国家信息与自动化研究所(Inria Grenoble)研究员Julien Mairal。

【完】

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表