知行编程网知行编程网  2022-06-22 12:00 知行编程网 隐藏边栏 |   抢沙发  20 
文章评分 0 次,平均分 0.0

ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖

来自 | 机器之心

昨日,计算机视觉顶会 ECCV 2020 公布了最佳论文等奖项,ImageNet 论文一作邓嘉获最佳论文奖。


ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖


计算机视觉三大国际顶级会议之一的 ECCV 2020 已经召开。受疫情影响,原定于 8 月下旬在英国格拉斯哥举行的 ECCV 2020 会议转为线上举行,为期 4 天。

今年 ECCV 共收到有效投稿 5025 篇,是 ECCV 2018 论文投稿数量的二倍还要多,接收论文 1361 篇,接收率为 27%,相比上届会议下降了约 5%。在接收论文中,oral 论文数为 104 篇,占有效投稿总数的 2%,spotlight 论文数目为 161 篇,占比约 3%。

昨日,大会公布了最佳论文等奖项,最佳论文奖由普林斯顿大学 Zachary Teed 和 Jia Deng 摘得。

最佳论文奖

ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖


  • 论文地址:https://arxiv.org/abs/2003.12039

  • GitHub 地址:https://github.com/princeton-vl/RAFT


这项研究提出了一种用于光流的新型深度网络架构——循环全对场变换(Recurrent All-Pairs Field Transforms,RAFT)。RAFT 提取每个像素(per-pixel)的特征,为所有像素对构建多尺度 4D 相关体(correlation volume),并通过循环单元迭代地更新流场,循环单元基于相关体执行查找。

RAFT 在多个数据集上实现了 SOTA 性能:在 KITTI 数据集上,RAFT 的 F1-all 误差是 5.10%,相比先前的最佳结果(6.10%)减少了 16%;在 Sintel 数据集(final pass)上,RAFT 只有 2.855 像素的端点误差(end-point-error),相比先前的最佳结果(4.098 像素)减少了 30%。另外,RAFT 具有强大的跨数据集泛化能力,并且在推理时间、训练速度和参数计数方面具有很高的效率。

ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖

RAFT 架构设计。

ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖

4.8M 参数完整版模型和 1.0M 参数小模型的网络架构细节。

作者简介

ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖


最佳论文的第一作者 Zachary Teed 现在普林斯顿读博,导师为邓嘉。他的研究兴趣是:3D 视频重建,包括运动恢复结构(Structure from Motion,SfM)、场景流(Scene Flow)和 SLAM。

ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖


论文二作是普林斯顿大学计算机科学系助理教授邓嘉,主要研究方向是计算机视觉和机器学习,
目前的研究兴趣是:3D 视觉、目标识别、动作识别和自动定理证明。曾获得 Sloan Research Fellowship、PAMI Mark Everingham Prize、 Yahoo ACE Award、Google Faculty Research Award、ICCV Marr Prize 等奖项。

值得一提的是,这并不是邓嘉第一次获得 ECCV 的最佳论文奖,2014 年他凭借论文《Large-Scale Object Classification Using Label Relation Graphs》获得当年的 ECCV 最佳论文奖,并且是该研究的第一作者。

除此之外,他还是 ImageNet 论文的第一作者。ImageNet 数据集是目前机器学习领域最常用的数据集之一,它催生出了极大促进人工智能发展的 ImageNet 比赛。作为 ImageNet 的一作,邓嘉为其倾注了许多心血。

2019 年,这篇论文获得了 CVPR PAMI Longuet-Higgins(经典论文)奖。邓嘉在接受机器之心采访时表示:「这个项目很说明一件事情,当时做 ImageNet 不是最主流的工作,但是我们所有做此项目的人都相信它会有很大的影响,所以我们就花了很大力气做这个事情。确实,它给我自己的一个启示是,你不一定要做最流行的事情,但要做自己相信会有影响的事情。」目前,这篇发表于 2009 年的论文被引用量已超过两万。

最佳论文荣誉提名奖

大会还公布了最佳论文荣誉提名奖,共有两篇论文获得此奖项。

ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖


论文 1:Towards Streaming Image Understanding

  • 论文地址:https://arxiv.org/abs/2005.10420

  • 论文作者:Mengtian Li、Yu-Xiong Wang、Deva Ramanan(卡内基梅隆大学)


具身感知(embodied perception)指自动智能体感知环境以便做出反应的能力。智能体的响应度很大程度上取决于处理流程的延迟。之前的工作主要涉及延迟和准确率之间的算法权衡,但缺少一种明确的指标来对比不同方法的帕累托最优延迟 - 准确率曲线。这篇论文指出标准离线评估和实时应用之间的差异:算法处理完特定图像帧时,周围环境已经发生改变。该研究提出将延迟和准确率协调地集成到一个度量指标中,用于实时在线感知,这就是「流准确率」(streaming accuracy)。

此外,该研究基于此度量指标提出了一个元基准,它可以系统性地将任意图像理解任务转换成流图像理解任务。研究人员主要关注城市视频流中的目标检测和实例分割任务,并创建了具备高质量、时序稠密标注的新数据集。

该研究提出的解决方案及其实证分析结果显示:

  1. 在帕累托最优延迟 - 准确率曲线上,存在能够最大化流准确率的最优点;

  2. 异步跟踪和未来预测很自然地成为流图像理解的内部表征;

  3. 动态调度可用于克服时间混叠(temporal aliasing),得到一个吊诡的结果:什么都不做可能使延迟最小化。


论文 2:NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis

  • 论文地址:https://arxiv.org/abs/2003.08934

  • 论文作者:Ben Mildenhall(UC 伯克利)、Pratul P. Srinivasan(UC 伯克利)、Matthew Tancik(UC 伯克利)、Jonathan T. Barron(谷歌)、Ravi Ramamoorthi(加州大学圣地亚哥分校)、Ren Ng(UC 伯克利)


该研究提出了一种在合成复杂场景新视图任务中实现 SOTA 结果的新方法,该方法通过使用稀疏的输入视图集来优化基础的连续体场景函数。该算法使用全连接深度网络表示场景,其输入为单个连续 5D 坐标(空间位置 (x, y, z) 和视角方向 (θ, φ)),输出为体积密度和在此空间位置上的视图相关 emitted radiance。该研究通过查询沿着摄像头光线的 5D 坐标来合成视图,并使用经典的体渲染技术将输出颜色和密度投影到图像中。

由于体渲染本身是可微的,因此优化表征所需的唯一输入是一组具备已知摄像机位姿的图像。研究者介绍了如何高效优化神经辐射场(neural radiance field),渲染出逼真的具备复杂几何形状和外观的场景新视图,而且其在神经渲染和视图合成方面的效果优于之前的工作。

经典论文:Koenderink 奖

Koenderink 奖旨在表彰计算机视觉领域的基础性贡献研究,获奖论文均为发表时间超过十年并经受住时间检验的研究。

本届 ECCV 会议 Koenderink 奖颁发给了以下两篇论文:

ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖


论文 1:Improving the Fisher Kernel for Large-Scale Image Classification

  • 论文地址:https://lear.inrialpes.fr/pubs/2010/PSM10/PSM10_0766.pdf

  • 论文作者:Florent Perronnin、Jorge S´anchez、Thomas Mensink(施乐欧洲研究中心)


Fisher Kernel(FK)是一个结合了生成和判别方法优点的通用框架。在图像分类领域,FK 扩展了流行的视觉词袋(BOV)模型。然而,在实践中,这种丰富的表征尚未显现出相对 BOV 的优越性。

在论文的第一部分,研究者对原始框架进行了多项修改,使得 FK 准确率得到提升。在 PASCAL VOC 2007 数据集上的平均精度(AP)从 47.9% 提升到了 58.3%。改进后的框架在 CalTech 256 数据集上也展现出了 SOTA 准确率。其主要优势在于这些结果仅使用 SIFT 描述子和线性分类器获得。使用该表征后,FK 框架可用于探索更大规模的图像分类任务。

在论文的第二部分应用部分,研究者对比了在两个大规模标注图像数据集上的分类器训练情况:ImageNet 和 Flickr groups 数据集。在涉及数十万训练图像的评估中,研究者发现基于 Flickr groups 学得的分类器性能非常好,而且它们可以对在更精细标注数据集上学得的分类器进行补充。

论文 2:BRIEF: Binary Robust Independent Elementary Features

  • 论文地址:https://www.cs.ubc.ca/~lowe/525/papers/calonder_eccv10.pdf

  • 论文作者:Michael Calonder、Vincent Lepetit、Christoph Strecha、Pascal Fua(洛桑联邦理工学院)


这项研究提出将二进制字符串用作高效的特征点描述符,即 BRIEF。研究证明,即使在 bits 相对较少的情况下,BRIEF 依然呈现出高判别性,并且可以通过简单的强度差测试来计算。

此外,对描述符相似度的评估没有采用常见的 L_2 范数,而是使用了汉明距离(Hamming distance),后者计算起来非常高效。

因此,BRIEF 的构建和匹配速度非常快。该研究在标准基准上将 BRIEF 与 SURF 和 U-SURF 进行比较,结果表明 BRIEF 能够实现相当或更优的识别性能,同时运行时间只需其他二者的一部分。

PAMI Everingham 奖

该奖项旨在纪念 Mark Everingham,并鼓励其他人向他学习,推进整个计算机视觉社区进一步发展。PAMI Everingham 奖授予对计算机视觉社区做出无私贡献的研究者或研究团队,由 IEEE 计算机协会模式分析与机器智能(PAMI)技术委员会颁发。

今年的 PAMI Everingham 奖颁给了微软高级科学家 Johannes Schönberger,以及 MIT 教授 Antonio Torralba 及创建多个数据集的合作者。

ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖


Johannes Schönberger 现为微软混合现实与人工智能苏黎世实验室高级科学家,开发了 COLMAP SFM 和 MVS 软件库。

Johannes Schönberger 的获奖理由是:他的工作为 3D 图像重建提供了一个开源的端到端 pipeline 以及相关支持、开发和文档。目前这已成为运动恢复结构(SFM)和多视角立体视觉(Multi-view Stereo,MVS)的参考软件。

ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖


Antonio Torralba 现为 MIT 电气工程与计算机科学教授。在十多年的时间里,Antonio Torralba 与其他合作者定期发布新数据集以及创建这些数据集的方法。他们创建的 LabelMe、Tiny images、SUN/SUN-3D 和 MIT-Places 等数据集在计算机视觉领域有着极大的影响力。

Demo 奖

此外,大会公布了 Demo 奖。获奖论文是《Inter-Homines: Distance-Based Risk Estimation for Human Safety》。

ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖


该研究的 demo 如下:

ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖


另有两篇研究获得了 ECCV 2020 Demo 奖提名:

  • 论文 1:FingerTrack:Continous 3D Hand Pose Tracking

  • 论文 2:Object Detection Kit:Identifying Urban Issues in Real-time


ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖

<section style="white-space: normal;line-height: 1.75em;text-align: center;"><strong style="color: rgb(0, 0, 0);font-family: -apple-system-font, system-ui, "Helvetica Neue", "PingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.544px;widows: 1;background-color: rgb(255, 255, 255);max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;font-size: 16px;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;box-sizing: border-box !important;overflow-wrap: break-word !important;">—</span></strong>完<strong style="max-width: 100%;font-size: 16px;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;font-size: 16px;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;box-sizing: border-box !important;overflow-wrap: break-word !important;">—</span></strong></span></strong></span></strong></section><pre><pre style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="max-width: 100%;letter-spacing: 0.544px;white-space: normal;font-family: -apple-system-font, system-ui, "Helvetica Neue", "PingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;widows: 1;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section powered-by="xiumi.us" style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="margin-top: 15px;margin-bottom: 25px;max-width: 100%;opacity: 0.8;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="max-width: 100%;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section powered-by="xiumi.us" style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="margin-top: 15px;margin-bottom: 25px;max-width: 100%;opacity: 0.8;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section><section style="margin-bottom: 15px;padding-right: 0em;padding-left: 0em;max-width: 100%;color: rgb(127, 127, 127);font-size: 12px;font-family: sans-serif;line-height: 25.5938px;letter-spacing: 3px;text-align: center;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;color: rgb(0, 0, 0);box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;font-size: 16px;font-family: 微软雅黑;caret-color: red;box-sizing: border-box !important;overflow-wrap: break-word !important;">为您推荐</span></strong></span></section><section style="margin-top: 5px;margin-bottom: 5px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;text-align: center;box-sizing: border-box !important;overflow-wrap: break-word !important;">图灵奖得主Yann LeCun《深度学习》春季课程</section><section style="margin-top: 5px;margin-bottom: 5px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;text-align: center;box-sizing: border-box !important;overflow-wrap: break-word !important;">你一定从未看过如此通俗易懂的YOLO系列解读 (下)</section><section style="margin-top: 5px;margin-bottom: 5px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;text-align: center;color: rgb(0, 0, 0);box-sizing: border-box !important;overflow-wrap: break-word !important;">22课时、19大主题,CS 231n进阶版课程视频上线<br  /></section><section style="margin-top: 5px;margin-bottom: 5px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;text-align: center;color: rgb(0, 0, 0);box-sizing: border-box !important;overflow-wrap: break-word !important;">数据分析入门常用的23个牛逼Pandas代码</section><section style="margin-top: 5px;margin-bottom: 5px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;text-align: center;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="color: rgb(87, 107, 149);font-size: 14px;">如何在科研论文中画出漂亮的插图?</span><br  /></section></section></section></section></section></section></section></section></section>
ECCV 2020奖项全公布,ImageNet一作、李飞飞高徒邓嘉获最佳论文奖

本篇文章来源于: 深度学习这件小事

本文为原创文章,版权归所有,欢迎分享本文,转载请保留出处!

知行编程网
知行编程网 关注:1    粉丝:1
这个人很懒,什么都没写

发表评论

表情 格式 链接 私密 签到
扫一扫二维码分享