CVPR 19 Oral评审排名Top5:AI的视觉更逼近人类了!

作者:admin发布时间: 2019-03-08浏览次数:

当我们看上面GIF图时,我们一开真个注意力会集中在老师的身上;而当他拿起书时,咱们的注意力又会集中在书本身上。

DAVSOD数据集:与人类留心力相一致、稠密标注的数据集

利用已建立的数据集跟之前7个VSOD数据集,对17种最提高的模型进行了全面评估,使其成为最完整的VSOD评测(耗时8000余小时);

来自南开大学打算机学院的程明明教养团队(论文一作:范登平博士)、起源人工智能研讨院IIAI(Inception Institute of Artificial Intelligence)王文冠Research Scientist以及北京理工大学沈建冰传授,针对此问题提出了“聚焦视频显著性物体检测”的解决打算:首次清楚强调了视频中的显著对象可能会动态转变。

作者:范登平

团队为了让AI的注意力转移机制更加逼真,主要做了如下工作:

图1DAVSOD数据集的标注示例。所包含的丰富标注,如明显性转移,对象/实例-级VSOD用户标注,显著对象的数目,场景/对象类别以及相机/对象运动模式,这为VSOD任务供应了坚实的基本并使得各种潜在应用收益。

【新智元导读】AI的视觉系统不能完全模拟人类的“注意力转移”机制。但近期,由南开大学程明明团队(论文一作:范登平)研究的数据集跟模型,使得AI的视觉离人类更近了一步!该论文已被CVPR 2019收录为Oral,在5165篇论文中评审排名Top5(所有评测结果和代码即将公布)。

这样的一个“注意力转移”机制,对人类视觉体系来说当然是小菜一碟。而对AI,却并不那么容易。

对人类来说,咱们肉眼在看事物的时候,留神力会随着事物的变革而发生改变。例如:

新智元专栏

构建了一个和人类视觉注意力相一致的、浓密标注的DAVSOD数据集,有226个视频、2.4万帧,涵盖了不同的实在场景、对象、实例和动作;

工作成果链接(论文目前未颁布):

AI的视觉离人类更近了!

DAVSOD数据集专门为VSOD义务设计的。

该论文已被CVPR 2019收录为Oral,根据论文评分概率,在5165篇论文中评审排名约为Top5。

提出了一个面向显著性转移的VSOD基础模型,可通过学习人类注意力转移举动来有效地捕获视频动态显明性。该模型已经近乎濒临实时的成果,首次让视频显著性应用到切实场景中成为可能。