展会信息港展会大全

谷歌AI最新3D数据集,1.5万动图、400万图像,让AR主宰你的生活
来源:互联网   发布日期:2020-11-13 12:42:59   浏览:6956次  

导读:萧箫 发自 凹非寺 量子位 报道 | 公众号 QbitAI 见过3D物体数据集,见过会动的3D物体数据集吗? 每段动态视频都以目标为中心拍摄,不仅自带标注整体的边界框,每个视频还附带相机位姿和稀疏点云。 这是谷歌的开源3D物体数据集Objectron,包含15000份短视频样...

萧箫 发自 凹非寺

量子位 报道 | 公众号 QbitAI

见过3D物体数据集,见过会动的3D物体数据集吗?

谷歌AI最新3D数据集,1.5万动图、400万图像,让AR主宰你的生活

每段动态视频都以目标为中心拍摄,不仅自带标注整体的边界框,每个视频还附带相机位姿和稀疏点云。

这是谷歌的开源3D物体数据集Objectron,包含15000份短视频样本,以及从五个大洲、十个国家里收集来的400多万张带注释的图像。

谷歌认为,3D目标理解领域,缺少像2D中的ImageNet这样的大型数据集,而Objectron数据集能在一定程度上解决这个问题。

数据集一经推出,1.6k网友点赞。

谷歌AI最新3D数据集,1.5万动图、400万图像,让AR主宰你的生活

有网友调侃,谷歌恰好在自己想“谷歌”这类数据集的时候,把它发了出来。

也有团队前成员表示,很高兴看到这样的数据集和模型,给AR带来进步的可能。

谷歌AI最新3D数据集,1.5万动图、400万图像,让AR主宰你的生活

除此之外,谷歌还公布了用Objectron数据集训练的针对鞋子、椅子、杯子和相机4种类别的3D目标检测模型。

来看看这个数据集包含什么,以及谷歌提供的3D目标检测方案吧~(项目地址见文末)

9类物体,对AR挺友好

目前,这个数据集中包含的3D物体样本,包括自行车,书籍,瓶子,照相机,麦片盒子,椅子,杯子,笔记本电脑和鞋子。

谷歌AI最新3D数据集,1.5万动图、400万图像,让AR主宰你的生活

当然,这个数据集,绝不仅仅只是一些以物体为中心拍摄的视频和图像,它具有如下特性:

注释标签(3D目标立体边界框)

用于AR数据的数据(相机位姿、稀疏点云、二维表面)

数据预处理(图像格式为tf.example,视频格式为SequenceExample)

支持通过脚本运行3D IoU指标的评估

支持通过脚本实现Tensorflow、PyTorch、JAX的数据加载及可视化,包含“Hello World”样例

支持Apache Beam,用于处理谷歌云(Google Cloud)基础架构上的数据集

所有可用样本的索引,包括训练/测试部分,便于下载

图像部分的画风,基本是这样的,也标注得非常详细:

谷歌AI最新3D数据集,1.5万动图、400万图像,让AR主宰你的生活

而在视频中,不仅有从各个角度拍摄的,也有不同数量的视频类型。

谷歌AI最新3D数据集,1.5万动图、400万图像,让AR主宰你的生活

谷歌希望通过发布这个数据集,让研究界能够进一步突破3D目标理解领域,以及相关的如无监督学习等方向的研究应用。

怎么用?谷歌“以身示范”

拿到数据集的第一刻,并不知道它是否好用,而且总感觉有点无从下手?

别担心,这个数据集的训练效果,谷歌已经替我们试过了。

看起来还不错:

谷歌AI最新3D数据集,1.5万动图、400万图像,让AR主宰你的生活

此外,谷歌将训练好的3D目标检测模型,也一并给了出来。(传送见文末)

算法主要包括两部分,第一部分是Tensorflow的2D目标检测模型,用来“发现物体的位置”;

第二部分则进行图像裁剪,来估计3D物体的边界框(同时计算目标下一帧的2D裁剪,因此不需要运行每个帧),整体结构如下图:

谷歌AI最新3D数据集,1.5万动图、400万图像,让AR主宰你的生活

在模型的评估上,谷歌采用了Sutherland-Hodgman多边形裁剪算法,来计算两个立体边界框的交点,并计算出两个立方体的相交体积,最终计算出3D目标检测模型的IoU。

简单来说,两个立方体重叠体积越大,3D目标检测模型效果就越好。

谷歌AI最新3D数据集,1.5万动图、400万图像,让AR主宰你的生活

这个模型是谷歌推出的MediaPipe中的一个部分,后者是一个开源的跨平台框架,用于构建pipeline,以处理不同形式的感知数据。

它推出的MediaPipe Objectron实时3D目标检测模型,用移动设备(手机)就能进行目标实时检测。

看,(他们玩得多欢快)实时目标检测的效果还不错:

谷歌AI最新3D数据集,1.5万动图、400万图像,让AR主宰你的生活

其他部分3D数据集

除了谷歌推出的数据集以外,此前视觉3D目标领域,也有许多类型不同的数据集,每个数据集都有自己的特点。

例如斯坦福大学等提出的ScanNetV2,是个室内场景数据集,而ScanNet则是个RGB-D视频数据集,一共有21个目标类,一共1513个采集场景数据,可做语义分割和目标检测任务。

谷歌AI最新3D数据集,1.5万动图、400万图像,让AR主宰你的生活

而目前在自动驾驶领域非常热门的KITTI数据集,也是一个3D数据集,是目前最大的自动驾驶场景下计算机视觉的算法评测数据集,包含市区、乡村和高速公路等场景采集的真实图像数据。

谷歌AI最新3D数据集,1.5万动图、400万图像,让AR主宰你的生活

此外,还有Waymo、SemanticKITTI、H3D等等数据集,也都用在不同的场景中。(例如SemanticKITTI,通常被专门用于自动驾驶的3D语义分割)

谷歌AI最新3D数据集,1.5万动图、400万图像,让AR主宰你的生活

无论是视频还是图像,这些数据集的单个样本基本包含多个目标,使用场景上也与谷歌的Objectron有所不同。


赞助本站

AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港