(Urban 3D segmentation and modelling from street view images and LiDAR point clouds)
带有语义标签和度量信息的3D城市地图不仅是自动驾驶汽车和城市无人机的关键支撑,而且还有助于局部环境在移动用户应用中可视化。机器视觉挑战是用最少的手工注释从现有数据中生成准确的城市地图。针对这项工作,本文提出了一种新的方法,该方法采用GPS注册的激光雷达(光检测和测距)点云和街景图像作为输入,并结合点云和光度学特征使用基于规则的分析和基于学习的标记混合创建三维点云的语义标签。基于规则的分析可以提高对75%的点云数据简单化和对大型结构(如街道表面和建筑立面)的分割。对于更复杂的结构,例如汽车、树木和行人,本文利用结构(LiDAR)和光度(街景)特征的推动决策树来创建。本文还提供了三维可视化方法的定性示例,从标注数据和二维图像分割中构建参数化图形模型,其中三维标签反投影到街景图像。在定量评估中,本文给出了该方法的分类准确性和计算时间,并将结果与当前三种常用数据库的竞争 方 法(NAVTEQ True、Paris-Rue-Madame和地面激光扫描Velodyne)进行比较。
本文所提出的方法可以在商用台式机硬件上运行不到一个小时的时间就可以处理8000万个三维点(2.4公里街道距离)。首先使用基于规则的探测器来测量超过75%城市点云的道路表面和建筑立面。这些规则基于强大的自适应处理(例如,以一个特定城市的平均建筑高度)为基础,设置具有明确物理意义的阈值。然后,剩余的点云由构建vox-els(点群)的方法进行处理,最后将超体素通过增强决策树的集合进行分类。体素构建、超体素构建和提取的特征也是基于具有明确物理意义的阈值。实验验证了所提出方法相比其他现有的方法表现良好。今后的研究工作将增加其他三维地图数据的方法适应性。