基于通道注意力机制的室内场景深度图补全

2023-08-30 22:09任瀚实周志宇孙树森
浙江理工大学学报 2023年5期
关键词:注意力机制深度图深度学习

任瀚实 周志宇 孙树森

摘 要: 在深度相机获取的室内场景深度图中,部分像素点缺失深度信息;为补全深度信息,设计了端对端的场景深度图补全网络,在此基础上提出了一种基于通道注意力机制的室内场景深度图补全方法。该方法将场景彩色图与缺失部分深度信息的场景深度图作为场景深度图补全网络的输入,首先提取场景彩色图和深度图的联合特征,并根据通道注意力机制将提取到的联合特征进行解码,得到初始预测深度图;然后借助非局部区域上的传播算法逐步优化场景深度的预测信息,得到完整的场景深度图;最后在Matterport3D等数据集上进行实验,并将该方法与典型方法进行比较分析。实验结果表明,该方法融合了场景彩色图和深度图特征信息,通过注意力机制提高了深度图补全网络的性能,有效补全了深度相机拍摄室内场景时缺失的深度信息。

关键词:深度图;深度补全;深度学习;注意力机制;室内场景

中图分类号:TP391.41;TP183

文献标志码:A

文章编号:1673-3851 (2023) 05-0344-09

引文格式:任瀚实,周志宇,孙树森. 基于通道注意力机制的室内场景深度图补全[J]. 浙江理工大学学报(自然科学),2023,49(3):344-352.

Reference Format: REN  Hanshi,ZHOU  Zhiyu,SUN Shusen. Depth map completion for indoor scenes based on the channel attention mechanism[J]. Journal of Zhejiang Sci-Tech University,2023,49(3):344-352.

Depth map completion for indoor scenes based on the channel attention mechanism

REN Hanshia, ZHOU Zhiyua, SUN Shusenb

(a.School of Information Science and Technology; b.School of Computer Science and Technology, Zhejiang Sci-Tech University, Hangzhou 310018, China)

Abstract: When the depth camera scans the indoor scene, the depth information of some pixels is missing. To solve this problem, we proposed a depth map completion method for indoor scenes based on a channel attention mechanism and an end-to-end scene depth map completion network. With the scene color map and incomplete scene depth map as input, the network first extracted the scene color map features and depth map features, and decoded the extracted combined features based on the channel attention mechanism to obtain the initially predicted depth map. Then the predicted scene depth information was gradually optimized with the help of non-local spatial propagation algorithm to finally obtain the complete scene depth map. Finally, the proposed method was compared with typical methods using datasets such as Matterport3D. Experimental results show that this method, integrating the feature information of the scene color map and the depth map, improves the performance of depth map completion network through the attention mechanism, and effectively complements the lack of depth information when shooting indoor scenes by depth camera.

Key words:depth image; depth completion; deep learning; attention mechanism; indoor scene

0 引 言

目前,場景深度图在自动驾驶[1、场景重建2以及增强现实3等领域有着广泛应用。虽然深度传感器技术已经有了很大发展,但Microsoft Kinect、Intel Real Sense、Google Tango等商品级RGB-D相机,在拍摄场景过亮、物体表面过于光滑、相机与物体之间距离过远或过近等情况下采集到的深度图像会缺失部分像素点的深度数据。深度数据缺失会对自动驾驶、三维重建、目标检测等计算机视觉任务造成不利影响,因此深度图补全研究非常必要。

本文研究商品级相机拍摄的室内场景RGB-D图像深度数据补全的问题。深度图补全任务可以归结为一个密集标记问题,因此针对密集标记问题的方法也可以用于深度图补全任务[4。带有跳跃连接的编码器-解码器结构[4已广泛用于解决语义分割等密集标记问题。例如,Senushkin等[4提出了一种网络,该网络由编码器-解码器和一个轻量级细化网络组成,在Matterport3D数据集上取得了最佳效果。此外,解决深度图补全任务的另一种思路是利用传播算法,通过观测到的深度数据补全深度图。例如,Park等[5提出了一种网络,采用传播算法,利用非局部区域内相关性较强的像素的深度数据来补全深度图,有效避免了局部区域中无关像素的影响。

单目图像的深度估计是计算机视觉领域中一个重要问题。早期的深度估计方法主要通过人工调整模型、表面和法线[6-7、单目纹理图或失焦特性8等实现;最近的研究主要结合多尺度信息来预测像素级深度9-10,这可以通过多种方式实现,如融合网络架构中不同层对应的特征映射再使用降维回归。上述方法只适用于估计商品RGB-D相机所拍摄的深度图,但不适用于商品级相机拍摄的室内场景RGB-D图像深度图补全的问题。由于这些RGB-D图像通常缺失部分深度信息,仅在原始深度上训练不能很好地补全缺失的深度图,所以本文采用融合彩色图和深度图的方法来提升深度图补全任务效果。

早期的深度图补全任务一般通过基于压缩感知或滤波器的方法实现。Uhrig等[11提出了一种基于卷积神经网络的深度图补全方法,通过彩色图像引导对基于卷积神经网络的深度图补全方法进行了改进。Chen等[12提出了一种基于连续卷积的2D-3D融合网络结构。Li等[13采用多尺度级联沙漏结构进行深度图补全。郑柏伦等14使用三分支的多尺度特征融合网络融合彩色图像特征和深度图像特征,进行深度图补全。除了利用彩色图像引导,最近提出的一些方法还使用表面法线和物体边界信息来辅助解决深度图补全任务15-16。以上相关算法都属于监督学习,此外处理深度图补全任务也可以使用自监督算法或无监督算法17-18。上述大部分工作都是基于室外場景的稀疏深度的Lidar数据,并在KITTI数据集上验证;另一部分工作针对的是Kinect传感器获取的半密集深度数据。最近,Zhang等[19引入了用于室内深度图补全任务的大型RGB-D数据集Matterport3D,使用预先训练好的神经网络进行法线估计以及边界检测,再对得到的法向量和边界进行全局优化。虽然该方法在Matterport3D数据集上取得良好效果,但其网络的复杂性限制了该方法的实际应用。Huang等[20提出的方法在Matterport3D数据集上首次超过原始结果。与Zhang等[19的研究相似,他们提出的方法也涉及复杂的图像预处理并通过多阶段处理实现;虽然它不依赖于预先训练的骨干网络,但使用了在外部数据上训练过的深度神经网络。Senushki等[4提出的编解码网络训练的模型在Matterport3D数据集上表现最佳。该模型仅需要输入室内场景彩色图和不完整的深度图,而不需要法线信息和边界等附加信息,通过编码器进行特征提取后即可利用轻量级的细化网络完成深度图补全任务。

直接进行深度图补全的算法已经具有良好表现;使用彩色图引导稀疏深度图进行传播,并通过稀疏的深度图获得深度信息预测,是另一种完成深度图补全任务的有效途径。空间传播算法从大规模数据中学习特定的亲和力,可应用于包括深度图补全和语义分割在内的计算机视觉任务。最初的空间传播算法通过线性相关的传播模型设计,只针对某像素与其在某个方向上(上、下、左、右)邻近的3个像素,没有考虑与该像素相关的所有像素。Cheng等[21提出的卷积空间传播网络(Convolutional spatial propagation network,CSPN)克服了这一局限。CSPN可以预测局部区域内相邻点的相关性,同时更新所有像素的局部上下文信息以提高效率。然而CSPN依赖于固定区域内的相邻像素之间的关系,这些固定区域内的相邻像素本身可能来自不同的物体。因此这样的传播方式会因不相关像素导致深度值混合,也限制了图像中上下文相关信息(即非局部上下文信息)的应用。最近,已有一些研究对非局部上下文信息的应用进行了探索[22-24。Wang等[25提出了一种带有非局部块的深度神经网络;非局部块由两两像素间的亲和力计算模块和特征处理模块组成,通过将非局部块嵌入已有的深度网络进行视频分类和图像识别任务。Park等[5在此基础上提出了一种非局部区域空间传播网络(Non-local spatial propagation network,NLSPN),进一步优化了深度图补全网络。NLSPN计算每个像素的非局部区域内像素间的亲和力,通过深度神经网络得到初始深度图以及置信度图;结合像素间的亲和力关系和置信度,在预测的非局部区域中对初始预测深度图进行迭代传播精化。该网络有效避免了固定区域内不相关像素在传播过程中可能造成的混合深度问题,但在深度边界处的混合深度问题仍未能完全解决。

针对深度相机获取的室内场景深度图,为补全部分像素点缺失的深度信息,本文提出了一种深度图补全方法,设计了一种基于通道注意力(Efficient channel attention,ECA)机制的融合彩色图与深度图特征的深度图补全网络。该补全网络采用编解码器结构,编码器由多个卷积层和通道注意力机制模块组成,对深度图及其对应的彩色图进行多尺度特征提取,在此基础上通过传播算法得到深度补全图像。本文提出的深度图补全网络融合了彩色图与深度图的特征,并且不需要预先提取法线、边界检测等额外信息,降低了网络的结构复杂性,在Matterport3D和NYUv2数据集上取得了较好效果。

1 方法设计

本文提出的深度图补全方法可分为两步:第一步,使用编解码结构获得初始深度预测图,通过编码器学习室内场景彩色图中大量的特征信息,并与室内场景深度图的特征进行融合,以获取丰富图像特征;通过解码器使用多个反卷积操作实现初步补全。第二步,在非局部区域上使用传播算法,细化上一步得到的深度预测图。

1.1 深度图补全网络

本文提出的深度图补全网络采用端对端的卷积神经网络,结合了通道注意力机制和空间传播算法。采用通道注意力机制可以使深度神经网络更加关注关键信息。在提取特征图时融合了彩色图以及深度图信息,能有效地获得信息丰富的特征图,加强彩色图在补全分支上的引导作用。特征图提取采用基于ResNet的深度卷积神经网络,并加入了通道注意力机制模块,以获得不同大小的特征图;在特征图逐步变小的同时增加了特征图的数量,保证了网络结构的有效性。

本文设计的网络结构如图1所示。该络采用编码器-解码器结构,包含两部分:彩色图-深度图特征提取模块和深度图补全模块。彩色图-深度图特征提取模块通过多个卷积层和通道注意力机制模块实现对彩色图和深度图融合特征提取,以获取丰富的特征图关键信息,从而为深度图补全模块作准备。在深度图和彩色图特征提取阶段,先对彩色图和深度图分别通过Conv1进行一次卷积,将二者结果融合,再使用两个通道注意力模块。深度图补全模块采用4个反卷积层,然后分成3个分支,得到初始深度预测图Dinit、亲和矩阵W以及非局部区域NNLm,n。通过非局部区域传播算法,最终得到深度预测图Dfinal_pred,即:

其中:fNLSPN()表示初始深度预测图Dinit和最终补全的深度图像Dfinal_pred之间根据非局部区域NNLm,n和亲和矩阵W传播的映射函数。

通过彩色图-深度图特征提取模块对深度图和其对应的彩色图进行特征提取。本文直接將未经处理的深度图和彩色图作为网络的输入。先分别使用一个3×3的卷积层得到一个32通道的彩色图特征图Fc和一个16通道的深度图特征图Fd,将二者结合为一个48通道的特征图F2,再经过多个3×3的卷积层进行多尺度提取,对其中第一步和最后一步得到的特征图Fi,即F2、F4使用通道注意力模块[26,即:

其中:Icolor表示场景彩色图;Ddepth为场景深度图;σ表示激活函数Relu;*表示卷积操作,W表示卷积的权重;b1、b2均为偏置向量;Fc和Fd分别为经过1层卷积后得到的彩色特征图和深度特征图,fECA()表示通道注意力机制。其中,通道注意力机制模块没有过分增加模型的复杂度,但可以显著提升补全效果。通道注意力机制的作用原理见1.2节。

在进行深度图补全时,使用4个卷积核为3×3,步长为2的反卷积层进行解码。分3个分支得到初始深度预测图Dinit、亲和矩阵W以及非局部区域NNLm,n,使用初始深度预测图Dinit利用非局部区域传播算法对相关区域NNLm,n中的像素点进行传播赋值,其中相关区域NNLm,n表示为:

传播算法能使场景内物体前景与背景有效分开,有利于深度图像信息的补全。非局部区域传播算法的实现过程见1.3节。

1.2 通道注意力机制模块

为了获得具有更多有效信息的深度特征图,将彩色图-深度图特征提取模块得到的多个特征图输入通道注意力机制模块,对第一步提取特征得到的特征图和最后一个卷积提取特征得到的特征图输入通道注意力机制模块,深度图像补全的效果可以得到显著提升。通道注意力机制模块示意图如图2所示。本文在编码器融合彩色图和深度图之后,对其进行多次卷积操作,获得特征图Fi,并对得到的特征图Fi先使用全局平均池化层,再利用自适应的卷积核为k的1维卷积,以捕捉各个通道之间的交互关系,最后得到Fi,ECA。通道注意力机制模块可以在不做降维操作的情况下,以较小的参数量来提升卷积神经网络的性能。

通道注意力机制模块的输入为卷积模块提取出的特征图Fi,经过操作得到包含更多有效信息的特征图Fi,ECA

本文使用矩阵Wk来学习通道注意力,

其中:w是可学习的参数。对于每个通道yi本文只计算它与其相邻的k个通道之间的关系,yi的权重ωi表示为:

其中:Ωki表示与yi相邻的一组通道,yji表示第j个与yi相邻的通道。

以上权重计算方式可以通过1维卷积来实现,即:

其中:Conv1Dk( )表示卷积核为k的1维卷积。使用1维卷积时,通道维度C与卷积核k之间存在一个线性映射关系,C=r×k-b;为了减小线性函数作为特征关系式所带来的局限性,而且一般通道维度C通常为2的幂次方,因此本文将线性函数φ(k)=r×k-b扩展为非线性函数,即:

C=φ(k)=2(r×k-b)

所以,根据给定的特征图通道数C,k可以表示为:

其中:|x|odd表示最接近x的奇数。本文使用r=2、b=1时的通道注意力机制模块;当输入的特征为F2时,此时自适应的一维卷积核大小为3,如图2所示。

1.3 非局部区域传播算法

为了进一步细化初步得到的补全深度图,本文对初步获得的深度图使用非局部区域传播算法进行细化处理。传播算法的原理是用具有相似性的相邻观测像素来估计其他深度值缺失的像素,并细化可信度较低区域的深度值。空间传播算法已经被用于各种计算机视觉应用中的关键模块,在深度图补全任务中优势更为明显,比直接回归算法更优越[8,25。空间传播算法和卷积空间传播算法可以把可信度高的区域信息通过数据间的亲和度依赖有效传播到可信度较低的区域。但是这两种算法会受到局部区域的限制,局部区域像素的深度分布不均,可能导致前景和背景的深度值混合。所以,本文采用非局部区域传播算法6改善前背景处深度值混合的问题。

本文定义非局部区域如式(2)所示,其中:I和D分别为彩色图像和深度图像,fφ()表示非局部区域预测网络,p、q为实数(可以为分数)。在此区域中,使用亲和力和置信度的联合学习,增强相关像素的影响,同时抑制不相关像素的影响。fφ()网络采用可形变卷积27实现。

NLSPN模块的输入为初始预测图Dinit、像素间的亲和矩阵和原始深度图的置信度图。置信度图含有原始深度图中每个像素的置信度,每个像素的置信度取值范围为[0,1]。本文将置信度和亲和矩阵相结合,进行归一化得到亲和矩阵W,即:

其中:ci,j表示在(i,j)处像素的置信度,取值范围为[0,1];w^i,jm,n表示位于(i,j)处像素未经归一化的初始亲和度;γ表示可学习的归一化参数,γmin和γmax是根据经验设置的最小值和最大值;tanh函数的使用能够减少归一化过程中的偏差。

因此,最后输出结果为:

Dfinal_pred=fNLSPNDinit,W,NNLm,n

1.4 损失函数

总损失可以写为:

其中:D(v)表示最终补全得到的深度图中像素v处的深度值;Dgt(v)表示场景真实深度图中像素v处深度值;Dinit(v)表示初始深度预测图中像素v处深度值;V表示场景真实深度图中有效像素;|V|表示有效像素的数量。

本文在总损失中加入了Lssim损失,以获得更高质量、结构更完整深度图补全图。Lssim为结构相似性(Structural similarity,SSIM)损失[21,根據结构信息的退化程度来衡量补全质量。Lssim越小,补全后深度图的结构与场景真实深度图结构越相似。

2 结果与讨论

本文提出的深度图补全网络使用Pytorch框架搭建训练模型,GPU使用NVIDIA GeForce RTX 3060,内存为12 GiB。训练数据集使用Matterport3D数据集[19和NYUv2数据集。在Matterport3D数据集上只有极少方法能取得较优的深度图补全效果,NYUv2数据集是深度图像补全任务的常用数据集。

Matterport3D数据集[19由真实的传感器数据以及从官方重构网格获取到的真实深度数据组成。本文的训练集使用其中一个子集,约2358张图像,对图像做预处理,将其缩小至320×240。本文训练模型时使用50个Epoch,使用另一子集约864张图像作为测试集,并与典型算法进行比较分析。NYUv2数据集由Kinect传感器捕获的464个室内场景的彩色图和深度图像组成。对于训练数据,本文使用了官方训练分割的一个约50 kib的图像子集,每张图像缩小到320×240,然后使用304×228中心裁剪。与文献[5, 20]类似,本文从密集深度图像中随机采样500个深度像素,并将其与对应的彩色图像联合作为网络输入。训练模型时同样使用50个Epoch,使用官方分割出的654张图像测试集进行评估和可视化比较。

2.1 评估指标

本文的室内场景补全任务的验证方式与文献[4-5, 19-20]类似。本文采用均方根误差、平均绝对误差以及精确度对本文的网络进行评估,这些指标在室内场景深度图补全任务的评估中被广泛认可。均方根误差和平均绝对误差直接测量绝对深度精度。均方根误差对异常深度值更为敏感,所以均方根误差通常被视作模型评估的主要指标。另外,精确度δt表示相对误差小于阈值t的预测像素所占的百分比。δt也可以被理解为深度图补全任务的精度,精度越高说明最终预测的深度图与场景真实深度值越接近,补全效果就越好。本文计算了t取1.25、1.252、1.253时的δt值。

均方根误差ERMS的计算公式为:

平均绝对误差EMA的计算公式为:

δt的计算公式为:

其中:t∈{1.25,1.252,1.253},v∈V。

2.2 实验结果对比分析

为了验证本文提出的深度图像补全网络的性能,选取Zhang等[19、Huang等[20、Senushkin等[4、Park等[5等4种较为典型的方法进行实验对比。Zhang等[19首次使用深度神经网络用于深度图补全任务,并制作了Matterport3D数据集。Huang等[20在Zhang[19基础上在深度网络中加入了自注意力机制,实现在Matterport3D数据集上更优的补全深度图。而Senushkin等[4提出的方法训练出的DmLrn模型在Matterport3D数据集上取得最佳表现,Park等[5提出的方法则在NYUv2数据集上取得最佳表现。本文采用均方根误差、平均绝对误差以及精确度作为深度图补全网络性能指标,误差越小、精度越高说明补全效果越好。

由表1和表2给出的深度圖补全误差统计数据可知,DmLrn[4和本文方法均能够在不使用法线、物体边缘预测的情况下取得了较优结果。与Zhang等[19、Huang等[20、Senushkin等[4方法相比,本文方法具有更好的补全结果。在Matterport3D数据集上,本文网络均方根误差为0.309,较该数据集上最优模型DmLrn[4相比降低了0.652,准确度在阈值为1.25时精度提升11%,在阈值为1.252时精度提升6.9%,在阈值为1.253时精度提升2.5%;在NYUv2数据集上,本文提出的方法与该数据集上的最优模型指标上基本相同。本文方法在编码器的特征提取阶段加入了通道注意力机制模块,在网络训练过程中充分学到了场景的上下文信息,从而提升深度图补全网络的性能。本文方法在Matterport3D数据集上取得了更优性能,表明本文方法在前、背景相差较大的大规模室内场景深度图补全方面有较大优势。

图3为本文方法与Senushkin等[4、Huang等[20方法在Matterport3D数据集上的深度图补全效果。从图3可以看出,本文方法能在保证图像结构信息的基础上达到更优精度,DmLrn[4在边缘处明显出现深度值混合的现象。本文的方法能够很好地将前景和背景分开,使得补全后的物体边缘更为清晰。图4为本文方法与Park等[5、Senushkin等[4方法在NYUv2数据集上的深度图补全效果。从图4可以看出,本文方法物体边缘以及总体补全效果均表现良好,补全后的深度图像具有清晰的边界。综上所述,本文提出的深度图补全网络在不同数据集上均取得较好效果。

3 结 语

本文提出了一种基于注意力机制的场景深度图补全的方法。在场景彩色图像引导下,编码器融合场景彩色图和深度图特征信息,在特征提取过程中使用注意力机制使网络更加关注补全任务所需要的区域,在深度图像补全任务中取得更高的准确度。实验表明,该方法可以较好地补全室内场景深度图中的缺失信息。

为了进一步改善深度图像补全的质量,后续研究可考虑将场景彩色图中的几何结构信息融入场景深度图补全网络,以提升补全后深度图像的边缘准确度。

参考文献:

[1]Fu C, Mertz C, Dolan J M. LIDAR and monocular camera fusion: On-road depth completion for autonomous driving[C]//2019 IEEE Intelligent Transportation Systems Conference (ITSC). Auckland, New Zealand. IEEE, 2019: 273-278.

[2]梅峰,刘京,李淳秡,等.基于RGB-D深度相机的室内场景重建[J].中国图象图形学报,2015,20(10):1366-1373.

[3]Ping J M, Thomas B H, Baumeister J, et al. Effects of shading model and opacity on depth perception in optical see-through augmented reality[J]. Journal of the Society for Information Display, 2020, 28(11): 892-904.

[4]Senushkin D, Romanov M, Belikov I, et al. Decoder modulation for indoor depth completion[C]//2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). New York: ACM, 2021: 2181-2188.

[5]Park J, Joo K, Hu Z, et al. Non-local spatial propagation network for depth completion[C]//16th European Conference on Computer Vision-ECCV 2020. Glasgow, UK. Cham: Springer, 2020: 120-136.

[6]沙浩,刘越,王涌天, 等.基于二维图像和三维几何约束神经网络的单目室内深度估计方法[J].光学学报,2022,42(19):47-57.

[7]江俊君,李震宇,刘贤明.基于深度学习的单目深度估计方法综述[J].计算机学报,2022,45(6):1276-1307.

[8]周萌,黄章进.基于失焦模糊特性的焦点堆栈深度估计方法[J/OL].计算机应用.(2023-02-17)[2023-03-03].http://kns.cnki.net/kcms/detail/51.1307.TP.20230217.1018.004.html.

[9]Xu D, Wang W, Tang H, et al. Structured attention guided convolutional neural fields for monocular depth estimation[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. June 18-23, 2018, Salt Lake City, UT, USA. IEEE, 2018: 3917-3925.

[10]白宇,梁曉玉,安胜彪.深度学习的2D-3D融合深度补全综述[J/OL].计算机工程与应用. (2023-03-01)[2023-03-03]. http://kns.cnki.net/kcms/detail/11.2127.TP.20230228.1040.006.html.

[11]Uhrig J, Schneider N, Schneider L, et al. Sparsity invariant CNNs[C]//2017 International Conference on 3D Vision (3DV). October 10-12, 2017, Qingdao, China. IEEE, 2018: 11-20.

[12]Chen Y, Yang B, Liang M, et al. Learning joint 2D-3D representations for depth completion[C]// 2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul, Korea (South). IEEE, 2019: 10022-10031.

[13]Li A, Yuan Z J, Ling Y G, et al. A multi-scale guided cascade hourglass network for depth completion[C]//2020 IEEE Winter Conference on Applications of Computer Vision (WACV). March 1-5, 2020, Snowmass, CO, USA. IEEE, 2020: 32-40.

[14]郑柏伦,冼楚华,张东九.融合RGB图像特征的多尺度深度图像补全方法[J]. 计算机辅助设计与图形学学报, 2021, 33(9): 1407-1417.

[15]Qiu J X, Cui Z P, Zhang Y D, et al. DeepLiDAR: deep surface normal guided depth prediction for outdoor scene from sparse LiDAR data and single color image[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). June 15-20, 2019, Long Beach, CA, USA. IEEE, 2020: 3308-3317.

[16]Xu Y, Zhu X G, Shi J P, et al. Depth completion from sparse LiDAR data with depth-normal constraints[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul, Korea (South). IEEE, 2020: 2811-2820.

[17]Song Z B, Lu J F, Yao Y Z, et al. Self-supervised depth completion from direct visual-LiDAR odometry in autonomous driving[J]. IEEE Transactions on Intelligent Transportation Systems, 2022, 23(8): 11654-11665.

[18]Choi J, Jung D, Lee Y H, et al. SelfDeco: self-supervised monocular depth completion in challenging indoor environments[C]//2021 IEEE International Conference on Robotics and Automation (ICRA). Xi'an, China. IEEE, 2021: 467-474.

[19]Zhang Y, Funkhouser T. Deep depth completion of a single RGB-D image[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. IEEE, 2018: 175-185.

[20]Huang Y K, Wu T H, Liu Y C, et al. Indoor depth completion with boundary consistency and self-attention[C]//2019 IEEE/CVF International Conference on Computer Vision Workshop (ICCVW). Seoul, Korea (South). IEEE, 2020: 1070-1078.

[21]Cheng X J, Wang P, Yang R G. Depth estimation via affinity learned with convolutional spatial propagation network[C]//15th European Conference on Computer Vision-ECCV 2020. Munich, Germany. Cham: Springer, 2018: 108-125.

[22]杨宇翔,曹旗,高明煜, 等.基于多阶段多尺度彩色图像引导的道路场景深度图像补全[J].电子与信息学报,2022,44(11):3951-3959.

[23]卢宏涛,罗沐昆.基于深度学习的计算机视觉研究新进展[J].数据采集与处理,2022,37(2): 247-278.

[24]Shim G, Park J, Kweon I S. Robust reference-based super-resolution with similarity-aware deformable convolution[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). June 13-19, 2020, Seattle, WA, USA. IEEE, 2020: 8422-8431.

[25]Wang X L, Girshick R, Gupta A, et al. Non-local neural networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. IEEE, 2018: 7794-7803.

[26]Wang Q L, Wu B G, Zhu P F, et al. ECA-net: efficient channel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). June 13-19, 2020, Seattle, WA, USA. IEEE, 2020: 11531-11539.

[27]Zhu X Z, Hu H, Lin S, et al. Deformable ConvNets V2: more deformable, better results[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). June 15-20, 2019, Long Beach, CA, USA. IEEE, 2020: 9300-9308.

(責任编辑:康 锋)

猜你喜欢
注意力机制深度图深度学习
基于深度图的3D-HEVC鲁棒视频水印算法
基于深度学习的问题回答技术研究
基于LSTM?Attention神经网络的文本特征提取方法
基于注意力机制的双向LSTM模型在中文商品评论情感分类中的研究
InsunKBQA:一个基于知识库的问答系统
MOOC与翻转课堂融合的深度学习场域建构
大数据技术在反恐怖主义中的应用展望
一种基于局部直方图匹配的深度编码滤波算法
深度学习算法应用于岩石图像处理的可行性研究
基于深度卷积网络的人脸年龄分析算法与实现