顿雄,付强,李浩天,孙天成,王建,孙启霖
1. 同济大学,上海 200092; 2. 阿卜杜拉国王科技大学,麦加 239556900,沙特阿拉伯;3. 奕目(上海)科技有限公司,上海 200240; 4. Google, 华盛顿州 98103,美国; 5. Snap Research,纽约 10036,美国;6.香港中文大学(深圳),深圳 518172; 7. 点昀技术(深圳、南通)有限公司,深圳 518172,南通 226007
物理空间中包含有多种维度的信息,例如光源光谱、反射光谱、偏振态、3维形态、光线角度和材料性质等。而成像系统最终成得的像取决于光源光谱、光源位置、物体表面材料的光学性质如双向投射/散射/反射分布函数以及物体3维形态等。然而,传统的光学成像依赖于以经验驱动的光学设计,旨在优化点扩散函数(point spread function, PSF)、调制传递函数(modulation transfer function,MTF)等指标,目的是使得在探测器上获得更清晰的图像、更真实的色彩。通常“所见即所得”,多维信息感知能力不足。随着光学、新型光电器件、算法和计算资源的发展,可将它们融为一体地计算成像技术,逐步解放了人们对物理空间中多维度信息感知的能力。与此同时,随着显示技术的发展,特别是3D甚至6D电影,虚拟现实(vitual reality,VR)/增强现实(augmented reality,AR)技术的发展,给多维度信息提供了展示平台。以目前对物理尺度限制严格的手机为例,手机厂商正与学术界紧密结合。算法层面如高动态范围成像、低照度增强、色彩优化、去马赛克、噪声去除甚至是重打光逐步应用于手机中,除去传统的图像处理流程,神经网络边缘计算在手机中日益成熟。光学层面如通过非球面乃至自由曲面透镜优化像差,通过优化拜尔(Bayer)滤光片平衡进光量和色彩。
本文围绕端到端光学算法联合设计、高动态范围成像、光场成像、光谱成像、无透镜成像、偏振成像、低照度成像、主动3维成像和计算摄影等具体实例全面阐述当前计算成像发展现状、前沿动态,热点问题、发展趋势和应用指导。任务框架如图1所示。
图1 计算成像的任务Fig.1 The task of computational imaging
端到端光学算法联合设计(end-to-end camera design)是近年来新兴起的热点分支,对一个成像系统而言,通过突破光学设计和图像后处理之间的壁垒,找到光学和算法部分在硬件成本、加工可行性、体积重量、成像质量、算法复杂度以及特殊功能间的最佳折中,从而实现在设计要求下的最优方案。端到端光学算法联合设计的突破为手机厂商、工业、车载、空天探测和国防等领域提供了简单化的全新解决方案,在降低光学设计对人员经验依赖的同时,将图像后处理同时自动优化,为相机的设计提供了更多的自由度,也为光学系统轻量化和实现特殊功能提供了全新的解决思路。
光场成像(light field imaging,LFI)能够同时记录光线的空间位置和角度信息,是3维测量的一种新方法,逐渐成为一种新兴的非接触式测量技术。自摄影发明以来,图像捕捉就涉及在场景的2维投影中获取信息。然而,光场不仅提供2维投影,还增加了另一个维度,即到达该投影的光线的角度。光场具有关于光阵列方向和场景2维投影的信息,并且可以实现不同的功能。例如,可以将投影移动到不同的焦距,这使用户能够在采集后自由地重新聚焦图像。此外,还可以更改捕获场景的视角,已逐渐应用于工业、虚拟现实、生命科学和3维流动测试等领域,帮助快速获得真实的光场信息和复杂3维空间信息。
光谱成像(spectrum imaging)由传统彩色成像技术发展而来,能够获取目标物体的光谱信息。每个物体都有自己独特的光谱特征,就像每个人拥有不同的指纹一样,光谱也因此被视为目标识别的“指纹”信息。通过获取目标物体在连续窄波段内的光谱图像,组成空间维度和光谱维度的数据立方体信息,可以极大地增强目标识别和分析能力。光谱成像可作为科学研究、工程应用的有力工具,已经广泛应用于军事、工业和民用等诸多领域,对促进社会经济发展和保障国家安全具有重要作用。例如,光谱成像对河流、沙土、植被和岩矿等地物都有很好的识别效果,因此在精准农业、环境监控、资源勘查和食品安全等诸多方面都有重要应用。光谱成像还有望用于手机、自动驾驶汽车等终端。当前,光谱成像已成为计算机视觉和图形学研究的热点方向之一。
无透镜成像(lensless imaging)技术为进一步压缩成像系统的尺寸提供了一种全新的思路(Boominathan等,2022)。传统的成像系统依赖点对点的成像模式,其系统极限尺寸仍受限于透镜的焦距、孔径和视场等核心指标。无透镜成像摒弃了传统透镜中点对点的映射模式,将物理空间的点投影为像空间的特定图案,不同物点在像面叠加编码,形成一种人眼无法识别,但计算算法可以通过解码复原图像信息。其在紧凑性方面具有极强的竞争力,而且随着解码算法的发展,其成像分辨率也得到大大提升。因此,在可穿戴相机、便携式显微镜、内窥镜和物联网等应用领域极具发展潜力。另外,其独特的光学加密功能,能够对目标中敏感的生物识别特征进行有效保护,在隐私保护的人工智能成像方面也具有重要意义。
低光照成像(low light imaging)也是计算摄影里的研究热点一。手机摄影已经成为人们用来记录生活的常用方式之一,手机夜景模式也成为各大手机厂商争夺的技术要点。不同手机的相机在白天的强光环境下拍照差异并不明显,然而在夜晚弱光情况下则差距明显。其原因是成像依赖于镜头收集物体发出的光子,且传感器在光电转换、增益和模数转换等一系列过程中会有不可避免的噪声;白天光线充足,信号的信噪比高,成像质量很高;晚上光线微弱,信号的信噪比下降数个数量级,成像质量低;部分手机搭载使用计算摄影算法的夜景模式,比如基于单帧、多帧、RYYB(red,yellow,yellow,blue)阵列等的去噪,有效地提高了照片的质量。但目前依旧有很大的提升空间。
主动3维成像(active 3D imaging)以获取物体或场景的点云为目的,被动方法以双目立体匹配为代表,但难以解决无纹理区域和有重复纹理区域的深度。主动光方法一般更为鲁棒,能够在暗处工作,且能够得到稠密的、精确的点云。主动光方法根据使用的光的性质可分为结构光、基于光速如TOF(time-of-fligt),包括连续波TOF(indirect TOF, iTOF)和直接TOF(direct TOF, dTOF),和基于光的波的性质如干涉仪,其中前两种方法的主动3维成像已广泛使用在人们的日常生活中。虽然主动方法通过打光的方式提高了准确性,但也存在由于环境光、多路径干扰引起的问题,这些都在近些年的研究过程中有了很大的改进。
计算摄影学(computational photography)是计算成像的一个分支学科,从传统摄影学发展而来。传统摄影学主要着眼于使用光学器件更好地进行成像,如佳能、索尼等相机厂商对于镜头的研究;与之相比,计算摄影学则更侧重于使用数字计算的方式进行图像拍摄。随着移动端设备计算能力的迅速发展,手机摄影逐渐成为计算摄影学研究的主要方向:在光学镜片的物理尺寸、成像质量受限的情况下,如何使用合理的计算资源,绘制出用户最满意的图像。计算摄影学在近年得到了长足的发展,其研究问题的范围也所有扩展,如夜空摄影、人脸重光照和照片自动美化等。其中重点介绍:自动白平衡、自动对焦、人工景深模拟以及连拍摄影算法。篇幅所限,本文仅介绍目标为还原拍摄真实场景的真实信息的相关研究。
相机的设计在图像质量之间进行了复杂的权衡(例如,锐度、对比度和色彩保真度), 并对其实用性、成本、外形尺寸和重量等因素进行了综合考量。一般的,高质量成像系统需要多个光学元件来消除各种像差。传统的设计过程通常是依赖如ZEMAX 和 Code V 这样的光学设计辅助工具,基于评价函数对图像区域、景深或缩放范围等进行对点扩散函数综合设计。其设计过程需要大量的光学设计经验,对点扩散函数的设计通常忽略了后续图像处理操作、具体应用场景,或者需要在图像中编码额外信息。因此,如何整体优化成像系统、降低对研发人员依赖、在成本与效果间寻找最佳折中以及针对特定任务为光学和算法找到联合最优解逐渐成为研究热点。
光学、算法联合设计(Peng等,2019;Sun等,2018),数据驱动的端到端设计(Sitzmann等,2018)正在构建起光学设计和图像后处理之间的桥梁。光学算法联合设计已经在深度估计(Haim等,2018;Chang和Wetzstein,2019;Wu等,2019b)、大视场成像(Peng等,2019)、大景深成像(Chang和Wetzstein,2019)、对SPAD(single photo avalanche diode)传感器最优化光学采样(Sun等,2020b)、高动态范围成像(Sun等,2020a;Metzler等,2020)、高光谱和深度成像(Baek等,2021)取得了巨大的成功。Chang等人(2018)将端到端光学算法联合设计应用到了图像分类。然而,其可微光学模型仍局限在单层可微、傍轴近似以及单种光学材料的衍射光学元件(diffractive optical element,DOE),极大地限制了其设计空间。最近,基于神经网络模拟(Tseng等,2021)、可微光线追踪模拟点扩散函数(Halé等,2021)的复杂透镜的端到端设计方法,以及基于可微光线追踪、跳过点扩散函数直接构建光学参数与最终图像之间的可微关系(Sun等,2021b;Sum,2021c)将端到端相机设计推向了新的高度。
1.2.1 高动态范围成像原理
高动态范围成像数据获取主要有6种方法,对图像传感器本身而言,其动态范围(dynamic range, DR)可表示为
式中,Qsat代表阱容量,idc代表底电流,tint代表曝光时间,σ代表噪声。1)可以通过提高感光肼Qsat来实现HDR,但容易使得响应变为非线性,处理难度变大。2)多次曝光融合,即用长短曝光结合来获取更亮和更暗处的细节。3)通过多传感器长短曝光信息融合实现HDR成像。4)单帧空域曝光的光强调制,即对一些像素光强进行衰减,此方法会牺牲一定分辨率,但在实际使用中有低成本、稳定和易量产等优点,已得到产业应用。5)动态光强调制,通过模仿人眼视网膜侧抑制效应,对亮处信息降低感光度,对暗处信息增加曝光度,实现局部自适应;或者将亮处暗处信息搬移到传感器可响应的位置。6)特殊成像器件,包括QIS(quanta image sensor)(Gnanasambandam和Chan,2020)、SPAD阵列传感器(Zarghami等,2019)、Two Bucket Camera(Wei等,2018)、对数图像传感器(Kavadias等,2000;Frank,2018)和分离像素(Liu等,2011;Asatsuma等,2019)等。
1.2.2 图像传感器中的HDR成像技术与产业化
目前,国际主流传感器厂商如索尼、三星、豪威、安森美等均具有HDR传感器产品,通常动态范围可达120 dB,特殊模式下可达140 dB。其主要已量产方案有BME(binned multiplexed exposure)隔行长短曝光方案、SEM(spatially multiplexed exposure)棋盘格排列长短曝光方案(Nayar和Mitsunaga,2000;Hanwell等,2020;McElvain等,2021)、QBC(quad bayer coding)的四子像素方案(Gluskin,2020;Okawa等,2019;Jiang等2021)、DOL(digital overlap)/交错HDR(staggered HDR)长短曝光准同时输出方案、DCG(dual conversion gain)HDR对同一像素使用两路信号增益、分离像素(split/sub pixel)等。
1.2.3 基于光强调制的HDR成像技术
基于光强调制的HDR成像技术通常包括静态光强调制和动态光强调制技术。静态的基于滤光片衰减调制,包括使用3×3中性密度滤光片(Manakov等,2013)从而实现18挡(108 dB)的动态范围,2×2块衰减多次曝光(Suda等,2021)和上文所述BME,SEM,QBC等方案。Alghamdi等人(2021)通过将深度学习训练出的掩膜贴至传感器表面结合恢复算法来实现HDR图像的获取。Metzler等人(2020)通过直接学习衍射光学元件调制点扩散函数来实现对高亮信息的获取,但结果仍存在较大缺陷。与此同时,Sun等人(2020a)通过低秩衍射元件分解有效解决了DOE训练难以收敛的问题,并实现了全局信息的调制,从而实现了对动态范围8档的扩展,峰值信噪比(peak signal to noise ratio,PSNR)相较以往方法提升大于7 dB,HDR-VDP2指标提升大于6个百分点。偏振相机是近年来问世的新产品,在传统的传感器基础上叠加4个角度的线偏振片。自然光在不同的偏振角度上会对应不同程度的衰减,根据这个原理可融合生成HDR图像(Wu等,2020b;Ting等;2021)。
动态光强调制技术通过使用LCD/LCOS/DMD来对空间中不同的光强加以调制(Yang等,2014;Feng等,2016,2017;Mazhar和Riza等,2020;Niu等,2021;Martel等,2020;Martel和Wetzstein,2021;Guan等,2021),并通过一定的反馈来对强光抑制,弱光增强,从而实现更大的动态范围。
1.2.4 基于多帧融合的HDR成像技术
多次曝光融合(Debevec和Malik,1997,2008;Grossberg和Nayar,2003;Hasinoff等,2010;Mann和Picard,1995;Mertens等,2009;Reinhard等,2010)在消费电子、车规级HDR传感器中取得了广泛的应用。更快速地HDR融合技术(Hasinoff等,2016;Heide等,2014;Mildenhall等,2018)实现了对低照度处理、噪声去除等,从而提高HDR图像质量。
多次曝光融合面临着运动模糊问题的巨大挑战,故而HDR图像缝合(Kang等,2003;Khan等,2006)、光流法(Liu,2009)、块匹配(Gallo等,2009;Granados等,2013;Hu等,2013;Kalantari等,2013;Sen等,2012)和深度学习(Kalantari和Ramamoorthi,2017,2019)使得HDR视频变成了可能。但此类方法通常后续处理过度消耗计算资源,限制了其应用场景。
1.2.5 基于多传感器的HDR成像技术
多传感器HDR成像是利用多个探测器在不同曝光程度和增益下获取图像,通过去畸变、单应性变换等手段对齐,而后融合实现HDR。早在2001年,Aggarwal和Ahuja(2001,2004)通过分光片和两个传感器不同程度曝光的方法来实现HDR成像。此后,多种类似HDR成像技术(Tocci等,2011;McGuire等,2007)相继提出完善。Kronander等人(2014)提出了一种统一的多传感器实时HDR重建的架构。Yamashita和Fujita(2017)采用复杂的分光系统实现了四传感器融合HDR成像。此外,芬兰JAI公司2012年推出了2-CCD的HDR相机,动态范围可达120 dB,但目前已停产。Seshadrinathan和Nestares(2017)提出了2×2阵列式HDR融合相机。类似的,Huynh等人(2019)在此基础上引入偏光片,进一步提高了HDR成像质量。目前为止,相关技术产品仅有少量型号产品问世。考虑近期多摄手机画质提升需求,多传感融合实现HDR方案具有潜在的应用可能,但仍需克服多传感器配准算法复杂度和手机算力功耗之间的矛盾,目前主流方案有立体匹配(需出厂标定)或通过光流来对齐像素(算力消耗大)。不过,随着低延时传输和云计算的发展,或深度相机在手机中的广泛应用和分辨率提升,多传感融合方案将逐步于市场推广。
1.2.6 高动态范围图像重建
HDR图像重建主要有多次曝光融合和逆色调映射以及其他调制型HDR成像重建方案。
多次曝光融合是当前消费、工业等领域主流的HDR成像方案。Goshtasby(2005)的方案局部色彩和对比度不发生变化,但图像尺寸仅适用于固定情况。Rovid等人(2007)提出基于梯度的融合方案,可从较差的多帧不同曝光图中重建较高质量HDR图像,但仅限于黑白图像。Varkonyi-Koczy等人(2008)实现了高质量HDR彩图重建,但仅限于静态图像。Mertens等人(2009)实现了更多图像的融合但处理速度较慢。Gu等人(2012)对梯度场实现了高速高效的融合,但仅限于对慢速移动的物体。Li等人(2012)通过二次优化,可在实现HDR成像的基础上增强细节获取能力,但对过曝部分处理欠佳。Song等人(2012)实现了基于概率的融合方案,表现优于以往的方法。Shen等人(2013)提出了基于感知质量测量的融合方法,实验上比以往表现更优,但判据对多图像源难以拓展。Ma等人(2015)提出了对一般图像融合的算法。Huang等人(2018a)、Huang等人(2018b)提出了一种新的彩图融合方法,比以往更好地保留图像细节,但仍无法应用于动态场景。Kinoshita等人(2018)通过曝光补偿,统计上更接近自然图像,但难以清晰地确定合适的曝光值。
逆色调映射是恢复HDR图像的一种常见方法。Larson等人(1997)提出了色调响应曲线(tonal response curve,TRC),对大部分图像有效,但仅限于对视觉效果提升。Durand和Dorsey(2000)解决了色调映射中的一些关键问题,但相比当时最新算法速度较慢。Reinhard等人(2002)提出了区域自动减淡加深系统,可很好地适应大部分HDR图像。Landis(2002)提出了全局扩展的方法,利用指数函数对SDR图像超过阈值部分处理构建HDR图像,但整体处理效果欠佳。Banterle等人(2006)应用Reinhard等人(2002)的方法来实现对SDR图像的扩展。Akyüz等人(2007)实现了简单的线性扩展,但无法有效增强过曝部分细节。Kovaleski和Oliveira(2009)可提升过曝部分的细节,但会带来色彩失真,无法真正解决过暗过亮部分细节问题。Kinoshita等人(2017)实现了高相似度低计算复杂度的方法。近年来,随着深度学习技术的发展,逆色调映射得到了长足的进步,代表性方法有Eilertsen等人(2017)提出的HDR-CNN,在过饱和区细节丢失问题得到部分解决,但动态范围扩展能力有限。紧接着,多种基于卷积神经网络(convolutional neural network, CNN)的算法相继提出(Zhang等,2017;Endo等,2017;Moriwaki等,2018;Marnerides等,2018,2020;Lee等,2018b;Khan等,2019;Santos等,2020;Choi等,2020;Han等,2020)。最近,Sharif等人(2021)提出了两步神经网络的逆映射方法,Chen等人(2020)结合逆色调映射和去噪,Marnerides等人(2021)提出基于生成对抗网络的逆色调映射方法来填充过暗过曝部分损失的信息。此类方法繁多,近年来取得了巨大的进步,已有少量低计算复杂度算法应用于产业界。
1.2.7 高动态范围图像显示处理
通过对图像局部对比度的调整,色调映射实现了动态范围的图像到较小动态范围的显示设备上的映射。传统的色调映射算法一般可分为全局即空间不变算法(Schlick,1995;Tumblin和Turk,1999;Reinhard等,2002)、局部即变化算法(Drago等,2003;Kim等,2011;Durand和Dorsey,2002)、基于图像分割的算法(Lischinski等,2006;Ledda等,2004)、基于梯度的算子(Tumblin等,1999;Banterle等,2011;Yee和Pattanaik,2003;Krawczyk等,2005)等。传统的色调映射算法通常对参数较为敏感,但对于算力受限的场景有着较大的优势。最近的方法倾向于利用深度神经网络来实现无参数的算法来解决参数敏感和泛化的问题。Hou等人(2017)利用深层特征连续和深度图像变换训练CNN来实现色调映射。Gharbi等人(2017)利用双边网格实现了实时的增强。近年来,利用conditional-GAN一定程度获得了更佳的效果(Cao等,2020;Montulet等,2019;Panetta等,2021;Patel等,2017;Rana等,2019;Zhang等,2019a)。Vinker等人(2021)实现了非配对的数据训练的HDR色调映射。
光场(Gershun,1939)描述了光线在3维自由空间内的分布情况,由7维全光函数定义。Gabor(1948)使用相干光干涉效应得到了世界首张全息图,包含了光线的方向和位置信息,可以视为简化的光场图像。Adelson等人(1992)搭建了光场相机模型,通过分析子图像阵列的视差初步估计其深度信息。Levoy和Hanrahan(1996)陆续完成了光场的参数化定义的简化,设计了光场相机阵列(Wilburn等,2005)来采集光场和进行渲染处理。Ng等人(2005)实现了先成像后聚焦的手持式非聚焦型光场相机。同时还表明光场相机能够产生视差,这为3D测量和3D重建应用提供了新的可能性。Levoy等人(2006,2009)开发了光场显微镜,成功测出生物体的3维结构。Lumsdaine和Georgiev(2008,2009)基于Ng等人(2005)的工作,提出了微透镜阵列位于主透镜的像空间焦平面后的聚焦型光场相机。光场3维成像技术在近些年快速发展,已广泛用于工程测试领域,例如粒子图像测速技术(Fahringer等,2015;Fahringer和Thurow,2018;Shi等,2016a,2017,2018b)、火焰3维温度场测量(Sun等,2016)、多光谱温度测量(Luan等,2021)以及物体3维形貌测量(Chen和Pan,2018;Shi等,2018a;Ding等,2019)等。本文主要针对基于光场的3维重建技术以及基于光场的粒子图像测速技术进行简要介绍。
1.3.1 基于光场成像的3维重建技术
众多学者对光场3维重建进行了相关研究(Wu等,2017b;Zhu等,2017b)。光场相机校准、光场深度估计以及光场超分辨率是光场3维重建的关键流程。
光场超分辨率大致分为空间、角度以及空间与角度超分辨率。包括基于投影模型、先验假设优化以及深度学习的方法(Cheng等,2019a):1)基于投影模型的光场图像的超分辨率:利用了不同视角光场子孔径图像之间的像素偏移信息。Lim等人(2009)利用角度数据中的冗余信息实现了光场空间超分辨率。Georgiev等人(2011)提出在投影模型中进行像素点匹配以得到亚像素偏移,将光场子图像的分辨率提高了两倍。2)基于先验假设的方法针对遮挡反光等因素做出先验模型假设,结合4D光场结构建立数学或几何模型,通过优化框架求解得到超分辨的光场图像。Rossi和Frossard(2017)采用类似多帧超分辨率的方法,提出了一种将多帧范式与图正则化器耦合起来的模型框架,并利用不同视图来增强整个光场的空间分辨率。针对噪声问题,Alain和Smolic(2018)提出了一种结合BM3D(block-matching and 3D filtering)稀疏编码的单图像超分辨率滤波器(Egiazarian和Katkovnik,2015)和用于光场图像去噪声的LFBM5D滤波器(Alain和Smolic,2017),实现了性能良好的图像空间超分辨率。3)基于深度学习的方法通过搭建神经网络对光场数据进行端到端训练,来实现光场超分辨率。Yoon等人(2015)利用深度学习的方法同时对其角度分辨率和空间分辨率上采样,得到相邻视图间的新颖视图,对子孔径图像的细节实现了增强。
随着光场理论的不断发展,通过光场图像计算场景深度信息的方法不断推出。光场合成数据集网站4D Light Benchmark(Vaish等,2004;Johannsen等,2017)进一步加速推动了光场深度算法的发展。根据获取视差信息方法的不同,一般可分为:基于子图像匹配点的算法、基于EPI(epipolar image)的方法、聚焦/散焦算法以及基于深度学习的方法。最具代表性的方法就是基于外极线(epipolar iine)图像深度估计算法(EPI)。Johannsen等人(2017)首次提出基于外极线图像的方法进行光场相机深度计算。利用结构感知机,Wanner和Goldluecke(2014)计算了外极线图像斜率,并利用快速滤波算法优化视差图。另一种较为主流的方法是由Tao等人(2013)提出的基于重聚焦和相关性原理的深度估计算法,并且通过基于增加阴影信息和遮挡信息进一步发展完善该算法(Wang等,2016a),具有较高的计算精度,并且对噪声、非朗伯体表面和遮挡情况进行了优化。Williem和Park(2016)提出了基于一种角度熵和自适应的重聚焦算法,优化了深度估计结果。韩国科学技术院(Korea Advanced Institute of Science and Technology, KAIST)的Jeon等人(2015)提出了基于相移的多视角深度算法,利用光场全部视角信息计算深度图像,并基于机器学习优化得到了精度更高的视差图(Jeon等,2019a)。Neri等人(2015)使用基于多尺度自适应窗口变化的局部梯度算子进行视差计算,提出了RM3DE(multi-resolution depth field estimation)算法,提高了深度估计速度。Strecke等人(2017)提出了OFSY_330/DNR(occlusion-aware focal stack symmetry)算法,使用4个方向的多视角图像进行深度计算,并且在计算遮挡区域时仅考虑横纵方向视角,有助于优化计算表面法向量。随着深度学习的快速发展,Johannsen等人(2016)首次利用深度学习在多尺度场景中取得了不错的效果。Heber和Pock(2016)利用端到端的深度学习架构估计光场深度。随后,Heber等人(2017)提出了融合神经卷积网络(CNN)和变分最优方法光场深度估计算法,用于计算光场外极线图像斜率。韩国KAIST的Shin等人(2018)又基于CNN设计了一个全卷积神经网络EPINET(epipoloar geometry of light-field images network)。在真实场景上取得了良好效果,但在某些场景的泛化效果不佳。Alperovich等人(2018)使用encoder-decoder结构基于光场多视角图像同时得到了视差图和光场的光照信息。
光场相机校准用于将深度估计算法所得的视差图转换成物理空间中的尺寸,是实现光场3维测量的关键环节。由于光场相机内部光线路径的复杂性,国内外众多学者提出了不同的校准方法。Dansereau等人(2013)提出了一种包含15个参数(含 3个冗余参数)的光场相机投影模型。在考虑光学畸变的情况下,得出了将每个记录的像素点位置与3D空间中光线相关联的4D本征矩阵。Bok等人(2017)利用一种新奇的线特征改进了Dansereau的15个参数投影模型,提出了仅12个参数的光场相机投影模型。利用几何投影模型来校准非聚焦型光场相机。Nousias等人(2017)提出了一种基于棋盘格中角点的聚焦型光场相机几何校准方法。O′brien等人(2018)提出了一种基于全光圆盘特征的可用于聚焦和非聚焦型光相机的校准方法。Hall等人(2018)的工作提出了一种基于多项式映射函数的光场相机校准方法,无需具体的透镜参数。其考虑了透镜畸变以提高校准精度,非平面校准的实验结果表明了该方法的灵活性。
1.3.2 基于光场成像的粒子图像测速技术
将光场成像技术应用于流场测量(light-field particle image velocimetry, LF-PIV),单目实现3维速度场测量,是3维诊断技术在受限空间中应用的一个重要进展。这方面工作主要有美国Auburn大学的Brian Thurow团队和国内上海交通大学的施圣贤团队。Brian Thurow团队设计并封装了基于正方形微透镜阵列的光场相机(Fahringer等,2015)。LF-PIV技术需要解决的关键问题之一是如何从单帧光场图像重构出流场示踪颗粒(数百纳米至几十微米)的3维图像。Fahringer和Thurow(2016)提出了基于MART和重聚焦的光场粒子图像重构算法。
Thomason等人(2014)针对光路畸变所导致的重构误差,研究了光学传播介质折射对重构粒子的位置的影响,其将拍摄光路中的折射介质分为外部介质(位于镜头和示踪粒子之间,如拍摄水洞时的壁面)和内部介质(位于主透镜和CCD阵列之间)。Fahringer和Thurow(2016)为了降低重构误差,提出了带阈值后处理的粒子重构算法,重构粒子场强的信噪比比直接重聚焦方法有所提高。国外学者已经将LF-PIV技术应用于多种复杂流动实验研究,包括脑瘤内的血液流动(Carlsohn等,2016)、扁口射流以及圆柱扰流(Seredkin等,2016,2019)。
光谱成像通常分为扫描式和快照式,其中快照式因其只需单次曝光就可以获取整个数据立方体信息,在应用上更具潜力和前景,因此当前计算机视觉和图形学关于光谱成像的研究也主要集中在快照式光谱成像技术上。快照式光谱成像按照实现方式不同,可以分为分孔径光谱成像、分视场光谱成像和孔径/视场编码光谱成像等。
1.4.1 分孔径光谱成像
1.4.2 分视场光谱成像
分视场光谱成像技术的种类很多,包括基于切片镜的分视场光谱成像(Content等,2013)、基于可变性光纤束分视场光谱成像(Gat等,2006)、微透镜阵列分视场光谱成像(Dwight和Tkaczyk,2017)、针孔阵列分视场光谱成像(Bodkin等,2009)、图像映射光谱成像(Gao等,2010),以及像素滤光片阵列光谱成像(Geelen等,2014)。其中像素级滤光片光谱成像直接将滤光片阵列集成到探测器上,具有体积小、集成度高等优点,是未来最有望用于手机等终端的光谱成像技术。早期的像素级滤光片阵列就是人们日常生活中普遍使用的彩色CMOS探测器,Geelen等人(2014)将其推广,制作了4×4阵列16通道的像素级光谱滤光片。但像素级滤光片多基于多层膜体系制作,成本极高;像素级滤光片本质上是通过牺牲空间分辨率换取光谱分辨率,光谱通道数越多,空间分辨率越小;光谱通道数越多,单个光谱通道的能量就越小,信噪比越低。为了解决像素级滤光片制作难度的问题,研究者提出了基于FP腔的像素级滤光片光谱成像(Huang等,2017;Williams等,2019),利用FP腔的窄带透射特性且简单的“高反层—中间透射层—高反层”结构,使用灰度光刻直接一次性做出不同谱段的滤光片阵列,制作难度大幅降低。为了解决光谱通道数越多,通道能量下降致使信噪比越低的问题,研究者又提出了基于宽谱像素级滤光片的光谱成像技术:例如Bao和Bawendi(2015)使用量子点可调的谱段吸收特性实现了宽谱段像素级光谱成像,超表面、银纳米线等作为一种在近乎平面空间内对光波进行超控的新材料,也是一种理想的宽谱滤光片实现形式,如Craig等人(2018)和Meng等人(2019)展示的可以用于红外波段的芯片级光谱成像技术,Wang等人(2019c)展示了基于光子晶体的宽谱段光谱成像,Yang等人(2019)和Cadusch等人(2019)展示的基于银纳米线的宽谱段光谱成像。为了解决像素滤光片阵列光谱分辨率与空间分辨率相互制约的问题,研究者发展了基于压缩感知的光谱重建技术(Nie等,2018;Kaya等,2019),通过探究每个像素的最佳光谱响应曲线(Fu等,2022;Stiebel和Merhof,2020;Sun等,2021a),达到仅使用较少的光谱像素规模,实现超光谱探测能力,打破光谱分辨率与空间分辨率的制约关系。
1.4.3 孔径/视场编码光谱成像
孔径/视场编码光谱成像属于基于压缩感知理论进行光谱图像重建的技术,利用空间光谱数据立方体的稀疏性,比基于像素级滤光片阵列中利用压缩感知的维度更多、更全面,主要研究的侧重点为编码方式、重建算法等。最典型的孔径/视场编码光谱成像系统是CASSI(coded aperture snapshot spectral imaging)系统(Brady和Gehm,2006;Wagadarikar等,2008),它的主要问题之一是由于利用了对自然场景的稀疏假设,不可避免地会出现重建误差,且重建算法非常复杂,无法实时对高光谱数据进行重建。Wang等人(2017,2019b)提出了一种基于互补观测的双相机成像系统,并提出了将数据与先验知识相结合的高光谱图像重建算法。CASSI系统的主要问题之二是体积太大,不适合集成,Baek等人(2017)通过直接在标准单反相机镜头上增加一个色散棱镜,实现了缩小系统体积,但仅适合恢复边缘处的光谱信息,导致重建问题高度病态,光谱重建精度较差。Golub等人(2016)则使用单个散射片替换棱镜作为色散元件,进一步减小了体积,且通过与彩色CMOS探测器结合可以提高光谱重建的精度。进一步为减小体积,Jeon等人(2019b)提出了基于单个衍射光学元件同时作为成像镜头和色散元件的方法,首先通过设计一个可以产生波长相关的点扩散函数进行孔径/视场联合编码,然后通过基于模型的深度学习算法重建高光谱图像。与直接使用单个衍射光学元件类似,使用单个强色散的散射片也可以实现光谱成像(Sahoo等,2017;French等,2017),这样的系统本质上是利用了散斑对空间光谱数据立方体进行编码,但这类系统光谱分辨率严重依赖于不同波长的散斑之间的相关性,光谱分辨率通常较低。针对以上问题,Monakhova等人(2020)提出了散射片结合像素级滤光片阵列的技术方案,既保留了单散射片的轻薄特性,也通过像素级滤光片阵列确保了高的光谱分辨率。特别地,该方法还通过解码散斑编码的空间信息,可以避免像素级滤光片阵列光谱成像必然带来的空间分辨率降低的问题。
随着微纳光学和计算成像等领域的快速发展,平面光学元件以其独特的紧凑型光学结构优势,正发展成为传统折、反射式透镜(如照相物镜、望远镜和显微镜等)的替代光学方案(Capasso,2018)。典型的平面光学元件有衍射光学元件(diffractive optical elements, DOEs)和超透镜(Metalens)(Yu和Capasso,2014;Banerji等,2019)。尽管此类平面光学元件将传统的透镜尺寸压缩到微观的波长或亚波长结构,其成像原理仍是点对点的映射关系,其系统极限尺寸仍受限于透镜的焦距、孔径和视场等核心指标。为进一步压缩成像系统的尺寸,近年来涌现出的一种无透镜成像技术提供了一种全新的思路(Boominathan等,2016)。
无透镜成像摒弃了传统透镜中点对点的映射模式,而是将物空间的点投影为像空间的一种特殊的点扩散函数,不同物点在像面叠加,形成了一种人眼无法识别但计算算法可以复原的原始数据。这种无透镜成像方式在光学硬件上对图像信息进行编码,并在计算算法中解码,因此形成了光学和算法的联合设计。
无透镜成像最早起源于仿生复眼的研究(Cheng等,2019b;Lee等,2018a)。在自然界中,脊椎动物的视觉(如人眼)通常采用透镜式的点对点映射成像,而多种生物(如昆虫等)则通过复眼的形式感知自然环境(Schoenemann等,2017)。这种复眼结构包含了几十甚至几百个小眼(ommatidia)单元,包含角膜、晶椎、色素细胞和视网膜细胞、视杆等结构。复眼结构采集到的光线信息最终通过视神经传递到大脑进行处理,获取自然界的环境信息。受此启发,科学家模仿复眼结构制造了多种无透镜成像器件。然而,这种直接模拟昆虫复眼的无透镜成像形式仍然具有结构复杂、分辨率低等缺点,无法满足人们对紧凑型高质量成像日益增加的需求。
近年来,随着计算成像技术的不断进步,图像复原算法在成像系统中的作用日益提升。人们开始以计算的思维来设计无透镜成像系统,而不是对自然复眼结构的简单模仿。这主要体现在,无透镜光学系统的点扩散函数应与图像重建算法协同设计,使得光学系统中编码的图像信息能够被算法有效解码。基于该思路,近年来涌现出多种振幅型和相位型的平面无透镜成像系统,大大提高了复眼型无透镜成像的分辨率,同时保持极高的结构紧凑性。
无透镜系统主要包括平面光学元件的设计和图像重建算法两个方面。其光学元件设计可分为振幅型和相位型,通常采用启发式的优化设计方法,寻求利于算法重建的点扩散函数,根据光的衍射定律反向设计对应的振幅或相位型光学元件,典型设计包括FlatCam(Asif等,2017),DiffuserCam(Antipa等,2018),PhlatCam(Boominathan等,2020)和Voronoi-Fresnel(Fu等,2021)等。图像重建算法则一般采用正则化的逆问题求解算法(如采用全变分(total variation, TV)的正则化项),以及针对大模糊核的基于深度学习的图像重建方法。
振幅型无透镜成像采用二值的黑白图案对光波进行调制。早期的二值图案采用简易的随机分布的小孔阵列或均与冗余阵列(uniformly redundant arrays, URA),依赖图案在光传播过程中的阴影效应在图像传感器上制造一定图案样式的点扩散函数。这种简易的点扩散函数通常具有较差的数值稳定性,不易得到高质量的重建图像。DeWeert和Farm(2015)提出了一种可分离的双托普利茨矩阵(Doubly-Toeplitz)掩膜版,产生的点扩散函数降低了逆问题的病态性,从而获得了更好的图像质量。Asif等人(2017)深入研究了不同形式的掩膜设计及其数值稳定性,并提出了一种由两个1维M序列编码进行外积得到的2维可分离掩膜设计,称为FlatCam,这种掩膜设计的优势不仅在于更好的数值稳定性,同时易于实现和标定,是振幅型无透镜系统的较优设计。此外,Tajima等人(2017)提出了采用二值菲涅尔波带片作为掩膜版,利用摩尔条纹效应产生圆环状的图案,并利用其对深度独立的特性,得到了能够进行重聚焦的无透镜光场成像系统。然而,振幅型无透镜成像存在一个内在缺点,其允许的光通量至多为50%,因此损失了一部分的光强,能量利用率偏低。
相位型无透镜成像能够充分利用所有入射光,对入射光波的相位进行调制,从而在探测器面生成光强调制的图案。Gill(2013)提出一种奇对称的二值相位(0和1)衍射光栅,其菲涅尔衍射图案能够产生螺旋形的点扩散函数,通过在2维平面周期性平铺这种单元二元光栅结构,形成螺旋光斑阵列图案,称为PicoCam,能够实现高通量的无透镜成像。由于二值相位光栅的衍射效率仍然有限,Antipa等人(2018)提出采用随机散射片(diffuser)生成焦散图案作为点扩散函数的无透镜成像方案DiffuserCam,能够产生高对比度的点扩散函数,并且其形状随着焦深的变化呈现缩放特性,形成了深度依赖的点扩散函数。利用此性质,DiffuserCam能够实现单帧图像的3维无透镜成像功能。该方法采用的散射片通常取自透明胶带等元件,因此是一种欠优化的光学器件。为了使这类相位型无透镜成像元件的点扩散函数的结构更有利于算法重建,Boominathan等人(2020)总结了点扩散函数的几个有益特征,即图形稀疏、对比度高、具有多样化的方向滤波特性。根据这些特征,作者提出了采用将Perlin噪声二值化生成的团作为目标点扩散函数,通过迭代正向和反向菲涅尔衍射过程优化设计连续的相位函数以生成所需的点扩散函数。这种无透镜系统称为PhlatCam,产生的点扩散函数形似等高线,具备作者所提出的所有有益特征。然而,这一类的点扩散函数都是基于启发式的方法,其最优性并非通过客观的指标得到,而是从实验中总结而来。Fu等人(2021)提出了一种基于调制传递函数的傅里叶域指标,调制传递函数体积(modulation transfer function volume, MTFv),能够客观衡量光学系统中采集的信息量多少,MTFv值越大,则系统编码的信息量越多。利用此原则,作者设计了一种类似昆虫复眼的无透镜相位函数,称为维诺—菲涅尔(Voronoi-Fresnel)相位。该相位函数由理想透镜的菲涅尔函数作为基本单元,在2维空间中按照维诺图的形式紧密排列。所生成的点扩散函数同时具备稀疏性和高对比度的特性,而且每个维诺单元的多边形孔径在傅里叶域代表了方向滤波,且具有更紧凑的空间分布。另外,该方法采用MTFv作为客观指标,优化这些基本单元的分布,所得到的相位函数具有更优的频域特性和光学性能。
无透镜成像系统的原始数据是非可视化的图像数据,需要采用相应的图像重建算法对图像进行复原。目前常用的图像复原算法可分为传统正则化求解的退卷积(deconvolution)算法,以及采用数据驱动的深度学习算法。在初期的DiffuserCam,PhlatCam和Voronoi-Frensel等几类无透镜成像系统的图像重建中,作者采用全变分(TV)正则化的退卷积优化方法,采用ADMM(atternating direction method of multipliers)优化框架,进行高效的图像重建。这种方法通常受到成像模型不精确、信噪比低和杂散光干扰等因素的影响,图像质量受限。Monakhova等人(2019)以DiffuserCam为样机,采集了大量无透镜成像数据库,并提出采用unrolled ADMM结构的3种深度学习框架Le-ADMM, Le-ADMM*, 以及Le-ADMM-U 对DiffuserCam数据进行复原,取得了较好的效果。Khan等人(2022)以FlatCam和PhlatCam为样机,提出采用两步法重建图像的FlatNet模型。原始图像首先经过第1层训练网络得到初步的重建图像,然后通过第2个网络进行感知增强,使得重建图像具有更好的人眼感知质量。为解决高质量无透镜成像数据集较难大规模采集的问题,Monakhova等人(2021)在深度图像先验(deep image prior)工作的基础上提出了一种无需大量训练而实现图像高质量复原的方法。该方法采用图像生成网络寻求无透镜图像中的抽象先验,建立原始图像的高维度抽象先验网络,再以成像模型生成探测器上得到的原始数据,并与实际采集的原始数据进行比较,求解网络参数的优化问题,最终实现无训练的图像重建方法。为简化点扩散函数难以准确标定的问题,Rego等人(2021)以DiffuserCam为例,利用生成对抗网络(generative adversarial network, GAN)结构,同时表征原始图像和点扩散函数,再以成像模型为基础,对比生成的原始图像和采集的原始图像,通过大量训练求解高质量的清晰图像信息。
低光照成像近些年取得了较大进展。按照输入分类可以分为单帧输入、多帧输入(burst imaging)、闪光灯辅助拍摄和传感器技术:1)单帧输入经典的方法有各种滤波器(如高斯滤波器、中值滤波器和双边滤波器)、非局部均值滤波(non local means,NLM)、3维块匹配滤波(BM3D)、基于字典学习或小波的去噪方法等。Plötz和Roth(2017)在收集的真实数据上进行评测发现,虽然很多方法在合成的带高斯噪声的数据上比BM3D好,但在真实数据上BM3D依然表现最佳。Lefkimmiatis(2018)使用神经网络来实现BM3D的每一步。Abdelhamed等人(2018)提供了基于手机相机的真实数据集。研究表明,RAW域去噪(Chen等,2018a,2019;Jiang和Zheng,2019)比经过去马赛克等处理后的RGB图片效果更佳,其原因在于经过后处理算法,图片中的噪声分布变得更复杂,因此更难去除。当仅有经过后处理的图片时,Brooks等人(2019)将其逆处理回RAW域去噪获得了更佳效果。2)多帧输入已广泛应用于手机中,如谷歌Pixel手机、iPhones等。Hasinoff等人(2016)和Liba等人(2019)对谷歌的整个算法流程做了充分介绍。Mildenhall等人(2018)针对多帧去噪提出核预测网络,Xia等人(2020)利用核之间的冗余对核预测网络进行优化,以此来提高重建质量和速度。3)闪光灯可以用来增加场景的照度来提高照片质量。其中,最简单的方法为使用白色闪光灯。白色闪光灯的光谱和环境光光源的光谱不一致会使得前景和背景的色调不一致,故而iPhone提出使用“True-tone”闪光灯,使得闪光灯的光谱接近于环境光。闪光灯的使用会引入问题,限制了其广泛使用。如图像光照不自然、刺眼、距离有限等。针对这些问题,研究人员也提出了相关方案,如闪光/无闪光两张照片融合(Petschnigg等,2004;Eisemann和Durand,2004,Xia等,2021),使用不可见光如红外/紫外(Krishnan和Fergus,2009),使用人眼响应不强烈的深红色闪光灯(Xiong等,2021)。然而距离有限还亟待解决,因为物理上的限制,光随着距离的平方递减。4)对传感器技术进行提高或使用新型传感器成像,例如使用背照式传感器,利用微透镜提高填充率收集光线,使用SPAD传感器成像(Ma等,2020)。
主动3维成像常用的方法有结构光和Time-of-flight(包括iTOF和dTOF)。虽然原理有所不同,如结构光使用三角法得到距离,TOF测量光的飞行时间,其面临的挑战是类似的:1)易受到环境光的干扰,例如太阳光产生的光子噪声(非偏置)会把信号淹没。2)有非直接光的情况,准确度会受到极大影响。结构光和TOF均假设光发射出后,仅单次被物体反射回接收设备,这样的光可称做直接光;若物体有凹面,或物体半透明,或传播媒介有很多小微粒使光产生散射,这些光可统称为非直接光。此时3维成像会产生较大误差。3)多设备串扰近些年取得了很大的进展,以下将重点阐述对环境光和非直接光干扰的解决方法,部分方法可同时适用于结构光和TOF。
对于非直接光,很多方法受到Nayar等人(2006)启发,通过投影仪打出空间上高频图案来分离直接光和非直接光的影响,可在计算深度前分开直接光和非直接光,然后用直接光计算深度。也可使用高频图案非直接光部分自动抹平,从而不会影响深度计算。对相机的像素进行分类,然后自适应迭代(Xu和Aliaga,2007,2009);使用多重照明来减少图案数量(Gu等,2011)。另外,使用高频图案让非直接光抹平或相消的方法有:调制相移(Chen等,2008)使用高频图案来作为载波、使用高频单个图案(Couture等,2011)、修改传统的灰度编码(Gupta等,2011)、微相移(Gupta和Nayar,2012)使用多个邻近的高频图案以及嵌入式相移在高频图案中嵌入低频(Moreno等,2015)等。还有方法是在光学上阻止非直接光,如O′Toole等人(2014)利用投影仪和相机的光学上的极线限制,以及通光率得到改善的Episcan3D(O′Toole等,2015)。对于iTOF,以上方法均有借鉴意义,Naik等人(2015)使用直接全局分离的结果来指导iTOF的去多径干扰,Gupta等人(2015)使用高频来让多径的干扰相互抵消,EpiTOF是Episcan3 d的TOF版本。对于半透明的物体,Chen等人(2007b)提出使用偏振光来做结构光,直接光易维持偏振性,而散射光易失去偏振性。dTOF没有非直接光问题的困扰,但是对传播媒介的散射,比如在烟、雾中,结构光、iTOF和dTOF都面临挑战。相关方法一般基于媒介散射特性可分为:1)与邻域比较,结构光对应着空间上的曲线(Narasimhan等,2005),TOF对应着时间上的曲线(Satat等,2018);2)在光路上消除杂光,如光幕(Wang等,2018);3)使用更长的波长,如短波红外(如DualSL(Wang等,2016b))和长波红外(Erdozain等,2020)。最后,使用深度学习来观察含有错误的深度图并纠正,也取得了很好的效果(Marco等,2017)。
1.8.1 自动白平衡
白平衡是ISP(image signal processor)中重要的一环。人眼在观察图像时,会自动修正光照颜色对物体造成的色差。因此,在数字成像的过程中,为了还原物体在人眼中观察到的色彩,相机也同样需要从图像中估计出光照的颜色,并加以修正。这种过程称为自动白平衡。
自动白平衡的方法主要分为两类。传统的白平衡算法的输入一般仅为单张图片,算法通过分析这张图片的颜色分布估计出图片中场景的光照,从而实现颜色的校正。Buchsbaum(1980)提出了“灰色世界”(grey world)模型,该模型假设图像中的物体的平均颜色为灰色,从而对图片的颜色进行校准。Finlayson和Trezzi(2004)对“灰色世界”模型进行了拓展,使用明科夫斯基测度计算平均颜色,并通过实验发现使用p=6的明科夫斯基测度可以得到最好的结果。van de Weijer等人(2007)提出在图像的高阶差分上计算平均颜色。Cheng等人(2014)使用主成分分析(principal component analysis, PCA)的方法估计光照的颜色;Qian等人(2019)则通过找到图片中的灰色像素来消除光照带来的色差。
另一方面,使用机器学习的自动白平衡算法通常需要较为庞大的数据集作为辅助。通过训练机器学习模型学习大量已经完成颜色校准的图片中的规律,从而能够更好地对新拍摄的图片进行白平衡。Brainard和Freeman(1997)以及Gehler等人(2008)使用贝叶斯理论对物体材质和光照颜色等先验知识进行建模。Finlayson等人(2006)将白平衡问题转化为色域映射问题进行求解。Barron等人(Barron,2015;Barron和Tsai,2017)将图像中像素的颜色映射到对数色彩空间中,并使用模式识别的方法进行白平衡。Shi等人(2016c)提出了一种新的深度神经网络结构来甄别与筛选图像中可能的光照颜色;而Hu等人(2017)则通过深度神经网络识别出图像中易于推测出真实颜色的部分,从而计算出光照的颜色。
1.8.2 背景虚化
由于移动端的成像设备存在大小、厚度等诸多限制,使用手机镜头拍摄到的图片普遍具有很长的景深,即很难拍摄出专业相机中背景虚化的效果。近年来,有许多文章着手于使用后期处理来人工模拟浅景深、虚背景的效果。Shen等人(2016a,b)尝试将人像图片分割成前景与后景,并对后景进行均匀虚化;Zhu等人(2017a)进一步提出了加速人像前后景分割的算法。然而,对后景进行均匀虚化并不真实,因为在现实中,距离越远的物体会越模糊。
为了实现更加真实的景深模拟,学者们尝试从单幅图像中预测物体深度(Eigen等,2014;Liu等,2016;Zhou等,2017;Luo等,2020)。然而,单幅图像预测出的深度普遍存在较大误差。谷歌Pixel手机团队(Wadhwa等,2018)提出使用手机相机中的“双像素”(dual pixel)更好更快地进行深度预测,从而模拟出更加真实的背景虚化。Ignatov等人(2020)采集了大量使用单反相机拍摄的不同景深的图片,并提出使用端到端(end-to-end)的方式直接用神经网络对图像进行背景虚化,从而跳过深度预测的步骤。
1.8.3 连拍摄影
连拍摄影在之后得到了较大的发展。Mildenhall等人(2018)以及Godard等人(2018)提出使用神经网络对连拍摄影进一步进行降噪处理;Aittala和Durand(2018)使用神经网络实现了连拍摄影去模糊;Kalantari和Ramamoorthi(2017)使用连拍的多张低动态范围图像合成出了高质量的高动态范围图像;Liba等人(2019)进一步改进了谷歌Pixel手机中的连拍摄影技术,实现了在超低光照的条件下进行高质量拍摄;Wronski等人(2019)进一步使用连拍摄影的方式实现了图像超分辨率。
端到端光学算法联合设计的研究国内起步相对较晚,孙启霖团队提出端到端学习、光学编码的超分辨率SPAD相机(Sun等,2018,2020b),利用衍射元件实现了最优的光学采样和高质量的深度、超快速重建。孙启霖团队提出了基于向量分解的端到端衍射光学设计,利用可微的衍射元件结合可微的神经网络来实现单次曝光高动态范围成像(Sun等,2020a)。顿雄团队提出了基于可微衍射元件的用于全光谱计算成像的旋转对称衍射消色差技术(Dun等,2020),可以在自然光照下解决现实世界中各种场景的精细细节和色彩逼真度。申俊飞团队利用变种U-Net来模拟模糊过程,实现了带有单透镜的端到端大景深成像(Liu 等,2021)。侯晴宇团队使用快速可微光线追踪的端到端学习单镜头设计(Li等,2021)。香港中文大学(深圳)、点昀技术孙启霖团队于2021年首次实现了基于可微光线追踪的复杂透镜设计引擎,可直接构建光学参数与最终图像之间的可微关系(Sun等,2021b),将端到端相机设计推向了新的高度,未来有望颠覆传统的光学设计方式,引领计算成像进入光学、算法联合自动优化时代。
在产业化方面,受消费电子、工业和车载等产业需求的影响,国内图像传感器厂家如豪威、思特威、格科微和长光辰芯等对HDR 图像传感器产品均有产品推出或相关预研。其产品多数集中在多次曝光融合、DOL/Staggered HDR 等方案。
1)多传感器融合HDR成像。多曝光HDR成像, 通常会因鬼影检测不准确导致鬼影去除失败, 而单帧参考图的鬼影去除方法会导致细节损失,张登辉和霍永青(2018)提出了多曝光HDR成像生成去鬼影的HDR图像。根据两幅不同曝光图像累计直方图拓展原则,贺理等人(2020)对两幅图像分别进行动态范围拓展,并采用像素级融合方法实现对拓展图像序融合。
2)基于光强调制类 HDR成像。结合微通道板增强器和图像传感器,潘京生等人(2017)实现了模拟和光子计数两种模式的HDR成像。利用固定积分级数的成像方法,并结合图像熵和灰度分布方差构造评价函数,孙武等人(2018)实现了推扫式遥感相机超满阱HDR成像。王延杰等人(2014)、吕伟振等人(2014)、何舒文(2015)、吕涛等人(2015)、冯维等人(2017)、Xu和Hua(2017)、Sun等人(2019)、Zhou 等人(2019)均利用SLM(spatial light modulator)调制光强来实现 HDR成像。
3)多曝光图像融合。利用卷帘快门的空闲电路资源来缩短多次曝光帧间间隔,李晓晨等人(2013)提高了系统效率且加速了输出响应。为了实现实时的HDR图像融合,朴永杰等人(2014)对快速多分辨率金字塔分解融合算法进行了改进。胡燕翔和万莉(2014)使用整体亮度范围、局部对比度和颜色饱和度指导亮度融合来实现HDR图像融合。兼顾局部细节和全局亮度的融合权重函数,陈阔等人(2015)、江燊煜等人(2015)实现了较好的快速融合。针对噪声对HDR图像的影响,刘宗玥(2016)、陈晔曜等人(2018)提出了基于局部线性变换的色阶映射算法以及多曝光图像融合过程中的相关降噪算法。都琳等人(2017)利用基于色彩梯度的微分光流法来实现动态目标的HDR图像融合。李雪奥(2018)通过U-Net网络进行多曝光融合,加强了图像细节并一定程度去除运动影响。张淑芳等人(2018)采用主成分分析与梯度金字塔的HDR图像生成方法来避免生成图像的光晕和泛灰问题。李洪博等人(2018)利用转换增益、黑电平偏移参数间接获取融合系数,提高了相机的动态范围。吴蕊(2020) 使用3层级联网络结构和长短期记忆网络与膨胀卷积提升了HDR图像生成效果。刘颖等人(2020)提出了基于亮度分区模糊融合的高动态范围成像算法。
4)高动态范围图像重建。为了获取HDR场景的准确的亮度以及色度信息,Wu等人(2017a)提出了与CIEXYZ设备无关的基于相机色度法的色彩空间重建方法。针对图像过曝光和欠曝光区域细节易损失,常猛等人(2018)对图像过曝光和欠曝光区域利用双分支神经网络进行分别校正。Li和Fang(2019)提出了一种混合损失函数并使用通道注意机制来自适应地调整通道特征。叶年进(2020)提出基于深度学习的单帧LDR图像生成HDR图像的方法。Liu 等人(2020)提出了一种防抖的单曝光HDR复原方法。Liang等人(2020)通过设计具有多分支特征提取和多输出图像合成功能的深度逆色调映射网络,实现了单次滤波LDR图像重建HDR图像的方法。Hou等人(2021)使用深度不受监督的融合模型重建高动态范围图像。Ye等人(2021)利用深度双分支网络的单次曝光高动态范围图像重建。
5)色调映射。为了适应不同的图像亮度范围, 芦碧波等人(2017)首先利用韦伯—费希纳定律将图像分区,用不同尺度的参数的对数映射来实现对不同区域图像的动态范围压缩,再根据比例融合。通过在CIE空间内对数亮度平均值划分亮度阈值分段压缩, 刘颖等人(2018)实现了较好的细节和整体亮度。通过联合邻域强化连接和视觉皮质模型,李成等人(2018)实现了高视觉质量的HDR图像显示,对非均匀光照效果明显。王峰和严利民(2019)提出一种亮度分区和导向滤波相结合的色调映射算法。针对色调映射过程中亮暗区域不同的颜色偏移,冯维等人(2020)实现了对色度信息的自适应矫正。
在光场3维重建方面,谭铁牛院士团队(Wang 等,2018)设计了一种隐式多尺度融合方案来进行超分辨重建。张朔等人提出了光场空间超分辨率残差式网络(Zhang等,2019d)框架(ResLF)。为了实现光场子孔径图像的空间超分辨,Zhao等人(2020)提出了利用神经网络融合多尺度特征的光场图像超分辨方法。
在光场深度算法方面,Zhu和Wang(2016)在原先外极线图像算法的基础上优化了背景算法。Zhang等人(2016)提出了SPO(spinning parallelogram operator)算法,有效解决噪声、混叠和遮挡引入的问题,从而获取更准确的视差图。Zhang 等人(2016)通过最优方向搜索的方法对 EPI 中直线斜率进行初始估计,取得了较优异的深度估计效果。Wu等人(2019a)利用EPI清晰的纹理结构,将角度超分辨率建模为基于CNN的EPI角度信息恢复问题,对复杂结构以及不同采集形式获得的光场图像的重建效果均很优异。施圣贤团队(Ma等,2019)提出了VOMMANet深度估计网络,有效、快捷且高精度地处理非朗伯体,无/少纹理表面。
Zhang等人(2019c)提出了光场相机标定方法,包括六参数的光场相机多投影中心模型。Zhang和Wang(2018)研究了多投影中心模型对二次曲线和平面的映射,在光场中重建共自配极三角形。张琦和王庆(2021)提出了一种基于离心圆共自配极三角形的光场相机标定方法。宋征玺等人(2021)针对环形光场的2维对极几何图特征轨迹不完整问题,提出了一种基于3维霍夫变换的环形光场3维重建方法。Zhang等人(2021a)将传统针孔相机的自校准技术拓展到光场相机,提出了一种光场相机自校准方法。施圣贤团队(赵圆圆和施圣贤,2020)根据高斯几何光学提出了用于3维形状测量的非聚焦型光场相机尺度校准算法,绝对精度达到微米级别。
在光场PIV(LF-PIV)方面,施圣贤团队设计并封装了基于六边形微透镜阵列的光场相机(Shi等,2016a,b)。针对示踪颗粒的光场3维重构问题,Shi等人(2017)提出了基于密集光线追踪的DRT-MART(dense ray tracing-based multiplicative algebraic reconstruction technique)重构算法,可精准地重构示踪粒子,同时丰富的视角避免了虚假粒子的产生。针对主镜头—微透镜耦合光学畸变的矫正问题。Shi等人(2019)和Zhao等人(2021)先后针对常规镜头光场成像和移轴镜头光场成像的光学畸变,提出了基于弥散圆模型的校准算法和基于蒙特卡洛方法的MART权重系数算法。与权重系数、基于光线追踪的算法相比,该算法进一步提高了测量精度和稳定性。
3维重构和光场畸变算法的发展,有效地推动了这一新技术在多种复杂流动实验中的应用,包括逆压力梯度边界层(Zhao等,2019)、零质量冲击射流(Zhao等,2021)和超声速射流(Ding等,2019)。此外,系统的对比研究表明,单光场相机LF-PIV,在一定条件下可以达到与多相机层析PIV(tomographic PIV, Tomo-PIV)同等测量精度(Zhao等,2019)。
针对光场显微成像,清华大学戴琼海院士团队于提出了一个由摄像头阵列组成的光场显微成像系统,该系统能够实现基本的重聚焦、视角变换以及相位重建(Lin等,2015)。该团队近年提出一种数字自适应光学扫描光场互迭代层析成像方法(Zhou等,2019)。
国内在开展无透镜成像工作方面也取得了很大进展。Wu等人(2020a)采用菲涅尔波带片作为实现元件,在非相干光照明的情况下实现了单帧图像的高信噪比图像重建。以内嵌全息图的观点,采用压缩感知的方法解决图像重建中的孪生图像问题。Cai等人(2020)采用散射光学元件,在DiffuserCam的基础上进一步探讨散射介质对光场的编码作用,并开发求解光场图像的逆问题算法,能够实现利用散射元件的无透镜多视角成像。
国内的企业和高校在低光照成像方面开展了系列优秀工作。企业如华为手机的夜景模式令人惊艳,采用的方法包括RGB相机+灰度相机融合,使用RYYB阵列而不是传统的RGGB来获得更多的光,使用更长的burst来提高融合后的图片质量,以及使用优化的图像增强算法提高图像观感。高校如Wei等人(2020)通过对RAW域数据进行精准噪声建模来生成数据,以此训练的网络在真实数据上也表现优异;在使用闪光灯的方法中,为了解决闪光灯图片的色调苍白问题,提出了闪光和无闪光的融合方法。在算法方面,Yan等人(2013)提出基于优化的方法,用一个中间变量尺度图(scale map)来描述闪光灯下图的边缘与非闪光灯下图的边缘的区别;Guo等人(2020)提出双向指导滤波muGIF,在指导去噪的同时避免只有存在于闪光灯下图像中的信息渗透。
国内在结构光和TOF上的研究较多,但鲜有处理环境光干扰和非直接光干扰方面的工作。非直接光主要是指光在离开发射器后,在场景中反射了两次或以上,再回到相机。如果相机的时间分辨率足够大,达到皮秒级别,则可以观察到光的飞行,这样的超高帧率成像称做瞬态成像。通过分析瞬态成像,可以将直接光和非直接光分离。清华大学戴琼海院士和刘烨斌团队在这方面做出了突出工作。比如利用iTOF扫频(根据“频率—相位”矩阵)得到数据,并且利用非正弦特性得到高频段信息,从而实现瞬态成像(Lin等,2014,2017;Wang等,2021)。对于结构光中的多径干扰,Zhang等人(2019e)提出使用多个频率的图案来解决一个相机像素既看到前景又看到背景的情况(一个相机像素对应两个投影仪像素);Zhang等人(2021c)认为一个相机像素可能看到多个投影仪像素,用信号稀疏的先验知识的约束得到清晰的深度边缘。
国内科研机构对于计算摄影学的研究起步较晚。在自动白平衡方面,Shi等人(2016c)提出了一种新的深度神经网络结构来甄别与筛选图像中可能的光照颜色;Hu等人(2017)则通过深度神经网络识别出图像中易于推测出真实颜色的部分,从而计算出光照的颜色。在背景虚化方面,Shen等人(2016a,b)使用神经网络将人像图片分割成前景与后景,并对后景进行均匀虚化;Zhu等人(2017a)进一步提出了加速人像前后景分割的算法。在连拍摄影方面,Tan等人(2019)提出了一种新的残差模型(residual model)对连拍摄影进行降噪。
在端到端光学算法联合设计方面,特别在基于可微光线追踪的复杂透镜的端到端设计方面,点昀技术(深圳、南通)有限公司已率先突破了各环节联合优化壁垒,同时该公司亦拥有全套可微衍射端到端设计及其应用,并处于国际领先地位。但当前主流的端到端光学算法联合设计多出自国外研究团队,国内在相关领域仍需加强。但国内相关成像产业发达,尤其是手机、工业和车载等领域,新技术的发展往往容易得到快速的产业化应用,并反向推进学术进展,形成良性循环。
在高动态范围成像方面,国内外产业界研究主要集中在多次曝光融合、滤光片光强调制或新型像素结构等方法,学术界则不拘泥于量产需求,方法新颖且形态各异。针对消费电子等领域的 HDR成像应用,主要集中于手机厂商多次曝光融合方案或Staggered HDR传感器,除华为Mate和P系列外,均使用高通平台,然而平台价格较贵,定制周期较长,国内高性能图像处理平台较国外仍有较大差距,如苹果、三星等均有自研平台。就目前来看,静态场景HDR成像的捕获和处理已经日臻成熟,但动态场景HDR成像仍有巨大的挑战。从算法上,目前国内外差距正逐渐缩小,部分技术已达到国际先进水平。从成像器件上,目前国内外仍存在较大差距,大部分受限于半导体工艺、设计迭代周期等问题。从算法计算平台上,国内仅个别企业保持国际前列,其他厂商均依赖于国外厂商处理器产品。从新型方法上,国内已出现国际领先的技术,如点昀技术孙启霖团队(Sun等,2020a)利用衍射元件和深度学习算法实现了相关的动态HDR解决方案。
在光场成像方面,国外在光场发展初期进行了较为深入的探索,尤其是美国、德国率先展开了光场基础理论的研究和完善,逐渐搭建了光场深度估计、光场超分辨率和校准等方面的理论框架和基石。美国Lytro、Google和德国Raytrix同时也将光场成像应用于消费端、专业级和工业级,让光场逐渐走进大众的视野。国内科研机构和院所如清华大学、中国科学院自动化研究所、上海交通大学和西北工业大学等在国外研究的理论框架基础上,针对特定需求,不断深入开拓,在光场算法理论、光场应用上突破创新。从算法上,目前国内外差距正逐渐缩小,部分技术已达到国际领先水平。当美国Lytro消费级光场相机于2018年退出市场后,德国Raytrix曾一度是国际上唯一的光场相机提供商。国内的奕目科技VOMMA于2019年打破了这一垄断,推出了系列自主工业级光场相机,并在芯片、屏幕模组和动力电池等3维缺陷产线检测获得了批量应用。基于中国更为广泛的产业需求和政府的大力支持,国内光场技术在以上领域的弯道超车基本已经显现。
在光谱成像方面,国内在光谱成像,特别是快照式光谱成像研究上也有广泛研究,在这一领域,国内学者的研究与国外相比基本处于齐头并进的状态,例如南京大学提出的PMVIS系统、浙江大学提出的深度学习驱动的宽谱滤光片编码光谱成像技术,以及西安交通大学提出的分孔径光谱成像,分别都是各自方向的代表性技术之一。但当前主流的光谱重建算法多出自国外研究团队,国内在光谱重建优化算法方面的研究还有待加强。
在无透镜成像方面,国内外的研究目前都主要集中在光学系统的优化设计和图像重建算法的研究上。国外的研究兼顾这两个方面,因此涌现出了诸如FlatCam,DiffuserCam,PhlatCam及Voronoi-Fresnel等不同形式的无透镜光学方案,而且这些无透镜系统进一步应用到了无透镜的单帧图像解析高速视频、多光谱成像和隐私保护的目标识别等领域。而国内的研究重心则在于利用现有的光学结构,研究高效的图像重建算法,并将其应用到2维图像重建和光场重建等逆问题上。由于深度学习的迅速发展,国内外目前都在利用深度学习重建无透镜成像系统方面进行相关的研究工作。
在低光照成像方面,通常以产业主导,比如谷歌、华为、苹果等。从性能来看,华为手机的夜景模式已达领先水平,尽管在图像增强方面,华为手机和苹果手机选择了略微不同的路线,前者追求观感,后者强调真实。从发表的研究成果看,国外的影响力仍大于国内,如谷歌的相关夜景文献正引领着行业发展。
主动3维成像方面,其鲁棒性方面的研究(环境光干扰、非直接光干扰等)目前仍由国外高校主导,比如美国哥伦比亚大学的Shree Nayar团队,沙特阿拉伯阿卜杜拉国王科技大学(King Abdullah University of Science and Technology, KAUST)的Wolfgang Heidirch团队及其衍生团队(美国斯坦福大学的Gordon Wetzstein团队,美国普林斯顿大学的Felix Heide团队,香港中文大学深圳孙启霖团队等),美国卡内基梅隆大学(Carnegie Mellon University, CMU)的计算成像组,包括Srinivasa Narasimhan,Matthew P. O′Toole,美国威斯康辛大学麦迪逊分校的Mohit Gupta团队,加拿大多伦多大学的Kyros Kutulakos团队等。其原因可能在于此工作一般需要硬件、软件结合,是光学、电子和机械方面的交叉学科,前期在光学仪器上的投入较大。
在计算摄影方面,与国外科研机构相比,国内的科研机构对于计算摄影学的研究起步较晚。因此,欧美的科研机构一般处于“领跑”的状态,而国内的科研机构更多的是属于“跟跑”的状态:大多数计算摄影的开创性工作由欧美科研机构开展,而国内的科研机构开展的主要是对其提出方法的改进与优化。另一方面,国内的手机厂商,如华为、荣耀、OPPO、小米和VIVO等,均在计算摄影方面投入了大量的研究,并发布了很多计算摄影相关的新产品。然而,这些企业发表的论文较少,希望未来这些来自工业界的研究机构能够通过论坛、白皮书和发表论文等方式更好地使科研人员跟进计算摄影的产业应用情况与发展状态。
端到端光学算法联合设计旨在打破传统的成像系统中,光学、传感器、图像后处理算法以及显示处理等环节之间的壁垒,降低每个环节对人经验的依赖,为诸多场景提供傻瓜式的全新解决方案。端到端光学算法联合设计目前已有突破,可直接用于复杂透镜及其后处理之间的相互优化,且可兼容传统的光学设计以及后端处理,拥有诸多的应用,如镜片减薄、降低生产成本以及特殊功能应用。虽然该技术虽仍处于早期阶段,但已成为各大相关产业竞争焦点,短期看,未来几年便可得到相关产业应用。长期看,整体的趋势不仅是光学、传感器、算法和处理器的联合设计优化,而且朝着集成化发展,尤其是传感器自身对ISP的集成和光学配合,会大幅降低整个光学、摄像模组行业的生产成本和降低下游厂商对高性能处理器的依赖和提高自由度。此外,随着5G的发展,高速低延时通讯使得云端计算资源为手机计算成像部分需要复杂计算的应用提供了有力的保障,目前国内外主流厂商均已经开始布局。端到端成像技术的不断完善有望对整体成像产业链进行重新洗牌,突破成本和功能瓶颈。
高动态范围成像技术已逐步应用于消费电子、车载和工业等场景,且目前已经成为手机厂商的竞争焦点,亦是车规级图像传感器的必要条件。未来技术发展的关注点 主要包括:1)以Two-bucket相机、大小像素结构等为代表的新型模拟图像传感器,极大提升了低照度下的灵敏度和信噪比;SPAD阵列、QIS以及北京大学黄铁军团队的Spiking Cameras(Zheng等,2021)等为代表的计数型图像传感器,在高度灵敏的同时,将模拟的电荷积分以数字计数器替代,具有极大的动态范围和设计灵活性。2) 目前来看,传统的算法和近年来基于深度学习的神经网络等,虽在最终效果上取得了巨大的成功,但仍然面临算力消耗较为严重、速度慢和延时大等问题,尤其是在手机等对计算功耗极为敏感的场景以及工业、车载对延时敏感的场景。故而有两种技术趋势,一是将算法通过ASIC(application specific integrated circuit)门级电路优化实现,流式处理结构可确保低功耗和低延时,适合移动端低功耗的要求,亦满足工业、车载和军事等对延时的苛刻要求,整体模组成本因器件减少会有做降低,当前点昀技术已实现了相关技术。另一种技术趋势为云计算,将终端算力、功耗受限的场景上传至云端进行计算、随着5G低延时传输的普及,当前多数手机厂商、汽车厂商已经在云端处理布局。
光场成像在过去几年中发展迅速,尤其是在工业领域、VR/AR、生物医疗和自动驾驶领域逐步开展产业应用。针对不同产业的应用场景,对光场成像提出了不同的发展要求。未来技术发展的关注点主要包括:1)高精度3维重建。随着光场逐步在工业场景得到应用,相对于其他3维测量技术,光场在同等测量视野下,精度成为最大限制和短板。2)对非朗伯体、无纹理区域和遮挡区域的3维重建。基于被动式成像的特性,光场的核心缺点和双目成像类似,对于非朗伯体、无纹理区域存在局限,部分光场算法精度会降低或者失效。3)真实光照场景的高质量重建。在虚拟现实领域,光场成像系统能够将多角度光照信息充分采集。现有算法重构的3维场景仍然存在不够真实的问题。4)高性能3维重建。在自动驾驶和生物医疗领域对于3维测量的实时性和计算效率仍然存在瓶颈。
光谱成像在过去的几年中得到了长足发展,特别是像素级滤光片阵列光谱成像技术,是未来极有可能在手机等移动端实现光谱成像系统落地的技术。但尽管超表面、光子晶体和银纳米线等平面滤光片器件极大地降低了像素级滤光片的制作的难度,这些新型滤光片器件普遍对角度敏感,使得真正用于实际场景时使用条件受限。未来迫切需要发展兼顾制备且对角度变化鲁棒的滤光片器件,并辅以面向应用场景的滤光片光谱曲线和光谱重建算法端到端协同设计。此外,具有实时成像能力(采集和处理均实时)的像素级滤光片光谱成像技术高空间和高光谱分辨率难以兼顾,尽管已有一些多光谱融合的解决方案,但融合的光谱精度仍有待提升,如何以较低的时间代价高精度地获取更高空间分辨率和更高光谱分辨率的高光谱图像,在未来仍是一个十分值得研究的问题。
无透镜成像系统具有极简的硬件结构,将图像的重建更多地转移到相对廉价的算法之上,因此在简化光学系统方面具有极强的应用价值。随着深度学习算法的更广泛应用,这种无透镜成像的方式有望在计算环境成像、隐私保护和物联网等诸多领域取得更广泛的应用。
低光照成像目前取得了很大的进展,相关研究成果已经得到广泛应用,但仍存在一些问题,如单帧去噪因信息损失过多有成像质量瓶颈;连拍去噪拍摄时间过长,运算复杂度也较高,在极弱光下依然无法使用;使用闪光灯的方法局限于短距离;新型传感器如SPAD的空间分辨率较低,像素较大。低光照下拍视频依然是难点、痛点。
主动3维成像在解决环境光干扰和非直接光干扰方面涌现了很多方案,大部分成果已经申请专利,有的已经投入使用。但是很多方案仅针对一个问题。对于3维成像,最终需要的是一个高空间分辨率和高时间分辨率、高深度准确性的传感器,且在复杂恶劣的环境下也能稳定工作,并且价格低廉。目前还缺少相关方法,短期内可能会出现现有的方法和深度学习的结合的方案。点昀技术即将推出相关高精度、低延时的RGBD相机。
计算摄影在过去10年经过了蓬勃的发展,大部分核心问题已经基本得到解决。然而,仍旧存在一些问题:1)大部分计算摄影算法,如连拍摄影算法,无法做到实时。因此其算法仅能在拍摄时进行,而无法运行在取景器中。如何加速这些计算算法,使其可以实时运行是一个亟待解决的问题。2)计算摄影目前的重点仍旧局限在照片拍摄,而不是视频拍摄。随着各个短视频平台的兴起,视频拍摄逐渐成为主流。因此,高质量视频拍摄(低光照、高动态范围)是一个值得研究的方向。3)目前的连拍摄影仍旧是在像素级别进行计算,如果将场景识别等方法结合到照片拍摄过程中,照片拍摄质量可能会进一步得到提升。
致 谢本文由中国图象图形学学会三维视觉专业委员会组织撰写,该专委会更多详情请见链接:http://www.csig.org.cn/detail/2696。