基于Leap Motion的虚拟课堂手势交互方法①

2022-08-25 02:51胡发丽高全力王西汉李庆敏
计算机系统应用 2022年8期
关键词:握拳手部手势

胡发丽, 高全力, 王西汉, 李庆敏

(西安工程大学 计算机科学学院, 西安 710048)

虚拟现实技术自问世以来就受到了人们的普遍关注, 在教育、军事、医疗等方面得到广泛的应用. 疫情以来, 线上教学成为人们关注的主要教学方式, 但线上教学多以视频语音为主, 缺乏课堂沉浸感, 虚拟现实技术的出现, 为远程沉浸式教学提供了强有力的技术支撑.

但目前的虚拟课堂的交互方式主要有键盘、鼠标以及手柄等, 这些交互方式形式单一, 难以完全满足人们沉浸式体验的需求[1]. 为增强虚拟课堂的人机交互体验, 人们不断探寻新的交互方式如手势、语音、人脑控制等. 其中, 手势在传达信息方面承担着重要的角色,是人体与外界交流的主要方式之一, 不同的手势代表着不同的信息. 因此, 可以利用手势交互达到在虚拟地理课堂中自然交互的目的, 体验全新的课堂模式.

1 相关工作

20世纪80年代开始, 人们已经开始通过数据手套上的传感器来获取人的手势信息. 这种方式具有识别数据精准、速度快的优点, 但数据手套价格十分昂贵, 并且穿脱不方便, 影响使用者的操作体验[2]. 随着虚拟现实技术的飞速发展, Leap Motion和Kinect等体感传感器出现并被应用在手势识别中, 这类设备使用计算机图像处理技术, 对传感器获取到的图像或视频进行特征提取和手势识别, 为手势交互提供了新的解决方案[3,4].

林书坦等人[5]基于Leap Motion构建了一套手写数字系统, 通过建立手部模型来判定用户所指示的数字, 该方法具有较高的识别率. 2019年, 金童等人[6]基于Leap Motion捕捉手势的轨迹, 构建了一套可以用于空中书写和正确笔画顺序演示功能的汉字书写和识别系统, 该系统解决了中小学生和外国友人汉字学习时的枯燥感, 极大提高了交互体验, 但手势识别率有待提高. 同年, 李菲菲[7]基于Leap Motion构建虚拟健身房交互框架并将其应用于Unity 3D构建的健身房虚拟场景中, 使得虚拟健身房的交互体验更加逼真有趣. 然而,该方法在手势识别速度上并没有达到理想的效果.2020年, 林莹莹等人[8]针对陶瓷制作条件严苛的局限性问题, 采用Leap Motion开发了能够使用裸手交互的、具有良好沉浸感的虚拟现实陶艺体验系统, 但该方法对识别范围要求较高, 边缘处操作很不流畅. 虽然Leap Motion对手部能够进行精准高效的追踪, 但是由于Leap Motion的识别范围有限, 仅在传感器上方25–600 mm的区域内有效. 因此当手部超出范围时, 这类方法会出现识别精度下降的问题.

近年来, 深度学习在图像分类、目标检测等计算机视觉领域得到了飞速的发展[9–15], 因此许多研究人员将深度学习应用在手势识别领域. 卢迪等人[16]提出一种基于深度学习的手势识别算法, 该算法采用改进的目标检测框架YOLOv4-tiny, 能够对视频图像中的手势进行准确的识别. 王粉花等人[17]在YOLOv3-tiny的基础上进行算法改进, 较大地提高了手势识别速度. 常建红[18]提出一种改进的Faster R-CNN的手势识别算法, 该算法通过两阶段目标检测方式提高了常规手势的识别准确率, 然而在检测速率上可能慢于一阶段目标检测方法. 胡鹏程[19]采用LSTM 来构建循环神经网络用于识別时序数据, 实现了动态的手势识别, 但LSTM的网络较深计算复杂非常耗时. 吴晓凤等人[20]通过修改Faster R-CNN框架的关键参数并提出扰动交叠率算法, 进一步提高了识别准确率. 然而, 这类基于深度学习的算法通常采用RGB图像, 对复杂背景的识别鲁棒性相对较弱. 同时多数算法仅仅识别手势所包含的语义信息, 无法获取当前手的空间位置.

本文针对Leap Motion 在识别范围边缘识别率低以及识别速度慢的问题, 将Leap Motion精确手部空间位置追踪与基于深度神经网络的手势识别相结合, 提出了一种基于深度神经网络的手势交互方法. 该方法设计和定义了一套交互手势, 通过基于深度神经网络的目标检测框架识别Leap Motion采集到的红外图像,然后在手势识别的基础上设计了三维交互系统并将其应用到虚拟场景中. 经实验证明, 该方法能够有效提高手势识别率和识别速度, 并且在Leap Motion识别范围边缘仍具有较高的识别率, 实现在虚拟课堂中自然地进行人机交互.

2 Leap Motion的手势识别原理

Leap Motion 是一款用于手部姿态捕捉的体感控制器, 该控制器具有体积小、售价适中、手部姿态识别精度高的优点[21]. 设备内部有两个用于识别并接收红外光反射回馈的球面摄像头, 另有4个负责提供光源的红外LED, 其内部结构如图1所示.

图1 Leap Motion内部结构

光源透过顶层的滤光片后会被障碍物(例如人手)反射回摄像头, 再经由内部集成的算法计算得出主要部位(如关节)的相关坐标数据. 这些数据可以经由Leap Service转发给用户的应用, 做进一步处理. Leap Motion最顶层的滤光片起到了很重要的作用, 它可以过滤除波长在940 nm以外的其他杂波, 只容许自带红外LED产生的红外光波进出, 所以Leap Motion控制器并不需要其他的滤波器, 就能得到一个去除掉复杂背景的红外成像, 使得获取到的图像背景简单利于识别[22].

Leap Motion可以实时检测跟踪传感器上方25–600 mm的扇形区域内手部的空间位置和方向, 并建立手的立体模型[23], Leap Motion识别范围如图2所示.

图2 Leap Motion识别范围

Leap Motion是基于双目视觉的手势识别设备, 通过两个摄像机来提取包括三维位置在内的信息进行手势的综合分析判断, 建立手部的立体模型. 由于需要进行立体匹配, 复杂的立体模型需要大量的数据, 计算相对来说比较复杂[24,25].

3 手势交互方法设计

3.1 手势设计与定义

Leap Motion设备仅支持预定义手势, 如: 挥手、点击、画圈等, 这些预定义手势并不能满足本文交互场景的实际需求, 因此本文自定义手势进行交互. 手势设计需要从用户体验、交互过程以及交互系统等方面综合考量. 本文对30名测试者进行手势设计调研, 通过大量的用户手势实验反馈, 最后选定8个手势进行交互. 本文手势交互过程分为两步: 第1步为单一手势识别; 第2步为手势运动判断. 手势交互开始时会进行开始确认, 若要切换手势则需进行切换操作. 交互过程中的单一手势分别为左手握拳、右手握拳、左手五指伸开、右手五指伸开、左手食指伸出其他手指握拳、右手食指伸出其他手指握拳, 系统识别出手势后将进入运动判断阶段, 左手握拳右滑、右手握拳左滑、左手五指伸开向上抬起、右手五指伸开向下放下、左手食指伸出其他手指握拳点击、右手食指伸出其他手指握拳点击. 手势设计对照如表1所示.

表1 手势设计对照表

3.2 手势识别方法

本文手势识别方法采用YOLOv5目标检测框架并在其基础上针对手势识别进行一定改进. 手势识别方法结构主要由输入端、backbone、neck和prediction四个部分组成, 其结构图如图3、图4所示.

图3 手势识别方法结构图

其中输入端输入的图像为Leap Motion采集的红外图像, 利用Mosaic数据增强技术对图片进行拼接.Mosaic数据增强方法基本原理是读取原始数据集中 4张图片, 对 4 张图片进行翻转、色域变换以及缩放等操作, 然后按照 4个方向的位置拼接在一起. 通过Mosaic数据增强, 能够丰富物体的检测背景, 提高网络的鲁棒性. 由于手势操作需在Leap Motion有效范围内进行, 操作时手势放置位置距离设备较近, 因此大部分手势数据集的手势宽高比在1:1.4左右, 小目标检测相对较少. 为了避免使用通用锚框参数在手势数据集上造成漏检误检的情况, 达到最优检测效果的同时减少先验的数量, 提高检测速度. 本文使用K-means++算法聚类手势数据集的anchor boxes, 在19×19, 38×38两个尺度上各聚类生成3个锚框, 共6个锚框. 相比之前的9个锚框能够有效减少锚框数量, 提升检测速度. 由于不同图片具有不同的长度和宽度. 因此需将原始图像统一缩放到标准大小, 并将其输入到网络中, 即自适应图像缩放法. 本文采用缩减黑边的方式, 对原始图像自适应的添加最少的黑边, 提高目标检测和推理的速度.

手势识别的backbone部分由Focus和CSP组成.其中Focus主要实现对图片进行切片操作, 切片操作是指将数据切分为4份, 每份数据相当于2倍下采样得到, 然后在channel维度进行拼接, 最后进行卷积操作. 这样做可以最大程度地减少信息损失有利于进行下采样操作. CSP模块中共有两种CSP结构(见图4),CSP1_X结构带有残差结构应用于backbone, 能够有效防止网络加深时所引起的梯度消失, 从而使得到的特征粒度更细. 另一种CSP2_X结构将主干网络的输出分成了两个分支, 通过concat操作使网络对特征的融合能力得到加强, 保留了更丰富的特征信息, 该结构应用于neck部分.

图4 部分组件详细结构图

手势识别方法的neck部分采用FPN+PAN的结构, 用于生成特征金字塔. 特征金字塔会增强模型对于不同缩放尺度对象的检测, 丰富了特征图的表达能力,加强了网络特征融合的能力. 根据观察, 通过Leap Motion采集到的红外图像中, 手的大小处在一定范围之间, 因此不需要针对较小目标进行检测. 在本文中,为了进一步提高检测速度, prediction部分只针对19×19, 38×38两个尺度进行.

预测部分的损失函数由classification loss (分类损失函数)和bounding box regression loss (回归损失函数)两部分构成. 采用Focal Loss评价目标框和预测框的类损失和置信度损失, 采用GIoU_Loss评价bounding box的位置损失. Focal Loss损失考虑的是目标检测中正负样本严重不均衡的问题. 公式如式(1)所示:

函数GIoU是源自IoU的一种边框预测的损失计算方法, 定义如式(2):

其中,IoU可以由式(3)计算得到:

B是预测框和真实框,GIoU Loss= 1 -GIoU.

3.3 动态手势判断方法

考虑到基于深度卷积神经网络的手势识别方法只能识别图像信息, 并不能体现手部的空间位置信息, 而Leap Motion能够获取手部结构的关节点信息, 故本文将结合Leap Motion获取到的手部关节点信息来进行动态手势的判断. 手的运动是通过对比当前帧与之前特定帧得到的, 通过对比前后帧的数据来判定手的运动变化, 本文主要通过判断手部关节点的位移来判断手势的运动情况.

Leap Motion API提供手部模型的关节点坐标, 通过计算两个时刻关节点之间的欧氏距离, 计算公式如式(4), 可以描述手势运动的空间移动信息.

其中,P为关节点位移, (xi,yi,zi)为关节点在i时刻的空间坐标, (xc,yc,zc)为关节点在c时刻的空间坐标.

3.4 手势交互流程

本文的手势交互过程分为单一手势识别、动态手势运动判断两个部分. 首先通过Leap Motion进行数据采集, 并将获取到的红外图像输入到手势识别方法中进行特征提取进而实现对手势的识别与分类, 单一手势的识别结果将作为判断动态手势的重要条件. 手势的运动情况通过对比前后帧位置变化进行判定, 图5为手势交互流程.

图5 手势交互流程

其中手势模块任务分为6个模块, 分别为判断是否左手握拳右滑、判断是否右手握拳左滑、判断是否左手五指伸开向上抬起、判断是否右手五指伸开向下放下、判断是否左手食指伸出(其他手指握拳)点击、判断是否右手食指伸出(其他手指握拳)点击, 若判断结果为真, 则做出对应的物体左转、物体右转、物体放大、物体缩小、选中物体、更换物体风格的相应操作.

4 实验设计

4.1 实验平台

本文实验在PC机上完成, PC配置为Windows 10操作系统, 处理器为Inrel(R)Core(TM)i7-9700k, 内存32 GB, GPU为NVIDIA GeForce GTX 1 080, GPU内存为24 GB, Unity版本为2 018.4.16, 以及一台Leap Motion.

4.2 实验数据

手势识别的实验数据为Leap Motion采集到的红外图像. 数据集共采集26 000张, 包括8种手势, 手势数据采集过程如图6所示, 手势示例如图7所示. 经过多次实验测试对比, 决定将其中80%的图片用来训练,20%的图片用来测试. 同时利用Leap Motion官方网站提供的开发文件来获取手部坐标数据.

图6 手势数据集采集过程

图7 手势示例

4.3 数据集标签的标定

通过使用LabelImg工具对红外图像中的手势进行逐一标注, 并生成相对应的.txt文件, 文件内包含手势类别、归一化的标注框的中心坐标(x,y), 归一化的标注框的宽和高(w,h). 归一化公式如式(5)–式(8)所示:

4.4 数据增强与数据预处理

本文在采取一定数量的数据之后对数据集进行数据扩增. 利用数据增广技术如平移、缩放、对比度变换, 添加噪声等, 将数据集扩充到26 000张, 同时对数据进行预处理工作: 利用Mosaic数据增强技术对图片进行拼接; 使用K-means++算法进行聚类生成锚框, 以及采用缩减黑边的方式, 对原始图像自适应的添加最少的黑边等.

4.5 实验过程

本文首先对YOLOv5手势识别算法和本文改进过的手势识别方法进行实验对比, 然后在虚拟场景下进行手势交互实验. 本文的交互场景为虚拟地理课堂三维系统, 系统使用unity游戏开发引擎, 能够使学生沉浸式体验高仿真虚拟课堂, 本文选取《认识地球》一课, 通过完成相对应的手势操作实现地球仪的放大、缩小、旋转、点击地球仪选中地图板块、点击地球仪更换地球仪风格的操作, 如图8所示.

图8 虚拟场景交互

5 实验结果及分析

5.1 手势识别效果分析

实验使用平均精度均值(mean average precision,mAP)作为评价标准, 它综合考虑了查准率和查全率.平均精度均值首先需要考虑计算每一个物体类别的平均精度(AP), AP 是计算某一类 P-R 曲线下的面积,mAP 则是计算所有类别 P-R 曲线下面积的平均值. 本文对比了YOLOv5手势识别算法与本文手势识别方法的mAP值、处理时间以及P-R曲线如表2、表3、图9、图10所示.

表2 不同手势识别方法平均mAP对比

表3 不同手势识别方法处理时间对比(ms)

图9 YOLOv5手势识别算法的P-R曲线

通过分析表2、图9、图10可以发现, 本文手势识别方法的平均精度值比YOLOv5算法的平均精度值高, 单个手势的识别精度(即P-R曲线下的面积)也比YOLOv5算法的识别精度高. 说明本文使用K-means++聚类算法重新生成的锚框大小比通用的锚框大小更适合本文的手势数据集, 从而使网络对目标的检测变得更加准确, 减少了漏检和误检的次数.

图10 本文手势识别方法的P-R曲线

从表3可以发现, 本文改进过的手势识别算法的数据的预处理时间以及推理时间更短. 这是由于本文仅在19×19和38×38两个尺度上进行预测, 锚框数量由原来的9个变为6个, 锚框数量的减少大大提高了识别速度, 从而更好实现实时识别的效果.

评估分类器性能好坏的方法是观察P-R曲线, 如果Recall值在增长的同时, Precision的值能够保持在一个很高的水平, 说明分类器的性能较好, 相反性能比较差的分类器可能会损失很多Precision值才能换来Recall值的提高. 从图9、图10可以看出, 本文手势识别算法的P-R曲线比YOLOv5手势识别算法的P-R曲线更稳定, 即在Recall值不断增加的情况下, Precision依然能保持较高的值. 而YOLOv5手势识别算法在Recall值不断增加的过程中损耗了更多的Precision的值. 因此本文改进的手势识别方法分类效果更好, 有明显的改善效果.

5.2 手势交互效果分析

为了验证本文手势交互方法的有效性, 本文设计了两个实验方案: 方案一为本文的手势交互方案; 方案二为使用Leap Motion自带的手势交互方案. 随机选取10名被试者进行实验, 实验者在未被告知系统差别的情况下, 单个手势分别通过两个方案进行实验, 记录每种手势交互20次所需时间以及每种手势的识别成功率.

通过观察图11、图12不同手势交互方法完成交互所需时间以及每种手势的识别成功率可以发现, 使用Leap Motion自带的手势交互方法所需要的时间更长、每种手势的识别成功率更低.

图11 不同手势交互方法完成手势所需时间

图12 不同手势交互方法手势识别成功率

Leap Motion是基于双目摄像头进行深度成像, 根据双目信息推算出深度, 然后从深度图得到手部模型,最后利用关键点信息识别手势. 由于Leap Motion是对手部关键点进行检测, 所以对于手指重叠的复杂情况不能准确捕获, 建立的模型与实际情况存在较大偏差,出现两只手指识别成一只手指的情况, 尤其在范围边界, 手势识别率下降, 出现剧烈抖动, 影响操作体验.

而本文基于深度神经网络对手势进行识别, 是对手部的红外图像直接进行识别和分类, 不会出现手部模型匹配不准而出现手部抖动的现象, 识别过程更流畅.

经过多次实验发现, 采用Leap Motion自带手势识别系统进行交互的最佳交互区域在Leap Motion上方90–430 mm, 超过最佳交互区域的范围会出现识别不准确的现象, 而采用本文的手势识别交互方法在范围边界仍可以进行交互. 为更好地对比不同的手势识别交互方法在不同识别范围内手势识别的准确率, 本文记录了两种交互方法在不同识别区域范围内完成8个手势, 每个手势完成5次的手势识别情况, 对其结果进行对比, 如表4所示.

表4 不同交互区域手势识别情况

从表4中可以看出不论是在最佳识别区域范围内还是最佳识别区域范围外, 本文的手势识别交互方法都优于Leap Motion自带的手势识别方法, 具有较好的识别效果, 进一步验证了本文手势识别交互方案的优越性.

6 结束语

本文提出了一种基于深度神经网络的Leap Motion手势交互方法, 设计出一套交互手势, 将深度神经网络运用到手势识别当中, 并在此基础上设计了三维交互系统将其应用到虚拟场景中. 通过实验对比发现, 本文的手势识别交互方法无论在识别精度还是识别速度上都优于Leap Motion自带识别系统, 并且在Leap Motion识别范围边界处仍能保持较高的识别率. 未来, 会进一步增加复杂动态手势的研究, 为用户提供更加丰富的交互体验.

猜你喜欢
握拳手部手势
走路握拳头脑健
高通联手Ultraleap 为XR2提供手部交互解决方案
挑战!神秘手势
经常握拳 延年益寿
经常握拳 可以提神
厨房料理小妙招——山药去皮手不痒的窍门
胜利的手势
认手势说数字