姚 湘,徐平平,王华君
(1. 无锡太湖学院 工学院,江苏 无锡 214064;2. 东南大学 信息科学与工程学院,江苏 南京 211189)
基于非线性知识迁移的交叉视角动作识别
姚 湘1,徐平平2,王华君1
(1. 无锡太湖学院 工学院,江苏 无锡 214064;2. 东南大学 信息科学与工程学院,江苏 南京 211189)
针对一般基于知识迁移的方法对未知视角不可用和难以扩展新数据的问题,提出一种基于非线性模型的无监督学习方法,即基于非线性知识迁移(nonlinear knowledge shift,NKS)的串联特征学习。提取密集动作轨迹,并利用通用码书编码;提取动作捕捉数据模拟点的密集轨迹,产生一个仿真数据的大型语料库来学习NKS,其中,轨迹提取前在视角方向上投影模拟点;再从真实视频中提取轨迹,用于训练和测试表示学习过程的轨迹,利用多类支持向量机分类串联特征。在两大通用人体动作识别数据库IXMAS和3D(N-UCLA)上验证了该方法的有效性,实验结果表明,在IXMAS数据集、不同摄像机情况下,该方法的识别精度高于同类方法至少3.5%,在3D(N-NCLA)数据集、双摄像头情况下,识别精度至少提高4.4%。在大部分动作识别中也取得最佳识别率,此外,该方法的训练时间可忽略不计,有望应用于在线人体动作识别系统。
非线性知识迁移;多类支持向量机;动作识别;无监督学习;串联特征
视频动作识别[1]是人机交互、智能监控和视频检索应用中的重要研究课题,大多固定视点[1-2]的动作识别方法都能有效地识别共同视点的动作,但当视角变化时,其性能显著下降,这是由于当从不同视点观察时,相同动作表现非常不同[3-4]。如何解决不同视点下的动作识别是该领域的研究热点和最大挑战。
实用的动作识别系统应