人脸识别中基于流形学习的特征提取方法研究 下载本文

硕士学位论文 作为标准的理由是双眼距离一般不会受表情和脸部细节变化的影响。其规范化过程为,首先固定双眼位置,并旋转人脸图像使得两眼的连线保持水平,然后切割为固定大小的人脸图像,最后将图像的像素值进行归一化处理,可消除部分光照的影响。

人脸图像特征提取是人脸识别系统的关键环节。在计算机中,人脸灰度图像是以二维灰度值矩阵的形式存储的,用什么样的知识来描述人脸是一个特别重要的问题。由于人脸的非刚性,同时受到光照、姿态、表情、遮挡、眼镜、胡须等干扰因素的影响,使得同一个人在不同条件下的差异性甚至比不同人在相同条件下的差异性要大,所以给人脸的特征描述带来了很大的困难。人脸图像特征提取以期达到两个目的:一是寻求最具鉴别性的描述特征,使得其特征能够最大限度地区分此类与彼类;二是将模式的数据特征进行维数约简。因此,对于人脸识别来说,特征提取是个十分关键的部分。

人脸图像分类是根据特征提取的结果,选取合适的分类器与库中人脸图像的特征进行对比,进而判断该人脸所属的身份信息。

1.4人脸特征提取的主要方法

由于人脸特征的表征方法或图像间相似度计算方法的不同,我们可将人脸识别常用方法大致分为基于几何特征的方法、基于机器学习的方法、基于子空间分析的方法、基于弹性模型的方法以及基于三维形变模型的方法等。早期的人脸识别研究主要集中于基于几何特征的方法[2]的研究,是将人脸部位和它们之间结构的几何关系作为人脸的几何特征。基于机器学习的方法是利用统计分析和机器学习的理论从样本中学习出人脸的特征或类别,主要分为神经网络

[3]

、支持向量机[4]和AdaBoost算法[5]。基于弹性模型的方法[6]考虑了局部人脸

的细节特征,保留了人脸的空间分布信息,以可变形匹配方式取得较好的识别效果,但是计算量大。基于三维形变模型的方法[7]较好地处理光照和姿态问题,但是计算过于复杂,技术还不成熟,很难直接在实际中应用。在这些人脸特征提取的方法中,子空间分析方法已成为主流方法之一。

子空间分析方法[8,9]的思想就是依据一定的性能目标来寻找一个线性或非线性的空间变换,把原始数据从高维空间映射到一个低维子空间中,使原始空间中稀疏的数据在子空间中的分布更为紧凑,更好地描述数据,同时降低了计算的复杂度。经过学者多年的研究,涌现出了众多人脸子空间分析的方法,图1.2显示了子空间方法的发展过程。可以看出,子空间分析方法主要可分为线性和

非线性两种。下面具体介绍子空间分析的方法。

3

人脸识别中基于流形学习的特征提取方法研究 PCA线性子空间方法LDAICA子空间方法基于核的方法非线性子空间方法KLDAISOMAP基于流形学习的方法LLEIsometricProjectionNPEKPCALELPP 图1.2 子空间分析方法发展过程

1.4.1 线性子空间方法

线性子空间方法是嵌入在高维输入空间中的数据结构呈现线性时,在高维空间中寻找一个合适的低维子空间,以期得到一个比原数据集更紧致的低维表示。线性子空间方法中最有代表性的是主成分分析法(Principal Component Analysis,PCA)、线性判别分析法(Linear Discriminant Analysis,LDA)、独立成分分析法(Independent Component Analysis,ICA)。

(1)主成分分析法

主成分分析法(PCA)是一种在多元统计中分析数据的方法。其思想是通过线性变换保留高维数据空间中的主要成分,舍弃含信息量较少的次要成分,以达到降维的目的。

Turk和Pentlad[10]最早将PCA应用于人脸识别。他们发现把K-L变换得到的特征向量还原为图像矩阵时,是标准化的人脸图像,从而揭示了采用K-L展开表示人脸的本质,因此形象的称之为特征脸(Eigenface)。由于PCA要将人脸图像矩阵转换为行或者列向量,因而所产生的向量空间维数过高,使得计算的复杂度增高。针对此问题,Yang Jian[11]等人提出了二维主成分分析(2DPCA)方法,该方法以图像矩阵为分析对象,在构建图

像的协方差矩阵时,直接将原始人脸图像矩阵作为输入,从而很大程度上降低了计算的复杂度。Scholkopf[12]等人将核技术应用到PCA中并提出核主成分分析(KPCA)方法,通过核函数将原始输入数据映射到更高维的空间,然后在此空间中使用PCA降维。

PCA本质上是以所有样本的最优重建为目的,在高维数据线性可分的前提

4

硕士学位论文 下,很好地保持了原始图像数据的全局欧氏结构。由于人脸数据受到光照、姿态和表情等的影响,其数据呈非线性,另外PCA没有考虑类间差异信息,因此所得的特征对分类来说不是最优的。

(2)线性判别分析法

线性判别分析(LDA)是模式识别中用于特征提取的经典统计方法,其基本思想是寻找使得Fisher准则函数达到极值的向量作为一个最佳投影方向,将最大化原始数据的类间离散度与类内离散度之比作为目标函数,从而使得投影后原始数据中的同类的数据聚集在一起,而异类的数据尽量散开。图1.3是两类二维空间中的样本经PCA和LDA投影到一维空间的示意图,与PCA相比较,LDA提取的特征更加有利于分类识别。

图1.3 PCA和LDA最佳投影方向比较

Belhumeur[13]等将PCA和LDA相结合的方法应用于人脸识别,称之为Fisher脸(Fisherfaces)方法。实验表明,同PCA相比,LDA能更好的反映不同人脸之间的差异信息,即增强类间差异性。然而类内散度矩阵通常是奇异的,也就是典型的小样本问题,无法直接求类内散度矩阵的逆矩阵。这是由于待测图像矢量的高维数,在现实问题中很难找到足够多的训练样本来确保类内散度矩阵的可逆性。Zhao[14]等人提出了扰动法,对类内散度矩阵的对角线元素加上一个很小的正数来解决矩阵的奇异问题。Yu[15]等人提出了称为直接线性判别分析(Direct LDA)的方法,该方法有效去除了类间离散度矩阵的零空间信息。刘永俊[16]等人提出基于散度差的线性鉴别方法,将Fisher鉴别准则中的散度比改进为散度差,在保持物理意义不变的前提下,避免了计算类内散度矩阵的逆矩阵。

Fisherfaces方法的特征向量体现了不同对象人脸的变化,但是对于同一个

5

人脸识别中基于流形学习的特征提取方法研究 对象受光照、表情及姿态等各种因素的影响产生的类内变化没有进行考虑。另外,LDA要求不同类别在模式空间中不仅具有线性可分性,而且符合高斯分布。因此,对于非线性可分样本的分类识别,其识别效果具有局限性。 (3)独立成分分析法

独立成分分析(ICA)的基本思想是通过线性变换,从训练样本中获取一组相互独立的分量,用独立分量表示样本数据。PCA是二阶统计意义下去相关,而ICA是在高阶统计意义下去相关,使得信号的所有阶统计都得到了充分利用。

ICA主要是应用在盲信号分离上。Bartlett[17]等首次用ICA方法来表示人脸,将人脸图像视为多个相互独立的基图像(即人脸的特征图像)的线性组合。由于人脸的很多重要信息隐含于图像像素的高阶统计关系中,而ICA方法能够更好地描述人脸图像的局部特征。ICA每次得到的独立分量在顺序上具有不确定性,因此设计一个统一的标准来选择最佳独立分量是比较困难的,一般依据经验选择,这使得ICA的实验结果可能不尽相同。

以上三种经典线性子空间方法是在人脸图像线性可分的前提下,来保持人脸图像样本的全局欧氏结构,很好地保持了原始人脸图像的信息。

1.4.2 非线性子空间方法

由于人脸的维数很高,人脸在高维空间中呈现非线性可分,上述线性方法对于高维数的数据很难挖掘其几何结构。针对这个问题,近年来学者们提出了许多非线性子空间方法,而非线性的方法主要包括基于核的方法和基于流形学习的方法。

(1)基于核的方法

由于人脸本质是非线性的,线性子空间方法不能有效的表征人脸特征,而非线性核方法很好地解决了这个问题。核方法的思想来自于支持向量机(SVM)

[4]

,是通过核函数将低维输入空间中的线性不可分数据映射到高维隐特征空间

F(即再生核Hilber空间)中,使得数据变得线性可分(近似线性可分),然后在这个空间中使用传统线性方法进行特征提取,如图1.4所示,数据经过升维后可分性增强。由于特征向量无需准确计算出来,仅需计算F中两个向量的内积,因此称F为隐空间。其中,内积的计算是通过选择合适的核函数来完成的,如多项式核函数、高斯核函数等。核方法不仅利用高维空间让数据变得易于处理,不可分的数据变得可分,而且避免了高维空间产生的“维数灾难”问题。

6