基于信息融合的面部表情分析与识别_第1页
基于信息融合的面部表情分析与识别_第2页
基于信息融合的面部表情分析与识别_第3页
基于信息融合的面部表情分析与识别_第4页
基于信息融合的面部表情分析与识别_第5页
已阅读5页,还剩63页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、基于信息融合的面部表情分析基于信息融合的面部表情分析与识别与识别 研 究 生:刘 松 指导老师:应自炉 学科专业:信号与信息处理 论文选题来源论文选题来源广东自然科学基金项目: (032356) 研究现状研究现状国际上对人脸面部表情识别的研究现在逐渐成为科研热点。国内外很多机构都在进行这方面的研究,尤其美国、日本。进入90 年代,对人脸表情识别的研究变得非常活跃,吸引了大量的研究人员和基金支持,EI 可检索到的相关文献就多达数千篇。美国、日本、英国、德国、荷兰、法国等经济发达国家和发展中国家如印度、新加坡都有专门的研究组进行这方面的研究。其中MIT、CMU、Maryland 大学、Standf

2、ord 大学、日本城蹊大学、东京大学、ATR 研究所的贡献尤为突出 。国内国内的清华大学、哈尔滨工业大学、中科院、中国科技大学、南京理工大学、北方交通大学等都有人员从事人脸表情识别的研究 目前面部表情识别的主要方法:基于模板匹配的面部表情识别方法基于神经网络的面部表情识别方法基于规则的人脸面部表情识别方法基于随机序列模型的面部表情识别方法其他方法,比如支持向量机,小波分析等论文主要工作论文主要工作1.介绍了信息融合在面部表情识别应用的三个层次模型2.探索了基于单特征单分类器的面部表情识别3.将支持向量机理论和信息融合理论结合在一起,提出基于基于SVM的多特征多分类器融合的面部表情识别4.将径向

3、基函数神经网络用于面部表情特征的融合上,提出基于RBF网络的多特征融合的面部表情识别面部表情识别:一般可描述为给定一个静止人脸图像或者动态的人脸图像序列,利用已有的人脸表情数据库确定图像中的一个人或者多个人的面部表情,研究内容包括以下三方面:人脸检测人脸检测:即从各种不同的场景中检测出人脸的存在并确定其位置.面部表情特征提取面部表情特征提取: :即确定表示检测出的人脸表情和数据库中的已有的人脸面部表情的描述方式。通常的表示方式包括几何特征、代数特征、固定特征模板、云纹图、3D网格等。面部表情识别:面部表情识别:就是将待识别的人脸面部表情和数据库中的已知人脸面部表情比较,得出相关信息。这一过程是

4、选择适当的人脸面部表情表示方式与匹配策略 论文主要工作论文主要工作1.介绍了信息融合在面部表情识别应用的三个层次模型2.探索了基于单特征单分类器的面部表情识别3.将支持向量机理论和信息融合理论结合在一起,提出基于基于SVM的多特征多分类器融合的面部表情识别4.将径向基函数神经网络用于面部表情特征的融合上,提出基于RBF网络的多特征融合的面部表情识别信息融合与面部表情分析信息融合就是把来自多个信息源的目标信息合信息融合就是把来自多个信息源的目标信息合并归纳为一个具有同意表示形式输出的推理过并归纳为一个具有同意表示形式输出的推理过程程, , 其基本的出发点是通过对这些信息源所提其基本的出发点是通过

5、对这些信息源所提供的信息的合理支配和使用供的信息的合理支配和使用, , 利用多个信源在利用多个信源在时间或空间上的冗余性和互补性对这些信息进时间或空间上的冗余性和互补性对这些信息进行综合处理行综合处理, , 以获得对被测对象具有一致性的以获得对被测对象具有一致性的解释和描述解释和描述, , 使得该信息系统获得比它得各个使得该信息系统获得比它得各个组成部分更优越的性能。组成部分更优越的性能。人脸面部表情识别包含大量的变量人脸面部表情识别包含大量的变量, 反映待识反映待识别目标各要素的非度量形式允许许多类型的表别目标各要素的非度量形式允许许多类型的表示技术示技术, 每一种技术又可以采用不同的方法进

6、每一种技术又可以采用不同的方法进行计算。行计算。 基于信息融合面部表情识别的基于信息融合面部表情识别的三个模型三个模型v基于像素层融合的面部表情识别 v基于特征层融合的面部表情识别 v基于决策层融合的面部表情识别 基于像素层融合的面部表情识别基于像素层融合的面部表情识别这种方法对每幅图像预处理之前进行像素层融合后, 得到一个融合的人脸图像数据,并在此基础上再进行特征提取和面部表情识别。人人脸脸图图像像人人脸脸图图像像人人脸脸图图像像像像素素层层融融合合特特征征提提取取面面部部表表情情识识别别识识别别结结果果基于特征层融合的面部表情识别这种方法对每个传感器的观测数据进行特征的抽取以得到一个特征向

7、量, 然后把这些特征向量融合起来并根据融合后得到的特征向量进行面部表情识别及判定。 特特征征层层融融合合面面部部表表情情识识别别识别识别结果结果特征提取特征提取特征提取特征提取特征提取特征提取人脸图像人脸图像人脸图像人脸图像人脸图像人脸图像基于决策层融合的面部表情识别这种方法对每个传感器都执行面部表情特征提取和面部表情识别,然后对多个识别结果进行信息融合从而得出一个面部表情判决结果,再融合来自每个传感器的面部表情判决。 决决策策层层融融合合面面部部表表情情识识别别识别识别结果结果特征提取特征提取特征提取特征提取特征提取特征提取人脸图像人脸图像人脸图像人脸图像人脸图像人脸图像表情识别表情识别表情

8、识别表情识别表情识别表情识别 论文主要工作论文主要工作1.介绍了信息融合在面部表情识别应用的三个层次模型2.探索了基于单特征单分类器的面部表情识别3.将支持向量机理论和信息融合理论结合在一起,提出基于基于SVM的多特征多分类器融合的面部表情识别4.将径向基函数神经网络用于面部表情特征的融合上,提出基于RBF网络的多特征融合的面部表情识别基于单特征单分类器的面部表情识别基于神经网络级联的面部表情识别基于几何特征的面部表情识别基于均值主元分析的面部表情识别基于Fisher线性判别的面部表情识别基于神经网络级联的面部表情识别网络级联的面部表情识别结构BP网络的算法流程网络级联的面部表情识别的实验结果

9、网络级联的面部表情识别结构1 12 22 2 9 9 9 9 9 92 21 12 2 4 4 9 91 1 6 61 12 2 4 4 9 92 2 5 5 0 02 5 03 0 0 02 21 12 21 12 2S S O O M MM M L L P P自动定位人脸切割形状归一化灰度归一化人脸图像预处理3 2 0 2 4 3的原始图像5 0 6 0 的切割图像网络级联的面部表情识别流程为 BP算 法 终 的 权 值 和变 量 分 配 空 间 和 初 始 化输 入 样 本 的 顺 序重 新 随 机 排 序输 入 样 本 X, 正 向 传播 , 计 算 各 层 输 出计 算 输 出 层

10、误 差 E反 向 传 播 , 计 算 各 层 神 经 元 的 调 整信 号 。 根 据 各 神 经 元 的 ( Delta)对隐 含 层 的 权 重 进 行 更 新训 练 集 中 所 有 样 本是 否 学 习 完 毕训 练 结束 否停 机0Em inEE 是否是是否否网络级联的面部表情识别的实验结果 在两个数据库上进行实验,从耶鲁大学的Yale Face 数据库中选取60幅人脸图像,共15个人,4幅/人,其中训练样本56幅,14个人,4幅/人,测试样本为剩下的4幅图像,1个人,4/人,通过随机变换训练样本和测试样本,我们重复15次这样的实验。从日本女性表情数据库中(JAFFE)选取120幅图像

11、,共10个人,12幅/人,其中84幅图像作为训练样本,7个人,12幅/人,测试样本为36幅图像,3个人,12幅/人。通过随机变换训练样本和测试样本,我们重复10次这样的实验。 日本女性表情数据库上的实验SOFM权值向量图 BP网络性能图表情类型识别结果Happy76.7%Normal73.3%Sad70%Surprise80%Yale Face 数据库上的实验SOFM权值向量图 BP网络性能图表情类型实验结果Happy66.7%Normal73.3%Sad60%Surprise80%基于单特征单分类器的面部表情识别基于神经网络级联的面部表情识别基于几何特征的面部表情识别基于均值主元分析的面部表

12、情识别基于Fisher线性判别的面部表情识别基于几何特征的面包表情识别面部特征点几何特征向量的形成识别流程实验结果面部特征点几何特征的形成25,11td8 , 22td 7 , 33td 6 , 44td 22,2012td213, 95td 16,106td 15,117td 14,128d t221,179td24,1810td 23,1911td22,2012td 121iiiiddx基于几何特征的面部表情识别流程1.在人脸图像上标记24个面部特征点.2.按照上表得到12个测量距离,对测量距离按上面的公式进行归一化处理得到12维局部特征3.读入人脸库。读入每一个人脸图像几何特征数据并转化

13、为一维的向量 ,对于一个表情的人脸图像,选择一定数量的图像构成训练集,其余的构成测试集。4.把所有测试图像和训练图像进行比较,确定待识别的样本 的所属类别。本文采用最近距离分类器进行识别 XGFGFGFxxx1221,GFGFGFxxx1221,GFGFGFxxx1221,GFGFGFxxx1221,GFGFGFxxx1221,两个数据库上的实验结果Yale Face 数据库 日本女性表情数据库表情类型实验结果Happy73.3%Normal66.7%Sad60%Surprised73.3%表情类型识别结果Happy76.7%Normal70%Sad73.3%Surprised80%基于单特征

14、单分类器的面部表情识别v基于神经网络级联的面部表情识别v基于几何特征的面部表情识别v基于均值主元分析的面部表情识别v基于Fisher线性判别的面部表情识别基于均值主元分析的面部表情识别主元分析主元分析的改进:均值主元分析面部表情识别流程实验结果主元分析 考虑 维图像空间的 个人脸图像 , 每个样本属于 类 中的一类, 考虑将 维特征空间投影到 维特征空间的线性变换。用表示列向量正交的矩阵。变换后的新的向量 ,由下式线性变换定义: 总离散度矩阵 : 其中 是所有样本的平均值,经过线性变换得到的新的特征向量 的离散度是 。PCA 选择最优的投影变换 : 是按照降序排列的前 个特征值对应的特征向量,

15、这种变换变化就称为主元分析。由所组成的空间就是面部表情特征空间。Nxxx,.,21nNccXXX,.,21nm),.,2 , 1(NkxWykTkTkNkkTxxS1NkkxN11Nyyy,.,21WSWTToptWoptWmTToptWSWW,.,maxarg21mii,.,2 , 1m主元分析的改进:均值主元分析 传统的主元分析的产生矩阵是协方差矩阵,也叫总体离散布矩阵, 总体离散布矩阵是有两部分组成: 类间离散布矩阵和类内离散布矩阵,而改进算法只考虑类间离散度矩阵。 设训练样本集共有N 个训练样本 ,分为c 类 , 为第i样本的数目, 其中 是表示第个人脸图像的列向量。 每一类的均值为:

16、 总均值为: 类间离散度矩阵 : 相对于传统的主元分析, 其基本区别是以每一类的平均值代替类内的具体图像, 我们称为MPCA 。由于每一类平均值是类内图像的一个线性叠加,因此每一类的平均值必然保留了相当的各具体图像的变化特征,换句话说,对各图像的变化特征进行了一定程度的压缩处理,而且保留的特征更有利于表情模式的识别。关于这一点我们将在后面的实验中加以说明,用每一类的平均值代替类内的具体图像的另一个明显的好处就是训练时间明显降低。Nxx ,.1c,.1iNNixi, 2 , 1,ikxkiixN1NkkkxN11iiCiiBNS1面部表情识别流程1.人脸图像预处理。主要包括几何归一化和灰度归一化

17、。2.读入人脸库。读入每一个二维的人脸图像数据并转化为一维的向量,对于一个表情的人脸图像,选择一定数量的图像构成训练集,其余的构成测试集,假定图像的大小是w*h(w和h分别维图像的宽度和高度),用于训练的人脸个数是n1,测试的图像个数是n2,令m=w*h,则训练集m*n1是一个的矩阵,测试集是m*n2的矩阵。第幅人脸可以表示为:3.计算每一类的均值 、总均值 和类间离散度矩阵 。4.取类间离散度矩阵 为KL变换生成矩阵 ,进行KL变换。5.计算生成矩阵 的特征值和特征向量,构造特征子空间。首先把特征值从大到小进行排序,同时,其对应的特征向量的顺序也作相应的调整。然后选取其中一 部分构造特征子空

18、间。特征向量具体选取多少,本文采取实验的方法进行确定。6.把训练图像和测试图像投影到上一步骤构造的特征子空间中。每一幅人脸图像投影到特征子空间以后,就对应于子空间中的一个点。同样,子空间中的任一点也对应 于一幅图像。7.把投影到子空间中的所有测试图像和训练图像进行比较,确定待识别的样本 的所属类别。本文采用最近邻距离分类器进行识别。Timiiixxxx,21cii, 2 , 1,BSBS实验结果Yale Face数据库 MPCA和PCA比较 日本女性表情数据库表情类型PCA识别结果MPCA识别结果Happy66.7%73.3%Normal73.3%73.3%Sad60%66.7%Surpris

19、ed73.3%80%比较项目MPCAPCA主元数目3842训练时间0.090.25表情类型PCA识别结果MPCA识别结果Happy76.7%80%Normal73.3%76.7%Sad70%73.3%Surprised80%83.3%基于单特征单分类器的面部表情识别v基于神经网络级联的面部表情识别v基于几何特征的面部表情识别v基于均值主元分析的面部表情识别v基于Fisher线性判别的面部表情识别基于Fisher线性判别的面部表情识别Fisher 线性判别Fisher线性判别的改进:TPCA+FLD基于Fisher线性判别的面部表情识别流程实验结果Fisher 线性判别 Fisher 线性判别

20、( Fishers Linear Discriminant : FLD )是基于样本的类别进行整体特征提取的有效方法, FLD则在PCA基础上的改进,目标在于,试图建立一个更小的维数的、只包含最基本元素的空间,它试图最大化类间分布,而最小化类内分布, 换句话说 , 对于人脸面部表情识别 FLD 移动同一类的人脸图像更近, 而不同类的人脸图像移的越远 。 设训练样本集共有N 个训练样本 ,分为c类 , 每一类的均值为: 总均值为: 第i 类样本的离散度矩阵为: Nxx,.1c,.1ikxkiixN1Nkkkx1ikxikixxSik总类内离散度矩阵:类间离散度矩阵:离散度矩阵: 求下列两两正交的

21、矩阵:是SB与SW的广义特征值相对应的广义特征向量,即: 由于最多只有c-1个非零广义特征值,因此m的最大值为c-1 iiCiiBS1BwTSSS,.maxarg1mWTBToptwwWSWWSWWmiwSwSiwiiB,.1, CiiiwSS1Fisher线性判别的改进:TPCA+FLDT:指的是离散度矩阵的替换。利用矩阵分块技术,令在矩阵 是对称矩阵的条件下,分别用 和 来代替 和 后并不影响Fisher准则函数的取值,然而 和 均为分块对角矩阵, 这样替换后, 计算量将大幅度下降。 22211211BBBBBSSSSS22211211WWWWWSSSSS21WWW2211221100,0

22、0WWWBBBSSSSSSWSWWSWWTBT1212WBSSBSWSBSWSBSWS PCA+FLD策略,将训练样本的人脸图像向量投影到一个较低维的空间以至于类内分布矩阵为非奇异的。可以通过PCA 将特征空间降为 N-c维,然后通过标准的FLD 将维数降为c-1。通过PCA将人脸图像投影到N-c维特征空间: 通过标准的FLD将维数降为c-1: WSWWTTpcamaxargkTpcakxWZ WWSWWWWSWWWpcaWTpcaTpcaBTpcaTfldmaxargkfldkZWy 基于Fisher线性判别的面部表情识别流程1.人脸图像预处理。主要包括几何归一化和灰度归一化。2. 读入人脸

23、库。读入每一个二维的人脸图像数据并转化为一维的向量,对于一个表情的人脸图像,选择一定数量的图像构成训练集,其余的构成测试集,假定图像的大小是w*h(w和h分别维图像的宽度和高度),用于训练的人脸个数是,n1测试的图像个数是n2,令m=w*h,则训练集是一个m*n1的矩阵,测试集是m*n2的矩阵。第i幅人脸可以表示为: 3.计算每一类的均值、总均值和类间离散度矩阵,同时求类内离散度矩阵 和总离散度矩阵。4.利用矩阵分块技术,得到 和 的替换矩阵 和 。5.取类间离散度矩阵 为KL变换生成矩阵 ,进行KL变换。Timiiixxxx,21BSWSBSBSWS 6.计算生成矩阵 的特征值和特征向量,构

24、造特征子空间。首先把特征值从大到小进行排序,同时,其对应的特征向量的顺序也作相应的调整。然后选取其中一部分构造特征子空间。在耶鲁大学Yale face数据库上我们用m=N-c=52维特征向量构造特征子空间。在JAFFE上我们用m-N-c=76维特征向量构造特征子空间,其中N为训练样本数目,c为类别数。 7.把训练图像和测试图像投影到上一步骤构造的特征子空间中。每一幅人脸图像投影到特征子空间以后,就对应于子空间中的一个点。同样,子空间中的任一点也对应于一幅图像。 8.用替换矩阵 和 替换 和 进行FLD。得到表征面部表情的特征向量。 9.对于新的测试图像用最大相关分类器进行分类.BSWSBSWS

25、实验结果Yale Face 数据库 日本女性表情数据库表情类型实验结果Happy80%Normal80%Sad66.7%Surprised86.7%表情类型识别结果 Happy83.3%Normal80%Sad76.7%Surprised86.7% 论文主要工作论文主要工作1.介绍了信息融合在面部表情识别应用的三个层次模型2.探索了基于单特征单分类器的面部表情识别3.将支持向量机理论和信息融合理论结合在一起,提出基于基于SVM的多特征多分类器融合的面部表情识别4.将径向基函数神经网络用于面部表情特征的融合上,提出基于RBF网络的多特征融合的面部表情识别基于基于SVM的多特征多分类器融合的面部表

26、情识别基于SVM信息融合的面部表情识别结构支持向量机和最优超平面SVM融合原理SVM融合函数以及融合模型几种常用的核函数基于SVM信息融合的面部表情识别流程实验结果基于SVM信息融合的面部表情识别结构 本文结合整体特征建模、局部特征建模和多分类器信息融合的优势,提出一种基于支持向量机(SVM)的信息融合方法进行人脸表情识别。为了提高识别系统的识别率和识别系统的鲁棒性,充分的利用人脸的图像的各种信息,我们对预前处理后的人脸图像提取局部表情特征和整体表情特征,然后对不同的类型的特征采用不同的分类器对人脸表情进行初步的分类,最后构造一个3阶多项式的支持向量机来对多个分类器的输出进行信息融合,以便到达

27、人脸表情识别的目的。识别结构如下:S O MM L P基于网络级联的面部表情识别子系统P C A最近距离分类器基于P C A和最近距离分类器级联的表情识别子系统F L D最大相关分类器基于F L D与最大相关分类器级联的表情识别子系统几何关系最近邻距离分类器基于几何关系与最近邻距离分类器级联的识别子系统图像预处理S V M 信息融合中心识别结果基于基于SVM的多特征多分类器融合的面部表情识别基于SVM信息融合的面部表情识别结构支持向量机和最优超平面SVM融合原理SVM融合函数以及融合模型几种常用的核函数基于SVM信息融合的面部表情识别流程实验结果支持向量机和最优超平面 支持向量机(SVM) 是

28、一种基于结构风险最小化原则的学习方法,它可以用来解决三大问题:模式识别、 函数的回归估计及分布密度函数的估计。本课题应用支持向量机来探索多特征多分类器融合的面情识别问题,即从有限的训练样本中提取融合规则,使得该规则对于独立的测试样本具有较小的误差。 假定训练数据 , , 可以被一个超平面分开, 该平面的方程为: 如果训练集没有被错误地划分,而且离超平面最近的向量与超平面之间的距离最大, 则称该超平面为最优超平面,如下图 5所示。 llyxyxyx,2211diRx 1, 1iyli, 2 , 10bxw先对参数和施加约束条件: 对于全体训练样本,则下列不等式成立 最优超平面使得下式取得最小的超

29、平面通过对上式的优化问题求解,可得一组解 , 并且该解满足下列各式:只有支持向量的系数才可能为非零值,所以可以表示为:并且,对于任意的支持向量,都有: H H1 1H H2 2 最最优优超超平平面面1min, 2 , 1bxwili1bxwyiili, 2 , 1221ww,bwliyiilii, 2 , 1, 0, 01iitorsSupportVecixywiixwyb基于基于SVM的多特征多分类器融合的面部表情识别基于SVM信息融合的面部表情识别结构支持向量机和最优超平面SVM融合原理SVM融合函数以及融合模型几种常用的核函数基于SVM信息融合的面部表情识别流程实验结果SVM融合原理 假

30、设有个分类器,若已经取得个决策样本值以及实际的决策值: 其中 表示对于第i个输入样本图像,这n个分类器作出的决策矢量, 是对应第输入样本图像的标签.要求能根据这组样本值,找到一个适当的融合函数 ,使得对于确定的损失函数 具有最小的期望风险,从信息变换的角度来看,多分类器起到把输入的人脸图像映射到决策空间的作用。为了很好的识别人脸表情,基于支持向量机的决策融合应作如下处理:首先,将多种分类器的决策通过非线性映射 映射到一个高维空间中去,然后,在高维空间中进行线性回归。综合上述两个过程,得到融合后的决策为: 5.12其中,为普通的向量内积运算。 kkyzyzyz,.,2211Tiniiizzzz,

31、.,21yiyiy zfL zz: bzwzfSVM融合函数以及融合模型融合函数可表示为 其中 是属性空间向量内积形式: bzzKzfikiii,121izzK, iizkzkzzK,几种常用的核函数 线性函数 P多项式核函数 高斯径向基函数(RBF)核函数 多层感知器(MLP)核函数 zzzzKi,piizzzzK1,22exp,KiixxzzcxxvxxKiitanh,基于SVM信息融合的面部表情识别流程1.在人脸图像上标记24个面部特征点.2.按照29页表得到12个测量距离,对测量距离按29页的公式进行归一化处理得到12维局部特征3.对人脸图像进行纯脸切割,缩放,形状归一化和灰度归一化

32、4.基于神经网络级联的面部表情识别结果为分类器1的结果,5.基于几何的特征的面部表情识别结果为分类器2的结果6.基于均值主元分析的面部表情识别结果为分类器四的结果7.基于 T+PCA+FLD的面部表情识别结构为分类器四的结果8.构造一个三阶多项式支持向量机,即用式5.20作为核函数,其中取3,利用一对多原则进行表情识别, 支持向量机的输入对应分类器1,2,3,4的输出。结果对于四种表情的二进制编码,即00-Happy, 01-Normal, 10-Sad, 11-Surprised。 GFGFGFxxx1221,实验结果 在两个数据库上进行实验,从耶鲁大学的Yale Face 数据库中选取60

33、幅人脸图像,共15个人,4幅/人,其中训练样本56幅,14个人,4幅/人,测试样本为剩下的4幅图像,1个人,4/人,通过随机变换训练样本和测试样本,我们重复15次这样的实验。从日本女性表情数据库中(JAFFE)选取120幅图像,共10个人,12幅/人,其中84幅图像作为训练样本,7个人,12幅/人,测试样本为36幅图像,3个人,12幅/人。通过随机变换训练样本和测试样本,我们重复10次这样的实验。Yale Face数据库 上的实验结果表情类型分类器1分类器2分类器3分类器4SVM信息融合Happy66.7%73.3%73.3%80%86.7%Normal73.3%66.7%73.3%80%80

34、%Sad60%60%66.7%66.7%73.3%Surprised80%73.3%80%86.7%93.3%日本女性表情数据库上的实验结果表情类型分类器1分类器2分类器3分类器4SVM信息融合Happy76.7%76.7%80%83.3%86.7%Normal73.3%70%76.7%80%83.3%Sad70%73.3%73.3%76.7%80%Surprised80%80%83.3%86.7%90% 论文主要工作论文主要工作1.介绍了信息融合在面部表情识别应用的三个层次模型2.探索了基于单特征单分类器的面部表情识别3.将支持向量机理论和信息融合理论结合在一起,提出基于基于SVM的多特征多

35、分类器融合的面部表情识别4.将径向基函数神经网络用于面部表情特征的融合上,提出基于RBF网络的多特征融合的面部表情识别基于径向基函数网络多特征融合的面部表情识别基于RBF网络的多特征融合的面部表情识别结构径向基神经网络基于RBF网络融合的面部表情识别流程实验 基于RBF网络的多特征融合的面部表情识别结构图像预处理P C A几何关系F L D径向基函数( )神经网络融合中心识别结果径向基函数神经网络(RBF) 径向基函数网络是一种两层前向网络,如图所示。 其输出是由隐节点基函数的线性组合计算得到。隐节点的基函数只对输入空间中的一个很小区域产生非零响应。隐层神经元将输入空间映射到一个新的空间,输出层在该空间中实现线性组合。 1x2xpx1c2cNcxR1xR2xRNxf1xf2xfc1w2wcw 径向基函数常采用高斯函数作为非线性映射函数,不失一般性,对于单个网络输出的RBF网络来说,其第个单元对应的输出为其中: -欧几里德范数 -第个输入向量 -第个隐层节点的中心 -第个隐层节点的宽度整个网络的输出方程为:其中 -输出空间与第个隐层节点的连接权 -隐层节点的总个数 222expkkiikcXXRiXkckiknkkiXRXf1kn基于RBF网络融合的面部表情识别流程1.在人脸图像上标记24个面部特征点.2.按照2

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论