基于卷积神经网络的微表情识别模型

基于卷积神经网络的微表情识别模型


2024年5月1日发(作者:)

4

曲阜师范大学学报

7

1

Vol.47 No.1

2021

1

Journal of Qufu Normal UniversitJan.2021

y

:/

.1001-5337.2021.1.064

j

基于卷积神经网络的微表情识别模型

*

韦锦涛

,

倪建成

,

,

吴俊清

,

魏媛媛

(

曲阜师范大学软件学院

,

山东省曲阜市

)

273100

,

由于微表情具有持续时间短

发生强度弱

动作幅度小等特点

,

这使微表情识别面临特征提取困

摘要

:

识别精度低等挑战

.

针对其面临的数据样本数量少且不平衡

识别精度低等问题

,

该文提出了基于卷积神

部分组成

:

微表情数据预处理和微表情识别

,

分别用于扩充并平衡微表情数据样本以及准确识别微表情

.

它克

服了训练样本数量少

不平衡等缺点

.

通过在

CASMEⅡ

数据集上的实验

,

CNNMER

模型获得了

98.44%

的识

别精度

,

验证了此模型的有效性

.

经网络的

C

模型

.NNMER

(

ConvolutionalNeuralNetworkMicro-ExressionReconition

)

CNNMER

模型由

2

pg

关键词

:

微表情识别

;

数据增强

;

卷积神经网络

L1

正则化

;

L2

正则化

;

()

中图分类号

:

TP183

;

TP391

文献标识码

:

A

文章编号

:

101-0064-08

0

,

代开始研究人脸表情

,

并将其划分为

Hainess

pp

,,,

SadnessAnerFearSurrise

Disust

6

类表

gpg

.

此后

,

众多学者致力于研究变化多样

表情丰富

2

]

,

的人脸宏表情识别

[

识别精度不断提升

,

并在计算

3

]

4

]

、、

机视觉

人机交互

[

教育

[

模式识别

心理学等众

[]

美国心理学家

Ekman

1

等人在

20

世纪

70

神经网络提取复合微表情的高级光流特征并完成微

[]

表情分类

.DianaBorza

9

等人在从微表情短视频分别

提取表情动作的开始帧与顶点帧

顶点帧与结束帧的

差分图像基础上

,

利用滑动时间窗口迭代视频序列提

取特征向量

,

使用

C

正性

NN

将微表情分为中性

[

1

]

M

等研究微表情识别的专业训练工具

.

ETT

1

[

0

]

性和惊讶等

4

.

此外

,

业界已开发了

FACS

系统

1

预处理微表情短视频时

,

上述研究方法通常需要提取

到脸部的变化特征

,

然后合成微表情视频序列的特征

向量

.

但是

,

微表情数据量小和数据不平衡等因素容

易导致

C

从而降低

NN

等深度网络模型产生过拟合

,

了微表情识别算法的泛化能力

.

基于微表情数据集

C

本文首先利用

ASMEⅡ

,

多领域进行了广泛应用

.

但迄今为止

,

人们对变化细

停留时间极其短暂的微表情识别研究仍然相对

较少

.

微表情是人脸表情的一种习惯性表达方式

,

[]

//

其仅有大约

1

25s

12s

5

的短暂出现时间

,

[]

且表情变化幅度非常微弱

,

故难以准确识别

.Zhao

6

(,,

结合

LActionUnitsAU

)

BP-TOP

的方法提取脸

部表情特征

,

利用支持向量机

(

实现了微表情

SVM

)

[]

分类

.

的基

Li

7

等人在

3D

卷积神经网络

(

3D-CNN

)

等人在引入形态学知识的基础上

,

基于动作单元

[

2

]

准确定位了人脸

Dlib

库中的人脸关键点检测技术

1

位置并获取了一组脸部图像序列

,

继而使用帧间差分

法提取出关键帧图像

.

然后

,

在数据增强基础上

,

构建

C

阐释了模型数据处理流程

,

给出

NNMER

模型

,

了具体的算法实现步骤

.

实验结果显示

,

CNNMER

型达到了

9

从而为微表情

8.44%

的微表情识别精度

,

的应用研究提供了一种可行的解决方案

.

据增强和卷积神经网络

;

2

节提出并构建了

论文的结构如下

:

1

节阐述了帧间差分法

础上

,

引入批量归一化

,

结合

3D

光流特征提取时空

[]

域的学习特征实现了微表情的分类

.Zhao

8

等人使

3

D

快速傅里叶变换提取微表情视频的顶帧

,

算从起始帧到顶帧的光流特征映射

,

利用浅层卷积

*

收稿日期

:

2020-03-20

);)

基金项目

:

国家自然科学基金青年项目

(

山东省研究生教育质量提升计划项目

(

61601261SDYY17136.

,:

作者简介

:

韦锦涛

,

,

硕士研究生

,

研究方向

:

计算机视觉

机器学习

微表情识别

;

1992-CCF

会员

;

E-mailweiintao@

;

j

,:

通信作者

:

倪建成

,

,

博士

,

教授

,

研究方向

:

分布式计算

机器学习

数据挖掘

;

1971-CCF

高级会员

;

E-mailnich@.

j

1

韦锦涛

,

:

基于卷积神经网络的微表情识别模型

65

3

节进行了详细的实验对比分

CNNMER

模型

;

;

4

节总结全文并指出了进一步研究的方向

.

的图像提取运动区域

.

)

d

k

(

x

,

x

,

x

,

1

=

f

i

(

-

f

i

+

k

(

y

)

y

)

y

),(

1

,

if

d

k

(

x

,

y

)

T

,

(,)()

d

k

x

y

=

2

,(,),

0 if

d

k

x

y

<

T

,

其中

f

i

(

分别表示第

i

帧和第

i

+

x

,

x

,

y

)

f

i

+

k

(

y

)

1

相关技术

1.1

帧间差分法

13

]

帧间差分法

[

是一种将视频序列中相邻或间

隔多帧的两张图像像素值作差分的提取轮廓方法

.

此方法可以由公式

1

和公式

2

来描述

,

对差分运算

后的值取绝对值得到

d

,

同时设置阈值

T

对相减后

的像素值

,

表示

k

帧图像在坐标为

(

x

,

d

k

(

x

,

y

)

y

)

像素值差的绝对值

,

0

1

分别表示背

D

k

(

x

,

y

)

景区域和运动区域

.

1

表示采用帧间差分法得到

的运动区域的轮廓图像

,

例如

,

眉毛

眼睛

嘴唇等

.

{

1.2

数据增强

在小样本情况下

,

数据集的训练样本不足或者

分布不均匀时

,

最直观的做法是增加训练样本的数

.

对于微表情识别场景而言

,

数据增强的对象自然

是图像

.

在有限的训练样本下

,

本文借助图像的数据

[

14

]

,

增强

(

扩充了

CDataAumentation

)

ASMEⅡ

g

数据集的样本数量

.

数据增强的方法主要有几何变

1 CASMEⅡ

视频序列样例的运动区域帧间差分图

角度

θ

.

经过旋转变换后的像素点

(

的坐标变

x

0

,

y

0

)

,

(

如公式

3

所示

,

并且旋转后填充空白部

x

1

,

y

1

)

()

,

如图

2

所示

.a

换和颜色变换

,

其中几何变换包括图像的平移

放缩

镜像变换

转置等

;

颜色变换包括噪声

填充等

.

在微表情图片的处理中

,

为了保留更多

的脸部表情的细节及尽可能地还原真实场景

,

本文

使用了旋转

镜像变换和填充

.

旋转变换是以图像的中心为原点

,

旋转一定的

x

ù

x

ùéé

cos

θ

-

sin

θ

0

ù

ê

0

ú

é

êú

ê

1

ú

ê

)

in

θ

cos

θ

0

ú

ê

3

y

0

ú

=

ê

s

y

1

ú

.

(

êúêú

êú

ê

1

ú

ê

ú

01

ú

û

ê

ëû

ë

0

ë

1

û

其中本文

镜像变换包括水平镜像和垂直镜像

,

采用水平镜像

.

设图像的高度为

h

,

宽度为

w

,

原图

,()

如公式

4

所示

,

变换后的图像如图

2

所示

.b

y

1

)

中像素点

(

经过水平镜像变换后坐标为

(

x

0

,

x

1

,

y

0

)

x

ú

é

ê

0

ù

ê

y

0

ú

=

êú

ê

ë

1

ú

û

x

ù

é

-

10

w

ù

é

êú

ê

1

ú

ê

010

ú

ê

y

1

ú

.

ú

ê

ê

001

ú

ú

ê

ëû

ê

ë

1

ú

û

()

4

通过上述方法就可以将原数据集扩充到需要的

2

进行数据增强处理后的图片

大小

,

从而增加数据集样本的数量

,

可以使训练后的

自然科学版

)

66

曲阜师范大学学报

(

2021

模型具有更好的鲁棒性

,

进而提高训练后模型的泛

1.3

卷积神经网络

深度学习是机器学习技术的一种

,

这种技术通过

迭代的方式从数据中提取重要的信息并将其转化为

最终的输出特征

.

深度学习在语音识别

[]

15

]]

1617

[

场景识别

[

等诸多应用领域产生了巨大的影

化能力

.

,

形成复杂的卷积神经网络结构

.

2 CNNMER

模型

2.1 CNNMER

模型架构

CNNMER

模型的微表情识别的基本机理

:

先将

CASMEⅡ

微表情数据集通过帧间差分法提

取关键帧

,

然后对获得的关键帧做数据增强扩充微

表情数据集的图片数量

.

最后将增强后的数据集输

入到卷积神经网络识别每个表情属于哪一类

,

由此

实现微表情识别

.CNNMER

模型的微表情识别流程

图如图

3

所示

.

由图

3

可知

,

CNNMER

模型的算法

流程包含两部分

,

一部分为微表情数据集的数据预

处理

,

另一部分为微表情识别

.

人脸识

.

其中

,

卷积神经网络是被广泛应用于视觉分析领

,

是一类包含卷积计算且

NeuralNetworkCNN

)

具有深度结构的前馈神经网络

.

卷积神经网络结构主

[]

18-21

域的深度学习算法之一

.

卷积神经网络

(

Convolutional

要由输入层

隐藏层和输出层组成

,

其中

,

隐藏层由卷

)、)

积层

(

池化层

(

ConvolutionalLaerPoolinaer

yg

L

y

)

全连接层

(

中的一种或多种组

FullonnectedLaer

y

C

y

3 CNNMER

微表情识别的流程

2.1.1

数据预处理

本文采用的数据来源于中国科学院心理研究所

[

2

]

傅小兰团队的数据集

C

该数据库样本

ASMEⅡ

2

.

1 CASMEⅡ

表情数据库的样本短视频分布

表情类型

Disust

g

Hainess

pp

Sadness

Others

Fear

样本短视频数量

63

32

27

25

99

7

2

在拍摄采集时使用视频无灯光频闪

,

光线相对均匀

,

2280×340

像素

.6

名受试者的

255

个微表情短视

,,

频组成

,

并被划分为

7

个情感类别

(

DisustFear

g

,

微表情的短视频样本的帧率为

2

分辨率为

00fs

p

Reression

p

Surrise

p

,,,,),

HainessReressionSadnessSurriseOthers

pppp

具体分类数量如表

1

所示

.

1

韦锦涛

,

:

基于卷积神经网络的微表情识别模型

67

由表

1

观察可知

,

CASMEⅡ

数据集中

Fear

考虑到数据不平

Sadness

分别只有

2

7

个样本

,

首先利用

库中的

68

个人脸关键

点检测算法

,

识别出人脸区域

,

并剪切得到了一组脸

部图像序列

.

然后使用帧间差分法提取该图像序列

的关键帧

.

由于各个微表情的关键帧数量较少

,

且分

布不均匀

,

因此对其使用数据增强

.

本文对图像做水

,,,,

平镜像

旋转变换

,

旋转角度为

{

-6°-4°-2°2°

Disust

g

28.75

19.07

2276

569

,},

并将输出图像的大小标准化为

34°6°00×300

,

最后与原图像关键帧

(

只将图像大小标准化为

相结合

.

数据增强前后的图像数据

300×300

像素

)

如表

2

所示

.

通过计算分析可知

,

5

种微表情的关键

使用数据增强后

,

本实验的训练样本数量扩

3

所示

.

充了

6

,

并且各类表情的数量分布具有很好的均

匀性

稳定性

.

衡的问题

,

本文未考虑数量过少的

2

种微表情

帧数量的百分比值在数据增强前后的波动情况如表

2

数据增强前后的微表情关键帧的数量

Hainess

pp

12.94

21.45

2560

256221

Reression

p

11.17

18.75

2238

Surrise

p

9.45

187

Others

37.70

20.37

2431

746

数据增强前

数量

(

)

百分比

(

%

)

数量

(

)

百分比

(

%

)

数据增强后

20.37

2431

3

关键帧数量百分比值的分析统计表

数据增强前

平均值

方差

20.00

数据增强后

20.00

0.96

类别对应的输出概率

,

输出概率最大的那个类别就

2.2 CNNMER

算法

CNNMER

算法的具体步骤如表

4

所示

.

输入

:

数据增强后的数据

X

;

学习速率超参数

η

;

权重衰减超参数

λ

.

输出

:微表情数据

X

划分

,

X

=

{

x

1

,

x

2

,

x

3

,

x

4

,

x

5

}

.

步骤

:

1

2

3

4

5

6

7

8

9

);

while

(

eoch

p

是分类器分类后的结果

.

2.1.2

微表情识别

本文采用的卷积神经网络主要包含

3

个卷积

125.79

4 CNNMER

算法描述

,

3

个池化层

,

1

Flatten

,

1

Droout

,

1

p

个全连接层

,

1

Softmax

.

1

层卷积层使用

3

步长为

12

个大小为

3×3

的卷积核对图像进行卷积运算

.

为了避免出现

现象

,

卷积运算时采用

模式

,

即在四周

0

填充

边缘扩充

1

个像素

,

确保卷积后的图像大小仍为

然后在第

2

层最大池化层使用大小为

2×2

步长为

特征

,

减少计算量和特征数量

,

增大卷积核的感受

,

缓解过拟合的问题

.

卷积层和最大池化层如此交

3

5

层分别使用

32

64

128

个卷积

.

7

层使用

F

使卷

latten

层把多维数据一维化

,

积层的数据方便连接全连接层

.

但是

,

为了降低模型

复杂度

,

增强模型的泛化能力

,

在第

8

层添加了

,

形成交叉地卷积层和最大池化层

,

其中第

1

X

输入到第

i

层网络

;

如果第

i

层网络为输入层

,

:

F

0

=

X

;

如果第

i

层网络为卷积层

,

;

特征图

FW

i

*

Fb

i

=

i

-1

+

i

)

f

(

否则

,

i

层网络为池化层

,

(;

特征图

F

down

F

i

=

i

-1

)

同时

,

使用

R

可以减少计

300×

激活函数

,

算量

,

增加网络的稀疏性

,

缓解过拟合问题的发生

.

有助于降低尺寸保留主要

1

的滑动窗口进行处理

,

输入层

F

0

被预测为

m

类的类别概率

Y

(

m

)

();

Y

(

m

)

=

P

(

L

=

l

W

,

b

)

m

F

0

;

10

优化的损失函数为

L

(

W

,

b

)

(

W

,

b

)

=

Loss

W

,

b

)

+

11

L

(

12

更新权重

W

λλ

WTW

+

2

n

w

W

;

L

(

W

,

b

)

;

13

W

i

W

i

-

η

W

i

14

更新偏移量

b

L

(

W

,

b

)

;

15

bb

i

i

-

η

b

i

16eoch=eoch-1

;

pp

b 17

如果准确度没有提升

,

reak.

随机丢弃部分权值

,

减少运算量

.

9Droout

,

p

层使用带有

R

把前面提

eLU

激活函数的全连接层

,

取到的特征综合起来输入到下一层全连接层

,

这层

网络使用

5

个神经元

,

Softmax

分类器输出每一个

自然科学版

)

68

曲阜师范大学学报

(

2021

其中

W

i

表示第

i

层网络的权重矩阵

,

表示

W

i

*

F

i

-1

的卷积

,

bi

层的偏置项

,

F

i

-1

表示第

i

表示第

;

超参数

η

为学习速率

,

用于控制梯度下降的速度

.

,

对于训练样本

,

本文的优化器采用

RM

通过调

SPro

p

CNN

模型中卷积核的权值

W

i

和偏移向量

b

.

表示下采样函数

.

i

-1

层网络的特征图

,

down

(

*

)

,

表示

R

x

)

eLU

激活函数

(

ActivationFunction

)

f

(

()

5

常用的激活函数有

Simoid

函数

softmax

g

数以及

ReLU

函数

.ReLU

激活函数

(

Activation

),

以计算速度快

收敛速度快

分类效果好

Function

等优点成为

C

本实验训练

NN

模型的首选激活函数

.

)

结果显示

R

公式

(

识别效果最好

.

eLU

函数

(

5

)

形成卷积层

.

卷积层是

CLU

结合使用

,

NN

模型的

核心层

,

它利用图片中相邻区域的信息

,

使用稀疏连

,

在实际应用中

,

通常将卷积操作和激活函数

Re-

接和权值共享的方式提取特征

.

同时

,

为了减少过拟

用来调整整个

C

λ

为权重衰减

,

NN

模型的过拟合强

)

Laer

(

te

yyp

)

如公式

(

所示

.5

Y

为预测值

.

i

为真实值

,

y

x

)

ax

(

0

,

x

)

.

=

m

f

(

3

实验与分析

3.1

实验环境及参数的设置

本系统环境为

Ubuntu16.04.5LTS

,

GPU

型号

通过交叉熵损失函数训练后

,

CNNMER

最优

,

T

驱动版本为

3

实验软件为

Aesla84.81

,

nacon-

实验框架为

kda3.6.5

,

eras.

模型如下

:

为了完成本实验的微表情识别

,

本文实验

使用

Keras

架构以

TensorFlow

作后端搭建卷积神

经网络结构

,

使用

S

用于层的线性堆

euential

,

q

CNNMER

模型的重要的网络超参数设置如表

6

所示

.

,

具体的模型结构及参数如表

5

所示

.

实验中

,

,

合现象的出现

,

对权重

W

添加

L

超参数

1L2

正则化

;

5 CNNMER

模型结构及参数

(,)

None300

,

300

,

32

(,)

None150

,

150

,

32

(,)

None150

,

150

,

64

(,)

None75

,

75

,

64

(,)

None75

,

75

,

128

(,)

None37

,

37

,

128

(,)

None175232

(,)

None175232

(,)

None512

(,)

None5

———

———

———

OututShae

pp

_

1

(

conv2dConv2D

)

_

2

(

conv2dConv2D

)

_

3

(

conv2dConv2D

)

_

1

()

flattenFlatten

_

1

()

denseDense

_

2

()

denseDense

:

Totalarams

p

:

Trainablearams

p

Param#

896

0

0

0

0

89719296

89815109

89815109

0

2565

0

_

p

_

1

(

maxoolin2dMaxPoolin2D

)

gg

_

p

_

2

(

maxoolin2dMaxPoolin2D

)

gg

_

p

_

3

(

maxoolin2dMaxPoolin2D

)

gg

18496

73856

_

1

()

drooutDroout

pp

:

Non-trainablearams

p

6

网络超参数配置

参数

_

Batchsize

数值

128

3.2

实验结果及分析

实验训练网络时使用数据增强后的数据集

,

练了

2

记录了训练集和验证集的精

00

eoch

,

p

)

实验时训练精度曲线和验证精度曲线

,

4

(

展示

b

了实验时训练损失值曲线和验证损失值曲线

.

()

度值和损失值

,

结果如下页图

4

所示

.

4

展示了

a

()

根据下页图

5

可以看出

,

当训练轮次达到

5a0

L1Reularization

g

eochs

p

L2Reularization

g

Drooutrate

p

RMSProlearninate

pg

r1e-4

1e-4

1e-4

200

0.5

次左右时

,

训练精度曲线和验证精度曲线的上升幅

()

度已经比较缓慢

;

根据图

5

可以看出

,

当训练轮次

b

1

韦锦涛

,

:

基于卷积神经网络的微表情识别模型

69

达到

1

训练精度曲线和验证精度曲线的

00

次左右时

,

上升幅度变得更加缓慢

,

趋向于收敛的状态

.

使用测

试集进行测试时

,

最后得到的准确率为

9

测试

8.44%

,

集的不同的表情的分类结果的混淆矩阵如图

6

所示

.

4

训练过程中的精度值和损失值

5

训练过程中后

100

e

p

oc

1

h

50

的精度值

e

p

och

6

分类精确度的混淆矩阵

us

C

t

由图

N

H

NM

a

p

6

可知

p

E

in

R

es

s

,

对于已确定的微表情种类

Re

p

re

ss

ion

准确

S

ur

p

ri

se

,

,

,

微表

Dis

-

e

p

ression

的分类准确率分别为

96

Dis

g

ust

00

H

,

%.

a

p

其识别准确率比其它的四种确定种类的微表情

O

p

in

h

e

e

s

r

s

s

这一类由表情种类无法确定的表情组

Surrise

的分类识

.9

%

9

9.6

%

,

t

p

识别准确率都要低

,

但是

同时

9

,

3

将本文提出方法的精确度和其它优秀的

.8%.

Others

类的识别准确率仍

然达到了

微表情识别算法的精确度作了对比

,

对比结果如表

所示

.

7

显示了本文的方法在

CASMEⅡ

数据

集上的识别精度表现更优

.

7

CA

M

S

et

M

ho

E

d

上微表情识别精度的对比

Accurac

3DFlow+CNN

[

7

]

59.11%

y

FMBH+SVM

[

23

]

69.11%

LBP-TOP+SVM

[

6

]

73.51%

ILDNP+PHOG-WEE+SVM

[

24

]

86.59%

TransferLearnin

97.4

OurMe

g

+CNN

[

25

]

%

thod98.44%

结束语

目前

,

微表情识别面临数据集单一

图像资源

容易产生过拟合问题

微表情视频片段的关键帧

.

本文使用帧间差分法提取

,

通过数据增强扩充了微

g

R

1

7

4

自然科学版

)

70

曲阜师范大学学报

(

2021

表情图像数量

,

在一定程度上缓解了过拟合问题

,

L1

_

L2

正则化和

droout

方法的引入进一步降

p

从实验结果上看

,

TransferLearnin+CNN

等优

g

秀的微表情识别方法相比

,

CNNMER

模型在识别

精度上得到了进一步提高

.

但是

,

CNNMER

模型数

据预处理时手工操作过多

,

未实现自动化建立微表

情数据集

;

并且微表情识别时采用的是图片数据集

,

未考虑表情的动态性

.

因此

,

下一步工作将进一步优

低了过拟合

,

从而提升微表情识别精度和泛化能力

.

[]

E10kmanP

,

actioncodinstem

:

A

g

s

y

,

ConsultinscholoistsPressPaloAlto1978

,

12.

g

P

yg

[,,

M

]

.UniversitfCaliforniaSanFrancisco2002.

y

o

VISAPP

)

.2018

:

201-208.

]

techniueforthemeasurementoffacialmovement

[

J.

q

[]

xressionTraininool

(

METT

)

pg

T

[]

K12azemiV

,

lisecondfacealinment

g

insoftheIEEEConferenceonComuterVisionand

gp

,

PatternReconition2014

:

1867-1874.

//

withanensembleofreressiontrees

[

M

]

Proceed-

g

CNNMER

模型

,

实现自动化采集微表情图像

,

索一种能够基于人脸微表情动态特征的识别方法

.

参考文献

:

[

1

]

f

EkmanP

,

ntsacrossculturesinthe

p

a

s

c

y

e

ch

a

o

n

l

de

o

gy

m

,

1

o

9

ti

7

o

1

n

,

1

[

J

7

]

(

2

.J

)

o

:

1

ur

2

n

4

a

.

lof

p

ersonalit

y

andsocial

[

2

]

R

H

e

u

c

a

o

n

g

nit

Y

ion

X

:

,

A

Ch

S

enF

urve

,

LvS

J

]

.

H

S

,

e

mm

tal

et

.

r

Fa

-

c

B

i

a

alE

,

x

p

ression

[

3

]

(

s

W

1

2

i

0

o

a

0

1

nR

n

)

g

g

.

y

[

yy

sel2019

,

11

8I

e

H

E

c

E

o

H

g

n

,

i

G

ti

u

on

JW.

inH

T

u

h

m

eA

an-

p

c

p

o

li

m

ca

p

t

u

io

te

n

r

s

I

o

n

f

te

F

r

a

a

c

c

i

t

a

i

l

o

E

n

x

[

p

C

re

]/

s-

/

ufacturin

g

EI

(

I

n

C

te

AM

rnat

in

g

s

y

stems

[

P

]

l

.USP

ex

p

)

i

r

.

o

e

I

n

s

E

a

a

s

t

i

E

lC

e

o

n

n

E

o

t

r

.

1

e

2

nf

0

c

0

e

o

1

r

,

3

g

8

en

1

ni

9

t

:

i

2

c

,

o

8

eo

2

n

8-

49

in

2

nA

9

.2

e

1

d

0

d

1

u

.

vancedMan-

[

4

]

9

c

-

at

6

i

-

o

1

n

1

al

.

learn-

[

5

]

L

H

iXB

,

Hon

g

XP

,

MoilanenA

,

sReadin

g

M

i

i

d

cr

d

o

e

-

nE

Ex

p

m

r

o

e

t

s

i

s

o

io

ns

n

:

AC

S

p

o

o

tt

m

in

p

g

ara

a

t

n

iv

d

eS

R

t

e

u

c

d

o

y

g

n

o

i

f

tio

S

n

p

on

M

ta

e

n

th

eo

o

u

d

s

[

s

[

6

]

Z

(

J

4

]

)

.

:

5

Ie

6

e

3

eT

-57

r

7

a

.

nsactionsonAffectiveCom

p

utin

g

,

2018

,

9

ni

h

t

a

io

oY

nM

,

X

et

u

h

p

rovedMicro-Ex

p

ressionReco

g

-

ches

[

J

]

.S

y

o

mm

dB

e

a

t

s

r

e

y

do

-Ba

n

sel

N

,

2

ec

0

e

1

s

9

sa

,

1

r

1

y

(

4

M

)

o

:

r

4

p

9

h

7

ol

.

o

g

icalPat-

[

7

]

t

LiJ

,

WanSeeJ

,

e

P

io

at

nb

ter

ased

g

o

Y

n3

D

Df

,

lowco

t

nv

a

o

l

l

.

ut

M

io

ic

n

r

a

o

l

-

n

e

e

x

u

p

r

r

a

e

l

ss

n

i

e

o

t

nr

wo

e

r

c

k

o

g

[

J

ni

]

-

.

1339.

nAnal

y

sisandA

pp

lications

,

2019

,

22

(

4

):

1331-

[

8

]

Z

p

haoY

,

lutionalneuralne

1

o

9

u

(

2

n

4

dm

):

5

ic

5

r

5

o

3

-e

.

x

p

ressionreco

g

nition

[

J

]

t

.S

w

e

o

n

r

s

k

or

f

s

or

,

2

c

0

o

1

m

9

-

,

[

9

]

a

B

o

n

o

lu

dR

rzaD

tio

e

n

c

al

o

,

I

g

t

n

uR

N

i

e

ti

u

o

r

n

,

D

al

f

a

r

n

N

o

e

e

m

scuR.

tw

H

o

i

r

g

k

hS

M

s

p

i

[

e

cr

M

e

oE

dC

]//

a

x

p

P

m

r

ro

e

e

c

r

s

e

a

s

e

su

ionD

din

si

g

n

s

g

ete

o

C

c

ft

o

ti

n

o

v

n

h

-

13thIn

e

s

p

i

l

o

ic

n

a

,

t

I

io

m

t

n

a

e

s

g

r

i

n

.

n

a

g

tio

M

a

n

a

n

a

d

dC

lJ

eira

o

ointConferenceonCom

p

uterVi-

,

m

p

P

u

o

t

r

e

t

rG

u

g

a

r

l

a

;

p

hic

V

sT

ISI

h

G

e

R

or

A

y

P

a

P

nd

(

A

5

p

-

:

[

13

]

s

L

m

p

eiH

atio-

,

te

Bi

m

nL

g

p

or

.

al

Vi

d

d

if

e

f

o

e

-

r

b

e

a

n

s

c

e

ea

ds

n

a

dc

lien

o

to

her

b

e

j

e

n

c

c

td

e

e

[

J

te

]

ct

.

io

M

nv

ult

i

i

a

-

10

e

6

d

9

i

9

a

.

ToolsandA

pp

lications

,

2018

,

77

(

9

):

10685-

[

14

]

Xiao

y

unT

,

Son

g

linS

,

g

mentation

o

a

g

n

n

dS

itio

e

n

con

[

J

d-

]

O

.I

r

e

d

e

e

eA

rP

c

o

c

o

e

l

s

i

s

n

g

,

20

fo

1

rF

9

(

7

a

)

ci

:

a

8

lE

682

x

1

p

-

r

8

e

6

s

8

s

2

io

8

nR

.

ec-

[

15

]

Z

en

h

ds

an

g

p

e

Y

e

,

Pezesh

g

kiM

,

BrakelP

,

e

p

t

c

send-to

a

-

networks

chr

[

J

]

e

.

c

2

o

01

n

7

iti

.

onwithdeeonvolutionalneurl

[

16

]

P

b

r

a

a

s

s

e

a

d

dPS

re

p

,

Path

at

a

i

kR

onf

,

o

G

r

u

f

n

a

j

c

a

e

nV

reco

K

g

n

,

e

i

t

ti

a

o

l

n

.D

[

e

M

e

p

]

le

I

a

C

rn

C

i

C

n

g

2019.S

p

ri

r

n

es

g

e

er

nt

,

2020

:

419-424.

//

E

[

17

]

J

o

a

v

fS

bee

u

nS

rveil

,

l

S

a

a

n

l

c

e

eD

em

a

S

t

,

AzamA

,

eco

g

nition

e

i

n

s

c

e

e

dC

o

l

n

ass

A

ifi

d

e

v

r

a

s

n

[

c

C

au

em

]/

e

/

si

nt

2

n

s

0

g

1

i

92

De

n

n

e

p

C

dI

F

om

n

e

p

t

a

u

e

t

t

r

u

a

n

r

t

a

e

i

t

sa

o

i

n

o

a

n

n

l

alC

dS

Sc

o

u

ie

n

p

n

f

e

e

r

c

r

-

e

-

(

ICACS

)

.IEEE.2019

:

1-6.

s

[

18

]

t

P

s

i

a

o

o

n

l

a

e

l

tt

n

iM

eura

,

l

HautJ

,

PlazaJ

,

e

p

convolu-

[

19

]

(

ificat

A

1

E

c

4

E

h

5

G

a

-

r

)

io

b

y

:

1

n

[

J

]

n

.

e

I

t

S

w

P

o

R

r

S

k

j

f

o

or

ur

f

n

a

a

s

l

t

o

h

f

yp

p

e

h

r

o

s

t

p

o

e

g

c

r

t

a

ra

mm

lim

et

a

r

g

y

e

,

c

2

l

0

a

1

s-

8

a

aU

20-1

seds

R

47

cr

,

e

O

.

e

hSL

nin

g

of

,

H

de

a

p

g

r

i

e

w

s

a

s

r

io

aY

nus

,

i

e

n

t

g

al

de

.

e

A

p

u

c

t

o

o

n

m

v

a

o

t

l

e

u

d

t

-

g

i

r

o

a

n

m

al

s

n

i

e

nb

ur

i

a

o

l

m

ne

e

t

d

w

ic

o

i

r

n

k

e

,

2

[

J

0

]

1

.

8

C

(

o

16

m

1

p

)

u

:

t

1

e

0

rm

3-1

e

1

t

3

ho

.

dsand

p

ro-

[

20

]

f

D

r

a

o

b

m

iriS

GP

,

S

H

t

e

r

a

a

s

j

l

e

i

c

p

to

K.

ries

Inf

u

e

s

r

i

r

n

i

g

n

g

a

tr

c

a

o

n

n

s

v

p

o

o

l

r

u

t

t

a

i

t

o

i

n

o

a

n

ln

m

e

o

u

d

r

e

a

s

n

l

[

21

]

g

i

e

n

t

g

wo

t

r

e

k

chn

[

J

ol

]

o

.

g

i

T

e

r

s

a

,

n

2

s

0

p

1

o

8

rt

,

8

a

6

tio

:

3

nr

60-

e

3

s

7

e

1

ar

.

ch

p

artC

:

emer-

S

M

c

i

a

nP

leC

,

o

C

n

h

v

o

ol

n

u

g

t

y

io

a

n

n

a

g

lN

W

e

,

u

T

ra

o

l

n

g

Net

C

w

,

o

eta

rkf

l

o

.

rM

Dua

ic

lT

ro-

e

E

m

x

p

p

r

o

e

r

s

a

-

l

s

[

22

]

(

i

8

on

):

1

R

7

e

4

c

5

o

g

.

nition

[

J

]

.FrontiersinPs

y

cholo

gy

,

2017

p

Y

r

a

o

n

ve

WJ

dS

,

p

L

o

iX

ntan

,

e

W

ou

a

s

n

g

M

SJ

icr

,

o

e

-

ta

Ex

l

p

r

.

e

C

ss

A

i

S

on

ME

D

_

AnIm-

[

23

]

t

L

h

uH

eBa

,

s

K

el

p

in

al

eE

maK

valu

,

a

R

ti

o

o

n

n

sin

[

J

J

]

.

.

M

Pl

o

o

t

sO

iond

ne

es

,

2

c

0

ri

1

p

4

at

to

,

a

9

b

(

a

rs

1

se

fo

)

rm

.

and

i-

1

韦锦涛

,

:

基于卷积神经网络的微表情识别模型

71

]:

cro-exressionreconition

[

rocessinIm-

pggg

[]

Y24uY

,

DuanHY

,

emoralfeaturesselec-

pp

,():

aeCommunication201867108-117.

g

[]

Z25hiRC

,

XuHR

,

WanM

,

inDConvo-

g

3

lutionalNeuralNetworkswithTransferLearnin

g

b

y

SuervisedPre-TraininorFacialMicro-Exression

pg

f

p

,():

Sstems2019

,

10251054-1064.

y

]

Reconition

[

ransactionsonInformationand

g

]

tionforsontaneousmicro-exressionreconition

[

J.

ppg

,:

JournalofIntellient&Fuzzstems2018

,

35

(

4

)

gy

S

y

4773-4784.

Micro-exressionreconitionmodelbasedonconvolutionalneuralnetwork

pg

WEIJintao

,

NIJianchen

HOUJie

,

WUJunin

WEIYuanuan

g

,

qg

,

y

(,,,,

SchoolofSoftwareEnineerinQufuNormalUniversit273165

,

QufuShandonPRC

)

ggyg

,

ishandaddresses

pgpypy

,

tionseveralexeriments

gg

s

pp

CNNMERcanreconizemicro-exressioneffectivel.

gpy

:;;;;

Keords

facialmicro-exressiondataaumentationL1reularizationL2reularizationconvolu-

pggg

y

w

,,

wereimlementedonCASMEⅡdatasetsandCNNMERobtained98.44%accuracwhichvalidated

py

toreconizemicro-exressionbasedonconvolutionalneuralnetwork

(

CNN

)

.CNNMERconsistsoftwo

gp

:,

artsmicro-exressiondataset

p

re-rocessinndmicro-exressionreconitionwhichareusedtorelen-

pppg

a

pgp

ofthe

p

roblemthatmicro-exressionreconitionisfacedwithsmallnumber

gypg

,

andimbalanceofdatasamlesandlowreconitionaccuracthis

p

aer

p

roosesamodelcalledCNNMER

pgypp

cro-exressionreconitionhasbeenconfrontedwiththechallenesoffeatureextractiondifficultndlow

pggy

a

:,,

Abstract

Duetothecharacteristicsofshortdurationweakintensitndsmallmotionamlitudemi-

y

a

p

tionalneuralnetwork


发布者:admin,转转请注明出处:http://www.yc00.com/news/1714493198a2457101.html

相关推荐

发表回复

评论列表(0条)

  • 暂无评论

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信