基于深度学习的人脸表情识别的AR川剧变脸(一)
创始人
2024-02-06 01:51:10
0

1、摘要

本项目分为两部分,第一个部分是人脸表情识别任务,第二部分是根据表情变化不同AR脸谱效果。

本文将第一部分,如何使用Keras训练一个人脸表情识别的卷积神经网络。

2、数据集处理

数据集我们使用FER2013PLUS人脸表情识别数据集,大概有35000张图片,每张图片是48*48分辨率的灰度图。
在这里插入图片描述

下图展示7个表情类别的数据集样本量,可以看出类别 angry、happy、sad、surprised、normal 这 5 种表情数量较多,而 disgust、fear这 2 种表情较少。
在这里插入图片描述

在实验中为了防止出现过拟合现象需要进行数据集扩充,提高模型的泛化能力。数据增强是指对输入的图像进行随机的图像处理,比如旋转、位移、光照强度、裁剪等,对于计算机而言,经过位移后的图像和原图像是两幅不同的图像,但具有相同的标签,从而扩充了已有的数据集。而通过使用大量不同的数据集来训练网络,进一步提高深度模型的泛化能力,使得网络即不过拟合也不欠拟合,达到最佳状态。

模型的实际使用常见是自由场景,自由场景中光照亮度的不同会影响模型的性能,添加随机光照,同时为了扩充数据集和对非正常角度人脸的识别增加随机旋转、随机聚焦和水平翻转。下图 展示对一张 48*48 尺寸,表情为 happy 的灰度图进行随机亮度、随机旋转、随机聚焦和随机水平翻转的效果。可以看出,小型数据集借此技术可以实现数十倍的规模扩充,而数据集规模的提升可以提升网络的泛化能力和鲁棒性,提高网络在场景下的识别准确率。
在这里插入图片描述

在Keras中,我们需要使用数据加载器加载数据,最大化硬件利用率,幸运的是Keras已经提供了方法,我们直接使用即可:

def getDenerator(fer2013plus_path="datasets/fer2013plus", batch_size=32):"""我们传递数据集的位置和batch_size,然后函数返回用于训练和测试的数据加载器,用于训练时投喂数据:param fer2013plus_path:fer2013plus数据集目录:param batch_size::return:"""train_datagen = ImageDataGenerator(    # 定义数据增强的方式brightness_range=(0.7, 1.3),  # 随机亮度featurewise_center=False,featurewise_std_normalization=False,rotation_range=10,  # 随机旋转zoom_range=(0.7, 1.3),  # 聚焦horizontal_flip=True)  # 水平翻转train_generator = train_datagen.flow_from_directory(fer2013plus_path+"/train",  # 告诉Keras图片的位置target_size=(48, 48),		# 将图片缩放到指定大小color_mode="grayscale",		# 因为是灰度图batch_size=batch_size,		# 一次性加载多少图片,越大训练越快,但是需要更多的显存class_mode='categorical')    test_datagen = ImageDataGenerator()  # 水平翻转test_generator = test_datagen.flow_from_directory(fer2013plus_path+"/test",target_size=(48, 48),color_mode="grayscale",batch_size=batch_size,class_mode='categorical')return train_generator,test_generator

3、模型设计

模型设计参考VGG网络,也就是Conv+Conv+Pool式的堆叠。

如下图是VGG的结构,可以看出就是Conv+Conv+Pool式的堆叠,最后使用全连接层,实现1000类别的分类。
在这里插入图片描述
但是我们人脸表情识别数据集比较小,仅有3万多张图片,模型太大容易过拟合,所以以VGGNet为蓝本,设计一个比较小的模型,如下图所示,也是conv+conv+pool式,但是更小。

因为我们的表情是7中分类,所以输出的全连接层长度是7。

在这里插入图片描述

在Keras中定义模型结构其实而很简单,代码如下:

def getVXSlim():model = Sequential()# block1model.add(Conv2D(64, (5, 5), input_shape=(48, 48, 1), activation='relu', padding='same'))model.add(Conv2D(64, (5, 5), activation='relu', padding='same'))model.add(BatchNormalization())model.add(MaxPooling2D(pool_size=(2, 2)))# block2model.add(Conv2D(128, (5, 5), activation='relu', padding='same'))model.add(Conv2D(128, (5, 5), activation='relu', padding='same'))model.add(BatchNormalization())model.add(MaxPooling2D(pool_size=(2, 2)))# block3model.add(Conv2D(256, (3, 3), activation='relu', padding='same'))model.add(Conv2D(256, (3, 3), activation='relu', padding='same'))model.add(BatchNormalization())model.add(MaxPooling2D(pool_size=(2, 2)))# single convmodel.add(Conv2D(64, (3, 3), padding='same'))# classifiermodel.add(Flatten())		# 将多维的数据展成一列,可以理解为将图像展开成一列model.add(Dense(7))			# 堆叠一个全连接层,长度为7model.add(BatchNormalization())model.add(Dense(7))			# 堆叠一个全连接层,长度为7# configmodel.add(Activation('softmax'))	# 最后使用softmax激活函数,将输出转换为概率model.compile(loss='categorical_crossentropy', metrics=['accuracy'], optimizer='adam')  # 定义优化器return model

在上面的代码中使用了Conv2D、BatchNormalization、MaxPooling2D、Dense:

  • Conv2D:提取特征,将图像分解为多个特征的组合
  • BatchNormalization:将数据的分布变换为正态分布,再映射到其他分布,可以加快模型的训练速度
  • MaxPooling2D:可以缩减图像的尺寸
  • Dense:全连接层,用于综合所有特征进行判断类别

4、训练

其实到这里,最重要的数据加载和模型定义就写好了,就可以开始训练了。训练了100个轮次,然后开始训练。
在这里插入图片描述
从图中可以看到,训练集精度和损失在 45epoch 左右进入缓慢优化阶段,在 70epoch左右趋于稳定。测试集精度和损失在 45epoch 左右趋于稳定,最终测试集精度达到 83%,损失低于 0.3,取得了较好的表情识别效果。

都说深度学习是黑盒,我们来看看训练出来的模型的可视化效果。
在这里插入图片描述
在可视化中间输出部分,通过卷积网络的每层都会输出结果,通过将结果可视化可以看到输入图片在网络中的流动形式,在这里展示第 3 层的 max_pooling2d、第 4 层的conv2d_2 和第 8 层的 conv2d_4 的输出结果。在图 中可以看出,在开始阶段实际上是各种边缘检测器的集合,在这一阶段,激活几乎保留了输入图像中所有的信息。在第二幅中,虽然仍有边缘检测的痕迹,但是此时更加像是对某些局部部位的特征检测,随着层数的加深,中间激活的结果变得越来越抽象,也更加难以直观地理解。在第三层中几乎无法和原图联系起来。所以抽象是卷积神经网络的一大能力,而这种能力也正是人类所拥有的。

我们将本文设计的模型和VGG9,以及mini_Xception进行对比:
在这里插入图片描述
从图中可以看出,本文的VXSlim网络的验证集精度最高,达到了 83%,VGG9 达到了 82%,mini_Xception 最低,只有79%

那么本文的模型在7种表情类别上的效果如何?可以看到最好的是开心类别,正确率达到了91%!
在这里插入图片描述

我们把每一个类的正确识别率用曲线表示,可以看到本文设计的模型在7种类别上的正确率都是最高的,很nice!
在这里插入图片描述

5、效果展示

通过摄像头进行表情识别效果展示

VXSlim演示_x264

相关内容

热门资讯

让更多人走进赛场、体验“十五运...   第十五届全国运动会8月1日将迎来开幕式倒计时100天。7月25日,国务院新闻办举行新闻发布会,介...
​现金流量套期与公允价值套期会... 现金流量套期与公允价值套期会计处理有何区别公允价值套期和现金流量套期的区别主要体现在套期对象、目的和...
保民生、促消费,财政政策有力度... 数据来源:国家发展改革委、财政部  7月25日,财政部召开2025年上半年财政收支情况新闻发布会。 ...
扎根国防一线30年 导弹筑巢...   火箭军某旅工程安装技师崔道虎,矢志建功国防工程30年,先后在8个工种、12个岗位历练,参与30余...
中新健康丨五个关键词,读懂“十...   中新网北京7月24日电(记者 张尼)基本医疗保险参保率稳定在95%左右,医保码、移动支付和电子处...
重访抗战地标丨南泥湾·自己动手...   “困难并不是不可征服的怪物,大家动手征服它,它就低头了。大家自力更生,吃的、穿的、用的都有了。目...
列车一次性座椅套卖爆,真有必要...   有的已累计售卖10万余件,有的周销量飙升超7倍  列车一次性座椅套卖爆,真有必要还是卫生焦虑? ...
微信最新公告:情节严重者永久封...   7月23日,微信视频创作安全中心官方账号发布 《关于开展微信视频号直播“团播低俗内容治理专项”的...
签约3万平方米!第九届进博会招...   7月25日,距离第八届进博会还有100多天,2026年第九届中国国际进口博览会招展就在上海正式启...
“敏捷精神2025”多国联合军...   新华社巴库7月25日电(记者 钟忠)第比利斯消息:代号为“敏捷精神2025”的多国联合军事演习2...