-
摘要: 为避免人为因素对表情特征提取产生的影响,本文选择卷积神经网络进行人脸表情识别的研究.相较于传统的表情识别方法需要进行复杂的人工特征提取,卷积神经网络可以省略人为提取特征的过程.经典的LeNet-5卷积神经网络在手写数字库上取得了很好的识别效果,但在表情识别中识别率不高.本文提出了一种改进的LeNet-5卷积神经网络来进行面部表情识别,将网络结构中提取的低层次特征与高层次特征相结合构造分类器,该方法在JAFFE表情公开库和CK+数据库上取得了较好的结果.Abstract: In order to avoid the influence of human factors on facial expression feature extraction, convolution neural network is adopted for facial expression recognition in this paper. Compared with the traditional method of facial expression recognition which requires complicated manual feature extraction, convolutional neural network can omit the process of feature extraction. The classical LeNet-5 convolutional neural network has a good recognition rate in handwritten digital dataset, but a low recognition rate in facial expression recognition. An improved LeNet-5 convolution neural network is proposed for facial expression recognition, which combines low-level features with high-level features extracted from the network structure to construct the classifier. The method achieves good results in JAFFE expression dataset and the CK+ dataset.
-
随着计算机的快速发展, 人机交互越来越多地出现在日常生活中, 如何让计算机更好地理解人类的心理是人机交互必须要解决的问题.人的面部表情中包含丰富的信息, 研究指出, 面部表情可以比动作和语言更好地表达人类的心理活动[1], 面部表情识别也因此成为了人机交互中不可或缺的部分.一个普通人可以很好地读取别人的面部表情并做出相应的判别, 但对于计算机来说这是一项十分困难的任务, 为此大量的专家学者投入到该领域的研究中来.面部表情是一个十分复杂的系统, 各国研究者们构建了不同的模型来实现表情分类, 其中最具代表性的就是Ekman等[2]在1978年提出了面部动作编码系统(Facial action coding system, FACS), 随后在1984年根据不同动作单元的组合定义了6种基本的表情:生气、厌恶、开心、悲伤、惊讶、恐惧.研究者们据此构建了不同的表情库, 其中日本的JAFFE公开库就是采用这六种基本表情构建的表情库, 并且在此基础上增加了第7类表情:无表情.卡耐基梅隆大学的Lucey等[3]于2010年在Cohn-Kanade dataset的基础上发布了The extended Cohn-Kanade dataset (CK+), 这个库中包括了123个人的593个视频序列, 其中有327个序列是包含表情标签的序列, 该库中的表情除了6种基本的表情以外增加了蔑视和无表情两种.进入上世纪90年代以后, 面部表情识别与分析迅速发展起来, 研究者们提出了不同的算法来提高识别的准确率, 主要的方法有两种: 1)是基于几何的方法, 例如Lanitis等[4]采用几何特征方法进行识别, 该方法是通过标记人眼、口、鼻等特征点, 计算其相对位置来识别表情, 虽然这种方法大大减少了输入的数据, 但是仅用有限的点来表示复杂的人脸表情显然会丢失很多重要的信息, 因而整体的识别率并不太高; 2)是基于整体的识别方法, 例如Praseeda等[5]使用Gabor小波和SVM相结合的方式进行面部表情识别, 首先用Gabor滤波器对表情图像滤波、提取特征, 将提取到的特征用于SVM训练, 训练分类器进行表情的分类识别, 这种方法同样依赖于前期人工提取特征的优劣, 人为干扰因素较大.近年来, 随着计算机运行速度的提高, 处理大数据成为可能, 同时互联网的快速发展, 研究者采集大量的数据变得相对容易, 在此基础上, 深度卷积神经网络被证实了在图像识别领域有巨大的优势. Krizhevsky等[6]于2012年在ImageNet图像数据集上使用AlexNet卷积神经网络结构取得惊人的成绩, 其识别率远超传统的识别方法.这个数据集包含约120万张训练图像、5万张验证图像和10万张测试图像, 分为1 000个不同的类别, 传统的特征提取方法被网络结构取代, 网络可以自行提取特征并分类而不需要人工干预.
1. 深度学习与卷积神经网络
2006年, 机器学习领域泰斗Hinton与他的学生在Science上发表的文章[7]掀起了深度学习研究的浪潮, 多隐层的神经网络再次回到人们视野之中.在那以后, 斯坦福大学、纽约大学、蒙特利尔大学等名校迅速成为深度学习研究的重要场所, 甚至美国国防部DARPA计划也首次资助了深度学习项目[8].卷积神经网络作为深度学习的一支, 也迅速受到了广泛的关注.现今, 深度学习广泛地应用于监控视频事件检测[9]、自然语言处理[10]、语音信号的基音检测[11]、图像分类与识别等领域[12-15].
卷积神经网络虽然是在近年来才受到广泛的关注和应用, 但早在1962年Hubel等[16]就通过对猫视觉皮层细胞的研究, 提出了感受野(Receptive field)的概念. 1984年日本学者Fukushima等[17]基于感受野的概念而提出的神经认知机(Neocognitron)可以看作是第一个实现了的卷积神经网络, 这也是感受野概念在人工神经网络领域的首次应用. Le Cun等[18]提出的深度卷积神经网络, 就是以神经认知机为基础, 并使用了反向传播算法来识别手写数字, 后来在1998年正式确定的LeNet-5模型, 在文档识别中取得了很好的效果[19], 该模型当年成功用于美国大多数银行支票的手写数字识别, 是卷积神经网络在工业界最早的应用. Le Cun设计的LeNet-5卷积网络结构图如图 1所示.
LeNet-5卷积神经网络可以看成是一个多隐层的人工神经网络, 其基本结构主要包括输入层、卷积层、池化层、全连接层和输出层.其中卷积层和池化层会交替出现, 构成了特殊的隐层.如图 1所示, Input是输入层, 输入大小为32像素× 32像素的图片, MNIST手写数字库中图片大小为28像素× 28像素, 所以实际使用时将其扩展为大小为32像素× 32像素的图片使用. Layer 1层是卷积层, 共有6个特征图, 每一副输入为32像素× 32像素的图片都与6个不同的大小为5像素× 5像素卷积核卷积, 得到大小为28像素× 28像素的特征图. Layer 2层是池化层, Layer 1中6个大小为28像素× 28像素的特征图经过池化后得到6个大小为14像素× 14像素的特征图. Layer 3层是卷积层, 共有16个大小为10像素× 10像素的特征图.每个10像素× 10像素的特征图是由前一层的某几个或全部特征图与5像素× 5像素的卷积核卷积得到, 具体连接方式如表 1所示. Layer 4层是池化层, 共16个5像素× 5像素的特征图, 由Layer 3层16个特征图经过池化得到. Layer 5层是卷积层, 共有120个1像素× 1像素的特征图, 每一个特征图都是由Layer 4层所有的特征图与5像素× 5像素卷积核卷积得到. Full层是全连接层, 共有84个单元, Layer 6层与Layer 5层为全连接关系. Output层是输出层, 输出分类结果.
表 1 LeNet-5网络Layer 2与Layer 3之间的连接方式Table 1 Connection between LeNet-5 network0s Layer 2 and Layer 31 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 1 √ √ √ √ √ √ √ √ √ √ 2 √ √ √ √ √ √ √ √ √ √ 3 √ √ √ √ √ √ √ √ √ √ 4 √ √ √ √ √ √ √ √ √ √ 5 √ √ √ √ √ √ √ √ √ √ 6 √ √ √ √ √ √ √ √ √ √ 不同于传统的神经网络, 卷积神经网络采取的是局部连接(Locally-connection)的方式, 不仅有效地减少了与神经元连接的参数个数, 而且在误差反向传播过程中, 让梯度在一个较小的广度范围内传播[20], 使得训练变得更加容易.权值共享也是卷积神经网络的一个特点, 对于输入图像的每一个小块, 用相同的卷积核进行卷积操作, 这种方法来源于局部感受野的概念, 可以使得图像具有平移不变性.最后, 卷积神经网络中的池化操作, 就是一次下采样操作, 将相邻的几个像素点用一个像素点代替, 根据采样方法的不同分为Max-pooling和Avg-pooling, 该操作可以使图片具有一定的缩放不变性.
2. 改进的LeNet-5网络
LeNet-5卷积神经网络是通过不同的卷积核自行提取特征, 将原始数据经过一些简单的非线性的模型转变为更高层次的、更加抽象的表达, 最终使用高层次的特征进行分类识别.然而这种分类方法没有考虑到低层次的细节特征, 而且随着网络深度加深, 网络训练的困难程度在增加, 尤其是梯度消失或爆炸问题[21], 为了能够解决深层网络的训练问题, 研究者提出了跨层的连接方式.早期训练的多层感知机通常将输入作线性变换后加到输出上[22], 近年来Srivastava等[23]提出了一种新的网络连接结构Highway networks, 该结构主要特点是提供了一种门限机制, 一部分的特征不需要经过处理直接通过某些网络层, 该结构更加容易优化, 并且在CIFAR-10数据集上表现优于Romero等[24]提出的FitNets.而He等[25]提出的深度残差网络同样在标准的前馈卷积网络上, 增加了一些跨层的连接, 目的也是为了降低训练的难度, 该结构不仅在层数上刷新了记录, 而且在ImageNet和COCO几个主要的任务中都取得了优异的成绩. Sun等[26]提出的DeepId网络中也有设计将最后的池化层和卷积层与全连接层相连, 张婷等[27]提出的跨连的卷积神经网络(Cross-connected convolutional neural net-work, CCNN)可以有效地将低层次特征与高层次特征结合起来, 构造出更好地分类器, 在性别分类中取得了不错的结果.本文在LeNet-5的结构基础上引入跨连的思想, 将LeNet-5网络的两个池化层与全连接层相结合用于最后的分类器构造中.
虽然LeNet-5在手写数字集上取得了巨大的成功, 但是将该结构用于表情识别时却难以得到理想的结果, 本文提出了改进的LeNet-5结构如图 2所示, 包括一个输入层、3个卷积层、2个池化层、一个全连接层和一个输出层.网络输入是32像素× 32像素的图片, 经过卷积池化操作后将前两个池化层与全连接层结合起来作为softmax分类器的输入, 最终获得7种表情的分类输出.表 2为各层的网络参数.
表 2 卷积网络参数Table 2 Convolutional network parameters输入 输入尺寸 卷积核大小 池化区域 步长 输出尺寸 Input 32 × 32 5 × 5 1 28 × 28 Layer 1 6 @ 28 × 28 2 × 2 2 6@14 × 14 Layer 2 6 @ 14 × 14 5 × 5 1 10 × 10 Layer 3 16 @ 10 × 10 2 × 2 2 16 @ 5 × 5 Layer 4 16 @ 5 × 5 5 × 5 1 120@1 × 1 Layer 5 120 @ 1 × 1 1 × 84 Layer 6 1 × 1 660 1 × 7 Output 1 × 7 整个网络的训练过程分为正向传播和反向传播, 其中正向传播过程就是隐层提取特征的过程, 主要是卷积和池化操作.反向传播采用BP反向传播算法传递误差, 使用随机梯度下降算法, 更新权值参数.给定输入, 整个网络的计算过程如下:
1) 对于卷积层输入$X$, 卷积过程
$ \begin{align} con=f\left(\sum\limits_{i, j\in\ M}{x_{i, j}\ast w_{m-i, n-j}+b}\right) \end{align} $
(1) 其中, $x$表示输入$X$中卷积区域$M$中的元素, $w$表示卷积核中的元素, $m$, $n$表示卷积核的大小, $b$表示偏置, $f(\cdot)$表示ReLU激活函数.卷积核大小及卷积步长如表 2所示.
2) 对于池化层输入$Y$, 池化过程
$ \begin{align} pool=down(\max(y_{i, j})), \quad i, j\in p \end{align} $
(2) 其中, $y$表示池化层输入$Y$中池化区域$p$中的元素, $down(\cdot)$是下采样过程, 保留池化区域中的最大值.池化区域大小及步长如表 2所示.
3) 对于全连接层输入$Z$
$ \begin{align} full=f(w\times z+b) \end{align} $
(3) 其中, $z$表示输入$Z$中的元素, $w$表示权值, $b$表示偏置, $f(\cdot)$表示ReLU激活函数.
4) 对于输出层输入$X$
$ \begin{align} p(y=j|x;w)=\dfrac{{\rm e}^{w_j \times x}}{{\displaystyle\sum ^{k}_{l=1}{{\rm e}^{w_l \times x}}}} \end{align} $
(4) 式(4)为Softmax分类器的假设函数, 计算的是输入分类为类别$j$时的概率, $w$是权值参数, $k$为总的类别数.其损失函数为
$ \begin{align} J(w)=-\left[\sum^{k}_{l=1}{1\{j=1\}}\dfrac{{\rm log}{({\rm e}^{w_j \times x})}}{\displaystyle\sum ^{k}_{l=1}{{\rm e}^{w_l \times x}}}\right] \end{align} $
(5) 其中, $1\{\cdot\}$是示性函数, 1{值为真的表达式} = 1, 1{值为假的表达式} = 0.
反向传播过程如下:输入样本得到实际输出之后首先需要计算每一层的反馈传递误差
$ \begin{align} \begin{cases} \delta^7={out-y}\\ \delta^6=\left[\delta^7\times{(w^7)}^{\rm T}\right]\circ f'\\ \delta^5=\left[\delta^6_{j}\times{(w^6)}^{\rm T}\right]\circ f', &\!\!\!\! 1 177 \leq j \leq 1 260\\ \delta^4_{i}=(\delta^5_{j}\oplus{w^5}), &\!\!\!\! 1 \leq i \leq 16, \ 1 \leq j \leq 120\\ \delta^3=up(\delta^4)\circ f'\\ \delta^2_{i}=(\delta^3_{j}\oplus {w^3}), &\!\!\!\! 1 \leq i \leq 6, \ 1 \leq j \leq 16\\ \delta^1=up(\delta^2)\circ f' \end{cases} \end{align} $
(6) 式(6)为网络各层的反馈传递误差, 式中符号$\circ$表示矩阵或向量中对应的元素相乘.参考图 2可知, $\delta^7$是输出层(Output)的反馈传递误差, $out$表示网络的实际输出, $y$表示网络的目标输出. $\delta^6$是Layer 6层的反馈传递误差, $w^7$是Layer 6与输出层之间的权值.本算法采用的是ReLU激活函数, $f^\prime$表示ReLU激活函数的导数.全连接层是由跨连接组合而成, Layer 5层只与该层中$(1 177$ $\leq$ $i$ $\leq 1 260)$部分连接, 故误差传递时只需使用$\delta^6$ $(1 177$ $\leq$ $j \leq 1 260)$参与计算, 式中$\delta^5$是Layer 5层的反馈传递误差, $w^6$是Layer 5与Layer 6之间的权值. $\delta^4_{i}$是Layer 4层第$i$个特征图对应的反馈传递误差, $w^5$是Layer 4与Layer 5之间的卷积核, 对于每一个$\delta^4_{i}$, 都是将$\delta^5_{j}$ $(1 \leq j \leq 120)$与$w^5$进行外卷积得到, $\oplus$表示的是外卷积操作, 参考文献[27]定义外卷积与内卷积如下:假设有$A$和$B$两个矩阵, 大小分别为$M \times N$, $m \times n$, 其中$M$, $N$ $\geq$ $m$, $n$.内卷积$C=A\odot B$, $C$中所有元素
$ \begin{align} C_{i, j}={\sum^{m}_{p=1}}{\sum^{n}_{q=1}}{a_{i+M-p, j+N-q}{b_{p, q}}} \end{align} $
(7) 其中, $ 1 \leq i \leq M-m+1, ~1 \leq j \leq N-n+1 $.外卷积定义为
$ \begin{align} A\oplus B=\hat{A}\odot B \end{align} $
(8) 其中, $\hat{A}$是对$A$进行补零扩展, 使其矩阵大小为$(M$ $+$ $2m-2) \times (N+2n-2). $
$\delta^3$是Layer 3层的反馈传递误差, $up(\cdot)$是一个上采样操作, 同时需要乘以激活函数的导数. $\delta^2_{i}$是Layer 2层的反馈传递误差, 它的计算过程与Layer 4层相似, 每个$\delta^2$是由$\delta^3$ $(1\leq j \leq16)$与$w^3$进行外卷积得到, 不过这里要注意Layer 2与Layer 3之间的连接方式, 具体可参见表 2. $\delta^1$是Layer 1层的反馈传递误差, 与Layer 3层类似.
计算权值和偏置的偏导数:
$ \begin{align} \begin{cases} \frac{\partial J}{\partial w^7}=(f6)^{\rm T}\times\delta^7\\ \frac{\partial J}{\partial w^6}=(f5)^{\rm T}\times\delta^6\\ \frac{\partial J}{\partial b^6}=\delta^6\\ \frac{\partial J}{\partial w^5_{i}}=\sum\limits_{N}\left[(f4)\odot(\delta^5)\right]\\ \frac{\partial J}{\partial b^5_{i}}=\sum\limits_{N}{\delta^5},&1\leq i\leq120\\ \frac{\partial J}{\partial w^3_{i}}=\sum\limits_{N}\left[(f2)\odot(\delta^3)\right]\\ \frac{\partial J}{\partial b^3_{i}}=\sum\limits_{N}{\delta^3},&1\leq i\leq16\\ \frac{\partial J}{\partial w^1_{i}}=\sum\limits_{N}\left[(input)\odot(\delta^1)\right]\\ \frac{\partial J}{\partial b^1_{i}}=\sum\limits_{N}{\delta^1},&1\leq i\leq6\\ \end{cases} \end{align} $
(9) 式(9)即为各层权值和偏置的偏导数, 其中$f$6为Layer 6的特征图, 以此类推, $f$5、$f$4、$f$2分别为对应层的特征图, $input$是输入图像.式中$\odot$表示内卷积操作, 定义见式(7).
对于训练集$S=\{x^l$, $y^l\}$算法流程如下:
1) 确定迭代次数、网络结构、学习步长, 随机初始化卷积核以及偏置.其中初始学习步长选择为0.005, 随着训练次数的增加, 测试误差变化较小时, 将学习步长除以10, 直至学习步长降至0.00005, 停止训练.
2) 输入样本, 正向传播, 计算实际输出.
3) 优化目标函数, 采用反向传播算法计算反馈传递误差.
4) 计算参数的修正量.
5) 通过梯度下降法更新参数值.
3. 实验
本文所有实验均在Matlab7.0上实现, 硬件平台为Lenovo Tian-Yi 100: Intel(R) Core(TM) i5-5200u CPU, 主频为2.20 GHz, 内存为4.00 GB.
3.1 数据集
本实验分别采用JAFFE表情数据库和CK+数据库进行实验. JAFFE表情数据库包含7种表情, 分别属于10名女性, 每个人每种表情有2 ~ 4张, 共213张图片.图 3为7种表情的示例图像.
CK+数据库中有123个人的不同表情序列, 为保持一致性, 在CK+数据库中也只考虑七种表情, 从库中取出七类表情共990幅图片, 图 4为7种表情示例图像.
3.2 实验结果及分析
将数据集中图片统一裁剪采样至大小为32像素× 32像素, 采用交叉验证的方法, 将JAFFE数据集中图片分为3份, 每次取其中两份为训练数据, 另一份为测试数据; 将CK+中图片分为5份, 每次取其中4份作为训练数据, 1份作为测试数据.
表 3为本文算法在JAFFE表情库中不同表情的分类结果, 表 4为本文算法在CK+数据库中不同表情的分类结果.由表 3和表 4可以看到, 在一些测试集上, 整个网络表现较好, 正确率高, 但是在另一些上表现相对较差, 其原因可能是训练样本数据中能提取出的表情特征不足, 无法获得足够的特征进行训练, 导致分类器分类效果较差, 这个现象也反映出了样本数据对于卷积神经网络的重要.
表 3 JAFFE表情库不同表情的分类正确率(%)Table 3 Classification accuracy of different expressions in JAFFE expression dataset (%)生气 厌恶 害怕 高兴 中性 悲伤 惊讶 整体 测试集1 100 80 100 100 100 90.91 88.89 94.37 测试集2 100 90 90 81.82 100 100 100 92.96 测试集3 100 100 81.82 90.91 100 100 100 95.77 整体 100 89.66 90.63 90.63 100 96.77 96.55 94.37 表 4 CK+数据库不同表情的分类正确率(%)Table 4 Classification accuracy of different expressions in CK+ dataset (%)生气 厌恶 害怕 高兴 中性 悲伤 惊讶 整体 测试集1 88.89 94.44 80 92.86 70.83 96 93.94 88.89 测试集2 70.37 77.78 80 96.30 68 84 96.97 82.32 测试集3 77.78 85.71 84.62 100 64 72 93.94 83.33 测试集4 62.96 94.29 88 89.29 60 80 87.88 80.81 测试集5 81.48 85.71 72 92.86 64 79.17 100 83.33 整体 76.30 87.59 80.92 94.26 65.37 82.23 94.55 83.74 表 5为不加跨连方式的网络与加了跨连接之后的网络在测试集上的正确率对比.实验过程中, 由于样本较少, 不加跨连方式的网络训练难度大, 参数调整困难, 而跨连接网络收敛速度快, 训练更容易.由表 5可以发现, 直接采用LeNet-5网络结构识别正确率很低, 不能很好地分类, 主要原因是LeNet-5是设计用于手写数字识别, 相对于数字而言, 面部表情特征更复杂, 然而样本数量却更少, 仅用高层次特征不足以训练得到好的分类器, 本文加入了跨连接的方法后, 低层次特征参与最后的分类器的构造后, 识别效果显著提高, 即使在小样本中也有不错的正确率.由表 5还可以发现, 同样的结构在JAFFE表情库中得到的正确率高于CK+库中的正确率, 原因是JAFFE中只有10名亚洲女性的表情图像, 而在CK+中包含了123个不同性别不同肤色的人的表情图像, 后者更为复杂, 因而需要的样本数量更多, 否则难以学习到足够多和足够好的特征进行分类.
表 5 网络是否跨连接正确率对比(%)Table 5 Classification accuracy of the network whether cross connection or not (%)方法 参数量 JAFFE表情库中平均正确率 CK+数据库中平均正确率 LeNet-5 14 444 62.44 32.32 本文方法 25 476 94.37 83.74 表 6为本文方法与传统非深度学习方法的比较, 可以看出, 相对于SVM等浅层学习方法, 本文算法在JAFFE表情数据上表现较为优异.
4. 结论
卷积神经网络的特点是自动地、隐式地学习特征, 不需要人为地定义特征, 如果有足够多的样本用于训练, 网络可以学习到很好的特征进行分类.相反如果没有足够多的样本进行训练, 那么卷积神经网络就不如人为地定义特征能更快地找到样本之间的联系, 从而达到好的分类效果.本文在LeNet-5的网络基础上, 引入跨连接的方法, 设计出新的卷积神经网络结构, 将其应用于面部表情识别.实验结果表明, 低层次特征的应用可以一定程度上弥补样本数量的不足, 获得不错的分类效果.另外, 由本次实验可知, 卷积神经网络现在没有一种通用的结构可以很好地解决多种问题, 在手写数字库上表现非常好的LeNet-5结构在表情识别中表现较差, 所以不同的问题需要设计不同的结构来解决问题, 这给卷积神经网络的普及带来了一定的困难.
下一步研究计划是寻找各层特征之间的关系, 运用反卷积等方法实现卷积神经网络各层特征的可视化, 更好地理解各层特征, 进而找到更加通用的卷积神经网络结构设计方法.
-
表 1 LeNet-5网络Layer 2与Layer 3之间的连接方式
Table 1 Connection between LeNet-5 network0s Layer 2 and Layer 3
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 1 √ √ √ √ √ √ √ √ √ √ 2 √ √ √ √ √ √ √ √ √ √ 3 √ √ √ √ √ √ √ √ √ √ 4 √ √ √ √ √ √ √ √ √ √ 5 √ √ √ √ √ √ √ √ √ √ 6 √ √ √ √ √ √ √ √ √ √ 表 2 卷积网络参数
Table 2 Convolutional network parameters
输入 输入尺寸 卷积核大小 池化区域 步长 输出尺寸 Input 32 × 32 5 × 5 1 28 × 28 Layer 1 6 @ 28 × 28 2 × 2 2 6@14 × 14 Layer 2 6 @ 14 × 14 5 × 5 1 10 × 10 Layer 3 16 @ 10 × 10 2 × 2 2 16 @ 5 × 5 Layer 4 16 @ 5 × 5 5 × 5 1 120@1 × 1 Layer 5 120 @ 1 × 1 1 × 84 Layer 6 1 × 1 660 1 × 7 Output 1 × 7 表 3 JAFFE表情库不同表情的分类正确率(%)
Table 3 Classification accuracy of different expressions in JAFFE expression dataset (%)
生气 厌恶 害怕 高兴 中性 悲伤 惊讶 整体 测试集1 100 80 100 100 100 90.91 88.89 94.37 测试集2 100 90 90 81.82 100 100 100 92.96 测试集3 100 100 81.82 90.91 100 100 100 95.77 整体 100 89.66 90.63 90.63 100 96.77 96.55 94.37 表 4 CK+数据库不同表情的分类正确率(%)
Table 4 Classification accuracy of different expressions in CK+ dataset (%)
生气 厌恶 害怕 高兴 中性 悲伤 惊讶 整体 测试集1 88.89 94.44 80 92.86 70.83 96 93.94 88.89 测试集2 70.37 77.78 80 96.30 68 84 96.97 82.32 测试集3 77.78 85.71 84.62 100 64 72 93.94 83.33 测试集4 62.96 94.29 88 89.29 60 80 87.88 80.81 测试集5 81.48 85.71 72 92.86 64 79.17 100 83.33 整体 76.30 87.59 80.92 94.26 65.37 82.23 94.55 83.74 表 5 网络是否跨连接正确率对比(%)
Table 5 Classification accuracy of the network whether cross connection or not (%)
方法 参数量 JAFFE表情库中平均正确率 CK+数据库中平均正确率 LeNet-5 14 444 62.44 32.32 本文方法 25 476 94.37 83.74 -
[1] Pantic M, Rothkrantz L J M. Expert system for automatic analysis of facial expressions. Image and Vision Computing, 2000, 18(11):881-905 doi: 10.1016/S0262-8856(00)00034-2 [2] Ekman P, Friesen W V. Facial Action Coding System:A Technique for the Measurement of Facial Movement. Palo Alto, CA:Consulting Psychologists Press, 1978. https://www.researchgate.net/publication/239537771_Facial_action_coding_system_A_technique_for_the_measurement_of_facial_movement [3] Lucey P, Cohn J F, Kanade T, Saragih J, Ambadar Z, Matthews I. The extended Cohn-Kanade dataset (CK+): a complete dataset for action unit and emotion-specified expression. In: Proceedings of the 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). San Francisco, CA, USA: IEEE, 2010. 94-101 http://ieeexplore.ieee.org/xpls/icp.jsp?arnumber=5543262 [4] Lanitis A, Taylor C J, Cootes T F. Automatic interpretation and coding of face images using flexible models. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997, 19(7):743-756 doi: 10.1109/34.598231 [5] Praseeda Lekshmi V, Sasikumar M. Analysis of facial expression using Gabor and SVM. International Journal of Recent Trends in Engineering, 2009, 1(2):47-50 http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.381.5275 [6] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks. In: Proceedings of the 25th International Conference on Neural Information Processing Systems, Lake Tahoe, Nevada, USA: NIPS, 2012. 1097-1105 http://dl.acm.org/citation.cfm?id=2999257 [7] Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks. Science, 2006, 313(5786):504-507 doi: 10.1126/science.1127647 [8] 余凯, 贾磊, 陈雨强, 徐伟.深度学习的昨天、今天和明天.计算机研究与发展, 2013, 50(9):1799-1804 doi: 10.7544/issn1000-1239.2013.20131180Yu Kai, Jia Lei, Chen Yu-Qiang, Xu Wei. Deep learning:yesterday, today, and tomorrow. Journal of Computer Research and Development, 2013, 50(9):1799-1804 doi: 10.7544/issn1000-1239.2013.20131180 [9] 王梦来, 李想, 陈奇, 李澜博, 赵衍运.基于CNN的监控视频事件检测.自动化学报, 2016, 42(6):892-903 http://www.aas.net.cn/CN/abstract/abstract18880.shtmlWang Meng-Lai, Li Xiang, Chen Qi, Li Lan-Bo, Zhao Yan-Yun. Surveillance event detection based on CNN. Acta Automatica Sinica, 2016, 42(6):892-903 http://www.aas.net.cn/CN/abstract/abstract18880.shtml [10] 奚雪峰, 周国栋.面向自然语言处理的深度学习研究.自动化学报, 2016, 42(10):1445-1465 http://www.aas.net.cn/CN/abstract/abstract18934.shtmlXi Xue-Feng, Zhou Guo-Dong. A survey on deep learning for natural language processing. Acta Automatica Sinica, 2016, 42(10):1445-1465 http://www.aas.net.cn/CN/abstract/abstract18934.shtml [11] 张晖, 苏红, 张学良, 高光来.基于卷积神经网络的鲁棒性基音检测方法.自动化学报, 2016, 42(6):959-964 http://www.aas.net.cn/CN/abstract/abstract18887.shtmlZhang Hui, Su Hong, Zhang Xue-Liang, Gao Guang-Lai. Convolutional neural network for robust pitch determination. Acta Automatica Sinica, 2016, 42(6):959-964 http://www.aas.net.cn/CN/abstract/abstract18887.shtml [12] 随婷婷, 王晓峰.一种基于CLMF的深度卷积神经网络模型.自动化学报, 2016, 42(6):875-882 http://www.aas.net.cn/CN/abstract/abstract18878.shtmlSui Ting-Ting, Wang Xiao-Feng. Convolutional neural networks with candidate location and multi-feature fusion. Acta Automatica Sinica, 2016, 42(6):875-882 http://www.aas.net.cn/CN/abstract/abstract18878.shtml [13] 王伟凝, 王励, 赵明权, 蔡成加, 师婷婷, 徐向民.基于并行深度卷积神经网络的图像美感分类.自动化学报, 2016, 42(6):904-914 http://www.aas.net.cn/CN/abstract/abstract18881.shtmlWang Wei-Ning, Wang Li, Zhao Ming-Quan, Cai Cheng-Jia, Shi Ting-Ting, Xu Xiang-Min. Image aesthetic classification using parallel deep convolutional neural networks. Acta Automatica Sinica, 2016, 42(6):904-914 http://www.aas.net.cn/CN/abstract/abstract18881.shtml [14] 常亮, 邓小明, 周明全, 武仲科, 袁野, 杨硕, 王宏安.图像理解中的卷积神经网络.自动化学报, 2016, 42(9):1300-1312 http://www.aas.net.cn/CN/abstract/abstract18919.shtmlChang Liang, Deng Xiao-Ming, Zhou Ming-Quan, Wu Zhong-Ke, Yuan Ye, Yang Shuo, Wang Hong-An. Convolutional neural networks in image understanding. Acta Automatica Sinica, 2016, 42(9):1300-1312 http://www.aas.net.cn/CN/abstract/abstract18919.shtml [15] 孙晓, 潘汀, 任福继.基于ROI-KNN卷积神经网络的面部表情识别.自动化学报, 2016, 42(6):883-891 http://www.aas.net.cn/CN/abstract/abstract18879.shtmlSun Xiao, Pan Ting, Ren Fu-Ji. Facial expression recognition using ROI-KNN deep convolutional neural networks. Acta Automatica Sinica, 2016, 42(6):883-891 http://www.aas.net.cn/CN/abstract/abstract18879.shtml [16] Hubel D H, Wiesel T N. Receptive fields, binocular interaction and functional architecture in the cat's visual cortex. The Journal of Physiology, 1962, 160(1):106-154 doi: 10.1113/jphysiol.1962.sp006837 [17] Fukushima K, Miyake S, Ito T. Neocognitron:a neural network model for a mechanism of visual pattern recognition. IEEE Transactions on Systems, Man, and Cybernetics, 1983, SMC-13(5):826-834 doi: 10.1109/TSMC.1983.6313076 [18] Le Cun Y, Boser B, Denker J S, Howard R E, Habbard W, Jackel L D, Henderson D. Handwritten digit recognition with a back-propagation network. Advances in Neural Information Processing Systems 2. San Francisco, CA, USA: Morgan Kaufmann Publishers Inc., 1989. 396-404 [19] Le Cun Y, Bottou L, Bengio Y, Haffner P. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 1998, 86(11):2278-2324 doi: 10.1109/5.726791 [20] Bengio Y. Learning deep architectures for AI. Foundations and Trends® in Machine Learning, 2009, 2(1):1-127 doi: 10.1561/2200000006 [21] Glorot X, Bengio Y. Understanding the difficulty of training deep feedforward neural networks. In: Proceedings of the 13th International Conference on Artificial Intelligence and Statistics (AISTATS) 2010. Sardinia, Italy: Chia Laguna Resort, 2010. 249-256 [22] Ziegel R. Modern Applied Statistics with S-plus (3rd edition), by Venables W N and Ripley B D, New York: Springer-Verlag, 1999, Technometrics, 2001, 43(2): 249 [23] Srivastava R K, Greff K, Schmidhuber J. Highway networks. Computer Science, arXiv: 1505. 00387, 2015. [24] Romero A, Ballas N, Kahou S E, Chassang A, Gatta C, Bengio Y. FitNets: hints for thin deep nets. Computer Science, arXiv: 1412. 6550, 2014. [25] He K M, Zhang X Y, Ren S Q, Sun J. Deep residual learning for image recognition. In: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. arXiv: 1512. 03385, 2016. 770-778 [26] Sun Y, Wang X G, Tang X O. Deep learning face representation from predicting 10, 000 classes. In: Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Columbus, OH, USA: IEEE, 2014. 1891-1898 https://www.computer.org/csdl/proceedings/cvpr/2014/5118/00/5118b891-abs.html [27] 张婷, 李玉鑑, 胡海鹤, 张亚红.基于跨连卷积神经网络的性别分类模型.自动化学报, 2016, 42(6):858-865 http://www.aas.net.cn/CN/abstract/abstract18876.shtmlZhang Ting, Li Yu-Jian, Hu Hai-He, Zhang Ya-Hong. A gender classification model based on cross-connected convolutional neural networks. Acta Automatica Sinica, 2016, 42(6):858-865 http://www.aas.net.cn/CN/abstract/abstract18876.shtml [28] Kumbhar M, Jadhav A, Patil M. Facial expression recognition based on image feature. International Journal of Computer and Communication Engineering, 2012, 1(2):117-119 https://www.researchgate.net/publication/250922449_Facial_Expression_Recognition_Based_on_Image_Feature 期刊类型引用(95)
1. Li Beibei,Zhu Jiansheng,Li Suwen,Dai Linlin,Yan Zhiyuan,Ma Liangde. Real-Time Facial Expression Recognition on Res-MobileNetV3. China Communications. 2025(03): 54-64 . 必应学术
2. 袁德荣,张勇,唐颖军,李波燕,谢宝来. 多尺度残差注意力网络及其表情识别算法. 小型微型计算机系统. 2024(01): 30-36 . 百度学术
3. 李慧,张运良,陈红倩,李英侠. 基于表情向量聚类的课堂交互学生推荐方法. 软件导刊. 2024(06): 163-169 . 百度学术
4. 张智,魏蘅. 基于注意力改进残差网络结构的表情识别方法. 计算机应用与软件. 2024(08): 162-167 . 百度学术
5. 高寒,陈伟. 融合SURF和改进的AlexNet网络的表情识别算法. 计算机与数字工程. 2024(11): 3433-3438 . 百度学术
6. 高红霞,郜伟. 融合关键点属性与注意力表征的人脸表情识别. 计算机工程与应用. 2023(03): 118-126 . 百度学术
7. 郑伟. 多尺度注意力机制DenseNet网络的表情识别方法. 软件导刊. 2023(02): 81-86 . 百度学术
8. 陈斌,朱晋宁. 双流增强融合网络微表情识别. 智能系统学报. 2023(02): 360-371 . 百度学术
9. 闫河,李梦雪,张宇宁,刘建骐. 面向表情识别的重影非对称残差注意力网络模型. 智能系统学报. 2023(02): 333-340 . 百度学术
10. 张栋昱,赵磊. 融合注意力机制改进ResNet的人脸表情识别. 计算机技术与发展. 2023(05): 130-137 . 百度学术
11. 崔海生,侯晨杰. 基于Tensorflow框架的面部识别技术. 科技与创新. 2023(10): 34-38 . 百度学术
12. 谢黎,史丰硕,康晓管. 情绪测量技术综述. 大众标准化. 2023(18): 31-34 . 百度学术
13. 陈斌,樊飞燕,张睿. 年龄算子深度稀疏融合扩展表情识别. 南京师范大学学报(工程技术版). 2023(03): 43-52 . 百度学术
14. 封红旗,黄伟铠,张登辉. 结合显著特征筛选和ViT的面部表情识别方法. 计算机工程与应用. 2023(22): 136-143 . 百度学术
15. 张鹏,孔韦韦,滕金保. 基于多尺度特征注意力机制的人脸表情识别. 计算机工程与应用. 2022(01): 182-189 . 百度学术
16. 张学军,陈都,孙知信. 基于卷积神经网络的脑电信号情绪分类方法. 电子测量技术. 2022(01): 1-7 . 百度学术
17. 郑剑,郑炽,刘豪,于祥春. 融合局部特征与两阶段注意力权重学习的面部表情识别. 计算机应用研究. 2022(03): 889-894+918 . 百度学术
18. 梁玉泽,冀俊忠. 基于原型学习与深度特征融合的脑功能连接分类方法研究. 自动化学报. 2022(02): 504-514 . 本站查看
19. 储汇,宋陈,汪晨灿. 基于Keras卷积神经网络的多人脸识别抗干扰研究. 洛阳理工学院学报(自然科学版). 2022(01): 62-67 . 百度学术
20. 付小龙,李志丹,程吉祥,刘家伟. 残差网络和损失函数集成的人脸表情识别. 控制工程. 2022(03): 522-529 . 百度学术
21. 柳长源,李文强,毕晓君. 基于RCNN-LSTM的脑电情感识别研究. 自动化学报. 2022(03): 917-925 . 本站查看
22. 简腾飞,王佳,曹少中,杨树林,张寒. 基于Mixer Layer的人脸表情识别. 计算机系统应用. 2022(07): 128-134 . 百度学术
23. 邓源,施一萍,江悦莹,朱亚梅,刘瑾. 基于MobileNetV2与LBP特征融合的婴幼儿表情识别算法. 电子科技. 2022(08): 47-52 . 百度学术
24. 余久方,李中科,陈涛. 基于分离混合注意力机制的人脸表情识别. 电讯技术. 2022(09): 1207-1214 . 百度学术
25. 苏悦,杨春金,王建霞. 基于表情识别技术的学生课堂状态检测. 河北工业科技. 2022(05): 396-403 . 百度学术
26. 王伟喆,郭威彤,杨鸿武. 手语到情感语音的转换. 计算机工程与科学. 2022(10): 1869-1876 . 百度学术
27. 陈恩志,王春阳,李晨晨,吴夏铭. 改进的LeNet-5网络在图像分类中的研究. 长春理工大学学报(自然科学版). 2022(05): 74-79 . 百度学术
28. 宋玉琴,高师杰,曾贺东,熊高强. 嵌入注意力机制的多尺度深度可分离表情识别. 北京航空航天大学学报. 2022(12): 2381-2387 . 百度学术
29. 柳璇,唐颖军,黄淑英. 结合多特征和跨连通道加权的面部表情识别. 小型微型计算机系统. 2021(02): 399-404 . 百度学术
30. 李昱,王俊雄,黄伍德. 基于卷积神经网络的AUV水下识别系统. 船舶与海洋工程. 2021(01): 20-25 . 百度学术
31. 王倩,高向军,葛方振,沈龙凤,李想,刘怀愚. 基于多颜色空间的太阳能电池片智能分类. 计算机与数字工程. 2021(03): 556-561 . 百度学术
32. 冯新扬,邵超. 跨卷积网络特征融合的SAR图像目标识别. 系统仿真学报. 2021(03): 554-561 . 百度学术
33. 何宏,陈叔达. 面部表情的深度卷积级联森林识别. 小型微型计算机系统. 2021(04): 805-809 . 百度学术
34. 沈同平,王元茂,黄方亮,许欢庆. 基于深度学习技术的在线教学效果评价研究. 河北北方学院学报(自然科学版). 2021(03): 44-49 . 百度学术
35. 李波,王坤侠. 基于特征融合的人脸表情识别算法研究. 安徽建筑大学学报. 2021(01): 94-102 . 百度学术
36. 沈锐,陈亚军. 一种基于批量归一化的LeNet网络改进方法. 四川文理学院学报. 2021(02): 136-140 . 百度学术
37. 韦赛远,林丽媛,张怡然. 基于M-Xception网络的戴口罩人脸表情识别. 天津科技大学学报. 2021(03): 72-76 . 百度学术
38. 申毫,孟庆浩,刘胤伯. 基于轻量卷积网络多层特征融合的人脸表情识别. 激光与光电子学进展. 2021(06): 148-155 . 百度学术
39. 华春杰,于雅楠,李慧苹,刘航. 基于端到端表情识别方法的课堂教学分析. 天津职业技术师范大学学报. 2021(02): 26-31 . 百度学术
40. 谢惠华,黎明,王艳,陈昊. 基于特征优选和字典优化的组稀疏表示表情识别. 模式识别与人工智能. 2021(05): 446-454 . 百度学术
41. 崔梓晗,魏昕怡,邱桃荣,邹凯. 布料色卡图像检索的深度学习模型. 南昌大学学报(工科版). 2021(02): 178-186+204 . 百度学术
42. 张波,兰艳亭,鲜浩,方炜. 基于通道注意力机制的人脸表情识别机器人交互研究. 电子测量技术. 2021(11): 169-174 . 百度学术
43. 皮瑶,刘惠康,李倩. 基于柔性薄膜阵列压力传感器的抱闸故障诊断. 高技术通讯. 2021(08): 836-843 . 百度学术
44. 崔子越,皮家甜,陈勇,杨杰之,鲜焱,吴至友,赵立军,曾绍华,吕佳. 结合改进VGGNet和Focal Loss的人脸表情识别. 计算机工程与应用. 2021(19): 171-178 . 百度学术
45. 陈昌川,王海宁,黄炼,黄涛,李连杰,黄向康,代少升. 一种基于局部表征的面部表情识别算法. 西安电子科技大学学报. 2021(05): 100-109 . 百度学术
46. 孙广旗,崔勇,申振鑫,王宇. 基于深度学习的铸管铸字的检测与识别方案设计. 自动化博览. 2021(10): 72-77 . 百度学术
47. 许春和,宋领赟. 基于时序融合策略的深度卷积网络动态表情识别. 国外电子测量技术. 2021(10): 151-157 . 百度学术
48. 苏志明,王烈,蓝峥杰. 基于多尺度分层双线性池化网络的细粒度表情识别模型. 计算机工程. 2021(12): 299-307+315 . 百度学术
49. 蒋梦莹,林小竹,柯岩,魏战红. 基于权值分布的多模型分类算法研究. 计算机应用研究. 2020(01): 313-316 . 百度学术
50. 林景栋,吴欣怡,柴毅,尹宏鹏. 卷积神经网络结构优化综述. 自动化学报. 2020(01): 24-37 . 本站查看
51. 李阳,王璞,刘扬,刘国军,王春宇,刘晓燕,郭茂祖. 基于显著图的弱监督实时目标检测. 自动化学报. 2020(02): 242-255 . 本站查看
52. 许可,高尚. 深度卷积神经网络LeNet-5和ResNet的对比以及应用分析. 电子设计工程. 2020(02): 82-85+90 . 百度学术
53. 姚丽莎,徐国明,赵凤. 基于卷积神经网络局部特征融合的人脸表情识别. 激光与光电子学进展. 2020(04): 338-345 . 百度学术
54. 李校林,钮海涛. 基于VGG-NET的特征融合面部表情识别. 计算机工程与科学. 2020(03): 500-509 . 百度学术
55. 晏鹏程,张一鸣,童光红,黄锋,欧先锋. 基于卷积神经网络的视频监控人脸识别方法. 成都工业学院学报. 2020(01): 26-31 . 百度学术
56. 吴丽娜,王林山. 改进的LeNet-5模型在花卉识别中的应用. 计算机工程与设计. 2020(03): 850-855 . 百度学术
57. 崔少华,李素文,汪徐德. 改进的卷积神经网络对地震数据进行去噪的方法. 激光与光电子学进展. 2020(06): 271-278 . 百度学术
58. 刘芾,李茂军,胡建文,肖雨荷,齐战. 基于低像素人脸图像的表情识别. 激光与光电子学进展. 2020(10): 97-104 . 百度学术
59. 王晓红,梁祐慈,麻祥才. 一种基于Inception思想的人脸表情分类深度学习算法研究. 光学技术. 2020(03): 347-353 . 百度学术
60. 张文琪,陈平,吴泱序. 基于跨层卷积神经网络的石刻碑文识别. 测试技术学报. 2020(03): 197-203 . 百度学术
61. 黄俊,张娜娜,章惠. 融合头部姿态和面部表情的互动式活体检测. 计算机应用. 2020(07): 2089-2095 . 百度学术
62. 任晓奎,丁鑫,陶志勇,何欣键. 基于多分类器的无分割手写数字字符串识别算法. 计算机应用研究. 2020(07): 2222-2226 . 百度学术
63. 戴蓉. 一种基于条件生成对抗网络的面部表情识别技术. 计算机应用与软件. 2020(08): 166-170+232 . 百度学术
64. 张翔,史志才,陈良. 基于SWA优化级联网络的表情识别方法. 电子科技. 2020(09): 16-20 . 百度学术
65. 党宏社,王淼,张选德. 基于深度学习的面部表情识别方法综述. 科学技术与工程. 2020(24): 9724-9732 . 百度学术
66. 张翔,史志才,陈良. 引入注意力机制和中心损失的表情识别算法. 传感器与微系统. 2020(11): 148-151 . 百度学术
67. 周涛,吕晓琪,任国印,谷宇,张明,李菁. 基于集成卷积神经网络的面部表情分类. 激光与光电子学进展. 2020(14): 324-335 . 百度学术
68. 杨旭,尚振宏. 基于改进AlexNet的人脸表情识别. 激光与光电子学进展. 2020(14): 243-250 . 百度学术
69. 陈斌,朱晋宁,东一舟. 基于残差整流增强卷积神经网络的表情识别. 液晶与显示. 2020(12): 1299-1308 . 百度学术
70. 郭鹏程,张文琪,李毅红. 基于跨层网络的危险物品X射线自动识别. 科学技术与工程. 2020(33): 13718-13724 . 百度学术
71. 王忠民,缑田田,衡霞. 融合CNN与BLSTM神经网络的面部表情识别. 计算机与数字工程. 2020(12): 2978-2983 . 百度学术
72. 王立刚,张志佳,李晋,范莹莹,刘立强. 基于卷积神经网络的LED灯类字体数字识别. 电子测量与仪器学报. 2020(11): 148-154 . 百度学术
73. 苏泽斌,高敏,李鹏飞,景军锋,张缓缓. 基于卷积神经网络的数码印花缺陷分类算法. 激光与光电子学进展. 2020(24): 136-144 . 百度学术
74. 安源,刘春,蔡朝晖,马英瑞. 基于改进的LeNet-5网络在单通道图像分类中的研究. 信息技术. 2020(12): 8-10+16 . 百度学术
75. 马大中,胡旭光,孙秋野,郑君,王睿. 基于数据特征融合的管网信息物理异常诊断方法. 自动化学报. 2019(01): 163-173 . 本站查看
76. 党宏社,白文静,马毅超,陶亚凡. 基于卷积神经网络的多人表情识别算法. 现代计算机(专业版). 2019(06): 45-49 . 百度学术
77. 卢官明,朱海锐,郝强,闫静杰. 基于深度残差网络的人脸表情识别. 数据采集与处理. 2019(01): 50-57 . 百度学术
78. 宁思衡,祝连庆,燕必希. 基于LeNet-5的机器人足球和球门识别. 机器人技术与应用. 2019(02): 33-35 . 百度学术
79. 胡敏,余胜男,王晓华. 基于约束性循环一致生成对抗网络的人脸表情识别方法. 电子测量与仪器学报. 2019(04): 169-177 . 百度学术
80. 王露,唐韬,卿粼波,周文俊,熊文诗,滕奇志. 基于公共空间视频的人脸情绪识别. 安徽工业大学学报(自然科学版). 2019(01): 68-73+79 . 百度学术
81. 张璟. 基于卷积神经网络的人脸表情识别研究. 电脑知识与技术. 2019(16): 212-213+215 . 百度学术
82. 马中启,朱好生,杨海仕,王琪,胡燕海. 基于多特征融合密集残差CNN的人脸表情识别. 计算机应用与软件. 2019(07): 197-201 . 百度学术
83. 刘金利,张培玲. 改进LeNet-5网络在图像分类中的应用. 计算机工程与应用. 2019(15): 32-37+95 . 百度学术
84. 文元美,欧阳文,凌永权. 面向表情识别的双通道卷积卷积神经网络. 计算机工程与设计. 2019(07): 2046-2051 . 百度学术
85. 黄倩露,王强. 基于跨连特征融合网络的面部表情识别. 计算机工程与设计. 2019(10): 2969-2973 . 百度学术
86. 杨知,欧文浩,刘晓燕,李闯,费香泽,赵斌滨,刘龙,马潇. 基于LinkNet卷积神经网络的高分辨率遥感影像水体信息提取. 云南大学学报(自然科学版). 2019(05): 932-938 . 百度学术
87. 张啸,周连喆,张琳琳. 基于改进LeNet-5的面部表情识别方法. 计算机与现代化. 2019(10): 83-87+93 . 百度学术
88. 呙鹏程,吴礼洋. 融合卷积特征与判别字典学习的低截获概率雷达信号识别. 兵工学报. 2019(09): 1881-1889 . 百度学术
89. 李雨冲,闫昭帆,严国萍. 基于边缘的双路卷积神经网络及其可视化. 计算机工程与科学. 2019(10): 1837-1845 . 百度学术
90. 高强,潘俊,洪锐锋. 基于CNN的机场安检危险品自动识别研究. 计算机技术与发展. 2019(10): 95-99 . 百度学术
91. 谭小慧,李昭伟,樊亚春. 基于多尺度细节增强的面部表情识别方法. 电子与信息学报. 2019(11): 2752-2759 . 百度学术
92. 王忠民,李和娜,张荣,衡霞. 融合卷积神经网络与支持向量机的表情识别. 计算机工程与设计. 2019(12): 3594-3600 . 百度学术
93. 柯岩,林小竹,廖蕊,魏战红. 卷积神经网络层级分解研究. 计算机工程. 2019(11): 191-197 . 百度学术
94. 王建霞,陈慧萍,李佳泽,张晓明. 基于多特征融合卷积神经网络的人脸表情识别. 河北科技大学学报. 2019(06): 540-547 . 百度学术
95. 邹建成,邓豪. 一种基于卷积神经网络的人脸表情自动识别方法. 北方工业大学学报. 2019(05): 51-56 . 百度学术
其他类型引用(170)
-