2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于局部补数-导数模式的光照反转和旋转不变纹理表达

辛亮亮 宋铁成 张刚 高陈强 张天骐

李远征, 倪质先, 段钧韬, 徐磊, 杨涛, 曾志刚. 面向高比例新能源电网的重大耗能企业需求响应调度. 自动化学报, 2023, 49(4): 754−768 doi: 10.16383/j.aas.c220034
引用本文: 辛亮亮, 宋铁成, 张刚, 高陈强, 张天骐. 基于局部补数-导数模式的光照反转和旋转不变纹理表达.自动化学报, 2021, 47(4): 924-932 doi: 10.16383/j.aas.c180201
Li Yuan-Zheng, Ni Zhi-Xian, Duan Jun-Tao, Xu Lei, Yang Tao, Zeng Zhi-Gang. Demand response scheduling of major energy-consuming enterprises based on a high proportion of renewable energy power grid. Acta Automatica Sinica, 2023, 49(4): 754−768 doi: 10.16383/j.aas.c220034
Citation: Xin Liang-Liang, Song Tie-Cheng, Zhang Gang, Gao Chen-Qiang, Zhang Tian-Qi. Illumination-inversion and rotation invariant texture representation based on local complement and derivative pattern. Acta Automatica Sinica, 2021, 47(4): 924-932 doi: 10.16383/j.aas.c180201

基于局部补数-导数模式的光照反转和旋转不变纹理表达

doi: 10.16383/j.aas.c180201
基金项目: 

国家自然科学基金项目 61702065

国家自然科学基金项目 61671095

国家自然科学基金项目 61571071

信号与信息处理重庆市市级重点实验室建设项目 CSTC2009CA2003

详细信息
    作者简介:

    辛亮亮  重庆邮电大学硕士研究生. 主要研究方向为纹理特征提取. E-mail: xxinliangliang@126.com

    张刚  重庆邮电大学副教授. 主要研究方向为混沌通信与微弱信号检测. E-mail: zhanggang@cqupt.edu.cn

    高陈强  重庆邮电大学教授. 主要研究方向为图像处理与计算机视觉. E-mail: gaocq@cqupt.edu.cn

    张天骐  重庆邮电大学教授. 主要研究方向为通信信号处理与多媒体信息处理. E-mail: zhangtq@cqupt.edu.cn

    通讯作者:

    宋铁成  重庆邮电大学讲师. 主要研究方向为图像处理与计算机视觉. 本文通信作者. E-mail: xyzren@yeah.net

Illumination-Inversion and Rotation Invariant Texture Representation Based on Local Complement and Derivative Pattern

Funds: 

National Natural Science Foundation of China 61702065

National Natural Science Foundation of China 61671095

National Natural Science Foundation of China 61571071

Project of Key Laboratory of Signal and Information Processing of Chongqing CSTC2009CA2003

More Information
    Author Bio:

    XIN Liang-Liang  Master student at Chongqing University of Posts and Telecommunications. His main research interest is texture feature extraction

    ZHANG Gang  Associate professor at Chongqing University of Posts and Telecommunications. His research interest covers chaotic communication and weak signal detection

    GAO Chen-Qiang  Professor at Chongqing University of Posts and Telecommunications. His research interest covers image processing and computer vision

    ZHANG Tian-Qi  Professor at Chongqing University of Posts and Telecommunications. His research interest covers communication signal processing and multimedia information processing

    Corresponding author: SONG Tie-Cheng  Lecturer at Chongqing University of Posts and Telecommunications. His research interest covers image processing and computer vision. Corresponding author of this paper
  • 摘要: 针对现有局部二值模式(Local binary pattern, LBP) 算法对光照反转变化敏感和特征描述力不足的问题, 本文提出一种基于局部补数-导数模式(Local complement and derivative pattern, LCDP) 的纹理表达方法. 其中, 局部补数模式(Local complement pattern, LCP) 用于编码原始图像空间中的近邻差分符号信息, 局部导数模式(Local derivative pattern, LDP) 用于编码不同尺度下(一阶和二阶) 高斯导数空间中的近邻差分幅值信息, 二者对光照反转和图像旋转均具有鲁棒性. 为实现对差分符号和差分幅值的联合统计, 同时维持特征的紧致性, 进一步提出基于均值采样的联合编码方案. 最后, 对联合编码的结果进行多尺度直方图特征表达. 实验表明, 该方法能够有效提高线性和非线性光照反转条件下纹理图像的分类精度.
    Recommended by Associate Editor BAI Xiang
  • 自然语言推理(Natural language inference, NLI)又称为文本蕴含识别(Recognizing textual entailment, RTE)[1-2], 是自然语言处理(Natural language processing, NLP)中一个重要的研究问题.自然语言推理是一个确定两个或多个句子之间逻辑关系的任务, 例如:给定一个前提(Premise)和一个假设(Hypothesis), 目标是确定它们之间的逻辑关系是蕴涵、中立还是矛盾. SNLI[3]和Breaking-NLI[4]等一系列高质量、大规模标准数据集的发布推动了自然语言推理的发展, 促进了大量相关研究[5-11], 表 1展示了几个SNLI数据集中的例子.目前基于神经网络的推理模型主要有两类:一类侧重前提和假设分别进行句子嵌入, 然后使用分类器将其组合起来; 另一类不是分别处理两个句子, 而是使用交互注意力机制进行句子之间的交互.本文关注基于句子嵌入的方法, 因为该方法没有限定要求两个句子, 可以延展到更多任务上.

    表 1  SNLI数据集上的三个例子
    Table 1  Three examples from the SNLI dataset
    Premise (前提) Hypothesis (假设) Label (标签)
    A soccer game with multiple males playing. Some men are playing a sport. Entailment
    (译文) 一场有多名男子参加的足球比赛. 有些男人在做运动. 蕴涵
    A person on a horse jumps over a broken down airplane. A person is training his horse for a competition. Neutral
    (译文) 一个人骑着马跳过了一架坏掉的飞机. 为了参加比赛, 一个人正在训练他的马. 中立
    A black race car starts up in front of a crowd of people. A man is driving down a lonely road. Contradiction
    (译文) 一辆黑色赛车在一群人面前启动. 一个男人开着车行驶在荒凉的路上. 矛盾
    下载: 导出CSV 
    | 显示表格

    对自然语言推理广泛的研究使得很多复杂模型在基准数据集上取得了越来越高的表现, 但是最近的研究[11]表明多数模型很少关注前提和假设的句义关系, 而是大量利用句子中个别词之间对立或相似等浅显关系进行推理作答, 更有甚者只是根据假设就可以进行推理.可想而知这些推理模型很难应用到复杂的现实场景中, 它们根据句子中特定词之间的关系进行盲目推理, 比如根据前提中的"expensive"词和假设中的"cheap"词, 简单推理出两个句子是对立关系, 而实际上两句话描述的不是同一件事情, 正确的逻辑关系应该是中立.推理模型过度依赖特定词, 说明模型只是抓住数据集中的语言偏置, 而不是依据前提和假设所表达的句义关系进行逻辑推理.

    一种检测语言偏置对推理模型影响的方式是设计一个仅依赖词编码表示进行推理的模型(为了方便描述, 本文使用WIM (Word inference model)表示仅依赖词编码表示进行推理的模型), 事实上WIM也可以作为一个标准的基线模型.本文提出使用对抗正则化方法来降低语言偏置的影响, 具体方法是让一个标准的推理模型和这个只依赖词编码表示进行推理的对手进行博弈, 以减少语言偏置的影响.在对抗机制下, 一方面训练WIM, 使得该模型尽可能推理正确, 其中WIM模型的词编码表示是由标准推理模型提供; 另一方面训练标准推理模型, 调整它的词编码和句编码部分, 目的是在提高自身推理准确率的同时, 尽量降低WIM模型的性能.在这种新颖的对抗正则化机制下, 优化自然语言推理模型.

    本文提出的模型可以端到端训练, 而且扩展和延伸性比较强.在SNLI和Breaking-NLI数据集上的实验结果表明了该方法的有效性:本文提出的方法在SNLI数据集基于句子嵌入的推理模型中取得了最好的结果, 而且在Breaking-NLI数据集中也取得了领先的表现.

    本文的主要贡献如下: 1)通过多样信息整合, 多层级句子编码, 增强自然语言推理模型对句子的表示能力, 以探索更多语义信息. 2)关注自然语言推理中的语言偏置现象, 并使用对抗正则化方法来解决这个问题, 此外该方法没有增加模型的参数, 不会增加模型测试时的复杂度. 3)通过在SNLI和Breaking-NLI数据集上的实验表明本文提出方法的有效性, 模型推理表现取得了有效的提升.

    目前句子嵌入在自然语言推理的众多方法中得到了广泛的应用, 这些方法背后的基本思想是分别对前提语句和假设语句进行编码, 然后将它们的句子表示结合起来使用神经网络进行分类, 具体结构如图 1所示.在已有的工作中, 很多研究工作使用卷积神经网络(Convolution neural network, CNN)和长短时记忆网络(Long short-time memory, LSTM)作为构建模块, 如Liu等[12]提出基于双向长短时记忆网络(Bidirectional LSTM, BiLSTM)的句子编码结构, Mou等[13]提出基于树的CNN句子编码结构.也有很多使用更加复杂的神经网络进行句子嵌入的研究工作, 如Munkhdalai等[14]提出NSE (Neural semantic encoder)的记忆增强神经网络, 用于自然语言推理任务.最近一些研究者开始探索应用于句子嵌入表示的自注意力机制. Shen等[6]提出DiSAN模型, 该模型没有使用CNN和循环神经网络(Recurrent neural network, RNN), 而是完全依赖于研究者提出的多维注意力和双向自注意力机制. Shen等[15]提出ReSAN (Reinforced self-attention network)模型, 该模型使用强化学习将软注意力和硬注意力融合在一起. Im等[16]提出基于距离的自注意力网络模型, 该模型利用距离掩蔽来关注单词之间的距离, 从而对局部依赖关系进行建模.此外, 还有研究者将胶囊网络中的动态路由机制应用到自然语言推理任务中[17], 并且取得了不错的效果.虽然在自然语言推理中, 句子嵌入方法已经显示出其有效性, 但是也有多项研究表明, 将前提和假设句子对在句子编码期间联合处理, 关注它们之间的复杂交互, 模型会得到更好的结果.然而, 这些交互式的方法不能在很多单个句子处理的任务上直接使用, 也不能像句子嵌入一样直接提供关于句子的语义理解.本文选择基于句子嵌入的体系结构, 以便应用于更多NLP任务.

    图 1  自然语言推理(NLI)整体结构框图
    Fig. 1  The structure of natural language inference (NLI)

    Goodfellow等[18]提出生成对抗网络(Generative adversarial network, GAN)作为一种学习数据分布的新方式.生成对抗网络包含一个生成器$G$和一个判别器$D$, $G$和$D$在一个极小极大的博弈中被同步训练, 优化目标是达到纳什均衡

    $ \begin{align}\label{eq1} &\mathop {\min }\limits_G \mathop {\max }\limits_D V(D, G) = {{\rm E}_{x \sim {p_{\rm data}}}}\left[ {\log D(x)} \right] +\notag\\ &\qquad {{\rm E}_{z \sim {p_z}}}\left[ {\log (1 - D(G(z)))} \right] \end{align} $

    (1)

    其中, 生成器$G$根据从先验分布${p_z}$中采样的隐含输入变量$z$来产生真实的数据, 以愚弄判别器$D$.另一方面, 判别器$D$是一个典型的二元分类器, 它试图去辨别它的输入数据是来自训练集还是来自生成器生成的集合.生成对抗网络通过判别器为生成器提供损失梯度进行训练, 目的是学习一个生成模型, 使该模型的输出满足特定的分布${p_{\rm data}}$.

    生成对抗网络具有强大的模拟复杂分布的能力, 已受到广泛关注, 并且在图像和文本生成等领域演化出很多变体, 取得了大量令人瞩目的效果.如针对对抗网络自身的改进LSGAN[19]和WGAN[20], 对抗网络在图像生成上的应用BicycleGAN[21]和DualGAN[22], 在文本生成上的应用SeqGAN[23]和RankGAN[24]等.最近, 研究人员提出了其他对抗训练的策略[25-26], 以鼓励中间模型表示各种形式的不变性.

    图 2是本文提出的基于对抗正则化的自然语言推理模型框图, 图中上半部分的标准NLI模型对应本文提出的增强的多层级表示推理模型(Enhanced multi-level representations inference model, EMRIM), 下半部分的针对词编码的NLI对手对应前面提到的WIM模型.其中EMRIM模型主要包括词编码器、句编码器、分类器三部分, 该模型通过增强的多层级编码结构探索丰富语言信息.并且本文提出使用对抗正则化方法降低语言偏置的影响, 从而进一步提升模型的推理能力.本文从以下几个方面对提出的方法进行具体描述.

    图 2  基于对抗正则化的自然语言推理模型结构框图
    Fig. 2  The structure of natural language inference model based on adversarial regularization

    丰富的表示信息在自然语言推理中扮演着重要的角色.在我们的模型中, 我们将统筹多种类型的表示, 以更好地挖掘前提和假设句义信息, 这也是这项任务的基本组成部分.首先将前提和假设中的每个单词转换成连续的表示形式, 对词信息进行融合和提取.图 3中展示了词编码的处理方式, 具体包含以下部分:

    图 3  词编码器和句子编码器网络结构
    Fig. 3  Word encoder and sentence encoder network structure

    1) 词嵌入:与之前方法的设置相似, 使用预训练的词向量GloVe[27]将每一个单词映射到向量空间.

    2) 字符嵌入:将卷积神经网络(CNN)应用到每个单词的字符上.实践证明, 该方法对处理集外词(Out of vocabulary, OOV)有一定的帮助[28].

    3) POS和NER标签:使用词性标注(Part-of-speech, POS)和命名实体识别(Named-entity recognition, NER)来获得单词的词性信息和实体信息, 然后每一个单词可以通过查表获得对应的POS嵌入表示和NER嵌入表示.这种方法比常用的独热码包含更多信息.

    4) 精确匹配(Exact match, EM):受机器阅读理解的启发, 使用3个二进制特征来表示这个词是否能与任何词准确匹配, 分别表示原始形式、小写形式和词干形式.

    5) CoVe:通过机器翻译[29]得到词的上下文向量表示, 本文的模型对其进行降维处理, 以减少模型的参数量.

    本文将前面提到的多种词信息串联起来使用, 这样不仅可以从更多角度获得词相关的表示信息, 而且为后续句子编码提供良好的基础表征, 以更准确地理解句子上下文含义, 从而做出合理的推理.

    为了获得句子的语义信息, 将所有向量序列传递给使用BiLSTM和最大池化(Max pooling)的句子编码器.输入一个长度为$T$的序列$({w_1}, {w_2}, {w_3}$, $\cdots $, ${w_T})$, 双向长短时记忆网络的输出是, $\cdots $, ${h_T})$, 序列输出中的每一项计算如下:

    $ \overrightarrow {{h_t}} = \overrightarrow {LST{M_t}} ({w_1}, {w_2}, \cdots , {w_T}) $

    (2)

    $ \overleftarrow {{h_t}} = \overleftarrow {LST{M_t}} ({w_1}, {w_2}, \cdots , {w_T}) $

    (3)

    $ {h_t} = \left[ {\overrightarrow {{h_t}} , \overleftarrow {{h_t}} } \right] $

    (4)

    接下来为了学习每个句子的整体表示, 对序列编码器隐藏层的输出应用最大池化处理, 得到与${h_t}$同维度大小的向量

    $ \begin{align}\label{eq5} x = MaxPooling({h_1}, {h_2}, {h_3}, \cdots , {h_T}) \end{align} $

    (5)

    先进的自然语言推理模型通常将句子编码器实现为多层结构, 鼓励模型模拟复杂函数, 同时捕获复杂的语言结构.此外, 一些研究人员已经证实, 不同层能够提取不同类型的语法和语义信息[30].本文通过设置多层级结构, 探索每一层潜在的语义信息.在推理模型中, 使用基于BiLSTM和Max Pooling的层次化句子编码器, 句子编码器包括三层, 每一层BiLSTM都是将原始输入语句序列作为输入; 而且, 除了第一层BiLSTM之外的其他BiLSTM层, 均使用前一层网络的最终状态来初始化其隐层状态.对每一层BiLSTM的输出进行最大池化, 句子编码的最终输出是每一个最大池化层输出的串联拼接.图 3显示了具体的网络结构.

    句子编码器的输出是前提和假设的固定维度的向量表示$u$和$v$, 然后将它们传递给顶层分类器.在自然语言推理任务中, 顶层分类器一般使用多层感知机(Multilayer perceptron, MLP)和Softmax函数来预测每个类别的概率.本文以多种方式将这两个句子的表示聚合在一起, 并作为多层感知机的输入, 然后把多层感知机的输出传递给Softmax函数, 公式表示如下所示:

    $ x = [u;v;u \odot v;|u - v|] $

    (6)

    $ Output ={\rm Softmax} (MLP(x)) $

    (7)

    其中, $ \odot$表示逐个对应元素相乘, 多层感知机包含两个带有修正线性单元(Rectified linear unit, ReLU)激活函数的隐层.最后通过最小化带有L2正则项的多类交叉熵损失函数, 对整个模型进行端到端训练.

    1) 标准推理模型:给定数据集$D = \{{p_i}, {q_i}, {a_i}\}$, 其中包含前提句${p_i} \in {\cal P}$、假设句${q_i} \in {\cal Q}$、推理标签${a_i}$ $\in$ ${\cal A}$三部分, 自然语言推理任务就是从前提和假设句子中推理出它们的逻辑关系.为了描述方便, 定义词编码器的操作为$G$, 定义句子编码器为$H$, 最后的分类层为$F$, $p$和$q$为数据集$D$中某样本的两个句子, 所以我们的推理模型可以表示为, 首先这两个句子通过词编码器分别得到表示${g_u}$和${g_v}$

    $ {g_u} = G(p) $

    (8)

    $ {g_v} = G(q) $

    (9)

    然后输出的结果经过句编码器的处理得到句子表示$u$和$v$

    $ u = H({g_u}) $

    (10)

    $ v = H({g_v}) $

    (11)

    最后将两者的句子表示传递给顶层分类器预测逻辑关系

    $ \begin{align}\label{eq12} P({\cal A}|p, q) = F(u, v) \end{align} $

    (12)

    现有的自然语言推理模型一般都遵循类似的模式, 通过标准的交叉熵函数进行训练, 通过优化参数最小化损失函数

    $ \begin{align}\label{eq13} {{\cal L}_{NLI}}(G, H, F) = {{\mathbb{E}}_{{\cal P}, {\cal Q}, {\cal A}}}[ - \log (P({a_i}|{p_i}, {q_i}))] \end{align} $

    (13)

    2) WIM:对NLI中关于词的语言偏置强弱直观的度量是模型仅从词编码就可以预测答案的能力.我们将这个模型形式化为一个映射${F_G}$, 如上所述, 我们假设${F_G}$是可微的, 并把从标准推理模型获得的词编码作为输入, 以便${F_G}$可以进行预测

    $ \begin{align}\label{eq14} {P_{{F_G}}}({\cal A}|p, q) = {F_G}({g_u}, {g_v}) \end{align} $

    (14)

    将这个模型参数化为与顶层分类器相似的结构, 只是为了便于后续处理.在其基础上加入了最大池化层.如上所述, 该模型可以用交叉熵函数进行训练

    $ \begin{align}\label{eq15} {{\cal L}_G}(G, {F_G}) = {{\mathbb{E}}_{{\cal P}, {\cal Q}, {\cal A}}}[ - \log ({P_{{F_G}}}({a_i}|{p_i}, {q_i}))] \end{align} $

    (15)

    3) 对抗正则化减少语言偏置:如图 2所示, 本文将标准推理模型和只依赖词编码的推理模型设置为对抗状态, 引入对抗正则化的方法优化自然语言推理模型.其中只依赖词编码的推理模型为了推理成功, 需要学习训练数据集中的语言偏置, 但是因为这种语言偏置忽略了句义信息, 导致标准推理模型推理错误.为了减少语言偏置, 将两个模型设置为对抗状态, 通过修改词编码部分来降低只依赖词编码模型的表现; 同时强化句子编码部分, 以捕获更多上下文信息和语义信息, 从而达到在提升标准推理模型推理表现的同时减少对语言偏置的依赖的目的.可以将这两个模型的对立关系描述为

    $ \begin{align}\label{eq16} \mathop {\min }\limits_{G, H, F} \mathop {\max }\limits_{{F_G}} ({{\cal L}_{NLI}}(G, H, F) - \lambda {{\cal L}_G}(G, {F_G})) \end{align} $

    (16)

    基于对抗正则化的自然语言推理模型的训练过程如下, 首先训练只依赖词编码的推理模型, 该模型的训练目标是最小化其对应的交叉熵损失函数, 但是词编码器$G(\cdot)$不会根据这个梯度信息更新, 这个操作对应了图 2中的梯度拒绝部分.潜在地, 这迫使分类器${F_G}$要基于标准推理模型给出的词编码表示尽可能好地进行推理.然后训练更新标准推理模型, 该模型的梯度信息来自于两部分:一部分是标准推理模型本身对应的交叉熵损失函数; 另一部分来自于只依赖词编码的推理模型负的加权的交叉熵损失函数, 其中分类器${F_G}$的参数是不更新的, 分类器只是起到梯度传递的作用.最后这两个训练过程进行交替训练更新, 通过不断对抗博弈, 以到达理想的纳什均衡状态.

    我们使用正则化系数$\lambda $来调控推理模型的性能和语言偏置的权衡. $\lambda $取值较小表明较少的正则化发生, 标准推理模型继续学习语言偏置.另一方面, 当$\lambda $取值较大时, 表示去除较多语言偏置, 可能导致标准推理模型和只依赖词编码的模型的表现都不好; 此外权重过大会加重对词编码的影响, 以至于词编码器没有能力学习合理的词表示, 从而进一步影响句子表征等高层表示.所以要设置合适的权重来权衡两者之间的重要性.

    我们在SNLI和Breaking-NLI数据集上验证本文的方法.

    SNLI (Stanford natural language inference)[3]数据集大约有57万人工标注的句子对, 该数据集比其他同类数据集大两个数量级.其中前提数据来源于Flickr30k语料库中的字幕, 而假设句数据和标签是人工合成的.数据集提供的标签分别是"entailment", "neutral", "contradiction", "-".其中"-"表示注释者之间无法达成共识.遵照Bowman等[3]提出的方式删除标签为"-"的句子对, 然后生成训练集、验证集和测试集.

    Breaking-NLI[4]数据集是一个自然语言推理的测试集, 包括8 193个前提和假设句子对, 其中前提和假设只是有一个词或短语被替换了, 其他成分是相同的.该数据集被用来测试自然语言推理模型, 推理模型需要一定的词汇和世界知识才能实现合理的表现.

    本文在实验中使用预先训练好的300维的GloVe 840B词向量来初始化词嵌入向量, 词嵌入中的集外词使用[-0.1, 0.1]随机初始化, 在模型训练期间词嵌入向量被不断更新, 以学习适合NLI任务的更有效的表示.我们使用Spacy对单词进行标记并生成POS和NER标签, POS和NER的嵌入维度分别是26和20.所有BiLSTM的隐层大小设置为250, 为了避免过拟合, 在层间使用dropout[31]和层归一化(Layer normalization)[32]处理方法.使用Adam[33]算法优化模型参数, 并设置学习率为0.0001, 权重衰减为$1\times 10^{-8}$.设置批次大小为32, 以进行更多探索.在对抗训练过程中, 两个模型交替训练的频率为$1$ : $1$.在所有方法中都是使用500维的BiLSTM (250维前向LSTM + 250维后向LSTM).

    表 2显示了使用句子嵌入方法的不同模型在SNLI训练集和测试集的结果.我们使用以下几种方法进行实验对比:

    表 2  不同方法在SNLI上的实验结果(%)
    Table 2  Experimental results for different methods on SNLI (%)
    对比方法 模型 训练准确率 测试准确率
    Mou等[13] (2015) 300D Tree-based CNN encoders 83.3 82.1
    Liu等[12] (2016) 600D (300 + 300) BiLSTM encoders 86.4 83.3
    Liu等[12] (2016) 600D BiLSTM encoders with intra-attention 84.5 84.2
    Conneau等[34] (2017) 4096D BiLSTM with max-pooling 85.6 84.5
    Shen等[6] (2017) Directional self-attention network encoders 91.1 85.6
    Yi等[7] (2018) 300D CAFE (no cross-sentence attention) 87.3 85.9
    Im等[16] (2017) Distance-based Self-Attention Network 89.6 86.3
    Kim等[35] (2018) DRCN (-Attn, -Flag) 91.4 86.5
    Talman等[36] (2018) 600D HBMP 89.9 86.6
    Chen等[37] (2018) 600D BiLSTM with generalized pooling 94.9 86.6
    Kiela等[38] (2018) 512D Dynamic Meta-Embeddings 91.6 86.7
    Yoon等[17] (2018) 600D Dynamic Self-Attention Model 87.3 86.8
    Yoon等[17] (2018) Multiple-Dynamic Self-Attention Model 89.0 87.4
    本文方法 BiLSTM_MP 89.46 86.51
    本文方法 EMRIM 92.71 87.36
    本文方法 BiLSTM_MP + AR 89.02 86.73
    本文方法 EMRIM + AR 93.26 $\textbf{87.60}$
    下载: 导出CSV 
    | 显示表格

    1) BiLSTM_MP:该模型的词编码器使用本文提出的多信息融合编码方式, 但是句编码器使用了简单堆叠的三层BiLSTM网络, 并根据最后一层BiLSTM的输出进行最大池化处理, 最后经过顶层分类器得到推理结果.

    2) BiLSTM_MP + AR:该方法是在BiLSTM_ MP基础上使用对抗正则化.

    3) EMRIM:该方法是第2节提出的增强的多层级表示推理模型.

    4) EMRIM + AR:在EMRIM中加入对抗正则化方法.

    表 2显示了本文实验结果与SNLI官方排行榜结果, 根据实验对比, 本文提出的EMRIM方法达到了87.36 %的准确率, 已经接近排行榜中的最好结果87.4 %, 这说明在推理模型中使用多种类型信息增强的词编码器和多层级的句编码器, 确实可以提取更丰富更准确的语义表示, 从而利于模型推理.当分别为标准推理模型BiLSTM_MP和EMRIM增加只依赖词编码进行推理的对抗模型之后, 在不断博弈的进化过程中, 两个标准模型的推理性能进一步提升, BiLSTM_MP + AR比BiLSTM_MP高出约0.22 %的准确率, EMRIM + AR比EMRIM高出约0.24 %的准确率.这表明了本文提出的对抗正则化方法的有效性:该方法可以减少标准推理模型对语言偏置的依赖, 避免依据词间浅显的关系进行盲目推理; 而是强调语义理解, 通过对句义的整体把握做出选择.需要注意的是对抗正则方法没有增加标准推理模型的参数量, 并且不会增加模型测试时的复杂度.

    表 3是不同方法在Breaking-NLI测试集上的实验结果[4], 这些模型都是在SNLI数据集上训练, 然后在Breaking-NLI数据集上测试.实验发现在SNLI测试集上表现不错的ESIM模型, 在这个测试集上的性能急剧下降.本文提出的EMRIM + AR模型在该测试集上取得了目前公开的最高准确率, 这说明本文提出的模型具有良好的词汇知识和世界知识; 通过应用对抗正则化方法, 推理模型在理解词汇的同时, 关注句义表达, 整体把握推理需求, 做出合理推理.

    表 3  不同方法在Breaking-NLI上的测试结果
    Table 3  Experimental results for different methods on Breaking-NLI
    模型 测试准确率(%)
    Decomposable Attention[39] 51.9
    Residual-Stacked-Encoder[40] 62.2
    ESIM[8] 65.6
    KIM[41] 83.5
    EMRIM 88.37
    EMRIM + AR $\textbf{89.96}$
    下载: 导出CSV 
    | 显示表格

    注意到在对抗训练过程中, 随着标准推理模型在SNLI测试集上的表现提升, 只依赖词编码进行推理的模型的性能上升到一定程度之后不再增加, 而且有稍微下降的趋势.这表明对抗优化策略执行得很好, 这也是和我们的直觉是一致的.

    表 4是权重$\lambda$对SNLI测试集推理准确率的影响.根据权重和准确率的变化趋势, 可以得到以下分析.在较高的权值下, 基于词编码的大部分判别信息都已经丢失, 即标准推理模型是通过牺牲自己的性能, 从而降低了只作用于词编码模型的性能, 但是事实上在推理中根据词信息进行判别还是占有一定重要地位的, 不应完全忽略; 另外, 权重过大也导致模型底层学习不到合理的词向量表示, 继而影响模型高层网络对句子编码能力和推理能力.在权值较小时, 标准推理模型的性能相较之前也没有明显提升, 毕竟完全根据词中的判别信息进行推理是片面的, 因为忽略了对句子内容的整体理解和把握, 会导致模型的推理脱离了对应的描述场景, 从而难于做出正确抉择.只有兼顾词中表达的判别信息和句义分析这两方面, 自然语言推理模型才会做出正确的推理.

    表 4  权重$\lambda$对NLI准确率的影响
    Table 4  Impact of weight $\lambda$ on NLI accuracy
    权重值 测试准确率(%)
    0.5 86.90
    0.25 87.14
    0.10 87.60
    0.05 87.35
    0.01 87.39
    下载: 导出CSV 
    | 显示表格

    本文提出增强的多层级表示推理模型, 通过多样信息整合和多层级句子编码, 增强模型对句子的表示能力, 探索更多语义信息.在标准推理模型中引入对抗正则化方法, 通过标准推理模型和只依赖词编码进行推理的模型进行博弈训练, 以减少语言偏置对推理模型的影响, 使模型能够基于上下文进行有效推理.在SNLI和Breaking-NLI数据集上的实验结果验证了本文方法的有效性.在未来的研究工作中, 我们希望将该方法应用到更多任务中去.


  • 本文责任编委 白翔
  • 图  1  真实生活场景中的光照反转现象

    Fig.  1  Inverse illumination changes in real-world scenes

    图  2  光照反转对LBP编码值的影响

    Fig.  2  The influence of inverse illumination on LBP codes

    图  3  本文方法构建LCDP描述符的框架

    Fig.  3  The framework of the proposed method to construct LCDP descriptor

    图  4  均值采样示意图$ (r, P) = (3, 24) $

    Fig.  4  The diagram of mean sampling with $ (r, P) = (3, 24) $

    图  5  线性光照反转条件下采样半径和多尺度滤波对LCDP分类性能的影响

    Fig.  5  The influence of sampling radius and filtering scale on the classification performance of LCDP under linear inverse illumination conditions

    图  6  LCP、LDP和LCDP在线性光照反转条件下的分类精度

    Fig.  6  Classification accuracies of LCP, LDP and LCDP under linear inverse illumination conditions

    表  1  不同方法在线性光照反转条件下的分类精度(%)

    Table  1  Classification accuracies (%) of different methods under linear inverse illumination conditions

    方法 Outex CUReT KTH-TIPS
    TC10 TC12
    tl84 horizon
    LBP[2] 39.98 39.34 39.63 43.47 47.07
    LTP[13] 21.37 37.99 38.91 44.71 54.46
    CLBP[16] 24.49 22.12 22.72 34.33 43.15
    CLBC[17] 20.20 18.68 18.96 31.02 41.54
    LETRIST[18] 32.97 32.37 34.89 43.68 53.75
    jcLSFP[19] 33.78 35.49 38.40 49.04 54.54
    NRLBP[20] 42.34 42.49 45.26 83.21 87.88
    LGP[21] 94.58 78.47 76.65 89.73 88.85
    GLBP[22] 93.39 90.43 89.35 88.21 89.12
    SLGP[23] 97.79 84.17 83.82 94.87 93.83
    SIFT[29] 19.39 14.43 13.75 13.49 27.95
    LCP 71.72 62.57 60.56 61.30 68.68
    LDP 97.24 94.35 94.58 92.51 94.31
    LCDP 99.69 95.63 96.18 96.52 95.68
    下载: 导出CSV

    表  2  不同方法在非线性光照反转条件下的分类精度(%)

    Table  2  Classification accuracies (%) of different methods under nonlinear inverse illumination conditions

    方法 Outex CUReT KTH-TIPS
    TC10 TC12
    tl84 horizon
    LBP[2] 40.63 38.91 39.40 43.18 46.93
    LTP[13] 36.56 35.32 37.08 43.72 41.66
    CLBP[16] 22.99 23.15 23.87 35.59 44.93
    CLBC[17] 18.29 18.80 19.75 33.16 42.34
    LETRIST[18] 4.17 4.17 4.17 2.30 12.24
    jcLSFP[19] 33.88 35.56 37.85 49.45 53.07
    NRLBP[20] 42.32 42.94 45.32 69.02 87.73
    LGP[21] 91.27 71.08 70.49 85.18 87.49
    GLBP[22] 92.79 89.32 88.70 87.90 87.66
    SLGP[23] 95.60 75.49 73.63 91.23 90.82
    SIFT[29] 11.94 13.61 13.69 17.03 29.88
    LCP 71.57 62.19 60.64 61.39 68.51
    LDP 96.43 92.77 92.75 90.80 92.05
    LCDP 99.61 95.09 95.42 95.81 94.54
    下载: 导出CSV

    表  3  不同方法在原始数据库上的分类精度(%)

    Table  3  Classiflcation accuracies (%) of difierent methods on the original databases

    方法 Outex CUReT KTH-TIPS
    TC10 TC12
    tl84 horizon
    LBP[2] 97.16 88.96 83.96 93.52 92.70
    LTP[13] 98.65 92.69 89.86 94.46 94.36
    CLBP[16] 99.17 95.23 95.58 96.94 96.50
    CLBC[17] 99.04 94.10 95.14 96.78 96.39
    LETRIST[18] 100.00 99.81 100.00 98.52 98.80
    jcLSFP[19] 100.00 99.77 99.93 98.20 98.72
    NRLBP[20] 45.96 48.33 50.95 83.08 87.36
    LGP[21] 94.58 78.47 76.65 89.86 89.83
    GLBP[22] 93.20 90.37 89.26 88.44 87.63
    SLGP[23] 97.79 84.17 83.82 94.83 93.71
    SIFT[29] 48.61 52.75 53.18 78.12 93.37
    LCP 71.72 62.57 60.56 61.41 68.56
    LDP 97.24 94.35 94.58 92.37 94.52
    LCDP 99.69 95.63 96.18 96.60 95.49
    下载: 导出CSV

    表  4  不同方法在KTH-TIPS数据库上提取单个图像描述符所需的平均时间(秒)

    Table  4  Average time (second) for different methods to extract one image descriptor on the KTH-TIPS database

    方法 时间 方法 时间 方法 时间
    LBP 0.040 LETRIST 0.052 GLBP 0.914
    LTP 0.047 jcLSFP 0.077 SLGP 0.084
    CLBP 0.063 NRLBP 0.010 SIFT 0.087
    CLBC 0.056 LGP 0.041 LCDP 0.139
    下载: 导出CSV
  • [1] 刘丽, 赵凌君, 郭承玉, 王亮, 汤俊. 图像纹理分类方法研究进展和展望. 自动化学报, 2018, 44(4): 584-607 doi: 10.16383/j.aas.2018.c160452

    Liu Li, Zhao Ling-Jun, Guo Cheng-Yu, Wang Liang, Tang Jun. Texture classification: state-of-the-art methods and prospects. Acta Automatica Sinica, 2018, 44(4): 584-607 doi: 10.16383/j.aas.2018.c160452
    [2] Ojala T, Pietikainen M, Maenpaa T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 971-987 doi: 10.1109/TPAMI.2002.1017623
    [3] 何楚, 尹莎, 许连玉, 廖紫纤. 基于局部重要性采样的SAR图像纹理特征提取方法. 自动化学报, 2014, 40(2): 316-326 doi: 10.3724/SP.J.1004.2014.00316

    He Chu, Yin Sha, Xu Lian-Yu, Liao Zi-Xian. Feature extraction of SAR image based on local important sampling binary encoding. Acta Automatica Sinica, 2014, 40(2): 316-326 doi: 10.3724/SP.J.1004.2014.00316
    [4] Liu X, Wang D. Image and texture segmentation using local spectral histograms. IEEE Transactions on Image Processing, 2006, 15(10): 3066-3077 doi: 10.1109/TIP.2006.877511
    [5] Song T C, Li H L. WaveLBP based hierarchical features for image classification. Pattern Recognition Letters, 2013, 34(12): 1323-1328 doi: 10.1016/j.patrec.2013.04.020
    [6] Song T C, Li H L. Local polar DCT features for image description. IEEE Signal Processing Letters, 2013, 20(1): 59-62 doi: 10.1109/LSP.2012.2229273
    [7] Haralick R M, Shanmugam K, Dinstein I. Textural features for image classification. IEEE Transactions on Systems Man and Cybernetics, 1973, SMC-3(6): 610-621 doi: 10.1109/TSMC.1973.4309314
    [8] Cross G R, Jain A K. Markov random field texture models. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1983, 5(1): 25-39
    [9] Zhang W C, Shan S G, Gao W, Chen X L. Local Gabor binary pattern histogram sequence (LGBPHS): a novel non-statistical model for face representation and recognition. In: Proceedings of the 10th IEEE International Conference on Computer Vision. Beijing, China: IEEE, 2005. 786-791
    [10] Yalavarthi A, Veeraswamy K, Sheela K A. Content based image retrieval using enhanced Gabor wavelet transform. In: Proceedings of the 2017 International Conference on Computer, Communications and Electronics. Jaipur, Rajasthan India: IEEE, 2017. 339-343
    [11] 宋克臣, 颜云辉, 陈文辉, 张旭. 局部二值模式方法研究与展望. 自动化学报, 2013, 39(6): 730-744 doi: 10.3724/SP.J.1004.2013.00730

    Song Ke-Chen, Yan Yun-Hui, Chen Wen-Hui, Zhang Xu. Research and perspective on local binary pattern. Acta Automatica Sinica, 2013, 39(6): 730-744 doi: 10.3724/SP.J.1004.2013.00730
    [12] Liu L, Fieguth P, Guo Y L, Wang X G, Pietikainen M. Local binary features for texture classification: taxonomy and experimental study. Pattern Recognition, 2017, 62: 135-160 doi: 10.1016/j.patcog.2016.08.032
    [13] Tan X, Triggs B. Enhanced local texture feature sets for face recognition under difficult lighting conditions. IEEE Transactions on Image Processing, 2010, 19(6): 1635-1650 doi: 10.1109/TIP.2010.2042645
    [14] Song T C, Li H L, Meng F M, Wu Q B, Luo B, Zeng B, Gabbouj M. Noise-Robust texture description using local contrast patterns via global measures. IEEE Signal Processing Letters, 2014, 21(1): 93-96 doi: 10.1109/LSP.2013.2293335
    [15] Liu L, Long Y L, Fieguth P W, Lao S Y, Zhao G Y. BRINT: binary rotation invariant and noise tolerant texture classification. IEEE Transactions on Image Processing, 2014, 23(7): 3071-3084 doi: 10.1109/TIP.2014.2325777
    [16] Guo Z H, Zhang L, Zhang D. A completed modeling of local binary pattern operator for texture classification. IEEE Transactions on Image Processing, 2010, 19(6): 1657-1663 doi: 10.1109/TIP.2010.2044957
    [17] Zhao Y, Huang D S, Jia W. Completed local binary count for rotation invariant texture classification. IEEE Transactions on Image Processing, 2012, 21(10): 4492-4497 doi: 10.1109/TIP.2012.2204271
    [18] Song T C, Li H L, Meng F M, Wu Q B, Cai J F. LETRIST: locally encoded transform feature histogram for rotation-invariant texture classification. IEEE Transactions on Circuits and Systems for Video Technology, 2018, 28(7): 1565-1579 doi: 10.1109/TCSVT.2017.2671899
    [19] Song T C, Li H L, Meng F M, Wu Q B, Luo B. Exploring space-frequency co-occurrences via local quantized patterns for texture representation. Pattern Recognition, 2015, 48(8): 2621-2632 doi: 10.1016/j.patcog.2015.03.003
    [20] Nguyen D T, Zong Z M, Ogunbona P, Li W Q. Object detection using non-redundant local binary patterns. In: Proceedings of the 2010 IEEE International Conference on Image Processing. Hong Kong, China: IEEE, 2010. 4609-4612
    [21] Jun B, Choi I, Kim D. Local transform features and hybridization for accurate face and human detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(6): 1423-1436 doi: 10.1109/TPAMI.2012.219
    [22] He Y G, Sang N. Robust illumination invariant texture classification using gradient local binary patterns. In: Proceedings of the 2011 International Workshop on Multi-Platform/Multi-Sensor Remote Sensing and Mapping. Xiamen, China: IEEE, 2011. 1-6
    [23] Song T C, Xin L L, Gao C Q, Zhang G, Zhang T Q. Grayscale-Inversion and rotation invariant texture description using sorted local gradient pattern. IEEE Signal Processing Letters, 2018, 25(5): 625-629 doi: 10.1109/LSP.2018.2809607
    [24] Zhang J, Zhao H, Liang J. Continuous rotation invariant local descriptors for texton dictionary-based texture classification. Computer Vision and Image Understanding, 2013, 117(1): 56-75 doi: 10.1016/j.cviu.2012.10.004
    [25] Freeman W T, Adelson E H. The design and use of steerable filters. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1991, 13(9): 891-906 doi: 10.1109/34.93808
    [26] Liao S C, Zhu X X, Lei Z, Zhang L, Li S Z. Learning multi-scale block local binary patterns for face recognition. In: Proceedings of the 2007 International Conference on Biometrics. Seoul, Korea: Springer, 2007. 828-837
    [27] Dana K J, Nayar S K, Ginneken B V, Nayar S K, Koenderink J J. Reflectance and texture of real-world surfaces. ACM Transactions on Graphics, 1999, 18(1): 1-34 doi: 10.1145/300776.300778
    [28] Hayman E, Caputo B, Fritz M, Eklundh J. On the significance of real-world conditions for material classification. In: Proceedings of the 8th European Conference on Computer Vision. Prague, Czech Republic: Springer, 2004. 3024: 253-266
    [29] Lowe D G. Distinctive image features from scale-Invariant Keypoints. International Journal of Computer Vision, 2004, 60(2): 91-110 doi: 10.1023/B:VISI.0000029664.99615.94
    [30] Lazebnik S, Schmid C, Ponce J. Beyond bags of features: spatial pyramid matching for recognizing natural scene categories. In: Proceedings of the 2006 IEEE Conference on Computer Vision and Pattern Recognition. New York, USA: IEEE, 2006. 2169-2178
  • 期刊类型引用(3)

    1. 郑文康,魏志晴,白艳萍,黄嘉俊,禹秀梅,谭秀辉,王鹏. 基于可分离替代函数算法的DOA估计方法. 陕西科技大学学报. 2024(01): 197-205 . 百度学术
    2. 罗军,张顺生. 联合自适应LASSO与块稀疏贝叶斯直接定位方法. 雷达科学与技术. 2024(03): 265-274 . 百度学术
    3. 杨静,韩丽东. 基于改进SSD算法的城市轨道交通多通道闸机控制研究. 计算机测量与控制. 2023(12): 160-166 . 百度学术

    其他类型引用(6)

  • 加载中
  • 图(6) / 表(4)
    计量
    • 文章访问数:  940
    • HTML全文浏览量:  180
    • PDF下载量:  115
    • 被引次数: 9
    出版历程
    • 收稿日期:  2018-04-10
    • 录用日期:  2018-08-01
    • 刊出日期:  2021-04-23

    目录

    /

    返回文章
    返回