2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于海马体位置细胞的认知地图构建与导航

阮晓钢 柴洁 武悦 张晓平 黄静

杨爱萍, 李晓晓, 张腾飞, 王朝臣, 王建. 基于误差回传机制的多尺度去雾网络. 自动化学报, 2023, 49(9): 1857−1867 doi: 10.16383/j.aas.c210264
引用本文: 阮晓钢, 柴洁, 武悦, 张晓平, 黄静. 基于海马体位置细胞的认知地图构建与导航. 自动化学报, 2021, 47(3): 666−677 doi: 10.16383/j.aas.c190288
Yang Ai-Ping, Li Xiao-Xiao, Zhang Teng-Fei, Wang Chao-Chen, Wang Jian. Multi-scale dehazing network based on error-backward mechanism. Acta Automatica Sinica, 2023, 49(9): 1857−1867 doi: 10.16383/j.aas.c210264
Citation: Ruan Xiao-Gang, Chai Jie, Wu Yue, Zhang Xiao-Ping, Huang Jing. Cognitive map construction and navigation based on hippocampal place cells. Acta Automatica Sinica, 2021, 47(3): 666−677 doi: 10.16383/j.aas.c190288

基于海马体位置细胞的认知地图构建与导航

doi: 10.16383/j.aas.c190288
基金项目: 国家自然科学基金(61773027, 61573029, 61903006), 北京市自然科学基金(4204096)资助
详细信息
    作者简介:

    阮晓钢:北京工业大学信息学部教授. 主要研究方向为人工智能与机器人.E-mail: adrxg@bjut.edu.cn

    柴洁:北京工业大学信息学部博士研究生. 主要研究方向为认知学习和认知导航.E-mail: chaijie@emails.bjut.edu.cn

    武悦:北京工业大学信息学部硕士研究生. 主要研究方向为环境认知建模与类脑计算.E-mail: wuy50271@gmail.com

    张晓平:北方工业大学电气与控制工程学院讲师. 主要研究方向为认知机器人.E-mail: zhangxiaoping369@163.com

    黄静:北京工业大学信息学部人工智能与自动化学院副教授. 主要研究方向为认知机器人, 机器学习及工业大数据应用. 本文通信作者.E-mail: huangjing@bjut.edu.cn

Cognitive Map Construction and Navigation Based on Hippocampal Place Cells

Funds: Supported by National Natural Science Foundation of China (61773027, 61573029, 61903006) and Beijing Natural Science Foundation (4204096)
More Information
    Author Bio:

    RUAN Xiao-Gang Professor at the Faculty of Information Technology, Beijing University of Technology. His research interest covers artificial intelligence and robotics

    CHAI Jie Ph.D. candidate at the Faculty of Information Technology, Beijing University of Technology. Her research interest covers cognitive learning and cognitive navigation

    WU Yue Master student at the Faculty of Information Technology, Beijing University of Technology. His research interest covers environment cognition modelling and brain-inspired computing

    ZHANG Xiao-Ping Lecturer at the College of Electrical and Control Engineering, North China University of Technology. Her research interest covers cognitive robotics

    HUANG Jing Associate professor at the Faculty of Information Technology, Beijing University of Technology. Her research interest covers cognitive robotics, machine learning, and industrial big data. Corresponding author of this paper

  • 摘要:

    针对移动机器人环境认知问题, 受老鼠海马体位置细胞在特定位置放电的启发, 构建动态增减位置细胞认知地图模型(Dynamic growing and pruning place cells-based cognitive map model, DGP-PCCMM), 使机器人在与环境交互的过程中自组织构建认知地图, 进行环境认知. 初始时刻, 认知地图由初始点处激活的位置细胞构成; 随着与环境的交互, 逐渐得到不同位置点处激活的位置细胞, 并建立其之间的连接关系, 实现认知地图的动态增长; 如果机器人在已访问区域发现新的障碍物, 利用动态缩减机制对认知地图进行更新. 此外, 提出一种位置细胞序列规划算法, 该算法以所构建的认知地图作为输入, 进行位置细胞序列规划, 实现机器人导航. 为验证模型的正确性和有效性, 对Tolman的经典老鼠绕道实验进行再现. 实验结果表明, 本文模型能使机器人在与环境交互的过程中动态构建并更新认知地图, 能初步完成对Tolman老鼠绕道实验的再现. 此外, 进行了与四叉树栅格地图、动态窗口法的对比实验和与其他认知地图模型的讨论分析. 结果表明了本文方法在所构建地图的简洁性、完整性和对动态障碍适应性方面的优势.

  • 在雾天采集到的图像会出现对比度降低、颜色退化、细节丢失等问题, 严重影响目标检测、自动驾驶、视频监控和遥感等户外计算机视觉系统的性能. 因此, 雾天图像复原具有重要的研究意义.

    随着图像去雾方法不断发展, 可将现有方法分为基于图像增强的方法、基于图像复原的方法和基于深度学习的方法. 基于图像增强的去雾方法不考虑雾天图像退化机理, 仅仅是从空域或频域对图像进行处理, 来增强图像的对比度或对图像进行颜色校正. 常见方法有直方图均衡化[1]、Retinex算法[2]、同态滤波[3]算法等. 以上方法均未考虑图像退化原因, 直接对有雾图进行处理, 会出现颜色失真、去雾不彻底等问题.

    基于图像复原的方法以大气散射模型为基础, 把图像去雾转化为估计模型参数. He等[4]提出暗通道先验理论, 能实现简单、快速去雾; Tarel等[5]借助中值滤波估计透射率, 并通过大气散射模型得到去雾图像. Zhu等[6]提出颜色衰减先验理论, 学习线性函数来预测有雾图像的深度. Berman等[7]提出一种非局部先验去雾方法. 张小刚等[8]结合双区域滤波和图像融合提出一种去雾算法, 可有效减少晕轮效应. 汪云飞等[9]借助超像素分割提高了透射率估计精度. 该类方法虽然取得了一定的效果, 但在先验假设不成立的情况下, 难以准确恢复无雾图像.

    基于深度学习的方法通过在大规模数据集上训练卷积神经网络(Convolutional neural networks, CNN)来估计无雾图像. Cai等[10]和Ren等[11]构建CNN估计透射率, 并代入成像模型得到复原图像. 但其将大气光设置为全局常量, 去雾后的图像易出现伪影和颜色失真等问题. Zhang等[12]构建一种密集连接金字塔网络, 可同时估计透射率和大气光值. Li等[13]将透射率和大气光组合为一个变量K, 构建一种轻量级网络AODNet估计K. 上述方法均基于物理模型构建CNN估计变量, 这在一定程度上会限制网络的学习能力. Chen等[14]在引入平滑扩张卷积的基础上, 提出了一种端到端的门控上/下文聚合网络, 可融合不同层次的特征. Liu等[15]构建了一种基于注意力机制的多尺度网格网络, 该网络采用并行多尺度机制, 解决了串行多尺度网络中普遍存在的误差传递问题, 但该网络忽略了非相邻尺度之间的联系. Dong等[16]基于大气散射模型设计了一种特征去雾单元, 但物理模型的限制仍会在一定程度上削弱网络的学习能力. Yang等[17]通过聚合多尺度特征图来重建无雾图像, 但该网络结构较简单且需对原图进行多次下采样, 易造成图像细节丢失. 此类端到端方法可以不受物理模型的限制, 直接学习有雾−无雾图像之间的映射关系, 但仍存在感受野有限、结构信息丢失等问题, 网络聚合不同尺度特征信息的能力有待加强.

    为了增大网络感受野以充分提取图像空间上/下文信息, 进而实现对目标图像更精准的预测, 多尺度端到端网络得到了广泛应用. 但现有多尺度去雾网络往往忽略了子网络感受野大小不同导致的特征信息差异, 直接将低分辨率特征与高分辨率特征进行融合. Liu等[15]采用一种注意力机制, 将各级子网络特征图由低分辨率子网络向高分辨率子网络进行逐级相加. Deng等[18]将相邻子网络生成的特征图直接相加, 再输入到基础模块进行融合. 可以发现, 该类方法直接合并各级特征图后, 小尺度网络提取到的信息在融合特征中的占比减小, 削弱了小尺度网络感受野较大的优势, 造成图像结构信息丢失, 无法准确识别较大特征目标, 出现去雾不彻底和颜色失真现象.

    基于此, 本文提出一种基于误差回传机制的多尺度去雾网络. 首先, 为了提高网络识别大尺度特征目标的准确性, 设计误差回传模块(Error-backward block, EB)生成包含丰富结构信息和上/下文信息的误差图, 并用其指导大尺度子网络训练, 增大结构信息在合并特征中的占比. 现有直接融合策略和本文基于误差回传策略的多尺度网络结构如图1所示. 可以看出, 误差回传模块通过生成误差图, 实现各子网络之间的交互. 同时, 考虑到真实有雾图像雾气分布不均匀等特点, 本文设计一种雾霾感知单元(Haze aware unit, HAU), 将密集残差块与雾浓度自适应检测块(Haze density adaptive detection block, HDADB)相结合, 可识别浓雾区域和薄雾区域并据此调整去雾强度, 实现自适应去雾. 另外, 为了灵活高效复用各子网络特征, 使用门控融合模块(Gated fusion module, GFM)抑制噪声干扰, 这也是首次尝试将门控网络用于多尺度去雾特征图融合.

    图 1  直接融合策略和误差回传策略示意图
    Fig. 1  Illustration of direct-integration strategy and error-backward strategy for multi-scale network

    本文提出的基于误差回传机制的多尺度去雾网络结构如图2所示. 网络包括误差回传多尺度去雾组(Error-backward multi-scale dehazing group, EMDG)、 GFM和优化模块. EMDG共有3个不同尺度的子网络, 各子网络以HAU为核心, 并设计EB实现各子网络之间的交互; 门控融合模块用于融合所有子网络的输出; 优化模块采用Unet[19]结构, 将初步去雾结果进一步优化.

    图 2  基于误差回传机制的多尺度去雾网络
    Fig. 2  Architecture of multi-scale dehazing network based on error-backward mechanism

    为了补充大尺度网络缺失的结构信息和上/下文信息, 本文设计了误差回传模块, 将小尺度网络提取的信息回传至大尺度网络. 如图2所示, 各尺度子网络均包含三个串联的雾霾感知单元, 除最小尺度子网络外, 所有雾霾感知单元的输出都由EB进行修正.

    EB模块具体结构如图3所示. 首先计算高/低分辨率特征图之间的差值生成误差图, 并将误差图向上回传, 将之与高分辨率特征图进行合并, 实现对结构信息和空间上/下文信息的复用. 另外, 图2网络中每列雾霾感知单元工作的前提是其前一列单元均已完成特征提取任务, 这在增加网络深度的同时, 也可避免小尺度网络中间特征信息丢失. EB模块具体算法可表示为:

    图 3  误差回传模块结构
    Fig. 3  Architecture of the error-backward block
    $$ X = {X_1} + {\text{Up}}[{\text{Down}}({X_1}) - {X_2}] $$ (1)

    式中, $ {X_1} $代表大尺度子网络特征图, $ {X_2} $代表小尺度子网络特征图, $ {X_2} $的大小是$ {X_1} $的1/2. 如图3所示, ${\text{Down}}$表示下采样操作, 由图3中的Conv1和Conv2完成对特征图$ {X_1} $进行1/2下采样. 计算${\text{Down}}({X_1})$与$ {X_2} $的差值并将其记作误差图, 误差图中包含了大尺度子网络中缺失的特征信息. 随后, 使用${\text{Up}}$对误差图上采样, ${\text{Up}}$由Deconv3和Conv4组成, 将${\text{Up}}$输出结果反馈给大尺度子网络, 指导大尺度子网络训练. $ X $为修正后的输出, 此过程可实现对大尺度子网络所缺失的结构信息进行及时补充.

    真实场景中雾气分布通常是不均匀的, 若能区分出浓雾和薄雾区域, 便可实现高效灵活去雾. 为此, 本文设计一种雾霾感知单元, 具体结构如图4所示. HAU由残差密集块(Residual dense block, RDB)和HDADB组成. RDB采用密集连接和残差学习机制, 能够多次连接浅层和深层特征, 充分提取图像的细节特征和局部特征. HDADB通过识别某区域的雾浓度大小并据此决定对该区域的去雾强度, 可彻底地去除浓雾区域的雾气, 同时能够有效避免对薄雾区域进行过度去雾.

    图 4  雾霾感知单元结构
    Fig. 4  The structure of the haze aware unit
    1.2.1   残差密集块

    残差密集块由5个卷积层密集连接组成, 具体结构如图5所示. 密集连接机制可实现对浅层特征的多次复用, 同时也利于加快网络收敛. 前4个卷积层用来提取图像中包含的大量信息, 均采用3 × 3的卷积核; 最后一个卷积层用于改变特征图的通道数, 采用1 × 1的卷积核, 输出通道数为16. 所有卷积层步长均设置为1.

    图 5  残差密集块结构
    Fig. 5  The structure of the residual dense block
    1.2.2   雾浓度自适应检测块

    雾浓度自适应检测块包括雾浓度逐通道检测和逐像素检测, 如图6所示. 在模块前端, 逐通道检测雾浓度分布. 针对浓雾通道, 增大其特征图复用程度, 对薄雾通道则减少其复用. 具体运算过程如下:

    图 6  雾浓度自适应检测块结构
    Fig. 6  The structure of the haze density adaptive detection block

    首先, 输入特征图$ {F_0} $, 使用Conv1和Conv2分别对其进行预处理, 得到特征图$ {F_1} $和$ {F_2} $:

    $$ {F_1} = {\rm{Conv}}1(\delta ({F_0})) $$ (2)
    $$ {F_2} = {\rm{Conv}}2(\delta ({F_0})) $$ (3)

    式中, $ \delta $表示ReLU激活函数层. 随后将特征图$ {F_2} $大小由$C \times H \times W $压缩至$C \times 1 \times 1 $, 并经过非线性处理, 得到各通道权重图$ {W_C} $:

    $$ {W_C} = \sigma ({\rm{Conv}}3({\text{GAP}}({F_2}))) $$ (4)

    式中, $ \sigma $表示Sigmoid激活函数层, GAP (Global average pooling)表示全局平均池化.

    网络训练完成后, 将各通道的权值与预处理后的$ {F_1} $逐元素相乘, 得通道加权后的特征图:

    $$ {F_C} = {F_1} \times {W_C} $$ (5)

    然后, 在模块后端进行逐像素雾浓度检测, 实现空域自适应去雾. 首先, 对特征图$ {F_C} $进一步提取特征, 得到:

    $$ {F_4} = \delta ({\rm{Conv}}4({F_C})) $$ (6)

    最后, 将尺寸为$C \times H \times W $的特征图$ {F_4} $在空间域上压缩, 其压缩后可生成尺寸为$1 \times H \times W $的权重图$ {W_S} $:

    $$ {W_S} = \sigma ({\rm{Conv}}6(\delta ({\rm{Conv}}5({F_4})))) $$ (7)

    网络训练的目标是使浓雾区域处的权重$ {W_S} $的值较大, 薄雾区域处权重$ {W_S} $的值较小. 使用$ {W_S} $对特征图$ {F_4} $进行加权, 可实现网络对浓雾区域重点去雾, $ {F_S} $为雾浓度自适应检测块的最终输出:

    $$ {F_S} = {F_4} \times {W_S} $$ (8)

    不同于现有的多尺度融合方法对有效信息和干扰信息无差别对待, 本文设计的门控融合模块融合了3个不同尺度的子网络得到输出特征图, 可实现对有效信息的复用, 减少冗余信息.

    图2所示, 门控融合模块通过学习各子网络特征图的最优权重, 再对其进行加权融合, 实现对干扰信息的过滤. 将3个子网络特征图从上到下分别记为$ {J_0} $、$ {J_1} $和$ {J_2} $. 由于各尺度特征图的尺寸不同, 先利用上采样模块对$ {J_1} $和$ {J_2} $进行上采样得$ {J_1} \uparrow $和$ {J_2} \uparrow $. 上采样模块由一个步长为2的转置卷积层和一个步长为1的卷积层组成, 可将各尺度特征图恢复至相同尺寸, 并进一步提炼信息. 然后, 堆叠预处理后的特征图, 通过卷积操作逐像素判断各特征图中的干扰信息, 学习对应于$ {J_0} $、$ {J_1} \uparrow $和$ {J_2} \uparrow $的权重图$ {W_0} $、$ {W_1} $和$ {W_2} $. 特征图包含的有效信息越多, 其权重图的权值越大. 多尺度特征门控融合运算可表示为:

    $$ J = {J_0} \times {W_0} + {J_1} \uparrow \times {W_1} + {J_2} \uparrow \times {W_2} $$ (9)

    本文采用了平滑L1损失和感知损失[20]. 平滑L1损失可以计算网络恢复的无雾图像与清晰图像之间的像素差值, 其在零点附近使用了平方函数, 解决了零点处导数不唯一的问题. 平滑L1损失函数可表示为:

    $$ {L_S} = \frac{1}{N}\sum\limits_{x = 1}^N {\sum\limits_{i = 1}^3 {{F_S}((G{{(I))}_i}(x) - {J_i}(x))} } $$ (10)
    $$ {F_S}(e) = \left\{ \begin{aligned} &0.5{e^2},&{\rm{}}\;\left| e \right| < 1\; \\ &\left| e \right| - 0.5,&{\rm{否则}}\quad \end{aligned} \right. $$ (11)

    式中, $ G(I) $表示网络恢复的无雾图像, $ J $表示清晰图像, $ x $表示像素点位置, $ N $表示像素个数, $i=1, 2,3$分别表示RGB三通道.

    特征图中包含大量的语义特征和全局结构等高层信息. 本文加载ImageNet[21]预训练的VGG-16[22]网络模型, 从去雾图像和清晰图像中分别提取特征图, 将特征图间的差值作为感知损失, 借此量化去雾图像与清晰图像间的视觉误差. 感知损失函数$ {L_P} $可表示为:

    $$ {L_P} = \sum\limits_{j = 1}^3 {\frac{1}{{{C_j}{H_j}{W_j}}}\left\| {{\varphi _j}(G(I)) - {\varphi _j}(J)} \right\|_2^2} $$ (12)

    式中, $ J $为真实清晰图像, $ G(I) $为恢复的无雾图像, $ \varphi $为VGG-16特征提取操作, $j$为VGG网络特征图的索引标号, $ C $、$ H $和$ W $分别为图像的通道数、高度和宽度.

    因此, 总损失函数为:

    $$ L = {L_S} + \lambda {L_P} $$ (13)

    式中, $ \lambda $为权重系数, 可以调节两个损失函数所占的比例.

    本文分别在RESIDE公共数据集[23]和NTIRE (New trends in image restoration and enhancement) 2018去雾挑战赛提出的O-Haze数据集[24]上训练和测试网络.

    RESIDE数据集包含大量的室内有雾图像和室外有雾图像, 本文选用室内训练集(Indoor training set, ITS)和室外训练集(Outdoor training set, OTS). 其中ITS包含由1399张室内清晰图像合成的13990张室内有雾图像, OTS包含由8477张室外清晰图像合成的296695张室外有雾图像. 测试集选用SOTS (Synthetic objective testing set)测试集和HSTS (Hybird subjective testing set)合成测试集. 其中SOTS测试集包含500张室内有雾图像和500张室外有雾图像, HSTS合成测试集包含10张室外有雾图像.

    O-Haze数据集共包含45张室外有雾图像及其对应的无雾图像. 根据NTIRE 2018去雾挑战赛的挑战协议, 本文选用35张有雾图像做训练集, 10张有雾图像做测试集.

    为了更加客观地评价本文所提网络的去雾性能, 本文在合成数据集上计算了恢复图像与清晰图像之间的峰值信噪比(Peak signal to noise ratio, PSNR)和结构相似性(Structural similarity, SSIM).

    本文提出的去雾方法基于Pytorch框架实现, 在Win10环境下使用NVIDIA 1080Ti GPU加速网络的训练. 从每张训练图像中随机截取$220 \times 220 $像素的图像块, 作为网络的输入. 网络采用动量衰减指数$ {\beta _1}{\text{ = }}0.9 $、$ {\beta _2}{\text{ = }}0.999 $的适应性矩估计(Adaptive moment estimation, ADAM)优化器进行优化, 初始学习率设置为0.001, 在ITS上训练160个训练周期, 每20个训练周期学习率减半; 在OTS上训练10个训练周期, 每2个训练周期学习率减半; 在O-Haze上训练100个训练周期, 每10个训练周期学习率减半. 训练时的批量大小设置为8, 损失函数$ {L_P} $的权重因子$ \lambda $设置为0.04.

    为了验证本文方法的去雾性能, 与现有的优势去雾算法进行实验对比. 将ITS中包含的全体无雾−有雾图像对用作室内训练集, 从OTS中随机选取2500张清晰图像及其对应的有雾图像作室外训练集. 随后, 采用SOTS测试集包含的500张室内有雾图像和500张室外有雾图像对模型进行测试.

    在SOTS室内测试集上进行去雾评价, 并与其他方法进行对比, 结果如表1所示. 可以看出, 相比于深度学习方法, 传统暗通道先验(Dark channel prior, DCP)[4]方法去雾效果较差, PSNR和SSIM值最小; DehazeNet[10]、AODNet[13]和基于多尺度卷积神经网络(Multi-scale convolutional neural networks, MSCNN)[14]的去雾方法利用网络估计去雾模型参数, 其PSNR和SSIM较DCP有小幅提升; 增强型Pix2pix去雾网络(Enhanced Pix2pix dehazing network, EPDN)[25]、门控上/下文聚合网络(Gated context aggregation network, GCANet)[14]、GridDehazeNet[15]、基于物理模型的特征去雾网络(Physics-based feature dehazing networks, PFDN)[26]和多尺度增强去雾网络(Multi-scale boosted dehazing network, MSBDN)[26]以及本文方法均为端到端去雾网络, 评价指标有了显著提升; YNet[17]因为网络过浅, 不能充分提取图像特征, 所以表现并不突出. 在SOTS室外测试集上进行去雾评价, 结果如表2所示. 在O-Haze数据集上进行去雾评价, 结果如表3所示. 由表1表2表3可以看出, 相比于其他端到端网络, 本文提出的网络在几个测试集均取得了最高的PSNR值和较高的SSIM值. 其中MSBDN和GridDehazeNet因网络较深, 对SOTS测试集的拟合能力较强, 其SSIM指标略高于本文网络. 但二者对空间上/下文信息的复用程度较低, 导致其在实际去雾过程中无法准确估计大尺度特征, 在真实场景下的去雾效果并不理想.

    表 1  SOTS室内测试集去雾结果的定量比较
    Table 1  Qualitative comparisons of dehazing results on SOTS indoor test-set
    方法DCPDehazeNetAODNetEPDNGCANet
    PSNR (dB)16.6221.1419.0625.0630.23
    SSIM0.81790.84720.85040.92320.9800
    方法GridDehazeNetPFDNYNetMSBDN本文方法
    PSNR (dB)32.1632.6819.0433.7933.83
    SSIM0.98360.97600.84650.98400.9834
    下载: 导出CSV 
    | 显示表格
    表 2  SOTS室外测试集去雾结果的定量比较
    Table 2  Qualitative comparisons of dehazing results on SOTS outdoor test-set
    方法DCPDehazeNetMSCNNAODNet
    PSNR (dB)19.1322.4622.0620.29
    SSIM0.81480.85140.90780.8765
    方法EPDNGridDehazeNetYNet本文方法
    PSNR (dB)22.5730.8625.0231.10
    SSIM0.86300.98190.90120.9765
    下载: 导出CSV 
    | 显示表格
    表 3  O-Haze数据集去雾结果定量比较
    Table 3  Qualitative comparisons of dehazing results on O-Haze data-set
    方法DCPMSCNNAODNetEPDNGCANetGridDehazeNet本文方法
    PSNR (dB)16.7817.2615.0316.0016.2818.9219.28
    SSIM0.65300.65010.53940.64130.64500.67210.6756
    下载: 导出CSV 
    | 显示表格

    此外, 本文从SOTS室内测试集和室外测试集中, 分别选取4张有雾图进行主观质量评价, 各方法去雾效果如图7所示. 其中, 上面4行是室内图像去雾结果, 下面4行是室外图像去雾结果. 由于DCP方法利用暗通道先验估计透射率, 其去雾图像整体颜色偏暗, 尤其当图像中存在大面积的天空区域或白色物体时, 会出现伪影和颜色失真现象(如图7(b)中的白色桌面和天空区域). 经DehazeNet和AODNet去雾后的图像中, 仍有大量雾气残留(如图7(c)中的红色墙壁和蓝色天空), 原因是所用网络太浅, 不能充分学习图像特征. 另外, GCANet由于下采样会丢失部分高频信息(如图7(e)的桌子纹理和物体边缘), 在蓝色天空区域也会出现局部过暗的情况. 与之相似, 图7(g)中物体边缘和纹理出现模糊现象. GridDehazeNet和本文网络均可取得较好的去雾效果, 但对比图7(f)图7(h)可以发现, 本文方法可以更好地保持图像结构信息和细节信息.

    图 7  与现有方法在SOTS测试集上去雾结果对比
    Fig. 7  Comparisons of dehazing results with state-of-the-art methods on SOTS

    表4给出了本文算法与对比方法在HSTS测试集上的比较结果. 可以看出, DCP去雾效果最差, 依赖颜色投射的图像去雾(Color cast dependent image dehazing, CCDID)[27]评价指标有一定提升, 但并不显著, 本文算法取得最优PSNR和SSIM值. 图8给出了HSTS测试集中3个有雾场景下各方法的去雾结果, 其中, DCP、AODNet和EPDN产生较严重的颜色失真, DehazeNet和YNet去雾不够彻底. 相比之下, 本文算法去雾结果更接近清晰图像, 具有更好的颜色保持能力, 这是更加关注小尺度网络提取的特征信息带来的优势.

    表 4  HSTS测试集去雾结果的定量比较
    Table 4  Qualitative comparisons of dehazing results on HSTS test-set
    方法DCPDehazeNetMSCNNAODNetEPDNYNetCCDID本文方法
    PSNR (dB)14.8424.4818.6420.5523.3818.3717.2230.07
    SSIM0.76090.91530.81680.89730.90590.47250.82180.9658
    下载: 导出CSV 
    | 显示表格
    图 8  HSTS测试集上与现有方法去雾结果对比
    Fig. 8  Comparisons of dehazing results with state-of-the-art methods on HSTS

    为了验证本文提出的网络在真实场景下的适用性, 在真实有雾图像上, 对网络模型进行了测试. 由于真实数据集没有标签图像, 本文挑选了4幅真实有雾图像进行主观视觉评估, 图9给出了本文方法与目前的几种优势算法的去雾结果. 如图9(b)所示, DCP在处理包含大面积天空区域的图像时, 暗通道先验失效, 导致图像颜色失真. 如图9(d)所示, AODNet受物理模型的限制, 易导致处理后的图像饱和度过高, 恢复图像的颜色相比于原图像过于鲜艳. 同时, GCANet在恢复一些真实有雾图像的过程中, 也会产生失真现象, 例如图9(e)中第2、3幅图像的蓝色天空区域出现颜色失真以及第4幅图像远景区域过亮等. 相比于前几种方法, DehazeNet能较好地保持原图中物体的颜色, 但其对远景部分的去雾能力不足, 如图9(c)中的远山区域仍有白色雾气残留. 另外, 放大图9(f)的远景区域(如图9(f)第2幅图像的远山部分和第4幅图像远处的草地), 可以看出, GridDehazeNet处理后的图像在远景处出现一定的颜色失真. 由图9(g)可以看出, YNet因连续下采样操作, 恢复出的无雾图像部分高频信息丢失(如图9(g)第1幅图中的人脸五官不够清晰).

    图 9  与现有方法在真实有雾图像上去雾结果对比
    Fig. 9  Comparisons of dehazing results with state-of-the-art methods on real hazy images

    由于采用了雾霾感知单元和误差回传机制, 本文算法可有效保持原图中丰富的结构信息和颜色信息, 尤其是对远景雾气去除效果更佳. 对比图9第4幅图像的去雾结果, 可以明显看出, 图9(b) ~ 图9(g)所示算法均不能有效去除远景雾气, 红色方框内草地上方仍有大量雾霾残留. 本文算法(见图9(h))可有效解决现有方法存在的远景区域雾气较难去除的问题, 恢复图像更为清晰自然.

    为了进一步验证本文提出网络结构的合理性和各模块的必要性, 针对网络中的不同模块, 分别进行消融实验. 消融实验主要考虑的因素有: 1)每个子网络包含的RDB模块的总个数; 2)是否使用GFM模块对3个子网络的特征图进行加权融合; 3)是否使用误差回传机制, 利用低分辨率子网络改善高分辨率子网络提取特征; 4)是否使用雾浓度自适应检测块对RDB提取的特征进行逐通道雾浓度测量和逐像素雾浓度测量.

    为了分析上述各因素对网络性能的影响, 以向网络中递增添加各模块的方式进行消融实验. 在ITS数据集上训练不同配置的网络(实验设置与第2.2节设置相同), 随后在SOTS室内测试集上测试模型. 测试结果的PSNR值如表5所示, 其中“√”表示包含对应该行的第1列网络模块. 表5最后一行给出了采取不同配置时, 网络在SOTS室内测试集上取得的PSNR值. 其中, 右边5列分别对应5种不同的网络配置. A列表示每个尺度子网络仅包含5个RDB模块, 各个子网络特征图直接相加; B列表示每个子网络包含5个RDB, 但采用了门控融合方法融合各子网络特征图; C列表示将每个子网络包含的RDB数量由5个变为9个; D列表示在C列配置的基础上加入了误差回传模块EB; E列较前一列加入了本文雾浓度自适应检测块HDADB, 此时网络取得的PSNR值最高, 去雾性能最佳.

    表 5  基于不同模块的网络性能比较
    Table 5  Comparisons of network performance based on different modules
    模块名称ABCDE
    5个RDB
    9个RDB
    GFM
    EB
    HDADB
    PSNR (dB)28.7929.5231.5332.4533.83
    下载: 导出CSV 
    | 显示表格

    为了评估本文方法的复杂性和计算效率, 在包含500张$620 \times 460$像素图像的SOTS室内测试集上进行了实验, 比较了本文算法与其他主流算法的平均运行时间, 统计结果如表6所示. 其中DCP、DehazeNet、MSCNN[14]方法在CPU上实现, 其他基于深度学习的方法在GPU上实现. 本文方法处理尺寸为$ 620 \times 460$像素图像大约需要0.73 s. 结合表6和前述实验结果可以看出, 本文方法较特征融合注意网络(Feature fusion attention network, FFANet)[28]效率显著提升, 与GridDehazeNet方法效率相当, 但去雾性能有较大提升.

    表 6  各方法平均运行时间对比
    Table 6  Average computing time comparison of various methods
    方法CPU/GPU时间 (s)
    DCPCPU25.08
    DehazeNetCPU2.56
    MSCNNCPU2.45
    AODNetGPU0.24
    GridDehazeNetGPU0.59
    FFANet[28]GPU1.23
    本文方法GPU0.73
    下载: 导出CSV 
    | 显示表格

    通过实验可以看出, 本文算法取得了较好的去雾效果. 但本文网络在处理亮度较低的图像时, 有一定概率会出现图像部分区域色度偏暗的现象, 具体情况如图10所示. 今后, 将针对这一问题, 对网络进行进一步改进.

    图 10  部分区域色度偏暗的去雾图
    Fig. 10  Dehazed images with some darker areas

    本文提出一种基于误差回传机制的多尺度去雾网络, 该网络通过构造误差回传模块, 补充高分辨率特征图缺失的结构信息和上/下文信息, 同时设计雾霾感知单元, 实现针对雾浓度的自适应去雾, 并使用门控融合模块, 以避免干扰信息对图像结构和细节的破坏, 再经优化模块, 得到最终复原图像. 在合成有雾图像和真实有雾图像上的大量实验结果表明, 本文方法恢复的图像更接近清晰图像, 解决了现有去雾方法易产生颜色失真和远景去雾不彻底的问题.

  • 图  1  DGP-PCCMM的“感知—响应”框架

    Fig.  1  The “sense-response” structure of DGP-PCCMM

    图  2  各概念及其之间相互关系

    Fig.  2  Concepts and their associations

    图  3  动态增长认知地图构建流程图

    Fig.  3  The flow chart of dynamic growing cognitive map

    图  4  机器人导航框图

    Fig.  4  The diagram of robot navigation

    图  5  位置细胞序列规划算法

    Fig.  5  The sequence planning algorithm of place cells

    图  6  Tolman老鼠绕道实验迷宫环境

    Fig.  6  Maze environment of Tolman detour task

    图  7  轮式圆形机器人俯视图

    Fig.  7  Top view of wheeled circular robot

    图  8  Tolman迷宫仿真环境

    Fig.  8  The simulation environment of Tolman maze

    图  9  认知地图构建过程($ n_m $= 1 000)

    Fig.  9  The formation process of cognitive map ($ n_m $= 1 000)

    图  10  认知地图构建过程($ n_m $= 2 000)

    Fig.  10  The formation process of cognitive map ($ n_m $= 2 000)

    图  11  位置细胞个数随学习次数变化情况

    Fig.  11  The number of place cells changing with the number of learning times

    图  12  A和门B都打开情况下的导航

    Fig.  12  Navigation with door A and door B open

    图  14  A打开门B关闭情况下的导航

    Fig.  14  Navigation with door A open and door B closed

    图  13  A关闭门B打开情况下的导航

    Fig.  13  Navigation with door A closed and door B open

    图  15  Hairpin迷宫

    Fig.  15  Hairpin maze

    图  16  四叉树栅格地图

    Fig.  16  Occupancy grids based on quadtree

    图  17  本文方法构建的认知地图

    Fig.  17  Cognitive maps based on methods of this paper

    图  18  动态窗口法和本文方法导航结果对比图

    Fig.  18  Comparation of navigation results between dynamic window approach and DGP-PCCMM

    图  19  Erdem认知地图与本文认知地图对比

    Fig.  19  Comparison between different cognitive maps

    表  1  DGP-PCCMM初始参数设置

    Table  1  Initial simulation parameters for DGP-PCCMM

    参数 参数 参数
    $ t $ 0 $ n_2 $ 3.2 $ T_{\rm{RP}} $ 3
    $ N $ 0 $ n_{m} $ 1 000 $ n_{\rm{init}} $ 1
    $ V_{\rm{GT}} $ 4.5 $ \sigma_0 $ 0.01 $ r $ 0.025 m
    $ n_1 $ 1.8 $ \alpha_0 $ 0.01 $ d_{\rm{step}} $ 0.05 m
    下载: 导出CSV

    表  2  本文与四叉树栅格对比

    Table  2  Comparison between occupancy grids based on quadtree and DGP-PCCMM

    性能指标 占用栅格或位置
    细胞个数
    有无仿生性 对动态变化
    的适应性
    四叉树栅格 > 256 (Hairpin);
    > 196 (Tolman)
    较弱
    本文认知地图 65 (Hairpin);
    90 (Tolman)
    较好
    下载: 导出CSV

    表  3  本文与动态窗口法对比

    Table  3  Comparison between dynamic window approach and our method

    性能指标环境 运行时间 (s) 导航路线长度 (cm)
    T1 T2 T3 T1 T2 T3
    动态窗口法 141.4 188.6 717.9 121.3 171.2 418.6
    本文认知地图 24.5 35.7 60.2 122.6 178.6 301.2
    下载: 导出CSV
  • [1] 曹风魁, 庄严, 闫飞, 杨奇峰, 王伟. 移动机器人长期自主环境适应研究进展和展望. 自动化学报, 2020, 46(2): 205−221

    Cao Feng-Kui, Zhuang Yan, Yan Fei, Yang Qi-Feng, Wang Wei. Long-term autonomous environment adaptation of mobile robots: state-of-the-art methods and prospects. Acta Automatica Sinica, 2020, 46(2): 205−221
    [2] 朱博, 高翔, 赵燕喃. 机器人室内语义建图中的场所感知方法综述. 自动化学报, 2017, 43(4): 493−508

    Zhu Bo, Gao Xiang, Zhao Yan-Nan. Place perception for robot indoor semantic mapping: A survey. Acta Automatica Sinica, 2017, 43(4): 493−508
    [3] Collett M, Chittka L, Collett T S. Spatial memory in insect navigation. Current Biology, 2013, 23(17): R789−R800 doi: 10.1016/j.cub.2013.07.020
    [4] Ruan X, Wu X. The skinner automaton: A psychological model formalizing the theory of operant conditioning. Science China-Technological Sciences, 2013, 56(11): 2745−2761 doi: 10.1007/s11431-013-5369-0
    [5] Milford M, Schulz R. Principles of goal-directed spatial robot navigation in biomimetic models. Philosophical Transactions of Royal Society B, 2014, 369: 1−13
    [6] Frohnwieser A, Murray J C, Pike T W, Wilkinson A. Using robots to understand animal cognition. Journal of the Experimental Analysis of Behavior, 2016, 105(1): 14−22 doi: 10.1002/jeab.193
    [7] 秦方博, 徐德. 机器人操作技能模型综述. 自动化学报, 2019, 45(8): 1401−1418

    Qin Fang-Bo, Xu De. Review of robot manipulation skill models. Acta Automatica Sinica, 2019, 45(8): 1401−1418
    [8] Tang H J, Huang W W, Narayanamoorthy A, Yan R. Cognitive memory and mapping in a brain-like system for robotic navigation. Neural Networks, 2017, 87: 27−37 doi: 10.1016/j.neunet.2016.08.015
    [9] Gianelli S, Harland B, Fellous J. A new rat-compatible robotic framework for spatial navigation behavioral experiments. Journal of Neuroscience Methods, 2018, 294: 40−50 doi: 10.1016/j.jneumeth.2017.10.021
    [10] 黄秉宪. 关于人工智能中的脑模型研究. 自动化学报, 1979, 5(2): 157−166

    Huang Bing-xian. On brain model in artificial intelligence. Acta Automatica Sinica, 1979, 5(2): 157−166
    [11] Tolman E C. Cognitive maps in rats and men. Psychological Review, 1948, 55(4): 189−208 doi: 10.1037/h0061626
    [12] O'Keefe J, Dostrovsky J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research, 1971, 34(1): 171−175 doi: 10.1016/0006-8993(71)90358-1
    [13] Mehta M R. From synaptic plasticity to spatial maps and sequence learning. Hippocampus, 2015, 25(6): 756−762 doi: 10.1002/hipo.22472
    [14] Alme C B, Miao C, Jezek K, Treves A, Moser E, Moser M B. Place cells in the hippocampus: eleven maps for eleven rooms. Proceedings of the National Academy of Sciences, 2014, 111(52): 18428−18435 doi: 10.1073/pnas.1421056111
    [15] 于乃功, 苑云鹤, 李倜, 蒋晓军, 罗子维. 一种基于海马认知机理的仿生机器人认知地图构建方法. 自动化学报, 2018, 44(1): 52−73

    Yu Nai-Gong, Yuan Yun-He, Li Ti, Jiang Xiao-Jun, Luo Zi-Wei. A cognitive map building algorithm by means of cognitive mechanism of hippocampus. Acta Automatica Sinica, 2018, 44(1): 52−73
    [16] 邹强, 丛明, 刘冬, 杜宇, 崔瑛雪. 基于生物认知的移动机器人路径规划方法. 机器人, 2018, 40(6): 894−902

    Zou Qiang, Cong Ming, Liu Dong, Du Yu, Cui Ying-Xue. Path planning of mobile robots based on biological cognition. Robot, 2018, 40(6): 894−902
    [17] Kabadayi C, Bobrowicz K, Osvath M. The detour paradigm in animal cognition. Animal Cognition, 2018, 21(1): 21−35 doi: 10.1007/s10071-017-1152-0
    [18] Fakhari P, Khodadadi A, Busemeyer J R. The detour problem in a stochastic environment: Tolman revisited. Cognitive Psychology, 2018, 101: 29−49 doi: 10.1016/j.cogpsych.2017.12.002
    [19] Schmajuk N A, Buhusi C V. Spatial and temporal cognitive mapping: a neural network approach. Trends in Cognitive Sciences, 1997, 1(3): 109−114 doi: 10.1016/S1364-6613(97)89057-2
    [20] Martinet L E, Sheynikhovich D, Benchenane K, Arleo A. Spatial learning and action planning in a prefrontal cortical network model. Plos Computational Biology, 2011, 7(5): e1002045 doi: 10.1371/journal.pcbi.1002045
    [21] Gao Y, Song H. A motor learning model based on the basal ganglia in operant conditioning. In: Proceedings of the 26th Chinese Control and Decision Conference. Changsha, China: IEEE, 2014. 5236−5241
    [22] Alvernhe A, Save E, Poucet B. Local remapping of place cell firing in the Tolman detour task. European Journal of Neuroscience, 2011, 33(9): 1696−1705 doi: 10.1111/j.1460-9568.2011.07653.x
    [23] Ruan X G, Gao Y Y, Song H J, Chen J. A new dynamic self-organizing method for mobile robot environment mapping. Journal of Intelligent Learning Systems and Applications, 2011, 3: 249−256 doi: 10.4236/jilsa.2011.34028
    [24] Vasighi M, Amini H. A directed batch growing approach to enhance the topology preservation of self-organizing map. Applied Soft Computing, 2017, 55: 424−435 doi: 10.1016/j.asoc.2017.02.015
    [25] Madl T, Chen K, Montaldi D, Trappl R. Computational cognitive models of spatial memory in navigation space: A review. Neural Networks, 2015, 65: 18−43 doi: 10.1016/j.neunet.2015.01.002
    [26] Ciancia F. Tolman and Honzik (1930) revisited or the mazes of psychology (1930−1980). The Psychological Record, 1991, 41: 461−472
    [27] Thrun S. Robotic mapping: A survey. Exploring Artificial Intelligence in the New Millennium, 2002, 1: 1−35
    [28] 周彦, 李雅芳, 王冬丽, 裴廷睿. 视觉同时定位与地图创建综述. 智能系统学报, 2018, 13(1): 97−106

    Zhou Yan, Li Ya-Fang, Wang Dong-Li, Pei Ting-Rui. A survey of VSLAM. CAAI Transactions on Intelligent Systems, 2018, 13(1): 97−106
    [29] Barrera A, Cáceres A, Weitzenfeld A, Amaya V R. Comparative experimental studies on spatial memory and learning in rats and robots. Journal of Intelligent and Robotic Systems, 2011, 63: 361−397 doi: 10.1007/s10846-010-9467-y
    [30] 郭利进, 师五喜, 李颖, 李福祥. 基于四叉树的自适应栅格地图创建算法. 控制与决策, 2011, 26(11): 1690−1694

    Guo Li-Jin, Shi Wu-Xi, Li Ying, Li Fu-Yang. Mapping algorithm using adaptive size of occupancy grids based on quadtree. Control and Decision, 2011, 26(11): 1690−1694
    [31] Chersi F, Burgess N. The cognitive architecture of spatial navigation: hippocampal and striatal contributions. Neuron, 2015, 88(1): 64−77 doi: 10.1016/j.neuron.2015.09.021
    [32] 许凯波, 鲁海燕, 黄洋, 胡士娟. 基于双层蚁群算法和动态环境的机器人路径规划方法. 电子学报, 2019, 47(10): 2166−2176 doi: 10.3969/j.issn.0372-2112.2019.10.019

    Xu Kai-Bo, Lu Hai-Yan, Huang Yang, Hu Shi-Juan. Robot path planning based on double-layer ant colony optimization algorithm and dynamic environment. Acta Electronica Sinica, 2019, 47(10): 2166−2176 doi: 10.3969/j.issn.0372-2112.2019.10.019
    [33] 王永雄, 田永永, 李璇, 李梁华. 穿越稠密障碍物的自适应动态窗口法. 控制与决策, 2019, 34(5): 927−936

    Wang Yong-Xiong, Tian Yong-Yong, Li Xuan, Li Liang-Hua. Self-adaptive dynamic window approach in dense obstacles. Control and Decision, 2019, 34(5): 927−936
    [34] Fox D, Burgard W, Thrun S. The dynamic window approach to collision avoidance. Robotics and Automation Magazine, 1997, 4(1): 23−33 doi: 10.1109/100.580977
    [35] Erdem U M, Hasselmo M. A goal directed spatial navigation model using forward trajectory planning based on grid cells. European Journal of Neuroscience, 2012, 35(6): 916−931 doi: 10.1111/j.1460-9568.2012.08015.x
  • 期刊类型引用(4)

    1. 任好,马亚杰,姜斌,刘成瑞. 基于零和微分博弈的航天器编队通信链路故障容错控制. 自动化学报. 2025(01): 174-185 . 本站查看
    2. 罗世坚,常琪,项玥,郭胜辉. 含变化时延和集总扰动的智能网联车编队控制. 控制与决策. 2025(04): 1293-1302 . 百度学术
    3. 徐会彬,方龙,张莎. 车联网中基于stacking集成学习的攻击检测模型. 电信科学. 2024(12): 38-50 . 百度学术
    4. 张锐. 面向车联网的基于卷积神经网络的入侵检测模型. 电信科学. 2024(12): 51-62 . 百度学术

    其他类型引用(4)

  • 加载中
图(19) / 表(3)
计量
  • 文章访问数:  1532
  • HTML全文浏览量:  780
  • PDF下载量:  261
  • 被引次数: 8
出版历程
  • 收稿日期:  2019-04-08
  • 录用日期:  2020-03-16
  • 网络出版日期:  2021-04-02
  • 刊出日期:  2021-04-02

目录

/

返回文章
返回