2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于多对多生成对抗网络的非对称跨域迁移行人再识别

梁文琦 王广聪 赖剑煌

郑洪坤, 吕日清, 赵勇, 彭昀, 林子婷, 刘睿杰. 干涉型光纤海洋参数传感器的分布式测量方法研究. 自动化学报, 2023, 49(9): 1941−1950 doi: 10.16383/j.aas.c220682
引用本文: 梁文琦, 王广聪, 赖剑煌. 基于多对多生成对抗网络的非对称跨域迁移行人再识别. 自动化学报, 2022, 48(1): 103−120 doi: 10.16383/j.aas.c190303
Zheng Hong-Kun, Lv Ri-Qing, Zhao Yong, Peng Yun, Lin Zi-Ting, Liu Rui-Jie. Research on the distributed measurement method of ocean optical fiber sensor based on interferometer. Acta Automatica Sinica, 2023, 49(9): 1941−1950 doi: 10.16383/j.aas.c220682
Citation: Liang Wen-Qi, Wang Guang-Cong, Lai Jian-Huang. Asymmetric cross-domain transfer learning of person re-identification based on the many-to-many generative adversarial network. Acta Automatica Sinica, 2022, 48(1): 103−120 doi: 10.16383/j.aas.c190303

基于多对多生成对抗网络的非对称跨域迁移行人再识别

doi: 10.16383/j.aas.c190303
基金项目: 国家自然科学基金(61573387, 62076258), 广东省重点研发项目(2017B030306018), 广东省海洋经济发展项目(粤自然资合[2021] 34)资助
详细信息
    作者简介:

    梁文琦:中山大学计算机学院硕士研究生. 2018年获中山大学计算机科学与技术学士学位. 主要研究方向为行人再识别和深度学习. E-mail: liangwq8@mail2.sysu.edu.cn

    王广聪:中山大学计算机学院博士研究生. 2015年获吉林大学通信工程学院学士学位. 主要研究方向为行人再识别和深度学习. E-mail: wanggc3@mail2.sysu.edu.cn

    赖剑煌:中山大学教授. 1999年获得中山大学数学系博士学位. 目前在IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI), IEEE Transactions on Neural Networks and Learning Systems (TNNLS), IEEE Transactions on Image Processing (TIP), IEEE Transactions on Systems, Man, and Cybernetics Part B — Cybernetics (TSMC-B), Pattern Recognition (PR), IEEE International Conference on Computer Vision (ICCV), IEEE Conference on Computer Vision and Pattern Recognition (CVPR),IEEE International Conference on Data Mining (ICDM)等国际权威刊物发表论文200多篇. 主要研究方向为图像处理, 计算机视觉, 模式识别. 本文通信作者. E-mail: stsljh@mail.sysu.edu.cn

Asymmetric Cross-domain Transfer Learning of Person Re-identification Based on the Many-to-many Generative Adversarial Network

Funds: Supported by National Natural Science Foundation of China (61573387, 62076258), Key Research Projects in Guangdong Province (2017B030306018), and Project of Department of Natural Resources of Guangdong Province ([2021] 34)
More Information
    Author Bio:

    LIANG Wen-Qi Master student at the School of Computer Science and Engineering, Sun Yat-sen University. She received her bachelor degree in intelligence science and technology from Sun Yat-sen University in 2018. Her research interest covers person re-identification and deep learning

    WANG Guang-Cong Ph.D. candidate at the School of Computer Science and Engineering, Sun Yat-sen University. He received his bachelor degree in communication engineering from Jilin University in 2015. His research interest covers person re-identification and deep learning

    LAI Jian-Huang Professor at Sun Yat-sen University. He received his Ph.D. degree in mathematics from Sun Yat-sen University in 1999. He has published over 200 scientific papers in international journals and conferences including IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI), IEEE Transactions on Neural Networks and Learning Systems (TNNLS), IEEE Transactions on Image Processing (TIP), IEEE Transactions on Systems, Man, and Cybernetics Part B — Cybernetics (TSMC-B), Pattern Recognition (PR), IEEE International Conference on Computer Vision (ICCV), IEEE Conference on Computer Vision and Pattern Recognition (CVPR),IEEE International Conference on Data Mining (ICDM). His research interest covers digital image processing, computer vision, and pattern recognition. Corresponding author of this paper

  • 摘要: 无监督跨域迁移学习是行人再识别中一个非常重要的任务. 给定一个有标注的源域和一个没有标注的目标域, 无监督跨域迁移的关键点在于尽可能地把源域的知识迁移到目标域. 然而, 目前的跨域迁移方法忽略了域内各视角分布的差异性, 导致迁移效果不好. 针对这个缺陷, 本文提出了一个基于多视角的非对称跨域迁移学习的新问题. 为了实现这种非对称跨域迁移, 提出了一种基于多对多生成对抗网络(Many-to-many generative adversarial network, M2M-GAN)的迁移方法. 该方法嵌入了指定的源域视角标记和目标域视角标记作为引导信息, 并增加了视角分类器用于鉴别不同的视角分布, 从而使模型能自动针对不同的源域视角和目标域视角组合采取不同的迁移方式. 在行人再识别基准数据集Market1501、DukeMTMC-reID和MSMT17上, 实验验证了本文的方法能有效提升迁移效果, 达到更高的无监督跨域行人再识别准确率.
  • 随着我国综合实力的提高, 海洋在经济发展、军事安全、科学研究等领域的作用也越来越重要, 因而得到了广泛的关注[1-2]. 传感器作为获取信息的一种重要手段, 在海洋监测方面也发挥着越来越大的作用. 光纤传感器作为一种新型的无源传感器件, 具有灵敏度高、体积小、抗电磁干扰等优点[3-4], 已经在很多领域发挥作用. 近年来, 面向海洋监测应用的光纤传感器也得到了快速发展, 大量的海洋参数传感方案被提出, 目前主要涉及到海洋的温度、盐度和深度三个参数的测量[5]. 由于分布式光纤仅对温度和应变敏感, 目前光纤传感器的温度盐度深度测量以点式传感器为主.

    光纤光栅(Fiber bragg grating, FBG)通常结合敏感材料实现对海洋温盐深参数的测量, 通过敏感材料实现灵敏度的放大. 中科院半导体所的Wang等[6]通过将FBG固定在毛细不锈钢管中实现了对FBG的温度增敏, 温度分辨力可以达到0.01 ℃; 通过将FBG和弹性膜片增敏结构相结合可以实现1.57 nm/MPa的压力测量灵敏度[7]; 将FBG和水凝胶相结合[8], 利用水凝胶的水分累积和扩散特性将盐度变化转换为FBG栅区的应变变化, 实现了灵敏度为9.5 nm/‰ 的盐度测量. 由于FBG的光谱形状为一个窄带宽的峰值, 光谱的大范围高分辨率解调实现较为方便, 而且可以通过波分复用技术实现多个传感器的级联. 但是基于该原理的传感器灵敏度普遍偏低.

    基于该种情况, 研究者们提出了多种基于干涉原理的高灵敏海水温度盐度测量方案. 2010年, Liao等[9]通过飞秒激光刻蚀技术在光纤上形成Mach-Zehnder干涉仪, 直接将待测介质作为传感臂, 传感器的折射率灵敏度可以达到9148 nm/RIU, 可以实现nm/‰量级的盐度灵敏度. 本课题组提出了一种同一结构中两种干涉效应共存的传感方案[10], 在一个结构中就可以对温度和盐度双参数进行解耦. 之后, 为了方便传感器的布设, 降低外界拉伸对传感器的影响, 将透射式传感结构更改为反射式[11]. 这些基于干涉原理的传感器虽然具有很高的测量灵敏度, 但是传感器的复用比较困难. 基于干涉原理的光纤传感器的光谱在波长域内是准正弦分布的, 传感器的灵敏度和测量范围存在矛盾, 虽然已经通过干涉光谱解调算法解决了基于干涉原理的光纤传感器灵敏度和测量范围之间的矛盾[12-14], 但是同一系统中通过频分复用技术复用的传感器数量也是有限的. 为了解决干涉式光纤传感器的复用问题, 本文提出了一种基于调频连续波(Frequency modulated continuous wave, FMCW)技术的复用方案, 将反射端面返回的光与参考臂的光形成Mach-Zehnder干涉仪, 用于确定传感器的位置; 通过同一传感器不同反射端面间的拍频恢复传感器的光谱. 搭建了用于传感器分布测试的系统, 编写了数据处理软件用于光谱的采集与处理, 通过在系统中接入用于温度盐度测试的级联法布里−珀罗干涉仪(Fabry-Perot interferometer, FPI)探头和用于应变测试的FPI探头, 分别对应海洋环境测试中的温度、盐度、深度这三个基本参数, 并测试了实验系统中传感器的响应特性.

    图1给出了FMCW的技术原理图, FMCW技术利用可调谐激光器(Tunable laser source, TLS)发出频率随时间变化的光, 反射光因在光纤中传输表现出相对于参考光的延时特性, 通过探测器(Photoelectric detector, PD)探测到参考光和传感光形成的干涉光, 通过干涉光的频率反推得到反射端面的位置信息[15-16]. 假设入射光是调频速度为$ \gamma $ Hz/s的线性扫频光, 入射光经过耦合器分到参考臂和传感臂上, 参考臂的电场表达式可以写为:

    $$ \begin{aligned} E_{\rm{ref}} = \sqrt{a}E_{0}{\rm{e}}^{{\rm{j}}(2 \pi f_{0}t+\pi \gamma t^{2})} \end{aligned} $$ (1)

    其中$ f_{0} $表示扫频光的起始频率, $ E_{0} $为入射电场的幅值, $ a $表示耦合器到参考臂的分光比.

    图 1  FMCW原理示意图
    Fig. 1  Schematic graph of FMCW

    当入射光从反射面返回时, 可以表示为一个与入射光存在时间延时的扫频信号:

    $$ E_{\rm{sen}} = \sqrt{(1-a)r}E_{0}{\rm{e}}^{{\rm{j}}[2\pi f_{0}(t-\tau)+\pi \gamma (t-\tau)^{2}]} $$ (2)

    其中$ \tau $表示由于参考臂与传感臂臂长差造成的时延差, 具体可以计算为$ \tau = 2n\Delta l/c $. $ r $表示传感器端面的反射率. 两束光相干之后通过探测器对相干光进行探测, 探测得到的光强可以表示为:

    $$ \begin{split} I=\;& (E_{\rm{ref}}+E_{\rm{sen}})(E_{\rm{ref}}+E_{\rm{sen}})^{*} = \\ &[a+r(1-a)]E_{0}^{2}\;+ \\ &2\sqrt{ar(1-a)}\cos(2\pi \gamma \tau t+2\pi f_{0}\tau-\pi\gamma\tau^{2}) \end{split} $$ (3)

    可以看出, 拍频信号与参考光和传感臂间的时延存在线性对应关系, 进而可以通过该方法确定传感臂与参考臂的长度差. 图2给出了参考臂和传感臂光频率的变化情况, 两束具有时延的光形成了一个具有固定频率差的干涉信号, 这与式(3)是相同的. 当系统中的传感臂中存在多个反射面时, 会形成多个与参考臂具有不同光程差的干涉信号, 根据光程差可以确定反射面所处的位置, 通过不同反射端面与参考臂形成的干涉光谱间的拍频, 可以反推得到干涉光谱的信息, 进而可以实现单个传感器干涉光谱的还原.

    图 2  参考臂和传感臂频率随时间的变化
    Fig. 2  Frequency changing of reference beam and sensing arm with time

    本文编写了MATLAB代码对基于FMCW技术的传感器复用系统进行了仿真, 仿真中采用的系统如图3所示, 仿真中设置可调谐激光器的波长扫描范围为1530 nm ~ 1570 nm, 扫频速度大致为10 THz/s, 将99%注入到传感系统的传感臂中用于得到较强的反射光. 环形器将光注入到复用在传感臂上的传感器中并收集传感器的反射光. 用于传感器分光的耦合器分光比为95 : 5, 并在系统的4 m、5 m和6 m位置处设置三个FPI传感器, 通过平衡探测器(Balanced photoelectric detector, BPD)对相干光进行探测.

    图 3  分布式传感仿真系统图
    Fig. 3  Simulation configuration of the distributed sensing system

    图4给出了系统的仿真光谱, 仿真光谱包含了不同位置处反射面的光谱叠加情况, 从时域光谱上很难区分不同反射面, 采用快速傅里叶变换(Fast Fourier transform, FFT)对叠加光谱进行了频谱分析, 可以得到不同反射端面的位置信息. 图5(a)给出了傅里叶分析的结果, 可以看出, 在频谱的4 m、5 m、6 m位置处出现了3个特征频率, 频谱中的1 m和2 m处的特征频率则是由于3个FPI传感器之间拍频形成的. 由于传感臂的反射光很弱, 因而传感器间拍频信号的强度也会很弱, 可以通过提高参考臂信号强度的方法进一步提高参考光与传感光拍频信号强度, 降低传感器之间光谱拍频对光谱恢复的影响. 由于每个FPI都是由相邻很近的两个反射面构成的, 为了实现对干涉光谱的恢复, 对4 m处的频谱进行了放大, 由图5(b)给出, 发现两个端面在频域是可以区分的, 因而可以实现对传感器光谱的还原.

    图 4  仿真得到的系统光谱
    Fig. 4  Simulated spectrum of the system
    图 5  仿真光谱的频谱特性图((a)仿真光谱频谱特性图; (b)仿真光谱频谱特性分析放大图)
    Fig. 5  Frequency spectrum of the simulated spectrum ((a) Frequency spectrum of the simulated spectrum; (b) Partial enlarged drawing of the frequency spectrum)

    之后对FPI光谱的恢复方法进行了研究, 利用矩形窗将传感器特征频谱处的复频谱信号截取出来, 补零后对其进行反傅里叶变换, 得到还原光谱, 如图6所示. 信号通过带通滤波器后会产生延时, 延时的大小与滤波器设置的参数有关, 通过将滤波后数据延时点删除可以消除滤波延时的影响. 由于恢复的传感器光谱为同一传感器两个反射面与参考臂形成的干涉光谱间的拍频, 两个信号的延时特性一致, 因而对恢复信号的影响可以忽略. 此外, 由于系统中同一传感器的延时参数是统一的, 即使带通滤波对系统响应光谱有微小影响也是可以忽略的.

    图 6  还原光谱与真实光谱对比((a)周期不匹配的情况; (b)周期匹配的情况)
    Fig. 6  Comparison between the retrieved and real spectrum ((a) Mismatch phenomenon; (b) Match phenomenon)

    虽然真实光谱和还原光谱具有近似的谱形, 但是还原光谱的谷值处较为尖锐, 因为在反傅里叶变换(Inverse FFT, IFFT)后对信号进行取模运算, 导致信号没有负值部分, 这会造成信号的失真. 通过分析, 发现信号在拍频时导致了频率的减半, 具体原因可以由式(4) 给出, 可以看出两个信号在进行拍频之后会形成一个高频和低频信号的乘积, 拍频后的低频信号频率为两个信号频率差的一半. 因而可以通过倍频的方法将信号频率调整为一致, 即对信号做一个平方, 本方案中利用积化和差公式将拍频信号倍频, 使得拍频信号与真实信号频率相同.

    $$ \cos \left ( a \right )+\cos \left ( b \right ) = 2\cos \left ( \frac{a+b}{2} \right) \cos \left ( \frac{a-b}{2} \right) $$ (4)

    之后对系统中可以复用的传感器数量进行理论计算, 第$ { N} $个端面的反射强度为:

    $$ P_{\rm{out}} = P_{\rm{in}}r_{\rm{m}}r_{ c1,N}^{2}(1-\alpha_{N})^{2}\prod\limits_{ n = 1}^{N-1} {r_{ c2,n}^{2}(1-\alpha_{n})^2} $$ (5)

    其中$ P_{\rm{in}} $表示输入到参考臂中的光, $ r_{\rm{m}} $表示光纤反射端面的反射率, $ P_{\rm{out}} $是反射面反射到探测器的能量. $ r_{ c1,N} $表示第$ {N} $个耦合器第1个端口的输出能量比, $ r_{c2,n} $表示第$ {n} $个耦合器第2个端口的输出能量比, 平方表示光在耦合器中传播一个来回, $ \alpha_{N} $表示第$N $个耦合器的插入损耗. 假设本系统中采用99 : 1的耦合器将光分配给系统中的传感器, 传感器法兰间的连接没有损耗, 所有FPI传感器端面都置于盐水(折射率近似为1.33)中, 端面的反射率$ r_{\rm{m}} $大概为0.0025, 进入传感臂的光功率为10 mW, 传感器中第500个传感器的反射能量为2.2×$ 10^{-10} $ mW, 如果参考臂的输入光功率为20 μW, 那么两束光相干后的光功率约为4.2 nW. 这个光强度大于探测器的噪声等效功率, 可以通过光电探测器探测得到.

    本方案中采用的方案为相干探测方案, 最大的传感长度需要综合考虑系统中光源的线宽、数据采集卡的采样率以及可调谐激光器的波长扫描速度; 根据光源线宽和相干长度之间的关系: $\Delta v = {c}/\left(2nL \right)$, 本方案中采用的可调谐激光器的线宽为60 kHz, 光源的相干长度为1.66 km. 按照本方案中设置的采样率(62.5 MHz)和波长扫描速度(80 nm/s), 为了利用参考干涉仪光谱实现等频率重采样, 参考干涉仪每个周期至少有5个采样点, 根据干涉光谱计算公式$ \Delta \lambda = \lambda^{2}/\left(2nL\right) $, 系统的最大传感距离为125 m.

    为了对系统的特性进行测试, 搭建了实验测试系统, 为了实现高的距离分辨力, 系统中采用的光频率扫描范围应该设置的尽可能大, 本文采用的可调谐激光器是等波长间隔扫描的, 然而干涉光谱在波长域并不是标准的正弦分布, 根据干涉仪的干涉光谱公式$ y = {\rm{cos}}(2\pi 2nl/\lambda) $, 波长位于正弦函数的分母上, 虽然波长相对于腔长较小, 得到的干涉光谱随波长是一个类正弦信号, 但是这也会导致FFT分析结果不准确, 尤其是在波长范围较大的情况下. 为了消除激光器非线性扫频的影响, 本方案中采用了附加干涉仪作为重采样的标准, 利用干涉光谱在频域是标准三角函数的特点, 三角函数在零点之间的间隔是确定的, 通过利用参考干涉仪的零点实现光谱的等频率间隔重采样.

    搭建了实验系统如图7所示的带有附加干涉仪的传感系统. 采用的光源为波长范围为1480 nm ~ 1640 nm, 品牌为Santec, 型号为TSL770的可调谐激光器, 调谐速度为0 ~ 200 nm/s. 系统中使用品牌为Conquer, 型号为KG-PR-200 M的光探测器, 探测带宽为200 MHz, 用于获取参考部分的干涉信号, 所选的PD的波长探测范围为850 nm ~ 1650 nm. 通过 Thorlabs品牌的PDB570C型号的BPD将传感部分的参考臂与传感臂的干涉光进行相干探测. 本方案中采用的BPD工作波长范围可以覆盖1200 nm ~ 1700 nm, 探测带宽可以覆盖0 ~ 400 MHz.

    图 7  实验搭建的FMCW系统
    Fig. 7  FMCW system configuration in experiment

    选用Advantech公司的PCIE-1840采集卡(Data acquisition, DAQ)作为信号采集器件将探测器得到的信号读入电脑中, 该采集卡可以实现4通道16位分辨率的信号采集, 每个通道的采样率可以达到125 MHz, 在本实验中将采集卡的采样率设置为62.5 MHz, 实验中可调谐激光器的波长范围为1530 nm ~ 1570 nm, 波长调谐速度为80 nm/s, 数据每次采样时间为0.5 s. 需要用到采集卡的三个通道, 一个通道用作采集卡的触发信号, 一个通道用于参考信号的采集, 一个通道用于传感信号的采集. 在利用参考干涉仪的光谱进行重采样时, 将参考信号作为参考时钟, 信号的等波数采样可以通过硬件法或者软件法实现. 硬件法是通过将PD探测得到的参考信号作为外部时钟信号输入到采集卡中. 软件法则是将PD探测到的参考采样信号和BPD探测到的传感信号同时输入到采集卡的信号通道中. 由于每次扫描产生的参考信号不能连续稳定存在, 因而不能作为一个可靠的外部时钟. 此外, 采集卡对外部时钟的频率是有限制的, 参考时钟的频率应该为10 MHz左右才可以满足外部时钟采集需求. 故采用了软件法对光谱进行重采样.

    为了实现对系统光谱的处理与单个传感器的光谱恢复, 基于LabView开发环境编写了用于数据处理的软件, 用于系统光谱的实时显示与处理. 图8给出了数据处理软件的前面板, 前面板包含多个用于设置采集系统的输入控件, 主要包括可调谐激光器的起始扫描波长、终止波长、扫描速度的输入, 采集卡的采样速率也可以通过输入控件进行设置, 信号通道下拉菜单可以对信号的输入通道进行选择. 此外, 为了提高数据的读取效率, 设置了用于调整采样段长与采样段数的输入控件. 为了直观地显示光谱信息, 图中右侧的4个波形图分别用于显示原始采样光谱、重采样后的光谱、重采样光谱的频谱特性图以及还原后传感器的干涉光谱. 理论上可以做到全部传感器光谱的显示, 由于目前复用规模较小, 为了清晰地显示单个光谱的变化情况, 显示面板中只显示了单个传感器光谱的恢复, 之后会考虑进行多个传感器光谱的同时处理, 利用还原光谱显示控件作为带通滤波的参数选择参考, 构建多个传感器光谱滤波参数数组, 实现多个传感器光谱同时恢复.

    图 8  数据采集处理软件前面板
    Fig. 8  Front panel of the data processing software

    图9给出了数据采集处理软件的后面板, 后面板中对数据的主要操作包括采集卡配置、信号重采样、FFT频谱分析、IFFT光谱还原以及光谱存储几个部分, 这3个过程都涉及到大量的数据操作, 开始时采用了LabView内置的VI函数对光谱数据进行处理, 由于光谱数据量较大, 处理效率较低. 之后改用LabView内置的MATLAB脚本VI函数作为数据处理函数, 大大地提高了数据处理速度. 本实验中利用参考干涉仪作为参考时钟对传感光谱进行等频率重采样, 为了方便信号采样, 将时钟信号减去基值后通过比较器将波形从正弦波转换为方波, 当方波两个相邻采样点出现正负跳变时, 采集一个传感信号点, 通过该种方法可以实现快速的传感光谱重采样. 利用FFT对重采样的信号进行频谱特征分析, 之后通过矩形窗截取传感光谱的特征频谱, 实现传感器光谱的恢复.

    图 9  数据处理软件后面板
    Fig. 9  Back panel of the data processing software

    在所设计的大容量传感器复用系统中进行了应变和盐度实验. 本文侧重于分布式干涉式光纤传感器的实现, 因而选取了应变模拟压力的测量效果, 海洋的压力通过增敏结构以应变的形式传递到光纤传感器结构上. 在系统中接入了3个传感器, 传感器1和传感器3为常见的基于单模−空心−单模结构的光纤FPI应变传感器, 该传感器通过在单模光纤中间熔接一段空心光纤制作; 传感器2为利用单模光纤错位熔接制作的双FPI级联的温盐传感器, 该传感器的制作方法可以参考本课题组的论文[12]. 首先将传感器接入到FMCW系统中, 经过采集软件的重采样之后, 得到的复合光谱如图10所示.

    图 10  重采样后的复合传感光谱
    Fig. 10  Composite sensing spectrum after resampling

    之后用FFT分析了复合光谱的频率特性, 图11展示出了光谱的频谱特性, 子图中给出了接入3个传感器的频谱情况, 对应整体频谱中蓝色椭圆圈出的部分. 可以看出, 由于本方案中采用的波长扫描范围较大, 所以光谱的频率分辨力较高, 可以区分同一传感器内的不同反射端面. 图中紫色的特征峰值是由于光纤法兰连接处的反射造成的. 可以明显地看出, 传感器3的光强远大于传感器1和传感器2的光强, 这是为了能够区分传感器位置. 传感器3接入的光为95%, 传感器3的反射光强度接近前两个传感器的20倍, 且3个传感器是等间隔分布的, 通过这种方法可以快速地找出系统中3个传感器的特征频率. 图中绿色的特征频率是由于传感器以及法兰之间的反射光拍频形成的.

    图 11  重采样光谱的频谱图
    Fig. 11  Frequency spectrum of the resampled spectrum

    图12给出了传感器的应力测试系统, 通过三维位移滑台用于固定光纤, 铁架台用于悬挂光纤, 将砝码悬挂在光纤自由端, 用于给传感结构施加定量的应力. 在弹性范围内, 光纤的应力和所施加的质量之间存在线性对应关系. 因为砝码的质量精度可以做到很高, 本文采用砝码悬挂法对光纤实现精确的应变控制.

    图 12  光纤应力特性测试装置
    Fig. 12  Strain characteristic test device of the optical fiber

    对传感器中传感器1进行应力测试后, 从数据处理软件上得到了不同应变下的光谱, 对光谱数据进行了处理. 对获取的干涉光谱进行平滑与寻峰操作, 得到了不同质量下的干涉峰值, 对不同质量下的干涉峰值进行拟合, 得到的拟合结果如图13(a)所示, 可以看出, 随着所施加砝码质量的增加, 干涉光谱的峰值波长表现出红移响应, 传感器的灵敏度可以达到23.35 pm/g, 拟合线性度可以达到0.997. 图13(b)给出了传感器1在同一质量下连续监测38次的波长变化情况, 测量标准差(Standard deviation, SD)可以达到40.85 pm, 这可能是由于环境波动以及光源抖动等因素造成的.

    图 13  应力传感器响应特性((a)不同质量下谐振波长拟合效果; (b)固定质量下传感器波长监测)
    Fig. 13  Responses of the strain sensor ((a) Wavelength fitting result under different weights; (b) Wavelength record under a fixed weight)

    之后对双FPI级联的温盐传感器的盐度(折射率)响应特性进行测试, 将传感器2放置于设计的盐度传感平台上. 通过胶头滴管向传感平台一侧滴加盐水, 通过吸水纸从另一侧吸收盐水, 将待测浓度的盐水进行3次冲刷用于减小浓度差的影响. 本方案中采用吸水纸的原因在于盐水的表面张力相对于有机溶液较大, 盐水无法可靠浸入传感结构(或者传感器的响应时间较长), 影响测试结果的准确性. 在实际应用中不需要更换液体, 只需要保证待测液体浸入到传感器即可, 可以考虑事先将传感器结构浸泡于有机溶液中. 由于本传感器结构较小, 浸泡需要的有机溶剂较少, 对实际测量产生的影响可以忽略, 测试环境由图14给出. 盐度测试采用的是海洋国家计量中心生产的中国系列标准海水.

    图 14  传感器盐度特性测试装置
    Fig. 14  Salinity characteristic test device of the sensor

    图15给出了传感器的光谱情况, 图15(a)表示传感器的原始光谱, 这包含两个FPI传感器的混叠光谱, 通过带通滤波器将两个传感器的光谱进行恢复, 对盐度敏感的传感器光谱在图15(b)中给出, 对温度敏感的传感器光谱在图15(c)中给出. 可以看出, 使用带通滤波器可以很好地区分两个传感器光谱.

    图 15  传感器2的光谱分解效果
    Fig. 15  Spectrum decomposition of sensor2

    本实验中仅对盐度响应特性进行测试, 对不同盐度下的响应光谱进行了分析. 分析结果在图16中给出, 对光谱的特征峰值与盐水浓度进行了线性拟合, 光谱随着盐度的增加表现出右移响应. 传感器的盐度灵敏度可以达到242.58 pm/‰, 拟合线性度可以达到0.9996, 传感器的盐度和波长之间具有很好的响应特性. 该传感器的盐度灵敏度与文献[17]基本是一致的, 可以认为传感器的性能不受到复用系统影响. 传感器随盐度变化的波长移动量达到9.7 nm, 光谱移动量接近光谱周期的2倍, 采用光谱峰值追踪法无法进行有效的光谱处理. 本次实验中, 结合经验法对光谱进行寻峰, 之后的实验可以考虑采用干涉光谱腔长解调技术对光谱进行解调[12], 就可以实现大动态范围、高分辨力的光谱解调.

    图 16  传感器2盐度响应特性拟合
    Fig. 16  Salinity response characteristic fitting result of sensor 2

    图17给出了传感器在同一盐度下光谱特征峰值连续监测的效果, 通过计算得到该传感器的波长标准差为20.68 pm, 对应盐度的标准差为0.085‰. 连续监测结果表明, 传感器在该复用系统中仍然可以实现较好的传感效果.

    图 17  传感器2盐度光谱的连续监测效果
    Fig. 17  Continuous wavelength record of the salinity spectrum of sensor 2

    本文提出了一种基于FMCW原理的干涉式光纤传感器的复用方法, 利用传感器的反射端面和参考臂形成的Mach-Zehnder干涉光谱之间的拍频实现传感器光谱还原, 搭建了用于大容量传感器复用的实验系统, 编写了用于数据采集与处理的软件, 实现了数据的实时采集以及对系统内单个传感器光谱的还原, 测试了系统中传感器的温度和盐度响应特性, 实验结果表明, 该复用系统在实现大容量传感器复用的同时不影响单个传感器的传感性能. 所提出的复用方法可以用于基于光纤传感器阵列的海洋参数立体剖面监测以及多点温度监测等应用场合.


  • 收稿日期 2019-04-16 录用日期 2019-09-02 Manuscript received April 16, 2019; accepted September 2, 2019 国家自然科学基金(61573387, 62076258), 广东省重点研发项目(2017B030306018), 广东省海洋经济发展项目(粤自然资合[2021] 34)资助 Supported by National Natural Science Foundation of China (61573387, 62076258), Key Research Projects in Guangdong Province (2017B030306018), and Contract of Department of Natural Resources of Guangdong Province ([2021] 34) 本文责任编委 刘青山 Recommended by Associate Editor LIU Qing-Shan 1. 中山大学计算机学院 广州 510006 2. 广州新华学院 广州 510520 3. 广东省信息安全技术重点实验室 广州 510006 4. 机器智能与先进计算教育部重点实验室 广州 510006
  • 1. School of Computer Science and Engineering, Sun Yat-senUniversity, Guangzhou 510006 2. Guangzhou Xinhua University, Guangzhou 510520 3. Guangdong Province Key Laboratory of Computational Science, Guangzhou 510006 4. Key Laboratory of Machine Intelligence and Advanced Computing, Ministry of Education, Guangzhou 510006
  • 图  1  摄像机分布差异举例

    Fig.  1  Examples of distribution differences between different views

    图  2  本文提出的多视角对多视角迁移方式与现有迁移方式的比较

    Fig.  2  Comparison of our M2M transferring way and the existing methods

    图  4  视角嵌入

    Fig.  4  View embedding

    图  3  多对多生成对抗网络框架(省略了目标域$ \rightarrow $源域的生成过程、循环一致损失和身份保持损失)

    Fig.  3  Framework of our M2M-GAN (The generation process, the cycle consistency loss, and the identity preserve loss of target domain $ \rightarrow $ source domain are omitted)

    图  5  多对多生成对抗网络结构图

    Fig.  5  Network structures of our M2M-GAN

    图  6  不同参数对识别率的影响

    Fig.  6  Influence of different parameters on the matching rate

    图  7  其他数据集迁移到Market数据集的可视化例子

    Fig.  7  Visual examples of translations from otherdatasets to the Market1501 dataset

    图  8  其他数据集迁移到DukeMTMC-reID数据集的可视化例子

    Fig.  8  Visual examples of translations from otherdatasets to the DukeMTMC-reID dataset

    图  9  其他数据集迁移到MSMT17数据集的可视化例子

    Fig.  9  Visual examples of translations from other datasets to the MSMT17 dataset

    表  2  不同方法在Market1501数据集上的训练时间和模型参数量

    Table  2  Training time and model parameters ofdifferent methods on the Market1501 dataset

    方法训练时间模型参数量Rank1 (%)
    CycleGAN16 h106.3 M47.4
    $M \times N$ CycleGAN14 h$ \times 8 \times 6$106.3 M$ \times 8 \times 6$58.0
    M2M-GAN (本文)17 h106.6 M59.1
    下载: 导出CSV

    表  6  不同方法在DukeMTMC-reID数据集上的训练时间和模型参数量

    Table  6  Training time and model parameters ofdifferent methods on the DukeMTMC-reID dataset

    方法训练时间模型参数量Rank1 (%)
    CycleGAN16 h106.3 M43.1
    $M \times N$ CycleGAN14 h$ \times 6 \times 8$106.3 M$ \times 6 \times 8$49.9
    M2M-GAN (本文)17 h106.6 M52.0
    下载: 导出CSV

    表  1  不同风格迁移方法在Market1501数据集上的识别率(%)

    Table  1  Matching rates of different style translation methods on the Market1501 dataset (%)

    方法 (源域数据集)DukeMTMC-reIDMSMT17
    Rank1mAP Rank1mAP
    Pre-training50.423.6 51.525.5
    CycleGAN47.421.5 46.121.1
    M2M-GAN (本文)59.129.6 57.928.8
    下载: 导出CSV

    表  3  不同模块在Market1501数据集上的准确率分析(%)

    Table  3  Accuracy of different modules on the Market1501 dataset (%)

    视角嵌入
    模块
    视角分类
    模块
    身份保持
    模块
    Rank1mAP
    $ \times $$ \times $$ \times $35.712.5
    $ \times $$ \times $${\surd}$47.421.5
    ${\surd}$$ \times $${\surd}$48.022.0
    $ \times $${\surd}$${\surd}$48.622.1
    ${\surd}$${\surd}$${\surd}$59.129.6
    下载: 导出CSV

    表  4  不同无监督方法在Market1501数据集上的识别率(%) (源数据集为DukeMTMC-reID数据集)

    Table  4  Matching rates of different unsupervised methods on the Market1501 dataset (%) (The source dataset is the DukeMTMC-reID dataset)

    类型方法Rank1mAP
    手工特征LOMO[12]27.28.0
    Bow[39]35.814.8
    基于聚类
    的无监督学习
    PUL[29]45.520.5
    CAMEL[28]54.526.3
    跨域迁移
    学习
    PTGAN[34]38.6
    SPGAN+LMP[33]57.726.7
    TJ-AIDL[43]58.226.5
    ARN[44]70.239.4
    M2M-GAN (本文)59.129.6
    M2M-GAN (本文)+LMP[33]63.130.9
    下载: 导出CSV

    表  5  不同风格迁移方法在DukeMTMC-reID数据集上的识别率(%)

    Table  5  Matching rates of different style translation methods on the DukeMTMC-reID dataset (%)

    方法 (源域数据集) Market1501 MSMT17
    Rank1mAP Rank1mAP
    Pre-training38.121.4 53.532.5
    CycleGAN43.124.1 51.130.0
    M2M-GAN (本文)52.029.8 61.137.5
    下载: 导出CSV

    表  7  不同模块在DukeMTMC-reID数据集上的准确率分析(%)

    Table  7  Accuracy of different modules on theDukeMTMC-reID dataset (%)

    视角嵌入
    模块
    视角分类
    模块
    身份保持
    模块
    Rank1mAP
    $ \times $$ \times $$ \times $31.812.6
    $ \times $$ \times $${\surd}$43.124.1
    ${\surd}$$ \times $${\surd}$45.025.3
    $ \times $${\surd}$${\surd}$43.524.1
    ${\surd}$${\surd}$${\surd}$52.029.8
    下载: 导出CSV

    表  8  不同无监督方法在DukeMTMC-reID数据集上的识别率(%) (源数据集为Market1501数据集)

    Table  8  Matching rates of different unsupervised methods on the DukeMTMC-reID dataset (%) (The source dataset is the Market1501 dataset)

    类型方法Rank1mAP
    手工特征LOMO[12]12.34.8
    Bow[39]17.18.3
    基于聚类的无监督学习UMDL[45]18.57.3
    PUL[29]30.016.4
    跨域迁移学习PTGAN[34]27.4
    SPGAN+LMP[33]46.426.2
    TJ-AIDL[43]44.323.0
    ARN[44]60.233.4
    M2M-GAN (本文)52.029.8
    M2M-GAN (本文)+LMP[33]54.431.6
    下载: 导出CSV

    表  9  不同风格迁移方法在MSTM17数据集上的识别率(%)

    Table  9  Matching rates of different styletranslation methods on the MSTM17 dataset (%)

    方法 (源域数据集) Market1501 DukeMTMC-reID
    Rank1mAP Rank1mAP
    Pre-training14.24.5 20.26.7
    CycleGAN22.77.6 24.77.8
    M2M-GAN (本文)31.910.8 36.811.9
    下载: 导出CSV

    表  10  不同无监督方法在MSMT17上的识别率(%) (源数据集为Market1501数据集)

    Table  10  Matching rates of different unsupervised methods on the MSMT17 dataset (%) (The source dataset is the Market1501 dataset)

    类型方法Rank1mAP
    跨域迁移
    学习
    PTGAN[34]10.22.9
    M2M-GAN (本文)31.910.8
    M2M-GAN (本文)+LMP[33]32.29.7
    下载: 导出CSV
  • [1] 李幼蛟, 卓力, 张菁, 李嘉锋, 张辉. 行人再识别技术综述. 自动化学报, 2018, 44(9): 1554-1568

    Li You-Jiao, Zhuo Li, Zhang Jing, Li Jia-Feng, Zhang Hui. A survey of person re-identification. Acta Automatica Sinica, 2018, 44(9): 1554-1568
    [2] 齐美彬, 檀胜顺, 王运侠, 刘皓, 蒋建国. 基于多特征子空间与核学习的行人再识别. 自动化学报, 2016, 42(2): 299-308

    Qi Mei-Bin, Tan Sheng-Shun, Wang Yun-Xia, Liu Hao, Jiang Jian-Guo. Multi-feature subspace and kernel learning for person re-identification. Acta Automatica Sinica, 2016, 42(2): 299-308
    [3] 刘一敏, 蒋建国, 齐美彬, 刘皓, 周华捷. 融合生成对抗网络和姿态估计的视频行人再识别方法. 自动化学报, 2020, 46(3): 576-584

    Liu Yi-Min, Jiang Jian-Guo, Qi Mei-Bin, Liu Hao, Zhou Hua-Jie. Video-based person re-identification method based on GAN and pose estimation. Acta Automatica Sinica, 2020, 46(3): 576-584
    [4] Wang G C, Lai J H, Xie X H. P2SNet: Can an image match a video for person re-identification in an end-to-end way? IEEE Transactions on Circuits and Systems for Video Technology, 2018, 28(10): 2777-2787 doi: 10.1109/TCSVT.2017.2748698
    [5] Feng Z X, Lai J H, Xie X H. Learning view-specific deep networks for person re-identification. IEEE Transactions on Image Processing, 2018, 27(7): 3472-3483 doi: 10.1109/TIP.2018.2818438
    [6] Zhuo J X, Chen Z Y, Lai J H, Wang G C. Occluded person re-identification. In: Proceedings of the 2018 IEEE International Conference on Multimedia and Expo. San Diego, USA: IEEE, 2018. 1−6
    [7] Chen Y C, Zhu X T, Zheng W S, Lai J H. Person re-identification by camera correlation aware feature augmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(2): 392-408 doi: 10.1109/TPAMI.2017.2666805
    [8] Gong S G, Cristani M, Yan S C, Loy C C. Person Re-identification. London: Springer, 2014. 139−160
    [9] Chen Y C, Zheng W S, Lai J H, Pong C Y. An asymmetric distance model for cross-view feature mapping in person reidentification. IEEE Transactions on Circuits and Systems for Video Technology, 2017, 27(8): 1661-1675 doi: 10.1109/TCSVT.2016.2515309
    [10] Chen Y C, Zheng W S, Lai J H. Mirror representation for modeling view-specific transform in person re-identification. In: Proceedings of the 24th International Conference on Artificial Intelligence. Buenos Aires, Argentina: AAAI Press, 2015. 3402−3408
    [11] Zheng W S, Li X, Xiang T, Liao S C, Lai J H, Gong S G. Partial person re-identification. In: Proceedings of the 2015 IEEE International Conference on Computer Vision. Santiago, Chile: IEEE, 2015. 4678−4686
    [12] Liao S C, Hu Y, Zhu X Y, Li S Z. Person re-identification by local maximal occurrence representation and metric learning. In: Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, USA: IEEE, 2015. 2197−2206
    [13] Wu A C, Zheng W S, Lai J H. Robust depth-based person re-identification. IEEE Transactions on Image Processing, 2017, 26(6): 2588-2603 doi: 10.1109/TIP.2017.2675201
    [14] Köstinger M, Hirzer M, Wohlhart P, Roth P M, Bischof H. Large scale metric learning from equivalence constraints. In: Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence, USA: IEEE, 2012. 2288−2295
    [15] Prosser B, Zheng W S, Gong S G, Xiang T. Person re-identification by support vector ranking. In: Proceedings of the British Machine Vision Conference. Aberystwyth, UK: British Machine Vision Association, 2010. 1−11
    [16] Zheng L, Bie Z, Sun Y F, Wang J D, Su C, Wang S J, et al. Mars: A video benchmark for large-scale person re-identification. In: Proceedings of the 14th European Conference on Computer Vision. Amsterdam, the Netherlands: Springer, 2016. 868−884
    [17] Yi D, Lei Z, Liao S C, Li S Z. Deep metric learning for person re-identification. In: Proceedings of the 22nd International Conference on Pattern Recognition. Stockholm, Sweden: IEEE, 2014. 34−39
    [18] Cheng D, Gong Y H, Zhou S P, Wang J J, Zheng N N. Person re-identification by multi-channel parts-based CNN with improved triplet loss function. In: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE, 2016. 1335−1344
    [19] Zheng Z D, Zheng L, Yang Y. Pedestrian alignment network for large-scale person re-identification. IEEE Transactions on Circuits and Systems for Video Technology, 2019, 29(10): 3037-3045 doi: 10.1109/TCSVT.2018.2873599
    [20] Zhao L M, Li X, Zhuang Y T, Wang J D. Deeply-learned part-aligned representations for person re-identification. In: Proceedings of the 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017. 3239−3248
    [21] Luo H, Jiang W, Zhang X, Fan X, Qian J J, Zhang C. AlignedReID++: Dynamically matching local information for person re-identification. Pattern Recognition, 2019, 94: 53-61 doi: 10.1016/j.patcog.2019.05.028
    [22] Zhong Z, Zheng L, Zheng Z D, Li S Z, Yang Y. Camera style adaptation for person re-identification. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 5157−5166
    [23] Su C, Li J N, Zhang S L, Xing J L, Gao W, Tian Q. Pose-driven deep convolutional model for person re-identification. In: Proceedings of the 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017. 3980−3989
    [24] Su C, Yang F, Zhang S L, Tian Q, Davis L S, Gao W. Multi-task learning with low rank attribute embedding for person re-identification. In: Proceedings of the 2015 IEEE International Conference on Computer Vision. Santiago, Chile: IEEE, 2015. 3739−3747
    [25] Song C F, Huang Y, Ouyang W L, Wang L. Mask-guided contrastive attention model for person re-identification. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 1179−1188
    [26] Kalayeh M M, Basaran E, Gökmen M, Kamasak M E, Shah M. Human semantic parsing for person re-identification. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 1062−1071
    [27] Wang G C, Lai J H, Huang P G, Xie X H. Spatial-temporal person re-identification. In: Proceedings of the 33rd AAAI Conference on Artificial Intelligence. Hawaii, USA: AAAI, 2019. 8933−8940
    [28] Yu H X, Wu A C, Zheng W S. Cross-view asymmetric metric learning for unsupervised person re-identification. In: Proceedings of the 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017. 994−1002
    [29] Fan H H, Zheng L, Yan C G, Yang Y. Unsupervised person re-identification: Clustering and fine-tuning. ACM Transactions on Multimedia Computing, Communications, and Applications, 2018, 14(4): Article No. 83
    [30] Lin Y T, Dong X Y, Zheng L, Yan Y, Yang Y. A bottom-up clustering approach to unsupervised person re-identification. In: Proceedings of the 33rd AAAI Conference on Artificial Intelligence. Hawaii, USA: AAAI, 2019. 8738−8745
    [31] Ganin Y, Ustinova E, Ajakan H, Germain P, Larochelle H, Laviolette F, et al. Domain-adversarial training of neural networks. The Journal of Machine Learning Research, 2016, 17(1): 2096-2030
    [32] Ma A J, Li J W, Yuen P C, Li P. Cross-domain person reidentification using domain adaptation ranking SVMs. IEEE Transactions on Image Processing, 2015, 24(5): 1599-1613 doi: 10.1109/TIP.2015.2395715
    [33] Deng W J, Zheng L, Ye Q X, Kang G L, Yang Y, Jiao J B. Image-image domain adaptation with preserved self-similarity and domain-dissimilarity for person re-identification. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 994−1003
    [34] Wei L H, Zhang S L, Gao W, Tian Q. Person transfer GAN to bridge domain gap for person re-identification. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 79−88
    [35] Goodfellow I J, Pouget-Abadie J, Mirza M, Xu B, Warde-Farley D, Ozair S, et al. Generative adversarial nets. In: Proceedings of the 27th Conference on Neural Information Processing Systems. Quebec, Canada: NIPS, 2014. 2672−2680
    [36] Zhu J Y, Park T, Isola P, Efros A A. Unpaired image-to-image translation using cycle-consistent adversarial networks. In: Proceedings of the 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017. 2242−2251
    [37] Lin T Y, Maire M, Belongie S, Hays J, Perona P, Ramanan D, et al. Microsoft COCO: Common objects in context. In: Proceedings of the 13th European Conference on Computer Vision. Zurich, Switzerland: Springer, 2014. 740−755
    [38] He K M, Gkioxari G, Dollár P, Girshick R. Mask R-CNN. In: Proceedings of the 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017. 2980−2988
    [39] Zheng L, Shen L Y, Tian L, Wang S J, Wang J D, Tian Q. Scalable person re-identification: A benchmark. In: Proceedings of the 2015 IEEE International Conference on Computer Vision. Santiago, Chile: IEEE, 2015. 1116−1124
    [40] Zheng Z D, Zheng L, Yang Y. Unlabeled samples generated by GAN improve the person re-identification baseline in vitro. In: Proceedings of the 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017. 3774−3782
    [41] Kingma D P, Ba J. Adam: A method for stochastic optimization. In: Proceedings of the 3rd International Conference on Learning Representations. San Diego, USA: ICLR, 2014. 1−13
    [42] He K M, Zhang X Y, Ren S Q, Sun J. Deep residual learning for image recognition. In: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE, 2016. 770−778
    [43] Wang J Y, Zhu X T, Gong S G, Li W. Transferable joint attribute-identity deep learning for unsupervised person re-identification. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 2275−2284
    [44] Li Y J, Yang F E, Liu Y C, Yeh Y Y, Du X F, Wang Y C F. Adaptation and re-identification network: An unsupervised deep transfer learning approach to person re-identification. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Salt Lake City, USA: IEEE, 2018. 172−178
    [45] Peng P X, Xiang T, Wang Y W, Pontil M, Gong S G, Huang T J, et al. Unsupervised cross-dataset transfer learning for person re-identification. In: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE, 2016. 1306−1315
  • 期刊类型引用(13)

    1. 胡蓉,伍星,毛剑琳,钱斌. 融入概率学习的混合差分进化算法求解绿色分布式可重入作业车间调度. 控制理论与应用. 2024(03): 512-521 . 百度学术
    2. 杨媛媛,胡蓉,钱斌,张长胜,金怀平. 深度强化学习算法求解动态流水车间实时调度问题. 控制理论与应用. 2024(06): 1047-1055 . 百度学术
    3. 郭琴,郑巧仙. 基于历史最优与接受差解的教与学算法. 计算机工程与设计. 2024(11): 3499-3506 . 百度学术
    4. 王建华,杨琦,朱凯. 自适应多种群Jaya算法求解绿色并行机调度问题. 计算机集成制造系统. 2023(01): 111-120 . 百度学术
    5. 王娟,刘美红,祝世兴,陈文博,李遇贤,孙军锋. 指尖密封结构参数的多目标混合教与学优化方法. 机械工程学报. 2023(09): 157-170 . 百度学术
    6. 翟志波,贾国平,王涛,周鹏鹏,闫汝山,戴玉森. 基于拉普拉斯分布与鲍德温效应的教与学算法及其应用. 计算机集成制造系统. 2023(08): 2611-2621 . 百度学术
    7. 徐林浩,胡蓉,钱斌,于乃康. 绿色VRP的增强拉格朗日松弛启发式算法. 电子测量技术. 2023(19): 96-103 . 百度学术
    8. 陶丽文,刘建胜. 一种多班级离散型教与学算法求解路径规划问题. 南昌大学学报(工科版). 2022(03): 282-288 . 百度学术
    9. 宋君乐,陶翼飞,可晓东,丁小鹏. 分区编码HBGWO算法求解并行机分批调度问题. 机械设计. 2022(10): 48-59 . 百度学术
    10. 马晓梅,何非. 基于改进遗传算法的标签印刷生产调度技术. 计算机应用. 2021(03): 860-866 . 百度学术
    11. 曹劲松,熊福力. 基于离散教与学算法的分布式预制流水车间调度研究. 计算机测量与控制. 2021(12): 166-171+183 . 百度学术
    12. 张梓琪,钱斌,胡蓉. 混合交叉熵算法求解复杂零等待流水线调度问题. 控制理论与应用. 2021(12): 1919-1934 . 百度学术
    13. 李丽荣,李木子,李崔灿,王培崇. 具有动态自适应学习机制的教与学优化算法. 计算机工程与应用. 2020(19): 62-67 . 百度学术

    其他类型引用(17)

  • 加载中
  • 图(9) / 表(10)
    计量
    • 文章访问数:  1307
    • HTML全文浏览量:  378
    • PDF下载量:  298
    • 被引次数: 30
    出版历程
    • 收稿日期:  2019-04-16
    • 录用日期:  2019-09-02
    • 网络出版日期:  2021-11-19
    • 刊出日期:  2022-01-25

    目录

    /

    返回文章
    返回