2.793

2018影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于多图流形排序的图像显著性检测

于明 李博昭 于洋 刘依

于明, 李博昭, 于洋, 刘依. 基于多图流形排序的图像显著性检测. 自动化学报, 2019, 45(3): 577-592. doi: 10.16383/j.aas.2018.c170441
引用本文: 于明, 李博昭, 于洋, 刘依. 基于多图流形排序的图像显著性检测. 自动化学报, 2019, 45(3): 577-592. doi: 10.16383/j.aas.2018.c170441
YU Ming, LI Bo-Zhao, YU Yang, LIU Yi. Image Saliency Detection With Multi-graph Model and Manifold Ranking. ACTA AUTOMATICA SINICA, 2019, 45(3): 577-592. doi: 10.16383/j.aas.2018.c170441
Citation: YU Ming, LI Bo-Zhao, YU Yang, LIU Yi. Image Saliency Detection With Multi-graph Model and Manifold Ranking. ACTA AUTOMATICA SINICA, 2019, 45(3): 577-592. doi: 10.16383/j.aas.2018.c170441

基于多图流形排序的图像显著性检测


DOI: 10.16383/j.aas.2018.c170441
详细信息
    作者简介:

    于明  河北工业大学计算机科学与软件学院教授.1999年于北京理工大学获得通信与信息系统专业博士学位.主要研究方向为语音与图像视觉信息融合的生物特征识别, 图像数学变换、图像与视频编码的高效算法.E-mail:yuming@hebut.edu.cn

    李博昭  河北工业大学计算科学与软件学院硕士研究生.2015年获得河北工业大学信息与计算科学专业学士学位.主要研究方向为图像显著性检测.E-mail:201522102010@hebut.edu.cn

    刘依  河北工业大学计算机科学与软件学院讲师.2003年获得河北工业大学计算机应用技术专业硕士学位.主要研究方向为图像处理与识别、图像显著性检测.E-mail:liuyi@scse.hebut.edu.cn

    通讯作者: 于洋  河北工业大学计算机科学与软件学院讲师.2012年获得河北工业大学微电子学与固体电子学博士学位.主要研究方向为图像处理与分析、模式识别、计算机视觉, 智能交通系统.本文通信作者.E-mail:yuyang@scse.hebut.edu.cn
  • 本文责任编委 杨健
  • 基金项目:

    天津市科技计划 17ZLZDZF00040

    天津市科技计划 14RCGFGX00846

    河北省自然科学基金 F2015202239

    天津市科技计划 15ZCZDNC00130

Image Saliency Detection With Multi-graph Model and Manifold Ranking

More Information
    Author Bio:

      Professor at School of Computer Science and Engineering, Hebei University of Technology. He obtained his doctoral degree in communication and information systems from Beijing Institute of Technology in 1999. His research interest covers biometrics of voice and image vision information fusion, image mathematical transformation, efficient algorithm of image and video coding

      Master student at School of Computer Science and Engineering, Hebei University of Technology. She received her bachelor degree from Hebei University of Technology in 2015. Her main research interest is image saliency detection

      Lecturer at School of Computer Science and Engineering, Hebei University of Technology. She received her master degree in computer applied technology from Hebei University of Technology in 2011. Her research interest covers image processing and recognition, image saliency detection

    Corresponding author: YU Yang   Lecturer at School of Computer Science and Engineering, Hebei University of Technology. He received his Ph. D. degree in microelectronics and solid state electronics from Hebei University of Technology in 2012. His research interest covers image processing and analysis, pattern recognition, computer vision and intelligent transportation system. Corresponding author of this paper
  • Fund Project:

    Supported by Tianjin Science and Technology Planning Project 17ZLZDZF00040

    Supported by Tianjin Science and Technology Planning Project 14RCGFGX00846

    Hebei Province Natural Science Foundation F2015202239

    Supported by Tianjin Science and Technology Planning Project 15ZCZDNC00130

  • 摘要: 针对现有图像显著性检测算法中显著目标检测不完整和显著目标内部不均匀的问题,本文提出了一种基于多图流形排序的图像显著性检测算法.该算法以超像素为节点构造KNN图(K nearest neighbor graph)模型和K正则图(K regular graph)模型,分别在两种图模型上利用流形排序算法计算超像素节点的显著性值,并将每个图模型中超像素节点的显著值加权融合得到最终的显著图.在公开的MSRA-10K、SED2和ECSSD三个数据集上,将本文提出的算法与当前流行的14种算法进行对比,实验结果显示本文算法能够完整地检测出显著目标,并且显著目标内部均匀光滑.
    本文责任编委 杨健
  • 图  1  全局前景假设和边界先验的比较

    Fig.  1  Comparison of global foreground prior and background prior

    图  2  不同图模型生成的显著图比较

    Fig.  2  Comparison of saliency maps obtained by different graphs

    图  3  MSRA-10K数据库上实验结果

    Fig.  3  Experimental results on the MSRA-10K database

    图  4  MSRA-10K数据库上的P-R曲线、ROC曲线和F值

    Fig.  4  P-R curves, ROC curves, and F values on the MSRA-10K database

    图  6  SED2数据库上的P-R曲线、ROC曲线和F值

    Fig.  6  P-R curves, ROC curves, and F values on the SED2 database

    图  8  ECSSD数据库上的P-R曲线、ROC曲线和F值

    Fig.  8  P-R curves, ROC curves, and F values on the ECSSD database

    图  5  SED2数据库上实验结果

    Fig.  5  Experimental results on the SED2 database

    图  7  ECSSD数据库上实验结果

    Fig.  7  Experimental results on the ECSSD database

    表  1  K正则图模型、KNN图模型和K正则图模型+ KNN图模型比较

    Table  1  The comparison of K regular graph, KNN graph, and K regular graph + KNN graph

    MSRA-10K SED2 ECSSD
    P R F P R F P R F
    K正则 0.8557 0.7705 0.7948 0.8293 0.6990 0.7524 0.7053 0.6950 0.6344
    KNN 0.8627 0.7468 0.7897 0.7918 0.6034 0.6837 0.7231 0.7229 0.6677
    K正则+ KNN 0.8723 0.7962 0.8228 0.8080 0.7253 0.7504 0.7279 0.7476 0.6828
    下载: 导出CSV

    表  2  边界假设和全局前景假设比较

    Table  2  The comparison of boundary assumption and global foreground assumption

    MSRA-10K SED2 ECSSD
    P R F P R F P R F
    边界 0.8815 0.6670 0.7846 0.7267 0.4883 0.6156 0.7927 0.5830 0.6768
    全局 0.8723 0.7962 0.8228 0.8080 0.7253 0.7504 0.7279 0.7476 0.6828
    下载: 导出CSV

    表  3  初始显著图和优化后显著图的比较

    Table  3  The comparison of original saliency maps and refined saliency maps

    MSRA-10K SED2 ECSSD
    P R F P R F P R F
    初始图 0.8723 0.7962 0.8228 0.8080 0.7253 0.7504 0.7279 0.7476 0.6828
    优化图 0.8796 0.7880 0.8327 0.8210 0.6729 0.7456 0.7587 0.7152 0.7034
    下载: 导出CSV

    表  4  各种方法在不同数据库上的AUC值和F值

    Table  4  The AUC and F values of the various methods on different databases

    AUC值 F值
    MSRA-10K SED2 ECSSD MSRA-10K SED2 ECSSD
    HC[8] 0.8589 0.8839 0.7022 0.6370 0.7113 0.4186
    RC[8] 0.9406 0.8580 0.8919 0.8150 0.7151 0.6802
    AC[6] 0.7767 0.8430 0.6750 0.5636 0.7012 0.4026
    HS[7] 0.9353 0.8960 0.8833 0.8128 0.7298 0.6657
    SR[12] 0.6716 0.7290 0.6054 0.3454 0.4307 0.3001
    FT[10] 0.7797 0.8310 0.6591 0.5884 0.6872 0.3959
    MSS[11] 0.8607 0.8768 0.7678 0.6549 0.7125 0.4918
    MR[22] 0.9404 0.8618 0.8858 0.8219 0.7227 0.6868
    GS[18] 0.9527 0.9055 0.8834 0.7987 0.7546 0.6268
    BFSS[13] 0.8807 0.8932 0.8625 0.7570 0.7755 0.6080
    RW[20] 0.3976 0.8364 0.7252 0.4614 0.4868 0.3746
    HDCT[14] 0.8483 0.9036 0.8644 0.8143 0.7804 0.6673
    BMA[15] 0.8605 0.8825 0.7762 0.6318 0.5980 0.4927
    RR[21] 0.9423 0.8674 0.8887 0.8219 0.7197 0.6882
    本文算法 0.9532 0.8937 0.9114 0.8327 0.7456 0.7034
    下载: 导出CSV

    表  5  各种方法平均运行时间

    Table  5  The average runtimes of different methods

    SR FT MSS MR GS BFSS RW BMA RR HS HC RC AC HDCT Ours
    MATLAB 0.02 0.04 1.04 1.10 0.21 7.25 1.33 0.002 1.70 1.30
    C++ 0.39 0.01 0.25 0.18 4.12
    下载: 导出CSV
  • [1] 罗建豪, 吴建鑫.基于深度卷积特征的细粒度图像分类研究综述.自动化学报, 2017, 43(8):1306-1318 http://www.aas.net.cn/CN/abstract/abstract19105.shtml

    Luo Jian-Hao, Wu Jian-Xin. A survey on fine-grained image categorization using deep convolutional features. Acta Automatica Sinica, 2017, 43(8):1306-1318 http://www.aas.net.cn/CN/abstract/abstract19105.shtml
    [2] 王瑞霞, 彭国华.基于黎曼流形稀疏编码的图像检索算法.自动化学报, 2017, 43(5):778-788 http://www.aas.net.cn/CN/abstract/abstract19055.shtml

    Wang Rui-Xia, Peng Guo-Hua. An image retrieval method with sparse coding based on riemannian manifold. Acta Automatica Sinica, 2017, 43(5):778-788 http://www.aas.net.cn/CN/abstract/abstract19055.shtml
    [3] 杨赛, 赵春霞, 徐威.一种基于词袋模型的新的显著性目标检测方法.自动化学报, 2016, 42(8):1259-1273 http://www.aas.net.cn/CN/abstract/abstract18915.shtml

    Yang Sai, Zhao Chun-Xia, Xu Wei. A novel salient object detection method using bag-of-features. Acta Automatica Sinica, 2016, 42(8):1259-1273 http://www.aas.net.cn/CN/abstract/abstract18915.shtml
    [4] Xu M, Jiang L, Ye Z T, Wang Z L. Bottom-up saliency detection with sparse representation of learnt texture atoms. Pattern Recognition, 2016, 60:348-360 doi:  10.1016/j.patcog.2016.05.023
    [5] Goferman S, Zelnikmanor L, Tal A. Context-aware saliency detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(10):1915-1926 doi:  10.1109/TPAMI.2011.272
    [6] Achanta R, Estrada F, Wils P, Süsstrunk S. Salient region detection and segmentation. In: Proceedings of Computer Vision Systems, Lecture Notes in Computer Science, Vol. 5008. Berlin, Heidelberg: Springer, 2008. 66-75
    [7] Yan Q, Xu L, Shi J P, Jia J Y. Hierarchical saliency detection. In: Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. Portland, OR, USA: IEEE, 2013. 1155-1162
    [8] Cheng M M, Mitra N J, Huang X L, Torr P H S, Hu S M. Global contrast based salient region detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3):569-582 doi:  10.1109/TPAMI.2014.2345401
    [9] Borji A, Itti L. Exploiting local and global patch rarities for saliency detection. In: Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI, USA: IEEE, 2012. 478-485
    [10] Achanta R, Hemami S, Estrada F, Susstrunk S. Frequency-tuned salient region detection. In: Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami, FL, USA: IEEE, 2009. 1597-1604
    [11] Achanta R, Süsstrunk S. Saliency detection using maximum symmetric surround. In: Proceedings of the 17th IEEE International Conference on Image Processing. Hong Kong, China: IEEE, 2010. 2653-2656
    [12] Hou X D, Zhang L Q. Saliency detection: a spectral residual approach. In: Proceedings of the 2007 IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis, Minnesota, USA: IEEE, 2007. 1-8
    [13] Wang J P, Lu H C, Li X H, Tong N, Liu W. Saliency detection via background and foreground seed selection. Neurocomputing, 2015, 152:359-368 doi:  10.1016/j.neucom.2014.10.056
    [14] Kim J, Han D, Tai Y W, Kim J. Salient region detection via high-dimensional color transform. In: Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE, 2014. 883-890
    [15] Zhang J M, Sclaroff S. Exploiting surroundedness for saliency detection:a boolean map approach. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(5):889-902 doi:  10.1109/TPAMI.2015.2473844
    [16] Itti L, Koch C, Niebur E. A model of saliency-based visual attention for rapid scene analysis. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(11):1254-1259 doi:  10.1109/34.730558
    [17] Harel J, Koch C, Perona P. Graph-based visual saliency. In: Proceedings of the 19th International Conference on Neural Information Processing Systems. Canada: ACM, 2006. 545-552
    [18] Wei Y C, Wen F, Zhu W J, Sun J. Geodesic saliency using background priors. In: Proceeding of the 2012 European Conference on Computer Vision, Lecture Notes in Computer Science, Vol. 7574. Berlin, Heidelberg: Springer-Verlag, 2012. 29-42
    [19] Li X, Li Y, Shen C H, Dick A, Van Den Hengel A. Contextual hypergraph modeling for salient object detection. In: Proceeding of the 2013 IEEE International Conference on Computer Vision. Sydney, Australia: IEEE, 2013. 3328-3335
    [20] Li J, Fang S, Tian Y H, Huang T J, Chen X W. Image saliency estimation via random walk guided by informativeness and latent signal correlations. Signal Processing:Image Communication, 2015, 38:3-14 doi:  10.1016/j.image.2015.05.005
    [21] Yuan Y C, Li C Y, Kim J, Cai W D, Feng D D. Reversion correction and regularized random walk ranking for saliency detection. IEEE Transactions on Image Processing, 2018, 27(3):1311-1322 doi:  10.1109/TIP.2017.2762422
    [22] Yang C, Zhang L H, Lu H C, Ruan X, Yang M H. Saliency detection via graph-based manifold ranking. In: Proceeding of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. Portland, USA: IEEE, 2013. 3166-3173
    [23] Tao D P, Cheng J, Song M L, Lin X. Manifold ranking-based matrix factorization for saliency detection. IEEE Transactions on Neural Networks and Learning Systems, 2016, 27(6):1122-1134 doi:  10.1109/TNNLS.2015.2461554
    [24] Achanta R, Shaji A, Smith K, Lucchi A, Fua P, Süsstrunk S. SLIC superpixels compared to state-of-the-art superpixel methods. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(11):2274-2281 doi:  10.1109/TPAMI.2012.120
    [25] Zhao M Y, Jiao L C, Ma W P, Liu H Y, Yang S Y. Classification and saliency detection by semi-supervised low-rank representation. Pattern Recognition, 2016, 51:281-294 doi:  10.1016/j.patcog.2015.09.008
    [26] Zhu W J, Liang S, Wei Y C, Sun J. Saliency optimization from robust background detection. In: Proceeding of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, USA: IEEE, 2014. 2814-2821
    [27] Chen J Z, Ma B P, Cao H, Chen J, Fan Y B, Li R, et al. Updating initial labels from spectral graph by manifold regularization for saliency detection. Neurocomputing, 2017, 266:79-90 doi:  10.1016/j.neucom.2017.04.066
    [28] Li S Q, Zeng C, Fu Y, Liu S P. Optimizing multi-graph learning based salient object detection. Signal Processing:Image Communication, 2017, 55:93-105 doi:  10.1016/j.image.2017.03.023
    [29] Zhang J X, Ehinger K A, Wei H K, Zhang K J, Yang J Y. A novel graph-based optimization framework for salient object detection. Pattern Recognition, 2017, 64:39-50 doi:  10.1016/j.patcog.2016.10.025
    [30] Lan Y D, Deng H F, Chen T. A new method of distance measure for graph-based semi-supervised learning. In: Processing of the 2011 International Conference on Machine Learning and Cybernetics. Guilin, China: IEEE, 2011. 1444-1448
    [31] Jiang H Z, Wang J D, Yuan Z J, Liu T, Zheng N N. Automatic salient object segmentation based on context and shape prior. In: Proceedings of the 22nd British Machine Vision Conference. Dundee, Scotland, British: BMVA Press, 2011. 110.1-110.12
    [32] Liu T, Yuan Z J, Sun J, Wang J D, Zheng N N, Tang X O, et al. Learning to detect a salient object. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(2):353-367 doi:  10.1109/TPAMI.2010.70
    [33] Alpert S, Galun M, Brandt A, Basri R. Image segmentation by probabilistic bottom-up aggregation and cue integration. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(2):315-327 doi:  10.1109/TPAMI.2011.130
    [34] 郭迎春, 袁浩杰, 吴鹏.基于Local特征和Regional特征的图像显著性检测.自动化学报, 2013, 39(8):1214-1224 http://www.aas.net.cn/CN/abstract/abstract18152.shtml

    Guo Ying-Chun, Yuan Hao-Jie, Wu Peng. Image saliency detection based on local and regional features. Acta Automatica Sinica, 2013, 39(8):1214-1224 http://www.aas.net.cn/CN/abstract/abstract18152.shtml
  • [1] 李阳, 王璞, 刘扬, 刘国军, 王春宇, 刘晓燕, 郭茂祖. 基于显著图的弱监督实时目标检测[J]. 自动化学报, 2020, 46(2): 242-255. doi: 10.16383/j.aas.c180789
    [2] 王松涛, 周真, 靳薇, 曲寒冰. 基于贝叶斯框架融合的RGB-D图像显著性检测[J]. 自动化学报, 2020, 46(4): 695-720. doi: 10.16383/j.aas.2018.c170232
    [3] 张芳, 王萌, 肖志涛, 吴骏, 耿磊, 童军, 王雯. 基于全卷积神经网络与低秩稀疏分解的显著性检测[J]. 自动化学报, 2019, 45(11): 2148-2158. doi: 10.16383/j.aas.2018.c170535
    [4] 李东民, 李静, 梁大川, 王超. 基于多尺度先验深度特征的多目标显著性检测方法[J]. 自动化学报, 2019, 45(11): 2058-2070. doi: 10.16383/j.aas.c170154
    [5] 汪云飞, 冯国强, 刘华伟, 赵搏欣. 基于超像素的均值-均方差暗通道单幅图像去雾方法[J]. 自动化学报, 2018, 44(3): 481-489. doi: 10.16383/j.aas.2018.c160594
    [6] 林华锋, 李静, 刘国栋, 梁大川, 李东民. 基于自适应背景模板与空间先验的显著性物体检测方法[J]. 自动化学报, 2017, 43(10): 1736-1748. doi: 10.16383/j.aas.2017.c160431
    [7] 杨赛, 赵春霞, 徐威. 一种基于词袋模型的新的显著性目标检测方法[J]. 自动化学报, 2016, 42(8): 1259-1273. doi: 10.16383/j.aas.2016.c150387
    [8] 徐威, 唐振民. 利用层次先验估计的显著性目标检测[J]. 自动化学报, 2015, 41(4): 799-812. doi: 10.16383/j.aas.2015.c140281
    [9] 钱生, 陈宗海, 林名强, 张陈斌. 基于条件随机场和图像分割的显著性检测[J]. 自动化学报, 2015, 41(4): 711-724. doi: 10.16383/j.aas.2015.c140328
    [10] 江晓莲, 李翠华, 李雄宗. 基于视觉显著性的两阶段采样突变目标跟踪算法[J]. 自动化学报, 2014, 40(6): 1098-1107. doi: 10.3724/SP.J.1004.2014.01098
    [11] 潘宗序, 禹晶, 胡少兴, 孙卫东. 基于多尺度结构自相似性的单幅图像超分辨率算法[J]. 自动化学报, 2014, 40(4): 594-603. doi: 10.3724/SP.J.1004.2014.00594
    [12] 张东晓, 鲁林, 李翠华, 金泰松. 基于亚像素位移的超分辨率图像重建算法[J]. 自动化学报, 2014, 40(12): 2851-2861. doi: 10.3724/SP.J.1004.2014.02851
    [13] 谭乐怡, 王守觉. 基于双重超像素集的快速路径相似度图像分割算法[J]. 自动化学报, 2013, 39(10): 1653-1664. doi: doi{10.3724/SP.J.1004.2013.01653
    [14] 郭迎春, 袁浩杰, 吴鹏. 基于Local特征和Regional特征的图像显著性检测[J]. 自动化学报, 2013, 39(8): 1214-1224. doi: 10.3724/SP.J.1004.2013.01214
    [15] 唐勇, 杨林, 段亮亮. 基于图像单元对比度与统计特性的显著性检测[J]. 自动化学报, 2013, 39(10): 1632-1641. doi: 10.3724/SP.J.1004.2013.01632
    [16] 杨艺, 韩德强, 韩崇昭. 基于多准则排序融合的证据组合方法[J]. 自动化学报, 2012, 38(5): 823-831. doi: 10.3724/SP.J.1004.2012.00823
    [17] 马儒宁, 涂小坡, 丁军娣, 杨静宇. 视觉显著性凸显目标的评价[J]. 自动化学报, 2012, 38(5): 870-876. doi: 10.3724/SP.J.1004.2012.00870
    [18] 韩守东, 赵勇, 陶文兵, 桑农. 基于高斯超像素的快速Graph Cuts图像分割方法[J]. 自动化学报, 2011, 37(1): 11-20. doi: 10.3724/SP.J.1004.2011.00011
    [19] 傅向华, 李坚强, 王志强, 杜文峰. 基于Nyström 低阶近似的半监督流形排序图像检索[J]. 自动化学报, 2011, 37(7): 787-793. doi: 10.3724/SP.J.1004.2011.00787
    [20] 高世一, 赵明扬, 张雷, 邹媛媛. 基于Zernike正交矩的图像亚像素边缘检测算法改进[J]. 自动化学报, 2008, 34(9): 1163-1168. doi: 10.3724/SP.J.1004.2008.01163
  • 加载中
图(8) / 表(5)
计量
  • 文章访问数:  812
  • HTML全文浏览量:  236
  • PDF下载量:  418
  • 被引次数: 0
出版历程
  • 收稿日期:  2017-08-02
  • 录用日期:  2018-02-07
  • 刊出日期:  2019-03-20

基于多图流形排序的图像显著性检测

doi: 10.16383/j.aas.2018.c170441
    基金项目:

    天津市科技计划 17ZLZDZF00040

    天津市科技计划 14RCGFGX00846

    河北省自然科学基金 F2015202239

    天津市科技计划 15ZCZDNC00130

    作者简介:

    于明  河北工业大学计算机科学与软件学院教授.1999年于北京理工大学获得通信与信息系统专业博士学位.主要研究方向为语音与图像视觉信息融合的生物特征识别, 图像数学变换、图像与视频编码的高效算法.E-mail:yuming@hebut.edu.cn

    李博昭  河北工业大学计算科学与软件学院硕士研究生.2015年获得河北工业大学信息与计算科学专业学士学位.主要研究方向为图像显著性检测.E-mail:201522102010@hebut.edu.cn

    刘依  河北工业大学计算机科学与软件学院讲师.2003年获得河北工业大学计算机应用技术专业硕士学位.主要研究方向为图像处理与识别、图像显著性检测.E-mail:liuyi@scse.hebut.edu.cn

    通讯作者: 于洋  河北工业大学计算机科学与软件学院讲师.2012年获得河北工业大学微电子学与固体电子学博士学位.主要研究方向为图像处理与分析、模式识别、计算机视觉, 智能交通系统.本文通信作者.E-mail:yuyang@scse.hebut.edu.cn
  • 本文责任编委 杨健

摘要: 针对现有图像显著性检测算法中显著目标检测不完整和显著目标内部不均匀的问题,本文提出了一种基于多图流形排序的图像显著性检测算法.该算法以超像素为节点构造KNN图(K nearest neighbor graph)模型和K正则图(K regular graph)模型,分别在两种图模型上利用流形排序算法计算超像素节点的显著性值,并将每个图模型中超像素节点的显著值加权融合得到最终的显著图.在公开的MSRA-10K、SED2和ECSSD三个数据集上,将本文提出的算法与当前流行的14种算法进行对比,实验结果显示本文算法能够完整地检测出显著目标,并且显著目标内部均匀光滑.

本文责任编委 杨健

English Abstract

于明, 李博昭, 于洋, 刘依. 基于多图流形排序的图像显著性检测. 自动化学报, 2019, 45(3): 577-592. doi: 10.16383/j.aas.2018.c170441
引用本文: 于明, 李博昭, 于洋, 刘依. 基于多图流形排序的图像显著性检测. 自动化学报, 2019, 45(3): 577-592. doi: 10.16383/j.aas.2018.c170441
YU Ming, LI Bo-Zhao, YU Yang, LIU Yi. Image Saliency Detection With Multi-graph Model and Manifold Ranking. ACTA AUTOMATICA SINICA, 2019, 45(3): 577-592. doi: 10.16383/j.aas.2018.c170441
Citation: YU Ming, LI Bo-Zhao, YU Yang, LIU Yi. Image Saliency Detection With Multi-graph Model and Manifold Ranking. ACTA AUTOMATICA SINICA, 2019, 45(3): 577-592. doi: 10.16383/j.aas.2018.c170441
  • 图像显著性检测是计算机视觉领域的关键技术之一, 有着广泛的应用领域, 包括目标识别、图像分类[1]、图像检索[2]、基于内容感知的图像压缩等[3].人类视觉注意机制可以从自然图像中提取出感兴趣的区域供给大脑进行后续分析, 如何使计算机能够更好地模拟人类的视觉注意机制, 准确、快速地提取图像中的感兴趣区域, 是图像显著性检测研究的主要内容.

    图像显著性检测方法从驱动方式上可以分为两大类:自底向上的基于数据驱动的方法和自顶向下的基于任务驱动的方法[4].自底向上的方法主要利用图像的底层特征, 如对比度、颜色、亮度、纹理和边缘等, 提取图像中的显著目标.自顶向下方法是根据具体任务对自底向上的检测结果进行调整或者根据任务样本自动建立显著性模型, 这类方法需要大量的带有类别标记的示例数据集进行训练, 且需人为控制, 并依赖于所需的任务.由于自底向上的显著性检测方法多从图像特征入手, 不依赖于特定的任务, 因此目前大多数研究都是基于自底向上的方式进行视觉显著性检测.

    对比度是引起人类视觉注意的最大因素, Goferman将自底向上的基于对比度的图像显著性检测算法分成以下三类[5]:考虑局部特征, 考虑整体特征, 以及融合整体特征和局部特征的方法.基于局部对比度的算法通常通过计算图像的子区域或者像素与其周围一个小的局部邻域的对比度来衡量该图像子区域或者像素的显著性, 代表算法有Achanta等[6]于2008年提出的AC (Salient region detection and segmentation)算法和Yan等[7]于2013年提出的HS(Hierarchical saliency)算法. AC算法通过计算像素块在不同邻域上的局部对比度实现多尺度显著性计算. HS算法对图像进行多级分割, 在每个层级上利用局部对比度计算显著图, 并引入等级机制对每个层级上的显著图进行融合得到最终的显著图.基于全局对比度的算法特点是对于每个子区域或像素, 将整个图像作为对比区域计算其显著值, 代表算法有Cheng等[8]于2015年提出的HC (Histogram based constrast)算法和RC (Region based contrast)算法. HC算法将一个像素的显著性定义为该像素与其他像素的颜色对比度之和, 并使用直方图进行高效处理.针对HC算法仅考虑了像素的颜色特征, RC算法在此基础上加入了位置信息.融合局部和全局对比度的方法在计算图像显著性时分别考虑局部对比度和全局对比度, 并将二者通过一定的方式结合起来. Borji等[9]提出的LGPR (Local and global patch rarities)算法利用LAB空间的三个通道分别计算图像块之间的欧氏距离和图像块直方图的概率分布, 作为局部和全局对比度, 并进行融合得到最后的显著图.

    通常, 在空域中计算像素(或像素块)的显著性时间复杂度高, 而在频域中计算显著性可以提高算法的速度.如Achanta等于2009年提出的FT (Frequency-tuned)算法[10]和2010年提出的MSS (Maximum symmetric surround)算法[11], 还有Hou等[12]提出的SR (Spectral residual)算法都是基于频域的显著性检测方法.

    Wang等[13]于2015年提出了BFSS (Background and foreground seed selection)算法, 通过对原始图像进行超像素分割并选择背景超像素生成背景模板, 计算每个超像素与背景模板中超像素块的对比度之和, 生成初始显著图; 在二值化的初始显著图中选择前景超像素生成前景模板, 计算每个超像素与前景模板中超像素块的对比度之和, 生成最终的显著图.该算法中生成背景模板的机制耗时多, 算法的时间复杂度较高.除了上述基于对比度的算法, 基于阈值分割的方法也被用于进行图像显著性检测. Kim等[14]于2014年提出了HDCT (High-dimensional color transform)算法, 首先利用基于Otsu的多级自适应阈值算法, 计算两个阈值, 对现有算法生成的初始显著图进行阈值分割, 得到三值图像, 提取三值图像中非中间值区域像素的颜色特征, 这些像素将被用作显著区域和背景区域的初始颜色样本, 然后将低维颜色空间映射到高维颜色空间并以颜色样本为约束, 根据颜色样本的约束估计颜色通道的最优线性组合, 最后结合高维颜色空间中的颜色值获得显著性图. Zhang等[15]于2016年提出的BMA (Boolean map approach)算法将输入图像利用多个阈值进行分割得到多幅二值图像, 通过二值图像间的拓扑分析计算显著图.基于阈值分割的显著性检测方法对阈值的依赖性强, 阈值选择不好往往会使算法失效.

    基于图模型的显著性检测算法利用图的不同连接方式直观地刻画数据节点之间多样的结构特征, 通过构造不同的关联矩阵(Affinity matrix)反映图像区域之间的相似程度, 由于其检测准确率高且算法复杂度低而引起更多的关注.在IT模型[16]的基础上, Harel等[17]于2006年提出GBVS (Graph based visual saliency)算法, 利用马尔科夫随机场构建二维图像的马尔科夫链, 通过求其稳定状态得到显著图. Wei等[18]于2012年提出了GS (Geodesic saliency)算法, 以超像素为节点构造图模型, 并将节点的显著性值定义为该节点与所有背景节点之间的测地距离之和, 该方法原理简单, 能够较完整地检测出显著目标. Li等[19]于2013年提出了CHM (Contextual hypergraph modeling)算法将超图模型引入到图像显著性检测中, 通过对原始图像进行多级分割, 在每一级上建立超图模型并结合边缘特征计算显著图. Li等[20]于2015年提出RW (Random walk)算法, 该算法融合显式视觉线索和潜在视觉相关性, 同时考虑图像区域本身的信息性及不同图像区域之间潜在的相关性, 构建有向图模型, 在该图模型上利用随机游走计算各区域的显著性值. Yuan等[21]于2018年提出的RR (Regularized random)算法中引入了正则化的随机游走排序模型RRWR (Regularized random walk ranking)和反转修正模型RC (Reversion correction), 该算法同时利用区域和像素特征, 将先验显著性估计引入图像中的每个像素, 从而生成基于像素细节特征和超像素区域特征的显著图.

    基于图模型的显著性检测算法普遍需要解决以下问题:如何构建图模型的节点集、边集以及边的权值选择; 如何利用图模型计算节点的显著性值. Yang等[22]提出的MR (Manifold ranking)算法利用图模型刻画图像区域之间内在的关系, 并把流形排序的概念引入到显著性检测中, 将图像的显著性检测视为对超像素节点的二分类问题.通过基于图模型的流形排序算法将局部分组融入到节点的分类问题中, 与直接利用图模型上节点之间的测地距离计算显著图的GS算法相比, MR算法得到的显著目标内部更加均匀光滑[23].然而MR算法在构造图模型时仅将位置相邻的节点进行连接, 没有考虑颜色相似的节点之间的连接性, 这样检测到的显著目标存在不完整的问题, 有时也会错误地突出非显著区域.

    针对以上显著性检测算法中存在的问题, 例如显著目标不完整, 目标内部不能一致均匀突出, 本文提出了一个基于多图流形排序的显著性检测算法.与仅利用单一图模型的显著性检测算法不同, 本文引入多个图模型, 分别以超像素为节点构造基于超像素颜色特征的KNN图模型和基于空间位置特征的K正则图模型.在KNN图模型中将颜色相近的节点进行连接, 在K正则图模型中将位置近邻的节点进行连接.本文算法的主要贡献是: 1)在两种图模型中分别利用流形排序算法计算节点的显著性值, 并且在利用流形排序算法计算节点的显著性值时使用全局前景假设, 一定程度上解决了显著目标位于边界时MR算法失效的问题; 2)将两种图模型下得到的节点显著性值在节点级上进行加权融合, 得到节点最终的显著性值, 在一定程度上弥补了单一图模型下生成的显著图中噪声较多和显著目标不完整的问题.

    其余章节组织如下:在第1节中介绍提出的基于多图流形排序的图像显著检测算法, 在第2节中将本文算法与经典的显著性检测算法进行对比实验, 第3节中给出总结和展望.

    • 本文提出的算法是在超像素基础上进行的, 超像素是利用像素之间特征的相似性将颜色相近的像素分组, 这样就可以用少量的超像素代替大量的像素表示图像, 从而为后续的图像处理降低复杂度.本文利用SLIC算法[24]对图像进行超像素分割, 对得到的超像素块提取颜色特征和空间位置特征, 以超像素为节点分别构造基于颜色特征和空间位置特征的两类图模型$G_1$和${G_2}$.在这两类图模型上分别利用流形排序算法计算所有节点的显著性值${\pmb{f}_1}=\left\{{\left.{{f_{1, 1}}, {f_{1, 2}}, \cdots, {f_{1, n}}}\right\}} \right.$和${{\pmb{f}}_2}=\left\{{\left.{{f_{2, 1}}, {f_{2, 2}}, \cdots, {f_{2, n}}}\right\}}\right.$, 其中$f_{1, i}$表示超像素节点$i$在${G_1}$模型下计算得到的显著性值, ${f_{2, i}}$表示节点$i$在${G_2}$模型下计算得到的显著性值.将两个图模型上得到的节点的显著性值进行加权融合, 利用融合后节点的显著性值生成初始显著图, 并根据中心先验和边界抑制对初始显著图进行优化得到最终的显著图.在此基础上将两种图模型下生成的显著图进行融合, 能够使得检测到的显著目标更加完整均匀, 并且能够在一定程度上抑制单一图模型下由于节点连接错误, 在显著图中产生的噪声.本文算法的流程伪码如算法1所示:

      算法1.基于多图流形排序的图像显著性检测算法

      输入:图像${I_n}$;

      1) 利用SLIC算法对图像${I_n}$进行超像素分割;

      2) 以超像素为节点构造图模型$G_1$, 计算图模型$G_1$的关联矩阵$W_1$和度矩阵$D_1$;

      3) 计算图模型${G_1}$下节点的显著性值${{\pmb{f}}_1}={\left({{{{D}}_1} - \alpha {{{W}}_1}} \right)^{ - 1}}{\pmb{y}}$;

      4) 以超像素为节点构造图模型${G_2}$, 计算图模型${G_2}$的关联矩阵${{{W}}_2}$和度矩阵${{{D}}_{2}}$;

      5) 计算图模型${G_2}$下节点的显著性值${{\pmb{f}}_2} = {\left({{{{D}}_2} - \alpha {{{W}}_2}} \right)^{ - 1}}{\pmb{y}}$;

      6) 加权融合节点显著性值${{\pmb{f}}_1}$和${{\pmb{f}}_2}$得到显著性值${\pmb{f}}$, 生成初始显著图$S_{co}$;

      7) 对初始显著图进行优化, 得到最终的显著图$S$.

      输出:显著图$S$.

    • 本文涉及的流形排序问题又称为半监督回归问题[25], 是基于半监督学习分类领域的一个分支.流形排序可以简单描述为:给定正样本(或负样本), 通过排序值的大小, 判定某个样本与正样本(或负样本)的相似性, 依此对该样本进行分类.基于图模型的流形排序算法引进图模型刻画数据之间的关系, 使得数据的表达更加直观.

      基于图模型流形排序的图像显著性计算以超像素为节点构造图模型, 在图模型的基础上通过求目标函数的最小值计算每个节点相对于查询节点的排序值, 并将这个排序值定义为节点的显著性值.这里定义查询节点为已标记好的超像素节点, 例如将某个超像素节点标记为前景(或背景)节点.

      设图像中超像素个数为$n$,构造数据集 ${{X}} = \left\{ {{{{x}}_{\rm{1}}},{{{x}}_{\rm{2}}}, \cdots ,{{{x}}_n}} \right\}$, ${{X}} \in \,$${\bf R}$$^{{m \times n}}$,其中$m$表示超像素节点特征的维数, $n$表示超像素节点个数,其中一些节点被标记为查询节点.定义指示向量${\pmb{y}} = {[{y_1},{y_2}, \cdots ,{y_n}]^{{\rm{T}}}} \in \,$${\bf R}$$^{{n}}$,若${{{x}}_i}$为查询节点,则${y_i}=1$,否则${y_i}=0$. 定义排序函数$ {F}$: $X \to {\pmb{f}}={\left[ {{f_{\rm{1}}}, \cdots ,{f_n}} \right]^{\rm{T}}} \in {\bf R}^{{n}}$,排序函数$ F$将$m \times n$的数据集矩阵${{X}}$ 映射到$n$维向量$\pmb{f}$, 其中${f_{i}}$表示节点$i$相对于查询节点的排序值,即节点的显著值.在数据集${{X}}$ 上构建一个图模型${G} = \left( {{{X}},{{E}}} \right)$,其中数据集$X$是节点集,边集$E$是连接节点的边构成的集合,边的权值由关联矩阵${{W}} = {\left[ {{w_{ij}}} \right]_{n \times n}}$表示.定义${{D}} = {\mathop{\rm diag}\nolimits} \left\{ {{d_{11}},{d_{22}}, \cdots ,{d_{nn}}} \right\}$为图模型${G}$对应的度矩阵(Degree matrix),其中${d_{ii}} = \sum\nolimits_j {{w_{ij}}} $, $j=1,\cdots ,n.$根据流形排序的思想,排序值${\pmb{f}}$的最优解${{\pmb{f}}^{\bf{*}}}$ 通过以下的最优化问题得到[22]:

      $$ \begin{array}{l} {{\pmb{f}}^{\bf{*}}} = {\mkern 1mu} \arg \mathop {\min }\limits_f \frac{1}{2}\left( {{{\sum\limits_{i,j = 1}^n {{w_{ij}}\left\| {\frac{{{f_i}}}{{\sqrt {{d_{ii}}} }} - \frac{{{f_j}}}{{\sqrt {{d_{jj}}} }}} \right\|} }^2} + } \right.\\ \left. {\mu \sum\limits_{i = 1}^n {{{\left\| {{f_i} - {y_i}} \right\|}^2}} } \right) \end{array} $$ (1)

      其中参数$\mu$用来平衡平滑项(第一项)和拟合项(第二项).根据式(1)求得${\pmb{f}}$的最优解为:

      $$ \begin{equation} {{\pmb{f}}^{\bf{*}}} = {\left( {{{I}} - \alpha {{S}}} \right)^{ - 1}}{\pmb{y}} \end{equation} $$ (2)

      其中$I$为单位矩阵, 参数$\alpha = 1/ \left({1 + \mu } \right)$, $S$是归一化的拉普拉斯矩阵${{S}} = {{{D}}^{ - 1/2}}{{W}}{{{D}}^{ - 1/2}}$.利用非归一化的拉普拉斯矩阵, 得到${{\pmb{f}}^{\bf{*}}}$的另一种形式:

      $$ \begin{equation} {{\pmb{f}}^{\bf{*}}} = {\left( {{{D}} - \alpha {{W}}} \right)^{ - 1}}{\pmb{y}} \end{equation} $$ (3)

      文献[22]中通过实验验证, 式(3)比式(2)得到的显著图更准确.本文利用式(3)计算每个节点的排序值即显著性值${f_i}$.令${{A}} = {\left({{{D}} - \alpha {{W}}} \right)^{ - 1}}$, 则${{\pmb{f}}^{\bf{*}}} ={{A}}{\pmb{y}}$, 当计算${{\pmb{f}}^{\bf{*}}}$时, 需要将$A$的对角线元素置为0, 否则得到的${{\pmb{f}}^{\bf{*}}}$中将包含节点到自身的排序值, 这是一个无意义的值并且会影响最终的排序结果.

      基于图模型流形排序的显著性检测算法中, 查询节点的选择是一个关键的问题. MR算法利用背景先验, 假设图像边界为背景区域, 将图像边界节点设置为查询节点, 利用式(3)计算每个节点$i$相对于背景节点的排序值$f_i^*$, 则节点的显著性值为$1 - f_i^*$.目前基于背景先验的显著性检测算法大多利用边界假设, 即假设图像边界为背景区域, 生成背景模板, 并根据背景模板计算图像的显著图, 这些算法大都会遇到背景鉴别这个具有挑战性的问题.其中一些算法通过不同的方法优化背景模板, RBD (Robust background detection)算法[26]通过定义节点的边界连接性判定边界节点属于背景的可能性大小, 边界连接性越大的节点, 其属于背景的可能性越大. BFSS算法[13]则是通过定义节点的边界概率选择背景节点, 节点的边界概率越大, 越有可能属于背景. UILSG (Updating initial labels from spectral graph)算法[27]通过一个边界节点分类机制筛选真正的背景节点.这些算法在一定程度上解决了背景鉴别的问题, 但是仍然是基于边界假设的思想, 当显著目标位于图像边界时, 算法会失效.为了解决这个问题, 本文采用全局前景假设的思想, 将所有的节点作为查询节点, 即在利用式(3)计算节点的显著性值时, 假设所有的节点为前景节点, 设置节点指示向量${\pmb{y}} = {\left[{1, \cdots, 1} \right]^{\rm{T}}}$, 将${\pmb{y}}$代入式(3)计算节点的显著性值.将所有的节点设置为查询节点, 避免了背景鉴别的问题, 检测到的显著目标更加完整.图 1显示了MR算法和本文算法分别利用边界假设和全局前景假设生成的显著图, 其中图 1(a)为原图, 图 1(b)是人工标注图Ground-truth, 简称GT, 图 1(c)为MR算法中利用边界假设生成的显著图, 图 1(d)为MR算法中利用全局前景假设生成的显著图, 图 1(e)为本文算法中利用边界假设生成的显著图, 图 1(f)为本文算法中利用全局前景假设生成的显著图.从图中可以看出利用全局前景假设得到的显著目标更加完整.

      图  1  全局前景假设和边界先验的比较

      Figure 1.  Comparison of global foreground prior and background prior

    • 在基于图模型的显著性检测算法中, 图模型的构造对显著图的计算至关重要.现有的基于图模型的显著性检测算法大多利用单一的图模型描述图像中不同区域之间的关系, 例如GS和MR算法都是以超像素为节点, 将空间相邻的节点进行连接构造图模型.然而在自然图像中, 不同区域之间往往具有复杂的关系, 仅使用单一的图模型并不能够准确地描述图像区域之间的关系. Li等[28]提出的MGL (Multi-graph learning)算法利用优化的多图模型学习进行显著目标检测, 该算法融合多个图模型刻画数据节点之间的关系, 但是这些图模型中节点之间的连接关系并没有变化, 只是边的权值不同, 仅改变图模型中边的权值并不能反映数据本身的特性, 在不同的特征下, 节点之间的连接性也是不同的. Zhang等[29]提出的GBOF (Graph-based optimization framework)算法通过构造两个图模型并计算不同图模型下的权值矩阵, 从不同的角度刻画节点之间的连接性. GBOF的图模型分别是利用阈值法查找邻接点的颜色特征图模型和基于K正则图模型的位置特征图模型, 颜色特征图模型利用设定的阈值寻找每个节点的邻接节点, 当阈值设置不合适时, 会产生孤立节点, 影响显著目标的检测结果.位置图模型与MR算法一致, 两类图模型融合时利用图模型的权值矩阵, 通过最小化能量函数得到节点相对于查询节点的排序值, 进而生成显著图.

      在基于图模型的显著性检测算法中, 图模型需要能够体现数据节点之间的连接性.常用的构图方法有K正则图、KNN图、全连接图和$\varepsilon$-图. K正则图构造方式简单, 且具有对称性, 可以用于描述超像素节点的空间位置特性. KNN图与$\varepsilon$-图都可以用于刻画节点之间基于颜色特征的连接性, KNN图模型是根据节点之间的颜色差异寻找每个节点的$K$个邻接节点, $\varepsilon$-图是根据阈值寻找每个节点的近邻节点, 但是如果阈值设置不准确, $\varepsilon$-图构造的图模型中会产生孤立点, 影响算法的性能, 所以本文使用KNN图模型刻画节点之间基于颜色特性的连接性.全连接图指的是将图模型中所有的节点两两相连, 不能准确地体现不同节点之间的连接关系.

    • 颜色是自然图像中的重要信息, 颜色相似的区域很可能属于同一个物体, 本文基于颜色特征构造KNN图模型作为图模型${G_1} = \left({{{{V}}_1}, {{{E}}_1}} \right)$.在KNN图中每个节点只与它在某个距离测度下的$K$个近邻节点相连. KNN图模型能够自适应地反映节点在特征空间中的分布特性, 在高密度区域, KNN图的半径变小; 在低密度区域, KNN图的半径变大[30], 这种能够自动适应节点分布特性的优点, 使得KNN图能够很好地拟合节点在颜色特征下的分布特性, 因而可以刻画节点在颜色特征下的连接性.

      本文提取CIELAB颜色空间中超像素块所包含的像素点的颜色特征均值作为节点的颜色特征${\pmb{c}} = {\left({l, a, b} \right)^{\rm{T}}}$, 提取超像素块所包含的像素点的空间位置特征均值作为节点的空间位置特征${\pmb{z}} = {\left({x, y} \right)^{\rm{T}}}$.定义$dist\left({{{\pmb{c}}_i}, {{\pmb{c}}_j}} \right)$为超像素$i$和$j$之间的颜色距离, 其中${{\pmb{c}}_i}$和${{\pmb{c}}_j}$表示超像素$i$和$j$的颜色特征; 定义$dist\left({{{\pmb{z}}_i}, {{\pmb{z}}_j}} \right)$为超像素$i$和$j$之间的空间位置距离, 其中${{\pmb{z}}_i}$和${{\pmb{z}}_j}$表示超像素$i$和$j$的空间位置特征. KNN图模型中, 如果仅使用颜色距离$dist\left({{{\pmb{c}}_i}, {{\pmb{c}}_j}} \right)$寻找每个节点的近邻节点, 而不考虑相邻节点之间的连接性, 这样构造出的${G_1}$图模型生成的显著图中显著目标内部不均匀; 如果仅使用空间位置距离$dist\left({{{\pmb{z}}_i}, {{\pmb{z}}_j}} \right)$寻找每个节点的近邻节点, 构造出的${G_1}$图模型生成的显著图中背景与显著目标边界不明确, 并且会错误地突出背景区域, 所以本文在寻找近邻节点时利用式(4)的距离度量方式:

      $$ \begin{equation} dist\left( {i, j} \right) = {\lambda _z}dist\left( {{{\pmb{z}}_i}, {{\pmb{z}}_j}} \right) + {\lambda _c}dist\left( {{{\pmb{c}}_i}, {{\pmb{c}}_j}} \right) \end{equation} $$ (4)

      式(4)中利用欧氏距离度量两节点之间的空间位置距离$dist\left({{{\pmb{z}}_i}, {{\pmb{z}}_j}} \right)$和颜色距离$dist\left({{{\pmb{c}}_i}, {{\pmb{c}}_j}} \right)$, 其中${\lambda _z}$和${\lambda _c}$表示权重, 用来调节空间位置距离$dist\left({{{\pmb{z}}_i}, {{\pmb{z}}_j}} \right)$和颜色距离$dist\left({{{\pmb{c}}_i}, {{\pmb{c}}_j}} \right)$对总距离$dist\left({i, j} \right)$的影响, $dist\left({{{\pmb{z}}_i}, {{\pmb{z}}_j}} \right)$和$dist\left({{{\pmb{c}}_i}, {{\pmb{c}}_j}} \right)$的定义如下:

      $$ \begin{array}{l} dist\left( {{{\pmb{z}}_i}, {{\pmb{z}}_j}} \right) = {\left\| {{{\pmb{z}}_i} - {{\pmb{z}}_j}} \right\|_2}\\ dist\left( {{{\pmb{c}}_i}, {{\pmb{c}}_j}} \right) = {\left\| {{{\pmb{c}}_i} - {{\pmb{c}}_j}} \right\|_2} \end{array} $$ (5)

      计算超像素$i$与其他超像素之间的距离$dist\left({i, j} \right)$, $j = 1, 2, \cdots, n$, $i \ne j$, 根据$dist$值寻找超像素$i$的$K$个近邻超像素.利用式(4)搜索得到近邻节点, 既考虑了节点之间颜色特征的相似性又考虑了节点之间空间位置的连接性, 不仅能够限制颜色相近但位置相距较远的节点之间的连接性, 又能够提高颜色差异较大但是位置相距较近的节点之间的连接性.

      这里考虑节点位于图像的内部和位于图像边界区域两种情况, 当节点位于图像内部时, 在节点$i$与它的$K$个近邻节点$j$之间构造一条有向边${e_{ij}} \in {{{E}}_1}_{, {\rm{Inner}}}$, ${{{E}}_1}_{, {\rm{Inner}}}$为有向边集合, 有向边的权值定义为:

      $$ \begin{equation} \begin{split} W_{1, {\rm{Inner}}}\left( {{{{e}}_{ij}}} \right) = \exp \left( \frac {-dist \left( \pmb{c}_i-\pmb{c}_j \right)}{2{\sigma ^2}} \right), \\ {e_{ij}} \in {{{E}}_{1, {\rm{Inner}}}} \end{split} \end{equation} $$ (6)

      其中$σ$是一个常数, 用来控制权值的强度.

      由于图像的边界区域大多属于背景区域, 在KNN图模型的基础上, 本文将边界节点两两连接.边界节点指的是当超像素中包含图像边界像素时, 则该超像素节点被定义为边界节点.将图像的任意两个边界节点$i$和$j$之间构造两条有向边, 分别为从节点$i$指向节点$j$的有向边${{{e}}_{ij}}$和从节点$j$指向节点$i$的有向边$e_{ji}$, 其中$e_{ij}, e_{ji} \in {{{E}}_{1, {\rm{Boundary}}}}$, ${{{E}}_{1, {\rm{Boundary}}}}$为有向边集合, 集合${{{E}}_1}_{, {\rm{Boundary}}}$中的有向边上的权值定义为:

      $$ \begin{equation} \begin{split} W_{1, {\rm{Boundary}}}\left( {{{{e}}_{ij}}} \right) = \exp \left( \frac {-dist \left( \pmb{z}_i-\pmb{z}_j \right)}{2{\sigma ^2}} \right), \\ {e_{ij}} \in {{{E}}_{1, {\rm{Boundary}}}} \end{split} \end{equation} $$ (7)

      与式(5)中将$dist\left({{{\pmb{z}}_i}, {{\pmb{z}}_j}} \right)$定义为欧氏距离的方式不同, 这里根据文献[29], 将式(7)中两节点之间的空间位置距离$dist\left({{{\pmb{z}}_i}, {{\pmb{z}}_j}} \right)$重新定义为:

      $$ \begin{align} &dist\left( {{{\pmb{z}}_i}, {{\pmb{z}}_j}} \right) = \nonumber\\&\qquad \sqrt {\sin^2 {{\left( {\pi \left| {{x_i} - {x_j}} \right|} \right)}} + \sin^2 {{\left( {\pi \left| {{y_i} - {y_j}} \right|} \right)}}} \end{align} $$ (8)

      其中${{\pmb{z}}_i} = \left({{x_i}, {y_i}} \right)$, ${{\pmb{z}}_j} = \left({{x_j}, {y_j}} \right)$, 通过式(8)能够控制两节点空间位置距离$dist\left({{{\pmb{z}}_i}, {{\pmb{z}}_j}} \right)$的上界.在式(7)中如果依然利用式(5)中定义$dist\left({{{\pmb{z}}_i}, {{\pmb{z}}_j}} \right)$的方式, 当两个节点在空间上相距较远, 但是颜色相似时, 利用式(5)计算得到的$dist\left({{{\pmb{z}}_i}, {{\pmb{z}}_j}} \right)$较大, 这两个节点很有可能被分到不同的类中(前景或背景).实际上图像边界上的节点大多属于同一类(背景类), 例如天空, 草地等.采用式(8)计算这两个节点之间的空间位置距离$dist\left({{{\pmb{z}}_i}, {{\pmb{z}}_j}} \right)$会得到一个较小的值, 将式(8)代入式(7)中能够得到一个较大的值, 意味着这两个节点之间有较大的相似性, 那么这两个节点被分到同一类的概率增大.

      综上所述, $G_1$图模型中边的权值为:

      $$ \begin{equation} W_1{\left( {{e_{ij}}} \right)} = \left\{ \begin{array}{l} {W_{1, {\rm{Inner}}}}\left( {{e_{ij}}} \right), {e_{ij}} \in {{{E}}_1}_{, {\rm{Inner}}}\\ {W_{1, {\rm{Boundary}}}}\left( {{e_{ij}}} \right), {e_{ij}} \in {{{E}}_{1, {\rm{Boundary}}}} \end{array} \right. \end{equation} $$ (9)
    • 在自然图像中位置相近的图像区域属于同一类区域(前景或背景区域)的概率很大.与文献[22]中构造图模型的方法相同, 这里将空间位置相近的节点进行连接, 利用K正则图(K regular graph)构造${G_2} = \left({{{{V}}_2}{{, \, }}~{{{E}}_2}} \right)$图模型.在$G_2$图模型中每个节点不仅与它的相邻节点连接, 并且和与它相邻节点有共同边界的节点进行连接.根据中心偏置原理, 显著目标大多位于图像中心, 图像的边界区域很可能属于同一区域(背景区域), 故与$G_1$图模型的构造方式类似, 在$G_2$中本文也将图像的边界节点两两连接, 加强边界节点之间的连接性. $G_2$图模型中边的权值为:

      $$ \begin{equation} {W_2}\left( {{{{e}}_{ij}}} \right) = \left\{ \begin{array}{l} \exp \left( \frac {-dist \left( \pmb{c}_i-\pmb{c}_j \right)}{2{\sigma ^2}} \right), {e_{ij}} \in {{{E}}_2}\\ 0 , \qquad \qquad \qquad \quad {e_{ij}} \notin {{{E}}_2} \end{array} \right. \end{equation} $$ (10)
    • 图模型$G_1$将颜色相近的节点连接起来, 得到的显著图能够比较完整地突出显著目标, 但是存在显著目标内部不均匀或者显著目标不能一致高亮的问题; $G_2$模型中将位置相近的节点连接起来, 得到的显著图能够使显著目标的内部一致高亮, 但是显著图中存在突出背景区域, 显著目标与背景区域边界不清晰的问题.如图 2所示, 图 2(a)为原图, 图 2(b)为GT, 图 2(c)为超像素分割图像, 图 2(d)为仅利用$G_1$图模型生成的显著图, 图 2(e)为仅使用$G_2$图模型生成的显著图, 图 2(f)为$G_1$和$G_2$融合生成的显著图.从图 2(d)中可以看出检测到的显著目标虽然比较完整且边界清晰, 但其内部没有均匀一致高亮; 图 2(e)中尽管显著目标内部均匀一致高亮但是背景噪声明显.故本文提出了一种融合方式, 将这两种图模型得到的节点的显著性值在节点级上进行融合, 即在两种图模型中, 分别利用第1.1节中的式(3)计算节点的显著性值, 记为${{\pmb{f}}_1}$和${{\pmb{f}}_2}$, 将${{\pmb{f}}_1}$和${{\pmb{f}}_2}$进行加权融合, 得到超像素最终的显著性值:

      图  2  不同图模型生成的显著图比较

      Figure 2.  Comparison of saliency maps obtained by different graphs

      $$ \begin{equation} {\pmb{f}} = {\mu _1}\times{{\pmb{f}}_1} + {\mu _2}\times{{\pmb{f}}_2}, \text{且} \;{\mu _1} + {\mu _2} = 1 \end{equation} $$ (11)

      其中${\pmb{f}} = {\left({{f_1}, {f_2}, \cdots, {f_n}} \right)^{\rm{T}}}$, ${f_i}$表示超像素$i$的显著性值, $i = 1, 2, \cdots, n$.从图 2(f)中可以看出检测到的显著目标内部不仅一致均匀突出, 并且滤除了部分背景噪声.

    • 利用第1.3节中式(11)计算超像素的显著性值${\pmb{f}}\, {\rm{ = }}\, {\left({{f_1}, {f_2}, \cdots, {f_n}} \right)^{\rm{T}}}$, 其中${f_i}$表示第$i$个超像素的显著性值, $i = 1, 2, \cdots, n$, 将显著性值赋给超像素$i$所包含的所有像素作为每个像素的显著性值, 这样得到一个全分辨率的与原图像大小相等的初始显著图$S_{co}$.

      由于显著目标大多处于图像的中央, 并且位于图像中央的区域更能引起人们的关注, 故本文引进中心先验图加强初始显著图$S_{co}$中显著目标的亮度.由于初始显著图$S_{co}$的边界中存在一些噪声, 为了进一步滤除背景噪声, 本文引入边界抑制操作对初始显著图$S_{co}$进行优化.首先, 根据中心先验思想对图像中心进行加强, 利用关于图像中心的各向同性的对称高斯模型模拟图像的中心先验图[31]:

      $$ \begin{equation} {S_{ce}} = \exp \left( -\frac{{\left(x_i-x_0\right)}^2}{2\sigma _x^2}-\frac{{\left(y_i-y_0\right)}^2}{2\sigma _y^2}\right) \end{equation} $$ (12)

      其中${x_i}$和${y_i}$是像素的水平和垂直坐标, ${x_0}$和${y_0}$是图像中心像素的水平和垂直坐标, ${\sigma _x}$和${\sigma _y}$分别代表水平方向和垂直方向上的方差, ${\sigma _x}$和${\sigma _y}$取值相同.将中心先验图$S_{ce}$与初始显著图$S_{co}$进行融合得到优化后的显著图:

      $$ \begin{equation} {{S}} = {S_{ce} \cdot S_{co}} \end{equation} $$ (13)

      式(13)中"$\cdot$"表示点乘, 即将$S_{co}$与$S_{ce}$两幅显著图中对应像素点的显著值逐个相乘, 得到显著图$S$中对应像素的显著值.

      其次, 在显著图$S$的基础上, 通过MATLAB中的imclearborder函数的边界抑制操作抑制$S$中与边界相连的高亮区域的亮度, 即将与边界相连的且面积较小的高亮区域的亮度降低, 以进一步去除背景噪声, 得到优化的显著图.

    • 为了验证本文方法的有效性, 将本文提出的方法在MSRA-10K[32]、SED2[33]和ECSSD[34]这三个公开的数据集上进行测试. MSRA-10K数据库是目前该领域最常用的一个数据库, 该库中共包含10 000张图像.数据库中的图像显著目标的种类繁多, 但是大多数只包含一个显著目标, 并且图像的背景相对简单. SED2数据库包含100张图像, 每张图像中包含两个显著目标. ECSSD数据库包含1 000幅内容丰富且背景复杂的图像.这三个数据库都提供了人工标记的二值图像作为GT, 以便于评价显著图的性能.

      对于本文方法所涉及的参数, 由于数据库中的图像多为$400\times300$左右, 为了保证算法时间效率的同时又不影响检测结果, 本文将初始超像素个数设置为200.在构造KNN图模型时, 如果每个节点的邻接节点的个数$K$的取值太小会影响目标内部的完整性, $K$取值太大会检测到较多的噪声, 实验中选取了多种$K$值进行对比实验, 结果显示当$K=5$时, 实验结果最好.在式(4)中, $\lambda _z$和$\lambda _c$分别用来控制位置特征与颜色特征在距离公式中所占的权重, 当$\lambda _z$过大时, 检测到的显著目标边界不明确, 当$\lambda _z$过小时, 显著目标内部不完整, 实验中设置多组$\lambda _z$与$\lambda _c$的值, 当$\lambda _z=0.5$, $\lambda _c=1$实验结果最好, 故本文中设置$\lambda _z = 0.5$, $\lambda _c=1$.式(6)、(7)和(10)中的$\sigma ^2$均设置为经验值0.05.式(11)中的$\mu _1$和$\mu _2$分别用来控制不同图模型下超像素块的显著性值融合时的权重, 实验中选取了多组$\mu _1$和$\mu _2$的值, 当$\mu _1=\mu _2=0.5$时实验结果最好.式(12)中$\sigma _x^2$和$\sigma _{{y}}^2$, 实验中选择多组参数值进行对比实验, 当$\sigma _x^2 = \sigma _y^2 = 141$实验结果最好.

      图像显著性检测方法很多, 本文选取14种常用的显著性检测算法进行对比, 这14种算法分别是基于全局对比度的HC和RC算法, 基于局部对比度的AC算法, 基于分层显著性融合的HS算法, 基于频域的SR算法、FT算法和MSS算法, 基于背景先验的GS算法, MR算法和BFSS算法, 基于随机游走的RW算法, 基于高维颜色转化的HDCT算法, 基于二值图拓扑分析的BMA算法和基于正则随机游走排序的RR算法.所用对比算法源码链接1和本文算法源码2可见相关网页. MR和GS算法都是基于图模型的显著性检测算法, MR是利用基于图模型的流形排序算法进行显著性检测, GS是基于图模型上的测地距离计算显著性.本文引入四种常用的评价指标评测提出的算法, 这四种指标分别是P-R (Precision-recall)曲线、ROC曲线、F-measure和AUC值[34].

      1 https://github.com/libozhao/saliency-detection-methods/blob/master/README.md

      2 https://github.com/libozhao/saliency

      1) P-R曲线

      P-R曲线是最常用的评价显著性检测算法优劣的指标.对于一幅显著图$S$, 将$S$中像素值归一化到[0, 1], 然后从0到1依次选取阈值对$S$进行二值化, 得到二值图像$M, GT$表示Ground-truth.根据式(14)计算查准率(Precision)和查全率(Recall):

      $$ \begin{equation} \begin{split} & {\rm{Precision}} = \frac{\left|M \cap GT \right|}{\left|M \right|}\\ & {\rm{Recall}} = \frac{\left|M \cap GT \right|}{\left|GT \right|}\\ \end{split} \end{equation} $$ (14)

      2) ROC曲线

      ROC曲线的绘制方式与P-R曲线类似, 对于显著图$S$, 将$S$调整到$[0, 1]$, 然后从0到1依次选取阈值对$S$进行二值化, 得到二值图像$M$, $GT$表示Ground-truth, $\overline {GT}$表示$GT$取反.根据式(15)计算真阳性率(TPR)和假阳性率(FPR):

      $$ \begin{equation} \begin{split} & {\rm{FPR}}=\frac{\left|M \cap GT \right|}{\left|M \cap GT \right|+\left|\overline {M} \cap \overline {GT} \right|}\\ & {\rm{TPR}}=\frac{\left|M \cap GT \right|}{\left|GT \right|} \end{split} \end{equation} $$ (15)

      相同真阳性率下, 假阳性率越小, 显著性检测算法越好.

      3) F-measure

      F-measure用来综合衡量查全率和查准率:

      $$ \begin{equation} \begin{split} {F_\beta} = \frac{{\left(1 + {\beta ^2}\right)}{\rm{Precision}} \times {\rm{Recall}}}{{\beta ^2}{\rm{Precision}}+{\rm{Recall}}} \end{split} \end{equation} $$ (16)

      式(16)中, $\beta$用来决定查全率和查准率的影响程度, 为了强调准确率的重要性, 通常${\beta ^2}$设置为0.3. F值越大表明显著性检测算法的性能越好.

      4) AUC值

      AUC值被定义为ROC曲线下面积, 即ROC曲线与$X$轴包围的面积. ROC曲线有较小的假阳性率和较大的真阳性率是最优的, 所以AUC值越大则表示显著性算法性能越好.

      本文首先使用一系列的固定阈值对数据库中所有图像在某个算法下的显著图进行二值化, 利用得到的二值图像与$GT$进行比较, 计算每幅显著图在不同阈值下的Precision和Recall, 然后在每个阈值下分别计算所有图像的Precision和Recall的平均值, 作为该阈值下的Precision和Recall绘制P-R曲线. ROC曲线的绘制方式与P-R曲线类似, 也是利用一系列的固定阈值.与Precision和Recall的计算方式不同, F值的计算方式是利用自适应阈值对每幅显著图进行二值化, 然后与$GT$进行比较, 计算每幅图像的F, 然后计算所有图像F的平均值, 作为该方法在该数据库上的F.

    • 为了验证多图模型的有效性, 本文分别在数据库MSRA-10K、SED2和ECSSD上进行了三组实验.这三组实验分别是仅利用K正则图模型生成显著图, 仅利用KNN图模型生成显著图, 以及融合两种模型计算得到的显著图, 并计算这三组实验的P、R和F值.表 1是在数据库MSRA-10K、SED2和ECSSD上的对比实验结果.表 1中K正则表示仅利用K正则图模型生成显著图, KNN表示仅利用KNN图模型生成显著图, K正则+ KNN表示将K正则图模型下生成的显著图与KNN模型下生成的显著图进行融合.

      表 1  K正则图模型、KNN图模型和K正则图模型+ KNN图模型比较

      Table 1.  The comparison of K regular graph, KNN graph, and K regular graph + KNN graph

      MSRA-10K SED2 ECSSD
      P R F P R F P R F
      K正则 0.8557 0.7705 0.7948 0.8293 0.6990 0.7524 0.7053 0.6950 0.6344
      KNN 0.8627 0.7468 0.7897 0.7918 0.6034 0.6837 0.7231 0.7229 0.6677
      K正则+ KNN 0.8723 0.7962 0.8228 0.8080 0.7253 0.7504 0.7279 0.7476 0.6828

      表 1的第2~4列和第8~10列可以看出在MSRA-10K和ECSSD数据库上, 与仅利用K正则图和KNN图模型的实验结果相比, 将K正则图和KNN图模型进行融合的实验结果优于仅利用单一图模型的实验结果.在SED2数据库中, 由于存在前景与背景颜色非常相似的图片, 在构造KNN图模型时, 会错误地将背景节点与前景节点连接起来, 故KNN图模型下生成的显著图准确率低于K正则图模型下生成的显著图.但是将K正则图模型与KNN图模型下生成的显著图进行融合, 结果优于仅利用KNN图模型生成的显著图, 如表 1第5~7列所示.故将两个图模型下生成的显著图进行融合能够改善实验结果.

    • 为了验证本文中全局前景假设的有效性, 本文在数据库MSRA-10K、SED2和ECSSD上分别进行对比实验, 在这三个数据库上分别利用边界假设生成显著图, 利用全局前景假设生成显著图, 并计算这两类显著图的P、R和F值记录在表 2中.表 2中"边界"表示利用边界假设生成的显著图. "全局"表示利用全局前景假设生成的显著图.

      表 2  边界假设和全局前景假设比较

      Table 2.  The comparison of boundary assumption and global foreground assumption

      MSRA-10K SED2 ECSSD
      P R F P R F P R F
      边界 0.8815 0.6670 0.7846 0.7267 0.4883 0.6156 0.7927 0.5830 0.6768
      全局 0.8723 0.7962 0.8228 0.8080 0.7253 0.7504 0.7279 0.7476 0.6828

      表 2可以看出, 利用全局前景假设生成的显著图在三个数据库上的R值平均提升31.0% F值平均提升8.6%, 优于利用边界假设生成的显著图.

    • 为了验证本文所用优化策略的有效性, 分别在数据库MSRA-10K、SED2和ECSSD上计算初始显著图与优化显著图, 并计算相应的P、R和F值将结果记录在表 3中.表 3中的"初始图"表示初始显著图, "优化图"表示优化后的显著图.

      表 3  初始显著图和优化后显著图的比较

      Table 3.  The comparison of original saliency maps and refined saliency maps

      MSRA-10K SED2 ECSSD
      P R F P R F P R F
      初始图 0.8723 0.7962 0.8228 0.8080 0.7253 0.7504 0.7279 0.7476 0.6828
      优化图 0.8796 0.7880 0.8327 0.8210 0.6729 0.7456 0.7587 0.7152 0.7034

      表 3第2~4列和第8~10列可以看出, 在MSRA-10K和ECSSD数据库上, 与初始显著图相比, 优化后的显著图在P值和F值上均有提升.数据库SED2中, 图片数量小并且存在大量显著目标靠近边界的图片, 在该数据库上优化后的显著图比初始显著图在F值上有所下降.但是在MSRA-10K和ECSSD上, 加入中心先验和边界抑制进行优化后, 实验结果中F值和P值均有所提升.由于大多数图像的显著目标处于图像的中央, 并且位于图像中央的区域更能引起人们的关注, 故本文引入优化策略对初始显著图进行优化.

    • 本文算法与其他的14种算法在MSRA-10K数据库上的部分实验结果的对比图见图 3.从图 3中可以看出, 基于对比度的HC和AC算法, 在背景与前景颜色相似时, 会错误地突出背景区域. FT和MSS算法, 虽然保留了比较完整的图像信息, 但是没有一致高亮显著目标. SR算法没有保留足够的高频信息, 导致显著目标的边界不清晰.当显著目标之间存在较大的差异时, MR算法会出现漏检的现象, 如图 3中MR算法的(a)、(b)所示; 当显著目标与边界相连或者与边界颜色相似时, 该算法会错误地突出背景区域, 如图 3中MR算法的(c)、(d)图像所示. RC和HS的检测结果相似, 基本能够准确地定位显著目标, 但是从图 3中的(d)、(e)可以看出RC和HS算法都存在错误突出背景区域的问题.当显著目标与背景颜色相似时, HDCT算法生成的显著图中不能正确地检测出显著目标, 如图 3中HDCT算法的(c)、(e)所示. BFSS算法也是基于边界假设的一种算法, 当显著目标与边界颜色相似时会错误地突出背景区域, 例如BFSS算法中的(d)、(e)所示. RW和BMA算法生成的显著图中显著目标的边界不清晰. RR算法生成的显著图中存在较多的背景噪声, 如图 3中的RR算法(d)和(e)所示, 当显著目标之间存在较大颜色差异时, RR算法存在漏检的现象, 如图 3中RR算法(a)和(b)所示.本文算法不仅能够准确地定位显著目标, 并且显著目标内部更加光滑, 边界更加清晰, 并且有效减少背景噪声.

      图  3  MSRA-10K数据库上实验结果

      Figure 3.  Experimental results on the MSRA-10K database

      为了更加客观地进行比较, 本文中利用P-R曲线、ROC曲线和F值进行定量对比.图 4是MSRA-10K数据库上各种算法的P-R曲线、ROC曲线和F值, 其中图 4(a)图 4(b)为P-R曲线, 图 4(c)图 4(d)为ROC曲线, 图 4(e)图 4(f)为F值.图 4中第一列表示本文算法与FT、GS、AC、MSS、HS、MR、RC、HC和SR算法的对比, 图 4中第二列表示本文所提算法与BFSS、RW、HDCT、BMA和RR算法的对比.在后文中图 6图 8中的排列方式同图 4.从图 4(a)(b)中可以看出本文算法的P-R曲线与MR、RC、HS和RR算法基本持平且优于其他算法.图 4(c)(d)中显示本文算法的ROC曲线优于其他算法. 图 4(e)中显示本文算法的查全率(Recall)高于MR算法低于GS算法, 查准率(Precision)略低于MR算法但高于GS算法.说明本文算法在保持较高查准率的同时, 能够比较完整地检测到图像的显著目标.

      图  4  MSRA-10K数据库上的P-R曲线、ROC曲线和F值

      Figure 4.  P-R curves, ROC curves, and F values on the MSRA-10K database

      图  6  SED2数据库上的P-R曲线、ROC曲线和F值

      Figure 6.  P-R curves, ROC curves, and F values on the SED2 database

      图  8  ECSSD数据库上的P-R曲线、ROC曲线和F值

      Figure 8.  P-R curves, ROC curves, and F values on the ECSSD database

    • SED2数据库中的图像大多含有两个显著目标, 并且有的显著目标靠近图像边界, 相比MSRA-10K数据库中只包含单个显著目标, SED2更具挑战性, 但是该数据库中的图片背景比较简单.图 5是SED2数据库上的部分实验结果对比图.从图 5中可以看出, HC和RC算法生成的显著图背景噪声较多, 显著目标的边界不明确. AC、SR、FT和MSS算法没有突出显著目标.基于背景先验的MR算法, 当显著目标靠近边界时, 会将显著目标错误的检测为背景, 并且存在漏检的现象. GS算法也存在与MR相似的问题, 并且生成的显著图中背景噪声较多. HDCT算法基本能够准确地定位显著目标, 但是当显著目标比较大时, 算法会失效, 如图 5中HDCT算法的(d)所示.当显著目标与边界相连或者靠近边界时, BFSS算法会错误地突出背景区域. BMA算法生成的显著图没有突出显著目标, 如图 5中BMA算法所示. RR算法检测到的显著目标不完整, 如图 5中的RR算法(c)和(d)所示.本文算法得到的显著目标不仅一致均匀, 并且显著图中背景噪声相对较少.

      图  5  SED2数据库上实验结果

      Figure 5.  Experimental results on the SED2 database

      图 6是SED2数据库上的P-R、ROC曲线和F值.图 6(a)中显示, 在该数据库上, 除了SR的P-R曲线比较低以外, 其他9种算法的P-R曲线比较接近, HS的P-R曲线最高, 本文算法略低于HS.图 6(b)中显示, 本文算法的P-R曲线与BFSS、RW、HDCT算法基本持平. 图 6(c)显示, 除了SR的ROC曲线比较低以外, 其他的曲线比较接近.图 6(d)显示本文算法的ROC曲线于其他5个算法基本持平.图 6(e)显示本文算法的查准略低于最高的MSS算法; 图 6(f)显示本文算法的查准率略低于HDCT算法.由于该数据库中存在显著目标非常小的图片, 本文算法计算该种图片的显著图时, 在利用SLIC算法对原始图像进行超像素分割时可能会将显著目标与背景区域分割到同一超像素块中, 故本文算法在该数据库中的查全率低于基于像素点对比度的HC算法, 但是由于引进了基于颜色特征的KNN图模型, 本文算法的查全率高于MR算法.通过比较发现本文算法在该数据库上保持高查准率的同时能够较完整地突出显著目标.

    • ECSSD数据库中的图片不仅背景复杂, 并且显著目标的纹理也很复杂.比MSRA-10K和SED2更具挑战性.图 7是ECSSD数据库上实验结果的对比图. 图 7中第(a)行的原始图像中显著目标与背景中的深色草地部分颜色相似, 除了GS和本文算法外, 其他的算法都突出了部分背景区域或者没有完整突出显著目标.与GS相比, 本文算法的显著目标内部更加均匀; 图 7第(b)行中, MR算法只突出了部分显著目标; 图 7第(c)行中显著目标纹理比较复杂, 只有MR、GS和本文算法能够比较均匀地突出显著目标, 但是本文算法的显著目标内部更加光滑完整; 图 7第(d)行中显著目标颜色与背景相近, 只有RC、MR和本文算法能够比较好地突出显著目标; 图 7第(e)行的原始图像中显著目标各部分颜色差异较大, 本文算法相对完整地突出了显著目标.

      图  7  ECSSD数据库上实验结果

      Figure 7.  Experimental results on the ECSSD database

      图 8是该数据库上不同算法的P-R曲线、ROC曲线和F值.从图 8(a)(b)(c)(d)可以看出本文算法的P-R曲线和ROC曲线都是该数据库上最高的.无论从P-R曲线还是ROC曲线都可以看出, 本文算法优于当前流行的14种算法.图 8(e)(f)可以看出本文算法的F值是该数据库上最高的, 表明本文算法能够比较准确地检测显著目标, 并且显著目标更加完整.

      表 4是各种算法在不同数据库上的AUC值和F值, 从表 4第2列和第5列可以看出本文算法在MSRA-10K数据库上的AUC值为0.9532, F值为0.8327, 这两个指标都是该数据库上最优的.从表 4第3列和第6列可以看出本文算法在SED2数据库上的AUC值达到0.8937, F值达到0.7456.从表 4第4列和第7列可以看出本文算法在ECSSD数据库上的AUC值达到0.9114, F值达到0.7034, 这两个指标都是该数据库上最优的.通过以上的比较发现, 本文算法能够准确地检测出显著目标, 并且能够一致均匀地突出显著目标.

      表 4  各种方法在不同数据库上的AUC值和F值

      Table 4.  The AUC and F values of the various methods on different databases

      AUC值 F值
      MSRA-10K SED2 ECSSD MSRA-10K SED2 ECSSD
      HC[8] 0.8589 0.8839 0.7022 0.6370 0.7113 0.4186
      RC[8] 0.9406 0.8580 0.8919 0.8150 0.7151 0.6802
      AC[6] 0.7767 0.8430 0.6750 0.5636 0.7012 0.4026
      HS[7] 0.9353 0.8960 0.8833 0.8128 0.7298 0.6657
      SR[12] 0.6716 0.7290 0.6054 0.3454 0.4307 0.3001
      FT[10] 0.7797 0.8310 0.6591 0.5884 0.6872 0.3959
      MSS[11] 0.8607 0.8768 0.7678 0.6549 0.7125 0.4918
      MR[22] 0.9404 0.8618 0.8858 0.8219 0.7227 0.6868
      GS[18] 0.9527 0.9055 0.8834 0.7987 0.7546 0.6268
      BFSS[13] 0.8807 0.8932 0.8625 0.7570 0.7755 0.6080
      RW[20] 0.3976 0.8364 0.7252 0.4614 0.4868 0.3746
      HDCT[14] 0.8483 0.9036 0.8644 0.8143 0.7804 0.6673
      BMA[15] 0.8605 0.8825 0.7762 0.6318 0.5980 0.4927
      RR[21] 0.9423 0.8674 0.8887 0.8219 0.7197 0.6882
      本文算法 0.9532 0.8937 0.9114 0.8327 0.7456 0.7034

      本文算法采用MATLAB R2014b编程实现, 系统环境为Windows10, CPU频率为3.6 GHZ, 8 GB内存.表 5为不同算法在该实验环境下运行数据库ECSSD、SED2上所有图片和MSRA-10K上前1 000张图片所用时间的平均值.从表 5中可以看出本文算法的平均运行时间为1.30秒, 结合本文算法的检测效果, 本文提出的算法具有优越性.

      表 5  各种方法平均运行时间

      Table 5.  The average runtimes of different methods

      SR FT MSS MR GS BFSS RW BMA RR HS HC RC AC HDCT Ours
      MATLAB 0.02 0.04 1.04 1.10 0.21 7.25 1.33 0.002 1.70 1.30
      C++ 0.39 0.01 0.25 0.18 4.12
    • 本文提出了一个基于多图流形排序的图像显著性检测算法.该算法分别利用超像素的位置特征和颜色特征, 基于K正则图和KNN图构造两类图模型, 分别在两种图模型上利用流形排序算法计算超像素的显著性值, 并将每个图模型下得到的超像素的显著性值进行加权融合得到超像素最终的显著性值.本文将提出的算法与当前流行的14种算法在MSRA-10K、SED2和ECSSD数据库上进行了对比, 无论是在视觉效果上还是在定量指标上, 本文算法都具有明显优势.针对背景与前景颜色相似的图片, 本文算法的检测效果需要进一步提高, 未来考虑提取更多的特征比如超像素的形状特征, 并结合流形排序算法提取更加准确的显著目标.

参考文献 (34)

目录

    /

    返回文章
    返回