-
摘要: 图像质量评价(Image quality assessment, IQA)的目标是利用设计的计算模型得到与主观评价一致的结果,而人类视觉感知特性是感知图像质量评价的关键.大量研究发现,认知流形和拓扑连续性是人类感知的基础即人类感知局限在低维流形之上.基于图像低维流形特征分析,本文提出了基于流形特征相似度(Manifold feature similarity, MFS)的全参考图像质量评价方法.首先,利用正交局部保持投影算法来模拟大脑的视觉处理过程获取最佳映射矩阵进而得到图像的低维流形特征,通过流形特征的相似度来表征两幅图像的结构差异,从而反映感知质量上的差异.其次,考虑亮度失真对人眼视觉感知的影响,通过图像块均值计算亮度相似度并用于评价图像的亮度失真;最后,结合两个相似度得到图像的客观质量评价值.在四个公开图像测试库上的实验结果表明,所提出方法与现有代表性的图像质量方法相比总体上具有更好的评价结果.Abstract: Image quality assessment (IQA) aims to use computational models to measure the image quality in consistency with subjective evaluation, and human visual perception characteristics play an important role in the design of IQA metrics. From many researches on human visual perception, it has been found that the cognitive manifolds and the topological continuity can be used to describe the human visual perception, that is, human perception lies on the low-dimensional manifold. With this inspiration and manifold analysis of image, a new IQA metric called manifold feature similarity (MFS) is proposed for full-reference image quality assessment. First, orthogonal locality preserving projection algorithm is used to simulate the brain's visual processing process to obtain the best projection matrix so that low-dimensional manifold features of images are obtained. And the similarity of the manifold features is used to measure the structure differences between the two images so as to reflect differences in perceived quality and get a manifold features-based image quality index. Then, to consider the impact of brightness on human visual perception, the block mean values of the image are used to calculate the distortion of the image's brightness and design a brightness-based image quality index. The final quality score is obtained by incorporating these two indices. Extensive experiments on four large scale benchmark databases demonstrate that the proposed IQA metric works better than all state-of-the-art IQA metrics in terms of prediction accuracy.
-
分类问题是机器学习的一个主要领域,其目标是通过对于给定数据集的学习,获得能够对未来数据进行有效分类的分类器 [1]. 基于不同的构造思路,已经有很多分类学习方法得到了深入的研究和广泛的应用,如贝叶斯方法、决策树方法、神经网络等.其中,支持向量机(Support vector machine,SVM) [2] 作为其中比较好的分类方法,得到了广泛的关注和应用. SVM将数据空间的数据通过映射到高维的特征空间,并在特征空间里面利用超平面作为决策平面,因此具有了稀疏性、效率高、准确性高等特点 [1-3].
最小二乘支持向量机(Least squares support vector machine,LS-SVM) [4]作为SVM的一种主要变形,通过将SVM中的罚函数替换为二次函数并将约 束条件转化为等式约束,使得LS-SVM的解可以通过求解一个线性系统来得到,简化了求解过程.实验表明,LS-SVM在实际应用中具有和SVM相类似的泛化能力,因此在很多领域取得广泛的应用 [5]. 但是,随着训练集数据量的增加,LS-SVM的弱点也越来越突出地表现出来.由于LS-SVM的支持向量几乎包含了全 部训练集的数据,随着数据量的增加,计算用时也会大量增加,从而限制了LS-SVM的进一步应用.因此,对LS-SVM进行支持向量数量的消减,继续保持SVMs的稀疏性特征,是LS-SVM适应新的要求必须要研究的问题 [6-8].
在LS-SVM稀疏化的研究中,基于迭代过程形成稀疏LS-SVM的支持向量集是目前研究的主要思路,可以分为删除式稀疏化方法和增量式稀疏化方法. 2000年,Suykens 等 [6]首先利用删除式稀疏化方法对LS-SVM进行稀疏化.在稀疏化过程中,每一步将支持向量集中最靠近当前决策超平面的若干个支持向量进行消减. 但是由于每次都要根据当前支持向量集进行求解线性系统,因此,在数据量较大的时候,其计算复杂性会非常高.随后,Suykens等 [7]在支持向量的选择中不仅考虑了LS-SVM模型的最优化,同时考虑了泛化能力. 在文献 [8]中,选择被消减支持向量的准则变为寻找并消减具有最小偏差的点,进一步提高了消减后的准确性. Hoegaerts等 [9]在文献[6]的基础上提出了一种轻量级变种稀疏化算法并改进了原算法的性能. 文献 [10] 在序列最小优化求解LS-SVM算法基础上,在每一步迭代中,将影响对偶目标函数值最小的数据点进行消减,从而达到稀疏化的目标. Carvalho等 [11]给出了一个两阶段消减算法,在已知LS-SVM决策超平面的前提下,利用碎片化指标度量每个支持向量的可消减性,进而进行稀疏化. de Brabanter等 [12]使用基于熵核频带宽度选择策略和快速交叉验证方法,对LS-SVM进行消减. Kars-makers等 [13]利用过决定线性系统的稀疏共轭方向寻踪稀疏化方法来对LS-SVM进行支持向量集的消减并取得了良好的效果. Lopez等 [14]在文献 [15]对 $L_0$ 范式进行迭代优化的基础上,将分类LS-SVM和回归LS-SVM都统一在一个稀疏化算法中. Liu等 [16]和Wei等 [17]在引入适应性Lp LS-SVM的基础上,用进化算法对其求解以实现LS-SVM的稀疏化.增量式稀疏化LS-SVM的研究也出现了许多成果. Jiao等 [18]在建立基于核的支持向量词典基础上,每次都将一个基本支持向量加入到支持向量集合中,在控制计算复杂度的前提下取得了良好的效果. Zhao等 [19]在假设后增加支持向量不影响当前支持向量的前提下,构造了一个增量式LS-SVM稀疏化算法,从空集开始,每一次都将剩余数据点中使得目标函数增长最少的点作为支持向量加入支持向量集中. Yang等 [20]利用迭代方法,在尽量保持信息不损失的情况下,交替使用增加和减少支持向量数量的方法,达到对LS-SVM的稀疏化的目标. Zhao等 [21]在文献[19]的基础上考虑到支持向量集变化对非支持向量的影响,通过重新计算剩余数据点对目标函数下降的贡献,选择其中使得目标函数下降最大的数据点进入支持向量集.除了传统稀疏化方法以外,数据压缩传感理论也被应用到了LS-SVM 的稀疏化上. Yang等 [22]提出了使用正交匹配追踪算法对训练数据集进行压缩,从而实现LS-SVM 的稀疏化. Yang等 [23]在上述研究的基础上,用非随机矩阵代替原有的随机高斯矩阵,进一步提高了算法的效率.从目前的研究来看,基于迭代的算法依然是主要研究的方向,但是存在计算复杂性较高,在数据量大的时候,其表现不能满足实际要求的情况.综上所述,LS-SVM的稀疏化是从原来几乎包含所有训练数据点的支持向量集中选择若干数据点,并通过计算使得基于选择数据点的决策超平面具有类似于未稀疏化LS-SVM的泛化能力. 因此,LS-SVM的稀疏化可以看作是数据点抽取并求解近似决策超平面的过程.基于数据 点抽取的思路,在本文中我们给出了一种非迭代的LS-SVM稀疏化方法.
在本文中,我们首先给出了基于支持向量数量约束的LS-SVM稀疏化优化模型.在此基础上,提出基于数据特征空间全局代表性的支持向量集非迭代选择策略,并提出了基于全局代表点的LS-SVM稀疏化算法(Global-representation-based sparse least squares support vector machine,GRS-LSSVM).该算法的主要思路是,首先计算特征空间中数据点之间的距离,在此基础上计算每个数据点的全局代表性,然后按照给定的稀疏化后LS-SVM支持向量集的数量约束,一次性选择最具代表性的数据点并构成稀疏化后的支持向量集,最后在该支持向量集的基础上,求得稀疏化后的LS-SVM的决策超平面.实验表明,GRS-LSSVM具有稀疏度高、稳定性好、计算复杂度低等优点.
本文下文组织如下:首先,对LS-SVM的相关模型进行回顾和总结;其次,给出基于全局代表性的稀疏化算法;然后,给出相关算法的实验结果,并对结果进行分析;最后,对本文加以总结,并进一步提出工作的方向.
1. LS-SVM 模型
LS-SVM是在SVM的基础上通过改变其罚函数而得到的.简单起见,设 $({ x},y)$ , $x \in {R^d}$ 为给定的一个数据及其标号或者函数值,如果是标号,对应的就是分类问题,如果是函数值,对应的就是回归问题. N个已知数据形成的集合 $X=\{{ x}_i\}$ 和 $Y=\{y_i\}$ 共同构成了训练集. SVM的目标是通过对训练集的学习,获得如下形式的决策超平面:
$f( x):\quad { \omega}^{\rm T}\cdot\phi({ x})+b=0 $
(1) 其中, $\phi (\cdot)$ 是从Rd到特征空间$H$的映射函数,ω是特征空间中的一个向量,b是一个实数. LS-SVM通过求解如下优化模型得到决策超平面:
$\matrix{ {\mathop {\min }\limits_{\omega ,b,e} {\rm{ }}J = {1 \over 2}{{\left\| \omega \right\|}^2} + {C \over 2}\sum\limits_{i = 1}^N {e_i^2} } \hfill \cr {s.t.{\omega ^{\rm{T}}} \cdot \phi ({x_i}) + b = {y_i} - {e_i},i = 1, \cdots ,N} \hfill \cr } $
(2) 其中,C是惩罚参数.
通过构造式(2)所对应的拉格朗日函数,并根据KKT (Karush-Kuhn-Tucker)条件,可得下式:
$\omega = \mathop \sum \limits_{i = 1}^N {\alpha _i}\phi ({x_i})$
(3) $\left[ {\matrix{ {K\left( {X,Y} \right)} & {\overline 1 } \cr {{{\overline 1 }^T}} & 0 \cr } } \right]\left[ \matrix{ \alpha \hfill \cr b \hfill \cr} \right] = \left[ \matrix{ Y \hfill \cr 0 \hfill \cr} \right]$
(4) 其中 $K(\Omega ,\Lambda ) = {[k({x_i},{x_j})]_{|\Omega | \times |\Lambda |}},{x_i} \in \Omega ,{x_j} \in \Lambda ,k( \cdot , \cdot )$ 是预先确定的核函数,1=(1,…,1)N×1,I是N阶单位矩阵.
由式(4)可以看出,决策超平面的系数通过求解线性系统获得,并且,求得的决策超平面是式(2)的最优解.因此,相对于SVM,LS-SVM的求解比较简单.但是,由于几乎全部αi都不为零,LS-SVM也失去了SVMs的稀疏性.在实际应用中,LS-SVM的非稀疏性妨碍了其进一步的应用和推广.因此,对LS-SVM进行稀疏化是扩展LS-SVM应用的必然选择.
2. 基于全局代表性的 LS-SVM稀疏化算法
LS-SVM稀疏化是在尽可能保持LS-SVM原有泛化能力的前提下,将大量支持向量进行消减的过程.在本节讨论基于全局代表性的非迭代稀疏化算法.
2.1 LS-SVM 稀疏化模型
LS-SVM稀疏化的目标就是用如下函数g(x)代替f(x)并尽量保持原有决策超平面的性质:
$g({ x}): \overline{{ \omega}}^{\rm T}\cdot\phi({ x})+b=y $
(5) 其中 $\overline{{ \omega}}=\sum_{i=1}^L\beta_i\phi({ s}_i)$ ,${s_i} \in X,L < N$ ,L是稀疏化后支持向量的个数.
令 $S=\{{ s}_1,\cdots,{ s}_L\}$ 为稀疏化后LS-SVM的支持向量集.由于通过式(4)求解的决策超平面f(x)是式(2)的最优解.因此,在给定稀疏化后支持向量个数L的前提下,用g(x)代替f(x)进行LS-SVM稀疏化的优化模型为如下形式:
$\eqalign{ & \mathop {\min }\limits_S \quad {J_g} - {J_f} \cr & s.t.|S| \le L,\quad S \subset X \cr} $
(6) 其中,Jf与Jg分别表示用f(x)与g(x)作为决策超平面时的J函数值.
由于Jf为一定值,因此,式(6)等价于如下模型:
$\begin{align} & {{\min }_{S}}\quad {{J}_{g}} \\ & s.t.\quad |S|\le L,\quad S\subset X \\ \end{align}$
(7) 其中,目标函数经过整理并省略常数部分后可得如下形式:
$\eqalign{ & {J_g} = {1 \over 2}{\left\| {\bar \omega } \right\|^2} + {C \over 2}\sum\limits_{i = 1}^N {{{({y_i} - {{\bar \omega }^{\rm{T}}} \cdot \phi ({x_i}) - b)}^2}} = \cr & {1 \over 2}({\beta ^{\rm{T}}}K(S,S)\beta ) + \cr & {C \over 2}\sum\limits_{i = 1} N ({\mu ^{\rm{T}}}\left[ \matrix{ K(S,{x_i})K({x_i},S){\rm{ }}K(S,{x_i}) \hfill \cr K({x_i},S){\rm{ 1}} \hfill \cr} \right]\mu - \left[ {2{y_i}K({x_i},S{\rm{ }}2{y_i})} \right]\mu ) = \cr & {1 \over 2}{\mu ^{\rm{T}}}A\mu - B\mu \cr} $
(8) 其中
$A = \left[ {\matrix{ {K(S,S)(1 + C\sum\limits_{i = 1}^N k ({x_i},{x_i})} & {C\sum\limits_{i = 1}^N K (S,{x_i})} \cr {C\sum\limits_{i = 1}^N K ({x_i},S)} & {CN} \cr } } \right]$
(9) $B=\left[ \begin{align} & C\sum\limits_{i=1}^{N}{{{y}_{i}}}K(S,{{x}_{i}}) \\ & \sum\limits_{i=1}^{N}{C{{y}_{i}}} \\ \end{align} \right]$
(10) $\mu =\left[ \begin{matrix} \begin{align} & \beta \\ & b \\ \end{align} \\ \end{matrix} \right]$
(11) 当S确定时,式(7)在如下情况下达到最小值:
$\mu ={{A}^{-1}}B$
(12) 由上面的讨论可知,对于任意给定的一组向量S,只要S使得式(9)满秩,则存在唯一的一组系数值为式(8)的最优解.因此,选择S集合是LS-SVM进行稀疏化的根本问题.
2.2 基于全局代表性的 S 集选取
由于从X中选取S集的问题是一个组合优化问题,很难找到全局最优解. 因此,当给定L的前提下,我们希望通过对LS-SVM特征进行分析,得到一种快速S集合选取方法.为了方便讨论,我们首先给出密度和离散度的定义.
由于在特征空间中,任意两点间的距离可以通过下式进行计算:
$d({{x}_{1}},{{x}_{2}})=\sqrt{k({{x}_{1}},{{x}_{1}})+k({{x}_{2}},{{x}_{2}})-2k({{x}_{1}},{{x}_{2}})}$
(13) 数据点x的密度大小可以用数据点特定邻域内点的个数来进行衡量.
定义 1 (数据密度). 特征空间中任一点x在θ邻域内的密度ρ定义为:
$\rho =\sum\limits_{j=1}^{N}{\delta }(d(x,{{x}_{j}}))$
(14) 其中
$\delta (z)=\left\{ \begin{array}{*{35}{l}} \begin{align} & 1,\quad z\le \theta \\ & 0,\quad 其他 \\ \end{align} \\ \end{array} \right.$
(15) 数据点x的离散度大小ζ采用文献[24]的相关公式进行衡量.
定义 2 (离散度). 任一点xi的离散度ζ定义为该点到比该点密度更大的其他点的最小距离,即:
${\zeta _i} = \mathop {\min }\limits_{{\rho _{{x_i}}} < {\rho _{{x_j}}}} d({x_i},{x_j}),\forall {x_j} \in X$
(16) 可以看出,两个指标中,密度具有局部性,离散度具有全局性.下面给出利用这两个指标对数据集进行LS-SVM消减的基本思路.
图 1给出了利用密度和离散度进行LS-SVM稀疏化的支持向量集选择示意图. 其中,图 1 (a)为原始LS-SVM的决策超平面f(x)(图中细实线)及两个类中心超平面(f(x)=+1及 f(x)=-1,图中长划线),图 1 (b)为稀疏化后LS-SVM的决策超平面g(x) (图中点划线)及两个类中心超平面(g(x)=+1及g(x)=-1,图中双点划线).由于决策超平面由两个类中心超平面决定,因此,只要找到可以确定两个中心超平面的数据点并将其纳入到S集合中,就可以实现LS-SVM的稀疏化.由于稀疏化后需要的支持向量数量比较少,因此将高密度点作为支持向量可以使得类中心超平面的定位更具有精确性.所以,尽量选取高密度点(如黑色数据点)进入S集合是很合理的思路.但是,若仅考虑密度,则容易造成集中在某个高密度区域的点(如灰色点)大量进入S集合从而使得S集合丧失全局性.与之对应,如果选取密度虽然较小但是在离散度上更大的点(如条纹点)代替灰色点,就能够使得稀疏化后的决策超平面更接近原始超平面.因此,同时考虑密度和离散度是选择S集合元素的关键依据.若将同时具有高密度和离散度的点称为全局代表点,则选择全局代表点作为S集合元素的算法是本文的主要贡献之一.
若将ρ和ζ看作两个维度,那么全部数据在该二维空间中主要分布在3块区域. 图 2给出了一个二维数据在ρ-ζ空间中的分布示意图. 其中,图 2 (a)表示的是数据在原始空间中的分布,图 2 (b)表示的是数据在ρ-ζ 空间中的分布.明显地,分布在I区的数据点的特征是密度和离散度都比较大,是具有全局代表性的数据点.分布在II区的数据点的特征是密度很小离散度很高,一般是离群点或者是噪声点.在III区的数据点,其特征是密度比较高,但是离散度较低,一般是在全局代表性点附近的点.因此,合理划分3个区域并且尽量将I区的数据点选择出来作为S集是下面要讨论的问题.
从图 2可以看出,全局代表性点比较稀疏,可以采用离群点发现算法进行获取. 但是,相应算法的时间复杂性较高,很难适应大数据量的要求.为此,我们通过设计全局代表性指标τ来进行全局代表点的选取.
由于ρ和ζ的单位不同,因此首先进行归一化处理,即将ρ和ζ映射到预先给定的区间 $[\eta_{\min},\eta_{\max}] (\eta_{\min},\eta_{\max}>0)$ ,并设映射后的值为 ρ和ζ.则任一点xi 的全局代表性指标τi 可以按照如下两式之一进行计算:
${{\tau }_{i}}=\min ({{{\bar{\rho }}}_{i}},{{{\bar{\zeta }}}_{i}})$
(17) ${{\tau }_{i}}={{{\bar{\rho }}}_{i}}\times {{{\bar{\zeta }}}_{i}}$
(18) 可知,τi越大,对应的xi的全局代表性就越高.在此基础上,我们给出全局代表点选取算法(Global representative point selection,GFPS),具体过程描述如算法1所示.
算法 1. GFPS
输入:数据集X,核函数k,阈值θ,数量L;
输出:选出的代表点集合S;
1) 根据式(13)计算 $d({ x}_i,{ x}_j)$ ;
2) 根据式(14),(16)计算ρ,ζ;
3) 归一化ρ,ζ;
4) 根据式(17)或(18)计算τ;
5) 按照从大到小对τ排序;
6) 取前L个数据形成S;
7) return S.
可以看出,算法GFPS的计算过程是一个非迭代过程,其主要过程包括3个顺序步骤:一是计算特征空间中任意两个点之间的距离,时间复杂度为 ${\rm O}(N^2)$ ;二是计算每个点的ρ和ζ,时间复杂度为 ${\rm O}(N^2)$ ;三是对序列τ进行排序,并一次性地抽取序列中最前面L个数据点形成支持向量集,在使用快速排序等较快的排序算法的情况下,其时间复杂度是 ${\rm O}(N{\rm log}N)$ .因此,算法GFPS的时间复杂度是 ${\rm O}(N^2)$ .
2.3 GRS-LSSVM 算法
在分类问题的LS-SVM稀疏化过程中,由于各类数据的分布差异较大,为了防止出现S集中仅包含某一类数据的情况,我们按照训练集全部数据的类别比例来分配S集合中各类代表点的数量.具体计算公式如下:
$L_i=\max(1,\text{round}(L\times \frac{N_i}{N})) $
(19) 其中,Li表示第i类数据中选择的代表点的数量, $\text{round}(\cdot)$ 表示四舍五入函数,Ni表示第i类数据的数量,N表示全体训练集的数量.
综合上面的讨论,我们给出基于全局代表性点选取的LS-SVM消减算法,具体过程描述如 算法2所示.
算法 2. GRS-LSSVM
输入:训练集X,Y,参数C,核函数k,阈值θ+,θ-,稀疏化后的支持向量集的大小L;
输出:消减后的支持向量集S,对应的系数β,b;
1) 根据式(19)计算两类数据点在S集中的数据量L+,L-;
2) $S_+=\text{GFPS}(X_+,k,L_+,\theta_+)$ ;
3) $S_-=\text{GFPS}(X_-,k,L_-,\theta_-)$ ;
4) $S=S_+\cup S_-$ ;
5) 根据式(12)计算β,b;
6) return S,β,b.}
算法2中,X+,X-分别是训练集中属于正负类的数据集,θ+,θ-是分别用于正负类的距离阈值.明显地,虽然GRS-LSSVM算法没有采用迭代方式来构造S集合,但随着L的增加,S集合包含的重要数据点的数量将逐步增加最终包含全部数据点从而收敛于LS-SVM.
从计算复杂度来看,该算法的主体是2次GFPS算法的调用和1次求解支持向量系数.由上述分析知,GFPS算法的时间复杂度为 ${\rm O}(N^2)$ .求解支持向量系数主要是进行1次矩阵逆计算,时间复杂度是 ${\rm O}(L^3)$ . 由于L<<N,这部分的计算对总体时间复杂度的影响很小,可以忽略不计.因此,GRS-LSSVM算法的总体时间复杂度为 ${\rm O}(N^2)$ .
3. 实验结果及分析
为了测试本文提出的算法性能,我们利用UCI中的真实数据集对各种算法进行测试并对结果进行分析.
3.1 数据集的选取
我们使用表 1中来自UCI (University of California Irvine machine learning repository)的4个数据集作为实验分析的数据集.这4个数据集的数据都来自真实数据,具有实际应用背景.其中,由于LR数据集包含多类数据,因此在本文中,采用一对多的分类方式,取字母B作为一类,其他数据作为另一类进行测试.
表 1 数据集描述表Table 1 Description of datasets数据集名称 数据量 数据维度 两类比例 Breast cancer wisconsin (BCW) 684 9 445 : 239 Banknote authentication (BA) 1 372 4 610 : 762 Musk (MK) 7 074 166 1 224 : 5 850 Letter recognition (LR) 20 000 16 789 : 19 211 3.2 评价指标
在分析对照的指标上,我们选择运行时间(Time)和错误率(Error ratio)作为算法性能的衡量指标.其中,运行时间是指全部计算数据加载入内 存到算法给出稀疏化后的支持向量集S及对应的系数β和b的时间跨度,单位为秒(s).错误率是指分类错误的数据 数量占全部数据量的百分比,在本文中采用10- 折交叉确认误差来进行衡量.稀疏度也是衡量一个算法的重要指标,其定义为稀疏化后的支持向量的个数与训练集大小的比值.当训练集大小固定时,稀疏度和文中使用的稀疏化后保留的支持向量的个数L具有等价性.因此,为了方便比较不同算法在各种稀疏度要求下的性能,将L作为算法的控制参数对各个算法进行试验测试.
3.3 对照算法
在本文的实验中,我们使用SLS-SVM (Sparse LS-SVM) [6]和RR-LSSVR (Recursive reduced least squares support vector regression) [12]以及ISLS-SVM (Iterative sparse LS-SVM) [14]作为对照算法. 同时,为了进一步分析算法的特点,我们使用SVM及LS-SVM作为稀疏支持向量机及非稀疏支持向量机的基准算法,进行对照分析. 其中,SLS-SVM算法中每一步消减的支持向量的数量设为1 %,RR-LSSVR中ε=0.00001.
3.4 实验设计
为了正确衡量各个算法的性能,对所有数据集都采用了10- 折交叉验证方法进行测试. 核函数采用RBF kernel.各个参数针对不同的算法进行了优化调整,以便比较不同算法在最优情况下的性能特点.由于每个数据集包含的数据量相差很大,同时考虑到计算机的内存容量限制及对照方便,在将数据集划分为训练集和测试集后,从训练集中按照等概率原则抽取预定数量的数据形成计算时的训练集.其中,BCW的预定数量为500,BA为1 000,MK为2 000,LR为4 000.针对每一个数据集都进行10次10- 折交叉验证并使用各个指标的平均值作为结果进行对比.
全部算法在Matlab 2010a环境中编程实现,并运行在一台内存为4 GB,CPU为i5 3270的机器上.
3.5 实验结果分析
图 3给出了不同算法在不同数据集上的错误率,图 4给出了错误率的标准差,图 5是各个算法的运行时间结果,由于各个算法的时间差异比较大,为了能够显示在一张图中,我们使用了对数坐标,图 6是每个算法运行时间的标准差.在各图中,(a) ~ (d)分别对应数据集BCW、BA、MK和LR.
SVM和LS-SVM在各个数据集上的实验结果如表 2所示,其中NS是指算法获得的决策超平面包含的支持向量的个数.从表 2可知,SVM和LS-SVM的泛化能力基本相同,对于同一数据集的错误率基本保持一致.在运行时间上虽然LS-SVM比SVM略长,但是基本还保持在同一数量级.但是,支持向量个数差别很大,LS-SVM包含了训练集的全部向量,SVM包含的支持向量的个数相对比较稀疏.虽然SVM具有稀疏性,但是稀疏度也基本维持在20 %至40 %左右.
表 2 SVM和LS-SVM结果Table 2 Results of SVM and LS-SVM数据集 SVM LS-SVM Error ratio (%) Time (s) NS Error ratio (%) Time (s) NS BCW 3.0 (±0.01) 0.02 (±0.005) 93.2 (±0.85) 3.0 (±0.010) 0.020 (±0.001) 500 (±0) BA 2.4 (±0.01) 0.09 (±0.005) 418.8 (±1.96) 1.0 (±0.010) 0.072 (±0.007) 1 000 (±0) MK 5.7 (±0.04) 0.30 (±0.010) 642.2 (±6.40) 5.1 (±0.100) 0.380 (±0.020) 2 000 (±0) LR 1.0 (±0.04) 1.32 (±0.050) 1706.0 (±79.0) 1.0 (±0.035) 1.780 (±0.050) 4 000 (±0) 首先,从稀疏度来看各个算法的特征. SLS-SVM,RR-LSSVR以及GRS-LSSVM都可以根据给定的L进行稀疏化,使得稀疏化后的支持向量的个数达到任意指定的值. 但是ISLS-SVM不具有这种能力,当给定的L小于某一阈值时,该算法不能给出结果.换句话说,ISLS-SVM具有最大稀疏度限制,该限制使得该算法在稀疏度要求比较高的情况下不能使用.观察算法到达稳定错误率时所需要的稀疏度大小,一般来讲,其需要的稀疏度大小为GRS-LSSVM < ISLS-SVM < SLS-SVM < RR-LSSVR.这说明GRS-LSSVM在一个非常小的稀疏度要求时就可以达到其稳定状态,即该算法稳定时的稀疏度阈值要小于其他算法.在实际应用中给定的稀疏度要求非常高的情况下,该算法能最先达到其稳定值.虽然该算法在稳定时的错误率并不是最小,但是其错误率的大小也已经在一个可以接受的范围内.这表明,GRS-LSSVM算法的稀疏化能力比较出色.在很多的实际应用中,对于错误率的要求不是那么强烈,但是对于稀疏化后的支持向量集的大小要求比较高,这种情况下,尤其是要求稀疏度特别大的情况下,其他算法往往不能胜任,而GRS-LSSVM还可以满足要求.出现这种情况的原因在于,该算法选取的是最具有全局代表性的数据点作为支持向量,即便稀疏度要求比较高,由于选择的点具有全局代表性,因此依然能够达到较好的效果.
其次,从错误率方面来看各个算法的特征.全部算法首先表现出几个共同的特征.首先,当给定的支持向量的个数达到某个阈值时,全部算法都能下降到一个非常低的接近LS-SVM的错误率水平.其次,在达到该阈值后,即便支持向量的个数增加,每个算法在错误率上也没有很大的提高,并保持在一个非常稳定的错误率上.最后,错误率标准差的变化和错误率的变化相类似,在达到并超过阈值后,将维持在一个非常小的范围内并保持稳定. 在未达到稳定值之前,SLS-SVM的错误率最高,RR-LSSVR次之,GRS-LSSVM最小,且比较接近稳定值.这表明即便要求的稀疏度高于算法的稀疏度阈值,GRS-LSSVM也可以提供具有相对较好错误率的决策函数. ISLS-SVM由于在高稀疏度下不能计算,所以不参与比较.当达到稳定值后,4个算法的错误率的排序一般保持SLS-SVM < ISLS-SVM < GRS-LSSVM < RR-LSSVR.虽然GRS-LSSVM的错误率不是最低,但是其错误率也已经接近LS-SVM的错误率,并且和其他算法的错误率相差不大.总体来讲,当稀疏度要求比较低的时候,该算法在错误率的表现上并不突出,但是当稀疏度要求比较高时,尤其是稀疏度要求的值不能满足其他算法达到稳定性值的情况下,该算法达到的错误率要比其他方法要好.原因在于GRS-LSSVM用最具有全局代表性的数据点构成支持向量集,在稀疏度高的情况下,可以通过较少的数据点来达到相对较好的分类效果,但是在达到稳定后,新增的节点对其决策超平面的改变贡献会很小,所以相比较其他算法,效果相对稍弱.
最后,从计算复杂性上来进行分析.明显的,4个算法的表现完全不同. SLS-SVM总体上呈现出随稀疏度下降,计算时间缓慢降低的趋势.原因是SLS-SVM采用的是向量消去方法,稀疏度下降,说明最终的支持向量集包含的向量数量比较多,被消减的向量比较少.因此,所需要的计算时间也会减少. RR-LSSVR的计算时间随着稀疏度的下降,时间呈爆炸式增长.原因在于RR-LSSVR采用的是增量式稀疏化模式,由于每次只能向支持向量集添加一个向量,导致其计算复杂度随着训练集的增长而增长,同时,稀疏度的下降,也导致其计算复杂度的增长. 对于ISLS-SVM,其计算时间会随着稀疏度的下降而降低,其主要原因是该算法本质上是一种删除式稀疏化方法,在稀疏度要求比较高的时候,需要删除的向量数量比较大,这样迭代的次数会比较多,同时,在迭代中矩阵运算出现奇异矩阵的可能性也比较大,这些都会让运算时间比较长. 对于GRS-LSSVM,其运算时间表现出3个特征: 1)在训练集固定的情况下,其运算时间并没有随稀疏度的变化而发生变化; 2)不同数据集的数据量虽然差别很大,但是,该算法的运算时间并没有巨大的变化; 3)该算法的时间稳定性比较好,计算时间的标准差比较小.具有这3个特征的原因在于该 算法没有采用迭代方式进行支持向量的选择,而是在计算出全部数据点的全局代表性值后,一 次性地根据代表性的大小选择支持向量集,因此其计算时间会比较短.
4. 总结
在本文中,我们针对LS-SVM稀疏化问题,提出了一种基于全局代表点提取的稀疏化算法. 该算法的思想是通过数据点的局部密度和全局分布性来确定数据的代表性,然后按照代表性的大小直接选择稀疏化后的支持向量,并在这些支持向量的基础上计算稀 疏化后的决策超平面.由于不需要迭代选择支持向量,因此,该方法具有计算复杂性低、 性能稳定、稀疏度高等特点.对LS-SVM稀疏化研究提供了新的思路.实验研究也证明了该算法的特点.
-
表 1 应用于图像质量评价算法分析的4个测试图像库
Table 1 The four benchmark datasets for evaluating IQA indices
图像库 参考图像数 失真图像数 失真类型数 主观测试人数 TID2013 25 3000 25 971 TID2008 25 1700 17 838 CSIQ 30 866 6 35 LIVE 29 799 5 161 表 2 3种选块策略对应的SROCC值
Table 2 The SROCC of three selection strategies
图像库 不选块 AVE选块 AVE+VS选块 TID2013 0.8655 0.8728 0.8741 TID2008 0.8763 0.8870 0.8893 CSIQ 0.9508 0.9621 0.9615 LIVE 0.9500 0.9600 0.9578 表 3 不同的PCA白化降维维数下, MFS在4个图像库上SROCC值
Table 3 The SROCC of MFS at different whitening dimensions on four datasets
PCA白化后的空间维数 LIVE CSIQ TID2008 TID2013 8 0.9578 0.9615 0.8893 0.8741 16 0.9509 0.9594 0.8820 0.8585 24 0.9507 0.9587 0.8754 0.8483 32 0.9332 0.9235 0.8205 0.8059 64 0.9283 0.9067 0.7311 0.7444 不降维 0.8163 0.6962 0.2863 0.3864 表 4 在两个训练集图像库上的SROCC值比较
Table 4 The SROCC of MFS on two training sets
训练集 LIVE CSIQ TID 2008 TID 2013 Average S1 0.9594 0.9615 0.8866 0.8579 0.9168 S2 0.9578 0.9615 0.8893 0.8741 0.9206 表 5 ω取不同值时, MFS在4个图像库上的SROCC值
Table 5 The SROCC of MFS when ω takes different values
ω 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 LIVE 0.9553 0.9554 0.9557 0.9560 0.9562 0.9565 0.9568 0.9573 0.9578 0.9575 0.9248 CSIQ 0.9516 0.9523 0.9532 0.9542 0.9553 0.9565 0.9579 0.9594 0.9615 0.9635 0.7700 TID 2008 0.8377 0.8439 0.8509 0.8584 0.8661 0.8739 0.8817 0.8879 0.8893 0.8769 0.6598 TID 2013 0.8407 0.8455 0.8505 0.8554 0.8602 0.8650 0.8696 0.8733 0.8741 0.8675 0.7081 表 6 仅考虑流形特征时MFS的评价性能(ω=0)
Table 6 The performance when just considering the manifold feature (ω=0)
SSIM MS-SSIM IFC VIF VSNR MAD GSM RFSM FSIMc VSI MFS TID 2013 SROCC 0.7471 0.7859 0.5389 0.6769 0.6812 0.7808 0.7946 0.7744 0.8510 0.8965 0.8407 TID 2008 SROCC 0.7749 0.8542 0.5675 0.7491 0.7046 0.8340 0.8504 0.8680 0.8840 0.8979 0.8377 CSIQ SROCC 0.8756 0.9133 0.7671 0.9195 0.8106 0.9466 0.9108 0.9295 0.9310 0.9423 0.9516 LIVE SROCC 0.9479 0.9513 0.9259 0.9636 0.9274 0.9669 0.9561 0.9401 0.9645 0.9524 0.9553 Ave SROCC 0.8363 0.8761 0.6998 0.8272 0.7809 0.8820 0.8779 0.8780 0.9076 0.9222 0.8963 表 7 11种方法在4个图像库上的整体性能比较(ω=0.8)
Table 7 The total performance comparison of 11 IQA indices (ω=0.8)
SSIM MS-SSIM IFC VIF VSNR MAD GSM RFSM FSIMc VSI MFS TID2013 SROCC 0.7471 0.7859 0.5389 0.6769 0.6812 0.7808 0.7946 0.7744 0.8510 0.8965 0.8741 KROCC 0.5588 0.6407 0.3939 0.5147 0.5084 0.6035 0.6255 0.5951 0.6665 0.7183 0.6862 PLCC 0.7895 0.8329 0.5538 0.7720 0.7402 0.8267 0.8464 0.8333 0.8769 0.9000 0.8856 RMSE 0.7608 0.6861 1.0322 0.7880 0.8392 0.6975 0.6603 0.6852 0.5959 0.5404 0.5757 TID2008 SROCC 0.7749 0.8542 0.5675 0.7491 0.7046 0.8340 0.8504 0.8680 0.8840 0.8979 0.8893 KROCC 0.5768 0.6568 0.4236 0.5860 0.5340 0.6445 0.6596 0.6780 0.6991 0.7123 0.7055 PLCC 0.7732 0.8451 0.7340 0.8084 0.6820 0.8308 0.8422 0.8645 0.8762 0.8762 0.8865 RMSE 0.8511 0.7173 0.9113 0.7899 0.9815 0.7468 0.7235 0.6746 0.6468 0.6466 0.6211 CSIQ SROCC 0.8756 0.9133 0.7671 0.9195 0.8106 0.9466 0.9108 0.9295 0.9310 0.9423 0.9615 KROCC 0.6907 0.7393 0.5897 0.7537 0.6247 0.7970 0.7374 0.7645 0.7690 0.7857 0.8260 PLCC 0.8613 0.8991 0.8384 0.9277 0.8002 0.9502 0.8964 0.9179 0.9192 0.9279 0.9614 RMSE 0.1344 0.1149 0.1431 0.0980 0.1575 0.0818 0.1164 0.1042 0.1034 0.0979 0.0722 LIVE SROCC 0.9479 0.9513 0.9259 0.9636 0.9274 0.9669 0.9561 0.9401 0.9645 0.9524 0.9578 KROCC 0.7963 0.8045 0.7579 0.8282 0.7616 0.8421 0.8150 0.7816 0.8363 0.8058 0.8199 PLCC 0.9449 0.9489 0.9268 0.9604 0.9231 0.9675 0.9512 0.9354 0.9613 0.9482 0.9543 RMSE 8.9455 8.6188 10.264 7.6137 10.506 6.9073 8.4327 9.6642 7.5296 8.6816 8.1691 表 8 11种方法在特定失真上的SROCC评价值
Table 8 SROCC values of 11 IQA indices for each type of distortions
Type SSIM MS-SSIM IFC VIF VSNR MAD GSM RFSM FSIMc VSI MFS TID2013 AGN 0.8671 0.8646 0.6612 0.8994 0.8271 0.8843 0.9064 0.8878 0.9101 0.9460 0.9153 ANC 0.7726 0.7730 0.5352 0.8299 0.7305 0.8019 0.8175 0.8476 0.8537 0.8705 0.8273 SCN 0.8515 0.8544 0.6601 0.8835 0.8013 0.8911 0.9158 0.8825 0.8900 0.9367 0.9001 MN 0.7767 0.8073 0.6932 0.8450 0.7072 0.7380 0.7293 0.8368 0.8094 0.7697 0.8186 HFN 0.8634 0.8604 0.7406 0.8972 0.8455 0.8876 0.8869 0.9145 0.9040 0.9200 0.9063 IN 0.7503 0.7629 0.6408 0.8537 0.7363 0.2769 0.7965 0.9062 0.8251 0.8741 0.8313 QN 0.8657 0.8706 0.6282 0.7854 0.8357 0.8514 0.8841 0.8968 0.8807 0.8748 0.8421 GB 0.9668 0.9673 0.8907 0.9650 0.9470 0.9319 0.9689 0.9698 0.9551 0.9612 0.9553 DEN 0.9254 0.9268 0.7779 0.8911 0.9081 0.9252 0.9432 0.9359 0.9330 0.9484 0.9178 JPEG 0.9200 0.9265 0.8357 0.9192 0.9008 0.9217 0.9284 0.9398 0.9339 0.9541 0.9377 JP2K 0.9468 0.9504 0.9078 0.9516 0.9273 0.9511 0.9602 0.9518 0.9589 0.9706 0.9633 JGTE 0.8493 0.8475 0.7425 0.8409 0.7908 0.8283 0.8512 0.8312 0.8610 0.9216 0.8885 J2TE 0.8828 0.8889 0.7769 0.8761 0.8407 0.8788 0.9182 0.9061 0.8919 0.9228 0.9081 NEPN 0.7821 0.7968 0.5737 0.7720 0.6653 0.8315 0.8130 0.7705 0.7937 0.8060 0.7727 Block 0.5720 0.4801 0.2414 0.5306 0.1771 0.2812 0.6418 0.0339 0.5532 0.1713 0.1755 MS 0.7752 0.7906 0.5522 0.6276 0.4871 0.6450 0.7875 0.5547 0.7487 0.7700 0.6285 CTC 0.3775 0.4634 0.1798 0.8386 0.3320 0.1972 0.4857 0.3989 0.4679 0.4754 0.4598 CCS 0.4141 0.4099 0.4029 0.3099 0.3677 0.0575 0.3578 0.0204 0.8359 0.8100 0.8102 MGN 0.7803 0.7786 0.6143 0.8468 0.7644 0.8409 0.8348 0.8464 0.8569 0.9117 0.8630 CN 0.8566 0.8528 0.8160 0.8946 0.8683 0.9064 0.9124 0.8917 0.9135 0.9243 0.9052 LCNI 0.9057 0.9068 0.8180 0.9204 0.8821 0.9443 0.9563 0.9010 0.9485 0.9564 0.9290 ICQD 0.8542 0.8555 0.6006 0.8414 0.8667 0.8745 0.8973 0.8959 0.8815 0.8839 0.9072 CHA 0.8775 0.8784 0.8210 0.8848 0.8645 0.8310 0.8823 0.8990 0.8925 0.8906 0.8798 SSR 0.9461 0.9483 0.8885 0.9353 0.9339 0.9567 0.9668 0.9326 0.9576 0.9628 0.9478 TID2008 AGN 0.8107 0.8086 0.5806 0.8797 0.7728 0.8386 0.8606 0.8415 0.8758 0.9229 0.8887 ANC 0.8029 0.8054 0.5460 0.8757 0.7793 0.8255 0.8091 0.8613 0.8931 0.9118 0.8789 SCN 0.8144 0.8209 0.5958 0.8698 0.7665 0.8678 0.8941 0.8468 0.8711 0.9296 0.8951 MN 0.7795 0.8107 0.6732 0.8683 0.7295 0.7336 0.7452 0.8534 0.8264 0.7734 0.8375 HFN 0.8729 0.8694 0.7318 0.9075 0.8811 0.8864 0.8945 0.9182 0.9156 0.9253 0.9225 IN 0.6732 0.6907 0.5345 0.8327 0.6471 0.0650 0.7235 0.8806 0.7719 0.8298 0.7919 QN 0.8531 0.8589 0.5857 0.7970 0.8270 0.8160 0.8800 0.8880 0.8726 0.8731 0.8500 GB 0.9544 0.9563 0.8559 0.9540 0.9330 0.9196 0.9600 0.9409 0.9472 0.9529 0.9501 DEN 0.9530 0.9582 0.7973 0.9161 0.9286 0.9433 0.9725 0.9400 0.9618 0.9693 0.9488 JPEG 0.9252 0.9322 0.8180 0.9168 0.9174 0.9275 0.9393 0.9385 0.9294 0.9616 0.9416 JP2K 0.9625 0.9700 0.9437 0.9709 0.9515 0.9707 0.9758 0.9488 0.9780 0.9848 0.9825 JGTE 0.8678 0.8681 0.7909 0.8585 0.8055 0.8661 0.8790 0.8503 0.8756 0.9160 0.8766 J2TE 0.8577 0.8606 0.7301 0.8501 0.7909 0.8394 0.8936 0.8592 0.8555 0.8942 0.8947 NEPN 0.7107 0.7377 0.8418 0.7619 0.5716 0.8287 0.7386 0.7274 0.7514 0.7699 0.7094 Block 0.8462 0.7546 0.6770 0.8324 0.1926 0.7970 0.8862 0.6258 0.8464 0.6295 0.4698 MS 0.7231 0.7336 0.4250 0.5096 0.3715 0.5163 0.7190 0.4178 0.6554 0.6714 0.4810 CTC 0.5246 0.6381 0.1713 0.8188 0.4239 0.2723 0.6691 0.5823 0.6510 0.6557 0.6348 CSIQ AGWN 0.8974 0.9471 0.8431 0.9575 0.9241 0.9541 0.9440 0.9441 0.9359 0.9636 0.9647 JPEG 0.9546 0.9634 0.9412 0.9705 0.9036 0.9615 0.9632 0.9502 0.9664 0.9618 0.9548 JP2K 0.9606 0.9683 0.9252 0.9672 0.9480 0.9752 0.9648 0.9643 0.9704 0.9694 0.9750 AGPN 0.8922 0.9331 0.8261 0.9511 0.9084 0.9570 0.9387 0.9357 0.9370 0.9638 0.9607 GB 0.9609 0.9711 0.9527 0.9745 0.9446 0.9602 0.9589 0.9634 0.9729 0.9679 0.9758 GCD 0.7922 0.9526 0.4873 0.9345 0.8700 0.9207 0.9354 0.9527 0.9438 0.9504 0.9485 LIVE JP2K 0.9614 0.9627 0.9113 0.9696 0.9551 0.9676 0.9700 0.9323 0.9724 0.9604 0.9645 JPEG 0.9764 0.9815 0.9468 0.9846 0.9657 0.9764 0.9778 0.9584 0.9840 0.9761 0.9759 AGWN 0.9694 0.9733 0.9382 0.9858 0.9785 0.9844 0.9774 0.9799 0.9716 0.9835 0.9868 GB 0.9517 0.9542 0.9584 0.9728 0.9413 0.9465 0.9518 0.9066 0.9708 0.9527 0.9622 FF 0.9556 0.9471 0.9629 0.9650 0.9027 0.9569 0.9402 0.9237 0.9519 0.9430 0.9418 表 9 11种质量评价方法的时间复杂度
Table 9 Time cost of 11 IQA indices
IQA index Time cost(ms) SSIM 17.3 MS-SSIM 71.2 IFC 538.0 VIF 546.4 VSNR 23.9 MAD 702.3 GSM 17.7 RFSM 49.8 FSIMc 142.5 VSI 105.2 MFS 140.7 -
[1] Ma L, Deng C W, Ngan K N, Lin W S. Recent advances and challenges of visual signal quality assessment. China Communications, 2013, 10(5):62-278 doi: 10.1109/CC.2013.6520939 [2] Saha A, Wu Q M J. Utilizing image scales towards totally training free blind image quality assessment. IEEE Transactions on Image Processing, 2015, 24(6):1879-1892 doi: 10.1109/TIP.2015.2411436 [3] 王志明.无参考图像质量评价综述.自动化学报, 2015, 41(6):1062-1079 http://www.aas.net.cn/CN/abstract/abstract18682.shtmlWang Zhi-Ming. Review of no-reference image quality assessment. Acta Automatica Sinica, 2015, 41(6):1062-1079 http://www.aas.net.cn/CN/abstract/abstract18682.shtml [4] Wang Z, Bovik A C, Sheikh H R, Simoncelli E P. Image quality assessment:from error visibility to structural similarity. IEEE Transactions on Image Processing, 2004, 13(4):600-612 doi: 10.1109/TIP.2003.819861 [5] Wang Z, Simoncelli E P, Bovik A C. Multiscale structural similarity for image quality assessment. In:Proceedings of the 37th Conference Record of Asilomar Conference on Signals, Systems and Computers. Pacific Grove, CA, USA:IEEE, 2003. 1398-1402 [6] Zhang L, Zhang D, Mou X Q. RFSIM:a feature based image quality assessment metric using Riesz transforms. In:Proceedings of the 17th International Conference on Image Process. Hong Kong, China:IEEE, 2010. 321-324 [7] Zhang L, Zhang D, Mou X Q, Zhang D. FSIM:a feature similarity index for image quality assessment. IEEE Transactions on Image Processing, 2011, 20(8):2378-2386 doi: 10.1109/TIP.2011.2109730 [8] 程光权, 张继东, 成礼智, 黄金才, 刘忠.基于几何结构失真模型的图像质量评价研究.自动化学报, 2011, 37(7):811-819 http://www.aas.net.cn/CN/abstract/abstract17447.shtmlCheng Guang-Quan, Zhang Ji-Dong, Cheng Li-Zhi, Huang Jin-Cai, Liu Zhong. Image quality assessment based on geometric structural distortion model. Acta Automatica Sinica, 2011, 37(7):811-819 http://www.aas.net.cn/CN/abstract/abstract17447.shtml [9] Chandler D M, Hemami S S. VSNR:a wavelet-based visual signal-to-noise ratio for natural images. IEEE Transactions on Image Processing, 2007, 16(9):2284-2298 doi: 10.1109/TIP.2007.901820 [10] Larson E C, Chandler D M. Most apparent distortion:full-reference image quality assessment and the role of strategy. Journal of Electronic Imaging, 2010, 19(1):011006 doi: 10.1117/1.3267105 [11] Sheikh H R, Bovik A C. Image information and visual quality. IEEE Transactions on Image Processing, 2006, 15(2):430-444 doi: 10.1109/TIP.2005.859378 [12] Sheikh H R, Bovik A C, De Veciana G. An information fidelity criterion for image quality assessment using natural scene statistics. IEEE Transactions on Image Processing, 2005, 14(12):2117-2128 doi: 10.1109/TIP.2005.859389 [13] Zhang L, Shen Y, Li H Y. VSI:a visual saliency-induced index for perceptual image quality assessment. IEEE Transactions on Image Processing, 2014, 23(10):4270-4281 doi: 10.1109/TIP.2014.2346028 [14] Liu A M, Lin W S, Narwaria M. Image quality assessment based on gradient similarity. IEEE Transactions on Image Processing, 2012, 21(4):1500-1512 doi: 10.1109/TIP.2011.2175935 [15] Seung H S, Lee D D. The manifold ways of perception. Science, 2000, 290(5500):2268-2269 doi: 10.1126/science.290.5500.2268 [16] de Silva V, Tenenbaum J B. Global versus local methods in nonlinear dimensionality reduction. In:Proceedings of the 2002 Advances in Neural Information Processing Systems. Cambridge, MA:MIT Press, 2002. 705-712 [17] Cai D, He X F, Han J W, Zhang H J. Orthogonal Laplacianfaces for face recognition. IEEE Transactions on Image Processing, 2006, 15(11):3608-3614 doi: 10.1109/TIP.2006.881945 [18] Charrier C, Lebrun G, Lezoray O. Image quality assessment with manifold and machine learning. In:Proceedings of the 2009 SPIE 7242, Image Quality and System Performance VI. San Jose, CA:SPIE, 2009. http://cn.bing.com/academic/profile?id=2042873693&encoded=0&v=paper_preview&mkt=zh-cn [19] Taube J S. Head direction cells and the neurophysiological basis for a sense of direction. Progress in Neurobiology, 1998, 55(3):225-256 doi: 10.1016/S0301-0082(98)00004-5 [20] Simoncelli E P, Olshausen B A. Natural image statistics and neural representation. Annual Review of Neuroscience, 2001, 24:1193-1216 doi: 10.1146/annurev.neuro.24.1.1193 [21] Engelke U, Kaprykowsky H, Zepernick H, Ndjiki-Nya P. Visual attention in quality assessment. IEEE Signal Processing Magazine, 2011, 28(6):50-59 doi: 10.1109/MSP.2011.942473 [22] Moorthy A K, Bovik A C. Visual importance pooling for image quality assessment. IEEE Journal of Selected Topics in Signal Processing, 2009, 3(2):193-201 doi: 10.1109/JSTSP.2009.2015374 [23] Zhang L, Gu Z Y, Li H Y. SDSP:a novel saliency detection method by combining simple priors. In:Proceedings of the 20th IEEE International Conference on Image Processing. Melbourne, VIC:IEEE, 2013. 171-175 [24] Sheikh H R, Sabir M F, Bovik A C. A statistical evaluation of recent full reference image quality assessment algorithms. IEEE Transactions on Image Processing, 2006, 15(11):3440-3451 doi: 10.1109/TIP.2006.881959 [25] Ponomarenko N N, Lukin V V, Zelensky A, Egiazarian K, Carli M, Battisti F. TID2008——a database for evaluation of full-reference visual quality assessment metrics. Advances of Modern Radioelectronics, 2009, 10:30-45 http://cn.bing.com/academic/profile?id=2324971623&encoded=0&v=paper_preview&mkt=zh-cn [26] Ponomarenko N, Jin L, Ieremeiev O, Lukin V, Egiazarian K, Astola J, Vozel B, Chehdi K, Carli M, Battisti F, Kuo C C J. Image database TID2013:peculiarities, results and perspectives. Signal Processing:Image Communication, 2015, 30:57-77 doi: 10.1016/j.image.2014.10.009 [27] VQEG. Final report from the video quality experts group on the validation of objective models of video quality assessment[Online], available:http://www.vqeg.org/, November 3, 2015 期刊类型引用(9)
1. 熊光明,于全富,胡秀中,周子杰,许佳慧. 考虑平台特性的多层建筑物内履带式无人平台运动规划. 兵工学报. 2023(03): 841-850 . 百度学术
2. 闫敬,张志成,杨晛,商志刚,关新平. 水下网络系统定位与控制联合设计:研究现状与发展趋势. 哈尔滨工程大学学报. 2023(11): 1950-1962 . 百度学术
3. 王宁,韩雨晓,王雅萱,王天海,张漫,李寒. 农业机器人全覆盖作业规划研究进展. 农业机械学报. 2022(S1): 1-19 . 百度学术
4. 闫敬,关新平,罗小元,杨晛. 水下信息物理系统探测–通信–控制一体化:挑战与进展. 控制理论与应用. 2022(11): 1996-2008 . 百度学术
5. 徐姗姗. 图匹配算法激光扫描点云树干分割. 中国图象图形学报. 2021(05): 1095-1104 . 百度学术
6. 郭银景,侯佳辰,吴琪,苑娇娇,吕文红. AUV全局路径规划环境建模算法研究进展. 舰船科学技术. 2021(17): 12-18 . 百度学术
7. 涂文章,蒋立宇,何力. 基于维诺图的路径规划方法. 广东化工. 2019(14): 70+58 . 百度学术
8. 陈孝如. 无线传感器网络移动节点路径规划方法仿真. 计算机仿真. 2019(08): 262-265 . 百度学术
9. 万方,周风余,尹磊,王玉刚,陈科,沈冬冬. 基于电势场法的移动机器人全局路径规划算法. 机器人. 2019(06): 742-750 . 百度学术
其他类型引用(14)
-