2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

计算摄像学:核心、方法与应用

索津莉 刘烨斌 季向阳 戴琼海

孔令智, 高迎彬, 李红增, 张华鹏. 一种快速的多个主成分并行提取算法. 自动化学报, 2017, 43(5): 835-842. doi: 10.16383/j.aas.2017.c160299
引用本文: 索津莉, 刘烨斌, 季向阳, 戴琼海. 计算摄像学:核心、方法与应用. 自动化学报, 2015, 41(4): 669-685. doi: 10.16383/j.aas.2015.c130855
KONG Ling-Zhi, GAO Ying-Bin, LI Hong-Zeng, ZHANG Hua-Peng. A Fast Algorithm That Extracts Multiple Principle Components in Parallel. ACTA AUTOMATICA SINICA, 2017, 43(5): 835-842. doi: 10.16383/j.aas.2017.c160299
Citation: SUO Jin-Li, LIU Ye-Bin, JI Xiang-Yang, DAI Qiong-Hai. Computational Photography: Keys, Methods and Applications. ACTA AUTOMATICA SINICA, 2015, 41(4): 669-685. doi: 10.16383/j.aas.2015.c130855

计算摄像学:核心、方法与应用

doi: 10.16383/j.aas.2015.c130855
基金项目: 

国家自然科学基金(61327902,61120106003,61171119)资助

详细信息
    作者简介:

    刘烨斌 清华大学自动化系副教授.2002年获北京邮电大学学士学位,2009年获清华大学博士学位.主要研究方向为基于图像的建模与渲染,无标记运动捕捉和基于视觉的图形学应用.E-mail:liuyebin@mail.tsinghua.edu.cn

    通讯作者:

    索津莉 清华大学自动化系讲师.2004年获山东大学学士学位,2010年获中国科学院研究生院博士学位.主要研究方向为计算摄像学和计算机视觉.本文通信作者.E-mail:jlsuo@tsinghua.edu.cn

Computational Photography: Keys, Methods and Applications

Funds: 

Supported by National Natural Science Foundation of China(61327902, 61120106003, 61171119)

  • 摘要: 针对现有计算机视觉、图形学、信号处理、数字图像处理、应用光学等领域无法通过现有成像模型与装置及计算方法获取足够目标场景信息的难题,计算摄像学研究提出新的成像机制与对应的计算重构方法,在光信号观测领域另辟蹊径,创新性地将视觉信息处理与计算前移至成像过程,从而极大地提高了信息优化计算的自由度,能够在维度、尺度与分辨率上实现质的突破,从而观测到传统成像系统看不清与看不见的场景信息.本文沿着计算摄像学思路、方法与目标三条主线,对国内外研究现状进行分析与综述,期望能够帮助读者更快地了解及进入相关研究.
  • 在现代信号处理和数据分析领域, 从高维输入信号中提取能够反映系统本质属性的信息是一件非常有意义的工作, 通常将能够完成此类工作的方法称为系统特征提取方法, 而主成分分析方法是应用比较广泛的一种系统特征提取方法.主成分分析主要是通过正交变换将高维的数据映射到低维空间, 从而达到数据压缩和系统特征提取的目的[1].在信号处理领域, 通常又将输入信号自相关矩阵最大特征值对应的特征向量称之为信号的主成分, 将由信号的多个主成分张成的子空间称为信号的主子空间, 而将能够实现对输入信号的主成分或主子空间进行提取的方法称为主成分分析方法[2].目前, 主成分分析方法已经广泛应用于图像处理[3]、故障诊断[4]、模式识别[5]等领域.

    采用神经网络方法来提取输入信号中的主成分是目前国内外的一个研究热点.因为相比传统的数值算法, 如EVD (Eigenvalue decomposition)和SVD (Singular value decomposition), 神经网络算法可以避免对输入信号自相关矩阵的计算, 而且能够处理非平稳的随机输入信号.自从Oja提出的第一个主成分分析神经网络算法以来[6], 学者们相继提出了很多主成分分析算法, 如NIC (Novel information criterion)算法[7]、ULA (Unified learning algorithm)算法[8]、UIC (Unified information criterion)算法[9]等.虽然这些算法已经在各个领域得到了广泛的应用.但是这些算法在应用范围上仍然存在一定的限制, 如Oja算法和ULA算法只能提取一个主成分; NIC算法和UIC算法只能进行主子空间跟踪, 不能提取多个主成分.而在某些信号处理领域需要对信号的多个主成分进行提取, 因此研究如何提取多个主成分就成为一件非常有意义的工作.

    目前为止, 学者们已经提出了一些多个主成分提取算法.根据主成分的获取方式不同, Ouyang等将现行算法分为串行算法和并行算法两类[10].串行算法首先采用单个主成分提取算法提取信号的第一个主成分, 然后采用压缩技术对采样信号进行处理, 消除信号中第一个主成分的影响, 而后依旧采用单个主成分提取算法来提取信号的第二个主成分; 重复上述步骤, 就可以实现多个主成分的提取.串行算法的缺点主要有以下4个方面: 1) 由于串行算法在每次提取过程中都需要用到全部的采样数据, 因此需要大量的存储器件; 2) 由于主成分的提取过程是顺序进行的, 因此会造成很大的提取时延; 3) 由于下一个主成分的提取依赖于当前主成分的提取结果, 因此当前主成分的提取误差会传播到下一次提取过程中, 当提取主成分的维数很大时, 串行算法会造成很大的误差累积; 4) 串行算法必须是信号全部采集完成后才能使用, 因此难以满足实时信号处理的要求.相比串行算法, 并行算法可以在一个算法迭代过程中实现多个主成分的同时提取, 因此可以避免串行算法的上述缺点.此外由于并行算法还具有很好的实时性, 因此引发了大量学者的研究.

    在文献[11]中, Oja等采用对神经网络输出进行加权的方式, 提出了第一个多个主成分并行提取算法; Ouyang等则是对NIC算法进行了加权改进, 提出了一种非对称结构的算法---WNIC (Weighted NIC)算法[10]; Tanaka等[12]对加权的Oja算法进行改进, 提出了一类更为一般化的多个主成分提取算法; 通过对正交投影子空间跟踪算法(Orthogonal projection approximation and subspace tracking, OPAST)进行适当改进, Bartelmaos等提出了一种可以并行提取多个主成分的PC-OPAST (Principal component-OPAST)算法[13], 仿真实验表明PC-OPAST算法的估计精度要高于WNIC算法; Li等通过对NIC算法进行了改进, 提出了一种具有对称结构的算法---MNIC (Modified NIC)算法[14];此后基于Givens空间旋转变换法, Thameri等[15-16]采用提出了4种不同类型的多个主成分并行提取算法(MED-GOPAST (Maximum error deviation-generalized OPAST)、IMED-GOPAST (Improved MED-generalized OPAST)、AS-GOPAST (Automatic selection-generalized OPAST)、H-GOPAST (Hybrid-generalized OPAST)).相比上述其他算法, Thameri等所提算法具有较低的计算复杂度.然而, 上述大多数并行提取算法都属于二阶算法, 算法的收敛速度较慢.为了进一步提升算法的收敛速度, 本文提出了一种新型的算法.

    本文的章节安排如下:第1节主要介绍本文中符号的命名规则和重要符号说明; 第2节根据现有的算法提出了一种新型的多个主成分提取算法; 第3节主要是对算法进行收敛性分析; 算法的自稳定性证明安排在第4节; 第5节是算法的数值仿真和实际应用; 第6节是本文的结论.

    为了规范符号使用, 这里对本文中符号的使用规则进行确定.在本文中, 矩阵用斜体大写字母表示(如 ${{R}}$ ); 而加粗的斜体小写字母则代表向量(如 ${{\pmb y}}$ ); 标量一般用不加粗的斜体小写字母表示(如 $\eta $ ).此外, 这里还给出了一些常用符号的含义:

    ${{R}}$ 向量的自相关矩阵

    ${{W}}$ 神经网络的权矩阵

    ${{A}}$ 加权矩阵

    $\eta $ 神经网络的学习因子

    $\alpha$ 遗忘因子

    $n$ 提取主成分的维数

    考虑满足如下多输入多输出关系的线性神经网络模型:

    $ \begin{equation} {{\pmb y}}(k)= {{{W}}^{\rm T}}(k){{\pmb x}}(k) \end{equation} $

    (1)

    其中, ${{\pmb y}}(k)\in\textbf{R}{^{r \times 1}}$ 是神经网络的输出, ${{W}}(k)\in \textbf{R} {^{n \times r}}$ 是神经网络的权矩阵, 输入信号 ${{\pmb x}}(k)\in {\textbf{R}^{n \times 1}}$ 是一个零均值的随机过程, 这里作为神经网络的输入, $n$ 代表输入向量的维数, $r$ 代表所需提取主成分的维数.

    令为输入信号的自相关矩阵, ${\lambda _i}$ 和分别为自相关矩阵 ${{R}}$ 的特征值和对应的特征向量.则根据矩阵理论的知识可得:矩阵 ${{R}}$ 是一个对称正定矩阵, 且其特征值均是非负的.对矩阵 ${{R}}$ 进行特征值分解得:

    $ \begin{equation} {{R}} = {{U\Lambda }}{{{U}}^{\rm T}} \end{equation} $

    (2)

    其中, 是由矩阵 ${{R}}$ 的特征向量构成的矩阵, 是由矩阵 ${{R}}$ 的特征值组成的对角矩阵.为了后续使用方便, 这里将特征值按照降序的方式进行排列, 即特征值满足如下方程:

    $ \begin{equation} {\lambda _1} > {\lambda _2} > \cdots > {\lambda _r} > \cdots > {\lambda _n} > 0 \end{equation} $

    (3)

    根据主成分的定义可知, 特征值所对应的特征向量称为矩阵 ${{R}}$ 的前 $r$ 主成分, 而通常将由这些主成分张成的空间称为信号的主子空间.而多个主成分提取算法的任务就是构造合适的神经网络权矩阵迭代更新方程, 使神经网络的权矩阵能够收敛到矩阵 ${{R}}$ 的前 $r$ 主成分.

    在文献[11]中, Oja等利用加权子空间法提出了多个主成分并行提取算法, 其算法形式为:

    $ \begin{align} {{W}}(k + 1)=& {{W}}(k)+ \eta [{{RW}}(k)- \nonumber\\ &{{W}}(k){{{W}}^{\rm T}}(k){{RW}}(k){{A}}] \end{align} $

    (4)

    其中, $\eta$ 是神经网络的学习因子且满足关系 $0< \eta <1$ , $A$ 是一个 $r \times r$ 维对角矩阵且其对角线元素为: .在式(4) 所描述的学习算法的约束下, 神经网络算法的权矩阵将收敛到信号自相关矩阵 ${{R}}$ 的前 $r$ 个主成分.然而算法(4) 存在收敛速度慢的问题, 为此本文提出了如下算法, 其算法形式为:

    $ \begin{align} {{W}}(k &+ 1) =\nonumber\\ &{{W}}(k)+ \eta {{W}}(k)[{({{{W}}^{\rm T}}(k){{W}}(k))^{-1}}- \nonumber\\ &{{I}}]+\eta ({{RW}}(k){{{W}}^{\rm T}}(k){{W}}(k){{{A}}^2} -\nonumber\\ &{{W}}(k){{A}}{{{W}}^{\rm T}}(k){{RW}}(k){{A}}) \end{align} $

    (5)

    其中矩阵 ${{A}}$ 同样为一个 $r \times r$ 维对角矩阵且其对角线元素为: ${a_1} > {a_2} > \cdots > {a_r} > 0$ , 这点是与算法(4) 一致的.式(5) 是一种全新的多个主成分提取算法.对比式(4) 和式(5) 可以发现, 式(5) 是一个非二阶的算法.根据文献[9]的结论, 非二阶算法可以在算法迭代过程中引入一个自适应的学习因子, 进而加速算法的收敛速度.因此式(5) 所描述的算法应具有较快的收敛速度, 这点将在稍后的仿真实验部分予以验证.

    在主成分分析神经网络算法领域, 通常将与学习因子相乘的项称为算法的学习步长[9].显然, 式(5) 中算法的学习步长由两部分构成.为了简便起见, 这里令矩阵和矩阵.如果令式(5) 中的加权矩阵 ${{A}} = {{I}}$ , 且省去算法的矩阵 $C$ , 则算法退化成为另外一种主成分分析算法---Chen算法[17].然而仅仅由矩阵 ${{B}}$ 构成学习步长时, 算法很容易发生边界不稳定现象.为此, 需要对神经网络的加权矩阵加以限制, 最常用的方法就是增加正交约束[9].这里采用了一个非二阶的权矩阵约束措施(即添加矩阵 $C$ ), 这一操作不仅可以解决算法的不稳定问题, 还可以提升算法的收敛速度.

    式(5) 所描述的算法只适用于自相关矩阵已知的情况, 而在实际使用时只能得到信号的观测值, 自相关矩阵通常是未知的且是需要实时估计的.这里给出自相关矩阵的估计公式:

    $ \begin{equation} {{\hat R}}(k)= \frac{{(k - 1)}}{k}\alpha {{\hat R}}(k - 1)+ \frac{{{{{\pmb x}}_k}{{\pmb x}}_k^{\rm T}}}{k} \end{equation} $

    (6)

    其中, $\alpha$ 为遗忘因子, 且满足 $0<\alpha <1$ .显然当时, 矩阵 ${{\hat R}}(k)\to {{R}}$ .因此式(5) 在实际使用时, 应首先使用式(6) 对自相关矩阵进行估计, 然后将估计得到的矩阵代入式(5), 即可以完成对输入信号多个主成分的提取.为方便使用, 这里将式(5) 所描述的算法记为FMPCE (Fast multiple principle components extraction algorithm)算法.

    本节将对所提算法在平稳点处的收敛特性进行分析, 相关结论由定理1给出.

    定理1. 当且仅当权矩阵 ${{W}} = {{P}}$ 时, 式(5) 所描述的FMPCE算法达到稳定状态, 其中 $P$ 是由矩阵 $R$ 的前 $r$ 个特征值对应的特征向量构成的矩阵, 即有.

    证明. 根据文献[18]的描述, 算法的学习步长通常为一个损失函数的梯度.通过对损失函数平稳点的分析就可以完成算法收敛性的分析.这里假设该损失函数为 $JW$ , 则该损失函数对于权矩阵 $W$ 的一阶微分可以表示为:

    $ \begin{align} \nabla J({{W}})&=\nonumber \\ &{{RW}}{{{W}}^{\rm T}}{{W}}{A^2} - {{WA}}{{{W}}^{\rm T}}{{RWA}}+ \nonumber\\ & {{W}}{({{{W}}^{\rm T}}{{W}})^{ - 1}} - {{W}} \end{align} $

    (7)

    如果权矩阵 ${{W}} = {{P}}$ , 则有

    $ \begin{align} \nabla J({{W}})&|_{W= P}=\nonumber\\& {{RP}}{{{P}}^{\rm T}}{{P}}{{{A}}^2} - {{PA}}{{{P}}^{\rm T}}{{RPA}}~+ \nonumber\\&{{P}}{({{{P}}^{\rm T}}{{P}})^{ - 1}} - {{P}}=\nonumber\\& {{P}}{{{\Lambda }}_r}{{{A}}^2} - {{PA}}{{{\Lambda }}_r}{{A}}= {{0}} \end{align} $

    (8)

    其中, 是由矩阵 $R$ 的前 $r$ 个特征值构成的对角矩阵.反之, 根据矩阵分析理论, 在平稳点处有 $\nabla J({{W}})= {{0}}$ , 即

    $ \begin{equation} \begin{split} &{{RW}}{{{W}}^{\rm T}}{{W}}{{{A}}^2} - {{WA}}{{{W}}^{\rm T}}{{RWA}} = \\ &~~~~~~~~~{{W}} - {{W}}{({{{W}}^{\rm T}}{{W}})^{ - 1}} \end{split} \end{equation} $

    (9)

    对上式两边左乘以 ${{{W}}^{\rm T}}$ , 可得

    $ \begin{equation} \begin{split} &{{{W}}^{\rm T}}{{RW}}{{{W}}^{\rm T}}{{W}}{{{A}}^2} - {{{W}}^{\rm T}}{{WA}}{{{W}}^{\rm T}}{{RWA}}=\\ & \quad\quad\quad\quad {{{W}}^{\rm T}}{{W}} - {{I}} \end{split} \end{equation} $

    (10)

    定义矩阵 ${{Q}} = {{{W}}^{\rm T}}{{W}} - {{I}}$ , 则矩阵 $Q$ 是一个对称矩阵, 由于权矩阵 $W$ 的任意性, 则有矩阵和分别是两个对称矩阵, 即有

    $ \begin{equation} {{{W}}^{\rm T}}{{RW}}{{{W}}^{\rm T}}{{W}}{{{A}}^2} = {{{A}}^2}{{{W}}^{\rm T}}{{W}}{{{W}}^{\rm T}}{{RW}} \end{equation} $

    (11)

    $ \begin{equation} {{{W}}^{\rm T}}{{WA}}{{{W}}^{\rm T}}{{RWA}} = {{A}}{{{W}}^{\rm T}}{{RWA}}{{{W}}^{\rm T}}{{W}} \end{equation} $

    (12)

    由于矩阵 ${{{W}}^{\rm T}}{{RW}}$ 和矩阵 $A$ 均是对称矩阵, 则根据上面两式可得 ${{{W}}^{\rm T}}{{W}} = {{I}}$ .也就是说, 在 $J({{W}})$ 的平稳点处权矩阵 $W$ 的各列向量之间是相互正交的.将其代入式(9) 可得, $J({{W}})$ 平稳点有:

    $ \begin{equation} {{RW}}{{{A}}^2} = {{WA}}{{{W}}^{\rm T}}{{RWA}} \end{equation} $

    (13)

    令是矩阵的特征值分解, 其中 $Q$ 是一个正交矩阵.将其代入式(13) 可得: ${{RP'}} = {{P'}}{{{\Lambda '}}_r}$ , 其中, .由于矩阵 ${{{\Lambda '}}_r}$ 是一个对角矩阵且 ${{P'}}$ 是一个列满秩矩阵, 则矩阵 ${{{\Lambda'}}_r}$ 和 ${{P'}}$ 必定等于矩阵 ${{{\Lambda }}_r}$ 和 ${{P}}$ .

    下面对加权矩阵 ${{A}}$ 的作用做进一步讨论.令和 ${{{R}}_y} = {{{W}}^{\rm T}}{{RW}}$ , 将其代入式(13) 并进行适当化简可得:

    $ \begin{equation} {{W}} = {{{R}}_{xy}}{({{A}}{{{R}}_y}{{{A}}^{ - 1}})^{ - 1}} \end{equation} $

    (14)

    矩阵的作用就是对矩阵 ${{{R}}_{xy}}$ 的各列向量施加Gram-Schmidt正交化操作[19].由于矩阵是一个非对称矩阵且矩阵的各元素可以写为:

    $ \begin{align} \begin{array}{l} {{A}}{{{R}}_y}{{{A}}^{ - 1}}=~~~~~\\ ~~~ \left[{\begin{array}{*{10}{c}} {{\rm E}\{ z_1^2\} }&{\dfrac{{{a_1}}}{{{a_2}}}z}&{\dfrac{{{a_1}}}{{{a_3}}}z}& \cdots &{\dfrac{{{a_1}}}{{{a_r}}}z}\\ {\dfrac{{{a_2}}}{{{a_1}}}z}&{{\rm E}\{ z_2^2\} }&{\dfrac{{{a_2}}}{{{a_3}}}z}& \cdots &{\dfrac{{{a_2}}}{{{a_r}}}z}\\ \vdots&\vdots&\vdots &\ddots&\vdots \\ {\dfrac{{{a_r}}}{{{a_1}}}z}&{\dfrac{{{a_2}}}{{{a_r}}}z}&{\dfrac{{{a_3}}}{{{a_r}}}z}& \cdots &{{\rm E}\{ z_r^2\} } \end{array}} \right] \end{array} \end{align} $

    (14)

    其中用 $z$ 来代表矩阵 ${{{R}}_y}$ 的元素.根据式(15) 可得矩阵 ${{{R}}_y}$ 的上三角部分的元素均是乘以一个大于1的数, 而下三角部分则是乘以一个小于1的数.通过使用第一列正交化 ${{R}}_{xy}$ 可以获得矩阵 ${{{R}}}$ 的第一个主成分, 通过第二列正交化 ${{R}}_{xy}$ 可以获得矩阵 ${{{R}}}$ 的第二个主成分, 依次类推.值得注意的是第二列中只有一个大于1的系数 ${{a}_{1}}/{{a}_{2}}$ , 而其他所有系数均是小于1.根据文献[20]可得, 系数 ${{a}_{1}}/{{a}_{2}}$ 可以避免后续操作对已经提取的主成分造成影响.上述分析表明, 可以通过合理的选择加权矩阵 ${{A}}$ , 使得算法最终将能够实现对矩阵 $R$ 的多个主成分的提取.

    自稳定性是指不论神经网络初始权矩阵如何选择, 神经网络权矩阵的模值均能收敛到一个常值, 而与初始权矩阵无关.在文献[21]中Möller指出:所有不具备自稳定性的神经网络算法都具有发散的可能性, 因此自稳定性已经成为了神经网络算法的一个必备特性.本节将对FMPCE算法的自稳定性进行分析证明.

    定理2. 如果输入信号是有界的且学习因子 $\eta$ 足够小, 则FMPCE算法的权矩阵模值将收敛到一个常值(该值等于提取主成分维数的均方根, 即 $\sqrt{r}$ ), 而与初始权矩阵的选择无关.

    证明. 根据式(5) 可得, 在 $k+1$ 时刻权矩阵的模值为:

    $ \begin{align*} \begin{array}{l} \left\| {{{W}}(k + 1)} \right\|_F^2=~~~~\\ ~~~~~~~~ {\rm tr}\left[{{{{W}}^{\rm T}}(k + 1){{W}}(k + 1)} \right]=\\~~~~~~~~ {\rm tr}\left\{ {\left[{{{W}} + \eta {{RW}}{{{W}}^{\rm T}}{{W}}{{{A}}^2}- \eta {{W}}-} \right.} \right.\\~~~~~~~~ {\left. {\eta {{WA}}{{{W}}^{\rm T}}{{RWA}} + \eta {{W}}{{({{{W}}^{\rm T}}{{W}})}^{-1}}} \right]^{\rm T}}\times\\~~~~~~~~ \left[{{{W}} + \eta {{W}}{{({{{W}}^{\rm T}}{{W}})}^{-1}}-\eta {{W}}} \right. + \\~~~~~~~~ \left. {\left. { \eta {{RW}}{{{W}}^{\rm T}}{{W}}{{{A}}^2}-\eta {{WA}}{{{W}}^{\rm T}}{{RWA}}} \right]} \right\}=\\~~~~~~~~ {\rm tr}\left\{ {{{{W}}^{\rm T}}{{W}} + 2\eta {{{W}}^{\rm T}}{{RW}}{{{W}}^{\rm T}}{{W}}{{{A}}^2}}- \right.\\~~~~~~~~ 2\eta {{{W}}^{\rm T}}{{WA}}{{{W}}^{\rm T}}{{RWA}} - 2\eta {{{W}}^{\rm T}}{{W}}+ \\~~~~~~~~ 2\eta {{{W}}^{\rm T}}{{W}}{({{{W}}^{\rm T}}{{W}})^{ - 1}} + o(\eta ) \approx\\~~~~~~~~ {\rm tr}\left\{ {{{{W}}^{\rm T}}{{W}}} \right\} + 2\eta {\rm tr}\left\{ {{{I}} - {{{W}}^{\rm T}}{{W}}} \right\} \end{array}\\[-6mm] \end{align*} $

    (16)

    在上式中为了书写方便, 而省略了第二个等号以后的迭代时刻符号 $k$ .由于学习因子足够小, 因此可以忽略有关学习因子的二阶项.对比前后两个时刻权矩阵模值的大小可得:

    $ \begin{equation} \begin{split} &\frac{{\left\| W(k + 1) \right\|_F^2}}{{\left\| {{{W}}(k)} \right\|_F^2}}=~~~~~~~~~~~~\\ &~~~~~~~~~~~~1+\frac{{ 2\eta {\rm tr}\left\{ {{{I}} - {{{W}}^{\rm T}}(k){{W}}(k)} \right\}}}{{{\rm tr}\left\{ {{{{W}}^{\rm T}}(k){{W}}(k)} \right\}}}=\\ &~~~~~~~~~~~~ 1 + 2\eta \frac{{r - \left\| {{{W}}(k)} \right\|_F^2}}{{\left\| {{{W}}(k)} \right\|_F^2}}~~~~~~\\ &~~~~~~~~~~~~ \left\{ {\begin{array}{*{20}{c}} { > 1}, &\mbox{若}&{\left\| {{{W}}(k)} \right\|_F^{} < \sqrt r }\\ { = 1}, &\mbox{若}&{\left\| {{{W}}(k)} \right\|_F^{} = \sqrt r }\\ { < 1}, &\mbox{若}&{\left\| {{{W}}(k)} \right\|_F^{} > \sqrt r } \end{array}} \right. \end{split} \end{equation} $

    (17)

    通过式(17) 可以发现, 无论 $k$ 时刻的权矩阵模值是否等于 $\sqrt r $ , 下一时刻 $k+1$ 的权矩阵模值都将趋于 $\sqrt r $ , 即在收敛时权矩阵模值将趋于一个常数.这一特性表明, 无论初始时刻的权矩阵模值如何选择, 将不会对算法的收敛结果造成任何影响, 即FMPCE算法具有自稳定性.

    本节将提供4个仿真实验来对所提算法的性能进行验证.第一个实验主要验证FMPCE算法提取信号中多个主成分的能力; 第二实验主要考察FMPCE算法的自稳定性; 第三个实验则是将FMPCE算法与一些现存的多个主成分提取算法进行比较; 第四个实验则是应用FMPCE算法进行图像压缩和重建并与一些现有算法进行比较.在整个实验过程中, 为了定量地对算法性能进行评价, 这里引入如下两个评价函数, 第一个是方向余弦(Direction cosine, DC):

    $ \begin{equation} {\rm DC}_i(k)= \frac{{\left| {{{\pmb w}}_i^{\rm T}(k){{{\pmb u}}_i}} \right|}}{{\left\| {{{\pmb w}_i}(k)} \right\| \cdot \left\| {{{{\pmb u}}_i}} \right\|}} \end{equation} $

    (18)

    其中, $i = 1, 2, \cdots, r$ 且 ${{{\pmb w}}_i}$ 代表权矩阵 $W$ 的第 $i$ 列, ${{{\pmb u}}_i}$ 则代表信号的第 $i$ 个主成分.从式(18) 可以得出:如果方向余弦曲线能够收敛到1, 神经网络算法的权矩阵必定已经收敛到信号主成分的方向.方向余弦衡量的是算法的估计精度, 而权向量模值则能够评价算法的收敛性.

    $ \begin{equation} {\rm{Nor}}{{\rm{m}}_i}{\rm{(}}k{\rm{)= }}\left\| {{{{\pmb w}}_i}(k)} \right\|, {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} i = 1, 2, \cdots, r \end{equation} $

    (19)

    本实验采用文献[10]中所使用的信号产生方法, 输入信号采用如下一阶滑动回归模型来产生:

    $ \begin{equation} x(k)= 0.75x(k - 1)+ e(k) \end{equation} $

    (20)

    该模型由一个均值为0方差为1的高斯白噪声 $e(k)$ 作为模型驱动输入.取该模型的10个不连续的输出构成神经网络的输入向量, 即 $n=10$ .接下来采用本文所提出的FMPCE算法对该输入信号的前3个主成分进行提取, 即 $r=3$ . FMPCE算法的初始化参数设置为:初始权矩阵为随机的, 学习因子 $\eta=0.1$ , 加权矩阵 ${{A}} ={\rm diag}\{3, 2, 1\}$ .图 1图 2分别给出了FMPCE算法的仿真结果, 在该图中, 所有学习曲线均是为100次独立实验的平均结果.

    图 1  FMPCE算法的方向余弦曲线
    Fig. 1  DC curves of FMPCE
    图 2  FMPCE算法的权向量模值曲线
    Fig. 2  Norm curves of FMPCE

    图 1中可以看出:大约经过1500次左右的迭代后, FMPCE算法的3条方向余弦曲线就都收敛到了1, 这就说明FMPCE算法的权矩阵已经收敛到了信号主成分的方向; 对照图 2可以看出, 经过30次迭代运算后, 权矩阵模值均已经收敛到1, 也就是说此时的FMPCE算法已经收敛.该仿真实验表明: FMPCE算法具备提取信号多个主成分的能力.

    本实验主要对FMPCE算法的自稳定性进行仿真验证.本实验同样采取式(20) 产生的输入信号. FMPCE算法的初始化参数设置为:学习因子 $\eta = 0.01$ , 加权矩阵, 初始化权矩阵为随机产生的且其模值被标准化为模值大于3, 等于3和小于3等情况.然后分别考察在这种不同初始权矩阵情况下, FMPCE算法的权矩阵模值收敛情况.

    图 3是经过100次独立仿真获得的FMPCE算法权矩阵模值曲线, 从图 3中可以看出:不论初始权矩阵如何选择, FMPCE算法收敛时权矩阵模值均等于 $\sqrt{3}$ , 这点是与定理2中的分析一致的.通过该实验可得: FMPCE算法具有自稳定性.

    图 3  不同初始条件下FMPCE算法的权矩阵模值曲线
    Fig. 3  Norm curves of FMPCE under different conditions

    本节将所提出的FMPCE算法与文献[14]中的MNIC算法和文献[15]中的MED-GOPAST算法进行对比.本实验中的输入信号同样由式(20) 产生, 这里分别采用这三种算法对该输入信号的前2个主成分进行提取, 即 $r=2$ .三种算法的初始化参数设置为:对MNIC算法和FMPCE算法而言, 加权矩阵 ${{A}} ={\rm diag}\{2, 1\}$ , 学习因子 $\eta = 0.15$ ; 对MED-GOPAST算法而言, 遗忘因子 $\alpha = 0.998$ .为了公平比较, 三种算法的初始化权矩阵均是随机产生的.三种算法对于该信号的提取结果如图 4图 5所示, 该结果是100次独立实验结果的平均值.

    图 4  三种算法提取第一个主成分的方向余弦曲线
    Fig. 4  DC curves of three algorithms for the 1st PC
    图 5  三种算法提取第二个主成分的方向余弦曲线
    Fig. 5  DC curves of three algorithms for the 2nd PC

    图 4图 5中可以看出:大约经历了200次左右的迭代运算后, FMPCE算法的方向余弦曲线就已经收敛到了1, 这一收敛速度要优于MED-GOPAST算法和MNIC算法.从上面两图的最后放大结果中还可以看出, 虽然三种算法均收敛到了单位1, 但是三种算法的最终收敛值并不相同:其中MNIC算法与单位1偏差最大, MED-GOPAST算法次之, 三种算法中FMPCE算法偏差最小.由于方向余弦可以表征算法的估计精度, 所以可以说在这三种算法中, FMPCE算法具有最好的估计精度.通过此实验可以得出结论: FMPCE算法不仅具有较快的收敛速度, 而且具有很高的估计精度.

    图像压缩一直是计算机图形图像学领域内的热点问题, 通过图像压缩技术可以减小图像数据中的冗余信息从而实现更加高效的格式存储和数据传输, 而基于主成分分析的压缩方法又是图像压缩领域内的一种常用方法[22].本小节将采用主成分分析方法对著名的Lena图像进行压缩和重构. Lena原始图像如图 6(a)所示, 该图像的分辨率512像素 $\times$ 512像素.这里将Lena图像分解为若干个8像素 $\times$ 8像素的不重叠小块并将这些小块按照从左到右从上到下的顺序排列, 就构成了一个64维的数据向量.将这些数据进行中心化处理后作为主成分分析算法的输入序列.然后分别采用FMPCE算法、MED-GOPAST算法和MNIC算法对Lena图像进行压缩后重建.

    图 6  原始的与重构后的Lena图像
    Fig. 6  Original and reconstituted Lena images

    三种算法的初始化参数设置方法与第5.3节相同, 这里不再重复.图 6(b) $\sim$ (d)分别给出了在重构维数为1, 4, 7三种不同情况下采用FMPCE算法对于Lena图像的重构结果, 表 1给出了在不同的重构维数下, 三种算法的重构误差.从图 6表 1中可以得出:利用FMPCE算法对Lena图像进行压缩重构可以获得较清晰的重构图像和较低的重构误差, 即可以利用FMPCE算法解决图像重构问题.对比三种不同算法的重构误差还可以发现, 在相同的重构维数下FMPCE算法具有最小的重构误差, 即FMPCE算法对提取的主成分具有最高的估计精度, 这点是与第5.3节中的结论一致的.

    表 1  不同重构维数下三种算法的重构误差
    Table 1  Reconstitution errors of the three algorithms with different reconstitution dimensions
    重构维数 1 4 7
    FMPCE 0.094 0.0837 0.0813
    MED-GOPAST 0.0959 0.0852 0.0846
    MNIC 0.1283 0.1015 0.0933
    下载: 导出CSV 
    | 显示表格

    本文首先对一些多个主成分提取并行算法进行了研究, 针对现有算法收敛速度慢的问题, 提出了一种新的具有较快收敛速度的非二阶算法, 该算法可以从输入信号中并行提取多个主成分; 然后采用平稳点分析法对所提算法的收敛性和自稳定性进行了证明; 最后通过仿真实验对所提算法的性能进行了验证.仿真结果表明:相比一些现有算法, 所提算法不仅收敛速度快而且估计精度较高.

  • [1] Adelson E H, Bergen J R. The plenoptic function and the elements of early vision. Computational Models of Visual Processing. Cambridge, MA:MIT Press, 1991. 3-20
    [2] [2] Liu Y B, Dai Q H, Xu W L. A point-cloud-based multiview stereo algorithm for free-viewpoint video. IEEE Transactions on Visualization and Computer Graphics, 2010, 16(3):407-418
    [3] [3] Adams A, Talvala E V, Park S H, Jacobs D E, Ajdin B, Gelfand M, Dolson J, Vaquero D, Baek J, Tico M, Lensch H P A, Matusik W, Pulli K, Horowitz M, Levoy M. The Frankencamera:an experimental platform for computational photography. ACM Transactions on Graphics, 2010, 29(4):Article No.29
    [4] [4] Ng R, Levoy M, Brdif M, Duval G, Horowitz M, Hanrahan P. Light Field Photography with a Hand-Held Plenoptic Camera, Computer Science Technical Report CTSR 2005-02, Stanford, 2005.
    [5] [5] Ng R. Fourier slice photography. ACM Transactions on Graphics, 2005, 24(3):735-744
    [6] [6] Johnson M K, Cole F, Raj A, Adelson E H. Microgeometry capture using an elastomeric sensor. ACM Transactions on Graphics, 2011, 30(4):Article No.46
    [7] [7] Debevec P, Wenger A, Tchou C, Gardner A, Waese J, Hawkins T. A lighting reproduction approach to live-action compositing. ACM Transactions on Graphics, 2002, 21(3):547-556
    [8] [8] Wenger A, Gardner A, Tchou C, Unger J, Hawkins T, Debevec P. Performance relighting and reflectance transformation with time-multiplexed illumination. ACM Transactions on Graphics, 2005, 24(3):756-764
    [9] [9] Einarsson P, Chabert C F, Jones A, Ma W C, Lamond B, Hawkins T, Bolas M, Sylwan S, Debevec P. Relighting human locomotion with flowed reflectance fields. In:Proceedings of the 17th Eurographics Conference on Rendering Techniques. Aire-la-Ville, Switzerland, Switzerland:Eurographics Association, 2006. 183-194
    [10] Wu D, Liu Y B, Ihrke I, Dai Q H, Theobalt C. Performance capture of high-speed motion using staggered multi-view recording. Computer Graphics Forum, 2012, 31(7):2019-2028
    [11] Vlasic D, Peers P, Baran I, Debevec P, Popović J, Rusinkiewicz S, Matusik W. Dynamic shape capture using multi-view photometric stereo. ACM Transactions on Graphics, 2009, 28(5):Article No.174
    [12] Ghosh A, Fyffe G, Tunwattanapong B, Busch J, Yu X, Debevec P. Multiview face capture using polarized spherical gradient illumination. ACM Transactions on Graphics, 2011, 30(6):Article No.129
    [13] Tunwattanapong B, Fyffe G, Graham P, Busch J, Yu X M, Ghosh A, Debevec P. Acquiring reflectance and shape from continuous spherical harmonic illumination. ACM Transactions on Graphics, 2013, 32(4):Article No.109
    [14] Chen T B, Lensch H P, Fuchs C, Seidel H P. Polarization and phase-shifting for 3D scanning of translucent objects. In:Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis, USA:IEEE, 2007. 1-8
    [15] Gupta M, Tian Y D, Narasimhan S G, Zhang L. Defocusing on global light transport for active scene recovery. In:Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami, FL:IEEE, 2009. 2969-2976
    [16] Zhang L, Nayar S. Projection defocus analysis for scene capture and image display. ACM Transactions on Graphics, 2006, 25(3):907-915
    [17] Gupta M, Agrawal A, Veeraraghavan A, Narasimhan S G. Structured light 3D scanning in the presence of global illumination. In:Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI:IEEE, 2011. 713-720
    [18] Gupta M, Nayar S K. Micro phase shifting. In:Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI:IEEE, 2012. 813-820
    [19] Gu J W, Nayar S, Grinspun E, Belhumeur P, Ramamoorthi R. Compressive structured light for recovering inhomogeneous participating media. In:Proceedings of the 10th European Conference on Computer Vision. Berlin, Heidelberg:Springer, 2008. 845-858
    [20] Cossairt O S, Miau D, Nayar S K. Scaling law for computational imaging using spherical optics. Journal of the Optical Society of America A, 2011, 28(12):2540-2553
    [21] Brady D J, Gehm M E, Stack R A, Marks D L, Kittle D S, Golish D R, Vera E M, Feller S D. Multiscale gigapixel photography. Nature, 2012, 486(7403):386-389
    [22] Wu C L, Liu Y B, Dai Q H, Wilburn B. Fusing multiview and photometric stereo for 3D reconstruction under uncalibrated illumination. IEEE Transactions on Visualization and Computer Graphics, 2011, 17(8):1082-1095
    [23] Ben-Ezra M, Zomet A, Nayar S K. Video super-resolution using controlled subpixel detector shifts. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(6):977-987
    [24] Deng Y, Liu Y B, Dai Q H, Zhang Z K, Wang Y. Noisy depth maps fusion for multiview stereo via matrix completion. IEEE Journal of Selected Topics in Signal Processing, 2012, 6(5):566-582
    [25] Heide F, Rouf M, Hullin M B, Labitzke B, Heidrich W, Kolb A. High-quality computational imaging through simple lenses. ACM Transactions on Graphics, 2013, 32(5):Article No.149
    [26] Wetzstein G, Raskar R, Heidrich W. Hand-held schlieren photography with light field probes. In:Proceedings of the 2011 IEEE International Conference on Computational Photography. Pittsburgh, USA:IEEE, 2011. 1-8
    [27] Wetzstein G, Roodnick D, Heidrich W, Raskar R. Refractive shape from light field distortion. In:Proceedings of the 2011 IEEE International Conference on Computer Vision. Barcelona, Spain:IEEE, 2011. 1180-1186
    [28] Levoy M, Ng R, Adams A, Footer M, Horowitz M. Light field microscopy. ACM Transactions on Graphics, 2006, 25(3):924-934
    [29] Liang C K, Lin T H, Wong B Y, Liu C, Chen H H. Programmable aperture photography:multiplexed light field acquisition. ACM Transactions on Graphics, 2008, 27(3):Article No.55
    [30] Veeraraghavan A, Raskar R, Agrawal A, Mohan A, Tumblin J. Dappled photography:mask enhanced cameras for heterodyned light fields and coded aperture refocusing. ACM Transactions on Graphics, 2007, 26(3):Article No.69
    [31] Raskar R, Agrawal A, Wilson C A, Veeraraghavan A. Glare aware photography:4d ray sampling for reducing glare effects of camera lenses. ACM Transactions on Graphics, 2008, 27(3):Article No.56
    [32] Wilburn B, Joshi N, Vaish V, Talvala E V, Antunez E, Barth A, Adams A, Horowitz M, Levoy M. High performance imaging using large camera arrays. ACM Transactions on Graphics, 2005, 24(3):765-776
    [33] Vaish V, Garg G, Talvala E V, Antunez E, Wilburn B, Horowitz M, Levoy M. Synthetic aperture focusing using a shear-warp factorization of the viewing transform. In:Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, D.C., USA:IEEE, 2005. 129
    [34] Green P, Sun W Y, Matusik W, Durand F. Multi-aperture photography. ACM Transactions on Graphics, 2007, 26(3):Article No.68
    [35] Levin A, Fergus R, Durand F, Freeman W T. Image and depth from a conventional camera with a coded aperture. ACM Transactions on Graphics, 2007, 26(3):Article No.70
    [36] Dowski Jr E R, Johnson G E. Wavefront coding:a modern method of achieving high-performance and/or low-cost imaging systems. In:Proceedings of the 1999 SPIE Conference on Current Developments in Optical Design and Optical Engineering VⅢ. SPIE, 1999, 3779:137-145
    [37] Levin A, Hasinoff S W, Green P, Durand F, Freeman W T. 4D frequency analysis of computational cameras for depth of field extension. ACM Transactions on Graphics, 2009, 28(3):Article No.97
    [38] Lin X, Suo J L, Wetzstein G, Dai Q H, Raskar R. Coded focal stack photography. In:Proceedings of the 2013 IEEE International Conference on Computational Photography. Cambridge, USA:IEEE, 2013. 1-9
    [39] Bando Y, Holtzman H, Raskar R. Near-invariant blur for depth and 2D motion via time-varying light field analysis. ACM Transactions on Graphics, 2013, 32(2):Article No.13
    [40] Wetzstein G, Lanman D, Heidrich W, Raskar R. Layered 3D:tomographic image synthesis for attenuation-based light field and high dynamic range displays. ACM Transactions on Graphics, 2011, 30(4):Article No.95
    [41] Lanman D, Wetzstein G, Hirsch M, Heidrich W, Raskar R. Polarization fields:dynamic light field display using multi-layer LCDs. ACM Transactions on Graphics, 2011, 30(6):Article No.186
    [42] Wetzstein G, Lanman D, Hirsch M, Raskar R. Tensor displays:compressive light field synthesis using multilayer displays with directional backlighting. ACM Transactions on Graphics, 2012, 31(4):Article No.80
    [43] Grosse M, Wetzstein G, Grundhoefer A, Bimber O. Coded aperture projection. ACM Transactions on Graphics, 2010, 29(3):Article No.22
    [44] Ma C G, Suo J L, Dai Q H, Raskar R, Wetzstein G. High-rank coded aperture projection for extended depth of field. In:Proceedings of the 2013 IEEE International Conference on Computational Photography. Cambridge, USA:IEEE, 2013. 1-9
    [45] Levin A, Freeman W T, Durand F. Understanding camera trade-offs through a Bayesian analysis of light field projections. In:Proceedings of the 10th European Conference on Computer Vision. Berlin, Heidelberg:Springer-Verlag, 2008. 88-101
    [46] Bishop T E, Zanetti S, Favaro P. Light field superresolution. In:Proceedings of the 2009 IEEE International Conference on Computational Photography. San Francisco, USA:IEEE, 2009. 1-9
    [47] Marwah K, Wetzstein G, Bando Y, Raskar R. Compressive light field photography using overcomplete dictionaries and optimized projections. ACM Transactions on Graphics, 2013, 32(4):Article No.46
    [48] Levin A, Durand F. Linear view synthesis using a dimensionality gap light field prior. In:Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition. San Francisco, CA:IEEE, 2010. 1831-1838
    [49] Lin X, Suo J L, Cao X, Dai Q H. Iterative feedback estimation of depth and radiance from defocused images. In:Proceedings of the 11th Asian Conference on Computer Vision. Berlin, Heidelberg:Springer, 2013. 95-109
    [50] Karsch K, Hedau V, Forsyth D, Hoiem D. Rendering synthetic objects into legacy photographs. ACM Transactions on Graphics, 2011, 30(6):Article No.157
    [51] Mohan A, Raskar R, Tumblin J. Agile spectrum imaging:Programmable wavelength modulation for cameras and projectors. Computer Graphics Forum, 2008, 27(2):709-717
    [52] Cao X, Du H, Tong X, Dai Q H, Lin S. A prism-mask system for multispectral video acquisition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(12):2423-2435
    [53] Cao X, Tong X, Dai Q H, Lin S. High resolution multispectral video capture with a hybrid camera system. In:Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI:IEEE, 2011. 297-304
    [54] Luo X Y, Zhang J, Dai Q H. A regional image fusion based on similarity characteristics. Signal Processing, 2012, 92(5):1268-1280
    [55] Edgerton H E. Electronic flash, strobe (3rd edition). Cambridge:The MIT Press, 1987.
    [56] Theobalt C, Albrecht I, Haber J, Magnor M, Seidel H P. Pitching a baseball:tracking high-speed motion with multi-exposure images. ACM Transactions on Graphics, 2004, 23(3):540-547
    [57] Narasimhan S G, Koppal S J, Yamazaki S. Temporal dithering of illumination for fast active vision. In:Proceedings of the 10th European Conference on Computer Vision. Berlin, Heidelberg:Springer, 2008. 830-844
    [58] Veeraraghavan A, Reddy D, Raskar R. Coded strobing photography:compressive sensing of high speed periodic videos. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(4):671-686
    [59] Bub G, Tecza M, Helmes M, Lee P, Kohl P. Temporal pixel multiplexing for simultaneous high-speed, high-resolution imaging. Nature Methods, 2010, 7(3):209-211
    [60] Shechtman E, Caspi Y, Irani M. Increasing space-time resolution in video. In:Proceedings of the 7th European Conference on Computer Vision. Berlin, Heidelberg:Springer, 2002. 753-768
    [61] Shechtman E, Caspi Y, Irani M. Space-time super-resolution. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(4):531-545
    [62] Wilburn B, Joshi N, Vaish V, Levoy M, Horowitz M. High-speed videography using a dense camera array. In:Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, D.C.:IEEE, 2004. Ⅱ-294-Ⅱ-301
    [63] Agrawal A, Gupta M, Veeraraghavan A, Narasimhan S G. Optimal coded sampling for temporal super-resolution. In:Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition. San Francisco, USA:IEEE, 2010. 599-606
    [64] Liu Y B, Cao X, Dai Q H, Xu W L. Continuous depth estimation for multi-view stereo. In:Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami, FL:IEEE, 2009. 2121-2128
    [65] Li K, Dai Q H, Xu W L. Markless shape and motion capture from video sequences. IEEE Transactions on Circuits and System for Video Technology, 2011 21(3):320-334
    [66] Li H, Luo L J, Vlasic D, Peers P, Popović J, Pauly M, Rusinkiewicz S. Temporally coherent completion of dynamic shapes. ACM Transactions on Graphics, 2012, 31(1):Article No.2
    [67] Joshi N, Kang S B, Zitnick C L, Szeliski R. Image deblurring using inertial measurement sensors. ACM Transactions on Graphics, 2010, 29(4):Article No.30
    [68] Nayar S, Ben-Ezra M. Motion-based motion deblurring. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004, 26(6):689-698
    [69] Tai Y W, Du H, Brown M S, Lin S. Correction of spatially varying image and video motion blur using a hybrid camera. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(6):1012-1028
    [70] Agrawal A, Xu Y, Raskar R. Invertible motion blur in video. ACM Transactions on Graphics, 2009, 28(3):Article No.95
    [71] Raskar R, Agrawal A, Tumblin J. Coded exposure photography:motion deblurring using fluttered shutter. ACM Transactions on Graphics, 2006, 25(3):795-804
    [72] Levin A, Sand P, Cho T S, Durand F, Freeman W T. Motion-invariant photography. ACM Transactions on Graphics, 2008, 27(3):Article No.71
    [73] Cho T S, Levin A, Durand F, Freeman W T. Motion blur removal with orthogonal parabolic exposures. In:Proceedings of the 2010 IEEE International Conference on Computational Photography. Cambridge, USA:IEEE, 2010. 1-8
    [74] Li W, Zhang J, Dai Q H. Exploring aligned complementary image pair for blind motion deblurring. In:Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI:IEEE, 2011. 273-280
    [75] Fergus R, Singh B, Hertzmann A, Roweis S T, Freeman W T. Removing camera shake from a single photograph. ACM Transactions on Graphics, 2006, 25(3):787-794
    [76] Shan Q, Jia J Y, Agarwala A. High-quality motion deblurring from a single image. ACM Transactions on Graphics, 2008, 27(3):Article No.73
    [77] Cho S, Matsushita Y, Lee S. Removing non-uniform motion blur from images. In:Proceedings of the 11th IEEE International Conference on Computer Vision. Rio de Janeiro, Brazil:IEEE, 2007. 1-8
    [78] Tai Y W, Tan P, Brown M S. Richardson-lucy deblurring for scenes under a projective motion path. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(8):1603-1618
    [79] Whyte O, Sivic J, Zisserman A, Ponce J. Non-uniform deblurring for shaken images. International Journal of Computer Vision, 2012, 98(2):168-186
    [80] Mahajan D, Huang F C, Matusik W, Ramamoorthi R, Belhumeur P. Moving gradients:a path-based method for plausible image interpolation. ACM Transactions on Graphics, 2009, 28(3):Article No.42
    [81] Velten A, Willwacher T, Gupta O, Veeraraghavan A, Bawendi M G, Raskar R. Recovering three-dimensional shape around a corner using ultrafast time-of-flight imaging. Nature Communications, 2012, 3:Article No.745
    [82] Velten A, Wu D, Jarabo A, Masia B, Barsi C, Joshi C, Lawson E, Bawendi M, Gutierrez D, Raskar R. Femto-photography:capturing and visualizing the propagation of light. 2013, 32(4):Article No.44
    [83] Gupta O, Willwacher T, Velten A, Veeraraghavan A, Raskar R. Reconstruction of hidden 3d shapes using diffuse reflections. Optics Express, 2012, 20(17):19096-19108
    [84] Kirmani A, Hutchison T, Davis J, Raskar R. Looking around the corner using transient imaging. In Proceedings of the 2009 IEEE International Conference on Computer Vision, Kyoto, Japan, 2009. 159-166
    [85] Naik N, Zhao S, Velten A, Raskar R, Bala K. Single view reflectance capture using multiplexed scattering and time-of-flight imaging. ACM Transactions on Graphics, 2011, 30(6):Article No.171
    [86] Pandharkar R, Velten A, Bardagjy A, Lawson E, Bawendi M, Raskar R. Estimating motion and size of moving non-line-of-sight objects in cluttered environments. In:Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI:IEEE, 2011. 265-272
    [87] Wu D, O'Toole M, Velten A, Agrawal A, Raskar R. Decomposing global light transport using time of flight imaging. In:Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence, USA:IEEE, 2012. 366-373
    [88] Wu D, Wetzstein G, Barsi C, Willwacher T, O'Toole M, Naik N, Dai Q, Kutulakos K, Raskar R. Frequency analysis of transient light transport with applications in bare sensor imaging. In:Proceedings of the 12th European Conference on Computer Vision. Berlin, Heidelberg:Springer, 2012. 542-555
    [89] Talvala E V, Adams A, Horowitz M, Levoy M. Veiling glare in high dynamic range imaging. ACM Transactions on Graphics, 2007, 26(3):Article No.37
    [90] Narasimhan S G, Nayar S K, Sun B, Koppal S J. Structured light in scattering media. In:Proceedings of the 10th IEEE International Conference on Computer Vision. Beijing, China:IEEE, 2005. 420-427
    [91] Gupta M, Narasimhan S G, Schechner Y Y. On controlling light transport in poor visibility environments. In:Proceedings of the 2008 IEEE Conference on Computer Vision and Pattern Recognition. Anchorage, USA:IEEE, 2008. 1-8
    [92] Debevec P E, Malik J. Recovering high dynamic range radiance maps from photographs. In:Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. New York:ACM, 2008. 369-378
    [93] Kang S B, Uyttendaele M, Winder S, Szeliski R. High dynamic range video. ACM Transactions on Graphics, 2003, 22(3):319-325
    [94] Narasimhan S G, Nayar S K. Vision and the atmosphere. International Journal of Computer Vision, 2002, 48(3):233-254
    [95] Narasimhan S G, Nayar S K. Contrast restoration of weather degraded images. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(6):713-724
    [96] Narasimhan S G, Nayar S K. Interactive (de)weathering of an image using physical models. In:Proceedings of the 2003 IEEE Workshop on Color and Photometric Methods in Computer Vision. Nice, France:IEEE, 2003. 1-8
    [97] Rempel A G, Trentacoste M, Seetzen H, Young H D, Heidrich W, Whitehead L, Ward G. Ldr2hdr:on-the-fly reverse tone mapping of legacy video and photographs. ACM Transactions on Graphics, 2007, 26(3):Article No.39
    [98] Tan R T. Visibility in bad weather from a single image. In:Proceedings of the 2008 IEEE Conference on Computer Vision and Pattern Recognition. Anchorage, USA:IEEE, 2008. 1-8
    [99] Fattal R. Single image dehazing. ACM Transactions on Graphics, 2008, 27(3):Article No.72
    [100] He K M, Sun J, Tang X O. Single image haze removal using dark channel prior. In:Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami, FL:IEEE, 2009. 1956-1963
    [101] Tarel J P, Hautiere N. Fast visibility restoration from a single color or gray level image. In:Proceedings of the 2009 IEEE International Conference on Computer Vision. Kyoto, Japan:IEEE, 2009. 2201-2208
    [102] Sen P, Chen B, Garg G, Marschner S R, Horowitz M, Levoy M, Lensch H P A. Dual photography. ACM Transactions on Graphics, 2005, 24(3):745-755
    [103] Peers P, Mahajan D K, Lamond B, Ghosh A, Matusik W, Ramamoorthi R, Debevec P. Compressive light transport sensing. ACM Transactions on Graphics, 2009, 28(1):Article No.3
    [104] Katz O, Small E, Silberberg Y. Looking around corners and through thin turbid layers in real time with scattered incoherent light. Nature Photonics, 2012, 6(8):549-553
    [105] Greenbaum A, Luo W, Su T W, Grcs Z, Xue L, Isikman S O, Coskun A F, Mudanyali O, Ozcan A. Imaging without lenses:achievements and remaining challenges of wide-field on-chip microscopy. Nature Methods, 2012, 9(9):889-895
  • 期刊类型引用(21)

    1. 李伟,邓志翔. 列车运行控制系统运营中的安全分析方法. 武汉冶金管理干部学院学报. 2023(02): 17-20 . 百度学术
    2. 张友鹏,魏智健,杨妮,张迪. 基于KPCA-SVM的S700K转辙机故障诊断方法. 安全与环境学报. 2023(09): 3089-3097 . 百度学术
    3. 欧阳鑫锋,孔令刚. 基于改进动态时间规整的道岔故障诊断方法. 现代信息科技. 2023(20): 136-139+143 . 百度学术
    4. Yong Chen,Christian Buerger,Miao Lin,Xudong Li,Volker Labenski,Haixia Jin,Hai Wang,Yang Liu,Tsuyoshi Ino,Harald Feifel,Tian Tan,Fangrong Chang. Left-turn-across-path-from-opposite-direction accidents in China:CIDAS accident study. Transportation Safety and Environment. 2023(04): 358-370 . 必应学术
    5. Yunting Zheng,Shaohua Chen,Zhiyong Tan,Yongkui Sun. Research on fault diagnosis of a railway point machine based on a multi-entropy feature extraction method and support vector machine. Transportation Safety and Environment. 2023(04): 338-346 . 必应学术
    6. 陈蕊. 基于电流曲线的道岔卡阻识别算法及实现. 自动化与仪表. 2022(04): 21-27 . 百度学术
    7. 池毅,陈光武. 基于一维卷积神经网络的实时道岔故障诊断. 计算机工程与应用. 2022(20): 293-299 . 百度学术
    8. 吴小雪,丁大伟,任莹莹,刘贺平. 二维FM系统的同时故障检测与控制. 自动化学报. 2021(01): 224-234 . 本站查看
    9. 李婉婉,李国宁. 基于GMM聚类和PNN的道岔故障诊断研究. 控制工程. 2021(03): 429-434 . 百度学术
    10. 郑云水,白邓宇,王妍. 基于相似度的道岔健康状态评估及故障检测方法研究. 铁道科学与工程学报. 2021(04): 877-884 . 百度学术
    11. 刘美容,刘津涛,何怡刚. 基于EMD复合多尺度熵的模拟电路故障诊断方法. 电子测量技术. 2021(04): 51-56 . 百度学术
    12. 李林,于颖. 智能继电保护回路故障监测全数字仿真研究. 计算机仿真. 2021(12): 460-464 . 百度学术
    13. 阮莹,梁利娟. 数字集成电路老化故障高精度预测方法仿真. 计算机仿真. 2020(02): 434-437 . 百度学术
    14. 高亚丽,陈光武. 基于改进FNN的道岔电路故障诊断方法. 科技创新与应用. 2020(15): 125-127 . 百度学术
    15. 孔令刚,焦相萌,陈光武,范多旺. 基于Mallat小波分解与改进GWO-SVM的道岔故障诊断. 铁道科学与工程学报. 2020(05): 1070-1079 . 百度学术
    16. 孔令刚,焦相萌,陈光武,范多旺. 基于多域特征提取与改进PSO-PNN的道岔故障诊断. 铁道科学与工程学报. 2020(06): 1327-1336 . 百度学术
    17. 杨菊花,于苡健,陈光武,司涌波,邢东峰. 基于CNN-GRU模型的道岔故障诊断算法研究. 铁道学报. 2020(07): 102-109 . 百度学术
    18. 姬文江,左元,黑新宏,高橋聖,中村英夫. 基于FastDTW的道岔故障智能诊断方法. 模式识别与人工智能. 2020(11): 1013-1022 . 百度学术
    19. Huidong Wang,Shifan He,Chengdong Li,Xiaohong Pan. Pythagorean Uncertain Linguistic Variable Hamy Mean Operator and Its Application to Multi-attribute Group Decision Making. IEEE/CAA Journal of Automatica Sinica. 2019(02): 527-539 . 必应学术
    20. 张友鹏,江雪莹,赵斌. 融合粗糙集与灰色模型的道岔故障预测. 铁道科学与工程学报. 2019(09): 2331-2338 . 百度学术
    21. 吴永成,阳长琼,何涛. 基于Fretchet距离与TWSVM的多机牵引道岔故障诊断研究. 铁道科学与工程学报. 2019(11): 2866-2872 . 百度学术

    其他类型引用(27)

  • 加载中
计量
  • 文章访问数:  3568
  • HTML全文浏览量:  176
  • PDF下载量:  2077
  • 被引次数: 48
出版历程
  • 收稿日期:  2013-10-16
  • 修回日期:  2014-07-18
  • 刊出日期:  2015-04-20

目录

/

返回文章
返回