An Ant Colony Optimization Algorithm Merged With Multiple Source Information for Learning Brain Effective Connectivity Networks
-
摘要: 脑效应连接(Effective connectivity, EC)网络是人脑连接组研究中一项重要的研究课题, 识别脑效应连接网络已成为评价正常脑功能及其与神经退化疾病相关损伤的一种有效手段. 针对从功能性磁共振成像数据中进行脑效应连接网络的学习问题, 提出了一种将多源信息与蚁群优化过程相融合的学习方法. 新方法首先利用弥散张量成像数据获取感兴趣区域的结构约束信息, 并利用正相关的皮尔森信息来压缩蚁群搜索的空间, 以避免蚁群的许多不必要的搜索; 然后在蚁群随机搜索中通过将体素联合激活信息融合于启发函数中, 以增强蚂蚁搜索的目的性, 改进算法的优化效率. 实验结果验证了所提策略的有效性, 与最新的同类算法相比, 新算法在保持较快收敛速度的前提下, 具有更好的求解质量.Abstract: The research of brain effective connectivity (EC) networks is an important topic within the community of human brain connectome, where identifying brain EC networks from neuroimaging data has become an effective tool which can evaluate normal brain functions and their injuries associated with neurodegenerative diseases. For learning brain EC networks from functional magnetic resonance imaging data, this paper proposes an ant colony optimization algorithm merged with multiple source information, called ACOMM-EC. First, the new algorithm employs diffusion tensor imaging data to acquire anatomical constraint information among regions of interest (ROIs), and uses Pearson positive correlated information to restrict the search spaces of feasible solutions so that many unnecessary searches of ants can be avoided. And then, by combining the joint active information between two nodes of an arc and the original heuristic function, a new heuristic function with a better heuristic ability is given to induct the process of stochastic searches, which enhances the purpose of ants searching, and improves the optimization efficiency. Finally, the algorithm is tested on different data and compared with some recently proposed algorithms. The results show that the two strategies are effective, and the solution quality of the new algorithm precedes the other algorithms while the convergence speed is faster.
-
Key words:
- Brain effective connectivity network /
- ant colony optimization /
- multiple source information fusion /
- search space compression /
- heuristic function revision
-
作为脑科学研究中的一种重要方法, 神经影像学通过神经影像技术以图像的方式来揭示脑的解剖结构与功能, 为了解大脑的工作机制提供了强有力的技术手段. 脑效应连接(Effective connectivity, EC) 网络是一种由节点和有向边构成的图模型, 其中节点表示脑区, 有向边刻画了脑区间神经活动的因果效应, 而边的连接参数则表示其连接强度. 由于脑效应连接网络的识别是评价正常脑功能及其与神经退化疾病(阿尔茨海默病、帕金森、癫痫等)相关损伤的有效手段, 所以成为目前人脑连接组[1]研究中的一项重要课题. 更具体地, 从磁共振数据中准确学习脑效应连接网络, 对于了解人脑网络中脑区间的因果效应连接, 理解脑疾病的发病机理, 进行脑疾病的早期诊断以及病理的研究具有重要的意义[2-7].
近年来, 利用人脑功能磁共振成像(Functional magnetic resonance imaging, fMRI)数据, 进行基于评分搜索的贝叶斯网(Bayesian network, BN)结构学习已经成为有效识别脑效应连接网络的重要方法, 但该类方法目前存在搜索到的网络结构易陷入局部最优、连接方向的识别准确性低的缺陷, 这不仅无法满足人类脑科学全面探究的实际需求, 而且也成为制约该类方法发展和应用的技术瓶颈. 2016年, 文献[8]提出了一种使用蚁群优化来进行EC网络的学习算法ACO-EC, 算法利用蚁群优化的随机搜索能够在有限时间内获得全局的满意解, 基本解决了结构连接及其方向的识别准确性低的问题. 但是, 该算法仍存在运行时间较长、识别准确性有待进一步提高的不足. 而近年来相关研究的发展, 尤其是多模态研究的兴起为该算法的发展和进步提供了有益的启迪.
基于此, 本文提出一种将多源信息与蚁群优化过程相融合的学习算法(Ant colony optimization algorithm merged with multiple source information for learning brain effective connectivity network, ACOMM-EC). 新算法的主要创新是: 利用蚁群算法这种群体智能优化机制容易结合多源信息和知识的优势, 首次将从弥散张量成像(Diffusion tensor imaging, DTI)数据中获得的结构像知识、fMRI数据中得到的体素激活信息合理地结合到脑效应连接网络的蚁群学习过程, 从而实现了基于多源信息融合的可行解搜索空间的压缩、蚁群随机搜索模型等关键过程, 为更准确、更快速、更有效地进行EC网络结构的学习提供了一种新思路. 具体地说, 新算法首先利用结构与功能的制约关系, 将从DTI数据中获取的皮尔森正相关作为结构约束知识来压缩搜索空间, 既有效地避免了蚁群的一些不必要搜索, 又保证了最优解的所有组件(弧)都能成为蚂蚁选择的候选弧, 故有望在保证解质量的同时提升搜索效率, 加速算法的收敛; 其次, 通过在启发函数中融合基于fMRI数据的体素激活信息, 增强了蚂蚁寻优的目的性, 旨在保持随机机制搜索多样性的前提下不仅提高蚁群优化的效率, 而且获得更满意的解. 在合成数据集上的大量实验验证了上述策略的有效性, 而且与典型及最新的一些元启发式的随机搜索算法相比, 新算法在保持较快收敛速度的前提下, 能够得到更高质量的网络结构.
1. 相关工作
1.1 脑效应连接网络及其学习方法
脑效应连接是在功能激活且分离的脑区中判断其功能整合性的一种方法, 它常被描述为一个神经组织(脑区)施加于另一个神经组织的因果影响. 作为刻画脑区神经活动因果效应的一个必要工具, 脑效应连接网络的识别一直是脑功能网络研究中的一个重要课题. 图 1给出了一个脑效应连接网络与其相应候选解的对应关系. 一个脑效应连接网络是用一个带有$N$个节点集$(X)$的有向图$G_h$ ($h$为弧的个数)来表示, 其中每个节点$X_i\in X$对应一个脑区(或感兴趣区域ROI), 每条弧$a_{ij}$表示两个相关脑区$X_i$、$X_j$间的因果连接. 于是, 脑效应连接网络识别可描述为如何利用神经影像学数据发现一个最能体现激活脑区间神经活动因果关系的有向图(解)的求解问题.
随着脑科学的发展和进步, 新的EC识别方法不断涌现, 在神经信息学领域掀起了一股利用各种计算方法从神经影像数据中构建脑效应连接网络的研究热潮. 概括地说, 已有的方法可大致分为两大类: 基于模型驱动的方法和基于数据驱动的方法. 1) 基于模型驱动的方法是一种验证性方法, 它基于一个先验的连接模型来对脑效应连接进行有效性检验, 包括结构方程模型、动态因果模型等不同方法. 研究表明, 这类方法不适合对静息态fMRI数据的分析或缺乏先验模型的情况, 而且仅能构建规模较小的脑效应连接网络[6]. 2) 基于数据驱动的方法不需要先验知识和假设, 能够直接从数据中提取脑区间的因果关系. 在神经影像技术不断进步和数据日益丰富的前提下, 该类方法逐渐成为主流方法.
常用的数据驱动方法包括格兰杰因果模型、线性非高斯无环模型、广义同步模型、Patel的条件独立性方法等方法. 其中, 格兰杰因果模型(Granger causality, GC)是一种最典型的数据驱动方法, 它使用向量自回归模型能够在广义平稳和零均值数据下实现脑区间脑效应连接的有效估计[6]. 不过, 该方法对数据噪声和下采样过程比较敏感[9], 在一些情况下可能产生虚假的因果连接[10]. 线性非高斯无环模型(Linear non-Gaussian acyclic model, LiNGAM)使用高阶分布统计和独立成分分析来估计网络的连接[11]. 但它的有效性依赖于如下的3个先验假设: 数据产生过程是线性的、干扰因素是可见的、干扰变量服从非高斯分布[12-13]. 无疑, 这些假设会制约其在现实世界中的实用性. 广义同步(Generalised synchronization, Gen Synch)方法通过分析脑区信号间的相互独立关系来评价神经的同步性, 该方法具体采用3种相关的非线性独立度量(Sk、Hk和Nk)[14-15]. 虽然这些非线性独立度量都是有方向的, 但是不对称的方向判断有时会产生前后判断的自相矛盾[6]. Patel的条件独立性方法(Patel)使用带有狄利克雷先验分布的多项式似然函数来为每对脑体素的联合激活构建二元变量的伯努利贝叶斯模型, 并将连接强度的度量和连接方向的度量分别形式化为$\kappa$和$\tau$[16]. 与一些已存在的方法相比, 尽管该方法利用$\tau$度量在方向的识别上能够取得一些优势, 但利用$\kappa$度量进行连接强度的判断时存在灵敏度不高的不足[6]. 总之, 这些数据驱动方法虽然都有一定的适用性, 但普遍存在对数据噪声敏感、识别精度不高、计算复杂度高等缺陷.
近几年, 贝叶斯网模型被探索性地应用于脑效应连接网络的识别. 这类方法将脑效应连接网络看作BN模型, 采用无监督的数据驱动方法来构建脑效应连接网络. 由于BN学习的方法具有良好的灵活性和适用性, 所以很快成为基于数据驱动方法中的一个新的研究热点[17-18]. 许多贝叶斯网学习方法, 比如用C语言实现的并行因果关系推理(Parallel algorithm in the C language, PC)[19]、保守的PC (Conservative PC, CPC)[20]、有环因果关系发现(Cyclic causal discovery, CCD)[21]、快速因果推理(Fast causal inference, FCI)[22]、贪婪等价类搜索(Greedy equivalence search, GES)[23]和独立多采样贪婪等价类搜索(Independent multisample greedy equivalence search, iMaGES)[24]等方法都被广泛应用于EC网络的识别. 不过, 正如文献[6]所说, 这些研究通常能够较好地识别脑区间的连接, 但在效应连接方向的有效识别上存在较大问题. 究其原因, 主要是因为它们大多数都是采用局部贪婪搜索的BN算法来估计脑效应连接的网络, 较容易陷入局部最优, 从而导致效应连接方向识别正确率低的缺陷. 在脑区规模较大的情况下, 这个缺陷会尤为突出, 而且搜索效率也难以保证, 这严重地阻碍了该项技术的发展和应用. 与此同时, 多模态磁共振成像数据融合和挖掘的兴起形成了目前神经影像学中一个新的研究方向. 最近已有少量学者利用多模态磁共振数据相融合来进行EC网络的学习[25-26]. 文献[25]提出了一种融合结构磁共振数据的贝叶斯向量自回归模型来识别EC网络的推理方法. 该工作在格兰杰因果推理中将结构信息融入自回归先验模型, 在识别EC上获得了较好的结果. Dang等提出了一种融合fMRI和DTI数据于动态贝叶斯网学习框架的EC识别方法[26], 其主要特点是重新构建包含结构信息的网络评分函数以引导EC的学习过程, 也获得了较为明显的改进效果. 可见, 利用丰富的影像学数据对脑效应连接网络学习算法进行可靠、有效的新探索已成为该领域中一项新的研究课题.
1.2 ACO-EC算法及其分析
蚁群算法是通过模拟人工蚂蚁群体在觅食过程中所体现出的智能行为来完成对问题的求解. 经过二十多年的发展, 蚁群算法的理论框架日渐成熟, 并已在许多领域获得了成功的应用[27-30]. ACO-EC算法[5]就是根据蚁群优化机理实现的一种基于评分搜索的EC网络学习方法, 其主要思想是利用K2的评分度量$f \left( G: D \right)= \sum_{i=1}^N f(X_i, \Pi (X_i)~(D$为fMRI数据集, $G$为从数据中得到的图, $X_i$为一个脑区变量, $\Pi(X_i)$为其父母变量集合, $N$为脑区个数)来引导蚁群在可行解空间中进行搜索, 最终得到全局最优解(EC网络). 在ACO-EC算法中, 每只蚂蚁将所有脑区形成的全连图所包含的弧作为初始的候选弧集, 从仅有节点没有弧的图$G_0$开始, 通过每次在图中增加一条有向弧来增加图的K2评分值, 从而增量地构建自己的可行解, 该操作持续进行, 直到无法使图的评分再增加为止, 此时获得该蚂蚁的解(候选的EC网络). 在$t$次迭代, 蚂蚁$k$从当前候选弧集中选取一条有向弧$a_{ij}(X_j\rightarrow X_i)$的概率转移规则可定义为:
$$ \begin{equation} a_{ij} = \begin{cases} \arg\max\{\tau_{ij}(t)\times[\eta_{ij}(t)]^\beta\}, &\ q\leq q_0 \\ a_{IJ}, &\mbox{其他} \\ \end{cases} \end{equation} $$ (1) 其中, $\tau_{ij}$和$\eta_{ij}$分别表示$t$次迭代$a_{ij}$上的信息素浓度和启发信息, $\beta$为控制启发信息对选弧行为影响程度的加权系数, $DA_k(t)$为当前候选弧集中所有启发信息大于0的弧集; $q_0~(0\leq q_0<1)$是用来选择探索和利用过程的初始参数, $q$是在[0, 1]范围内随机均匀产生的一个随机数; $I$和$J$为按照如下概率模型随机选择的一对节点:
$$ \begin{equation} p_{ij}^k(t) = \begin{cases}\frac{[\tau_{ij}(t)]^\alpha \cdot [\eta_{ij}(t)]^\beta} {\sum\limits_{r, l\in DA_k(t)}[\tau_{rl}(t)]^\alpha\cdot[\eta_{rl}(t)]^\beta}, &\ i, j\in DA_k(t) \\ 0, &\mbox{其他} \end{cases} \end{equation} $$ (2) 其中, $\alpha$为控制蚁群行走所留信息素对选弧行为影响程度的加权系数. $a_{ij}$上的启发信息被定义为:
$$ \begin{equation} \eta_{ij}(t)=\omega\cdot(f(X_i, \Pi(X_i)\cup X_j)-f(X_i, \pi(X_i))) \end{equation} $$ (3) 其中, $f(X_i, \pi(X_i)\cup X_j)-f(X_i, \pi(X_i))$为节点$X_i$局部结构变化(新增$X_j \rightarrow X_i$)所引起的图的全局评分增益; $\omega=1 + Inf(X_i, X_j)$是一个与连接强度相关的加权因子, 其中$Inf(X_i, X_j)$为基于fMRI数据计算出的相关脑区变量间的互信息.
在蚁群的每次迭代搜索完成后, ACO-EC算法会执行信息素的局部和全局2次更新过程. 局部更新是指每只蚂蚁对自己形成的解所涉及的每条弧进行信息素的调整, 而全局更新则是指对到目前为止蚁群所发现的最好解所涉及的每条弧进行信息素的调整, 以增强好解对蚁群未来搜索的引导. 此外, ACO-EC算法在迭代过程中定期调用增弧、减弧、反向弧的局部优化过程来避免陷入局部最优. 当蚁群迭代优化全部完成后所获得的K2评分最大的解就是算法搜索到的脑效应连接网络EC.
从本质上看, ACO-EC算法通过蚁群优化学习EC的过程可以用$M=(S, \Omega, f, O)$模型来刻画, 其中$S$为包含所有脑区节点和可能连接弧的图(解)所构成的搜索空间; $\Omega$为问题求解中的约束集合, 对于贝叶斯网模型来说, 最基本的约束是每个可行解都是由所有节点构成的有向无环图; $f$为评分函数(本文使用K2评分), 用来评价解的优劣; $O$为蚁群优化方法, 其核心是随机寻优策略和信息引导机制. 基于该模型, 每个可行解$s\in S$均为满足$\Omega$中所有约束条件的一个连接图, 而最优解$s^*$则为$S$中满足$f(s^*)>f(s)$, $\forall s\in S$的一个解. 显然, 在$O$、$f$选定的情况下, $\Omega$中约束条件越多, 搜索空间$S$就会越小, 算法搜索效率就会越高. 而在$\Omega$、$S$相同的情况下, $O$的改进和强化也可能提高搜索和优化效率.
基于以上模型的定性分析, 不难发现ACO-EC算法存在如下不足: 1) $\Omega$中仅用有向无环的基本约束, 搜索空间$S$很大. ACO-EC算法是基于对可行解空间随机搜索的迭代优化算法, 在每次迭代中每只蚂蚁都会从候选连接图中挑选中意的弧, 因而初始候选连接图的复杂度将直接决定搜索空间的大小. 在ACO-EC算法中, 初始候选连接图是包含所有脑区节点的全连接图, 故每个节点局部结构(父母节点的组合)的搜索空间为$2^N-1$, 这可能是造成该算法运行时间长的主要因素. 2) fMRI数据处理过程繁琐, 噪声多, 样本少, 尽管蚁群算法具有一定的鲁棒性, 但采用单一信息源的蚁群优化模型在复杂环境下很难获得更高质量的解. 在ACO-EC算法中, 启发函数仅使用了源于fMRI数据的体素值互信息和结构变化的评分增益, 忽视了一些潜在的有用信息, 而由于脑功能连接是与脑结构连接、体素的激活信息相关的, 已有的一些多模态磁共振数据相融合的相关研究也表明了多源信息融合对脑功能连接机制研究的必要性; 与此同时, 蚁群算法作为一种典型的群智能优化算法, 具有易于融合多源信息来增强算法搜索能力的特性, ACO-EC算法没能发挥这种求解特性的优势. 这也可能对算法的求解质量和效率带来不良影响. 针对ACO-EC算法的这2个不足, 本文提出了一种融合多源信息的脑效应连接网络蚁群学习ACOMM-EC算法.
2. ACOMM-EC算法
2.1 主要思想
在神经影像学中, 结构连接是对轴突神经元或神经细胞群之间连接的估计, 效应连接则是对这些轴突连接因果关系的估计, 所以结构连接会对效应连接有一定的制约和限制作用. 进一步的研究表明, 在脑网络中基于fMRI数据的功能连接与基于DTI数据的结构连接存在着正相关关系[31]. 受这些研究的启发, 新算法首先提出一种新的基于结构信息约束的搜索空间压缩策略. 具体地, 利用脑效应连接和结构连接的紧密关系[32], 利用从DTI数据中获得的结构连接信息对初始候选连接图进行合理的简化, 有效地缩小评分搜索的空间, 从而减少蚁群搜索的盲目性, 提高搜索和优化效率.
文献[16]利用fMRI数据所计算出的体素联合激活概率来建立脑区间的功能连接及其方向, 从而构建脑效应连接网络也取得了不错的效果. 这说明脑体素联合激活概率对于确定脑效应连接是一种非常有用的信息. 为了利用该信息, 新算法提出一种启发函数的修正策略, 旨在挖掘和发挥蚁群算法易于融合多源信息来增强搜索能力的求解优势. 具体地, 将体素激活信息引入启发函数的表示中, 通过体素联合激活信息的引导作用, 提升蚁群搜索弧的目的性, 在改善搜索效率的同时, 提高算法的鲁棒性. 基于这2种新策略, ACOMM-EC算法的流程图如图 2所示. 首先采用AAL (Automated anatomical labeling)模板将每个被试的脑分割成$N$个感兴趣区域(脑区), 然后一方面利用从DTI数据中获取的结构约束信息来对脑区所形成的EC候选搜索空间进行压缩, 另一方面利用从fMRI数据中提取的体素联合激活信息对蚁群寻优的启发函数进行修正, 通过这2个新策略提高蚁群算法的效率和求解质量.
2.2 基于结构约束信息的搜索空间压缩
为了有效压缩搜索空间, 我们必须先从DTI数据中提取结构连接的约束信息. 首先, 我们利用FSL (FMRIB Software Library)软件库对从多个被试采集的DTI数据进行处理, 并获得每个被试每个脑区平均的白质纤维部分各向异性值FA (Fractional anisotropy). 然后, 基于FA值, 我们利用下式计算每对脑区间的皮尔森相关系数:
$$ \begin{equation} r(X_i, X_j)=\frac{1}{n-1}\sum\limits_{l=1}^n\left(\frac{X_i^l-\overline{X_i}}{\delta_{X_i}}\right) \cdot\left(\frac{X_j^l-\overline{X_j}}{\delta_{X_j}}\right)\\ \end{equation} $$ (4) 式中, $n$是DTI数据的样本数, $X_i^l$为$X_i$脑区的第$l$个样本的${\rm FA}$值, $\overline{X_i}$和分别$\delta_{X_j}$为$X_i$脑区的均值和方差. 利用每对脑区间的皮尔森相关系数, 我们可以获得$N\times N$的${\rm FA}$值相关矩阵, 矩阵中的每个值描述了相应两个脑区变量间线性相关的强度. $r(X_i, X_j)$的值域为$[-1, 1], $其中$r(X_i, X_j)>0$表示$X_i$和$X_j$为正相关. $r(X_i, X_j)$的值越大, 意味着相应脑区间的结构连接强度越强. 最后, 基于所有的正相关关系, 我们建立起脑结构网络的邻接矩阵($N\times N$的二值矩阵, 0为不存在连接, 1为存在连接), 并将其作为结构约束信息来对原算法(ACO-EC)所用的初始候选全连接图进行删边简化以压缩蚁群的搜索空间. 具体的方法是去掉全连接图中所有不满足结构正相关的冗余边(不在脑结构网络邻接矩阵中的边), 即将全连接图的初始候选连接图替换为满足结构正相关的初始候选连接图.
我们以具有4个节点变量(脑区)的系统模型为例说明利用结构约束信息而产生的初始候选连接图的变化, 如图 3所示. 初始候选连接图为模型的全连图, 即所有节点间都存在直连关系, 如图 3 (a)所示. 如果我们使用DTI数据获得的结构正相关信息是$r(X_1, X_2)$, $r(X_2, X_3)$, $r(X_2, X_4)$, $r(X_3, X_4)$, 利用这些约束知识去除冗余弧后, 得到侯选的可能连接图 3 (b)所示; 初始候选连接图去除了2个没有通过结构约束的连接弧.
初始候选连接图的不同会直接导致不同迭代周期中各节点局部子结构搜索空间的不同. 对应图 3所示的连接图, 图 4给出了节点$X_4$可能的侯选父母节点集的变化, 图 4中带阴影的侯选父母节点集为通过约束条件的$c$.
2.3 基于体素联合激活信息的启发函数修正
脑的智力活动会让相关脑区激活, 脑区是否激活可由各脑区中代表性体素是否激活来判断, 而体素的激活则是通过判断体素数据是否超过一个给定阈值来确定的. 具体地, 假设每个脑区的fMRI时间序列由$S$个被试且每个被试扫描$M$次的数据构成, 在给定一个常数阈值$p (0<p<1)$的前提下, 通过定义一个二进制值的列向量来表明每次扫描的脑区是否激活:
$$ \begin{equation} \begin{aligned} {\overrightarrow{\boldsymbol {A}}_i}=(A_{i11}, A_{i12}, \cdots, A_{i1M}, A_{i21}, A_{i22}, \cdots A_{i2M}, \\ \cdots, A_{ism}, \cdots, A_{iS1}, A_{iS2}, \cdots, A_{iSM})^{{\rm T}} \end{aligned} \end{equation} $$ (5) 式中, $A_{ism}=I~(R_{ism}>p)$表示脑区$X_{i}$在第$s$个被试、第$m$次度量时的激活状况; $R_{ism}$为该脑区的代表体素在相应时刻经过标准化后的体素值, 且$R_{ism}\in[0, 1]$; $I(\cdot)$为指示函数, 当$R_{ism}>p$时其值为1, 否则为0. 对于任意一对脑区$X_{i}$和$X_{j}$来说, 其联合激活状况可以包含4种情况, 即$X_{i}$和$X_{j}$同时激活, $X_{i}$激活而$X_{j}$不激活, $X_{j}$激活而$X_{i}$不激活, 以及$X_{i}$和$X_{j}$同时不激活. 它们所对应的联合激活概率可分别表示为: $\theta_1=p(A_{ism}=1, A_{jsm}=1)$, $\theta_2=p(A_{ism}=1, A_{jsm}=0)$, $\theta_1=p(A_{ism}=0, A_{jsm}=1)$, $\theta_1=p(A_{ism}=0, A_{jsm}=0)$, 显然有$\theta_1 + \theta_2 + \theta_3 + \theta_4=1$, 而$\theta_1 + \theta_2$和$\theta_1 + \theta_3$分别表示脑区$X_i$和$X_j$的边缘激活概率. 基于脑区二进制值的fMRI时间序列向量, 这些联合激活概率具体的计算公式如下:
$$ \begin{align} \theta_1 = &\frac{{\overrightarrow{{\boldsymbol {A}}_i^{\rm T}}}\cdot{\overrightarrow{{\boldsymbol {A}}_{j}}}}{L} \\ \theta_2 = &\frac{{\overrightarrow{{\boldsymbol {A}}_i^{\rm T}}} \cdot({\overrightarrow{\boldsymbol {I}}}-{\overrightarrow{{\boldsymbol {A}}_j}})}{L} \\ \theta_3 = &\frac{{\overrightarrow{{\boldsymbol {A}}_j^{\rm T}}} \cdot({\overrightarrow{\boldsymbol {I}}}-{\overrightarrow{{\boldsymbol {A}}_i}})}{L} \\ \theta_4= &\frac{({\overrightarrow{\boldsymbol {I}}}-{\overrightarrow{{\boldsymbol {A}}_i^{\rm T}}})\cdot({\overrightarrow{\boldsymbol {I}}}-{\overrightarrow{{\boldsymbol A}_j}})}{L} \end{align} $$ (6) 式中, $L=S\cdot M$为体素时间序列长度, ${\overrightarrow{\boldsymbol {I}}}$为等长度且分量值都为1的单位列向量. 在ACO-EC算法中, 启发函数定义为基于互信息的弧连接强度与增加弧导致的结构变化所引起的评分增益的乘积. 尽管它结合了局部组件信息(弧连接强度)和全局解信息(评分增益)来引导蚂蚁的搜索, 但它仅使用了fMRI数据中原始的体素值信息, 忽视了体素值所隐含的与效应连接更为相关的脑区激活信息, 所以有可能影响蚂蚁搜索的目的性和有效性. 为此, 我们把弧$X_j\rightarrow X_i$的启发函数修正为:
$$ \begin{equation} \eta_{ij}(t)=\omega\cdot\omega{'}\cdot(f(X_i, \Pi(X_i)\cup X_j)-f(X_i, \Pi(X_i))) \end{equation} $$ (7) 其中, 新的加权因子$\omega{'}=(\theta_1 + \theta_3)/(\theta_1 + \theta_2)$, $X_j$的边缘激活概率$\theta_1 + \theta_3$表示无论$X_i$是否激活$X_j$都是激活的, 而$X_i$的边缘激活概率$\theta_1 + \theta_2$表示无论$X_j$是否激活$X_i$都是激活的. 通常$\theta_1 + \theta_2\neq\theta_1 + \theta_3$, 所以与$\omega$相比, ${\omega}{'}$更具有识别因果效应的能力. 具体来说, 当$\theta_1 + \theta_2>\theta_1 + \theta_3$时, $X_i$支配$X_j$; 当$\theta_1 + \theta_2<\theta_1 + \theta_3$时, $X_j$支配$X_i$; 而由于两个脑区互信息的对称性, 利用$\omega$是无法区分相互的支配关系. 显然, 当一条弧的互信息和联合激活信息都强, 且它的评分增益大, 该弧的启发信息就大, 反之亦然. 也就是说, 蚁群选弧的过程中, 只有互信息、联合激活信息强且评分增益大的弧才最有可能被选作解的组件. 这将增强蚁群搜索的目的性, 通过高概率地选择更合适的弧来加快收敛速度.
2.4 算法描述
综上, ACOMM-EC算法采用2个新策略来提高蚁群搜索EC的效率和质量. 算法可分为初始化、压缩空间、解搜索、计算连接强度、返回结果5个阶段. 在初始化阶段完成参数设置、每对脑区互信息、激活联合概率和皮尔森相关系数的计算. 在压缩空间阶段, 利用结构约束信息(皮尔森正相关)进行搜索空间的压缩. 在解搜索阶段利用蚁群迭代搜索完成最优解的搜索, 具体包括信息素更新、融合体素联合激活概率的启发信息计算、解组件(弧)的选择、解的局部优化等步骤. 算法搜索阶段的终止条件为, 当算法判定蚁群群体所代表的解已经不再进一步进化时(具体做法是, 当算法连续5代得到的最优解相同时), 终止算法的运行过程. 算法具体核心步骤如下:
输入. fMRI数据和DTI数据.
输出. 脑效应连接网络.
初始化. 设置参数; 计算每两个脑区之间的互信息、体素激活信息和皮尔森相关信息.
步骤 1. 利用结构约束信息压缩空间.
步骤 2. 蚁群算法迭代搜索, 每只蚂蚁按式(1)和式(2)构建解, 更新局部信息素$\tau_{ij}$, 计算启发信息$\eta_{ij}$; 当算法连续5代得到的最优解相同时, 终止算法的运行过程, 获得当前最优解$G^ + $; 随后进行全局信息素更新, 执行局部优化更新最优解$G^ + $.
步骤 3. 利用$\tau_{ij}$计算连接强度.
步骤 4. 返回脑效应连接网络$G^ + $.
从算法流程可见, ACOMM-EC算法是一种将结构约束信息、联合激活信息与蚁群寻优机制相融合的学习算法. 算法首先利用结构连接与效应连接的约束关系有效地压缩了搜索空间, 提高优化的效率; 然后, 利用体素联合激活信息的融合来强化启发函数寻找合理组件的能力, 进一步提高优化的效率和质量.
2.5 算法分析
首先, 分析ACOMM-EC算法的收敛性. 文献[33]从理论上证明了ACO蚁群算法的收敛性, 它指出当迭代次数趋于无穷时ACO蚁群算法将以概率1收敛于全局最优解, 由于ACOMM-EC算法是基于ACO框架下的蚁群优化算法, 且蚁群算法的收敛性是与所求解问题无关的[34-35], 所以基于蚁群优化的EC学习算法在本质上是收敛的. ACOMM-EC算法中, 基于结构约束信息的搜索空间压缩是对问题搜索空间的一个限定, 它使有界的搜索空间变得更小, 所以该策略不仅不会影响蚁群算法的收敛, 反而有极大可能加快收敛过程. 而基于体素联合激活信息的启发函数修正只是对启发信息计算形式的一种变化, 没有改变蚁群算法的随机优化机理, 故也不会否定蚁群算法的收敛本质, 所以, ACOMM-EC算法是收敛的.
其次, 分析两种策略的作用. 由于基于蚁群优化的随机搜索算法与其他随机搜索算法一样, 其主要的开销在于统计因子的计算上, 每一个新的搜索对象都需要进行新的统计计算, 所以, 蚁群的每一次迭代需要的计算开销较大, 并且在数据集规模相同的情况下迭代次数越多计算开销越大. ACOMM-EC算法一方面利用结构约束知识来压缩搜索空间和解优化的邻域, 另一方面, 采用融合联合激活信息的启发函数修正策略来提高优化效率.其实都是为了减少算法的迭代次数, 降低统计因子的计算、结构的评分和比较的数量, 从而改善蚁群算法的时间性能, 具体地, 设$L$为算法迭代次数, $m$为每代的蚁群规模, $N$为脑区规模, 原ACO-EC算法的时间复杂度为O$( L\cdot m\cdot N^{2})$, 新ACOMM-EC算法尽管采用了2个新策略, 但因为没有改变算法的整体框架, 所以其时间复杂度与原算法是同级的. 而且, 压缩搜索空间会大大减少蚁群有效搜索的范围, 从而使$N^{2}$值明显变小; 融合更多有用信息的启发函数可能会改善蚁群搜索的盲目性, 加速算法的收敛, 从而使$L$值变小, 所以ACOMM-EC算法的时间性能有可能会比ACO-EC算法有较大的提高.
3. 实验结果及其分析
为了验证ACOMM-EC算法的有效性, 首先, 我们用标准仿真数据和生成的仿真数据, 对两种策略的效果进行了验证, 并将新算法与其他6种算法进行了对比实验. 然后, 利用真实数据对新算法的实用性进行了测试. 实验的运行环境为Window 7操作系统, Internet Core i7-4770, CPU为3.40 GHz, 内存为16 GB, 算法用java语言编程实现. ACOM-EC算法有6个参数: 种群规模$m$, 信息素影响权重$\alpha$, 启发信息影响权重$\beta$, 信息素挥发系数$\rho$, 调节蚁群探索和利用过程的参数$q_{0}$, 体素激活阈值$p$. 大量的实验表明, 新算法对这些参数不是很敏感. 下面实验结果所使用的参数设置如下: $n=1$, $\alpha=1$, $\beta=2$, $\rho=0.4$, $q_{0}=0.8$, $p=0.75$.
3.1 数据集与评价指标
3.1.1 仿真fMRI数据集
Smith仿真数据集是Smith et al. 在2011年给出的一组模拟fMRI时间序列的标准仿真数据集(http://www.fmrib.ox.ac.uk/datasets/netsim/index.html), 可用于验证不同方法识别脑功能连接和脑效应连接的准确性. 数据集包含28组仿真数据, 每组数据包含不同的脑区个数(Nodes)、扫描时间(Session)、脉冲的重复时间(TR)、噪声(Noise)、血液动力学响应函数延迟时间的标准差(HRF $std. dev.$)以及其他多个影响因素. 一些研究表明, 脑区的规模对脑效应连接网络识别方法会产生很大的影响, 因此我们选取了具有不同节点数的4组仿真数据来探究脑区数量对不同方法的影响. 每组仿真数据集中包含50个被试(Subjects), 在下面的实验中, 我们对50个被试成组进行分析, 并对数据进行了离散化处理. Smith仿真数据集的具体参数如表 1所示.
表 1 仿真数据集参数Table 1 The parameters of Smith's simulation datasetsSimulation Nodes Session (s) TR (s) Noise (%) HRF (s) Subjects Sim1-1 5 600 3.00 1.0 0.5 50 Sim1-2 10 600 3.00 1.0 0.5 50 Sim1-3 15 600 3.00 1.0 0.5 50 Sim1-4 50 600 3.00 1.0 0.5 50 Smith仿真数据集包含的节点(脑区)数最高为50, 规模较小, 噪声低(1 %), 而脑研究中常用的脑区规模是90$ \sim $200之间, fMRI数据的噪声也高于1 %. 为了验证新方法在高噪声、大规模网络情况下的性能, 我们沿用Smith仿真数据集的数据生成方法, 生成了几组高噪声, 大规模网络节点的数据集, 以进一步验证算法的有效性. 仿真数据的生成模型使用动态因果模型(DCM), 其具体形式如下:
$$ \begin{equation} Z_{t + 1}=\sigma AZ_{t} + Cu \end{equation} $$ 其中, ${z_{t}}$为神经活动时间序列, $t$为当前时刻, $A$为标准网络矩阵(Ground-truth), $\sigma$为衰减系数, $C$为控制矩阵, $u$为外部输入(含高斯神经噪声). 下面举例说明数据生成过程: 我们将扫描时间设定为600秒, 采样间隔设为5毫秒, 脑区的数量设置为5, $\sigma$设为2.5, $u$为泊松分布控制的外部输入, 且加入标准差为1/6的高斯神经噪声. 其中, $A$和$C$分别定义为:
$$ \begin{equation} A=\left[ \begin{matrix} -1 &0.45 &0 &0 &0.41 \\ 0 &-1 &0.42 &0 &0 \\ 0 &0 &-1 &0.47 &0 \\ 0 &0 &0 &-1 &0.39\\ 0 &0 &0 &0 &-1 \end{matrix} \right] \end{equation} $$ (9) $$ \begin{equation} C=\left[ \begin{matrix} 1 &0 &0 &0 &0 \\ 0 &1 &0 &0 &0 \\ 0 &0 &1 &0 &0 \\ 0 &0 &0 &1 &0 \\ 0 &0 &0 &0 &1 \end{matrix} \right] \end{equation} $$ (10) 使用DCM模型, 我们首先可以生成如图 5 (a)所示的5个脑区的神经活动时间序列. 然后将神经活动时间序列与血液动力学响应函数(HRF) 做卷积, 可获得BOLD信号数据. 接着加入3 %噪声并对BOLD信号数据进行TR = 3 s的采样, 便可获得200个时间点的BOLD fMRI时间序列数据, 如图 5 (b)所示.
使用相同参数, 我们按上述步骤重复进行50次, 并将每次运行看作一次被试的测试过程, 于是可得到这组50个被试的fMRI时间序列数据Sim2-1. 类似地, 我们共生成6组仿真模拟数据, 具体参数如表 2所示, 其中前4组与Smith仿真数据相对应, 只是增大了噪声比例, 后2组增大了节点规模.
表 2 DCM模型生成仿真数据集参数Table 2 The parameters of DCM model generates simulated datasetsSimulation Nodes Session (s) TR (s) Noise (%) HRF (s) Subjects Sim2-1 5 600 3.00 3.0 0.5 50 Sim2-2 10 600 3.00 3.0 0.5 50 Sim2-3 15 600 3.00 3.0 0.5 50 Sim2-4 50 600 3.00 3.0 0.5 50 Sim2-5 100 600 3.00 3.0 0.5 50 Sim2-6 200 600 3.00 3.0 0.5 50 3.1.2 真实的数据集
本文所使用的真实fMRI数据、DTI数据来自于ADNI (Alzheimer's disease neuroimaging initiative)数据库(http://adni.loni.usc.edu/). ADNI数据库由超过1 500名被试的采集数据组成, 被试的年龄在55到100岁之间, 包括早期轻度认知障碍(Early mild cognitive impairment, EMCI)患者, 晚期轻度认知障碍(Late mild cognitive impairment, LMCI)患者, 阿兹海默症患者(Alzheimer's disease, AD)以及健康对照组(Health control, HC). 我们从中下载了50名被试的配套的fMRI和DTI数据, 其中包含20名HC, 15名EMCI和15名LMCI. 表 3给出了该数据集中所有参与者(被试)的统计特性.
表 3 HC, EMCI和LMCI的统计特性Table 3 The demographic Information of the HC, EMCI and LMCIHC EMCI LMCI 人数 20 15 15 性别(男/女) 4/16 10/5 7/8 年龄 $71.2\pm13.8$ $74.9\pm8.3$ $78.4\pm13.4$ 所有下载的数据都利用Siemens3.0T扫描仪和8通道接收头线圈获取. 采集fMRI数据的具体参数设置如下: 重复时间(TR)为3 000 ms, 回波时间(TE)为30 ms, 翻转角(Filp angle)为$90^\circ$, 矩阵(Matrix)为448 $\times$ 448, 层厚为4 mm, 共48层, 每名被试采集197个时间点. 采集DTI数据的具体参数设置如下: 重复时间(TR)为7 200 ms, 回波时间(TE)为56 ms, 翻转角为$90^\circ$, 矩阵(Matrix)为1 044 $\times$ 1 044, 梯度方向(Gradient direction)为54, 非加权弥散像($b$ = 0 s/mm$^2$), 另外48个方向加权弥散像($b$ = 1 000 s/mm$^2$).
fMRI数据采用SPM12软件(www.fil, ion.ucl.ac.uk/spm)和DPABI软件(http://rfmri.org/dpabi)进行预处理. DTI数据采用FSL软件(http://www.fmri.ox.ac.uk/fsl)和DSI Studio软件(http://dsistudio.labsolver.org)进行预处理. 实验中我们选取了与轻度认知障碍患病相关的42个感兴趣区域(ROIs)[35], 每个ROI即对应一个脑区节点. 具体的名称如表 4所示.
表 4 感兴趣区域名称Table 4 The names of the ROIs编号 名称 编号 名称 额叶 1 左背外侧额上回(Frontal_Sup_L) 7 左框内额上回(Frontal_Med_Orb_L) 2 右背外侧额上回(Frontal_Sup_R) 8 右框内额上回(Frontal_Med_Orb_R) 3 左额中回(Frontal_Mid_L) 9 左回直肌(Rectus_L) 4 右额中回(Frontal_Mid_R) 10 右回直肌(Rectus_R) 5 左内侧额上回(Frontal_Sup_Medial_L) 11 左前扣带和旁扣带脑回(Cingulum_Ant_L) 6 右内侧额上回(Frontal_Sup_Medial_R) 12 右前扣带和旁扣带脑回(Cingulum_Ant_R) 顶叶 13 左顶上回(Parietal_Sup_L) 17 左楔前叶(Precuneus_L) 14 右顶上回(Parietal_Sup_R) 18 右楔前叶(Precuneus_R) 15 左顶下缘角回(Parietal_Inf_L) 19 左后扣带回(Cingulum_Post_L) 16 右顶下缘角回(Parietal_Inf_R) 20 右后扣带回(Cingulum_Post_R) 枕叶 21 左枕上回(Occipital_Sup_L) 24 右枕中回(Occipital_Mid_R) 22 右枕上回(Occipital_Sup_R) 25 左枕下回(Occipital_Inf_L) 23 左枕中回(Occipital_Mid_L) 26 右枕下回(Occipital_Inf_R) 颞叶 27 左颞上回(Temporal_Sup_L) 35 左颞下回(Temporal_Inf_L) 28 右颞上回(Temporal_Sup_R) 36 右颞下回(Temporal_Inf_R) 29 左颞上回颞极(Temporal_Pole_Sup_L) 37 左梭状回(Fusiform_L) 30 右颞上回颞极(Temporal_Pole_Sup_R) 38 右梭状回(Fusiform_R) 31 左颞中回(Temporal_Mid_L) 39 左海马(Hippocampus_L) 32 右颞中回(Temporal_Mid_R) 40 右海马(Hippocampus_R) 33 左颞中回颞极(Temporal_Pole_Mid_L) 41 左海马旁回(ParaHippocampal_L) 34 右颞中回颞极(Temporal_Pole_Mid_R) 42 右海马旁回(ParaHippocampal_R) 3.1.3 评价指标
本文使用精度、召回率、F度量这组常见的评价指标[30, 32]来衡量学习算法的性能. 若用$\rm LN$表示算法学习到的脑效应连接网络结构, $\rm GN$表示标准的网络结构. 则精度和召回率可分别定义为:
$$ \begin{equation} {\rm precision}=\frac{D_s}{D_w + D_a + D_s}, \quad {\rm Recall}=\frac{D_s}{TD} \end{equation} $$ (11) 其中, $D_{s}$表示$\rm LN$与$\rm GN$中相同弧的数量, $D_{w}$表示$\rm LN$与$\rm GN$中反向弧的数量, $D_{a}$表示$\rm LN$中存在的弧且在$\rm GN$中不存在的弧的数量, $TD$表示$\rm GN$中弧数量的总和. F度量定义为:
$$ \begin{equation} F=\frac{2\times {\rm precision}\times {\rm Recall}}{{\rm precision + Recall}} \end{equation} $$ (12) 3.2 两种策略的有效性检验
为了验证本文提出的两种新策略的有效性, 我们首先对原始的ACO-EC算法、ACO-EC1算法(增加DTI结构信息进行搜索空间的压缩)、ACO-EC2算法(使用融合体素联合激活信息的新启发函数)三种算法在Smith仿真数据集(Sim1-1、Sim1-2、Sim1-3和Sim1-4)上进行了测试. 因为三种算法均为随机优化算法, 故分别独立运行30次, 结果以平均值$\pm$标准差的形式给出. 三种算法在Smith仿真数据集上的实验结果如表 5所示.
表 5 在Smith仿真数据集上两种新策略的效果Table 5 The effectiveness of the two new strategies on Smith's simulation datasets数据集 算法 精度 召回率 F度量 时间(s) Sim1-1 ACO-EC 1 1 1 $0.36\pm0.02$ ACO-EC1 1 1 1 $0.36\pm0.02$ ACO-EC2 1 1 1 $0.38\pm0.02$ Sim1-2 ACO-EC $0.89\pm0.06$ $0.89\pm0.06$ $0.89\pm0.06$ $2.81\pm0.09$ ACO-EC1 $0.89\pm0.06$ $0.89\pm0.06$ $0.89\pm0.06$ $1.54\pm0.08$ ACO-EC2 $0.91\pm0.06$ $0.91\pm0.06$ $0.91\pm0.06$ $2.63\pm0.09$ Sim1-3 ACO-EC $0 .86\pm0.07$ $0.86\pm0.07$ $0.86\pm0.07$ $10.11\pm0.32$ ACO-EC1 $0.86\pm0.07$ $0.86\pm0.07$ $0.86\pm0.07$ $6.78\pm0.27$ ACO-EC2 $0.87\pm0.07$ $0.87\pm0.07$ $0.87\pm0.07$ $9.86\pm0.25$ Sim1-4 ACO-EC $0.80\pm0.07$ $0.80\pm0.07$ $0.80\pm0.07$ $353.44\pm21.63$ ACO-EC1 $0.80\pm0.07$ $0.80\pm0.07$ $0.80\pm0.07$ $181.84\pm16.19$ ACO-EC2 $0.82\pm0.07$ $0.82\pm0.07$ $0.82\pm0.07$ $264.35\pm18.27$ 从表 5中的结果可以看出: 1) 当节点个数为5时(Sim1-1), 三种算法的精度、召回率、F度量都为1, 运行时间也基本相同. 这其中可能的原因是, 节点数较小时, 计算约束网络和体素激活信息所需要消耗的时间与压缩搜索空间、改善蚁群搜索所节省的时间基本相同. 2) 从Sim1-2、Sim1-3和Sim1-4的结果中我们发现, 随节点个数增加(10、15、50), 搜索空间变大使问题求解的复杂度逐渐增大, 从而三种算法的求解性能都有所下降. 不过, 三种算法的的求解性能渐显区别. ACO-EC1算法的精度、召回率和F度量与ACO-EC相同, 而运行时间明显少于ACO-EC算法.在3个数据集上运行时间减少的比例分别为45.2 %、32.9 %、48.6 %, 这说明采用DTI结构信息可以有效地压缩搜索空间, 使算法更快地找到最优解, 从而缩短了程序的运行时间. 而ACO-EC2算法的精度、召回率和F度量均略高于ACO-EC算法(提升比例为1%~2%), 运行时间也短于ACO-EC (尤其在节点规模大时, 时间变化明显).这说明ACO-EC2算法使用融合体素联合激活信息的新启发函数, 可以增强蚁群算法的寻优能力, 加快算法的收敛速度, 同时使算法更容易获得优良解.
为了进一步验证本文提出的两种策略在更大噪声、更大脑网络规模时的有效性, 我们对上述三种算法在新生成的数据集上进行了测试, 实验结果如表 6、表 7所示.
表 6 在生成的高噪声仿真数据集上两种新策略的效果Table 6 The effectiveness of the two new strategies on generated simulated datasets with higher noises数据集 算法 精度 召回率 F度量 时间(s) Sim2-1 ACO-EC 1 1 1 $0.38\pm0.02$ ACO-EC1 1 1 1 $0.38\pm0.02$ ACO-EC2 1 1 1 $0.38\pm0.02$ Sim2-2 ACO-EC $0.77\pm0.08$ $0.77\pm0.08$ $0.77\pm0.08$ $2.97\pm0.12$ ACO-EC1 $0.77\pm0.08$ $0.77\pm0.08$ $0.77\pm0.08$ $1.69\pm0.09$ ACO-EC2 $0.81\pm0.07$ $0.81\pm0.07$ $0.81\pm0.07$ $2.87\pm0.13$ Sim2-3 ACO-EC $0.72\pm0.08$ $0.74\pm0.08$ $0.73\pm0.08$ $12.24\pm0.41$ ACO-EC1 $0.75\pm0.08$ $0.75\pm0.08$ $0.75\pm0.08$ $7.43\pm0.29$ ACO-EC2 $0.75\pm0.07$ $0.78\pm0.07$ $0.76\pm0.07$ $11.01\pm0.35$ Sim2-4 ACO-EC $0.63\pm0.08$ $0.70\pm0.08$ $0.67\pm0.08$ $431.29\pm24.80$ ACO-EC1 $0.70\pm0.08$ $0.70\pm0.08$ $0.70\pm0.08$ $197.38\pm18.14$ ACO-EC2 $0.65\pm0.07$ $0.76\pm0.07$ $0.71\pm0.07$ $382.74\pm22.85$ 表 7 在更大规模脑网络生成数据集上两种新策略的效果Table 7 The effectiveness of the two new strategies on generated simulated datasets with larger scale networks数据集 算法 精度 召回率 F度量 时间(s) Sim2-5 ACO-EC $0.61\pm0.08$ $0.69\pm0.08$ $0.65\pm0.08$ $(1.79\pm0.13)\times10^{3}$ ACO-EC1 $0.70\pm0.08$ $0.70\pm0.08$ $0.70\pm0.08$ $(8.68\pm0.76)\times10^{2}$ ACO-EC2 $0.66\pm0.07$ $0.73\pm0.07$ $0.70\pm0.07$ $(1.54\pm0.10)\times10^{3}$ Sim2-6 ACO-EC $0.59\pm0.09$ $0.69\pm0.09$ $0.64\pm0.09$ $(1.55\pm0.15)\times10^{4}$ ACO-EC1 $0.68\pm0.09$ $0.68\pm0.09$ $0.68\pm0.09$ $(4.72\pm0.38)\times10^{3}$ ACO-EC2 $0.64\pm0.07$ $0.71\pm0.07$ $0.68\pm0.07$ $(1.27\pm0.12)\times10^{4}$ 对比表 5中的Sim1-1可知, 三种算法的精度、召回率、F度量都能够维持在1, 只是前2种算法的运行时间有5.3 %的增加. 这说明基于蚁群智能机制的学习方法在很小规模的脑效应连接网络学习问题上具有良好的抗噪性, 不过多噪声会使运行时间略有延长. 2) 对比表 5中相同网络节点规模的实验结果, 不难看出, 高噪声会使三种算法的精度、召回率和F度量普遍下降, 运行时间也有所增长, 这说明多噪声会使EC的准确识别更困难. 尽管如此, ACO-EC1算法的精度、召回率和F度量在各种情况下都不逊于ACO-EC, 而运行时间明显优于ACO-EC; ACO-EC2算法的精度、召回率和F度量在各种情况下都明显优于ACO-EC, 且运行时间也比ACO-EC短. 这说明在多噪声情况下, 两种策略仍然都是有效的. 表 7列出了当网络规模增大为100、200时三种算法的实验结果. 可以看出, 随着节点个数的增加, 搜索空间会呈指数增长, 导致三种算法的运行时间成数倍增长, 求解性能也会有一定程度的下降. 不过, 即使在这种情况下, ACO-EC1算法在精度、F度量指标上都比ACO-EC算法有明显提升, 在召回率上与ACO-EC的结果相当, 而在运行时间上分别提升了51.4 %和69.5 %. 这表明在搜索空间更大时, 采用DTI结构信息进行搜索空间的压缩策略能够更高效地获得满意解; ACO-EC2算法的各项解指标均明显优于ACO-EC算法, 运行时间也显著低于ACO-EC, 这说明新启发函数在搜索空间很大的情况下依然能够有效地提高算法收敛速度, 并帮助算法获得更高质量的解.
具体地, 空间压缩可以显著提升算法的时间性能(在10, 15, 50节点网络上可以分别带来45.2 %、32.9 %、48.6 %的提升), 在精度上也有一定提升, 提升比例大约为1 %. 启发函数改进的作用也体现在两方面, 相比空间压缩的效果, 精度提升更高, 可带来2 %左右的提升; 只是在时间性能方面的效果不及空间压缩的效果, 仅提升10 %左右. 因此总的来说, 两种策略都能带来时间性能和准确率的提升. 相对来说, 搜索空间的压缩能够更显著地带来时间性能的提升, 而启发函数的修改则更好地有助于准确率的提升.
综上, 本文提出的两种策略是有效的, 所以我们将它们融合到新算法ACOMM-EC之中.
3.3 各种算法的对比
为了检验ACOMM-EC算法的性能, 我们将其与6种不同种类且具有一定代表性的算法进行了实验对比. 这6种算法分别为: 条件高斯贝叶斯网(Conditional Gaussian Bayesian network, CGBN)[36]、格兰杰因果模型(Granger Causality, GC)[9]、广义同步(Generalised synchronization, GS)[15]、Patel条件独立性(Patel)[16]、P相关(P-correlation, P-corr)[37]和脑效应连接蚁群学习算法(ACO-EC)[8]. 在下面的实验中, 6种算法的参数设置如下, CGBN算法: $nu=2$, $\sigma=5$, $\alpha=3$, $maxParents=2$; GC算法: $\alpha=0.05$, $max_{lag}\in[1, 30]$; GS算法: $m=10$, $\tau=0.2$, $h=50$, $n=10$; Patel算法: $binarisation=0.75$; P-corr算法: $BOLDMaxlength=10$, $TR=3$; ACO-EC算法: $n=10$, $\alpha=1$, $\beta=2$, $\rho=0.4$, $q_{0}=0.8$. 因为ACO-EC和ACOMM-EC算法均为随机优化算法, 其每次运行产生的结果可能会有不同, 故在实验中我们让这两种算法在每个数据集上分别运行30次, 结果以平均值$\pm$标准差的形式给出.
首先, 我们在Smith仿真数据集上进行对比实验. 表 8给出了ACOMM-EC算法和其他6种算法的实验结果.
表 8 ACOMM-EC算法和其他6种算法在Smith仿真数据上的实验对比Table 8 The comparisons of ACOMM-EC and other six algorithms on Smith's simulated datasets数据集 评价指标 CGBN GC GS Patel P-corr ACO-EC ACOMM-EC Sim1-1 精度 0.33 0.83 0.60 0.80 0.80 1 1 召回率 0.4 1 0.60 0.80 0.80 1 1 F度量 0.36 0.91 0.60 0.80 0.80 1 1 时间(s) 0.04 1.98 125.56 0.04 72.38 $0.36\pm0.02$ $0.36\pm0.02$ Sim1-2 精度 0.27 0.64 0.82 0.82 0.82 $0.89\pm0.06$ $0.92\pm0.06$ 召回率 0.29 0.64 0.82 0.82 0.82 $0.89\pm0.06$ $0.92\pm0.06$ F度量 0.28 0.64 0.82 0.82 0.82 $0.89\pm0.06$ $0.92\pm0.06$ 时间(s) 0.09 7.87 543.78 0.18 86.99 $2.81\pm0.09$ $1.47\pm0.08$ Sim1-3 精度 0.33 0.63 0.89 0.80 0.56 $0.86\pm0.07$ $0.87\pm0.06$ 召回率 0.33 0.67 0.89 0.89 0.56 $0.86\pm0.07$ $0.87\pm0.06$ F度量 0.33 0.65 0.89 0.84 0.56 $0.86\pm0.07$ $0.87\pm0.06$ 时间(s) 1.35 17.79 $1.30\times10^{3}$ 0.39 131.41 $10.11\pm0.32$ $6.15\pm0.26$ Sim1-4 精度 0.44 0.55 0.79 0.77 0.56 $0.80\pm0.07$ $0.82\pm0.06$ 召回率 0.44 0.61 0.79 0.77 0.57 $0.80\pm0.07$ $0.82\pm0.06$ F度量 0.44 0.58 0.79 0.77 0.56 $0.80\pm0.07$ $0.82\pm0.06$ 时间(s) 4.03 200.34 $1.48\times10^{4}$ 4.55 466.29 $353.44\pm21.63$ $164.45\pm13.24$ 从表 8中的实验结果可以发现, 在Sim1-1上, ACO-EC算法和ACOMM-EC算法都能完全准确地搜索到标准的网络结构. 在Sim1-2上, ACOMM-EC算法的各项指标不仅大大优于经典的一些算法, 而且也明显好于ACO-EC算法. 在Sim1-3上, ACOMM-EC算法的整体性能略低于GS算法, 但仍优于其他5种算法. 在Sim1-4上, ACOEMM-EC算法也都优于其他6种算法, 尤其是远胜于CGBN、GC和P-corr算法. 对ACO-EC和ACOMM-EC算法在这4组数据集下的实验结果做双样本T检验, 结果表明两种算法无显著性差异$(p-value = 0.2522 > 0.05)$. 究其原因, 这可能是由于该组数据集噪声较小, 节点规模较小, 新算法优势无法突出. 与其他6种算法的运行时间对比结果可知, ACOMM-EC算法的运行时间比CGBN和Patel算法长, 但时间性能明显优于GC、GS、P-corr和ACO-EC算法.
为了更直观地看到7种算法的学习结果, 我们以Sim1-1为例给出了标准网络(Ground-truth)和7种算法学习到的脑效应连接网络结构的对比图, 如图 6所示.
对比标准网络的结构, ACO-EC和AOCMM-EC算法表现最好, 正确识别出了所有弧; CGBN算法识别的结果多了2条弧, 少了1条弧, 还有2条反向弧; GC算法识别比较准确, 但会产生了一条双向弧(或多了一条反向弧); GS算法的结果存在两条反向弧: Patel和P-corr算法的识别结果分别存在一条反向弧.可见, 在Sim1-1上CGBN算法表现最差, ACO-EC和ACOMM-EC算法表现最优秀.
为了进一步验证新算法的性能, 我们在新生成的仿真数据上对ACOMM-EC算法和其他6种算法进行了对比实验, 结果如表 9所示.
表 9 ACOMM-EC算法和其他6种算法在生成仿真数据上的实验对比Table 9 The comparisons of ACOMM-EC and other six algorithms on generated simulated datasets数据集 评价指标 CGBN GC GS Patel P-corr ACO-EC ACOMM-EC Sim2-1 精度 0.50 0.60 0.50 1 1 1 1 召回率 0.60 1 0.60 1 0.6 1 1 F度量 0.55 0.75 0.55 1 0.75 1 1 时间(s) 0.09 2.17 123.48 0.04 85.01 $0.38\pm0.02$ $0.38\pm0.02$ Sim2-2 精度 0.46 0.59 0.55 0.64 0.63 $0.77\pm0.08$ $0.81\pm0.07$ 召回率 0.60 0.91 0.55 0.64 0.91 $0.77\pm0.08$ $0.81\pm0.07$ F度量 0.52 0.71 0.55 0.64 0.74 $0.77\pm0.08$ $0.81\pm0.07$ 时间(s) 0.11 4.05 539.42 0.21 94.40 $2.97\pm0.12$ $1.63\pm0.08$ Sim2-3 精度 0.55 0.59 0.50 0.71 0.48 $0.72\pm0.08$ $0.78\pm0.06$ 召回率 0.64 0.74 0.59 0.71 0.59 $0.74\pm0.08$ $0.78\pm0.06$ F度量 0.59 0.67 0.54 0.71 0.53 $0.73\pm0.08$ $0.78\pm0.06$ 时间(s) 1.26 11.97 $1.26\times10^{3}$ 0.50 208.92 $12.24\pm0.41$ $6.86\pm0.25$ Sim2-4 精度 0.41 0.42 0.41 0.56 0.51 $0.63\pm0.08$ $0.76\pm0.06$ 召回率 0.41 0.53 0.71 0.59 0.53 $0.70\pm0.08$ $0.76\pm0.06$ F度量 0.41 0.47 0.51 0.57 0.52 $0.67\pm0.08$ $0.76\pm0.06$ 时间(s) 3.93 134.78 $1.54\times10^{4}$ 3.66 490.57 $431.29\pm24.80$ $125.47\pm16.122$ Sim2-5 精度 0.50 0.52 0.45 0.60 0.53 $0.61\pm0.08$ $0.74\pm0.07$ 召回率 0.53 0.54 0.65 0.63 0.54 $0.70\pm0.08$ $0.74\pm0.07$ F度量 0.51 0.53 0.53 0.61 0.56 $0.66\pm0.08$ $0.74\pm0.07$ 时间(s) 21.59 568.04 $6.28\times10^{4}$ 15.22 $1.06\times10^{3}$ $(1.79\pm0.13)\times10^{3}$ $545.27\pm62.19$ Sim2-6 精度 0.48 0.32 0.36 0.63 0.53 $0.59\pm0.09$ $0.71\pm0.07$ 召回率 0.53 0.54 0.65 0.63 0.54 $0.69\pm0.09$ $0.71\pm0.07$ F度量 0.48 0.41 0.45 0.63 0.54 $0.64\pm0.09$ $0.71\pm0.07$ 时间(s) 150.18 $2.39\times10^{3}$ $2.48\times10^{5}$ 58.82 $2.43\times10^{3}$ $(1.55\pm0.15)\times10^{4}$ $(2.26\pm0.22) \times10^{3}$ 结合表 8、表 9的实验结果, 可以发现: 1) 对比Sim1-1和Sim2-1、Sim1-2和Sim2-2、Sim1-3和Sim2-3、Sim1-4和Sim2-4, 除CGBN、GS外的大部分算法在噪声增大时得到的三项指标都有不同程度的降低, 这说明在相同网络规模的情况下, 高噪声会使大部分算法的整体求解性能降低. 尽管如此, ACOMM-EC算法与所有其他算法(包括CGBN、GS)相比依然保持高质量的求解结果. 例如, 对比Sim1-4与Sim2-4的结果(同为50个节点的网络), 我们发现, GS、Patel、ACO-EC算法与ACOMM-EC算法在Sim1-4上表现相当, 而在Sim2-4中前三种算法的F度量分别下降了0.26, 0.20和0.13, ACOMM-EC算法的F度量仅下降了0.06. 这意味着, ACOMM-EC算法相比其他算法具有更强的抗噪声能力. 这可能是由于融入激活信息的新启发函数可以更好地指导蚁群进行寻优, 降低了噪声对算法的影响, 使算法容易找到更理想的解; 2) 当网络节点规模达到100、200时(Sim2-5, Sim2-6), ACOMM-EC算法的求解性能具有显著的优势. CGBN, GC和GS三种算法的F度量均在0.5左右; P-corr算法的F度量约为0.55, 略强于上述三种算法; Patel和ACO-EC算法表现稍好, 它们的F度量均略高于0.6; 而ACOMM-EC算法的F度量仍保持在0.7以上. 这是因为ACOMM-EC算法采用DTI信息进行搜索空间的压缩, 去除了解空间中很多不合理的候选解, 这种有效的压缩策略在提高算法运行速度的同时, 也提高了算法搜索的准确性.
总之, 新算法ACOMM-EC的精度、召回率和F度量在所有数据集上均高于其他算法, 与ACO-EC算法相比也有一定优势. 具体地, 对ACO-EC和ACOMM-EC算法的精度、召回率、F度量三个指标在这6组数据集下的实验结果做双样本T检验, 得到结果如下: 两种算法在精度上的统计检验结果为$p-value = 0.0159 < 0.05$; 召回率上的统计检验结果为$p-value = 0.0108 < 0.05$; F度量上的统计检验结果为$p-value = 0.0092 < 0.05$. 因此可以得到结论, ACOMM-EC算法在三项指标上均显著优于ACO-EC算法. 究其原因, 当网络节点规模较大时, 采用DTI信息可以有效压缩算法的搜索空间, 在发挥蚁群全局随机搜索优势的同时提升算法的求解质量. 当数据噪声高时, 融入体素激活信息能更好的降低噪声对算法的影响, 使算法找到更理想的解. 对比ACOMM-EC算法和其他6种算法的时间性能, 我们可以看出, 新算法的时间效率低于CGBN和Patel, 但明显高于其他4种算法. 特别地, 在Sim2-5和Sim2-6两个大规模脑区节点的网络中, ACOMM-EC相比ACOM-EC算法运行时间具有明显的缩短. 综合精度、召回率、F度量, 时间性能这4项评价指标来看, 新算法相比其他算法具有明显优势. 这也进一步说明, 新算法在高噪声, 大规模网络节点的情况下, 具有很好的应用前景.
为了清晰、直观地对比7种算法在实验的仿真数据集上的整体表现. 我们给出了7种算法在仿真数据集上的平均结果, 如图 7所示.
从图 7中我们可以看到, CGBN算法表现最差, 三项指标均在0.4$ \sim $0.5之间; GC、GS和P-corr算法表现相当, 三项指标在0.5$ \sim $0.7之间; Patel和ACO-EC算法表现较好, 三项指标均在0.7$ \sim $0.8之间; 而本文提出的ACOMM-EC算法表现最好, 三项指标均高于0.8. 综上可见, 在仿真数据集上, 融合多源信息的ACOMM-EC算法在识别脑效应连接网络结构上与其他算法相比具有显著优势, 其精度、召回率和F度量3个指标均明显高于其他算法.
3.4 本文算法的实用性测试
为了在实数据上测试本文算法的有效性, 我们使用包括健康对照组(HC)、早期轻度认知障碍(EMCI)患者、晚期轻度认知障碍(LMCI)患者三组真实的、共含有50名被试的fMRI和DTI数据集合(数据的统计特征见表 3)对ACOMM-EC算法的实用性进行测试, 分别获得了3个对应的具有42个感兴趣区域(ROI的具体含义见表 4)的脑效应连接网络. 表 10给出了每组被试的脑效应连接网络中不同区域内(脑叶内)及区域间(脑叶间)的脑效应连接的数量统计.
表 10 HC、EMCI和LMCI三组脑叶内与脑叶间脑效应连接的数量统计Table 10 The intra and interlobe effective connectivity statistics for HC、EMCI and LMCI groups分组 脑区 额叶 顶叶 枕叶 颞叶 HC 额叶 30 10 1 13 顶叶 15 5 12 枕叶 14 14 颞叶 45 EMCI 额叶 29 9 2 12 顶叶 14 4 9 枕叶 13 10 颞叶 43 LMCI 额叶 29 8 2 9 顶叶 13 5 10 枕叶 10 8 颞叶 39 从表 10中可以看出, 脑效应连接总数随着轻度认知障碍病情的不断加深而减少. HC组的EC包含159个脑效应连接, EMCI组的EC包含145个脑效应连接, LMCI组的EC包含133个脑效应连接. 具体地, 颞叶(Temporal lobe)内的连接、颞叶与枕叶(Occipital lobe)、颞叶与额叶(Frontal lobe)、颞叶与顶叶(Parietal lobe)间的连接都有明显减少. 这与已有的研究结论相一致, 即颞叶在认知功能中扮演重要的角色, 是参与记忆功能的主要结构, 轻度认知障碍患者的认知和记忆功能的衰退和减弱与颞叶功能受到破坏有关[38-39]. 因此, 与颞叶相连的脑效应连接的减少可能是正常人患有轻度认知障碍的一种重要参考依据. 此外, 部分区域出现了脑效应连接数量增多的情况(如额叶与枕叶间连接), 这种情况可能与代偿性或资源重新分配有关, 这又一次重现了文献[40]的结论.
最后, 为了更明确地观察三组被试各个脑叶内及脑叶间连接模式的差异, 我们采用一种连接图(Connectograms)的方式呈现了本文算法学习得到的结果, 如图 8所示. 图中每个小圆环代表一个节点(ROI), 外环文字是对应节点的标签即感兴趣区域名称. 内环中的有向弧表示两个脑区之间的脑效应连接.
4. 结论
针对脑效应连接网络的学习问题, 本文提出了一种将多源信息与蚁群优化过程相融合的学习算法. 新算法首先利用DTI数据获取感兴趣区域的结构约束信息, 并利用结构约束信息来压缩蚁群搜索的空间, 以避免蚁群的一些不必要搜索; 然后提出一种融合体素联合激活信息的启发函数, 以增强蚂蚁搜索的目的性, 改进算法的优化效率. 在仿真数据集上的实验结果验证了所提策略在求解质量、速度方面的有效性. 与其他几种算法相比, 新算法在大多数情况下都具有更好的求解性能, 尤其是在高噪声、大规模脑区的情况下具有更加突出的优势. 而在真实数据集上的实验结果也验证了新算法能够发现一些探究脑神经退化疾病病理的客观证据. 下一步我们将继续深入探索其他多源、多模态信息的挖掘和融合方法, 以更好地提升脑效应连接网络的学习质量, 为脑疾病的前期检测与临床诊断提供更多的技术帮助.
致谢: 感谢给予本文指导和建议的同行专家
-
表 1 仿真数据集参数
Table 1 The parameters of Smith's simulation datasets
Simulation Nodes Session (s) TR (s) Noise (%) HRF (s) Subjects Sim1-1 5 600 3.00 1.0 0.5 50 Sim1-2 10 600 3.00 1.0 0.5 50 Sim1-3 15 600 3.00 1.0 0.5 50 Sim1-4 50 600 3.00 1.0 0.5 50 表 2 DCM模型生成仿真数据集参数
Table 2 The parameters of DCM model generates simulated datasets
Simulation Nodes Session (s) TR (s) Noise (%) HRF (s) Subjects Sim2-1 5 600 3.00 3.0 0.5 50 Sim2-2 10 600 3.00 3.0 0.5 50 Sim2-3 15 600 3.00 3.0 0.5 50 Sim2-4 50 600 3.00 3.0 0.5 50 Sim2-5 100 600 3.00 3.0 0.5 50 Sim2-6 200 600 3.00 3.0 0.5 50 表 3 HC, EMCI和LMCI的统计特性
Table 3 The demographic Information of the HC, EMCI and LMCI
HC EMCI LMCI 人数 20 15 15 性别(男/女) 4/16 10/5 7/8 年龄 $71.2\pm13.8$ $74.9\pm8.3$ $78.4\pm13.4$ 表 4 感兴趣区域名称
Table 4 The names of the ROIs
编号 名称 编号 名称 额叶 1 左背外侧额上回(Frontal_Sup_L) 7 左框内额上回(Frontal_Med_Orb_L) 2 右背外侧额上回(Frontal_Sup_R) 8 右框内额上回(Frontal_Med_Orb_R) 3 左额中回(Frontal_Mid_L) 9 左回直肌(Rectus_L) 4 右额中回(Frontal_Mid_R) 10 右回直肌(Rectus_R) 5 左内侧额上回(Frontal_Sup_Medial_L) 11 左前扣带和旁扣带脑回(Cingulum_Ant_L) 6 右内侧额上回(Frontal_Sup_Medial_R) 12 右前扣带和旁扣带脑回(Cingulum_Ant_R) 顶叶 13 左顶上回(Parietal_Sup_L) 17 左楔前叶(Precuneus_L) 14 右顶上回(Parietal_Sup_R) 18 右楔前叶(Precuneus_R) 15 左顶下缘角回(Parietal_Inf_L) 19 左后扣带回(Cingulum_Post_L) 16 右顶下缘角回(Parietal_Inf_R) 20 右后扣带回(Cingulum_Post_R) 枕叶 21 左枕上回(Occipital_Sup_L) 24 右枕中回(Occipital_Mid_R) 22 右枕上回(Occipital_Sup_R) 25 左枕下回(Occipital_Inf_L) 23 左枕中回(Occipital_Mid_L) 26 右枕下回(Occipital_Inf_R) 颞叶 27 左颞上回(Temporal_Sup_L) 35 左颞下回(Temporal_Inf_L) 28 右颞上回(Temporal_Sup_R) 36 右颞下回(Temporal_Inf_R) 29 左颞上回颞极(Temporal_Pole_Sup_L) 37 左梭状回(Fusiform_L) 30 右颞上回颞极(Temporal_Pole_Sup_R) 38 右梭状回(Fusiform_R) 31 左颞中回(Temporal_Mid_L) 39 左海马(Hippocampus_L) 32 右颞中回(Temporal_Mid_R) 40 右海马(Hippocampus_R) 33 左颞中回颞极(Temporal_Pole_Mid_L) 41 左海马旁回(ParaHippocampal_L) 34 右颞中回颞极(Temporal_Pole_Mid_R) 42 右海马旁回(ParaHippocampal_R) 表 5 在Smith仿真数据集上两种新策略的效果
Table 5 The effectiveness of the two new strategies on Smith's simulation datasets
数据集 算法 精度 召回率 F度量 时间(s) Sim1-1 ACO-EC 1 1 1 $0.36\pm0.02$ ACO-EC1 1 1 1 $0.36\pm0.02$ ACO-EC2 1 1 1 $0.38\pm0.02$ Sim1-2 ACO-EC $0.89\pm0.06$ $0.89\pm0.06$ $0.89\pm0.06$ $2.81\pm0.09$ ACO-EC1 $0.89\pm0.06$ $0.89\pm0.06$ $0.89\pm0.06$ $1.54\pm0.08$ ACO-EC2 $0.91\pm0.06$ $0.91\pm0.06$ $0.91\pm0.06$ $2.63\pm0.09$ Sim1-3 ACO-EC $0 .86\pm0.07$ $0.86\pm0.07$ $0.86\pm0.07$ $10.11\pm0.32$ ACO-EC1 $0.86\pm0.07$ $0.86\pm0.07$ $0.86\pm0.07$ $6.78\pm0.27$ ACO-EC2 $0.87\pm0.07$ $0.87\pm0.07$ $0.87\pm0.07$ $9.86\pm0.25$ Sim1-4 ACO-EC $0.80\pm0.07$ $0.80\pm0.07$ $0.80\pm0.07$ $353.44\pm21.63$ ACO-EC1 $0.80\pm0.07$ $0.80\pm0.07$ $0.80\pm0.07$ $181.84\pm16.19$ ACO-EC2 $0.82\pm0.07$ $0.82\pm0.07$ $0.82\pm0.07$ $264.35\pm18.27$ 表 6 在生成的高噪声仿真数据集上两种新策略的效果
Table 6 The effectiveness of the two new strategies on generated simulated datasets with higher noises
数据集 算法 精度 召回率 F度量 时间(s) Sim2-1 ACO-EC 1 1 1 $0.38\pm0.02$ ACO-EC1 1 1 1 $0.38\pm0.02$ ACO-EC2 1 1 1 $0.38\pm0.02$ Sim2-2 ACO-EC $0.77\pm0.08$ $0.77\pm0.08$ $0.77\pm0.08$ $2.97\pm0.12$ ACO-EC1 $0.77\pm0.08$ $0.77\pm0.08$ $0.77\pm0.08$ $1.69\pm0.09$ ACO-EC2 $0.81\pm0.07$ $0.81\pm0.07$ $0.81\pm0.07$ $2.87\pm0.13$ Sim2-3 ACO-EC $0.72\pm0.08$ $0.74\pm0.08$ $0.73\pm0.08$ $12.24\pm0.41$ ACO-EC1 $0.75\pm0.08$ $0.75\pm0.08$ $0.75\pm0.08$ $7.43\pm0.29$ ACO-EC2 $0.75\pm0.07$ $0.78\pm0.07$ $0.76\pm0.07$ $11.01\pm0.35$ Sim2-4 ACO-EC $0.63\pm0.08$ $0.70\pm0.08$ $0.67\pm0.08$ $431.29\pm24.80$ ACO-EC1 $0.70\pm0.08$ $0.70\pm0.08$ $0.70\pm0.08$ $197.38\pm18.14$ ACO-EC2 $0.65\pm0.07$ $0.76\pm0.07$ $0.71\pm0.07$ $382.74\pm22.85$ 表 7 在更大规模脑网络生成数据集上两种新策略的效果
Table 7 The effectiveness of the two new strategies on generated simulated datasets with larger scale networks
数据集 算法 精度 召回率 F度量 时间(s) Sim2-5 ACO-EC $0.61\pm0.08$ $0.69\pm0.08$ $0.65\pm0.08$ $(1.79\pm0.13)\times10^{3}$ ACO-EC1 $0.70\pm0.08$ $0.70\pm0.08$ $0.70\pm0.08$ $(8.68\pm0.76)\times10^{2}$ ACO-EC2 $0.66\pm0.07$ $0.73\pm0.07$ $0.70\pm0.07$ $(1.54\pm0.10)\times10^{3}$ Sim2-6 ACO-EC $0.59\pm0.09$ $0.69\pm0.09$ $0.64\pm0.09$ $(1.55\pm0.15)\times10^{4}$ ACO-EC1 $0.68\pm0.09$ $0.68\pm0.09$ $0.68\pm0.09$ $(4.72\pm0.38)\times10^{3}$ ACO-EC2 $0.64\pm0.07$ $0.71\pm0.07$ $0.68\pm0.07$ $(1.27\pm0.12)\times10^{4}$ 表 8 ACOMM-EC算法和其他6种算法在Smith仿真数据上的实验对比
Table 8 The comparisons of ACOMM-EC and other six algorithms on Smith's simulated datasets
数据集 评价指标 CGBN GC GS Patel P-corr ACO-EC ACOMM-EC Sim1-1 精度 0.33 0.83 0.60 0.80 0.80 1 1 召回率 0.4 1 0.60 0.80 0.80 1 1 F度量 0.36 0.91 0.60 0.80 0.80 1 1 时间(s) 0.04 1.98 125.56 0.04 72.38 $0.36\pm0.02$ $0.36\pm0.02$ Sim1-2 精度 0.27 0.64 0.82 0.82 0.82 $0.89\pm0.06$ $0.92\pm0.06$ 召回率 0.29 0.64 0.82 0.82 0.82 $0.89\pm0.06$ $0.92\pm0.06$ F度量 0.28 0.64 0.82 0.82 0.82 $0.89\pm0.06$ $0.92\pm0.06$ 时间(s) 0.09 7.87 543.78 0.18 86.99 $2.81\pm0.09$ $1.47\pm0.08$ Sim1-3 精度 0.33 0.63 0.89 0.80 0.56 $0.86\pm0.07$ $0.87\pm0.06$ 召回率 0.33 0.67 0.89 0.89 0.56 $0.86\pm0.07$ $0.87\pm0.06$ F度量 0.33 0.65 0.89 0.84 0.56 $0.86\pm0.07$ $0.87\pm0.06$ 时间(s) 1.35 17.79 $1.30\times10^{3}$ 0.39 131.41 $10.11\pm0.32$ $6.15\pm0.26$ Sim1-4 精度 0.44 0.55 0.79 0.77 0.56 $0.80\pm0.07$ $0.82\pm0.06$ 召回率 0.44 0.61 0.79 0.77 0.57 $0.80\pm0.07$ $0.82\pm0.06$ F度量 0.44 0.58 0.79 0.77 0.56 $0.80\pm0.07$ $0.82\pm0.06$ 时间(s) 4.03 200.34 $1.48\times10^{4}$ 4.55 466.29 $353.44\pm21.63$ $164.45\pm13.24$ 表 9 ACOMM-EC算法和其他6种算法在生成仿真数据上的实验对比
Table 9 The comparisons of ACOMM-EC and other six algorithms on generated simulated datasets
数据集 评价指标 CGBN GC GS Patel P-corr ACO-EC ACOMM-EC Sim2-1 精度 0.50 0.60 0.50 1 1 1 1 召回率 0.60 1 0.60 1 0.6 1 1 F度量 0.55 0.75 0.55 1 0.75 1 1 时间(s) 0.09 2.17 123.48 0.04 85.01 $0.38\pm0.02$ $0.38\pm0.02$ Sim2-2 精度 0.46 0.59 0.55 0.64 0.63 $0.77\pm0.08$ $0.81\pm0.07$ 召回率 0.60 0.91 0.55 0.64 0.91 $0.77\pm0.08$ $0.81\pm0.07$ F度量 0.52 0.71 0.55 0.64 0.74 $0.77\pm0.08$ $0.81\pm0.07$ 时间(s) 0.11 4.05 539.42 0.21 94.40 $2.97\pm0.12$ $1.63\pm0.08$ Sim2-3 精度 0.55 0.59 0.50 0.71 0.48 $0.72\pm0.08$ $0.78\pm0.06$ 召回率 0.64 0.74 0.59 0.71 0.59 $0.74\pm0.08$ $0.78\pm0.06$ F度量 0.59 0.67 0.54 0.71 0.53 $0.73\pm0.08$ $0.78\pm0.06$ 时间(s) 1.26 11.97 $1.26\times10^{3}$ 0.50 208.92 $12.24\pm0.41$ $6.86\pm0.25$ Sim2-4 精度 0.41 0.42 0.41 0.56 0.51 $0.63\pm0.08$ $0.76\pm0.06$ 召回率 0.41 0.53 0.71 0.59 0.53 $0.70\pm0.08$ $0.76\pm0.06$ F度量 0.41 0.47 0.51 0.57 0.52 $0.67\pm0.08$ $0.76\pm0.06$ 时间(s) 3.93 134.78 $1.54\times10^{4}$ 3.66 490.57 $431.29\pm24.80$ $125.47\pm16.122$ Sim2-5 精度 0.50 0.52 0.45 0.60 0.53 $0.61\pm0.08$ $0.74\pm0.07$ 召回率 0.53 0.54 0.65 0.63 0.54 $0.70\pm0.08$ $0.74\pm0.07$ F度量 0.51 0.53 0.53 0.61 0.56 $0.66\pm0.08$ $0.74\pm0.07$ 时间(s) 21.59 568.04 $6.28\times10^{4}$ 15.22 $1.06\times10^{3}$ $(1.79\pm0.13)\times10^{3}$ $545.27\pm62.19$ Sim2-6 精度 0.48 0.32 0.36 0.63 0.53 $0.59\pm0.09$ $0.71\pm0.07$ 召回率 0.53 0.54 0.65 0.63 0.54 $0.69\pm0.09$ $0.71\pm0.07$ F度量 0.48 0.41 0.45 0.63 0.54 $0.64\pm0.09$ $0.71\pm0.07$ 时间(s) 150.18 $2.39\times10^{3}$ $2.48\times10^{5}$ 58.82 $2.43\times10^{3}$ $(1.55\pm0.15)\times10^{4}$ $(2.26\pm0.22) \times10^{3}$ 表 10 HC、EMCI和LMCI三组脑叶内与脑叶间脑效应连接的数量统计
Table 10 The intra and interlobe effective connectivity statistics for HC、EMCI and LMCI groups
分组 脑区 额叶 顶叶 枕叶 颞叶 HC 额叶 30 10 1 13 顶叶 15 5 12 枕叶 14 14 颞叶 45 EMCI 额叶 29 9 2 12 顶叶 14 4 9 枕叶 13 10 颞叶 43 LMCI 额叶 29 8 2 9 顶叶 13 5 10 枕叶 10 8 颞叶 39 -
[1] Lehrer J. Neuroscience: making connections. Nature News, 2009, 457(7229): 524-527 doi: 10.1038/457524a [2] 梁夏, 王金辉, 贺永. 人脑连接组研究: 脑结构网络和脑功能网络. 科学通报, 2010, 55(16): 1565-1583 https://www.cnki.com.cn/Article/CJFDTOTAL-KXTB201016008.htmLiang Xia, Wang Jin-Hui, He Yong. Human connectome: Structural and functional brain networks. Chinese Science Bulletin, 2010, 55(16): 1565-1583 https://www.cnki.com.cn/Article/CJFDTOTAL-KXTB201016008.htm [3] 左西年, 张喆, 贺永, 等. 人脑功能连接组: 方法学、发展轨线和行为关联. 科学通报, 2012, 57(35): 3399-3413 https://www.cnki.com.cn/Article/CJFDTOTAL-KXTB201235009.htmZuo Xi-Nian, Zhang Zhe, He Yong, et al. The human functional conncetome: Its methodology, developmental trajectory and behavioral association. Chinese Science Bulletin, 2012, 57(35): 3399-3413 https://www.cnki.com.cn/Article/CJFDTOTAL-KXTB201235009.htm [4] Warnick R, Guindani M, Erhardt E, et al. A Bayesian approach for estimating dynamic functional network connectivity in fMRI data. Journal of the American Statistical Association, 2018, 113(521): 134-151 doi: 10.1080/01621459.2017.1379404 [5] Pallarés V, Insabato A, Sanjuän A, et al. Extracting orthogonal subject-and condition-specific signatures from fMRI data using whole-brain effective connectivity. Neuroimage, 2018, 178: 238-254 doi: 10.1016/j.neuroimage.2018.04.070 [6] Smith S M, Miller K L, Salimi-Khorshidi G, et al. Network modelling methods for FMRI. Neuroimage, 2011, 54(2): 875-891 doi: 10.1016/j.neuroimage.2010.08.063 [7] Scherr M, Utz L, Tahmasian M, et al. Effective connectivity in the default mode network is distinctively disrupted in Alzheimer's disease - a simultaneous resting-state FDG-PET/fMRI study. Human Brain Mapping, 2019. [8] Liu J, Ji J, Zhang A, Liang P. An ant colony optimization algorithm for learning brain effective connectivity network from fMRI data. In: Proceedings of the 2016 IEEE International Conference on Bioinformatics and Biomedicine (BIBM). Shenzhen, China: IEEE, 2016. 360-367 [9] Seth A K. A MATLAB toolbox for Granger causal connectivity analysis. Journal of Neuroscience Methods, 2010, 186(2): 262-273 doi: 10.1016/j.jneumeth.2009.11.020 [10] Goebel R, Roebroeck A, Kim D S, et al. Investigating directed cortical interactions in time-resolved fMRI data using vector autoregressive modeling and Granger causality mapping. Magnetic Resonance Imaging, 2003, 21(10): 1251-1261 doi: 10.1016/j.mri.2003.08.026 [11] Xu L, Fan T, Wu X, et al. A pooling-LiNGAM algorithm for effective connectivity analysis of fMRI data. Frontiers in Computational Neuroscience, 2014, 8: 125 [12] Shimizu S, Hoyer P O, Hyvarinen A, et al. A linear non-Gaussian acyclic model for causal discovery. Journal of Machine Learning Research, 2006, 7(Oct): 2003-2030 [13] Shimizu S, Kano Y. Use of non-normality in structural equation modeling: Application to direction of causation. Journal of Statistical Planning and Inference, 2008, 138(11): 3483-3491 doi: 10.1016/j.jspi.2006.01.017 [14] Quiroga R Q, Kraskov A, Kreuz T, et al. Performance of different synchronization measures in real data: A case study on electroencephalographic signals. Physical Review E, 2002, 65(4): 041903 doi: 10.1103/PhysRevE.65.041903 [15] Dauwels J, Vialatte F, Musha T, et al. A comparative study of synchrony measures for the early diagnosis of Alzheimer's disease based on EEG. NeuroImage, 2010, 49(1): 668-693 doi: 10.1016/j.neuroimage.2009.06.056 [16] Patel R S, Bowman F D B, Rilling J K. A Bayesian approach to determining connectivity of the human brain. Human Brain Mapping, 2006, 27(3): 267-276 doi: 10.1002/hbm.20182 [17] Ide J S, Zhang S, Chiang-shan R L. Bayesian network models in brain functional connectivity analysis. International Journal of Approximate Reasoning, 2014, 55(1): 23-35 doi: 10.1016/j.ijar.2013.03.013 [18] Mumford J A, Ramsey J D. Bayesian networks for fMRI: a primer. Neuroimage, 2014, 86: 573-582 doi: 10.1016/j.neuroimage.2013.10.020 [19] Meek, C. Causal inference and causal explanation with background knowledge. In: Proceedings of the Eleventh conference on Uncertainty in artificial intelligence (UAI-95). Morgan Kaufmann, San Mateo, CA, USA: Morgan Kaufmann Publishers Inc, 1995. 403-410 [20] Richardson T, Spirtes P. Automated discovery of linear feedback models. Carnegie Mellon: Department of Philosophy, 1996. [21] Ramsey J, Zhang J, Spirtes P L. Adjacency-faithfulness and conservative causal inference. In: Proceedings of the 22nd Convergence on Uncertainty in Artificial Intelligence (UAI), 2006. 401-408 [22] Zhang J. On the completeness of orientation rules for causal discovery in the presence of latent confounders and selection bias. Artificial Intelligence, 2008, 172(16): 1873-1896 [23] Chickering D M. Optimal structure identification with greedy search. Journal of Machine Learning Research, 2002, 3(Nov): 507-554 [24] Ramsey J D, Hanson S J, Hanson C, et al. Six problems for causal inference from fMRI. Neuroimage, 2010, 49(2): 1545-1558 doi: 10.1016/j.neuroimage.2009.08.065 [25] Chiang S, Guindani M, Yeh H J, et al. Bayesian vector autoregressive model for multi-subject effective connectivity inference using multi-modal neuroimaging data. Human Brain Mapping, 2017, 38(3): 1311-1332 doi: 10.1002/hbm.23456 [26] Dang S, Chaudhury S, Lall B, et al. Tractography-based score for learning effective connectivity from multimodal imaging data using dynamic Bayesian networks. IEEE Transactions on Biomedical Engineering, 2018, 65(5): 1057-1068 [27] Martens D, De Backer M, Haesen R, et al. Classification with ant colony optimization. IEEE Transactions on Evolutionary Computation, 2007, 11(5): 651-665 doi: 10.1109/TEVC.2006.890229 [28] Liao T, Socha K, de Oca M A M, et al. Ant colony optimization for mixed-variable optimization problems. IEEE Transactions on Evolutionary Computation, 2014, 18(4): 503-518 doi: 10.1109/TEVC.2013.2281531 [29] Yang Q, Chen W N, Yu Z, et al. Adaptive multimodal continuous ant colony optimization. IEEE Transactions on Evolutionary Computation, 2017, 21(2): 191-205 doi: 10.1109/TEVC.2016.2591064 [30] Ji J, Zhang H, Hu R, Liu C. A Bayesian network learning algorithm based on independence test and ant colony optimization. Acta Automatica Sinica, 2009, 35(3): 281-288 [31] Zhu D, Zhang T, Jiang X, et al. Fusing DTI and fMRI data: A survey of methods and applications. NeuroImage, 2014, 102: 184-191 doi: 10.1016/j.neuroimage.2013.09.071 [32] Van Den Heuvel M P, Mandl R C W, Kahn R S, et al. Functionally linked resting-state networks reflect the underlying structural connectivity architecture of the human brain. Human Brain Mapping, 2009, 30(10): 3127-3141 doi: 10.1002/hbm.20737 [33] Stutzle T, Dorigo M. A short convergence proof for a class of ant colony optimization algorithms. IEEE Transactions on Evolutionary Computation, 2002, 6(4): 358-365 doi: 10.1109/TEVC.2002.802444 [34] Ji J, Liu J, Liang P, et al. Learning effective connectivity network structure from fMRI data based on artificial immune algorithm. PloS One, 2016, 11(2): e0152600 [35] Ji J, Hu R, Zhang H, et al. A hybrid method for learning Bayesian networks based on ant colony optimization. Applied Soft Computing, 2011, 11(4): 3373-3384 doi: 10.1016/j.asoc.2011.01.009 [36] McGeachie M J, Chang H H, Weiss S T. CGBayesNets: Conditional Gaussian Bayesian network learning and inference with mixed discrete and continuous data. PLoS Computational Biology, 2014, 10(6): e1003676 doi: 10.1371/journal.pcbi.1003676 [37] Xu N, Spreng R N, Doerschuk P C. Initial validation for the estimation of resting-state fmri effective connectivity by a generalization of the correlation approach. Frontiers in Neuroscience, 2017, 11: 271 doi: 10.3389/fnins.2017.00271 [38] Huang S, Li J, Ye J, et al. A sparse structure learning algorithm for Gaussian Bayesian network identification from high-dimensional data. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(6): 1328-1342 doi: 10.1109/TPAMI.2012.129 [39] 于乃功, 苑云鹤, 李倜, 蒋晓军, 罗子维. 一种基于海马认知机理的仿生机器人认知地图构建方法. 自动化学报, 2018, 44(1): 52-73 doi: 10.16383/j.aas.2018.c160467Yu Nai-Gong, Yuan Yun-He, Li Ti, Jiang Xiao-Jun, Luo Zi-Wei. A Cognitive map building algorithm by means of cognitive mechanism of hippocampus. Acta Automatica Sinica, 2018, 44(1): 52-73 doi: 10.16383/j.aas.2018.c160467 [40] Zhang H Y, Wang S J, Liu B, et al. Resting brain connectivity: Changes during the progress of Alzheimer disease. Radiology, 2010, 256(2): 598-606 doi: 10.1148/radiol.10091701 期刊类型引用(2)
1. 蒲天骄,张中浩,谈元鹏,莫文昊,郭剑波. 电力人工智能技术理论基础与发展展望(二):自主学习与应用初探. 中国电机工程学报. 2023(10): 3705-3718 . 百度学术
2. 冀俊忠,邹爱笑,刘金铎. 基于功能磁共振成像的人脑效应连接网络识别方法综述. 自动化学报. 2021(02): 278-296 . 本站查看
其他类型引用(2)
-