A Real-time Reasoning Engine for Injection-production Optimization of Water and Oil Wells on Account of Bitmap
-
摘要: 针对油田油水井采注优化业务中,油水井数据量大、地层结构复杂以及人类经验多的特点,分析了传统推理方法在油田采注实时优化处理过程中的不足,采用事件处理思想,提出了一种基于Bitmap事件编码与匹配机制的推理引擎,有效地实现了对无效事件的过滤并提升了事件与规则的匹配效率.在油田实际数据试验平台上对该方法进行了验证并与RETE算法、LFA(Linear forward-chaining)算法的性能对比,结果验证了本文方法在实时推理能力上的有效性.Abstract: In the process of optimizing the injection-production in oil and water wells, complex stratigraphic structure and large amount of business data and human experience will be involved. In this situation, traditional reasoning methods cannot be effective. By introducing the event processing theory, a reasoning engine using bitmap event encoding and matching is proposed, which can filter out invalid events efficiently and improve the matching performance between events and rules. The proposed reasoning engine is implemented in a real oilfield data experiment platform. Compared with RETE algorithm and LFA (Linear forward-chaining) algorithm, the proposed method shows a better reasoning capability.
-
Key words:
- Production-injection optimization /
- reasoning engine /
- bitmap /
- rule matching /
- event filtering
-
当前在机器学习领域面临有标签的新样本数据匮乏的问题, 而原有的大量带标签数据可能随着时间的推移变得不适用, 人为的对训练样本进行标注扩充非常费时费力[1].针对上述问题, 迁移学习方法得以提出, 它放宽了传统机器学习中训练样本和测试样本独立同分布的假设, 通过迁移已有的知识来解决目标领域中有少量标签甚至无标签样本数据的学习问题[2-3].迁移学习已经成功运用在文本情感分类[4-5]、图像分类[6-11]、软件故障预测[12].
作为迁移学习的一种特例, 基于特征的域适应方法把各个领域的数据映射到同一空间下, 使源域与目标域有相同的分布, 并利用源域中的训练数据来解决目标域的学习问题[1].此类方法的关键是合理度量不同域之间的距离, 以减少源域和目标域的分布差异.为此, Kulis等[6, 13]提出通过学习正则化的非线性变换将源域中的点映射到目标域中的点.文献[13]学习到的结果是对称的转换矩阵, 无法解决两个特征类型与维度不同时的情况, 文献[6]提出了非对称正则化跨领域变换算法(Asymmetric regulized cross-domain tranformation, ARC-t)得到的变换矩阵是非对称的, 解决了文献[13]中方法的局限.然而, ARC-t是基于成对约束的, 算法的求解时间随着训练样本的增加而显著增加.文献[7]提出了一种异构特征增强方法(Heterogeneous features augmented, HFA), 该方法将两个域的数据通过两个转换矩阵投影到了一个共同的子空间, 其实验精度要高于ARC-t, 然而该算法容易产生早收敛.文献[14]提出了核化的数据表示方法(Geodesic flow kernel, GFK), 该方法等同于沿着源域和目标域子空间之间的测地流在无限子空间中计算内积, 由于该核定义是对称的, 因此GFK算法不能解决源域与目标域不同维度时的情况.文献[15]提出了最大间隔域转换方法(Max-margin domain transforms, MMDT), 其核心思想是, 目标域到源域数据的映射矩阵与分类器的参数同时固化到一个优化目标函数中, 能够直接优化得到最终的SVM (Support vector machine)分类器参数, 因此更能高效地应对大样本训练的情况.然而, MMDT的目标函数是典型的非凸问题, 采用了交替下降法分步优化, 使原问题转化成两个凸优化QP (Quadratic programming)子问题进行求解, 过程较为复杂, 且耗时较长.
2004年黄广斌教授提出了极限学习机(Extreme learning machine, ELM)[16], 其特点是输入层与隐藏层的权值矩阵和偏置只通过一次性随机产生, 而不需要迭代优化; 唯一要求解的参数是隐藏层与输出层的权值矩阵, 通过广义逆矩阵的方式得到, 因此求解过程更加快速. ELM在许多领域得到应用, 并表现出优异性能[17-18].本文针对含少量标签样本的迁移学习问题, 提出了一种基于极限学习机参数迁移的域适应算法(Domain adaption with parameter transfer, DAPT), 其核心思想是迁移目标域的ELM分类器参数到源域中, 使两个域的分类器享有共同的参数空间. DAPT方法利用ELM求解过程快的优势, 并通过参数迁移构建了目标域到源域的适应关系, 与现有文献算法相比, 其适用范围更广(如表 1所示), 在分类精度和效率上也有明显的优势.
表 1 本文方法与主流算法适用范围对比Table 1 The application comparison between DAPT and previous methodsARC-t GFK HFA MMDT DAPT 多类分类 √ √ √ √ 大规模数据集 √ √ √ 解决异构特征 √ √ √ 1. 提出的方法
1.1 极限学习机ELM
极限学习机的网络为前向单隐层结构, 如图 1所示: $m$, $L$, $n$分别为输入层、隐藏层、输出层结点个数.设训练样本为${{\pmb x}_1, {\pmb x}_2, \cdots, {\pmb x}_p}$, 其分别对应的标签为${{\pmb t}_1, {\pmb t}_2, \cdots, {\pmb t}_p}$. $g({ {\pmb\omega}_i^{\rm T} x_j+}b_i)$是隐藏层激活函数, $\omega$是$m\times L$大小的权值矩阵, $\pmb{\omega}_ {i}$表示隐含层第$i$个节点与输入层之间的权值向量, $b_i$是隐含层第$i$个节点的偏置参数. $\beta$是隐藏层与输出层的权值矩阵, 大小为$L\times n$, ${\pmb{\beta} _{i}}$表示隐含层第$i$个节点与输出层之间的权值向量. $\pmb{\omega}_ {i}$与$b_i$为随机生成, 这使得ELM可以直接产生全局最优解, 其求解最终转化成了范数最小二乘解, 求解速度极快.
ELM网络输出为
$ \begin{equation} \label{eqn_example} \pmb{y} = \sum\limits_{i=1}^{L}\pmb{ \beta}_i g(\pmb{\omega}_i^{\rm T} \pmb{x}+b_i) \end{equation} $
(1) 设${H} =\left[\!{array}{ccc}g(\pmb{\omega}_1^{\rm T}\pmb{x}_1+b_1)&\ldots&g(\pmb{\omega}_L^{\rm T}\pmb{x}_1+b_L)\\ \vdots& \ddots& \vdots\\g(\pmb{\omega}_1^{\rm T}\pmb{x}_m+b_1)&\ldots& g(\pmb{\omega}_L^{\rm T}\pmb{x}_m+b_L) \\ {array} \!\right] $, 则ELM的优化目标如下:
$ \begin{equation} \mathop {\min }\limits_\beta \big\|H\beta-T\big\|^2+\frac{C}{2}\big\|\beta\big\|^2 \end{equation} $
(2) $C$为惩罚系数.该式子可通过如下求解:
$ \begin{equation} \beta = (H^{\rm T}H+CI)^\dagger H^{\rm T}T \end{equation} $
(3) 其中, $A^\dagger$表示矩阵$A$的Moore-Penrose广义逆.从以上式子可以看出, 不同于MMDT的需要迭代求解两个QP子问题, ELM通过式(3)直接计算得到参数, 复杂程度上明显优于MMDT.
1.2 基于ELM参数迁移的域适应算法DAPT
不同于MMDT的将目标域数据通过一个转移矩阵迁移换到源域中, 本文的DAPT算法的迁移对象是目标域的ELM分类器参数.设在目标域上ELM分类器参数为$\beta$, DAPT算法的目标是学习一个转换矩阵$W$, 将目标域上的分类器参数转换到源域中. DAPT的优化目标函数如下:
$ \begin{equation} \mathop {\min }\limits_{\beta, W} J = {\mathbb{L}_s}(\beta ) + {\mathbb{L}_t}(\beta, W) + \mathbb{R}(\beta ) + \mathbb{Q}(\beta , W)\ \end{equation} $
(4) 式中
$ {\mathbb{L}_s}(\beta ) = \frac{1}{2}{\left\| {{H_s}\beta - {T_s}} \right\|^2} $
(5) $ {\mathbb{L}_t}(\beta, W) = \frac{1}{2}{\left\| {{H_t}W\beta - {T_t}} \right\|^2} $
(6) $ \mathbb{R}(\beta ) = \frac{{{C_1}}}{2}{\left\| \beta \right\|^2} $
(7) $ \mathbb{Q}(\beta, W) = \frac{{{C_2}}}{2}{\left\| {W\beta - \beta } \right\|^2} $
(8) ${\mathbb{L}_s}(\beta )$代表源域训练误差, $\mathbb{L}_t(\beta, W)$为目标域训练误差, 此项中, $W$乘以$\beta$代表是目标域分类器参数向源域的迁移过程, $\mathbb{R}(\beta)$为正则项, 其作用是防止过拟合.为了能够防止算法造成负迁移的后果, 在目标函数中加入最后一项$\mathbb{Q}(\beta, W)$, 目标是减小迁移的误差. $C_1$, $C_2$为惩罚系数.上式有两个求解目标: $W$和$\beta$.可以通过分步优化进行求解:
步骤1. 初始化转移矩阵$W=I$;
步骤2. 固定$W$, 按下式求解$\beta$:
$ \begin{equation} \beta = \arg \min {J_1}\ \end{equation} $
(9) 其中, $J_1=J$, 对$\beta$偏导数得:
$ \begin{equation} \begin{split} \frac{{\partial {J_1}}}{{\partial \beta }} =& H_s^{\rm T}({H_s}\beta - {T_s}) + {W^{\rm T}}H_t^{\rm T}({H_t}W\beta - {T_t})+\\ & {C_1}\beta+ {C_2}{(W - I)^{\rm T}}(W - I)\beta \ \end{split} \end{equation} $
(10) 令上式为0可求得:
$ \begin{align} \beta =\, &(H_s^{\rm T}{H_s} + {W^{\rm T}}H_t^{\rm T}{H_t}W + {C_1}I + {C_2}\times \nonumber\\ &{(W - I)^{\rm T}}(W - I))^\dagger (H_s^{\rm T}{T_s} + {W^{\rm T}}H_t^{\rm T}{T_t})\ \end{align} $
(11) 步骤3. 固定$\beta$, 通过下式求解$W$:
$ \begin{align} W &= \arg \min {J_2}= \nonumber\\ &\arg \min \left(\frac{1}{2}{\left\| {{H_t}W\beta - {T_t}} \right\|^2} + \frac{{{C_2}}}{2}{\left\| {W\beta - \beta } \right\|^2}\right) \end{align} $
(12) 对$W$偏导数得:
$ \begin{equation} \frac{{\partial {J_2}}}{{\partial W}} = H_t^{\rm T}(H_t^{\rm T}W\beta - {T_t}){\beta ^{\rm T}} + {C_2}(W\beta - \beta ){\beta ^{\rm T}}\ \end{equation} $
(13) 令偏导数等于0, 求得:
$ \begin{equation} W = {(H_t^{\rm T}{H_t} + {C_2}I)^\dagger }(H_t^{\rm T}{H_t}{\beta ^{\rm T}} + {C_2}\beta {\beta ^{\rm T}}){(\beta {\beta ^{\rm T}})^\dagger }\ \end{equation} $
(14) 步骤4. 重复步骤2更新$\beta$.测试数据的分类结果由下式得到:
$ \begin{equation} \pmb{y} = {H_t}(\pmb{x})W\beta \ \end{equation} $
(15) 2. 实验与结果分析
为了突出本文算法在精度及时间上的优势, 将现有文献主流的域适应算法与本文提出的算法进行比较.作为对比的基准方法有: ARC-t[6]、GFK[14]、HFA[7]、MMDT[15].在第2.1节和第2.2节中分别采用了两组数据集, 进行小样本和大样本下的迁移效果对比实验, 第2.3节是对本文算法的参数取值进行实验分析.
2.1 office-caltech256数据集上的实验
该数据集总共包含4个域的图像, 分别是: amazon、webcam、dslr以及caltech, 每个域都包含了共同的10类图像, 如backpacks、keyboards等.实验安排每两个域都交替作为源域和目标域, 因此共有12种组合方式.在webcam、dslr、caltech域作为源域时, 每个类别都随机选取8幅图像作为源域的训练样本, 在amazon域作为源域时, 每个类别都随机选取20幅图作为源域的训练样本; 所有域的每类都随机选取3幅图作为目标域的训练数据; 测试数据为目标域所有图像.所有的训练数据均为随机生成, 共包含12组实验, 每组实验都随机生成20次, 因此每组实验都得到了20个测试精度, 取其平均作为衡量算法精度的依据.作为基准对比的算法ARC-t、GFK、HFA、MMDT都采用了同样的数据设置.此外, 为了验证迁移学习的必要性, 本实验还加入了不进行迁移学习直接进行分类的实验, 分类器分别采用SVM与ELM, 并设计4项实验, SVMs表示用源域的样本作为训练样本, SVMt表示用目标域的数据作为训练样本.对应的, ELMs、ELMt与SVMs、SVMt的样本设置相同.为了验证DAPT方法可以避免负迁移, 本实验在DAPT基础上去掉项, 记为DAPT_$n, $将其作为一种对比算法.
主流的域适应方法使用图像的特征通常是中级特征BOVW (Bag of visual words), 由于近几年流行的深度网络可以提取出图像更高级的特征, 因此, 本文将两类数据集分别使用中级特征BOVW和深度特征表示, 用来对比以上算法在两类特征下的表现情况.中级特征BOVW的提取方法是:给定一幅图像, 首先提取图像的SURF (Speed-up robust features)特征, 然后进行聚类得到视觉单词, 通过统计单词表在图像中出现的次数, 形成800维的中层特征表示.高级特征通过Caffe学习框架的特征提取模块得到, 利用了训练好的Alexnet网络对输入的图像进行特征提取, 在网络的fc7层形成4 096维的特征表示, 作为该图像的高级特征表示.
参数设置方面, ARC-t、GFK、HFA、MMDT算法中与参考文献中设置相同, 本文方法DAPT有3个参数, 分别是$L$、$C_1$及$C_2$, 其设置如下:所有实验中$C_1=10\, 000$, $C_2=2\, 000$, 在中层特征实验中$L=200$, 高层特征$L=1\, 500$.各个算法所得到的精度分别如表 2、表 3所示:
表 2 使用BOVW特征时算法的分类精度(%)Table 2 Accuracy for all the methods when using BOVW feature (%)SVMs SVMt ELMs ELMt ARC-t GFK HFA MMDT DAPT_$n$ DAPT a$\rightarrow$w 30.30 50.02 40.21 69.42 56.77 57.10 55.71 64.85 63.60 70.25 a$\rightarrow$d 32.20 47.28 38.66 56.42 54.37 54.14 50.18 54.37 50.75 58.19 a$\rightarrow$c 39.55 26.50 42.23 35.99 31.66 37.95 37.03 39.73 31.96 44.29 w$\rightarrow$a 28.42 39.28 38.42 52.73 43.28 41.25 43.44 50.47 48.79 54.82 w$\rightarrow$d 63.74 45.63 70.16 55.28 55.91 75.51 71.29 62.72 52.76 71.93 w$\rightarrow$c 24.55 26.15 33.31 33.74 30.50 31.59 31.92 34.81 30.45 38.66 d$\rightarrow$a 31.54 39.29 38.49 51.16 42.76 40.52 42.45 50.40 47.52 53.98 d$\rightarrow$w 66.06 47.45 80.74 67.96 59.64 80.27 78.33 74.30 62.68 81.92 d$\rightarrow$c 27.72 26.28 33.80 36.52 31.29 33.97 33.52 35.83 31.43 40.56 c$\rightarrow$a 37.18 38.57 44.76 52.06 44.88 38.38 44.11 51.00 48.83 55.98 c$\rightarrow$w 26.83 48.49 36.34 67.68 55.89 52.24 55.90 62.81 62.25 69.17 c$\rightarrow$d 34.53 45.98 40.63 57.09 54.76 57.45 50.64 52.68 49.09 59.17 acc (%) 36.88 40.08 44.81 53.00 55.77 50.03 49.54 52.83 48.34 58.24 time (s) 0.059 0.009 0.17 0.15 4.0245 0.264 3.26 0.485 0.18 0.19 表 3 使用深度特征时算法的分类精度(%)Table 3 Accuracy for all the methods when using deep feature (%)SVMs SVMt ELMs ELMt ARC-t GFK HFA MMDT DAPT_$n$ DAPT a$\rightarrow$w 72.81 82.00 77.53 89.92 91.04 92.41 90.23 90.92 92.47 92.83 a$\rightarrow$d 75.12 84.29 82.17 92.60 93.31 93.76 94.19 93.58 94.76 95.00 a$\rightarrow$c 76.00 67.35 80.01 76.03 76.83 81.13 80.05 81.38 78.59 82.14 w$\rightarrow$a 72.54 79.82 79.46 86.97 87.80 89.62 87.91 88.85 89.83 90.90 w$\rightarrow$d 92.24 83.74 95.43 90.94 92.68 97.96 96.25 95.24 94.45 98.46 w$\rightarrow$c 66.94 65.32 70.86 75.95 77.70 79.12 75.40 76.47 78.28 81.50 d$\rightarrow$a 79.26 78.39 83.64 86.74 86.96 89.07 87.21 87.33 90.09 91.70 d$\rightarrow$w 92.11 80.53 96.32 89.15 90.42 98.02 96.65 96.00 92.21 98.34 d$\rightarrow$c 73.41 67.08 76.51 76.03 77.96 79.77 76.67 75.54 78.83 82.41 c$\rightarrow$a 80.29 79.57 86.50 86.16 87.13 88.94 87.92 89.14 89.25 90.91 c$\rightarrow$w 70.66 82.66 74.17 89.38 90.36 90.71 89.33 89.64 91.79 92.34 c$\rightarrow$d 76.93 84.33 81.50 90.51 91.77 90.80 90.78 91.02 93.11 93.82 acc (%) 77.36 77.92 82.01 85.87 87.00 89.27 87.72 87.93 88.64 90.86 time (s) 0.204 0.039 0.61 0.55 6.67 13.55 9.26 2.84 1.66 1.74 从表 2可以看出: 1)对比SVMs、SVMt与HFA、MMDT, 这4组方法使用的分类器都是SVM, HFA和MMDT的分类精度都好于SVMs和SVMt; 同样的, 在都使用ELM分类器情况下, DAPT的分类精度也要好于ELMs和ELMt, 得到的结论是:迁移学习的效果要远远好于没有进行迁移的情况. 2)对比SVMs、SVMt、ELMs、ELMt, 可以看出ELM分类效果要好于SVM, 对比ELMt与MMDT, 在只使用目标域的训练样本进行分类时, ELM的效果甚至要比进行了迁移学习的MMDT效果好, 因此得到的结论是: ELM分类性能强大, 在本数据集上表现好于SVM. 3) 9种方法进行横向对比, 本文的DAPT方法在11组实验中都明显优于其余方法, 值得注意的是, 由于webcam与dslr最为相似, 使用了最近邻分类器的GFK方法在w$\rightarrow$d组中得到了最高的精度, 在d$\rightarrow$w组中表现也非常接近本文算法. 4)在c$\rightarrow$a, c$\rightarrow$w等域间差别较大的迁移结果上, 其余4种域适应方法的精度反而不如没有进行迁移学习时的精度, 即负迁移, 本文方法避免了这种情况, 这是因为DAPT方法中加入了迁移参数正则化项; 5)在时间性能上, 对比5种域适应的方法, ARC-t与HFA耗时最长, 这是由于ARC-t解决了对约束, HFA单次只解决二分类问题, 需要运行多次. DAPT平均用时最短, 得益于ELM算法求解过程相对简单. 6)未加入正则项的DAPT_$n$分类精度明显小于DAPT, 并且部分情况如c$\rightarrow$a, c$\rightarrow$w等, 分类精度小于ELMt, 出现了负迁移的情况.因此DAPT中加入的正则项可以有效地避免负迁移.综上, 本文方法在中层语义特征下的综合表现最佳.
从表 3可以看出: 1)由于使用了深度网络提取的4 096维特征, 表 3整体分类精度相对于表 2使用的800维中级语义特征有了明显的提升. 2)中层语义实验中的三个结论在高层语义实验中同样适用, 即:进行迁移学习的效果要远远好于没有进行迁移的效果; ELM分类器在本数据集上表现好于SVM; 本文方法避免了负迁移. 3) 9种方法进行横向对比, 本文的DAPT方法在所有实验中的精度最优. 4)在}时间性能上, 本文方法依然是5种域适应方法中耗时最少的.综合表 2、表 3的实验结果可以得出, 本文提出的DAPT域适应算法在精度与效率上都表现出明显的优势.
2.2 bing-caltech数据集上的实验
为了验证DAPT方法在处理大规模数据上的优势, 本文使用了bing-caltech数据集.该数据集含有两个域的数据, 两个域之间包括相同的256类. bing中每一类含有300张图片, caltech每类含有80张图片, 每幅图片的特征维度为2 625.该数据集的具体细节参见文献[19].实验中设置bing为源域, Caltech为目标域.为了对比数据集大小对分类结果的影响, 设计了两组实验: 1)固定目标域每一类的样本数量$n_t=10$, 源域每类样本数量分别取$n_s=5, 10, 20, 50, 100, 150$. 2)固定目标域每一类的样本数量$n_s=50$, 源域每类样本数量分别取$n_t=5, 10, 15, 20, 25, 30$.对于以上两组实验, 其测试样本为数据集中目标域的测试集, 该测试集每类含有25个测试样本.实验中采用了256类中的前20类数据进行实验.由于ARC-t与HFA不适宜处理大样本数据, 本实验并未加入这两种算法.实验结果绘于图 2.
从图 2可以看出: 1) DAPT算法在$n_s$或者$n_t$较小时, 相对于其他算法, 就已经可以达到较高的精度: 2)未加入正则项的DAPT_$n$分类精度明显小于DAPT, 并且部分情况下, 分类精度小于SVMt与ELMt, 出现了负迁移的情况: 3)本文DAPT方法在样本数量变化时, 得到的分类精度均好于其他方法, 在处理大样本数据上仍能保持优势.
2.3 参数选择
DAPT算法需要设置的参数有隐藏层结点数$L$以及惩罚系数$C_1$, $C_2$, 本节以office-caltech256数据集为实验对象, 研究三个参数的选择.首先, 固定$C_1$, $C_2$, 研究$L$的取值与分类结果的关系.设$C_1=2\, 000$, $C_2=2\, 000$, $L$分别取17个值, 其取值范围20到1 000, 使用了中级语义特征进行实验, 对12组实验结果进行了统计, 将其中的5组结果的随$L$变化曲线绘于图 3.从图 3中可以看出, 每组分类的精度大概从$L$为200左右时就能达到最佳的精度, 随着继续增加, 其精度变化不大, 而随着网络结点数的增多, 训练时间相应增长.因此, 在中层语义特征下, 将隐藏层结点数取200左右为宜.
固定$L=200$, 研究$C_1$, $C_2$分别取1, 10, 100, 1 000, 2 000, 10 000时与分类结果的关系.训练的特征同样也是BOVW的800维特征.进行36组实验, 将结果绘于图 4, 纵坐标为分类精度.从图中可以观察到, 当$C_1$取值小于2 000时, 分类精度随着$C_1$的增大而增大; $C_2$取值变化对分类精度的影响程度稍小; 当$C_1$取值大于2 000, $C_2$取值在1 000与2 000之间时, 分类结果可以稳定在较高的精度.
3. 结论
针对含少量标签样本的迁移学习问题, 本文提出了一种新的基于极限学习机参数迁移的域适应算法.将目标域的ELM分类器参数投影到源域参数空间中, 使两个域的分类器参数尽可能分布相同, 同时为了避免负迁移, 在目标函数中加入正则项约束, 提高了算法的分类精度和鲁棒性.算法在目标优化过程中同时得到了分类器参数和转移矩阵, 并且其求解过程相对简单, 实验分析也验证算法在时间性能上的优势.虽然本文方法展现出较好的学习能力, 但要求目标域中包含少量标签样本, 对于目标域无标签样本的学习问题仍需要进一步探讨研究.
-
-
[1] O'Neil P E. Model 204 architecture and performance. In: Proceedings of the 2nd International Workshop on High Performance Transaction Systems. London, UK: Springer, 1987. 40-59 [2] O'Neil P E, Quass D. Improved query performance with variant indexes. ACM SIGMOD Record, 1997, 26(2): 38-49 doi: 10.1145/253262 [3] van Schaik S J, de Moor O. A memory efficient reachability data structure through bit vector compression. In: Proceedings of the 2011 ACM SIGMOD International Conference on Management of Data. Athens, Greece: ACM, 2011. 913-924 [4] Antoshenkov G. Byte-aligned bitmap compression. In: Proceedings of the 5th Data Compression Conference. Snowbird, UT, USA: IEEE, 1995. 476 [5] Wu K S, Otoo E J, Shoshani A. Optimizing bitmap indices with efficient compression. ACM Transactions on Database Systems (TODS), 2006, 31(1): 1-38 doi: 10.1145/1132863 [6] Deliége F, Pedersen T B. Position list word aligned hybrid: optimizing space and performance for compressed bitmaps. In: Proceedings of the 13th International Conference on Extending Database Technology. Lausanne, Switzerland: ACM, 2010. 228-239 [7] Fusco F, Stoecklin M P, Vlachos M. NET-FLi: on-the-fly compression, archiving and indexing of streaming network traffic. Proceedings of the VLDB Endowment, 2010, 3(1-2): 1382-1393 doi: 10.14778/1920841 [8] Kim S, Lee J, Satti S R, Moon B. SBH: super byte-aligned hybrid bitmap compression. Information Systems, 2016, 62: 155-168 doi: 10.1016/j.is.2016.07.004 [9] Wen Y H, Chen Z, Ma G, Cao J W, Zheng W X, Peng G D, Li S W, Huang W L. SECOMPAX: a bitmap index compression algorithm. In: Proceedings of the 23rd International Conference on Computer Communication and Networks (ICCCN). Shanghai, China: IEEE, 2014. 1-7 [10] Wen Y H, Wang H, Chen Z, Cao J W, Peng G D, Huang W L, Hu Z W, Zhou J, Guo J H. MASC: a bitmap index encoding algorithm for fast data retrieval. In: Proceedings of the 2016 IEEE International Conference on Communications (ICC). Kuala Lumpur, Malaysia: IEEE, 2016. 1-6 [11] 王飞跃.软件定义的系统与知识自动化:从牛顿到默顿的平行升华.自动化学报, 2015, 41(1): 1-8 http://www.aas.net.cn/CN/abstract/abstract18578.shtmlWang Fei-Yue. Software-defined systems and knowledge automation: a parallel paradigm shift from Newton to Merton. Acta Automatica Sinica, 2015, 41(1): 1-8 http://www.aas.net.cn/CN/abstract/abstract18578.shtml [12] 武丹凤, 曾广平, 闫京颖.支持演化规则引擎的rete算法研究.计算机应用研究, 2013, 30(6): 1747-1750 http://www.cnki.com.cn/Article/CJFDTOTAL-JSYJ201306039.htmWu Dan-Feng, Zeng Guang-Ping, Yan Jing-Ying. Research on rete algorithm supporting evolution rules engine. Application Research of Computers, 2013, 30(6): 1747-1750 http://www.cnki.com.cn/Article/CJFDTOTAL-JSYJ201306039.htm [13] Forgy C L. Rete: a fast algorithm for the many pattern/many object pattern match problem. Artificial Intelligence, 1982, 19(1): 17-37 doi: 10.1016/0004-3702(82)90020-0 [14] Hong Y G, Kim H J, Park H D, Kim D H. Adaptive GTS allocation scheme to support QoS and multiple devices in 802.15.4. In: Proceedings of the 11th International Conference on Advanced Communication Technology. Phoenix Park, Ireland: IEEE, 2009. 1697-1702 [15] 徐久强, 卢锁, 刘大鹏, 孔求实.基于改进Rete算法的RFID复合事件检测方法.东北大学学报(自然科学版), 2012, 33(6): 806-809, 814 http://cdmd.cnki.com.cn/Article/CDMD-10145-1015529793.htmXu Jiu-Qiang, Lu Suo, Liu Da-Peng, Kong Qiu-Shi. Research on RFID composite events detection based on improved rete algorithm. Journal of Northeastern University (Natural Science), 2012, 33(6): 806-809, 814 http://cdmd.cnki.com.cn/Article/CDMD-10145-1015529793.htm [16] Kawakami T, Yoshihisa T, Yanagisawa Y, Tsukamoto M. A rule processing scheme using the rete algorithm in grid topology networks. In: Proceedings of the 29th International Conference on Advanced Information Networking and Applications (AINA). Gwangju, Korea: IEEE, 2015. 674-679 [17] Kawakami T, Yoshihisa T, Tsukamoto M. A control method of ubiquitous computers using the RETE algorithm in grid topology network. In: Proceedings of the 3rd Global Conference on Consumer Electronics (GCCE). Tokyo, Japan: IEEE, 2014. 551-552 [18] Kawakami T, Yoshihisa T, Fujita N, Tsukamoto M. A rule-based home energy management system using the RETE algorithm. In: Proceedings of the 2nd Global Conference on Consumer Electronics (GCCE). Tokyo, Japan: IEEE, 2013. 162-163 [19] Kawakami T, Fujita N, Yoshihisa T, Tsukamoto M. An evaluation and implementation of rule-based home energy management system using the RETE algorithm. The Scientific World Journal, 2014, 2014: Article No. 591478 [20] Pallavi M S, Vaisakh P, Reshna N P. Implementation of rete algorithm using course finder system. In: Proceedings of the 2016 International Conference on Data Mining and Advanced Computing (SAPIENCE). Ernakulam, India: IEEE, 2016. 96-100 [21] Wu X D. LFA: a linear forward-chaining algorithm for AI production systems. Expert Systems, 1993, 10(4): 237-242 doi: 10.1111/exsy.1993.10.issue-4 [22] 冯建周, 宋沙沙, 孔令富.物联网语义关联和决策方法的研究.自动化学报, 2016, 42(11): 1691-1701 http://www.aas.net.cn/CN/abstract/abstract18958.shtmlFeng Jian-Zhou, Song Sha-Sha, Kong Ling-Fu. Research on semantic association and decision method of the internet of things. Acta Automatica Sinica, 2016, 42(11): 1691-1701 http://www.aas.net.cn/CN/abstract/abstract18958.shtml [23] 朱秀莉, 李龙, 李盼池.基于T-S推理网络的油田开发指标预测方法.计算机应用研究, 2011, 28(8): 2991-2993 http://www.cnki.com.cn/Article/CJFDTOTAL-JSYJ201108054.htmZhu Xiu-Li, Li Long, Li Pan-Chi. Forecasting methods of oil field development indexes based on T-S reasoning networks. Application Research of Computers, 2011, 28(8): 2991-2993 http://www.cnki.com.cn/Article/CJFDTOTAL-JSYJ201108054.htm -