2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

融合注意力机制的增强受限玻尔兹曼机驱动的交互式分布估计算法

暴琳 孙晓燕 巩敦卫 张勇

暴琳, 孙晓燕, 巩敦卫, 张勇. 融合注意力机制的增强受限玻尔兹曼机驱动的交互式分布估计算法. 自动化学报, 2023, 49(10): 2188−2200 doi: 10.16383/j.aas.c200604
引用本文: 暴琳, 孙晓燕, 巩敦卫, 张勇. 融合注意力机制的增强受限玻尔兹曼机驱动的交互式分布估计算法. 自动化学报, 2023, 49(10): 2188−2200 doi: 10.16383/j.aas.c200604
Bao Lin, Sun Xiao-Yan, Gong Dun-Wei, Zhang Yong. Enhanced restricted Boltzmann machine-driven interactive estimation of distribution algorithms with attention mechanism. Acta Automatica Sinica, 2023, 49(10): 2188−2200 doi: 10.16383/j.aas.c200604
Citation: Bao Lin, Sun Xiao-Yan, Gong Dun-Wei, Zhang Yong. Enhanced restricted Boltzmann machine-driven interactive estimation of distribution algorithms with attention mechanism. Acta Automatica Sinica, 2023, 49(10): 2188−2200 doi: 10.16383/j.aas.c200604

融合注意力机制的增强受限玻尔兹曼机驱动的交互式分布估计算法

doi: 10.16383/j.aas.c200604
基金项目: 国家自然科学基金(61876184)资助
详细信息
    作者简介:

    暴琳:江苏科技大学电子信息学院讲师. 2020年获中国矿业大学控制理论与控制工程专业博士学位. 主要研究方向为进化计算与机器学习. E-mail: baolin_zj@163.com

    孙晓燕:中国矿业大学信息与控制工程学院教授. 2009年获中国矿业大学控制理论与控制工程专业博士学位. 主要研究方向为进化计算和机器学习. 本文通信作者. E-mail: xysun78@126.com

    巩敦卫:中国矿业大学信息与控制工程学院教授. 1999年获中国矿业大学控制理论与控制工程专业博士学位. 主要研究方向为超目标优化计算智能, 动态不确定性优化, 软件测试、调度、路径规划以及大数据处理与分析. E-mail: dwgong@vip.163.com

    张勇:中国矿业大学信息与控制工程学院教授. 2009年获中国矿业大学控制理论与控制工程专业博士学位. 主要研究方向为群体智能和机器学习. E-mail: yongzh401@126.com

Enhanced Restricted Boltzmann Machine-driven Interactive Estimation of Distribution Algorithms With Attention Mechanism

Funds: Supported by National Natural Science Foundation of China (61876184)
More Information
    Author Bio:

    BAO Lin Lecturer at the School of Electronics and Information, Jiangsu University of Science and Technology. She received her Ph.D. degree in control theory and control engineering from China University of Mining and Technology in 2020. Her research interest covers evolutionary computation and machine learning

    SUN Xiao-Yan Professor at the School of Information and Control Engineering, China University of Mining and Technology. She received her Ph.D. degree in control theory and control engineering from China University of Mining and Technology in 2009. Her research interest covers evolutionary computation and machine learning. Corresponding author of this paper

    GONG Dun-Wei Professor at the School of Information and Control Engineering, China University of Mining and Technology. He received his Ph.D. degree in control theory and control engineering from China University of Mining and Technology in 1999. His research interest covers computation intelligence in many-objective optimization, dynamic and uncertain optimization, software engineering, scheduling, path planning, and big data processing and analysis

    ZHANG Yong Professor at the School of Information and Control Engineering, China University of Mining and Technology. He received his Ph.D. degree in control theory and control engineering from China University of Mining and Technology in 2009. His research interest covers swarm intelligence and machine learning

  • 摘要: 面向用户生成内容(User generated content, UGC)的进化搜索在大数据及个性化服务领域已引起广泛关注, 其关键在于基于多源异构用户生成内容构建用户认知偏好模型, 进而设计高效的进化搜索机制. 针对此, 提出融合注意力机制(Attention mechanism, AM)的受限玻尔兹曼机(Restricted Boltzmann machine, RBM)偏好认知代理模型构建机制, 并应用于交互式分布估计算法(Interactive estimation of distribution algorithm, IEDA), 设计含用户生成内容的个性化进化搜索策略. 基于用户群体提供的文本评论, 以及搜索物品的类别文本, 构建无监督受限玻尔兹曼机模型提取广义特征; 设计注意力机制, 融合广义特征, 获取对用户认知偏好高度相关特征的集成; 利用该特征再次训练受限玻尔兹曼机, 实现对用户偏好认知代理模型的构建; 根据用户偏好认知代理模型, 给出交互式分布估计算法概率更新模型以及物品适应度评价函数, 实现物品个性化进化搜索. 算法在亚马逊个性化搜索实例的应用验证了用户认知偏好模型的可靠性, 以及个性化进化搜索的有效性.
  • 近年来, 随着大数据、云计算等技术的迅猛发展, 信息呈现爆炸式增长, 给用户带来新资讯的同时, 也增加了用户筛选有用信息并最终做出决策的难度. 个性化搜索和推荐算法深度而准确挖掘用户潜在需求和兴趣偏好, 向用户推荐其可能感兴趣且满足用户需求的项目, 进而提供高质量的个性化服务[1-2]. 然而, 互联网技术的发展以及互联网参与人数的激增, 使得各类互联网应用中聚集了大量用户生成内容(User generated content, UGC), 如: 用户评分、商品类别标签、用户文本评论、社交网络信息、地理位置信息、图像或视频等各种各样的复杂数据, 这些信息具有多源异构异质特性. 在个性化搜索过程中充分利用多源异构UGC数据, 势必将在很大程度上提高个性化搜索和推荐的综合性能[3-4]. 其中, 构建精确描述用户个性化偏好的用户兴趣模型是个性化搜索问题的关键. 目前常用的构建用户兴趣模型的方法包括贝叶斯模型[5]、多层感知机[6]、自编码器[7]、受限玻尔兹曼机(Restricted Boltzmann machine, RBM)[8]、卷积神经网络(Convolutional neural network, CNN)[9]等. Kim等[9]整合了CNN和概率矩阵分解, 提出了卷积矩阵分解(Convolutional matrix factorization, ConvMF) 模型. Jin等[10]通过元路径引导邻域捕获节点间的交互模式, 提出了高效的端到端基于邻域的交互模型, 用于基于异构信息网络的推荐. 这些方法的成功应用展示了综合考虑多源异构信息对于提高推荐系统和个性化搜索性能是十分有利的. 另外, 受到人类视觉机理的启发, 基于注意力机制(Attention mechanism, AM)的神经网络已成功应用于图像处理、自然语言理解、语音识别、模式生成等领域[11-12]. 融合AM的神经网络充分利用特征及其重要性程度, 使得神经网络在处理数据时加强重要特征, 有利于更有效地进行特征提取. Zhou等[12]提出了基于AM用户行为模型处理推荐问题. 汤文兵等[13]提出了基于注意力机制的协同卷积动态推荐网络, 捕捉高阶特征交互. Li等[14]提出了基于时间间隔感知的自注意力序列推荐算法. 这些方法证明了融合AM神经网络的有效性, 加强了重要特征对应用领域的贡献. 然而, 现有大部分研究工作均假设所有数据已知且充足, 模型训练复杂度较大, 且考虑的数据类型较单一, 面对高稀疏性数据时通常表现不佳, 同时, 未考虑用户兴趣偏好的动态变化特性, 模型难以随新增UGC及时更新, 不适用于实际应用场景中个性化搜索.

    个性化搜索本质上是一类复杂的定性指标优化问题, 也是目前人工智能领域亟待解决的难题. 用户参与进化搜索的交互式进化计算(Interactive evolutionary computations, IECs) 能够有效利用用户对优化问题的主观评价和决策, 将人类智能评价信息与传统进化优化算法相结合, 是处理个性化搜索这类复杂定性指标优化问题的可行途径[15-17]. Sun等[15]考虑区间适应值的不确定性, 提出了基于代理模型的交互式遗传算法(Interactive genetic algorithm, IGA), 处理复杂设计问题. Chen等[17]利用基于语言模型的编码, 结合基于Dirichlet多项式复合分布的用户偏好表示和贝叶斯推理机制, 提出了改进IEDA算法. Bao等[8] 充分挖掘用户隐式偏好信息, 构建基于RBM的用户偏好模型, 提出了RBM模型驱动的交互式分布估计算法(Interactive estimation of distribution algorithms, IEDA). 这些方法从构建用户偏好代理模型设计进化优化策略的角度处理个性化搜索问题, 为进化计算在个性化搜索和推荐中的应用进行了尝试, 取得了良好效果. 但是, 融合多源异构UGC和基于偏好代理模型进化计算(Evolutionary computations, ECs)的相关研究较少, 已有研究也仅仅利用了单一类型UGC信息, 此外, 没有考虑UGC不同特征信息对用户认知偏好和ECs算子的影响.

    基于代理模型的进化算法在复杂工程和函数优化中已有较多研究成果, 主要利用进化过程中产生的数据或者生产实践中获得的数据, 采用机器学习方法等构建模型, 在进化过程中, 利用该模型代替复杂适应度评价函数, 实现对进化个体的适应值估计, 进而提高进化优化的效率. 常用代理模型包括: 多项式回归模型[18]、支持向量机[19]、神经网络[20]和克里金模型[21]等. Min等[22]提出了基于多问题代理模型的迁移进化多目标优化算法. Wang等[23]结合基于代理模型的低代价鲁棒估计和时间消耗的实际鲁棒性测量, 提出了基于图嵌入的大规模网络代理模型辅助鲁棒优化算法. Cai等[24]提出了一种广义代理模型辅助的进化算法处理高维高代价优化问题. 显然, 已有代理模型均基于数值型描述的优化问题, 而本文研究面向UGC的个性化搜索, 需要构建用户偏好代理模型, 其处理对象为文本、类别标签、打分数据甚至图像等, 传统代理模型不再适用.

    本文考虑深入理解和充分挖掘多源异构UGC数据, 利用无监督学习RBM模型强大的表示学习能力和AM在特征选择方面的突出表现, 设计融合多源异构数据和AM的RBM用户偏好代理模型, 并结合IECs进化优化框架, 提出增强RBM驱动的IEDA, 应用于个性化搜索中. 充分利用多源异构UGC数据包含的文本类信息, 包括用户评价和项目类别两类连续、离散混合数据, 提取与用户认知偏好高度相关的特征, 获取表示用户偏好的注意力权重, 构建精准拟合用户搜索偏好的基于注意力机制和RBM的用户认知偏好模型, 实现多重特征交互, 同时捕捉低阶至高阶的基于多源异构数据的用户偏好特征; 在IEDA框架下, 设计基于RBM用户偏好的概率模型, 生成含用户偏好的可行解, 同时, 设计基于RBM用户偏好代理模型的进化个体适应度估计函数, 为搜索对象提供量化的评价值, 部分代替用户评价选择优良个体, 生成用户可能感兴趣的项目推荐列表; 考虑用户偏好的动态演化特性, 根据新增UGC数据和模型管理机制, 动态更新融合多源异构数据和AM的RBM用户偏好模型, 引导个性化进化搜索过程, 以期快速准确地搜索用户满意解, 提高个性化搜索算法的评分预测准确性和推荐效果.

    本文贡献主要包括3个方面: 1)针对含用户生成内容的个性化搜索问题, 充分挖掘用户生成内容中的连续语义特征和离散类别特征, 给出基于RBM的特征融合方法和注意力权重确定策略, 以及融合注意力权重的RBM用户偏好模型构建机制, 以拟合用户兴趣偏好的动态变化过程; 2) 基于所构建RBM偏好模型, 通过计算当前用户偏好个体中决策变量属性值为1的概率, 建模用户的兴趣选择倾向, 形成IEDA进化个体生成的采样概率模型; 3) 基于RBM模型参数确定法则是最小化能量函数的原则, 利用能量函数构建了分布估计算法(Estimation of distribution algorithm, EDA)进化个体适应值评价代理模型, 进而实现了面向含用户生成内容个性化进化搜索的高效IEDA算法.

    本文后续内容组织如下: 第1节给出所提算法框架; 第2节详细描述基于注意力机制和RBM的用户认知偏好模型构建; 第3节提出基于偏好模型的交互式分布估计算法; 第4节给出实例分析; 最后总结本文工作.

    本文旨在利用UGC和RBM建模用户偏好特征及其动态变化过程, 以交互式进化优化的方式, 准确刻画用户实时兴趣, 抽取用户行为规律和发展动态, 可望从海量数据构成的动态演化空间中引导用户尽快搜索到满意解, 提高面向多源异构UGC的个性化搜索的综合性能.

    所提融合注意力机制的增强受限玻尔兹曼机驱动的交互式分布估计算法(Enhanced restricted Boltzmann machine-driven interactive estimation of distribution algorithms with attention mechanism, AM-ERBM-IEDA)的基本框架如图1所示. 首先根据用户查询信息, 获得初始物品集合及其UGC数据, 作为EDA初始化搜索空间; 分别将UGC的评价文本和类别标签送入doc2vec和multi-hot编码模块, 获得UGC数据的向量化表示; 将量化表示的UGC作为RBM偏好模型的输入, 训练该模型; 计算RBM偏好模型的输入层分布概率, 将其作为EDA种群再生的采样概率模型; 基于RBM能量函数定义, 构建EDA进化个体(搜索物品)适应值代理模型, 以估计个体适应值, 实现选择操作, 将$TopN $列表提交给用户评价, 实现交互过程; 在进化过程中, 根据用户交互信息和代理模型估计值管理RBM模型更新过程, 以跟踪用户兴趣变化, 从而更新采样概率模型和适应值代理模型. 循环上述过程, 直至用户找到满意物品.

    图 1  AM-ERBM-IEDA算法框架
    Fig. 1  The framework of AM-ERBM-IEDA algorithm

    图1中, “$\star $”标记模块为核心部分, 包括: 基于注意力机制和RBM的用户认知偏好模型构建、基于RBM用户偏好的交互式分布估计算法, 特别是EDA采样概率模型计算, 以及EDA用户评价代理模型和管理.

    多源异构UGC数据中包含丰富的用户历史交互行为数据(如: 用户对项目的评分数据、用户对项目的文本评论等)、项目内容信息(如: 项目类别标签等)、用户之间的社交网络关系等, 这些数据含有大量用户显式和隐式的兴趣偏好信息, 充分探索和挖掘这些有用信息, 建模基于注意力机制和RBM的用户认知偏好模型, 能够有效提高个性化搜索算法的性能. 该模型包含3个模块: 融合多源异构数据的RBM注意力权重生成模块、注意力层和基于注意力机制的RBM模块, 其结构示意图如图2所示.

    图 2  基于注意力机制和RBM的用户认知偏好模型
    Fig. 2  User cognitive preference model based on attention mechanism and RBM

    融合多源异构数据的RBM注意力权重生成模型具有两层网络结构: ${{\boldsymbol{v}}_{11}}$为第1组可见层, 有${n_1}$个可见单元, 表示项目的类别特征; ${{\boldsymbol{v}}_{12}}$为第2组可见层, 有${n_2}$个可见单元, 表示用户对项目评论的文本特征; ${{\boldsymbol{h}}_1}$为隐层, 有${m_1}$个隐单元, 表示用户偏好特征. 其中, 层间全连接, 层内无连接, 可见单元和隐单元均为实数. 该模型的输入数据由用户评分数据、项目类别标签和用户文本评论构成, 具体如下:

    1) 用户评分${\boldsymbol{R}} = {\left[ {{r_{ij}}} \right]_{\left| U \right| \times \left| X \right|}}$, ${r_{ij}}$表示用户${u_i}$对于项目${{\boldsymbol{x}}_j}$的评分, 显式表达了用户偏好. 根据当前用户$u$的历史评分数据, 设置评分阈值$\delta $, 筛选出高于$\delta $的用户喜欢的项目集合, 构成含用户$u$偏好的优势项目群体${D_u}\left( {{D_u} \in X} \right)$, 规模记为 $\left| {{D_u}} \right|$.

    2) 项目类别标签${\boldsymbol{c}} = {\left[ {{c_{ij}}} \right]_{\left| X \right| \times {n_1}}}$, 其中, ${c_{ij}}$表示项目${{\boldsymbol{x}}_i}$的第$j$个类别标签, 若${c_{ij}} = 1$, 表示项目${{\boldsymbol{x}}_i}$包含第$j$个类别标签, 否则${c_{ij}} = 0$; ${n_1}$表示所有项目的类别总数. 将优势群体${D_u}$中的第$i$个项目${{\boldsymbol{x}}_i}$(个体)表示为向量${\boldsymbol{c}}_i^u = \left[ {{c_{i1}},{c_{i2}}, \cdots ,{c_{ij}}, \cdots ,{c_{i{n_1}}}} \right]$, ${D_u}$中, $\left| {{D_u}} \right|$个个体可表示为一个$\left| {{D_u}} \right| \times {n_1}$的特征向量矩阵${{\boldsymbol{C}}^u}$, 即

    $${{\boldsymbol{C}}^u} = {\left[ {{\boldsymbol{c}}_1^u,{\boldsymbol{c}}_2^u, \cdots ,{\boldsymbol{c}}_i^u, \cdots ,{\boldsymbol{c}}_{\left| {{D_u}} \right|}^u} \right]^{\rm{T}}}, \;\; {\boldsymbol{C}}^u \in {{\bf{R}}^{\left| {{D_u}} \right| \times {n_1}}}$$ (1)

    其中, ${\boldsymbol{c}}_i^u\;\left( {i = 1,2, \cdots ,\left| {{D_u}} \right|} \right)$表示${D_u}$中的第 $i$个项目${{\boldsymbol{x}}_i}$的类别特征向量化表示.

    3) 将用户对项目的文本评论进行数据预处理, 基于数据集的语料库训练doc2vec文本向量化表示模型[25], 生成用户文本评论的向量化表示${\boldsymbol{T}} = {\left[ {{{\boldsymbol{t}}_{ij}}} \right]_{\left| U \right| \times \left| X \right|}}$, 其中, ${{\boldsymbol{t}}_{ij}}$表示用户${u_i}$对于项目${{\boldsymbol{x}}_j}$的文本评论的向量化表示. ${D_u}$中各项目的文本评论向量化表示${{\boldsymbol{T}}^u}$, 即

    $${{\boldsymbol{T}}^u} = {\left[ {{\boldsymbol{t}}_1^u,{\boldsymbol{t}}_2^u, \cdots ,{\boldsymbol{t}}_i^u, \cdots ,{\boldsymbol{t}}_{\left| {{D_u}} \right|}^u} \right]^{\rm{T}}}, \;\; {{\boldsymbol{{ T}}}^u} \in {{\bf{R}}^{\left| {{D_u}} \right| \times {n_2}}}$$ (2)

    其中, ${\boldsymbol{t}}_i^u = [{t_{i1}},{t_{i2}}, \cdots ,{t_{i{n_2}}}]$表示用户$u$对于项目${{\boldsymbol{x}}_i}$的文本评论向量化表示, ${n_2}$为文本评论向量的长度.

    由多源异构UGC数据整合模型训练数据, 表示为 $\left| {{D_u}} \right| \times n$特征向量矩阵${{\boldsymbol{V}}^u}$, 即

    $${{\boldsymbol{V}}^u} = {\left[ {{\boldsymbol{v}}_1^u,{\boldsymbol{v}}_2^u, \cdots ,{\boldsymbol{v}}_i^u, \cdots ,{\boldsymbol{v}}_{\left| {{D_u}} \right|}^u} \right]^{\rm{T}}}, \;\; {{\boldsymbol{V}}^u} \in {{\bf{R}}^{\left| {{D_u}} \right| \times n}}$$ (3)

    其中, ${\boldsymbol{v}}_i^u = \left[ {{\boldsymbol{c}}_i^u,{\boldsymbol{t}}_i^u} \right] = [ {c_{i1}},{c_{i2}}, \cdots ,{c_{i{n_1}}},{t_{i1}},{t_{i2}}, \cdots , {t_{i{n_2}}} ]$, $n = {n_1} + {n_2}$.

    根据训练数据集${{\boldsymbol{V}}^u}$和对比散度(Contrastive divergence, CD)学习算法[26], 训练融合多源异构数据的RBM注意力权重生成模型, 获得包含用户$u$偏好特征的模型参数${\theta _1} = \left\{ {{{\boldsymbol{W}}^1},{{\boldsymbol{a}}^1},{{\boldsymbol{b}}^1}} \right\}$, 均为实数.

    当给定可见单元状态时, 各隐单元的激活状态条件独立, 第$j$个隐单元的激活概率为

    $${P_{{\theta _1}}}( {h_j^1 = 1|{{\boldsymbol{c}}^u},{{\boldsymbol{t}}^u}} ) = \sigma \left( {b_j^1 + \sum\limits_{i = 1}^{{n_1}} {{c_i}w_{ij}^1} + \sum\limits_{i = 1}^{{n_2}} {{t_i}w_{ij}^1} } \right)$$ (4)

    其中, ${c_i}$表示第1组可见层${{\boldsymbol{v}}_{11}}$中第$i$个可见单元的状态; ${t_i}$表示第2组可见层${{\boldsymbol{v}}_{12}}$中第$i$个可见单元的状态; $h_j^1$表示隐层${{\boldsymbol{h}}_1}$中第$j$个隐单元的状态; $w_{ij}^1$表示可见单元$i$与隐单元$j$之间的连接权重; $b_j^1$表示第$j$个隐单元的偏置; $\sigma \left( x \right) = 1/\left( {1 + \exp \left( { - x} \right)} \right)$是sigmoid激活函数.

    当给定隐单元状态时, 各可见单元的激活状态亦条件独立, 第1组和第2组可见层第$i$个可见单元的激活概率分别为

    $${P_{{\theta _1}}}( {{c_i} = 1|{{\boldsymbol{h}}^1}}) = \sigma \left( {a_{1i}^1 + \sum\limits_{j = 1}^{{m_1}} {w_{ij}^1h_j^1} } \right)$$ (5)
    $${P_{{\theta _1}}}( {{t_i} = 1|{{\boldsymbol{h}}^1}} ) = \sigma \left( {a_{2i}^1 + \sum\limits_{j = 1}^{{m_1}} {w_{ij}^1h_j^1} } \right)$$ (6)

    其中, $a_{1i}^1$和$a_{2i}^1$分别表示第1组和第2组可见层中第$i$个可见单元的偏置.

    模型训练完成后可同时获得两类信息: 用户$u$对当前待搜索对象的偏好特征, 即隐层输出; 用户$u$对于项目中各决策变量的偏好程度, 即输入层最终获得的${P_{{\theta _1}}}( {{c_i}|{{\boldsymbol{h}}^1}} )$和${P_{{\theta _1}}}( {{t_i}|{{\boldsymbol{h}}^1}} )$.

    考虑用户历史行为中不同项目的属性特征对评分预测的贡献的差异性, 增加了注意力层, 对用户的个性化偏好特征赋予不同权重, 着力分析不同特征间的关联度, 以加强重要特征对评分预测的贡献.

    计算用户$u$的注意力权重${\boldsymbol{a}}{{\boldsymbol{t}}^u}$, 即

    $${\boldsymbol{a}}{{\boldsymbol{t}}^u} = \left[ {a{t_1},a{t_2}, \cdots ,a{t_{{n_1}}},a{t_{{n_1} + 1}}, \cdots ,a{t_{{n_1} + {n_2}}}} \right]$$ (7)

    其中, 注意力权重系数$a{t_i} = \sigma ( {a_i^1 + \sum\nolimits_{j = 1}^{{m_1}} {w_{ij}^1h_j^1} } )$表示用户$u$对项目个体的第$i$个决策变量的偏好程度. $w_{ij}^1$和$a_i^1$分别表示已训练好的融合多源异构数据的RBM注意力权重生成模型中可见单元与隐单元之间的连接权重和可见单元的偏置, $h_j^1$是已训练好的含用户$u$偏好特征的模型中第$j$个隐单元的值.

    用户$u$偏好的注意力权重${\boldsymbol{a}}{{\boldsymbol{t}}^u}$刻画了项目中各决策变量对于用户$u$偏好特征的重要性程度, 由此得到优势群体${D_u}$中第$i$个项目个体的编码表示${\boldsymbol{x}}_i^u$, 即

    $${\boldsymbol{x}}_i^u = {\boldsymbol{a}}{{\boldsymbol{t}}^u} \odot {\boldsymbol{v}}_i^u = \left[ {a{t_1} \cdot {v_{i1}},a{t_2} \cdot {v_{i2}}, \cdots ,a{t_n} \cdot {v_{in}}} \right]$$ (8)

    则${D_u}$中所有项目个体的融合多源异构数据的基于AM的向量表示为${{\boldsymbol{X}}^u} \in {{\bf{R}}^{\left| {{D_u}} \right| \times n}}$, 即

    $$\begin{split} &{{\boldsymbol{X}}^u} = \left[ {\begin{array}{*{20}{c}} {{\boldsymbol{x}}_1^u} \\ {{\boldsymbol{x}}_2^u} \\ \vdots \\ {{\boldsymbol{x}}_{\left| {{D_u}} \right|}^u} \end{array}} \right] =\\ &\qquad\left[ {\begin{array}{*{20}{c}} {a{t_1} \cdot {v_{11}}}&{a{t_2} \cdot {v_{12}}}& \cdots &{a{t_n} \cdot {v_{1n}}} \\ {a{t_1} \cdot {v_{21}}}&{a{t_2} \cdot {v_{22}}}& \cdots &{a{t_n} \cdot {v_{2n}}} \\ \vdots & \vdots & \ddots & \vdots \\ {a{t_1} \cdot {v_{\left| {{D_u}} \right|1}}}&{a{t_2} \cdot {v_{\left| {{D_u}} \right|2}}}& \cdots &{a{t_n} \cdot {v_{\left| {{D_u}} \right|n}}} \end{array}} \right] \end{split}$$ (9)

    将${D_u}$中的个体${{\boldsymbol{x}}^u}$再次输入已训练好的融合多源异构数据的RBM注意力权重生成模型, 帮助融合多源异构数据的基于AM的RBM用户偏好模型将注意力集中于重要的特征, 更精细地表达当前用户$u$的偏好特征. 由此得到可见单元的输出${{{V}} _{{\rm{rb}}{{\rm{m}}_1}}}( {{{\boldsymbol{x}}^u}} )$, 即

    $${{{V}} _{{\rm{rb}}{{\rm{m}}_1}}}( {{{\boldsymbol{x}}^u}} ) = \sigma \left( {a_i^1 + \sum\limits_{j = 1}^{{m_1}} {w_{ij}^1\sigma \left( {b_j^1 + \sum\limits_{i = 1}^n {{x_i}w_{ij}^1} } \right)} } \right)$$ (10)

    其中, $w_{ij}^1$和$a_i^1$分别是已训练好的融合多源异构数据的RBM注意力权重生成模型中可见单元$i$与隐单元$j$之间的连接权重和可见单元$i$的偏置.

    由可见层输出${{{V}} _{{\rm{rb}}{{\rm{m}}_1}}}( {{{\boldsymbol{x}}^u}})$进行自注意力机制运算[14], 动态地学习项目个体${{\boldsymbol{x}}^u}$的用户偏好注意力权重向量${\boldsymbol{A}} \left( {{{\boldsymbol{x}}^u}} \right)$, 即

    $${\boldsymbol{A}} \left( {{{\boldsymbol{x}}^u}} \right) = {\rm{softmax}} \left( {{\rm{a}} \left( {{V_{{\rm{rb}}{{\rm{m}}_1}}}\left( {{{\boldsymbol{x}}^u}} \right),{{\boldsymbol{w}}^1}} \right)} \right)$$ (11)

    其中, ${\rm{softmax}} \left( \cdot \right)$函数保证所有权重系数之和为1. 函数${\rm{a}} \left( {{{{V}} _{{\rm{rb}}{{\rm{m}}_1}}}\left( {{{\boldsymbol{x}}^u}} \right),{{\boldsymbol{w}}^1}} \right)$衡量了项目个体${{\boldsymbol{x}}^u}$相对于用户偏好特征的注意力权重系数, 计算式为

    $${\rm{a}} \left( {{{{V}} _{{\rm{rb}}{{\rm{m}}_1}}}\left( {{{\boldsymbol{x}}^u}} \right),{{\boldsymbol{w}}^1}} \right) = {{{V}} _{{\rm{rb}}{{\rm{m}}_1}}}\left( {{{\boldsymbol{x}}^u}} \right) \cdot {\left( {{{\boldsymbol{w}}^1}} \right)^{\rm{T}}}$$ (12)

    进一步获得训练数据集${{\boldsymbol{X}}^u}$中个体${{\boldsymbol{x}}^u}$的基于AM的用户偏好注意力权重${{{\boldsymbol{At}}}} \left( {{{\boldsymbol{x}}^u}} \right)$, 即

    $${{{\boldsymbol{At}}}} \left( {{{\boldsymbol{x}}^u}} \right) = {\left[ {{{at}} \left( {{{\boldsymbol{x}}_1}} \right),{{at}} \left( {{{\boldsymbol{x}}_2}} \right), \cdots ,{{at}} \left( {{{\boldsymbol{x}}_{\left| D \right|}}} \right)} \right]^{\rm{T}}}$$ (13)

    其中, ${{at}} \left( {{{\boldsymbol{x}}_i}} \right)$ 表示 ${D_u}$ 中项目个体 ${{\boldsymbol{x}}_i}\;( i = 1,2, \cdots , | {{D}} | )$ 融合AM的注意力权重系数, 即

    $${{at}} \left( {{{\boldsymbol{x}}_i}} \right) = {{\boldsymbol{x}}_i} + {\boldsymbol{A}} \left( {{\boldsymbol{x}}_i^u} \right) \times {{\boldsymbol{x}}_i}$$ (14)

    注意力层抽取并融合了用户对于个体决策变量的注意力权重系数${\boldsymbol{A}} \left( {{{\boldsymbol{x}}^u}} \right)$, 从全局的角度考虑项目各属性特征对于用户偏好的影响, 加权求和获得融合AM的注意力权重系数的用户偏好特征向量${\boldsymbol{At}} \left( {{{\boldsymbol{x}}^u}} \right)$, 更加关注对用户偏好贡献大的属性特征.

    各项目个体基于AM的向量表示为${\boldsymbol{At}} \left( {{{\boldsymbol{X}}^u}} \right)$, 由此训练基于AM的RBM用户偏好模型, 获取用户偏好特征的高阶关系. 当给定可见单元状态时, 第$j$个隐单元的激活概率为

    $${P_{{\theta _2}}}\left( {h_j^2 = 1|{{\boldsymbol{x}}^u}} \right) = \sigma \left( {b_j^2 + \sum\limits_{i = 1}^n {{x_i}w_{ij}^2} } \right)$$ (15)

    当给定隐单元状态时, 第$i$个可见单元的激活概率为

    $${P_{{\theta _2}}}\left( {{x_i}|{{\boldsymbol{h}}^2}} \right) = {\rm{N}} \left( {a_i^2 + \sum\limits_{j = 1}^{{m_2}} {w_{ij}^2h_j^2} ,1} \right)$$ (16)

    ${\rm{N}} ( {a_i^2\, +\, \sum\nolimits_{j = 1}^{{m_2}} {w_{ij}^2h_j^2} ,1} )$ 是均值为 $a_i^2 \,+\, \sum\nolimits_{j = 1}^{{m_2}} {w_{ij}^2h_j^2}$、标准方差为1的高斯正态分布的概率密度函数.

    训练完成后, 基于AM的RBM用户偏好模型参数为${\theta _2} = \left\{ {{{\boldsymbol{W}}^2},{{\boldsymbol{a}}^2},{{\boldsymbol{b}}^2}} \right\}$, 其包含了当前用户$u$的偏好特征, 同时, ${P_{{\theta _2}}}( {{x_i}|{{\boldsymbol{h}}^2}} )$表示用户$u$对于项目中各属性信息的偏好程度.

    在IEDA进化优化框架下, 设计基于RBM用户偏好的概率模型${{{P}} _u}\left( {\boldsymbol{x}} \right)$, 即

    $${{{P}} _u} \left( {\boldsymbol{x}} \right)=\sigma \left( {\sum\limits_{i = 1}^{\left| {{D_u}} \right|} {\left( {{{{V}} _{{\rm{rb}}{{\rm{m}}_2}}}\left( {{{\boldsymbol{x}}_i}} \right) + {\rm{softmax}} \left( {{{\boldsymbol{x}}_i} \cdot {{\left( {{{\boldsymbol{w}}^2}} \right)}^{\rm{T}}}} \right)} \right)} } \right)$$ (17)

    其中, ${{{V}} _{{\rm{rb}}{{\rm{m}}_2}}}\left( {\boldsymbol{x}} \right)$为

    $${{{V}} _{{\rm{rb}}{{\rm{m}}_2}}}\left( {\boldsymbol{x}} \right) = \sigma \left( {a_i^2 + \sum\limits_{j = 1}^{{m_2}} {w_{ij}^2\sigma \left( {b_j^2 + \sum\limits_{i = 1}^n {{x_i}w_{ij}^2} } \right)} } \right)$$ (18)

    基于RBM用户偏好的概率模型${{{P}} _u}\left( {\boldsymbol{x}} \right)$通过计算当前用户偏好的项目中决策变量属性值为1的概率${{p}} \left( {{x_i} = 1} \right)$, 以概率生成的角度表示用户对于项目的偏好, 建模用户兴趣选择倾向. 在IEDA进化优化过程中, 随机采样概率模型${{{P}} _u}\left( {\boldsymbol{x}} \right)$, 生成包含当前用户偏好的$Pop$个新个体. 根据相似性准则, 将生成的新个体与搜索空间中的项目进行相似性匹配, 选择出相同的项目或者最相似的项目作为可行解, 构成待推荐项目集合${S^u}$.

    由第2节已训练好的融合多源异构数据的基于AM的RBM用户偏好模型的能量函数${{{F}} _{{\theta _2}}}( {{\boldsymbol{x}},{{\boldsymbol{h}}^2}} )$[27], 项目${\boldsymbol{x}}$在$\left( {{\boldsymbol{x}},{{\boldsymbol{h}}^2}} \right)$状态下的能量函数${{{F}} _{{\theta _2}}}( {{\boldsymbol{x}},{{\boldsymbol{h}}^2}} )$隐式表达了用户$u$对于项目${\boldsymbol{x}}$的偏好程度, 即

    $$\begin{split} & {{{F}} _{{\theta _2}}}\left( {{\boldsymbol{x}},{{\boldsymbol{h}}^2}} \right) = {{{F}} _{{\theta _2}}}\left( {{\boldsymbol{c}},{\boldsymbol{t}},{{\boldsymbol{h}}^2}} \right) = \\ &\;\;\;\;\;\;-\sum\limits_{i = 1}^{{n_1} + {n_2}} {a_i^2{v_i}} - \sum\limits_{j = 1}^{{m_2}} {\ln \left( {1 + {{\rm{e}}^{{ {{b_j} + \sum\limits_{i = 1}^{{n_1}} {w_{ij}^2{c_i} + \sum\limits_{i = 1}^{{n_2}} {w_{ij}^2{t_i}} } } }}}} \right)} \end{split} $$ (19)

    由此设计基于RBM用户偏好特征的代理模型${\hat f_u}({\boldsymbol{x}})$, 表示用户$u$对于个体${\boldsymbol{x}}$的估计评分, 即

    $${\hat f_u}({\boldsymbol{x}}) = \sigma \left( {\frac{{\max \left( {{{{F}} _{{\theta _2}}}} \right) - {{{F}} _{{\theta _2}}}( {{\boldsymbol{x}},{{\boldsymbol{h}}^2}} )}}{{\max \left( {{{{F}} _{{\theta _2}}}} \right) - \min \left( {{{{F}} _{{\theta _2}}}} \right)}}} \right)$$ (20)

    其中, $\max \left( {{{{F}} _{{\theta _2}}}} \right)$和$\min \left( {{{{F}} _{{\theta _2}}}} \right)$分别表示在当前进化种群中个体能量函数的最大值和最小值.

    根据基于RBM用户偏好的代理模型, 估计个性适应值${\hat f_u}({\boldsymbol{x}})$表示用户$u$对于个体${\boldsymbol{x}}$的相对偏好程度, 精确区分和比较用户$u$对于各项目个体的偏好程度. 对于第3.1节生成包含用户$u$偏好的待推荐项目集合${S^u}$, 利用${\hat f_u}({\boldsymbol{x}})$估计${S^u}$中项目个体的适应值, 预测用户$u$对新的未评分项目的评分值, 代替用户真实评价, 减轻用户评价负担. 依据精英选择策略选择优良个体, 生成用户$u$可能感兴趣的个性化$TopN$项目推荐列表, 提交给用户进行评价, 完成一次个性化搜索任务, 若用户未搜寻到满意解, 则进入下一次交互式搜索过程, 最终完成面向当前用户的个性化搜索.

    本文所提算法的计算复杂性由训练用户文本评论的doc2vec向量化表示模型、训练用户偏好模型和筛选可行解所决定. 其中, 用户文本评论的doc2vec向量化表示模型的训练是离线计算. 训练用户偏好模型的计算复杂性为${\rm{O}} \left( {\left| {{D_u}} \right| \times \left( {{n_1} + {n_2}} \right) \times m} \right)$; 选择${S^u}$个可行解的时间花费是${\rm{O}} \left( {{S^u} \times D} \right)$, $D$是搜索空间中的项目数量; 计算${S^u}$个候选项目的个体适应值的时间花费为${\rm{O}} \left( {{S^u}} \right)$. 因此, 本文所提算法每代总的计算复杂性为${\rm{O}} ( \left| {{D_u}} \right|\, \times \, \left( {{n_1} + {n_2}} \right)\,\times \, m \;+ {S^u} \times D )$.

    为了验证所提算法的综合性能, 将其应用于Amazon[14]的6个数据集和Yelp数据集, 这些数据集包括丰富的多源异构数据, 如: 用户ID、项目ID、用户对项目的1 ~ 5整数值评分、项目类别、用户文本评论、用户评论时间等信息. 数据集的统计信息描述如表1所示.

    表 1  数据集统计信息
    Table 1  Statistical information of datasets
    数据集# 用户# 项目# 评分
    Digital_Music (Music)478235266414836006
    Video_Games (Games)826767502101324753
    Apps_for_Android (Apps)1323884612752638173
    Kindle_Store (Kindle)14068904305303205467
    CDs_and_Vinyl (CDs)15785974863603749004
    Movies_and_TV (Movies)20886202009414607047
    Yelp19124941803477778794
    下载: 导出CSV 
    | 显示表格

    实验环境是Intel Core i5-4590 CPU 3.30 GHz和4 GB RAM, 实验平台使用Python 3.6开发. 为了客观比较本文所提算法的性能, 选择Random、Popularity、BPRMF[5]、ConvMF[9]、ATRank[12]、RBMAEDA[20]、DRBM[8]算法进行对比实验和分析. BPRMF、ConvMF和ATRank都是有监督学习的推荐算法, BPRMF隐因子数目为20. RBMAEDA是一种基于无监督学习的个性化搜索算法. 实验中采用以下评价指标: 均方根误差(Root mean square error, RMSE)、命中率(Hit ratio, HR)、平均准确率(Average precision, AP)、平均准确率均值(Mean average precision, mAP)[8]和运行时间.

    在数据集中随机选取10个测试用户, 按用户评论时间顺序排列, 分别以70%和30%的比例划分训练数据集和测试数据集, 使用各种推荐算法为测试用户进行个性化搜索实验, 各种推荐算法分别独立运行10次, 记录相应的平均实验结果. 本文所提算法的实验参数如表2所示.

    表 2  算法的实验参数
    Table 2  Experimental parameters of our algorithm
    参数数值
    ${n_1}$类别标签数量
    ${n_2}$200
    $m$0.8 ~ 1.2倍类别标签数量
    学习率0.1
    动量0.5 ~ 0.9
    训练次数20
    $Pop$0.3倍测试数据集规模
    $k$10
    $\alpha $0.3
    $\beta $0.2
    $N$10
    下载: 导出CSV 
    | 显示表格

    为了证明本文所提融合多源异构数据的RBM用户偏好模型及基于RBM用户偏好的代理模型的可行性和有效性, 在各种不同领域的数据集中进行了大量实验. RBM-MsH算法考虑了各项用户评分数据、类别标签和文本评论, 是没有融合AM的RBM用户偏好模型算法. 融合了AM和多源异构UGC数据的增强RBM的个性化搜索算法(Integrating attention mechanism into RBM for multi-source heterogeneous UGC), 记为AtRBM-MsH. 表3中展示了各算法实验结果, 最优结果用粗体标注.

    表 3  对比实验结果
    Table 3  Experiments compared with popular recommendation algorithms
    算法 评价指标RandomPopularityBPRMFConvMFATRankRBMAEDADRBMRBM-MsHAtRBM-MsH
    MusicRMSE3.1441.8983.1302.1981.2981.2641.2971.221*
    HR0.07650.07930.07640.07420.07780.07840.09240.09060.0951*
    mAP0.7610.7230.8110.7280.7780.8110.8870.8800.879*
    运行时间(s)0.0200.1820.494276.7162.9000.2211.5990.6721.766*
    GamesRMSE3.5161.9733.4972.4821.2851.3321.2711.242*
    HR0.08100.09300.07530.09450.08690.08040.08150.08090.0985*
    mAP0.7470.8730.7070.9150.7850.7360.7600.7770.827*
    运行时间(s)0.0140.1960.402131.7163.0950.1512.3460.7192.785*
    AppsRMSE3.1642.1463.1192.6991.5231.5431.5071.486*
    HR0.07990.07950.08520.07010.08870.07590.07460.07600.0818*
    mAP0.7360.7140.7360.6880.7590.7180.7120.7480.771*
    运行时间(s)0.0140.1700.34490.4892.5730.1030.6460.3881.476*
    KindleRMSE4.3192.2844.3172.2131.4371.5491.4451.168*
    HR0.02980.02220.02780.02210.03010.02860.02950.02970.0308*
    mAP0.9140.9200.8570.8330.9000.8940.8670.8750.926*
    运行时间(s)0.0140.7611.205416.5328.74510.06026.2237.22423.478*
    CDsRMSE4.2182.1824.2172.6941.4821.5341.4321.241*
    HR0.01190.01360.01010.01070.01080.01100.01100.01050.0147*
    mAP0.8470.8250.8260.8170.8440.8450.8520.8380.921*
    运行时间(s)0.0163.8335.406884.51932.3075.34531.38228.11135.836*
    MoviesRMSE3.0681.9603.0292.2711.1911.1851.1671.176*
    HR0.01340.01530.01440.01830.01660.01380.01540.01710.0173*
    mAP0.6680.7690.7020.8380.6820.6720.7660.8000.770*
    运行时间(s)0.0142.1863.261506.12518.3410.4659.4681.81510.978*
    YelpRMSE3.1321.7093.1942.1950.9981.0250.9890.967*
    HR0.01850.02280.01960.02590.02100.02080.02320.02330.0268*
    mAP0.6710.7750.7350.8710.7830.7350.8120.8860.912*
    运行时间(s)0.01765.50427.7294824.915159.44623.32526.66911.32620.551
    下载: 导出CSV 
    | 显示表格

    实验中, 置信水平0.95的Mann-Whitney U 是一种非参数检验, 用来展示本文所提算法的显著性不同, 带有标记“*”的数据表示该算法与其他算法有显著性不同.

    表3可得出以下结论:

    1) 在大部分数据集中, AtRBM-MsH都取得了最优的结果, 如: 在Kindle数据集中RMSE值取得了最优1.168, 低于ATRank算法47.22%, 而HR和mAP值取得了0.0308和0.926, 分别高于次优ATRank算法2.33%和2.89%, 展示了本文所提算法模型比其他模型具备更强的特征提取能力和表示学习能力, 进行更准确的评分预测和有效的项目推荐. 同样地, 在Yelp数据集中也取得了优良的预测准确性和推荐效果.

    2) 在各数据集中, AtRBM-MsH总体上优于BPRMF、ConvMF和ATRank这些有监督学习算法, 其中, ConvMF算法的时间花费巨大, 是因为CNN深度学习网络的运算过程复杂、训练时间较长, 使得这类基于深度学习的推荐算法在所有数据集上计算代价最高. Random和Popularity算法无法有效获取用户的偏好特征, 在进行推荐时不具备个性化特性, 总体上的推荐效果不如个性化搜索算法. Random算法的时间花费获得最小值, 这是容易理解的. 在保证预测精度和推荐准确性的情况下, AtRBM-MsH利用基于RBM的个性化搜索方法极大缩短了构建用户偏好模型的训练时间, 在推荐效果和时间花费上取得了较好的折中效果.

    3) 在各数据集对比实验中, AtRBM-MsH全部优于RBMAEDA, 这是因为RBMAEDA只考虑了用户评分数据和项目类别标签进行个性化搜索, 而AtRBM-MsH算法综合考虑了UGC中的多源异构数据和影响用户偏好的决策变量的重要程度, 构建基于AM的RBM用户偏好模型, 更加有利于抽取用户偏好特征, 取得了最优的预测精度、推荐效果和用户满意度. 另外, RBM-MsH虽然考虑了多源异构UGC数据, 但没有引入AM, 综合推荐效果优于RBMAEDA, 但是不如AtRBM-MsH, 进一步说明了融合AM的有效性.

    因此, 本文所提算法联合多源异构UGC数据和AM, 深入理解项目类别标签和用户文本评论, 加强重要特征对于构建用户偏好模型的贡献, 同时, 减轻数据稀疏对评分预测的影响, 进行有效的项目推荐, 具备良好的评分预测精确性和项目推荐准确率.

    为了充分展示本文所提算法的个性化搜索和推荐性能, 以Kindle_Store数据集中用户“A13QTZ8CIMHHG4”为例, 筛选当前用户评分数据和用户文本评论, 按时间顺序排列截取前 #%为训练数据集, 后(100 − #)%为测试数据集, 测试在不同的数据集稀疏度情况下用户进行个性化搜索. 表4是测试用户的个性化搜索实验结果.

    表 4  测试用户个性化搜索实验结果
    Table 4  Experimental results of a test user
    百分比 (%)测试用户
    RMSEHRAP
    100.8740.004550.876
    200.7660.004590.947
    300.7250.007000.977
    400.6920.009441.000
    500.6800.011681.000
    600.6790.010200.895
    700.6780.014260.924
    800.6440.019610.721
    900.6200.040680.812
    下载: 导出CSV 
    | 显示表格

    实验结果表明, 在数据稠密度只有30%时, AtRBM-MsH也达到了很好的预测精度和推荐准确性, 几乎是把用户喜欢的项目都排在了TopN项目推荐列表的前面, 具备更好的用户满意度和用户体验. 随着数据集中稠密度的逐渐增大, AtRBM-MsH的预测精度和推荐准确性也在不断提高, 说明当数据稠密时有用信息逐渐增加, 有利于融合多源异构数据的RBM用户偏好模型抽取当前用户偏好特征, 为个性化搜索算法提供了有效的用户偏好策略引导.

    图3是以图形形式展示测试用户分别利用RBMAEDA、DRBM、RBM-MsH和AtRBM-MsH算法进行个性化搜索的实验结果.

    图 3  测试用户个性化搜索实验
    Fig. 3  Experimental results of a test user

    图3可以看出, 用户对于项目的文本评论包含了较多的用户偏好信息, 融合多源异构数据的RBM-MsH优于只考虑项目类别标签的RBMAEDA和DRBM, 而AtRBM-MsH能够充分整合多源异构UGC数据和AM, 有效抽取用户偏好, 获得了优良的综合性能.

    为了进一步展示本文提出的AtRBM-MsH辅助的IEDA (AtRBM-MsH assisted IEDA, AtRIEDA-MsH)算法的综合性能, 在CDs_and_Vinyl数据集随机选择某用户, 将未结合IEDA框架的AtRBM-MsH算法与AtRIEDA-MsH算法进行了对比实验, 实验结果如图4所示.

    图 4  CDs_and_Vinyl数据集测试用户个性化搜索实验
    Fig. 4  Experimental results of a test user on CDs_and_Vinyl

    图4中可以看出, AtRIEDA-MsH优于AtRBM-MsH, 其RMSE值降低了4.35%, HR和AP分别提高了108.94%和32.66%, 展示了在IEDA框架下充分利用多源异构UGC数据, 融合AM构建增强的基于RBM用户偏好模型, 抽取用户偏好特征, 引导用户进行个性化搜索是可行且有效的.

    在实验中, 随机选择某用户参与交互式个性化搜索过程, 前50%作为训练数据集, 其中, 前20%作为初始的历史交互数据, 后30%数据分割为10份, 作为每次迭代的新增UGC, 剩余50%作为个性化搜索的可行解搜索空间, 模拟用户的交互式个性化搜索的动态过程, 展示本文所提算法的可行性、有效性和适应能力. 将本文所提算法与5种IECs: 传统IEDA、RBM辅助的IGA (RBM assisted IGA, RBMIGA)、RBMAEDA[20]、DRBMIEDA[8]、RBM-MsH辅助的IEDA (RBM-MsH assisted IEDA, RIEDA-MsH)算法进行对比实验, 其中, IEDA作为基线算法, RBMIGA是IGA框架下的基于RBM个性化搜索算法. 各算法进行10代优化搜索, 给出10次评分预测和项目推荐, 同时, 各算法独立运行10次, 计算平均评价指标评估算法的综合性能. 实验结果如表5所示, 其中最优解用粗体表示.

    表 5  对比实验结果
    Table 5  Comparison of experimental results
    算法评价指标IEDARBMIGARBMAEDADRBMIEDARIEDA-MsHAtRIEDA-MsH
    MusicRMSE1.1601.2041.4800.9550.955
    HR0.01840.02220.02360.02300.02860.0305*
    AP0.6010.8150.8970.9140.9310.956*
    GamesRMSE1.3311.3511.5601.1871.176*
    HR0.02310.02050.02010.02380.02450.0246
    AP0.7100.7640.7870.8700.8790.928*
    AppsRMSE1.5371.5341.6301.5741.572*
    HR0.03300.03250.03240.03500.03510.0354*
    AP0.6390.6570.6380.7510.7360.779*
    KindleRMSE0.9080.9001.0640.7000.711*
    HR0.007560.007580.007700.007600.008740.00888*
    AP0.7520.7830.7400.7330.8340.853*
    CDsRMSE1.4061.4051.5891.3881.386
    HR0.003960.004260.004520.004800.004800.00486*
    AP0.8180.8490.8900.9310.9290.923*
    MoviesRMSE1.2751.2761.2101.1881.132*
    HR0.006900.007380.006960.007420.008400.00851*
    AP0.4850.5390.4990.5260.6300.642*
    YelpRMSE0.7520.7490.8960.7230.746*
    HR0.004690.004690.005900.006460.006980.00970*
    AP0.5160.5820.6370.7020.7540.924*
    下载: 导出CSV 
    | 显示表格

    表5中, 标记“*”表示根据置信水平0.95的Mann-Whitney U 非参数检验算法显著区别于其他算法. 另外, 由于在IEDA算法中没有构造代理模型预测用户对于项目的评分, 所以IEDA算法没有RMSE值. 由表5可得出以下结论:

    1) 在各数据集中, AtRIEDA-MsH取得了最优效果, 如: 在Music数据集中AtRIEDA-MsH平均RMSE值获得了最优值0.955, HR和AP值分别为0.0305和0.956, 高于次优RIEDA-MsH算法6.64%和2.69%. 在Yelp数据集中也获得了类似的实验结果. 虽然在部分数据集中一些评价指标没有取得最优值, 但是综合比较获得了最优综合性能. AtRIEDA-MsH是在RBMAEDA中融合了用户文本评论和AM, 更有利于构建高效的用户偏好模型、EDA概率模型和用户评价代理模型, 提高了评分预测能力和推荐准确性.

    2) 在各数据集对比实验中, RBMAEDA优于RBMIGA, RBMIGA优于IEDA, RIEDA-MsH优于RBMAEDA, 说明用户文本评论相比较项目类别标签包含了更多的用户偏好信息, 帮助RIEDA-MsH算法提高了评分预测能力和推荐准确性. 更进一步, AtRIEDA-MsH算法考虑多源异构UGC数据, 利用基于注意力机制RBM模型构建用户偏好模型, 引导个性化搜索, 取得了最优的预测准确性和综合搜索效果.

    为了进一步展示本文所提算法的优越性能, 以图形的形式动态展示Music和Games数据集中用户的个性化搜索过程, 如图5图6所示.

    图 5  Music数据集某用户个性化搜索实验
    Fig. 5  Experimental results of a test user on Music
    图 6  Games数据集某用户个性化搜索实验
    Fig. 6  Experimental results of a test user on Games

    从图中可以看出, 大部分情况下蓝色线代表AtRIEDA-MsH和红色线代表的RIEDA-MsH算法的RMSE值低于其他对比算法, 而HR和AP优于其他算法, 说明本文所提出的算法能够较好地抽取用户偏好特征, 动态跟踪用户偏好, 为当前用户进行有效的个性化推荐, 取得了较好的预测精确性和推荐准确率, 改善了用户体验和满意度.

    针对如何在大数据环境下充分有效利用多源异构UGC数据, 本文提出了融合多源异构数据的增强RBM驱动的IEDA, 并将其应用于个性化搜索这类复杂定性指标优化问题中. 利用多源异构UGC数据, 构建融合多源异构数据的基于注意力机制的RBM用户偏好模型, 帮助用户偏好模型将关注点聚焦于属性信息的重要特征, 有效抽取用户偏好特征, 动态跟踪用户兴趣和偏好. 同时, 以创造良好的用户体验和平台效益为目标, 在IEDA框架下构建用户与个性化搜索算法的交互式过程, 设计了相应的进化优化策略, 通过用户偏好模型所获得的用户认知经验和兴趣偏好动态引导当前用户逐渐搜寻到满意解, 从而有效解决了个性化搜索问题. 在今后的研究工作中, 拟将进一步有效利用图像、视频等信息, 研究融合动态群体智能IECs的个性化搜索算法及其应用, 提供智能化、专属化的用户服务体验.

  • 图  1  AM-ERBM-IEDA算法框架

    Fig.  1  The framework of AM-ERBM-IEDA algorithm

    图  2  基于注意力机制和RBM的用户认知偏好模型

    Fig.  2  User cognitive preference model based on attention mechanism and RBM

    图  3  测试用户个性化搜索实验

    Fig.  3  Experimental results of a test user

    图  4  CDs_and_Vinyl数据集测试用户个性化搜索实验

    Fig.  4  Experimental results of a test user on CDs_and_Vinyl

    图  5  Music数据集某用户个性化搜索实验

    Fig.  5  Experimental results of a test user on Music

    图  6  Games数据集某用户个性化搜索实验

    Fig.  6  Experimental results of a test user on Games

    表  1  数据集统计信息

    Table  1  Statistical information of datasets

    数据集# 用户# 项目# 评分
    Digital_Music (Music)478235266414836006
    Video_Games (Games)826767502101324753
    Apps_for_Android (Apps)1323884612752638173
    Kindle_Store (Kindle)14068904305303205467
    CDs_and_Vinyl (CDs)15785974863603749004
    Movies_and_TV (Movies)20886202009414607047
    Yelp19124941803477778794
    下载: 导出CSV

    表  2  算法的实验参数

    Table  2  Experimental parameters of our algorithm

    参数数值
    ${n_1}$类别标签数量
    ${n_2}$200
    $m$0.8 ~ 1.2倍类别标签数量
    学习率0.1
    动量0.5 ~ 0.9
    训练次数20
    $Pop$0.3倍测试数据集规模
    $k$10
    $\alpha $0.3
    $\beta $0.2
    $N$10
    下载: 导出CSV

    表  3  对比实验结果

    Table  3  Experiments compared with popular recommendation algorithms

    算法 评价指标RandomPopularityBPRMFConvMFATRankRBMAEDADRBMRBM-MsHAtRBM-MsH
    MusicRMSE3.1441.8983.1302.1981.2981.2641.2971.221*
    HR0.07650.07930.07640.07420.07780.07840.09240.09060.0951*
    mAP0.7610.7230.8110.7280.7780.8110.8870.8800.879*
    运行时间(s)0.0200.1820.494276.7162.9000.2211.5990.6721.766*
    GamesRMSE3.5161.9733.4972.4821.2851.3321.2711.242*
    HR0.08100.09300.07530.09450.08690.08040.08150.08090.0985*
    mAP0.7470.8730.7070.9150.7850.7360.7600.7770.827*
    运行时间(s)0.0140.1960.402131.7163.0950.1512.3460.7192.785*
    AppsRMSE3.1642.1463.1192.6991.5231.5431.5071.486*
    HR0.07990.07950.08520.07010.08870.07590.07460.07600.0818*
    mAP0.7360.7140.7360.6880.7590.7180.7120.7480.771*
    运行时间(s)0.0140.1700.34490.4892.5730.1030.6460.3881.476*
    KindleRMSE4.3192.2844.3172.2131.4371.5491.4451.168*
    HR0.02980.02220.02780.02210.03010.02860.02950.02970.0308*
    mAP0.9140.9200.8570.8330.9000.8940.8670.8750.926*
    运行时间(s)0.0140.7611.205416.5328.74510.06026.2237.22423.478*
    CDsRMSE4.2182.1824.2172.6941.4821.5341.4321.241*
    HR0.01190.01360.01010.01070.01080.01100.01100.01050.0147*
    mAP0.8470.8250.8260.8170.8440.8450.8520.8380.921*
    运行时间(s)0.0163.8335.406884.51932.3075.34531.38228.11135.836*
    MoviesRMSE3.0681.9603.0292.2711.1911.1851.1671.176*
    HR0.01340.01530.01440.01830.01660.01380.01540.01710.0173*
    mAP0.6680.7690.7020.8380.6820.6720.7660.8000.770*
    运行时间(s)0.0142.1863.261506.12518.3410.4659.4681.81510.978*
    YelpRMSE3.1321.7093.1942.1950.9981.0250.9890.967*
    HR0.01850.02280.01960.02590.02100.02080.02320.02330.0268*
    mAP0.6710.7750.7350.8710.7830.7350.8120.8860.912*
    运行时间(s)0.01765.50427.7294824.915159.44623.32526.66911.32620.551
    下载: 导出CSV

    表  4  测试用户个性化搜索实验结果

    Table  4  Experimental results of a test user

    百分比 (%)测试用户
    RMSEHRAP
    100.8740.004550.876
    200.7660.004590.947
    300.7250.007000.977
    400.6920.009441.000
    500.6800.011681.000
    600.6790.010200.895
    700.6780.014260.924
    800.6440.019610.721
    900.6200.040680.812
    下载: 导出CSV

    表  5  对比实验结果

    Table  5  Comparison of experimental results

    算法评价指标IEDARBMIGARBMAEDADRBMIEDARIEDA-MsHAtRIEDA-MsH
    MusicRMSE1.1601.2041.4800.9550.955
    HR0.01840.02220.02360.02300.02860.0305*
    AP0.6010.8150.8970.9140.9310.956*
    GamesRMSE1.3311.3511.5601.1871.176*
    HR0.02310.02050.02010.02380.02450.0246
    AP0.7100.7640.7870.8700.8790.928*
    AppsRMSE1.5371.5341.6301.5741.572*
    HR0.03300.03250.03240.03500.03510.0354*
    AP0.6390.6570.6380.7510.7360.779*
    KindleRMSE0.9080.9001.0640.7000.711*
    HR0.007560.007580.007700.007600.008740.00888*
    AP0.7520.7830.7400.7330.8340.853*
    CDsRMSE1.4061.4051.5891.3881.386
    HR0.003960.004260.004520.004800.004800.00486*
    AP0.8180.8490.8900.9310.9290.923*
    MoviesRMSE1.2751.2761.2101.1881.132*
    HR0.006900.007380.006960.007420.008400.00851*
    AP0.4850.5390.4990.5260.6300.642*
    YelpRMSE0.7520.7490.8960.7230.746*
    HR0.004690.004690.005900.006460.006980.00970*
    AP0.5160.5820.6370.7020.7540.924*
    下载: 导出CSV
  • [1] 李金忠, 刘关俊, 闫春钢, 蒋昌俊. 排序学习研究进展与展望. 自动化学报, 2018, 44(8): 1345-1369

    Li Jin-Zhong, Liu Guan-Jun, Yan Chun-Gang, Jiang Chang-Jun. Research advances and prospects of learning to rank. Acta Automatica Sinica, 2018, 44(8): 1345-1369
    [2] Batmaz Z, Yurekli A, Bilge A, Kaleli C. A review on deep learning for recommender systems: Challenges and remedies. Artificial Intelligence Review, 2019, 52(1): 1-37 doi: 10.1007/s10462-018-9654-y
    [3] Wang Z K, Liu H Z, Du Y P, Wu Z H, Zhang X. Unified embedding model over heterogeneous information network for personalized recommendation. In: Proceedings of the 28th International Joint Conference on Artificial Intelligence. Macao, China: AAAI Press, 2019. 3813−3819
    [4] 饶子昀, 张毅, 刘俊涛, 曹万华. 应用知识图谱的推荐方法与系统[J]. 自动化学报, 2021, 47(9): 2061-2077

    Rao Zi-Yun, Zhang Yi, Liu Jun-Tao, Cao Wan-Hua. Recommendation methods and systems using knowledge graph. Acta Automatica Sinica, 2021, 47(9): 2061-2077
    [5] Rendle S, Freudenthaler C, Gantner Z, Schmidt-Thieme L. BPR: Bayesian personalized ranking from implicit feedback. In: Proceedings of the 25th Conference on Uncertainty in Artificial Intelligence. Montreal, Canada: AUAI Press, 2009. 452−461
    [6] He X N, Liao L Z, Zhang H W, Nie L Q, Hu X, Chua T S. Neural collaborative filtering. In: Proceedings of the 26th International Conference on World Wide Web. Perth, Australia: ACM, 2017. 173−182
    [7] Truong Q T, Salah A, Lauw H W. Bilateral variational autoencoder for collaborative filtering. In: Proceedings of the 14th ACM International Conference on Web Search and Data Mining. New York, USA: Association for Computing Machinery, 2021. 292–300
    [8] Bao L, Sun X Y, Chen Y, Gong D W, Zhang Y W. Restricted Boltzmann machine-driven interactive estimation of distribution algorithm for personalized search. Knowledge-Based Systems, 2020, 43: Article No. 106030
    [9] Kim D, Park C, Oh J, Lee S, Yu H. Convolutional matrix factorization for document context-aware recommendation. In: Proceedings of the 10th ACM Conference on Recommender Systems. Boston, USA: ACM, 2016. 233−240
    [10] Jin J R, Qin J R, Fang Y C, Du K, Zhang W N, Yu Y, et al. An efficient neighborhood-based interaction model for recommendation on heterogeneous graph. In: Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Virtual Event, USA: Association for Computing Machinery, 2020. 75−84
    [11] Mnih V, Heess N, Graves A, Kavukcuoglu K. Recurrent models of visual attention. In: Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal, Canada: ACM, 2014. 2204−2212
    [12] Zhou C, Bai J Z, Song J S, Liu X F, Zhao Z C, Chen X S, et al. ATRank: An attention-based user behavior modeling framework for recommendation. In: Proceedings of the 32nd AAAI Conference on Artificial Intelligence and 30th Innovative Applications of Artificial Intelligence Conference and 8th AAAI Symposium on Educational Advances in Artificial Intelligence. New Orleans, USA: AAAI, 2018. Article No. 559
    [13] 汤文兵, 任正云, 韩芳. 基于注意力机制的协同卷积动态推荐网络. 自动化学报, 2021, 47(10): 2438-2448 doi: 10.16383/j.aas.c190820

    Tang Wen-Bing, Ren Zheng-Yun, Han Fang. Attention-based collaborative convolutional dynamic network for recommendation. Acta Automatica Sinica, 2021, 47(10): 2438-2448 doi: 10.16383/j.aas.c190820
    [14] Li J C, Wang Y J, McAuley J. Time interval aware self-attention for sequential recommendation. In: Proceedings of the 13th International Conference on Web Search and Data Mining. Houston, USA: ACM, 2020. 322−330
    [15] Sun X Y, Gong D W, Jin Y C, Chen S S. A new surrogate-assisted interactive genetic algorithm with weighted semisupervised learning. IEEE Transactions on Cybernetics, 2013, 43(2): 685-698 doi: 10.1109/TSMCB.2012.2214382
    [16] Zhou G R, Mou N, Fan Y, Pi Q, Bian W J, Zhou C, et al. Deep interest evolution network for click-through rate prediction. In: Proceedings of the 33rd AAAI Conference on Artificial Intelligence and 31st Innovative Applications of Artificial Intelligence Conference and 9th AAAI Symposium on Educational Advances in Artificial Intelligence. Honolulu, USA: AAAI, 2019. Article No. 729
    [17] Chen Y, Jin Y C, Sun X Y. Language model based interactive estimation of distribution algorithm. Knowledge-Based Systems, 2020, 200: Article No. 105980 doi: 10.1016/j.knosys.2020.105980
    [18] Salameh M, Singh S, Li S W, Krishnamurthy M. Surrogate vibration modeling approach for design optimization of electric machines. IEEE Transactions on Transportation Electrification, 2020, 6(3): 1126-1133 doi: 10.1109/TTE.2020.3017232
    [19] Gao Y, Yang T, Bozhko S, Wheeler P, Dragičević T. Filter design and optimization of electromechanical actuation systems using search and surrogate algorithms for more-electric aircraft applications. IEEE Transactions on Transportation Electrification, 2020, 6(4): 1434-1447 doi: 10.1109/TTE.2020.3019729
    [20] Bao L, Sun X Y, Chen Y, Man G Y, Shao H. Restricted Boltzmann machine-assisted estimation of distribution algorithm for complex problems. Complexity, 2018, 2018: 2609014
    [21] Zhao F, Zeng Z, Liu H Q, Lan R, Fan J L. Semisupervised approach to surrogate-assisted multiobjective kernel intuitionistic fuzzy clustering algorithm for color image segmentation. IEEE Transactions on Fuzzy Systems, 2020, 28(6): 1023-1034 doi: 10.1109/TFUZZ.2020.2973121
    [22] Min A T W, Ong Y S, Gupta A, Goh C K. Multiproblem surrogates: Transfer evolutionary multiobjective optimization of computationally expensive problems. IEEE Transactions on Evolutionary Computation, 2019, 23(1): 15-28 doi: 10.1109/TEVC.2017.2783441
    [23] Wang S, Liu J, Jin Y C. Surrogate-assisted robust optimization of large-scale networks based on graph embedding. IEEE Transactions on Evolutionary Computation, 2020, 24(4): 735-749 doi: 10.1109/TEVC.2019.2950935
    [24] Cai X W, Gao L, Li X Y. Efficient generalized surrogate-assisted evolutionary algorithm for high-dimensional expensive problems. IEEE Transactions on Evolutionary Computation, 2020, 24(2): 365-379 doi: 10.1109/TEVC.2019.2919762
    [25] Le Q, Mikolov T. Distributed representations of sentences and documents. In: Proceedings of the 31st International Conference on Machine Learning. Beijing, China: ACM, 2014. 1188−1196
    [26] Hinton G E. Training products of experts by minimizing contrastive divergence. Neural Computation, 2002, 14(8): 1771-1800 doi: 10.1162/089976602760128018
    [27] Feng S, Chen C L P. A fuzzy restricted Boltzmann machine: Novel learning algorithms based on the crisp possibilistic mean value of fuzzy numbers. IEEE Transactions on Fuzzy Systems, 2018, 26(1): 117-130 doi: 10.1109/TFUZZ.2016.2639064
  • 加载中
图(6) / 表(5)
计量
  • 文章访问数:  1563
  • HTML全文浏览量:  334
  • PDF下载量:  219
  • 被引次数: 0
出版历程
  • 收稿日期:  2020-07-29
  • 网络出版日期:  2021-06-01
  • 刊出日期:  2023-10-24

目录

/

返回文章
返回