2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于比特串异或和置乱变换的指纹模板保护算法

党力 张雪锋 惠妍

张家录, 吴霞. 形式背景上近似推理生成决策蕴涵研究. 自动化学报, 2024, 50(11): 2286−2300 doi: 10.16383/j.aas.c220705
引用本文: 党力, 张雪锋, 惠妍. 基于比特串异或和置乱变换的指纹模板保护算法. 自动化学报, 2020, 46(12): 2681−2689 doi: 10.16383/j.aas.c190011
Zhang Jia-Lu, Wu Xia. Study on the approximate reasoning models of decision implication in formal decision context. Acta Automatica Sinica, 2024, 50(11): 2286−2300 doi: 10.16383/j.aas.c220705
Citation: Dang Li, Zhang Xue-Feng, Hui Yan. Fingerprint template protection algorithm based on bit string XOR and scrambling transformation. Acta Automatica Sinica, 2020, 46(12): 2681−2689 doi: 10.16383/j.aas.c190011

基于比特串异或和置乱变换的指纹模板保护算法

doi: 10.16383/j.aas.c190011
基金项目: 国家自然科学基金(61301091), 陕西省自然科学基础研究计划青年项目(2017JQ6010)资助
详细信息
    作者简介:

    党力:西安邮电大学网络空间安全学院硕士研究生. 主要研究方向为生物特征识别. 本文通信作者. E-mail: dangli_xupt@163.com

    张雪锋:博士, 西安邮电大学网络空间安全学院教授. 主要研究方向为信息安全. E-mail: zhangxuefeng3@163.com

    惠妍:西安邮电大学通信与信息工程学院硕士研究生. 主要研究方向为生物特征识别. E-mail: huiyan_mini@163.com

Fingerprint Template Protection Algorithm Based on Bit String XOR and Scrambling Transformation

Funds: Supported by National Natural Science Foundation of China (61301091) and Natural Science Basic Research Plan in Shaanxi Province of China (2017JQ6010)
  • 摘要: 针对现有指纹模板保护算法存在的准确性较低、安全性能较差的问题, 提出一种基于比特串异或和置乱变换的指纹模板保护算法. 该算法在已有二维映射算法的基础上, 对得到的比特串进行异或和随机索引置乱变换, 有效地将线性和非线性变换相结合, 扩展了密钥空间, 增强了指纹模板的安全性. 理论分析和仿真结果表明, 对于密钥泄露场景, 该算法在数据库FVC2002 DB1和DB2中的等错误率(Equal error rate, EER)分别为0.08 %和0.75 %, 与现有算法相比, 具有较好的准确性和安全性.
  • 推荐系统主要通过学习用户的偏好, 为用户提供感兴趣的产品和信息, 在电子商务、社交媒体、搜索引擎、广告营销、个性化推荐中得到了广泛的应用, 成为近年来工业界和学术界的研究热点[1]. 可解释推荐系统一般是指推荐系统通过建模学习用户和项目的表示, 在给出推荐结果的同时, 对推荐结果给出相应的支持论据或推荐理由(即解释)[2]. 可解释推荐可以增强用户对推荐结果的信任度, 帮助用户更好地进行决策, 是电子商务平台提供个性化服务和增强用户信任度的重要技术.

    传统的内容推荐通过挖掘用户感兴趣的物品为用户推荐相似的产品, 基于用户的兴趣标签、行为特征对推荐结果进行解释[3]. 协同过滤推荐假设相似用户具有相似的兴趣, 通过计算相似用户对物品的喜好来预测目标用户的兴趣进行推荐[4]. 协同过滤推荐基于用户的社交关系、相似用户的喜好或者相似物品的特征对推荐结果进行解释. 混合推荐系统则融合多种推荐算法的优点, 应用于工业界的音乐、视频等推荐系统领域[2]. 近年来, 深度学习推荐系统主要通过建模用户−项目矩阵的非线性表示, 获取用户、物品的深层次潜在语义特征, 在提高推荐结果精准性的同时, 生成自然语言或其他形式的可视化解释, 在不同业务场景中取得了成功的应用[2].

    尽管已有推荐方法取得了显著的成效, 但是在电子商务平台等实际场景下, 常常面临新加入用户或物品的冷启动推荐问题; 同时, 平台中海量的用户和物品也容易产生用户对物品评分数据的稀疏性, 使得平台对于少量交互数据甚至缺乏交互数据的推荐问题收效一般[5]. 在电子商务推荐系统中, 用户的性别、年龄等属性刻画了用户的行为偏好, 物品的类别、日期等属性反映了物品的受众需求和产品特性等[6]. 例如, “儿童”用户可能喜欢科幻类电影, 那么“儿童”用户容易对科幻类电影进行评价, 这些特征很好地反映了用户评分的偏好动机. 因此, 如何捕捉属性信息和交互行为在评分预测中的贡献, 并给出属性偏好的可解释推荐结果, 对于解决少量交互数据的稀疏性推荐问题, 增强推荐系统的用户黏性具有重要的意义.

    本文分析了用户和项目的属性信息在评分标签上的注意力, 建模了融合评分标签分布的属性偏好语义特征表示; 基于用户和项目交互行为图分析了节点自身、交互邻居与评分标签的信息扩散作用, 学习了用户和项目的多阶交互行为特征表示; 进而融合用户和项目的属性偏好语义和多阶交互语义特征, 提出了一种属性偏好的可解释评分预测方法. 主要创新点如下:

    1)通过分析用户和项目属性在评分标签上的注意力偏好, 定义了属性偏好注意力的评分标签分布, 提出了融合评分标签分布的属性偏好特征表示方法, 增强了用户和项目的属性语义特征表示.

    2)考虑了用户和项目交互行为中的评分标签兴趣偏好, 通过信息传播扩散机制聚合了节点自身、交互邻居与评分标签的信息, 实现了多阶交互评分信息聚合的节点特征表示方法, 增强了用户和项目的交互语义特征表示.

    3)融合节点的属性偏好特征和多阶交互行为特征, 结合节点间的异质类型语义差异, 在异质类型映射空间下学习了用户和项目的类型语义特征, 进而聚合用户和项目的类型语义实现了评分预测.

    4)多个数据集上的实验结果验证了本文方法能够有效提高评分预测的性能, 缓解了交互数据稀疏时推荐系统性能较差的问题, 案例可视化解释了属性偏好在评分交互行为中的贡献.

    传统的推荐系统主要有用户画像、K近邻(K-nearest neighbor, KNN)、朴素贝叶斯、矩阵分解、神经网络和图模型等方法[3, 7-10]. 其中, 矩阵分解在协同过滤推荐应用中较为普遍, 代表性的方法有改进的奇异值分解(Singular value decomposition++, SVD++)[11]和有偏矩阵分解(Biased matrix factorization, BiasedMF)[12], 概率矩阵分解(Probabilistic matrix factorization, PMF)[13]和贝叶斯概率矩阵分解(Bayesian probabilistic matrix factorization, BPMF)[14], 以及局部低秩矩阵近似(Local low-rank matrix approximation, LLORMA)[15]等. 传统的矩阵分解主要依靠评分交互矩阵来学习用户和项目的特征表示, 忽略了用户和项目的上下文信息, 学习的特征效果较差, 推荐结果的可解释性相对较弱. 针对这种情形, Zhang等[16]将评论中产品的特征描述和用户的情感观点融入到用户−项目的因子分解模型, 利用显式的产品特征对推荐结果生成解释性的方面−观点对, 并且提升了评分预测的精度. 基于评论中概念、主题和标签的层次化关系, 结合用户的社会关系, Ren等[17]通过社会化的协同视角观点计算了用户和项目的概率分布, 提出一种后验的评分预测方法, 并给出了可解释的评分预测结果. 矩阵因子分解、主题贝叶斯、概率图等方法在提升评分预测结果的同时, 通过学习用户和产品的相关特征来实现对推荐结果的论据解释[18-20]. 尽管这些方法表现不错, 但在实际的应用场景中, 用户−物品评分矩阵稀疏性较高, 已有推荐系统模型的性能还有待进一步改善和提升.

    近年来, 深度神经网络推荐引起了人们的广泛关注[21-22], 许多线性和非线性的模型相继提出以提升推荐的精度[23-25]. He等[26]结合矩阵分解, 应用深层次神经网络建模用户和项目的潜在表示. Lian等[27]通过神经网络学习低阶和高阶的交互特征, 建模节点的丰富特征信息. 此外, 用户对物品的评论包含了大量方面级属性信息, 可以用来弥补交互数据的缺失, 扩展节点的语义. 部分深度神经网络推荐方法利用评论生成个性化的文本内容或兴趣标签, 实现推荐结果的解释[28-30]. 冯永等[31]基于卷积神经网络实现了融合社交因素和评论文本的产品推荐. 通过联合考虑评分和评论等上下文信息, Li等[32]利用门控循环单元(Gated recurrent unit, GRU)学习用户和项目的潜在特征, 通过摘要式的提示揭示了用户对产品的体验, 生成精准的推荐结果. Chen等[33]设计了一种对抗适应和正交限制的选择性知识蒸馏网络, 在有效提升评分预测性能的同时实现了蒸馏知识对推荐结果的解释. 此外, 知识图谱实体关系可以在推荐系统中解释用户对物品的认知[34]. Wang等[35]在知识图谱上基于注意力机制来学习用户和物品的特征. Wang等[36]构建了知识图谱的注意力网络, 学习了不同邻居的高阶关系传播表示, 并通过节点间的实体关系解释了用户对物品的偏好. 鉴于知识图谱中交互的用户和物品节点具有不同的属性类型, 而节点的不同类型信息代表了不同的语义, 本文通过区分节点间的异质类型语义信息来提升推荐系统的精度.

    在用户和物品的交互关系学习方面, 图嵌入利用了交互图上节点间的局部和全局关系, 可以更好地学习节点的特征. Ying等[37]考虑图结构和物品的特征, 利用图神经网络学习节点的表示; He等[38]提出了图卷积的协同过滤推荐模型. 针对用户和物品之间的多元交互行为关系, Jin等[39]提出了多行为的图卷积神经网络, 学习了用户和项目的高阶行为语义信息实现协同推荐. 上述图神经网络的推荐主要利用了用户和项目间的交互关系, 缺少对具体的评分标签信息的考虑.

    已有推荐系统的可解释研究很少从节点的属性类型对用户的评分动机进行解释, 没有充分挖掘节点属性特征与评分行为的偏好关系, 对于属性特征在评分行为预测中的可解释性工作较少. 同时, 在推荐系统中, 交互行为中的评分标签直接反映了用户对项目的喜好程度, 能够在语义信息扩散中起重要作用, 可以用来丰富节点的语义表示. 因此, 针对交互数据相对缺乏的稀疏性推荐问题, 建模节点属性特征与评分行为的偏好关系, 生成属性偏好的可解释推荐是本文的研究工作.

    一般来说, 用户的属性一定程度上反映了用户的评分喜好, 不同的属性信息在评分标签上具有不同的注意力, 容易导致用户对项目的评分选择不同. 基于注意力机制可以捕捉用户不同属性在评分标签上的偏好, 进而建模用户的属性偏好特征表示. 同时, 交互行为直接体现了用户的历史行为偏好, 交互的评分标签刻画了用户的兴趣喜好程度, 通过在协同交互行为中融入交互的评分标签, 并捕捉其语义扩散作用, 可以增强用户的交互语义特征表示. 本节介绍融合用户物品属性和交互信息的评分预测框架, 如图1所示. 图中框架包括了属性偏好特征表示、交互行为特征表示和评分预测三个模块.

    图 1  融合属性偏好和多阶交互信息的评分预测
    Fig. 1  Rating prediction by fusing attribute preference and multi-order interaction information

    图1左上方是用户的属性偏好特征表示. 该部分首先通过注意力机制对用户的静态属性信息进行建模, 学习用户的静态属性特征表示$ {{\boldsymbol{u}}_{{\rm{Att}}}} $; 进而计算用户静态属性对评分标签的注意力影响, 得到属性偏好注意力的评分标签分布; 结合用户的静态属性特征表示与属性偏好注意力的评分标签分布, 生成用户的属性偏好特征表示$ {\boldsymbol{u}}_{{\rm{Att}}}^r $. 同理, 可以建模项目的属性偏好特征表示.

    在用户的交互行为特征表示模块, 首先建模用户与单个邻居节点的交互信息, 进而融合评分标签信息, 得到交互行为特征表示; 考虑到邻居节点$ {{\boldsymbol{v}}_1},\cdots,{{\boldsymbol{v}}_n} $, 通过聚合邻居的交互行为特征信息, 生成节点的协同传播特征表示; 采用图传播扩散的思想[24], 生成不同层级的协同传播特征表示, 进而池化生成多阶交互评分信息聚合的节点交互行为特征表示${\boldsymbol{u}}_{{\rm{Int}}}^r$. 同理, 可以建模项目的交互行为特征表示.

    在评分预测模块, 融合节点的属性偏好和交互行为特征表示, 得到用户和项目的表示$ {\boldsymbol{u}} $和$ {\boldsymbol{v}} $; 结合节点的异质类型信息, 在异质类型信息映射空间下学习了用户和项目的类型语义特征$ {{\boldsymbol{u}}'} $和$ {{\boldsymbol{v}}'} $; 基于用户和项目的类型语义特征表示, 通过多层感知机预测了用户对项目的评分.

    3.1.1   静态属性特征表示

    在电商、视频、新闻等推荐服务平台, 用户对浏览的内容或购买的物品会进行评论、评分和点赞等行为; 同时, 用户和物品常常会标注特定的属性描述信息, 基于用户和物品的属性信息, 可以进行评分行为偏好研究. 例如, 用户的“性别”、“年龄”、“职业”等不同的属性描述信息, 一定程度刻画了用户的静态特征, 反映了用户的兴趣偏好. 基于用户在属性方面的标签描述可以建模用户的静态特征.

    在输入层, 首先针对用户的属性标签, 通过one-hot编码和查询表初始化用户的属性嵌入, 对用户的属性标签进行特征表示. 设用户的所有属性集为$At{t_u} = \{ {a_1},{a_2},\cdots ,{a_t}\}$, 定义用户$ {\boldsymbol{u}} $的初始化表示如下:

    $$ {{\boldsymbol{u}}_0} = \{ {{\boldsymbol{u}}_{{a_1}}},{{\boldsymbol{u}}_{{a_2}}},\cdots,{{\boldsymbol{u}}_{{a_t}}}\} $$ (1)

    进而, 考虑到用户$ {\boldsymbol{u}} $的不同属性标签对用户的全局静态属性特征表示贡献不同, 基于注意力机制对用户的属性进行特征融合, 属性$ {a_i} $上的特征${{\boldsymbol{u}}_{{a_i}}} \in {\bf{R}^d}$的注意力分数表示如下:

    $$ {h_i} = {{\boldsymbol{h}}^{\rm{T}}}{{\boldsymbol{W}}_{{\rm{Att}}}}{{\boldsymbol{u}}_{{a_i}}} $$ (2)

    其中, $ {{\boldsymbol{W}}_{{\rm{Att}}}} \in {\bf{R}^{n \times d}} $, $ {\boldsymbol{h}} \in {\bf{R}^n} $为学习参数. 根据属性$ {a_i} $的特征注意力分数$ {h_i} $, 定义属性$ {a_i} $的特征注意力权重为

    $$ {\alpha _i} = \frac{{\exp ({h_i})}}{{\sum\limits_{j = 1}^t {\exp ({h_j})} }} $$ (3)

    于是, 将用户$ {\boldsymbol{u}} $的所有属性表示进行注意力加权融合, 用户$ {\boldsymbol{u}} $更新后的静态属性特征表示如下:

    $$ {\boldsymbol{u}}_{{\rm{Att}}}{\text{ = }}\sum\limits_{i = 1}^t {{\alpha _i}} {{\boldsymbol{u}}_{{a_i}}} $$ (4)

    其中, $ {\alpha _i} $表示了不同属性对于用户静态属性特征表示${{\boldsymbol{u}}_{{\rm{Att}}}} \in {\bf{R}^d}$的贡献程度, 可以揭示用户在项目评分决策中的属性影响程度.

    3.1.2   属性偏好注意力的评分标签分布

    用户的属性标签反映了用户的静态特征, 但没有反映出与用户评分标签的偏好关系. 例如, 性别为“男”的用户可能倾向于喜欢动作类的电影, 对该类电影项目的评分较高; 年龄“较小”的用户可能对科幻类的电影更感兴趣, 相应的评分也高. 即, 属性取值对评分标签选择具有一定的影响, 如何学习属性特征与评分标签的偏好关系对于精准建模用户的语义表示具有积极的作用, 能够提升推荐系统的精度. 基于这种假设, 通过注意力机制计算用户属性特征对评分标签$ {r_k} $的不同权重贡献, 注意力分数表示如下:

    $$ {h_k} = {\boldsymbol{h}}_{{\rm{Att}}}^{\rm{T}}\tanh ({{\boldsymbol{W}}_r}{{\boldsymbol{r}}_k} + {{\boldsymbol{W}}_a}{{\boldsymbol{u}}_{{\rm{Att}}}}) $$ (5)

    其中, ${{\boldsymbol{r}}_k} \in {\bf{R}^d}$是评分标签$ {r_k} $的嵌入. ${\boldsymbol{h}}_{{\rm{Att}}}^{\rm{T}} \in {\bf{R}^n}$, ${{\boldsymbol{W}}_r} \in {\bf{R}^{n \times d}}$、${{\boldsymbol{W}}_a} \in {\bf{R}^{n \times d}}$是学习参数. 于是, 评分标签$ {r_k} $的属性偏好注意力权重可表示为

    $$ {\alpha _k} = \frac{{\exp ({h_k})}}{{\sum\limits_{l \in {{Rating}}} {\exp ({h_l})} }} $$ (6)

    其中, $ Rating $为评分标签的等级集合. 进一步, 用户在属性偏好方面的评分标签分布可以表示为

    $$ {{\boldsymbol{u}}_r} = \sum\limits_{k \in {{Rating}}} {{\alpha _k}{{\boldsymbol{r}}_k}} $$ (7)

    这里, 属性偏好方面的评分标签分布刻画了评分标签对于用户静态属性语义的补充, 有助于增强用户的语义特征表示能力.

    3.1.3   属性偏好的用户特征表示

    考虑到用户的静态属性特征和属性偏好评分标签分布, 生成用户的属性偏好特征表示为

    $$ {\boldsymbol{u}}_{{\rm{Att}}}^r = {{\boldsymbol{u}}_{{\rm{Att}}}}||{{\boldsymbol{u}}_r} $$ (8)

    其中, “$|| $”表示拼接, 用户的静态属性特征和属性偏好评分标签分布可以通过多种非线性方式进行融合, 建模用户的表示. 本文采用线性拼接方式以实现最大程度保留用户的属性语义信息.

    类似地, 在图1中, 给定项目的属性集为$At{t_v} = \{ {b_1},{b_2},\cdots,{b_s}\}$, 考虑到项目关联的所有属性, 基于one-hot的编码和查询表初始化项目的属性嵌入表示, 对项目的属性进行特征表示, 可以定义为: ${{\boldsymbol{v}}_0} = \{ {{\boldsymbol{v}}_{{b_1}}},{{\boldsymbol{v}}_{{b_2}}},\cdots,{{\boldsymbol{v}}_{{b_s}}}\}$. 进而, 通过项目的静态属性特征表示与属性关联的评分标签分布, 建模项目的属性偏好特征表示为${\boldsymbol{v}}_{{\rm{Att}}}^r = {{\boldsymbol{v}}_{{\rm{Att}}}}||{{\boldsymbol{v}}_r}$, 其中${{\boldsymbol{v}}_{{\rm{Att}}}}$是项目的静态属性特征嵌入, ${\boldsymbol{v}}_r$是项目${\boldsymbol{v}}$在属性关联方面的评分标签分布.

    用户对项目的评分交互记录反映了用户的行为动机与兴趣偏好. 基于用户−项目的交互记录, 构建高阶交互邻居的信息传播示意图, 如图2所示. 在图中, 给定用户$ {\boldsymbol{u}} $, 交互项目$ {\boldsymbol{v}} $反映了用户的兴趣, 用户对项目的评分信息“5”描述了用户对项目的评分行为偏好程度. 用户$ {\boldsymbol{u }}$评价了多个项目, 而项目$ {\boldsymbol{v}} $则可能被多个用户所评价. 基于用户${\boldsymbol{ u }}$评价过的项目及其评分信息, 可以学习用户$ {\boldsymbol{u}} $的交互特征表示. Yao等[40]针对协同过滤中的用户−项目的交互函数构建方法进行研究, 并提出一种简易的神经网络协同过滤交互函数. 受文献[24, 38, 40]的启发, 本文在${\boldsymbol{u}}\xleftarrow{{{r_k}}}{\boldsymbol{v}}$的用户交互特征表示方面, 同时考虑了邻居节点${\boldsymbol{v}}$、评分标签$ {r_k} $, 以及${\boldsymbol{u}}$、${\boldsymbol{v}}$之间的协同交互信息, 在交互函数方面选择${{\boldsymbol{e}}_v}{{ - }}{{\boldsymbol{e}}_u}$运算进行协同交互信息的捕捉. 于是对于${\boldsymbol{u}}\xleftarrow{{{r_k}}}{\boldsymbol{v}}$评分交互行为, 建模项目$ {\boldsymbol{v}} $对用户$ {\boldsymbol{u}} $的一阶交互协同信息表示为

    图 2  高阶交互邻居的信息传播
    Fig. 2  Information diffusion of higher-order interaction neighbors
    $$ {{\boldsymbol{m}}_{{\boldsymbol{u}}\xleftarrow{{{r_k}}}{\boldsymbol{v}}}} = \frac{{{r_k}}}{{\sqrt {\left| {{N_u}} \right|\left| {{N_v}} \right|} }}(\gamma {{\boldsymbol{e}}_v} + \eta ({{\boldsymbol{e}}_v}{\rm{ - }}{{\boldsymbol{e}}_u}))$$ (9)

    其中, $ {{\boldsymbol{e}}_u} \in {\bf{R}^d} $是用户的ID初始化嵌入, $ {{\boldsymbol{e}}_v} \in {\bf{R}^d} $是项目的ID初始化嵌入, $ \left| {{N_u}} \right| $是用户$ {\boldsymbol{u}} $评价的项目数, $|N_v| $是项目$ {\boldsymbol{v}} $被评价过的用户数, $ {r_k} $是用户$ {\boldsymbol{u}} $对项目$ {\boldsymbol{v }}$的评分, $ \gamma $和$ \eta $是超参数. 在式(9)中, 评分信息$ {r_k} $刻画了用户的评分行为偏好程度, 其值越大, 越能反映用户的兴趣爱好. 同时, 对于评价项目数较少的用户或者关联用户数较少的冷门物品, 式(9)可以通过调节$\frac{r_k}{{\sqrt {\left| {{N_u}} \right|\left| {{N_v}} \right|} }}$的值来增强项目$ {\boldsymbol{v}} $对于用户$ {\boldsymbol{u}} $的交互协同信息作用.

    进一步, 基于文献[24]的思想, 考虑了用户评价过的所有项目, 用户$ {\boldsymbol{u}} $的一阶邻居协同传播信息表示为

    $$ {\boldsymbol{e}}_u^{(1)} = \sum\limits_{{\boldsymbol{v}} \in {N_u}} {{{\boldsymbol{m}}_{{\boldsymbol{u}}\xleftarrow{{{r_k}}}{\boldsymbol{v}}}}} $$ (10)

    $ {N_u} $为用户$ {\boldsymbol{u}} $评价的项目集合. 事实上, 在用户−项目评分交互图中, 高阶邻居的语义信息可以丰富和扩充目标用户的特征表示. 基于文献[24]的思想, 定义在$ l $层的高阶邻居协同传播信息表示为

    $$ {\boldsymbol{e}}_u^{(l)} = \sum\limits_{{\boldsymbol{v}} \in {N_u}} {{\boldsymbol{m}}_{{\boldsymbol{u}}\xleftarrow{{{r_k}}}{\boldsymbol{v}}}^{l - 1}} $$ (11)

    其中, 在$ l - 1 $层上, 用户$ {\boldsymbol{u}} $的$ l - 1 $阶协同传播信息表示为

    $$ {\boldsymbol{m}}_{{\boldsymbol{u}}\xleftarrow{{{r_k}}}{\boldsymbol{v}}}^{l - 1} = \frac{{{r_k}}}{{\sqrt {\left| {{N_u}} \right|\left| {{N_v}} \right|} }}(\gamma {\boldsymbol{e}}_v^{l - 1} + \eta ({\boldsymbol{e}}_v^{l - 1} - {\boldsymbol{e}}_u^{l - 1})) $$ (12)

    考虑到不同层上传播的节点表示具有不同的语义信息, 且通过层级组合可以缓解图神经网络的过平滑现象, 受文献[38]的启发, 我们对用户$ {\boldsymbol{u}} $的不同层级的节点表示进行平均池化, 计算用户$ {\boldsymbol{u}} $的交互行为特征表示为

    $$ {\boldsymbol{u}}_{{\rm{Int}}}^r = {{avg}}({\boldsymbol{e}}_u^{(0)},{\boldsymbol{e}}_u^{(1)},\cdots,{\boldsymbol{e}}_u^{(K)}) $$ (13)

    其中, $avg $为平均池化算子, $ {\boldsymbol{e}}_u^{(0)} $为用户的自身嵌入表示, $ K $为传播的总层数. 同理, 我们可以针对项目建模高阶交互评分信息聚合的节点交互行为特征表示${\boldsymbol{v}}_{{\rm{Int}}}^r$.

    在建模了节点的属性偏好和交互行为特征之后, 考虑到二者都对节点的表示具有积极的作用, 通过对两种特征进行融合获得用户的特征表示, 定义为

    $$ {\boldsymbol{u}}= {\boldsymbol{u}}_{{\rm{Att}}}^{r}\Vert {\boldsymbol{u}}_{{\rm{Int}}}^{r} $$ (14)

    同理, 可以建模项目的特征表示为${\boldsymbol{v}} = {\boldsymbol{v}}_{{\rm{Att}}}^{r}\Vert {\boldsymbol{v}}_{{\rm{Int}}}^{r}$.

    在实际的推荐系统应用中, 用户和项目一般具有不同的节点属性类型描述, 这种属性类型描述反映了不同的类型语义空间. 为了更好地反映这种类型语义的区别, 本文通过引入异质类型语义矩阵, 将用户的特征表示和项目的特征表示映射在类型语义空间下进行评分预测. 于是, 设用户节点的类型语义矩阵为$ {{\boldsymbol{M}}_u} $, 定义用户$ {\boldsymbol{u}} $在类型信息空间下的语义特征嵌入表示为

    $$ {{\boldsymbol{u}}'} = {{\boldsymbol{M}}_u}{\boldsymbol{u}} $$ (15)

    其中, 类型语义矩阵${{\boldsymbol{M}}_u} \in {\bf{R}^{m \times 3d}}$是学习参数, 将节点用户$ {\boldsymbol{u }}$映射到统一类型语义空间. 类似地, 基于项目的类型语义矩阵$ {{\boldsymbol{M}}_v} $将项目的特征表示$ {\boldsymbol{v}} $映射到统一类型语义空间, 项目${\boldsymbol{v}}$在类型信息空间下的语义特征嵌入表示为

    $$ {{\boldsymbol{v}}'} = {{\boldsymbol{M}}_v}{\boldsymbol{v}} $$ (16)

    于是, 将用户和项目的类型信息语义特征表示$ {{\boldsymbol{u}}'}||{{\boldsymbol{v}}'} $送入到多层感知机, 考虑到用户偏置$ {b_u} $、项目偏置$ {b_v} $和全局偏置$ {b_g} $, 学习用户对项目的评分, 定义评分预测函数为

    $$ \hat y = {\boldsymbol{h}^{\rm{T}}}{\rm{Relu}}({\boldsymbol{W}}({{\boldsymbol{u}}'}||{{\boldsymbol{v}}'})) + {b_u} + {b_v} + {b_g} $$ (17)

    其中, ${\boldsymbol{h}} \in {\bf{R}^p}$, ${\boldsymbol{W}} \in {\bf{R}^{p \times 2m}}$为学习参数; ${\rm{ Relu}}$为激活函数. 偏置项可以有效提高推荐算法的预测精度.

    在模型训练过程中, 选择均方根误差(Root mean square error, RMSE)损失函数进行优化, 定义如下:

    $$ Loss = \sqrt {\frac{1}{{|m|}}\sum\limits_{s = 1}^m {{{({{\hat y}_s} - {y_s})}^2}} } $$ (18)

    在上述优化目标中, ${\hat y_s}$和${y_s}$分别表示第$ s $个样本$({\boldsymbol{u}},{{y}},{\boldsymbol{v}})$中用户${\boldsymbol{u}}$对项目${\boldsymbol{v}}$的预测评分值和真实评分值. 在模型优化过程中, 选择随机梯度下降(Stochastic gradient descent, SGD)优化器对目标函数进行优化.

    本文在MovieLens数据集 1 MovieLens-latest-small (ML-L-S)和MovieLens-1M (ML-1M), 以及豆瓣数据集 2上验证方法的有效性. MovieLens数据集包含了用户和电影的属性信息, 以及用户对电影的评分. 豆瓣数据集包含了3022个用户对6971部电影的评分, 评分取值为1 ~ 5[41]. 在三组数据集上, 评分越高, 用户对该电影越满意. 实验数据集统计信息如表1所示. 实验过程中, 采用推荐系统中常用的平均绝对误差(Mean absolute error, MAE)和RMSE指标, 比较不同方法在三组数据集上的评分预测误差. 其中, MAE和RMSE值越小, 表明模型的性能越好.

    表 1  实验数据集统计信息
    Table 1  Statistical information of experimental datasets
    数据库用户数项目数交互数评分等级稀疏度(%)
    ML-L-S61097241008360.5 ~ 5.098.30
    ML-1M6040388310002091.0 ~ 5.095.74
    Douban302269711954931.0 ~ 5.099.07
    下载: 导出CSV 
    | 显示表格

    实验过程中, 将三组数据集分别按照8 : 1 : 1划分为训练集、验证集、测试集, 比较不同模型在评分预测推荐方面的性能.

    本文将提出的融合属性偏好和多阶交互信息的评分预测模型(IncorAttMOIntRec)与传统的推荐算法、基于深度学习的推荐算法和基于图神经网络的推荐算法等分别进行相应的比较. 几种对比算法简介如下.

    1) ItemKNN[7]. 通过计算$ k $个最近邻项与候选推荐项的相似度确定推荐的项目.

    2) UserKNN[8]. 利用$ k $个最近邻用户计算目标用户对候选项目的兴趣实现推荐.

    3) SVD++[11]. 基于用户的显式反馈和隐式反馈信息实现因子分解, 进行评分预测.

    4) BiasedMF[12]. 在用户和项目向量表示基础上, 融合隐式反馈信息进行矩阵分解.

    5) AFM[22]. 通过注意力网络分解机学习不同特征的交互重要性因子进行预测.

    6) Wide&Deep[23]. 融合了广义线性模型和深度神经网络来提升推荐系统的性能.

    7) NCF[26]. 一种基于神经网络的协同过滤框架, 通过建模用户和项目的特征表示进行推荐.

    8) ACCM[5]. 基于注意力机制融合内容推荐和协同过滤实现评分预测, 并通过冷采样技术有效解决了冷启动推荐问题.

    9) NGCF[24]. 一种图神经网络的协同过滤推荐, 通过考虑用户−项目交互图中的高阶邻居协同信息学习了用户和物品的特征表示.

    10) LightGCN[38]. 通过线性聚合用户−项目交互图的邻域节点信息来学习用户和项目的特征表示.

    11) AFN[42]. 通过构建一种自适应的因子网络来学习特征组合, 并调整不同阶的特征组合来提升推荐的性能.

    为了获得模型的最优性能, 实验过程中采用网格搜索法, 对IncorAttMOIntRec模型从$\{64, 128,$$256, 512\} $中寻找最佳嵌入维度, 从$\{32, 64, 128, 256\} $中寻找最佳属性注意力维度. 同时, 为了防止模型过拟合, dropout参数在$\{0.2, 0.3, 0.4, 0.5\} $范围中寻找, 验证集上使用了early stopping来停止训练, 通过存储最优模型来选择参数. 神经网络输出层采用Relu激活函数, 选择SGD对模型进行优化, 学习率设置为0.01. 实验过程中, 超参数$ \gamma $和$ \eta $通过经验值获取模型的最佳性能. 在ML-L-S数据集上, $\gamma = 0.1$, $\eta =-0.9$; 在ML-1M数据集上, $\gamma =0.7$, $\eta = -0.3$; 在Douban数据集上, $\gamma =0.8$, $\eta =-0.2$. 为了保证比较的公平性, 本文将NGCF和LightGCN的评分预测层使用多层感知机进行实验比较.

    本文在三组数据集上将提出的IncorAttMOIntRec模型与基准模型进行了MAE和RMSE比较, 实验结果如表2所示.

    表 2  不同方法在三组数据集上的MAE和RMSE结果
    Table 2  MAE and RMSE results of different methods on three datasets
    方法ML-L-S ML-1M Douban
    MAERMSEMAERMSEMAERMSE
    UserKNN0.875 21.278 4 0.771 00.969 3 0.649 40.825 6
    ItemKNN0.680 80.886 90.739 40.925 70.697 40.872 8
    BiasedMF0.676 90.882 40.684 50.872 40.577 50.728 4
    SVD++0.672 40.877 00.672 90.863 30.569 00.720 0
    NCF0.668 50.868 00.695 60.886 60.578 10.730 4
    AFM0.665 10.867 30.688 00.873 90.564 30.713 6
    Wide&Deep0.674 20.875 40.686 30.873 50.565 40.714 1
    ACCM0.662 80.865 70.673 40.856 60.578 90.730 1
    NGCF0.664 70.866 40.682 10.869 00.576 80.727 1
    LightGCN0.662 60.861 10.675 90.857 80.570 90.721 3
    AFN0.657 90.852 50.678 00.860 40.565 50.715 2
    IncorAtt-
    MOIntRec
    0.645 1*0.837 2*0.659 4**0.843 3**0.558 30.708 0
    注: 加粗字体表示各列最优结果; 下划线字体表示各列次优结果. “*”表示p值小于0.05; “**”表示p值小于0.01.
    下载: 导出CSV 
    | 显示表格

    通过对表2分析, 可以得到如下结论:

    1)本文IncorAttMOIntRec模型在三组数据集上的实验结果都优于其他模型. 在ML-L-S数据集上, IncorAttMOIntRec模型的MAE、RMSE相比图神经网络的NGCF和LightGCN模型提升了0.019 6、0.029 2和0.017 5、0.023 9; 在ML-1M数据集上, 分别提升了0.022 7、0.025 7和0.016 5、0.014 5; 在Douban数据集上, 则提升了0.018 5、0.019 1和0.012 6、0.013 3. 同时, IncorAttMOIntRec模型与其他基准方法相比, 其MAE和RMSE都有相应的提升, 三组数据集上分别至少提升0.012 8、0.015 3, 0.013 5、0.013 3和0.006 0、0.005 6. 这些结果表明, IncorAttMOIntRec方法在融合了评分标签的属性偏好特征, 聚合了用户−项目交互图中的高阶交互信息, 以及引入节点的异质类型信息后, 能够更好地学习节点的语义特征表示, 有效提升评分预测的准确性.

    2)传统的协同过滤推荐方法和NCF模型仅仅考虑了用户和项目的交互特征, 在三组数据集上的MAE和RMSE结果并不理想; 而结合了属性信息的神经网络模型, 如AFM和Wide&Deep等方法, 其评分预测误差多数情况下要低于传统的方法. 这说明了用户和项目的属性信息有助于捕获用户和项目的语义特征, 能够提升嵌入表示的质量, 提高模型的预测性能.

    3)从表2中可以看到, 相比于传统的方法, NGCF、LightGCN等图神经网络和AFM、AFN等因子分解网络推荐方法, 多数情况下也具有一定的优势. 这是由于图神经网络和因子分解网络聚合了邻居节点的高阶信息, 组合了多阶的特征信息, 有效捕获了用户和项目的潜在语义, 其评分预测的性能一定程度上要优于传统的协同过滤和神经网络方法.

    4)融合了内容推荐和协同交互信息的方法, 如ACCM和IncorAttMOIntRec, 同时关注了节点的属性信息和交互行为信息, 在多数情况下比仅考虑单一因素的模型, 其评分预测的准确性更高, 表明了同时融合属性信息以及交互行为信息能够更好地学习用户和项目的嵌入表示, 提升评分预测的精度.

    少量交互数据的稀疏性推荐是评分预测中具有挑战性的问题. 在协同过滤推荐算法中, 用户−项目交互矩阵的稀疏性直接影响到用户和项目的特征表示学习, 影响推荐结果的准确性. 对于新用户或者新项目而言, 我们可以根据已有用户集或项目集的交互记录, 学习属性特征在评分标签中的偏好权重. 通过融合节点的属性偏好信息, 可以提升推荐的性能, 有效缓解稀疏性推荐问题. 为了观察IncorAttMOIntRec模型在稀疏数据场景下的表现, 本文将随机遮挡用户−项目交互评分矩阵中的部分评分标签, 通过设置不同的数据丢弃比例(Drop ratio), 在MAE和RMSE指标上对比本方法与其他几种方法的模型性能. 实验结果如图3 ~ 8所示.

    图 3  几种方法在ML-L-S数据集上不同稀疏性的MAE结果
    Fig. 3  MAE results of different methods on ML-L-S dataset with different sparsities
    图 4  几种方法在ML-L-S数据集上不同稀疏性的RMSE结果
    Fig. 4  RMSE results of different methods on ML-L-S dataset with different sparsities
    图 5  几种方法在ML-1M数据集上不同稀疏性的MAE结果
    Fig. 5  MAE results of different methods on ML-1M dataset with different sparsities
    图 6  几种方法在ML-1M数据集上不同稀疏性的RMSE结果
    Fig. 6  RMSE results of different methods on ML-1M dataset with different sparsities
    图 7  几种方法在Douban数据集上不同稀疏性的MAE结果
    Fig. 7  MAE results of different methods on Douban dataset with different sparsities
    图 8  几种方法在Douban数据集上不同稀疏性的RMSE结果
    Fig. 8  RMSE results of different methods on Douban dataset with different sparsities

    图3 ~ 8中可以看出:

    1)随着随机遮挡评分数据比例的提高, 即数据稀疏性的增加, 几种方法的MAE和RMSE值都呈上升趋势, 评分预测误差逐渐变大, 推荐算法的准确性逐渐降低, 表明了高的稀疏性明显影响了用户和项目嵌入表示的质量. 这是由于较高的稀疏性使得用户−项目交互过程中的可用信息变少, 学习到的用户和项目语义表示质量下降, 评分预测的精准性降低.

    2)相比于其他五种方法, IncorAttMOIntRec模型在不同的数据稀疏性条件下, 能够表现出比其他方法较好的评分预测性能. 在数据稀疏环境下, 用户−项目交互记录的部分缺失损失了一些有用信息, 而IncorAttMOIntRec模型融入了静态属性关联的先验评分标签信息, 能够更好地学习用户和项目的表示; 在交互特征表示模块, 融入了评分标签信息用来度量用户的评分行为偏好程度, 学习的用户和项目嵌入质量更高, 一定程度上提升了用户和项目语义表示能力, 缓解了因数据稀疏性问题带来的直接影响. 其他神经网络方法, 在面对高的数据稀疏环境下受到的影响相对较大, 如Wide&Deep、ACCM、AFN忽略了属性特征的评分标签偏好信息, LightGCN则主要依赖于用户−项目评分矩阵的交互信息.

    4.5.1   嵌入维度

    嵌入维度是影响推荐模型性能的主要因素之一. 维度较小时, 模型用来学习的参数较少, 不易拟合训练数据; 维度较大时, 可能导致模型过拟合, 使模型效果下降. 因此, 本文选择在 {64, 128, 256, 512} 维度上对模型嵌入维度的设置进行搜索, 实验结果如表3所示.

    表 3  IncorAttMOIntRec方法在不同嵌入维度下的MAE和RMSE结果
    Table 3  MAE and RMSE results for IncorAttMOIntRec method with different embedding dimension sizes
    嵌入维度ML-L-S ML-1M Douban
    MAERMSEMAERMSEMAERMSE
    640.650 30.847 9 0.662 20.849 7 0.558 30.708 0
    1280.645 10.837 20.659 50.844 60.563 70.711 7
    2560.648 80.844 00.659 40.843 30.568 50.717 2
    5120.651 60.849 30.662 60.845 70.576 60.723 1
    注: 加粗字体表示各列最优结果.
    下载: 导出CSV 
    | 显示表格

    可以看到, 在ML-L-S数据集上维度为128时的MAE和RMSE效果最好, 而ML-1M数据集上维度为256时的性能最好, Douban数据集上维度为64时则性能最优. 实验过程中, IncorAttMOIntRec模型在ML-L-S, ML-1M和Douban数据集上的嵌入维度分别设置为128, 256和64.

    4.5.2   注意力维度

    注意力维度同样对模型预测的精度产生影响, 本文选择在 {32, 64, 128, 256} 维度上对模型注意力维度的设置进行搜索. 表4展示了三组数据集上不同的注意力维度对模型结果的影响. 从表4中可以看到, 本文方法在ML-L-S和Douban数据集上注意力维度设置为64时效果最好, 在ML-1M数据集上维度为128时的效果较好. 当注意力维度设置过大时, 模型的效果会相对变差, 这是由于维度过大容易导致模型过拟合, 无法充分捕获用户和项目节点的属性评分关联信息, 学习的语义特征表示效果变差. 因此, 实验过程中, IncorAttMOIntRec模型在ML-L-S, ML-1M和Douban数据集上的注意力维度分别设置为64, 128和64.

    表 4  IncorAttMOIntRec方法在不同注意力维度下的MAE和RMSE结果
    Table 4  MAE and RMSE results for IncorAttMOIntRec method with different attention dimension sizes
    注意力维度ML-L-S ML-1M Douban
    MAERMSEMAERMSEMAERMSE
    320.653 20.848 7 0.666 20.847 5 0.566 20.714 7
    640.645 10.837 20.657 10.846 30.558 30.708 0
    1280.648 60.842 40.659 40.843 30.566 90.718 6
    2560.650 20.846 10.659 20.845 90.573 10.722 6
    注: 加粗字体表示各列最优结果.
    下载: 导出CSV 
    | 显示表格

    在IncorAttMOIntRec模型中, 评分标签(Rating-tag)、交互信息(Interaction)、属性偏好特征(Att-preference)、多阶交互信息(Multi-order interaction)、多层感知器输出(MLP-outputlayer)都对模型中节点的嵌入表示质量以及评分预测精度具有影响. 为了验证上述因素的作用, 在IncorAttMOIntRec模型中去除任一因素后与原模型进行MAE和RMSE对比. 表5展示了三组数据集上的实验对比结果.

    表 5  三组数据集上的IncorAttMOIntRec方法消融研究
    Table 5  Ablation study of IncorAttMOIntRec method on three datasets
    变体模型ML-L-S ML-1MDouban
    MAERMSEMAERMSEMAERMSE
    去掉Rating-tag0.653 80.854 70.667 90.847 70.568 30.713 4
    去掉Multi-order
    interaction
    0.688 40.890 10.680 20.866 70.574 60.722 8
    去掉Att-preference0.656 20.854 90.668 90.848 60.569 50.717 6
    去掉Interaction0.700 70.908 70.738 10.924 50.580 30.731 9
    去掉MLP-
    outputlayer
    0.667 50.873 60.710 50.896 20.568 40.713 7
    IncorAttMOIntRec0.645 10.837 20.659 40.843 30.558 30.708 0
    注: 加粗字体表示各列最优结果.
    下载: 导出CSV 
    | 显示表格

    从表中结果可以看出: 1)去掉了评分标签、交互信息、属性偏好特征、多阶交互信息、多层感知器输出每个因素后, 模型的性能都有所降低, 表明了任意一种因素都对用户和项目的语义特征表示具有提升作用. 2)多阶交互信息因素对模型的影响相对较大, 去掉该因素后, MAE 和 RMSE分别下降了0.043 3、0.052 9, 0.020 8、0.023 4和0.016 3、0.014 8, 这些结果表明了多阶交互信息在用户和项目特征学习中起主要作用, 能够有效提升特征表示的学习质量. 3)在去掉评分标签嵌入后, 三组数据集上的MAE和RMSE分别下降了0.008 7、0.017 5, 0.008 5, 0.004 4和0.010 0, 0.005 4, 表明了先验的评分标签信息可以提升用户和项目的嵌入质量, 进而提高评分预测的精度. 4)与单一因素比较, 去掉属性偏好特征或者交互信息后对模型的影响较大. 去掉交互信息模块后, 三组数据集上的MAE和RMSE分别下降了0.055 6、0.071 5, 0.078 7、0.081 2和0.022 0, 0.023 9; 去掉属性偏好特征模块后, 模型的性能分别下降了0.011 1、0.017 7, 0.009 5、0.005 3和0.011 2, 0.009 6. 这表明了IncorAttMOIntRec方法融合了属性偏好特征和交互信息后, 对于用户和项目的语义表示质量具有显著的提升作用, 提高了评分预测的精度. 5)多层感知器输出与单层神经网络相比, 能够更好地解耦用户和项目的嵌入表示, 对于评分预测的效果更好. 在使用了单层神经网络输出后, 三组数据集上的MAE和RMSE分别下降了0.022 4、0.0364, 0.051 1、0.052 9和0.010 1, 0.005 7.

    在建模属性偏好特征表示过程中, 通过属性的注意力权重可以反映用户对项目评分的影响. 基于用户和项目的属性特征, 图9给出了用户和项目评分预测的可解释案例. 在图9中, 用户−属性、项目−属性之间的连边权重表示了属性在评分偏好中起到的作用. 图中用户“2029”对电影“Diner”的预测分数是2.67, 真实分数为3. 可以看到, 从用户“2029”到电影“Diner”的最短可解释路径有“U2029→Grad student→U2074→Diner”, “U2029→Youth→U2074→Diner”和“U2029→Solaris→Drama→Diner”. 三条路径的解释权值为: $0.333\;3\times0.333\;2\times2 = 0.222\;1,$$0.333\;2\times0.333\;1\times 2 = 0.222\;0,\; 4\times0.331\;4\times0.653\;2 = $$ 0.865\;9 $, 权值的大小反映了路径的推荐解释能力. 因此, 我们通过权值较大的0.865 9选择路径3作为推荐的理由, 即“您观看过Drama类型电影Solaris, 您可能还喜欢Drama类电影Diner”.

    图 9  用户和电影的评分预测可解释案例
    Fig. 9  Explainable example of rating prediction for users and movies

    用户和项目具有不同的属性描述, 其异质类型特点可以区分用户和项目的语义表示. 实验过程中, 我们在三组数据集上对异质类型语义矩阵变换前和变换后的用户和电影节点嵌入进行了可视化, 结果如图10 ~ 15所示.

    图 10  ML-1M数据集上的用户和电影节点嵌入表示(转换前)
    Fig. 10  The embedding representation of user and movie nodes on ML-1M dataset (before transformation)
    图 11  ML-1M数据集上的用户和电影节点嵌入表示(转换后)
    Fig. 11  The embedding representation of user and movie nodes on ML-1M dataset (after transformation)
    图 12  ML-L-S数据集上的用户和电影节点嵌入表示(转换前)
    Fig. 12  The embedding representation of user and movie nodes on ML-L-S dataset (before transformation)
    图 13  ML-L-S数据集上的用户和电影节点嵌入表示(转换后)
    Fig. 13  The embedding representation of user and movie nodes on ML-L-S dataset (after transformation)
    图 14  Douban数据集上的用户和电影节点嵌入表示(转换前)
    Fig. 14  The embedding representation of user and movie nodes on Douban dataset (before transformation)
    图 15  Douban数据集上的用户和电影节点嵌入表示(转换后)
    Fig. 15  The embedding representation of user and movie nodes on Douban dataset (after transformation)

    图10表示了ML-1M数据集上没有经过异质类型语义矩阵投影前的用户和电影是难以进行语义区分的, 而经过异质类型语义矩阵特征转换后, 图11中的用户节点和电影节点被明显分成了两类. 对于ML-L-S和Douban数据集, 图12图14中的部分用户节点难以与电影进行语义区分, 而经过异质类型语义矩阵转换后, 图13图15的用户和电影节点的语义则被明显区分开来. 这些结论表明模型考虑了节点的异质类型信息之后, 能够捕获丰富的语义, 有助于提升评分预测的性能.

    针对少量交互数据的稀疏性推荐问题, 本文考虑了属性信息和评分交互信息在节点语义表示中的作用, 提出了融合属性偏好和多阶交互信息的可解释评分预测方法. 首先, 分析了属性信息与评分标签的关系, 基于注意力机制建模了用户与项目的属性偏好特征表示; 其次, 聚合了用户−项目交互矩阵中的节点自身、交互邻居和评分标签信息, 学习了用户与项目的多阶交互行为特征嵌入; 最后, 考虑到用户与项目的异质类型信息, 学习了类型信息空间下的节点语义嵌入, 通过多层感知机预测了用户对项目的评分, 在MovieLens和Douban数据集上进行了有效性验证. 实验结果表明, 本文提出的模型在MAE和RMSE指标上比传统方法均有一定的改善. 在未来研究中, 将区分多种类型交互行为(如用户对商品的评价、点击、购买等行为)在用户−项目语义表示中的作用, 研究不同交互行为在评分预测过程中的注意力贡献, 学习用户和项目的嵌入表示, 进一步提升推荐系统的精度和可解释性.

  • 图  1  细节点分布示意图

    Fig.  1  Minutiae point distribution diagram

    图  2  算法的基本流程

    Fig.  2  Basic flow of the algorithm

    图  3  有效细节点集的选取

    Fig.  3  Selection of effective minutiae point set

    图  4  细节点投影过程

    Fig.  4  Minutiae point projection process

    图  5  异或操作的基本流程

    Fig.  5  Basic flow of XOR operation

    图  6  指纹特征串的行间异或

    Fig.  6  Inter-row XOR process of feature strings

    图  7  比特串的随机索引置乱

    Fig.  7  Random index scrambling of feature strings

    图  8  本文算法与SCFT算法的ROC曲线对比图

    Fig.  8  ROC curves of SCFT and proposed algorithms

    图  9  密钥泄露时改进前的真假匹配分布

    Fig.  9  Genuine and imposter distributions before improvement in the stolen-key scenario

    图  10  密钥泄露时改进后的真假匹配分布

    Fig.  10  Genuine and imposter distributions after improvement in the stolen-key scenario

    图  11  密钥泄露时真假匹配分布

    Fig.  11  Genuine and imposter distributions in the stolen-key scenario

    图  12  伪假匹配分布

    Fig.  12  Pseudo-imposter match distribution

    表  1  数据库FVC2002 DB1、DB2和DB3的参数

    Table  1  Parameters of the FVC2002 DB1, DB2 and DB3

    指纹数据库DB1DB2DB3
    传感器类型光纤光纤电容
    手指数量$100$$100$$100$
    每枚手指样本个数$8$$8$$8$
    分辨率 (dpi)$500$$569$$500$
    图像尺寸$388\times374$$296\times560$$300\times300$
    图像质量
    下载: 导出CSV

    表  2  不同参数的取值范围

    Table  2  Range of different parameters

    参数参数描述参数范围
    $r_{\rm{\min}}$环形区域最小半径$\{ 15,16,17 \}$
    $r_{\rm{\max}}$环形区域最大半径$\{ 100,240 \}$
    $G_{x}$二维网格的长$\{13, 14,15, 16 \}$
    $G_{y}$二维网格的宽$\{ 7,14 \}$
    $\rho_{1,2}$投影直线斜率$[-2,4]$
    $w$步长$[2,4]$
    下载: 导出CSV

    表  3  密钥泄露时不同参数的EER (%)

    Table  3  EER of different parameters (%)

    $r_{\rm{\min}}$$r_{\rm{\max}}$$G_{x}$$G_{y}$$\rho_{1}$$\rho_{2}$$w$DB1DB2
    $16$100$13$$7$$0.577$$-1.73$$2$$0.25$$2.02$
    $16$110$14$$8$$0.839$$-1$$2$$0.17$$1.67$
    $16$120$14$$9$$1$$-0.84$$2$$0.22$$1.82$
    ${\bf 16}$${\bf 140}$${\bf 14}$${\bf 9}$${\bf 1.192}$${\bf -0.58}$${\bf 3}$${\bf 0.08}$${\bf 0.75}$
    $16$160$14$$9$$1.192$$-0.58$$4$$0.12$$1.46$
    $16$180$14$$9$$1.192$$-0.36$$4$$0.15$$1.66$
    $16$200$14$$10$$1.732$$-0.26$$4$$0.42$$2.30$
    $16$220$15$$12$$2.144$$-0.18$$4$$1.12$$3.11$
    $16$240$16$$14$$2.747$$-0.14$$4$$0.68$$1.81$
    $16$260$17$$15$$3.732$$-0.09$$4$$0.98$$2.64$
    下载: 导出CSV

    表  4  SCFT算法和本文算法的EER比较(%)

    Table  4  EER comparison between the SCFT algorithms and proposed algorithms (%)

    算法密钥安全密钥泄露
    DB1DB2DB3DB1DB2DB3
    SCFT 算法5.1216.99
    本文算法0000.080.753.26
    下载: 导出CSV

    表  5  不同算法的EER比较(%)

    Table  5  EER comparison of different algorithms (%)

    算法DB1DB2DB3
    Ahmad 等[22]96$27$
    Yang 等[23]5.934
    Jin 等[24]4.361.77
    Wang 等[25]3.557.5
    Das 等[26]2.273.79
    Ali 等[27]2.13.1
    Prasad 等[21]1.621.332.64
    惠妍等[28]0.17170.0606
    本文算法0.080.753.26
    下载: 导出CSV

    表  6  依次增加不同改进算法的EER (%)

    Table  6  EER of add different improved algorithms (%)

    算法DB1DB2
    密钥安全密钥泄露密钥安全密钥泄露
    改进前算法03.2602.915
    随机异或01.0501.58
    行间异或00.4401.24
    随机索引置乱00.0800.75
    下载: 导出CSV
  • [1] Nagar A. Biometric template security. Eurasip Journal on Advances in Signal Processing, 2008, 2008(1): 1−17
    [2] Yue F, Zuo W M, Zhang D P. Survey of palmprint recognition algorithms. Acta Automatica Sinica, 2010, 36(3): 353−365 doi: 10.3724/SP.J.1004.2010.00353
    [3] Jin Z, Teoh A B J, Ong T S, Tee C. Fingerprint template protection with minutiae-based bit-string for security and privacy preserving. Expert Systems with Applications, 2012, 39(6): 6157−6167 doi: 10.1016/j.eswa.2011.11.091
    [4] Juels A, Wattenberg M. A fuzzy commitment scheme. In: Proceedings of the 6th ACM Conference on Computer and Communications Security, New York, USA: ACM Press, 1999. 28−36
    [5] Dodis Y, Reyzin L, Smith A. Fuzzy extractors: How to generate strong keys from biometrics and other noisy data. In: Proceedings of the 2004 International Conference Theory and Applications of Cryptographic Technique, Berlin, Heidelberg, Germany: Springer, 2004. 523−540
    [6] Juels A, Sudan M. A fuzzy vault scheme. Designs Codes and Cryptography, 2006, 38(2): 237−257 doi: 10.1007/s10623-005-6343-z
    [7] Ratha N K, Connell J H, Bolle R M. Enhancing security and privacy in biometrics-based authentication systems. IBM Systems Journal, 2001, 40(3): 614−634 doi: 10.1147/sj.403.0614
    [8] Ratha N K, Chikkerur S, Connell J H, Bolle R M. Generating cancelable fingerprint templates. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(4): 561−572 doi: 10.1109/TPAMI.2007.1004
    [9] Tulyakov S, Farooq F, Mansukhani P, Govindaraju V. Symmetric hash functions for secure fingerprint biometric systems. Pattern Recognition Letters, 2007, 28(16): 2427−2436 doi: 10.1016/j.patrec.2007.08.008
    [10] Lee C, Kim J. Cancelable fingerprint templates using minutiae-based bit-strings. Journal of Network and Computer Applications, 2010, 33(3): 236−246
    [11] Ahmad T, Hu J K. Generating cancelable biometric templates using a projection line. In: Proceedings of the 11th IEEE International Conference on Control Automation Robotics and Vision, Singapore: IEEE 2011. 7−12
    [12] Li S, Kot A C. Fingerprint combination for privacy protection. IEEE Transactions on Information Forensics and Security, 2013, 8(2): 350−360
    [13] Sandhya M, Prasad M V N K. K-nearest neighborhood structure (k-NNS) based alignment-free method for fingerprint template protection. In: Proceedings of the 2015 IEEE International Conference on Biometrics, Phuket, Thailand: IEEE, 2015. 386−393
    [14] Wang S, Hu J K. A blind system identification approach to cancelable fingerprint templates. Pattern Recognition, 2016, 54(1): 14−22
    [15] 许秋旺, 张雪锋. 基于细节点邻域信息的可撤销指纹模板生成算法. 自动化学报, 2017, 43(4): 645−652

    Xu Qiu-Wang, Zhang Xue-Feng. Generating cancelable fingerprint templates using minutiae local information. Acta Automatica Sinica, 2017, 43(4): 645−652
    [16] Ahmad T, Rasyid B. SCFT: Sector-based cancelable fingeprint template. In: Proceedings of the 2017 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC), 2017. 156−160
    [17] Alam B, Jin Z, Yap W S, Goi B M. An alignment-free cancelable fingerprint template for bio-cryptosystems. Journal of Network and Computer Applications, 2018, 115: 20−32
    [18] Wang S, Yang W C, Hu J K. Design of alignment-free cancelable fingerprint templates with zoned minutia pairs. Pattern Recognition, 2017, 66: 295−301 doi: 10.1016/j.patcog.2017.01.019
    [19] Pambudi D S, Ahmad T, Usagawa T. Improving the performance of projection-based cancelable fingerprint template method. In: Proceedings of the 7th IEEE International Conference on Soft Computing and Pattern Recognition, Fukuoka, Japan: IEEE, 2016. 84−88
    [20] Ahmad T, Hu J K. Generating cancelable biometric templates using a projection line. In: Proceedings of the 11th IEEE International Conference on Control Automation Robotics and Vision, Singapore: IEEE, 2010. 7−12
    [21] Prasad M V N K, Kumar C S. Fingerprint template protection using multiline neighboring relation. Expert Systems with Applications, 2014, 41(14): 6114−6122 doi: 10.1016/j.eswa.2014.04.020
    [22] Ahmad T, Hu J K, Wang S. Pair-polar coordinate-based cancelable fingerprint templates. Pattern Recognition, 2011, 44(10): 2555−2564
    [23] Yang W C, Hu J K, Wang S, Yang J C. Cancelable fingerprint templates with delaunay triangle-based local structures. Cyberspace Safety and Security and Lecture Notes in Computer Science, 2013, 8300: 81−91
    [24] Jin Z, Lim M H, Teoh A B J, Goi B M. A non-invertible randomized graph-based Hamming embedding for generating cancelable fingerprint template. Pattern Recognition Letters, 2014, 42(6): 137−147
    [25] Wang S, Hu J K. Alignment-free cancelable fingerprint template design: A densely infinite-to-one mapping (DITOM) approach. Pattern Recognition, 2012, 45(12): 4219−4137
    [26] Das P, Karthik K, Garai B C. A robust alignment-free fingerprint hashing algorithm based on minimum distance graphs. Pattern Recognition, 2012, 45(9): 3373−3388 doi: 10.1016/j.patcog.2012.02.022
    [27] Ali S, Ganapathi I I, Prakash S. Robust technique for fingerprint template protection. IET Biometrics, 2018, 7(6): 536−549 doi: 10.1016/j.jnca.2018.04.013
    [28] 惠妍, 张雪锋. 基于局部细节点三维映射的指纹模板生成方法. 中国科学: 信息科学, 2019, 49(1): 42−56

    Hui Yan, Zhang Xue-Feng. A fingerprint template generating method based on local minutiae three-dimensional mapping. Scientia Sinica Informationis, 2019, 49(1): 42−56
  • 期刊类型引用(2)

    1. 熊爱明,李明倩,刘芳. 基于混沌映射的数据库信息隐私加密储存算法. 吉林大学学报(信息科学版). 2023(03): 459-464 . 百度学术
    2. 杨裴裴,朱齐亮. 网络链路传输层数据分组加密算法仿真. 计算机仿真. 2023(10): 390-393+467 . 百度学术

    其他类型引用(2)

  • 加载中
图(12) / 表(6)
计量
  • 文章访问数:  942
  • HTML全文浏览量:  198
  • PDF下载量:  101
  • 被引次数: 4
出版历程
  • 收稿日期:  2019-01-04
  • 录用日期:  2019-09-02
  • 网络出版日期:  2020-12-29
  • 刊出日期:  2020-12-29

目录

/

返回文章
返回