论文笔记(Neural Graph Collaborative Filtering)

神经图协同过滤

论文链接:Neural Graph Collaborative Filtering, SIGIR’19
原理:在 user-item interaction graph 上使用 GNN 来学习 user 向量和item 向量,用户向量和项向量的内积来预测评分。
区别:

  1. 大部分论文使用 GNN 只是学习 user 向量,这篇论文的 item 向量也是使用GNN学习的
  2. 大部分论文是在知识图谱KG或者社交网络Social Network上使用GNN,这篇论文是在用户-项交互二部图上使用GNN

1. 摘要

学习 users 和 items 的向量表示是现代推荐系统的核心。
从早期的矩阵分解到最近出现的基于深度学习的方法,现有的工作通常通过从描述用户(或项目)的现有特性(如ID和属性)映射来获得用户(或项目)的嵌入。
我们认为,这种方法的一个固有缺点是,隐藏在用户-项目交互中的协作信号没有在嵌入过程中编码。因此,由此产生的嵌入可能不足以捕获协作过滤效果。
在这项工作中,我们建议将用户-项目交互更具体地集成到嵌入过程中二部图结构。提出了一种新的推荐框架神经图协同过滤算法(NGCF),该算法利用用户项图的结构,在用户项图上传播嵌入。这就导致了用户项图中高阶连通性的表达建模,有效地将协作信号显式地注入到嵌入过程中。

2. 模型架构

(1)嵌入层:提供用户嵌入和项嵌入初始化;
(2)多嵌入传播层:通过注入高阶连通性关系来细化嵌入;
(3)预测层:整合来自不同传播层的细化嵌入,输出用户-项目对的亲和度得分。
在这里插入图片描述

2.1 Embedding Layer

用嵌入向量 eu∈Rd (ei∈Rd) 来描述用户 u (项目 i ),其中 d 表示嵌入大小。(ID嵌入)
E = [eu1,···,euN, ei1,···,eiM]

2.2 Embedding Propagation Layers

构建GNNs的消息传递体系结构,以便沿着图结构捕获CF信号并细化用户和项的嵌入。
在这里插入图片描述

2.2.1 First-order Propagation

直观上,与用户交互过的项目可以体现用户的偏好,类似的,与项交互过的用户也可以看作是项的特性,并且可以用于度量两个项目之间的协作相似性。

Message Construction

对于一个连接的 user-item 对,我们定义从 i 到 u 的信息嵌入 mu←i为:
在这里插入图片描述
W1,W2∈Rd’×d为可训练权矩阵,提取有用信息进行传播,d '为转换大小。
Nu,Ni 表示用户 u 和项目 i 的第一跳邻居,
括号前面的是系数是拉普拉斯标准化,从表示学习的角度,反映了历史项目对用户偏好的贡献程度。从消息传递的角度来看,可以解释为折扣因子,因为所传播的消息应该随着路径长度而衰减。
在考虑信息嵌入时,不是只考虑了项目的影响,而且将 ei 和 eu 之间的相互作用额外编码到通过 ei⊙eu 传递的消息中。这使得消息依赖于 ei 和 eu 之间的亲和力,例如,从相似的项传递更多的消息。

Message Aggregation

在此阶段,我们整合从 u 的邻域传播的消息,以改进 u 的表示:
在这里插入图片描述
e(1)u 是用户 u 在一阶嵌入传播层获得的表示
除了从邻居 Nu 传播的消息外,还考虑了 u 的自连接:mu←u = W1eu,保留了原始特征的信息。
类似地,我们可以通过从其连接的用户传播信息来获得项目 i 的表示形式 e(1)i

2.2.2 High-order Propagation

通过堆叠 l 嵌入传播层,用户(和项)能够接收从其 l-hop 邻居传播的消息。在第 l 步中,用户 u 的表示递归式为:
在这里插入图片描述在这里插入图片描述

Propagation Rule in Matrix Form

为了提供嵌入传播的整体视图,方便批量实现,提供了分层传播规则的矩阵形式:
在这里插入图片描述
E(l) ∈ R(N+M)×dl 是用户和项经过 l 步嵌入传播后得到的表示
I 表示一个单位矩阵
L 表示用户-项目图的拉普拉斯矩阵:
在这里插入图片描述
R ∈ RN×M 为用户-项目交互矩阵
0 为全 0 矩阵;
A 为邻接矩阵,D 为对角度矩阵,其中第 t 个对角元素 Dtt = |Nt |,这样 Lui 就等于之前的系数 pui

2.3 Model Prediction

由于在不同层中获得的表示强调通过不同连接传递的消息,所以它们在反映用户偏好方面有不同的贡献。
因此,将它们串联起来,构成用户的最终嵌入;对 item 也做同样的操作。
在这里插入图片描述
其中||为串联操作。除了连接,其他聚合器也可以应用,如加权平均、最大池、LSTM。使用串联在于它的简单性,不需要学习额外的参数,而且已经被非常有效地证明了。
最后,我们进行内积来估计用户对目标物品的偏好:
在这里插入图片描述

2.4 Optimization

optimize the pairwise BPR loss
它考虑观察到的和未观察到的用户-项目交互之间的相对顺序。具体地说,BPR 假设用户引用的已观察到的交互作用应该比未观察到的交互作用具有更高的预测值。目标函数如下:
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/480093.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

论文浅尝 | 基于知识库的自然语言理解 02#

本文转载自公众号:知识工场。罗康琦,上海交通大学计算机系2019届博士,研究方向为自然语义理解和知识图谱。2012年获得华中科技大学软件工程学士学位,现就职于京东数据科学实验室(Data Science Lab)。他曾在…

工业解密:百度地图背后的路线时长预估模型!

星标/置顶小屋,带你解锁最萌最前沿的NLP、搜索与推荐技术编 | YY无论你是苦逼学生(公交地铁狗)、职场萌新(打车狗)还是有钱大佬(有车一族),只要站在了北上广深的土地上,就…

动态规划应用--“杨辉三角”最短路径 LeetCode 120

文章目录1. 问题描述2. DP算法代码3. LeetCode 120 三角形最小路径和1. 问题描述 对“杨辉三角"进行一些改造。每个位置的数字可以随意填写,经过某个数字只能到达下面一层相邻的两个数字。 假设你站在第一层,往下移动,我们把移动到最底…

Java多线程系列(九):CountDownLatch、Semaphore等4大并发工具类详解

之前谈过高并发编程系列:4种常用Java线程锁的特点,性能比较、使用场景 ,以及高并发编程系列:ConcurrentHashMap的实现原理(JDK1.7和JDK1.8) 今天主要介绍concurrent包的内容以及4大并发工具类。 Java并发工具包 1.并发工具类 …

快手 算法工程师 0825 笔试题

4 求解一元一次方程的解 #include <cstdio> #include <iostream> #include <string.h> #include <cstring> #include <algorithm> using namespace std; int x0,n0,xr0,nr0; int flag 0; void Adds(string a,char op) { if(flag0) {if(a…

论文笔记(Neural Collaborative Filtering)

神经协同过滤 论文链接&#xff1a;Neural Collaborative Filtering, WWW’17 原理&#xff1a;融合 GMF 和 MLP 1. 摘要 虽然最近的一些研究使用深度学习作为推荐&#xff0c;但他们主要是用深度学习来建模辅助信息&#xff0c;例如 item 的文本描述。在表示协同过滤的关键…

玩转算法第七章-二叉树与递归

二叉树与递归 二叉树的前序遍历 leetcode 104 将两个递归函数映射到max函数中去 思考题&#xff1a;leetcode 111 leetcode&#xff1a;226 扩展题&#xff1a;leetcode 100 leetcode&#xff1a;101 第一个是&#xff0c;第二个不是 leetcode 222&#xff1a; leet…

POJ 2965 开冰箱的门(回溯)

文章目录1. 题目1.1 题目链接1.2 题目大意1.3 解题思路2. 代码2.1 Accepted代码1. 题目 1.1 题目链接 http://poj.org/problem?id2965 1.2 题目大意 有一个4*4的符号矩阵&#xff08;和-&#xff09;&#xff0c;改变一个元素的符号&#xff0c;它所在的行和列的其他元素也…

论文浅尝 | 基于知识库的自然语言理解 03#

本文转载自公众号: 知识工场。罗康琦&#xff0c;上海交通大学计算机系2019届博士&#xff0c;研究方向为自然语义理解和知识图谱。2012年获得华中科技大学软件工程学士学位&#xff0c;现就职于京东数据科学实验室&#xff08;Data Science Lab&#xff09;。他曾在AAAI&#…

Java多线程系列(七):并发容器的原理,7大并发容器详解、及使用场景

之前谈过高并发编程系列&#xff1a; 高并发编程系列&#xff1a;4种常用Java线程锁的特点&#xff0c;性能比较、使用场景 高并发编程系列&#xff1a;CountDownLatch、Semaphore等4大并发工具类详解 高并发编程系列&#xff1a;4大JVM性能分析工具详解&#xff0c;及内存…

MSRA提出通用文档预训练模型LayoutLM,通往文档智能之路!

星标/置顶小屋&#xff0c;带你解锁最萌最前沿的NLP、搜索与推荐技术随着数字化进程的加快&#xff0c;文档、图像等载体的结构化分析和内容提取成为关乎企业数字化转型成败的关键一环&#xff0c;自动、精准、快速的信息处理对于生产力的提升至关重要。以商业文档为例&#xf…

tensorflow--GPU

一、查看 tensorflow 是否使用了GPU进行计算 import tensorflow as tf sess tf.Session(configtf.ConfigProto(log_device_placementTrue)) 运行程序&#xff0c;日志若包含 gpu 信息&#xff0c;则使用了 gpu。 二、使用指定GPU 方式一&#xff1a;代码&#xff1a; imp…

玩转算法之面试 第八章-递归与回溯

树形问题 leetcode&#xff1a;17 1 字符串的合法性 &#xff08;是否包括1&#xff0c;*和#号键&#xff09; 2 空字符串 3 多个解的顺序 部分源代码如下&#xff1a; 在这里插入代码片 #include<cstring>using namespace std;private:const string letterMap[1…

动态规划理论学习

文章目录1. 理论总结1.1 “一个模型”1.2 “三个特征”1.2.1 最优子结构1.2.2 无后效性1.2.3 重复子问题2. 实例剖析2.1 问题描述2.2 两种DP解题思路2.2.1 状态转移表2.2.2 状态转移方程3. 四种算法思想比较1. 理论总结 动态规划理论总结为“一个模型、三个特征”。 1.1 “一…

Java多线程系列(四):4种常用Java线程锁的特点,性能比较、使用场景

多线程的缘由 在出现了进程之后&#xff0c;操作系统的性能得到了大大的提升。虽然进程的出现解决了操作系统的并发问题&#xff0c;但是人们仍然不满足&#xff0c;人们逐渐对实时性有了要求。 使用多线程的理由之一是和进程相比&#xff0c;它是一种非常花销小&#xff0c;切…

论文浅尝 | Global Relation Embedding for Relation Extraction

链接&#xff1a;https://arxiv.org/abs/1704.05958Introduction在关系抽取任务中&#xff0c;通常采用远程监督的方式自动生成数据集。由于实体对间可能存在多关系&#xff0c;生成的数据集往往存在大量噪音。本文对文本中的关系表述&#xff08;textual relation&#xff09;…

tensorflow--模型的保存和提取

参考&#xff1a; TensorFlow&#xff1a;保存和提取模型 最全Tensorflow模型保存和提取的方法——附实例 模型的保存会覆盖&#xff0c;后一次保存的模型会覆盖上一次保存的模型。最多保存近5次结果。应当保存效果最优时候的模型&#xff0c;而不是训练最后一次的模型。所以…

推荐模型是怎样由窄变宽、越变越深的?

星标/置顶小屋&#xff0c;带你解锁最萌最前沿的NLP、搜索与推荐技术文 | 邢智皓编 | 兔子酱当前&#xff0c;深度学习推荐模型已经成功应用于推荐、广告、搜索等领域&#xff0c;但在了解它之前&#xff0c;简单回顾传统推荐模型仍是有必要的&#xff0c;原因如下&#xff1a;…

动态规划应用--找零钱

文章目录1. 问题描述2. 问题分析2.1 回溯法求解2.2 DP状态转移方程法2.3 DP状态转移表法1. 问题描述 找零问题&#xff0c;在贪心算法讲过。但是贪心不一定能得出最优解。假设有几种不同币值的硬币v1&#xff0c;v2&#xff0c;.……vn&#xff08;单位是元&#xff09;。如果…

玩转算法之面试第九章-动态规划

动态规划&#xff1a; 9-12 斐波那契数列 对重复计算&#xff0c;进行优化&#xff0c;进行记忆化搜索 假设基本的问题已经被解决&#xff0c;依次内推。 动态规划&#xff1a;将原问题拆解成若干个子问题&#xff0c;同时保存子问题的答案&#xff0c;使得每个子问题只求…