基于图的GCN在推荐系统中的应用
William提出的一种归纳嵌入表示训练方法。
上一篇文章提到的GCN是转换学习,即通过固定的图直接训练每个节点的嵌入。但是在很多图形场景中,图形节点是实时更新的,所以本文提出了归纳学习。不是在一个静态图上训练每个节点的嵌入,而是通过训练得到一个从邻居到嵌入的映射关系(聚合器),这样新增节点的嵌入只需要通过邻居关系就可以得到。
成对用于无监督学习的训练损失。认为两个相连节点之间的嵌入应该是近的,而两个不相连节点之间的嵌入应该是远的。(余弦距离用内积表示)
训练数据集中有每个节点的特征信息,然后用特征信息训练用户的节点。没有特征信息怎么办?是用指数表示的吗?
本文的总体框架仍然是GraphSage:从邻居中提取一定量进行融合。但它不同于图,它不是随机抽样,而是重要汇集。本文的主要创新点如下:
这篇论文的整体框架其实非常经典:
这篇文章是对上述NGCF的改进。研究发现,NGCF中的特征变换(W1,W2)和非线性激活()不仅增加了训练的难度,而且降低了准确率。其主要原因是:GCN最初是针对属性图上的节点分类提出的,其中每个节点都有丰富的属性作为输入特征;而在CF的用户-项目交互图中,每个节点(用户或项目)仅由一个唯一的ID来描述,除了作为标识符之外,没有具体的语义。在这种情况下,给定ID嵌入作为输入,执行多层非线性特征变换——这是现代神经网络成功的关键——将不会带来任何好处,而是负面地增加了模型训练的难度。
优化光的前向传播层:
注意:正向传播中不加入自连接,因为层嵌入的加权和运算实际上包含了自连接。具体证明过程如下:
因此,在A中插入自连接并在其上传播嵌入本质上等价于在每个LGC层传播的嵌入的加权和。
本文旨在解决两个问题:
因此,MGNN-SPred联合考虑目标行为和辅助行为序列,并探索全局项目到项目的关系,以实现精确预测。
本文的算法框架:
合成算法:
项目表征学习:
对于每个节点,一个热表示;
序列表示学习:
我们发现,简单的平均池已经可以实现与注意机制相当的性能,同时保持较低的复杂性。
不言而喻,在不同的情况下,辅助行为序列对下一项预测的贡献是不同的。因此,设计了一种门控机制来计算相对重要性权重:
其中表示基础事实的一键表示。
本文旨在解决顺序推荐问题。主要贡献如下:
首先,用滑动窗口策略取出序列中的子序列,然后为每个子序列添加边,如下图所示。
使用外部存储单元来存储随时间变化的用户的长期兴趣。用户接触时间的顺序是:。
通过使用多维注意力模型来生成查询嵌入:
其中,正弦位置编码函数将项目位置映射成位置嵌入。
然后操作存储单元:
上标C表示长期和短期利益的融合。
表示短时间内接触的项目与所需项目之间的关系。