SimGCL
动机
传统的SGL(图自监督学习)使得模型可以自行发掘任务特征,解决了数据稀疏和长尾分布的问题,SGL采用节点dropout、边dropout和随机游走三种方式对图结构进行扰动(图增强)进行对比学习,可以有效提高性能
SGL主要解决传统推荐系统面临的数据稀疏和长尾分布问题。通过在图结构上进行数据增强,并结合对比学习机制,SGL能够有效提升模型的表征学习能力,从而改善推荐性能。具体来说,SGL采用节点dropout、边dropout和随机游走三种方式对图结构进行扰动,生成多个子视图,再利用图卷积网络(如LightGCN)提取节点表征。这些表征通过最大化同一个节点不同视图之间的相似性,最小化不同节点之间的相似性,从而构建自监督学习任务
虽然这样做可有效提高性能,但是为什么这种对比学习的方法可以提高推荐性能,以及图增强是必要的吗?
实验
对于 为什么这种对比学习的方法可以提高推荐性能,图增强是必要的吗? 这个问题,本文做了对应实验;
实验一
首先,原先的方法都是SGL结合对比学习和图增强,那么在该实验中,为了验证图增强是否必要,我们在不同训练集上,分别测试SGL的几个不同变体