CategoryResourceRepost/极客时间专栏/geek/深度学习推荐系统实战/前沿拓展篇/29 | 图神经网络:Pinterest是如何应用图神经网络的?.md
louzefeng bf99793fd0 del
2024-07-09 18:38:56 +00:00

15 KiB
Raw Blame History

你好,我是王喆。

互联网中到处都是图结构的数据,比如我们熟悉的社交网络,最近流行的知识图谱等等,这些数据中包含着大量的关系信息,这对推荐系统来说是非常有帮助的。

为了能更好地利用这些信息进行推荐各大巨头可谓尝试了各种办法比如我们之前学过的DeepWalk、Node2Vec这些非常实用的Graph Embedding方法。但是技术的发展永无止境最近两年GNNGraph Nerual Netwrok图神经网络毫无疑问是最火热、最流行的基于图结构数据的建模方法。严格一点来说图神经网络指的就是可以直接处理图结构数据的神经网络模型。

在诸多GNN的解决方案中著名的社交电商巨头Pinterest对于GraphSAGE的实现和落地又是最为成功的在业界的影响力也最大。所以这节课我们就学一学GraphSAGE的技术细节看一看Pinterest是如何利用图神经网络进行商品推荐的。

搭桥还是平推?技术途径上的抉择

在正式开始GraphSAGE的讲解之前我想先给你讲一讲DeepWalk、Node2vec这些Graph Embedding方法和GNN之间的关系这有助于我们理解GNN的原理。

我们这里简单回顾一下DeepWalk和Node2vec算法的基本流程如下面的图1所示。它们在面对像图1b这样的图数据的时候其实没有直接处理图结构的数据而是走了一个取巧的方式先把图结构数据通过随机游走采样转换成了序列数据然后再 用诸如Word2vec这类序列数据Embedding的方法生成最终的Graph Embedding。

我把这类Graph Embedding的方法归类为基于随机游走的间接性Graph Embedding方法。它其实代表了我们在解决一类技术问题时的思路**就是面对一个复杂问题时,我们不直接解决它,而是“搭一座桥”,通过这座桥把这个复杂问题转换成一个简单问题,因为对于简单问题,我们有非常丰富的处理手段。这样一来,这个复杂问题也就能简单地解决了。**显然基于随机游走的Graph Embedding方法就是这样一种“搭桥”的解决方案。

但搭桥的过程中难免会损失一些有用的信息,比如用随机游走对图数据进行抽样的时候,虽然我们得到的序列数据中还包含了图结构的信息,但却破坏了这些信息原始的结构。

正因为这样很多研究者、工程师不满足于这样搭桥的方式而是希望造一台“推土机”把这个问题平推过去直接解决它。GNN就是这样一种平推解决图结构数据问题的方法它直接输入图结构的数据产生节点的Embedding或者推荐结果。当然不同研究者打造这台推土机的方式各不相同我们今天要重点介绍的GraphSAGE就是其中最著名的一台也最具参考价值。

GraphSAGE的主要步骤

下面我们就来详细讲一讲GraphSAGE的细节。GraphSAGE的全称叫做Graph Sample and Aggregate翻译过来叫“图采样和聚集方法”。其实这个名称就很好地解释了它运行的过程就是先“采样”、再“聚集”。

这时候问题又来了这里的“采样”还是随机游走的采样吗要是还通过采样才能得到样本我们造的还能是“推土机”吗不就又变成搭桥的方式了吗别着急等我讲完GraphSAGE的细节你就明白了。

GraphSAGE的过程如上图所示主要可以分为3步

  1. 在整体的图数据上从某一个中心节点开始采样得到一个k阶的子图示意图中给出的示例是一个二阶子图
  2. 有了这个二阶子图我们可以先利用GNN把二阶的邻接点聚合成一阶的邻接点图1-2中绿色的部分再把一阶的邻接点聚合成这个中心节点图1-2中蓝色的部分
  3. 有了聚合好的这个中心节点的Embedding我们就可以去完成一个预测任务比如这个中心节点的标签是被点击的电影那我们就可以让这个GNN完成一个点击率预估任务。

这就是GraphSAGE的主要步骤你看了之后可能还是觉得有点抽象。那接下来我们再结合下图3推荐电影的例子来看一看GraphSAGE是怎么工作的。

首先我们要利用MovieLens的数据得到电影间的关系图这个关系图可以是用用户行为生成这个方法我们在第7讲中讲过),它也可以是像生成知识图谱一样来生成,比如,两部电影拥有同一个演员就可以建立一条边,拥有相同的风格也可以建立一条边,规则我们可以自己定。

在这个由电影作为节点的关系图上我们随机选择一个中心节点。比如我们选择了玩具总动员Toy Story作为中心节点这时再向外进行二阶的邻接点采样就能生成一个树形的样本。

经过多次采样之后我们会拥有一批这样的子图样本。这时我们就可以把这些样本输入GNN中进行训练了。GNN的结构我会在下一小节详细来讲这里我们只要清楚这个GNN既可以预测中心节点的标签比如点击或未点击也可以单纯训练中心节点的Embedding就够了。

总的来说,GraphSAGE的主要步骤就是三个“抽样-聚合-预测”

GraphSAGE的模型结构

现在我们关注的重点就变成了GraphSAGE的模型结构到底怎么样它到底是怎么把一个k阶的子图放到GNN中去训练然后生成中心节点的Embedding的呢接下来我就结合GraphSAGE的模型结构来和你详细讲一讲。

这里我们还是以二阶的GraphSAGE为例因为超过二阶的结构只是进一步延伸这个模型没有更多特别的地方所以我们理解二阶的模型结构就足够了。

上图中处理的样本是一个以点A为中心节点的二阶子图从左到右我们可以看到点A的一阶邻接点包括点B、点C和点D从点B、C、D再扩散一阶可以看到点B的邻接点是点A和点C点C的邻接点是A、B、E、F而点D的邻接点是点A。

清楚了样本的结构我们再从右到左来看一看GraphSAGE的训练过程。这个GNN的输入是二阶邻接点的Embedding二阶邻接点的Embedding通过一个叫CONVOLVE的操作生成了一阶邻接点的Embedding然后一阶邻接点的Embedding再通过这个CONVOLVE的操作生成了目标中心节点的Embedding至此完成了整个训练。

这个过程实现的关键就在于这个叫CONVOLVE的操作那它到底是什么呢

CONVOLVE的中文名你肯定不会陌生就是卷积。但这里的卷积并不是严格意义上的数学卷积运算而是一个由Aggregate操作和Concat操作组成的复杂操作。这里我们要重点关注图4中间的部分它放大了CONVOLVE操作的细节。

这个CONVOLVE操作是由两个步骤组成的第一步叫Aggregate操作就是图4中gamma符号代表的操作它把点A的三个邻接点Embedding进行了聚合生成了一个Embedding hN(A)第二步我们再把hN(A)与点A上一轮训练中的Embedding hA连接起来然后通过一个全联接层生成点A新的Embedding。

第二步实现起来很简单但第一步中的Aggregate操作到底是什么呢搞清楚这个我们就搞清楚了GraphSAGE的所有细节。

事实上Aggregate操作我们也不陌生它其实就是把多个Embedding聚合成一个Embedding的操作我们在推荐模型篇中也讲过很多次了。比如我们最开始使用的Average Pooling在DIN中使用过的Attention机制在序列模型中讲过的基于GRU的方法以及可以把这些Embedding聚合起来的MLP等等。Aggregate操作非常多如果你要问具体用哪个我还是那句老话实践决定最终结构

到这里我们就抽丝剥茧地讲清楚了GraphSAGE的每个模型细节。如果你还有疑惑再回头多看几遍GraphSAGE的模型结构图结合我刚才的讲解相信不难理解。

GraphSAGE的预测目标

不过在讲GraphSAGE的主要步骤的时候我们还留下了一个“小尾巴”没有讲就是说GraphSAGE既可以预测中心节点的标签比如点击或未点击又可以单纯地生成中心节点的Embedding。要知道预测样本标签这个事情是一个典型的有监督学习任务而生成节点的Embedding又是一个无监督学习任务。

那GraphSAGE是怎么做到既可以进行有监督学习又能进行无监督学习的呢要想让GraphSAGE做到这一点关键就看你怎么设计它的输出层了。

我们先来说说有监督的情况为了预测中心节点附带的标签比如这个标签是点击或未点击我们就需要让GraphSAGE的输出层是一个Logistic Regression这样的二分类模型这个输出层的输入就是我们之前通过GNN学到的中心节点Embedding输出当然就是预测标签的概率了。这样GraphSAGE就可以完成有监督学习的任务了。

而对于无监督学习,那就更简单了。这是因为,我们的输出层就完全可以仿照第6讲中Word2vec输出层的设计用一个softmax当作输出层预测的是每个点的ID。这样一来每个点ID对应的softmax输出层向量就是这个点的Embedding这就和word2vec的原理完全一致了。如果你仔细学了YouTube的候选集生成模型的话就会知道这和视频向量的生成方式也是一样的。

GraphSAGE在Pinterest推荐系统中的应用

GraphSAGE我们讲了这么多那Pinterest到底是怎么在它的推荐系统中应用GNN的呢我这就来讲一讲。

由于GraphSAGE是Pinterest和斯坦福大学联合提出的所以Pinterest对于GNN的应用也是直接在GraphSAGE的基础上进行的只是给这个GNN取了个换汤不换药的新名字PinSAGE。

Pinterest这个网站的主要功能是为用户提供各种商品的浏览、推荐、收藏的服务那么所谓的Pin这个动作其实就是你收藏了一个商品到自己的收藏夹。因此所有的Pin操作就连接起了用户、商品和收藏夹共同构成了一个它们之间的关系图。PinSAGE就是在这个图上训练并得到每个商品的Embedding的。

而PinSAGE Embedding的具体应用场景其实跟我们14讲中实现的功能一样就是商品的相似推荐。只不过之前业界更多地使用Item2vec、DeepWalk这些方法来生成用于相似推荐的物品Embedding在GNN流行起来之后大家就开始尝试使用GNN生成的物品Embedding进行相似推荐。

那么PinSAGE在Pinterest场景下的效果到底怎么样呢Pinterest给出了一些例子如图5所示我们可以判断一下。

我们先看图5左边的例子因为它给出的是一个种子发芽的图片我们就推测它应该是一个卖绿植或者绿植种子的商家。接下来我们再来判断左边通过四种不同算法找到的相似图片是不是合理。其中PinSAGE是Pinterest实际用于推荐系统中的算法其他三个Visual、Annot、Pixie都是效果测试中的对比算法。

我们看到通过第一个算法Visual找到的图片虽然看上去和原来的图片比较相似但前两个图片居然都是食品照片这显然不相关。第二个算法Annot中的树木以及第三个算法Pixie中的辣椒和西兰花显然都跟绿植种子有很遥远的差距。相比之下PinSAGE找到的图片就很合理了它找到的全都是种子发芽或者培育绿植的图片这就非常合乎用户的逻辑了。

要知道在PinSAGE应用的构成中它没有直接分析图片内容而只是把图片当作一个节点利用节点和周围节点的关系生成的图片Embedding。因此这个例子可以说明PinSAGE某种程度上理解了图片的语义信息而这些语义信息正是埋藏在Pinterest的商品关系图中。可见PinSAGE起到了多么神奇的数据挖掘的作用。

小结

这节课我们讲解了图神经网络的经典方法GraphSAGE我们抽丝剥茧地把GraphSAGE的细节全部剖开了。关于GraphSAGE我们重点要记住它的特点和主要步骤。

首先GraphSAGE是目前来说最经典的GNN解决方案。因此它具有GNN最显著的特点那就是它可以直接处理图数据不需要把图数据转换成更简单的序列数据再用序列数据Embedding方法进行处理。

其次GraphSAGE的主要步骤是三步“采样-聚合-预测”。其中采样是指在整体图数据上随机确定中心节点采样k阶子图样本。聚合是指利用GNN把k阶子图样本聚合成中心节点Embedding。预测是指利用GNN做有监督的标签预测或者直接生成节点Embedding。

在这三步之中重点在于聚合的GNN结构它使用CONVOLVE操作把邻接点Embedding聚合起来跟中心节点上一轮的Embedding连接后利用全连接层生成新的Embedding。

为了方便你及时回顾,我也把这节课中的重要知识点总结了下面的表格中,你可以看看。

课后思考

使用GraphSAGE是为了生成每个节点的Embedding那我们有没有办法在GraphSAGE中加入物品的其他特征如物品的价格、种类等等特征让最终生成的物品Embedding中包含这些物品特征的信息呢

期待在留言区看到你对GraphSAGE的思考我们下节课见