CategoryResourceRepost/极客时间专栏/深度学习推荐系统实战/推荐模型篇/19|NeuralCF:如何用深度学习改造协同过滤?.md
louzefeng d3828a7aee mod
2024-07-11 05:50:32 +00:00

123 lines
13 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

<audio id="audio" title="19NeuralCF如何用深度学习改造协同过滤" controls="" preload="none"><source id="mp3" src="https://static001.geekbang.org/resource/audio/61/d6/610fb4a963d9962d01c6fd59663606d6.mp3"></audio>
你好我是王喆今天我们来学习协同过滤的深度学习进化版本NeuralCF。
在[第15讲](https://time.geekbang.org/column/article/305182)里,我们学习了最经典的推荐算法,协同过滤。在前深度学习的时代,协同过滤曾经大放异彩,但随着技术的发展,协同过滤相比深度学习模型的弊端就日益显现出来了,因为它是通过直接利用非常稀疏的共现矩阵进行预测的,所以模型的泛化能力非常弱,遇到历史行为非常少的用户,就没法产生准确的推荐结果了。
虽然,我们可以通过矩阵分解算法增强它的泛化能力,但因为矩阵分解是利用非常简单的内积方式来处理用户向量和物品向量的交叉问题的,所以,它的拟合能力也比较弱。这该怎么办呢?不是说深度学习模型的拟合能力都很强吗?我们能不能利用深度学习来改进协同过滤算法呢?
当然是可以的。2017年新加坡国立的研究者就使用深度学习网络来改进了传统的协同过滤算法取名NeuralCF神经网络协同过滤。NeuralCF大大提高了协同过滤算法的泛化能力和拟合能力让这个经典的推荐算法又重新在深度学习时代焕发生机。这节课我们就一起来学习并实现NeuralCF
## NeuralCF模型的结构
在学习NeuralCF之前我们先来简单回顾一下协同过滤和矩阵分解的原理。协同过滤是利用用户和物品之间的交互行为历史构建出一个像图1左一样的共现矩阵。在共现矩阵的基础上利用每一行的用户向量相似性找到相似用户再利用相似用户喜欢的物品进行推荐。
<img src="https://static001.geekbang.org/resource/image/60/fb/604b312899bff7922528df4836c10cfb.jpeg" alt="" title="图1 矩阵分解算法的原理">
矩阵分解则进一步加强了协同过滤的泛化能力它把协同过滤中的共现矩阵分解成了用户矩阵和物品矩阵从用户矩阵中提取出用户隐向量从物品矩阵中提取出物品隐向量再利用它们之间的内积相似性进行推荐排序。如果用神经网络的思路来理解矩阵分解它的结构图就是图2这样的。
<img src="https://static001.geekbang.org/resource/image/e6/bd/e61aa1d0d6c75230ff75c2fb698083bd.jpg" alt="" title="图2 矩阵分解的神经网络化示意图">
图2 中的输入层是由用户ID和物品ID生成的One-hot向量Embedding层是把One-hot向量转化成稠密的Embedding向量表达这部分就是矩阵分解中的用户隐向量和物品隐向量。输出层使用了用户隐向量和物品隐向量的内积作为最终预测得分之后通过跟目标得分对比进行反向梯度传播更新整个网络。
把矩阵分解神经网络化之后把它跟Embedding+MLP以及Wide&amp;Deep模型做对比我们可以一眼看出网络中的薄弱环节矩阵分解在Embedding层之上的操作好像过于简单了就是直接利用内积得出最终结果。这会导致特征之间还没有充分交叉就直接输出结果模型会有欠拟合的风险。针对这一弱点NeuralCF对矩阵分解进行了改进它的结构图是图3这样的。
<img src="https://static001.geekbang.org/resource/image/5f/2c/5ff301f11e686eedbacd69dee184312c.jpg" alt="" title="图3 NeuralCF的模型结构图 出自论文Neural Collaborative Filtering">
我想你一定可以一眼看出它们的区别那就是NeuralCF用一个多层的神经网络替代掉了原来简单的点积操作。这样就可以让用户和物品隐向量之间进行充分的交叉提高模型整体的拟合能力。
## NeuralCF模型的扩展双塔模型
有了之前实现矩阵分解和深度学习模型的经验我想你理解起来NeuralCF肯定不会有困难。事实上NeuralCF的模型结构之中蕴含了一个非常有价值的思想就是我们可以把模型分成用户侧模型和物品侧模型两部分然后用互操作层把这两部分联合起来产生最后的预测得分。
这里的用户侧模型结构和物品侧模型结构可以是简单的Embedding层也可以是复杂的神经网络结构最后的互操作层可以是简单的点积操作也可以是比较复杂的MLP结构。但只要是这种物品侧模型+用户侧模型+互操作层的模型结构,我们把它统称为“双塔模型”结构。
图4就是一个典型“双塔模型”的抽象结构。它的名字形象地解释了它的结构组成两侧的模型结构就像两个高塔一样而最上面的互操作层则像两个塔尖搭建起的空中走廊负责两侧信息的沟通。
<img src="https://static001.geekbang.org/resource/image/66/cf/66606828b2c80a5f4ea28d60762e82cf.jpg" alt="" title="图4 双塔模型结构 [br](出自论文 Sampling-Bias-Corrected Neural Modeling for Large Corpus Item Recommendations">
对于NerualCF来说它只利用了用户ID作为“用户塔”的输入特征用物品ID作为“物品塔”的输入特征。事实上我们完全可以把其他用户和物品相关的特征也分别放入用户塔和物品塔让模型能够学到的信息更全面。比如说YouTube在构建用于召回层的双塔模型时就分别在用户侧和物品侧输入了多种不同的特征如图5所示。
<img src="https://static001.geekbang.org/resource/image/e2/87/e2603a22ec91a9f00be4b73feyy1f987.jpg" alt="" title="图5 YouTube双塔召回模型的架构 [br](出自论文 Sampling-Bias-Corrected Neural Modeling for Large Corpus Item Recommendations">
我们看到YouTube召回双塔模型的用户侧特征包括了用户正在观看的视频ID、频道ID图中的seed features、该视频的观看数、被喜欢的次数以及用户历史观看过的视频ID等等。物品侧的特征包括了候选视频的ID、频道ID、被观看次数、被喜欢次数等等。在经过了多层ReLU神经网络的学习之后双塔模型最终通过softmax输出层连接两部分输出最终预测分数。
看到这里你可能会有疑问这个双塔模型相比我们之前学过的Embedding MLP和Wide&amp;Deep有什么优势呢其实在实际工作中双塔模型最重要的优势就在于它易上线、易服务。为什么这么说呢
你注意看一下物品塔和用户塔最顶端的那层神经元那层神经元的输出其实就是一个全新的物品Embedding和用户Embedding。拿图4来说物品塔的输入特征向量是x经过物品塔的一系列变换生成了向量u(x)那么这个u(x)就是这个物品的Embedding向量。同理v(y)是用户y的Embedding向量这时我们就可以把u(x)和v(y)存入特征数据库这样一来线上服务的时候我们只要把u(x)和v(y)取出来,再对它们做简单的互操作层运算就可以得出最后的模型预估结果了!
所以使用双塔模型,我们不用把整个模型都部署上线,只需要预存物品塔和用户塔的输出,以及在线上实现互操作层就可以了。如果这个互操作层是点积操作,那么这个实现可以说没有任何难度,这是实际应用中非常容易落地的,也是工程师们喜闻乐见的,这也正是双塔模型在业界巨大的优势所在。
正是因为这样的优势双塔模型被广泛地应用在YouTube、Facebook、百度等各大公司的推荐场景中持续发挥着它的能量。
## NeuralCF的TensorFlow实现
熟悉了NerualCF和双塔模型的结构之后我们就可以使用TensorFlow来实现它们了。通过之前Embedding+MLP模型以及Wide&amp;Deep模型的实现我想你对TensorFlow中读取数据定义特征训练模型的过程肯定已经驾轻就熟了。我们只要更改之前代码中模型定义的部分就可以实现NeuralCF。具体的代码你可以参考SparrowRecsys项目中的NeuralCF.py我只贴出了NeuralCF模型部分的实现。下面我们重点讲解一下它们的实现思路。
```
# neural cf model arch two. only embedding in each tower, then MLP as the interaction layers
def neural_cf_model_1(feature_inputs, item_feature_columns, user_feature_columns, hidden_units):
# 物品侧特征层
item_tower = tf.keras.layers.DenseFeatures(item_feature_columns)(feature_inputs)
# 用户侧特征层
user_tower = tf.keras.layers.DenseFeatures(user_feature_columns)(feature_inputs)
# 连接层及后续多层神经网络
interact_layer = tf.keras.layers.concatenate([item_tower, user_tower])
for num_nodes in hidden_units:
interact_layer = tf.keras.layers.Dense(num_nodes, activation='relu')(interact_layer)
# sigmoid单神经元输出层
output_layer = tf.keras.layers.Dense(1, activation='sigmoid')(interact_layer)
# 定义keras模型
neural_cf_model = tf.keras.Model(feature_inputs, output_layer)
return neural_cf_model
```
你可以看到代码中定义的生成NeuralCF模型的函数它接收了四个输入变量。其中 `feature_inputs` 代表着所有的模型输入, `item_feature_columns``user_feature_columns` 分别包含了物品侧和用户侧的特征。在训练时,如果我们只在 `item_feature_columns` 中放入 `movie_id` ,在 `user_feature_columns` 放入 `user_id` 就是NeuralCF的经典实现了。
通过DenseFeatures层创建好用户侧和物品侧输入层之后我们会再利用concatenate层将二者连接起来然后输入多层神经网络进行训练。如果想要定义多层神经网络的层数和神经元数量我们可以通过设置 `hidden_units` 数组来实现。
除了经典的NeuralCF实现我还基于双塔模型的原理实现了一个NeuralCF的双塔版本。你可以参考下面的模型定义。与上面的经典NerualCF实现不同我把多层神经网络操作放到了物品塔和用户塔内部让塔内的特征进行充分交叉最后使用内积层作为物品塔和用户塔的交互层。具体的步骤你可以参考下面代码中的注释实现过程很好理解我就不再赘述了。
```
# neural cf model arch one. embedding+MLP in each tower, then dot product layer as the output
def neural_cf_model_2(feature_inputs, item_feature_columns, user_feature_columns, hidden_units):
# 物品侧输入特征层
item_tower = tf.keras.layers.DenseFeatures(item_feature_columns)(feature_inputs)
# 物品塔结构
for num_nodes in hidden_units:
item_tower = tf.keras.layers.Dense(num_nodes, activation='relu')(item_tower)
# 用户侧输入特征层
user_tower = tf.keras.layers.DenseFeatures(user_feature_columns)(feature_inputs)
# 用户塔结构
for num_nodes in hidden_units:
user_tower = tf.keras.layers.Dense(num_nodes, activation='relu')(user_tower)
# 使用内积操作交互物品塔和用户塔,产生最后输出
output = tf.keras.layers.Dot(axes=1)([item_tower, user_tower])
# 定义keras模型
neural_cf_model = tf.keras.Model(feature_inputs, output)
return neural_cf_model
```
在实现了Embedding MLP、Wide&amp;Deep和NeuralCF之后相信你可以感觉到实现甚至创造一个深度学习模型并不难基于TensorFlow提供的Keras接口我们可以根据我们的设计思路像搭积木一样实现模型的不同结构以此来验证我们的想法这也正是深度推荐模型的魅力和优势。相信随着课程的进展你不仅对这一点能够有更深刻的感受同时你设计和实现模型的能力也会进一步加强。
## 小结
这节课我们首先学习了经典推荐算法协同过滤的深度学习进化版本NerualCF。相比于矩阵分解算法NeuralCF用一个多层的神经网络替代了矩阵分解算法中简单的点积操作让用户和物品隐向量之间进行充分的交叉。这种通过改进物品隐向量和用户隐向量互操作层的方法大大增加了模型的拟合能力。
利用NerualCF的思想我们进一步学习了双塔模型。它通过丰富物品侧和用户侧的特征让模型能够融入除了用户ID和物品ID外更丰富的信息。除此之外双塔模型最大的优势在于模型服务的便捷性由于最终的互操作层是简单的内积操作或浅层神经网络。因此我们可以把物品塔的输出当作物品Embedding用户塔的输出当作用户Embedding存入特征数据库在线上只要实现简单的互操作过程就可以了。
最后我们继续使用TensorFlow实现了NerualCF和双塔模型相信你能进一步感受到利用TensorFlow构建深度学习模型的便捷性以及它和传统推荐模型相比在模型结构灵活性上的巨大优势。
为了帮助你复习,我把刚才说的这些重点内容总结在了一张图里,你可以看看。
<img src="https://static001.geekbang.org/resource/image/91/5f/9196a80181f41ba4a96bb80e6286c35f.jpeg" alt="">
## 课后思考
对于我们这节课学习的双塔模型来说把物品侧的Embedding和用户侧的Embedding存起来就可以进行线上服务了。但如果我们把一些场景特征比如当前时间、当前地点加到用户侧或者物品侧那我们还能用这种方式进行模型服务吗为什么
欢迎把你的思考和疑惑写在留言区,也欢迎你把这节课转发出去,我们下节课见!