CategoryResourceRepost/极客时间专栏/geek/深度学习推荐系统实战/模型评估篇/27 | 评估体系:如何解决A|B测试资源紧张的窘境?.md
louzefeng bf99793fd0 del
2024-07-09 18:38:56 +00:00

15 KiB
Raw Blame History

你好,我是王喆。

我们在进行推荐系统评估时经常会遇到两类问题。

一类是在做线上A/B测试的时候流量经常不够用要排队等别人先做完测试之后才能进行自己的测试。线上A/B测试资源紧张的窘境会大大拖慢我们试验的新思路以及迭代优化模型的进度。

另一类是,离线评估加上在线评估有那么多种测试方法,在实际工作中,我们到底应该选择哪一种用来测试,还是都要覆盖到呢?

其实,这两个问题的答案是有深刻联系的,并不是孤立的。我认为最好的解决办法就是,建立起一套推荐系统的评估体系用它来解决不同评估方法的配合问题以及线上A/B测试资源紧张的问题。这节课我就带你一起来厘清如何建立起一整套推荐系统评估体系。

什么是推荐系统的评估体系?

首先,什么是评估体系呢?我先给它下一个定义,推荐系统的评估体系指的是,由多种不同的评估方式组成的、兼顾效率和正确性的,一套用于评估推荐系统的解决方案。一个成熟的推荐系统评估体系应该综合考虑评估效率和正确性,可以利用很少的资源,快速地筛选出效果更好的模型。

那对一个商业公司来说最公正也是最合理的评估方法就是进行线上测试来评估模型是否能够更好地达成公司或者团队的商业目标。但是正如我们开头所说线上A/B测试要占用宝贵的线上流量资源这些有限的线上测试机会远远不能满足算法工程师改进模型的需求。所以如何有效地把线上和离线测试结合起来提高测试的效率就是我们迫切的需求。

那我们该怎么去构建起一整套评估体系呢图1就是一个典型的评估体系示意图。从图中我们可以看到处于最底层的是传统的离线评估方法比如Holdout检验、交叉检验等往上是离线Replay评估方法再往上是一种叫Interleaving的线上测试方法我们等会还会详细介绍最后是线上A/B测试。

这四层结构共同构成完整的评估体系,做到了评估效率和评估正确性之间的平衡,越是底层的方法就会承担越多筛选掉改进思路的任务,这时候“评估效率”就成了更关键的考虑因素,那对于“正确性”的评估,我们反而没有多么苛刻的要求了。

总的来说,离线评估由于有着更多可供利用的计算资源,可以更高效、快速地筛选掉那些“不靠谱”的模型来改进思路,所以被放在了第一层的位置。

随着候选模型被一层层筛选出来越接近正式上线的阶段评估方法对评估“正确性”的要求就越严格。因此在模型正式上线前我们应该以最接近真实产品体验的A/B测试来做最后的模型评估产生最具说服力的在线指标之后才能够进行最终的模型上线完成模型改进的迭代过程。

讲了这么多,你可能会觉得,道理没问题,但工作中真的是这样吗?不如,我们来看个例子。下图就是一个很形象的工作中的模型筛选过程。

假设现在有30个待筛选的模型如果所有模型都直接进入线上A/B测试的阶段进行测试所需的测试样本是海量的由于线上流量有限测试的时间会非常长。但如果我们把测试分成两个阶段第一个阶段先进行初筛把30个模型筛选出可能胜出的5个再只对这5个模型做线上A/B测试所需的测试流量规模和测试时间长度都会大大减少。这里的初筛方法就是我们在评估体系中提到的离线评估、离线Replay和在线Interleaving等方法。

到这里,我想你已经清楚了什么是推荐系统的评估体系,以及评估体系是有哪些方法组成的。但在这些组成方法中,我们还有两点要重点注意:一个是离线Replay这个方法虽然我们之前讲过离线Replay的原理但是对于它的相关工程架构还没有讲过第二个是上面提到过的线上Interleaving方法。 下面我就借着流媒体巨头Netflix的实践方案来讲解一下离线Replay和在线Interleaving的细节。

Netflix的Replay评估方法实践

借着下图3我们来回顾一下第24讲学过的离线Replay方法的原理离线Replay通过动态的改变测试时间点来模拟模型的在线更新过程让测试过程更接近真实线上环境。

但是在Replay方法的实现过程中存在一个很棘手的工程问题就是我们总提到的“未来信息”问题或者叫做“特征穿越”问题。因此在Replay过程中每次模型更新的时候我们都需要用历史上“彼时彼刻”的特征进行训练否则训练和评估的结果肯定是不准确的。

我来举个例子假设Replay方法要使用8月1日到8月31日的样本数据进行重放这些样本中包含一个特征叫做“历史CTR”这个特征只能通过历史数据来计算生成。

比如说8月20日的样本就只能够使用8月1日到8月19日的数据来生成“历史CTR”这个特征绝不能使用8月20日以后的数据来生成这个特征。在评估过程中如果我们为了工程上的方便使用了8月1日到8月31日所有的样本数据生成这个特征供所有样本使用之后再使用Replay的方法进行评估那我们得到的结论必然是错误的。

那么问题来了在工程上为了方便按照Replay方法进行模型评估我们应该怎么去建立一套数据处理的架构支持这种历史特征的复现呢接下来我们就看一看Netflix是怎么解决这个问题的。

Netflix为了进行离线Replay的实验建立了一整套从数据生成到数据处理再到数据存储的数据处理架构并给它起了一个很漂亮的名字叫做时光机Time Machine

下图4就是时光机的架构图中最主要的就是Snapshot Jobs数据快照模块。它是一个每天执行的Spark程序它做的主要任务就是把当天的各类日志、特征、数据整合起来形成当天的、供模型训练和评估使用的样本数据。它还会以日期为目录名称将样本快照数据保存在分布式文件系统S3中Snapshots再对外统一提供APIBatch APIs供其他模型在训练和评估的时候按照时间范围方便地获取。

这个Snapshot Jobs主任务的源数据是从哪来的呢你可以重点关注它上方的Context Set模块和左边的Prana模块。接下来我再详细和你说说这两个模块的任务。

Context Set模块负责保存所有的历史当天的环境信息。 环境信息主要包括两类一类是存储在Hive中的场景信息比如用户的资料、设备信息、物品信息等数据另一类是每天都会发生改变的一些统计类信息包括物品的曝光量、点击量、播放时长等信息。

Prana模块负责处理每天的系统日志流。 系统日志流指的是系统实时产生的日志它包括用户的观看历史Viewing History、用户的推荐列表My List和用户的评价Ratings等。这些日志从各自的服务Service中产生由Netflix的统一数据接口Prana对外提供服务。

因此Snapshot Jobs这个核心模块每天的任务就是通过Context Set获取场景信息通过Prana获取日志信息再经过整合处理、生成特征之后保存当天的数据快照到S3。

在生成每天的数据快照后使用Replay方法进行离线评估就不再是一件困难的事情了因为我们没有必要在Replay过程中进行烦琐的特征计算直接使用当天的数据快照就可以了。

在时光机这个架构之上使用某个时间段的样本进行一次Replay评估就相当于直接穿越到了彼时彼刻用当时的日志和特征进行模型训练和评估就像进行了一次时光旅行Time Travel一样。

Interleaving评估方法是什么

讲完了离线Replay的工程实现方法我们再来聊一聊什么是Interleaving在线评估方法。

那Interleaving评估方法提出的意义是什么呢主要有两方面首先它是和A/B测试一样的在线评估方法能够得到在线评估指标其次它提出的目的是为了比传统的A/B测试用更少的资源更快的速度得到在线评估的结果。

清楚了Interleaving评估方法提出的意义我们就可以更好地理解Interleaving方法的具体细节了。下面我们对比A/B测试来看看Interleaving方法的具体实现过程。

在传统的A/B测试中我们会把用户随机分成两组。一组接受当前的推荐模型A的推荐结果这一组被称为对照组 。另一组接受新的推荐模型B的推荐结果这组被成为实验组。

在Interleaving方法中不再需要两个不同组的用户只需要一组用户这些用户会收到模型A和模型B的混合结果。也就是说用户会在一个推荐列表里同时看到模型A和模型B的推荐结果。在评估的过程中Interleaving方法通过分别累加模型A和模型B推荐物品的效果来得到模型A和B最终的评估结果。

下图可以帮助我们更形象地对比A/B测试和Interleaving方法。

那你可能想问了在使用Interleaving方法进行测试的时候我们该怎么保证对模型A和模型B的测试是公平的呢如果有一个模型的结果总排在第一位这对另一个模型不就不公平了吗

这个问题很好我们确实需要考虑推荐列表中位置偏差的问题要想办法避免来自模型A或者模型B的物品总排在第一位。因此我们需要以相等的概率让模型A和模型B产生的物品交替领先。这就像在野球场打球的时候两个队长会先通过扔硬币的方式决定谁先选人再交替来选择队员。

理解了原理我们再结合下面的图示来进一步理解Interleaving方法混合模型A和B结果的过程。和刚才说的野球场选人的过程一样我们先选模型A或者模型B的排名第一的物品作为最终推荐列表的第一个物品然后再交替选择直到填满整个推荐列表。所以最后得到的列表会是ABABAB或者BABABA这样的顺序而且这两种形式出现的概率应该是相等的这样才能保证两个模型的公平性。

最后我们要清楚推荐列表中的物品到底是由模型A生成的还是由模型B生成的然后统计出所有模型A物品的综合效果以及模型B物品的综合效果然后进行对比。这样模型评估过程就完成了。

总的来说Interleaving的方法由于不用进行用户分组因此比传统A/B测试节约了一半的流量资源。但是Interleaving方法能彻底替代传统A/B测试吗其实也不能在测试一些用户级别而不是模型级别的在线指标时我们就不能用Interleaving方法。

比如用户的留存率用户从试用到付费的转化率等由于Interleaving方法同时使用了对照模型和实验模型的结果我们就不清楚到底是哪个模型对这些结果产生了贡献。但是在测试CTR、播放量、播放时长这些指标时Interleaving就可以通过累加物品效果得到它们。这个时候它就能很好地替代传统的A/B测试了。

到这里,我们就形成了一个完整、高效且准确的评估系统。希望你能从整体的角度重新审视一遍这个体系中的每个方法,如果有不清楚的,再好好回顾一下我讲的知识点。

小结

这节课我们利用之前讲过的知识总结出了推荐系统的评估体系。这个评估体系由传统离线评估、离线Replay、线上Interleaving以及线上A/B测试四个层级组成。这四个层级由下到上评估效率逐渐降低但是评估的准确性逐渐升高它们共同组成一个能够高效筛选候选模型的评估体系。

针对这个评估体系中的两个要点离线Replay实践和Interleaving方法我们又深入学习了它们的工程架构和实现细节。

其中离线Replay借鉴了Netflix时光机的经验这个时光机的数据流体系通过融合日志流和场景信息数据生成天级别的数据快照并对外提供统一的API供模型训练和评估使用使用时就像做了一次时光旅行。

对于Interleaving方法我们应该清楚它实现的三个要点

  • 它不进行用户分组;
  • 它的实验推荐列表是通过间隔地选择模型A和模型B的推荐物品得到的
  • 为了保证它的公平性我们要从模型A或者模型B中随机选择第一个物品就像野球场选人一样完成推荐列表的生成。

还是老习惯,我把这节课的重要知识点总结在了下面的表格里,方便你及时回顾。

这节课也是我们模型评估篇的最后一节课,希望通过整个模型评估篇的学习,你不仅能够熟悉起每一种评估方法,而且能够清楚它们之间的区别和联系,形成一个高效的评估体系。相信它会加快你模型迭代的速度,对你的实际工作产生非常积极的影响!

课后思考

在Interleaving方法中推荐列表是由模型A和模型B的结果共同组成的那如果模型A和模型B的结果中有重叠怎么办是保留模型A的结果还是模型B的结果呢你有什么好的想法吗

今天讲的评估体系,你知道怎么建立了吗?欢迎把你的思考和疑问写在留言区,不妨也把这节课分享给你的朋友们,我们下节课见!