回顾·CTR 预估系统实践



转载请注明 AIQ - 最专业的机器学习大数据社区  http://www.6aiq.com

AIQ 机器学习大数据 知乎专栏 点击关注

本文根据 OPPO 黄树东老师在 OPPO&DataFun Talk 算法架构系列活动“AI 在 OPPO 业务场景下的应用实践”所分享的《OPPO CTR 预估系统实践》编辑整理而成,在未改变原意的基础上稍做修改。

CTR 预估系统在商业变现领域有一个非常大的应用,也是非常核心的一个模块。业内各大公司都非常重视这项工作,如百度 CTR 系统做到样本迁移的特性,功能非常复杂。今天分享的是 OPPO 在广告业务快速增长的场景下 CTR 预估系统从搭建到迭代引擎的一些实践经验以及思路,接下来将从系统架构、算法模型、特征工程以及策略来阐述 CTR 预估系统。

首先介绍一下 CTR 预估系统业务对接的一个场景,应用层主要在应用分发领域、搜索、联盟、信息流四个领域上的一个呈现。图中左边是我们的一个分层架构模型,底层是数据层(数据量庞大、复杂);数据层往上就是特征抽象层,将数据抽象成机器学习能够使用的一些特征或符号。这里面就包含各种各样的挖掘算法,比如 ID 特征、统计类特征等;再往上就是我们的预测层,这是系统比较核心的地方。比如 GBDT(相关性计算)、大规模离散 LR(主要是 CTR 预估),DNN 模型目前在研发中;上层主要是根据我们的目标做一些排序,更关注是 ECPM,或者转化率等,这些通过配置化都是可以实现的。右边是我们的一些支撑系统,有实验框架、特征引擎、配置中心、数据同步等模块。依赖集群主要是 Hadoop、Spark、MPI、Kafka 等集群系统。

下面是我们的数据流,我们现在支持从 Offline 到 Nearline 到 Online 的一种学习方式。最开始我们也是从 Offline 上面来做,慢慢迭代做到 Nearline,再到 Online,时效是从天级到小时级再到分钟级的一个迭代引进。

接下来讲一下我们 CTR 预估系统的一个演进,我们是从 16 年开始做 CTR 预估系统,通过机器学习模型来提升我们的收益。面对的场景是业务的快速发展,另外一个就是我们各项的资源有很大的限制,今天主要讲如何在业务的快速发展过程中达到我们业务的目标。我们最开始的版本是从统计模型开始的(基于热度的一个排行),最后上线的是基于用户群体的,我们可以更细粒度的去统计,比如之前我们有一个排行榜,每个 item 是一个榜,我们可以分为不同年龄性别,不同的地域机型的一个不一样的列表。在这个阶段面临两个问题:一个是偏置的问题(在互联网数据,比如在搜索的时候,地域偏置很严重,第一点击是第二第三点击的好几倍);另一个是稀疏性问题,统计模型是一个记忆性的模型,它是没有任何泛化能力,这就会面临很多新广告是没法计算的。在 16 年下半年在 1.0 基础上升级到 2.0,从用户群体的粒度做到真正的个性化(离线、在线预估,特征引擎,batch LR 算法来支持后面的计算),这一方面主要是框架搭建,比如线上系统、离线、在线系统打通,还有数据同步特征引擎都在 CTR2.0 版本完成。17 年上半年我们主要是做特征工程,各种各样的特征挖掘(Embedding 特征、相关性特征、实时特征),这一块是提升空间比较大的阶段,因为架构搭建好了无非是加入更多的数据和更多的特征。在 17 年下半年我们做了一个 Online LR 算法,背景是解决批量场景时效性问题,再者没法快速响应用户请求问题,比如天气模型更新其实是很难去快速反应这样一个场景。这方面也做了一些算法优化,以及实时特征上报等一致性问题。后面主要做的是 Online DNN 一些事情,主要是基于 Tensorflow、深度定制等工作,后面会详细介绍。在模型演进的过程中最难的是我们如何在不同阶段做什么事情来达到不同阶段的目的。

接下来将介绍一下在算法模型方面的工作和思考,目前,数据不大也不算太小。最开始我们去做学习的时候,是怎么快怎么来,最开始是单机 liblinear,这个代码比较简单易用效果也还 OK,但是无法支持我们现在的数据量;之后引入 spark mllib,因为它是集成在 Spark 里面,简单易用。尝试了两个算法 LBFGS 和 SGD,发现前者效果要好些,但是样本的权重以及线上效果并不是很理想;之后我们切换到了 spark liblinear 平台,他是 TRON 优化算法,效果比较好,在线上先验也比较符合我们的预期,缺点是需要多次迭代,效率很慢。另外一点就是我们业务特性以及特有的一些特征无法与开源框架结合,我们自己开发了基于 spark 的 Batch GD 算法。支持支持 pretrain、稀疏特征优化、细粒度正则、check point 等来支持错误重启,训练完效率比 TRON 效率提升 2-4 倍。随着业务增长和数据量的增加,基于 spark 的机器学习平台还是出现瓶颈,后面考虑基于 MPI 的 OWLQN 的算法训练速度快 7 倍、效果与 Batch GD 持平,但是缺点开发门槛较高,因为 MPI 是很底层框架 ,需要很多额外工作。但是有些场景还是无法满足,比如快速反应类场景无法满足,因此基于 TensorFlow 做了一些 Online LR 的优化,效果也比较好。接下来会详细将 MPI 和 Online LR 算法及优化。

我们从 spark 切换到 MPI 的效果提升,训练时间下降到 6 小时,需要的核数从 1000 下降到 240,收益是非常明显的。从 Batch Model 到 Online Model 也是有比较好的收益,但是也不是一帆风顺,因为 Online Model 有很多问题,如如何在记忆与遗忘间平衡、我们的 model 是偏向历史样本还是当前样本、如何调参、稳定性问题(线上断流,作弊流量很容易把模型带偏)、从离线计算到流式计算对功能架构要求比较高,尤其是业务发展非常快,人数不足时挑战比较大。

我们在 Online LR 模型做了一些优化,FTRL 算法是 google 在 13 年提出的一个算法,主要解决在广告场景下大规模离线 LR 训练的问题。第一项其实是一个梯度,第二项是一个严格的凸优化式子,第三项是正则。这里面存在一个问题是梯度是 0-t 的累加,梯度是历史累加到现在,很多样本越训练到后面梯度是慢慢衰减。腾讯数据平台专家提出一个算法,是 FTRL 算法的改进,公式中有ρt-s,模型会做历史样本衰减,随着样本不断训练,历史样本的权重会越来越低,当前样本权重会越来越高,就回去调节ρ的权重。我们的改进是对衰减因子做了归一化处理,使得调参更加方便,另一个我们在图优化约束更加激进些,权重变化只跟当前权重有关,这样能更好适应当前样本变化情况。我们从 Batch Model 切换到 Online Model 效果方面,性能由 6 小时提升到 1 小时(Batch LR 需要 30 天训练数据,Online LR 每个样本过滤一遍),另一个效果方面在信息流场景下天气预测方面 Batch LR 能达到 2.6% 的收益,而从天级到小时级 Online LR 有 2% 的收益,而在应用分发场景两个达到持平效果。

我们目前也在做 Online DNN 的工作,有些人疑惑推荐系统需不需要 DNN,需不需要做的这么复杂呢?DNN 相对于 LR 模型有很大的拟合能力,我们海量数据能提供很好地训练能力。比如数据量由 10 亿增加到 100 亿,对于 LR 效果提升不大,DNN 能够提供很好地效果提升。另外一个能突破特征的瓶颈,DNN 自动学习特征的能力能够很好地突破人工选择特征。第三个就是业界的一些经验,Google、BAT 等大公司在深度学习积累很多经验。

DNN 切换到逻辑回归模型也是有很多挑战,除了一些大公司外,中小公司切换难度很大。主要是 DNN 是非凸优化,优化过程往往需要很多 trick、调参难度大(papers 和公司分享不会透露很多细节)。另一个相比于图像领域,端对端学习,CTR 预估面对的是非标准化场景,即使知道公司如何优化,业界成功经验并不能很好借鉴。第三个是工程架构要求比较高,因为 CTR 预估是用在线上而不是刷比赛或者实验,线上需要达到稳定性的要求,对工程挑战还是比较大的。

我们在选型的时候是 Google 在 16 年发表的《Wide & Deep Learning for Recommender Systems》得一个算法,这个算法的优点:机油宽模型的记忆性也有深模型的泛化能力,这样模型层面比较优雅,我们先前的 LR 有很多经验可以借鉴。

在我们网络结构确定后,我们如何去落地去实现这个系统。深度学习框架有很多,如 TensorFlow、Caffe、Keras、CNTK 等,TensorFlow 相对于其他框架优点在于:易用性好,功能很完善,缺点也很明显就是太重,因为既要做到通用性也要很业务性去支持学术、工业界的要求。主要表现在 python 上它做的很厚,我们是面对单一或者专业领域,所以我们优化就是将 python 逻辑下发到 C++ 层,另一个算子、io、特征工程性能优化,做到更粗粒度。比如做梯度下降根据我们的目标去做而不是拆分为一个个粒子再串起来,这样在性能达到好几倍的提升。比较重要的一块是我们的线上服务,DNN 训练出来,我们需要在线预估,TensorFlow 提供一个很好方案是 Tensor service,但是它和我们原有工程和特征工程结合成本比较高,而面对的场景是比较专业,并不需要 CNN 或 RNN,因此我们自己去研发这样一个预估服务器成本还是可控的,因为 DNN 就是几个矩阵相乘,因此最后我们自己研发(正在研发,没有太多数据可分享)。

接下来讲一下特征工程方面的工作,随着 DNN 的出现,特征工程的工作被弱化。但在 CTR 系统中还是需要做很多特征工程,包括我们的 Embedding 统计等都需要做。主要介绍一下我们提高特征提取的效率以及保证一致性的工作,那如何去保证我们的特征是一致性的,比如线下使用 Python 开发,端对端训练,线上使用 Java 开发;有可能开发人员还不同,这样很容易导致一致性问题。另一个随着系统复杂性增加,线上很难保证一致性。我们的工作是把特征提取统一化,线上线下都用统一特征提取技术,输入特征描述和数据,算子是可以复用的,真正实现一处开发、多处可用,提升迭代效率还有就是自动分析特征间依存关系及生命周期,最大限度进行 cache,提升提取性能。

单独一个统一特征提取引擎可能还不够,在线上数据上报在特征拼接和训练流程做了三个方面的迭代来达到完全特征一致性。一开始我们是线下通过拼接各种数据,扩宽图表再去提取特征,但是这样很难去模拟当时状态发生的现场,另一个是特征与样本的穿越,会出现严重的过拟合问题;第二版就是把现场的一些上下文信息保存下来,在训练时直接拼接上下文信息再去特征提取。但是这种数据延迟很难保证;后面就是直接从线上把特征报下来,训练时直接拼接特征,这样不仅提升数据流速度,而且可以更好地保证一致性。

最后讲一下快速实验机制 &EE 的一些工作。随着系统复杂度增加,各种调参和调参,比如运营做一些调参,开发人员做一些模型迭代,都需要有一套好的系统去评估这次的改变到底是正向还是负向。因此需要有一个机制保证我们系统保持正向,核心就是数据流的响应速度,比如我们调节参数时,是天级反应效果还是时级反应效果,对迭代效率影响很大;另外一点是参数化(就是系统尽量做到可配置化),这样就可以通过配置的方式能够快速上线。如果我们增加一个特征就要上线一次是很影响我们的迭代效率的。

在参数化方面,我们在架构设计时就考虑到参数化。因此将架构的一些模块、算子都独立出来,接口化、独立化。这样做的好处是:(1)新场景能快速接入,(2)参数化后能更好的做实验。下图是我们实验的一些支持,我们希望是系统的任何一个变化,无论是前端改了一个底色或是后端更换了模型都能从我们的关键指标体现出来。我们现在能做是 bin 升级能做 A/B Text,特征升级等都能做,后面参数调整大部分都是可以支持的。

下面讲一个与系统与模型关系的探索策略,我们用的是一个大规模离散 LR 模型,特点是偏记忆性的,就是没有出现在模型里的新样本都不是表现特别好。从信息量的角度,在一个封闭的系统里面达到平稳状态后没有外力干预是很难达到另一个状态的。我们需要加入一些扰动干扰达到一个新状态。

探索策略有两个难点,一个是我们探索效果与代价的平衡,我们不可能将所有流量都来探索,因为探索是不确定性的,效果可能很差;另一个是效果的评估很难,我们做 A/B Text 是很难的,比如说分一个流量去做探索,另外是 basis line,探索的结果 basis line 也是会学习的,因此很难去评估这种效果。但是可以从常规收益去看这种效果,我们是基于 Thompson sampling EE 算法,我们在原来系统上加一个探索模块,让系统活起来。右边是在应用分发领域的一个实验,在模型上线有一个提升,在上线后进行探索,长期收益也是提升的。

未来的规划主要有四个方面:(1)CTR 模型。要支持更大的模型,支持更大的样本及特征规模,样本由十亿级到百亿级,实时更新。这方面不仅仅是算法工程师从原理上做优化,更多是从系统整体架构方面,如分布式计算、流式计算能力;(2)样本模型。互联网数据大都用户反馈信息,存在噪音导致模型偏移,前期也做了一些基于规则的修正。但并不是很好地办法,后续将在样本模型方面深入;(3)迁移学习。面对场景很多,数据量不易,每个模块建一个模型导致模型膨胀,维护困难。探索一个模型解决所有问题,效果比单独建模效果好。(4)基于上下文预估。现在 CTR 预估没有考虑上下文的影响,在模型中加入上下文信息达到更好地精度。

——END


更多高质资源 尽在AIQ 机器学习大数据 知乎专栏 点击关注

转载请注明 AIQ - 最专业的机器学习大数据社区  http://www.6aiq.com