Fork me on GitHub

大规模图算法在京东广告的实践

图片

分享嘉宾:张泽华 京东 算法工程师
编辑整理:王文婧
出品平台:DataFunTalk

导读: 京东的9N算法框架已经被广泛应用于推荐广告、搜索广告、以及其他的站内外广告场景。本文将为大家介绍如何实现大规模的图算法在京东广告场景的落地实践,主要内容包括:

  • 基础介绍
  • 9N GRAPH工业化End2End算法解决方案
  • 算法建模:BVSHG
  • 未来展望

01 基础介绍

1. 电商推荐问题的特点

图片

电商场景下推荐系统的问题特点:

  • 用户的行为少:电商是一个典型的货多人少的场景,用户行为非常稀疏,且具有“极度长尾效应”,这个效应我们后面会展开详细讲。
  • 商品的规模大:前面说了货多人少,整个平台的商品规模能达到数十亿,算上冷门商品及历史商品的话,甚至能到百亿规模。对于推荐问题来说,数十亿的候选商品集合实在是太大了。对于工程同学,算法同学都是一个不小的挑战。
  • 用户的需求识别难:电商不像新闻、媒体类的场景,这些场景的用户需求和反馈都是来自于线上,比如某某上了热搜,这种场景下,信息源来自线上,用户的反馈也会作用于线上,相对单纯一些;而电商场景,大家的购物需求的产生和具体消费其实是在线下的,比如今天家里做饭少了一瓶酱油,这种信息,线上系统很难感知到。
  • 用户的兴趣转移快:用户的购买行为完成后,兴趣会呈现不规则的快速转移,举个例子,有些用户买了一台电冰箱,按道理说这是一个大件儿,重复购买的周期很长,日常生活中不会有人每天都去看,都去购买的,但是中国消费者有个奇特的行为,叫做“我再回去看看买亏了没”,没事儿就回去刷一下商品看看价格。再举一个有意思的例子,用户买了一部手机,那是不是有可能购买手机壳、手机膜这种搭配呢?确实有不少消费者这么干的,但如果赶上618大促节,你会发现用户的上一个行为是去买手机,下一个兴趣就是关于如何买拖把和抹布,这就是用户兴趣以及时效性带来的挑战。
  • 热点更新快:尤其是现代电商网站每天有新品,每周有活动,每月有节日,半年一大促,用户对新品的交互行为更为稀疏,想要让模型和算法学到甚至能有预测能力,简直难上加难。

2. Why GRAPH?

图片

刚刚介绍了电商推荐的问题和难处,我们回到推荐的本质上来思考这个问题,对于推荐系统来说,其中的重要参与方就是用户和商品,而推荐系统的本质就是在找用户和商品的关联性:

  • 以用户方来说:人与人之间存在天然的关系图谱,不论是显式的这种朋友亲属还是隐式的社交关联等等,相信很多偏社交属性的公司早就深入研究过人与人之间的图关系了;
  • 以商品方来说:商品本身的材质、属性、价格本身就存在关联,甚至是同品牌、店铺、竞品的关联关系等等,通常很多偏新闻和资讯类的公司早就已经构建了知识图谱。

能否将用户图和商品图连通起来,利用用户和商品关联性,构建成一张充满不同关系边的图?这就是一张简单的U-I二部图,如上所示。

02 9N GRAPH工业化End2End算法解决方案

图片

如何把这张U-I图在工业场景下完成落地和应用?我们实现了一整套9N GRAPH工业化端到端的算法解决方案,它不仅包含数据能力、算法框架、算法模型还有一系列的应用。

实现工业化场景的端到端学习,我们遇到了不少挑战,这里举几点出来:

  • 在数据和样本层面,我们遇到了超大规模的图样本生成及存储问题、图的在线服务以及服务内图信息时效性的问题。
  • 在训练框架层面:如何实现一个训练框架,以及大规模图如何在工业场景中训练,我们基于9N Lite框架进行了延伸开发,实现了9N GL ( 即Graph Learning )。
  • 算法建模层面:如何解决端到端建模以及主模型和图模型联合训练,我们提出了一个典型建模方法,最终也在业务场景上落地取得了收益。

9N GRAPH的整体方案如右图所示,它包含6个层次,图中暗黄色的部分包含图学习的多元化,图的探索和创新,是我们还在进行中的部分,其他颜色部分已经在提供稳定服务了,其中浅黄色是在线工程团队帮助我们一起建设的在线图服务。

1. 9N GRAPH数据&样本

① 如何实现大规模的图样本生成及存储问题?

图片

通过对电商场景的用户行为进行分析,我们发现:行为数据呈现“极度长尾效应”,换句话说是“旱的旱死,涝的涝死”。像图中呈现的,在99分位数之上的用户行为居然差不多等于剩下的所有用户行为之和。

这种现象,对于传统的深度学习来讲,其实很不友好,传统的深度学习建模方法,和训练策略比较适用于中高活跃的用户,他们的行为数据较多,但又不过分集中,在多轮迭代的训练方式下,数据利用效果好。

反过来看,对于99分位数之上的那些极度活跃用户,他们的行为数据过于丰富 ( 比如单日浏览了好几百个上千个商品 ),在工业场景上通常会因为工程性能问题做出截断,导致仅有少数最近期的行为信息参与在线预估,反而会导致建模失真,效果不佳。

对于长尾用户,他们的行为稀疏,甚至还有不少的噪声,建模较难,数据利用的效果也很差。

我们希望用图的方式,解决这两类数据失真的问题:

  • 对于极度活跃用户:我们通过图的方式记录下来他的行为,在进行预估时,通过各种采样的方法,让采出来的信息不像截断那样仅包含最近期的,还有大量长期的信息。
  • 对于长尾用户:通过图的方式进行不同层面的信息抽取,增加泛化能力,增强对长尾用户的建模能力。

以最简单U-I二部图为例,我们将用户大量的历史行为,通过U-I关系抽取模块,建立起图关系数据差不多有400TB左右;又通过训练日志进行label处理,两者进行关联后,形成图训练样本,通常能达到800-1000TB;然后送入到模型训练框架中,进行主模型和图模型的联合训练。

② 如何解决图服务及信息时效性问题?

图片

高实时的信息可以带来不小的效果提升,因此在线的服务中除了需要包含历史长期的图信息外,还要对最近期的信息有感知,所以我们设计并实现了一套秒级别更新的在线服务。如上图所示,上面一条通路是包含数月信息的长期图信息,下面的这一条通路是秒级别的实时信息更新,最终打造成了一个高时效性的图数据服务系统。

2. 9N Lite 算法框架 Overview

图片

接下来看如何实现一个训练框架,以及大规模图如何在工业场景中训练问题。

我们在介绍大规模图训练前,先介绍下9N ( 即九数 ) 算法框架整体,因为图训练也是基于这一套实现的。

九数算法框架是一个使用Tensorflow作为后端计算引擎的、深度定制的、支持弹性扩展和高性能推理服务的算法框架。它基于广告精排的任务特点研发的,支持了数年来京东广告的高速迭代发展。它包含四大基础设施:

  • 模型数据流:流批一体、离在线一体化的高性能数据流系统
  • 算子库:解决了特征系统及多模态、多业务的高性能实现
  • 核心训练框架:支持了多种业务场景,9N Lite中不仅支持了复杂的有监督深度学习,还额外扩展支持了9N RL强化学习、9N OL在线学习、9N FL联邦学习、9N GL(图学习)。
  • NormGuard ( 一站式模型管理、检测、推送平台 ):是模型管控中心,也是一站式模型检测及推送中心,还支持了模型指标的异常检测等等。

3. 9N GRAPH End2End 训练

图片

如右图所示,从下向上看,整个9N GL框架做了多个层级的模块抽象,通过subgraph的方式,抽象出了训练日志相关的子图结构,通过unify interface抽象出了各种图算子,通过encoder抽象了多种信息聚合方式;

整个9N GL将外部数据与样本关联的图信息抽象成了SubGraph,支持多种不同形式的SubGraph,不仅可以支持数据样本级别,甚至可以直接关联到在线检索系统甚至图引擎。

9N GL也支持多种方式的主模型+图模型训练模式,多阶段训练以及端到端联合训练。

图片

9N GL中的API设计相对简单易用,主要包含有几个层次的训练接口:

  • 图结构的点、边设计,支持多种行为类型,属性类型
  • 图的采样方法种类包含有随机、带权、Meta-Path等等
  • 图算法层面包含有常见的GNN和Graph Embedding两大类

左侧是一段实例代码,仅需简单的函数调用,即可完成图解析,图邻居获取等操作。

4. 图在推荐、电商场景的典型 End2End 建模思路

图片

接下来,向大家介绍一下图在推荐、广告场景中的典型端到端建模思路。

以CTR模型为例,在信息源部分引入用户和商品的交互图结构化信息,通过图的统一操作接口获取出建模所需要的图特征,然后经过特征编码器编码为常见的id类特征,后续可以通过一系列的Graph Encoder获取到用户、商品的高阶关系表征。

此外,在异构图网络中,我们可以对不同语义空间进行节点信息聚合,来捕捉到用户的潜在行为意图。

当然,以上是一个常见的End2End联合建模、联合训练的思路。接下来的部分,给大家详细介绍我们提出的一个具体模型BVSHG是如何做的。

03 BVSHG

1. BVSHG:业界常见图算法 Graph Embedding

图片

我们在详细介绍BVSHG模型之前,还是先来看一下业界常见的图算法和图应用。

首先是Graph Embedding类算法,顾名思义,GE类的算法本质上就是将低阶特征进行Embedding化,业界常用的有DeepWalk、Node2Vec、LINE、EGES,他们的思路大同小异,如下图举例来说:

  • 将用户的行为序列按某种标准拆分
  • 将拆分后的item构建一张同质图
  • 在图上随机游走,生成不同的游走序列/游走词
  • 按不同应用送入到类似于Skip-Gram的结构中

但这种做法通常适用于无监督学习,其监督信号与最终目标通常不一致,只适用于多阶段训练。也没有充分发掘高阶的潜在关联关系。

2. BVSHG:业界常见图算法 Graph Neural Network

图片

我们再来看下GNN系列的常见算法和模型。

主要有这几类:U-I二部图、用户session图、社交网络、知识图谱。

在建模中也通常是围绕U-U、U-I、I-I三大类关系进行特征及属性关系挖掘。但他的好处是可以结合最终建模的目标进行端到端学习。

3. BVSHG:Multi-behavior Multi-view Session-based Heterogeneous GNN

图片

以上的两类建模适用场景不同,我们在其中发现存在一些不足,如:

  • 朴素的U-I关系图中并没有充分利用Side Information(如商品的类别,商品的品牌、商家店铺等等)
  • U-I之间的关系类型很丰富,不仅仅是常见的点击、购买关系,在用户与商品的长期交互中,往往存在加购、分享、打赏、点赞、收藏等等。
  • 常见的Session-Based Transformer建模,并没有考虑Item间丰富的关联关系,也没有考虑session之间的关系。
  • 针对我们之前跟大家提及的“极度长尾效应”,不同用户的行为序列长短差距很大,在工业化场景下,出现的效果与性能Trade-off难题。

而我们非常贪心地希望既要对短期用户行为序列建模,又要对长期用户商品交互信息的多视图抽取,还要在一定程度上解决序列化建模带来的性能挑战。

作为成年人,想全都要!因此我们提出了BVSHG,即 Multi-behavior Multi-view Session-based Heterogeneous GNN 建模方式。它的大致示意图如下,左侧为图信息的构建,右侧为图建模方式图,接下来我们会分部分详细讲讲。

① BVSHG:Long-term Multi-Behavior Session Heterogeneous Graph

图片

首先,我们重点讲讲如何构建的这一张长期用户多种行为session-based 异构图。

这是一张多元异构图,在图中你可以看到至少4类节点,比如红色的User节点,蓝色的Item节点,黄色的Category节点,绿色的Brand节点等等。

此外,构图时,我们采用了用户和商品、类目、品牌之间复杂的交互关系,比如上方的这个白色框中描述的是我们构建图时候用了用户的长期浏览session关系,比如session1中包含item序列,对应的category序列,对应的brand序列;

下方的框中,描述的是我们采用了用户的长期复杂行为数据,比如User1分享了Item4,也就分享了对应的类目C3和对应的品牌B3;

在右侧的图中,可以看出来,U1对I1、I2、I3都有浏览边连接,但是对于I4有share 分享边链接,U2对I3有AddCart加购边链接。而图中的I1、I2、I3之间由于存在同一个session内,有共同出现的关系,有共现边。

右侧中间的图描述的是User跟类目之间的边情况,右下方的图描述的是用户和品牌之间的边的情况。

在此特别说明的是,我们只有一张包含多种节点、多种行为边的异构大图,右侧的三个小图,是在大图中截取的一小段示意图。

当然了,在构建这张大图的时候,我们也有一些超参数需要调节,比如session切分的时间准则,通常采用30min作为gap,但是并不是最优。

② BVSHG:Multi-Behavior Sample

图片

这一页我们的模型分为三个部分:

  • 传统主模型部分,包含有UserFeature、ItemFeature、ContextFeature经过像DCN等经典结构后,计算出一个Embedding
  • 图模型输出一个Embedding
  • 短期用户session信息经过Transformer输出一个Embedding

将上述3个Embedding Concat在一起,最终经过MLP输出pCTR。

我们先重点介绍红框中的部分,这部分是我们的TargetUser从我们的大图中采样找到的交互过的Item,排成一个list,用作target user的一种表达,也可以简单理解为1阶邻居。

对于 target user,我们首先采用 Behavior-Weighted Random Sample 的方式采样得到他的一跳 item 邻居,具体而言,该采样方式通过业务自定义的行为权重,对用户的不同行为类型的邻居节点进行加权的随机采样。而对于 target item 以及第一次采样得到的 user 的一跳 item 邻居,我们采用同质采样(Homogeneous Sample)的方式,从图中得到相同类型的邻居节点。

③ BVSHG:Multi-View Attention-Based Item SAGE

图片

现在,我们重点介绍BVSHG的精髓,Multi-View信息的抽取和Attention玩法。

对应到上方的I1,我们在大图中,找到I1的i-i关系表征,也找到I1对应的类别C的c-c关系表征,同理,我们也找到了I1对应的品牌B的b-b关系表征,这三段向量与I、C、B构建出相应的Attention 变换后concat在一起,形成一个O。

同理,I2、I3到In形成O2、O3到On

同理,TargetItem It形成Ot,将O1~On的向量与Ot进行Attention计算。

④ BVSHG:Transformer-based Short-term Behavior Modeling

图片

上图的红色框中,我们仍然借用Transformer对用户的短期行为local session进行序列关系的抽取,用来提取短期兴趣。

我们的BVSHG的思路大致介绍完毕了,模型结构虽然复杂,但是建模思路比较清晰容易理解。

4. 业务效果

图片

我们将BVSHG模型在京东推荐广告的精排场景进行了实验,模型的点击消费有相应上涨。当然模型结构也可以作为抛砖引玉,图表征信息与主模型可以采用多种方式进行交互作用,End2End训练。

5. 图算法的其他玩法

图片

我们再来看看我们尝试过的其他图算法的玩法:

  • 我们借助实时图,建立了User Item之间的二部图,并实时更新图内点边关系,从中发掘出了连通的节点簇,我们以最大团、正则化割构成更加合理的兴趣簇的分类标准。
  • 在工业化场景上,很多时候,数据中是存在缺失和错误的,我们利用了U-I、U-C的事实图,两者进行联合修正,对数据做了增强和清洗。

04 未来展望

图片

未来展望,我们最近一年在图上玩了不少花样,但总起来看,还有两个点我们还有很强的兴趣继续探索:

  • AutoML on Graph,由于我们构建一张图,进行联合建模的试验调试成本高,尤其是在超参的调试上耗费了不少人力,亟待一个可以解放人力的超参调整方法,我们后续希望借助AutoML的方法用资源换人力加快实验迭代速度。
  • 基于图的强化学习,开篇我们找到了推荐系统的本质问题是在解决用户和商品之间的关联关系,但这种关联关系既有短期的、也有长期的,但业务评价标准更多是短期内能带来多少点击、多少商品购买,很难对长期的奖励进行评估和建模,我们目前正在结合RL的方法,对用户长期购物路径、对京东购物的喜好性分析、品牌影响力分析等等问题进行尝试中。

我们一系列关于广告、推荐算法的探索及工程实践将不止于图,9N AI团队后续也会尝试通过开源或分享的方式进一步与同行更好地交流和互相学习。


本文地址:https://www.6aiq.com/article/1622768140164
本文版权归作者和AIQ共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出