目录
- 架构的重要性
- 经典架构
- 1.数据流
- 2.在线层
- 3.离线层
- 4.近线层
- 简化架构
- 总结
你是否曾经觉得算法就是推荐系统的全部,即便不是全部,至少也是嫡长子,然而实际上,工程实现才是推荐系统的骨架。如果没有好的软件实现,算法不能落地产生效果,产品不能顺畅地服务用户,不能顺利地收集到用户的反馈,更不能让推荐系统往更好的方向进化。
一个好的推荐系统不仅仅是在线下模型评测指标多么好,也不仅仅是在某个时刻像灵光乍现一样击中用户某个口味,而是随着用户的不断使用,产品和用户一起变好,产品背后的人得到进步,用户也越来越喜欢产品。
虽然影响用户产品的因素有很多很多,但是能否流畅得给用户推荐服务是一个最基本的标准。
架构的重要性
推荐系统向来是一个锦上添花的东西,传统的观点是推荐系统更加注重线下模型的效果,而非线上的服务质量,然而,时至今日,推荐系统不再是锦上添花,而是承担了产品的核心功能。
因此,对推荐系统架构的要求也高了很多。
一个好的推荐系统应该具备这些特质:
1.实时响应请求
2.及时、准确、全面记录用户反馈;
3.可以优雅降级
4.快速实验多种策略
上一篇介绍了当下最热门的推荐系统产品形式-信息流的架构,信息流并不是传统意义上的推荐系统,今天要介绍一种更符合经典推荐系统的架构,这就是著名的流媒体Netflix的推荐系统架构。
通过这篇文章,我会为你介绍,实现一个简化版的推荐系统架构应该至少包含哪些元素,同时,我会带你一起总结出,一个经典推荐系统架构应该有的样子。
经典架构
这张图就是Netflix的推荐系统架构图。
我先整体看一下这个架构,一共分成三层:在线、近线、离线。何为近线?近线是通常不太提的一个概念,或者通常就把他归入了在线的范畴。
实际上,可以这样定义这三个层级:
1.离线:不用实时数据,不提供实时服务;
2.近线:使用实时数据,不保证实时服务;
3.在线:使用实时数据,要保证实时服务;
在具体介绍这些内容之前,我先来说说数据流的情况。
1.数据流
用户在产品UI使用产品,消费展示的内容,产生行为事件数据,实时地被收集走,一边进入分布式的文件系统中存储,供离线阶段使用,另一边流向近线层的消息队列,供近线阶段的流计算使用。
离线存储的全量数据被抽取出来,组成离线计算所需的训练数据,这些训练数据被一个管理数据生成和发布的组件统一管理,要使用数据的下游,比如模型训练会在离线数据生成时得到这个组件的通知,
从而开始训练,训练得到的模型用于进一步为用户计算推荐结果。
离线阶段的推荐结果或者模型在线阶段被更新,进一步在在线阶段被直接使用,产生最终的推荐结果,呈现给用户。
这是整个数据流情况。下面我一一详细介绍每个部分。
2.在线层
在线层的触发时机是当用户发出请求,也就是用户进入一个推荐场景,推荐位等着展示推荐结果时,这个时候需要承担责任就是在线层。在线层就是实时响应用户请求。简单说,在线层的特点就是“使用实时数据”,要保证实时服务。
在线层的优势有:
1.直接首次接触到大多数最新数据
2.对用户请求时的上下文了如指掌;
3.只需计算必须的信息,不需考虑所有的信息。
在线层也有严格的制约:
1.严格的服务响应时间,不能超时,或者让用户等太久;
2.服务要保证可用性,稳定性;
3,传输的数据有限;
在线层常常展示的形式就是RestAPI形式,后端则通常是RPC服务内部相互调用,以用户ID、场景信息去请求,通常就在ms响应时间内返回json形式的推荐结果。那么哪些计算逻辑适合放在在线层呢?
1.简单的算法逻辑;
2.模型的预测阶段;
3.商业目标相关的过滤或者调用权逻辑;
4.场景有关的一些逻辑;
5.互动性强的一些算法。
在线阶段要处理的对象一般是已经处理后的推荐结果,是少量物品集合。
比如说当用户访问一个物品详情页,需要做相关推荐,那么在线阶段给在线服务的Rest Api传入用户身份以及当前的物品ID,
实时地取出物品ID对应的相关物品ID,再根据用户信息对这些物品ID做一些重排和过滤,就可以输出了,整个过程都是在ms级别完成。
这个实时响应的过程中,如果发生意外,比如说这个物品ID就没有相关的物品,那么这时候服务就需要降级,所谓降级就是不能达到最好的效果了,但是不能低于最低要求,这里的最低要求就是必须要返回东西,不能开天窗。
于是,这就降级为取出热门排行榜返回。虽然不是个性化的相关结果,但是总比开天窗要好。这就是服务的可用性。
在线阶段还要实时地分发用户事件数据,就是当用户不断使用产品过程产生的行为数据,需要实时地上报给有关模块。这一部分也是需要实时地,比如用于防重复推荐的过滤。
3.离线层
讲完在线层,再来看看离线层。离线层就是躲在推荐系统的大后方,批量、周期性地执行一些计算任务。其特点是“不同实时数据,不提供实时服务”。
离线层的示意图如下:
离线阶段主要面对的数据源就是Hadoop,实质上是HDFS。收集到的所有日志都存在这里面,是一个全量的数据中心。
通过pig或者hive等工具,从全量日志中按照算法要求抽取出不同的数据,再加上其他数据变化了不同算法所需的数据源。
如果这种数据源比较多时,就需要有专门的工具统一管理来,这个管理上要求:
1.数据准备好之后及时通知相关方,也就是要有订阅发布的模型;
2.能够满足下游不同的存储系统;
3.完整的监控体系,并且监控过程对于数据使用方是透明的。
在Netflix内部,承担这个管理任务的工具叫做Hermes,类似kafka,但是又有不同的内部工具。
离线阶段的任务主要是两类:模型训练和推荐结果计算。
通常机器学习类模型,尤其是监督学习和非监督学习,都是需要大量的数据和多次迭代,这类型的模型训练任务适合放在离线阶段。
举个例子,你已知道推荐系统中会有召回和融合排序这两个阶段。通常一些推荐算法,例如协同过滤就是在离线阶段计算出每个人的推荐结果,作为线上融合排序的候选集之一,也就是示意图中的推荐结果。
另一方面,假如融合排序模型时逻辑回归,那么逻辑回归模型的参数也通常在离线阶段训练完成的,在线阶段也只是取出来参数用于计算而已。
离线阶段有以下这么几个好处:
1.可以处理最大的数据量
2.可进行批量处理和计算;
3.不同有响应时间等要求。
当然坏处也是明显的:
1.无法及时响应前端需求:
2.面对的数据较静态,无法及时反应用户的兴趣变化。
大多数推荐算法,实际上都是在离线阶段产生推荐结果的。离线阶段的推荐计算和模型训练,如果要用分布式框架,通常可以选择Spark等。
4.近线层
最后,我来讲讲近线层。近线层的特点是“使用实时数据,不保证实时服务”,这实际是一个很不讲道理的计算层,因为把它的特点翻译得直白点就是:喂给我最新鲜的牧草,但是我并不保证能马上给你挤奶,
虽然这看上去蛮不讲理,但实际上这是一个非常重要的一层,它结合了离线层和在线层的好处,摒弃了两者的不足。
近线层,也叫做准实时层,所谓准实时,就是接近实时,但不是真的实时。
从前面的架构图也可以看成,这一层的数据来源是实时的行为事件队列,但是计算的结果并不是沿着输入数据的方面原路返回,而是进入了在线数据库中,得到用户真正发起请求时,再提供服务。
一个典型的近线计算任务是这样的:从事件队列中获取最新的一个活少许几个用户反馈行为,首先将这些用户已经反馈过的物品从离线推荐结果中剔除,进一步,用这几个反馈行为作为样本,以小批量梯度下降的优化方法去更新融合模型的参数。
这两个计算任务都不会也不需要立即对用户作出相应,也不必须在下一次用户请求时就产生效果,就是说当用户实时请求时,不需要去等待近线任务的最新结果,因为两种是异步的。
近线计算任务一个核心的组件就是流计算,因为它要处理的实时数据流。常用的流计算框架有storm,sprak Streaming,Flink等,Netflix采用的内部流计算框架Manhattan,这和Storm类似。
略有区别的是Spark Streaming,实际上并不是实时流计算,而是小批量计算。
简化架构
Netflix是为全球多个国家同时提供在线服务的,因此推荐系统的架构略显复杂。倘若你现在刚接收一个新产品,要从0开始搭建一个推荐系统,那么可以以Netflix的架构作为蓝本,做一定的简化。
关键简化有两点:
1.完全舍弃掉近线层
2.避免使用分布式系统。
其中第二点,在一个新产品的场景下,当数据量还没有那么大时,使用分布式存储或者计算框架,非常不划算。
如果性能不足,请升级单机配置。根据经验,一个几千万用户,几十万到百万的物品的协同过滤或者矩阵分解,如果充分发挥单机的性能,综合效率会远远优于在Spark上运行。
另外在一个推荐系统刚从0开始的阶段,离线阶段的算法也没有那么多,很多情况甚至都只有协同过滤结果,这时候线上模型也不必那么复杂,一个简单的加权融合就可以了,因此在线层也不必复杂。
总结
今天我以Netflix架构为原型,向你介绍了一个经典的推荐系统架构长什么样子。关于这个架构你只需要记住一点:它有三层,三层分别是离线,近线 ,在线。
我用如下的表格将这三层综合对比,并且简单举例,我们看看每一层分别放哪些任务。