当前位置: 马蜂 >> 马蜂的习性 >> 机器学习在马蜂窝酒店聚合中的应用初探北
出门旅行,订酒店是必不可少的一个环节。住得干净、舒心对于每个出门在外的人来说都非常重要。
在线预订酒店让这件事更加方便。当用户在马蜂窝打开一家选中的酒店时,不同供应商提供的预订信息会形成一个聚合列表准确地展示给用户。这样做首先避免同样的信息多次展示给用户影响体验,更重要的是帮助用户进行全网酒店实时比价,快速找到性价比最高的供应商,完成消费决策。
酒店聚合能力的强弱,决定着用户预订酒店时可选价格的「厚度」,进而影响用户个性化、多元化的预订体验。为了使酒店聚合更加实时、准确、高效,现在马蜂窝酒店业务中近80%的聚合任务都是由机器自动完成。本文将详细阐述酒店聚合是什么,以及时下热门的机器学习技术在酒店聚合中是如何应用的。
Part.1
应用场景和挑战
1.酒店聚合的应用场景
马蜂窝酒旅平台接入了大量的供应商,不同供应商会提供很多相同的酒店,但对同一酒店的描述可能会存在差异,比如:
酒店聚合要做的,就是将这些来自不同供应商的酒店信息聚合在一起集中展示给用户,为用户提供一站式实时比价预订服务:
下图为马蜂窝对不同供应商的酒店进行聚合后的展示,不同供应商的报价一目了然,用户进行消费决策更加高效、便捷。
2.挑战
(1)准确性
上文说过,不同供应商对于同一酒店的描述可能存在偏差。如果聚合出现错误,就会导致用户在App中看到的酒店不是实际想要预订的:
在上图中,用户在App中希望打开的是「精途酒店」,但系统可能为用户订到了供应商E提供的「精品酒店」,对于这类聚合错误的酒店我们称之为「AB店」。可以想象,当到店后却发现没有订单,这无疑会给用户体验造成灾难性的影响。
(2)实时性
解决上述问题,最直接的方式就是全部采取人工聚合。人工聚合可以保证高准确率,在供应商和酒店数据量还不是那么大的时候是可行的。
但马蜂窝对接的是全网供应商的酒店资源。采用人工的方式聚合处理得会非常慢,一来会造成一些酒店资源没有聚合,无法为用户展示丰富的预订信息;二是如果价格出现波动,无法为用户及时提供当前报价。而且还会耗费大量的人力资源。
酒店聚合的重要性显而易见。但随着业务的发展,接入的酒店数据快速增长,越来越多的技术难点和挑战接踵而来。
Part.2
初期方案:余弦相似度算法
初期我们基于余弦相似度算法进行酒店聚合处理,以期降低人工成本,提高聚合效率。
通常情况下,有了名称、地址、坐标这些信息,我们就能对一家酒店进行唯一确定。当然,最容易想到的技术方案就是通过比对两家酒店的名称、地址、距离来判断是否相同。
基于以上分析,我们初版技术方案的聚合流程为:
1.输入待聚合酒店A;
2.ES搜索与A酒店相距5km范围内相似度最高的N家线上酒店;
3.N家酒店与A酒店分别开始进行两两比对;
4.酒店两两计算整体名称余弦相似度、整体地址余弦相似度、距离;
5.通过人工制定相似度、距离的阈值来得出酒店是否相同的结论。
整体流程示意图如下:
「酒店聚合流程V1」上线后,我们验证了这个方案是可行的。它最大的优点就是简单,技术实现、维护成本很低,同时机器也能自动处理部分酒店聚合任务,相比完全人工处理更加高效及时。
但也正是因为这个方案太简单了,问题也同样明显,我们来看下面的例子(图中数据虚构,仅为方便举例):
相信我们每个人都可以很快判断出这是两家不同的酒店。但是当机器进行整体的相似度计算时,得到的数值并不低:
为了降低误差率,我们需要将相似度比对的阈值提升至一个较高的指标范围内,因此大量的相似酒店都不会自动聚合,仍需要人工处理。
最后,此版方案机器能自动处理的部分只占到约30%,剩余70%仍需要人工处理;且机器自动聚合准确率约为95%,也就是有5%的概率会产生AB店,用户到店无单,入住体验非常不好。
于是,伴随着机器学习的兴起,我们开始了将机器学习技术应用于酒店聚合中的探索之旅,来解决实时性和准确性这对矛盾。
Part.3
机器学习在酒店聚合中的应用
下面我将结合酒店聚合业务场景,分别从机器学习中的分词处理、特征构建、算法选择、模型训练迭代、模型效果来一一介绍。
3.1分词处理
之前的方案通过比对「整体名称、地址」获取相似度,粒度太粗。
分词是指对酒店名称、地址等进行文本切割,将整体的字符串分为结构化的数据,目的是解决名称、地址整体比对粒度太粗的问题,同时也为后面构建特征向量做准备。
3.1.1分词词典
在聊具体的名称、地址分词之前,我们先来聊一下分词词典的构建。现有分词技术一般都基于词典进行分词,词典是否丰富、准确,往往决定了分词结果的好坏。
在对酒店的名称分词时,我们需要使用到酒店品牌、酒店类型词典,如果纯靠人工维护的话,需要耗费大量的人力,且效率较低,很难维护出一套丰富的词典。
在这里我们使用统计的思想,采用机器+人工的方式来快速维护分词词典:
1.随机选取+酒店,获取其名称数据;
2.对名称从后往前、从前往后依次逐级切割;
3.每一次切割获取切割词且切割词的出现频率+1;
4.出现频率较高的词,往往就是酒店品牌词或类型词。
上表中示意的是出现频率较高的词,得到这些词后再经过人工简单筛查,很快就能构建出酒店品牌、酒店类型的分词词典。
3.1.2名称分词
想象一下人是如何比对两家酒店名称的?比如:
A:7天酒店(酒仙桥店)
B:如家酒店(望京店)
首先,因为经验知识的存在,人会不自觉地进行「先分词后对比」的判断过程,即:
7天---如家
酒店---酒店
酒仙桥店---望京店
所以要想对比准确,我们得按照人的思维进行分词。经过对大量酒店名称进行人工模拟分词,我们对酒店名称分为如下结构化字段:
着重说下「类型前2字」这个字段。假如我们需要对如下2家酒店名称进行分词:
酒店1:龙门南昆山碧桂园紫来龙庭温泉度假别墅
酒店2:龙门南昆山碧桂园瀚名居温泉度假别墅
分词效果如下:
我们看到分词后各个字段相似度都很高。但类型前2字分别为:
酒店1类型前2字:龙庭
酒店2类型前2字:名居
这种情况下此字段(类型前2字)具有极高的区分度,因此可以作为一个很高效的对比特征。
3.1.3地址分词
同样,模拟人的思维进行地址分词,使之地址的比对粒度更细更具体。具体分词方式见下图:
下面是具体的分词效果展示如下:
小结
分词解决了对比粒度太粗的缺点,现在我们大约有了20个对比维度。但对比规则、阈值怎么确定呢?
人工制定规则、阈值存在很多缺点,比如:
1.规则多变。20个对比维度进行组合会出现N个规则,人工不可能全部覆盖这些规则;
2.人工制定阈值容易受「经验主义」先导,容易出现误判。
3.所以,对比维度虽然丰富了,但规则制定的难度相对来说提升了N个数量级。机器学习的出现,正好可以弥补这个缺点。机器学习通过大量训练数据,从而学习到多变的规则,有效解决人基本无法完成的任务。
下面我们来详细看下特征构建以及机器学习的过程。
3.2特征构建
我们花了很大的力气来模拟人的思维进行分词,其实也是为构建特征向量做准备。
特征构建的过程其实也是模拟人思维的一个过程,目的是针对分词的结构化数据进行两两比对,将比对结果数字化以构造特征向量,为机器学习做准备。
对于不同供应商,我们确定能拿到的数据主要包括酒店名称、地址、坐标经纬度,可能获得的数据还包括电话和邮箱。
1.经过一系列数据调研,最终确定可用的数据为名称、地址、电话,主要是:因为
2.部分供应商经纬度坐标系有问题,精准度不高,因此我们暂不使用,但待聚合酒店距离限制在5km范围内;
3.邮箱覆盖率较低,暂不使用。
4.要注意的是,名称、地址拓展对比维度主要基于其分词结果,但电话数据加入对比的话首先要进行电话数据格式的清洗。
最终确定的特征向量大致如下,因为相似度算法比较简单,这里不再赘述:
3.3算法选择:决策树
判断酒店是否相同,很明显这是有监督的二分类问题,判断标准为:
有人工标注的训练集、验证集、测试集;
输入两家酒店,模型返回的结果只分为「相同」或「不同」两类情况。
·
经过对多个现有成熟算法的对比,我们最终选择了决策树,核心思想是根据在不同Feature上的划分,最终得到决策树。每一次划分都向减小信息熵的方向进行,从而做到每一次划分都减少一次不确定性。这里摘录一张图片,方便大家理解:
(图源:《机器学习西瓜书》)
3.3.1AdaBoostingORGradientBoosting
具体的算法我们选择的是Boosting。「三个臭皮匠,顶过诸葛亮」这句话是对Boosting很好的描述。Boosting类似于专家会诊,一个人决策可能会有不确定性,可能会失误,但一群人最终决策产生的误差通常就会非常小。
Boosting一般以树模型作为基础,其分类目前主要为AdaBoosting、GradientBoosting。AdaBoosting初次得出来一个模型,存在无法拟合的点,然后对无法拟合的点提高权重,依次得到多个模型。得出来的多个模型,在预测的时候进行投票选择。如下图所示:
GradientBoosting则是通过对前一个模型产生的错误由后一个模型去拟合,对于后一个模型产生的错误再由后面一个模型去拟合…然后依次叠加这些模型:
一般来说,GradientBoosting在工业界使用的更广泛,我们也以GradientBoosting作为基础。
3.3.2XGBoostORLightGBM
XGBoost、LightGBM都是GradientBoosting的一种高效系统实现。
我们分别从内存占用、准确率、训练耗时方面进行了对比,LightGBM内存占用降低了很多,准确率方面两者基本一致,但训练耗时却也降低了很多。
内存占用对比:
准确率对比:
训练耗时对比:
(图源:微软亚洲研究院)
基于以上对比数据参考,为了模型快速迭代训练,我们最终选择了LightGBM。
3.4模型训练迭代
由于使用LightGBM,训练耗时大大缩小,所以我们可以进行快速的迭代。
模型训练主要
转载请注明:http://www.aideyishus.com/lkyy/2000.html