登录
首页大数据时代如何用python预测“命定的那个TA”什么时候住酒店?
如何用python预测“命定的那个TA”什么时候住酒店?
2020-05-25
收藏

如何预测“命定的那个TA”什么时候住酒店?

作者:野水晶体 

来源:livandata


看到这个题目,大家是否会有一些小小的想法?别闹了!笔者是一个正经人,讨论的也是一个有关python的技术问题,哈哈~

每个人的行为都是有迹可循的,这些蛛丝马迹可以作为预测的数据支持,有没有想过一个人什么时候住酒店能够被预测出来?笔者作为一个从事机器学习方面的程序员,对这一问题表示肯定,因为,如果不信就没有工作了。

笔者以为:所谓预测即为通过历史上遗留下来的蛛丝马迹:行为、订单甚至大厅门口的摄像头,判断某个人接下来的行为举动。这样的预测多少还是有些价值的,毕竟,人的想法是会通过行为表达出来,想法是渐变的,也就预示着行为存在一定的连续性。

试想一下,如果一个人或者一个公司能有客户在某个地方的消费记录,以及通过观察分析发现客户的基本特征数据量足够大的情况下是否能够预测出客人什么时候入住酒店呢?我想结论大家都知道了~

作为一个旁观者和理论家(哈哈),我们来一起探讨一下,什么样的特征和模型能够预测出客户住酒店的时间?

有没有一点小小激动,毕竟预测是在不确定性中寻找肯定~

01、酒店预测的价值 Value

有谁会关心酒店的预测结果呢?

如果你想到的是情感问题,哈哈,我想该让你失望了,因为笔者是一个满心工作的狂人。姑且将上面的人群算作一个吧,还会有谁呢?

1) 心系万千客户的大老板们;

2) 将骄傲赋予代码的程序员们;

3) 天天接待客户的销售精英们;

4) 想尽奇招探索客户的运营大佬们;

……

预测的价值在于能够帮助决策者减少混乱,是否到店?什么时候到店?的基础上实现客群的细分并在细分客群的思路下挖掘客户更深入的价值。在大数据领域中,预测将会是大数据的核心价值。

02、预测的思路 Thoughts

什么样的客户会进入到我们的酒店呢?

客户什么样的行为预示着要来酒店了呢?

我想这是酒店运营或老板最关心的问题吧?

正如上文所言,一个好的预测是需要对历史数据进行充分的解读,然后基于数据特性进行模型的构建,最终得到预测结果。

因此,我们需要分析一下什么样的情况下才会发生酒店入住行为,以及入住时间受什么因素影响?

对于酒店的入住,往往受较多方面的影响:出差、旅游、走亲访友……

入住时间呢?影响入住时间的因素往往较为宽泛,比如:春夏秋冬季节时令、酒店所处城市、酒店附近交通的便利程度、天气情况等等……

再结合酒店的定位、客户的年龄、性别,以及从着装、谈吐定位出的薪资水平、社会阶层等几乎可以勾勒出一个较为完整的特征集合了。

基本特征如下:

如何预测“命定的那个TA”什么时候住酒店?

其中有些特征是需要进行线下录入,或者逻辑推理完成,比如:入住目的,在华为公司附近的酒店,见到来自上海的华为员工,工作日独身一人办理入住,完全有理由相信,他来是出差的~

特征整理好之后我们就需要对模型有一个预判了:

首先这是一个连续值预测模型,我们姑且把时间转化成连续值,预测到月日粒度就可以了。

常见的连续值预测模型有如下几个:

1) 线性回归

2) 神经网络RNN等;

3) 决策树融合线性回归等;

4) ARIMA等时间序列模型;

每一种模型都会有他的优势和缺点,比如:线性回归预测方便简单,但是较难解决自相关的问题;神经网络能较好的拟合高维特性但是解释性较差;ARIMA需要较强的融合时间因素等等。他们的优缺点包括但不限于这些描述,有兴趣的读者可以深入了解一下。

本文笔者采用的是决策树融合线性回归GBDT+Ridge的建模方式,这一方式主要是受到GBDT+LR模型的启发,facebook构建的GBDT+LR融合模型在点击率预测中效果显著,曾一度在各个公司中应用,但是在连续值预测中多少会有一些不足,毕竟LR模型是一个用线性回归实现的分类模型,曲线的调整会影响预测的效果。

GBDT+Ridge融合模型用岭回归替换掉了LR的部分,对应功能上Ridge更适合进行连续值的预测。另外,Ridge可以通过添加约束条件以及惩罚系数,限定预测范围和解决多重共线性的问题,预测结果调整上具有一定程度的灵活性;

GBDT本身在决策树方面有较好的名气:

1) 其对特征值有较好的容忍性,数据有空值、异常值等情况下都可以有效运行;

2) 对较高维度的特征融合效果也较为突出,因为树的特性,GBDT能够有效的探索高维的特征特性,每一个树状分支都是对多个特征的高维度融合;

3) 由于其boosting的设计思路,不停的迭代优化能够迅速提升模型的准确性;

所以GBDT从一出生就是明星算法。

但是其本身也存在一定的缺点:

1) 树的每个分支都有一个维度相乘的效果,每个维度的变化都会引发整体的变化,因此其灵敏度较高,容易过拟合

2) 无法较好的用在连续值预测上,GBDT本质上还是一个分类算法;

而Ridge刚好弥补了这一问题,线性回归Ridge中各个特征值是相加的,单个特征的变化对整体的影响较小,同时Ridge本身就是用来进行连续值预测的,又较好的解决了多重共线性的问题。

基于上面的考虑,笔者对两个模型进行了融合,让有情人终成眷属。

如何预测“命定的那个TA”什么时候住酒店?

03、预测的实现逻辑 Logic

模型的预测基本上遵循数据建模的常规套路,我们借这个机会将流程进行一些梳理:

1) 特征清洗:数据的离散化、归一化,缺失值填充,one_hot/WOE变化等;

2) 特征降维降维主要有两方面原因,其一是维度之间有一些共线性,我们在训练过程中需要把对y值影响不大或者x之间相互影响的特征剔除掉;其二是当我们用one_hot进行向量化变化之后,往往存在梯度爆炸等问题,为了解决这一问题,我们经常用到的方法有:主成分分析、因子分析、决策树筛选、相关系数计算、embedding、稀疏自编码等;

3) 切分训练集和测试集:在训练集和测试集的切分中常用的方法有两个:其一是按照一定比例随机提取,比如:随机2:8分,80%数据做训练集,20%数据做测试集,这一方法简单高效,但是训练的准确性较低;其二:K-fold切分,将数据集拆分成测试集和训练集之后,对训练集进行K折拆分,循环训练,循环验证,可以有效防止过拟合的现象;

4) 构建模型:模型的构建正如上文提到的,我们使用的GBDT+Ridge融合模型,在建模过程中,需要格外小心模型的输入和输出数据格式,通常我们会把融合模型整合成一个函数,那么对应的参数作为输入数据就需要做好格式对照;

5) 模型保存/使用:训练好的模型需要进行保存固话,这样可以避免下次使用模型的时候重新训练,毕竟一次模型的训练需要较长的时间,固话模型的一些常用方法有:pickle、joblib等,对于一些深度学习的模型存在各自的方法,比如keras中的model.save();模型使用时也有对应的方法,比如:joblib和pickle中的loads函数,可以有效的还原训练好的模型,直接使用到生产环境中。

6) 训练结果验证:训练结果需要进行比较才能知道好坏,我们通常会选择多个模型,融合之后通过一定的指标进行比较,常用的比较指标有:F-score、AUC、ROC曲线等。

上面即为构建模型的常规思路,在这样的思路下,我们实现了酒店入住时间的预测,小小的满足了一下宅男的臆想,看到这里估计会被我的技术折服吧,哈哈,小小调侃一下~

下面是作为程序员的必备课了,上代码~

04、预测代码 Code

预测代码主要是基于下面的思路进行构建的:

1)数据结构为:

如何预测“命定的那个TA”什么时候住酒店?

2)文件结构为:

如何预测“命定的那个TA”什么时候住酒店?

3) 对应代码为:

首先需要对代码进行特征处理;

……

grd = GradientBoostingClassifier(n_estimators=60)# 调用one-hot编码。grd_enc = OneHotEncoder()# 调用LR分类模型。# grd_lm = LogisticRegression()grd_lm = RidgeCV(alphas=[0.1, 1.0, 10.0])# 使用X_train训练GBDT模型,后面用此模型构造特征grd.fit(train_X, train_y)# fit one-hot编码器grd_enc.fit(grd.apply(train_X)[:, :, 0])# 使用训练好的GBDT模型构建特征,然后将特征经过one-hot编码作为新的特征输入到LR模型训练。# clf = grd_lm.fit(grd_enc.transform(grd.apply(X_train_lr)[:, :, 0]), y_train_lr)clf = grd_lm.fit(grd_enc.transform(grd.apply(X_train_lr)[:, :, 0]), y_train_lr)   # 线性回归建模# 用训练好的LR模型对X_test做预测y_pred_grd_lm = grd_lm.predict(grd_enc.transform(grd.apply(test_X)[:, :, 0]))

……

其次需要进行数据汇总;

……

data_s = pd.merge(data_1_4, data_2_2, on='id', how='inner')data_s = pd.merge(data_s, data_3_4, on='id', how='inner')data_s = pd.merge(data_s, data_4_2, on='id', how='inner').drop_duplicates().reset_index()data_s = data_s.filter(regex="[^'index']")data_s.to_csv('data_s.csv', encoding="utf_8_sig")

……

最后就是验证和使用;

grd = GradientBoostingClassifier(n_estimators=60)# 调用one-hot编码。grd_enc = OneHotEncoder()# 调用LR分类模型。# grd_lm = LogisticRegression()grd_lm = RidgeCV(alphas=[0.1, 1.0, 10.0])# 使用X_train训练GBDT模型,后面用此模型构造特征grd.fit(train_X, train_y)# fit one-hot编码器grd_enc.fit(grd.apply(train_X)[:, :, 0])# 使用训练好的GBDT模型构建特征,然后将特征经过one-hot编码作为新的特征输入到LR模型训练。# clf = grd_lm.fit(grd_enc.transform(grd.apply(X_train_lr)[:, :, 0]), y_train_lr)clf = grd_lm.fit(grd_enc.transform(grd.apply(X_train_lr)[:, :, 0]), y_train_lr)   # 线性回归建模# 用训练好的LR模型对X_test做预测y_pred_grd_lm = grd_lm.predict(grd_enc.transform(grd.apply(test_X)[:, :, 0]))

……

思路和python代码都只是机器学习的引导,算是建模的一个较为完整的流程,希望能够对大家有所帮助,有兴趣欢迎相互沟通~

数据分析咨询请扫描二维码

最新资讯
更多
客服在线
立即咨询