京公网安备 11010802034615号
经营许可证编号:京B2-20210330
作者:amitvkulkarni
CDA数据分析师编译
对于任何评估来说,最难的是保持简单易操作,在数据科学中也是如此。在任何数据科学项目中,细化数据、微调模型、部署它们的迭代过程都是一个持续的过程。随着工具、算法的进步,以及随着 MLOps 的出现,事情变得容易了很多,而且未来也会继续发展——技术会优化自己。
业务方面呢?说服客户相信使用先进工具和技术构建的复杂模型的预测能力有多容易?客户是否愿意为项目提供资金并信任我们模型的建议?好吧,不妨试着解释模型的 ROC 曲线,试着用特异性和敏感性指标来说服客户——你会看到的只是眼球在滚动。
但是,如果我们能够在没有复杂指标和技术术语的情况下回答业务问题呢?那么,我们就可能有机会从业务部门那里获得支持。在本文中,我们将看到一个用例,在该用例中,我们仍将构建我们的模型,但以不同的方式对其进行解释——业务方式。
使用 ML 模型提取商业价值的方法
在这篇博客中,我们将探索十分位数的使用,了解各种评估图,如累积增益图和提升图等,以评估 ML 模型的商业价值。该方法将帮助我们解释 ML 模型的预测能力,并使解释模型结果变得很简单。这些图表和指标将使企业能够更有信心地做出明智的决策。
我们将在本文中探索以下主题。
我们将使用来自 UCI 机器学习存储库的公开可用的银行数据 集, zip 文件中有四个数据集,但我们感兴趣的是*bank-additional-full.csv。*所有的属性信息都可以在上面的 URL 中找到。数据来自直接营销电话联系客户,以评估客户是否有兴趣订阅银行定期存款。如果订阅,则为 Yes,否则为 No。本文讨论的是如何评估 ML 模型的商业价值。
让我们加载数据并查看一下以便更好的理解数据。
import wget import zipfile import pandas as pd import numpy as np
url = 'https://archive.ics.uci.edu/ml/machine-learning-databases/00222/bank-additional.zip' wget.download(url)
zf = zipfile.ZipFile('bank-additional.zip')
df= pd.read_csv(zf.open('bank-additional/bank-additional-full.csv'), sep=';')
我们可以进行完整的EDA/特征工程/选择重要变量然后构建模型,但为了简单起见,我们将选择很少的变量进行模型构建。
df= df[['y', 'duration', 'campaign', 'pdays', 'previous', 'euribor3m']]
此外,还需要更进一步地探索数据,将目标变量转换为分类变量并对其进行编码。
df.y[df.y == 'yes'] = 'term deposit' df.y = pd.Categorical(df.y)
df['y'] = df.y.cat.codes
df.info()
RangeIndex: 41188 entries, 0 to 41187 Data columns (total 6 columns): # Column Non-Null Count Dtype — —— ————– —– 0 y 41188 non-null int8 1 duration 41188 non-null int64 2 campaign 41188 non-null int64 3 pdays 41188 non-null int64 4 previous 41188 non-null int64 5 euribor3m 41188 non-null float64 dtypes: float64(1), int64(4), int8(1) memory usage: 1.6 MB
df.head() y duration campaign pdays previous euribor3m 0 261 1 999 0 4.857 0 149 1 999 0 4.857 0 226 1 999 0 4.857 0 151 1 999 0 4.857 0 307 1 999 0 4.857
df.describe() y duration campaign pdays previous euribor3m count 41188.000000 41188.000000 41188.000000 41188.000000 41188.000000 41188.000000 mean 0.112654 258.285010 2.567593 962.475454 0.172963 3.621291 std 0.316173 259.279249 2.770014 186.910907 0.494901 1.734447 min 0.000000 0.000000 1.000000 0.000000 0.000000 0.634000 25% 0.000000 102.000000 1.000000 999.000000 0.000000 1.344000 50% 0.000000 180.000000 2.000000 999.000000 0.000000 4.857000 75% 0.000000 319.000000 3.000000 999.000000 0.000000 4.961000 max 1.000000 4918.000000 56.000000 999.000000 7.000000 5.045000
模型构建以提取商业价值
Step1:定义自变量和目标变量
y = df.y X = df.drop('y', axis = 1)
Step2:将数据集拆分为训练集和测试集,其中测试大小为整个数据集的 20%
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.2, random_state = 2021)
Step3:建立逻辑回归模型
from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression # Logistic regression model clf_glm = LogisticRegression(multi_class = 'multinomial', solver = 'newton-cg').fit(X_train, y_train)
prob_glm = clf_glm.predict_proba(X_test)
max_prob_glm = round(pd.DataFrame(np.amax(prob_glm, axis=1), columns = ['prob_glm']),2)
至此,我们已经建立了模型,并在测试数据上对其进行了评分(预测),这为我们提供了每个观察结果的预测概率。
生成十分位数
简单地说,十分位数把数据进行分箱。所以,我们将所有预测的概率分成十组,并对它们进行排名,这意味着最高的预测概率将在十分之一,最低的设置将在十分之一。我们将使用pandas的 cut() 函数拆分数据。
下面的代码行创建一个名为Decile_rank_glm的新列, 它保存每个预测记录的排名。
max_prob_glm['Decile_rank_glm'] = pd.cut(max_prob_glm['prob_glm'], 10, labels = np.arange(10,0, -1))
prob_glm Decile_rank_glm 0 0.99 1 1 0.59 9 2 0.96 1 3 0.83 4 4 0.85 4 ... ... ... 8233 0.98 1 8234 0.98 1 8235 0.99 1 8236 0.99 1 8237 0.93 2
注: 0.99 的概率为 1,0.93 为 2,0.85 为 4,0.59 为 9。我们将在后面的部分中看到此结果的可视化。
模型评估以提取商业价值
我们构建的任何模型都必须与基线模型进行比较,以评估模型的性能。让我们在下面进一步探讨这一点。
我们将在累积增益图中可视化上述模型。展现逻辑回归的性能。
kds.metrics.plot_cumulative_gain(y_test.to_numpy(), prob_glm[:,1])
累积增益图 | 商业价值机器学习模型
到目前为止看起来不错,图在预期线上,逻辑回归模型介于我们讨论的两个极端模型之间。
累积增益图的见解:
到目前为止,我们已经讨论了模型、十分位数及其性能比较。让我们在十分位数级别上进一步探讨这一点,以更清楚地了解发生了什么以及我们如何更好地解释这个过程。我们将在视觉效果的帮助下进行分析,这使它变得更加容易。kds 包有一个非常好的功能,可以在一行代码中生成所有指标报告。
kds.metrics.report(y_test, prob_glm[:,1])
metrics report | Business value ML model
让我们了解这些情节中的每一个。需要注意的是,所有图的 x 轴都是十分位数。
让我们用随机森林再构建一个模型,看看结果如何。
clf_rf = RandomForestClassifier().fit(X_train, y_train)
prob_rf = clf_rf.predict_proba(X_test)
max_prob_rf = pd.DataFrame(np.amax(prob_rf, axis=1), columns = ['prob_rf'])
max_prob_rf['Decile_rank_rf'] = pd.cut(max_prob_rf['prob_rf'], 10, labels = np.arange(10,0, -1))
kds.metrics.plot_cumulative_gain(y_test.to_numpy(), prob_rf[:,1])
kds.metrics.report(y_test, prob_rf[:,1])
img
观察:
业务场景
建议控制:在某些情况下,客户有业务需求,即应始终生成最少 X 条建议。在这种情况下,我们可以通过考虑前 3 个十分位数而不是 2 个十分位数来获得更大的建议,并且还可以对其他记录进行精细控制。
衡量市场反应:推荐后分析和市场反应很容易衡量。例如,从前一点,我们可以单独跟踪来自十分位数 3 的所有额外推荐的表现。来自十分位数 3 的额外推送是否产生了任何影响(正面或负面)?
优化营销支出:通过关注前 20-30% 的人群,企业可以节省时间、资源和金钱。以避免这些时间、资源和金钱会花费在无响应者或定位错误客户上。
结语
技术有其一席之地,企业也有发言权。归根结底,这一切都与技术带来的商业价值有关。当这些收益用商业术语来解释时,它总是会更有效。它不仅有助于从业务中获得信心,而且还开辟了新的探索机会。
请注意,我们构建了两个分类模型,但没有研究我们通常为此类模型所做的 ROC 曲线、混淆矩阵、精度、召回率和其他标准指标。强烈建议跟踪和测量这些指标以评估模型的性能,然后遵循此文中的十分位数方法。根据目标受众和目标,使用最适合目标的方法。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据分析、后端开发、业务运维等工作中,SQL语句是操作数据库的核心工具。面对复杂的表结构、多表关联逻辑及灵活的查询需求, ...
2026-01-26支持向量机(SVM)作为机器学习中经典的分类算法,凭借其在小样本、高维数据场景下的优异泛化能力,被广泛应用于图像识别、文本 ...
2026-01-26在数字化浪潮下,数据分析已成为企业决策的核心支撑,而CDA数据分析师作为标准化、专业化的数据人才代表,正逐步成为连接数据资 ...
2026-01-26数据分析的核心价值在于用数据驱动决策,而指标作为数据的“载体”,其选取的合理性直接决定分析结果的有效性。选对指标能精准定 ...
2026-01-23在MySQL查询编写中,我们习惯按“SELECT → FROM → WHERE → ORDER BY”的语法顺序组织语句,直觉上认为代码顺序即执行顺序。但 ...
2026-01-23数字化转型已从企业“可选项”升级为“必答题”,其核心本质是通过数据驱动业务重构、流程优化与模式创新,实现从传统运营向智能 ...
2026-01-23CDA持证人已遍布在世界范围各行各业,包括世界500强企业、顶尖科技独角兽、大型金融机构、国企事业单位、国家行政机关等等,“CDA数据分析师”人才队伍遵守着CDA职业道德准则,发挥着专业技能,已成为支撑科技发展的核心力量。 ...
2026-01-22在数字化时代,企业积累的海量数据如同散落的珍珠,而数据模型就是串联这些珍珠的线——它并非简单的数据集合,而是对现实业务场 ...
2026-01-22在数字化运营场景中,用户每一次点击、浏览、交互都构成了行为轨迹,这些轨迹交织成海量的用户行为路径。但并非所有路径都具备业 ...
2026-01-22在数字化时代,企业数据资产的价值持续攀升,数据安全已从“合规底线”升级为“生存红线”。企业数据安全管理方法论以“战略引领 ...
2026-01-22在SQL数据分析与业务查询中,日期数据是高频处理对象——订单创建时间、用户注册日期、数据统计周期等场景,都需对日期进行格式 ...
2026-01-21在实际业务数据分析中,单一数据表往往无法满足需求——用户信息存储在用户表、消费记录在订单表、商品详情在商品表,想要挖掘“ ...
2026-01-21在数字化转型浪潮中,企业数据已从“辅助资源”升级为“核心资产”,而高效的数据管理则是释放数据价值的前提。企业数据管理方法 ...
2026-01-21在数字化商业环境中,数据已成为企业优化运营、抢占市场、规避风险的核心资产。但商业数据分析绝非“堆砌数据、生成报表”的简单 ...
2026-01-20定量报告的核心价值是传递数据洞察,但密密麻麻的表格、复杂的计算公式、晦涩的数值罗列,往往让读者望而却步,导致核心信息被淹 ...
2026-01-20在CDA(Certified Data Analyst)数据分析师的工作场景中,“精准分类与回归预测”是高频核心需求——比如预测用户是否流失、判 ...
2026-01-20在建筑工程造价工作中,清单汇总分类是核心环节之一,尤其是针对楼梯、楼梯间这类包含多个分项工程(如混凝土浇筑、钢筋制作、扶 ...
2026-01-19数据清洗是数据分析的“前置必修课”,其核心目标是剔除无效信息、修正错误数据,让原始数据具备准确性、一致性与可用性。在实际 ...
2026-01-19在CDA(Certified Data Analyst)数据分析师的日常工作中,常面临“无标签高维数据难以归类、群体规律模糊”的痛点——比如海量 ...
2026-01-19在数据仓库与数据分析体系中,维度表与事实表是构建结构化数据模型的核心组件,二者如同“骨架”与“血肉”,协同支撑起各类业务 ...
2026-01-16