京公网安备 11010802034615号
经营许可证编号:京B2-20210330
互金时代大数据在贷后管理中的应用
在互联网金融时代,无论是传统商业银行还是新兴的互联网金融公司,面临的风险和挑战日益增加。在这种情况下,如何利用大数据技术及时有效地防堵各类信贷风险,也一直是各界关注的热点问题。大数据技术可以让贷后管理变得更简单吗?这篇来自“朝阳35处”的文章,将着重讲解这方面的应用。
个人信贷不良资产管理压力增大,贷后管理成管控重点
近年来,随着我国个人信贷市场业务规模快速增长,个人不良贷款余额和不良率不断走高也成为困扰金融信贷机构的首要问题。以银行个人信贷业务为例(如图1所示),其2015年第二季度不良贷款余额已达到1.18万亿元,不良贷款率也达到1.6%。
图一
相比于银行,互联网金融平台不良资产的问题和难点则更加凸显。陆金所董事长兼CEO 计葵生年初曾对媒体表示,网贷行业平均不良率高达13%-17%。相对于传统金融机构,互联网网贷行业平均不良率明显更高。
面对这一严峻形势,不良资产的管理能力逐渐成为金融信贷机构关注的重点领域。
不良资产管控的核心有两大方面,一是控制不良资产新增,二是化解存量不良资产。控制不良资产新增的有效手段是在“贷前”阶段建立完善风险管理措施,严格把控客户准入门槛。
而化解存量不良资产的核心则是“贷后管理”。
所谓贷后管理,主要内容是对不良资产进行有效评估,并以此为基础对客户进行分群,辅以失联修复手段,对不同客群采取差异化的催收策略。
贷后管理是不良资产管控的重点,而失联修复则是化解存量不良资产的先决条件。
以贷后管理中的催收为例,现阶段催收人员只能通过借贷人申请贷款时留下的三到五个关联号码和其进行联系。如果借贷人当时本就无心偿还贷款,已有号码有效率会非常低。就现在的国内个人信贷市场而言,新客户中失联比例达到30%~50%,而在进入不良阶段后,客户失联比例高达70%。
这时,对大部分商业银行和互联网金融公司而言,只使用贷款人当时提供的联系方式使贷后催收变得困难,需要寻求外部数据的支持协助。只有在结合外部数据对失联客户进行信息修复,可以很大程度上帮助催收部门和客户重新取得联系,从而化解存量不良资产。
然而,在初步修复客户信息后,新的问题出现了。一种经常出现的情况是,与客户有关联的联系人过多,有些客户的联系人可以多达几十个甚至上百个。这又给催收人员带来了另一种窘境,在面对过多的电话号码,如果一个个拨打,不仅耗时耗力更不符合实际情况。即使手上掌握了欠款客户充足的信息,但如果联系号码数量巨大,则修复率并不能够被保证。
大数据模型助力提升失联修复率
下面我们来举例说明,利用大数据筛选模型,如何解决客户联系人号码过多的问题。首先我们需要建立一个模型来对众多号码修复的成功率进行预测,从而通过筛选或排序,使催收人员可以从最可靠的号码开始联系客户。
我们可以先选取小规模的数据集进行研究。比如,我们抽样选取了9000多个联系人的数据,每组数据包括联系人的电话号码,对应的数据来源,电话更新时间以及是否有效修复失联的标签。其中,能够修复失联的定义为:电话号码是有效可以拨通,且联系人表示认识并愿意转告客户,积极提供客户信息;而空号,不可拨通,联系人态度差,表示不认识,或者认识客户但不愿意联系客户的电话号码则为无效。
这9000个样本联系人号码在数亿量级的全量数据库中,与其他联系人号码通过各种关系形成了一个个网络。如图二所示,一个节点代表一个联系人的电话号码,而两点之间的边则代表这两个电话号码之间存在某种关系。每个节点的自由度定义为与这个节点相连的边的数目。通过分析网络中每个节点的自由度,我们可以进一步得知与每个号码有联系的号码个数。以节点1为例,该电话号码与4个号码有联系,它的自由度为4;节点2的自由度为3。节点的自由度越高,代表持有该号码的人的社交圈子越大。
图二
1.使用单变量分析
首先我们用单变量分析的方法看一下节点自由度、更新时间以及不同数据源对失联修复率的影响。图三显示了节点自由度与失联修复率的关系。当节点自由度为1时,失联修复率最低,只有14%。随着节点自由度的增大,失联修复率也随之提高。当节点自由度为3时,失联修复率达到极值24%。随后,失联修复率随节点自由度的增大而降低。
图三
图四显示了电话号码更新时间与失联修复率的关系。由图可见,失联修复所使用的信息几乎99%都来源于最近四年的数据。其中,2014年更新的数据失联修复率最高,达到18%,而2015年更新的数据失联修复率最低,只有11%。
图四
图五显示了不同数据源与失联修复率的关系。我们整合了九个不同的内、外部数据源,所有的数据源均有用户授权。为了保护商业机密,我们不对数据源进行公布。但可以看到的是,数据源2、3和4的失联修复率最佳,均可达到20%,而数据源7表现最差,只有10%的失联修复率。
图五
2.使用机器学习模型
上述的单变量分析只能统计单个变量对失联修复率的影响,如果这些变量相互独立,我们可以通过简单的乘法公式计算出这些变量联合起来对失联修复率的影响。然而,这些变量显然不是相互独立的,而是彼此关联的。例如,对于数据源1,当电话号码的更新时间为2014年时,失联修复率最高;而对于另外一个数据源,当电话号码的更新时间为2016年时,失联修复率最高。
为了分析这些相互关联的变量联合起来对失联修复率的影响,我们采用Gradient Boosting非参数模型进行建模,来预测某个号码失联修复的概率。为了验证模型效果,我们将数据集进行拆分,其中训练集大小为6000,而测试集大小为3000。
在训练集上训练好模型之后,其在测试集上的表现如图六所示。修复概率排名前10%的号码的失联修复率为28.1%,这相对于整个数据源15.3%的平均修复率,提升达到了83%!这种优化带来的收益非常明显,如果与某客户相关联的联系人号码超过十个甚至上百个,通过上述方式的筛选则可以得到五到六个质量较高的联系人号码,使得催收人员轻松有效地找到失联客户;如果一个失联客户联系人数目较少,催收人员也可以按照大数据模型给出的电话号码靠谱程度排序,从高到低进行拨打,从而更快找到失联客户,显著提升催收效率。
图六
大数据对信贷风险管理的影响是巨大的,本文所述的也只是冰山一角。事实上,如果可以逐步建立以大数据分析逐步替代个人判断的新型信贷风险管理架构,围绕大数据分析对信贷风险管理架构进行重组与再造,势必会能提高金融机构信贷风险管理的有效性,进而平抑信贷不良率波动。因此,如何运用好大数据的众多“功夫”,推动金融信贷的良性发展,将会一直是今后热门的话题。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据分析、后端开发、业务运维等工作中,SQL语句是操作数据库的核心工具。面对复杂的表结构、多表关联逻辑及灵活的查询需求, ...
2026-01-26支持向量机(SVM)作为机器学习中经典的分类算法,凭借其在小样本、高维数据场景下的优异泛化能力,被广泛应用于图像识别、文本 ...
2026-01-26在数字化浪潮下,数据分析已成为企业决策的核心支撑,而CDA数据分析师作为标准化、专业化的数据人才代表,正逐步成为连接数据资 ...
2026-01-26数据分析的核心价值在于用数据驱动决策,而指标作为数据的“载体”,其选取的合理性直接决定分析结果的有效性。选对指标能精准定 ...
2026-01-23在MySQL查询编写中,我们习惯按“SELECT → FROM → WHERE → ORDER BY”的语法顺序组织语句,直觉上认为代码顺序即执行顺序。但 ...
2026-01-23数字化转型已从企业“可选项”升级为“必答题”,其核心本质是通过数据驱动业务重构、流程优化与模式创新,实现从传统运营向智能 ...
2026-01-23CDA持证人已遍布在世界范围各行各业,包括世界500强企业、顶尖科技独角兽、大型金融机构、国企事业单位、国家行政机关等等,“CDA数据分析师”人才队伍遵守着CDA职业道德准则,发挥着专业技能,已成为支撑科技发展的核心力量。 ...
2026-01-22在数字化时代,企业积累的海量数据如同散落的珍珠,而数据模型就是串联这些珍珠的线——它并非简单的数据集合,而是对现实业务场 ...
2026-01-22在数字化运营场景中,用户每一次点击、浏览、交互都构成了行为轨迹,这些轨迹交织成海量的用户行为路径。但并非所有路径都具备业 ...
2026-01-22在数字化时代,企业数据资产的价值持续攀升,数据安全已从“合规底线”升级为“生存红线”。企业数据安全管理方法论以“战略引领 ...
2026-01-22在SQL数据分析与业务查询中,日期数据是高频处理对象——订单创建时间、用户注册日期、数据统计周期等场景,都需对日期进行格式 ...
2026-01-21在实际业务数据分析中,单一数据表往往无法满足需求——用户信息存储在用户表、消费记录在订单表、商品详情在商品表,想要挖掘“ ...
2026-01-21在数字化转型浪潮中,企业数据已从“辅助资源”升级为“核心资产”,而高效的数据管理则是释放数据价值的前提。企业数据管理方法 ...
2026-01-21在数字化商业环境中,数据已成为企业优化运营、抢占市场、规避风险的核心资产。但商业数据分析绝非“堆砌数据、生成报表”的简单 ...
2026-01-20定量报告的核心价值是传递数据洞察,但密密麻麻的表格、复杂的计算公式、晦涩的数值罗列,往往让读者望而却步,导致核心信息被淹 ...
2026-01-20在CDA(Certified Data Analyst)数据分析师的工作场景中,“精准分类与回归预测”是高频核心需求——比如预测用户是否流失、判 ...
2026-01-20在建筑工程造价工作中,清单汇总分类是核心环节之一,尤其是针对楼梯、楼梯间这类包含多个分项工程(如混凝土浇筑、钢筋制作、扶 ...
2026-01-19数据清洗是数据分析的“前置必修课”,其核心目标是剔除无效信息、修正错误数据,让原始数据具备准确性、一致性与可用性。在实际 ...
2026-01-19在CDA(Certified Data Analyst)数据分析师的日常工作中,常面临“无标签高维数据难以归类、群体规律模糊”的痛点——比如海量 ...
2026-01-19在数据仓库与数据分析体系中,维度表与事实表是构建结构化数据模型的核心组件,二者如同“骨架”与“血肉”,协同支撑起各类业务 ...
2026-01-16