
大数据征信显优势:贷款获批率提升3倍 大规模普及有望
业内人士认为,未来无论是用芝麻信用,还是融360的大数据风控服务,5万元以下的小额贷款申请将有可能完全在线化,不再需要人工的审核流程,因而速度将极大地加快。人工审核一般需要一周以上才能放款;纯线上审核可以做到10分钟以内。这将意味着贷款在线化有望得到大规模普及。
除了贷款审批速度实现了突破,贷款获批率也得到显著提升,同一类用户,用抵押物、收入流水证明等粗放式的传统风控方式,贷款获批率在15%左右,而使用大数据征信结合人工操作后获批率可以达到45%以上。
互联网金融搜索平台融360日前宣布,融360与蚂蚁金服旗下的第三方征信机构芝麻信用已经建立了数据上的战略合作。这是融360在今年5月初成功开发和运用“天机”大数据风控系统之后在探索互联网大数据征信实践上的又一进展。
融360负责风控的副总裁李英浩向记者描述了通过大数据征信将使在线小额信贷迅速发展的前景。他说,假如你需要5万元左右的资金短期周转,不必再劳时费力去银行或小贷公司申请了,只需要靠自己常年累月攒下来的信用,凭借第三方征信公司提供的信用分,就可以在融360等在线金融平台上贷款了。而且最快10分钟审批、24小时放款,省时省力省成本。由于大数据风控的运用,未来小额信贷的应用场景将发生极大的变革,将近万亿元的小额信贷市场因此正在成为各大在线金融服务商争夺的潜在市场。
今年年初,央行已印发《关于做好个人征信业务准备工作的通知》,要求芝麻信用管理有限公司、腾讯征信有限公司等8家机构做好个人征信业务的准备工作,准备时间为6个月。业内人士预计,到6月底,经央行批准后,这8家民营机构将有望获得筹建第三方征信机构的资质。
现在融360与芝麻信用建立数据上的战略合作,无疑将有助于双方的优势互补,在开展互联网大数据风控和征信业务实践上取得较快进展。李英浩表示,融360拥有丰富的用户借贷行为数据,结合芝麻信用的征信数据(个人信用数据),使得融360的“天机”大数据风控系统更加高效,对借款人可以很快地计算出放贷金额。
据了解,芝麻信用推出的中国首个个人信用评分“芝麻信用分”,主要接入了阿里巴巴集团的电商数据和蚂蚁金融的互联网金融数据以及公共机构的数据,运用大数据及云计算技术,客观评估并呈现出个人的信用状况。
芝麻信用采用国际上通行的信用评分方法,最低350分、最高950分,这与美国FICO分(300分至850分)相似,分数越高代表个人信用程度越好,违约可能性越低。该服务主要包含了用户信用历史、行为偏好、履约能力、身份特质、人脉关系五个维度。人们在日常生活中点点滴滴的行为,通过长期积累,这些行为轨迹和细节,可以全面反映其信用状况。
统计数据显示,截至2013年底,央行银行个人征信系统中收录有信贷记录的自然人约3.2亿,还不到全国总人口数的1/4,远远满足不了借贷市场的需求,很多没有信用卡或从未跟银行发生借贷关系的人群很难获得信贷服务。而在美国,征信体系的覆盖率已经达到了85%。
商业大数据征信的兴起,将改变这一状况。融360的创始人、CEO叶大清向记者表示,“2015年是互联网征信元年。6月份8家商业征信公司将有望拿到央行颁发的牌照,补充央行征信记录的不足。”他透露,融360正广泛地和国内外各类征信机构洽谈合作,其中一些合作项目已经启动。商业征信数据结合央行征信数据,能够让广大草根人群,例如自由职业者、个体户、小微企业主、学生等人群有机会在线借贷。
芝麻信用相关负责人表示,芝麻信用分主要分为金融和非金融两类应用场景,非金融会在免押(租车、住宿)、后付、证明(签证、交友)、分享经济(比如小猪短租)方面加大投入。而金融类则需要加强同相关借贷数据提供方合作。在线金融搜索平台融360独有的数据源是芝麻信用一个天然的合作伙伴。
据了解,融360过去三年半积累了大量的信贷用户数据,帮助用户成功获取了超过3000亿元贷款。在借款人访问数据、用户申请资质信息、网站行为数据、批贷信息和贷后信息方面拥有强大的优势。
业内人士认为,未来无论是用芝麻信用,还是融360的大数据风控服务,5万元以下的小额贷款申请将有可能完全在线化,不再需要人工的审核流程,因而速度将极大地加快。李英浩介绍说,人工审核一般需要一周以上才能放款,慢的可能两个月;纯线上审核可以做到10分钟以内。这将意味着贷款在线化有望很快得到大规模普及。
据介绍,除了贷款审批速度实现了突破,贷款获批率也得到了显著提升,同一类用户,用抵押物、收入流水证明等粗放式的传统风控方式,贷款获批率在15%左右,而使用大数据征信结合人工操作后获批率可以达到45%以上。至于贷款的逾期率,以12个月违约风险举例,通过“天机”风控模型筛选的用户,逾期率比没有经过筛选的低一半。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在人工智能领域,“大模型” 已成为近年来的热点标签:从参数超 1750 亿的 GPT-3,到万亿级参数的 PaLM,再到多模态大模型 GPT-4 ...
2025-10-22在 MySQL 数据库的日常运维与开发中,“更新数据是否会影响读数据” 是一个高频疑问。这个问题的答案并非简单的 “是” 或 “否 ...
2025-10-22在企业数据分析中,“数据孤岛” 是制约分析深度的核心瓶颈 —— 用户数据散落在注册系统、APP 日志、客服记录中,订单数据分散 ...
2025-10-22在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16在机器学习建模中,“参数” 是决定模型效果的关键变量 —— 无论是线性回归的系数、随机森林的树深度,还是神经网络的权重,这 ...
2025-10-16在数字化浪潮中,“数据” 已从 “辅助决策的工具” 升级为 “驱动业务的核心资产”—— 电商平台靠用户行为数据优化推荐算法, ...
2025-10-16在大模型从实验室走向生产环境的过程中,“稳定性” 是决定其能否实用的关键 —— 一个在单轮测试中表现优异的模型,若在高并发 ...
2025-10-15在机器学习入门领域,“鸢尾花数据集(Iris Dataset)” 是理解 “特征值” 与 “目标值” 的最佳案例 —— 它结构清晰、维度适 ...
2025-10-15在数据驱动的业务场景中,零散的指标(如 “GMV”“复购率”)就像 “散落的零件”,无法支撑系统性决策;而科学的指标体系,则 ...
2025-10-15在神经网络模型设计中,“隐藏层层数” 是决定模型能力与效率的核心参数之一 —— 层数过少,模型可能 “欠拟合”(无法捕捉数据 ...
2025-10-14