京公网安备 11010802034615号
经营许可证编号:京B2-20210330
一、案例综述
案例编号:102006
案例名称:中英文垃圾短信过滤
作者姓名(或单位、或来源):朱江
案例所属行业:J631 电信
案例所用软件:R
案例包含知识点:中英文文本数据处理 朴素贝叶斯分类
案例描述:
目前全球范围内手机已经不成不可替代的生活必需品,而短信和微信成为人们日常沟通的主要方式,其中广告商利用短信服务(SMS)文本信息,以潜在消费者为目标,给他们发送不需要的广告信息。目前垃圾短信可以实现对固定区域内特定手机号码段的用户群发,并且手机号信息泄露极其严重。这些都导致手机用户特别是老的手机用户收到垃圾短信的频率较高,故垃圾短信和正常短信的分类不管是对于运营商还是对于客户来说都是较为有利的工具。
朴素贝叶斯已经成功的用于垃圾邮件的过滤,所以它很有可能用于垃圾短信的过滤。然而,相对于垃圾邮件来说,垃圾短信的自动过滤有额外的挑战:由于短信文本数的限制,所以一条短信是否是垃圾信息的文本量减少了;短信的口语化导致文本可能极其不规整,尤其是中文文本,会带来文本处理的难度;缩写的形式在中英文文本中都较为普遍,而且中文文本中新兴词汇的使用,都会模糊合法信息和垃圾信息的界限。
本案例包含已经添加好标签的英文短信数据和中文短信数据,英文数据有5559条,可以进行全数据处理,数据文件不是很大。而中文短信有80万条的信息,信息量较大,在处理过程中会生成130多G的稀疏矩阵,远超出R的内存限制,且中文文本处理更为麻烦,故这里按照短信长度正常短信和垃圾短信分别取前1000条进行分类建模
本案例知识点没有办法细分,因为文本处理过程中生成的文本文件都比较大,会加大内存消耗,且建模前的稀疏矩阵存储读取都需要转格式较为繁琐,故这里我们英文短信分类作为一个知识点,中文短信分类作为一个知识点。
本案例共包含两个个知识点
1英文短信文本读取、清洗、词云、建模、评估
2中文短信文本读取、清洗、词云、建模、评估
案例执行形式:
单人上机
二、案例知识点
知识点1:
知识点名称:英文短信文本读取、清洗、词云、建模、评估
知识点所属工作角色:文本处理 文本挖掘 词云 朴素贝叶斯分类 分类模型评估
知识点背景:英文文本挖掘过程中常见的文本预处理,朴素贝叶斯属于一种比较简单的分类模型。
知识点描述:
涉及到英文文本处理中的去除无关字符、大小写转换、去除停用词、去除空白、词汇修剪(stem)
知识点关键词:
文本处理 文本挖掘 词云 朴素贝叶斯分类 分类模型评估
知识点所用软件:
Rstudio
操作目的:
英文短信文本读取、清洗、词云、建模、评估
知识点素材(包括数据):
sms_spam.csv
操作步骤:
读取文件,将其中的type列转化为因子
可见其中正常短信共有4812条,垃圾短信有747条。
将所有的文本信息构建成语料库,并且打印出未经处理的前十条信息


构建去除非子母类字符的函数,用空格替换

使用大写变小写、去除停用词、去除多余空格以及上面构建的函数转换语料库,并且观察转换后的前十条信息


将原数据分为训练集和测试集,其中训练集占75%,测试集占25%。

查看训练集和测试集中垃圾信息占比是否近似

可见占比都在13%左右
将语料库同样分为训练集测试集,方便后面构建文档词矩阵使用

分别对所有训练集,训练集中垃圾信息,训练集中正常信息创建词云
所有训练集信息的词云:


训练集中的垃圾信息的词云:
训练集中正常信息的词云:


筛选出现在大于等于5条短信中的词,由训练语料库和测试语料库生成文档词矩阵(稀疏矩阵),根据筛选出的词筛选稀疏矩阵的列

将文档词矩阵中所有大于0的数字替换为“yes”,0替换为“no”,得到训练矩阵train和测试矩阵test

使用朴素贝叶斯对训练矩阵建模,通过测试矩阵预测出分类,然后评估模型的性能


得到的结果中,正常短信中错误的将垃圾信息预测为正常信息的占比为12.7%,垃圾短信中错误的将正常信息预测为垃圾信息的占比为85%,可见模型性能一般,需要更多的初期工作,例如更多的数据采集,词汇处理上更多的选择等等
操作结果:
得到训练集中不同类型短信的词云;将测试集的短信分类。
知识点小结:
本知识点显示了英文文本清洗及转换为文档词矩阵的全套流程,以及使用朴素贝叶斯进行分类和评估的全套流程。
知识点2:
知识点名称:中文短信文本读取、清洗、词云、建模、评估
知识点所属工作角色:
文本处理 文本挖掘 词云 朴素贝叶斯分类 分类模型评估
知识点背景:
中文文本挖掘过程中常见的文本预处理,朴素贝叶斯属于一种比较简单的分类模型。
知识点描述
涉及到中文文本处理中的去除无关字符、去除停用词、去除空白、分词
知识点关键词:
文本处理 文本挖掘 词云 朴素贝叶斯分类 分类模型评估
知识点所用软件:
Rstudio
操作目的:
中文短信文本读取、清洗、词云、建模、评估
知识点素材(包括数据):
sms_labelled.txt stop.txt
操作步骤:
操作步骤:
读取文件,用readLines按行读取

抽取每行文本中的标签信息、短信信息、计算短信长度、合并成一个表格


可见其中第一列是标签,0表示正常信息,1表示垃圾信息
按文本长度由长到短排列所有信息,选取正常信息和垃圾信息中的前一千条

将标签变量type0重新命名为“ham”和“spam”








训练集中的垃圾信息的词云:


训练集中正常信息的词云:


筛选出现在大于等于5条短信中的词,由训练语料库和测试语料库生成文档词矩阵(稀疏矩阵),根据筛选出的词筛选稀疏矩阵的列

将文档词矩阵中所有大于0的数字替换为“yes”,0替换为“no”,得到训练矩阵train和测试矩阵test

使用朴素贝叶斯对训练矩阵建模,通过测试矩阵预测出分类,然后评估模型的性能


得到的结果中,虽然只有200条短信,正常短信中错误的将垃圾信息预测为正常信息的占比为25%,垃圾短信中错误的将正常信息预测为垃圾信息的占比为15.5%,可见模型性能较英文模型有了不错的提升
操作结果:
得到训练集中不同类型短信的词云;将测试集的短信分类。
知识点小结:
本知识点显示了中文文本清洗及转换为文档词矩阵的全套流程,以及使用朴素贝叶斯进行分类和评估的全套流程。
在词云中观察到有乱码,可能是由于txt存储类型不是UTF-8编码,可以打开txt源文件另存为指定编码来处理。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在神经网络模型搭建中,“最后一层是否添加激活函数”是新手常困惑的关键问题——有人照搬中间层的ReLU激活,导致回归任务输出异 ...
2025-12-05在机器学习落地过程中,“模型准确率高但不可解释”“面对数据噪声就失效”是两大核心痛点——金融风控模型若无法解释决策依据, ...
2025-12-05在CDA(Certified Data Analyst)数据分析师的能力模型中,“指标计算”是基础技能,而“指标体系搭建”则是区分新手与资深分析 ...
2025-12-05在回归分析的结果解读中,R方(决定系数)是衡量模型拟合效果的核心指标——它代表因变量的变异中能被自变量解释的比例,取值通 ...
2025-12-04在城市规划、物流配送、文旅分析等场景中,经纬度热力图是解读空间数据的核心工具——它能将零散的GPS坐标(如外卖订单地址、景 ...
2025-12-04在CDA(Certified Data Analyst)数据分析师的指标体系中,“通用指标”与“场景指标”并非相互割裂的两个部分,而是支撑业务分 ...
2025-12-04每到“双十一”,电商平台的销售额会迎来爆发式增长;每逢冬季,北方的天然气消耗量会显著上升;每月的10号左右,工资发放会带动 ...
2025-12-03随着数字化转型的深入,企业面临的数据量呈指数级增长——电商的用户行为日志、物联网的传感器数据、社交平台的图文视频等,这些 ...
2025-12-03在CDA(Certified Data Analyst)数据分析师的工作体系中,“指标”是贯穿始终的核心载体——从“销售额环比增长15%”的业务结论 ...
2025-12-03在神经网络训练中,损失函数的数值变化常被视为模型训练效果的“核心仪表盘”——初学者盯着屏幕上不断下降的损失值满心欢喜,却 ...
2025-12-02在CDA(Certified Data Analyst)数据分析师的日常工作中,“用部分数据推断整体情况”是高频需求——从10万条订单样本中判断全 ...
2025-12-02在数据预处理的纲量统一环节,标准化是消除量纲影响的核心手段——它将不同量级的特征(如“用户年龄”“消费金额”)转化为同一 ...
2025-12-02在数据驱动决策成为企业核心竞争力的今天,A/B测试已从“可选优化工具”升级为“必选验证体系”。它通过控制变量法构建“平行实 ...
2025-12-01在时间序列预测任务中,LSTM(长短期记忆网络)凭借对时序依赖关系的捕捉能力成为主流模型。但很多开发者在实操中会遇到困惑:用 ...
2025-12-01引言:数据时代的“透视镜”与“掘金者” 在数字经济浪潮下,数据已成为企业决策的核心资产,而CDA数据分析师正是挖掘数据价值的 ...
2025-12-01数据分析师的日常,常始于一堆“毫无章法”的数据点:电商后台导出的零散订单记录、APP埋点收集的无序用户行为日志、传感器实时 ...
2025-11-28在MySQL数据库运维中,“query end”是查询执行生命周期的收尾阶段,理论上耗时极短——主要完成结果集封装、资源释放、事务状态 ...
2025-11-28在CDA(Certified Data Analyst)数据分析师的工具包中,透视分析方法是处理表结构数据的“瑞士军刀”——无需复杂代码,仅通过 ...
2025-11-28在统计分析中,数据的分布形态是决定“用什么方法分析、信什么结果”的底层逻辑——它如同数据的“性格”,直接影响着描述统计的 ...
2025-11-27在电商订单查询、用户信息导出等业务场景中,技术人员常面临一个选择:是一次性查询500条数据,还是分5次每次查询100条?这个问 ...
2025-11-27