京公网安备 11010802034615号
经营许可证编号:京B2-20210330
作者:丁点helper
来源:丁点帮你
今天开始学习在R语言中做描述性统计。为了便于大家边学边练,可以下载这个数据:
文件名:titanic.csv
链接:https://pan.baidu.com/s/1Pj0EsaBZdnw6mHPpeVd9Aw
密码: yuym
将本地文件导入到R中
为了便于数据管理和操作,我们通常会把数据保存为.csv格式,这是excel中的一种较为简单的数据格式。想要把一个.csv格式的数据导入R,可以用read.csv()这个函数:
# 将本地文件titanic.csv导入到R中,
# 并存储到titanic这个对象中titanic
<- read.csv("//Users//Desktop//titanic.csv",header = TRUE)
假设该本地文件存储的是1912年沉没于大西洋的巨型邮轮泰坦尼克号中乘客的基本信息。
上面第一个命令"//Users//Desktop//titanic.csv"是文件titanic.csv的本地存储地址,大家要根据自己电脑的存储位置自行调整;
第二个命令header = TRUE 是指将原文件中的第一行自动设置为文件的列名。
如果你的.csv文件中并无列名,而是希望在导入R之后再设置,则应将第二个命令设置为header = FALSE。
了解数据
上篇文章讲过,拿到一个数据库,首先要了解它的基本信息。之前已经讲过,我们简单复习一下。
class(titanic) #对象是什么数据结构[1] "data.frame"dim(titanic) #查看数据有几行几列[1] 1309 6names(titanic) #查看数据的列名[1] "pclass" "survived" "sex" "age" "sibsp" "parch" head(titanic) #查看前6行tail(titanic) #查看后6行
可以知道,titanic这个数据框中有1309条记录,6个变量。
这6个变量依次为舱位等级、是否幸存、性别、年龄、同行的兄弟姐妹或配偶数量、同行的父母或子女数量。
描述性统计
接下来我们来对titanic这个数据做描述性统计。
1. 每个等级的船舱中分别有多少人?
有两种方法,一是table()函数,用于统计分类变量pclass中各类别的频数;二是summary()函数,功能是做描述性统计,既适用于分类也适用于计数变量,可以用来统计分类变量的频数、计算计数变量的均数、百分位数等。
# 方法一table(titanic$pclass) 1st 2nd 3rd 323 277 709# 方法二summary(titanic$pclass) 1st 2nd 3rd 323 277 709
2. 遇难者与幸存者分别有多少人?
table(titanic$survived) died survived 809 500
3. 每个等级的舱位中分别有多少人遇难、多少人幸存?
本例中,按照『舱位等级』和『是否幸存』两个条件统计乘客状况,共6种可能。仍使用table()函数,统计每种可能的状况分别有多少人,生成交叉列联表。
# 将列联表存储在tab1中tab1 <- table(titanic$survived,titanic$pclass) # 查看tab1的内容tab1 1st 2nd 3rd died 123 158 528 survived 200 119 181
4. 每个等级的舱位中幸存者的比例是多少呢?
思路很简单,就是每等级舱位中幸存者的人数占该舱位总人数的比例。
1)那我们先看看每等级舱位中幸存者的人数怎么算,上面的tab1第二行就是,只需要将其提取出来,方法和前面讲过的如何提取数据框中的行和列相同:
#提取tab1的第二行tab1[2, ] 1st 2nd 3rd 200 119 181
2)每种舱位总人数?上面也已经计算过:
table(titanic$pclass) 1st 2nd 3rd 323 277 709
还有一种方法,使用apply()函数,功能是对矩阵类数据的行或列进行批量处理:
apply(tab1,2,sum) 1st 2nd 3rd 323 277 709
函数中有三个命令。第一个命令tab1表示待处理的数据;第二个命令2表示对tab1的每一列进行处理,若需处理每一行,则第二个命令应输入数字1;第三个命令sum表示求和。
因此,上述语句的意义为:对tab1中的每一列求和,即计算每个等级舱位中的总人数。
3)求每等级舱位中幸存者的人数占该舱位总人数的比例:
# 方法一 tab1[2, ]/table(titanic$pclass) 1st 2nd 3rd 0.6191950 0.4296029 0.2552891 # 方法二 tab1[2, ]/apply(tab1,2,sum) 1st 2nd 3rd 0.6191950 0.4296029 0.2552891
4)你一定也发现了,这个结果非常不美观,也不适合在科研工作中报告。我们做以下变化:
# 先乘以100 tab1[2, ]/apply(tab1,2,sum)*100 1st 2nd 3rd 61.91950 42.96029 25.52891 # 保留2位小数 round(tab1[2, ]/apply(tab1,2,sum)*100,2) 1st 2nd 3rd 61.92 42.96 25.53
round()函数的功能是保留小数位数。
上面的代码中,第一个命令tab1[2, ]/apply(tab1,2,sum)*100 是需要保留小数的对象;
第二个命令2是指保留2位小数。
5)可是这个结果显然不对,加上百分号%才是准确的。需要用到paste()函数,该函数的功能是把各种元素连接起来,本例中,我们希望把数字和百分号连接:
paste(round(tab1[2, ]/apply(tab1,2,sum)*100,2),"%",sep="") "61.92%" "42.96%" "25.53%"
第一个命令round(tab1[2, ]/apply(tab1,2,sum)*100,2) 就是上面计算好的百分数的数字部分,这是要连接的第一部分;
第二个命令"%" 是要连接的第二部分;
第三个命令sep="" 指两个元素之间的连接符号,这里我们不需要任何连接符号,所以引号""之间什么都不用写。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数字化运营中,“凭感觉做决策” 早已成为过去式 —— 运营指标作为业务增长的 “晴雨表” 与 “导航仪”,直接决定了运营动作 ...
2025-10-24在卷积神经网络(CNN)的训练中,“卷积层(Conv)后是否添加归一化(如 BN、LN)和激活函数(如 ReLU、GELU)” 是每个开发者都 ...
2025-10-24在数据决策链条中,“统计分析” 是挖掘数据规律的核心,“可视化” 是呈现规律的桥梁 ——CDA(Certified Data Analyst)数据分 ...
2025-10-24在 “神经网络与卡尔曼滤波融合” 的理论基础上,Python 凭借其丰富的科学计算库(NumPy、FilterPy)、深度学习框架(PyTorch、T ...
2025-10-23在工业控制、自动驾驶、机器人导航、气象预测等领域,“状态估计” 是核心任务 —— 即从含噪声的观测数据中,精准推断系统的真 ...
2025-10-23在数据分析全流程中,“数据清洗” 恰似烹饪前的食材处理:若食材(数据)腐烂变质、混杂异物(脏数据),即便拥有精湛的烹饪技 ...
2025-10-23在人工智能领域,“大模型” 已成为近年来的热点标签:从参数超 1750 亿的 GPT-3,到万亿级参数的 PaLM,再到多模态大模型 GPT-4 ...
2025-10-22在 MySQL 数据库的日常运维与开发中,“更新数据是否会影响读数据” 是一个高频疑问。这个问题的答案并非简单的 “是” 或 “否 ...
2025-10-22在企业数据分析中,“数据孤岛” 是制约分析深度的核心瓶颈 —— 用户数据散落在注册系统、APP 日志、客服记录中,订单数据分散 ...
2025-10-22在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16