
如何高效地学好R语言?
第一阶段有一点:基础的文件操作(read.*, write.*)、数据结构知识,认识什么是数据框(data.frame)、列表(list)、矩阵(matrix)、向量(vector),如何提取(包括which, [ ]等)、置换(t, matrix等)、删除(-, which等)、运算(+, -, *, / , %%, %/%等)、转换(as.*)、修改(edit, fix等)数据(包括单个数、行、列、表、变量),安装包、调用包以及session的保存。完成这一阶段,你就大致能像excel里处理数据一样了。
第二阶段有三点:
1、学习统计。
这是贯穿整个R学习的最重要的一部,很多时候你并不是不知道在哪里找,怎么使用某个函数的参数,更多的时候你是不知道某个统计方法的原理,所代表的意义甚至不知道该用什么方法。所以学习统计学知识往往才是学习R的关键,之后找函数、怎么用其实都是傻瓜式的,并不需要你从头编写算法。这部分内容页要结合每个人要做的事做。
2、批量处理。
由于R和matlab一样,注重的是批量处理,而且R之中的循环往往效率极低,所以在R之中如果你发现你要使用双层循环的时候,就要想想了,有没有批量处理的方法。
a、首先,几乎所有的R里的运算符和自带的函数都是可以批量处理的。比如向量a+向量b是指每个元素按照index相加,所以就没必要for一下了;
b、其次,R自带有的apply族函数(因为是一系列以apply结尾的函数,所以称为apply族),split,以及aggregate函数。这三类就是R自带的批量处理的利器,学好这三类函数,基本就可以完成绝大部分的数据批量处理了。
c、然后就是reshape2包以及plyr包了,这是批量处理的两个利器,reshape主要是整形,plyr包基本提供了一套整理数据的理念,学好这两个包,批量处理将事半功倍。
d、在实际过程中,一些for还是无法避免的。这时候就要考虑用别的语言来处理这部分事情了。比较常用的方法就是用别的语言批量生成R的代码,还有就是直接用R调用别的语言处理的结果或者用别的语言调用R的处理结果。
3、绘图系统。
总结而言,我们可以把R的绘图系统分成四个:Graphics,lattice,ggplot2以及grid。最好学习顺序也是按照这个来。
a、自带的绘图系统
这套系统可以完成最基本的事情,其操作也类似于matlab,可以看做是分步骤命令参数式绘图,基本就是将一系列作图看做一步步的命令,每一句都干一件事,然后通过参数调整其中的某个元素的大小、位置、颜色。
b、lattice
绘图逻辑也同上。只是加了分组绘图、facet的功能,这些都很实用,其目的就是讲自带函数中需要大量预处理以及多步绘图的命令用一行命令代替。上手也非常简单。
c、ggplot2
这是经典的R绘图包,绘图哲学是图层式的,理解成一个一个图层的覆盖。这个绘图系统能做很多事,而且其自带主题也相当漂亮。有一定的学习难度。
以下就是我用ggplot画的图
grid绘图系统算是最基元的绘图命令,很多指令都是从画圆、直线、矩形开始的,这算是R里最好理解但也是最复杂的绘图系统。适合想入深坑的人士学习,如果要自由创造一些新的图形,或者编写绘图包,这是必学的绘图系统。另一个值得说的就是grid中也有专门用来整理拼图的指令,这个对于有一些论文拼图需求的人来说还是学学比较好。
如果你完成了以上两个阶段,你已经可以在工作学习中完成绝大部分的工作。但如果你是知识的创造者,或者是个程序员,或者是要实践自己的算法、理论、统计方法、绘图方法,或者亦或是你只是脑抽了,那就要进入第三阶段的学习。这部分包括,C语言掌握与精通、R语言调试、改进、编写包、写一个地道的帮助文档、推销自己的想法。这一阶段完成了,你也就是一个R语言的大牛了。少年到处是你可以施展拳脚的地方。
由以上内容,可以基本上把学习路径总结为下图:
此外,其实R语言是一门轻编程重统计的语言,所以题主完全不需要担心自己的编程基础。直接做几个小项目,你会很快上手,千万不要从教材第一页读到最后一页,那种效率极低,且容易半途而废。
关于批处理的问题有几位同僚在回复里面询问批处理的问题,这里做个简单的解释。
批处理类似于向量运算,但也有很大差距,简单的说,是一个函数可以快速的套用到多维变量的每一维值中。
1. 自带函数的批处理
譬如:
s <- 1:5
s * 2
这就是一个最简单的批处理的例子,结果是
2 4 6 8 10
这是一个简单的向量标量积结果,而所谓的批处理也就是类似于这种处理方式。而在R之中,数据的最小单元其实就是向量,因此,几乎所有R的函数,都是批处理的。(注意,与matlab不同,matlab最小单元是矩阵,因此,其基本的运算都是基于举证运算的)。
我们可以用以下方式定义批处理函数:如果一个函数F,满足,
且函数F的实现不基于任何显式循环(诸如for,while, until),则函数F可以称之为批处理函数。
譬如:plot(将两个向量的对应的数逐个地画到图中),paste(将字符串向量的每个字符串都做连接)等等。。。
这里比较一下会更加清楚,譬如如果在python里实现以上功能(不实用pandas和numpy包),就得采用显式的循环(for,while等):
a = list(range(1, 6))a = [i * 2 for i in a]
因此,我们可以看出采用批处理最大的优点在于减少的代码量,并且更加简洁明了,易于维护。
2. 批处理是否更加高效
其实批处理的另一个好处就是使得运行更加高效,因为批处理函数往往经过处理(使用更好的算法或者更底层的实现方式)得到某种程度的提速。我们在这里测试实现将向量每个元素都自乘2这一功能,分别采用按键替换,按数字索引替换以及直接批量处理的方式,来测试不同方式速度是如何的。
a <- 1:10
f1 <- function(x) {
for (i in x) {
x[which(x == i)] = i * 2
}
}
f2 <-function(x) {
for (i in 1:10) {
x[i] = x[i] * 2
}
}
f3 <- function(x) {
x = x * 2
}
system.time(replicate(100000, f1(a)))
system.time(replicate(100000, f2(a)))
system.time(replicate(100000, f3(a)))
结果如下:> system.time(replicate(100000, f1(a)))
用户 系统 流逝
4.47 0.01 4.72
> system.time(replicate(100000, f2(a)))
用户 系统 流逝
2.53 0.00 2.63
> system.time(replicate(100000, f3(a)))
用户 系统 流逝
0.63 0.03 0.72
明显看出,批处理并且避免显式循环的方式的确有助于提高速度,代码量也少的多。因此,何乐而不为呢?
但是经过测试,并不是每个批处理函数的效果并不是都是那么明显,譬如:strsplit。甚至研究码源之后,你也会发现,很多批处理常用的函数的实现其实都是for,因此,有一派观点认为避免显式循环(特别是指采用apply函数、plyr包的方法避免显式循环),其实具有一定的误导性,其是否能提高效率也是要视情况而定。
3. apply族函数和aggregate函数
这是R基础包自带的两类用于批量处理的函数包,在此,只做简单地介绍:
apply函数族共有五个,分别是:apply,lapply,sapply,tapply,vapply。其总用其实就是将某个函数逐个套用到向量(矩阵)中每个元素之中,其实具体的作用,读帮助文档就可以了。
aggregate这个函数比较有意思,常用的带入方式是:
aggregate(aDataFrame, by = list(vector1,vector2), FUN = aFunction)
作用就是基于by指定的变量做分组,计算FUN分别统计每个组的结果
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在 “神经网络与卡尔曼滤波融合” 的理论基础上,Python 凭借其丰富的科学计算库(NumPy、FilterPy)、深度学习框架(PyTorch、T ...
2025-10-23在工业控制、自动驾驶、机器人导航、气象预测等领域,“状态估计” 是核心任务 —— 即从含噪声的观测数据中,精准推断系统的真 ...
2025-10-23在数据分析全流程中,“数据清洗” 恰似烹饪前的食材处理:若食材(数据)腐烂变质、混杂异物(脏数据),即便拥有精湛的烹饪技 ...
2025-10-23在人工智能领域,“大模型” 已成为近年来的热点标签:从参数超 1750 亿的 GPT-3,到万亿级参数的 PaLM,再到多模态大模型 GPT-4 ...
2025-10-22在 MySQL 数据库的日常运维与开发中,“更新数据是否会影响读数据” 是一个高频疑问。这个问题的答案并非简单的 “是” 或 “否 ...
2025-10-22在企业数据分析中,“数据孤岛” 是制约分析深度的核心瓶颈 —— 用户数据散落在注册系统、APP 日志、客服记录中,订单数据分散 ...
2025-10-22在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16在机器学习建模中,“参数” 是决定模型效果的关键变量 —— 无论是线性回归的系数、随机森林的树深度,还是神经网络的权重,这 ...
2025-10-16在数字化浪潮中,“数据” 已从 “辅助决策的工具” 升级为 “驱动业务的核心资产”—— 电商平台靠用户行为数据优化推荐算法, ...
2025-10-16在大模型从实验室走向生产环境的过程中,“稳定性” 是决定其能否实用的关键 —— 一个在单轮测试中表现优异的模型,若在高并发 ...
2025-10-15