京公网安备 11010802034615号
经营许可证编号:京B2-20210330
R语言:数据库SQL-R连接与SQL语句执行(RODBC、sqldf包)
数据库是极其重要的R语言数据导入源数据之地,读入包有sqldf、RODBC等。跟SQL server相连有RODBC,跟MySQL链接的有RMySQL。但是在R里面,回传文本会出现截断的情况,这一情况可把我弄得有点手足无措。
一、数据库读入——RODBC包
CRAN 里面的包 RODBC 提供了 ODBC的访问接口:
odbcConnect 或 odbcDriverConnect (在Windows图形化界面下,可以通过对话框选择数据库) 可以打开一个连接,返回一个用于随后数据库访问的控制(handle)。 打印一个连接会给出ODBC连接的一些细节,而调用 odbcGetInfo 会给出客户端和服务器的一些细节信息。
在一个连接中的表的细节信息可以通过函数 sqlTables 获得。
函数 sqlSave 会把 R 数据框复制到一个数据库的表中, 而函数 sqlFetch 会把一个数据库中的表拷贝到 一个 R 的数据框中。
通过sqlQuery进行查询,返回的结果是 R 的数据框。(sqlCopy把一个 查询传给数据库,返回结果在数据库中以表的方式保存。) 一种比较好的控制方式是首先调用 odbcQuery, 然后 用 sqlGetResults 取得结果。后者可用于一个循环中 每次获得有限行,就如函数 sqlFetchMore 的功能。
连接可以通过调用函数 close 或 odbcClose 来关闭。 没有 R 对象对应或不在 R 会话后面的连接也可以调用这两个函数来关闭, 但会有警告信息。
[plain] view plain copy
print?在CODE上查看代码片派生到我的代码片
#安装RODBC包
install.packages("RODBC")
library(RODBC)
mycon<-odbcConnect("mydsn",uid="user",pwd="rply")
#通过一个数据源名称(mydsn)和用户名(user)以及密码(rply,如果没有设置,可以直接忽略)打开了一个ODBC数据库连接
data(USArrests)
#将R自带的“USArrests”表写进数据库里
sqlSave(mycon,USArrests,rownames="state",addPK=TRUE)
#将数据流保存,这时打开SQL Server就可以看到新建的USArrests表了
rm(USArrests)
#清除USArrests变量
sqlFetch(mycon, "USArrests" ,rownames="state")
#输出USArrests表中的内容
sqlQuery(mycon,"select * from USArrests")
#对USArrests表执行了SQL语句select,并将结果输出
sqlDrop(channel,"USArrests")
#删除USArrests表
close(mycon)
#关闭连接
本段来自R语言︱文件读入、读出一些方法罗列(批量xlsx文件、数据库、文本txt、文件夹)
1、sqlSave函数
[plain] view plain copy
print?在CODE上查看代码片派生到我的代码片
sqlSave(channel, dat, tablename = NULL, append = FALSE,
rownames = TRUE, colnames = FALSE, verbose = FALSE,
safer = TRUE, addPK = FALSE, typeInfo, varTypes,
fast = TRUE, test = FALSE, nastring = NULL)
其中这个函数的使用还是很讲究的,参数的认识很重要。
append代表是否追加,默认不追加,如果一张已经有数据的表,就可以用append追加新的数据,需要同样的column,一般开个这个就行。
rownames,可以是逻辑值,也可以是字符型。
colnames,列名;
verbose,默认为FALSE,是否发送语句到R界面,如果TRUE,那么每条上传数据就会出现在命令栏目致之中。
addPK,是否将rownames指定为主键。
2、sqlUpdate函数
[html] view plain copy
print?在CODE上查看代码片派生到我的代码片
sqlUpdate(channel, dat, tablename = NULL, index = NULL,
verbose = FALSE, test = FALSE, nastring = NULL,
fast = TRUE)
更新已经存在的表格,需要包括已经存在的列。
——————————————————————————————————————————————
二、sqldf包
本包的学习来自CDA DSC课程,L2-R语言第四讲内容,由常老师主讲。与RODBC的区别在于,前面是直接调用数据库SQL中的数据;而该包是在R语言环境中,执行SQL搜索语言。
组合使用:RODBC从数据库读入环境,sqldf进行搜索(适合SQL大神)。
其他函数的类似功能可以看:R语言数据集合并、数据增减
1、SQL基本特点
SQL语句语句特点:先全局选择,再局部选择
Select * from sale where year=2010 and ...
where后面可以接很多,有比较运算符,算数运算符,逻辑运算符。
比较运算符号:=(等于,不是双引号);!=(不等于);>,<,>=,<=
算数运算符:*,/,+,-
逻辑运算符:&&(and,与), ||(or,或) ,!(,not非)
2、数据筛选与排序
数据筛选可以有subset函数,排序有order/sort函数
[html] view plain copy
print?在CODE上查看代码片派生到我的代码片
#选择表中指定列*/
sqldf("select year,market,sale,profit from sale")
#选择满足条件的行*/
sqldf("select * from sale where year=2012 and market='东'")
#语句特点,先抽取全局数据,然后再执行局部选择
#字符单引号,切记
#对行进行排序*/
sqldf("select year,market,sale,profit
from sale
order by year")
数据筛选:sqldf可以执行选择表中指定指标、满足条件的行(注意:抽取满足条件的行的字符时,字符型需要用单引号),语法结构是:
select 指标名称 from 数据集 where 某指标=条件
排序order:按照某变量排序,语法结构:
select 指标名称(或全部)from 数据集 order by 指标名称
3、数据合并——纵向连接
数据合并的方法很多,基本函数包中有merge、cbind/rbind,以及一些专业的包plyr、dplyr、data.table等
rbind/cbind对数据合并的要求比较严格:合并的变量名必须一致;数据等长;指标顺序必须一致。
sqldf就不会这么苛刻,并参照了一些集合查询的方法(关于基础包的集合查询可参考:R语言︱集合运算)。
(1)并——union
[html] view plain copy
print?在CODE上查看代码片派生到我的代码片
UNION3<-sqldf("select * from one union select * from two")
#合并后去重,rbind是合并后不去重
UNION_all<-sqldf("select * from one union all select * from two")
#all可以支持,合并后不去重
rbind/cbind是将数据一股脑子全部帖在一起,只合并不去重;sqldf则可以自行选择,语法结构:
select * from 数据集1 union (all) select * from 数据集2
其中的all代表不去重,一起加进来。
(2)差(except)、交(Intersect)
[html] view plain copy
print?在CODE上查看代码片派生到我的代码片
#EXCEPT_差集
#不存在all
EXCEPT<-sqldf("select * from one EXCEPT select * from two")
#INTERSECT——交集
INTERSECT<-sqldf("select * from one INTERSECT select * from two")
差集就是找两个数据集的不同的数据,而且是数据集1中,去掉重复的数值;并集则是两个数据集的重合(去重可以用)之处。
4、数据合并——横向连接
横向连接有三种类型:交叉连接(笛卡尔乘积,大乱炖所有数据重新排列组合合并起来,一般在实验设计涉及全排列的时候可以很好地使用)、内连接(筛选匹配到的数据)、外连接。

其中,sqldf 中的右连接、全连接已经失效,一般情况下会大多选择左联结。
(1)内连接——匹配到完全一致的
[html] view plain copy
print?在CODE上查看代码片派生到我的代码片
> inner1<- merge(table1, table2, by = "id", all = F);inner1 #筛选相同id,F为只连接匹配到的,T为没有匹配到的赋值NA
id a b
1 3 c e
> inner2<-inner_join(table1, table2, by = "id");inner2 #与merge完全一致
id a b
1 3 c e
> inner3<-sqldf("select * from table1 as a inner join table2 as b on a.id=b.id");inner3 #内连接
id a id b
1 3 c 3 e
> inner4<-sqldf("select * from table1 as a,table2 as b where a.id=b.id");inner4 #笛卡尔积
id a id b
1 3 c 3 e
匹配到完全一致、相同的,基础包merge=dplyr的inner_join=sqldf包中的inner join。当然输出结果中,sqldf中会蹦出来两个id,可以进行删除。
其中sql包中的Inner join语法结构为:
select * from 数据集1 as a inner join 数据集2 as b on a.指标名称=b.指标名称
(2)左连接——最有效,以数据集1为准,匹配到的+为匹配到的
[html] view plain copy
print?在CODE上查看代码片派生到我的代码片
> left1<- merge(table1, table2, by = "id", all.x = TRUE);left1 #按照id连接所有信息包括进去
id a b
1 1 a <NA>
2 2 b <NA>
3 3 c e
> left2<-left_join(table1, table2, by = "id");left2
id a b
1 1 a <NA>
2 2 b <NA>
3 3 c e
> left3<-sqldf("select * from table1 as a left join table2 as b on a.id=b.id");left3
id a id b
1 1 a NA <NA>
2 2 b NA <NA>
3 3 c 3 e
基础包中的merge,当all=F就是内连接,all=T就是全连接,all.x=T就是左联结,all.y=T就是右连接(merge函数首选all=T,全连接);dplyr中的left_join也可以实现merge,all=T效果
sqldf中的语法结构:
select * from 数据集1 as a left join 数据集2as b on a.指标名称=b.指标名称
4、数据去重
[html] view plain copy
print?在CODE上查看代码片派生到我的代码片
#删除重复的行*/
sqldf("select DISTINCT year from sale")
解读:distinct跟unique去重功能差不多,语法特点:
select DISTINCT 指标名称 from 数据集
——————————————————————————————————————————————————————
应用一:R语言中文本回传SQL出现截断(truncated )现象,怎么办?
R语言中用sqlSave函数,把文本回传的时候回出现这样的问题,文本超过255个字符的会出现截断truncated现象,因为回传到SQL之后,规定的字符数即为varchar(255),所以会出现截断现象。
如果出现这样的截断现象该如何解决呢?
解决办法一:修改SQL Server的字符
先创建一个表,然后把那个字符型格式修改为varchar(4000),或者其他格式,不能修改成max,会报错,造成Rstudio崩溃。当然,也可以先sqlSave一个版本过去(就几条内容),然后修改一下格式之后,继续append追加内容进行。
SQL Server 2008中在修改数据类型的时候,会报错,一直保存不了,需要按照以下的内容设置一下:
[html] view plain copy
print?在CODE上查看代码片派生到我的代码片
选择菜单 工具-〉选项-〉表设计器(Designers)-〉表设计器和数据库设计器table and database designers。然后去掉“ 阻止保存要求重新创建表的更改”(prevent saving changes that require table re-creation)前面的勾。重新启动MSSQL SERVER 2008可以解决该问题。
但是笔者在尝试该办法的时候,总是修改之后就卡死,所以无奈选择第二条路。
解决办法二:从R中导出然后导入SQL Server
笔者尝试过,导出csv/txt但是直接用SQL Server内嵌工具,“SQL Server Import and export Wizard”对于csv/txt导入都十分麻烦,导入出现很多问题。
所以最后是用csv-转excel-用上述工具导入。
问题一:R语言中,用write.csv时候,用office打开,多出了很多行?
如果文本字符长度很大,那么就会出现内容串到下面一行的情况,譬如10行的内容,可能变成了15行。好像office默认单个单元格的字符一般不超过2500字符,超过就会给到下一行。
所以笔者在导入5W条数据时候,多出了很多行,于是只能手动删除。
如果用txt格式导出,用Notepad++打开是好的,但是用excel打开又多出来不少行,所以用excel打开是用代价的。
但是由于excel是最好的导入SQL的格式,于是不得不手工删除,同时牺牲一部分的内容。
问题二:如何使用SQL Server Import and export Wizard?
1、choose a Data Source界面(注意勾选,在第一个数据行中显示列名称)
2、Data Source中,有Flat File Source 栏目,就是用来做csv、txt格式的;还有一个excel选项是专门针对excel
3、导入数据界面,你需要输入服务器名称,已经相应的数据库名称;
4、选择源表和源视图,你可以通过”目标“栏目新建,也可以导入已经有的表格,当然第一次导入,笔者推荐直接导入新表,注意看检查一下下面的一个栏目”编辑映射“
5、运行语句。
其中,如果你是第二次导入已经有的表,那么在第四步,”编辑映射“时,就需要看清楚是否与已有的数据列表一一对应。
同时,如果第二次导入的表有表头名称,只要第一步勾选列名称,也是没有关系的,导入后不算入数据之中。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14在Python网络编程、接口测试、爬虫开发等场景中,HTTP请求的发送与响应处理是核心需求。Requests库作为Python生态中最流行的HTTP ...
2026-04-14 很多新人学完Python、SQL,拿到一张Excel表还是不知从何下手。 其实,90%的商业分析问题,都藏在表格的结构里。 ” 引言:为 ...
2026-04-14在回归分析中,因子(即自变量)的筛选是构建高效、可靠回归模型的核心步骤——实际分析场景中,往往存在多个候选因子,其中部分 ...
2026-04-13在机器学习模型开发过程中,过拟合是制约模型泛化能力的核心痛点——模型过度学习训练数据中的噪声与偶然细节,导致在训练集上表 ...
2026-04-13在数据驱动商业升级的今天,商业数据分析已成为企业精细化运营、科学决策的核心手段,而一套规范、高效的商业数据分析总体流程, ...
2026-04-13主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-13在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-13