SQL中的DataFrame类似于一张关系型数据表。在关系型中对单表或进行的查询操作,在DataFrame中都可以通过调用其API接口来实现。可以参考,提供的。
本文中的代码基于Spark-1.6.2的文档实现。
一、DataFrame对象的生成
Spark-SQL可以以其他RDD对象、parquet文件、json文件、表,以及通过JDBC连接到其他关系型数据库作为数据源来生成DataFrame对象。本文将以数据库为数据源,生成DataFrame对象后进行相关的DataFame之上的操作。
文中生成DataFrame的代码如下:object DataFrameOperations { def main (args: Array[String ]) { val sparkConf = new SparkConf().setAppName( "Spark SQL DataFrame Operations").setMaster( "local[2]" ) val sparkContext = new SparkContext(sparkConf) val sqlContext = new SQLContext(sparkContext) val url = "jdbc:mysql://m000:3306/test" val jdbcDF = sqlContext.read.format( "jdbc" ).options( Map( "url" -> url, "user" -> "root", "password" -> "root", "dbtable" -> "spark_sql_test" )).load() val joinDF1 = sqlContext.read.format( "jdbc" ).options( Map("url" -> url , "user" -> "root", "password" -> "root", "dbtable" -> "spark_sql_join1" )).load() val joinDF2 = sqlContext.read.format( "jdbc" ).options( Map ( "url" -> url , "user" -> "root", "password" -> "root", "dbtable" -> "spark_sql_join2" )).load() ... ... } }
后续代码都在上面... ...
处。
二、DataFrame对象上Action操作
1、show
:展示数据
以表格的形式在输出中展示jdbcDF
中的数据,类似于select * from spark_sql_test
的功能。
show
方法有四种调用方式,分别为, (1)show
只显示前20条记录。 示例:jdbcDF.show
(2)show(numRows: Int)
numRows
条 示例:jdbcDF.show(3)
(3)show(truncate: Boolean)
true
。 示例:jdbcDF.show(true)
jdbcDF.show(false)
(4)show(numRows: Int, truncate: Boolean)
jdbcDF.show(3, false)
2、collect
:获取所有数据到数组
不同于前面的show
方法,这里的collect
方法会将jdbcDF
中的所有数据都获取到,并返回一个Array
对象。
jdbcDF.collect()
3、collectAsList
:获取所有数据到List
功能和collect
类似,只不过将返回结构变成了List
对象,使用方法如下
jdbcDF.collectAsList()
4、describe(cols: String*)
:获取指定字段的统计信息
这个方法可以动态的传入一个或多个String
类型的字段名,结果仍然为DataFrame
对象,用于统计数值类型字段的统计值,比如count, mean, stddev, min, max
等。
c1
字段为字符类型,c2
字段为整型,c4
字段为浮点型 jdbcDF .describe("c1" , "c2", "c4" ).show()
5、first, head, take, takeAsList
:获取若干行记录
这里列出的四个方法比较类似,其中
(1)first
获取第一行记录 (2)head
获取第一行记录,head(n: Int)
获取前n行记录 (3)take(n: Int)
获取前n行数据 (4)takeAsList(n: Int)
获取前n行数据,并以List
的形式展现 以Row
或者Array[Row]
的形式返回一行或多行数据。first
和head
功能相同。 take
和takeAsList
方法会将获得到的数据返回到Driver端,所以,使用这两个方法时需要注意数据量,以免Driver发生OutOfMemoryError
使用和结果略。
二、DataFrame对象上的条件查询和join等操作
以下返回为DataFrame类型的方法,可以连续调用。
1、where条件相关
(1)where(conditionExpr: String)
:SQL语言中where关键字后的条件
and
和or
。得到DataFrame类型的返回结果, 示例: jdbcDF .where("id = 1 or c1 = 'b'" ).show()
(2)filter
:根据字段进行筛选
where
使用条件相同 示例: jdbcDF .filter("id = 1 or c1 = 'b'" ).show()
2、查询指定字段
(1)select
:获取指定字段值
String
类型字段名,获取指定字段的值,以DataFrame类型返回 示例: jdbcDF.select( "id" , "c3" ).show( false)
还有一个重载的select
方法,不是传入String
类型参数,而是传入Column
类型参数。可以实现select id, id+1 from test
这种逻辑。
jdbcDF.select(jdbcDF( "id" ), jdbcDF( "id") + 1 ).show( false) 能得到Column类型的方法是apply以及col方法,一般用apply方法更简便。
2)selectExpr
:可以对指定字段进行特殊处理
String
类型参数,得到DataFrame对象。 示例,查询id
字段,c3
字段取别名time
,c4
字段四舍五入: jdbcDF .selectExpr("id" , "c3 as time" , "round(c4)" ).show(false)
(3)col
:获取指定字段
(4)apply
:获取指定字段
val idCol1 = jdbcDF.apply("id")val idCol2 = jdbcDF("id")
(5)drop
:去除指定字段,保留其他字段
jdbcDF.drop("id")jdbcDF.drop(jdbcDF("id"))
3、limit
limit
方法获取指定DataFrame的前n行记录,得到一个新的DataFrame对象。和take
与head
不同的是,limit
方法不是Action操作。
jdbcDF.limit(3).show( false)
4、order by
(1)orderBy
和sort
:按指定字段排序,默认为升序
-
表示降序排序。sort
和orderBy
使用方法相同 jdbcDF.orderBy(- jdbcDF("c4")).show(false)// 或者jdbcDF.orderBy(jdbcDF("c4").desc).show(false)
(2)sortWithinPartitions
sort
方法功能类似,区别在于sortWithinPartitions
方法返回的是按Partition排好序的DataFrame对象。 5、group by
(1)groupBy
:根据字段进行group by
操作
groupBy
方法有两种调用方式,可以传入String
类型的字段名,也可传入Column
类型的对象。 使用方法如下, jdbcDF .groupBy("c1" )jdbcDF.groupBy( jdbcDF( "c1"))
(2)cube
和rollup
:group by的扩展
SQL
中的group by cube/rollup
,略。 (3)GroupedData对象
该方法得到的是GroupedData
类型对象,在GroupedData
的API中提供了group by
之后的操作,比如, -
max(colNames: String*)
方法,获取分组中指定字段或者所有的数字类型字段的最大值,只能作用于数字型字段min(colNames: String*)
方法,获取分组中指定字段或者所有的数字类型字段的最小值,只能作用于数字型字段mean(colNames: String*)
方法,获取分组中指定字段或者所有的数字类型字段的平均值,只能作用于数字型字段sum(colNames: String*)
方法,获取分组中指定字段或者所有的数字类型字段的和值,只能作用于数字型字段-
count()
方法,获取分组中的元素个数 -
这里面比较复杂的是以下两个方法,agg,pivot该方法和下面介绍的类似,可以用于对指定字段进行聚合
6、distinct
(1)distinct
:返回一个不包含重复记录的DataFrame
dropDuplicates()
方法不传入指定字段时的结果相同。 示例: jdbcDF.distinct()
(2)dropDuplicates
:根据指定字段去重
select distinct a, b
操作 示例: jdbcDF.dropDuplicates(Seq("c1"))
7、聚合
聚合操作调用的是agg
方法,该方法有多种调用方式。一般与groupBy
方法配合使用。
id
字段求最大值,对c4
字段求和。 jdbcDF.agg("id" -> "max", "c4" -> "sum")
8、union
unionAll
方法:对两个DataFrame进行组合
SQL
中的UNION ALL
操作。 示例: jdbcDF.unionALL(jdbcDF.limit(1))
9、join
重点来了。在SQL
语言中用得很多的就是join
操作,DataFrame中同样也提供了join
的功能。
join
方法。在DataFrame中提供了六个重载的join
方法。 (1)、笛卡尔积 joinDF1.join(joinDF2)
(2)、using
一个字段形式
a join b using column1
的形式,需要两个DataFrame中有相同的一个列名, joinDF1.join(joinDF2, "id")
(3)、using
多个字段形式
using
一个字段的情况外,还可以using
多个字段,如下 joinDF1.join(joinDF2, Seq("id", "name"))
(4)、指定join
类型
join
操作有inner, outer, left_outer, right_outer, leftsemi
类型。在上面的using
多个字段的join情况下,可以写第三个String
类型参数,指定join
的类型,如下所示 joinDF1.join(joinDF2, Seq("id", "name"), "inner")
(5)、使用Column
类型来join
using
模式,灵活指定join
字段的话,可以使用如下形式 joinDF1.join(joinDF2 , joinDF1("id" ) === joinDF2( "t1_id"))
(6)、在指定join
字段同时指定join
类型
joinDF1.join(joinDF2 , joinDF1("id" ) === joinDF2( "t1_id"), "inner")
10、获取指定字段统计信息
stat
方法可以用于计算指定字段或指定字段之间的统计信息,比如方差,协方差等。这个方法返回一个DataFramesStatFunctions
类型对象。
c4
字段,统计该字段值出现频率在30%
以上的内容。在jdbcDF
中字段c1
的内容为"a, b, a, c, d, b"
。其中a
和b
出现的频率为2 / 6
,大于0.3
jdbcDF.stat.freqItems(Seq ("c1") , 0.3).show()
11、获取两个DataFrame中共有的记录
intersect
方法可以计算出两个DataFrame中相同的记录,
jdbcDF.intersect(jdbcDF.limit(1)).show(false)
2、获取一个DataFrame中有另一个DataFrame中没有的记录
示例:jdbcDF.except(jdbcDF.limit(1)).show(false)
13、操作字段名
(1)withColumnRenamed
:重命名DataFrame中的指定字段名
jdbcDF
中的id
字段重命名为idx
。 jdbcDF.withColumnRenamed( "id" , "idx" )
(2)withColumn
:往当前DataFrame中新增一列
whtiColumn(colName: String , col: Column)
方法根据指定colName
往DataFrame中新增一列,如果colName
已存在,则会覆盖当前列。 以下代码往jdbcDF
中新增一个名为id2
的列, jdbcDF.withColumn("id2", jdbcDF("id")).show( false)
14、行转列
有时候需要根据某个字段内容进行分割,然后生成多行,这时可以使用explode
方法
c3
字段中的空格将字段内容进行分割,分割的内容存储在新的字段c3_
中,如下所示 jdbcDF.explode( "c3" , "c3_" ){ time: String => time.split( " " )}
博客来源:https://www.cnblogs.com/rxingyue/p/7113235.html