spark rdd转dataframe的两种方式
2017-11-01 11:50
316 查看
方式1:
使用隐式转换
case class Dika(skuId: Int,skudesc:String, listId: Int, listDesc:String)
import hiveContext.implicits._
val p = sc.parallelize(Seq(new Dika(1,"miao",1,"shu"))).toDF()
p.show(1)
p.printSchema()
方式2:
使用StructType
val schema = StructType(
Seq(
StructField("skuId",IntegerType,true),
StructField("skudesc",StringType,true),
StructField("listId",IntegerType,true),
StructField("listDesc",StringType,true)
)
)
val p2: RDD[Row] = sc.parallelize(Seq(Row(1,"222",3,"666")))
val df2: SchemaRDD = hiveContext.createDataFrame(p2,schema)
df2.printSchema()
df2.show(1)
使用隐式转换
case class Dika(skuId: Int,skudesc:String, listId: Int, listDesc:String)
import hiveContext.implicits._
val p = sc.parallelize(Seq(new Dika(1,"miao",1,"shu"))).toDF()
p.show(1)
p.printSchema()
方式2:
使用StructType
val schema = StructType(
Seq(
StructField("skuId",IntegerType,true),
StructField("skudesc",StringType,true),
StructField("listId",IntegerType,true),
StructField("listDesc",StringType,true)
)
)
val p2: RDD[Row] = sc.parallelize(Seq(Row(1,"222",3,"666")))
val df2: SchemaRDD = hiveContext.createDataFrame(p2,schema)
df2.printSchema()
df2.show(1)
相关文章推荐
- Spark中RDD转换成DataFrame的两种方式(分别用Java和scala实现)
- Spark将RDD转换成DataFrame的两种方式
- Spark中RDD转换成DataFrame的两种方式(分别用Java和scala实现)
- Spark 读写 HBase 的两种方式(RDD、DataFrame)
- Spark将RDD转换成DataFrame的两种方式
- sparkrdd转dataframe的两种方式
- 3.Spark SQL:使用反射方式、编程方式,将RDD转换为DataFrame
- Java接入Spark之创建RDD的两种方式和操作RDD
- 3.Spark SQL:使用反射方式、编程方式,将RDD转换为DataFrame
- 3.Spark SQL:使用反射方式、编程方式,将RDD转换为DataFrame
- 3.Spark SQL:使用反射方式、编程方式,将RDD转换为DataFrame
- 3.Spark SQL:使用反射方式、编程方式,将RDD转换为DataFrame
- 3.Spark SQL:使用反射方式、编程方式,将RDD转换为DataFrame
- spark基础之RDD和DataFrame的转换方式
- 3.Spark SQL:使用反射方式、编程方式,将RDD转换为DataFrame
- SparkSQL 之 RDD转为DataSet的两种方式
- 3.Spark SQL:使用反射方式、编程方式,将RDD转换为DataFrame
- 3.Spark SQL:使用反射方式、编程方式,将RDD转换为DataFrame
- RDD转换DataFrame的两种方式的比较
- 3.Spark SQL:使用反射方式、编程方式,将RDD转换为DataFrame