1.1 从一个本地的Scala集合创建
//声明一个本地集合 *分布式数据集,有一个重要参数就是数据分片数量(Spark会在每一个分片跑一个task) *本地集合创建,默认情况,Spark会根据你的集群数量自动设置分片数 *也可以手动指定这个数据集的分片(第二个参数) //一旦分布式数据集创建完毕,这个数据集就可以并行的被操莋
1.2 从一个外部的存储系统中创建
wholeTextFiles是用来读取某个文件目录下的多个小文件的.
与textFile嘚区别是,
textFile 以行断符为分割.一个记录就是一行
wholeTextFiles 是以文件为分割,一个记录就是一个文件内的全部内容
wholeTextFiles的默认情况,可能导致分区数太小.这时可以手动设置调高分区数
将数据集中的元素以Hadoop Sequence文件的形式保存到指定的本地文件系统、HDFS或其它Hadoop支持的文件系统中
该操作只支持对实现了Hadoop的Writable
接口的键值对RDD进行操作。
在Scala中还支持隐式转换為Writable的类型(Spark包括了基本类型的转换,例如Int、Double、String等等)
将数据集中的元素以简单的Java序列化的格式写入指定的路径这些保存该数据嘚文件,可以使用SparkContext.objectFile()进行加载
版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。