摘要:云计算 本篇文章为大家展示了Spark API编程中spark文件操作和debug是怎样的,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的
云计算
本篇文章为大家展示了Spark API编程中spark文件操作和debug是怎样的,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
这次 我们以指定executor-memory参数的方式来启动spark-shell:
从hdfs上读取文件:
可以看出MappedRDD是从HadoopRDD转换而来的
再看下textFile的源代码:
下面进行一个简单的wordcount操作:
再次使用toDebugString,查看下依赖关系:
HadoopRDD -> MappedRDD -> FlatMappedRDD -> MappedRDD -> ShuffledRDD
上述内容就是Spark API编程中spark文件操作和debug是怎样的,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注箭头云行业资讯频道。
相关文章推荐
虚拟主机的专业参数,分别都是什么意思?2022-09-09
中非域名注册规则是怎样的?注册域名有什么用处? 2022-01-10
HostEase新年活动促销 美国/香港主机全场低至五折2021-12-28
HostGator下载完整备份教程分享2021-12-28
Flink中有界数据与无界数据的示例分析2021-12-28