摘要: 如何进行spark SQL编程动手实战,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能
如何进行spark SQL编程动手实战,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。
首先创建SparkContext上下文:
接着引入隐身转换,用于把RDD转成SchemaRDD:
接下来要加载数据,这里的测试数据是user.txt文件:
我们创建好use.txt增加内容并上传到hdfs中:
hdfs命令查询:
验证数据是否加载成功:
此刻user还是一个MappedRDD:
此刻的teenagers已经隐身转换成SchemaRDD
结果:
同样使用"user.txt"的数据:
我们这次直接使用SQL查询操作:
可以发现使用DSL的使用teenagers在内部已经被隐身转换了SchemaRDD的实例
可以发现与前面那张注册Table方式的结果是一样的
看完上述内容,你们掌握如何进行spark SQL编程动手实战的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注箭头云行业资讯频道,感谢各位的阅读!
相关文章推荐
虚拟主机的专业参数,分别都是什么意思?2022-09-09
中非域名注册规则是怎样的?注册域名有什么用处? 2022-01-10
HostEase新年活动促销 美国/香港主机全场低至五折2021-12-28
HostGator下载完整备份教程分享2021-12-28
Flink中有界数据与无界数据的示例分析2021-12-28