Spark的mapWithState解密方法是什么

  • 来源:网络
  • 更新日期:2022-01-11

摘要:这篇文章主要讲解了“Spark的mapWithState解密方法是什么”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢

云计算

这篇文章主要讲解了“Spark的mapWithState解密方法是什么”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Spark的mapWithState解密方法是什么”吧!

updateStateByKey和mapWithState方法在DStream中找不到,需要进行隐式转换,转换为PairDStreamFunctions对象。


updateStateByKey是在已有的状态下进行更新操作。Seq[V]中存放历史数据,Option[S]存放新值,可能没有值。使用了默认的Partitioner函数,HashPartitioner。


StateDStream继承DStream,使用MEMORY_ONLY_SER的方式作为存储级别。


StateDStream的compute方法,如果parent存在则调用computeUsingPreviousRDD方法,如果不存在调用preStateRDD的mapPartitions方法。


computeUsingPreviousRDD方法中,parentRDD和之前的RDD进行cogroup操作,根据Key对Value进行聚合,基于Key对所有的Value进行扫描,当数据量比较少时可以考虑使用cogroup方法,但是当数据量大时,就会影响整个运行,降低性能。


mapWithState方法中接收StateSpec类型的参数,StateSpec中封装了更新操作的函数。


StateImpl继承State类,记录了其状态信息,定义了获取,更新,删除等操作接口,很像是数据库中的一张表,进行增删改查。


StateSpecImpl类中定义了如何初始化状态,设置Partition的个数,设置分区函数Partition。


MapWithStateDStreamImpl类的compute方法其实质是调用InternalMapWithStateDStream的getOrCompute方法。


InternalMapWithStateDStream是在历史数据的基础上进行更新操作。


InternalMapWithStateDStream的compute方法中,实例化了MapWithStateRDD对象。


MapWithStateRDD类中,一个Partition对应一个MapWithStateRDDRecord。


MapWithStateRDD的compute方法,先获取之前的State信息,和现在数据的迭代器进行操作,,调用MapWithStateRDDRecord的updateRecordWithData的方法,返回MapWithStateRDDRecord为元素的迭代器。


newStateMap中保存了整个历史数据。


RDD是不可变的,但是RDD中的数据可以变化。

感谢各位的阅读,以上就是“Spark的mapWithState解密方法是什么”的内容了,经过本文的学习后,相信大家对Spark的mapWithState解密方法是什么这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。


"新网虚拟主机"