Spark中的Checkpoint是用来做什么的
lewis
2016-11-23
18次阅读
在Spark中,Checkpoint是用来持久化RDD的中间结果的机制。它可以将RDD的计算结果写入分布式存储系统,如HDFS或S3,以便在任务失败时能够重新计算RDD而不是重新执行整个DAG。Checkpoint可以提高Spark应用程序的容错性和性能,同时还可以减少内存使用和避免RDD重复计算的问题。通过使用Checkpoint,可以将RDD的计算结果持久化到磁盘上,从而能够更有效地管理内存和提高应用程序的性能。

发表评论:
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。