Linux 拨号vps windows公众号手机端

spark怎么写入hdfs文件

lewis 5年前 (2020-01-10) 阅读数 11 #网络运维
文章标签 hdfsspark

要将数据写入HDFS文件系统,可以使用Apache Spark中的saveAsTextFile()或saveAsObjectFile()方法。以下是一个示例:

import org.apache.spark.SparkContext
import org.apache.spark.SparkConf

object WriteToHDFS {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setAppName("WriteToHDFS").setMaster("local")
    val sc = new SparkContext(conf)

    val data = List(1, 2, 3, 4, 5)
    val rdd = sc.parallelize(data)

    // 将RDD写入HDFS文件
    rdd.saveAsTextFile("hdfs://<HDFS_URI>/path/to/file")

    // 可以使用saveAsObjectFile()方法将RDD保存为对象文件
    // rdd.saveAsObjectFile("hdfs://<HDFS_URI>/path/to/file")

    sc.stop()
  }
}

请确保替换<HDFS_URI>/path/to/file为实际的HDFS文件系统URI和路径。同时,确保您的Spark应用程序有权限访问HDFS文件系统。

版权声明

本文仅代表作者观点,不代表米安网络立场。

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

热门