Linux 拨号vps windows公众号手机端

pyspark中怎么读取hdfs数据

lewis 5年前 (2020-01-21) 阅读数 11 #网络运维
文章标签 hdfs

在pyspark中读取HDFS数据可以通过以下步骤实现:

  1. 首先,导入必要的模块:
from pyspark.sql import SparkSession
  1. 创建一个SparkSession对象:
spark = SparkSession.builder \
    .appName("Read HDFS Data") \
    .getOrCreate()
  1. 使用SparkSession对象的read方法读取HDFS数据:
df = spark.read.csv("hdfs://<namenode>:<port>/path/to/file.csv")

其中,"hdfs://:/path/to/file.csv"是HDFS文件的路径,需要替换为实际的路径。

  1. 可以对读取的数据进行一些操作,比如显示数据的schema和前几行数据:
df.printSchema()
df.show()
  1. 最后,记得关闭SparkSession对象:
spark.stop()

通过以上步骤,就可以在pyspark中读取HDFS数据了。

版权声明

本文仅代表作者观点,不代表米安网络立场。

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

热门