SparkSql 读取文件/读取hdfs文件

SparkSql 读取文件/读取hdfs文件

读取本地:

image
    val spark =
      SparkSession.builder()
        .appName("SQL-JSON")
        .master("local[4]")
        .getOrCreate()

    import spark.implicits._

    // easy enough to query flat JSON
    val people = spark.read.json("./data/people.json")
    people.printSchema()
    people.createOrReplaceTempView("people")
    val young = spark.sql("SELECT * FROM people ")
    young.foreach(r => println(r))

    people.select("name").show()

读取hdfs上的文件:

image

这两个文件从hdfs配置文件中拿下来放在这里。

object ReadJson {


  def main(args: Array[String]): Unit = {
    val spark =
      SparkSession.builder()
        .appName("SQL-JSON")
        .master("local[4]")
        .getOrCreate()

    import spark.implicits._

    // easy enough to query flat JSON
    val people = spark.read.json("/usr/data/people.json")
    people.printSchema()
    people.createOrReplaceTempView("people")
    val young = spark.sql("SELECT * FROM people ")
    
    young.foreach(r => println(r))
    
    people.select("name").show()

  }
}
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容