Creating DataFrames

10 September 2019

SparkSession을 사용하면 응용 프로그램은 기존 RDD, Hive 테이블 또는 Spark 데이터 소스에서 DataFrame을 만들 수 있습니다.
예를 들어, 다음은 JSON 파일의 내용을 기반으로 DataFrame을 만듭니다.

import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;

Dataset df = spark.read().json("examples/src/main/resources/people.json");

// Displays the content of the DataFrame to stdout
df.show();
// +----+-------+
// | age|   name|
// +----+-------+
// |null|Michael|
// |  30|   Andy|
// |  19| Justin|
// +----+-------+

참조 : https://spark.apache.org/docs/latest/sql-getting-started.html#starting-point-sparksession

이 문서는 개인적인 목적이나 배포하기 위해서 복사할 수 있다. 출력물이든 디지털 문서든 각 복사본에 어떤 비용도 청구할 수 없고 모든 복사본에는 이 카피라이트 문구가 있어야 한다.