Creating DataFrames
10 September 2019
SparkSession을 사용하면 응용 프로그램은 기존 RDD, Hive 테이블 또는 Spark 데이터 소스에서 DataFrame을 만들 수 있습니다.
예를 들어, 다음은 JSON 파일의 내용을 기반으로 DataFrame을 만듭니다.
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
Dataset df = spark.read().json("examples/src/main/resources/people.json");
// Displays the content of the DataFrame to stdout
df.show();
// +----+-------+
// | age| name|
// +----+-------+
// |null|Michael|
// | 30| Andy|
// | 19| Justin|
// +----+-------+
참조 : https://spark.apache.org/docs/latest/sql-getting-started.html#starting-point-sparksession