Initializing Spark
18 August 2019
Spark 프로그램에서 가장 먼저해야 할 일은 Spark에 클러스터에 액세스하는 방법을 알려주는 JavaSparkContext 객체를 만드는 것입니다.
SparkContext를 만들려면 먼저 응용 프로그램에 대한 정보가 들어있는 SparkConf 객체를 만들어야합니다.
SparkConf conf = new SparkConf().setAppName(appName).setMaster(master);
JavaSparkContext sc = new JavaSparkContext(conf);
appName 매개 변수는 응용 프로그램이 클러스터 UI에 표시 할 이름입니다.master는 Spark, Mesos 또는 YARN 클러스터의 URL 또는 로컬 모드에서 실행할 경우 "local"로 입력해주도록 합니다.
실제로 사용하는 대부분의 경우에는, 클러스터에서 실행되는 프로그램에 master를 하드 코딩하지 않고 spark-submit을 사용하여 config 값으로 전달받아 사용합니다.
그러나 로컬 테스트 및 단위 테스트의 경우 "local"을 전달하여 Spark를 실행할 수 있습니다.
참조 : https://spark.apache.org/docs/2.2.0/rdd-programming-guide.html#initializing-spark