Linking with Spark

18 August 2019

Spark 2.4.3은 간결하게 함수를 작성하기위한 람다식을 지원합니다. 혹은 org.apache.spark.api.java.function 패키지의 클래스를 사용할 수 있습니다.

Spark 2.2.0에서는 Java 7에 대한 지원이 제거되었다는 것을 명심하십시오.

Java로 Spark 애플리케이션을 작성하려면 Spark에 대한 dependency를 추가해야합니다.
Spark는 아래의 Maven Central을 통해 제공됩니다.

groupId = org.apache.spark
artifactId = spark-core_2.12
version = 2.4.3
또한 HDFS 클러스터에 액세스하려면 사용하고 있는 HDFS 버전에 맞는 hadoop-client에 대한 dependency를 추가해야합니다.
groupId = org.apache.hadoop
artifactId = hadoop-client
version = [your-hdfs-version]
마지막으로 Spark 클래스를 프로그램으로 가져오기 위해서 다음 줄을 추가하십시오.
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.SparkConf;

참조 : https://spark.apache.org/docs/latest/rdd-programming-guide.html

이 문서는 개인적인 목적이나 배포하기 위해서 복사할 수 있다. 출력물이든 디지털 문서든 각 복사본에 어떤 비용도 청구할 수 없고 모든 복사본에는 이 카피라이트 문구가 있어야 한다.