1. Zeppelin Interpreter - Spark 설정
아래 3개의 설정 지정
- SPAKR_HOME 지정.
- spark.master = yarn
- spark.submit.deployMode = client
- 그리고 spark.executor.cores, spark.driver.cores 등 메모리도.. 기본적으로 실행할 자원 설정
- 근데 노트북 내에서 아래와 같이 따로 설정도 가능함
%spark.conf
spark.app.name test-app-name
spark.executor.instances 10
spark.executor.core 10
spark.yarn.queue queue.test
2. 필요 라이브러리 설정
cd ${ZEPPELIN_HOME}/interpreter/spark/
ls -al //이렇게 보면 ._spark-interpreter-0.11.1.jar 파일이 껍데기만 있는 것을 볼 수 있다.
cp spark-interpreter-0.11.1.jar ._spark-interpreter-0.11.1.jar // 정상 파일로 복사해준다.
scala-2.12 버전도 사용해야 해서 똑같이 해준다.
cd ${ZEPPELIN_HOME}/interpreter/spark/scala-2.12
cp spark-scala-2.12-0.11.1.jar ._ spark-scala-2.12-0.11.1.jar
3.Spark interpreter - Hive 연동
그리고 추가로 spark 세션 생성해서 hive 접속 시에 기존 spark-shell로는 hive 잘만 접속하는데,
mysql.org 어쩌고 나온다. 커넥터가 없다고 한다.
${ZEPPELIN_HOME}/lib에 mysql-connector-java-8.0.23.jar 를 추가해준다.
4. 추가 라이브러리 설정
spark.jars에 설정합니다.
hdfs://test-nn/test/delta-spark_2.12-3.1.0.jar,hdfs://test-nn/test/delta-hive-assembly_2.12-3.1.0.jar
5. 자원 설정
Note당 독립 자원 할당을 위해 Per Note, Isolated 로 설정함
6. Python 언어 설정
설치한 python path 입력
PYSPARK_PYTHON /usr/bin/python3
PYSPARK_DRIVER_PYTHON /usr/bin/python3
'IT 잡동사니' 카테고리의 다른 글
Ubuntu OpenLDAP 설치 (0) | 2024.07.01 |
---|---|
Zeppelin 설치(Windows) - UI 안나오는 이슈 해결, 원격 접속 허용 (0) | 2024.07.01 |
데이터 중심 애플리케이션 설계 - 복제 (0) | 2022.09.12 |
IntelliJ Google style fomatter를 적용해보자! + 매크로 등록 (0) | 2022.05.15 |
클린코드 17장 냄새와 휴리스틱 리뷰 (0) | 2022.03.10 |