일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 코로나19
- 신종코로나
- 정은경 본부장님
- cnn
- 중국외교부
- 어서와한국은처음이지
- 전염병
- 창궐
- 조현병
- 봉준호감독통역사
- 최성재
- sharonchoi
- everybody wants you
- Bolton
- red hearse
- 진짜영웅
- 웨일즈
- 봉준호감독통역
- 우한코로나바이러스
- 치앙마이
- 우한코로나
- wuhan
- 우한
- 코로나바이러스
- 미중
- 필리핀사망
- 확진자수
- parasite
- 우한 코로나
- 코로나
- Today
- Total
오지's blog
pyspark를 통해 snowflake데이터 베이스 연결하고 데이터 가져오기 본문
사전 작업. Spark 설치
spark install (ec2환경 프리티어, ubuntu 20.04)
설치 환경 EC2프리티어 Ubuntu 20.04 $ sudo apt update $ sudo apt -y upgrade $ [ -f /var/run/reboot-required ] && sudo reboot -f JAVA설치 $ sudo apt install curl mlocate default-j..
ojjy.tistory.com
-- snowflake jar라이브러리 다운로드 및 해당 path에 복사(py파일과 같은 path에 있음 가능)
https://search.maven.org/search?q=snowflake
에서 snowflake-jdbc-3.13.16.jar과 spark-snowflake_2.12-2.10.0-spark_3.2.jar 다운로드
$ cp snowflake-jdbc-3.13.16.jar $SPARK_HOME/jars
$ cp spark-snowflake_2.12-2.10.0-spark_3.2.jar $SPARK_HOME/jars
필요한 jars라이브러리 해당 폴더에 넣고
-- 접속정보를 넣는뒤 가져오고자 하는 테이블을 table_name에 넣어 아래 코드를 실행시키면
import pyspark
from pyspark.sql import SparkSession
sfparams = {
"sfURL": "xxx.snowflakecomputing.com",
"sfUser": "xxx",
"sfPassword": "xxx",
"sfDatabase": "TESTDB",
"sfSchema": "xxx",
"sfWarehouse": "xxx",
"sfRole": "xxx"
}
spark = SparkSession.builder \
.master("local") \
.appName("Test") \
.config('spark.jars','snowflake-jdbc-3.13.16.jar,spark-snowflake_2.12-2.10.0-spark_3.2.jar') \
.getOrCreate()
SNOWFLAKE_SOURCE_NAME = "net.snowflake.spark.snowflake"
df = spark.read.format(SNOWFLAKE_SOURCE_NAME) \
.options(**sfparams) \
.option("query", "select * from table_name limit 10") \
.load()
df.show()
$ python3 pyspark_snowflake.py
실행
참고.
java.lang.ClassNotFoundException:
Failed to find data source: net.snowflake.spark.snowflake. Please find packages at
http://spark.apache.org/third-party-projects.html
에러 발생시 jar파일이 $SPARK_HOME/jars에 없거나 jar라이브러리 파일을 잘못받은 경우 발생