Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 전염병
- 봉준호감독통역
- 코로나19
- 봉준호감독통역사
- Bolton
- 필리핀사망
- 우한코로나바이러스
- 확진자수
- 웨일즈
- 어서와한국은처음이지
- cnn
- 정은경 본부장님
- 최성재
- 중국외교부
- 우한 코로나
- sharonchoi
- 우한코로나
- wuhan
- 우한
- 코로나바이러스
- 코로나
- 창궐
- 미중
- 진짜영웅
- 치앙마이
- red hearse
- parasite
- 신종코로나
- everybody wants you
- 조현병
Archives
- Today
- Total
오지's blog
pyspark를 통해 snowflake데이터 베이스 연결하고 데이터 가져오기 본문
728x90
반응형
사전 작업. Spark 설치
-- snowflake jar라이브러리 다운로드 및 해당 path에 복사(py파일과 같은 path에 있음 가능)
https://search.maven.org/search?q=snowflake
에서 snowflake-jdbc-3.13.16.jar과 spark-snowflake_2.12-2.10.0-spark_3.2.jar 다운로드
$ cp snowflake-jdbc-3.13.16.jar $SPARK_HOME/jars
$ cp spark-snowflake_2.12-2.10.0-spark_3.2.jar $SPARK_HOME/jars
필요한 jars라이브러리 해당 폴더에 넣고
-- 접속정보를 넣는뒤 가져오고자 하는 테이블을 table_name에 넣어 아래 코드를 실행시키면
import pyspark
from pyspark.sql import SparkSession
sfparams = {
"sfURL": "xxx.snowflakecomputing.com",
"sfUser": "xxx",
"sfPassword": "xxx",
"sfDatabase": "TESTDB",
"sfSchema": "xxx",
"sfWarehouse": "xxx",
"sfRole": "xxx"
}
spark = SparkSession.builder \
.master("local") \
.appName("Test") \
.config('spark.jars','snowflake-jdbc-3.13.16.jar,spark-snowflake_2.12-2.10.0-spark_3.2.jar') \
.getOrCreate()
SNOWFLAKE_SOURCE_NAME = "net.snowflake.spark.snowflake"
df = spark.read.format(SNOWFLAKE_SOURCE_NAME) \
.options(**sfparams) \
.option("query", "select * from table_name limit 10") \
.load()
df.show()
$ python3 pyspark_snowflake.py
실행
참고.
java.lang.ClassNotFoundException:
Failed to find data source: net.snowflake.spark.snowflake. Please find packages at
http://spark.apache.org/third-party-projects.html
에러 발생시 jar파일이 $SPARK_HOME/jars에 없거나 jar라이브러리 파일을 잘못받은 경우 발생
'개발노트 > Python' 카테고리의 다른 글
Comments