Spark 读取本地数据并存储到MongoDB、Elasticsearch中

import sys
from pyspark.sql import SparkSession
from pyspark import SparkConf
from pyspark import SparkContext
from pyspark.sql.types import *
reload(sys)
sys.setdefaultencoding("utf-8")
## format "mongodb://127.0.0.1:database.collection"
mongo_read_uri = "mongodb://127.0.0.1:27017/spark_db"
mongo_write_uri = "mongodb://127.0.0.1:27017/raw_data"

#conf = SparkConf().setAppName("Dataloader").setMaster("local")
spark = SparkSession.builder \
    .master("local") \
    .appName("Dataloader") \
    .config("spark.mongodb.input.uri",mongo_read_uri) \
    .config("spark.mongodb.output.uri",mongo_write_uri) \
    .config("spark.jars.packages","org.mongodb.spark:mongo-spark-connector_2.11:2.3.2") \
    .getOrCreate()

infile_movies = "/home/njliu/prc/MovieRecSys/datas/movies_clean.csv"
infile_ratings = "/home/njliu/prc/MovieRecSys/datas/ratings.csv"
infile_tags = "/home/njliu/prc/MovieRecSys/datas/tags.csv"


movie_labels = [
    ('MOVIE_ID',StringType()),
    ('MOVIE_NAME',StringType()),
    ('MOVIE_DESC',StringType()),
    ('MOVIE_LENGTH',StringType()),
    ('LAUNCH_TIME',StringType()),
    ('MAKE_TIME',StringType()),
    ('LANGUAGE',StringType()),
    ('FILM_TPYE',StringType()),
    ('ACTORS',StringType()),
    ('DIRECTOR',StringType())
]
movie_schema = StructType([StructField(e[0],e[1],False) for e in movie_labels])

rating_labels = [
    ('USERID',StringType()),
    ('MOVIE_ID',StringType()),
    ('RATING_SCORE',StringType()),
    ('TIMESTAMP',StringType())
]

rating_schema = StructType([StructField(e[0],e[1],False) for e in rating_labels])


tag_labels = [
    ('USERID',StringType()),
    ('MOVIE_ID',StringType()),
    ('TAG_CONTENT',StringType()),
    ('TIMESTAMP',StringType())
]

tag_schema = StructType([StructField(e[0],e[1],False) for e in tag_labels])


movies = spark.sparkContext.textFile("file://" + infile_movies) \
        .map(lambda row:row.split("^")) \
        
movies_df = spark.createDataFrame(movies,movie_schema)


rating = spark.sparkContext.textFile("file://" + infile_ratings) \
        .map(lambda row:row.split(","))
ratings_df = spark.createDataFrame(rating,rating_schema)


tag = spark.sparkContext.textFile("file://" + infile_tags) \
        .map(lambda row:row.split(","))
tags_df = spark.createDataFrame(tag,tag_schema)


#=========
#movies = spark.read.csv("file://" + infile_movies, header = False, schema = movie_schema )
#ratings = spark.read.csv("file://" + infile_ratings, header = False, schema = rating_schema)
#tags = spark.read.csv("file://" + infile_tags, header = False, schema = tag_schema)

#write data into mongodb
# mode 
# * `append`: Append contents of this :class:`DataFrame` to existing data.
# * `overwrite`: Overwrite existing data.
# * `error` or `errorifexists`: Throw an exception if data already exists.
# * `ignore`: Silently ignore this operation if data already exists.
 

movies_df.write.format("com.mongodb.spark.sql.DefaultSource") \
    .option("collection","movies") \
    .mode("overwrite") \
    .save()

ratings_df.write.format("com.mongodb.spark.sql.DefaultSource") \
    .option("collection","ratings") \
    .mode("overwrite") \
    .save()


tags_df.write.format("com.mongodb.spark.sql.DefaultSource") \
    .option("collection","tags") \
    .mode("overwrite") \
    .save()


#write data into elasticsearch

#merge the movies and tags
merged_df = movies_df.join(tags_df.select("MOVIE_ID","TAG_CONTENT"),on="MOVIE_ID",how="left")



merged_df.write \
    .format("org.elasticsearch.spark.sql") \
    .option("es.nodes","192.168.186.111") \
    .option("es.resource","recsys/movies") \
    .option("es.mapping.id","MOVIE_ID") \
    .mode("overwrite") \
    .save()




#read data from elasticsearch
#df = spark.read.format("org.elasticsearch.spark.sql") \
#   .option("es.nodes","192.168.186.111") \
#   .option("es.resource","recsys/movies") \
#   .load()
#
#
#df.registerTempTable("movies")
#test_df = spark.sql("select * from movies limit 10")
#test_df.show()
#print (test_df.schema)
#
spark.stop()
    
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,039评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,426评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,417评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,868评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,892评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,692评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,416评论 3 419
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,326评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,782评论 1 316
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,957评论 3 337
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,102评论 1 350
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,790评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,442评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,996评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,113评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,332评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,044评论 2 355

推荐阅读更多精彩内容