为电影公司创建可视化图表-tableau

可视化链接https://public.tableau.com/profile/.5458#!/vizhome/1_2734/Q2

从The movie DB上获得一份电影数据进行可视化

提出问题:

  • 1:电影类型是如何随着时间的推移发生变化的?
  • 2:Universal Pictures 和 Paramount Pictures 之间的对比情况如何?
  • 3:改编电影和原创电影的对比情况如何?
  • 4: 发行年份跟收益的关系

数据各字段的意思

-   id:标识号
•   imdb_id:IMDB 标识号
•   popularity:在 Movie Database 上的相对页面查看次数
•   budget:预算(美元)
•   revenue:收入(美元)
•   original_title:电影名称
•   cast:演员列表,按 | 分隔,最多 5 名演员
•   homepage:电影首页的 URL
•   director:导演列表,按 | 分隔,最多 5 名导演
•   tagline:电影的标语
•   keywords:与电影相关的关键字,按 | 分隔,最多 5 个关键字
•   overview:剧情摘要
•   runtime:电影时长
•   genres:风格列表,按 | 分隔,最多 5 种风格
•   production_companies:制作公司列表,按 | 分隔,最多 5 家公司
•   release_date:首次上映日期
•   vote_count:投票数
•   vote_average:平均投票数
•   release_year:发行年份
•   budget_adj:根据通货膨胀调整的预算(2010 年,美元)
•   revenue_adj:根据通货膨胀调整的收入(2010 年,美元)

导入模块

import pandas as pd
import numpy as np

加载数据

df=pd.read_csv('/Users/zhongyaode/Desktop/movies.csv')
#查看数据基本统计数据
df.describe()
#查看字段的数据类型及行数
df.info()
#显示前五行数据
df.head()
#选取需要的字段
dd=df[['id','budget','revenue','genres','production_companies','vote_count','release_year','keywords','original_title']]
dd.info()

处理缺失值

#删除有缺失值的行
dd.dropna(axis=0).info()
#分列字段 genres字段
split_genres=df['genres'].str.split('|',expand=True)

split_genres['id']=df['id']#把df的id字段赋值给split_genres
merged_back=dd.merge(split_genres)#根据字段id进行连接
#merge相当于mysqle的join 进行表连接

melt的官方文档https://pandas.pydata.org/pandas-docs/stable/generated/pandas.melt.html

melted=pd.melt(
    merged_back,id_vars=['id','release_year'],
    value_vars=[0,1,2,3,4],value_name='genres').drop('variable',axis=1).dropna()
melted.head()
#输出melted
melted.to_csv('id_year_genres.csv',index=False)

处理production_companies字段

#拆分
dd_production=dd['production_companies'].str.split('|',expand=True)
dd_production['id']=dd['id']
merge_backed=dd_production.merge(dd)
#用melt函数
melted_production=pd.melt(merge_backed,id_vars=['id','budget','revenue','release_year'],
                         value_vars=[0,1,2,3,4],value_name='production_companies'
                         ).drop('variable',axis=1).dropna()
#筛选数据
melted_U_P=melted_production[(melted_production.production_companies=='Universal Pictures')|(melted_production.production_companies=='Paramount Pictures')]
melted_U_P.to_csv('melted_U_P.csv',index
                  =False)

处理keywords字段

#拆分字段
dd_keywords=dd['keywords'].str.split('|',expand=True)
dd_keywords['id']=dd['id']
dd_merge_keywords=dd.merge(dd_keywords)

#运用melt函数 
if_novel=pd.melt(dd_merge_keywords,id_vars=['id','budget','revenue','release_year','original_title','vote_count'],
                value_vars=[0,1,2,3,4],value_name='keywords').drop('variable',axis=1).dropna()

#再对keywords进行处理,值是based on novel的返回based on novel否则返回Not_novel
def peng(data):
    if data=='based on novel':
        return 'based on novel'
    else:
        return 'Not_novel'
if_novel['keywords']=if_novel['keywords'].apply(lambda x: peng(x))
#这里用python处理当是练习了,其实用tablea的创建组方法能非常简单的处理好
#输出
if_novel.to_csv('if_novel.csv',index=False)

接下来用非常好玩的tableau探索数据

tableau交互可视化的链接https://public.tableau.com/profile/.5458#!/vizhome/1_2734/Q1

参考资料 melt的官方文档https://pandas.pydata.org/pandas-docs/stable/generated/pandas.melt.html
以及tableau的官网教程

来几张工作仪和story

图片 1.png
图片 2.png
图片 3.png
图片 4.png
图片 5.png
6.png
7.png

以下进行的是尝试把四个文件合并到一起的方式·

df_genres=df['genres'].str.split('|',expand=True)
df_genres.info()

df_genres['id']=df['id']
df_genres['production_companies']=df['production_companies']
df_genres['keywords']=df['keywords']
#df.merge(df_genres).info()
df_pro=pd.melt(df_genresed,id_vars=['production_companies','id','keywords'],value_vars=[0,1,2,3,4],
               value_name='genres').drop('variable',axis=1).dropna()

df_product=df_pro['production_companies'].str.split('|',expand=True)
df_product['id']=df_pro['id']
df_product['genres']=df_pro['genres']
df_product['keywords']=df_pro['keywords']
df_genres_pro=pd.melt(df_product,id_vars=['id','genres','keywords'],value_vars=[0,1,2,3,4],
                      value_name='production_companies').drop('variable',axis=1).dropna()
df_k_g_p=df_genres_pro['keywords'].str.split('|',expand=True)

df_k_g_p['id']=df_genres_pro['id']
df_k_g_p['genres']=df_genres_pro['genres']
df_k_g_p['production_companies']=df_genres_pro['production_companies']

ddd=pd.melt(df_k_g_p,id_vars=['id','genres','production_companies'],value_vars=[0,1,2,3,4],
            value_name='keywords').drop('variable',axis=1).dropna()
ddd.info()
ddd.head()

movie=df

merged_split
split_companies=movie['keywords'].str.split('|',expand=True)
split_companies['id']=movie['id']
merged_split=movie.merge(split_companies)
key_df=pd.melt(merged_split,id_vars=['id','revenue','budget','release_date','genres','production_companies'],value_vars=[0,1,2,3,4],value_name='keyword').drop('variable',axis=1).dropna()

split_companies=movie['keywords'].str.split('|',expand=True)
split_companies['id']=movie['id']
merged_split=movie.merge(split_companies)
key_df=pd.melt(merged_split,id_vars=['id','revenue','budget','release_date','genres','production_companies'],value_vars=[0,1,2,3,4],value_name='keyword').drop('variable',axis=1).dropna()

split_companies=key_df['production_companies'].str.split('|',expand=True)
split_companies['id']=key_df['id']
# merged_split=key_df.merge(split_companies,on='id',how='left')
merged_split=key_df.merge(split_companies)
pp=pd.melt(merged_split,id_vars=['id','release_date','genres','keyword','revenue','budget'],value_vars=[0,1,2,3,4],value_name='production_company').drop('variable',axis=1).dropna()

movie=df.drop(['imdb_id','popularity','vote_average','original_title','cast','homepage','director','tagline','overview','runtime','vote_count','release_year','budget_adj','revenue_adj'],axis=1)
split_companies=movie['keywords'].str.split('|',expand=True)
split_companies['id']=movie['id']
merged_split=movie.merge(split_companies)
key_df=pd.melt(merged_split,id_vars=['id','revenue','budget','release_date','genres','production_companies'],value_vars=[0,1,2,3,4],value_name='keyword').drop('variable',axis=1).dropna()

split_genres=key_df['genres'].str.split('|',expand=True)
split_genres['id']=key_df['id']
merged_split=key_df.merge(split_genres)
genre=pd.melt(merged_split,id_vars=['id','release_date','production_companies','keyword','revenue','budget'],value_vars=[0,1,2,3,4],value_name='genre').drop('variable',axis=1).dropna()
genred=genre[:10000]
split_companies=genred['production_companies'].str.split('|',expand=True)
split_companies['id']=genred['id']
#merged_split=genre.merge(split_companies)
merg=genred.merge(split_companies,on='id',how='left')
#merged_split[:1]
pp=pd.melt(merg,id_vars=['id','release_date','genre','keyword','revenue','budget'],value_vars=[0,1,2,3,4],value_name='production_company').drop('variable',axis=1).dropna()

pp.info()

movie=df.drop(['imdb_id','popularity','vote_average','original_title','cast','homepage','director','tagline','overview','runtime','vote_count','release_year','budget_adj','revenue_adj'],axis=1)


split_companies=movie['keywords'].str.split('|',expand=True)
split_companies['id']=movie['id']
split_companies
merged_split=movie.merge(split_companies)
key_df=pd.melt(merged_split,id_vars=['id','revenue','budget','release_date','genres','production_companies'],value_vars=[0,1,2,3,4],value_name='keyword').drop('variable',axis=1).dropna()
split_genres=key_df['genres'].str.split('|',expand=True)
split_genres['id']=key_df['id']
merged_split=key_df.merge(split_genres)
genre_dff=pd.melt(merged_split,id_vars=['id','release_date','production_companies','keyword','revenue','budget'],value_vars=[0,1,2,3,4],value_name='genre').drop('variable',axis=1).dropna()
genre_df=genre_dff[:10000]
split_companies=genre_df['production_companies'].str.split('|',expand=True)
split_companies['id']=genre_df['id']
merged_split=genre_df.merge(split_companies,on='id',how='left')
p=pd.melt(merged_split,id_vars=['id','release_date','genre','keyword','revenue','budget'],value_vars=[0,1,2,3,4],value_name='production_company').drop('variable',axis=1).dropna()
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,542评论 6 504
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,822评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,912评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,449评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,500评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,370评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,193评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,074评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,505评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,722评论 3 335
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,841评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,569评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,168评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,783评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,918评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,962评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,781评论 2 354

推荐阅读更多精彩内容