前 言
嗨喽!大家好,这里是魔王!
课 题:
Python 股票数据采集并做数据可视化(爬虫 + 数据分析)
课题介绍:
我国股票投资者数量为15975.24万户, 如此多的股民热衷于炒股,
首先抛开炒股技术不说, 那么多股票数据是不是非常难找,
找到之后是不是看着密密麻麻的数据是不是头都大了?
今天带大家爬取某平台的股票数据
课程亮点
- 系统分析网页性质
- 结构化的数据解析
- csv数据保存
- 数据可视化
开发环境 & 第三方模块:
- 解释器版本: python 3.8
- 代码编辑器: pycharm 2021.2
- requests
安装方法: pip install requests - csv
爬虫案例的步骤:
- 确定url地址(链接地址)
- 发送网络请求
- 数据解析(筛选数据)
-
数据的保存(数据库(mysql\mongodb\redis), 本地文件)
本次目标:
导入模块
import requests # 发送网络请求
import csv
代码
file = open('data2.csv', mode='a', encoding='utf-8', newline='')
csv_write = csv.DictWriter(file, fieldnames=['股票代码','股票名称','当前价','涨跌额','涨跌幅','年初至今','成交量','成交额','换手率','市盈率(TTM)','股息率','市值'])
csv_write.writeheader()
# 1.确定url地址(链接地址)
for page in range(1, 56):
url = f'https://xueqiu.com/service/v5/stock/screener/quote/list?page={page}&size=30&order=desc&order_by=amount&exchange=CN&market=CN&type=sha&_=1637908787379'
# 2.发送网络请求
# 伪装
headers = {
# 浏览器伪装
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36'
}
response = requests.get(url, headers=headers)
json_data = response.json()
# print(json_data)
# 3.数据解析(筛选数据)
data_list = json_data['data']['list']
for data in data_list:
data1 = data['symbol']
data2 = data['name']
data3 = data['current']
data4 = data['chg']
data5 = data['percent']
data6 = data['current_year_percent']
data7 = data['volume']
data8 = data['amount']
data9 = data['turnover_rate']
data10 = data['pe_ttm']
data11 = data['dividend_yield']
data12 = data['market_capital']
print(data1, data2, data3, data4, data5, data6, data7, data8, data9, data10, data11, data12)
data_dict = {
'股票代码': data1,
'股票名称': data2,
'当前价': data3,
'涨跌额': data4,
'涨跌幅': data5,
'年初至今': data6,
'成交量': data7,
'成交额': data8,
'换手率': data9,
'市盈率(TTM)': data10,
'股息率': data11,
'市值': data12,
}
csv_write.writerow(data_dict)
file.close()
炒股总结图
数据可视化
"""
数据分析: anaconda >>> jupyter notebook 文件格式 .ipynb
"""
import pandas as pd # 做表格处理
data_df = pd.read_csv('data2.csv')
print(data_df)
好了,我的这篇文章写到这里就结束啦!
有更多建议或问题可以评论区或私信我哦!一起加油努力叭(ง •_•)ง
喜欢就关注一下博主,或点赞收藏评论一下我的文章叭!!!