Python 股票数据采集并做数据可视化(爬虫 + 数据分析)
作者:互联网
前 言
嗨喽!大家好,这里是魔王!
课 题:
Python 股票数据采集并做数据可视化(爬虫 + 数据分析)
课题介绍:
我国股票投资者数量为15975.24万户, 如此多的股民热衷于炒股,
首先抛开炒股技术不说, 那么多股票数据是不是非常难找,
找到之后是不是看着密密麻麻的数据是不是头都大了?
今天带大家爬取某平台的股票数据
课程亮点
- 系统分析网页性质
- 结构化的数据解析
- csv数据保存
- 数据可视化
开发环境 & 第三方模块:
- 解释器版本: python 3.8
- 代码编辑器: pycharm 2021.2
- requests
安装方法: pip install requests - csv
爬虫案例的步骤:
- 确定url地址(链接地址)
- 发送网络请求
- 数据解析(筛选数据)
-
数据的保存(数据库(mysql\mongodb\redis), 本地文件)
本次目标:
导入模块
import requests # 发送网络请求 import csv
代码
file = open('data2.csv', mode='a', encoding='utf-8', newline='') csv_write = csv.DictWriter(file, fieldnames=['股票代码','股票名称','当前价','涨跌额','涨跌幅','年初至今','成交量','成交额','换手率','市盈率(TTM)','股息率','市值']) csv_write.writeheader() # 1.确定url地址(链接地址) for page in range(1, 56): url = f'https://xueqiu.com/service/v5/stock/screener/quote/list?page={page}&size=30&order=desc&order_by=amount&exchange=CN&market=CN&type=sha&_=1637908787379' # 2.发送网络请求 # 伪装 headers = { # 浏览器伪装 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36' } response = requests.get(url, headers=headers) json_data = response.json() # print(json_data) # 3.数据解析(筛选数据) data_list = json_data['data']['list'] for data in data_list: data1 = data['symbol'] data2 = data['name'] data3 = data['current'] data4 = data['chg'] data5 = data['percent'] data6 = data['current_year_percent'] data7 = data['volume'] data8 = data['amount'] data9 = data['turnover_rate'] data10 = data['pe_ttm'] data11 = data['dividend_yield'] data12 = data['market_capital'] print(data1, data2, data3, data4, data5, data6, data7, data8, data9, data10, data11, data12) data_dict = { '股票代码': data1, '股票名称': data2, '当前价': data3, '涨跌额': data4, '涨跌幅': data5, '年初至今': data6, '成交量': data7, '成交额': data8, '换手率': data9, '市盈率(TTM)': data10, '股息率': data11, '市值': data12, } csv_write.writerow(data_dict) file.close()
炒股总结图
数据可视化
""" 数据分析: anaconda >>> jupyter notebook 文件格式 .ipynb """ import pandas as pd # 做表格处理 data_df = pd.read_csv('data2.csv') print(data_df)
好了,我的这篇文章写到这里就结束啦!
有更多建议或问题可以评论区或私信我哦!一起加油努力叭(ง •_•)ง
喜欢就关注一下博主,或点赞收藏评论一下我的文章叭!!!
标签:Python,数据,list,爬虫,可视化,requests,csv,data,data2 来源: https://www.cnblogs.com/Qqun261823976/p/16406885.html