【Python爬虫】:爬取干货集中营上的全部美女妹子(翻页处理)
作者:互联网
一.确定爬取思路
今天突发奇想,能不能使用python爬虫来爬取一些妹子图片呢,于是摩拳擦掌开始干了起来。首先打开python基础教程网页htttps://gank.io 当中的妹子专栏,
发现里面全是妹子,如下所示:
网址如下所示:
https://gank.io/special/Girl
翻到最下面发现按钮,一共有十个分页,如下所示:
因此我点击了第二个分页,进去查看网页,看点击之后的网址会不会发生改变,如果网址没有发生改变。说明这是一个静态网页,如果改变则说明点击按钮触发了ajax请求,则有可能是get也有可能是post请求。
后来观察发现网址变成了:
https://gank.io/special/Girl/page/2
翻页到第三页,网址则变成了:
https://gank.io/special/Girl/page/3
因此我们肯定是加载的静态网页,因此我们进行翻页就太简单了,只需要变化请求网页的网址即可。于是我们在每一个网页当中查看当前网址的源代码,找到图片源在哪儿:
如下图所示:
这样我们就可以确定图片的url了,在爬取的时候在后面加上jpg的后缀即可。
二.开始编写代码
这样代码就很简单了,如下所示:
import requests
import re
import time
from pandas import Series,DataFrame
#1.编写爬取美女土图片
headers={
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.83 Safari/537.36'
}
page_text=''
print("开始网络爬虫!!")
for i in range(1,10):
#对指定url发起的请求url是携带参数的
url = 'https://gank.io/special/Girl/page/'
url=url+str(i)
print(url)
response=requests.get(url=url,headers=headers)
page_text=page_text+'\n'+response.text
print("这是第{}轮爬取".format(i))
#print(page_text)
page_text=page_text.split("\n")
# style="background-image:url(
# 这里进行正则匹配
url_list=[]
for i in page_text:
if re.match(' style="background-image:url',i):
url_list.append(i)
else:
pass
i=0
while i<len(url_list):
url_list[i]='https://gank.io'+eval(url_list[i].split("(")[1].split(")")[0])
i+=1
#开始下载图片,每下载成功一次图片,就会显示下载成功
for i in url_list:
image_data=requests.get(i,headers=headers).content
image_name='/'+i.split("/")[4]
image_path='./'+image_name+'.jpg'
with open(image_path,'wb') as fp:
fp.write(image_data)
print("{} : 下载成功!".format(image_name))
得解!最后在文件夹里的图片如下所示:
标签:翻页,网址,Python,text,爬取,url,io,gank,page 来源: https://blog.csdn.net/chinaherolts2008/article/details/112758012