编程语言
首页 > 编程语言> > Python网络爬虫基本库的使用(大章)

Python网络爬虫基本库的使用(大章)

作者:互联网

学习爬虫,最基本的操作就是模拟浏览器向服务器发出请求。Pyhton提供了功能齐全的类库来帮助我们实现这些需求。接下来,就让我们从最基础的部分开始了解HTTP库的使用方法吧。

urllib 的使用

版本:在Python2中,有urllib和urllib2两个库来实现请求的发送。而在python3中,已经不存在urllib2这个库了,统一为urllib。

简介:urllib是python内置的http请求库,也就是说不需要额外安装即可使用。它包含如下四个模块。

request:它是最基本的 HTTP 请求模块,可以用来模拟发送请求。就像在浏览器里输入网址然后回车一样,只需要给库方法传入URL及额外的参数,就可以模拟实现这个过程了

parse :一个工具模块,提供了许多 URL 处理方法,比如拆分、解析、合并等

error :常处理模块,如果出现请求错误,我们可以捕获这些异常,然后进行重试或其他操作以保证程序不会意外终止

robotparser :主要是用来识别网站的 robots.txt 文件,然后判断哪些网站可以爬,哪些网站不可以爬,它其实用得比较少

1、请求模块:urllib.request

urllib.request.urlopen()

urlopen()方法中的url参数可以是字符串,也可以是一个Request对象
作用 :向网站发起一个请求并获取响应
字节流 = response.read()
字符串 = r

标签:请求,Python,可以,request,爬虫,urllib,网站,模块,大章
来源: https://blog.csdn.net/Huangqingmeng/article/details/122805745