其他分享
首页 > 其他分享> > 爬虫入门

爬虫入门

作者:互联网

爬虫入门笔记

爬虫概念

爬虫用途

搜索引擎
爬取图片
爬取网站公开信息......

爬虫分类

通用爬虫和聚焦爬虫

1:全网爬虫,爬取种子URL扩充到整个网络,为门户站点搜索引擎和大型Web服务提供商采集数据
2:主题网络爬虫:选择性的爬取那些与预先设定好的主题相关的页面

积累式爬虫和增量式爬虫

1:通过遍历的方式,规模庞大,但抓取的数据不会再随时间的更新而更新
2:在一定量的规模的基础上,更新已有集合中果实的网页,不重新下载没有变化的网页,但增加了爬行算法的复杂度和实现难度

表层爬虫和深层爬虫

    1:表层网页,以超链接可以到达的静态页面为主构成的Web页面
    2:大部分内容不能通过静态连接获取,隐藏在搜索表单之后的,只有提交一些关键词才能获取的Web页面

爬虫实现原理

1:通用爬虫:从一个或若干个初始网页的URL开始,在爬取页面的过程中,不断从当前页面抽取新的URL放入列队,直到满足系统的停止提条件
2:聚焦爬虫:网页分析算法过滤与主题无关的链接

robots.txt文件

通过一个符合robots协议的文件来告诉搜索引擎的哪些页面可以爬取,那些页面不能爬取

网页请求原理

浏览网页过程

统一资源定位符:
协议头:
                File  访问本地计算机的资源
                FTP   访问共享主机的资源
                HTTP  超文本传输协议
                HTTPS 安全的ssl加密传输协议,访问远程网络资源
                Mailto访问电子邮件地址

最常用的是HTTP 与HTTPS

服务器地址和端口:

存放资源的服务器的主机名或IP地址
HTTP程序默认端口号80
HTTPS 443

路径:是由0个或多个“/”符号隔开的字符串

计算机域名系统:

从域名服务器查找该域名对应的IP地址,然后再向IP地址对应的Web服务器发送资源请求

HTTP 网络请求原理

请求格式:请求方法 空格 URL 空格 协议版本
头部字段名: 值 回车符 换行符

请求行:

eg:GET https://www.baidu.com/ HTTP/1.1
请求方法:
1:GET 请求指定的页面信息,并返回实体主体
2:POST 向指定资源提交数据

            3:HEAD 类似GET,没有具体内容
            4:PUT  客户端传递的数据取代指定文件夹的内容
            5:DELETE  请求服务器删除指定页面
            6:TRACE  回显服务器收到的请求,用于测试和诊断
五级标题

HTTP抓包工具Fiddler

Fiddler工作原理
以代理网络服务器形式工作 代理地址:127.0.0.1 端口号8888

爬取网络数据:

urllib库

    urllib是Python中请求url连接的官方标准库,在Python2中主要为urllib和urllib2,在Python3中整合成了urllib。urllib中一共有四个模块,分别如下:

    request:主要负责构造和发起网络请求,定义了适用于在各种复杂情况下打开 URL (主要为 HTTP) 的函数和类
    error:处理异常
    parse:解析各种数据格式
    robotparser:解析robot.txt文件

快速抓取一个网页

import urllib.request
from urllib import request

response=urllib.request.urlopen('http://www.baidu.com')
html=response.read().decode('UTF-8')
print(html)

分析urlopen方法

#response=urllib.request.urlopen(‘http://www.baidu.com’)
‘’’
传入了一个百度首页的URL,

urlopen可以接收多个参数
urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=False, context=None)
url: 请求的网址
data:要发送到服务器的数据
timeout:设置网站的访问超时时间
urlopen返回对象提供方法:

‘’’

data 参数使用:

import urllib.request
import  urllib.parse
data=bytes(urllib.parse.urlencode({'world':'hello'}).encode('utf-8'))
response=urllib.request.urlopen('http://httpbin.org/post',data=data)
print(response.read())

timrout 参数使用

import urllib.request
import  urllib.parse
response=urllib.request.urlopen('http://httpbin.org/post',timeout=1)
print(response.read())

使用HTTPResponse对象

import urllib.request

response=urllib.request.urlopen('http://www.itcase.cn')
print(type(response))

#结果:<class ‘http.client.HTTPResponse’>

构造Resquest对象

import urllib.request
# 将url作为Resquest()方法的参数,构造并返回一个Request对象
response=urllib.request.urlopen('http://www.baidu.com')
# 将Resquest对象作为urlopen()方法的参数,发送给服务器并接受响应
response=urllib.request.urlopen(request)
# 使用read()读取网页内容

html=response.read().decode('UTF-8')
print(html)

标签:入门,urlopen,request,爬虫,urllib,response,请求
来源: https://blog.csdn.net/weixin_52465909/article/details/116593127