其他分享
首页 > 其他分享> > 【Scrapy(一)】 Scrapy爬虫的基础执行流程

【Scrapy(一)】 Scrapy爬虫的基础执行流程

作者:互联网

 

 

 

 

 

 

 

 

 

 

 

 

安装scrapy模块 :

  pip install scrapy 

创建scrapy项目

  1.scrapy startprojecty 项目名称 

  注意:如果创建失败,可以先卸载原有的scrapy模块,使用pip3 intall scrapy 进行安装

      

  

 

  2.生成一个爬虫

  scrapy genspider 爬虫名 要爬取的域名    eg: scrapy genspider itcast  itcast.cn 

  如下图:

  

 

 

   

 

 

 

  3.启动爬虫 scrapy crawl itcast 

    注意:启动爬虫的位置是在项目目录中 ,也就是在如下图

  

 

 

 

   

 注意事项:

  1.爬虫中定义的parse()方法和Pipline中定义的 process_item()方法的方法名不能修改

  

 

 

   

 

 

   2.Pipline中的return 返回值是将数据传递给下一个Pipline,如果取消return 关键字,则下一个Pipline接受到的数据为None

  

 

 

   3.可以定义多个Pipline,多个Pipline的执行循序在settings.py文件中配置     ,配置的数字越小,Pipline越先执行

         

             4. yield 不能传递列表 只能传递Reqeust BaseItem dict None (原因,传递列表意义不大,数据一次性加载到内存,占用内存较高)

  

 

 

 

   

  

标签:itcast,genspider,流程,爬虫,传递,Scrapy,Pipline,scrapy
来源: https://www.cnblogs.com/july-sunny/p/13697144.html