其他分享
首页 > 其他分享> > 百度必应谷歌图片自动爬取库icrawler使用体会

百度必应谷歌图片自动爬取库icrawler使用体会

作者:互联网

在一篇文章中看到这个库,随手就用了用,总体感觉还不错。
直接使用 pip install icrawler就能安装使用,还是挺方便的。

我觉得这个库的一个优势就是很方便,没有过多的代码,只需要设置好关键字一些关键参数就行。并且该库可以自动的使用多线程。
我是使用jupyter notebook测试的。
代码如下
 

from icrawler.builtin import BaiduImageCrawler 
from icrawler.builtin import BingImageCrawler 
from icrawler.builtin import GoogleImageCrawler 
#需要爬虫的关键字
list_word = ['抽烟 行人','玩手机 行人']
for word in list_word:
    #bing爬虫
    #保存路径
    bing_storage = {'root_dir': 'bing/'+word}
    #从上到下依次是解析器线程数,下载线程数,还有上面设置的保存路径
    bing_crawler = BingImageCrawler(parser_threads=2,
                                    downloader_threads=4,
                                    storage=bing_storage)
    #开始爬虫,关键字+图片数量
    bing_crawler.crawl(keyword=word,
                       max_num=4000)

    #百度爬虫
    baidu_storage = {'root_dir': 'baidu/' + word}
    baidu_crawler = BaiduImageCrawler(parser_threads=2,
                                      downloader_threads=4,
                                      storage=baidu_storage)
    baidu_crawler.crawl(keyword=word,
                        max_num=4000)

    # google爬虫
    google_storage = {'root_dir': '‘google/' + word}
    google_crawler = GoogleImageCrawler(parser_threads=2,
                                       downloader_threads=4,
                                       storage=google_storage)
    google_crawler.crawl(keyword=word,
                         max_num=4000)

 

标签:google,取库,word,bing,storage,icrawler,threads,必应,crawler
来源: https://blog.csdn.net/agq358/article/details/116301262