爬虫之利用Scrapy进行图片的爬取

1,107次阅读
没有评论
爬虫之利用Scrapy进行图片的爬取

爬虫之利用Scrapy进行图片的爬取

一:Scrapy自带管道方法爬取

  • 创建爬虫文件
  • scrapy genspider image360 image360.com

  • 修改配置文件settings.py

    配置文件中的图片管道类是scrapy自定义好的,不需我们编写,直接用就行了

  • ITEM_PIPELINES = { # 'reptile.pipelines.ReptilePipeline': 300, 'scrapy.pipelines.images.ImagesPipeline':300, }

    ​ 新增图片保存路径

    # 下载图片时需配置路径 IMAGES_STORE = "images"

  • 编写item.py文件,定义字段名

    注意:定义url的字段时,字段名必须是image_urls,这个字段名是scrapy已经定义好的,不能改变,感兴趣的读者可以去images.py中的源码进行查看

  • class Image360(scrapy.Item): # 定义图片url image_urls = scrapy.Field()

  • 编写爬虫文件image360.py,获取数据

    注:我们在items.py中定义的image_url字段是scrapy提供给我们的,scrapy框架对它接受的值的格式也做了限定,只能接受一个列表类型的值

    如果出现了No module named 'PIL’错误,说明没有安装pillow,pip install pillow即可

  • import scrapy

    from ..items import Image360

    class Image360Spider(scrapy.Spider): name = 'image360' # allowed_domains = ['image360.com'] start_urls = ['https://image.so.com/zjl?ch=beauty&sn=30&listtype=new&temp=1']

    def parse(self, response): # 实例化item对象 item = Image360()

    # 获取图片保存的列表信息并转换为python格式 content = response.json()["list"]

    # 获取图片url image_urls = [msg["imgurl"] for msg in content]

    # 处理数据 item["image_urls"] = image_urls

    yield item

  • 执行爬虫文件
  • scrapy crawl image360

    ​ 执行后会在项目目录下生成一个二级文件夹,用scrapy自带的管道类爬取图片非差方便,但我们可以发现,图片的名称是由一长串数字组成的,只是因为scrapy对我们的文件名进行了加密(images.py中的file_path方法中可看到加密函数,加密方式为hash的sha1加密),所以我们需要自定义管道类来进行保存。

    二:自定义管道方法爬取

  • 创建爬虫文件
  • scrapy genspider image360 image360.com

  • 编写items.py

    scrapy中的images.py中的ImagesPipeline类中的file_path方法默认是对图片名称进行了加密,所以我们要在items.py中继承ImagesPipeline类并对其file_path方法进行重写,所以我们需要从images.py中导入相关类即ImagesPipeline类。

    因为file_path方法中并没有item参数,所以我们还要重写另外一个方法,即get_media_requests方法

  • class Image360(scrapy.Item): # 定义图片url image_urls = scrapy.Field() # 定义图片名字 image_name = scrapy.Field()

  • 编写爬虫文件image360.py
  • import scrapy # 思路 # 获取保存图片的url # 请求进行下载

    from ..items import Image360

    class Image360Spider(scrapy.Spider): name = 'image360' # allowed_domains = ['image360.com'] start_urls = ['https://image.so.com/zjl?ch=beauty&sn=30&listtype=new&temp=1']

    def parse(self, response): # 实例化item对象 item = Image360()

    # 获取图片保存的列表信息并转换为python格式 content = response.json()["list"]

    # 获取图片名称 image_name = [msg["title"] for msg in content]

    # 获取图片url image_urls = [msg["imgurl"] for msg in content]

    # 处理数据 item["image_name"] = img_name item["image_urls"] = image_urls

    yield item

  • 编写管道文件pipelines.py

    这儿需要注意的是文件名与图片的对应问题

    思路:将url列表中当前正在请求的url的索引通过meta传到file_path中,命名时通过url的索引在列表中找到相应位置的图片名称进行命名

  • import scrapy from scrapy.pipelines.images import ImagesPipeline

    class Image360Pipeline(ImagesPipeline): # 重写get_media_requests方法是为了获取item def get_media_requests(self,item,info): # 此时获取到的item是一个列表,需要循环获取每一个url,并将相应的response对象传给file_path for url in item["image_urls"]: yield scrapy.Request(url=url,meta={"index":item["image_urls"].index(url),"item":item})

    # 重写file_path方法是为了修改文件名 def file_path(self,request,response=None,info=None): # 获取item item = request.meta["item"] # 获取索引 index = request.meta["index"] return f'full/{item["image_name"][index]}.jpg'

  • 修改配置文件,添加管道配置
  • ITEM_PIPELINES = { 'reptile.pipelines.Image360Pipeline': 300, }

  • 图片爬取完毕
  • 神龙|纯净稳定代理IP免费测试>>>>>>>>天启|企业级代理IP免费测试>>>>>>>>IPIPGO|全球住宅代理IP免费测试

    相关文章:

    版权声明:Python教程2022-10-28发表,共计2835字。
    新手QQ群:570568346,欢迎进群讨论 Python51学习