百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

一步步走上爬虫巅峰——高级(Scrapy)

itomcoil 2025-07-10 15:58 4 浏览

Scrapy

架构图

  • Scrapy Engine(引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。
  • Scheduler(调度器): 它负责接受引擎发送过来的Request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。
  • Downloader(下载器):负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎),由引擎交给Spider来处理,
  • Spider(爬虫):它负责处理所有Responses,从中分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入Scheduler(调度器),
  • Item Pipeline(管道):它负责处理Spider中获取到的Item,并进行进行后期处理(详细分析、过滤、存储等)的地方.
  • Downloader Middlewares(下载中间件):你可以当作是一个可以自定义扩展下载功能的组件。
  • Spider Middlewares(Spider中间件):你可以理解为是一个可以自定扩展和操作引擎和Spider中间通信的功能组件(比如进入Spider的Responses;和从Spider出去的Requests)

创建项目和爬虫:

  1. 创建项目:`scrapy startproject 项目名字
  2. 创建爬虫:进入到项目所在的路径,执行命令:scrapy genspider 爬虫名字 爬虫域名。注意:爬虫名字和项目名字不能一致。

项目目录结构

  1. items.py:用来存放爬虫爬取下来数据的模型
  2. middlewares.py:用来存放各种中间件的文件。
  3. pipelines.py:用来将items的模型存储到本地磁盘中。
  4. settings.py:爬虫的一些配置信息(如请求头,多久发送一次请求,ip代理池等)
  5. scrapy.cfg:项目的配置文件。
  6. spiders包:以后所有的爬虫,都是存放到这里。

快速入门

  1. response是一个scrapy.http.response.html.HtmlResonse对象,可以执行xpathcss语法来提取数据。
  2. 提取出来的数据是一个SelectorSelectorList对象。获取其中字符串应该执行getallget方法。
  3. getall方法:获取Selector中的所有文本,返回一个列表。
  4. get方法:获取的是Selector中的第一个文本,返回一个str类型。
  5. 如果数据解析回来,要传给pipeline处理,可以使用yield来返回。或者收集所有的item,最后统一使用return返回。
  6. item:建议在items.py中定义好模型,以后就不用使用字典的方式。
  7. `pipeline:这个是专门用来保存数据的,其中有三个方法会经常使用:open_spider(self, spider):当爬虫被打开的时候执行process_item(self, item, spider):当爬虫有item传过来的时候会被调用。closs_spider(self, spider): 当爬虫关闭的时候会被调用要激活pipeline,应该在settings.py中,设置ITEM_PIPELINES
  8. 保存json数据的时候可以使用JsonItemExporterJsonLinesItemExporterJson

ItemExporter:每次把数据添加到内存中,最后统一写入到磁盘中。好处是存储的数据是一个满足json规则的数据。坏处是如果数据量比较大,那么比较耗内存。

from scrapy.exporters import JsonItemExporter
class QsbkPipeline(object):
def __init__(self):
self.fp = open('duanzi.json', 'wb')
self.exporter = JsonItemExporter(self.fp, ensure_ascii=False,
encoding='utf-8')
self.exporter.start_exporting()

def open_spider(self, spider):
pass

def process_item(self, item, spider):
self.exporter.export_item(item)

return item

def close_spider(self, spider):
self.exporter.finish_exporting()
self.fp.close()

JsonLinesItemExporter:每次调用exorter_item的时候就把item存储到磁盘中。坏处是每一个字典是一行,整个文件不是一个满足json格式的文件。好处是每次处理数据的时候就直接存储到磁盘中,不会耗内存,数据也比较安全。

from scrapy.exporters import JsonLinesItemExporter
class QsbkPipeline(object):
def __init__(self):
self.fp = open('duanzi.json', 'wb')
self.exporter = JsonLinesItemExporter(self.fp, ensure_ascii=False,
encoding='utf-8')

def open_spider(self, spider):
pass

def process_item(self, item, spider):
self.exporter.export_item(item)

return item

def close_spider(self, spider):
self.fp.close()

CrawlSpider

在创建爬虫的命令修改为scrapy genspider -t crawl 爬虫名字 爬虫域名

需要使用LinkExtractorRule,这两个东西决定爬虫的具体走向。

  1. allow设置规则的方法,要能够限制在我们想要的url上,不要跟其他的url产生相同的正则表达式即可。
  2. 什么情况下使用follow:如果在爬取页面的 时候,需要将满足当前条件的url再进行跟进,那么就设置为True,否则设置为False.
  3. 什么情况下指定callback:如果这个url对应的页面,只是为了获取更多的url, 并不需要里面的数据,那么可以不指定callback;如果想要获取url对应页面的数据,那么就需要指定一个callback

Scrapy Shell

  1. 可以方便我们做一些数据提取的测试代码
  2. 如果想要执行scrapy命令,毫无疑问是要先进入到scrapy所在的环境中
  3. 如果想要读取某个项目的配置信息,那么应该先进入到这个项目中,再执行scrapy shell命令

模拟登陆人人网

  1. 想要发送post请求,推荐使用scrapy.FormRequest方法,可以方便的指定表单数据。
  2. 如果想在爬虫一开始的时候就发送post请求,那么应该重写start_requests方法,在这个方法中发送post请求

相关推荐

Java 如何从一个 List 中随机获得元素

概述从一个List中随机获得一个元素是有关List的一个基本操作,但是这个操作又没有非常明显的实现。本页面主要向你展示如何有效的从List中获得一个随机的元素和可以使用的一些方法。选择一个...

想月薪过万吗?计算机安卓开发之"集合"

集合的总结:/***Collection*List(存取有序,有索引,可以重复)*ArrayList*底层是数组实现的,线程不安全,查找和修改快,增和删比较慢*LinkedList*底层是...

China Narrows AI Talent Gap With U.S. as Research Enters Engineering Phase: Report

ImagegeneratedbyAITMTPOST--ChinaisclosinginontheU.S.intheAIindustry-academia-research...

大促系统优化之应用启动速度优化实践

作者:京东零售宋维飞一、前言本文记录了在大促前针对SpringBoot应用启动速度过慢而采取的优化方案,主要介绍了如何定位启动速度慢的阻塞点,以及如何解决这些问题。希望可以帮助大家了解如何定位该类问...

MyEMS开源能源管理系统核心代码解读004

本期解读:计量表能耗数据规范化算法:myems/myems-normalization/meter.py代码见底部这段代码是一个用于计算和存储能源计量数据(如电表读数)的小时值的Python脚本。它主...

Java接口与抽象类:核心区别、使用场景与最佳实践

Java接口与抽象类:核心区别、使用场景与最佳实践一、核心特性对比1.语法定义接口:interface关键字定义,支持extends多继承接口javapublicinterfaceDrawabl...

超好看 vue2.x 音频播放器组件Vue-APlayer

上篇文章给大家分享了视频播放器组件vue-aliplayer,这次给大家推荐一款音频插件VueAplayer。vue-aplayer一个好看又好用的轻量级vue.js音乐播放器组件。清爽漂亮的U...

Linq 下的扩展方法太少了,MoreLinq 来啦

一:背景1.讲故事前几天看同事在用linq给内存中的两个model做左连接,用过的朋友都知道,你一定少不了一个叫做DefaultIfEmpty函数,这玩意吧,本来很流畅的from......

MapReduce过程详解及其性能优化(详细)

从JVM的角度看Map和ReduceMap阶段包括:第一读数据:从HDFS读取数据1、问题:读取数据产生多少个Mapper??Mapper数据过大的话,会产生大量的小文件,由于Mapper是基于虚拟...

手把手教你使用scrapy框架来爬取北京新发地价格行情(实战篇)

来源:Python爬虫与数据挖掘作者:霖hero前言关于Scrapy理论的知识,可以参考我的上一篇文章,这里不再赘述,直接上干货。实战演练爬取分析首先我们进入北京新发地价格行情网页并打开开发者工具,如...

屏蔽疯狂蜘蛛,防止CPU占用100%(mumu模拟器和雷电模拟器哪个更占用cpu)

站点总是某个时间段莫名的cpu100%,资源占用也不高,这就有必要怀疑爬虫问题。1.使用"robots.txt"规范在网站根目录新建空白文件,命名为"robots.txt&#...

Web黑客近年神作Gospider:一款基于Go语言开发的Web爬虫,要收藏

小白看黑客技术文章,一定要点首小歌放松心情哈,我最爱盆栽!开始装逼!Gospider是一款运行速度非常快的Web爬虫程序,对于爱好白帽黑客的小白来说,可谓是佳作!Gospider采用厉害的Go语言开发...

用宝塔面板免费防火墙屏蔽织梦扫描网站

今天教大家在免费的基础上屏蔽织梦扫描,首先您要安装宝塔面板,然后再安装免费的防火墙插件,我用的是Nginx免费防火墙,然后打开这个插件。设置GET-URL过滤设置一条简单的宝塔面板的正则规则就可以屏蔽...

蜘蛛人再捞4千万美元 连续三周蝉联北美票房冠军

7月15日讯老马追踪票房数据的北美院线联盟今天表示,“蜘蛛人:离家日”(Spider-Man:FarFromHome)击退两部新片的挑战,连续第2周勇夺北美票房冠军,海捞4530万美元。法新...

夏天到了,需要提防扁虱,真是又小又恐怖的动物

夏天马上要到了,你知道吗,扁虱是这个夏天最危险的动物之一,很少有动物能比它还凶猛。Whenitcomestosummer'slittledangers,fewarenastiert...