爬虫的分布式思维与实现思路
基本构架
scrapy-redis实现分布式,其实从原理上来说很简单,这里为描述方便,我们把自己的核心服务器称为master,而把用于跑爬虫程序的机器称为slave
我们知道,采用scrapy框架抓取网页,我们需要首先给定它一些start_urls,爬虫首先访问start_urls里面的url,再根据我们的具体逻辑,对里面的元素、或者是其他的二级、三级页面进行抓取。而要实现分布式,我们只需要在这个starts_urls里面做文章就行了
我们在master上搭建一个redis数据库(注意这个数据库只用作url的存储),并对每一个需要爬取的网站类型,都开辟一个单独的列表字段。通过设置slave上scrapy-redis获取url的地址为master地址。这样的结果就是,尽管有多个slave,然而大家获取url的地方只有一个,那就是服务器master上的redis数据库
并且,由于scrapy-redis自身的队列机制,slave获取的链接不会相互冲突。这样各个slave在完成抓取任务之后,再把获取的结果汇总到服务器上
好处
程序移植性强,只要处理好路径问题,把slave上的程序移植到另一台机器上运行,基本上就是复制粘贴的事情
分布式爬虫思路
-
任务分发和调度:需要一个中心节点或者调度器来分发任务给各个爬虫节点,并监控任务的执行情况。可以使用消息队列(如RabbitMQ、Kafka)或分布式任务调度框架(如Celery)来实现任务的分发和调度。
-
数据存储和去重:在分布式环境下,需要统一管理爬取的数据,并进行数据去重。可以使用分布式数据库(如MongoDB、Cassandra)或者分布式存储系统(如Hadoop HDFS)来存储数据,并使用分布式去重算法(如布隆过滤器)来进行数据去重。
-
URL管理:在分布式环境下,需要管理待爬取的URL队列,并保证每个URL只被爬取一次。可以使用分布式队列(如Redis队列)来管理URL队列,并使用分布式锁来保证URL的唯一性。
-
爬虫节点间通信:爬虫节点之间需要进行协作和通信,比如共享URL队列、传递爬取结果等。可以使用分布式消息系统(如RabbitMQ、Kafka)或者分布式存储系统来实现节点间的通信和数据共享。
-
容错和重试机制:由于分布式爬虫环境中存在多个节点,节点之间可能存在网络故障、节点宕机等问题,需要考虑容错和重试机制,保证系统的稳定性和可靠性。可以使用心跳机制、故障恢复策略等来处理节点故障和网络异常。
-
爬虫任务监控和日志:为了实时监控爬虫节点的状态和任务执行情况,可以引入日志记录和监控系统,对爬虫任务进行监控和统计分析,及时发现和解决问题。
分布式爬虫的实现
-
使用三台机器,一台是windows,两台是centos,分别在两台机器上部署scrapy来进行分布式抓取一个网站
-
windows的ip地址为
192.168.xxx.XXX
,用来作为redis的master端,centos的机器作为slave -
master的爬虫运行时会把提取到的url封装成request放到redis中的数据库:“dmoz:requests”,并且从该数据库中提取request后下载网页,再把网页的内容存放到redis的另一个数据库中“dmoz:items”
-
slave从master的redis中取出待抓取的request,下载完网页之后就把网页的内容发送回master的redis
-
重复上面的3和4,直到master的redis中的“dmoz:requests”数据库为空,再把master的redis中的“dmoz:items”数据库写入到mongodb中
-
master里的reids还有一个数据“dmoz:dupefilter”是用来存储抓取过的url的指纹(使用哈希函数将url运算后的结果),是防止重复抓取的
scrapy-redis框架的安装
一个三方的基于redis的分布式爬虫框架,配合scrapy使用,让爬虫具有了分布式爬取的功能
github地址: GitHub - rmax/scrapy-redis: Redis-based components for Scrapy.
安装
pip install scrapy-redis==0.7.3