python爬虫工程师,如何从零开始部署Scrapyd+Feapder+Gerapy?

news2024/11/27 12:45:46

突然被告知要连着上整整十一天的班,有一点点累,简单更新一下内容吧,水个积分

关注公众号:python技术训练营,精选优质文档,好玩的项目

内容

1.面试专题几十个大厂面试题
2.入门基础教程
3.11模块零基础到精通笔记
4.百个项目实战+爬虫教程+代码
5.量化交易,机器学习,深度学习
6.Python游戏源码
7.交流学习
8.了解接单市场
9.DNF自动识别打怪
10.3263页学习资料

一丶scrapyd框架

1.环境部署

Scrapyd是一个基于Twisted的Python框架,用于部署和运行Scrapy爬虫。它提供了一个Web服务,可以通过API来管理Scrapy爬虫的部署和运行。在Scrapyd中,爬虫可以被打包成一个egg文件,然后通过API上传到Scrapyd服务器上进行部署和运行。

以下是Scrapyd框架环境部署的详细步骤:

1. 安装Python和pip

Scrapyd是基于Python的框架,因此需要先安装Python和pip。可以从Python官网下载Python安装包,然后使用命令行安装pip。

2. 安装Scrapy和Scrapyd

使用pip安装Scrapy和Scrapyd:

pip install scrapy
pip install scrapyd

3. 配置Scrapyd

Scrapyd的配置文件位于/etc/scrapyd/scrapyd.conf。可以使用以下命令来编辑配置文件:

sudo nano /etc/scrapyd/scrapyd.conf

在配置文件中,可以设置Scrapyd的端口号、日志文件路径、爬虫项目路径等。

4. 启动Scrapyd

使用以下命令启动Scrapyd:

scrapyd

Scrapyd将会在默认端口6800上启动。可以在浏览器中访问http://localhost:6800/来查看Scrapyd的Web界面。

  1. 部署Scrapy爬虫

将Scrapy爬虫打包成一个egg文件,然后使用以下命令将其部署到Scrapyd服务器上:

curl -F project=myproject -F spider=myspider \
    -F eggfile=@myproject.egg \
    http://localhost:6800/schedule.json -o result.json

其中,project和spider参数分别指定爬虫所在的项目和爬虫名称,eggfile参数指定要上传的egg文件路径,最后的URL是Scrapyd的API地址。

6. 查看爬虫运行状态

可以在Scrapyd的Web界面上查看爬虫的运行状态。也可以使用以下命令来查看爬虫的运行日志:

curl http://localhost:6800/logs/myproject/myspider/001

其中,myproject和myspider分别是爬虫所在的项目和爬虫名称,001是爬虫运行的任务ID。

以上就是Scrapyd框架环境部署的详细步骤。

2.scrapyd API处理爬虫

Scrapyd是一个用于部署和运行Scrapy爬虫的Python框架,它提供了一个基于HTTP的API,可以通过API管理和控制爬虫的运行。通过Scrapyd API,你可以与Scrapyd服务器进行通信,发送指令来管理爬虫的启动、停止、查看爬虫状态等操作。

下面是对Scrapyd API处理爬虫的详细解释:

1.安装Scrapyd

首先,需要安装Scrapyd框架。可以使用pip命令进行安装:pip install scrapyd

2.启动Scrapyd服务器

使用命令scrapyd启动Scrapyd服务器。默认情况下,Scrapyd服务器将在6800端口上运行。

3.创建Scrapy爬虫

在使用Scrapyd API之前,需要先创建一个Scrapy爬虫。可以使用Scrapy命令行工具创建一个新的爬虫项目,并编写爬虫代码。

4.部署爬虫

在项目根目录下运行命令scrapyd-deploy,将爬虫部署到Scrapyd服务器上。这将会生成一个scrapy.cfg配置文件,并将项目上传到Scrapyd服务器。

5.使用Scrapyd API

Scrapyd API提供了一系列接口用于管理爬虫,包括启动爬虫、停止爬虫、获取爬虫状态等。

  • 启动爬虫:使用/schedule.json接口来启动一个爬虫。需要提供爬虫名称和可选的参数。例如:http://localhost:6800/schedule.json -d project=myproject -d spider=myspider

  • 停止爬虫:使用/cancel.json接口可以停止正在运行的爬虫。需要提供爬虫任务的ID。例如:http://localhost:6800/cancel.json -d project=myproject -d job=12345

  • 查看爬虫状态:使用/listjobs.json接口可以获取当前运行中的爬虫任务列表及其状态。例如:http://localhost:6800/listjobs.json?project=myproject

6.解析API响应

Scrapyd API的响应是JSON格式的数据。可以使用Python的requests库或其他HTTP请求库来发送API请求,并解析返回的JSON数据。

通过Scrapyd API,你可以通过程序化的方式管理和控制Scrapy爬虫的运行。这使得你可以方便地远程启动和监控爬虫任务。

3.scrapyd多任务管理

在Scrapyd中,多任务管理是指同时运行和管理多个Scrapy爬虫任务的能力。Scrapyd提供了一组API和工具,可以轻松地管理多个爬虫任务,包括启动、停止、监视任务状态以及获取任务结果等。下面是对Scrapyd多任务管理的详细解释:

1.创建多个爬虫项目

首先,你需要创建多个独立的Scrapy爬虫项目。每个项目都在独立的目录中,并具有自己的爬虫代码、配置文件和依赖项。

2.部署爬虫项目

使用Scrapyd的部署工具(如scrapyd-deploy命令)将各个爬虫项目部署到Scrapyd服务器上。确保你为每个项目指定唯一的项目名称。

3.启动多个任务

使用Scrapyd API的/schedule.json接口来启动多个任务。你可以通过发送多个HTTP请求,每个请求对应一个任务,来实现同时启动多个任务。在每个请求中,指定项目名称和要启动的爬虫名称。

4.监视任务状态

使用Scrapyd API的/listjobs.json接口来获取当前运行中的任务列表及其状态。你可以周期性地发送API请求以获取最新的任务状态信息。根据任务状态,可以判断任务是正在运行、已完成还是出现错误。

5.获取任务结果

当任务完成后,可以使用Scrapyd API的/listjobs.json接口或/jobq/{job_id}/items.json接口来获取任务的结果数据。这些接口将返回爬虫任务的输出数据,如爬取的数据项或日志信息。

6.停止任务

如果需要停止正在运行的任务,可以使用Scrapyd API的/cancel.json接口。提供项目名称和任务ID,即可停止相应的任务。

通过Scrapyd的多任务管理能力,你可以同时运行和管理多个独立的爬虫任务。这使得你可以处理大规模的爬取任务,提高效率并降低管理成本。

二丶gerapy部署爬虫

1.gerapy环境搭建

Gerapy是一个基于Scrapy的分布式爬虫管理框架,可以方便地管理多个Scrapy爬虫,并提供了Web界面进行可视化操作。下面是Gerapy环境搭建的详细讲解:

安装Python

Gerapy是基于Python开发的,因此需要先安装Python。可以从官网下载Python安装包,也可以使用包管理工具进行安装。

安装Scrapy

Gerapy是基于Scrapy的,因此需要先安装Scrapy。可以使用pip进行安装:

pip install scrapy

安装Gerapy

可以使用pip进行安装:

pip install gerapy

安装Redis

Gerapy使用Redis作为分布式任务队列和数据存储,因此需要先安装Redis。可以从官网下载Redis安装包,也可以使用包管理工具进行安装。

配置Gerapy
Gerapy的配置文件位于~/.gerapy/config.json,可以使用以下命令进行初始化:

gerapy init

然后编辑~/.gerapy/config.json文件,配置Redis和Gerapy的用户名和密码等信息。

启动Gerapy
可以使用以下命令启动Gerapy:

gerapy

然后在浏览器中访问http://localhost:8000,输入用户名和密码登录Gerapy的Web界面。

创建Scrapy项目

在Gerapy的Web界面中,可以创建Scrapy项目,并在项目中创建爬虫。Gerapy会自动将爬虫添加到任务队列中,可以在Web界面中查看任务状态和日志。

2.gerapy服务器部署

安装Python和Scrapy

在服务器上安装Python和Scrapy,可以使用以下命令:

sudo apt-get update
sudo apt-get install python3 python3-pip
sudo pip3 install scrapy

安装Gerapy

使用以下命令安装Gerapy:

sudo pip3 install gerapy

初始化Gerapy

使用以下命令初始化Gerapy:

gerapy init

这将创建一个名为gerapy的文件夹,其中包含Gerapy的配置文件和其他必要文件。

配置Gerapy

在gerapy文件夹中,打开config.py文件,配置Gerapy的相关参数,例如数据库连接信息、管理员账号等。

启动Gerapy

使用以下命令启动Gerapy:

gerapy runserver

这将启动Gerapy的Web界面,可以在浏览器中访问http://localhost:8000来管理爬虫。

部署爬虫

在Gerapy的Web界面中,可以添加、编辑和删除爬虫,并且可以在多台服务器上部署爬虫,实现分布式爬取。

3.gerapy打包框架项目

Gerapy是一个基于Scrapy的分布式爬虫管理框架,可以方便地管理多个Scrapy爬虫,并提供了Web界面进行操作和监控。在实际项目中,我们可能需要将Gerapy打包成可执行文件,以便在其他机器上部署和运行。本文将介绍如何打包Gerapy框架项目。

安装pyinstaller

pyinstaller是一个用于将Python代码打包成可执行文件的工具,可以通过pip进行安装:

pip install pyinstaller

打包Gerapy

在Gerapy项目根目录下执行以下命令:

pyinstaller -F gerapy.spec

其中,gerapy.spec是一个配置文件,用于指定打包的参数和选项。如果没有该文件,可以通过以下命令生成:

pyinstaller --name=gerapy -y --clean --windowed --icon=gerapy.ico --add-data=gerapy.ico;. gerapy/__main__.py

该命令将生成一个名为gerapy的可执行文件,使用了以下参数和选项:

  • –name:指定生成的可执行文件名为gerapy;
  • -y:自动覆盖已存在的输出目录;
  • –clean:在打包前清理输出目录;
  • –windowed:生成窗口应用程序,不显示命令行窗口;
  • –icon:指定应用程序图标;
  • –add-data:将gerapy.ico文件打包到可执行文件中。

运行Gerapy

打包完成后,在dist目录下会生成一个名为gerapy的可执行文件。将该文件复制到其他机器上,即可在该机器上运行Gerapy框架项目。

三丶feapder部署

1.feapder应用场景和原理

Feapder是一个基于Python开发的轻量级分布式爬虫框架,旨在提供简单、易用且高效的爬虫解决方案。它具有以下应用场景和原理:

应用场景:
  • 数据采集:Feapder可以用于从各种网站和数据源中采集数据。无论是爬取结构化数据还是非结构化数据,Feapder都提供了丰富的功能和灵活的配置选项来满足不同数据采集的需求。

  • 网站监测:Feapder可以周期性地监测网站内容的变化,并及时提醒用户。这在需要实时监控目标网站的情况下非常有用,比如新闻更新、价格变动等。

  • 数据清洗和处理:Feapder支持自定义处理函数和管道来对爬取的数据进行清洗和处理。你可以使用Feapder提供的数据处理功能,比如去重、编码转换、数据过滤等,将爬取的原始数据转化为可用的结构化数据。

  • 数据存储和导出:Feapder提供了多种数据存储选项,包括数据库存储、文件存储和消息队列等。你可以根据需求选择适合的存储方式,并支持数据导出到各种格式,如CSV、JSON等。

原理解析:

Feapder的核心原理是基于分布式的异步任务调度和处理。以下是Feapder的原理解析:

  • 分布式架构:Feapder使用分布式架构来提高爬取效率和可扩展性。任务调度和数据处理分布在多个节点上,每个节点可以独立运行爬虫任务,并通过消息队列进行通信和数据传输。

  • 异步任务调度:Feapder使用异步任务调度框架(比如Celery)来实现任务的并发执行。每个爬虫任务都被封装为一个可执行的异步任务,可以独立运行在任务调度器中,并通过消息队列接收和发送任务相关的消息。

  • 任务调度和监控:Feapder提供了任务调度和监控的功能,可以实时监控任务的状态、进度和错误信息。你可以通过Feapder的管理界面或API,对任务进行启动、停止、暂停和重新调度等操作,以及实时查看任务的日志和统计信息。

  • 数据处理和存储:Feapder支持自定义的数据处理函数和处理管道,可以对爬取的数据进行清洗、转换和处理。同时,Feapder提供了多种数据存储选项,可以将处理后的数据存储到数据库、文件系统或消息队列中,并支持数据导出和导入。

总结来说,Feapder通过分布式异步任务调度和处理的方式,实现了高效、灵活和可扩展的爬虫框架。它的设计使得用户可以简单地配置和管理爬虫任务,并方便地进行数据处理和存储。无论是小规模的数据采集还是大规模的分布式爬虫任务,Feapder都是一个强大的选择。

2.feapder镜像拉取

feapder是一个基于Python的分布式爬虫框架,它可以帮助用户快速构建高效、稳定的爬虫系统。在使用feapder之前,需要先拉取feapder的镜像。

镜像拉取命令如下

docker pull feapder/feapder

这个命令会从Docker Hub上拉取feapder的最新版本镜像。拉取完成后,可以使用以下命令查看已经拉取的镜像:

docker images

feapder的镜像包含了所有需要的依赖和配置,可以直接使用。在使用feapder时,可以通过Docker运行feapder镜像,也可以将镜像部署到Kubernetes集群中。

使用Docker运行feapder镜像的命令如下:

docker run -it --name feapder feapder/feapder

这个命令会在Docker容器中启动feapder,并进入容器的交互式终端。在容器中可以使用feapder提供的命令行工具来创建、管理爬虫任务。

总之,feapder的镜像拉取非常简单,只需要执行一条命令即可。同时,feapder的镜像也非常方便使用,可以直接在Docker容器中运行,也可以部署到Kubernetes集群中。

3.docker部署feapder部署环境

feapder是一个基于Python的分布式爬虫框架,可以用于快速开发各种类型的爬虫。在使用feapder时,可以选择使用docker进行部署,以便更方便地管理和部署爬虫。

以下是使用docker部署feapder的详细步骤:

安装docker和docker-compose

在开始之前,需要先安装docker和docker-compose。可以参考官方文档进行安装。

拉取feapder镜像

可以使用以下命令从Docker Hub上拉取feapder镜像:

docker pull feapder/feapder

创建docker-compose.yml文件

在本地创建一个docker-compose.yml文件,用于定义feapder的容器和相关配置。以下是一个示例文件:

version: '3'

services:
  redis:
    image: redis:latest
    ports:
      - "6379:6379"
    volumes:
      - ./redis-data:/data

  mysql:
    image: mysql:latest
    environment:
      MYSQL_ROOT_PASSWORD: root
      MYSQL_DATABASE: feapder
    ports:
      - "3306:3306"
    volumes:
      - ./mysql-data:/var/lib/mysql

  feapder:
    image: feapder/feapder
    environment:
      - REDIS_HOST=redis
      - MYSQL_HOST=mysql
      - MYSQL_USER=root
      - MYSQL_PASSWORD=root
      - MYSQL_DATABASE=feapder
    volumes:
      - ./feapder-data:/app/data
    depends_on:
      - redis
      - mysql

在这个文件中,定义了三个服务:redis、mysql和feapder。其中,redis和mysql分别用于存储爬虫的任务队列和数据,feapder则是爬虫的运行环境。

启动容器

在本地的项目目录下,运行以下命令启动容器:

docker-compose up -d
这个命令会启动所有定义在docker-compose.yml文件中的服务,并在后台运行。

进入feapder容器

可以使用以下命令进入feapder容器:

docker exec -it feapder_feapder_1 /bin/bash

其中,feapder_feapder_1是容器的名称,可以使用docker ps命令查看。

运行爬虫

在feapder容器中,可以使用feapder命令来运行爬虫。例如,可以使用以下命令运行一个简单的爬虫:

feapder run spider demo

这个命令会运行名为demo的爬虫。

以上就是使用docker部署feapder的详细步骤。通过使用docker,可以更方便地管理和部署feapder爬虫。

4.feapder部署scrapy项目

Feapder是基于Scrapy框架开发的分布式爬虫框架,因此部署Feapder项目也需要先部署Scrapy项目。下面是部署Scrapy项目的详细步骤:

1. 创建Scrapy项目

使用Scrapy命令行工具创建一个新的Scrapy项目,例如:

scrapy startproject myproject

2. 编写Spider

在Scrapy项目中,Spider是爬虫的核心部分,负责定义如何抓取网站的数据。在Scrapy项目中,Spider通常是一个Python类,需要继承Scrapy提供的Spider类,并实现一些必要的方法。

例如,下面是一个简单的Spider示例:

import scrapy

class MySpider(scrapy.Spider):
    name = 'myspider'
    start_urls = ['http://www.example.com']

    def parse(self, response):
        # 解析网页内容
        pass

3. 配置Scrapy项目

Scrapy项目的配置文件是settings.py,其中包含了一些Scrapy的配置选项,例如爬虫的User-Agent、下载延迟等等。在配置文件中,还可以设置Scrapy使用的中间件、管道等等。

例如,下面是一个简单的配置文件示例:

BOT_NAME = 'myproject'

SPIDER_MODULES = ['myproject.spiders']
NEWSPIDER_MODULE = 'myproject.spiders'

USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'

DOWNLOAD_DELAY = 3

ITEM_PIPELINES = {
    'myproject.pipelines.MyPipeline': 300,
}

4. 运行Spider

使用Scrapy命令行工具运行Spider,例如:

scrapy crawl myspider

以上就是部署Scrapy项目的详细步骤。在部署Feapder项目时,可以将Scrapy项目作为Feapder的一个子项目,然后在Feapder中调用Scrapy项目的Spider来完成具体的爬取任务。

关注公众号:python技术训练营,精选优质文档,好玩的项目

内容

1.面试专题几十个大厂面试题
2.入门基础教程
3.11模块零基础到精通笔记
4.百个项目实战+爬虫教程+代码
5.量化交易,机器学习,深度学习
6.Python游戏源码
7.交流学习
8.了解接单市场
9.DNF自动识别打怪
10.3263页学习资料

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/650969.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

活动邀请函五秒钟下载即用

在日常中,人们都是以纸质的邀请函发送给被邀请者,不仅需要花费大量的精力和时间去书写发送活动邀请函,还存在着被邀请人没有及时收到活动邀请函而错过参与的时间等。而这样只需制作一份就可以全网分享,用户短时间就能收到活动邀请…

可变参数列表

"多少人都,生来纯洁完美,心底从不染漆黑。" 我们想要实现一个函数,这个函数的功能是返回一个整形的最大值。 emm,似乎有那点味道。但这应用场景似乎很受限制,因为这个函数比较的有效区间,只能装下…

Pycharm远程开发之全局pip,激活远程虚拟环境pip,以及pip的--user选项

前言 最近需要部署一下生成对抗网络的开发环境,我自己的笔记本没有带显卡,想到实验室的服务器有带显卡索性就用实验室服务器的环境开发,通过pycharm的远程开发功能连接到服务器,本来以为轻轻松松就可以开始写代码了,结…

springcloud整合nacos

1.订单服务(order) 1.1 安装nocas Nacos 快速开始 --注意:nacos 我的是 nacos-server-1.4.1.tar.gz 1.2 新建order-nacos 模块 1.3 修改pom文件 添加 nacos 依赖 1.4 配置文件添加 nacos 地址 1.5 创建启动类 使用 RestTemplate 方式调用服…

字符设备驱动内部实现

只要文件存在,就会有唯一对应的inode号,且相应的会存在一个struct inode结构体.,在应用层通过open()打开一个设备文件,会对应产生一个inode号,通过inode号可以找到文件的inode结构体,inode结构体…

中介者模式(二十一)

相信自己,请一定要相信自己 上一章简单介绍了观察者模式(二十), 如果没有看过, 请观看上一章 一. 中介者模式 引用 菜鸟教程里面中介者模式介绍: https://www.runoob.com/design-pattern/mediator-pattern.html 中介者模式(Mediator Pattern&#xff…

paddlespeech http服务解决输出无符号

1.前情提要 下载paddlespeech官网代码并运行http服务进行中文识别时,会发现选择某些模型(我用的是conformer_wenetspeech),是别的结果为一串文字,没有标点,效果如下: 经过调用padddlespeech相关…

【裸机开发】使用汇编清除 .bss 段

目录 1、为什么要清除 .bss 段 2、使用汇编清除 .bss 段 1、为什么要清除 .bss 段 .bss 段保存的是 未被初始化 或者 初始化为0 的全局/静态变量。在编译器看来,这些东西是多余的,实际并不会给他们分配空间。因此,编译生成目标文件的时候&…

38.SpringCloud—注册中心(eureka/nacos)、负载均衡Ribbon

目录 一、SpringCloud。 (1)认识微服务。 (1.1)单体架构与分布式架构(微服务)。 (1.2)微服务技术对比。 (1.3)SpringCloud。 (2&#xff09…

linux创建静态库

创建一个目录,比如今天是6月13号,就mkdir 0613(创建目录0613),然后cd 0613(进入0613目录) 1.创建C语言库函数文件myheight.c vi myhight.c 2.创建C语言函数文件myweight.c vi myweight.c 3.创建C语言函数文件age.c vi myage.c 4…

代码审计-Java项目JDBCMybatisHibernate注入预编译写法

文章目录 Javaweb-数据库操作-模式&写法&预编译等环境搭建JDBC 注入分析关于预编译 Mybatis 注入分析Hibernate 注入分析总结: Javaweb-代码审计SQL注入-INXEDU在线网校 Javaweb-数据库操作-模式&写法&预编译等 环境搭建 VulDemo审计源码百度云 在…

深入理解深度学习——Transformer:解码器(Decoder)部分

分类目录:《深入理解深度学习》总目录 相关文章: 注意力机制(Attention Mechanism):基础知识 注意力机制(Attention Mechanism):注意力汇聚与Nadaraya-Watson核回归 注意力机制&…

微信小程序分享到微信,公众号h5分享到微信,微信小程序跳转h5页面

一:微信小程序分享到微信 1:需求 分享微信小程序中某个详情页,可以分享到群,个人,朋友圈,好友点击分享页,能跳转到对应详情页阅读。 2:分析问题 如何实现分享?分享时如…

Nvidia 3060显卡 CUDA环境搭建(Ubuntu22.04+Nvidia 510+Cuda11.6+cudnn8.8)

写在前面 工作中遇到,简单整理理解不足小伙伴帮忙指正 对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式,是对大…

【踩坑记录】STC8H8K64U硬件PWM使用小结

快速导航 写在前面库配置时钟配置GPIO配置定时器配置串口配置硬件PWM特殊功能同步功能 总结 写在前面 不出意外这是我第一次也是最后一次使用STC的芯片,写这篇博的目的纯粹记录下前段时间调试的痛苦经历,所有目前打算选或是已经开始调试这款芯片的朋友&…

Ubuntu16.04部署BEVformer 实时记录

一 配置依赖 a. Create a conda virtual environment and activate it. conda create -n open-mmlab python3.8 -y conda activate open-mmlabb. Install PyTorch and torchvision following the official instructions. pip install torch1.9.1cu111 torchvision0.10.1cu11…

【Linux】面试重点:死锁和生产消费模型原理

面试要点来了~ 文章目录 前言一、死锁的一系列问题二、生产者消费者模型原理总结 前言 上一篇的互斥量原理中我们讲解了锁的原理,我们知道每次线程申请锁的时候一旦申请成功这个线程自己就把锁带在自己身上了,这就保证了锁的原子性(因为只有…

备忘录模式(二十二)

相信自己,请一定要相信自己 上一章简单介绍了中介者模式(二十一), 如果没有看过, 请观看上一章 一. 备忘录模式 引用 菜鸟教程里面备忘录模式介绍: https://www.runoob.com/design-pattern/memento-pattern.html 备忘录模式(Memento Pattern&#xff…

基于Java单位人事管理系统设计实现(源码+lw+部署文档+讲解等)

博主介绍: ✌全网粉丝30W,csdn特邀作者、博客专家、CSDN新星计划导师、java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战 ✌ 🍅 文末获取源码联系 🍅 👇🏻 精…

大面积无线WIFI覆盖 H3C WX3010E(AC+PoE三层交换机)+ H3C WA2620E、WA4320无线AP +华为USG6310S防火墙

一、适用场景: 1、跨复杂区域覆盖WIFI。支持多房间、多栋、多层复式楼、别墅、自建房的无线WIFI覆盖。 2、强大的漫游功能。楼上楼下移动使用WIFI时,需要支持WIFI的信号漫游,更换地理位置不掉线、不中断。 3、用户量或网络流量的负载均衡功…