Python 网络爬虫实战:从基础到高级爬取技术

news2025/3/10 16:05:59

📝个人主页🌹:一ge科研小菜鸡-CSDN博客
🌹🌹期待您的关注 🌹🌹

1. 引言

网络爬虫(Web Scraping)是一种自动化技术,利用程序从网页中提取数据,广泛应用于数据采集、搜索引擎、市场分析、舆情监测等领域。本教程将涵盖 requests、BeautifulSoup、Selenium、Scrapy 等常用工具,并深入探讨 反爬机制突破、动态加载页面、模拟登录、多线程/分布式爬取等高级技巧。


2. 爬虫基础:requests + BeautifulSoup

2.1 安装依赖

pip install requests beautifulsoup4 lxml

2.2 使用 requests 获取网页内容

import requests

url = "https://news.ycombinator.com/"
headers = {"User-Agent": "Mozilla/5.0"}
response = requests.get(url, headers=headers)

print(response.status_code)  # 返回 200 说明成功获取网页
print(response.text[:500])   # 预览部分 HTML 内容

2.3 使用 BeautifulSoup 解析 HTML

from bs4 import BeautifulSoup

soup = BeautifulSoup(response.text, "lxml")

# 获取所有新闻标题
titles = soup.find_all("a", class_="titlelink")
for title in titles:
    print(title.text, title["href"])

3. 爬取动态页面:Selenium

3.1 安装 Selenium

pip install selenium webdriver-manager

并下载浏览器驱动(如 ChromeDriver)。

3.2 自动化浏览器

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.chrome.service import Service
from webdriver_manager.chrome import ChromeDriverManager

# 启动浏览器
options = webdriver.ChromeOptions()
options.add_argument("--headless")  # 无头模式
driver = webdriver.Chrome(service=Service(ChromeDriverManager().install()), options=options)

# 访问网页
driver.get("https://news.ycombinator.com/")
titles = driver.find_elements(By.CLASS_NAME, "titlelink")

for title in titles:
    print(title.text, title.get_attribute("href"))

driver.quit()

4. 模拟登录

许多网站需要用户登录后才能访问数据,例如 GitHub、微博等。

4.1 requests + Session 登录

login_url = "https://github.com/login"
session = requests.Session()

# 获取登录页面
resp = session.get(login_url, headers=headers)
soup = BeautifulSoup(resp.text, "lxml")

# 获取隐藏的 CSRF 令牌
auth_token = soup.find("input", {"name": "authenticity_token"})["value"]

# 发送登录请求
login_data = {
    "login": "your_username",
    "password": "your_password",
    "authenticity_token": auth_token
}
session.post("https://github.com/session", data=login_data, headers=headers)

# 爬取登录后的页面
profile_page = session.get("https://github.com/settings/profile")
print(profile_page.text)

5. 处理反爬机制

5.1 使用代理

proxies = {
    "http": "http://your_proxy:port",
    "https": "https://your_proxy:port"
}
response = requests.get(url, headers=headers, proxies=proxies)

5.2 伪装请求头

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 Chrome/91.0.4472.124 Safari/537.36",
    "Referer": "https://www.google.com",
    "Accept-Language": "en-US,en;q=0.9"
}

5.3 随机休眠

import time
import random

time.sleep(random.uniform(1, 5))  # 随机等待 1-5 秒

6. Scrapy 爬虫框架

6.1 安装 Scrapy

pip install scrapy

6.2 创建 Scrapy 爬虫

scrapy startproject myspider
cd myspider
scrapy genspider hackernews news.ycombinator.com

6.3 编写 Scrapy 爬虫

编辑 myspider/spiders/hackernews.py

import scrapy

class HackerNewsSpider(scrapy.Spider):
    name = "hackernews"
    start_urls = ["https://news.ycombinator.com/"]

    def parse(self, response):
        for item in response.css(".titlelink"):
            yield {
                "title": item.css("::text").get(),
                "link": item.css("::attr(href)").get()
            }

6.4 运行爬虫

scrapy crawl hackernews -o results.json

7. 爬虫性能优化

7.1 多线程爬取

import threading

def fetch(url):
    response = requests.get(url, headers=headers)
    print(url, response.status_code)

urls = ["https://example.com/page{}".format(i) for i in range(1, 11)]

threads = [threading.Thread(target=fetch, args=(url,)) for url in urls]
for thread in threads:
    thread.start()
for thread in threads:
    thread.join()

7.2 分布式爬取(Scrapy + Redis)

pip install scrapy-redis

在 Scrapy settings.py 中:

SCHEDULER = "scrapy_redis.scheduler.Scheduler"
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
REDIS_URL = "redis://localhost:6379"

8. 结语

本教程系统地介绍了 Python 网络爬虫的各个关键环节,涵盖了从基础到高级的技术应用。首先,我们使用 requests + BeautifulSoup 进行基本的静态页面爬取,并掌握了 HTML 解析的核心方法。接着,我们通过 Selenium 处理动态加载的网页,了解了如何模拟浏览器操作,提高数据抓取的灵活性。在数据访问受限的情况下,我们学习了 模拟登录 技术,掌握了如何绕过身份验证,获取登录后才能访问的数据。

除此之外,为了应对网站的反爬机制,我们介绍了 代理 IP 轮换、User-Agent 伪装、请求头优化、随机休眠 等策略,以降低被封 IP 的风险。同时,我们还探讨了 Scrapy 框架的应用,包括爬取大型网站、数据管道管理,以及如何结合 Redis 进行分布式爬取,以提升数据采集的效率。

在实际应用中,网络爬虫广泛应用于搜索引擎、电子商务数据分析、舆情监测、金融风控、学术研究等领域。然而,我们在使用爬虫技术的同时,也需要关注数据合规性和法律风险,避免爬取受版权保护或敏感数据的网站,遵循网站的 robots.txt 规范,合理使用爬取工具,确保数据的合法合规性。

未来,随着反爬机制的不断升级,我们可能需要借助机器学习和深度学习技术来识别验证码、自动分析网页结构,提高爬取的智能化程度。同时,随着云计算和分布式技术的发展,大规模数据抓取将更加依赖分布式爬虫架构,如结合Kafka、Spark Streaming 等工具,实现高效、实时的数据采集和处理。

希望本教程能帮助你入门和深入理解 Python 爬虫技术,在实践中灵活运用各种工具,提高数据抓取的稳定性和效率。如果你对网络爬虫有更深入的需求,可以进一步学习图像识别验证码破解、基于 AI 的网页结构解析、深度强化学习爬虫策略优化等前沿技术,探索更多爬取的可能性!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2293511.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

python学opencv|读取图像(五十四)使用cv2.blur()函数实现图像像素均值处理

【1】引言 前序学习进程中,对图像的操作均基于各个像素点上的BGR值不同而展开。 对于彩色图像,每个像素点上的BGR值为三个整数,因为是三通道图像;对于灰度图像,各个像素上的BGR值是一个整数,因为这是单通…

控件【QT】

文章目录 控件QWidgetenabledgeometrysetGeometry qrcwindowOpacityQPixmapfonttoolTipfocusPolicystyleSheetQPushButtonRadio ButtionCheck Box显示类控件QProgressBarcalendarWidget 控件 Qt中已经提供了很多内置的控件了(按钮,文本框,单选按钮,复选按钮,下拉框…

STM32 串口发送与接收

接线图 代码配置 根据上一章发送的代码配置,在GPIO配置的基础上需要再配置PA10引脚做RX接收,引脚模式可以选择浮空输入或者上拉输入,在USART配置串口模式里加上RX模式。 配置中断 //配置中断 USART_ITConfig(USART1, USART_IT_RXNE, ENABLE…

【Unity2D 2022:UI】创建滚动视图

一、创建Scroll View游戏对象 在Canvas画布下新建Scroll View游戏对象 二、为Content游戏对象添加Grid Layout Group(网格布局组)组件 选中Content游戏物体,点击Add Competent添加组件,搜索Grid Layout Group组件 三、调整Grid La…

Python sider-ai-api库 — 访问Claude、llama、ChatGPT、gemini、o1等大模型API

目前国内少有调用ChatGPT、Claude、Gemini等国外大模型API的库。 Python库sider_ai_api 提供了调用这些大模型的一个完整解决方案, 使得开发者能调用 sider.ai 的API,实现大模型的访问。 Sider是谷歌浏览器和Edge的插件,能调用ChatGPT、Clau…

密云生活的初体验

【】在《岁末随笔之碎碎念》里,我通告了自己搬新家的事情。乙巳年开始,我慢慢与大家分享自己买房装修以及在新家的居住体验等情况。 跳过买房装修的内容,今天先说说这三个月的生活体验。 【白河】 潮白河是海河水系五大河之一,贯穿…

Leetcode - 周赛434

目录 一、3432. 统计元素和差值为偶数的分区方案二、3433. 统计用户被提及情况三、3434. 子数组操作后的最大频率四、3435. 最短公共超序列的字母出现频率 一、3432. 统计元素和差值为偶数的分区方案 题目链接 本题可以直接模拟,这里再介绍一个数学做法&#xff0…

C32.【C++ Cont】静态实现双向链表及STL库的list

目录 1.知识回顾 2.静态实现演示图 3.静态实现代码 1.初始双向链表 2.头插 3.遍历链表 4.查找某个值 4.任意位置之后插入元素 5.任意位置之前插入元素 6.删除任意位置的元素 4.STL库的list 1.知识回顾 96.【C语言】数据结构之双向链表的初始化,尾插,打印和尾删 97.【C…

记录一次-Rancher通过UI-Create Custom- RKE2的BUG

一、下游集群 当你的下游集群使用Mysql外部数据库时,会报错: **他会检查ETCD。 但因为用的是Mysql外部数据库,这个就太奇怪了,而且这个检测不过,集群是咩办法被管理的。 二、如果不选择etcd,就选择控制面。 在rke2-…

51单片机入门_05_LED闪烁(常用的延时方法:软件延时、定时器延时;while循环;unsigned char 可以表示的数字是0~255)

本篇介绍编程实现LED灯闪烁,需要学到一些新的C语言知识。由于单片机执行的速度是非常快的,如果不进行延时的话,人眼是无法识别(停留时间要大于20ms)出LED灯是否在闪烁所以需要学习如何实现软件延时。另外IO口与一个字节位的数据对应关系。 文…

99.20 金融难点通俗解释:中药配方比喻马科维茨资产组合模型(MPT)

目录 0. 承前1. 核心知识点拆解2. 中药搭配比喻方案分析2.1 比喻的合理性 3. 通俗易懂的解释3.1 以中药房为例3.2 配方原理 4. 实际应用举例4.1 基础配方示例4.2 效果说明 5. 注意事项5.1 个性化配置5.2 定期调整 6. 总结7. 代码实现 0. 承前 本文主旨: 本文通过中…

6 [新一代Github投毒针对网络安全人员钓鱼]

0x01 前言 在Github上APT组织“海莲花”发布存在后门的提权BOF,通过该项目针对网络安全从业人员进行钓鱼。不过其实早在几年前就已经有人对Visual Studio项目恶意利用进行过研究,所以投毒的手法也不算是新的技术。但这次国内有大量的安全从业者转发该钓…

MYSQL面试题总结(题目来源JavaGuide)

MYSQL基础架构 问题1:一条 SQL语句在MySQL中的执行过程 1. 解析阶段 (Parsing) 查询分析:当用户提交一个 SQL 语句时,MySQL 首先会对语句进行解析。这个过程会检查语法是否正确,确保 SQL 语句符合 MySQL 的语法规则。如果发现…

redis实际开发应用简单实现

短信登录 首先来看看登录与注册常规实现流程如下: 其中,很多网站都有手机号验证码登录功能 如百度 实现之前咱可以来验证码有啥特点:一定时间内过期、验证码随机、与手机号会唯一匹配 所以可以使用redis的string来实现更容易,k…

Hive on Spark优化

文章目录 第1章集群环境概述1.1 集群配置概述1.2 集群规划概述 第2章 Yarn配置2.1 Yarn配置说明2.2 Yarn配置实操 第3章 Spark配置3.1 Executor配置说明3.1.1 Executor CPU核数配置3.1.2 Executor内存配置3.1.3 Executor个数配置 3.2 Driver配置说明3.3 Spark配置实操 第4章 Hi…

【实践案例】基于大语言模型的海龟汤游戏

文章目录 项目背景提示词构建海龟汤主持人真相判断专家 具体实现流程文心一言大语言模型“海龟汤”插件参考 项目背景 “海龟汤”作为一种聚会类桌游,又称情境推理游戏,是一种猜测情境还原事件真相的智力游戏。其玩法是由出题者提出一个难以理解的事件&…

创建前端项目的方法

目录 一、创建前端项目的方法 1.前提:安装Vue CLI 2.方式一:vue create项目名称 3.方式二:vue ui 二、Vue项目结构 三、修改Vue项目端口号的方法 一、创建前端项目的方法 1.前提:安装Vue CLI npm i vue/cli -g 2.方式一&…

Java 大数据与区块链的融合:数据可信共享与溯源(45)

💖💖💖亲爱的朋友们,热烈欢迎你们来到 青云交的博客!能与你们在此邂逅,我满心欢喜,深感无比荣幸。在这个瞬息万变的时代,我们每个人都在苦苦追寻一处能让心灵安然栖息的港湾。而 我的…

STM32单片机学习记录(2.2)

一、STM32 13.1 - PWR简介 1. PWR(Power Control)电源控制 (1)PWR负责管理STM32内部的电源供电部分,可以实现可编程电压监测器和低功耗模式的功能; (2)可编程电压监测器(…

ROS应用之SwarmSim在ROS 中的协同路径规划

SwarmSim 在 ROS 中的协同路径规划 前言 在多机器人系统(Multi-Robot Systems, MRS)中,SwarmSim 是一个常用的模拟工具,可以对多机器人进行仿真以实现复杂任务的协同。除了任务分配逻辑以外,SwarmSim 在协同路径规划方…