Python-网络爬虫

news2025/1/3 4:08:44

随着网络的迅速发展,如何有效地提取并利用信息已经成为一个巨大的挑战。为了更高效地获取指定信息,需定向抓取并分析网页资源,从而促进了网络爬虫的发展。本章将介绍使用Python编写网络爬虫的方法。

学习目标:
理解网络爬虫的基本操作流程

掌握通过requests库进行数据抓取的方法

掌握通过正则表达式进行数据解析的方法

掌握运用beautifulsoup4库解析和处理数据的方法

1   概述

网络爬虫(Web Spider)又称网络蜘蛛或网络机器人,是一段用来实现自动采集网站数据的程序。 网络爬虫不仅能够为搜索引擎采集网络信息,而且还可以作为定向信息采集器,定向采集某些网站中的特定信息。 对于定向信息的爬取,网络爬虫主要采取数据抓取、数据解析、数据入库的操作流程。

(1)数据抓取:发送构造的HTTP请求,获得包含所需数据的HTTP响应;

(2)数据解析:对HTTP响应的原始数据进行分析、清洗,以提取出所需要的数据;

(3)数据入库:将数据进一步保存到数据库(或文本文件)中,用于构建知识库。

Python提供了许多与网络爬虫相关的库。其中,在数据抓取方面requests;在数据解析方面包括re(正则表达式),beautifulsoup4。         

2   数据抓取

2.1  requests库概述

requests库提供了很多功能特性,几乎涵盖了所有Web服务的需求,包括URL获取、HTTP长连接和连接缓存、HTTP会话、浏览器式的SSL验证、身份认证、Cookie会话、文件分块上传、流下载、HTTP(S)代理功能、连接超时处理等。 由于requests库是第三方库,因此,需要通过pip3指令进行安装,pip3安装命令如下:

pip install requests

 通常需要使用国内代理:

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple/ requests

 安装完requests库后,在Python交互模式下输入导入requests库的语句:

import requests

 如果没有提示错误,则说明安装成功。

2.2  使用requests库

网络爬虫工作流程的第一步是数据的抓取,也就是使用requests库实现发送HTTP请求和获取HTTP响应的内容。

2.2.1发送HTTP请求

requests库提供了几乎所有的HTTP请求方法:

调用get()函数是获取网页最常用的方式,在调用requests.get()函数后,返回的网页内容会保存为一个Response对象。

import requests #导入requests库
r = requests.get('http://www.baidu.com')	#使用get函数打开百度链接
print(type(r))					#查看返回值r的类型
#<class 'requests.models.Response'>

 有时我们需要在URL中传递参数。

例如:在采集百度搜索结果时,需要传递wd参数(搜索词)。requests允许使用params关键字参数,以一个字符串字典来提供这些参数。

import requests				#导入requests库
payload = {'wd': 'Python'}			#定义字典
r = requests.get("http://www.baidu.com/s", params=payload)	#传入URL参数
print(r.url)							#输出URL的值
#'http://www.baidu.com/s?wd=Python'

 用浏览器打开被编码的URL得到百度搜索关键字“Python”的结果。

 2.2.2获取HTTP响应的内容

和浏览器的交互过程一样,requests.get()代表发送HTTP请求的过程,它返回的Response对象代表HTTP响应。我们可以通过Response对象的不同属性来获取不同内容,其语法格式如下:

对象名.属性名

 Response对象的常用属性:

 除了属性,Response对象还提供了两个常用的方法:

(1)json()方法:如果HTTP响应内容包含JSON格式数据,则该方法解析JSON数据。

提示:JSON的全称是“JavaScript Object Notation”,即JavaScript对象表示法,是一种基于文本又独立于语言的轻量级数据交换格式,易于阅读和理解。

例如:这段代码报错了,因为ip的问题,ip好像过期了

import requests			#导入requests库
r = requests.get('http://ip.taobao.com/service/getIpInfo.php?ip=140.205.220.96')
print(r.json())				#调用json()方法
#{'code': 0, 'data': {'ip': '122.88.60.28', 'country': '中国', 'area': '', 'region': '江苏', 'city': '南京', 'county': 'XX', 'isp': '铁通', 'country_id': 'CN', 'area_id': '', 'region_id': '320000', 'city_id': '320100', 'county_id': 'xx', 'isp_id': '100020'}}

 (2)raise_for_status()方法:该方法能在非成功响应后产生异常,即只要返回的请求状态status_code不是200,该方法就会产生一个异常,可用try-except异常处理结果进行处理。

提示:一般情况下,需要在发送HTTP请求之后,调用raise_for_status()方法判断有无发生异常,如果没有发生异常,则进行数据的处理,否则不进行数据处理。

2.2.3  简单应用

例:爬取“http://www.bjjqe.com”网站的内容,并将爬取到的内容输出。

import requests				#导入requests库
#异常处理
try:
    r = requests.get('http://www.bjjqe.com')#使用get函数打开指定的url
    r.raise_for_status()			#如果状态不是200,则引发异常
    r.encoding = 'utf-8'			#更改编码方式
    print(r.text)				#用字符串的形式显示页面内容
except:
    print("网站连接失败!")		#发生异常则输出“网站连接失败!”

 运行效果:

3   数据解析

3.1  正则表达式

3.1.1正则表达式基础

正则表达式是用于处理字符串的强大工具,它使用预定义的特定模式去匹配一类具有共同特征的字符串,主要用于快速、准确地完成复杂字符串的查找、替换等。

具体应用时,可以单独使用某种类型的元字符,但处理复杂字符串时,经常需要将多个正则表达式元字符进行组合。下面给出了几个示例。 (1)'[a-zA-Z0-9]'可以匹配一个任意大小写字母或数字。 (2)'^(\w){6,15}$'匹配长度为6~15的字符串,可以包含数字、字母和下划线。 (3)'^\w+@(\w+\.)+\w+$'检查给定字符串是否为合法电子邮件地址。 (4)'\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}$'检查给定字符串是否为合法IP地址。

3.1.2re模块

在Python中,主要使用re模块来实现正则表达式的操作,该模块的常用方法下表所示。

 (1) 直接使用re模块方法

import re			#导入re模块
#引入 Python 的正则表达式模块 re,它提供了处理正则表达式的功能。
text = 'Python.C.Java...PHP'	#定义text字符串
print(re.split('[\.]+',text))		#调用split()函数对text进行分割
#'[\.]+' 匹配连续的一个或多个点号作为分隔符。
#['Python', 'C', 'Java', 'PHP']
print(re.findall('[a-zA-Z]+',text))	#调用findall()函数查找由大小写字母组成的字符串
#['Python', 'C', 'Java', 'PHP']
#'[a-zA-Z]+' 匹配连续的一个或多个字母,形成单词。

(2)使用正则表达式对象

编译后的正则表达式对象不仅可以提高字符串的处理速度,还提供了更加强大的字符串处理功能。此处,我们首先使用re模块的compile()方法将正则表达式编译成正则表达式对象,然后使用正则表达式对象提供的方法进行字符串处理。

import re				#导入re模块
p = re.compile(r'\d+')		#将正则表达式编译成正则表达式对象
print(p.findall('one1two2three3four4'))#调用findall()方法查找数字
#['1','2','3','4']
#'\d+' 匹配连续的一个或多个数字。

 例子:爬取“http://www.bjjqe.com”网站的内容,解析数据,将该网站上的“.jpg“图片下载到本地。

 代码:(目标网站已更换为https://www.wenjingketang.com/bookHome/)

import requests                         #导入requests库
import re                                   #导入re模块
#定义一个getHtml()函数,根据填写的url参数获取数据
def getHtml(url):
    #异常处理
    try:
        r = requests.get(url)                   #使用get函数打开指定的url
        r.raise_for_status()                    #如果状态不是200,则引发异常
        r.encoding = 'utf-8'                    #更改编码方式
        return r.text                       #返回页面内容
    except:
        return ""                           #发生异常返回空字符
#定义一个getImg()函数,根据填写的html参数获取图片并存储
def getImg(html):
    reg=r'src="(.+?\.jpg)"'                 #定义正则表达式
    #非贪婪模式匹配任意数量的任意字符(除了换行符),直到遇到第一个 .jpg。
    imglist=re.findall(reg,html)                #查找页面中所有符合条件的字符串
    #在这个例子中,它会找到所有符合 src="...jpg" 格式的图片链接,并将它们作为列表返回。
    print(imglist)                          #输出列表结果
    #打印出找到的所有图片链接,便于调试和验证。
    i = 0                                   #定义i用于给下载的图片命名
    for url in imglist:                     #遍历
        with open(str(i)+".jpg","wb") as fd:    #以写入方式打开二进制文件
        #以二进制写入模式打开一个新文件,文件名为当前计数值 i 加上扩展名 .jpg。
         #路径前加上“http://www.bjjqe.com”
            response=requests.get("https://www.wenjingketang.com/bookHome/"+url)  #获取内容
        #尝试获取图片的实际内容。注意这里直接在图片 URL 前添加了固定的域名 "https://www.wenjingketang.com/bookHome/"
            fd.write(response.content)      #写入文件
            print('图片',i,"保存成功\n")      #输出提示信息
            i+=1                            #i加1
html = getHtml("https://www.wenjingketang.com/bookHome/")     #调用获取页面内容函数
getImg(html)                                #调用获取图片并存储函数

 程序运行效果:

图片会保存在代码的同目录下 

3.2  beautifulsoup4库

beautifulsoup4也称为Beautiful Soupbs4,用于解析和处理HTMLXML文件,其最大优点是能够根据HTMLXML语法建立解析树,进而提高解析效率。

例如:有以下HTML文件:

<html>
	<head></head>
	<body>
		<a>first</a>
		<a>second</a>
	</body>
</html>

 由于beautifulsoup4库是第三方库,因此,需要通过pip3指令进行安装,pip3安装命令如下:

pip install beautifulsoup4

beautifulsoup4库中最重要的类是BeautifulSoup,它的实例化对象相当于一个页面。

采用from-import语句导入库中的BeautifulSoup类,然后使用BeautifulSoup()创建一个BeautifulSoup对象。

例如:

import requests			#导入requests库
from bs4 import BeautifulSoup		#从bs4库中导入BeautifulSoup类
r = requests.get('http://www.baidu.com')	#使用get函数打开百度链接
r.encoding = 'utf-8'			#更改编码方式
soup = BeautifulSoup(r.text)		#创建BeautifulSoup对象
print(type(soup))				#查看soup类型
#<class 'bs4.BeautifulSoup'>

 创建的BeautifulSoup对象是一个树形结构,它包含HTML页面中的标签元素,如<head><body>也就是说,HTML中的主要结构都变成了BeautifulSoup对象的一个属性,可通过“对象名.属性名”形式获取属性值。

 

 

head

HTML页面的<head>内容

title

HTML页面标题,在<head>中,由<title>标记

body

HTML页面的<body>内容

p

HTML页面中第一个<p>内容

a

HTML页面中第一个<a>内容

strings

HTML页面所有呈现在Web上的字符串,即标签的内容

stripped_strings

HTML页面所有呈现在Web上的非空格字符串

 每一个标签在beautifulsoup4库中又是一个对象,称为Tag对象。

例如:

print(type(soup.p))#查看“soup.p”类型
#<class 'bs4.element.Tag'>

 Tag对象有4个常用属性:

 

 

name

字符串,标签的名字,如headtitle

attrs

字典,包含了页面标签的所有属性(尖括号内的其他项),如href

contents

列表,这个标签下所有子标签的内容

string

字符串,标签所包围的文字,网页中真实的文字(尖括号之间的内容)

 当需要列出对应标签的所有内容或找到非第一个标签时,可以使用BeautifulSoup对象的find_all()方法。该方法会遍历整个HTML文件,按照条件返回标签内容(列表类型)。其语法格式如下:

对象名.find_all(name, attrs,recursive, string, limit)

name表示标签名;
attrs表示按照标签属性值检索(需列出属性名和值);
recursive表示查找层次(Beautiful Soup默认检索当前标签的所有子孙节点,如果只搜索标签的直接子节点,可以使用参数recursive = False);
string表示按照关键字检索string属性内容(采用string = 开始);
limit表示返回结果的个数,默认返回全部结果。

例:爬取“https://www.wenjingketang.com/bookHome”网站的内容,解析数据,输出该网站中的图书信息。

import requests						#导入requests库
import re								#导入re模块
from bs4 import BeautifulSoup			#导入BeautifulSoup
#定义一个getHtml()函数,根据填写的url参数获取数据
def getHtml(url):
    #异常处理
    try:
        r = requests.get(url)				#使用get函数打开指定的url
        r.raise_for_status()				#如果状态不是200,则引发异常
        r.encoding = 'utf-8'				#更改编码方式
        return r.text					#返回页面内容
    except:
        return ""						#发生异常返回空字符
#定义数据解析函数,用于找到符合条件的数据并输出
def getcon(html):
    bsObj = BeautifulSoup(html)			#将html对象转化为BeautifulSoup对象
    #找到所有class为bk_show_info的div来只获取图书的信息
    divList = bsObj.find_all('div',{'class':'bk_show_info'}) 
    allbook = []						#存储全部数据,二维列表
    for divs in divList:
        book_info = []					#存储单本图书信息,一维列表
        book_name = divs.h4['data-name']	#获取图书名称
        book_info.append(book_name)	#将图书名称存储到book_info
        p_list = divs.find_all('p')			#查找单本图书的其他信息(在标签p中)
        for p_content in p_list:
    	    book_info.append(p_content.string)	#将p标签中的信息存入book_info
        allbook.append(book_info)		#将单本图书的信息存入allbook
    #输出获取到的图书信息
    for book in allbook:
        print(book)
html = getHtml("https://www.wenjingketang.com/bookHome/")	#调用获取页面内容函数
getcon(html)							#调用解析数据函数

因为网站内容有变化,代码跑不通先学到这里了。。。。。。 

4   典型案例
 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2268936.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

curl+openssl 踩坑笔记

curl编译&#xff1a;点击跳转 踩坑一 * SSL certificate problem: unable to get local issuer certificate * closing connection #0 curl: (60) SSL certificate problem: unable to get local issuer certificate More details here: https://curl.se/docs/sslcerts.html …

mysql-二进制安装方式

目录 1. 安装组件即依赖包 2. 创建用户 3. 关闭防火墙 4. 解压mysql二进制源码包 5. 创建文件夹并赋予权限 6. 编译安装mysql&#xff0c;安装完成最后面&#xff0c;会有一串英文&#xff0c;那是登录数据库的密码 7. 设置配置文件 8. 将mysql添加进环境变量 9. 复制…

【MySQL】深度学习数据库开发技术:使用CC++语言访问数据库

**前言&#xff1a;**本节内容介绍使用C/C访问数据库&#xff0c; 包括对数据库的增删查改操作。 主要是学习一些接口的调用&#xff0c; 废话不多说&#xff0c; 开始我们的学习吧&#xff01; ps:本节内容比较容易&#xff0c; 友友们放心观看哦&#xff01; 目录 准备mysql…

Vscode左大括号不另起一行、注释自动换行

参考大佬的博客VSCode 格式化 cpp 文件时配置左大括号不换行_vscode大括号不换行-CSDN博客 Clang_format_style {BasedOnStyle: Chromium, IndentWidth: 4}

1、Jmeter、jdk下载与安装

1、访问官网&#xff0c;点击下载Jmeter http://jmeter.apache.org/ 2、在等待期间&#xff0c;下载对应的Java https://www.oracle.com/cn/java/technologies/downloads/#jdk23-windows 3、全部下载好&#xff0c;先安装JDK ![在这里插入图片描述](https://i-blog.csdnimg…

【Vim Masterclass 笔记02】第3章:Vim 核心知识 + L08:Vim 核心浏览命令 + L09:Vim 核心浏览命令同步练习

文章目录 Section 3&#xff1a;Vim Essentials&#xff08;Vim 核心知识&#xff09;S03L08 Essential Navigation Commands1 光标的上下左右移动2 上 / 下翻页3 基于单词前移4 基于单词后移5 重新定位视图中的文本&#xff08;页面重绘&#xff09;6 定位到所在行的行首7 光标…

docker学习记录-部署若依springcloud项目

使用docker compse部署RuoYi v3.6.4 一、打包代码 Java代码 打包前需要将127.0.0.1改成宿主机ip&#xff0c; 使用docker部署的nacos&#xff0c;应该是要改成ruoyi-nacos&#xff08;docker中的服务容器名&#xff09;。 使用idea window系统可能没有sh命令&#xff0c;不能…

Unity 实现Canvas显示3D物体

新建一个UI相机&#xff0c;选择渲染层为UI 将主相机的渲染层去掉UI层 、 将Canvas的RenderMode设置为Screen Space - Camera,将RenderCamera设置为UI相机 新建3D物体的UI父物体&#xff0c;并将3D物体的层级设置为UI层 适当的放缩3DObjParent&#xff0c;让3D物体能显示出来…

【spring】参数校验Validation

前言 在实际开发中&#xff0c;我们无法保证客户端传来的请求都是合法的。比如一些要求必传的参数没有传递&#xff0c;传来的参数长度不符合要求等&#xff0c;这种时候如果放任不管&#xff0c;继续执行后续业务逻辑&#xff0c;很有可能就会出现意想不到的bug。 有人可能会…

STM32 SPI读取SD卡

七个响应类型&#xff1a; R1 Response (Normal Response): R1响应是最基本的响应&#xff0c;包含一个字节的状态位&#xff0c;用于指示命令是否成功执行。常用。最高位为0。最低位为1表示是空闲状态。其他位是各种错误提示。 R1b Response (Normal with Busy): 类似于R1&a…

【Solidity】入门指南:智能合约开发基础

&#x1f308;个人主页: 鑫宝Code &#x1f525;热门专栏: 闲话杂谈&#xff5c; 炫酷HTML | JavaScript基础 ​&#x1f4ab;个人格言: "如无必要&#xff0c;勿增实体" 文章目录 Solidity入门指南&#xff1a;智能合约开发基础引言1. 开发环境搭建1.1 Remix I…

EasyExcel(读取操作和填充操作)

文章目录 1.准备Read.xlsx&#xff08;具有两个sheet&#xff09;2.读取第一个sheet中的数据1.模板2.方法3.结果 3.读取所有sheet中的数据1.模板2.方法3.结果 EasyExcel填充1.简单填充1.准备 Fill01.xlsx2.无模版3.方法4.结果 2.列表填充1.准备 Fill02.xlsx2.模板3.方法4.结果 …

OCR实践-问卷表格统计

前言 书接上文 OCR实践—PaddleOCROCR实践-Table-Transformer 本项目代码已开源 放在 Github上&#xff0c;欢迎参考使用&#xff0c;Star https://github.com/caibucai22/TableAnalysisTool 主要功能说明&#xff1a;对手动拍照的问卷图片进行统计分数&#xff08;对应分数…

BOE(京东方)“向新2025”年终媒体智享会落地深圳

12月27日,BOE(京东方)“向新 2025”年终媒体智享会的收官之站在创新之都深圳圆满举行,为这场为期两周、横跨三地的年度科技盛会画上了完美句号。活动期间,全面回顾了 BOE(京东方)2024年在多个关键领域取得的卓越成绩,深入剖析其在六大维度构建的“向新”发展格局,精彩呈现了以“…

Kinova在开源家庭服务机器人TidyBot++研究里大展身手

在科技日新月异的今天&#xff0c;机器人技术在家庭场景中的应用逐渐成为现实&#xff0c;改变着我们的生活方式。今天&#xff0c;我们将深入探讨一篇关于家用机器人研究的论文&#xff0c;剖析其中的创新成果&#xff0c; 论文引用链接&#xff1a;http://tidybot2.github.i…

LCE软机器人登场!热场光控下的多模态运动传奇?

大家好&#xff01;今天来了解一项液晶弹性体&#xff08;LCE&#xff09;软机器人研究——《Multimodal Autonomous Locomotion of Liquid Crystal Elastomer Soft Robot》发表于《Advanced Science》。在机器人技术不断演进的进程中&#xff0c;软机器人虽有潜力但面临诸多挑…

爆改RagFlow

爆改RagFlow 一、Rag理论概述二、Ragflow解析参数说明三、♥ RagFlow源码解析核心代码流程梳理1、OCR识别2、版面分析3、parser功能3.1 PdfParser3.1.1 首先&#xff0c;初始化3.1.2 **pdf转图片** [来自工业界的知识库 RAG 服务(二)&#xff0c;RagFlow 源码全流程深度解析](h…

centos7 免安装mysql5.7及配置(支持多个mysql)

一&#xff09; 下载免安装包&#xff1a; mysql下载地址: https://dev.mysql.com/downloads/mysql/下载时&#xff0c;选择以前5.7版本&#xff1a; image 下载第一个TAR压缩包&#xff1a; image 二&#xff09; 定义安装路径并解压安装包 1、假设需要把MySQL放到 /usr/local…

潇洒郎:部署Dify, 安装Ollama,Ollama下载模型,Dify配置模型

Ollama 1、安装ollama Windows版本下载&#xff1a;2024WindowsOllama最新0.5.4版本资源-CSDN文库, 下载速度超快&#xff0c;官网太慢了 双击安装&#xff0c;安装成功后&#xff0c;托盘区有Ollama图标 右键View logs打开目录 C:\Users\Administrator\AppData\Local\Oll…

Axure10

如果还是不行就将字体图标安装在控制面板–字体下 打开原型了之后&#xff0c;icon没有 一定要将字体库放到–》控制面板\外观和个性化\字体 里面