python爬虫基本库的使用

news2024/12/28 18:58:44

博主简介:博主是一个大二学生,主攻人工智能领域研究。感谢缘分让我们在CSDN相遇,博主致力于在这里分享关于人工智能,C++,python,爬虫等方面的知识分享。如果有需要的小伙伴,可以关注博主,博主会继续更新的,如果有错误之处,大家可以指正。

专栏简介:本专栏致力于研究python爬虫的实战,涉及了所有的爬虫基础知识,以及爬虫在人工智能方面的应用。文章增加了JavaScript逆向,网站加密和混淆技术,AST还原混淆代码,WebAssembly,APP自动化爬取,Android逆向等相关技术。同时,为了迎合云原生发展,同时也增加了基于Kubernetes,Docker,Prometheus,Grafana等云原生技术的爬虫管理和运维解决方案。

订阅专栏    订阅专栏

博主分享:给大家分享一句我很喜欢的话:“每天多一点努力,不为别的,值为日后,能够多一些选择,选择舒心的日子,选择自己喜欢的人!”


目录

urlib的使用

urlib的简介

 高级用法

 requests的使用

总结



urlib的使用

urlib的简介

urlib作为python的一个库,利用它就可以实现HTTP的请求,而且不需要关心HTTP协议本身甚至更底层的实现。

注意:在python2中,有urlib和urlib2两个库来实现HTTP请求的发送。而在Python3中,urlib2库已经不存在,统一为urlib。

urlib是python内置的HTTP请求库,不需要额外安装,urlib库包含了以下四个模块:

①request:这是最基本的HTTP请求模块,可以模拟请求的发送。就像在浏览器中输入网址后按下回车,只需要传入参数即可。

②error:异常处理模块,如果出现异常,我们可以捕获这些异常,然后进行重试或其它操作。

③parse:一个工具模块,可以对URL进行解析,合并,拆分等。

④robotparse:主要用来识别网站的robots.txt文件,然后判断哪些网站可以爬,哪些不可以爬,但是用的比较少。

1.发送请求 

urlopen:urlopen是request模块中的打开网址的函数,也就是发送请求,然后返回响应。

我们这里就以csdn官网的网址为例:

import urllib.request
URL='https://www.csdn.net/'
response=urllib.request.urlopen(URL)
print(response.read().decode('utf-8'))

由于博主所用的编译器是VS code,这里的显示结果会和pycharm有所区别,需要存储到html文件中才能 展示原有的网页源码。

我们得到的响应response是一个HTTPResponse对象,主要包含了read,readinto,getheader,getheaders,fileno等方法。同时包含了status,msg,version,reason,debuglevel,closed等属性。

import urllib.request
URL='https://www.csdn.net/'
response=urllib.request.urlopen(URL)
#print(response.read().decode('utf-8'))
print(type(response))
print(response.status)
print(response.getheaders())
print(response.getheader('Server'))

 结果展示:

<class 'http.client.HTTPResponse'> 200 [('Date', 'Thu, 02 Feb 2023 05:05:42 GMT'), ('Content-Type', 'text/html; charset=utf-8'), ('Transfer-Encoding', 'chunked'), ('Connection', 'close'), ('Set-Cookie', 'acw_tc=2760828a16753143417275296e9ff014e190d9eaac93280ed2e9c0db434d2d;path=/;HttpOnly;Max-Age=1800'), ('Server', 'openresty'), ('Vary', 'Accept-Encoding'), ('Set-Cookie', 'uuid_tt_dd=10_19879412540-1675314353111-318560; Expires=Thu, 01 Jan 2025 00:00:00 GMT; Path=/; Domain=.csdn.net;'), ('Set-Cookie', 'dc_session_id=10_1675314353111.898938; Expires=Thu, 01 Jan 2025 00:00:00 GMT; Path=/; Domain=.csdn.net;'), ('set-cookie', 'csrfToken=Js40dDZ0Qy7cMwzKhIni5Iqu; path=/; secure'), ('X-Response-Time', '432'), ('x-xss-protection', '1; mode=block'), ('x-content-type-options', 'nosniff'), ('x-download-options', 'noopen'), ('x-readtime', '432'), ('Strict-Transport-Security', 'max-age=31536000')] openresty

当然除了传递这些参数,urlopen函数还有其他参数:

1.data参数: data参数是可选的,需要使用bytes方法将参数转化为字节流编码格式的内容,即bytes类型,另外,如果传递了这个参数,那么它的请求方式就不再是GET、,只能是POST。


import urllib.request
import urllib.parse
URL='https://baidu.com'
data=bytes(urllib.parse.urlencode({'name':'germey'}),encoding='utf-8')
response=urllib.request.urlopen(url=URL,data=data)
print(response.read().decode('utf-8'))

2.timeout参数: 这个参数是用来设置超出时间的,设置一个时间,代表时间限制,如果超出了这个时间服务器没有响应,不那么就会抛出错误。

import urllib.request
import urllib.error
import socket
url='https://baidu.com'
try:
    response=urllib.request.urlopen(url=url,timeout=0.1)
except urllib.error.URLError as e:
    if isinstance(e.reason,socket.timeout):
        print("Time Out")
    else:
        print('Yes')
        

除了上面的参数,还有context参数,该参数必须是ssl.SSLContext,用来指定SSL的的设置。此外还有cafile,capath两个参数分别用来指定CA证书和其路径,这两个在请求HTTPS链接时会有用。

cadefault已经被弃用,默认为False。

当然除了urlopen可以打开网页,Request类也可以打开,和urlopen相比,其功能更加强大,这里我们来介绍一下Request如何使用:

我们要是想使用Request类,那么就要构建Request类,这就需要很多参数:

class urllib.request.Request(url,data=None,headers={},origin_req_host=None,unverifiable=False,method=None) 

第一个参数url用于指定网址,这是必传参数,其他的都是可选参数。

data参数和前面的data参数一样,第三个参数headers是一个字典,这是请求头,我们在构建请求头的时候,直接可以通过headers参数构建,也可以通过调用请求实例的add_header方法添加。

添加请求头headers最常见的方法就是通过修改User-Agent来伪装浏览器。我们可以修改此值来伪装,如果我们要伪装火狐浏览器,就可以把User-Agent设置为:

Mozilla/5.0 (X11;U;Linux i686) Gecko/20071127 Firefox/2.0.0.11

第四个参数origin_req_host是请求方的IP地址或host名称

第五个参数则是表示请求是否是无法验证的。

第六个参数method是一个字符串类型,表示请求的方法,例如GET,POST等。


from urllib import request,parse
url='https://www.baidu.com'
headers={
    'User-Agent':'Mozilla/5.0 (X11;U;Linux i686) Gecko/20071127 Firefox/2.0.0.11'
}
data=bytes(parse.urlencode({'name':'germey'}),encoding='utf-8')
req=request.Request(url=url,data=data,headers=headers)
response=request.urlopen(req)
print(response.read().decode('utf-8'))

 使用add_header()函数的代码:


#使用add_header()函数
from urllib import request,parse
url='https://www.baidu.com'
data=bytes(parse.urlencode({'name':'germey'}),encoding='utf-8')
req=request.Request(url=url,data=data)
req.add_header('User-Agent','Mozilla/5.0 (X11;U;Linux i686) Gecko/20071127 Firefox/2.0.0.11')
response=request.urlopen(req)
print(response.read().decode('utf-8'))

 高级用法

我们前面学习了爬虫的简单知识,也就是如何去打开网页,现在,如果我们要进行一些高级操作,就需要使用更强大的工具handler,简而言之,handler就是处理登陆验证的,处理cookie的,处理代理设置的。利用这些Handler,我们就几乎可以实现HTTP中的请求中所有的功能。首先介绍一下urllib.request模块里的BaseHandler类,这是其他所有handler类的父类,它提供了最基本的方法,例如default_open,protocol_request等。

会有很多的handler类继承BaseHandler类,下面介绍几个子类:

1.HTTPDefaultErrorHandler用于处理HTTP响应错误,所有错误都会抛出HTTPError类型的错误。

2.HTTPRedirectHandler用于处理重定向。

3.HTTPCookieProcessor用于处理Cookie。

4.ProxyHandler用于设置代理。

5.HTTPPasswordMgr用于管理密码,他维护着用户名密码的对照表。

6.HTTPBasicAuthHandler用于管理认证,如果一个链接打开需要认证,就用这个。

 对于这些类的介绍,后面我们会逐一的用实例来解释,这里就先不介绍。当然,除了上面的类,还有一个很重要的类,OpenerDirector类,简称opener类,前面我们用到的urlopen方法实际上就是urllib库为我们提供的一个Opener。

下面我们举几个例子来认识一下opener类和handler类。

这里给出一个网站:https://ssr3.scrape.center,会弹出这样的窗口:


from urllib.request import HTTPPasswordMgrWithDefaultRealm,HTTPBasicAuthHandler,build_opener
from urllib.error import URLError
username='123456'
password='123456'
url='https://login1.scrape.center/'
p=HTTPPasswordMgrWithDefaultRealm()
p.add_password(None,url,username,password)
auth_handler=HTTPBasicAuthHandler(p)  #实例化对象
opener=build_opener(auth_handler)  #创建opener
try:
    result=opener.open(url)
    html=result.read().decode('utf-8')
    print(html)
except URLError as e:
    print(e.reason)

2.代理

我们在做爬虫的时候,难免会用到的代理。如果要使用代理,可以这样做:

from urllib.error import URLError
from urllib.request import ProxyHandler,build_opener
proxy_handler=ProxyHandler({
    'http':'http://127.0.0.1:8080',
    'https':'http://127.0.0.1:8080'
})
opener=build_opener(proxy_handler)
try:
    response=opener.open('https://www.baidu.com')
    print(response.read().decode('utf-8'))
except URLError as e:
    print(e.reason)

上面使用了ProxyHandler,其参数是一个字典,键名是协议(例如HTTP或HTTPS),键值是代理链接,可以添加多个代理。

然后利用build_opener创建一个类opener,然后发送请求。

后买还有Cookie处理,设计的内容很多,不详细介绍,后面遇到了会直接通过案例来进行讲解。

3.处理异常

我们在进行爬虫操作的时候,难免会出现很多的错误,尤其是使用request类进行操作的时候,这个时候,利用针对request类的urlerror错误类,便可以降低我们的工作量,进行错误抛出,也可以使程序更合理化。

①URLError

URLError类来自urllib库的error模块,继承自OSError类,是error类的基类。它具有一个reason属性,可以返回错误原因。

from urllib.error import URLError
from urllib.request import urlopen
url='https://111.com/404'
try:
    response=urlopen(url)
    print(response.read().decode('utf-8'))
except URLError as e:
    print(e.reason)

程序没有报错,而是直接输出错误原因: 

Internal Server Error。

②HTTPError

 HTTPError是URLError的子类,专门用来处理HTTP请求错误,例如认证失败等。它有以下几个属性:

1.code:返回HTTP状态码,例如404表示页面不存在。500表示服务器内部错误等。

2.reason:同父类一样,用于返回错误的原因。

3.headers:返回请求头。

 

from urllib.error import HTTPError
from urllib.request import urlopen
url='http://111.com/404' #这是个错误的网址
try:
    response=urlopen(url)
    print(response.read().decode('utf-8'))
except HTTPError as e:
    print(e.code,e.reason,e.headers)

500 Internal Server Error Server: openresty Date: Thu, 02 Feb 2023 08:02:53 GMT Content-Type: text/html Content-Length: 174 Connection: close 

 requests的使用

前面虽然我们使用了urllib库进行了爬虫的基本的代码。在写Cookie处理和登陆验证的时候需要用到Handler类和Opener类,而且在写POST,PUT等请求时也会非常复杂。

由于requests库不是python的内置库,需要先下载,使用pip就可以:

pip install requests -i Simple Index

实例的使用:

 urllib库中的urlopen请求网页实际上是以GET方法。现在我们来看requests中的get方法。

import requests
r=requests.get('https://www.baidu.com')
print(type(r))
print(r.status_code)
print(type(r.text))
print(r.text[:100])
print(r.cookies)

使用get方法还不算requests的亮眼操作,它还可以很简单的使用post,put等发送请求方法:

import requests
url='https://www.baidu.com'
r=requests.post(url)
r=requests.put(url)
r=requests.delete(url)
r=requests.patch(url)

 这里使用requests类确实实现了很大的方便,但是,这只是他强大功能的冰山一角。

GET请求:

get请求我们在上面已经介绍,这里主要是介绍网页抓取,二进制数据保存,等内容。

我们抓取网页的时候,得到的是HTML文件,包含了很多的子页面,如果我们要获取某个子页面的网址,那么我们怎么获取?下面给一个例子:

import requests
import re
r=requests.get('https://ssr1.scrape.center/')
pattern=re.compile('<h2.*?>(.*?)</h2>',re.S)
titles=re.findall(pattern,r.text)
print(titles)

['霸王别姬 - Farewell My Concubine', '这个杀手不太冷 - Léon', '肖申克的救赎 - The Shawshank Redemption', '泰坦尼克号 - Titanic', '罗马假日 - Roman Holiday', '唐伯虎点秋香 - Flirting Scholar', '乱世佳人 - Gone with the Wind', '喜剧之王 - The King of Comedy', '楚门的世界 - The Truman Show', '狮子王 - The Lion King']

这里使用了正则表达式,这里只是当作示例,后面会想详细介绍。

抓取二进制数据:

 我们先来看一个案例:


import requests
r=requests.get('https://scrape.center/favicon.ico')
print(r.text)
print(r.content)

 

第一个出现了乱码,第二个是二进制。由于图片是二进制保存,所以必须用二进制展现,即content属性。想要验证这个问题,我们就将其保存下来: 

import requests
r=requests.get('https://scrape.center/favicon.ico')
with open('./favicon.ico','wb') as f:
    f.write(r.content)
    

 

 

 post请求和get请求相似,用法等基本无差异,所以这里不做过多介绍。

身份认证

在访问简单的身份验证的时候,我们用requests类中的相关函数也可以实现身份验证:

import requests
from requests.auth import HTTPBasicAuth
r=requests.get('https://ssr3.scrape.center/',auth=HTTPBasicAuth('123456','123456'))
print(r.status_code)

此外,除了此种认证方式,requests还有其他认证方式,OAuth认证, 不过此时需要安装oauth包,安装命令如下:

pip install requests_oauthlib

源代码:

#OAuth认证
import requests
from requests_oauthlib import OAuth1
url='https://ssr3.scrape.center/'
oauth=OAuth1('YOUR_APP_KEY','YOUR_APP_SECRET',
             'USER_OAUTH_TOKEN','USER_OAUTH_TOKEN_SECRET')
requests.get(url,auth=oauth)

代理设置


import requests
proxy_handler=ProxyHandler({
    'http':'http://127.0.0.1:8080',
    'https':'http://127.0.0.1:8080'
})
requests.get('https://www.baidu.com',proxies=proxy_handler) 

除了基本的HTTP协议代理,也可以使用SOCKS协议代理。

需要先安装socks库。

pip install "requests[socks]" 

 然后就可以使用SOCKS协议代理了,示例如下:

import requests
proxy_handler=ProxyHandler({
    'http':'socks5://user:password@host:port'
})
requests.get('https://www.baidu.com',proxies=proxy_handler)

总结

本节的相关的库已经介绍完毕,其中requests库十分重要,需要好好掌握,由于细节很多,博主这里可能会有遗漏,有些知识博主认为不重要的就省略了,只介绍了重要的和常用的,后面遇到了,会具体分析。

感谢各位小伙伴在在百忙之中花一点时间观看。

 

点赞加关注不迷路

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/193321.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Java面试基础篇

目录 一、集合 1.集合与集合之间的区别 2.集合子类之间的区别&#xff08;数据结构&#xff09; 二、线程 三、面向对象 继承 多态 四、异常 五、IO流 六、序列化与反序列化 今天给大家分享 Java基础篇的面试题&#xff0c;小编给大家稍微整理了一下&#xff0c;希望即…

RHCE(web服务器)

文章目录一、www简介&#xff08;一&#xff09;网址及HTTP简介&#xff08;二&#xff09;HTTP协议请求的工作流程二、www服务器的类型&#xff08;一&#xff09;仅提供用户浏览的单向静态网页&#xff08;二&#xff09;提供用户互动接口的动态网站三、www服务器的基本配置四…

苹果证书p12和描述文件的创建教程

在hbuilderx或apicloud这些uniapp框架工具打包苹果APP的时候&#xff0c;需要p12证书和证书profile文件来编译&#xff0c;目前网上很少使用windows电脑生成p12证书的教程&#xff0c;官方的教程都是需要使用苹果电脑来创建的。 这里&#xff0c;我们这篇文章来教会大家如何使…

【虚拟仿真】Unity3D中实现鼠标悬浮UI上显示文字

推荐阅读 CSDN主页GitHub开源地址Unity3D插件分享简书地址我的个人博客 大家好&#xff0c;我是佛系工程师☆恬静的小魔龙☆&#xff0c;不定时更新Unity开发技巧&#xff0c;觉得有用记得一键三连哦。 一、前言 本篇文章实现一个鼠标悬浮在UI上显示文字的功能&#xff0c;实…

LMK04828时钟芯片配置历程——SPI接口

提示&#xff1a;文章写完后&#xff0c;目录可以自动生成&#xff0c;如何生成可参考右边的帮助文档 LMK04828时钟芯片配置历程——SPI接口总结最近有一个开发板需要去调试&#xff0c;开发板上包含了AD9371和LMK04828时钟芯片&#xff0c;而我的任务是需要将他们都配置起来。…

c++入门之输入输出命名空间

文章目录前言一、输入输出二、命名空间1.使用命名空间的原因2.命名空间定义3.命名空间的定义注意事项&#xff08;1&#xff09;命名空间只能在全局范围使用&#xff08;2&#xff09;命名空间可以嵌套&#xff08;3&#xff09;命名空间是开放的,可以随时添加新的成员&#xf…

mysql流程控制

前言&#xff1a; &#x1f44f;作者简介&#xff1a;我是笑霸final&#xff0c;一名热爱技术的在校学生。 &#x1f4dd;个人主页&#xff1a;个人主页1 || 笑霸final的主页2 &#x1f4d5;系列专栏&#xff1a;数据库 &#x1f4e7;如果文章知识点有错误的地方&#xff0c;请…

QT---制作简易串口助手

一、ui制作打开QTCreator创建一个新文件2.进入UI设计界面进行设计进入ui界面后&#xff0c;选择相应的控件将串口助手的样子给做出来&#xff0c;我选择的是如下的控件做这个串口助手&#xff1a;1.按钮&#xff1a;2.下拉列表3.标签4.组合框5.文本编辑绘制ui界面如下&#xff…

如何用Windows自带命令修改文件和图片的MD5

首先说下&#xff0c;md5到底是啥&#xff0c;它是一段固定长度的数据。无论原始数据是多长或多短&#xff0c;其MD5值都是128bit。另外md5是确定性&#xff0c;一个原始数据的MD5值是唯一的&#xff0c;同一个原始数据不可能会计算出多个不同的MD5值&#xff1b;类似人类的身份…

快速搭建前后端分离项目

后端 配置文件和依赖 创建一个SpringBoot项目&#xff0c;采用Mybatis-Plus快速构建项目。 application.yml进行配置 server:port: 80spring:datasource:username: rootpassword: 123456url: jdbc:mysql://localhost:3306/ems?useSSLfalse&useUnicodetrue&charact…

C++——哈希

目录 unordered系列关联式容器 unordered_mapunordered_map在线文档说明 unordered_map的接口说明 unordered系列优势 哈希 解决哈希冲突 1.闭散列——开放定址法 思考&#xff1a;哈希表什么情况下进行扩容&#xff1f;如何扩容&#xff1f; 插入元素代码 查找元素 …

Linux操作系统--用户和群组(保姆级教程)

用户和群组 用户 什么是用户&#xff0c;即登录到linux操作系统的账号就是用户。在linux操作系统中账户的类别主要有三类&#xff1a;1、超级管理员&#xff08;root&#xff09;,在linux中超级管理员的账户是root&#xff0c;这个root账户就类似于windows操作系统中administr…

pom.xml配置中引入Oracle依赖

pom.xml配置中引入Oracle依赖1. Download Driver1.1 pom.xml2.Awakening1. Download Driver 因为Oracle是要收费的&#xff0c;所以不能通过远程的方式来引入&#xff0c;可以通过mvn指令导入到Maven本地仓库。 下载地址 Oracle Website: https://www.oracle.com/database/tech…

MyBatis案例 | 使用映射配置文件实现CRUD操作——查询所有数据

本专栏主要是记录学习完JavaSE后学习JavaWeb部分的一些知识点总结以及遇到的一些问题等&#xff0c;如果刚开始学习Java的小伙伴可以点击下方连接查看专栏 本专栏地址&#xff1a;&#x1f525;JavaWeb Java入门篇&#xff1a; &#x1f525;Java基础学习篇 Java进阶学习篇&…

各类SDR的USB接口一致性测试

最近用高带宽示波器测了好几个SDR产品的USB2接口一致性。由于探头数量只有1个&#xff0c;所以不能测全所有的项目。但已经包含了最主要的USB眼图&#xff08;信号质量&#xff09;项目。 待测件包含&#xff1a; 1.原版RTL-SDR 2.自制RTL-SDR 3.HackRF 4.无线电罗盘v0.8 测试…

css实现超出div长度文字自动隐藏或用省略号表示

网页中一些区域的标题文字是不能换行的&#xff0c;例如首页显示的文章标题&#xff0c;因为布局是固定的&#xff0c;换行会打乱布局&#xff0c;从而使网页产生错位。因此&#xff0c;我们需要一行一段文字&#xff0c;超出行宽的文字用省略号表示或者直接去掉不用省略号代替…

在CentOS-6.9配置apache服务(1)---基于个人主页的身份验证

文章目录一 系统环境二 用户身份验证2.1 编写主配置文件2.2 编写用户身份验证的配置文件2.3 创建用户密码文件2.4 创建测试页面2.5 测试三 基于个人主页的身份验证3.1 修改主配置文件3.2 创建测试用户3.3 创建测试的个人主页3.4 设置防火墙和selinux3.5 测试在部署了apache服务…

LeetCode-189. 轮转数组

目录方法一&#xff1a;使用额外的数组方法二&#xff1a;环状替换方法三&#xff1a;数组翻转题目来源 189. 轮转数组 方法一&#xff1a;使用额外的数组 我们可以使用额外的数组来将每个元素放至正确的位置。用 n 表示数组的长度&#xff0c;我们遍历原数组&#xff0c;将原…

JSP SSM校园超市管理系统myeclipse开发mysql数据库springMVC模式java编程计算机网页设计

一、源码特点 JSPssm 校园超市管理系统 是一套完善的系统源码&#xff0c;对理解JSP java SrpingMVC mybiats 框架 MVC编程开发语言有帮助&#xff0c;系统具有完整的源代码和数据库&#xff0c;以及相应配套的设计文档 &#xff0c;系统主要采用B/S模式开发。 研究的基…

Dubbo 中 Zookeeper 注册中心原理分析

本文通过分析Dubbo中ZooKeeper注册中心的实现ZooKeeperResitry的继承体系结构&#xff0c;自顶向下分析了AbstractRegistry&#xff08;提供了服务数据的本地缓存&#xff09;、FailbackRegistry&#xff08;服务注册订阅相关的异常重试&#xff09;、CacheableFailbackRegistr…