python爬虫学习第十五天-------ajax的get和post请求

news2024/11/17 3:08:48

嗨嗨嗨!兄弟姐妹大家好哇!今天我们来学习ajax的get和post请求

一、了解ajax

Ajax(Asynchronous JavaScript and XML)是一种在 Web 开发中用于创建交互式网页应用程序的技术。通过 Ajax,网页可以在不重新加载整个页面的情况下,与服务器进行异步通信,从而实现动态加载内容和更新页面的部分内容。

在 Ajax 中,最常用的请求方法是 GET 和 POST。GET 请求用于从服务器获取数据,而 POST 请求用于向服务器提交数据。通过 GET 请求,可以向服务器发送查询参数,服务器根据这些参数返回相应的数据。这使得网页能够动态地获取和显示数据,而无需刷新整个页面。

二、ajax的get请求

Ajax 是一种在 Web 开发中用于创建交互式网页应用程序的技术。在爬取包含 Ajax 请求的网页时,通常需要模拟这些请求,以获取完整的数据。Python 爬虫可以通过模拟这些 Ajax 请求来获取动态加载的内容。

要实现爬取包含 Ajax 请求的网页,通常需要以下步骤:

  1. 分析网页:使用开发者工具或类似工具分析网页,找到包含 Ajax 请求的 URL、请求方法、请求参数等信息。
  2. 模拟请求:使用 Python 的网络请求库(如 requests)构造并发送与 Ajax 请求相同的请求。
  3. 解析响应:解析 Ajax 请求的响应内容,提取所需的数据。
  4. 循环请求:如果需要获取多页数据,可以根据网站的分页规则构造多个请求。

以下是一个简单的示例,演示如何使用 Python 爬虫模拟 Ajax 的 GET 请求:

import requests

url = '<https://api.example.com/data>'
params = {
    'param1': 'value1',
    'param2': 'value2'
}

response = requests.get(url, params=params)
if response.status_code == 200:
    data = response.json()
    print(data)
else:
    print('请求失败:', response.status_code)

在这个示例中,我们使用了 requests 库发送了一个带有参数的 GET 请求,并将响应解析为 JSON 格式的数据。请注意,实际的 Ajax 请求可能需要更复杂的参数配置和数据解析。

案列:

(1)爬取豆瓣电影前10页的数据

要爬取豆瓣电影前10页的数据,首先需要找到豆瓣电影的网页地址和Ajax请求的接口。以豆瓣电影Top250为例,网页地址为 https://movie.douban.com/top250,Ajax请求接口为 https://movie.douban.com/j/chart/top_list?type=11&interval_id=100%3A90&action=&start=0&limit=20。

接下来,我们可以编写Python代码来模拟Ajax请求,实现爬取豆瓣电影Top250前10页的数据。以下是一个示例代码:

import requests
import json
import time

url = '<https://movie.douban.com/j/chart/top_list>'
params = {
    'type': '11',         # 类型为电影Top250
    'interval_id': '100:90',  # 区间为100年代到90年代
    'action': '',         # 未指定动作
    'start': '0',         # 起始位置,每页20个
    'limit': '20'         # 每页数量
}

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.75 Safari/537.36'
}

movies_data = []

for page in range(10):  # 爬取前10页
    params['start'] = str(page * 20)  # 计算每页起始位置
    try:
        response = requests.get(url, params=params, headers=headers)
        if response.status_code == 200:
            movies = response.json()
            movies_data.extend(movies)
            time.sleep(1)  # 每次请求后暂停1秒,减少请求频率
        else:
            print('请求失败:', response.status_code)
            break
    except requests.exceptions.RequestException as e:
        print('请求异常:', e)
        break

# 打印所有电影信息
for movie in movies_data:
    print(f"电影名称:{movie['title']}")
    print(f"评分:{movie['score']}")
    print(f"链接:{movie['url']}")
    print()

请注意,豆瓣网站有反爬虫机制,频繁的请求可能会被拒绝。建议在开发爬虫时遵守网站的规定,避免对网站造成过大的负担。

结果:

(2)

贴近实际情况的示例,演示如何使用Python的Requests库和Beautiful Soup库爬取一个使用Ajax加载的网页。我们将从一个示例网站获取数据,该网站使用Ajax加载商品信息,并且商品信息支持分页。

假设我们要爬取的网站是 https://www.example.com/products,该网站上有关于商品的信息,商品信息通过Ajax加载,每次加载10个商品,我们需要模拟点击“加载更多”按钮来获取所有商品信息。

import requests
from bs4 import BeautifulSoup
import json

url = '<https://www.example.com/products>'
params = {
    'page': 1,  # 第一页商品
    'limit': 10  # 每页10个商品
}

products_data = []

while True:
    response = requests.get(url, params=params)
    if response.status_code == 200:
        soup = BeautifulSoup(response.text, 'html.parser')
        # 找到商品数据所在的标签
        products = soup.find('div', class_='products-list')
        if not products:
            break
        # 提取商品数据
        for product in products.find_all('div', class_='product'):
            product_info = {
                'name': product.find('h3').text.strip(),
                'price': product.find('span', class_='price').text.strip(),
                'description': product.find('p', class_='description').text.strip()
            }
            products_data.append(product_info)
        # 判断是否还有下一页商品
        if soup.find('a', class_='load-more'):
            params['page'] += 1
        else:
            break
    else:
        print('请求失败:', response.status_code)
        break

# 打印所有商品信息
for product_info in products_data:
    print(f"商品名称:{product_info['name']}")
    print(f"价格:{product_info['price']}")
    print(f"描述:{product_info['description']}")
    print()

请注意,实际网站的商品加载可能会有更复杂的逻辑和参数,您需要根据具体情况调整代码。同时,注意网站的爬取规则,不要对网站造成过大的负担或违反其使用规定。

三、ajax的post请求

Python 爬虫中的 Ajax POST 请求指的是使用 Python 发送模拟浏览器发送的 POST 请求,以获取网页上通过 Ajax 加载的动态内容。Ajax 是一种在 Web 开发中使用的技术,能够在不刷新整个页面的情况下,通过异步请求与服务器进行通信,并更新页面的部分内容。

要实现 Python 爬虫的 Ajax POST 请求,一般需要以下步骤:

  1. 分析请求:使用开发者工具分析网页,找到需要获取数据的 Ajax 请求的 URL、请求方式、请求参数等信息。
  2. 构造请求:使用 Python 的 requests 库构造 POST 请求,并设置请求头部信息,模拟浏览器发送请求。
  3. 发送请求:发送构造好的 POST 请求到服务器,并获取返回的响应数据。
  4. 处理响应:解析响应数据,提取需要的信息,如 JSON 格式的数据或 HTML 内容。

下面是一个示例,演示了如何使用 Python 爬虫发送 Ajax 的 POST 请求:

import requests

url = '<https://example.com/api/data>'
data = {
    'param1': 'value1',
    'param2': 'value2'
}

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.75 Safari/537.36',
    'X-Requested-With': 'XMLHttpRequest'  # 模拟 Ajax 请求的关键头部信息
}

response = requests.post(url, data=data, headers=headers)

if response.status_code == 200:
    result = response.json()
    print(result)
else:
    print('请求失败:', response.status_code)

在这个示例中,我们使用 requests 库发送了一个带有数据的 POST 请求,并设置了模拟 Ajax 请求的关键头部信息 'X-Requested-With': 'XMLHttpRequest'。根据实际情况,你可能需要调整 URL、数据和请求头部信息。

案例:

面是一个示例,演示了如何使用 Python 爬虫模拟登录并发送带有身份验证信息的 Ajax POST 请求来获取登录后的数据:

import requests

# 登录页面 URL
login_url = '<https://example.com/login>'
# 登录表单数据
login_data = {
    'username': 'your_username',
    'password': 'your_password'
}

# 登录请求,使用 session 保持会话状态
session = requests.Session()
response = session.post(login_url, data=login_data)

if response.status_code == 200:
    # 登录成功后的操作
    # 获取登录后页面的数据,假设为 <https://example.com/data>
    data_url = '<https://example.com/data>'
    data_response = session.post(data_url)
    
    if data_response.status_code == 200:
        # 处理数据
        data = data_response.json()
        print(data)
    else:
        print('获取数据失败:', data_response.status_code)
else:
    print('登录失败:', response.status_code)

在这个示例中,我们首先发送了一个 POST 请求来模拟登录。如果登录成功,会话将保持,然后我们使用相同的会话发送了另一个带有身份验证信息的 POST 请求来获取登录后的数据。这种方式可以模拟用户在浏览器中的操作,获取登录后才能访问的数据。

四、总结

总的来说,在使用Python进行网络爬虫时,要根据具体的需求和目标网站的接口设计选择合适的请求方式。GET请求适合用于获取数据,而POST请求适合用于提交数据。通过**requests**库,我们可以方便地发送这两种类型的AJAX请求,并获取服务器响应。使用正确的请求方式能够更有效地进行数据采集和处理,提高爬虫的效率和可靠性。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1574006.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

C语言——#define的使用

#define定义常量 基本语法 #define name stuff //&#xff08;#define&#xff09;&#xff08;变量名&#xff09;&#xff08;定义的数值&#xff09; 这里记得&#xff0c;是不加分号的 定义常量&#xff08;这里 就要涉及我们经常说的宏定义&#xff09; 定义常量的使…

langchain 学习笔记-FunctionCalling三种方式

ChatGPT 基于海量的训练数据生成答案&#xff0c;所以它无法回答训练数据中没有的信息或搜索信息 。人们希望 ChatGPT 具有对话以外的各种功能&#xff0c;例如“我想管理我的待办事项列表”。 函数调用是对此类请求的响应。 通过使用函数调用&#xff0c;ChatGPT 现在可以在生…

牛客 2024春招冲刺题单 ONT98 牛牛猜节点【中等 斐波那契数列 Java,Go,PHP】

题目 题目链接&#xff1a; https://www.nowcoder.com/practice/6a3dfb5be4544381908529dc678ca6dd 思路 斐波那契数列参考答案Java import java.util.*;public class Solution {/*** 代码中的类名、方法名、参数名已经指定&#xff0c;请勿修改&#xff0c;直接返回方法规…

Nestjs中使用MQTT

准备工作&#xff0c;首先就得硬件的小伙伴自己吧硬件部分配置好&#xff0c;成功连通云端&#xff0c;并成功推送数据。然后就是服务器装好Nestjs 。做好这些准备工作就可以开始了&#xff01;&#xff01;&#xff01; 然后直接开始工作&#xff1a; 一、安装 # 直接安装最…

Spring boot框架Rouyi Cloud入门之token

&#x1f339;作者主页&#xff1a;青花锁 &#x1f339;简介&#xff1a;Java领域优质创作者&#x1f3c6;、Java微服务架构公号作者&#x1f604; &#x1f339;简历模板、学习资料、面试题库、技术互助 &#x1f339;文末获取联系方式 &#x1f4dd; 往期热门专栏回顾 专栏…

Android Glide配置AppGlideModule定制化线程池,Kotlin(1)

Android Glide配置AppGlideModule定制化线程池&#xff0c;Kotlin&#xff08;1&#xff09; plugins {id org.jetbrains.kotlin.kapt }implementation com.github.bumptech.glide:glide:4.16.0kapt com.github.bumptech.glide:compiler:4.16.0 import android.content.Context…

布局图纸电子管理系统,布局图纸电子管理系统哪个好?

布局图纸电子管理系统是一个涉及多个步骤和策略的过程&#xff0c;旨在优化图纸的存储、检索、共享和安全性。下面是一个可能的布局图纸电子管理系统的框架和关键要素&#xff1a; 一、需求分析 明确电子管理系统的具体需求&#xff0c;包括用户群体、功能模块、安全性要求等。…

竞赛 交通目标检测-行人车辆检测流量计数 - 竞赛

文章目录 0 前言1\. 目标检测概况1.1 什么是目标检测&#xff1f;1.2 发展阶段 2\. 行人检测2.1 行人检测简介2.2 行人检测技术难点2.3 行人检测实现效果2.4 关键代码-训练过程 最后 0 前言 &#x1f525; 优质竞赛项目系列&#xff0c;今天要分享的是 &#x1f6a9; 毕业设计…

NzN的数据结构--实现双向链表

上一章中&#xff0c;我们学习了链表中的单链表&#xff0c;那今天我们来学习另一种比较常见的链表--双向链表&#xff01;&#xff01; 目录 一、双向链表的结构 二、 双向链表的实现 1. 双向链表的初始化和销毁 2. 双向链表的打印 3. 双向链表的头插/尾插 4. 双向链表的…

java内存模型和线程

java内存模型 一个服务端需要同时对多个客户端提供服务&#xff0c;就是并法的具体场景。 衡量一个服务性能的好坏&#xff0c;每秒实务处理数&#xff08;Transactions Per Second,TPS)是重要指标&#xff0c;它代表一秒内服务端平均能响应的请求总数。 硬件的效率和一致性 …

汇川PLC学习Day4:电机参数和气缸控制参数

汇川PLC学习Day4&#xff1a;伺服电机参数和气缸控制参数 一、伺服电机参数二、气缸参数1. 输入IO映射&#xff08;1&#xff09;输入IO映射&#xff08;2&#xff09; 输入IO触摸屏标签显示映射 2. 输出IO映射&#xff08;1&#xff09;输出IO映射&#xff08;2&#xff09; …

java中的正则表达式和异常

正则表达式&#xff1a; 作用一&#xff1a;用来校验数据格式是否合法 作用二&#xff1a;在文本中查找满足要求的内容 不用正则表达式&#xff1a;检验QQ号是否合法&#xff0c;要求全部是数字&#xff0c;长度在6-20&#xff0c;不能以0开头 public class test {public stat…

Python爬虫-爬取药膳食谱数据

&#x1f388; 博主&#xff1a;一只程序猿子 &#x1f388; 博客主页&#xff1a;一只程序猿子 博客主页 &#x1f388; 个人介绍&#xff1a;爱好(bushi)编程&#xff01; &#x1f388; 创作不易&#xff1a;喜欢的话麻烦您点个&#x1f44d;和⭐&#xff01; &#x1f388;…

顺序表的应用之通讯录

学习了顺序表之后&#xff0c;我们也得知道它的实际用途吧&#xff01;所以&#xff0c;我们今天来学习一下通讯录的实现。 typedef struct personInfo SLDataType; contact.h #define NAME_MAX 20 #define GENDER_MAX 20 #define GTEL_MAX 20 #define ADDR_MAX 100 #include&…

post请求爬虫入门程序

<!--爬虫仅支持1.8版本的jdk--> <!-- 爬虫需要的依赖--> <dependency><groupId>org.apache.httpcomponents</groupId><artifactId>httpclient</artifactId><version>4.5.2</version> </dependency><!-- 爬虫需…

复现ChatGLM-6B

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 项目代码https://github.com/THUDM/ChatGLM-6B 权重开放:…

VMware Workstation Pro 全屏模型隐藏上方命令栏

点击命令栏左侧的小图标&#xff0c;可以隐藏或固定命令栏。 如果要取消白线&#xff0c;参考&#xff1a; 虚拟机全屏后隐藏vmware菜单栏的问题

【KLEE】使用Docker安装KLEE KLEE的简单使用 KLEE的约束文件

本文架构 零、前言一、KLEE简介二、Docker安装KLEE1. 使用apt安装docker2.拉取klee镜像3.使用git 拉取klee源码4.安装klee镜像5. 运行镜像 三、试用KLEE的examples1.查看并了解待测文件examples/get_sign/get_sign.c2.KLEE进行符号测试的基本步骤编译成LLVM位码文件使用KLEE进行…

爬取微博热搜榜

需求&#xff1a; 利用python和xpath爬取微博热搜榜 步骤&#xff1a; 爬虫的步骤 获取网页数据-》分析网页数据-》提取网页数据。 1&#xff0c;首先获取微博热搜数据。 热搜主页为 https://s.weibo.com/top/summary?caterealtimehot 打开收&#xff0c;按F12获取网页源…

FebHost:墨西哥.MX域名概述

墨西哥&#xff0c;这片充满生机与历史的国度&#xff0c;以其丰富的文化传统、诱人的美食以及壮丽的自然景观吸引着世界各地的游客。从古老的阿兹特克和玛雅文明到现代都市的繁华街区&#xff0c;墨西哥为每一位访客和当地居民提供了一场视觉与感官的盛宴。 关于 .MX 域名 作…