Python 爬虫项目实战(六):爬取大众点评商家数据

news2024/9/21 0:42:58

前言

网络爬虫(Web Crawler),也称为网页蜘蛛(Web Spider)或网页机器人(Web Bot),是一种按照既定规则自动浏览网络并提取信息的程序。爬虫的主要用途包括数据采集、网络索引、内容抓取等。

爬虫的基本原理

  1. 种子 URL:爬虫从一个或多个种子 URL 开始,这些 URL 是起点。
  2. 发送请求:爬虫向这些种子 URL 发送 HTTP 请求,通常是 GET 请求。
  3. 获取响应:服务器返回网页的 HTML 内容作为响应。
  4. 解析内容:爬虫解析 HTML 内容,提取所需的数据(如文本、链接、图片等)。
  5. 提取链接:从网页中提取出所有链接,并将这些链接加入待访问队列。
  6. 重复过程:爬虫重复上述步骤,直到达到某个停止条件,如爬取了一定数量的页面,或所有页面都被爬取完毕。

爬虫的分类

  1. 通用爬虫

    • 设计用于抓取整个互联网的大量网页。搜索引擎(如 Google、Bing)的爬虫就是通用爬虫。
  2. 聚焦爬虫

    • 专注于特定主题或领域,抓取相关网页。比如,一个新闻爬虫只抓取新闻网站的内容。
  3. 增量爬虫

    • 仅抓取自上次爬取以来发生变化或更新的网页,适用于动态内容更新频繁的网站。

爬虫的合法性和道德

在编写和运行爬虫时,必须遵循以下原则:

  1. 遵守网站的 robots.txt

    • 大多数网站都有一个 robots.txt 文件,规定了哪些页面允许被爬取,哪些不允许。爬虫应当尊重这些规则。

  2. 避免过度抓取

    • 设置适当的抓取频率,避免对服务器造成过大负担。
  3. 尊重版权和隐私

    • 不应抓取或使用受版权保护的内容,或涉及用户隐私的数据。
  4. 获取许可

    • 在某些情况下,最好获得网站管理员的许可,特别是当你打算频繁地抓取大量数据时。

通过以上方法和原则,可以编写高效、可靠且合规的网络爬虫来满足数据采集的需求。 

侦察

页面如下,笔者这里是美食类的,别的应该也可以

往下看有页数

页数参数找到了,代码中可以用变量代替 

刷新网页请求查看数据来源 

蛮多了,关键字搜索一下 

四个数据来源都是这个网址那我们要请求的就是这个,当然,你也可以搜索别的再确认一下

看下请求头,需要伪造

源代码

import re
import requests
from bs4 import BeautifulSoup


def work(dic, url, headers):
    # 发送请求
    response = requests.get(url, headers=headers)

    # 使用BeautifulSoup解析HTML
    soup = BeautifulSoup(response.text, 'lxml')

    # 获取所有<li>标签
    li_elements = soup.find('div', id='shop-all-list').find('ul').find_all('li')

    # 遍历<li>标签
    for li in li_elements:
        # 店名
        name = li.find('h4').get_text(strip=True)

        # 评价
        review_num = li.find('a', class_='review-num').find('b').get_text(strip=True) + '条评价'

        # 人均(不知道为什么有时候会报错,所以加个报错处理)
        # 初始化变量以存储b标签的文本
        text = ""

        # 使用try-except语句来捕获可能发生的异常
        try:
            # 尝试找到a标签,然后找到b标签,并获取文本
            a_element = li.find('a', class_='mean-price')
            if a_element:
                b_element = a_element.find('b')
                if b_element:
                    text = b_element.get_text(strip=True)
                    # 使用正则表达式提取数字
                    numbers = re.findall(r'\d+', text)
        except Exception as e:
            # 确保numbers保持为空列表,以便后续处理
            numbers = []

        # 菜系和地址(class 都是 tag)
        # 在div元素下查找所有class为tag的span标签
        spans = li.find('div', class_='tag-addr').find_all('span', class_='tag')

        # 遍历找到的span标签
        # enumerate函数用于在遍历spans列表时获取每个元素的索引(从0开始)
        for index, span in enumerate(spans):
            # 菜系
            cuisine = spans[0].text

            # 地址
            address = spans[1].text

        # 存储数据
        dic = {
            '店名': name,
            '评价': review_num,
            '人均': numbers,
            '菜系': cuisine,
            '地址': address
        }

        print(dic)


def main():
    # 创建字典保存数据
    dic = {}

    # 起始页
    num = 1

    # 伪造请求头
    headers = {
        'cookie': '_lxsdk_cuid=1911cc498eac8-0a9bb0ce26d609-26001e51-1fa400-1911cc498eac8; _lxsdk=1911cc498eac8-0a9bb0ce26d609-26001e51-1fa400-1911cc498eac8; _hc.v=a2438707-fd8b-2eb1-8201-db141f67078b.1722764532; fspop=test; s_ViewType=10; WEBDFPID=4u9z73uwu0xv5uu3073961156ux948x18088xx35z4y97958x3vz2080-2038124643497-1722764642744QQEGWKOfd79fef3d01d5e9aadc18ccd4d0c95078843; Hm_lvt_1099875750d85512c80065e2d3365ff4=1722764653; cy=1368; cye=enshi; logan_session_token=rx2feyfkqxnl4ya7fkmz; _lx_utm=utm_source%3Dgoogle%26utm_medium%3Dorganic; qruuid=2a0cdf84-2462-4f0e-b7bc-d65a03f0af19; dplet=751140961a88908057bdd6b5e1d57eed; dper=02029f21c63a9f697bfa9f0dc27d1e5e7061ba00c91d078774d4bcec06fea8d66ff915f6ce449cac5705667bfcb3a59839997cf1aeef6c8cd6b10000000001220000c39dd56319ee64d03a9bbf82be7768125a7a59640826d1c03f3c83e3323b185c53049d32498b4661e305b8ca6e33d386; ll=7fd06e815b796be3df069dec7836c3df; ua=%E7%82%B9%E5%B0%8F%E8%AF%849579146909; ctu=091da7d386a1953d055f05da823b041d3a55d58bde248d60d47bff7b7bf284e8; Hm_lvt_602b80cf8079ae6591966cc70a3940e7=1722764661,1722838891; HMACCOUNT=46EFA8661D7DADEA; Hm_lpvt_602b80cf8079ae6591966cc70a3940e7=1722842928; _lxsdk_s=19121135bb7-405-89b-78b%7C%7C292',
        'host': 'www.dianping.com',
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/127.0.0.0 Safari/537.36'
    }

    while num < 51:
        # 请求地址
        url = 'https://www.dianping.com/enshi/ch10/p' + str(num)

        # 调用函数
        work(dic, url=url, headers=headers)

        num += 1


if __name__ == '__main__':
    main()

项目效果

注意事项

完整复制代码爬到后面会报错,因为有些模块没有数据(鄙人有点懒,交给你们去完成这个任务了)

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1984846.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

开放式耳机有哪些优缺点,2024年开放式耳机推荐

&#xff08;一&#xff09;开放式耳机有哪些优缺点 优点&#xff1a;良好的音质&#xff0c;佩戴舒适不伤害耳朵&#xff0c;便于携带&#xff0c;一句话就是舒适又安全&#xff1b; 缺点&#xff1a;最大的缺点就是隔音效果不佳&#xff0c;而且很大的可能性会出现漏音现象…

亚马逊、速卖通卖家必看:自养号测评助力转化率提升

在亚马逊、速卖通等电商平台的激烈竞争中&#xff0c;卖家们深谙流量之于店铺转化率的重要性&#xff0c;而测评补单作为提升业绩的关键策略之一&#xff0c;其重要性不言而喻。它不仅是日常运营中不可或缺的一环&#xff0c;更是助力产品在众多竞品中脱颖而出的竞争利器。特别…

Google Play Instant免安装应用,助力市场推广!

什么是免安装应用&#xff1f; 一句话总结&#xff1a;Google Play 免安装应用就是允许用户在不安装应用的情况下访问应用的内容。 那么它有什么作用呢&#xff1f; 1.增强与用户的互动&#xff0c;推出可吸引用户安装App的活动或者功能进行极致体验&#xff0c;提升安装量并…

09.XSS跨站脚本攻击(超详细!!!)

1、什么是XSS XSS&#xff08;跨站脚本攻击&#xff09;&#xff1a;攻击者利用这个漏洞将恶意脚本注入到网页中&#xff0c;当其它用户浏览这些页面时&#xff0c;恶意脚本会在用户的浏览器中执行。XSS攻击允许攻击者在用户的浏览器上执行脚本&#xff0c;从而可能获取用户的…

好书推荐|大模型必学《Transformer自然语言处理实战》

今天又来给大家分享ai大模型书籍了&#xff0c;今天是这本非常畅销的书----《Transformer自然语言处理实战》涵盖了Transformer在NLP领域的主要应用。 首先介绍Transformer模型和Hugging Face 生态系统。然后重点介绍情感分析任务以及Trainer API、Transformer的架构&#xff…

深入了解App设计流程的7个关键阶段

在当今数字时代&#xff0c;每个人的日常生活都与各种应用密切相关。APP已经成为我们生活中不可或缺的一部分&#xff0c;无论是社交网络、健康服务、购物还是娱乐。优秀的APP设计不仅能提供良好的用户体验&#xff0c;还能吸引用户的注意力&#xff0c;有效传达信息。作为一名…

《python语言程序设计》2018版第6章第33题使用五边形面积,利用函数重写编程3.4题 返回五边形的面积

之前03.04.01version 2024.02.04side_num eval(input("Enter the side: ")) area_num (5 * pow(side_num, 2)) / (4 * math.tan(math.pi / 5)) print("The area of the pentagon is {:>.20f}".format(area_num))本次代码 def area(side_num):side_num…

十分钟带你学会 Vue-router

安装、配置 Router Vue Router 是 Vue.js 官方的路由管理器。它和 Vue.js 的核心深度集成&#xff0c;让构建单页面应用变得易如反掌。 了解路由之前&#xff0c;我们需要先理解一个概念&#xff1a;单页应用。 单页应用 SPA(single page application):单一页面应用程序&am…

【微信小程序实战教程】之微信小程序中的 JavaScript

微信小程序中的 JavaScript 微信小程序的业务逻辑都是通过JavaScript语言来实现的&#xff0c;本章我们将详细的讲解JavaScript的基本概念&#xff0c;以及在小程序中如何使用JavaScript语言。JavaScript是一种轻量的、解释型的、面向对象的头等函数语言&#xff0c;是一种动态…

uniapp用自带的canvas做画板签字

如下图移动端经常需要做此功能,用户签字。用户填表啥的。 先用touch进行监听手指的触摸事件 获取所点击的坐标位置。 这里有很多要注意的地方。 初始化 uniapp里的canvas与原生的canvas有区别,渲染之后会多很多莫名其妙的div节点,并且还有个div直接就把原生的canvas覆盖…

仿真入门必看:怎么用CST软件自带宏提取材料的DK,Df值

我们知道如果在CST中要做精确的仿真&#xff0c;进行仿真测试对比&#xff0c;其中第一步就是要搞清楚仿真模型的参数&#xff0c;如果输入数据不对&#xff0c;那也避免不了垃圾进垃圾出的原则。和仿真相关的数据很多&#xff0c;其中PCB板的介质参数Dk, Df就是介电常数的实部…

吓傻!自有品牌社交电商靠AI 智能名片商城小程序逆天改命!

摘要&#xff1a;本文深入探讨了自有品牌型社交电商的发展历程、显著特点以及未来趋势&#xff0c;特别以微商品牌为典型案例进行了详细剖析。同时&#xff0c;重点阐述了在数字化时代的大背景下&#xff0c;自有品牌型社交电商如何通过与 AI 智能名片商城小程序的有机融合&…

VueRouter 相关信息

VueRouter 是Vue.js官方路由插件&#xff0c;与Vue.js深度集成&#xff0c;用于构建单页面应用。构建的单页面是基于路由和组件&#xff0c;路由设定访问路径&#xff0c;将路径与组件进行映射。VueRouter有两中模式 &#xff1a;hash 和 history &#xff0c;默认是hash模式。…

scikit-learn 算法选择决策树

介绍 下图帮助我们在使用 scikit-learn 库时选择合适的算法&#xff0c;可作为参考。

leetCode - - - 数组

1.移动0&#xff08;leetcode283&#xff09; 给定一个数组 nums&#xff0c;编写一个函数将所有 0 移动到数组的末尾&#xff0c;同时保持非零元素的相对顺序。 请注意 &#xff0c;必须在不复制数组的情况下原地对数组进行操作。 class Solution {public void moveZeroes(i…

邮件API的API文档和技术支持资源如何获取?

邮件API如何集成到现有系统中&#xff1f;如何选邮件API服务&#xff1f; 对于开发者来说&#xff0c;理解和获取邮件API的API文档和技术支持资源至关重要。AokSend将详细介绍如何高效获取这些资源&#xff0c;帮助开发者顺利集成邮件API&#xff0c;并在项目中发挥其最大功效…

音频剪辑软件哪个好用?轻松处理音频的6款软件

在日常生活中&#xff0c;我们常常需要对音频进行编辑&#xff0c;无论是为了制作个性化的音乐铃声&#xff0c;还是剪辑重要的录音&#xff0c;或是创作音频片段。 面对这些音频剪辑的挑战&#xff0c;一款好用的在线音频剪辑免费版软件就显得尤为重要。 下面为大家推荐6个好…

打音游(补全程序)

首先最外层循环枚举的是总共的得分次数&#xff0c;包括x1,x,x/2&#xff0c;那么n-i就是没得分的情况。 里层循环j代表得x/2的情况&#xff0c;要么没有&#xff0c;要么最多1次&#xff0c;如果两次会变成x那么之前的循环已经枚举过了。 lower代表的是得x1分的下限那就是总…

六通道CAN(FD) 集线器

一 、功能概述 1.1 设备简介 CANFD 完全向下兼容 CAN&#xff0c; 以下统称 CAN(FD) 。本产品是CAN(FD)集线器&#xff0c; 支持名义 波特率 5k-1M&#xff0c; 数据波特率5k-5M&#xff0c; 开启位速率转换最低数据波特率100k。 支持每路单独设置接收帧类型&#xff08;软…

Apache Camel Karavan -理解一

Apache Camel 开始接触是在ETL数据&#xff0c;数据处理成为了现代企业必须面对的一个挑战。在数据处理中&#xff0c;etl&#xff08;提取-转换-加载&#xff09;的概念被广泛采用&#xff0c;其中提取指从源数据中收集数据&#xff0c;转换指将数据与所需数据配对&#xff0c…