数据分析实战:从0到1完成数据获取分析到可视化

news2024/11/18 1:46:23

文章目录

    • 1.数据分析基本流程
      • 1.1 数据采集
      • 1.2 数据提炼
      • 1.3 数据探索分析
    • 2.数据获取的方法和工具
      • 2.1 数据解锁器
      • 2.2 爬虫浏览器
      • 2.3 数据洞察市场
    • 3.完整案例分析:从数据采集到数据可视化
      • 3.1 直接按需定制数据集获取数据
      • 3.2 获取IP代理,利用python爬取数据
      • 3.3 数据可视化
    • 4.总结

1.数据分析基本流程

1.1 数据采集

数据采集顾名思义就是获取数据源的各类数据,它在数据分析和处理中扮演着至关重要的角色。

数据源的类型包括结构化数据、半结构化数据和非结构化数据,这些数据类型的多样性要求数据采集系统具备更高的灵活性和用户自定义能力。

由于很多数据应用都需要来自互联网的外部数据,因此,常常会用到网络爬虫,按照一定的规则,自动递抓取互联网信息的程序或者脚本。

再者,在大数据环境下,数据采集技术面临许多挑战,包括数据源种类多、数据类型复杂、数据量大且产生速度快等问题。因此,保证数据采集的可靠性和高效性,避免重复数据成为关键考量因素。

数据采集常常需要面临和克服以下问题:

  • 数据多样性:源数据以各种格式存在,如文本、图片、视频等,需要掌握各种格式的处理方式。
  • 大数据:数据海量且增长快,需要高效准确的定位到所需要的数据信息。
  • 数据安全与隐私:在采集和存储数据的过程中,需要确保数据的安全性和保护用户隐私,避免数据泄露和滥用。
  • 实时性要求:某些应用对数据的实时性有严格要求,如何在短时间内采集并处理大量实时数据是一个技术难题。
  • 网络限制:对于在线数据采集,网络的稳定性和速度可能会影响数据的实时获取,因此需要一个稳定高效的网络。
  • 频率限制:针对某公共网址,多次采集会遭到封禁,因此,需要切换不同的IP,或者仿真模拟真人操作采集数据。
  • 技术机制:为了防止外部造成网址瘫痪,很多网站会设置各种机制,如验证码、IP 限制、动态页面等,因此需要拥有专业的技术处理才能获取数据。

针对这些问题,要么自己技术够用,要么能找到技术够硬的平台,通过技术平台解决难题或获取数据。

1.2 数据提炼

数据采集主要是将数据汇集在一起,为数据提炼做准备,而数据提炼是将采集的数据转化为有用信息的过程,常用到的技术有ETL。

ETL技术:主要用来描述将数据从来源端经过抽取(Extract)、转换(Transform)、加载(Load)到目的端的过程。主要讲网页企业中的分散、凌乱、不统一的数据整合在一起,进行分析探索和决策。

数据提炼通常涉及以下几个关键步骤:

  • 数据抽取:从无结构或半结构化的数据中提取关键信息,并将其组织成结构化格式,便于机器理解和处理。
  • 数据加工:数据加工通常有字段映射、数据过滤、数据清洗、数据替换、数据计算、数据验证、数据合并和数据拆分,移除或修正错误、重复或不完整的数据,确保数据质量的完整性。
  • 数据转换:将数据转换成适合分析的格式,例如通过归一化或标准化数值,常用到有数据挖掘技术。

常用的一些ETL工具有三种:

  • DataStage:数据集成软件平台,专门针对多值数据源进行简化和自动化,提供图形框架用于转换、清洗和加载数据,能够处理大型数据库、关系数据和普通文件。
  • Informatica PowerCenter:企业级需求而设计的企业数据集成平台,支持结构化、半结构化和非结构化数据,提供丰富的数据转换组件和工作流支持。
  • Kettle:开源的ETL工具,数据抽取高效稳定,管理来自不同数据库的数据,提供图形化的操作界面,支持工作流。

1.3 数据探索分析

数据探索分析可以分为数据分析和数据解释。

  • 数据分析旨在发现数据中的规律、趋势和关联性,以支持和指导决策制定。常用到的方法有描述性分析(对数据的基本特征进行概括和描述)、回归分析(用于研究变量之间的关系)、聚类分析(将数据进行分组)。
    关联规则挖掘:发现不同数据项之间的关联。
  • 数据解释的主要工作是对提炼的数据采用人机交互方式将结果展示给用户,为了更清晰有效地传递信息,通常会使用图形和图表,在视觉上更好地传递信息,有效的可视化可以帮助用户分析和探索数据,使复杂的数据更容易理解和使用。

2.数据获取的方法和工具

网络爬虫是数据获取的常用方法,和代理IP配合能保证数据采集的稳定运行。市面上有许多代理IP,选择通常有一套标准,不合格的代理可能导致爬虫频繁中断和失败等产生一系列问题,所以对于挑选可以参考以下几个方面:

  • 试用服务:不同的代理IP,通常有一定的试用服务,可以通过测试对比代理的性能和适用性。
  • 用户评价和反馈:代理IP服务于用户,可以多查看其他用户使用的评价和反馈,或者参考行业内相关人士的评测和推荐。
  • 安全性和隐私保护:查看服务商的隐私政策,确保他们不会记录你的活动数据。
  • IP池的规模和多样性:拥有大规模和多样化的IP池可以提供更好地覆盖和较低的封禁风险。
  • 可靠性和稳定性:通过试用检查代理服务的运行时间和性能历史记录,确保它们能提供稳定可靠的服务。
  • 专业的技术支持和服务:查看对应服务商的用户手册和资源,咨询对应客服,看是否提供良好的支持和服务。

刚好近期需要使用IP代理获取数据,通过不断地了解,发现亮数据有许多用户评价和反馈,好评众多,因此,博主立马进行了注册,通过测试使用后,发现IP质量特别好,工具也多,整体特别满意,有兴趣的可以试试 👉亮数据官网数据获取。

2.1 数据解锁器

数据解锁器是一种绕过网络限制或检测,模拟真人访问解锁网站网站并抓取数据。它能完全模仿真人挖掘网页数据,拥有管理IP发送请求率、设置请求间隔、校准参照标头、识别蜜罐陷阱、模仿真人和设备等功能。

解锁器的优点有:

  • 自动解锁,自动重试。仿真浏览器指纹,解锁各大网站,设置请求间隔不断自动重试获取数据。
  • 验证码解决方案。拥有多套方案,自动识别验证码中的字符或图形,运用成熟的技术来处理验证码。
  • 应对目标网站的更改。及时发现网站的更改情况,调整采集策略,确保随时能正常获取数据。
  • 选定域的结果解析和异步请求。在特定的领域范围内,对结果进行深入解析和分析,并发起不同步的请求操作,不阻塞当前的执行任务,提高系统的并发处理能力和效率。

2.2 爬虫浏览器

数据浏览器有很多,但大多都不够专业,对网络爬虫抓取数据并没有提供更多的帮助。但亮数据提供的爬虫浏览器内置网站解锁功能,集成了亮网络解锁器自动化解锁能力,并且自动管理所有网站深层解锁操作,包括:验证码解决、浏览器指纹识别、自动重试和选择标头等。

爬虫浏览器的亮点如下:

  • 解锁最强大的网页屏蔽。大规模抓取总是需要复杂的解锁操作,亮数据浏览器后台自动管理所有网站解锁操作:CAPTCHA解决、浏览器指纹识别、自动重试、标头选择、cookie和Javascript渲染等,节省时间和资源。
  • 轻易绕过任何机器人检测软件。使用 AI 技术,亮数据浏览器会不断调整,自动学习绕过机器人检测系统,以真实用户浏览器的形式出现在机器人检测系统中,以实现比代理更高的解锁成功率,告别屏蔽麻烦,节约成本。
  • 根据需要批量使用网络抓取浏览器。亮数据浏览器托管在强大的可高度扩展的基础架构之上,这赋予你自由使用任何数量的浏览器来运行数据抓取项目的可能
  • 兼容Puppeteer, Playwright和Selenium。轻松调用API以获取任意数量的浏览器会话,并使用Puppeteer (Python)、Playwright (Node.js)或Selenium与它们交互。非常适合需要网站交互来检索数据的抓取项目,例如将鼠标悬停在页面上、单击按钮、滚动、添加文本等。

2.3 数据洞察市场

数据洞察市场是一个利用数据分析为组织提供有价值见解的领域,它能快速地收集市场相关行业的数据,通过不断地对比和定位,发现潜在问题,指定合理更有效地方案,增强在市场上的竞争力。

最常见的一些指标和策略有:

  • 市场份额:收集同行业市场份额的相关数据,分析自己的优劣势,并作出调整。
  • 价格优化:收集对比各大平台的产品价格,跟踪同类产品不同季节时段的价格调整,优化自己的价格,获取利润同时,保有竞争力。
  • 产品匹配:库存匹配,以确保你能在物流备货方面处于竞争优势。了解竞品的库存和已售数量,基于数据发现潜在热品,灵活更新库存减少成本压力。
  • 高效运营:跟踪所有 SKU 并自动识别库存问题(缺货)、促销和低效活动、销售额或利润下降等来优化运营,优化生产。

只要清楚市场,才能知道需要什么数据,站在市场角度,收集集成各大公众平台数据,优先进行分析和训练,得出更好的市场洞察力。

3.完整案例分析:从数据采集到数据可视化

需求目标:以豆瓣网为例,获取豆瓣读书排行榜Top250(https://book.douban.com/top250)数据,整合梳理有效信息,制作数据可视化报告。

3.1 直接按需定制数据集获取数据

分析:在这里我们使用亮数据的“按需定制数据集”,根据自己的需要和使用场景定制自己的数据集。

  1. 进入到网络数据采集页面,选择数据产品为“按需定制数据集”。
    image
  2. 点击选择自定义默认数据集,开始创建代理端口。
    image
  3. 填写需要获取的数据集名字、包含的内容,查看豆瓣读书排行榜Top250每页分布,可得出每页对应的URL,依次填入,点击下一页。
    image
  4. 等待一定时间,我们可以查看获取数据集的数据字典,其中,可以根据自己的需要可以添加、修改和删除字段或者字段类型。
    image
  5. 确定表结构没有问题后,我们可以查看数据样例,并且能导出CSV数据。
    image

可见,直接根据网址的提示进行操作,非常快速就能获取到自己想要的数据。

3.2 获取IP代理,利用python爬取数据

众所周知,爬虫速度过快,频繁访问都会被封IP,怎么解决这个问题呢?再去换一台设备?先不说数据是否同步,仅仅换个设备的成本就不低,这个时候就需要代理IP了,根据获得的代理IP,直接在python的使用。

1)准备工作
导入本次需要用到的基本模块,以下所有的执行都在这基础上运行。

from bs4 import BeautifulSoup # 用于解析HTML和XML文档
import requests # 爬虫库
import re # 正则库
import pandas as pd # 数据处理库
import times # 防止爬取过快

进入到豆瓣网址,点击不同的页面,可以发现网址URL有如下:

# 第一页
https://book.douban.com/top250?start=0
# 第二页
https://book.douban.com/top250?start=25
# 第三页
https://book.douban.com/top250?start=50

通过观察可以发现,URL后面参数是25的倍数变化,因此可以使用如下代码替代:

# 设置翻页
    for i in range(10):
        # 根据每一页的URL规律定义
        url = 'https://book.douban.com/top250?start=' + str(i*25) + '&filter='
        print(url)

2)获取网页源码数据

a. 在不使用任何代理情况下,直接模拟浏览器,添加请求头,发起请求。

# 定义获取源码函数
def get_html_info1(url):
    # 请求头
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
    # 发起请求,返回响应对象
    response = requests.get(url, headers=headers)
    # 解析网页内容
    soup = BeautifulSoup(response.text, 'html.parser')
    # 打印查看信息
    print(soup)
    return soup
# 使用该函数
get_html_info1("https://book.douban.com/top250?start=0")

多次请求后出现404!!!

b. 进一步优化,在这里我从 亮数据官方网站中注册获取到的IP,我们使用它进行发起请求,获取数据。

# 定义获取源码函数
def get_html_info2(url):
    # 请求头
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
    # 根据获取到的IP,添加代理
    proxies = {'http': 'http://brd-customer-hl_93341477-zone-web_unlocker2:ke6rcbba1z0z@brd.superproxy.io:22225',
            'https': 'http://brd-customer-hl_93341477-zone-web_unlocker2:ke6rcbba1z0z@brd.superproxy.io:22225'}
    # 发起请求,返回响应对象
    response = requests.get(url, headers=headers,proxies=proxies)
    # 解析网页内容
    soup = BeautifulSoup(response.text, 'html.parser')
    # 打印查看信息
    print(soup)
    return soup
# 使用该函数
get_html_info2("https://book.douban.com/top250?start=0")

c. 继续在亮数据中探索发现,平台的亮网络解锁器和亮数据解锁器,只需要将所需要的URL放入,调整通道和地区,爬虫代码无需修改直接可复用。

image

#!/usr/bin/env python
print('If you get error "ImportError: No module named \'six\'" install six:\n'+\
    '$ sudo pip install six');
print('To enable your free eval account and get CUSTOMER, YOURZONE and ' + \
    'YOURPASS, please contact sales@brightdata.com')
import sys
import ssl
ssl._create_default_https_context = ssl._create_unverified_context
if sys.version_info[0]==2:
    import six
    from six.moves.urllib import request
    opener = request.build_opener(
        request.ProxyHandler(
            {'http': 'http://brd-customer-hl_93341477-zone-web_unlocker2:ke6rcbba1z0z@brd.superproxy.io:22225',
            'https': 'http://brd-customer-hl_93341477-zone-web_unlocker2:ke6rcbba1z0z@brd.superproxy.io:22225'}))
    print(opener.open('https://book.douban.com/top250?start=0').read())
if sys.version_info[0]==3:
    import urllib.request
    opener = urllib.request.build_opener(
        urllib.request.ProxyHandler(
            {'http': 'http://brd-customer-hl_93341477-zone-web_unlocker2:ke6rcbba1z0z@brd.superproxy.io:22225',
            'https': 'http://brd-customer-hl_93341477-zone-web_unlocker2:ke6rcbba1z0z@brd.superproxy.io:22225'}))
    print(opener.open('https://book.douban.com/top250?start=0').read())

在Pycharm中可以使用示例代码直接爬取源码,不用自己调整任何东西。爬取的源码通常还不能直接使用,需要进一步进行提炼。
image

可以发现b和c两部分获取数据非常稳定,未出现异常情况,代理IP

2)数据提炼

首先,打开开发者工具查看HTML源码,聚焦选中要定位的元素,可以发现书本信息集中在<div,class="indent"><table></table></div>标签中;
image
image
其次,较为复杂的是出版相关的信息,数据有"余华 / 作家出版社 / 2012-8 / 20.00元"、“[英] 阿·柯南道尔 / 丁钟华 等 / 群众出版社 / 1981-8 / 53.00元/68.00元”、“少年儿童出版社 / 1962 / 30.00元”,存在着作者和译者两者其一或都无情况,因此,对数据进行分割时需要分情况处理。创建一个get_data函数用于提炼数据,如下:

def get_data(soup,data_list):
    # 获取<div,class="indent"><table></table></div>标签中所有的图书信息
    book_list = soup.find('div', class_='indent').find_all('table')
    # 遍历图书列表
    for book in book_list:
        # 书名:根据<div,class='pl2'><a></a></div>标签提取信息
        title = book.find('div', class_='pl2').find('a')['title']
        # 评分:根据<span,class='rating_nums'></span>标签提取信息
        rating = book.find('span', class_='rating_nums').text
        # 评价人数:根据<span,class='pl'></span>标签提取信息,正则出需要的数量
        comment_count = re.search(r'\d+', book.find('span', class_='pl').text).group()
        # 推荐语:根据<span,class='inq'></span>标签提取信息,如果没有则赋空
        quote = book.find('span', class_='inq').text if book.find('span', class_='inq') else None
        # 书本出版相关信息:根据<p,class='pl'></span>标签提取信息
        publisher_info = book.find('p', class_='pl').text
        # 作者和译者:并不是所有的图书都有,因此需要根据实际信息分情况处理
        if publisher_info.count(' / ') == 4:
            author = publisher_info.split(' / ')[-5].strip()
            translator = publisher_info.split(' / ')[-4].strip()
        elif publisher_info.count(' / ') == 2:
            author = None
            translator = None
        else:
            author = publisher_info.split(' / ')[-4].strip()
            translator = None
        # 出版社:根据提取的出版信息分隔符提取
        publisher = publisher_info.split(' / ')[-3].strip()
        # 定价:由于定价存在多种情况,根据提取的出版信息分隔符和正则匹配信息
        price = re.sub(r'(元)|(CNY\s)|(NT\$)', '', publisher_info.split(' / ')[-1].strip())
        # 出版年
        year = publisher_info.split(' / ')[-2].strip().split('-')[0]
        # 书本链接
        book_link = book.find('a')['href']
        # 封面图片链接
        img_link = book.find('a').find('img')['src']
        # 打印查看每次获取提炼的信息
        print({'书名': title, '评分': rating, '评价人数': comment_count, '推荐语': quote
                  , '作者': author, '译者': translator, '出版社': publisher, '出版年': year, '定价': price
                  , '书本链接': book_link, '封面图片链接': img_link})
        # 将获取的信息合并追加
        data_list.append({'书名': title, '评分': rating, '评价人数': comment_count, '推荐语': quote
                  , '作者': author, '译者': translator, '出版社': publisher, '出版年': year, '定价': price
                  , '书本链接': book_link, '封面图片链接': img_link})
    return data_list
# 使用get_html_info1函数获取HTML源码
get_html_info1("https://book.douban.com/top250?start=0")
# 使用get_data函数提炼数据
get_data(soup,data_list)

执行查看打印结果如下:
image

3)数据导出

数据提炼完成,我们常常需要保存数据或者数据入库,方便查看和其他工具调用,因此,定义数据导出函数如下:

# 定义数据导出CSV函数
def data_to_csv(data_list):
    # 创建DataFrame对象
    df = pd.DataFrame(data_list)
    # 保存为CSV文件
    df.to_csv('douban_dushu.csv',index=False)

使用数据导出函数,并且查看数据,可以发现总共获取了11列250行数据。
image

3.3 数据可视化

数据可视化又可以称为数据解释,主要工作是对数据进行处理,将结果更直观地展现,使复杂的数据更容易理解和使用,在本节中做基本的演示。

1)准备工作

导入数据可视化用到的基本库,读取提取到的数据。

import pandas as pd
from pyecharts import options as opts
from pyecharts.options import ComponentTitleOpts
from pyecharts.charts import Bar, Line # 绘制条形图和线图
from pyecharts.charts import TreeMap # 绘制树形图
from pyecharts.components import Table # 绘制表格
df = pd.read_csv('douban_dushu.csv') # 读取提炼的数据

2)做明细表

根据提炼的数据,明细表可以帮助用户高效地查看、编辑和分析详细的数据信息,便于查看和发现问题,图书详情尽在掌握。

table = Table()
headers = df.columns.tolist() # 表列表
rows = [list(row) for row in df.values] # 数据列表
table.add(headers, rows) # 表单中添加表头和数据
table.set_global_opts(
    title_opts=ComponentTitleOpts(title="豆瓣读书Top205明细") # 添加标题
)
table.render("豆瓣读书Top205明细.html") # 导出HTML查看

image

3)绘制柱形图

柱形图能更直观地查看和对比不同年份出版的图书情况,因此,我们进一步绘制查看读书Top250中出版年的图书数量变化。

year_counts = df['出版年'].value_counts() # 根据出版年份统计图书数量
year_counts.columns = ['出版年', '数量'] # 汇总的数据定义列名
year_counts = year_counts.sort_index() # 根据数量排序
c = (
    Bar()
    .add_xaxis(list(year_counts.index))
    .add_yaxis('图书数量', year_counts.values.tolist())
    .set_global_opts(
        title_opts=opts.TitleOpts(title='各年份图书数量'), # 标题
        yaxis_opts=opts.AxisOpts(name='数量'), # y轴
        xaxis_opts=opts.AxisOpts(name='出版年'), # x轴
        datazoom_opts=[opts.DataZoomOpts(), opts.DataZoomOpts(type_='inside')],) # 数据显示位置
        .render('各年份图书数量.html')
        )

image

4)绘制矩形树形图

我们可以使用矩形树形图查看不同的出版社出版图书的分布情况。

publisher = df['出版社'].value_counts() # 根据出版社统计图书数量
output_list = [{"value": value, "name": name} for name, value in publisher.items()] # 转化为列表嵌套字段形式
c = (
    TreeMap()
    .add("", output_list)
    .set_global_opts(title_opts=opts.TitleOpts(title="出版社分析"))
    .render("出版社分析.html")
)

image

4)绘制组合图

通过明细数据可以看到,图书有评分和评价人数,进一步分析三种的数据情况,在这里我们绘制组合图统一展示:

# 创建bar对象,并制定画布大小
bar = Bar(init_opts=opts.InitOpts(width='1200px',height='300px'))
# 将数据根据评分、评价人数、书名进行升序排列
df3 = df.sort_values(by=['评分','评价人数','书名'],ascending=False) 
# 依次将排名前十的三列数据拿出
x_data = df3['书名'].tolist()[:10]
rating = df3['评分'].tolist()[:10]
comment_count = df3['评价人数'].tolist()[:10]
# 柱形图设置
bar = (
    Bar()
    .add_xaxis(x_data) # x轴
    .add_yaxis(  # y轴系列数据
        series_name="评价人数",
        y_axis=comment_count,
        yaxis_index=0,
        z=0,
        color="#d14a61",
        bar_width=40,       
    )
    .extend_axis( # 扩展的y轴系列参数配置
        yaxis=opts.AxisOpts(
            type_="value", 
            name="评分",    
            name_gap=30,      
            min_=0,      
            max_=10,
            axislabel_opts=opts.LabelOpts(font_size=15),    
            axisline_opts=opts.AxisLineOpts(
                linestyle_opts=opts.LineStyleOpts(color="black")   
            ),
            
            splitline_opts=opts.SplitLineOpts(           
                is_show=True, linestyle_opts=opts.LineStyleOpts(opacity=1)   
            ),
        )
    )
    .set_global_opts(  # y轴系列参数配置                            
        yaxis_opts=opts.AxisOpts(                  
            name="评价人数",                     
            name_gap=60,                           
            min_=0,                                
            max_=500000,            
            interval=50000,                              
            axislabel_opts=opts.LabelOpts(font_size=14),                          
            axisline_opts=opts.AxisLineOpts(                                    
                linestyle_opts=opts.LineStyleOpts(color="blank")
            ),
        ),
        xaxis_opts=opts.AxisOpts(axislabel_opts=opts.LabelOpts(rotate=-15)),
        title_opts=opts.TitleOpts(title="豆瓣读书前十评分和评价人数",pos_left="center",pos_top="top"),
        legend_opts=opts.LegendOpts(pos_left='40%',pos_bottom='89%'),
        tooltip_opts=opts.TooltipOpts(trigger="axis", axis_pointer_type="cross"),
    )
)
# 折线图设置
line = (
    Line()
    .add_xaxis(x_data)
    .add_yaxis(
        series_name="评分", 
        y_axis=rating,
        symbol='triangle',
        symbol_size=15,
        yaxis_index=1,    
        color="#aa00ff",
        label_opts=opts.LabelOpts(is_show=False, font_size=10,font_weight='bold'),
        linestyle_opts=opts.LineStyleOpts(width=3)  
    )
)
bar.overlap(line).render("豆瓣读书前十评分和评价人数.html")

image

常见的数据可视化工具主要分为三类:底层程序框架;第三方库;软件工具。在这里使用的是第三方库,主要是使用Python的pyecharts进行了制作,如果想了解更多,可以前往pyecharts官网,当然也可以通过其他软件工具实现,如Tableau、PowerBI等。

4.总结

本文通过基本的案例,介绍了数据分析的基本流程,了解的各部分的职责。数据分析和可视化其实不难,主要是开头难,大多数人常常止步于数据采集,常因采集不到自己所需要的数据而懊恼或者放弃,
因此本文给大家介绍了数据获取的基本方法和可用的工具(亮 数 据 官 网),希望对大家有所帮助,能有更多的时间用于分析,得出有价值的信息,利用数据更好的驱动决策。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1700099.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

JavaScript Window对象

一、BOM&#xff08;浏览器对象模型&#xff09; window对象是一个全局对象&#xff0c;也可以说是JavaScript中的顶级对象。 像document、alert()、console.log()这些都是window的属性&#xff0c;基本BOM的属性和方法都是window的。 所有通过var定义在全局作用域中的变量、…

WindowsLinux环境下Spring Boot启动和关闭脚本

GitHub&#xff1a;SpringBootDemo Gitee&#xff1a;SpringBootDemo 微信公众号&#xff1a; 如果我们Spring Boot服务直接部署在Windows或Linux环境下&#xff0c;如果我们启动或关闭服务&#xff0c;需要频繁手敲命令&#xff0c;很不方便。 此时&#xff0c;我们可以编…

基于微信小程序的在电影线订票小程序+web管理 uniapp,vue,ssm

基于微信小程序的在电影线订票小程序web管理 uniapp&#xff0c;vue&#xff0c;ssm 相关技术 javassmuniapp微信开发者工具hbuildervueelementui前后端分离 -mysql

前端开发工程师——webpack

一.环境准备 npm init -y npm i webpack webpack-cli -D 打包命令 npx webpack ./src/main.js --modedevelopment //development开发模式 //production生产模式 npx webpack 直接运行就行 二.加载器loader 在less/stylus/css/sass/images中添加适当的样式 例如&#xff1…

【时间复杂度空间复杂度】(详)

&#x1f320;个人主页 : 赶路人- - &#x1f30c;个人格言 : 要努力成为梧桐&#xff0c;让喜鹊在这里栖息。 要努力成为大海&#xff0c;让百川在这里聚积。 13.with,prep.用&#xff0c;与&#xff0c;随着 [wɪθ] 14.format,n.格式 [ˈfɔrmt] 1.算法效率 算法效率分析分…

SparkStreaming概述

Spark概述 SparkStreaming概述 Spark Streaming 是 Apache Spark 生态系统中的一个组件&#xff0c;用于实时流数据处理。它允许用户通过流式计算引擎处理实时数据流&#xff0c;并以低延迟的方式对数据进行分析、处理和存储。 背景 在大数据领域&#xff0c;传统的批处理系统…

Go语言实现简单分布式系统(笔记)

视频&#xff1a; Go语言编写简单分布式系统&#xff08;完结&#xff09;_哔哩哔哩_bilibili&#xff0c;作者&#xff1a;杨旭&#xff0c;非常感谢&#xff0c;大佬真牛批 参考笔记及代码&#xff1a; Go语言实现简单分布式系统 - N3ptune - 博客园 (cnblogs.com) 整体框…

Nvidia 如何成为 AI 训练的超级强国

周三&#xff0c;英伟达公布了第一季度的财务业绩&#xff0c;再次超出了分析师的预期。在截至 4 月 28 日的季度中&#xff0c;该公司的利润同比飙升 262%&#xff0c;股价一度创下 1000 美元以上的新高。 目前&#xff0c;英伟达的市值超过 2.3 万亿美元&#xff0c;是全球第…

React自定义Componment和State深层次理解-07

本节主要从底层原理上分析下React开发相关的内容和注意事项&#xff0c;本节会围绕使用展开&#xff0c;而非源码讲解。 Componment详解 什么是组件 在 MVVM架构出现之前&#xff0c;组件主要分为两种。 狭义上的组件&#xff0c;又称为 UI 组件&#xff0c;比如 Tabs 组件、…

shell脚本开发基础

shell脚本开发基础 什么是linux内置命令&#xff1f;什么是外置命令 内置命令&#xff1a;在系统启动时就加载入内存&#xff0c;常驻内存&#xff0c;执行效率更高&#xff0c;但是占用资源&#xff0c;cd 外置命令&#xff1a;系统需要从硬盘中读取程序文件&#xff0c;再读…

C语言对一阶指针 二阶指针的本质理解

代码&#xff1a; #include <stdio.h>char a 2; char* p &a; char** d &p;int main(){printf("a -> %d, &a -> %p\n", a, &a);printf("*p -> %d, p -> %p, &p -> %p\n", *p, p, &p);printf(&qu…

数据库(8)——DML数据操作

增添数据 给指定字段添加数据 INSERT INTO 表名 (字段名1&#xff0c;字段名2,...)VALUES(值1,值2...); 没有的添加的字段默认为NULL。 给全部字段添加数据 INSERT INTO 表名 VALUE (值1,值2,....值n); 此时值的顺序对应表中字段的顺序 批量添加数据 INSERT INTO 表名(字段1,…

【docker】仓库harbor的部署

harbor介绍 Harbor 是一个用于存储和管理 Docker 镜像的开源仓库。它提供了一系列的功能&#xff0c;比如用户管理、访问控制、镜像管理、日志审计和安全扫描等。Harbor 可以作为私有仓库来使用&#xff0c;也可以与公有仓库&#xff08;如 Docker Hub&#xff09;集成使用。 …

云启未来——移动云为未来开发助力

目录 前言 移动云-启未来 原生技术支持 资源和生态 智能化融合创新 移动云-安全可控 移动云如何推动未来行业变革&#xff1f; 移动云产品0元上云系列 文章总结 前言 未来的软件开发形式呈现出更加智能化、自动化和可持续化的趋势。开发工具和流程将更加注重提高开发效…

MySQL从入门到高级 --- 10.索引

文章目录 第十章&#xff1a;10.索引10.1 分类10.2 创建索引10.2.1 单列索引 - 普通索引10.2.2 查看索引10.2.3 删除索引10.2.4 单列索引 - 唯一索引10.2.5 单列索引 - 主键索引10.2.6 组合索引 10.3 全文索引10.3.1 概述10.3.2 使用 10.4 空间索引10.4.1 操作 10.5 原理10.5.1…

Java进阶:详解与实战Java Stream API

Java进阶&#xff1a;详解与实战Java Stream API &#x1f31f; Java进阶&#xff1a;详解与实战Java Stream API &#x1f31f;摘要引言一、Java Stream API介绍&#x1f4da;1. 什么是Java Stream API&#xff1f;2. Java Stream API支持的功能3. 使用Java Stream API的优势…

视频播放器-Kodi

一、前言 Kodi 是一款开源免费的多媒体播放软件。Kodi 是由非营利性技术联盟 Kodi 基金会开发的免费开源媒体播放器应用程序。 Kodi是一款免费和开源&#xff08;遵循GPL协议&#xff09;的多媒体播放器和娱乐中心软件&#xff0c;由XBMC基金会开发。Kodi的主要功能是管理和播…

mac brew 命令详解

brew 是 macOS 系统中 Homebrew 的命令行工具&#xff0c;用于在 macOS 上安装、更新和管理各种软件包。以下是对 brew 命令的详细介绍&#xff0c;按照功能和使用频率进行分点和归纳&#xff1a; 1. 安装和卸载软件包 安装软件包&#xff1a;使用 install 命令&#xff0c;后…

Golang | Leetcode Golang题解之第113题路径总和II

题目&#xff1a; 题解&#xff1a; type pair struct {node *TreeNodeleft int }func pathSum(root *TreeNode, targetSum int) (ans [][]int) {if root nil {return}parent : map[*TreeNode]*TreeNode{}getPath : func(node *TreeNode) (path []int) {for ; node ! nil; no…

五分钟”手撕“异常

目录 一、什么是异常 二、异常的体系和分类 三、异常的处理 1.抛出异常 2.异常的捕获 异常声明throws&#xff1a; try-catch处理 四、finally finally一定会被执行吗&#xff1f; 五、throw和throws区别 六、异常处理的流程 七、自定义异常 一、什么是异常 顾名…