pyspark从0开始的入门教程

news2024/11/25 6:32:51

Apache Spark 简介

Apache Spark 是一种分布式处理系统,用于在大型数据集上执行大数据和机器学习任务。

作为数据科学爱好者,您可能熟悉在本地设备上存储文件并使用 R 和 Python 等语言进行处理。但是,本地工作站有其局限性,无法处理非常大的数据集。

这就是像Apache Spark这样的分布式处理系统的用武之地。分布式处理是使用多个处理器来运行应用程序的设置。无需尝试在一台计算机上处理大型数据集,而是可以在相互通信的多个设备之间分配任务。

借助 Apache Spark,用户可以对 PB 级数据运行查询和机器学习工作流,这在本地设备上是无法做到的。

这个框架甚至比以前的数据处理引擎(如Hadoop)更快,并且在过去八年中越来越受欢迎。IBM、亚马逊和雅虎等公司正在使用 Apache Spark 作为他们的计算框架。

如果您想成为一名数据科学家,在大规模数据集上分析数据和训练机器学习模型的能力是一项宝贵的技能。拥有使用 Apache Spark 等大数据框架的专业知识将使您在该领域的其他人中脱颖而出。

什么是 PySpark

PySpark 是 Python 中 Apache Spark 的接口。使用 PySpark,您可以编写类似 Python 和类似 SQL 的命令,以在分布式处理环境中操作和分析数据。这是一个初学者程序,将引导您使用 PySpark 操作数据、构建机器学习管道和调整模型。

PySpark是做什么用的?

大多数数据科学家和分析师都熟悉 Python,并使用它来实现机器学习工作流。PySpark允许他们在大规模分布式数据集上使用熟悉的语言。

为什么选择 PySpark

收集TB级数据的公司将拥有像Apache Spark这样的大数据框架。要使用这些大规模数据集,仅了解 Python 和 R 框架是不够的。

你需要学习一个框架,允许你在分布式处理系统之上操作数据集,因为大多数数据驱动的组织都会要求你这样做。PySpark 是一个很好的入门点,因为它的语法很简单,如果您已经熟悉 Python,则可以轻松上手。

公司选择使用像PySpark这样的框架的原因是因为它可以快速处理大数据。它比 PandasDask 等库更快,并且可以处理比这些框架更多的数据。例如,如果您要处理超过 PB 的数据,PandasDask 将失败,但 PySpark 将能够轻松处理它。

虽然也可以在像Hadoop这样的分布式系统上编写Python代码,但许多组织选择使用Spark并使用PySpark API,因为它速度更快,可以处理实时数据。使用 PySpark,您可以编写代码从不断更新的源中收集数据,而数据只能使用 Hadoop 以批处理模式进行。

Apache Flink 是一个分布式处理系统,它有一个叫做 PyFlinkPython API,在性能方面实际上比 Spark 快。但是,Apache Spark 已经存在了更长的时间,并且拥有更好的社区支持,这意味着它更可靠。

此外,PySpark 提供容错能力,这意味着它能够在故障发生后恢复损失。该框架还具有内存计算功能,并存储在随机存取存储器 (RAM) 中。它可以在未安装硬盘驱动器或 SSD 的计算机上运行。

如何安装 PySpark

先决条件:

在安装 Apache Spark 和 PySpark 之前,您需要在设备上设置以下软件:

python

如果您尚未安装 Python,请按照我们的 Python 开发人员设置指南进行设置,然后再继续下一步。

java

接下来,如果您使用的是 Windows,请按照本教程在您的计算机上安装 Java。这是MacOs的安装指南,这是Linux的安装指南。

Jupyter Notebook

Jupyter Notebook 是一个 Web 应用程序,可用于编写代码和显示公式、可视化效果和文本。它是数据科学家最常用的编程编辑器之一。在本教程中,我们将使用 Jupyter Notebook编写所有 PySpark 代码,因此请确保已安装它。

您可以按照我们的教程在本地设备上启动并运行 Jupyter。

数据

在本教程中,我们将使用 Datacamp 的电子商务数据集进行所有分析,因此请务必下载它。我们已将文件重命名为“datacamp_ecommerce.csv”并将其保存到父目录,您可以执行相同的操作,以便更轻松地编写代码。

安装指南

设置好所有先决条件后,可以继续安装Apache SparkPySpark

安装 Apache Spark

要安装 Apache Spark,请导航到下载页面并下载页面上显示的 .tgz 文件:

Apache Spark
然后,如果您使用的是 Windows,请在 C 目录中创建一个名为“spark”的文件夹。如果您使用的是 Linux 或 Mac,则可以将其粘贴到主目录中的新文件夹中。

接下来,提取您刚刚下载的文件并将其内容粘贴到此“spark”文件夹中。文件夹路径应如下所示:
在这里插入图片描述
现在,您需要设置环境变量。有两种方法可以做到这一点:

方法 1:使用 Powershell 更改环境变量

如果使用的是 Windows 计算机,则更改环境变量的第一种方法是使用 Powershell:

步骤1:单击“开始”->Windows Powershell ->“以管理员身份运行”

步骤 2:在 Windows Powershell 中键入以下行以设置SPARK_HOME:

setx SPARK_HOME "C:\spark\spark-3.3.0-bin-hadoop3" # 更改为你的安装路径

第 3 步:接下来,将 Spark bin 目录设置为路径变量:

setx PATH "C:\spark\spark-3.3.0-bin-hadoop3\bin"

方法 2:手动更改环境变量

步骤1:导航到“开始”->“系统”-“>设置”->“高级设置”

步骤2:单击环境变量

在这里插入图片描述

步骤3:在“环境变量”选项卡中,单击“新建”。

步骤4:在变量名称和变量值中输入以下值。请注意,安装的版本可能与下面显示的版本不同,因此请将路径复制并粘贴到 Spark 目录。

变量值

步骤5:接下来,在“环境变量”选项卡中,单击“path”,然后选择“编辑”。

第 6 步:单击“新建”并粘贴到 Spark bin 目录的路径中。下面是 bin 目录的示例:

C:\spark\spark-3.3.0-bin-hadoop3\bin

如果您使用 Linux 设备,以下是设置环境变量的指南,这是适用于 MacOS 的指南。

安装 PySpark

现在,您已成功安装 Apache Spark 和所有其他必要的先决条件,请在 Jupyter Notebook 中打开 Python 文件,并在第一个单元格中运行以下代码行:

!pip install pyspark

或者,您可以按照此端到端 PySpark 安装指南在您的设备上安装软件。

端到端机器学习PySpark 教程

现在,您已经启动并运行了 PySpark,我们将向您展示如何使用该库执行端到端客户细分项目。

客户细分是公司用来识别和分组表现出相似特征的用户的一种营销技术。例如,如果你只在夏天去星巴克购买冷饮,你可以被细分为“季节性购物者”,并被夏季策划的特别促销活动所吸引。

数据科学家通常构建无监督机器学习算法,例如K-Means 聚类或分层聚类来执行客户细分。这些模型非常擅长识别用户组之间的相似模式,而这些模式往往不被人眼注意到。

在本教程中,我们将使用 K-Means 聚类对之前下载的电子商务数据集进行客户细分。

在本教程结束时,你将熟悉以下概念:

  • 使用 PySpark 读取 csv 文件
  • 使用 PySpark 进行探索性数据分析
  • 对数据进行分组和排序
  • 执行算术运算
  • 聚合数据集
  • 使用PySpark 进行数据预处理
  • 使用日期时间值
  • 类型转换
  • 联接两个数据帧
  • rank() 函数
  • PySpark 机器学习
  • 创建特征向量
  • 标准化数据
  • 构建 K-Means 聚类分析模型
  • 解释模型

步骤 1:创建 SparkSession

SparkSessionSpark 中所有功能的入口点,如果要在 PySpark 中生成数据帧,则需要 SparkSession。运行以下代码行以初始化 SparkSession

spark = SparkSession.builder.appName("Datacamp Pyspark Tutorial").config("spark.memory.offHeap.enabled","true").config("spark.memory.offHeap.size","10g").getOrCreate()

使用上面的代码,我们构建了一个 spark 会话并为应用程序设置了一个名称。然后,将数据缓存在堆外内存中,以避免将其直接存储在磁盘上,并手动指定内存量。

步骤 2:创建 DataFrame

我们现在可以读取刚刚下载的数据集:

df = spark.read.csv('datacamp_ecommerce.csv',header=True,escape="\"")

请注意,我们定义了一个转义字符,以避免在解析时在 .csv 文件中使用逗号。

让我们使用 show() 函数看一下 dataframe 的前几行数据:

df.show(5,0)

在这里插入图片描述
数据由 8 个变量组成:

InvoiceNo:每个客户发票的唯一标识符。
StockCode:库存中每件商品的唯一标识符。
Description:客户购买的商品。
Quantity:客户在单张发票中购买的每件商品的编号。
InvoiceDate:购买日期。
UnitPrice:每件商品一个单位的价格。
CustomerID:分配给每个用户的唯一标识符。
Country:购买地的国家/地区

第 3 步:探索性数据分析

现在我们已经看到了此数据集中存在的变量,让我们进行一些探索性数据分析以进一步了解这些数据点:

  1. 让我们先计算数据帧中的行数:
df.count()  # Answer: 2,500
  1. 数据帧中有多少个唯一客户?
df.select('CustomerID').distinct().count() # Answer: 95
  1. 大多数购买来自哪个国家?
    要查找大多数购买的国家/地区,我们需要在 PySpark 中使用 groupBy() 子句:
from pyspark.sql.functions import *
from pyspark.sql.types import *
df.groupBy('Country').agg(countDistinct('CustomerID').alias('country_count')).show()

运行上述代码后,将呈现下表:
在这里插入图片描述
平台上几乎所有的购买都是从英国购买的,只有少数是从德国、澳大利亚和法国等国家购买的。

  1. 请注意,上表中的数据不是按购买顺序显示的。为了对这个表进行排序,我们可以包括 orderBy() 子句:
df.groupBy('Country').agg(countDistinct('CustomerID').alias('country_count')).orderBy(desc('country_count')).show()

显示的输出现在按降序排序:
在这里插入图片描述

  1. 客户最近一次在电子商务平台上购买是什么时候?
    要查找在平台上进行的最新购买时间,我们需要将InvoiceDate列转换为时间戳格式,并使用 Pyspark 中的 max() 函数:
spark.sql("set spark.sql.legacy.timeParserPolicy=LEGACY")
df = df.withColumn('date',to_timestamp("InvoiceDate", 'yy/MM/dd HH:mm'))
df.select(max("date")).show()

运行上述代码后,应会看到下表显示:
在这里插入图片描述

  1. 客户最早在电商平台上购买是什么时候?
    与我们上面所做的类似,min() 函数可用于查找最早的购买日期和时间:
df.select(min("date")).show()

在这里插入图片描述
请注意,最近和最早的购买是在同一天进行的,相隔仅几个小时。这意味着我们下载的数据集仅包含一天内购买的信息。

第 4 步:数据预处理

现在我们已经分析了数据集并更好地了解了每个数据点,我们需要准备数据以输入机器学习算法。

让我们再次看一下数据帧的前几行数据,以了解如何进行预处理:

df.show(5,0)

在这里插入图片描述
从上面的数据集中,我们需要根据每个用户的购买行为创建多个客户细分。

此数据集中的变量采用的格式不容易引入客户细分模型。这些功能单独并不能告诉我们太多关于客户购买行为的信息。

因此,我们将使用现有变量来推导出三个新的信息特征——最近购买(Recency)、购买频率(Frequency)和货币价值 (RFM)。

RFM通常用于营销中,根据客户的价值来评估客户的价值:

最近购买:每个客户最近购买过什么?
购买频率:他们多久买一次东西?
货币价值:他们在购物时平均花多少钱?
现在,我们将对数据帧进行预处理以创建上述变量。

最近购买

首先,让我们计算新近度的值 - 在平台上进行购买的最新日期和时间。这可以通过两个步骤实现:

i) 为每个客户分配一个新近度分数
我们将从最早的日期中减去数据框中的每个日期。这将告诉我们最近在数据帧中看到客户的时间。值 0 表示最低新近度,因为它将分配给在最早日期看到进行购买的人。

df = df.withColumn("from_date", lit("12/1/10 08:26"))
df = df.withColumn('from_date',to_timestamp("from_date", 'yy/MM/dd HH:mm'))

df2=df.withColumn('from_date',to_timestamp(col('from_date'))).withColumn('recency',col("date").cast("long") - col('from_date').cast("long"))

ii) 选择最近购买的产品
一个客户可以在不同的时间进行多次购买。我们只需要选择他们最后一次购买产品的时间,因为这表示最近一次购买的时间:

df2 = df2.join(df2.groupBy('CustomerID').agg(max('recency').alias('recency')),on='recency',how='leftsemi')

让我们看一下新数据帧的头部。它现在附加了一个名为recency的变量:

df2.show(5,0)

在这里插入图片描述

查看 PySpark 数据帧中存在的所有变量的更简单方法是使用其 printSchema() 函数。这相当于 Pandas 中的 info() 函数:

df2.printSchema()

呈现的输出应如下所示:
在这里插入图片描述

购买频率

现在让我们计算一下频率的价值——客户在平台上购买东西的频率。为此,我们只需要按每个客户 ID 进行分组,并计算他们购买的商品数量:

df_freq = df2.groupBy('CustomerID').agg(count('InvoiceDate').alias('frequency'))

看看我们刚刚创建的这个新数据帧的前几行:

df_freq.show(5,0)

在这里插入图片描述

在数据帧中,每个客户都会追加一个频率值。这个新的数据帧只有两列,我们需要将它与前一列连接起来:

df3 = df2.join(df_freq,on='CustomerID',how='inner')

让我们打印此数据帧的架构:

df3.printSchema()

在这里插入图片描述

货币价值

最后,让我们计算货币价值 - 每个客户在数据帧中花费的总金额。实现此目的有两个步骤:

i) 查找每次购买的总花费金额:
对于单次购买,每个customerID都带有名为QuantityUnitPrice的变量:

在这里插入图片描述
要获得每个客户在一次购买中花费的总金额,我们需要将Quantity乘以UnitPrice

m_val = df3.withColumn('TotalAmount',col("Quantity") * col("UnitPrice"))

ii) 查找每个客户的总消费金额:
要找到每个客户总体花费的总金额,我们只需要按 CustomerID 列分组并汇总花费的金额:

m_val = m_val.groupBy('CustomerID').agg(sum('TotalAmount').alias('monetary_value'))

将此数据帧与所有其他变量合并:

finaldf = m_val.join(df3,on='CustomerID',how='inner')

现在,我们已经创建了构建模型所需的所有变量,请运行以下代码行以仅选择所需的列并从数据帧中删除重复的行:

finaldf = finaldf.select(['recency','frequency','monetary_value','CustomerID']).distinct()

查看最终数据帧,以确保预处理已准确完成:

在这里插入图片描述

标准化

在构建客户细分模型之前,让我们对数据帧进行标准化,以确保所有变量的规模都差不多:

from pyspark.ml.feature import VectorAssembler
from pyspark.ml.feature import StandardScaler

assemble=VectorAssembler(inputCols=[
    'recency','frequency','monetary_value'
], outputCol='features')

assembled_data=assemble.transform(finaldf)

scale=StandardScaler(inputCol='features',outputCol='standardized')
data_scale=scale.fit(assembled_data)
data_scale_output=data_scale.transform(assembled_data)

运行以下代码行,查看标准化特征向量的样子:

data_scale_output.select('standardized').show(2,truncate=False)

在这里插入图片描述
这些是将馈送到聚类分析算法中的缩放特征。

步骤 5:构建机器学习模型

现在我们已经完成了所有的数据分析和准备工作,让我们构建K-Means聚类模型。
该算法将使用PySpark的机器学习 API 创建。
i) 查找要使用的集群数量
在构建 K-Means 聚类模型时,我们首先需要确定我们希望算法返回的聚类或组的数量。例如,如果我们决定三个集群,那么我们将有三个客户群。
用于决定在 K-Means 中使用多少个聚类的最流行的技术称为“肘部方法”。
只需对各种聚类运行 K-Means 算法并可视化每个聚类的模型结果即可。该图将有一个看起来像肘部的拐点,我们此时只需选择聚类的数量。

让我们运行以下代码行来构建一个从 2 到 10 个聚类的K-Means聚类算法:

from pyspark.ml.clustering import KMeans
from pyspark.ml.evaluation import ClusteringEvaluator
import numpy as np

cost = np.zeros(10)

evaluator = ClusteringEvaluator(predictionCol='prediction', featuresCol='standardized',metricName='silhouette', distanceMeasure='squaredEuclidean')

for i in range(2,10):
    KMeans_algo=KMeans(featuresCol='standardized', k=i)
    KMeans_fit=KMeans_algo.fit(data_scale_output)
    output=KMeans_fit.transform(data_scale_output)
    cost[i] = KMeans_fit.summary.trainingCost

通过上述代码,我们成功地构建并评估了具有 2 到 10 个聚类的 K-Means 聚类模型。结果已放置在一个数组中,现在可以在折线图中可视化:

import pandas as pd
import pylab as pl
df_cost = pd.DataFrame(cost[2:])
df_cost.columns = ["cost"]
new_col = range(2,10)
df_cost.insert(0, 'cluster', new_col)
pl.plot(df_cost.cluster, df_cost.cost)
pl.xlabel('Number of Clusters')
pl.ylabel('Score')
pl.title('Elbow Curve')
pl.show()

上面的代码将呈现以下图表:

在这里插入图片描述
ii) 构建 K-Means 聚类模型
从上图中,我们可以看到有一个拐点,看起来像四点处的肘部。因此,我们将继续构建具有四个聚类的 K-Means 算法:

KMeans_algo=KMeans(featuresCol='standardized', k=4)
KMeans_fit=KMeans_algo.fit(data_scale_output)

iii) 做出预测
让我们使用我们创建的模型将集群分配给数据集中的每个客户:

preds=KMeans_fit.transform(data_scale_output)

preds.show(5,0)

请注意,此数据帧中有一个“预测”列,它告诉我们每个 CustomerID 属于哪个集群:
在这里插入图片描述

步骤 6:聚类分析

整个教程的最后一步是分析我们刚刚构建的客户群。

运行以下代码行以可视化数据帧中每个 customerID 的新近度、频率和货币值:

import matplotlib.pyplot as plt
import seaborn as sns

df_viz = preds.select('recency','frequency','monetary_value','prediction')
df_viz = df_viz.toPandas()
avg_df = df_viz.groupby(['prediction'], as_index=False).mean()

list1 = ['recency','frequency','monetary_value']

for i in list1:
    sns.barplot(x='prediction',y=str(i),data=avg_df)
    plt.show()

上面的代码将呈现以下图:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
以下是客户在每个集群中显示的特征的概述:
类别0: 此细分市场中的客户显示新近度、频率和货币价值较低。他们很少在平台上购物,并且是低潜在客户,他们可能会停止与电子商务公司开展业务。
类别1: 此集群中的用户表现出较高的新近度,但尚未看到在平台上花费太多。他们也不经常访问该网站。这表明他们可能是刚刚开始与该公司开展业务的新客户。
类别2: 该细分市场的客户表现出中等的新近度和频率,并在平台上花费大量资金。这表明他们倾向于购买高价值物品或进行批量购买。
类别33: 最后一个细分市场包括在平台上表现出高新近度并频繁购买的用户。但是,他们在平台上花费不多,这可能意味着他们倾向于在每次购买中选择更便宜的商品。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1868965.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【oracle】oracle索引分裂

本文为云贝教育 刘峰 原创,请尊重知识产权,转发请注明出处,不接受任何抄袭、演绎和未经注明出处的转载。 一、索引分裂概述 Oracle数据库中的索引分裂是数据库维护和性能管理中的一个重要概念,特别是在处理大量数据插入、更新和…

TikTok达人合作ROI分析:品牌如何评估带货效果

在当今的数字营销时代,TikTok已经成为品牌推广和消费者互动的重要平台。通过与TikTok达人的合作,品牌可以有效地提升其市场影响力和销售额。其中,评估这些合作的投入产出比(ROI)对于品牌来说是至关重要的。本文Nox聚星…

生命在于学习——Python人工智能原理(2.4.2)

四、Python的程序结构与函数 4.4 函数 函数能将代码划分为若干模块,每一个模块可以相对独立的实现某一个功能,函数有两个主要功能,分别是降低编程难度和实现代码复用,函数是一种功能抽象,复用它可以将一个复杂的大问…

JavaScript的学习之图片的切换

目录 一、寻找素材 二、编写简单的静态html页面 代码示例 效果展示 三、JS功能的实现 JS代码 完整代码 效果展示 一、寻找素材 随便去网上找几张图片素材 二、编写简单的静态html页面 代码示例 <!doctype html> <html><head><meta charset"…

【SpringBoot】SpringBoot使用mail实现登录邮箱验证

&#x1f4dd;个人主页&#xff1a;哈__ 期待您的关注 目录 一、前期准备 1 开启邮箱服务 2 SpringBoot导入依赖 3 创建application.yml配置文件 4 创建数据库文件 5 配置redis服务 二、验证邮件发送功能 三、注册功能实现邮箱验证 1 创建User实体类 2 创建UserPa…

基于SpringBoot+vue闲置物品交易网站详细设计和实现(源码+LW+调试文档+讲解等)

&#x1f497;博主介绍&#xff1a;✌全网粉丝10W,CSDN作者、博客专家、全栈领域优质创作者&#xff0c;博客之星、平台优质作者、专注于Java、小程序技术领域和毕业项目实战✌&#x1f497; &#x1f31f;文末获取源码数据库&#x1f31f; 感兴趣的可以先收藏起来&#xff0c;…

ueditor解决无法抓取远程背景图片问题的方法(php)

背景 laravel后台经常有用到编辑器的地方&#xff0c;Dcat使用的一般都是UEditor编辑器。最近项目经理在秀米排版以后&#xff0c;将内容复制到UEditor编辑器保存后发现&#xff0c; 在网站页面中发现图片竟然展示失败。经过浏览器控制台发现&#xff0c;图片的域名还是秀米的…

LICEcap-开源GIF 屏幕录制工具

LICEcap-开源GIF 屏幕录制工具 开源GIF 屏幕录制工具 下载可以访问&#xff1a;https://www.cockos.com/licecap/ 点击Record&#xff0c;开始录制 点击Stop&#xff0c;停止录制 点击Record&#xff0c;进入该页面 display in animation&#xff08;在动画中显示&#xff09; …

【Python机器学习】自动化特征选择——单变量统计

添加更多特征会使所有的模型变得更加复杂&#xff0c;从而增大过拟合的可能性。 在添加新特征或处理一般的高位数据集时&#xff0c;最好将特征的数量减少到只包含最有用的那些特征&#xff0c;并删除其余特征&#xff0c;这样会得到泛化能力更好、更简单的模型。 对于如何判…

秋招倒计时?到底需要准备到什么程度?

秋招倒计时&#xff1f;需要准备到什么程度&#xff1f; 秋招&#xff0c;面向全国的毕业生&#xff0c;招聘的激烈程度可想而知&#xff01;按照往年时间&#xff0c;秋招通常从八月初开始&#xff0c;九月黄金期&#xff0c;十月中后期。距今刚好差不多60天&#xff0c;时间其…

堡垒机软件详细定义以及部分厂商汇总

随着大家对网络安全的重视&#xff0c;越来越多的企业开始采购堡垒机。堡垒机可以分为硬件堡垒机、软件堡垒机、软硬一体机。今天我们就来聊聊堡垒机软件详细定义以及部分厂商汇总。 堡垒机软件详细定义 堡垒机软件&#xff0c;又称为运维安全审计系统&#xff0c;其主要功能在…

算子级血缘和血缘查询管理

数据链路 血缘关系 应用场景&#xff1a;数据资产&#xff0c;数据开发&#xff0c;数据治理&#xff0c;数据安全等等 &#xff08;绿色箭头上面是数据治理&#xff09; 场景&#xff1a; 数据链路的高效盘点与理解 数仓模型的长效优化机制 风险影响的及时全面分析 重复…

Linux通用系统高危漏洞(CVE-2024-1086)修复案例

一、漏洞描述 2024年3月28日&#xff0c; Linux kernel权限提升漏洞&#xff08;CVE-2024-1086&#xff09;的PoC/EXP在互联网上公开&#xff0c;该漏洞的CVSS评分为7.8&#xff0c;目前漏洞细节已经公开披露&#xff0c;美国网络安全与基础设施安全局&#xff08;CISA&#x…

npm install报错Maximum call stack size exceeded

npm 报错 方案&#xff1a; npm cache clean --force npm install

【专业性强】地球科学SCI期刊,中科院2区,学术影响力大

一、期刊名称 GIScience & Remote Sensing 二、期刊简介概况 期刊类型&#xff1a;SCI 学科领域&#xff1a;地球科学 影响因子&#xff1a;6.7 中科院分区&#xff1a;2区 三、期刊征稿范围 GIScience & Remote Sensing是一本完全开放获取的期刊&#xff0c;发表…

Java基础知识整理笔记

目录 1.关于Java概念 1.1 谈谈对Java的理解&#xff1f; 1.2 Java的基础数据类型&#xff1f; 1.3 关于面向对象的设计理解 1.3.1 面向对象的特性有哪些&#xff1f; 1.3.2 重写和重载的区别&#xff1f; 1.3.3 面向对象的设计原则是什么&#xff1f; 1.4 关于变量与方…

约课健身管理系统小程序源码

健身达人的智能助手 一款基于FastAdminThinkPHPUniapp开发的米扬约课健身管理系统&#xff0c;应用于健身房&#xff0c;健身工作室&#xff0c;运动会所&#xff0c;运动场馆&#xff0c;瑜伽馆&#xff0c;拳馆等泛健身行业的场馆中。米扬约课健身致力于为各种健身场馆打造真…

数学类-课程资料推荐-中科大教师首页

http://staff.ustc.edu.cn/~rui/cn/rui-course.html 数学分析讲义&#xff08;第一册&#xff09; (ustc.edu.cn)

C# 入门—基本语法

一、数据类型 C# 语言中内置了一些基本的数据类型&#xff0c;数据类型用来指定程序中变量可以存储的数据的类型&#xff0c;C# 中的数据类型可以大致分为三类&#xff1a; 值类型&#xff08;Value types&#xff09;&#xff1b;引用类型&#xff08;References types&…

Windows 电脑类别怎么区分?不同类别区分总结

电脑类别 Windows 电脑的类别有哪些&#xff1f;我们可以大致分为这三类&#xff1a;CopilotPC、AI PC、普通 PC。下面就来看看这些电脑类别的区别。 普通 PC 普通 PC 就是指那些标准的台式电脑或者笔记本电脑&#xff0c;它们是由中央处理器&#xff08;CPU&#xff09;以及…