【大数据】Spark弹性分布式数据集RDD详细说明

news2024/11/25 11:29:42

文章目录

    • 整体介绍
      • 一、定义与特性
      • 二、操作与转换
      • 三、存储级别与持久化
      • 四、依赖关系与容错机制
      • 五、优化与性能调优
    • 常见操作
    • 支持的数据格式
      • 1.文本文件 (Text Files)
      • 2. CSV 文件
      • 3. JSON 文件
      • 4. Parquet 文件
      • 5. Sequence Files
      • 6.Hadoop文件读取
        • A. 读取HDFS上的文本文件
        • B. 使用Hadoop的InputFormat读取数据
        • 注意事项
    • 一个完整代码示例
    • RDD、Datasets和DataFrame的对比

整体介绍

弹性分布式数据集RDD(Resilient Distributed Dataset)是Apache Spark中最基本的数据抽象,代表一个不可变、可分区、元素可以并行计算的数据集合。以下是对RDD的详细说明:

一、定义与特性

  1. 定义:RDD是Spark对数据集的抽象,用于存放数据,它表示一个只读的、可分区的、其中元素可进行并行计算的集合,并且是可跨越集群节点进行并行操作的有容错机制的集合。

  2. 特性

    • 基于内存计算:RDD通过将数据加载到内存中,提高了数据处理的效率。相比于传统的磁盘存储,内存(RAM)的读写速度更快,因此RDD适用于需要快速迭代计算的任务。
    • 惰性计算:RDD的转换操作是惰性的,即它们不会立即执行,而是等到真正需要结果时才触发计算。这种机制使得Spark能够优化执行计划,提高性能。
    • 容错性:RDD采用基于血缘的高效容错机制。在RDD的设计中,数据是只读的不可修改,如果需要修改数据,必须从父RDD转换生成新的子RDD,由此在不同的RDD之间建立血缘关系。因此RDD是天生具有高容错机制的特殊集合,当一个RDD失效的时候,只需要通过重新计算上游的父RDD来重新生成丢失的RDD数据,而不需要通过数据冗余的方式实现容错。
    • 不可变性:一旦创建,RDD的内容就不能被修改。这种不可变性有助于实现数据的容错性和并行性。
    • 可分区性:RDD可以将数据集划分为多个分区,每个分区可以独立地进行操作,从而实现并行处理。分区数决定了数据如何被分配到集群中的计算节点,合适的分区数可以提高计算效率和资源利用率。

二、操作与转换

RDD操作与转换

  1. 创建RDD

    • 可以从已存在的集合(如列表或数组)创建RDD。
    • 可以从外部数据源(如HDFS、本地文件系统、Hive表等)读取数据创建RDD。
    • 可以使用已存在的RDD来创建新的RDD,通过对现有RDD进行转换操作。
  2. RDD转换(Transformations)

    • 转换操作用于从一个RDD生成新的RDD,通常是通过映射、过滤、合并等方式进行数据转换。常见的转换操作包括mapfilterflatMapreduceByKey等。
    • 转换操作是惰性的,不会立即执行计算,而是等到行动操作被触发时才执行。
  3. RDD行动(Actions)

    • 行动操作用于触发实际的计算,将RDD的结果返回到驱动程序或保存到外部存储系统。常见的行动操作包括collectcountsaveAsTextFile等。
    • 只有当行动操作被触发时,Spark才会根据依赖关系图计算RDD的结果。

三、存储级别与持久化

  1. 存储级别:RDD的存储级别决定了数据在内存和磁盘之间的存储方式。常见的存储级别包括MEMORY_ONLY(仅在内存中存储)、MEMORY_AND_DISK(在内存中存储,不够时写入磁盘)、DISK_ONLY(仅在磁盘中存储)等。
  2. 持久化:可以使用cachepersist方法将RDD存储在内存中,以供多次计算使用。持久化可以提高数据处理的效率,减少重复计算的时间。

四、依赖关系与容错机制

  1. 依赖关系:RDD之间的转换操作会创建依赖关系,这些依赖关系决定了数据如何在整个集群中流动。依赖关系分为窄依赖和宽依赖两种。
    • 窄依赖:子RDD的每个分区依赖于父RDD的一个分区。
    • 宽依赖:子RDD的每个分区可能依赖于父RDD的所有分区,这通常需要进行shuffle操作。
  2. 容错机制:RDD的容错机制基于其血缘信息和不可变性。当一个RDD的某个分区的数据计算失败时,Spark可以使用原始数据和转换操作重新计算该分区,从而实现容错。

五、优化与性能调优

  1. 合理使用缓存:通过缓存常用的RDD,可以减少重复计算的时间,提高数据处理的效率。
  2. 选择合适的分区器:根据数据的特征和计算任务的需求,选择合适的分区器可以优化数据的存储和计算过程。
  3. 调整分区数量:根据集群的配置和计算任务的需求,调整RDD的分区数量可以提高计算效率和资源利用率。

综上所述,RDD是Spark中最重要的抽象之一,它为分布式数据处理提供了一个强大而灵活的模型。通过理解和使用RDD的特性、操作、存储级别、依赖关系以及优化方法,可以构建高效的数据处理流程,并充分利用Spark集群的计算资源。

常见操作

以下是RDD(弹性分布式数据集)的操作及其说明的表格形式展示:

RDD操作说明示例
创建操作
sc.parallelize从本地集合创建RDDval rdd = sc.parallelize(1 to 10)
sc.textFile从外部文件创建RDDval rdd = sc.textFile(“hdfs://…”)
转换操作(Transformation)返回一个新的RDD
map对RDD中的每个元素应用一个函数val mappedRdd = rdd.map(x => x * 2)
filter过滤RDD中的元素,返回满足条件的元素val filteredRdd = rdd.filter(_ > 5)
flatMap类似于map,但每个输入元素可以映射到0或多个输出元素val flatMappedRdd = rdd.flatMap(x => 1 to x)
mapPartitions对RDD的每个分区应用一个函数val mapPartitionsRdd = rdd.mapPartitions(iter => iter.map(_ * 2))
mapPartitionsWithIndex对RDD的每个分区及其索引应用一个函数val indexedRdd = rdd.mapPartitionsWithIndex((index, iter) => iter.map(x => (index, x)))
reduceByKey对键值对RDD中相同键的值进行归约val reducedRdd = rdd.reduceByKey(_ + _)
groupByKey对键值对RDD中相同键的值进行分组val groupedRdd = rdd.groupByKey()
sortByKey对键值对RDD的键进行排序val sortedRdd = rdd.sortByKey()
join对两个键值对RDD中相同键的值进行内连接val joinedRdd = rdd1.join(rdd2)
cogroup对两个键值对RDD中相同键的值进行分组,并返回每个键对应的两个值集合val cogroupedRdd = rdd1.cogroup(rdd2)
行动操作(Action)向驱动程序返回结果或写入外部系统
collect将RDD的所有元素收集到驱动程序中val collected = rdd.collect()
count返回RDD中元素的个数val count = rdd.count()
take返回RDD中的前n个元素val taken = rdd.take(5)
saveAsTextFile将RDD的内容保存到文本文件中rdd.saveAsTextFile(“hdfs://…”)
foreach对RDD中的每个元素应用一个函数(通常用于副作用)rdd.foreach(println)

请注意,以上表格仅列出了RDD的一些常见操作,并非全部。RDD的操作非常丰富,可以根据具体需求选择合适的操作来处理数据。同时,RDD的操作具有惰性特性,即转换操作不会立即执行,而是等到行动操作被触发时才执行。这种机制有助于优化计算过程,提高性能。

支持的数据格式

Apache Spark 的 Resilient Distributed Datasets (RDDs) 支持多种数据格式的读取。以下是一些常见的数据格式及其对应的 Java 代码样例:
spark支持的数据格式

1.文本文件 (Text Files)

import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.SparkConf;

public class TextFileRDD {
    public static void main(String[] args) {
        SparkConf conf = new SparkConf().setAppName("TextFileRDD").setMaster("local");
        JavaSparkContext sc = new JavaSparkContext(conf);

        // 读取文本文件
        JavaRDD<String> textFile = sc.textFile("path/to/textfile.txt");

        // 打印前10行
        textFile.take(10).forEach(System.out::println);

        sc.stop();
    }
}

2. CSV 文件

Spark 官方没有直接提供 CSV 文件的读取功能,但你可以使用 spark-csv 库(Spark 2.0 及以前)或者 DataFrameReader(Spark 2.0 及以后)来读取 CSV 文件。

使用 DataFrameReader 读取 CSV 文件:

import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;

public class CSVFileRDD {
    public static void main(String[] args) {
        SparkSession spark = SparkSession.builder()
                .appName("CSVFileRDD")
                .master("local")
                .getOrCreate();

        // 读取CSV文件
        Dataset<Row> csvDF = spark.read().option("header", "true").csv("path/to/csvfile.csv");

        // 显示内容
        csvDF.show();

        spark.stop();
    }
}

3. JSON 文件

import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;

public class JSONFileRDD {
    public static void main(String[] args) {
        SparkSession spark = SparkSession.builder()
                .appName("JSONFileRDD")
                .master("local")
                .getOrCreate();

        // 读取JSON文件
        Dataset<Row> jsonDF = spark.read().json("path/to/jsonfile.json");

        // 显示内容
        jsonDF.show();

        spark.stop();
    }
}

4. Parquet 文件

import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;

public class ParquetFileRDD {
    public static void main(String[] args) {
        SparkSession spark = SparkSession.builder()
                .appName("ParquetFileRDD")
                .master("local")
                .getOrCreate();

        // 读取Parquet文件
        Dataset<Row> parquetDF = spark.read().parquet("path/to/parquetfile.parquet");

        // 显示内容
        parquetDF.show();

        spark.stop();
    }
}

5. Sequence Files

import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.SparkConf;
import scala.Tuple2;

public class SequenceFileRDD {
    public static void main(String[] args) {
        SparkConf conf = new SparkConf().setAppName("SequenceFileRDD").setMaster("local");
        JavaSparkContext sc = new JavaSparkContext(conf);

        // 读取SequenceFile
        JavaPairRDD<IntWritable, Text> sequenceFile = sc.sequenceFile("path/to/sequencefile", IntWritable.class, Text.class);

        // 打印键值对
        sequenceFile.collect().forEach(tuple -> System.out.println(tuple._1() + " : " + tuple._2()));

        sc.stop();
    }
}

6.Hadoop文件读取

在Apache Spark中读取Hadoop数据通常涉及访问存储在Hadoop分布式文件系统(HDFS)上的数据,或者通过Hadoop的输入格式(InputFormat)读取数据。以下是一些使用Spark读取Hadoop数据的Java代码示例:

A. 读取HDFS上的文本文件

这是最简单的情况,因为Spark可以直接通过textFile方法读取HDFS上的文本文件,就像读取本地文件系统上的文件一样。

import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.SparkConf;

public class HDFSTextFileReader {
    public static void main(String[] args) {
        SparkConf conf = new SparkConf().setAppName("HDFSTextFileReader").setMaster("local");
        JavaSparkContext sc = new JavaSparkContext(conf);

        // 假设HDFS上的文件路径为hdfs://namenode:port/path/to/textfile.txt
        String hdfsFilePath = "hdfs://namenode:port/path/to/textfile.txt";
        JavaRDD<String> textFile = sc.textFile(hdfsFilePath);

        // 处理数据,例如打印前10行
        textFile.take(10).forEach(System.out::println);

        sc.stop();
    }
}
B. 使用Hadoop的InputFormat读取数据

对于存储在Hadoop中的非文本数据,或者需要更复杂的数据解析,你可以使用Hadoop的InputFormat。这通常涉及创建一个Hadoop配置对象,并设置必要的属性,然后使用Spark的newAPIHadoopFilenewAPIHadoopRDD方法。

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.SparkConf;
import scala.Tuple2;

public class HadoopInputFormatReader {
    public static void main(String[] args) throws Exception {
        SparkConf conf = new SparkConf().setAppName("HadoopInputFormatReader").setMaster("local");
        JavaSparkContext sc = new JavaSparkContext(conf);

        // 创建Hadoop配置对象
        Configuration hadoopConf = new Configuration();
        Job job = Job.getInstance(hadoopConf, "Read from Hadoop InputFormat");
        job.setJarByClass(HadoopInputFormatReader.class);

        // 设置输入路径
        FileInputFormat.addInputPath(job, new Path("hdfs://namenode:port/path/to/hadoopfile"));

        // 使用newAPIHadoopRDD读取数据
        JavaPairRDD<LongWritable, Text> hadoopRDD = sc.newAPIHadoopRDD(
                hadoopConf,
                job.getInputFormatClass(),
                LongWritable.class,
                Text.class
        );

        // 处理数据,例如打印键值对
        hadoopRDD.collect().forEach(tuple -> System.out.println(tuple._1() + " : " + tuple._2().toString()));

        sc.stop();
    }
}

在这个例子中,我们假设Hadoop文件是使用LongWritable作为键(通常是偏移量)和Text作为值(行内容)存储的。你需要根据你的Hadoop文件格式调整键和值的类型。

注意事项
  1. Hadoop配置:确保你的Hadoop配置(如core-site.xmlhdfs-site.xml)在Spark的classpath中,或者通过编程方式设置必要的配置属性。
  2. 依赖项:在你的项目中包含Hadoop和Spark的依赖项。
  3. HDFS访问:确保Spark能够访问HDFS。这通常意味着Spark集群的节点需要配置为能够访问HDFS的namenode和datanode。
  4. 性能考虑:对于大规模数据集,避免使用collect()方法将数据从集群拉取到驱动程序。相反,使用转换和行动操作在集群上处理数据。
    这些示例展示了如何使用 Java 代码在 Spark 中读取不同类型的文件。根据具体需求,你可能需要调整路径、选项和其他参数。

一个完整代码示例

以下是一个使用Java编写的基本RDD(弹性分布式数据集)代码示例,该示例展示了如何在Apache Spark中创建RDD、执行转换操作以及行动操作。

首先,请确保您已经设置好Spark环境,并导入了必要的Spark库。

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import java.util.Arrays;
import java.util.List;

public class RDDExample {
    public static void main(String[] args) {
        // 配置Spark
        SparkConf conf = new SparkConf().setAppName("RDD Example").setMaster("local");
        JavaSparkContext sc = new JavaSparkContext(conf);

        // 从本地集合创建RDD
        List<Integer> data = Arrays.asList(1, 2, 3, 4, 5);
        JavaRDD<Integer> rdd = sc.parallelize(data);

        // 转换操作:将每个元素乘以2
        JavaRDD<Integer> transformedRDD = rdd.map(x -> x * 2);

        // 行动操作:收集RDD中的所有元素并打印
        List<Integer> collectedData = transformedRDD.collect();
        for (Integer num : collectedData) {
            System.out.println(num);
        }

        // 关闭Spark上下文
        sc.close();
    }
}

在这个示例中,我们:

  1. 配置了Spark环境,并创建了一个JavaSparkContext对象,它是与Spark集群交互的主要入口点。
  2. 使用sc.parallelize方法从本地集合创建了一个RDD。
  3. 对RDD执行了一个转换操作,使用map函数将RDD中的每个元素乘以2。
  4. 使用collect行动操作将转换后的RDD收集到驱动程序中,并打印出结果。
  5. 最后,关闭了Spark上下文以释放资源。

请注意,setMaster("local")配置意味着Spark将在本地模式下运行,仅使用一个线程。如果您想在集群上运行此代码,请将setMaster的值更改为集群管理器(如YARN、Mesos或Spark Standalone)的URL。

此外,由于collect操作会将数据从集群节点收集到驱动程序中,因此在处理大量数据时可能会导致内存溢出。在实际应用中,应谨慎使用此类行动操作,并考虑使用其他行动操作(如saveAsTextFile)将结果写入外部存储系统。

RDD、Datasets和DataFrame的对比

以下是RDD、Datasets和DataFrame的对比表格,展示了它们之间的主要区别和特性:

特性/组件RDDDataFrameDatasets
基础弹性分布式数据集,Spark最基础的数据结构分布式数据集合,带有Schema元信息的二维表格结构化API的基本类型,基于DataFrame的扩展
数据格式可处理结构化或非结构化数据仅使用结构化和半结构化数据可处理结构化或非结构化数据
Schema信息需要手动定义可以根据数据自动发现可以自动发现文件的Schema信息
类型安全编译时类型安全性较弱,主要在运行时检测属性错误提供编译时类型安全性提供编译时类型安全性,且支持强类型、面向对象编程的接口
序列化使用Java序列化,开销较大使用off-heap内存减少开销,动态生成字节码使用Spark内部的Tungsten二进制格式进行序列化,无需垃圾回收
优化无内置优化引擎,不能使用Spark高级优化器使用Catalyst优化器进行查询优化使用优化器优化执行计划
API支持提供Java、Scala、Python和R语言的API提供Java、Scala、Python和R语言的APIScala和Java支持较完善,Python和R语言的API在开发中
操作便捷性底层操作,需要手动管理Schema和分区高级抽象,易于使用,支持SQL操作兼具DataFrame的便捷性和RDD的功能性
适用场景需要对数据集进行底层转换和操作时需要高级抽象和便捷操作时,如探索性分析和汇总统计需要类型安全和自定义结构时,如处理复杂数据类型和转换

这个表格概括了RDD、DataFrame和Datasets在Spark中的主要特性和区别。RDD提供了最底层的数据抽象,适用于需要细粒度控制和自定义操作的场景。DataFrame则提供了更高层次的抽象,易于使用且支持SQL操作,适用于数据分析和探索性场景。Datasets则结合了RDD和DataFrame的优点,提供了类型安全和面向对象编程的接口,适用于需要处理复杂数据类型和转换的场景。在选择使用哪个组件时,需要根据具体的应用场景和需求来决定。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2202313.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

深度学习基础—人脸识别

在人脸识别领域&#xff0c;常常有两个词容易被混淆&#xff0c;人脸验证和人脸识别。人脸验证是输入一个人的照片和名字&#xff08;或者ID&#xff09;&#xff0c;验证这个人是否和名字相符。人脸识别是输入一个人的照片&#xff0c;识别这个人是否是数据库中存在的人。人脸…

VScode中配置可编写C/C++代码

VScode的下载 下载地址&#xff1a;https://code.visualstudio.com/ 安装中文插件 重启后&#xff0c;生效&#xff01;&#xff01;&#xff01; 下载和配置MinGW-w64 https://github.com/niXman/mingw-builds-binaries/releases 这里可以自行选择线程模型WIN32或posix&a…

【Linux报错】“-bash: cd: too many arguments“

问题描述 今天使用 cd 想要调整某个文件目录时&#xff0c;发现以下报错 原因分析&#xff1a; arguments 是参数的意思&#xff0c;该报错提示参数过多&#xff0c;意味着系统识别到了多余参数 本质原因&#xff1a;你的命令中输入了多余的 ”空格“ &#xff0c;检查一…

手写Spring第三篇番外,反射的基本使用

上一篇发出去之后&#xff0c;我有一个朋友说 beanDefinition.getBeanClass().newInstance() 这句代码太突兀了&#xff0c;就像是在甜甜的睡梦中&#xff0c;突然脚踩悬崖惊醒。 像我这种插朋友两刀的人必须安排了&#xff0c;不止安排 newInstance 还把反射基本用法也给安排了…

耳夹式耳机哪个品牌音质好?耳夹式蓝牙耳机排行榜!

当下&#xff0c;耳夹式蓝牙耳机愈发受到大众的青睐。不管是在上下班的途中、进行运动锻炼之时&#xff0c;还是休闲居家的日子里&#xff0c;这种耳机都能为使用者带来极为便捷的体验。不过&#xff0c;市面上的耳夹式蓝牙耳机品牌繁杂多样&#xff0c;产品品质也是良莠不齐&a…

【win10】VMware Workstation 16安装win10专业版及安装VMware Tools操作说明

参考链接 VMware虚拟机安装win10系统教程&#xff08;巨细&#xff09;_vmware安装win10-CSDN博客https://blog.csdn.net/gdidea/article/details/129523700 win10专业版安装说明 下载win10安装包 百度网盘 链接: https://pan.baidu.com/s/1kf4ORdXYgcqwAz2j86LSZw?pwdk4…

MySQL(八)——索引

文章目录 索引索引的数据结构索引的具体结构页的概念独立表空间文件页的结构页文件头和页文件尾页主体页目录数据页头 B树在索引中的应用索引分类按数据结构分按字段特性分按物理存储分按字段个数分 索引语法创建索引查看索引删除索引 索引优化SQL执行频率慢查询日志profile详情…

【机器学习导引】ch3-线性模型-2

优化理论&#xff1a;梯度下降&#xff08;Gradient Descent&#xff09; 梯度下降法的基本思路 梯度下降法是一种优化算法&#xff0c;目的是找到函数 f ( x ) f(x) f(x) 的最小值。图中提到“如果能找到一个序列 x 0 , x 1 , x 2 , … x_0, x_1, x_2, \dots x0​,x1​,x2​…

有手就会!低代码让你告别繁琐开发流程

近几年&#xff0c;随着低代码与无代码相关话题的火热&#xff0c;逻辑编排作为其重要构成部分也备受关注&#xff0c;集团内外不乏优秀的实践。之前在做技术调研时发现了不少业内逻辑编排相关的方案&#xff0c;陆续整理记录下来。今天先为大家带来低代码开发领域的 JNPF。 1.…

如何有效恢复受污染除砷树脂的功能?

在半导体制造领域&#xff0c;砷是一种常见的杂质元素。然而&#xff0c;砷的存在不仅会严重影响芯片的性能和可靠性&#xff0c;还会对生产环境和人体健康构成威胁。通过使用高效的除砷树脂&#xff0c;可以有效地去除水中的砷元素。 然而&#xff0c;一旦除砷树脂受到污染&am…

一个月学会Java 第10天 详讲static和面向对象——继承与Java世上最厉害的IDE——IDEA

Day10 详讲static和面向对象——继承与Java世上最厉害的IDE——IDEA 今天的篇幅会比较长&#xff0c;因为牵扯到不少的内容还有面向对象的内容 第一章 static 首先我们先来填一下坑&#xff0c;之前挖的&#xff0c;说后面要详细讲解static这个关键字的作用&#xff0c;那在这之…

二叉树的构建与遍历

在介绍二叉树的篇章中&#xff0c;我们用方法简单创建了一个二叉树&#xff0c;如下代码&#xff1a; public treeNode creattree(){treeNode Anew treeNode(A);treeNode Bnew treeNode(B);treeNode Cnew treeNode(C);treeNode Dnew treeNode(D);treeNode Enew treeNode(E);tr…

新大话西游图文架设教程

开始架设 1. 架设条件 新大话西游架设需要准备&#xff1a; linux 系统服务器&#xff0c;建议 CentOs 7.6或以上版本游戏源码&#xff0c;。 2. 安装宝塔面板 宝塔是一个服务器运维管理软件&#xff0c;安装命令&#xff1a; yum install -y wget && wget -O in…

zabbix7.0配置中文界面

Zabbix 是一个广泛使用的开源监控解决方案&#xff0c;支持多种语言界面。本文将详细介绍如何配置 Zabbix 以使用中文界面&#xff0c;从而提高用户体验和可读性。 1. 环境准备 在开始配置之前&#xff0c;请确保你已经安装并运行了 Zabbix 服务器、前端和数据库。如果你还没有…

成品婚恋交友相亲源码打包APP小程序H5公众号可打包小程序APP公众号H5源码交付支持二开

聊天交友系统开发专业语聊交友app开发搭建同城交友源码开发婚恋交友系统相亲app小程序H5婚恋交友小程序的定制开发与行业新机遇婚恋交友app红娘连线系统app小程序开发一站式开发系统源码&#xff1a;婚恋交友H5与小程序开发详解 电商运营技术服务源码系统php相亲交友平台APP婚恋…

前端优化之路:git commit 校验拦截

但是想要做到高效落地执行&#xff0c;就需要做些别的功课&#xff0c;先展示下成果图 需要了解git hooks&#xff0c;它是git的钩子&#xff0c;就像vue拥有自己的钩子一样。 官方文档&#xff1a;https://git-scm.com/docs/githooks 项目安装 husky&#xff0c;建议稳定版本…

Linux进程间通信(个人笔记)

Linux进程通信 1.进程通信介绍1.1进程间通信目的1.2进程间通信发展1.3进程间通信的具体分类 2.管道2.1匿名管道2.1.1代码实例2.1.2 fork共享管道原理2.1.3 管道的读写规则与特点2.1.4 进程池 2.2 命名管道2.2.1 命名管道的创建2.2.2匿名管道与命名管道的区别2.2.3代码实例 3.Sy…

Spring Boot洗衣店订单系统:数据驱动的决策

3系统分析 3.1可行性分析 通过对本洗衣店订单管理系统实行的目的初步调查和分析&#xff0c;提出可行性方案并对其一一进行论证。我们在这里主要从技术可行性、经济可行性、操作可行性等方面进行分析。 3.1.1技术可行性 本洗衣店订单管理系统采用JAVA作为开发语言&#xff0c;S…

如何安装Llama3.1 —— 附一键安装包!

一键安装包文末领取&#xff01; 下载地址 软件&#xff1a;Llama版本&#xff1a;3.1语言&#xff1a;简体中文大小&#xff1a;645 MB安装环境&#xff1a;Win10及以上版本(64bit) 软件简介 ‌‌LLaMA模型是Meta研发的大语言模型‌&#xff0c;旨在帮助研究人员推进他们…

vue-jsonp的使用和腾讯地图当前经纬度和位置详情的获取

1.下载&#xff1a; npm install –save vue-jsonp2.main.js中引入&#xff1a; //腾讯逆地址解析会用到jsonp import {VueJsonp} from vue-jsonp; Vue.use(VueJsonp);3.腾讯地图中使用 uniapp中获取*经纬度*和通过经纬度获取当前**位置详情** //获取当前经纬度 getLocation…