使用MindSpore20.0的API快速实现深度学习模型之数据变换

news2024/11/15 21:44:57

文章目录

  • 前言
  • 一. 实验环境
  • 二. 安装ubuntu虚拟机
    • 2. 1.下载ubuntu镜像
    • 2.2 配置虚拟机
    • 2.3 安装操作系统
  • 三. 安装MindSpore20.0-alpha
    • 3.1 下载需要的安装程序脚本
    • 3.2 安装MindSpore 2.0.0-alpha和Python 3.7
    • 3.3 开始手动安装
    • 3.4. 安装gcc
    • 3. 5.安装MindSpore
    • 3.6. 验证是否成功:
  • 四. 实现数据变换 Transforms
    • 4.1 compse模块
    • 4.2 mindspore.dataset.vision模块
      • 4.2.1 Rescale
      • 4.2.2 Normalize
      • 4.23 HWC2CWH
    • 4.3 Text Transforms
      • 4.3.1 BasicTokenizer
      • 4.3.2 Lookup
    • 4.4 Lambda Transforms
  • 总结

在这里插入图片描述

前言

大家好,我是沐风晓月,本文是对昇思MindSpore社区的产品进行测试,测试的步骤,记录产品的使用体验和学习。

如果文章有什么需要改进的地方还请大佬不吝赐教👏👏。

🏠个人主页:我是沐风晓月
🧑个人简介:大家好,我是沐风晓月,双一流院校计算机专业😉😉
💕 座右铭: 先努力成长自己,再帮助更多的人 ,一起加油进步🍺🍺🍺
💕欢迎大家:这里是CSDN,我总结知识的地方,喜欢的话请三连,有问题请私信😘

如何加入社区? 参加下图:
在这里插入图片描述

一. 实验环境

参考下图进行设置:

在这里插入图片描述

操作系统: ubuntu18.04
编程语言: python3.7版本
安装方式: pip安装

二. 安装ubuntu虚拟机

这里使用的是ubuntu18.4的系统

2. 1.下载ubuntu镜像

  • 打开清华大学开源镜像站
    下载地址:https://mirrors.tuna.tsinghua.edu.cn/
    在这里插入图片描述

  • 选择18.04版本

在这里插入图片描述

  • 下载iso镜像
    在这里插入图片描述

2.2 配置虚拟机

  • 打开新建虚拟机,创建虚拟机向导点击下一步
    在这里插入图片描述
  • 选择稍微安装操作系统
    在这里插入图片描述
  • 选择linux操作系统,ubuntu64
    在这里插入图片描述
  • 命名虚拟机
    此处一定要注意,虚拟机的名字见名知意

在这里插入图片描述

  • 指定磁盘容量

在这里插入图片描述

  • 设置虚拟机的自定义配置,点击完成

在这里插入图片描述

  • 完成后效果图如下,然后点击开启

在这里插入图片描述

2.3 安装操作系统

为了让大多数人能看懂,我们选择中文版本安装

  • 点击开始安装系统:

在这里插入图片描述

  • 键盘布局默认即可

在这里插入图片描述

  • 更新软件,这里我们选正常安装

在这里插入图片描述

  • 这里我们是一块新盘,所以选择整个磁盘安装系统,并点击继续

在这里插入图片描述
在这里插入图片描述

  • 选择时区
    默认就是上海,这里点击继续即可

在这里插入图片描述

-设置用户名和密码

在这里插入图片描述

  • 开始安装系统,等待直到完成

在这里插入图片描述

完成后的照片,点起重启

在这里插入图片描述

重启后,系统安装成功!
在这里插入图片描述

三. 安装MindSpore20.0-alpha

3.1 下载需要的安装程序脚本

root@mufengxiaoyue:~# wget https://gitee.com/mindspore/mindspore/raw/r2.0.0-alpha/scripts/install/ubuntu-cpu-pip.sh

3.2 安装MindSpore 2.0.0-alpha和Python 3.7

这里直接使用自动化安装

MINDSPORE_VERSION=2.0.0a0 bash ./ubuntu-cpu-pip.sh

这一步主要做了以下的事情:

  • 更改软件源配置为华为云源。
  • 安装MindSpore所需的依赖,如GCC。
  • 通过APT安装Python3和pip3,并设为默认。
  • 通过pip安装MindSpore CPU版本。

在自动化安装的过程中遇到的问题,应该是提供 网址

(在这里遇到一个问题,应该是提供的网址出现了问题,截图如下:
在这里插入图片描述
于是转入手动安装

3.3 开始手动安装

经过测试下,虽然自动化脚本没有一次性安装成功,但自动化脚本已经把python安装好了,python版本如下:

root@mufengxiaoyue:~# python -V
Python 3.7.16
root@mufengxiaoyue:~# python --version
Python 3.7.16

3.4. 安装gcc

直接使用apt-get命令安装即可

#sudo apt-get install gcc-7 -y

3. 5.安装MindSpore

这一步开始安装mindSpore 20.0的版本,直接安装即可,尽量使用普通用户安装,使用root安装会有警告提示,但也不影响使用。

root@mufengxiaoyue:~# export MS_VERSION=2.0.0a0
#pip install https://ms-release.obs.cn-north-4.myhuaweicloud.com/${MS_VERSION}/MindSpore/unified/x86_64/mindspore-${MS_VERSION/-/}-cp37-cp37m-linux_x86_64.whl \
--trusted-host ms-release.obs.cn-north-4.myhuaweicloud.com -i https://pypi.tuna.tsinghua.edu.cn/simple

最后执行结果如下:
在这里插入图片描述

3.6. 验证是否成功:

root@mufengxiaoyue:~# python -c "import mindspore;mindspore.run_check()"
MindSpore version:  2.0.0a0
The result of multiplication calculation is correct, MindSpore has been installed successfully!

至此MindSpore已经安装成功。

四. 实现数据变换 Transforms

通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。

MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。

4.1 compse模块

mindspore.dataset.transforms模块支持一系列通用Transforms。这里我们以Compose为例,介绍其使用方式。

Compose接收一个数据增强操作序列,然后将其组合成单个数据增强操作。我们仍基于Mnist数据集呈现Transforms的应用效果

代码如下:

import numpy as np
from PIL import Image
from download import download
from mindspore.dataset import transforms, vision, text
from mindspore.dataset import GeneratorDataset, MnistDataset
url = "https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/"       "notebook/datasets/MNIST_Data.zip"
path = download(url, "./", kind="zip", replace=True)

train_dataset = MnistDataset('MNIST_Data/train')
image, label = next(train_dataset.create_tuple_iterator())
print(image.shape)
~                     

代码运行结果:

在这里插入图片描述

代码如下:

   1	import numpy as np
     2	from PIL import Image
     3	from download import download
     4	from mindspore.dataset import transforms, vision, text
     5	from mindspore.dataset import GeneratorDataset, MnistDataset
     6	url = "https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/"       "notebook/datasets/MNIST_Data.zip"
     7	path = download(url, "./", kind="zip", replace=True)
     8	
     9	train_dataset = MnistDataset('MNIST_Data/train')
    10	image, label = next(train_dataset.create_tuple_iterator())
    11	print(image.shape)
    12	
    13	composed = transforms.Compose(
    14	    [
    15	        vision.Rescale(1.0 / 255.0, 0),
    16	        vision.Normalize(mean=(0.1307,), std=(0.3081,)),
    17	        vision.HWC2CHW()
    18	    ]
    19	)
    20	
    21	
    22	
    23	
    24	train_dataset = train_dataset.map(composed, 'image')
    25	image, label = next(train_dataset.create_tuple_iterator())
    26	print(image.shape)

执行结果:

在这里插入图片描述

4.2 mindspore.dataset.vision模块

mindspore.dataset.vision模块提供一系列针对图像数据的Transforms。在Mnist数据处理过程中,使用了Rescale、Normalize和HWC2CHW变换

4.2.1 Rescale

Rescale变换用于调整图像像素值的大小,包括两个参数:

  • rescale:缩放因子。

  • shift:平移因子。

图像的每个像素将根据这两个参数进行调整,输出的像素值为outputi=inputi∗rescale+shift。

这里我们先使用numpy随机生成一个像素值在[0, 255]的图像,将其像素值进行缩放。

代码案例:

root@mufengxiaoyue:~# cat test1.py 
import numpy as np
from PIL import Image
from download import download
from mindspore.dataset import transforms, vision, text
from mindspore.dataset import GeneratorDataset, MnistDataset


random_np = np.random.randint(0, 255, (48, 48), np.uint8)
random_image = Image.fromarray(random_np)
print(random_np)

执行结果:

root@mufengxiaoyue:~# python test1.py 
[[249 139 103 ... 186 210 138]
 [203  81 151 ... 182  34  51]
 [190  58  25 ... 242 141 247]
 ...
 [250 193 141 ...  35  35 104]
 [164 183  23 ... 125 252  58]
 [ 50 106 213 ... 189  72 139]]

为了更直观地呈现Transform前后的数据对比,我们使用Transforms的Eager模式进行演示。首先实例化Transform对象,然后调用对象进行数据处理。

root@mufengxiaoyue:~# cat -n test1.py 
     1	import numpy as np
     2	from PIL import Image
     3	from download import download
     4	from mindspore.dataset import transforms, vision, text
     5	from mindspore.dataset import GeneratorDataset, MnistDataset
     6	
     7	
     8	random_np = np.random.randint(0, 255, (48, 48), np.uint8)
     9	random_image = Image.fromarray(random_np)
    10	print(random_np)
    11	
    12	
    13	rescale = vision.Rescale(1.0 / 255.0, 0)
    14	rescaled_image = rescale(random_image)
    15	print(rescaled_image)


执行结果:

root@mufengxiaoyue:~# python test1.py 
[[192  85 117 ... 145 101   9]
 [217 106  87 ...  83 129 209]
 [129  12 253 ...  83  15 158]
 ...
 [ 35  95 231 ...  78  93 188]
 [ 81 143 206 ... 170   0   4]
 [241 157 166 ...  61  28  95]]
[[0.75294125 0.33333334 0.45882356 ... 0.5686275  0.39607847 0.03529412]
 [0.85098046 0.4156863  0.34117648 ... 0.3254902  0.5058824  0.8196079 ]
 [0.5058824  0.04705883 0.9921569  ... 0.3254902  0.05882353 0.61960787]
 ...
 [0.13725491 0.37254903 0.9058824  ... 0.30588236 0.3647059  0.7372549 ]
 [0.31764707 0.56078434 0.8078432  ... 0.6666667  0.         0.01568628]
 [0.9450981  0.6156863  0.6509804  ... 0.2392157  0.10980393 0.37254903]]

可以看到使用Rescale后的每个像素值都进行了缩放。

4.2.2 Normalize

Normalize变换用于对输入图像的归一化,包括三个参数:

  • mean:图像每个通道的均值。

  • std:图像每个通道的标准差。

  • is_hwc:输入图像格式为(height, width, channel)还是(channel, height, width)。
    图像的每个通道将根据mean和std进行调整:

在这里插入图片描述

代码案例:

root@mufengxiaoyue:~# cat test1.py 
import numpy as np
from PIL import Image
from download import download
from mindspore.dataset import transforms, vision, text
from mindspore.dataset import GeneratorDataset, MnistDataset


random_np = np.random.randint(0, 255, (48, 48), np.uint8)
random_image = Image.fromarray(random_np)
#print(random_np)
#
#
rescale = vision.Rescale(1.0 / 255.0, 0)
rescaled_image = rescale(random_image)
#print(rescaled_image)

normalize = vision.Normalize(mean=(0.1307,), std=(0.3081,))
normalized_image = normalize(rescaled_image)
print(normalized_image)


执行结果:

在这里插入图片描述

4.23 HWC2CWH

HWC2CWH变换用于转换图像格式。在不同的硬件设备中可能会对(height, width, channel)或(channel, height, width)两种不同格式有针对性优化。MindSpore设置HWC为默认图像格式,在有CWH格式需求时,可使用该变换进行处理。

这里我们先将前文中normalized_image处理为HWC格式,然后进行转换。可以看到转换前后的shape发生了变化。

演示代码:

root@mufengxiaoyue:~# cat test1.py 
import numpy as np
from PIL import Image
from download import download
from mindspore.dataset import transforms, vision, text
from mindspore.dataset import GeneratorDataset, MnistDataset


random_np = np.random.randint(0, 255, (48, 48), np.uint8)
random_image = Image.fromarray(random_np)
#print(random_np)
#
#
rescale = vision.Rescale(1.0 / 255.0, 0)
rescaled_image = rescale(random_image)
#print(rescaled_image)

normalize = vision.Normalize(mean=(0.1307,), std=(0.3081,))
normalized_image = normalize(rescaled_image)
#print(normalized_image)


hwc_image = np.expand_dims(normalized_image, -1)
hwc2cwh = vision.HWC2CHW()
chw_image = hwc2cwh(hwc_image)
print(hwc_image.shape, chw_image.shape)

root@mufengxiaoyue:~#

执行结果:

root@mufengxiaoyue:~# python test1.py 
(48, 48, 1) (1, 48, 48)

4.3 Text Transforms

mindspore.dataset.text模块提供一系列针对文本数据的Transforms。与图像数据不同,文本数据需要有分词(Tokenize)、构建词表、Token转Index等操作。这里简单介绍其使用方法。

4.3.1 BasicTokenizer

首先我们定义三段文本,作为待处理的数据,并使用GeneratorDataset进行加载。

texts = [
    'Welcome to Beijing',
    '北京欢迎您!',
    '我喜欢China!',
]

test_dataset = GeneratorDataset(texts, 'text')

分词(Tokenize)操作是文本数据的基础处理方法,MindSpore提供多种不同的Tokenizer。这里我们选择基础的BasicTokenizer举例。配合map,将三段文本进行分词,可以看到处理后的数据成功分词。

test_dataset = test_dataset.map(text.BasicTokenizer())
print(next(test_dataset.create_tuple_iterator()))

执行结果

在这里插入图片描述

4.3.2 Lookup

Lookup为词表映射变换,用来将Token转换为Index。在使用Lookup前,需要构造词表,一般可以加载已有的词表,或使用Vocab生成词表。这里我们选择使用Vocab.from_dataset方法从数据集中生成词表。

代码案例:

import numpy as np
from PIL import Image
from download import download
from mindspore.dataset import transforms, vision, text
from mindspore.dataset import GeneratorDataset, MnistDataset


texts = [
    'Welcome to Beijing',
    '北京欢迎您!',
    '我喜欢China!',
]

test_dataset = GeneratorDataset(texts, 'text')


test_dataset = test_dataset.map(text.BasicTokenizer())
#print(next(test_dataset.create_tuple_iterator()))

vocab = text.Vocab.from_dataset(test_dataset)
print(vocab.vocab())

执行结果:

root@mufengxiaoyue:~# python test1.py 
{'我': 10, '北': 7, '京': 6, '喜': 8, '!': 1, '!': 12, '迎': 11, 'Welcome': 4, '您': 9, '欢': 0, 'China': 3, 'Beijing': 2, 'to': 5}

生成词表后,可以配合map方法进行词表映射变换,将Token转为Index。

vocab = text.Vocab.from_dataset(test_dataset)

test_dataset = test_dataset.map(text.Lookup(vocab))
print(next(test_dataset.create_tuple_iterator()))

执行结果:

root@mufengxiaoyue:~# python test1.py 
[Tensor(shape=[3], dtype=Int32, value= [4, 5, 2])]

4.4 Lambda Transforms

Lambda函数是一种不需要名字、由一个单独表达式组成的匿名函数,表达式会在调用时被求值。Lambda Transforms可以加载任意定义的Lambda函数,提供足够的灵活度。在这里,我们首先使用一个简单的Lambda函数,对输入数据乘2:

代码如下:

import numpy as np
from PIL import Image
from download import download
from mindspore.dataset import transforms, vision, text
from mindspore.dataset import GeneratorDataset, MnistDataset

test_dataset = GeneratorDataset([1, 2, 3], 'data', shuffle=False)
test_dataset = test_dataset.map(lambda x: x * 2)
print(list(test_dataset.create_tuple_iterator()))

执行结果:

root@mufengxiaoyue:~# python test1.py 
[[Tensor(shape=[], dtype=Int64, value= 2)], [Tensor(shape=[], dtype=Int64, value= 4)], [Tensor(shape=[], dtype=Int64, value= 6)]]

可以看到map传入Lambda函数后,迭代获得数据进行了乘2操作。

我们也可以定义较复杂的函数,配合Lambda函数实现复杂数据处理:

import numpy as np
from PIL import Image
from download import download
from mindspore.dataset import transforms, vision, text
from mindspore.dataset import GeneratorDataset, MnistDataset

test_dataset = GeneratorDataset([1, 2, 3], 'data', shuffle=False)
def func(x):
    return x * x + 2

test_dataset = test_dataset.map(lambda x: func(x))
print(list(test_dataset.create_tuple_iterator()))

执行结果:

root@mufengxiaoyue:~# python test1.py 
[[Tensor(shape=[], dtype=Int64, value= 3)], [Tensor(shape=[], dtype=Int64, value= 6)], [Tensor(shape=[], dtype=Int64, value= 11)]]

总结

通过这次体验,对MindSpore 20.0 有了新的认识,因为是断断续续做的,大约耗时2个小时。

  • 💕 好啦,这就是今天要分享给大家的全部内容了,我们下期再见!
  • 💕 博客主页:mufeng.blog.csdn.net
  • 💕 本文由沐风晓月原创,首发于CSDN博客
  • 💕 每一个你想要学习的念头,都是未来的你像现在的你求救,不辜负未来,全力奔赴

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/355612.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【opencv源码解析0.3】调试opencv源码的两种方式

调试opencv源码的两种方式 上两篇我们分别讲了如何配置opencv环境,以及如何编译opencv源码方便我们阅读。但我们还是无法调试我们的代码,无法以我们的程序作为入口来一步一步单点调试看opencv是如何执行的。 【opencv源码解析0.1】VS如何优雅的配置ope…

有效提升英语论文写作的方法

这里结合我的一些经验,分享一些练习英语论文写作的方法。 论文是由单词,句子,还有逻辑三部分组成,每个部分的要求都不太一样,这里分成三个部分练习讨论: 1炼词, 2 炼句,3 炼逻辑. 炼词 首先,炼词就是首先…

发布npm库遇到的

(1)首先首先要检查源是npm还是淘宝镜像源,因为本地设置了淘宝镜像源的原因,会导致npm login出错,需要修改: npm config set registry https://registry.npmjs.org 查看是否修改成功:得到上面源…

SpringCloud - Eureka注册发现

目录 提供者与消费者 Eureka原理分析 搭建Eureka服务 服务注册 服务发现 提供者与消费者 服务提供者: 一次业务中,被其它微服务调用的服务(提供接口给其它微服务)服务消费者: 一次业务中,调用其它微服务的服务(调用其它微服务…

基于jeecgboot的flowable流程增加节点自动跳过功能

为了满足有时候需要在某个节点没有人员处理的时候需要自动跳过,所以增加了这个功能。 一、FlowComment意见里增加一个类型8,跳过流程 /** * 流程意见类型 * */ public enum FlowComment { /** * 说明 */ NORMAL("1", "…

Java8新特性全面

文章目录一、函数式接口二、Java内置函数式接口三、接口内允许添加默认实现的方法四、Lambda表达式五、方法引用六、Stream API七、Stream API示例1. Filter过滤2. Sorted排序3. Map转换4. Match匹配5. Count计数6. Reduce7. Parallel-Streams并行流8. Map集合八、新时间日期接…

天津+发展得到的权重

添加评分添加评分的依据高德地图找到如图数据,容积率体现楼层高度近似反映人口密度,繁华程度近似等价霓虹灯照明时长住房容积率具体是指在城市规划区的某一宗地内,房屋的总建筑面积与宗地面积的比值,分为实际容积率和规划容积率两…

链表学习基础

链表 通过指针串联在一起的线性结构,每个节点由数据域和指针域两部分组成。链表节点在内存中的存储通常不是连续的,各节点通过指针连接在一起,其内存分布大致如下图所示。 定义 单链表 struct ListNode {// DATATYPE 可以是任意存放数据的…

HTTP基础知识

关键字:一问一答用于和服务器交互什么是HTTPHTTP是个应用层协议,是HTTP客户端和HTTP服务器之间的交互数据格式。所以这里有个实例:在浏览网页的时候,浏览器会向服务器发送一个HTTP请求,告诉服务器我想访问什么..然后服…

图论学习03

图神经网络模型介绍 将图神经网络分为基于谱域上的模型和基于空域上的模型,并按照发展顺序详解每个类别中的重要模型。 基于谱域的图神经网络 谱域上的图卷积在图学习迈向深度学习的发展历程上起到了关键性的作用。三个具有代表性的谱域图神经网络 谱图卷积网络切…

c++中超级详细的一些知识,新手快来

目录 2.文章内容简介 3.理解虚函数表 3.1.多态与虚表 3.2.使用指针访问虚表 4.对象模型概述 4.1.简单对象模型 4.2.表格驱动模型 4.3.非继承下的C对象模型 5.继承下的C对象模型 5.1.单继承 5.2.多继承 5.2.1一般的多重继承(非菱形继承) 5.2…

奥地利、爱沙尼亚重要机构或正成为俄黑客目标

近日,网络安全公司Sekoia有一项新发现:由俄罗斯政府支持的黑客组织“图拉”(Turla)正在对奥地利经济商会、北约平台、波罗的海国防学院(Baltic Defense College)发动一系列攻击。这是Sekoia公司基于Google …

One Fuzzing Strategy to Rule Them All

One Fuzzing Strategy to Rule Them All 文章目录One Fuzzing Strategy to Rule Them All相关链接概述背景实验测试RQ1:RQ2相关工作总结最后相关链接 One Fuzzing Strategy to Rule Them All 参考链接 概述 在本文中作者提出了对变异策略havoc的研究&#xff0c…

linux异步IO编程实例分析

在Direct IO模式下,异步是非常有必要的(因为绕过了pagecache,直接和磁盘交互)。linux Native AIO正是基于这种场景设计的,具体的介绍见:KernelAsynchronousI/O (AIO)SupportforLinux。下面我们就来分析一下…

大数值金额大写转换(C语言)

关于大数值金额大写转换,在财务管理的应用方面没什么意义。一般来说,千亿级,万亿级的数值就够了。因为在国家级层面是以亿为单位的,也就表达为千万亿,万万亿。在企业层面数值金额转换设置到千亿、万亿就行了。大的集团…

RabbitMQ 入门到应用 ( 四 ) 与SpringBoot整合

5.与SpringBoot整合 5.1.SpringBoot项目中配置环境 5.1.1.pom.xml配置依赖 在 pom.xml 配置文件中声明依赖, 通过Maven导入 <dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-amqp</artifactId> &l…

天津数据得出的权重

目标层&#xff1a;评价光污染准则层为四个大类&#xff1a;道路、商业、住宅、绿化方案层为25个小类指标但每个大类只和自己下面的几个小类指标相关&#xff0c;不是图示的下面两层全有关联或许考虑把25个小指标提取公共部分&#xff0c;比如路灯亮度、高度、和外墙的距离、光…

RocketMQ 2m-2s-async搭建

本文档是RocketMQ4.8两主两从异步复制的搭建过程&#xff08;也可单机部署&#xff0c;更简单一点&#xff09;,包括监控台界面. 写在前面&#xff1a;本文档适用于4.8版本&#xff0c;其它版本的坑没有踩过不清楚。我是用VMware启了两台虚拟机&#xff0c;环境&#xff1a;Ce…

10 OpenCV图像识别之人脸追踪

文章目录1 级联分类器2 人脸跟踪2.1 相关方法2.2 代码示例CV2中内置了人脸识别等常用的算法&#xff0c;这类算法是通过级联分类器实现的。 1 级联分类器 级联分类器的核心思想是使用多个分类器级联&#xff0c;每个分类器负责检测不同的特征&#xff0c;逐步排除不可能是目标…

Prometheus离线tar.gz包安装

Prometheus离线tar.gz包安装实验环境一、部署前操作二、Master2.1下载2.2解压2.3更改服务目录名称2.4创建系统服务启动文件2.5配置修改2.6启动并设置开机自启2.7访问2.8添加node节点2.8.1 添加方法2.8.2修改Prometheus配置&#xff08;Master&#xff09;实验环境节点ipcpu内存…