机器学习 鸢尾花数据集划分 训练集和测试集

news2024/11/17 1:30:10

目录

一:加载数据

二:数据集整理

三:数据集划分 


一:加载数据

加载数据,并创建一个DataFrame,便于数据分析

from sklearn.datasets import load_iris
import pandas as pd
import numpy as np
from sklearn.utils import shuffle

# 1加载数据
iris_datasets = load_iris()
# 2 创建一个DataFrame 特征+标签
df = pd.DataFrame(iris_datasets['data'], columns=iris_datasets.feature_names)
print(df.head(), df.shape)

 

   sepal length (cm)  sepal width (cm)  petal length (cm)  petal width (cm)
0                5.1               3.5                1.4               0.2
1                4.9               3.0                1.4               0.2
2                4.7               3.2                1.3               0.2
3                4.6               3.1                1.5               0.2
4                5.0               3.6                1.4               0.2 (150, 4)

打印出鸢尾花数据集(头部信息)以及规格(150行4列),如上所示 

二:数据集整理

2-1 添加标签列

from sklearn.datasets import load_iris
import pandas as pd
import numpy as np
from sklearn.utils import shuffle

# 1加载数据
iris_datasets = load_iris()
# 2 创建一个DataFrame 特征+标签
df = pd.DataFrame(iris_datasets['data'], columns=iris_datasets.feature_names)
# 3 添加标签列
df['label'] = iris_datasets['target']
print(df.head(), df.shape)

头部信息及规格如下 

   sepal length (cm)  sepal width (cm)  ...  petal width (cm)  label
0                5.1               3.5  ...               0.2      0
1                4.9               3.0  ...               0.2      0
2                4.7               3.2  ...               0.2      0
3                4.6               3.1  ...               0.2      0
4                5.0               3.6  ...               0.2      0

[5 rows x 5 columns] (150, 5)

2-2 数据打乱

from sklearn.datasets import load_iris
import pandas as pd
import numpy as np
from sklearn.utils import shuffle

# 1加载数据
iris_datasets = load_iris()
# 2 创建一个DataFrame 特征+标签
df = pd.DataFrame(iris_datasets['data'], columns=iris_datasets.feature_names)
# 3 添加标签列
df['label'] = iris_datasets['target']
# 4 数据打乱
df = shuffle(df)
print(df.head(), df.shape)

 头部信息(随机取前5个数据)及规格如下 

     sepal length (cm)  sepal width (cm)  ...  petal width (cm)  label
60                 5.0               2.0  ...               1.0      1
85                 6.0               3.4  ...               1.6      1
64                 5.6               2.9  ...               1.3      1
100                6.3               3.3  ...               2.5      2
116                6.5               3.0  ...               1.8      2

[5 rows x 5 columns] (150, 5)

2-3 索引重新排序

from sklearn.datasets import load_iris
import pandas as pd
import numpy as np
from sklearn.utils import shuffle

# 1加载数据
iris_datasets = load_iris()
# 2 创建一个DataFrame 特征+标签
df = pd.DataFrame(iris_datasets['data'], columns=iris_datasets.feature_names)
# 3 添加标签列
df['label'] = iris_datasets['target']
# 4 数据打乱
df = shuffle(df)
# 5 索引重新排序
df.reset_index(drop=True, inplace=True)
print(df.head(10), df.shape)

 头部信息(随机取前10个数据,同时进行索引排序)及规格如下  

   sepal length (cm)  sepal width (cm)  ...  petal width (cm)  label
0                4.4               2.9  ...               0.2      0
1                6.3               2.5  ...               1.5      1
2                4.8               3.0  ...               0.3      0
3                4.6               3.4  ...               0.3      0
4                6.1               2.8  ...               1.3      1
5                5.7               2.9  ...               1.3      1
6                5.9               3.0  ...               1.5      1
7                6.2               2.8  ...               1.8      2
8                5.2               3.5  ...               0.2      0
9                5.0               3.3  ...               0.2      0

[10 rows x 5 columns] (150, 5)

三:数据集划分 

本节数据集划分,相对于前一节文章,使用到pandas、numpy 

3-1 特征数据集划分

特征训练集 + 特征测试集

DataFrame-->array 使用.values

from sklearn.datasets import load_iris
import pandas as pd
import numpy as np
from sklearn.utils import shuffle

# 1加载数据
iris_datasets = load_iris()
# 2 创建一个DataFrame 特征+标签
df = pd.DataFrame(iris_datasets['data'], columns=iris_datasets.feature_names)
# 3 添加标签列
df['label'] = iris_datasets['target']
# 4 数据打乱
df = shuffle(df)
# 5 索引重新排序
df.reset_index(drop=True, inplace=True)
# 6 数据集划分:训练集 + 测试集
# 特征数据--前4列  DataFrame-->array  使用.values
x = df.iloc[:, :4].values
print(x, type(x))
# 特征训练集 120条 占比0.8
x_train = x[:120]
# 特征测试集 30条 占比0.2
x_test = x[120:]
[[5.1 2.5 3.  1.1]
 [5.1 3.3 1.7 0.5]
 [5.4 3.9 1.7 0.4]
 [6.5 3.  5.2 2. ]
 [5.1 3.4 1.5 0.2]
 [6.8 3.2 5.9 2.3]
 [7.2 3.6 6.1 2.5]
 [6.4 2.7 5.3 1.9]
 [4.6 3.4 1.4 0.3]
 [4.9 3.1 1.5 0.2]
 [6.1 2.6 5.6 1.4]
 [5.5 3.5 1.3 0.2]
 [7.1 3.  5.9 2.1]
 [4.8 3.  1.4 0.3]
 [5.7 3.  4.2 1.2]
 [6.4 3.2 4.5 1.5]
 [6.7 3.1 5.6 2.4]
 [6.4 3.2 5.3 2.3]
 [5.6 2.9 3.6 1.3]
 [6.2 2.8 4.8 1.8]
 [5.6 2.8 4.9 2. ]
 [5.4 3.7 1.5 0.2]
 [5.1 3.5 1.4 0.2]
 [5.5 2.4 3.8 1.1]
 [6.  3.  4.8 1.8]
 [6.2 2.2 4.5 1.5]
 [5.6 3.  4.1 1.3]
 [4.6 3.1 1.5 0.2]
 [5.6 2.5 3.9 1.1]
 [5.8 4.  1.2 0.2]
 [5.1 3.7 1.5 0.4]
 [5.9 3.2 4.8 1.8]
 [4.4 3.2 1.3 0.2]
 [5.7 2.8 4.5 1.3]
 [6.1 3.  4.9 1.8]
 [5.1 3.8 1.5 0.3]
 [6.7 3.  5.  1.7]
 [4.7 3.2 1.3 0.2]
 [5.4 3.4 1.7 0.2]
 [6.5 2.8 4.6 1.5]
 [6.7 3.  5.2 2.3]
 [5.7 4.4 1.5 0.4]
 [5.8 2.7 4.1 1. ]
 [5.2 2.7 3.9 1.4]
 [6.4 2.8 5.6 2.1]
 [6.5 3.  5.5 1.8]
 [7.6 3.  6.6 2.1]
 [5.  3.2 1.2 0.2]
 [5.  3.4 1.5 0.2]
 [7.9 3.8 6.4 2. ]
 [5.2 3.4 1.4 0.2]
 [7.4 2.8 6.1 1.9]
 [5.5 2.6 4.4 1.2]
 [6.8 2.8 4.8 1.4]
 [4.4 3.  1.3 0.2]
 [6.  2.2 4.  1. ]
 [6.8 3.  5.5 2.1]
 [5.6 2.7 4.2 1.3]
 [5.8 2.8 5.1 2.4]
 [6.4 3.1 5.5 1.8]
 [6.7 2.5 5.8 1.8]
 [6.3 2.3 4.4 1.3]
 [5.2 4.1 1.5 0.1]
 [5.  3.4 1.6 0.4]
 [6.  3.4 4.5 1.6]
 [5.1 3.5 1.4 0.3]
 [6.3 2.8 5.1 1.5]
 [7.7 3.8 6.7 2.2]
 [5.6 3.  4.5 1.5]
 [7.2 3.  5.8 1.6]
 [6.3 3.3 4.7 1.6]
 [6.  2.2 5.  1.5]
 [6.4 2.9 4.3 1.3]
 [6.3 3.4 5.6 2.4]
 [4.7 3.2 1.6 0.2]
 [7.7 2.8 6.7 2. ]
 [6.9 3.1 5.1 2.3]
 [6.9 3.2 5.7 2.3]
 [4.8 3.1 1.6 0.2]
 [6.9 3.1 5.4 2.1]
 [6.9 3.1 4.9 1.5]
 [5.8 2.7 5.1 1.9]
 [7.2 3.2 6.  1.8]
 [5.1 3.8 1.6 0.2]
 [4.9 3.1 1.5 0.1]
 [6.1 2.9 4.7 1.4]
 [5.8 2.7 3.9 1.2]
 [6.1 3.  4.6 1.4]
 [5.7 2.5 5.  2. ]
 [5.5 4.2 1.4 0.2]
 [5.7 2.8 4.1 1.3]
 [6.4 2.8 5.6 2.2]
 [4.6 3.6 1.  0.2]
 [6.7 3.3 5.7 2.1]
 [6.2 2.9 4.3 1.3]
 [6.7 3.1 4.4 1.4]
 [5.  2.  3.5 1. ]
 [5.  2.3 3.3 1. ]
 [6.5 3.2 5.1 2. ]
 [4.3 3.  1.1 0.1]
 [5.  3.5 1.3 0.3]
 [5.5 2.4 3.7 1. ]
 [5.9 3.  4.2 1.5]
 [6.3 2.5 5.  1.9]
 [6.2 3.4 5.4 2.3]
 [5.9 3.  5.1 1.8]
 [4.8 3.4 1.6 0.2]
 [5.1 3.8 1.9 0.4]
 [4.4 2.9 1.4 0.2]
 [5.4 3.4 1.5 0.4]
 [4.9 3.  1.4 0.2]
 [5.8 2.6 4.  1.2]
 [5.8 2.7 5.1 1.9]
 [5.  3.3 1.4 0.2]
 [5.4 3.9 1.3 0.4]
 [6.3 3.3 6.  2.5]
 [6.6 2.9 4.6 1.3]
 [7.3 2.9 6.3 1.8]
 [5.4 3.  4.5 1.5]
 [5.2 3.5 1.5 0.2]
 [6.7 3.3 5.7 2.5]
 [6.  2.9 4.5 1.5]
 [5.  3.  1.6 0.2]
 [5.7 2.9 4.2 1.3]
 [4.8 3.4 1.9 0.2]
 [5.3 3.7 1.5 0.2]
 [5.  3.5 1.6 0.6]
 [6.3 2.7 4.9 1.8]
 [6.6 3.  4.4 1.4]
 [4.5 2.3 1.3 0.3]
 [5.7 3.8 1.7 0.3]
 [5.7 2.6 3.5 1. ]
 [4.9 2.5 4.5 1.7]
 [6.  2.7 5.1 1.6]
 [6.7 3.1 4.7 1.5]
 [4.6 3.2 1.4 0.2]
 [7.7 2.6 6.9 2.3]
 [4.9 2.4 3.3 1. ]
 [6.5 3.  5.8 2.2]
 [4.9 3.6 1.4 0.1]
 [6.1 2.8 4.  1.3]
 [7.7 3.  6.1 2.3]
 [5.5 2.5 4.  1.3]
 [4.8 3.  1.4 0.1]
 [6.3 2.9 5.6 1.8]
 [7.  3.2 4.7 1.4]
 [6.1 2.8 4.7 1.2]
 [5.  3.6 1.4 0.2]
 [5.5 2.3 4.  1.3]
 [6.3 2.5 4.9 1.5]] <class 'numpy.ndarray'>

特征数据集   转换为ndarray,如上所示 

3-2 标签数据集划分

标签训练集 + 标签测试集

将二维数组[拍平]变为一维的数组 使用np.ravel

from sklearn.datasets import load_iris
import pandas as pd
import numpy as np
from sklearn.utils import shuffle

# 1加载数据
iris_datasets = load_iris()
# 2 创建一个DataFrame 特征+标签
df = pd.DataFrame(iris_datasets['data'], columns=iris_datasets.feature_names)
# 3 添加标签列
df['label'] = iris_datasets['target']
# 4 数据打乱
df = shuffle(df)
# 5 索引重新排序
df.reset_index(drop=True, inplace=True)
# 6 数据集划分:训练集 + 测试集
# 特征数据--前4列  DataFrame-->array  使用.values
x = df.iloc[:, :4].values
# 特征训练集 120条 占比0.8
x_train = x[:120]
# 特征测试集 30条 占比0.2
x_test = x[120:]
# 标签--label  将二维数组[拍平]变为一维的数组 使用.ravel
y = np.ravel(df.iloc[:, :4].values)
print(y, type(y))
# 标签训练集 120条 占比0.8
y_train = y[:120]
# 标签测试集 30条 占比0.2
y_test = y[120:]
[4.7 3.2 1.3 0.2 6.5 3.  5.5 1.8 6.4 2.7 5.3 1.9 4.8 3.  1.4 0.1 6.8 3.2
 5.9 2.3 6.2 2.8 4.8 1.8 6.5 2.8 4.6 1.5 5.8 2.7 3.9 1.2 6.6 2.9 4.6 1.3
 6.3 2.5 5.  1.9 5.4 3.9 1.7 0.4 7.7 3.8 6.7 2.2 5.5 4.2 1.4 0.2 5.2 3.5
 1.5 0.2 6.6 3.  4.4 1.4 6.1 2.8 4.7 1.2 6.  2.7 5.1 1.6 5.8 2.7 5.1 1.9
 6.8 2.8 4.8 1.4 6.5 3.  5.2 2.  6.9 3.2 5.7 2.3 6.1 2.9 4.7 1.4 6.4 3.2
 5.3 2.3 5.2 2.7 3.9 1.4 6.7 3.  5.  1.7 6.3 2.3 4.4 1.3 5.6 2.7 4.2 1.3
 5.6 3.  4.1 1.3 4.4 2.9 1.4 0.2 5.1 3.3 1.7 0.5 6.4 3.2 4.5 1.5 7.2 3.6
 6.1 2.5 6.3 2.5 4.9 1.5 5.5 2.5 4.  1.3 4.4 3.  1.3 0.2 6.1 3.  4.9 1.8
 7.2 3.2 6.  1.8 5.3 3.7 1.5 0.2 5.7 2.8 4.1 1.3 5.  2.3 3.3 1.  6.3 2.9
 5.6 1.8 5.  3.4 1.5 0.2 5.2 4.1 1.5 0.1 4.9 2.4 3.3 1.  6.1 2.6 5.6 1.4
 4.4 3.2 1.3 0.2 6.7 3.3 5.7 2.1 7.6 3.  6.6 2.1 6.5 3.2 5.1 2.  4.9 2.5
 4.5 1.7 5.1 3.5 1.4 0.2 5.7 3.  4.2 1.2 6.3 2.8 5.1 1.5 5.7 3.8 1.7 0.3
 5.1 3.8 1.5 0.3 6.  2.9 4.5 1.5 5.9 3.  4.2 1.5 5.5 2.6 4.4 1.2 6.8 3.
 5.5 2.1 5.7 2.8 4.5 1.3 5.2 3.4 1.4 0.2 5.1 3.8 1.9 0.4 4.8 3.4 1.9 0.2
 4.6 3.6 1.  0.2 6.3 3.3 6.  2.5 6.9 3.1 5.4 2.1 6.2 3.4 5.4 2.3 6.3 3.4
 5.6 2.4 5.8 2.6 4.  1.2 4.9 3.1 1.5 0.2 6.9 3.1 5.1 2.3 6.3 2.7 4.9 1.8
 6.7 3.1 4.4 1.4 6.2 2.9 4.3 1.3 5.4 3.  4.5 1.5 6.7 3.3 5.7 2.5 5.  3.5
 1.3 0.3 5.1 2.5 3.  1.1 5.8 4.  1.2 0.2 6.4 2.9 4.3 1.3 5.6 2.5 3.9 1.1
 5.1 3.4 1.5 0.2 6.7 3.  5.2 2.3 4.8 3.  1.4 0.3 5.9 3.2 4.8 1.8 4.7 3.2
 1.6 0.2 6.1 2.8 4.  1.3 4.6 3.1 1.5 0.2 4.9 3.1 1.5 0.1 6.5 3.  5.8 2.2
 7.1 3.  5.9 2.1 5.4 3.4 1.7 0.2 5.4 3.4 1.5 0.4 7.7 3.  6.1 2.3 6.  3.4
 4.5 1.6 5.  3.5 1.6 0.6 5.9 3.  5.1 1.8 5.8 2.8 5.1 2.4 7.4 2.8 6.1 1.9
 5.  3.3 1.4 0.2 6.7 2.5 5.8 1.8 5.1 3.5 1.4 0.3 5.6 2.9 3.6 1.3 6.4 2.8
 5.6 2.2 4.6 3.2 1.4 0.2 5.6 2.8 4.9 2.  5.7 4.4 1.5 0.4 5.7 2.6 3.5 1.
 5.  3.6 1.4 0.2 5.  3.  1.6 0.2 5.6 3.  4.5 1.5 7.  3.2 4.7 1.4 5.8 2.7
 5.1 1.9 5.4 3.9 1.3 0.4 5.  3.4 1.6 0.4 6.7 3.1 5.6 2.4 4.8 3.4 1.6 0.2
 6.1 3.  4.6 1.4 6.  2.2 5.  1.5 6.4 3.1 5.5 1.8 5.5 2.3 4.  1.3 6.4 2.8
 5.6 2.1 5.4 3.7 1.5 0.2 5.  3.2 1.2 0.2 4.9 3.  1.4 0.2 4.9 3.6 1.4 0.1
 6.2 2.2 4.5 1.5 5.1 3.8 1.6 0.2 4.5 2.3 1.3 0.3 5.5 2.4 3.8 1.1 6.  3.
 4.8 1.8 5.7 2.5 5.  2.  5.1 3.7 1.5 0.4 5.8 2.7 4.1 1.  6.9 3.1 4.9 1.5
 7.9 3.8 6.4 2.  6.3 3.3 4.7 1.6 7.3 2.9 6.3 1.8 7.7 2.8 6.7 2.  7.7 2.6
 6.9 2.3 5.7 2.9 4.2 1.3 5.  2.  3.5 1.  4.3 3.  1.1 0.1 4.8 3.1 1.6 0.2
 5.5 3.5 1.3 0.2 7.2 3.  5.8 1.6 5.5 2.4 3.7 1.  4.6 3.4 1.4 0.3 6.  2.2
 4.  1.  6.7 3.1 4.7 1.5] <class 'numpy.ndarray'>

标签数据集   转换为ndarray,如上所示 

完整源码,步骤详尽,如下可以自取,

可以自己打印 :特征训练集x_train、特性测试集x_test、标签训练集y_train、标签测试集y_test     【加深理解最重要】

from sklearn.datasets import load_iris
import pandas as pd
import numpy as np
from sklearn.utils import shuffle

# 1 加载数据
iris_datasets = load_iris()

# 2 创建一个DataFrame 特征+标签
df = pd.DataFrame(iris_datasets['data'], columns=iris_datasets.feature_names)

# 3 添加标签列
df['label'] = iris_datasets['target']

# 4 数据打乱
df = shuffle(df)

# 5 索引重新排序
df.reset_index(drop=True, inplace=True)

# 6 数据集划分:训练集 + 测试集
# 6-1 特征数据--前4列  DataFrame-->array  使用.values
x = df.iloc[:, :4].values
# 特征训练集 120条 占比0.8
x_train = x[:120]
# 特征测试集 30条 占比0.2
x_test = x[120:]

# 6-2 标签--label  将二维数组[拍平]变为一维的数组 使用.ravel
y = np.ravel(df.iloc[:, :4].values)
# 标签训练集 120条 占比0.8
y_train = y[:120]
# 标签测试集 30条 占比0.2
y_test = y[120:]

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/96735.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

大数据:计算学生成绩

文章目录一、提出任务二、任务进行&#xff08;一&#xff09;准备数据1、在虚拟机上创建文本文件2、上传文件到HDFS指定目录&#xff08;二&#xff09;实现步骤1、创建Maven项目2、添加相关依赖3、创建日志属性文件4、创建成绩映射器类5、创建成绩驱动器类6、启动成绩驱动器类…

【JavaSE】类和对象(三)——内部类

目录 1. 何为内部类 2. 内部类的分类 2.1 静态内部类 2.1.1 如何实例化静态内部类的对象&#xff1f; 2.1.2 外部类与静态内部类如何相互访问&#xff1f; 2.2 非静态内部类/实例内部类 2.2.1 非静态内部类不能定义静态的成员变量以及方法 2.2.2 非静态内部类的实例化 2.2.…

三层-生成树-ospf-速端口思科练习实验

♥️作者&#xff1a;小刘在这里 ♥️每天分享云计算网络运维课堂笔记&#xff0c;疫情之下&#xff0c;你我素未谋面&#xff0c;但你一定要平平安安&#xff0c;一 起努力&#xff0c;共赴美好人生&#xff01; ♥️夕阳下&#xff0c;是最美的&#xff0c;绽放&#xff0c;…

Spark-SaprkStreaming(概述、架构、原理、DStream转换、案例)

文章目录SparkStreaming概述特点架构原理DStream和RDD的区别DAG如何读取数据(※)WordCount 案例实操代码解析RDD 队列用法及说明案例实操自定义数据源Kafka 数据源DStream 转换无状态转化操作Transformjoin有状态转化操作UpdateStateByKeyWindowOperationsDStream 输出优雅关闭…

pip命令安装torchnet包,超简单!

pip命令安装torchnet包&#xff0c;超简单&#xff01; torchnet是torch的框架&#xff0c;它提供了一组抽象&#xff0c;旨在鼓励代码重用以及鼓励模块化编程。 目前&#xff0c;torchnet提供了四组重要的类&#xff1a; Dataset&#xff1a;以各种方式处理和预处理数据。 …

Typora入门教程

文章目录Typora入门教程1 简要介绍2 下载安装包3 常用操作3.1 标题3.2 加粗3.3 斜体3.4 高亮3.5 分割线3.6 图片3.7 链接3.8 引用3.9 列表3.10 目录3.11 表格3.12 代码块3.13 行内代码3.14 按键效果4 自定义快捷键5 Typora PicGo 阿里云OSS搭建个人笔记5.1 注意事项5.2 准备工…

Hibernate学习总结

文章目录一、图解运行过程二、核心代码三、session方法2、session缓存3、save&#xff08;&#xff09;与persist&#xff08;&#xff09;4、get()5、update()6、delete()7、evict()8、doWork()&#xff0c;可获得connection对象四、hibernate.cfg.xml(使用数据库连接池)五、*…

java项目-第176期ssm个人交友网站系统-java毕业设计

java项目-第176期ssm个人交友网站系统-java毕业设计 【源码请到下载专栏下载】 《个人交友网站》 该项目分为2个角色&#xff0c;管理员、用户角色。 用户可以浏览前台,包含功能有&#xff1a; 首页、交友信息、线下活动、系统公告、论坛信息 管理员进行后台登录&#xff0c;包…

【KNN分类】基于matlab模拟退火优化KNN、蝗虫算法优化KNN数据分类【含Matlab源码 2275期】

⛄一、1KNN算法思想 K近邻算法&#xff08;KNN,K nearest neighbor algorithm&#xff09;是机器学习中一种基本的分类与回归方法&#xff0c;其主要原理是通过对不同测试样本之间的距离进行量测&#xff0c;而后寻找最为相近的K个样本来进行分类&#xff0c;具有简单、直观、…

【LeetCode题目详解】(三)21.合并两个有序链表、141.环形链表、142.环形链表Ⅱ

目录 一、力扣第21题&#xff1a;合并两个有序链表 解法思路 代码一 代码二 代码三 二、力扣第141题&#xff1a;环形链表 1.快慢指针法 2.证明快慢指针是可行的 三、力扣第142题&#xff1a;环形链表Ⅱ 1.解题思路 2.代码 总结 一、力扣第21题&#xff1a;合并两个…

selenium自动化测试

文章目录1.什么是自动化测试2.UI自动化测试3, webdriver的原理元素的定位定位操作示例操作测试对象添加等待固定等待智能等待打印信息浏览器的操作浏览器最大化设置浏览器宽、高操作浏览器的前进、后退控制浏览器滚动条键盘事件键盘按键用法键盘组合键用法鼠标事件ActionChains…

接口测试(七)—— 参数化、数据库操作封装、接口自动化框架

目录 一、接口自动化测试框架 1、目录结构 二、封装iHRM登录 1、普通方式实现 2、登录接口对象层 3、登录接口测试用例层 4、封装断言方法 三、参数化 1、回顾UnitTest参数化 1.1 原始案例 1.2 参数化实现 1.3 从json文件读取 2、登录接口参数化 2.1 组织数据文…

ArcGIS:如何进行离散点数据插值分析(IDW)、栅格数据的重分类、栅格计算器的简单使用、缓冲区分析、掩膜?

目录 01 说明 02 实验目的及要求 03 实验设备及软件平台 04 实验内容与步骤 4.1 反距离权重插值分析 4.2 多栅格局域运算 4.3 按表格显示分区统计 4.4 重分类 4.5 邻域运算 4.6 矢量数据的裁剪 4.7 缓冲区分析及栅格数据提取分析 05 思考及讨论 01 说明 由于这次的作业是从word…

jsp+ssm计算机毕业设计宠物寻回系统【附源码】

项目运行 环境配置&#xff1a; Jdk1.8 Tomcat7.0 Mysql HBuilderX&#xff08;Webstorm也行&#xff09; Eclispe&#xff08;IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持&#xff09;。 项目技术&#xff1a; JSPSSM mybatis Maven等等组成&#xff0c;B/S模式 Mave…

2.两数相加

正在建设中 传送门&#xff1a; https://leetcode.cn/problems/add-two-numbers/ 题目描述 给你两个非空的链表&#xff0c;表示两个非负的整数。它们每位数字都是按照逆序的方式存储的&#xff0c;并且每个节点只能存储一位数字。 请你将两个数相加&#xff0c;并以相同形…

git 进阶系列教程-------git使用流程

GIT使用流程 前言 初衷 git是一门很容易入门的项目管理工具&#xff0c;但是它是一门很难精通的技术。 git pull/git add ./git commit -m "message"/git push/......知道以上几个命令&#xff0c;或许再多一点&#xff0c;也许就能说&#xff1a;‘我会git’了。…

IDEA画UML类图

第一步(IDEA下载画图插件) PlantUML Integration 插件可以支持画图 第二步(创建类图文件) 点击之后会让选择 选择class即可 类图的语法 在画类图的时候分为五种 1. 依赖 依赖分为好多种&#xff0c; 作为成员变量&#xff0c;作为方法的入参和出参&#xff0c;在类中使用…

【JSP菜鸟教程】

简介 JSP是一种Java servlet&#xff0c;主要用于实现Java web应用程序的用户界面部分。它使用JSP标签在HTML网页中插入Java代码。标签通常以<%开头以%>结束。 Scriptlet脚本小程序 如果你想在HTML中写Java代码&#xff0c;就需要将Java代码写入Scriptlet中&#xff0…

数据库实验一:数据定义与操作语言实验

实验一 数据定义与操作语言实验 实验 1.1 数据库定义实验 1.实验目的 理解和掌握数据库DDL语言&#xff0c;能够熟练地使用SQL DDL语句创建、修改和删除数据库、模式和基本表。 2.实验内容和要求 理解和掌握SQL DDL语句的语法&#xff0c;特别是各种参数的具体含义和使用方…

第十七届D2大会(I)

一、Web Compass-端内Web App解决方案揭秘 增强传统web端内方案&#xff0c;提供更好、更收敛的工程体验 二、自渲染跨端框架在字节跳动的实践与展望 基于Flutter Engine的二次开发 三、Qking&#xff1a;跨端JS引擎的深度探索与突破 常见js引擎&#xff0c;如&#xff1a;v8…