目录
数据变换 Transforms
环境
Common Transforms
Compose
Vision Transforms
Rescale
Normalize
HWC2CHW
Text Transforms
PythonTokenizer
Lookup
Lambda Transforms
补充知识
map方法:
lambda函数
filter() 函数
数据变换 Transforms
通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map
方法传入,实现对指定数据列的处理。
mindspore.dataset
提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数.
环境
%%capture captured_output
# 实验环境已经预装了mindspore==2.2.14,如需更换mindspore版本,可更改下面mindspore的版本号
!pip uninstall mindspore -y
!pip install -i https://pypi.mirrors.ustc.edu.cn/simple mindspore==2.2.14
导包
import numpy as np
from PIL import Image
from download import download
from mindspore.dataset import transforms, vision, text
from mindspore.dataset import GeneratorDataset, MnistDataset
Common Transforms
mindspore.dataset.transforms
模块支持一系列通用Transforms。以Compose
为例:
Compose
Compose
接收一个数据增强操作序列,然后将其组合成单个数据增强操作。我们仍基于Mnist数据集呈现Transforms的应用效果
1. 下载数据集
# Download data from open datasets
url = "https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/" \
"notebook/datasets/MNIST_Data.zip"
path = download(url, "./", kind="zip", replace=True)
train_dataset = MnistDataset('MNIST_Data/train')
2. 从训练数据集中获取一个图像及其标签,并打印出该图像的形状,以便了解数据的结构。
# 使用next(train_dataset.create_tuple_iterator())获取数据集中的第一个图像和标签。
image, label = next(train_dataset.create_tuple_iterator())
print(image.shape)
# (28, 28, 1)
3. 数据变换
composed = transforms.Compose(
[
vision.Rescale(1.0 / 255.0, 0),
vision.Normalize(mean=(0.1307,), std=(0.3081,)),
vision.HWC2CHW()
]
)
4. 将数据变换应用于'image'数据的每个元素,并返回包含变换后元素的新数据集
# 应用预处理流程到train_dataset的image数据上
train_dataset = train_dataset.map(composed, 'image')
image, label = next(train_dataset.create_tuple_iterator())
print(image.shape)
# (1, 28, 28)
Vision Transforms
mindspore.dataset.vision
模块提供一系列针对图像数据的Transforms。在Mnist数据处理过程中,使用了Rescale
、Normalize
和HWC2CHW
变换。
Rescale
Rescale
变换用于调整图像像素值的大小,包括两个参数:
- rescale:缩放因子。
- shift:平移因子。
图像的每个像素将根据这两个参数进行调整,输出的像素值为𝑜𝑢𝑡𝑝𝑢𝑡𝑖=𝑖𝑛𝑝𝑢𝑡𝑖∗𝑟𝑒𝑠𝑐𝑎𝑙𝑒+𝑠ℎ𝑖𝑓𝑡
(1)先使用numpy随机生成一个像素值在[0, 255]的图像,将其像素值进行缩放。
random_np = np.random.randint(0, 255, (48, 48), np.uint8)
random_image = Image.fromarray(random_np)
print(random_np)
生成了一个48*48的图像
(2)使用rescale调整大小
rescale = vision.Rescale(1.0 / 255.0, 0)
rescaled_image = rescale(random_image)
print(rescaled_image)
输出结果:
Normalize
Normalize变换用于对输入图像的归一化,包括三个参数:
- mean:图像每个通道的均值。
- std:图像每个通道的标准差。
- is_hwc:bool值,输入图像的格式。True为(height, width, channel),False为(channel, height, width)。
图像的每个通道将根据mean
和std
进行调整,计算公式为𝑜𝑢𝑡𝑝𝑢𝑡𝑐=(𝑖𝑛𝑝𝑢𝑡𝑐−𝑚𝑒𝑎𝑛𝑐)/𝑠𝑡𝑑𝑐,其中 𝑐代表通道索引。
normalize = vision.Normalize(mean=(0.1307,), std=(0.3081,))
normalized_image = normalize(rescaled_image)
print(normalized_image)
输出结果:
HWC2CHW
HWC2CHW
变换用于转换图像格式。在不同的硬件设备中可能会对(height, width, channel)或(channel, height, width)两种不同格式有针对性优化。MindSpore设置HWC为默认图像格式,在有CHW格式需求时,可使用该变换进行处理。
这里我们先将前文中normalized_image
处理为HWC格式,然后进行转换。可以看到转换前后的shape发生了变化。
hwc_image = np.expand_dims(normalized_image, -1)
hwc2chw = vision.HWC2CHW()
chw_image = hwc2chw(hwc_image)
print(hwc_image.shape, chw_image.shape)
# (48, 48, 1) (1, 48, 48)
Text Transforms
mindspore.dataset.text
模块提供一系列针对文本数据的Transforms。
与图像数据不同,文本数据需要有分词(Tokenize)、构建词表、Token转Index等操作。
首先我们定义三段文本,作为待处理的数据,并使用GeneratorDataset
进行加载。
texts = ['Welcome to Beijing']
GeneratorDataset是MindSpore提供的一个接口,用于加载自定义数据集。它允许用户通过自定义的数据加载类或数据生成函数来构造数据源,并通过该接口将这些数据源转换为MindSpore可以迭代处理的数据集对象。
test_dataset = GeneratorDataset(texts, 'text')
PythonTokenizer
分词(Tokenize)操作是文本数据的基础处理方法,MindSpore提供多种不同的Tokenizer。
以PythonTokenizer
举例,此Tokenizer允许用户自由实现分词策略。随后我们利用map
操作将此分词器应用到输入的文本中,对其进行分词。
def my_tokenizer(content):
return content.split()
test_dataset = test_dataset.map(text.PythonTokenizer(my_tokenizer))
print(next(test_dataset.create_tuple_iterator()))
# [Tensor(shape=[3], dtype=String, value= ['Welcome', 'to', 'Beijing'])]
Lookup
Lookup
为词表映射变换,用来将Token转换为Index。
在使用Lookup
前,需要构造词表,一般可以加载已有的词表,或使用Vocab
生成词表。这里我们选择使用Vocab.from_dataset
方法从数据集中生成词表。
vocab = text.Vocab.from_dataset(test_dataset)
获得词表后我们可以使用vocab
方法查看词表
print(vocab.vocab())
# {'to': 2, 'Beijing': 0, 'Welcome': 1}
生成词表后,可以配合`map`方法进行词表映射变换,将Token转为Index。
test_dataset = test_dataset.map(text.Lookup(vocab))
print(next(test_dataset.create_tuple_iterator()))
# [Tensor(shape=[3], dtype=Int32, value= [1, 2, 0])]
Lambda Transforms
Lambda函数是一种不需要名字、由一个单独表达式组成的匿名函数,表达式会在调用时被求值。Lambda Transforms可以加载任意定义的Lambda函数,提供足够的灵活度.
举例1:
test_dataset = GeneratorDataset([1, 2, 3], 'data', shuffle=False)
test_dataset = test_dataset.map(lambda x: x * 2)
print(list(test_dataset.create_tuple_iterator()))
# [[Tensor(shape=[], dtype=Int64, value= 2)], [Tensor(shape=[], dtype=Int64, value= 4)], [Tensor(shape=[], dtype=Int64, value= 6)]]
举例2:
def func(x):
return x * x + 2
test_dataset = test_dataset.map(lambda x: func(x))
print(list(test_dataset.create_tuple_iterator()))
# [[Tensor(shape=[], dtype=Int64, value= 6)], [Tensor(shape=[], dtype=Int64, value= 18)], [Tensor(shape=[], dtype=Int64, value= 38)]]
补充知识
map方法:
Python 中的 map()
函数是一个非常有用的内置高阶函数,它接收两个参数:第一个参数是一个函数,第二个参数是一个可迭代对象(如列表、元组等),然后将这个函数应用于可迭代对象的每一个元素上,并返回一个迭代器,该迭代器包含了所有经过函数处理后的元素。
def square(x):
return x * x
numbers = [1, 2, 3, 4, 5]
squared = map(square, numbers)
# 注意:map 返回的是一个迭代器,你需要使用 list() 或其他方式将其转换为列表来查看结果
print(list(squared))
# 输出: [1, 4, 9, 16, 25]
# 在一些情况下,列表推导式(list comprehension)可能是比 map() 更直观、更易读的选择。
# 例如,上面的 square 例子也可以写成 [x * x for x in numbers]
使用 lambda 函数
由于 map()
的第一个参数是函数,所以也可以使用 lambda 匿名函数来简化代码:
numbers = [1, 2, 3, 4, 5]
squared = map(lambda x: x * x, numbers)
print(list(squared))
# 输出: [1, 4, 9, 16, 25]
处理多个可迭代对象
map()
也可以处理多个可迭代对象,它会并行地从每个可迭代对象中取出一个元素,然后将这些元素作为参数传递给函数(要求函数能接受相应数量的参数)。
def add(x, y):
return x + y
nums1 = [1, 2, 3]
nums2 = [4, 5, 6]
sums = map(add, nums1, nums2)
print(list(sums))
# 输出: [5, 7, 9]
lambda函数
lambda
函数是 Python 中的一个非常有用的特性,它允许你快速定义单行的最小函数对象。
这些函数可以用作参数传递给高阶函数(比如 filter()
, map()
, sorted()
, reduce()
等),或者作为其他函数的返回值。
lambda
函数本质上是一个匿名函数,因为它没有具体的名称。
语法:
lambda arguments: expression
arguments
是传递给函数的参数列表,它们之间用逗号分隔。expression
是关于参数的单个表达式,其结果会被lambda
函数返回。
例1:加法
add = lambda x, y: x + y
print(add(5, 3)) # 输出: 8
例2:使用 map()
函数
将列表中的每个元素都乘以 2,可以使用 lambda
函数和 map()
函数来实现
numbers = [1, 2, 3, 4, 5]
doubled = list(map(lambda x: x * 2, numbers))
print(doubled) # 输出: [2, 4, 6, 8, 10]
例3:使用 filter()
函数
filter()
函数用于过滤序列,过滤掉不符合条件的元素,返回由符合条件元素组成的新列表。结合 lambda
函数,可以非常方便地实现这一功能
numbers = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]
filtered = list(filter(lambda x: x % 2 == 0, numbers))
print(filtered) # 输出: [2, 4, 6, 8, 10]
例4:在 sorted()
函数中使用
sorted()
函数可以对所有可迭代的对象进行排序操作,lambda
函数允许你指定排序的关键字
pairs = [(1, 'one'), (3, 'three'), (2, 'two'), (4, 'four')]
pairs.sort(key=lambda pair: pair[1])
print(pairs) # 输出: [(4, 'four'), (1, 'one'), (3, 'three'), (2, 'two')]
# 或者使用 sorted() 返回新的列表,不改变原列表
sorted_pairs = sorted(pairs, key=lambda pair: pair[0])
print(sorted_pairs) # 输出: [(1, 'one'), (2, 'two'), (3, 'three'), (4, 'four')]
filter() 函数
filter()
函数是 Python 的一个内置高阶函数,它用于过滤序列,过滤掉那些不符合条件的元素,返回由符合条件元素组成的新迭代器。
filter()
函数接收两个参数:
-
函数:用于测试序列中每个元素的函数。这个函数应该接受一个参数并返回一个布尔值(True 或 False)。如果函数返回 True,则元素会被包含在返回的迭代器中;如果返回 False,则元素会被排除。
-
序列:要过滤的序列(如列表、元组等)。
filter()
函数的工作原理是遍历序列中的每个元素,将元素作为参数传递给函数,然后根据函数的返回值(True 或 False)来决定是否将该元素包含在结果迭代器中。
filter(function, iterable)
举例:
def is_even(n):
return n % 2 == 0
numbers = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]
filtered_numbers = list(filter(is_even, numbers))
print(filtered_numbers) # 输出: [2, 4, 6, 8, 10]
# 写法2
# numbers = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]
# filtered_numbers = [x for x in numbers if x % 2 == 0]
# print(filtered_numbers) # 输出: [2, 4, 6, 8, 10]
传递给 filter()
的函数应该能够接受序列中的元素作为参数,并返回一个布尔值(True 或 False),以指示该元素是否应该包含在结果中。