Transforms 变换
数据并不总是以训练机器学习算法所需的最终处理形式出现。我们使用转换来对数据执行一些操作并使其适合训练。
所有 TorchVision 数据集都有两个参数 - 用于修改特征的transform和用于修改标签的target_transform - 接受包含转换逻辑的可调用对象。 torchvision.transforms模块提供了几种开箱即用的常用转换。
FashionMNIST特征采用PIL图像格式,标签为整数。对于训练,我们需要将特征作为归一化张量,将标签作为单热编码张量。为了进行这些转换,我们使用ToTensor和Lambda 。
python
import torch
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda
ds = datasets.FashionMNIST(
root="data",
train=True,
download=True,
transform=ToTensor(),
target_transform=Lambda(lambda y: torch.zeros(10, dtype=torch.float).scatter_(0, torch.tensor(y), value=1))
)
ToTensor() 到张量()
ToTensor将 PIL 图像或 NumPy ndarray转换为FloatTensor 。并在 [0., 1.] 范围内缩放图像的像素强度值
Lambda Transforms 拉姆达变换
Lambda 转换应用任何用户定义的 lambda 函数。在这里,我们定义一个函数将整数转换为 one-hot 编码张量。它首先创建一个大小为 10 的零张量(数据集中的标签数量)并调用scatter_ ,它在标签y给定的索引上分配value=1 。
python
target_transform = Lambda(lambda y: torch.zeros(
10, dtype=torch.float).scatter_(dim=0, index=torch.tensor(y), value=1))