print(a[0, 0].shape) # 取到二个维度
print(a[1, 2, 2, 4]) # 具体到某个元素
上述代码创建了一个shape=[4, 3, 28, 28]的Tensor,我们可以理解为4张图片,每张图片有3个通道,每个通道是28x28的图像数据。a代表这个Tensor,a后面跟着的列表[]表示对Tensor进行索引,a的维度dim = 4,决定了[]中的元素个数不能超过4个,[]中的值表示对应维度上的哪一个元素,比如 a[0]表示取第一个维度上的第一个元素,可以理解为第一张图片,a[1]表示取第一个维度上的第二个元素,可以理解为第二张图片。a[0, 0]表示取第一个维度上第一个元素的与第二个维度上的第一个元素,也就是第一张图片第一个通道的元素。a[1, 2, 2, 4]表示取第第一个维度上的第二个元素与第二个维度上的第三个元素与第三个维度上的第三个元素与第四个维度上的第5个元素,也就是第二张图片第三个通道第三行第四列的像素值是一个标量值。
输出结果:
torch.Size([3, 28, 28])
torch.Size([28, 28])
tensor(0.1076)
2. python风格的索引
示例代码:
import torch
# 譬如:4张图片,每张三个通道,每个通道28行28列的像素
a = torch.rand(4, 3, 28, 28)
# 在第一个维度上取后0和1,等同于取第一、第二张图片
print(a[:2].shape)
# 在第一个维度上取0和1,在第二个维度上取0,
# 等同于取第一、第二张图片中的第一个通道
print(a[:2, :1, :, :].shape)
# 在第一个维度上取0和1,在第二个维度上取1,2,
# 等同于取第一、第二张图片中的第二个通道与第三个通道
print(a[:2, 1:, :, :].shape)
# 在第一个维度上取0和1,在第二个维度上取1,2,
# 等同于取第一、第二张图片中的第二个通道与第三个通道
print(a[:2, -2:, :, :].shape)
# 使用step隔行采样
# 在第一、第二维度取所有元素,在第三、第四维度隔行采样
# 等同于所有图片所有通道的行列每个一行或者一列采样
# 注意:下面的代码不包括28
print(a[:, :, 0:28:2, 0:28:2].shape)
print(a[:, :, ::2, ::2].shape) # 等同于上面语句
注意:负值的索引即表示倒数第几个元素,-2就是倒数第二个元素。
输出结果:
torch.Size([2, 3, 28, 28])
torch.Size([2, 1, 28, 28])
torch.Size([2, 2, 28, 28])
torch.Size([2, 2, 28, 28])
3. index_select()选择特定索引
选择特定下标有时候很有用,比如上面的a这个Tensor可以看作4张RGB(3通道)的MNIST图像,长宽都是28px。那么在第一维度上可以选择特定的图片,在第二维度上选择特定的通道,在第三维度上选择特定的行等:
# 选择第一张和第三张图
print(a.index_select(0, torch.tensor([0, 2])).shape)
# 选择R通道和B通道
print(a.index_select(1, torch.tensor([0, 2])).shape)
# 选择图像的0~8行
print(a.index_select(2, torch.arange(8)).shape)
注意:index_select()的第二个索引参数必须是Tensor类型
输出结果:
torch.Size([2, 3, 28, 28])
torch.Size([4, 2, 28, 28])
torch.Size([4, 3, 8, 28])
4. 使用 ... 索引任意多的维度
import torch
a = torch.rand(4, 3, 28, 28)
# 等与a
print(a[...].shape)
# 第一张图片的所有维度
print(a[0, ...].shape)
# 所有图片第二通道的所有维度
print(a[:, 1, ...].shape)
# 所有图像所有通道所有行的第一、第二列
print(a[..., :2].shape)
输出结果:
torch.Size([4, 3, 28, 28])
torch.Size([3, 28, 28])
torch.Size([4, 28, 28])
torch.Size([4, 3, 28, 2])
5. 使用mask索引
示例代码:
import torch
a = torch.randn(3, 4)
print(a)
# 生成a这个Tensor中大于0.5的元素的掩码
mask = a.ge(0.5)
print(mask)
# 取出a这个Tensor中大于0.5的元素
val = torch.masked_select(a, mask)
print(val)
print(val.shape)
输出结果:
tensor([[ 0.2055, -0.7070, 1.1201, 1.3325],
[-1.6459, 0.9635, -0.2741, 0.0765],
[ 0.2943, 0.1206, 1.6662, 1.5721]])
tensor([[0, 0, 1, 1],
[0, 1, 0, 0],
[0, 0, 1, 1]], dtype=torch.uint8)
tensor([1.1201, 1.3325, 0.9635, 1.6662, 1.5721])
torch.Size([5])
注意:最后取出的 大于0.5的Tensor的shape已经被打平。
6. take索引
take索引是在原来Tensor的shape基础上打平,然后在打平后的Tensor上进行索引。
示例代码:
import torch
a = torch.tensor([[3, 7, 2], [2, 8, 3]])
print(a)
print(torch.take(a, torch.tensor([0, 1, 5])))
输出结果:
tensor([[3, 7, 2],
[2, 8, 3]])
tensor([3, 7, 3])
1. Pytorch风格的索引根据Tensor的shape,从前往后索引,依次在每个维度上做索引。示例代码:import torcha = torch.rand(4, 3, 28, 28)print(a[0].shape) #取到第一个维度print(a[0, 0].shape) # 取到二个维度print(a[1, 2, 2, 4]) # 具体到某个元素上述代码创建...
torch.cat(inputs, dimension=0) → Tensor
在给定维度上对输入的张量序列进行连接操作。
torch.cat()可以看做 torch.split() 和 torch.chunk()的反操作。
input...
1、torch.cat():将张量按照dim维度进行拼接
2、torch.stack():将张量在新创建的dim维度上进行拼接
3、torch.chunk():将张量按照维度 dim 进行平均切分。若不能整除,则最后一份张量小于其他张量
4、torch.split():将张量按照维度 dim 进行平均切分。可以指定每一个分量的切分长度
5、torch.index_select():在维度 dim 上,按照 index 索引取出数据拼接为张量返回
torch.take(input, index)->Tensor
返回一个新的张量,其中的元素是输入元素在给定的索引处,将输入张量视为视为一维张量。结果tensor的形状与索引相同。
参数介绍:
input:输入tensor。
indices:索引
接下来看用法:
>>> src = torch.tensor([[4, 3, 5],
[6, 7, 8]])
>>> torch.take(src, t
torch.index_select(input, dim, index, *, out=None) → Tensor
此方法的作用是,根据dim取出input中的index对应的元素,并且返回一个tensor,首先是参数介绍
input(Tensor):输入的tensor。
dim(int):指定我们要进行索引选择的维度。
index(LongTensor):索引。
out:输出tensor。
使用方法:
>>> x = torch.randn(3, 4)
文章目录前因各种Tensor索引操作1. 简单索引2. 一般的花式索引3. 复杂的花式索引4. Informer代码示例
之前一直以为对ndarray的各种索引切片操作还算得上熟悉,但今天师弟问了我Informer实现中ProbSparse Self-Attention的一些Tensor索引操作,才发现有些操作还不太懂,而网上也缺乏相关的参考资料。因此在一系列探索下,写下了这篇博客。
各种Tensor索引操作
构造示例数组x,为一个三维tesnor:
import torch
x = torch.ar
使用torch.gather选择
tensor某一维度指定的元素问题简化实现torch.gather用法TIPS
PyTorch中,对于某个二维
tensor,要求取出其每一行的指定元素,组成新的
tensor。例如,对于
A = torch.
tensor([[1,2,3],[4,5,6],[7,8,9]])
#
tensor([[1, 2, 3],
[4, 5, 6],
按照PyTorch的规则,经过批处理加载后的图像数据排列规则:
[batchsize;channels;width;height][batchsize; channels; width; height][batchsize;channels;width;height]
有些场景下我们想要提取出众多通道中的某些通道,如在目标检测场景下,我们将一些通道映射到bbox,要取出4通道数:
eg:取出来前两个通道
target[:, :2]
out[:, :2]
接下来就可以进行计算损.
Check failed: status == CUDNN_STATUS_SUCCESS (1 vs. 0) CUDNN_STATUS_NOT_INITIALIZED
_滚筒洗衣机_:
张正友相机标定Opencv实现程序(ubuntu环境)
张木木.: