[PyTroch系列-15]:PyTorch基础 - 张量的操作 - 拆分与分割
Posted 文火冰糖的硅基工坊
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了[PyTroch系列-15]:PyTorch基础 - 张量的操作 - 拆分与分割相关的知识,希望对你有一定的参考价值。
作者主页(文火冰糖的硅基工坊):https://blog.csdn.net/HiWangWenBing
本文网址:https://blog.csdn.net/HiWangWenBing/article/details/119489896
目录
第1章 Tensor运算概述
1.1 概述
PyTorch提供了大量的张量运算,基本上可以对标Numpy多维数组的运算,以支持对张量的各种复杂的运算。
这些操作运算中大多是对数组中每个元素执行相同的函数运算,并获得每个元素函数运算的结果序列,这些序列生成一个新的同维度的数组。
https://www.runoob.com/numpy/numpy-linear-algebra.html
不同维度张量的维度方向标识
- 随着张量维度的增加,张量维度的标识dim的范围也在扩宽
- 在张量维度扩展的过程中,维度标识值(dim=n)的含义也在发生变化。
- dim=0总是指向张量的多维数组存储的最外层:[ ] [ ] [ ], 这与物理存储的标识是相反的。
1.2 运算分类
(1)算术运算:加、减、系数乘、系数除
(2)函数运算:sin,cos
(3)取整运算:上取整、下取整
(4)统计运算:最大值、最小值、均值
(5)比较运算:大于,等于,小于、排序
(6)线性代数运算:矩阵、点乘、叉乘
1.3 张量的操作与变换
(1)变换内容: 变换张量元素的值。
(1)变换长度:变换张量的某个方向的长度(即向量的维度或长度),长度可增加,可减少。
(3)变换维度:变化张量的维度,维度可以增加,可减少。
1.4 环境准备
import numpy as np
import torch
print("Hello World")
print(torch.__version__)
print(torch.cuda.is_available())
1.5 张量的操作 - 拆分与分割
张量的切分有两种主要的基本策略:
- 在某个维度方向,平均分割:chunk()
- 在某个维度方向,指定分割:split()
第2章 平均分割:chunk()
2.1 工作原理
张量的任意一个dim方向,都是有长度的,这个长度就是该方向上向量的维度或长度。
平均分割是把这个维度的长度,分割成几个等分的部分。
当张量dim方向的长度不能被整除时,切分后的最后一个张量块的大小会少一些。
2.2 函数描述
功能:在不改变张量的维度的情况下,在某个dim方向上,把一个长度较大的张量,分割成多个长度相同的张量。
原型:chunk(input, chunks,dim)
输入参数:
input: 输入张量
chunks:均匀分割的张量个数
dim:切分的方向
2.3 代码示例
#均匀切分
print("源张量")
a = torch.Tensor([[0,2,4,6,8,10,12,14,16,18],[1,3,5,7,9,11,13,15,17,19]])
print(a)
print("\\ndim=0切分后张量")
c = torch.chunk(a,chunks=2,dim=0)
print(c[0])
print(c[1])
print("\\ndim=1切分后张量")
c = torch.chunk(a,chunks=3,dim=1)
print(c[0])
print(c[1])
print(c[2])
输出:
源张量
tensor([[ 0., 2., 4., 6., 8., 10., 12., 14., 16., 18.],
[ 1., 3., 5., 7., 9., 11., 13., 15., 17., 19.]])
dim=0切分后张量
tensor([[ 0., 2., 4., 6., 8., 10., 12., 14., 16., 18.]])
tensor([[ 1., 3., 5., 7., 9., 11., 13., 15., 17., 19.]])
dim=1切分后张量
tensor([[0., 2., 4., 6.],
[1., 3., 5., 7.]])
tensor([[ 8., 10., 12., 14.],
[ 9., 11., 13., 15.]])
tensor([[16., 18.],
[17., 19.]])
备注:
dim=1的方向,长度为10,三等分的结果为:4+4+2,不是3+3+4.
这是这个函数的算法所决定的,它要最后一个张量的长度不能大于其他张量的长度。
第3章 任意分割:split()
3.1 工作原理
张量的任意一个dim方向,都是有长度的,这个长度就是该方向上向量的维度或长度。
任意分割就是指定每个分块的长度,并通过[1,3,5]的形式,指明每个分块的长度和顺序。
3.2 函数描述
功能:在不改变张量的维度的情况下,在某个dim方向上,把一个长度较大的张量,按照指定的长度,依次分割成多个张量。
原型:split(input, split_size_or_sections, dim)
输入参数:
input: 输入张量
split_size_or_sections
dim:切分的方向
3.3 代码示例
#任意切分
print("源张量")
a = torch.Tensor([[0,2,4,6,8,10,12,14,16,18],[1,3,5,7,9,11,13,15,17,19]])
print(a)
print("\\ndim=0切分后张量")
c = torch.split(a,split_size_or_sections=[1,1],dim=0)
print(c[0])
print(c[1])
print("\\ndim=1切分后张量")
c = torch.split(a,[2,4,4],dim=1)
print(c[0])
print(c[1])
print(c[2])
输出:
源张量
tensor([[ 0., 2., 4., 6., 8., 10., 12., 14., 16., 18.],
[ 1., 3., 5., 7., 9., 11., 13., 15., 17., 19.]])
dim=0切分后张量
tensor([[ 0., 2., 4., 6., 8., 10., 12., 14., 16., 18.]])
tensor([[ 1., 3., 5., 7., 9., 11., 13., 15., 17., 19.]])
dim=1切分后张量
tensor([[0., 2.],
[1., 3.]])
tensor([[ 4., 6., 8., 10.],
[ 5., 7., 9., 11.]])
tensor([[12., 14., 16., 18.],
[13., 15., 17., 19.]])
备注:
dim=0时,长度为0,因此只能分割成[1,1]两个块。
dim=1是,长度为10,这里的分割成3个块,分割方法是:[2,4,4]。 2+4+4=10.
作者主页(文火冰糖的硅基工坊):https://blog.csdn.net/HiWangWenBing
本文网址:
以上是关于[PyTroch系列-15]:PyTorch基础 - 张量的操作 - 拆分与分割的主要内容,如果未能解决你的问题,请参考以下文章
[PyTroch系列-13]:PyTorch基础 - 张量的操作 - 筛选过滤
[PyTroch系列-7]:PyTorch基础 - 张量Tensor的算术运算
[PyTroch系列-5]:PyTorch基础 - 稀疏矩阵与其创建方法
[PyTroch系列-11]:PyTorch基础 - 张量Tensor元素的排序