pytorch入门线性代数的实现

Posted 啊~小 l i

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了pytorch入门线性代数的实现相关的知识,希望对你有一定的参考价值。

线性代数

标量:只有一个元素的张量表示

import torch

x = torch.tensor([3.0])
y = torch.tensor([2.0])
print(x+y)
print(x*y)
print(x/y)
print(x**y)

在这里插入图片描述

向量:标量值组成的列表

z = torch.arange(4)
print(z)
print(z[3])

通过张量的索引访问任意一元素
在这里插入图片描述
通过指定两个分量m n来创建一个形状为m*n的矩阵

h = torch.ones(25).reshape(5,5)
print(h)

在这里插入图片描述

print(len(h))  # 张量大小
print(h.shape)  # 张量形状

在这里插入图片描述
矩阵的转置

h = torch.arange(24).reshape(4,6)
print(h.T)

在这里插入图片描述

  • 对称矩阵(A == A.T)
B = torch.tensor([[1,2,3],[2,0,4],[3,4,5]])
print(B)
print(B.T)
print(B == B.T)

在这里插入图片描述

  • 通过分配新的内存,实现张量复制
j = torch.arange(20, dtype=torch.float32).reshape(5,4)
k = j.clone()  # 将j的副本分配给k
print(k)
print(j+k)

在这里插入图片描述
两个矩阵按照元素的乘法称为 哈达玛积

  • 求矩阵所有元素的和
    print(j.sum())
    在这里插入图片描述
a = torch.arange(20*2).reshape(2,5,4)
print(a.shape)
print(a.sum())

在这里插入图片描述

  • 指定求和张量的轴
a = torch.arange(20*2).reshape(2,5,4)
print(a.shape)
print(a.sum())
print(a)
print(a.sum(axis=0))
print(a.sum(axis=1))

在这里插入图片描述

axis0:缩小了2这个维度,即上图的两个张量相加
axis0:缩小了5这个维度,即上图每个表的列相加
print(a.sum(axis=[0,1]))综合了上面两个实例

  • 求平均值
    print(a.sum()/a.numel())等价于print(a.mean())
    print(a.mean(axis=0))等价于print(a.sum(axis=0)/a.shape[0])

  • 计数求和时保持轴数不变
    print(a.sum(axis=1,keepdims=True))
    轴数改变
    在这里插入图片描述
    轴数不变
    在这里插入图片描述

  • 通过广播将a/a.sum()
    print(a/a.sum())

  • 某个轴计算总和
    print(a.cumsum(axis=0))

  • 点积(相同位置相乘)
    q1 = torch.ones(4,dtype=float32) q2 = torch.ones(4,dtype=float32) print(q1) print(q2) print(torch.dot(q1,q2))
    在这里插入图片描述
    等价于
    print(sum(q1*q2))

补充

用GPU存储张量
s = torch.randn(3000,3000,device="cuda:0") print(s)

以上是关于pytorch入门线性代数的实现的主要内容,如果未能解决你的问题,请参考以下文章

PyTorch 完全入门指南!从线性回归逻辑回归到图像分类

Pytorch 入门

零基础如何入门到精通人工智能Pytorch, 深度学习,如何跟进AI领域的最新算法,如何读论文找代码

零基础如何入门到精通人工智能Pytorch, 深度学习,如何跟进AI领域的最新算法,如何读论文找代码

零基础如何入门到精通人工智能Pytorch, 深度学习,如何跟进AI领域的最新算法,如何读论文找代码

Pytorch实现线性回归