Mindspore网络构建
Posted 跳楼梯企鹅
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Mindspore网络构建相关的知识,希望对你有一定的参考价值。
网络构建
神经网络模型是由神经网络层和Tensor操作构成的,
mindspore.nn
提供了常见神经网络层的实现,在MindSpore中,Cell
类是构建所有网络的基类,也是网络的基本单元。一个神经网络模型表示为一个Cell
,它由不同的子Cell
构成。使用这样的嵌套结构,可以简单地使用面向对象编程的思维,对神经网络结构进行构建和管理。
构建Mnist数据集分类的神经网络
import mindspore
from mindspore import nn, ops
个人理解:在代码层面也就是直接调用模块,通过模块来实现我们想要达成的效果。
定义模型类
定义神经网络时,可以继承nn.Cell
类,在__init__
方法中进行子Cell的实例化和状态管理,在construct
方法中实现Tensor操作。
class Network(nn.Cell):
def __init__(self):
super().__init__()
self.flatten = nn.Flatten()
self.dense_relu_sequential = nn.SequentialCell(
nn.Dense(28*28, 512),
nn.ReLU(),
nn.Dense(512, 512),
nn.ReLU(),
nn.Dense(512, 10)
)
def construct(self, x):
x = self.flatten(x)
logits = self.dense_relu_sequential(x)
return logits
#构建完成后,实例化Network对象,并查看其结构。
model = Network()
print(model)
Network<
(flatten): Flatten<>
(dense_relu_sequential): SequentialCell<
(0): Dense<input_channels=784, output_channels=512, has_bias=True>
(1): ReLU<>
(2): Dense<input_channels=512, output_channels=512, has_bias=True>
(3): ReLU<>
(4): Dense<input_channels=512, output_channels=10, has_bias=True>
>
>
#我们构造一个输入数据,直接调用模型,可以获得一个10维的Tensor输出,其包含每个类别的原始预测值。
X = ops.ones((1, 28, 28), mindspore.float32)
logits = model(X)
print(logits)
pred_probab = nn.Softmax(axis=1)(logits)
y_pred = pred_probab.argmax(1)
print(f"Predicted class: y_pred")
模型层
分解上节构造的神经网络模型中的每一层。
input_image = ops.ones((5, 15, 18), mindspore.float32)
print(input_image.shape)
#输出结果
(5, 15, 18)
#nn.Flatten层的实例化
flatten = nn.Flatten()
flat_image = flatten(input_image)
print(flat_image.shape)
#nn.Dense全链层,权重和偏差对输入进行线性变换
layer1 = nn.Dense(in_channels=20*20, out_channels=20)
hidden1 = layer1(flat_image)
print(hidden1.shape)
#nn.ReLU层,网络中加入非线性的激活函数
print(f"Before ReLU: hidden1\\n\\n")
hidden1 = nn.ReLU()(hidden1)
print(f"After ReLU: hidden1")
#nn.SequentialCell容器配置
seq_modules = nn.SequentialCell(
flatten,
layer1,
nn.ReLU(),
nn.Dense(15, 10)
)
logits = seq_modules(input_image)
print(logits.shape)
#nn.Softmax全链层返回的值进行预测
softmax = nn.Softmax(axis=1)
pred_probab = softmax(logits)
参数模型
网络内部神经网络层具有权重参数和偏置参数
print(f"Model structure: model\\n\\n")
for name, param in model.parameters_and_names():
print(f"Layer: name\\nSize: param.shape\\nValues : param[:2] \\n")
内置神经网络(mindspore.nn)
1.基本构成单元
接口名 | 概述 |
mindspore.nn.Cell | MindSpore中神经网络的基本构成单元。 |
mindspore.nn.GraphCell | 运行从MindIR加载的计算图。 |
mindspore.nn.LossBase | 损失函数的基类。 |
mindspore.nn.Optimizer | 用于参数更新的优化器基类。 |
2.循环神经网络层
接口名 | 概述 |
mindspore.nn.RNN | 循环神经网络(RNN)层,其使用的激活函数为tanh或relu。 |
mindspore.nn.RNNCell | 循环神经网络单元,激活函数是tanh或relu。 |
mindspore.nn.GRU | GRU(Gate Recurrent Unit)称为门控循环单元网络,是循环神经网络(Recurrent Neural Network, RNN)的一种。 |
mindspore.nn.GRUCell | GRU(Gate Recurrent Unit)称为门控循环单元。 |
mindspore.nn.LSTM | 长短期记忆(LSTM)网络,根据输出序列和给定的初始状态计算输出序列和最终状态。 |
mindspore.nn.LSTMCell | 长短期记忆网络单元(LSTMCell)。 |
3.嵌入层
接口名 | 概述 |
mindspore.nn.Embedding | 嵌入层。 |
mindspore.nn.EmbeddingLookup | 嵌入查找层。 |
mindspore.nn.MultiFieldEmbeddingLookup | 根据指定的索引和字段ID,返回输入Tensor的切片。 |
4.池化层
接口名 | 概述 |
mindspore.nn.AdaptiveAvgPool1d | 对输入的多维数据进行一维平面上的自适应平均池化运算。 |
mindspore.nn.AdaptiveAvgPool2d | 二维自适应平均池化。 |
mindspore.nn.AdaptiveAvgPool3d | 三维自适应平均池化。 |
mindspore.nn.AdaptiveMaxPool1d | 对输入的多维数据进行一维平面上的自适应最大池化运算。 |
mindspore.nn.AdaptiveMaxPool2d | 二维自适应最大池化运算。 |
mindspore.nn.AvgPool1d | 对输入的多维数据进行一维平面上的平均池化运算。 |
mindspore.nn.AvgPool2d | 对输入的多维数据进行二维的平均池化运算。 |
mindspore.nn.MaxPool1d | 对时间数据进行最大池化运算。 |
mindspore.nn.MaxPool2d | 对输入的多维数据进行二维的最大池化运算。 |
5. 图像处理层
接口名 | 概述 |
mindspore.nn.CentralCrop | 根据指定比例裁剪出图像的中心区域。 |
mindspore.nn.ImageGradients | 计算每个颜色通道的图像渐变,返回为两个Tensor,分别表示高和宽方向上的变化率。 |
mindspore.nn.MSSSIM | 多尺度计算两个图像之间的结构相似性(SSIM)。 |
mindspore.nn.PSNR | 在批处理中计算两个图像的峰值信噪比(PSNR)。 |
mindspore.nn.ResizeBilinear | 使用双线性插值调整输入Tensor为指定的大小。 |
mindspore.nn.SSIM | 计算两个图像之间的结构相似性(SSIM)。 |
因为篇幅原因,这里就不全部介绍了,后面会继续更新
以上是关于Mindspore网络构建的主要内容,如果未能解决你的问题,请参考以下文章
AI+科学计算-昇思MindSpore都给我们带来哪些惊喜?