Keras 主要的层函数
Posted 沧夜2021
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Keras 主要的层函数相关的知识,希望对你有一定的参考价值。
文章目录
卷积层
Conv1D layer:一维卷积层(例如时间卷积),该层创建一个卷积内核,该卷积内核图层输入在单个空间(或时间)维度上,以产生输出张量。
Conv2D layer:2D 卷积层(例如图像上的空间卷积)。该层创建一个卷积内核,该卷积内核使用层输入产生张量输出。
Conv3D layer:3D 卷积层(例如体积上的空间卷积)。该层创建一个卷积内核,该卷积内核使用层输入产生张量输出。
SeparableConv1D layer:深度可分离的一维卷积。该层执行深度卷积,该卷积单独作用于通道,然后是混合通道的逐点卷积。
SeparableConv2D layer:深度可分离的 2D 卷积。可分离卷积由首次执行深度空间卷积 (分别作用于每个输入通道) 然后是逐点卷积,将结果混合输出通道。
DepthwiseConv2D layer:深度 2D 卷积。深度卷积是一种卷积,其中每个输入通道 与不同的内核(称为深度内核)卷积。
Conv1DTranspose layer:转置卷积层(有时称为反卷积)。
Conv3DTranspose layer:二维转置卷积层(有时称为反卷积)。
Conv3DTranspose layer:三维转置卷积层(有时称为反卷积)。
池化层 Pooling layers
MaxPooling1D layer:一维时态数据的最大池化操作。通过取最大值对输入表示进行下采样大小的空间窗口。
MaxPooling2D layer:2D 空间数据的最大池化操作。沿输入的空间维度(高度和宽度)对输入进行下采样。
MaxPooling3D layer:3D 数据的最大池化操作(空间或时空)。
AveragePooling1D layer:时态数据的平均池化。
AveragePooling2D layer:空间数据的平均池化操作。
AveragePooling3D layer:3D 数据的平均池化操作(空间或时空)。
GlobalMaxPooling1D layer:一维时态数据的全局最大池化操作。
GlobalMaxPooling2D layer:空间数据的全局最大池化操作。
全GlobalMaxPooling3D layer:3D 数据的全局最大池化操作。
GlobalAveragePooling1D layer:时态数据的全局平均池化操作。
GlobalAveragePooling2D layer:空间数据的全局平均池化操作。
GlobalAveragePooling3D layer:3D 数据的全局平均池化操作。
循环层
LSTM layer:长短期记忆层
GRU layer:门控循环单元
SimpleRNN layer:全连接 RNN
TimeDistributed layer:此包装器允许将图层应用于输入的每个时态切片。
Bidirectional layer:RNN 的双向包装器。
ConvLSTM1D layer:一维卷积 LSTM。
ConvLSTM2D layer:二维卷积 LSTM。
ConvLSTM3D layer:三维卷积 LSTM。
Base RNN layer:循环层的基类。
预处理层 Preprocessing layers
Text preprocessing:将文本特征映射到整数序列的预处理层。
Numerical features preprocessing layers:包括规范化层和离散化层
Numerical features preprocessing layers:包括类别编码层、哈希层、字符串查找层、整数查找层
Numerical features preprocessing layers:包括调整图像大小层、重新缩放层、中心裁剪层
Numerical features preprocessing layers:包括随机裁剪图层、随机翻转图层、随机平移层、随机旋转图层、随机缩放图层、随机高度图层、随机宽度图层、随机对比度图层、随机亮度图层
归一化层
BatchNormalization layer:规范化输入的层。批量归一化应用保持平均输出的变换接近 0,输出标准差接近 1。
LayerNormalization layer:层的归一化层(Ba等人,2016)。规范化每个给定示例中前一层的激活,独立于批处理,而不是像批处理规范化那样跨批处理。 即应用一个变换,以保持每个内的平均激活接近 0,激活标准差接近 1。
UnitNormalization layer:单元归一化层。规范化一批输入,以便该批中的每个输入都具有 L2 范数等于 1。
GroupNormalization layer:组规范化层。组规范化将通道划分为组并计算 在每个组中,归一化的均值和方差。
正则化层 Regularization layers
Dropout layer:Dropout 层在训练时以每一步的频率随机将输入单位设置为 0,这有助于防止过度拟合。
SpatialDropout1D layer:Dropout 的空间一维版本。
SpatialDropout2D layer:Dropout 的空间二维版本。
SpatialDropout3D layer:Dropout 的空间三维版本。
GaussianDropout layer:应用乘法 1 中心高斯噪声。由于它是一个正则化层,因此它仅在训练时处于活动状态。
GaussianNoise layer:应用加法 0 中心高斯噪声。这对于缓解过度拟合很有用 (您可以将其视为随机数据增强的一种形式)。
ActivityRegularization layer:对基于成本函数的输入活动应用更新的图层
AlphaDropout layer:对基于成本函数的输入活动应用更新的图层
注意力层 Attention layers
MultiHeadAttention layer:多头注意层。这是多头注意力的实现。
Attention layer:点积注意力层。输入是形状的张量,张量 形状和形状的张量。
AdditiveAttention layer:加性注意力层。输入是形状的张量,张量 形状和形状的张量。
Reshaping layers
Reshape layer:将输入调整为给定形状的图层。
Flatten layer:平展输入。不影响批大小。
RepeatVector layer:重复输入 n 次。
Permute layer:根据给定模式排列输入的维度。
Cropping1D layer:用于一维输入的裁剪图层(例如时间序列)。
Cropping2D layer:用于 2D 输入(例如图片)的裁剪图层。
Cropping3D layer:3D 数据的裁剪图层(例如空间或时空)。
UpSampling1D layer:一维输入的上采样层。沿时间轴重复每个时态步长时间。
UpSampling2D layer:用于 2D 输入的上采样层。重复数据的行和列。
UpSampling3D layer:3D 输入的上采样图层。
ZeroPadding1D layer:用于一维输入的零填充层(例如时间序列)。
ZeroPadding2D layer:用于 2D 输入(例如图片)的零填充层。
ZeroPadding3D layer:3D 数据(空间或时空)的零填充图层。
合并图层 Merging layers
Concatenate layer:连接输入列表的层。
Average layer:连接输入列表的层。
Maximum layer:计算输入列表最大值(按元素)的层。
Minimum layer:计算输入列表最小值(按元素)的层。
Add layer:添加输入列表的图层。
Subtract layer:减去两个输入的图层。
Multiply layer:将输入列表相乘(按元素)的层。
Dot layer:计算两个张量中样本之间的点积的层。
本地连接层 Locally-connected layers
LocallyConnected1D layer:用于 1D 输入的本地连接层。
LocallyConnected2D layer:用于 2D 输入的本地连接层。
激活层 Activation layers
ReLU layer:整流线性单元激活功能。
Softmax layer:Softmax 激活函数层
LeakyReLU layer:LeakyReLU激活函数层
PReLU layer:PReLU激活函数层
ELU layer:ELU激活函数层
ThresholdedReLU layer:ThresholdedReLU激活函数层
以上是关于Keras 主要的层函数的主要内容,如果未能解决你的问题,请参考以下文章
[Python人工智能] 三十六.基于Transformer的商品评论情感分析 keras构建多头自注意力(Transformer)模型
[Python人工智能] 三十六.基于Transformer的商品评论情感分析 keras构建多头自注意力(Transformer)模型