keras模块学习之层(layer)的使用-笔记

Posted 圆柱模板

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了keras模块学习之层(layer)的使用-笔记相关的知识,希望对你有一定的参考价值。

   本笔记由博客园-圆柱模板 博主整理笔记发布,转载需注明,谢谢合作!

   keras的层主要包括:

       常用层(Core)、卷积层(Convolutional)、池化层(Pooling)、局部连接层、递归层(Recurrent)、嵌入层( Embedding)、高级激活层、规范层、噪声层、包装层,当然也可以编写自己的层

    对于层的操作

   

layer.get_weights() #返回该层的权重
layer.set_weights(weights)#将权重加载到该层
config = layer.get_config()#保存该层的配置
layer = layer_from_config(config)#加载一个配置到该层
#该层有一个节点时,获得输入张量、输出张量、及各自的形状:
layer.input
layer.output
layer.input_shape
layer.output_shape
#该层有多个节点时(node_index为节点序号):
layer.get_input_at(node_index)
layer.get_output_at(node_index)
layer.get_input_shape_at(node_index)
layer.get_output_shape_at(node_index)

  Dense层(全连接层)

   

keras.layers.core.Dense(output_dim, init=‘glorot_uniform‘, activation=‘linear‘, weights=None, W_regularizer=None, b_regularizer=None, activity_regularizer=None, W_constraint=None, b_constraint=None, bias=True, input_dim=None)

  

output_dim:输出数据的维度

init:初始化该层权重的方法

activation:该层的激活函数

weights:numpy array的list。该list应含有一个形如(input_dim,output_dim)的权重矩阵和一个形如(output_dim,)的偏置向量

regularizer:正则项,w为权重的、b为偏执的,activity为输出的

constraints:约束项

bias:是否包含偏执向量,是布尔值

input_dim:输入数据的维度

 

dropout层

keras.layers.core.Dropout(p)

为输入数据施加Dropout。Dropout将在训练过程中每次更新参数时随机断开一定百分比(p)的输入神经元连接,Dropout层用于防止过拟合。 

以上是关于keras模块学习之层(layer)的使用-笔记的主要内容,如果未能解决你的问题,请参考以下文章

(图形学笔记 - Vulkan) 1.1.3 - Validation layers(建立vulkan的验证层)

(图形学笔记 - Vulkan) 1.1.3 - Validation layers(建立vulkan的验证层)

(图形学笔记 - Vulkan) 1.1.3 - Validation layers(建立vulkan的验证层)

自问自答系列-caffe源码学习之总体学习

Keras网络层之“关于Keras的层(Layer)”

tensorflow学习之使用tensorboard 展示神经网络的graph/histogram/scalar