如何在keras中连接两层?
Posted
技术标签:
【中文标题】如何在keras中连接两层?【英文标题】:How to concatenate two layers in keras? 【发布时间】:2017-08-29 00:40:51 【问题描述】:我有一个两层神经网络的例子。第一层有两个参数并有一个输出。第二个应该将一个参数作为第一层的结果和一个附加参数。它应该是这样的:
x1 x2 x3
\ / /
y1 /
\ /
y2
所以,我创建了一个包含两层的模型并尝试将它们合并,但它返回错误:The first layer in a Sequential model must get an "input_shape" or "batch_input_shape" argument.
在行 result.add(merged)
。
型号:
first = Sequential()
first.add(Dense(1, input_shape=(2,), activation='sigmoid'))
second = Sequential()
second.add(Dense(1, input_shape=(1,), activation='sigmoid'))
result = Sequential()
merged = Concatenate([first, second])
ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0)
result.add(merged)
result.compile(optimizer=ada_grad, loss=_loss_tensor, metrics=['accuracy'])
【问题讨论】:
我认为这个问题在人工智能中被称为分层融合,主要用于多模态数据。 【参考方案1】:您收到错误是因为 result
定义为 Sequential()
只是模型的容器,而您尚未为其定义输入。
鉴于您正在尝试构建集合 result
以获取第三个输入 x3
。
first = Sequential()
first.add(Dense(1, input_shape=(2,), activation='sigmoid'))
second = Sequential()
second.add(Dense(1, input_shape=(1,), activation='sigmoid'))
third = Sequential()
# of course you must provide the input to result which will be your x3
third.add(Dense(1, input_shape=(1,), activation='sigmoid'))
# lets say you add a few more layers to first and second.
# concatenate them
merged = Concatenate([first, second])
# then concatenate the two outputs
result = Concatenate([merged, third])
ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0)
result.compile(optimizer=ada_grad, loss='binary_crossentropy',
metrics=['accuracy'])
但是,构建具有这种类型输入结构的模型的首选方法是使用functional api。
以下是您的要求的实现,可帮助您入门:
from keras.models import Model
from keras.layers import Concatenate, Dense, LSTM, Input, concatenate
from keras.optimizers import Adagrad
first_input = Input(shape=(2, ))
first_dense = Dense(1, )(first_input)
second_input = Input(shape=(2, ))
second_dense = Dense(1, )(second_input)
merge_one = concatenate([first_dense, second_dense])
third_input = Input(shape=(1, ))
merge_two = concatenate([merge_one, third_input])
model = Model(inputs=[first_input, second_input, third_input], outputs=merge_two)
ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0)
model.compile(optimizer=ada_grad, loss='binary_crossentropy',
metrics=['accuracy'])
回答 cmets 中的问题:
-
结果和合并是如何连接的?假设您的意思是它们是如何连接的。
连接的工作方式如下:
a b c
a b c g h i a b c g h i
d e f j k l d e f j k l
即行刚刚加入。
-
现在,
x1
输入到第一个,x2
输入到第二个,x3
输入到第三个。
【讨论】:
result
和 merged
(或merged2
)层如何在您的答案的第一部分相互连接?
和第二个问题。据我了解x1
和x2
是first_input
的输入,x3
是third_input
的输入。 second_input
呢?
second_input
通过Dense
层并与first_input
连接,first_input
也通过Dense
层。 third_input
通过一个密集层并与前一个连接的结果连接 (merged
)
@putonspectacles 使用功能 API 的第二种方法有效,但是,使用顺序模型的第一种方法在 Keras 2.0.2 中不适用于我。我已经粗略地检查了实现并且调用“Concatenate([...])”并没有做太多,此外,你不能将它添加到顺序模型中。实际上,我认为在更新 Keras 之前,仍然需要使用已被贬低的方法“Merge([...], 'concat')”。你怎么看?
Keras 中Concatenate()
和concatenate()
层有什么区别?【参考方案2】:
添加到上面接受的答案,以便它帮助那些使用tensorflow 2.0
的人
import tensorflow as tf
# some data
c1 = tf.constant([[1, 1, 1], [2, 2, 2]], dtype=tf.float32)
c2 = tf.constant([[2, 2, 2], [3, 3, 3]], dtype=tf.float32)
c3 = tf.constant([[3, 3, 3], [4, 4, 4]], dtype=tf.float32)
# bake layers x1, x2, x3
x1 = tf.keras.layers.Dense(10)(c1)
x2 = tf.keras.layers.Dense(10)(c2)
x3 = tf.keras.layers.Dense(10)(c3)
# merged layer y1
y1 = tf.keras.layers.Concatenate(axis=1)([x1, x2])
# merged layer y2
y2 = tf.keras.layers.Concatenate(axis=1)([y1, x3])
# print info
print("-"*30)
print("x1", x1.shape, "x2", x2.shape, "x3", x3.shape)
print("y1", y1.shape)
print("y2", y2.shape)
print("-"*30)
结果:
------------------------------
x1 (2, 10) x2 (2, 10) x3 (2, 10)
y1 (2, 20)
y2 (2, 30)
------------------------------
【讨论】:
【参考方案3】:您可以尝试model.summary()
(注意 concatenate_XX(连接)层大小)
# merge samples, two input must be same shape
inp1 = Input(shape=(10,32))
inp2 = Input(shape=(10,32))
cc1 = concatenate([inp1, inp2],axis=0) # Merge data must same row column
output = Dense(30, activation='relu')(cc1)
model = Model(inputs=[inp1, inp2], outputs=output)
model.summary()
# merge row must same column size
inp1 = Input(shape=(20,10))
inp2 = Input(shape=(32,10))
cc1 = concatenate([inp1, inp2],axis=1)
output = Dense(30, activation='relu')(cc1)
model = Model(inputs=[inp1, inp2], outputs=output)
model.summary()
# merge column must same row size
inp1 = Input(shape=(10,20))
inp2 = Input(shape=(10,32))
cc1 = concatenate([inp1, inp2],axis=1)
output = Dense(30, activation='relu')(cc1)
model = Model(inputs=[inp1, inp2], outputs=output)
model.summary()
您可以在此处查看笔记本以了解详细信息: https://nbviewer.jupyter.org/github/anhhh11/DeepLearning/blob/master/Concanate_two_layer_keras.ipynb
【讨论】:
Keras 中的Concatenate()
和concatenate()
层有什么区别?
你分清楚区别了吗,一个是Keras类,另一个是tensorflow方法以上是关于如何在keras中连接两层?的主要内容,如果未能解决你的问题,请参考以下文章