Как объединить два слоя в keras?

у меня есть пример нейронной сети с двумя слоями. Первый слой принимает два аргумента и один выход. Второй должен принимать один аргумент как результат первого слоя и один дополнительный аргумент. Это должно выглядеть так:

x1  x2  x3
   /   /
  y1   /
     /
    y2

Итак, я создал модель с двумя слоями и попытался объединить их, но она возвращает ошибку:The first layer in a Sequential model must get an "input_shape" or "batch_input_shape" argument. в строке result.add(merged).

модель:

first = Sequential()
first.add(Dense(1, input_shape=(2,), activation='sigmoid'))

second = Sequential()
second.add(Dense(1, input_shape=(1,), activation='sigmoid'))

result = Sequential()
merged = Concatenate([first, second])
ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0)
result.add(merged)
result.compile(optimizer=ada_grad, loss=_loss_tensor, metrics=['accuracy'])

2 ответов


Ну, вы получаете ошибку, потому что результат определяется как Sequential() - это просто контейнер для модели a, и вы не определили вход для него.

учитывая, что вы пытаетесь построить set result взять третий вход x3.

first = Sequential()
first.add(Dense(1, input_shape=(2,), activation='sigmoid'))

second = Sequential()
second.add(Dense(1, input_shape=(1,), activation='sigmoid'))

third = Sequential()
# of course you must provide the input to result with will be your x3
third.add(Dense(1, input_shape=(1,), activation='sigmoid'))

# lets say you add a few more layers to first and second.
# concatenate them
merged = Concatenate([first, second])

# then concatenate the two outputs

result = Concatenate([merged,  third])

ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0)

result.compile(optimizer=ada_grad, loss='binary_crossentropy',
               metrics=['accuracy'])
мой предпочтительный способ построения модели, которая имеет этот тип структуры ввода будет использовать функциональный api.

вот реализация ваших требований, чтобы получить вас начал:

from keras.models import Sequential, Model
from keras.layers import Concatenate, Dense, LSTM, Input, concatenate
from keras.optimizers import Adagrad

first_input = Input(shape=(2, ))
first_dense = Dense(1, )(first_input)

second_input = Input(shape=(2, ))
second_dense = Dense(1, )(second_input)

merge_one = concatenate([first_dense, second_dense])

third_input = Input(shape=(1, ))
merge_two = concatenate([merge_one, third_input])

model = Model(inputs=[first_input, second_input, third_input], outputs=merge_two)
model.compile(optimizer=ada_grad, loss='binary_crossentropy',
               metrics=['accuracy'])

ответить на вопрос в комментариях:

1) Как связаны результат и слияние? Предполагая, что вы имеете в виду, как они сцепляются.

конкатенация работает следующим образом:

  a        b         c
a b c   g h i    a b c g h i
d e f   j k l    d e f j k l

i.e строки только что соединены.

2) Теперь, x1 вход во-первых, x2 вводится во второй и x3 вход в третий.


Вы можете поэкспериментировать с model.summary() (обратите внимание на размер слоя concatenate_XX (Concatenate))

# merge samples, two input must be same shape
inp1 = Input(shape=(10,32))
inp2 = Input(shape=(10,32))
cc1 = concatenate([inp1, inp2],axis=0) # Merge data must same row column
output = Dense(30, activation='relu')(cc1)
model = Model(inputs=[inp1, inp2], outputs=output)
model.summary()

# merge row must same column size
inp1 = Input(shape=(20,10))
inp2 = Input(shape=(32,10))
cc1 = concatenate([inp1, inp2],axis=1)
output = Dense(30, activation='relu')(cc1)
model = Model(inputs=[inp1, inp2], outputs=output)
model.summary()

# merge column must same row size
inp1 = Input(shape=(10,20))
inp2 = Input(shape=(10,32))
cc1 = concatenate([inp1, inp2],axis=1)
output = Dense(30, activation='relu')(cc1)
model = Model(inputs=[inp1, inp2], outputs=output)
model.summary()

вы можете просмотреть ноутбук здесь для деталей: https://nbviewer.jupyter.org/github/anhhh11/DeepLearning/blob/master/Concanate_two_layer_keras.ipynb