Wie implementiere ich eine Eins-zu-Viele- und eine Viele-zu-Viele-Sequenzvorhersage in Keras?


13

Ich habe Mühe, den Keras-Codierungsunterschied für die Eins-zu-Viele-Sequenzkennzeichnung (z. B. Klassifizierung einzelner Bilder) und die Viele-zu-Viele-Sequenzkennzeichnung (z. B. Klassifizierung von Bildsequenzen) zu interpretieren. Ich sehe häufig zwei verschiedene Arten von Codes:

Bei Typ 1 wird kein TimeDistributed wie folgt angewendet:

model=Sequential()

model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode="valid", input_shape=[1, 56,14]))
model.add(Activation("relu"))
model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1]))
model.add(Activation("relu"))
model.add(MaxPooling2D(pool_size=pool_size))

model.add(Reshape((56*14,)))
model.add(Dropout(0.25))
model.add(LSTM(5))
model.add(Dense(50))
model.add(Dense(nb_classes))
model.add(Activation("softmax"))

In Typ 2 wird TimeDistributed folgendermaßen angewendet:

model = Sequential()

model.add(InputLayer(input_shape=(5, 224, 224, 3)))
model.add(TimeDistributed(Convolution2D(64, (3, 3))))
model.add(TimeDistributed(MaxPooling2D((2,2), strides=(2,2))))
model.add(LSTM(10))
model.add(Dense(3))

Meine Fragen sind:

  • Ist meine Annahme richtig, dass Typ 1 die Eins-zu-Viele-Art und Typ 2 die Viele-zu-Viele-Art ist? Oder TimeDistributedhat diesbezüglich keine Relevanz?

  • In jedem Fall von Eins-zu-Viele oder Viele-zu-Viele ist die letzte dichte Schicht 1 Knoten "lang" (wobei wiederum nur ein Wert ausgegeben wird), und
    die vorherige wiederkehrende Schicht ist dafür verantwortlich, zu bestimmen, wie viele
    1-lang sind Wert zu emittieren? Oder soll die letzte dichte Schicht aus N Knoten bestehen, wo N=max sequence length? Wenn ja, wozu sollte
    RNN hier verwendet werden, wenn wir
    mit N parallelen "Vanille" -Schätzern einen ähnlichen Eingang mit mehreren Ausgängen erzeugen könnten ?

  • Wie definiere ich die Anzahl der Zeitschritte in RNNs? Ist es irgendwie
    mit der Länge der Ausgabesequenz korreliert oder ist es nur ein
    Hyperparameter zum Einstellen?

  • In meinem obigen Beispiel vom Typ 1: Was
    bringt es , LSTM anzuwenden, wenn das Modell nur eine Klassenvorhersage (von möglich
    nb_classes) ausgibt? Was ist, wenn man die LSTM-Schicht weglässt?


Können Sie die Zusammenfassung beider Modelle bereitstellen?
Fadi Bakoura

Antworten:


2

Der Zweck der Verwendung einer wiederkehrenden Ebene besteht darin, dass die Ausgabe nicht nur ein Ergebnis eines einzelnen Elements ist, das von anderen Elementen unabhängig ist, sondern vielmehr eine Folge von Elementen, sodass die Ausgabe der Operation der Ebene für ein Element in der Sequenz das Ergebnis ist sowohl dieses Elements als auch eines beliebigen Elements davor in der Sequenz. Die Anzahl der Zeitschritte definiert, wie lang eine solche Sequenz ist. Das heißt, wie viele Elemente in einer Sequenz behandelt werden sollen und sich gegenseitig auf die resultierende Ausgabe auswirken.

Eine LSTM-Schicht arbeitet so, dass sie Eingaben in der Form number_of_timesteps, dimensions_of_each_item akzeptiert. Wenn der Parameter return_sequences auf False gesetzt ist, was standardmäßig der Fall ist, "setzt" die Ebene die Eingaben aller Zeitschritte zu einer einzigen Ausgabe zusammen. Wenn Sie eine Folge von beispielsweise 10 Elementen betrachten, erzeugt eine LSTM-Ebene mit den auf False gesetzten return_sequences aus einer solchen Folge ein einzelnes Ausgabeelement, und die Attribute dieses einzelnen Elements ergeben sich aus allen Elementen (Zeitschritten) in der Reihenfolge. Dies ist, was Sie bei einem Viele-zu-Eins-Design wollen.

Eine LSTM-Ebene mit auf True gesetzten return_sequences erzeugt für jedes Element (Zeitschritt) in einer Eingabesequenz eine Ausgabe. Dies geschieht so, dass die Ausgabe zu jedem Zeitpunkt nicht nur von dem Element abhängt, an dem gerade gearbeitet wird, sondern auch von den vorherigen Elementen in der Sequenz. Dies ist, was Sie bei einem Viele-zu-Viele-Design wollen.

Da eine LSTM-Ebene eine Folge von Elementen als Eingabe verwendet, muss jede Ebene vor einer LSTM-Schicht in Ihrem Modell eine Folge als Ausgabe erzeugen. Bei Ihrem Modell vom Typ 1 arbeiten die ersten Ebenen nicht mit Sequenzen, sondern jeweils mit einem einzelnen Element. Dies erzeugt daher keine Folge von Elementen, mit denen für das LSTM gearbeitet werden soll.

Durch die Verwendung von TimeDistributed kann jedes Element in einer Sequenz mit einer Ebene bearbeitet werden, ohne dass sich die Elemente gegenseitig beeinflussen. TimeDistributed-Layer arbeiten also mit Sequenzen von Elementen, es gibt jedoch keine Rekursion.

Bei Ihrem Typ-2-Modell erzeugen die ersten Ebenen eine Sequenz mit 5 Zeitschritten, und die Operationen, die für jedes der Elemente in der Sequenz ausgeführt werden, sind unabhängig voneinander, da die in TimeDistributed eingeschlossenen Ebenen nicht wiederkehrend sind. Da die LSTM-Ebene die Standardeinstellungen return_sequences = False verwendet, erzeugt die LSTM-Ebene eine einzelne Ausgabe für jede solche Sequenz von 5 Elementen.

Die endgültige Anzahl der Ausgabeknoten in Ihrem Modell hängt vollständig vom Anwendungsfall ab. Ein einzelner Knoten eignet sich für eine binäre Klassifizierung oder für die Erstellung einer Partitur.


1

Ich denke, dass Sie möglicherweise meine vorherige Arbeit verwenden können. In diesem Code erstelle ich Sinuswellen (mit zufälligen Wellenlängen und Phasen) und trainiere ein LSTM zu einer Folge von Punkten aus diesen Sinuswellen und gebe eine Folge von 150 Punkten aus, die jede Sinuswelle vervollständigen.

Dies ist das Modell:

    features_num=5 
    latent_dim=40

    ##
    encoder_inputs = Input(shape=(None, features_num))
    encoded = LSTM(latent_dim, return_state=False ,return_sequences=True)(encoder_inputs)
    encoded = LSTM(latent_dim, return_state=False ,return_sequences=True)(encoded)
    encoded = LSTM(latent_dim, return_state=False ,return_sequences=True)(encoded)
    encoded = LSTM(latent_dim, return_state=True)(encoded)

    encoder = Model (input=encoder_inputs, output=encoded)
    ##

    encoder_outputs, state_h, state_c = encoder(encoder_inputs)
    encoder_states = [state_h, state_c]

    decoder_inputs=Input(shape=(1, features_num))
    decoder_lstm_1 = LSTM(latent_dim, return_sequences=True, return_state=True)
    decoder_lstm_2 = LSTM(latent_dim, return_sequences=True, return_state=True)
    decoder_lstm_3 = LSTM(latent_dim, return_sequences=True, return_state=True)
    decoder_lstm_4 = LSTM(latent_dim, return_sequences=True, return_state=True)

    decoder_dense = Dense(features_num)

    all_outputs = []
    inputs = decoder_inputs


    states_1=encoder_states
   # Place holder values:
    states_2=states_1; states_3=states_1; states_4=states_1

    for _ in range(1):
        # Run the decoder on the first timestep
        outputs_1, state_h_1, state_c_1 = decoder_lstm_1(inputs, initial_state=states_1)
        outputs_2, state_h_2, state_c_2 = decoder_lstm_2(outputs_1)
        outputs_3, state_h_3, state_c_3 = decoder_lstm_3(outputs_2)
        outputs_4, state_h_4, state_c_4 = decoder_lstm_4(outputs_3)

        # Store the current prediction (we will concatenate all predictions later)
        outputs = decoder_dense(outputs_4)
        all_outputs.append(outputs)
        # Reinject the outputs as inputs for the next loop iteration
        # as well as update the states
        inputs = outputs
        states_1 = [state_h_1, state_c_1]
        states_2 = [state_h_2, state_c_2]
        states_3 = [state_h_3, state_c_3]
        states_4 = [state_h_4, state_c_4]


    for _ in range(149):
        # Run the decoder on each timestep
        outputs_1, state_h_1, state_c_1 = decoder_lstm_1(inputs, initial_state=states_1)
        outputs_2, state_h_2, state_c_2 = decoder_lstm_2(outputs_1, initial_state=states_2)
        outputs_3, state_h_3, state_c_3 = decoder_lstm_3(outputs_2, initial_state=states_3)
        outputs_4, state_h_4, state_c_4 = decoder_lstm_4(outputs_3, initial_state=states_4)

        # Store the current prediction (we will concatenate all predictions later)
        outputs = decoder_dense(outputs_4)
        all_outputs.append(outputs)
        # Reinject the outputs as inputs for the next loop iteration
        # as well as update the states
        inputs = outputs
        states_1 = [state_h_1, state_c_1]
        states_2 = [state_h_2, state_c_2]
        states_3 = [state_h_3, state_c_3]
        states_4 = [state_h_4, state_c_4]


    # Concatenate all predictions
    decoder_outputs = Lambda(lambda x: K.concatenate(x, axis=1))(all_outputs)   

    model = Model([encoder_inputs, decoder_inputs], decoder_outputs)

    #model = load_model('pre_model.h5')


    print(model.summary())

Und das ist das gesamte Skript:

from keras.models import Model
from keras.layers import Input, LSTM, Dense, TimeDistributed,Lambda, Dropout, Activation ,RepeatVector
from keras.callbacks import ModelCheckpoint 
import numpy as np

from keras.layers import Lambda
from keras import backend as K

from keras.models import load_model

import os


features_num=5 
latent_dim=40

##
encoder_inputs = Input(shape=(None, features_num))
encoded = LSTM(latent_dim, return_state=False ,return_sequences=True)(encoder_inputs)
encoded = LSTM(latent_dim, return_state=False ,return_sequences=True)(encoded)
encoded = LSTM(latent_dim, return_state=False ,return_sequences=True)(encoded)
encoded = LSTM(latent_dim, return_state=True)(encoded)

encoder = Model (input=encoder_inputs, output=encoded)
##

encoder_outputs, state_h, state_c = encoder(encoder_inputs)
encoder_states = [state_h, state_c]

decoder_inputs=Input(shape=(1, features_num))
decoder_lstm_1 = LSTM(latent_dim, return_sequences=True, return_state=True)
decoder_lstm_2 = LSTM(latent_dim, return_sequences=True, return_state=True)
decoder_lstm_3 = LSTM(latent_dim, return_sequences=True, return_state=True)
decoder_lstm_4 = LSTM(latent_dim, return_sequences=True, return_state=True)

decoder_dense = Dense(features_num)

all_outputs = []
inputs = decoder_inputs

# Place holder values:
states_1=encoder_states
states_2=states_1; states_3=states_1; states_4=states_1

for _ in range(1):
    # Run the decoder on one timestep
    outputs_1, state_h_1, state_c_1 = decoder_lstm_1(inputs, initial_state=states_1)
    outputs_2, state_h_2, state_c_2 = decoder_lstm_2(outputs_1)
    outputs_3, state_h_3, state_c_3 = decoder_lstm_3(outputs_2)
    outputs_4, state_h_4, state_c_4 = decoder_lstm_4(outputs_3)

    # Store the current prediction (we will concatenate all predictions later)
    outputs = decoder_dense(outputs_4)
    all_outputs.append(outputs)
    # Reinject the outputs as inputs for the next loop iteration
    # as well as update the states
    inputs = outputs
    states_1 = [state_h_1, state_c_1]
    states_2 = [state_h_2, state_c_2]
    states_3 = [state_h_3, state_c_3]
    states_4 = [state_h_4, state_c_4]


for _ in range(149):
    # Run the decoder on one timestep
    outputs_1, state_h_1, state_c_1 = decoder_lstm_1(inputs, initial_state=states_1)
    outputs_2, state_h_2, state_c_2 = decoder_lstm_2(outputs_1, initial_state=states_2)
    outputs_3, state_h_3, state_c_3 = decoder_lstm_3(outputs_2, initial_state=states_3)
    outputs_4, state_h_4, state_c_4 = decoder_lstm_4(outputs_3, initial_state=states_4)

    # Store the current prediction (we will concatenate all predictions later)
    outputs = decoder_dense(outputs_4)
    all_outputs.append(outputs)
    # Reinject the outputs as inputs for the next loop iteration
    # as well as update the states
    inputs = outputs
    states_1 = [state_h_1, state_c_1]
    states_2 = [state_h_2, state_c_2]
    states_3 = [state_h_3, state_c_3]
    states_4 = [state_h_4, state_c_4]


# Concatenate all predictions
decoder_outputs = Lambda(lambda x: K.concatenate(x, axis=1))(all_outputs)   

model = Model([encoder_inputs, decoder_inputs], decoder_outputs)

#model = load_model('pre_model.h5')


print(model.summary())


model.compile(loss='mean_squared_error', optimizer='adam')


def create_wavelength(min_wavelength, max_wavelength, fluxes_in_wavelength, category )  :         
#category :: 0 - train ; 2 - validate ; 4- test. 1;3;5 - dead space
    c=(category+np.random.random())/6         
    k = fluxes_in_wavelength
#
    base= (np.trunc(k*np.random.random()*(max_wavelength-min_wavelength))       +k*min_wavelength)  /k
    answer=base+c/k
    return (answer)       

def make_line(length,category):
    shift= np.random.random()
    wavelength = create_wavelength(30,10,1,category)
    a=np.arange(length)
    answer=np.sin(a/wavelength+shift)
    return answer

def make_data(seq_num,seq_len,dim,category):
    data=np.array([]).reshape(0,seq_len,dim)
    for i in range (seq_num):
        mini_data=np.array([]).reshape(0,seq_len)
        for j in range (dim):
            line = make_line(seq_len,category)
            line=line.reshape(1,seq_len)            
            mini_data=np.append(mini_data,line,axis=0)
        mini_data=np.swapaxes(mini_data,1,0)
        mini_data=mini_data.reshape(1,seq_len,dim)      
        data=np.append(data,mini_data,axis=0)
    return (data)


def train_generator():
    while True:
        sequence_length = np.random.randint(150, 300)+150       
        data=make_data(1000,sequence_length,features_num,0) # category=0 in train


    #   decoder_target_data is the same as decoder_input_data but offset by one timestep

        encoder_input_data = data[:,:-150,:] # all but last 150 

        decoder_input_data = data[:,-151,:] # the one before the last 150.
        decoder_input_data=decoder_input_data.reshape((decoder_input_data.shape[0],1,decoder_input_data.shape[1]))


        decoder_target_data = (data[:, -150:, :]) # last 150        
        yield [encoder_input_data, decoder_input_data], decoder_target_data
def val_generator():
    while True:

        sequence_length = np.random.randint(150, 300)+150       
        data=make_data(1000,sequence_length,features_num,2) # category=2 in val

        encoder_input_data = data[:,:-150,:] # all but last 150 

        decoder_input_data = data[:,-151,:] # the one before the last 150.
        decoder_input_data=decoder_input_data.reshape((decoder_input_data.shape[0],1,decoder_input_data.shape[1]))

        decoder_target_data = (data[:, -150:, :]) # last 150        
        yield [encoder_input_data, decoder_input_data], decoder_target_data

filepath_for_w= 'flux_p2p_s2s_model.h5' 
checkpointer=ModelCheckpoint(filepath_for_w, monitor='val_loss', verbose=0, save_best_only=True, mode='auto', period=1)     
model.fit_generator(train_generator(),callbacks=[checkpointer], steps_per_epoch=30, epochs=2000, verbose=1,validation_data=val_generator(),validation_steps=30)
model.save(filepath_for_w)




def predict_wave(input_wave,input_for_decoder):  # input wave= x[n,:,:], ie points except the last 150; each wave has feature_num features. run this function for all such instances (=n)   
    #print (input_wave.shape)
    #print (input_for_decoder.shape)
    pred= model.predict([input_wave,input_for_decoder])

    return pred

def predict_many_waves_from_input(x):   
    x, x2=x # x == encoder_input_data ; x==2 decoder_input_data

    instance_num= x.shape[0]


    multi_predict_collection=np.zeros((x.shape[0],150,x.shape[2]))

    for n in range(instance_num):
        input_wave=x[n,:,:].reshape(1,x.shape[1],x.shape[2])
        input_for_decoder=x2[n,:,:].reshape(1,x2.shape[1],x2.shape[2])
        wave_prediction=predict_wave(input_wave,input_for_decoder)
        multi_predict_collection[n,:,:]=wave_prediction
    return (multi_predict_collection)

def test_maker():
    if True:        
        sequence_length = np.random.randint(150, 300)+150       
        data=make_data(470,sequence_length,features_num,4) # category=4 in test

        encoder_input_data = data[:,:-150,:] # all but last 150 

        decoder_input_data = data[:,-151,:] # the one before the last 150.
        decoder_input_data=decoder_input_data.reshape((decoder_input_data.shape[0],1,decoder_input_data.shape[1]))

        decoder_target_data = (data[:, -150:, :]) # last 150        
        return [encoder_input_data, decoder_input_data],    decoder_target_data

x,y= test_maker()   



a=predict_many_waves_from_input (x) # is that right..?
x=x[0] # keep the wave (generated data except last 150 time points) 
print (x.shape)
print (y.shape)
print (a.shape)

np.save ('a.npy',a)
np.save ('y.npy',y)
np.save ('x.npy',x)



print (np.mean(np.absolute(y[:,:,0]-a[:,:,0])))
print (np.mean(np.absolute(y[:,:,1]-a[:,:,1])))
print (np.mean(np.absolute(y[:,:,2]-a[:,:,2])))
print (np.mean(np.absolute(y[:,:,3]-a[:,:,3])))
print (np.mean(np.absolute(y[:,:,4]-a[:,:,4])))
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.