recurrent-neural-network

Wiele do jednego i wiele do wielu przykładów LSTM w Keras

Staram się zrozumieć LSTM i jak je budować z Keras. Okazało się, że są głównie 4 tryby do uruchomienia RNN (4 właściwe Na zdj ... l.add(LSTM(128, input_shape=(timesteps, data_dim))) model.add(Dense(1)) Dla każdego z 4 zadań, może z odrobiną wyjaśnienia.

Jaka jest intuicja korzystania z tanh w LSTM [closed]

zamknięte. to pytanie nie spełnia wytycznych dotyczących przepełnienia stosu . Obecnie nie przyjmuje odpowiedzi. ... intuicja za tym? to tylko nieliniowa transformacja? jeśli tak, mogę zmienić obie do innej funkcji aktywacyjnej (np. ReLU)?

Co to jest Liczba jednostek w TensorFlow BasicLSTMCell?

W przykładach MNIST LSTM nie rozumiem, co oznacza "ukryta warstwa". Czy jest to wyimaginowana warstwa utworzona, gdy reprezentujesz rozwinięty RNN w czasie? Dlaczego num_units = 128 w większości przypadków ?

Jaka jest różnica między dwukierunkowym LSTM a LSTM?

Czy ktoś może to wyjaśnić? Wiem, że dwukierunkowe LSTM mają przejście do przodu i do tyłu, ale jaka jest przewaga tego nad jednokierunkowym LSTM? Do czego każdy z nich lepiej się Nadaje?

Soft attention vs. hard attention

W tym wpisie na blogu, nieuzasadniona skuteczność powtarzających się Sieci Neuronowych , Andrej Karpathy wspomina przyszłe ki ... na odróżnić twardej? Znalazłem Wyjaśnienie na temat uwagi tutaj, ale wciąż zdezorientowany na temat miękkiej/twardej części.

Jaka jest różnica między TensorFlow dynamic RNN i RNN?

Istnieje kilka klas w tf.nn, które odnoszą się do RNNs. W przykładach, które znajduję w sieci, tf.nn.dynamic_rnn i tf.nn.rnn ... ą się być używane zamiennie lub przynajmniej nie mogę zrozumieć, dlaczego jeden jest używany zamiast drugiego. Co za różnica?

Wątpliwości dotyczące " zrozumienia Keras LSTMs`

Jestem nowy w LSTMs i przechodzę przez zrozumienie Keras LSTMs i miałem głupie wątpliwości związane z piękną odpowiedzią Dani ... wejściowych do wyboru(do wykorzystania jako pojedynczy wektor powtórzeń) ? Jak użyjesz repeat vector do sprawy many to many?

Czy początkowy stan RNN jest resetowany dla kolejnych mini-partii?

Czy ktoś mógłby wyjaśnić, czy początkowy stan RNN w TF jest resetowany dla kolejnych mini-partii, czy ostatni stan poprzedniej mini-partii jest używany jak wspomniano w Ilya Sutskever et al., ICLR 2015 ?

Jak radzić sobie z partiami o sekwencjach o zmiennej długości w TensorFlow?

Próbowałem użyć RNN (w szczególności LSTM) do przewidywania sekwencji. Tutaj miałem do czynienia z pewnymi problemami. Na prz ... Tutaj, num_steps trzeba zmienić w moim przypadku dla każdego zdania. Próbowałem kilka hack, ale nic nie wydaje się działać.

Jak wykorzystać opcję return sequences i TimeDistributed layer w Keras?

Mam korpus dialogowy jak poniżej. I chcę zaimplementować model LSTM, który przewiduje działanie systemu. Działanie systemu je ... TMs, czy model jest taki sam jak "my many-to-many(2)" poniżej? Myślę więc, że do każdego wyjścia nakładane są gęste warstwy.

Przewidywanie szeregów czasowych za pomocą sieci neuronowych

Ostatnio pracowałem nad sieciami neuronowymi w różnych celach. Miałem wielki sukces w rozpoznawaniu cyfr, XOR i różnych innyc ... w timestep N. ... i zjedź trochę czasu i zrób to jeszcze raz. Czy ktoś może to potwierdzić lub skomentować? Będę wdzięczny!

TensorFlow: Zapamiętaj stan LSTM dla następnej partii (stateful LSTM)

Biorąc pod uwagę trenowany model LSTM chcę wykonać wnioskowanie dla pojedynczych etapów czasowych, tj. seq_length = 1 w poniż ... .. # LSTM step through time output, self.state = self.lstm(x_t, self.state) outputs.append(output)

Keras RNN z komórkami LSTM do przewidywania wielu szeregów czasowych wyjściowych na podstawie wielu szeregów czasowych intput

Chciałbym modelować RNN z komórkami LSTM w celu przewidywania wielu wyjściowych szeregów czasowych na podstawie wielu wejścio ... zbieżny. Jestem bardzo zdziwiony tym wynikiem. Proszę dać mi znać, co mi brakuje, i dlaczego algorytm jest nie zbiegają się.

Wyszukiwanie Osadzania TensorFlow

Próbuję nauczyć się, jak zbudować RNN do rozpoznawania mowy za pomocą TensorFlow. Na początek chciałem wypróbować kilka przyk ... ding_lookup i dlaczego jest używany zarówno w word2vec_basic.py, jak i ptb_word_lm.py czyli jaki jest cel nawet ich używasz ?

Keras: jak przygotować Dane wejściowe do RNN?

Mam problem z przygotowaniem danych wejściowych do RNN na Keras. Obecnie moje dane treningowe to: (6752, 600, 13) 6752: ... 5, 13)? A w jakim kształcie powinno być Y_train? Powinno być (6752, 600, 13) czy (6752, 1, 600, 13) czy (6752, 600, 1, 13)?

TensorFlow dynamic RNN (LSTM): jak formatować wejście?

Otrzymałem kilka danych tego formatu i następujące szczegóły: person1, day1, feature1, feature2, ..., featureN, label perso ... plakatu nie są ze sobą powiązane, ponieważ są w moim. Moje doświadczenie z tensorflow jest ograniczone do strony get started.

Uzyskaj ostatnie wyjście dynamicznego rnn w przepływie TensorFlow

Mam tensor trójwymiarowy kształtu [batch, None, dim] gdzie drugi wymiar, tj. czas, jest nieznany. Używam dynamic_rnn do przet ... stnieje sposób na uzyskanie tensora 3-D kształtu [batch, 1, hidden]z ostatnim odpowiednim wyjściem dynamicznego RNN? Dzięki!