recurrent-neural-network
Wiele do jednego i wiele do wielu przykładów LSTM w Keras
Staram się zrozumieć LSTM i jak je budować z Keras. Okazało się, że są głównie 4 tryby do uruchomienia RNN (4 właściwe Na zdj ... l.add(LSTM(128, input_shape=(timesteps, data_dim)))
model.add(Dense(1))
Dla każdego z 4 zadań, może z odrobiną wyjaśnienia.
Jaka jest intuicja korzystania z tanh w LSTM [closed]
zamknięte. to pytanie nie spełnia wytycznych dotyczących przepełnienia stosu . Obecnie nie przyjmuje odpowiedzi.
... intuicja za tym?
to tylko nieliniowa transformacja?
jeśli tak, mogę zmienić obie do innej funkcji aktywacyjnej (np. ReLU)?
Co to jest Liczba jednostek w TensorFlow BasicLSTMCell?
W przykładach MNIST LSTM nie rozumiem, co oznacza "ukryta warstwa". Czy jest to wyimaginowana warstwa utworzona, gdy reprezentujesz rozwinięty RNN w czasie?
Dlaczego num_units = 128 w większości przypadków ?
Jaka jest różnica między dwukierunkowym LSTM a LSTM?
Czy ktoś może to wyjaśnić? Wiem, że dwukierunkowe LSTM mają przejście do przodu i do tyłu, ale jaka jest przewaga tego nad jednokierunkowym LSTM?
Do czego każdy z nich lepiej się Nadaje?
Soft attention vs. hard attention
W tym wpisie na blogu, nieuzasadniona skuteczność powtarzających się Sieci Neuronowych , Andrej Karpathy wspomina przyszłe ki ... na odróżnić twardej?
Znalazłem Wyjaśnienie na temat uwagi tutaj, ale wciąż zdezorientowany na temat miękkiej/twardej części.
Jaka jest różnica między TensorFlow dynamic RNN i RNN?
Istnieje kilka klas w tf.nn, które odnoszą się do RNNs. W przykładach, które znajduję w sieci, tf.nn.dynamic_rnn i tf.nn.rnn ... ą się być używane zamiennie lub przynajmniej nie mogę zrozumieć, dlaczego jeden jest używany zamiast drugiego. Co za różnica?
Wątpliwości dotyczące " zrozumienia Keras LSTMs`
Jestem nowy w LSTMs i przechodzę przez zrozumienie Keras LSTMs i miałem głupie wątpliwości związane z piękną odpowiedzią Dani ... wejściowych do wyboru(do wykorzystania jako pojedynczy wektor powtórzeń) ? Jak użyjesz repeat vector do sprawy many to many?
Czy początkowy stan RNN jest resetowany dla kolejnych mini-partii?
Czy ktoś mógłby wyjaśnić, czy początkowy stan RNN w TF jest resetowany dla kolejnych mini-partii, czy ostatni stan poprzedniej mini-partii jest używany jak wspomniano w Ilya Sutskever et al., ICLR 2015 ?
Jak radzić sobie z partiami o sekwencjach o zmiennej długości w TensorFlow?
Próbowałem użyć RNN (w szczególności LSTM) do przewidywania sekwencji. Tutaj miałem do czynienia z pewnymi problemami. Na prz ...
Tutaj, num_steps trzeba zmienić w moim przypadku dla każdego zdania. Próbowałem kilka hack, ale nic nie wydaje się działać.
Jak wykorzystać opcję return sequences i TimeDistributed layer w Keras?
Mam korpus dialogowy jak poniżej. I chcę zaimplementować model LSTM, który przewiduje działanie systemu. Działanie systemu je ... TMs, czy model jest taki sam jak "my many-to-many(2)" poniżej? Myślę więc, że do każdego wyjścia nakładane są gęste warstwy.
Przewidywanie szeregów czasowych za pomocą sieci neuronowych
Ostatnio pracowałem nad sieciami neuronowymi w różnych celach. Miałem wielki sukces w rozpoznawaniu cyfr, XOR i różnych innyc ... w timestep N. ... i zjedź trochę czasu i zrób to jeszcze raz.
Czy ktoś może to potwierdzić lub skomentować? Będę wdzięczny!
TensorFlow: Zapamiętaj stan LSTM dla następnej partii (stateful LSTM)
Biorąc pod uwagę trenowany model LSTM chcę wykonać wnioskowanie dla pojedynczych etapów czasowych, tj. seq_length = 1 w poniż ... ..
# LSTM step through time
output, self.state = self.lstm(x_t, self.state)
outputs.append(output)
Keras RNN z komórkami LSTM do przewidywania wielu szeregów czasowych wyjściowych na podstawie wielu szeregów czasowych intput
Chciałbym modelować RNN z komórkami LSTM w celu przewidywania wielu wyjściowych szeregów czasowych na podstawie wielu wejścio ... zbieżny. Jestem bardzo zdziwiony tym wynikiem. Proszę dać mi znać, co mi brakuje, i dlaczego algorytm jest nie zbiegają się.
Wyszukiwanie Osadzania TensorFlow
Próbuję nauczyć się, jak zbudować RNN do rozpoznawania mowy za pomocą TensorFlow. Na początek chciałem wypróbować kilka przyk ... ding_lookup i dlaczego jest używany zarówno w word2vec_basic.py, jak i ptb_word_lm.py czyli jaki jest cel nawet ich używasz ?
Keras: jak przygotować Dane wejściowe do RNN?
Mam problem z przygotowaniem danych wejściowych do RNN na Keras.
Obecnie moje dane treningowe to: (6752, 600, 13)
6752: ... 5, 13)?
A w jakim kształcie powinno być Y_train?
Powinno być (6752, 600, 13) czy (6752, 1, 600, 13) czy (6752, 600, 1, 13)?
TensorFlow dynamic RNN (LSTM): jak formatować wejście?
Otrzymałem kilka danych tego formatu i następujące szczegóły:
person1, day1, feature1, feature2, ..., featureN, label
perso ... plakatu nie są ze sobą powiązane, ponieważ są w moim. Moje doświadczenie z tensorflow jest ograniczone do strony get started.
Uzyskaj ostatnie wyjście dynamicznego rnn w przepływie TensorFlow
Mam tensor trójwymiarowy kształtu [batch, None, dim] gdzie drugi wymiar, tj. czas, jest nieznany. Używam dynamic_rnn do przet ... stnieje sposób na uzyskanie tensora 3-D kształtu [batch, 1, hidden]z ostatnim odpowiednim wyjściem dynamicznego RNN? Dzięki!