Als «rnn» getaggte Fragen

Ein wiederkehrendes neuronales Netzwerk (RNN) ist eine Klasse künstlicher neuronaler Netzwerke, bei denen Verbindungen zwischen Einheiten einen gerichteten Zyklus bilden.

5
Zeitreihenvorhersage mit ARIMA gegen LSTM
Das Problem, mit dem ich mich beschäftige, ist die Vorhersage von Zeitreihenwerten. Ich betrachte jeweils eine Zeitreihe und möchte anhand von beispielsweise 15% der Eingabedaten deren zukünftige Werte vorhersagen. Bisher bin ich auf zwei Modelle gestoßen: LSTM (Long Short Term Memory; eine Klasse wiederkehrender neuronaler Netze) ARIMA Ich habe beide …

2
Training eines RNN mit Beispielen unterschiedlicher Länge in Keras
Ich versuche, etwas über RNNs zu lernen und verwende Keras. Ich verstehe die Grundvoraussetzung von Vanille-RNN- und LSTM-Schichten, habe jedoch Probleme, einen bestimmten technischen Punkt für das Training zu verstehen. In der Keras-Dokumentation heißt es, dass die Eingabe in eine RNN-Ebene eine Form haben muss (batch_size, timesteps, input_dim). Dies legt …
60 python  keras  rnn  training 

3
Anzahl der Parameter in einem LSTM-Modell
Wie viele Parameter hat ein einzelner gestapelter LSTM? Die Anzahl der Parameter legt eine Untergrenze für die Anzahl der erforderlichen Trainingsbeispiele fest und beeinflusst auch die Trainingszeit. Daher ist es für Trainingsmodelle mit LSTMs hilfreich, die Anzahl der Parameter zu kennen.

1
Papier: Was ist der Unterschied zwischen Layer-Normalisierung, wiederkehrender Batch-Normalisierung (2016) und Batch-normalisierter RNN (2015)?
In letzter Zeit gibt es ein Papier zur Ebenennormalisierung . Es gibt auch eine Implementierung auf Keras. Aber ich erinnere mich, dass es Artikel mit dem Titel Recurrent Batch Normalization (Cooijmans, 2016) und Batch Normalized Recurrent Neural Networks (Laurent, 2015) gibt. Was ist der Unterschied zwischen diesen drei? Es gibt …

4
Was bedeutet "Anzahl der Einheiten in der LSTM-Zelle"?
Vom Tensorflow-Code: Tensorflow. RnnCell. num_units: int, The number of units in the LSTM cell. Kann nicht verstehen, was das bedeutet. Was sind die Einheiten der LSTM-Zelle. Input, Output und vergessen Tore? Bedeutet dies "Anzahl der Einheiten in der wiederkehrenden Projektionsschicht für Deep LSTM". Warum heißt das dann "Anzahl der Einheiten …

5
Vergrößere die seaborn Heatmap
Ich erstelle einen corr()DF aus einem Original-DF. Die corr()df herauskommen 70 X 70 , und es ist unmöglich , die Heatmap sichtbar zu machen ... sns.heatmap(df). Wenn ich versuche, das anzuzeigen corr = df.corr(), passt die Tabelle nicht auf den Bildschirm und ich kann alle Zusammenhänge sehen. Ist es eine …
16 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 


1
RNN mit mehreren Zeitreihen
Ich versuche, ein neuronales Netzwerk mit Zeitreihen als Eingabe zu erstellen, um es basierend auf dem Typ jeder Reihe zu trainieren. Ich habe gelesen, dass man mit RNNs die Eingabe in Gruppen aufteilen und jeden Punkt der Zeitreihe in einzelne Neuronen aufteilen und schließlich das Netzwerk trainieren kann. Ich versuche …
14 time-series  rnn 


2
Wie implementiere ich eine Eins-zu-Viele- und eine Viele-zu-Viele-Sequenzvorhersage in Keras?
Ich habe Mühe, den Keras-Codierungsunterschied für die Eins-zu-Viele-Sequenzkennzeichnung (z. B. Klassifizierung einzelner Bilder) und die Viele-zu-Viele-Sequenzkennzeichnung (z. B. Klassifizierung von Bildsequenzen) zu interpretieren. Ich sehe häufig zwei verschiedene Arten von Codes: Bei Typ 1 wird kein TimeDistributed wie folgt angewendet: model=Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode="valid", input_shape=[1, 56,14])) model.add(Activation("relu")) model.add(Convolution2D(nb_filters, kernel_size[0], …
13 keras  rnn  lstm  sequence 

1
Multi-dimensionale und multivariate Zeitreihenprognose (RNN / LSTM) Keras
Ich habe versucht zu verstehen, wie man Daten darstellt und formt, um eine multidimentionale und multivariate Zeitreihenvorhersage mit Keras (oder TensorFlow) zu erstellen, aber ich bin immer noch sehr unklar, nachdem ich viele Blogposts / Tutorials / Dokumentationen gelesen habe, wie man die Daten im Internet präsentiert richtige Form (die …
12 python  keras  rnn  lstm 

1
Wie viele LSTM-Zellen soll ich verwenden?
Gibt es Faustregeln (oder tatsächliche Regeln) für die minimale, maximale und "angemessene" Anzahl von LSTM-Zellen, die ich verwenden sollte? Insbesondere beziehe ich mich auf BasicLSTMCell von TensorFlow und num_unitsEigenschaft. Bitte nehmen Sie an, dass ich ein Klassifizierungsproblem habe, das definiert ist durch: t - number of time steps n - …
12 rnn  machine-learning  r  predictive-modeling  random-forest  python  language-model  sentiment-analysis  encoding  machine-learning  deep-learning  neural-network  dataset  caffe  classification  xgboost  multiclass-classification  unbalanced-classes  time-series  descriptive-statistics  python  r  clustering  machine-learning  python  deep-learning  tensorflow  machine-learning  python  predictive-modeling  probability  scikit-learn  svm  machine-learning  python  classification  gradient-descent  regression  research  python  neural-network  deep-learning  convnet  keras  python  tensorflow  machine-learning  deep-learning  tensorflow  python  r  bigdata  visualization  rstudio  pandas  pyspark  dataset  time-series  multilabel-classification  machine-learning  neural-network  ensemble-modeling  kaggle  machine-learning  linear-regression  cnn  convnet  machine-learning  tensorflow  association-rules  machine-learning  predictive-modeling  training  model-selection  neural-network  keras  deep-learning  deep-learning  convnet  image-classification  predictive-modeling  prediction  machine-learning  python  classification  predictive-modeling  scikit-learn  machine-learning  python  random-forest  sampling  training  recommender-system  books  python  neural-network  nlp  deep-learning  tensorflow  python  matlab  information-retrieval  search  search-engine  deep-learning  convnet  keras  machine-learning  python  cross-validation  sampling  machine-learning 

4
Gibt es gute Out-of-the-Box-Sprachmodelle für Python?
Ich erstelle Prototypen für eine Anwendung und benötige ein Sprachmodell, um die Ratlosigkeit einiger generierter Sätze zu berechnen. Gibt es ein geschultes Sprachmodell in Python, das ich problemlos verwenden kann? So etwas Einfaches wie model = LanguageModel('en') p1 = model.perplexity('This is a well constructed sentence') p2 = model.perplexity('Bunny lamp robert …
11 python  nlp  language-model  r  statistics  linear-regression  machine-learning  classification  random-forest  xgboost  python  sampling  data-mining  orange  predictive-modeling  recommender-system  statistics  dimensionality-reduction  pca  machine-learning  python  deep-learning  keras  reinforcement-learning  neural-network  image-classification  r  dplyr  deep-learning  keras  tensorflow  lstm  dropout  machine-learning  sampling  categorical-data  data-imputation  machine-learning  deep-learning  machine-learning-model  dropout  deep-network  pandas  data-cleaning  data-science-model  aggregation  python  neural-network  reinforcement-learning  policy-gradients  r  dataframe  dataset  statistics  prediction  forecasting  r  k-means  python  scikit-learn  labels  python  orange  cloud-computing  machine-learning  neural-network  deep-learning  rnn  recurrent-neural-net  logistic-regression  missing-data  deep-learning  autoencoder  apache-hadoop  time-series  data  preprocessing  classification  predictive-modeling  time-series  machine-learning  python  feature-selection  autoencoder  deep-learning  keras  tensorflow  lstm  word-embeddings  predictive-modeling  prediction  machine-learning-model  machine-learning  classification  binary  theory  machine-learning  neural-network  time-series  lstm  rnn  neural-network  deep-learning  keras  tensorflow  convnet  computer-vision 

2
Ausfall auf welchen LSTM-Schichten?
Ist es bei Verwendung einer Mehrschicht LSTMmit Dropout ratsam, Dropout auf alle ausgeblendeten Ebenen sowie auf die Ausgabeebenen für dichte Ebenen zu setzen? In Hintons Artikel (der Dropout vorschlug) legte er Dropout nur auf die dichten Schichten, aber das lag daran, dass die verborgenen inneren Schichten faltungsmäßig waren. Natürlich kann …



1
Keras LSTM mit 1D-Zeitreihen
Ich lerne, wie man Keras verwendet, und ich habe mit meinem beschrifteten Datensatz anhand der Beispiele in Chollets Deep Learning für Python vernünftigen Erfolg gehabt . Der Datensatz ist ~ 1000 Zeitreihen mit einer Länge von 3125 mit 3 möglichen Klassen. Ich möchte über die grundlegenden dichten Schichten hinausgehen, die …



3
Wiederkehrendes (CNN) Modell für EEG-Daten
Ich frage mich, wie man eine wiederkehrende Architektur in einem EEG-Kontext interpretiert. Insbesondere betrachte ich dies als wiederkehrendes CNN (im Gegensatz zu Architekturen wie LSTM), aber vielleicht gilt es auch für andere Arten von wiederkehrenden Netzwerken Wenn ich über R-CNNs lese, werden sie normalerweise in Bildklassifizierungskontexten erklärt. Sie werden typischerweise …

5
LSTM oder ein anderes RNN-Paket für R.
Ich habe ein beeindruckendes Ergebnis von LSTM-Modellen gesehen, die Shakespeare-ähnliche Texte produzieren. Ich habe mich gefragt, ob ein LSTM-Paket für R existiert. Ich habe danach gegoogelt, aber nur Pakete für Python und Julia gefunden. (Möglicherweise gibt es ein Leistungsproblem, das erklärt, warum diese Programme R vorgezogen werden.) Kennen Sie ein …
10 r  neural-network  rnn 


1
Fragen beim Übergang vom Vanilla Neural Network zum Recurrent Neural Network
Ich habe kürzlich erfahren, wie ein neuronales Vanille-Netzwerk mit einer bestimmten Anzahl von Eingaben, versteckten Knoten und der gleichen Anzahl von Ausgaben wie Eingaben funktionieren würde. Ich habe mir verschiedene Beiträge angesehen, die sich jetzt auf wiederkehrende neuronale Netze beziehen, und ich verstehe das Konzept dahinter, aber ich verstehe bestimmte …

1
Warum verwenden Trainings-RNNs nicht 100% der GPU?
Ich frage mich, warum das Training von RNNs normalerweise nicht 100% der GPU verwendet. Wenn ich diesen RNN-Benchmark beispielsweise auf einem Maxwell Titan X unter Ubuntu 14.04.4 LTS x64 ausführe, liegt die GPU-Auslastung unter 90%: Der Benchmark wurde mit dem folgenden Befehl gestartet: python rnn.py -n 'fastlstm' -l 1024 -s …

2
Was ist eine LSTM-LM-Formulierung?
Ich lese diesen Artikel "Sequence to Sequence Learning mit neuronalen Netzen" http://papers.nips.cc/paper/5346-sequence-to-sequence-learning-with-neural-networks.pdf Unter "2. Das Modell" steht: Das LSTM berechnet diese bedingte Wahrscheinlichkeit, indem es zuerst die feste dimensionale Darstellung v der Eingabesequenz (x1, ..., xT) erhält, die durch den letzten verborgenen Zustand des LSTM gegeben ist, und dann die …

1
Generieren Sie Vorhersagen, die orthogonal (nicht korreliert) zu einer bestimmten Variablen sind
Ich habe eine XMatrix, eine yVariable und eine andere Variable ORTHO_VAR. Ich muss die yVariable vorhersagen , wobei Xdie Vorhersagen aus diesem Modell orthogonal sein müssen, ORTHO_VARwährend sie so korreliert ywie möglich sind. Ich würde es vorziehen, wenn die Vorhersagen mit einer nicht parametrischen Methode wie erzeugt werden, xgboost.XGBRegressoraber ich …
8 correlation  machine-learning  dataset  logistic-regression  prediction  linear-regression  prediction  dummy-variables  neural-network  image-classification  python  k-nn  python  neural-network  neural-network  deep-learning  keras  tensorflow  image-classification  tensorflow  reinforcement-learning  policy-gradients  machine-learning  decision-trees  neural-network  overfitting  data-analysis  metric  python  scikit-learn  distance  scipy  machine-learning  python  scikit-learn  decision-trees  logistic-regression  keras  image-classification  implementation  machine-learning  python  scikit-learn  random-forest  decision-trees  machine-learning  feature-selection  feature-engineering  word2vec  word-embeddings  natural-language-process  scikit-learn  time-series  clustering  k-means  python  cross-validation  pyspark  statistics  cross-validation  multiclass-classification  evaluation  machine-learning  nlp  machine-translation  neural-network  deep-learning  keras  tensorflow  image-classification  machine-learning  python  similarity  distance  lstm  text  named-entity-recognition  machine-learning  keras  optimization  gan  learning-rate  neural-network  data-mining  dataset  databases  books  neural-network  rnn 

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.