Als «deep-learning» getaggte Fragen

Ein neues Gebiet der maschinellen Lernforschung, das sich mit den Technologien befasst, die zum Lernen hierarchischer Darstellungen von Daten verwendet werden, hauptsächlich mit tiefen neuronalen Netzen (dh Netzen mit zwei oder mehr verborgenen Schichten), aber auch mit einer Art probabilistischer grafischer Modelle.

3
Bagging vs Dropout in tiefen neuronalen Netzen
Bagging ist die Erzeugung mehrerer Prädiktoren, die wie ein einzelner Prädiktor zusammenarbeiten. Dropout ist eine Technik, die neuronalen Netzen beibringt, alle möglichen Teilnetze zu mitteln. Wenn man sich die wichtigsten Kaggle-Wettbewerbe ansieht, scheint es, dass diese beiden Techniken sehr oft zusammen angewendet werden. Ich kann keinen theoretischen Unterschied sehen, abgesehen …

3
Wie berechnet man den Einfluss des Mini-Batch-Speichers beim Training von Deep-Learning-Modellen?
Ich versuche anhand dieser Notizen von Andrej Karphaty zu berechnen, wie viel Speicher eine GPU zum Trainieren meines Modells benötigt: http://cs231n.github.io/convolutional-networks/#computational-considerations Mein Netzwerk hat 532.752 Aktivierungen und 19.072.984 Parameter (Gewichte und Vorspannungen). Dies sind alles 32-Bit-Float-Werte, sodass jeder 4 Bytes im Speicher benötigt. Mein Eingabebild ist 180x50x1 (Breite x Höhe …





5
Vergrößere die seaborn Heatmap
Ich erstelle einen corr()DF aus einem Original-DF. Die corr()df herauskommen 70 X 70 , und es ist unmöglich , die Heatmap sichtbar zu machen ... sns.heatmap(df). Wenn ich versuche, das anzuzeigen corr = df.corr(), passt die Tabelle nicht auf den Bildschirm und ich kann alle Zusammenhänge sehen. Ist es eine …
16 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

3
Wie bekomme ich Vorhersagen mit predict_generator zum Streaming von Testdaten in Keras?
Im Keras-Blog zum Training von Convnets von Grund auf wird im Code nur das Netzwerk angezeigt , das mit Trainings- und Validierungsdaten ausgeführt wird. Was ist mit Testdaten? Entsprechen die Validierungsdaten den Testdaten (glaube ich nicht)? Wenn ein separater Testordner in ähnlichen Zeilen wie der Zug- und der Validierungsordner vorhanden …




1
PyTorch vs. Tensorflow eifrig
Google hat kürzlich in tensorflow's Nightly Builds den Eager- Modus aufgenommen, eine unverzichtbare API für den Zugriff auf Tensorflow-Berechnungsfunktionen. Wie kann Tensorflow eifrig mit PyTorch verglichen werden? Einige Aspekte, die den Vergleich beeinflussen könnten, könnten sein: Vor- und Nachteile von eager aufgrund seines statischen Graph-Erbes (z. B. Namen in Knoten). …



1
Hinzufügen von Nichtbild-Features neben Nebenbildern als Eingabe von CNNs
Ich trainiere ein neuronales Faltungsnetzwerk, um Bilder bei Nebelbedingungen zu klassifizieren (3 Klassen). Für jedes der ca. 150.000 Bilder stehen mir jedoch auch vier meteorologische Variablen zur Verfügung, die bei der Vorhersage der Bildklassen hilfreich sein könnten. Ich habe mich gefragt, wie ich die meteorologischen Variablen (z. B. Temperatur, Windgeschwindigkeit) …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.