Als «neural-network» getaggte Fragen

Künstliche neuronale Netze (ANN) bestehen aus "Neuronen" - Programmierkonstrukten, die die Eigenschaften biologischer Neuronen nachahmen. Eine Reihe gewichteter Verbindungen zwischen den Neuronen ermöglicht die Verbreitung von Informationen durch das Netzwerk, um Probleme mit künstlicher Intelligenz zu lösen, ohne dass der Netzwerkdesigner ein Modell eines realen Systems hatte.

4
Rollenableitung der Sigmoidfunktion in neuronalen Netzen
Ich versuche die Rolle der Ableitung der Sigmoidfunktion in neuronalen Netzen zu verstehen. Zuerst zeichne ich die Sigmoidfunktion und die Ableitung aller Punkte von der Definition mit Python. Welche Rolle spielt dieses Derivat genau? import numpy as np import matplotlib.pyplot as plt def sigmoid(x): return 1 / (1 + np.exp(-x)) …


4
Wie erhält man Genauigkeit, F1, Präzision und Rückruf für ein Keras-Modell?
Ich möchte die Genauigkeit, den Rückruf und den F1-Score für mein binäres KerasClassifier-Modell berechnen, finde aber keine Lösung. Hier ist mein aktueller Code: # Split dataset in train and test data X_train, X_test, Y_train, Y_test = train_test_split(normalized_X, Y, test_size=0.3, random_state=seed) # Build the model model = Sequential() model.add(Dense(23, input_dim=45, kernel_initializer='normal', …

1
Warum ReLU besser ist als die anderen Aktivierungsfunktionen
Hier bezieht sich die Antwort auf das Verschwinden und Explodieren von Verläufen, die sigmoidähnliche Aktivierungsfunktionen hatten, aber Relueinen Nachteil haben und deren erwarteter Wert sind. Es gibt keine Begrenzung für die Ausgabe von Reluund daher ist der erwartete Wert nicht Null. Ich erinnere mich an die Zeit vor der Popularität …

3
Bagging vs Dropout in tiefen neuronalen Netzen
Bagging ist die Erzeugung mehrerer Prädiktoren, die wie ein einzelner Prädiktor zusammenarbeiten. Dropout ist eine Technik, die neuronalen Netzen beibringt, alle möglichen Teilnetze zu mitteln. Wenn man sich die wichtigsten Kaggle-Wettbewerbe ansieht, scheint es, dass diese beiden Techniken sehr oft zusammen angewendet werden. Ich kann keinen theoretischen Unterschied sehen, abgesehen …

4
Zusätzliche Ausgabeebene in einem neuronalen Netzwerk (Dezimal zu Binär)
Ich arbeite gerade an einer Frage aus dem Online-Buch: http://neuralnetworksanddeeplearning.com/chap1.html Ich kann verstehen, dass, wenn die zusätzliche Ausgangsschicht aus 5 Ausgangsneuronen besteht, ich wahrscheinlich eine Vorspannung von 0,5 und ein Gewicht von jeweils 0,5 für die vorherige Schicht festlegen könnte. Die Frage lautet nun aber: Eine neue Schicht von vier …


1
Deep Neural Network - Backpropogation mit ReLU
Ich habe einige Schwierigkeiten, mit ReLU die Rückübertragung abzuleiten, und ich habe einige Arbeit geleistet, bin mir aber nicht sicher, ob ich auf dem richtigen Weg bin. Kostenfunktion: wobei der reale Wert und ein vorhergesagter Wert ist. Nehmen Sie auch an, dass > 0 immer ist.y y x12(y−y^)212(y−y^)2\frac{1}{2}(y-\hat y)^2yyyy^y^\hat yxxx …




5
Vergrößere die seaborn Heatmap
Ich erstelle einen corr()DF aus einem Original-DF. Die corr()df herauskommen 70 X 70 , und es ist unmöglich , die Heatmap sichtbar zu machen ... sns.heatmap(df). Wenn ich versuche, das anzuzeigen corr = df.corr(), passt die Tabelle nicht auf den Bildschirm und ich kann alle Zusammenhänge sehen. Ist es eine …
16 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

3
Kombinieren von kategorialen und kontinuierlichen Eingabefunktionen für das Training neuronaler Netze
Angenommen, wir haben zwei Arten von Eingabefunktionen: kategorial und kontinuierlich. Die kategorialen Daten können als One-Hot-Code A dargestellt werden, während die kontinuierlichen Daten nur ein Vektor B im N-dimensionalen Raum sind. Es scheint, dass die einfache Verwendung von concat (A, B) keine gute Wahl ist, da A, B völlig unterschiedliche …



Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.