Computer Vision ist ein Teilgebiet der Informatik, das sich mit der Analyse und dem Verständnis von Bildern befasst. Dies umfasst das Erkennen von Objekten wie Gesichtern in Bildern oder das Segmentieren von Bildern.
Wie berechnet man den mAP (Mean Average Precision) für die Erkennungsaufgabe der Pascal VOC-Bestenlisten? http://host.robots.ox.ac.uk:8080/leaderboard/displaylb.php?challengeid=11&compid=4 Dort heißt es - auf Seite 11 : http://homepages.inf.ed.ac.uk/ckiw/postscript/ijcv_voc09.pdf Durchschnittliche Präzision (AP). Für die VOC2007-Herausforderung wurde die interpolierte Durchschnittsgenauigkeit (Salton und Mcgill 1986) verwendet, um sowohl die Klassifizierung als auch die Erkennung zu bewerten. Für …
Das Paper Going Deeper With Convolutions beschreibt GoogleNet, das die ursprünglichen Inception-Module enthält: Die Änderung zu Inception v2 bestand darin, dass sie die 5x5-Faltungen durch zwei aufeinanderfolgende 3x3-Faltungen ersetzten und Pooling anwendeten: Was ist der Unterschied zwischen Inception v2 und Inception v3?
Eine gängige Methode zur Feststellung, ob ein Objektvorschlag richtig war, ist die Ermittlung von Schnittpunkten über Union (IoU, IU). Dies nimmt die Menge der vorgeschlagenen Objektpixel und die Menge der wahren Objektpixel B und berechnet:EINEINABBB icho U( A , B ) = A ∩ BA ∪ BichÖU(EIN,B)=EIN∩BEIN∪BIoU(A, B) = \frac{A …
Betrachten wir 90-99% der Veröffentlichungen über ein CNN (ConvNet). Die überwiegende Mehrheit von ihnen verwendet Filtergrößen mit ungeraden Zahlen : {1, 3, 5, 7} für die am häufigsten verwendeten. Diese Situation kann zu einem Problem führen: Bei diesen Filtergrößen ist die Faltungsoperation normalerweise nicht perfekt, wenn ein Abstand von 2 …
Ich erstelle Prototypen für eine Anwendung und benötige ein Sprachmodell, um die Ratlosigkeit einiger generierter Sätze zu berechnen. Gibt es ein geschultes Sprachmodell in Python, das ich problemlos verwenden kann? So etwas Einfaches wie model = LanguageModel('en') p1 = model.perplexity('This is a well constructed sentence') p2 = model.perplexity('Bunny lamp robert …
Diese beiden Faltungsoperationen sind derzeit im Deep Learning sehr verbreitet. Ich habe in diesem Artikel über die erweiterte Faltungsschicht gelesen: WAVENET: EIN GENERATIVES MODELL FÜR ROHES AUDIO und Entfaltung ist in diesem Artikel: Vollständig Faltungsnetzwerke für die semantische Segmentierung Beide scheinen das Bild zu verbessern, aber was ist der Unterschied?
Ich versuche, einen Algorithmus zu implementieren, bei dem bei einem gegebenen Bild mit mehreren Objekten auf einer Ebenentabelle die Ausgabe von Segmentierungsmasken für jedes Objekt erwünscht ist. Im Gegensatz zu CNNs besteht das Ziel hier darin, Objekte in einer unbekannten Umgebung zu erkennen. Was sind die besten Ansätze für dieses …
Ich möchte JPG-Dateien überprüfen, wenn sie manipuliert wurden, um den Inhalt zu ändern. Was ich NICHT als Photoshopping betrachte: Zuschneiden Drehen (Skalierung) Bildauflösung Automatische Änderungen, die Smartphones möglicherweise vornehmen Was ich als Photoshopping betrachte: Hinzufügen eines neuen Bildes über Teilen des alten Bildes Ändern des Textes eines Teils eines Bildes …
In diesem häufig zitierten Artikel diskutieren die Autoren die Anzahl der Gewichtsparameter wie folgt. Ich bin mir nicht ganz sicher, warum es Parameter hat. Ich denke, es sollte da jeder der Eingangskanäle den gleichen Filter hat, der Parameter hat. 49 C C 4949 C.249C249C^249 C.49C49CC.CC494949
Gibt es Veröffentlichungen, die Unterschiede in den Regularisierungsmethoden für neuronale Netze zeigen, vorzugsweise in verschiedenen Domänen (oder zumindest in verschiedenen Datensätzen)? Ich frage, weil ich derzeit das Gefühl habe, dass die meisten Leute nur Aussetzer zur Regularisierung in der Bildverarbeitung verwenden. Ich möchte prüfen, ob es einen Grund gibt (nicht), …
Ich möchte mithilfe eines neuronalen Netzwerks Parameter aus einem Bild extrahieren. Beispiel: Bei einem Bild einer Mauer sollte der NN die Breite und Höhe der Steine, die Farbe und die Rauheit extrahieren. Ich kann Bilder für bestimmte Parameter generieren, um das NN zu trainieren, und möchte damit die Parameter aus …
Ich verwende einen HOG-Deskriptor in Verbindung mit einem SVM-Klassifikator, um Menschen in Bildern zu erkennen. Ich verwende die Python-Wrapper für OpenCV. Ich habe das hervorragende Tutorial bei pymagesearch verwendet , das erklärt, was der Algorithmus tut, und Hinweise zum Festlegen der Parameter der Methode detectMultiScale gibt . Insbesondere tue ich …
Ich habe eine große Bildersammlung und möchte die Bilder in dieser Sammlung identifizieren, die andere Bilder aus der Sammlung zu kopieren scheinen. Um Ihnen einen Eindruck von den Arten von Bildpaaren zu geben, die ich als Übereinstimmungen klassifizieren möchte, betrachten Sie bitte diese Beispiele: Ich habe ungefähr 0,25 Millionen Paare …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.