Der beste Vorschlag ist von Shimao:
In der Regel verfügt jedes neue Papier, das für eine Aufgabe eine gute oder hochmoderne Leistung erbringt, über eine ziemlich umfassende Ergebnistabelle, die mit früheren Ergebnissen verglichen wird. Dies kann eine gute Möglichkeit sein, den Überblick zu behalten.
Jede Rangliste wird bald unbrauchbar, da sie im Grunde immer von (Studenten / Absolventen) gepflegt wird, die aufhören, sie zu aktualisieren, sobald sie ihren Abschluss bekommen / einen Job bekommen. Wie auch immer, wenn CIFAR-10 und CIFAR-100 gut genug für Sie sind, ist dies ziemlich gut:
https://github.com/arunpatala/cifarSOTA
Dieser ist allgemeiner (einschließlich ImageNet) und hat neuere Ergebnisse:
https://github.com/Lextal/SotA-CV
Dies ist die, die ich früher verwendet habe, aber der Eigentümer hat die Aktualisierung eingestellt, wie es häufig vorkommt:
https://github.com/RedditSota/state-of-the-art-result-for-machine-learning-problems/
Schließlich könnte Sie dieses Jupyter- Notizbuch interessieren, das gerade heute von Ali Rahimi veröffentlicht wurde und auf Daten basiert, die von LSVRC und der COCO-Website stammen.
Ein letzter Hinweis: Wenn Sie nach den neuesten Ergebnissen suchen, weil Sie Ihre Ergebnisse mit SotA vergleichen möchten, ist das großartig. Wenn Ihr Ziel jedoch darin besteht, die „beste“ Architektur in ImageNet mithilfe von Transfer Learning auf eine industrielle Anwendung anzuwenden, sollten Sie wissen (falls Sie dies noch nicht getan haben), dass die neuesten Architekturen in Bezug auf die Übersetzungsinvarianz schlechter sind als die älteren . Dies ist ein Risiko, wenn Ihr Datensatz keine Vorurteile gegenüber Fotografen aufweist oder wenn Sie nicht über genügend Rechenleistung und Daten verfügen, um die Architektur für eine nützlichere Bildverteilung neu zu trainieren. Siehe den ausgezeichneten Vorabdruck:
Azulay & Weiss, 2018, mehr „Warum verallgemeinern tiefe Faltungsnetzwerke so schlecht auf kleine Bildtransformationen?“