Soweit ich das beurteilen kann, hatten SOMs im Kohonen-Stil um 2005 einen Höhepunkt und sahen in letzter Zeit nicht so viel Gefallen. Ich habe keine Veröffentlichung gefunden, die besagt, dass SOMs durch eine andere Methode subsumiert wurden oder mit etwas anderem gleichwertig sind (jedenfalls in höheren Dimensionen). Aber es scheint, als würden tSNE und andere Methoden heutzutage viel mehr Tinte bekommen, zum Beispiel in Wikipedia oder in SciKit Learn, und SOM wird eher als historische Methode erwähnt.
(Ein Wikipedia-Artikel scheint tatsächlich darauf hinzudeuten, dass SOMs weiterhin gewisse Vorteile gegenüber Mitbewerbern aufweisen, aber es ist auch der kürzeste Eintrag in der Liste. EDIT: Einer der Artikel, über den ich nachdenke, lautet: Nonlinear Dimensionality Reduction Beachten Sie, dass SOM weniger darüber geschrieben hat als die anderen Methoden. Ich kann den Artikel nicht finden, in dem ein Vorteil erwähnt wurde, den SOMs gegenüber den meisten anderen Methoden zu behalten scheinen.)
Irgendwelche Einsichten? Jemand anderes fragte, warum SOMs nicht verwendet werden, und erhielt Referenzen von vor einiger Zeit, und ich habe Verfahren von SOM-Konferenzen gefunden, fragte mich aber, ob der Aufstieg von SVMs oder tSNE, et al., SOMs beim maschinellen Lernen in den Schatten stellte.
EDIT 2: Rein zufällig habe ich heute Abend gerade eine Umfrage zur nichtlinearen Dimensionsreduktion von 2008 gelesen und als Beispiel nur Isomap (2000), Local Linear Embedding (LLE) (2000), Hessian LLE (2003), Laplacian erwähnt Eigenmaps (2003) und Semidefinite Embedding (SDE) (2004).