Warum ist Nicht-Negativität für kollaborative Filter- / Empfehlungssysteme wichtig?


11

In allen modernen Empfehlungssystemen, die ich gesehen habe und die auf einer Matrixfaktorisierung beruhen, wird eine nicht negative Matrixfaktorisierung für die Benutzerfilmmatrix durchgeführt. Ich kann verstehen, warum Nicht-Negativität für die Interpretierbarkeit wichtig ist und / oder wenn Sie spärliche Faktoren wünschen. Aber wenn Sie sich nur für die Prognoseleistung interessieren, wie zum Beispiel beim Netflix-Preiswettbewerb, warum sollten Sie dann die Nicht-Negativitätsbeschränkung auferlegen? Es scheint streng schlimmer zu sein, als auch negative Werte in Ihrer Faktorisierung zuzulassen.

Dieses Papier ist ein häufig genanntes Beispiel für die Verwendung der nicht-negativen Matrixfaktorisierung bei der kollaborativen Filterung.


1
Ich bin mit Empfehlungssystemen nicht sehr vertraut (vielleicht könnten Sie einige Beispielpapiere in Ihre Frage aufnehmen?). Wenn das von Ihnen abgeleitete Muster der NNMF-Präferenz wahr ist, besteht die wahrscheinlichste Antwort darin, die Generalisierbarkeit zu verbessern. Mit anderen Worten kann es sein, dass empirisch ein Mangel an "Interpretierbarkeit / Spärlichkeit" mit einer Überanpassung verbunden ist . Eine spärliche Codierung (dh L1-Regularisierung / LASSO) kann diese Anforderungen jedoch meines Wissens auch erfüllen. (Es könnte sein, dass NNMF eine höhere Interpretierbarkeit hat.)
GeoMatt22

Antworten:


14

Ich bin kein Spezialist für Empfehlungssysteme, aber soweit ich weiß, ist die Prämisse dieser Frage falsch.

Nicht-Negativität ist für die kollaborative Filterung nicht so wichtig.

Der Netflix-Preis wurde 2009 vom BellKor-Team gewonnen. Hier ist das Papier, das ihren Algorithmus beschreibt: Die BellKor 2008-Lösung für den Netflix-Preis . Wie leicht zu erkennen ist, verwenden sie einen SVD-basierten Ansatz:

Die Grundlagen unserer Fortschritte im Jahr 2008 sind im KDD-Papier 2008 [4] dargelegt. [...] In der Arbeit [4] geben wir eine detaillierte Beschreibung von Drei-Faktor-Modellen. Das erste Modell ist eine einfache SVD. [...] Das zweite Modell [...] wird als "Asymmetric-SVD" bezeichnet. Schließlich das genauere Faktormodell mit dem Namen "SVD ++" [...]

Siehe auch diese populärere Beschreibung derselben Matrix-Faktorisierungstechniken für Empfehlungssysteme . Sie reden viel über SVD, erwähnen aber NNMF überhaupt nicht.

Siehe auch diesen beliebten Blog-Beitrag Netflix Update: Try This at Home von 2006, in dem auch SVD-Ideen erläutert werden.

Natürlich haben Sie Recht und es gibt einige Arbeiten zur Verwendung von NNMF für die kollaborative Filterung. Was funktioniert also besser, SVD oder NNMF? Ich habe keine Ahnung, aber hier ist die Schlussfolgerung einer vergleichenden Studie über kollaborative Filteralgorithmen aus dem Jahr 2012:

Matrix-Faktorisierungs-basierte Methoden weisen im Allgemeinen die höchste Genauigkeit auf. Insbesondere regulierte SVD, PMF und ihre Variationen sind in Bezug auf MAE und RMSE am besten geeignet, außer in sehr spärlichen Situationen, in denen NMF die beste Leistung erbringt.


2
Im Allgemeinen ist dies eine gute Antwort. Um einige Fakten zu korrigieren, hat die BellKor 2008-Lösung den Fortschrittspreis gewonnen. Der Gesamtsiegalgorithmus war eine Mischung aus über 100 Prädiktoren (Töscher et al. 2009). NMF war auch ein Teil davon.
dpelisek
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.