Ich sah mir eine Präsentation eines ML-Spezialisten eines großen Einzelhändlers an, der ein Modell zur Vorhersage von Ereignissen aus Lagerbeständen entwickelt hatte.
Nehmen wir für einen Moment an, dass ihr Modell im Laufe der Zeit sehr genau wird, wäre das nicht irgendwie "selbstzerstörerisch"? Das heißt, wenn das Modell wirklich gut funktioniert, sind sie in der Lage, nicht mehr verfügbare Ereignisse zu antizipieren und zu vermeiden, und gelangen schließlich zu einem Punkt, an dem es nur noch wenige oder gar keine nicht verfügbaren Ereignisse gibt. In diesem Fall sind jedoch nicht genügend historische Daten vorhanden, auf denen das Modell ausgeführt werden kann, oder das Modell wird entgleist, da dieselben kausalen Faktoren, die für ein Auslagerungsereignis verwendet wurden, dies nicht mehr tun.
Was sind die Strategien, um mit einem solchen Szenario umzugehen?
Darüber hinaus könnte man sich die gegenteilige Situation vorstellen: Beispielsweise könnte ein Empfehlungssystem zu einer "sich selbst erfüllenden Prophezeiung" werden, bei der der Umsatz von Artikelpaaren aufgrund der Ausgabe des Empfehlungssystems steigt, auch wenn die beiden Artikel nicht wirklich so sind verbunden.
Es scheint mir, dass beide Ergebnisse einer Art Rückkopplungsschleife sind, die zwischen der Ausgabe des Prädiktors und den darauf basierenden Aktionen auftritt. Wie kann man mit solchen Situationen umgehen?