Beim rechnerischen Lernen besagt das NFL-Theorem, dass es keinen universellen Lernenden gibt. Für jeden Lernalgorithmus gibt es eine Verteilung, die bewirkt, dass der Lernende mit hoher Wahrscheinlichkeit eine Hypotese mit einem großen Fehler ausgibt (obwohl es eine Hypotese mit geringem Fehler gibt). Die Schlussfolgerung ist, dass zum Lernen die Hypotese-Klasse oder die Verteilungen eingeschränkt werden müssen. In ihrem Buch "Eine probabilistische Theorie der Mustererkennung" beweisen Devroye et al. Den folgenden Satz für den Lernenden der K-nächsten Nachbarn: