Es gibt viele, viele Beispiele. Viel zu viele, um sie aufzulisten, und wahrscheinlich zu viele, um sie vollständig zu kennen (außer möglicherweise @whuber, der niemals unterschätzt werden sollte).
Wie Sie bereits erwähnt haben, in kontrollierten Experimenten vermeiden wir Stichprobenverzerrungen, indem wir die Probanden zufällig in Behandlungs- und Kontrollgruppen aufteilen.
Beim Bootstrapping wir die wiederholte Stichprobe aus einer Population durch zufällige Stichprobe mit Ersatz aus einer festen Stichprobe. So können wir unter anderem die Varianz unserer Schätzungen abschätzen.
In Kreuzvalidierung schätzen wir den Fehler einer Schätzung außerhalb der Stichprobe, indem wir unsere Daten zufällig in Segmente unterteilen und zufällige Trainings- und Testsätze zusammenstellen.
In Permutationstests wir zufällige Permutationen, um eine Stichprobe unter der Nullhypothese zu erstellen, sodass nichtparametrische Hypothesentests in einer Vielzahl von Situationen durchgeführt werden können.
Beim Absacken steuern wir die Varianz einer Schätzung, indem wir wiederholt eine Schätzung der Bootstrap-Stichproben von Trainingsdaten durchführen und dann die Ergebnisse mitteln.
In zufälligen Wäldern steuern wir die Varianz einer Schätzung weiter, indem wir an jedem Entscheidungspunkt auch eine zufällige Stichprobe aus den verfügbaren Prädiktoren ziehen.
In der Simulation bitten wir ein Anpassungsmodell, zufällig neue Datensätze zu generieren, die wir mit Trainings- oder Testdaten vergleichen können, um die Anpassung und Annahmen in einem Modell zu validieren.
In Markov Kette Monte Carlo wir anhand einer Markov-Kette den Raum möglicher Ergebnisse (danke an @Ben Bolker für dieses Beispiel).
Das sind nur die alltäglichen Anwendungen, die einem sofort in den Sinn kommen. Wenn ich tief grabe, könnte ich wahrscheinlich die Länge dieser Liste verdoppeln. Zufälligkeit ist sowohl ein wichtiges Untersuchungsobjekt als auch ein wichtiges Werkzeug.