Bei der Schätzung der relativen Größe von User Stories in der agilen Softwareentwicklung sollen die Mitglieder des Teams die Größe einer User Story auf 1, 2, 3, 5, 8, 13, ... schätzen. Die geschätzten Werte sollten also der Fibonacci-Reihe ähneln. Aber ich frage mich, warum?
Die Beschreibung von http://en.wikipedia.org/wiki/Planning_poker auf Wikipedia enthält den mysteriösen Satz:
Der Grund für die Verwendung der Fibonacci-Sequenz besteht darin, die inhärente Unsicherheit bei der Schätzung größerer Elemente widerzuspiegeln.
Aber warum sollte bei größeren Artikeln eine gewisse Unsicherheit bestehen? Ist die Unsicherheit nicht höher, wenn wir weniger Messungen durchführen, dh wenn weniger Menschen dieselbe Geschichte schätzen? Und selbst wenn die Unsicherheit in größeren Geschichten höher ist, warum impliziert dies die Verwendung der Fibonacci-Sequenz? Gibt es einen mathematischen oder statistischen Grund dafür? Ansonsten fühlt sich die Verwendung der Fibonacci-Reihe zur Schätzung für mich wie eine CargoCult-Wissenschaft an.
2^n
Möglicherweise platzieren Sie die Zahlen zu weit. Warum also nicht die Fibonacci-Sequenz verwenden, um die es gehtc*phi^n
?