Ich habe seit über 10 Jahren keine Statistik mehr studiert (und dann nur noch einen Grundkurs), daher ist meine Frage vielleicht etwas schwer zu verstehen.
Auf jeden Fall möchte ich die Anzahl der Datenpunkte in einer Reihe reduzieren. Die x-Achse ist die Anzahl der Millisekunden seit Beginn der Messung und die y-Achse ist der Messwert für diesen Punkt.
Oft gibt es Tausende von Datenpunkten, aber ich brauche möglicherweise nur ein paar Hundert. Meine Frage lautet also: Wie reduziere ich die Anzahl der Datenpunkte genau?
Wie heißt der Prozess? (Damit ich es googeln kann) Gibt es bevorzugte Algorithmen (ich werde es in C # implementieren)
Hoffe du hast ein paar Hinweise. Entschuldigung für meinen Mangel an korrekter Terminologie.
Edit: Weitere Details finden Sie hier:
Die Rohdaten, die ich erhalten habe, sind Herzfrequenzdaten und in Form von Millisekunden seit dem letzten Schlag. Bevor ich die Daten zeichne, berechne ich die Anzahl der Millisekunden aus der ersten Probe und die BPM (Schläge pro Minute) an jedem Datenpunkt (60000 / Timesincelastbeat).
Ich möchte die Daten visualisieren, dh in einem Liniendiagramm darstellen. Ich möchte die Anzahl der Punkte in der Grafik von Tausenden auf einige Hundert reduzieren.
Eine Möglichkeit wäre, die durchschnittliche BPM für jede Sekunde in der Serie oder vielleicht alle 5 Sekunden oder so zu berechnen. Das wäre ziemlich einfach gewesen, wenn ich gewusst hätte, dass ich für jede dieser Perioden mindestens eine Probe haben würde (Sekunden in Intervallen von 5 Sekunden).