Hi
mache mir Gedanken wie es sich mit den Daten von Powermtern verhält.
Das PowerMeter liefert einen Messwert mit, sagen wir, 1% Genauigkeit.
Dieser Wert wird im Sekundentakt in das Messprotokoll = FIT-file/GPX-file geschrieben.
Wenn man doch nun hingeht und aus diesen Einzelabweichungen einen neuen Wert berechnet (wie Durschnitt und Normalized Power) pflanzt sich der Fehler doch fort, aber addieren (im Sekundentakt) kommt mir jetzt heftig vor, wie es bei dem Umgang mit Fehlergrenzen zu finden ist.
Für den Umgang mit zufälligen Fehlern also Messunsicherheiten wird eine empirische Verteilung des Fehlers und somit Verbesserung bei Verrechnung angegeben.
Aber beim Powermeter hab ich doch keine zufälligen Unsicherheiten sondern Fehlergrenzen die mir die Messung durch ihre Genauigkeit spezifiziert.
Wie seht ihr das?
mache mir Gedanken wie es sich mit den Daten von Powermtern verhält.
Das PowerMeter liefert einen Messwert mit, sagen wir, 1% Genauigkeit.
Dieser Wert wird im Sekundentakt in das Messprotokoll = FIT-file/GPX-file geschrieben.
Wenn man doch nun hingeht und aus diesen Einzelabweichungen einen neuen Wert berechnet (wie Durschnitt und Normalized Power) pflanzt sich der Fehler doch fort, aber addieren (im Sekundentakt) kommt mir jetzt heftig vor, wie es bei dem Umgang mit Fehlergrenzen zu finden ist.
Für den Umgang mit zufälligen Fehlern also Messunsicherheiten wird eine empirische Verteilung des Fehlers und somit Verbesserung bei Verrechnung angegeben.
Aber beim Powermeter hab ich doch keine zufälligen Unsicherheiten sondern Fehlergrenzen die mir die Messung durch ihre Genauigkeit spezifiziert.
Wie seht ihr das?
Zuletzt bearbeitet: