• Hallo Gast, wir suchen den Renner der Woche 🚴 - vielleicht hast du ein passendes Rennrad in deiner Garage? Alle Infos

Welche Intervalle fahrt ihr? Und Warum?

Anzeige

Re: Welche Intervalle fahrt ihr? Und Warum?
Welche Studie wird da genau zitiert? Es kommt sehr auf den Trainingszustand der Probanden an. Ich dachte, dass die Studien, die Vorteile von polarisiertem Training zeigen, dies vor allem bei weniger trainierten zeigen.
Außerdem relevant, wie genau Volumen, TIZ, TSS sich zwischen beiden Gruppen unterschieden haben.

Lt dem Artikel: Eine Untersuchung der schottischen University of Sterling 2013 mit 12 gut trainierten Rennradfahrern.
 
Also alter Tobak und ne Probandenzahl die quasi die Studie wertlos macht....

Scheint die hier zu sein :

https://journals.physiology.org/doi/full/10.1152/japplphysiol.00652.2012
Interessanter als die 40km TT Zeit ist die Veränderung der FTP.....
in der Polarized Gruppe im Schnitt +8% in 6 Wochen in der Threshold Gruppe +6% in 6 Wochen....
Wenn man nun sieht das es im Endeffekt 5 und 6 Leute waren je Gruppe (12 Starter aber einer wegen Verletzung ausgefallen)

.... naja sagen sie ja selber :

percentage change in the mean power output from pre- to post-training were higher in POL than THR [8 (±8)% and 4 (±6)%, respectively] but did not reach statistical significance.

Das nun die Zeiten besser waren.... geschenkt....es geht um die Leistung


Wenn man es grob zusammenfasst.

11 Athleten wurden in 2 Gruppen geteilt....
FTP so grob etwas über 300w auf nem TT Gewicht so ca 76kg und 178cm

Also für mich halbwegs interessant weil da bin ich aktuell mit 305/ 75/ 173 nichtmal so weit weg.
allerdings sind die 300w auf dem TT erbracht also ist die RR FTP wohl höher bei den Probanden.

Am Ende war die Polarized Gruppe in allen Bereichen entweder deutlich besser oder knapp besser.
In dem wichtigsten Bereich , der Leistung waren sie nicht signifikant besser

Am größten war der Unterschied in der tatsächlichen TT Zeit.
Nur leider ist das imo nen wertloses Item.
 
Zuletzt bearbeitet von einem Moderator:
Was war bis jetzt wenn ich fragen darf? Und wie ist dir dabei gegangen?
Eher unkoordiniert TT Fahren und eher 10km Intervalle mit 5km Pause dazwischen. Da kommt aber grade keine Leistung mehr auf und deshalb mal die 8 Minuten Quälen versuchen um sich mal wieder an Watt zu gewöhnen.
 
Bei mir hat sich eine seltsame Absentismusphase eingeschlichen. Meine letzte Rennradtrainingseinheit auf der Straße war am 9.5.2021. Und das war, wenn ich mich recht erinnere, die einzige dieses Jahr. 7500km Rolle.
 
Also alter Tobak und ne Probandenzahl die quasi die Studie wertlos macht....

Scheint die hier zu sein :

https://journals.physiology.org/doi/full/10.1152/japplphysiol.00652.2012
Interessanter als die 40km TT Zeit ist die Veränderung der FTP.....
in der Polarized Gruppe im Schnitt +8% in 6 Wochen in der Threshold Gruppe +6% in 6 Wochen....
Wenn man nun sieht das es im Endeffekt 5 und 6 Leute waren je Gruppe (12 Starter aber einer wegen Verletzung ausgefallen)

.... naja sagen sie ja selber :

percentage change in the mean power output from pre- to post-training were higher in POL than THR [8 (±8)% and 4 (±6)%, respectively] but did not reach statistical significance.
Die fehlende statistische Signifikanz hängt natürlich mit der geringen Peobandenzahl zusammen. (Für alle Nicht-Statistiker: Je kleiner die Probandenzahl, desto eher schlagen einzelne zufällige Ergebnisse/Ausreißer in den Ergebnissen durch.) Da kann man das ganze Elend der Sportwissenschaft in voller Pracht bewundern: Die (häufig aus ökonomischen Gründen erzwungene) kleine Zahl von Probanden macht valide Schlussfolgerungen selbst bei sorgfältigster Studiendurchführung von vornherein unmöglich. Sicher einer der Gründe, warum so vieles in der Trainingswissenschaft immer noch im Nebel liegt.
 
Joa eigentlich ist die Studie echt sehr gut gemacht.
Gefällt mir gut vom Aufbau und Durchführung.

Man hätte nur leider je 20 Leute für die Gruppen gebraucht....
 
Die fehlende statistische Signifikanz hängt natürlich mit der geringen Peobandenzahl zusammen. (Für alle Nicht-Statistiker: Je kleiner die Probandenzahl, desto eher schlagen einzelne zufällige Ergebnisse/Ausreißer in den Ergebnissen durch.) Da kann man das ganze Elend der Sportwissenschaft in voller Pracht bewundern: Die (häufig aus ökonomischen Gründen erzwungene) kleine Zahl von Probanden macht valide Schlussfolgerungen selbst bei sorgfältigster Studiendurchführung von vornherein unmöglich. Sicher einer der Gründe, warum so vieles in der Trainingswissenschaft immer noch im Nebel liegt.
Diese Einschätzung ist sehr eingeschränkt und ich finde auch teilweise nicht gerechtfertigt. Bei großen Stichproben begeht man oft den Fehler 2. Art. D.h. mit ein paar Probanden mehr wird es dann signifikant. Es gibt für Fragestellungen durchaus die Überlegung wie viele Probanden notwendig sind und für verschiedene Verfahren gibt es Anwendungsvorraussetzungen. Bei den häufig verwendeten Tests auf Mittelwertsdifferenzen von zwei Stichproben gelten meist n=10 für intervallskalierte Variablen. Die Verfahren reagieren auch eher konservativ bei kleinen Stichproben. D.h. die Ergebnisse sind bei Streuung eher nicht signifikant. Man sollte im Vorfeld von Untersuchungen auch die benötigte Stichprobengröße berechnen um nicht unökonomisch zu arbeiten. Deine Einschätzung, Pjotr, ist vielleicht für medizinische Fragestellungen gerechtfertigt. Die Statistiker sehen bei der Verwendung der bekannten Verfahren wie T-Test aber auch Verfahren zur Adjustierung vor.
Was eigentlich immer dazugehört und oft in Publikationen zu kurz kommt sind Tabellen mit den Rohdaten. Damit erkennt man leicht die Ausreisser und die eigentlichen Probleme der Ergebnisse.
Was ich oft vermisse ist eine Längschnittsbetrachtung von Effekten. Meistens werden nur Querschnitte erhoben und nicht über längere Zeit beobachtet wie viel die Methode eigentlich induziert wenn man sie länger anwendet.
 
Diese Einschätzung ist sehr eingeschränkt und ich finde auch teilweise nicht gerechtfertigt. Bei großen Stichproben begeht man oft den Fehler 2. Art. D.h. mit ein paar Probanden mehr wird es dann signifikant. Es gibt für Fragestellungen durchaus die Überlegung wie viele Probanden notwendig sind und für verschiedene Verfahren gibt es Anwendungsvorraussetzungen. Bei den häufig verwendeten Tests auf Mittelwertsdifferenzen von zwei Stichproben gelten meist n=10 für intervallskalierte Variablen. Die Verfahren reagieren auch eher konservativ bei kleinen Stichproben. D.h. die Ergebnisse sind bei Streuung eher nicht signifikant. Man sollte im Vorfeld von Untersuchungen auch die benötigte Stichprobengröße berechnen um nicht unökonomisch zu arbeiten. Deine Einschätzung, Pjotr, ist vielleicht für medizinische Fragestellungen gerechtfertigt. Die Statistiker sehen bei der Verwendung der bekannten Verfahren wie T-Test aber auch Verfahren zur Adjustierung vor.
Was eigentlich immer dazugehört und oft in Publikationen zu kurz kommt sind Tabellen mit den Rohdaten. Damit erkennt man leicht die Ausreisser und die eigentlichen Probleme der Ergebnisse.
Was ich oft vermisse ist eine Längschnittsbetrachtung von Effekten. Meistens werden nur Querschnitte erhoben und nicht über längere Zeit beobachtet wie viel die Methode eigentlich induziert wenn man sie länger anwendet.
Was Du schreibst, ist nicht mal ansatzweise nachvollziehbar. Die Wahrsheinlichkeit für einen Typ II-Fehler hängt ebenfalls von der Sample Size ab.
 
Längsschnitt ist ja mit Probanden die ein gehobenes Niveau haben kaum möglich....
Die werden ja nicht ihr Training z.B. 1 Jahr für ne Studie monoton gestalten und dafür Wettkampfergebnisse gefährden....
Da beisst sich dann quasi fast immer das Interesse der Wissenschaft mit den Interessen der Athleten.

Ansonsten ja es gibt genug Werkzeuge auch aus wenigen Probanden halbwegs was zu machen.
Ausreißer kann man ja z.B. auch einfach stutzen

Trotzdem ist wohl auch jedem Laien klar , dass 5 vs 6 Leute keine Größe ist bei der man am Ende besonders viel Aussagen kann sofern die Ergebnisse nicht eklatant auseinander liegen....
 
Was Du schreibst, ist nicht mal ansatzweise nachvollziehbar. Die Wahrsheinlichkeit für einen Typ II-Fehler hängt ebenfalls von der Sample Size ab.
Ich kanns auch nicht nachvollziehen, das Du dieses Vorgehen nicht kennst. Müsste noch mal bei BORTZ nachlesen aber ehrlich gesagt, mir fehlt die Lust. Und deine andauernden Kritiken gegenüber solchen Stichprobengrößen in der Sportwissenschaft ist aus meiner Sicht unbegründet. Bei Korrelationen ist das nicht so einfach. Man muss bei den Verfahren zur Prüfung von Mittelwertdifferenzen sehr wohl die anderen Anwendungsvoraussetzungen betrachten. Aber bei intervalskallierten Variablen ist ein n=10 beim bei einer untersuchten Variablen in der Sportwissenschaft üblich und von Statistikern akzeptiert wenn andere Kriterien auch stimmen. Ich sagae mal, ich habe es studiert und viele Arbeiten gelesen, die der Prüfung auch von Statistikdozenten dort genügt haben.
 
Ich möchte dazu nochmal auf dieses Paper aus dem Journal of Sports Sciences verweisen, dass sich ausführlich mit der statistischen Aussagekraft sportwissenschaftlicher Studien befasst..

https://www.tandfonline.com/doi/full/10.1080/02640414.2020.1776002
Die Autoren verweisen u.a. auf Forschungsergebnisse aus der Psychologie, wo die Wiederholung von 100 in der Literatur veröffentlichen experimentellen Studiendesigns ergeben hat, dass die gemessenen Wirkungen bei Wiederholung der Studiendesigns im Durchschnitt nur noch etwa halb so groß waren, wie in den originalen Studien publiziert. Die Autoren verweisen außerdem darauf, dass in psychologischen Studien die Probandenzahl im Durchschnitt bei 104 liege. Die Zahl der Probanden bei den Studien, die an Journal of Sports Sciences übermittelt wurden, lag dagegen im Durchschnitt nur bei 19 - also nicht mal ein Fünftel!
Die Autoren kommen daher zu der wenig überraschenden Schlussfolgerung;:

"It’s quite likely that we have a problem with underpowered studies in sport and exercise science."

Zu Deutsch: Es gibt ein Problem mit der Aussagekraft sportwissenschaftlicher Studien!

Wer sich also irgendeine Studie heranzieht und hofft, die dort publizierten Wirkungen bestimmter Intervalltrainingsprogramme etc. ohne Weiteres in seinem eigenen Training reproduzieren zu können, wird in vielen Fällen enttäuscht werden.

Dass sich Ergebnisse aus Studien nicht ohne Weiteres auf die Praxis übertragen lassen, ist btw. kein spezifisches Problem der Sportwissenschaft (das kann man Ansatzweise ja schon an den Befunden aus der Psychologie ahnen, wie oben erwähnt), sondern ist allen Bereichen, in den den mit Menschen geforscht wird ähnlich. Bei der Pharma-, Therapie- oder Präventionsforschung hat man das Problem immer wieder, dass die Wirkung irgendwelcher Interventionen/Maßnahmen im Praxiseinsatz weit geringer ausfallen, als in experimentellen Studien, weil im Praxiseinsatz häufig Faktoren eine Rolle spielen, die sich in Studien nur schlecht oder gar nicht berücksichtigen lassen. Das Problem ist bei sportwissenschaftlichen Studien durch die typischerweise geringen Probandenzahl noch größer, als in anderen Forschungsbereichen. Das heißt auch nicht, dass diese Studien per se Wertlos wären und man sie ignorieren sollte, aber sehr vorsichtig bei der Interpretation und dem Ableiten von Schlussfolgerungen.
 
Zuletzt bearbeitet:
Ich möchte dazu nochmal auf dieses Paper aus dem Journal of Sports Sciences verweisen, dass sich ausführlich mit der statistischen Aussagekraft sportwissenschaftlicher Studien befasst..

https://www.tandfonline.com/doi/full/10.1080/02640414.2020.1776002
Die Autoren verweisen u.a. auf Forschungsergebnisse aus der Psychologie, wo die Wiederholung von 100 in der Literatur veröffentlichen experimentellen Studiendesigns ergeben hat, dass die gemessenen Wirkungen bei Wiederholung der Studiendesigns im Durchschnitt nur noch etwa halb so groß waren, wie in den originalen Studien publiziert. Die Autoren verweisen außerdem darauf, dass in psychologischen Studien die Probandenzahl im Durchschnitt bei 104 liege. Die Zahl der Probanden bei den Studien, die an Journal of Sports Sciences übermittelt wurden, lag dagegen im Durchschnitt nur bei 19 - also nicht mal ein Fünftel!
Die Autoren kommen daher zu der wenig überraschenden Schlussfolgerung;:

"It’s quite likely that we have a problem with underpowered studies in sport and exercise science."

Zu Deutsch: Es gibt ein Problem mit der Aussagekraft sportwissenschaftlicher Studien!

Wer sich also irgendeine Studie heranzieht und hofft, die dort publizierten Wirkungen bestimmter Intervalltrainingsprogramme etc. ohne Weiteres in seinem eigenen Training reproduzieren zu können, wird in vielen Fällen enttäuscht werden.

...
So isses, ganz unabhängig davon, wieviele "Arbeiten [von Kommilitonen?]" der Zwischenweltler "gelesen [hat], die der Prüfung auch von Statistikdozenten dort genügt haben".

Das Problem, im Sport empirisch nachweisbare Erkenntnisse zu produzieren, liegt im Übrigen im Sport selbst: Kein guter Sportler wird einfach ein oder zwei Jahre mal so rumexperimentieren, um erstmal die "empirisch nachgewiesene" Lösung zu finden, die er dann im Rennen bzw. Training anwendet.

Insofern kommt es bei Studien auch nicht darauf an, ob der empirische Nachweis gültig ist - es sei denn, man macht das zum einzigen Kriterium. Vielmehr ist wichtig, wie die empirischen Erkenntnisse durch mit dem Grundverständnis, daß wir vom Organismus haben, übereinstimmende Erklärungen begründet werden können. Statistische Methoden zeigen stets nur Koinzidenzen. Was wir brauchen, sind aber Ursache-Wirkung-Beziehungen.

Sind die überzeugend, werden sich stets Athleten finden, die (natürlich, weil bei ihnen bis dahin der Erfolg nicht befriedigend war), das ausprobieren.

Der einzig ernsthafte und zugleich fragwürdige empirische Beweis ist der Erfolg im Rennen. Wer siegt, hat Recht!
 
Also man kann , bzw. muss sich das wohl auch irgendwie schön reden, wenn man z.B. in dem Bereich sportwissenschaftliche Forschung arbeitet....
Ich bin damals nach 2 Jahren von Sportwissenschaft zur IT gewechselt .... Ich war ziemlich frustriert dass im Prinzip fast gar nichts was da in der Sportwissenschaft geforscht wurde wirklich brauchbar war.
Und es gab auch keine Aussicht , dass sich daran in absehbarer Zeit wirklich was ändern können würde.

Die Grundkonstellation in der Sportwissenschaft ist da einfach maximal ungünstig.
Für Aussagekräftige Studien zu Bereichen der Trainingslehre braucht es:

1.) Viele gute Sportler, die Lust haben bei sowas lange mitzumachen
2.) Ne menge Geld um das ordentlich durchzuführen

Beides hat man eigentlich nie.

Am Ende hat man dann immer nur Tendenzen aber eigentlich keine Ergebnisse.

Die Studie hier ist doch das beste Beispiel:

An sich sehr interessanter Ansatz , super viel Mühe beim Aufbau der Studie gegeben , alles richtig ordentlich gemacht.
Am Ende das Ergebnis 6% vs 8% Leistungssteigerung aber keine Signifikanz.
5 Leute vs 6 Leute

So viel Aufwand und was hats gebracht ?
Von den reinen harten Fakten wissen wir absolut gar nicht mehr als vor der Studie
Für mich persönlich ist sowas maximal frustrierend
Jemand anderes findet es dann toll es überhaupt untersucht zu haben auch wenn die Ergebnisse wie fast immer in der Sportwissenschaft eigentlich am Ende kaum bis nicht zu gebrauchen sind
 
Dass es wenig Geld gibt und manche Studien dadurch einfach begrenzt sind, darf man natürlich nicht den Sportwissenschaftlern anlasten. Die spiegeln einfach die gesellschaftliche Relevanz der Themen. Die Frage, welches Intervallprogramm oder welcher Trainingsintensitäts-Verteilung zu welchen Leistungssteigerungen führt, interessiert hat allenfalls ein paar Trainer (überwiegend im Spitzensport) und Nerds wie uns. Im gesellschaftlichen Maßstab betrachtet sind das vollkommen irrelevante Themen. Da geht es viel mehr um Fragen, welchen Beitrag Trainingsprogramme in der Prävention spielen können, wie man durch optimierte Programme eine weitere Ausbreitung von Diabetes oder anderen "Volkskrankheiten" entgegenwirken kann etc. Dementsprechend steckt in Studien dazu meistens auch mehr Geld.
 
Zurück