lo strumento, o meglio l'algoritmo in esso implementato, presenta un margine di compensazione sull'incremento/decremento della prestazione. Si badi bene quindi che, in quanto apporta un calcolo indiretto, anche se relativamente e soggettivamente abbastanza preciso in determinate condizioni (es sforzo ed intensità costante), è uno strumento che fornisce un'indicazione di massima e questa distanza tra valore reale (misurato con "vero" misuratore di potenza) e presunto è sempre superiore ad un possibile incremento medio della performance in una popolazione "media" su cui è stato sviluppato lo strumento.
Credo di aver capito: l'errore strumentale (o forse sarebbe meglio dire di rilevazione) è superiore, o dello stesso ordine di grandezza, al range di variazione della grandezza da rilevare
Viene inoltre suggerito che questo valore "estrapolato" non sia considerato oggettivamente a sè stante, in quanto non misurazione oggettiva e quantitativa delle componenti che determinano potenza, ma relazionato ad altro valore (es velocità).
In pratica: trovo la ftp con il powercal, poi vado su una salita di 4-6 km e me la faccio a un certo ritmo, diciamo a ftp, cronometrandomi. Segno il tempo e me lo metto da parte. Poi mi alleno per un po', facciamo 2 mesi, e quindi torno sulla stessa salita e me la faccio sempre alla stessa ftp e sempre prendendo il tempo. Se ci ho messo di meno sono migliorato.
Il problema è come farlo capire al performance manager :)
Ora la domanda cui accennavo nel post di prima: qui
http://bikehabit.blogspot.it/2012/07/cycleops-powercal-versus-quarq-is.htmlhttp://bikehabit.blogspot.it/2012/07/cycleops-powercal-versus-quarq-is.html
c'è un'accurata comparazione del powercal con il quark.
La figura in allegato mostra il diagramma a dispersione dei valori misurati dai due strumenti in una medesima uscita. L'ideale sarebbe che tutti i punti stessero sulla linea blu (i due strumenti rilevano sempre la stessa intensità), ma ovviamente non è così (c'è una differenza di prezzo di 20 volte non a caso). Ora, in primo luogo secondo me la situazione sarebbe meno dispersa se solo si arretrasse di 2-3 secondi la serie dei dati del powercal rispetto a quella del quark, poiché il primo reagisce con un leggero ritardo alle variazioni di carico. A parte questo, la cosa più preoccupante è che la retta di regressione, quella nera e che dovrebbe rappresentare la migliore approssimazione lineare della nuvola dei punti, non è parallela a quella blu (a parte comunque il fatto che il modello di regressione scelto non mi pare corretto, io avrei scelto un modello senza intercetta, perché almeno il valore a 0 watt si sa che è vero).
Questo porta a far sì che il powercal si allontani dal vero quanto più ci si allontana dal punto di intersezione delle due rette (120-130 watt nel caso in esame), scardinando così le percentuali che costituiscono i limiti delle varie zone di allenamento. Per esempio: Z5 non dovrebbe più essere tra 105 e 120% di ftp, perché in quella zona il powercal sovrastima più di quanto non faccia al 100% (man mano che si sale coi watt, ogni watt misurato è meno di un watt reale), per cui Z5 andrebbe posizionata, faccio per dire, tra 106 e 125%. E così tutto il resto.
Che ne pensi, l'avevi mai considerato?