Vai al contenuto

Test di randomizzazione: differenze tra le versioni

Da Wikipedia, l'enciclopedia libera.
Contenuto cancellato Contenuto aggiunto
Pil56-bot (discussione | contributi)
m smistamento lavoro sporco e fix vari
Messbot (discussione | contributi)
-O using AWB
 
(4 versioni intermedie di 4 utenti non mostrate)
Riga 1: Riga 1:
{{O|statistica|mese=agosto 2014}}
{{F|statistica|maggio 2014}}
Il '''test di randomizzazione''' o di '''aleatorizzazione''' (o di rimescolamento o ''shuffling test''), ideato da [[Ronald Fisher]] nel 1935, appartiene alla famiglia dei test di [[ricampionamento]] (insieme al metodo ''[[Metodo bootstrap|bootstrap]]'', al metodo ''[[Metodo jackknife|jackknife]]'' e al [[Metodo Montecarlo|metodo di Montecarlo]]).
{{F|statistica|maggio 2014|}}

Il '''test di randomizzazione''' (o di rimescolamento o ''shuffling test''), ideato da [[Ronald Fisher]] nel 1935, appartiene alla famiglia dei test di [[ricampionamento]] (insieme al metodo ''[[Metodo bootstrap|bootstrap]]'', al metodo ''[[Metodo jackknife|jackknife]]'' e al [[Metodo Montecarlo|metodo di Montecarlo]]).
Si usa per determinare la probabilità di [[Correlazione statistica|correlazione]] tra due [[Variabili casuali|variabili]].
Si usa per determinare la probabilità di [[Correlazione statistica|correlazione]] tra due [[Variabili casuali|variabili]].


Riga 9: Riga 7:
Con questo [[test statistico]] viene dapprima calcolato il [[Coefficiente di correlazione R per ranghi di Spearman|coefficiente di correlazione]] dei dati inseriti, conservandone l'ordine; successivamente i dati di una variabile vengono mescolati in modo casuale e viene ricalcolato un nuovo coefficiente di correlazione. Questo passaggio (rimescolamento o ''shuffling'') viene ripetuto N-volte (a seconda del numero di dati).
Con questo [[test statistico]] viene dapprima calcolato il [[Coefficiente di correlazione R per ranghi di Spearman|coefficiente di correlazione]] dei dati inseriti, conservandone l'ordine; successivamente i dati di una variabile vengono mescolati in modo casuale e viene ricalcolato un nuovo coefficiente di correlazione. Questo passaggio (rimescolamento o ''shuffling'') viene ripetuto N-volte (a seconda del numero di dati).


Di questa nuova serie di coefficienti di correlazione bisogna calcolare la [[media]] e la [[deviazione standard]] (si possono rappresentare graficamente i risultati ottenuti con un'[[istogramma]], in cui il numero di intervalli sia uguale alla radice quadrata del numero N di simulazioni effettuate).
Di questa nuova serie di coefficienti di correlazione bisogna calcolare la [[media (statistica)|media]] e la [[deviazione standard]] (si possono rappresentare graficamente i risultati ottenuti con un'[[istogramma]], in cui il numero di intervalli sia uguale alla radice quadrata del numero N di simulazioni effettuate).


Quindi si osserva quante volte il coefficiente di correlazione calcolato di discosta dalla media degli N coefficienti simulati col test di randomizzazione. Il valore viene espresso in unità di deviazioni standard; si considerano correlati in modo significativo i coefficienti il cui valore sia maggiore di 1,96 (o minore di -1,96) [P=0,05].
Quindi si osserva quante volte il coefficiente di correlazione calcolato si discosta dalla media degli N coefficienti simulati col test di randomizzazione. Il valore viene espresso in unità di deviazioni standard; si considerano correlati in modo significativo i coefficienti il cui valore sia maggiore di 1,96 (o minore di -1,96) [P=0,05].


Questo test statistico, insieme ai più recenti metodi ''[[Metodo jackknife|jackknife]]'' e ''[[Metodo bootstrap|bootstrap]]'', è oggi molto diffuso e versatile (soprattutto in sostituzione dei precedenti test non parametrici, che erano semplici applicazioni algoritmiche per semplificare i calcoli prima della diffusione dei moderni personal computer).
Questo test statistico, insieme ai più recenti metodi ''[[Metodo jackknife|jackknife]]'' e ''[[Metodo bootstrap|bootstrap]]'', è oggi molto diffuso e versatile (soprattutto in sostituzione dei precedenti test non parametrici, che erano semplici applicazioni algoritmiche per semplificare i calcoli prima della diffusione dei moderni personal computer).

Versione attuale delle 11:03, 21 mar 2017

Il test di randomizzazione o di aleatorizzazione (o di rimescolamento o shuffling test), ideato da Ronald Fisher nel 1935, appartiene alla famiglia dei test di ricampionamento (insieme al metodo bootstrap, al metodo jackknife e al metodo di Montecarlo). Si usa per determinare la probabilità di correlazione tra due variabili.

Supponendo di disporre di una serie di dati che sembrano mostrare una certa regolarità, si assume come ipotesi nulla che i dati non siano tra loro correlati (ovvero che siano distribuiti casualmente).

Con questo test statistico viene dapprima calcolato il coefficiente di correlazione dei dati inseriti, conservandone l'ordine; successivamente i dati di una variabile vengono mescolati in modo casuale e viene ricalcolato un nuovo coefficiente di correlazione. Questo passaggio (rimescolamento o shuffling) viene ripetuto N-volte (a seconda del numero di dati).

Di questa nuova serie di coefficienti di correlazione bisogna calcolare la media e la deviazione standard (si possono rappresentare graficamente i risultati ottenuti con un'istogramma, in cui il numero di intervalli sia uguale alla radice quadrata del numero N di simulazioni effettuate).

Quindi si osserva quante volte il coefficiente di correlazione calcolato si discosta dalla media degli N coefficienti simulati col test di randomizzazione. Il valore viene espresso in unità di deviazioni standard; si considerano correlati in modo significativo i coefficienti il cui valore sia maggiore di 1,96 (o minore di -1,96) [P=0,05].

Questo test statistico, insieme ai più recenti metodi jackknife e bootstrap, è oggi molto diffuso e versatile (soprattutto in sostituzione dei precedenti test non parametrici, che erano semplici applicazioni algoritmiche per semplificare i calcoli prima della diffusione dei moderni personal computer).