blog
Se sei uno studente universitario che si sta preparando per un esame di statistica, probabilmente ti sei chiesto a cosa servono i test post-hoc e come interpretarli.
Questi test servono ad analizzare i dati dopo aver eseguito un'ANOVA (Analisi della Varianza).
In questo articolo, apprenderai l'utilità e l'applicazione dei test post-hoc, capirai quando fare un'ANOVA (a una e due vie), e riuscirai a interpretare correttamente i risultati del test di Levene.
Alla fine di questo articolo saprai come utilizzare questi strumenti statistici per i tuoi studi universitari e progetti di ricerca.
Quando esegui un'ANOVA, puoi determinare se esistono differenze significative tra i gruppi, ma non sai esattamente quali gruppi differiscono tra loro. Ecco dove entrano in gioco i test post-hoc.
I test post-hoc sono strumenti statistici utilizzati per effettuare confronti multipli tra gruppi dopo aver riscontrato una differenza significativa nei risultati di un'ANOVA.
Questi test aiutano a identificare quali coppie di gruppi presentano variazioni nelle loro medie.
I test post-hoc utilizzano procedure specifiche per controllare il tasso di errore di Tipo I, ossia la probabilità di trovare una differenza significativa quando non esiste. Questo è importante perché fare molteplici confronti senza controllare il tasso di errore aumenta la probabilità di ottenere falsi positivi.
In sintesi, eseguire test post-hoc serve a interpretare meglio i risultati dell'ANOVA, fornendo una visione più chiara e dettagliata delle differenze tra i gruppi.
Prima di approfondire i test post-hoc voglio assicurarmi che ti sia chiaro cosa li precede.
Come detto, questi test sono successivi all’ANOVA. Se questo argomento ti è sconosciuto, ti suggerisco di approfondirlo in questo articolo.
Se invece hai già un'idea di cosa ti sto parlando, faccio solo un veloce refresh.
Il test ANOVA è una tecnica statistica utilizzata per confrontare le medie di tre o più gruppi. Viene utilizzato quando si vuole determinare se c’è una relazione tra una variabile dipendente quantitativa e una indipendente qualitativa.
È particolarmente utile quando si conducono esperimenti o studi osservazionali in cui si desidera confrontare più gruppi simultaneamente.
Se il risultato dell'ANOVA è significativo, indica che almeno uno dei gruppi analizzati differisce dagli altri.
Tuttavia, non specifica quali gruppi differiscono. È necessario fare test post-hoc per identificare le differenze specifiche.
C’è, però, un passaggio essenziale che occorre fare prima ancora dell’ANOVA.
Vedi, l'ANOVA assume che le varianze dei gruppi siano omogenee. Ma, se le varianze non sono uguali, i risultati potrebbero non essere validi.
È necessario, quindi, verificare prima l'uguaglianza delle varianze tra due o più gruppi.
Come si fa?
Ci viene in soccorso il test di Levene.
Il test di Levene è progettato per testare l'ipotesi nulla secondo cui le varianze dei gruppi sono uguali.
Un test con p-value < 0.05 indica che le varianze non sono uguali. In questo caso, il test di Levene ci sta dicendo che i risultati dell'ANOVA potrebbero non essere validi. Pertanto, potrebbe essere necessario ricorrere a metodi alternativi o aggiustamenti.
La maggior parte dei software, tra cui SPSS (dai un'occhiata ai miei corsi), fornisce comunque dei test post-hoc adatti quando le varianze dei gruppi differiscono.
Se il test di Levene indica che le varianze sono uguali (p-value > 0.05), è possibile procedere con l'ANOVA e, successivamente, con i test post-hoc.
Ora vediamo quali sono i principali test post-hoc per individuare quali gruppi differiscono tra loro.
Il test di Tukey HSD (Honest Significant Difference) confronta tutte le possibili coppie di gruppi per identificare quali differiscono significativamente. È un test conservativo, in quanto il suo errore di I tipo non varia al variare del numero di confronti effettuati.
Il test di Tukey HSD utilizza la distribuzione studentizzata delle range per calcolare la differenza minima significativa tra le medie dei gruppi. La formula per la differenza minima significativa (HSD) è:
Verificare se ci sono differenze significative tra le medie dei gruppi.
Derivare il MSE dai risultati dell'ANOVA.
Utilizzare tavole specifiche o software statistici per trovare il valore di q appropriato.
Applicare la formula sopra per trovare la differenza minima significativa.
Calcolare le differenze tra tutte le coppie di medie dei gruppi e confrontarle con l'HSD. Se la differenza tra le medie è maggiore dell'HSD, allora la differenza è significativa.
È ideale per confronti multipli quando si ha un numero simile di osservazioni per ciascun gruppo e il numero dei gruppi è basso ( J < 5 ).
Il test S-N-K (Student-Newman-Keuls) ordina le medie e poi procede a confrontarle, partendo dalle coppie di medie più vicine fino a quelle più distanti.
É più liberale quando i confronti stimati sono pochi ( < 5), ma diventa più conservativo all'aumentare dei confronti.
l test S-N-K utilizza una statistica basata sulla differenza tra le medie dei gruppi e la distribuzione studentizzata delle range. La formula per il confronto tra due medie è:
Verificare se ci sono differenze significative tra le medie dei gruppi.
Derivare il MSE dai risultati dell'ANOVA.
Ordinare le medie dei gruppi in ordine crescente
Utilizzare la formula sopra per calcolare il valore q per ciascuna coppia di medie, partendo dalle coppie di medie più vicine fino a quelle più distanti.
Utilizzare tavole specifiche o software statistici per trovare il valore critico q per il livello di significatività desiderato, il numero di gruppi e i gradi di libertà dell'errore.
Il test S-N-K è spesso scelto per la sua capacità di bilanciare potenza statistica e controllo degli errori. Il motivo principale per cui viene utilizzato è che consente un'analisi dettagliata e graduale delle differenze tra le medie dei gruppi, confrontando inizialmente le medie più vicine e procedendo verso quelle più distanti.
Questo approccio progressivo è utile per identificare pattern specifici nelle differenze tra i gruppi, il che può essere meno evidente con altri test post-hoc.
Il test post-hoc R-E-G-W-Q (Ryan-Einot-Gabriel-Welsch-Studentized Range Q) modifica il test S-N-K utilizzando sempre la statistica q, calcolando il valore p di ogni confronto sulla base del range r tra le medie confrontate, ma corregge anche il valore p utilizzando la formula pc = 1 -( 1 - p )k/r
Utilizza quello che è noto come approccio step-down per controllare l'errore familywise. In questo test, non vengono calcolati intervalli di confidenza.
Il test R-E-G-W-Q utilizza una procedura iterativa che combina la distribuzione F e la distribuzione studentizzata delle range. La differenza minima significativa (HSD) viene calcolata in modo simile al test HSD di Tukey, ma con adattamenti per tenere conto delle diverse dimensioni dei gruppi.
La formula per la differenza minima significativa tra due medie è:
Verificare se ci sono differenze significative tra le medie dei gruppi.
Derivare il MSE dai risultati dell'ANOVA.
Ordinare le medie dei gruppi in ordine crescente
Utilizzare la formula sopra per calcolare il valore q per ciascuna coppia di medie.
Utilizzare tavole specifiche o software statistici per trovare il valore critico q per il livello di significatività desiderato, il numero di gruppi e i gradi di libertà dell'errore.
Applicare la formula sopra per trovare la differenza minima significativa.
Calcolare le differenze tra tutte le coppie di medie dei gruppi e confrontarle con l'HSD. Se la differenza tra le medie è maggiore dell'HSD, allora la differenza è significativa.
Il test R-E-G-W-Q offre un buon compromesso tra la potenza statistica e il controllo degli errori di tipo I (falsi positivi). È meno conservativo rispetto al test di Bonferroni, il che significa che ha una maggiore probabilità di rilevare differenze reali, ma è più conservativo rispetto al test di Tukey, il che aiuta a ridurre la probabilità di falsi positivi.
É particolarmente efficace quando i gruppi hanno dimensioni diverse.
É il test che consiglio di utilizzare se non si hanno motivi particolari.
Il test post-hoc di Bonferroni è una tecnica utilizzata nell'analisi statistica per affrontare il problema delle comparazioni multiple. Quando conduciamo più test statistici simultaneamente, aumenta la probabilità di ottenere risultati statisticamente significativi per caso, anche se non esistono reali differenze.
Questo è noto come errore di tipo I o falso positivo. Il test di Bonferroni aiuta a controllare questo errore.
In particolare la diseguaglianza di Bonferroni dimostra che la probabilità che almeno un test sia significativo è minore o uguale alla somma delle probabilità che ogni test sia significativo.
αe < kα, dove k = numero di test effettuati.
La correzione di Bonferroni si basa sulla divisione del livello di significatività α per il numero totale di test k. Se il livello di significatività iniziale è α = 0,05 e stai conducendo test, la soglia di significatività corretta sarà 0,05 / k.
Il numero di k test che si possono effettuare è uguale alla formula J * ( J - 1 ) / 2, dove J è il numero dei gruppi della variabile qualitativa
Esempio:
α = 0,05
J = 4 gruppi
k = ( 4 * 3 ) / 2 = 6 test
soglia corretta = 0,05 / 6 = 0,0083
In alternativa tutti i principali software moltiplicano i p-value dei confronti a due a due per il numero k test dimodochè si possa confrontare il p-value con la soglia alfa prestabilita.
Esempio:
α = 0,05
J = 4 gruppi
k = 6 test
p-value gruppo 1 vs gruppo 2 = 0,03
p-value reale = 0,03 * 6 = 0,18
Risultato del test: Non posso rifiutare H0 perchè p > α ( 0,18 > 0,05)
Verificare se ci sono differenze significative tra le medie dei gruppi.
Eseguire i test statistici individuali e ottenere i p-value per ciascuno.
Dividere ogni p-value per il numero totale di test k. Alternativamente, si può confrontare ogni p-value originale con α / k.
Se un p-value corretto è inferiore a α / k, si rifiuta l'ipotesi nulla per quel test specifico.
È utile quando si eseguono numerosi confronti e si vuole ridurre il rischio di falsi positivi, ovvero errori di Tipo I.
È un test conservativo adatto per le ricerche esplorative.
Questo test è più conservativo rispetto ad altri test post-hoc, come quello di Tukey, il che significa che ha una maggiore probabilità di non trovare differenze significative, riducendo così il rischio di errore di tipo I.
La formula del test di Scheffé per confrontare le medie dei gruppi si basa sul calcolo del test F per ogni confronto. La differenza tra due medie qualsiasi viene testata utilizzando la seguente statistica:
Verificare se ci sono differenze significative tra le medie dei gruppi.
Calcolare SSE e i gradi di libertà dell'errore dai risultati dell'ANOVA.
Definire il confronto specifico tra le medie dei gruppi.
Utilizzare la formula sopra per calcolare il valore F per il confronto specifico.
Utilizzare la distribuzione F con ( k−1 , dfE ) gradi di libertà per trovare il valore critico. Se la statistica F calcolata è maggiore del valore critico, il confronto è significativo.
È utile quando si vuole fare confronti complessi, non solo tra coppie di gruppi, ma anche tra combinazioni di gruppi. Adatto in ricerche esplorative con pochi confronti da analizzare.
Il test post-hoc di Dunnett è una tecnica statistica utilizzata per confrontare le medie di più gruppi sperimentali rispetto a un gruppo di controllo.
Questo test è particolarmente utile negli esperimenti in cui uno dei gruppi (spesso un gruppo di controllo) è di particolare interesse e si desidera confrontare tutti gli altri gruppi con questo gruppo di riferimento.
A differenza di altri test post-hoc, il test di Dunnett non confronta tutte le possibili coppie di gruppi tra loro, ma solo le coppie formate da ciascun gruppo con il gruppo di controllo.
Questo lo rende meno conservativo rispetto ad altri test come quello di Scheffé o Bonferroni, aumentando la potenza statistica.
La statistica del test di Dunnett si basa sulla distribuzione t di Student modificata. La formula per calcolare la statistica di Dunnett per confrontare la media di un gruppo sperimentale con quella del gruppo di controllo è:
Verificare se ci sono differenze significative tra le medie dei gruppi.
Trovare il MSE dai risultati dell'ANOVA.
Determinare quale gruppo sarà utilizzato come controllo per i confronti.
Utilizzare la formula sopra per calcolare il valore t per ciascun gruppo sperimentale rispetto al gruppo di controllo.
Utilizzare tavole specifiche o software statistici per trovare il valore critico t di Dunnett per il livello di significatività desiderato, il numero di gruppi e i gradi di libertà dell'errore.
È ideale quando si ha un gruppo di controllo e si vogliono confrontare tutti gli altri gruppi sperimentali con questo.
Esegui il test di Levene e, successivamente, l'ANOVA per determinare se ci sono differenze significative tra i gruppi.
Se l'ANOVA è significativa, scegli il test post-hoc più adatto alla tua situazione, considerando il numero di gruppi e il tipo di confronti che desideri fare.
Usa software statistici, come SPSS, per eseguire i test post-hoc.
SPSS non è uno strumento semplice da usare. Se hai necessità di preparare un’analisi tesi o fare un’elaborazione dati, puoi rivolgerti a un professionista esperto, come me.
Analizza i risultati del test post-hoc per identificare quali gruppi differiscono significativamente. I risultati includeranno p-value che indicano la significatività delle differenze tra i gruppi.
Non esiste un comando specifico ma bisogna installare PH STAT
Multiple-Sample Test >>> One-Way ANOVA >>> Tukey-Kramer procedure (c'è solo il test di Tukey)
Analizza >>> Confronta medie >>> Anova a una via
Analizza >>> Modello lineare generale >>> Univariata
Analizza >>> Modello lineare generale >>> Multivariata
Iscriviti alla Newsletter