Multicollinearità, eteroschedasticità, autocorrelazione: tre concetti dai nomi difficili (spiegati semplici)

Nel corso dei vari post, e in particolar in quelli riferiti all’analisi di regressione, all’analisi della varianza e alle serie temporali, abbiamo incontrato dei termini che sembrano fatti appositamente per spaventare il lettore.
Lo scopo di questi miei articoli è proprio quello di spiegare con semplicità i concetti chiave, al di là dell’apparente complessità (è ciò che avrei tanto voluto quando ero studente, anzichè confrontarmi con testi dalla forma volutamente – e inutilmente – involuta) .
E’ giunto dunque il momento di spendere qualche parola per tre importantissimi concetti che ricorrono assai spesso nelle analisi statistiche, e che dunque devono essere ben compresi. La realtà è molto, molto più chiara rispetto all’apparente complessità, dunque… nessuna paura!

Leggi tutto “Multicollinearità, eteroschedasticità, autocorrelazione: tre concetti dai nomi difficili (spiegati semplici)”

L’analisi della varianza, Anova. Spiegata semplice

L’analisi della varianza (ANOVA) è un test parametrico che valuta le differenze tra le medie di due o più gruppi di dati.
Si tratta di un test di ipotesi statistica che trova ampio impiego nell’ambito della ricerca scientifica e che consente di determinare se le medie di almeno due popolazioni sono diverse.
Sono necessari come presupposto minimo una variabile dipendente continua e una variabile indipendente categoriale che divida i dati in gruppi di confronto.

Leggi tutto “L’analisi della varianza, Anova. Spiegata semplice”

Test statistici parametrici e non parametrici

I test statistici possono essere di tipo parametrico oppure non parametrico.

Test parametrici: il potere della normalità

  • I test parametrici presuppongono la presenza di distribuzioni di tipo approssimativamente normale.
  • Riguardano variabili continue o di tipo intervallo e una dimensione del campione abbastanza numerosa (diciamo > 30).
  • Si presuppone anche l’omogeneità delle varianze (omoschedasticità).

Questi test hanno un potere statistico più elevato perchè forniscono una più elevata probabilità di corretto rifiuto di un’ipotesi statistica errata.

Leggi tutto “Test statistici parametrici e non parametrici”

L’analisi di regressione multipla, spiegata semplice.

I fenomeni cui assistiamo, e che vogliamo studiare per approfondirne la comprensione, raramente si presentano in maniera così semplice da potersi definire attraverso due sole variabili, di cui una predittiva (indipendente) e una responso (dipendente).

Per questo, se pure l’analisi di regressione lineare presenta una fondamentale importanza teorica, nella pratica fornisce poca informazione in più rispetto allo studio attraverso il semplice coefficiente di correlazione.

Leggi tutto “L’analisi di regressione multipla, spiegata semplice.”

I dati: le 4 scale di misura

Le 4 scale di misura. Capisco la reazione istintiva di molti ipotetici lettori: saltare a piè pari un articolo che ha il sapore di una introduzione, poco eccitante, a un tema considerato banale.
Chiedo tuttavia ai miei ipotetici lettori uno sforzo che, penso, valga la pena di fare. I concetti presenti in questo articolo sono, è vero, concetti di base, ma proprio per questo hanno un valore e una importanza fondamentale.
Assimilare questi concetti significa costruire una solida base per i concetti che seguiranno.

Non diamo nulla per scontato, perchè nulla è scontato.

Leggi tutto “I dati: le 4 scale di misura”