Errore Standard¶
La Formula¶
Oppure, quando non si conosce la deviazione standard della popolazione (cioè quasi sempre):
Cosa Significa¶
Fai un sondaggio su 100 persone e scopri che la loro altezza media è 172 cm. Bene. Ma se prendessi altre 100 persone, otterresti un numero leggermente diverso — magari 171,3, magari 173,1. L'errore standard ti dice quanto quella media ballerebbe se continuassi a ripetere l'esperimento.
Non riguarda quanto sono dispersi i singoli individui (quella è la deviazione standard). Riguarda quanto oscilla la media campionaria. Una differenza sottile ma cruciale — e confondere le due cose è uno degli errori più comuni in statistica.
Perché Funziona — La Storia Dietro la Formula¶
Il Problema Che Ha Dato Inizio a Tutto¶
Immagina di essere all'inizio del 1800. Gli astronomi stanno cercando di misurare la posizione di una stella. Ogni misura che fanno dà un risultato leggermente diverso — gli strumenti vibrano, gli occhi si sfocano, l'atmosfera ondeggia. Sanno che la posizione vera è da qualche parte in quella nuvola di misurazioni, ma dove esattamente?
Ebbero un'idea brillante: fare la media. Tutti sapevano che mediare le misure sembrava "cancellare" gli errori. Ma nessuno sapeva dire con precisione quanto fosse buona quella media. Se fai 10 misure invece di 100, la tua media dovrebbe essere migliore — ma quanto migliore?
Questa è la domanda che tormentava gli astronomi, e alla fine trovò risposta grazie a una catena di pensatori da Gauss a Laplace fino all'era moderna della statistica.
Perché \(\sigma\) Sta al Numeratore¶
Questa parte è intuitiva. Se le tue singole misure sono tutte sballate (grande \(\sigma\)), allora anche la tua media sarà traballante. Se ogni misura è quasi identica (piccolo \(\sigma\)), la media è solida come una roccia. L'errore standard eredita il disordine dei dati grezzi — non può fare altrimenti.
Perché \(\sqrt{n}\) Sta al Denominatore (E Non \(n\))¶
Questa è la parte che sorprende. Penseresti che 100 misure dovrebbero essere 100 volte meglio di 1. Ma non è così. Sono solo \(\sqrt{100} = 10\) volte meglio. Perché?
Ecco l'intuizione. Quando fai la media di \(n\) misure, ognuna contribuisce un piccolo errore casuale. Se questi errori andassero tutti nella stessa direzione, si sommerebbero fino a \(n\) volte l'errore individuale, e fare la media non servirebbe a niente. Ma gli errori sono casuali — alcuni positivi, alcuni negativi — quindi si cancellano parzialmente.
Quanto si cancellano? Qui la matematica diventa bella. Se ogni misura ha varianza \(\sigma^2\), allora la somma di \(n\) misure indipendenti ha varianza \(n\sigma^2\) (le varianze si sommano per variabili indipendenti). La media divide per \(n\), quindi:
Prendi la radice quadrata per tornare alle unità della deviazione standard:
Il \(\sqrt{n}\) appare perché stiamo lavorando con le varianze (quantità al quadrato), che si sommano linearmente, e poi prendiamo una radice quadrata alla fine. È lo stesso motivo per cui l'ipotenusa di un triangolo rettangolo non è la somma dei due cateti — la casualità segue un'addizione alla Pitagora, non un'addizione semplice.
L'Analogia della Passeggiata Casuale¶
Pensa a una persona ubriaca che barcolla a caso — un passo a sinistra, uno a destra, completamente imprevedibile. Dopo \(n\) passi, quanto si è allontanata dal punto di partenza?
Non \(n\) passi (quello significherebbe che barcolla sempre nella stessa direzione). Tipicamente, si è allontanata solo di circa \(\sqrt{n}\) passi. Dopo 100 passi casuali, si è spostata di circa 10 passi dall'inizio.
La tua media campionaria sta facendo esattamente questo, ma al contrario. Ogni misura aggiunge un "passo" casuale di errore. Dopo \(n\) misure, l'errore accumulato nella media cresce come \(\sqrt{n}\) — ma stai dividendo per \(n\), quindi l'errore nella media si riduce come \(\frac{1}{\sqrt{n}}\).
Ecco perché l'errore standard ha \(\sqrt{n}\) al denominatore. È la firma della cancellazione casuale.
La Legge dei Rendimenti Decrescenti¶
Questo discorso del \(\sqrt{n}\) ha una conseguenza pratica profonda: raccogliere più dati ha rendimenti decrescenti.
Passare da 1 a 4 misure dimezza il tuo errore. Passare da 4 a 16 lo dimezza di nuovo. Ma passare da 100 a 200? Riduce l'errore solo del 30% circa. Per dimezzare l'errore da dove sei ora, hai sempre bisogno di quattro volte più dati.
Ecco perché le sperimentazioni farmaceutiche costano così tanto. Ecco perché i sondaggisti non possono semplicemente "intervistare più persone" per avere previsioni perfette. Il \(\sqrt{n}\) è un limite di velocità fondamentale sulla crescita della certezza.
Derivazione Passo per Passo¶
Partendo dai principi di base:
-
Supponiamo \(n\) misure indipendenti \(x_1, x_2, \ldots, x_n\), ciascuna dalla stessa distribuzione con media \(\mu\) e varianza \(\sigma^2\)
-
La media campionaria è:
- Varianza della media — dato che le \(x_i\) sono indipendenti:
- L'errore standard è la radice quadrata di questa varianza:
- In pratica, non conosciamo \(\sigma\), quindi lo stimiamo con la deviazione standard campionaria \(s\):
Variabili Spiegate¶
| Simbolo | Nome | Descrizione |
|---|---|---|
| \(SE\) | Errore standard | Quanto la media campionaria varierebbe ripetendo il campionamento |
| \(\sigma\) | Deviazione standard della popolazione | La vera dispersione dei valori individuali (di solito sconosciuta) |
| \(s\) | Deviazione standard campionaria | La nostra stima di \(\sigma\) dai dati che abbiamo |
| \(n\) | Dimensione del campione | Numero di osservazioni nel campione |
| \(\bar{x}\) | Media campionaria | La media dei valori osservati |
Esempi Svolti¶
Esempio 1: Voti di un Esame¶
Una professoressa campiona i voti di 25 studenti. La deviazione standard campionaria è \(s = 15\) punti.
Se la media campionaria era 72, la vera media della classe è probabilmente entro pochi punti da 72. Se avesse campionato solo 4 studenti, il SE sarebbe stato \(\frac{15}{\sqrt{4}} = 7{,}5\) — molto più incerto.
Esempio 2: Il Problema dei Sondaggi¶
Un sondaggio politico intervista 1.000 persone e trova il 52% a favore di un candidato. Il supporto è binario (sì/no), quindi \(s \approx \sqrt{0{,}52 \times 0{,}48} \approx 0{,}5\).
Questo è il famoso "margine di errore" di cui si sente parlare — circa \(\pm 3{,}2\%\) (due errori standard). Con il 52% di supporto e un margine del 3,2%, la corsa è incerta. Per dimezzare quel margine, servirebbero 4.000 intervistati — non 2.000.
Esempio 3: I Rendimenti Decrescenti¶
Un laboratorio misura il punto di ebollizione di un liquido. Con \(s = 0{,}8°C\):
| \(n\) | \(SE\) | Miglioramento |
|---|---|---|
| 4 | 0,40°C | — |
| 16 | 0,20°C | 2× meglio |
| 64 | 0,10°C | 4× meglio |
| 256 | 0,05°C | 8× meglio |
Ogni miglioramento di 2× in precisione costa 4× più dati. La tassa della natura sulla certezza.
Errori Comuni¶
- Confondere SE con deviazione standard: La deviazione standard (\(\sigma\) o \(s\)) descrive quanto sono dispersi i singoli individui. L'errore standard descrive quanto è incerta la media. Rispondono a domande diverse. Il SE è sempre più piccolo — spesso molto più piccolo.
- Pensare che più dati aiutino sempre tanto: A causa del \(\sqrt{n}\), ogni dato aggiuntivo aiuta meno del precedente. Passare da 10 a 11 campioni non cambia quasi nulla. Passare da 1 a 2 cambia molto.
- Dimenticare l'indipendenza: Tutta la derivazione assume che le misure siano indipendenti. Se intervisti 100 persone alla stessa festa, non hai davvero 100 punti dati indipendenti. La formula ti renderà troppo sicuro di te.
- Usare SE quando intendi SD (e viceversa): Stai disegnando barre di errore? Se vuoi mostrare quanto sono variabili i singoli, usa SD. Se vuoi mostrare quanto precisamente conosci la media, usa SE. Molti articoli scientifici sbagliano proprio questo.
Formule Correlate¶
- Deviazione Standard — la dispersione dei valori individuali
- Intervallo di Confidenza — usa il SE per costruire un intervallo intorno alla media
- Teorema del Limite Centrale — perché la media campionaria è approssimativamente normale
- Distribuzione t di Student — cosa succede quando \(n\) è piccolo e stimi \(\sigma\) con \(s\)
Storia¶
- 1733 — Abraham de Moivre scopre la distribuzione normale, che sta alla base dell'intera teoria
- 1809 — Carl Friedrich Gauss pubblica il suo metodo dei minimi quadrati e la curva degli errori "gaussiana". Dimostra che la media minimizza gli errori al quadrato — ma non formalizza del tutto l'errore standard
- 1812 — Pierre-Simon Laplace dimostra il Teorema del Limite Centrale: la media di molte misure tende verso una distribuzione normale, indipendentemente dall'aspetto delle singole misure. Questo è il motore teorico che rende significativo l'errore standard
- 1908 — William Sealy Gosset, un chimico alla birreria Guinness di Dublino, affronta un problema: lavora con campioni minuscoli (5-10 lotti d'orzo), e la formula dell'errore standard fa finta che tu conosca \(\sigma\) esattamente. Lui non lo conosce — ha solo \(s\). Con lo pseudonimo "Student" (la Guinness non permetteva ai dipendenti di pubblicare), deriva la distribuzione t, che tiene conto dell'incertezza aggiuntiva quando \(\sigma\) è stimato. La formula moderna dell'errore standard con \(s\) al posto di \(\sigma\) è davvero il contributo di Gosset
- Anni '30 — Jerzy Neyman ed Egon Pearson costruiscono gli intervalli di confidenza sopra l'errore standard, dandogli il ruolo centrale che ha nella statistica moderna
La storia dell'errore standard è davvero la storia di imparare a essere onesti sull'incertezza — dagli astronomi che volevano solo fare la media delle loro misure, a un birraio che capì che i campioni piccoli hanno bisogno di cure particolari.
Riferimenti¶
- Stigler, Stephen M. The History of Statistics: The Measurement of Uncertainty before 1900. Harvard University Press, 1986.
- Student (Gosset, W. S.). "The probable error of a mean." Biometrika, 1908.
- Feynman, R. P. The Feynman Lectures on Physics, Vol. 1, Cap. 6 (Probabilità).