Differenza Tra Deviazione Standard E Media

Differenza Tra Deviazione Standard E Media
Differenza Tra Deviazione Standard E Media

Video: Differenza Tra Deviazione Standard E Media

Video: Differenza Tra Deviazione Standard E Media
Video: Media, varianza e deviazione standard (Domenico Brunetto) 2024, Aprile
Anonim

Deviazione standard vs media

Nelle statistiche descrittive e inferenziali, vengono utilizzati diversi indici per descrivere un set di dati corrispondente alla sua tendenza centrale, dispersione e asimmetria. Nell'inferenza statistica, questi sono comunemente noti come stimatori poiché stimano i valori dei parametri della popolazione.

La tendenza centrale si riferisce e individua il centro della distribuzione dei valori. La media, il modo e la mediana sono gli indici più comunemente usati per descrivere la tendenza centrale di un insieme di dati. La dispersione è la quantità di diffusione dei dati dal centro della distribuzione. L'intervallo e la deviazione standard sono le misure di dispersione più comunemente utilizzate. I coefficienti di asimmetria di Pearson vengono utilizzati per descrivere l'asimmetria di una distribuzione di dati. Qui, l'asimmetria si riferisce al fatto che il set di dati sia simmetrico rispetto al centro o meno e, in caso contrario, a quanto sia inclinato.

Cosa significa?

La media è l'indice di tendenza centrale più comunemente usato. Dato un set di dati, la media viene calcolata prendendo la somma di tutti i valori dei dati e quindi dividendola per il numero di dati. Ad esempio, il peso di 10 persone (in chilogrammi) viene misurato come 70, 62, 65, 72, 80, 70, 63, 72, 77 e 79. Quindi il peso medio delle dieci persone (in chilogrammi) può essere calcolato come segue. La somma dei pesi è 70 + 62 + 65 + 72 + 80 + 70 + 63 + 72 + 77 + 79 = 710. Media = (somma) / (numero di dati) = 710/10 = 71 (in chilogrammi).

Come in questo esempio particolare, il valore medio di un set di dati potrebbe non essere un punto dati del set ma sarà univoco per un dato set di dati. La media avrà le stesse unità dei dati originali. Pertanto, può essere contrassegnato sullo stesso asse dei dati e può essere utilizzato nei confronti. Inoltre, non vi è alcuna restrizione di segno per la media di un set di dati. Può essere negativo, zero o positivo, poiché la somma del set di dati può essere negativa, zero o positiva.

Cos'è la deviazione standard?

La deviazione standard è l'indice di dispersione più comunemente usato. Per calcolare la deviazione standard, vengono prima calcolate le deviazioni dei valori dei dati dalla media. La media quadratica delle deviazioni è chiamata deviazione standard.

Nell'esempio precedente, le rispettive deviazioni dalla media sono (70-71) = -1, (62-71) = -9, (65-71) = -6, (72-71) = 1, (80- 71) = 9, (70-71) = -1, (63-71) = -8, (72-71) = 1, (77-71) = 6 e (79-71) = 8. La somma di quadrati di deviazione sono (-1) 2+ (-9) 2 + (-6) 2 + 1 2 +9 2 + (-1) 2 + (-8) 2 + 1 2 + 6 2 + 8 2 = 366 La deviazione standard è √ (366/10) = 6,05 (in chilogrammi). Da ciò, si può concludere che la maggior parte dei dati è nell'intervallo 71 ± 6,05, a condizione che il set di dati non sia molto distorto, ed è effettivamente così in questo particolare esempio.

Poiché la deviazione standard ha le stesse unità dei dati originali, ci dà una misura di quanto i dati sono deviati dal centro; maggiore è la deviazione standard maggiore è la dispersione. Inoltre, la deviazione standard sarà un valore non negativo indipendentemente dalla natura dei dati nel set di dati.

Qual è la differenza tra deviazione standard e media?

• La deviazione standard è una misura della dispersione dal centro, mentre la media misura la posizione del centro di un insieme di dati.

• La deviazione standard è sempre un valore non negativo, ma la media può assumere qualsiasi valore reale.

Raccomandato: