Que mide la desviacion tipica

Que mide la desviacion tipica

Cómo encontrar la desviación estándar

La desviación estándar es una medida de la dispersión de las puntuaciones dentro de un conjunto de datos. Normalmente, nos interesa la desviación típica de una población. Sin embargo, como a menudo se nos presentan datos de una muestra solamente, podemos estimar la desviación típica de la población a partir de una desviación típica de la muestra. Estas dos desviaciones típicas, la de la muestra y la de la población, se calculan de forma diferente. En estadística, normalmente se nos presenta la necesidad de calcular las desviaciones típicas de la muestra, por lo que este artículo se centrará en ello, aunque también se mostrará la fórmula de la desviación típica de la población.

Normalmente nos interesa conocer la desviación típica poblacional porque nuestra población contiene todos los valores que nos interesan. Por lo tanto, normalmente se calcula la desviación típica de la población si (1) tiene toda la población o (2) tiene una muestra de una población más grande, pero sólo está interesado en esta muestra y no desea generalizar sus hallazgos a la población. Sin embargo, en estadística, normalmente se nos presenta una muestra a partir de la cual queremos estimar (generalizar) una población, y la desviación típica no es una excepción. Por lo tanto, si todo lo que se tiene es una muestra, pero se desea hacer una declaración sobre la desviación estándar de la población de la que se extrae la muestra, es necesario utilizar la desviación estándar de la muestra. A menudo puede surgir la confusión sobre qué desviación estándar utilizar debido a que el nombre de desviación estándar de la «muestra» se interpreta incorrectamente como la desviación estándar de la propia muestra y no la estimación de la desviación estándar de la población basada en la muestra.

Desviación estándar de la muestra

En las distribuciones normales, los datos se distribuyen de forma simétrica y sin sesgo. La mayoría de los valores se agrupan alrededor de una región central, y los valores disminuyen a medida que se alejan del centro. La desviación estándar indica la dispersión media de los datos con respecto al centro de la distribución.

Muchas variables científicas siguen distribuciones normales, como la altura, las puntuaciones de los exámenes estandarizados o los índices de satisfacción laboral. Cuando tienes las desviaciones estándar de diferentes muestras, puedes comparar sus distribuciones utilizando pruebas estadísticas para hacer inferencias sobre las poblaciones más grandes de las que provienen.

Desviación absoluta de la mediana

A diferencia del rango y del rango intercuartil, la varianza es una medida de dispersión que tiene en cuenta la dispersión de todos los puntos de datos en un conjunto de datos. Es la medida de dispersión más utilizada, junto con la desviación estándar, que es simplemente la raíz cuadrada de la varianza. La varianza es la diferencia media al cuadrado entre cada punto de datos y el centro de la distribución medido por la media.

El primer paso es calcular la media. La suma es 33 y hay 5 puntos de datos. Por tanto, la media es 33 ÷ 5 = 6,6. A continuación, se toma cada valor del conjunto de datos, se resta la media y se eleva al cuadrado la diferencia. Por ejemplo, para el primer valor:

La desviación estándar es útil cuando se compara la dispersión de dos conjuntos de datos distintos que tienen aproximadamente la misma media. El conjunto de datos con la desviación estándar más pequeña tiene una dispersión más estrecha de las medidas alrededor de la media y, por lo tanto, suele tener comparativamente menos valores altos o bajos. Un elemento seleccionado al azar de un conjunto de datos cuya desviación estándar es baja tiene más posibilidades de estar cerca de la media que un elemento de un conjunto de datos cuya desviación estándar es mayor. Sin embargo, la desviación típica se ve afectada por los valores extremos. Un solo valor extremo puede tener un gran impacto en la desviación típica.

Wikipedia

La desviación estándar (o σ) es una medida de la dispersión de los datos en relación con la media. Una desviación estándar baja significa que los datos están agrupados alrededor de la media, y una desviación estándar alta indica que los datos están más dispersos. Una desviación estándar cercana a cero indica que los puntos de datos están cerca de la media, mientras que una desviación estándar alta o baja indica que los puntos de datos están respectivamente por encima o por debajo de la media. En la imagen 7, la curva de arriba está más dispersa y, por tanto, tiene una desviación típica más alta, mientras que la curva de abajo está más agrupada en torno a la media y, por tanto, tiene una desviación típica más baja.

En esta fórmula, σ es la desviación estándar, x1 es el punto de datos que estamos resolviendo en el conjunto, µ es la media y N es el número total de puntos de datos. Volvamos al ejemplo de la clase, pero esta vez observemos su altura. Para calcular la desviación estándar de las alturas de la clase, primero hay que calcular la media de cada altura individual. En esta clase hay nueve estudiantes con una altura media de 75 pulgadas. Ahora la ecuación de la desviación estándar se ve así:

Esta web utiliza cookies propias para su correcto funcionamiento. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad