Coeficiente de asimetría
Las medidas de asimetría son indicadores que permiten establecer el grado de
simetría (o asimetría) que presenta una distribución de probabilidad de una
variable aleatoria sin tener que hacer su representación gráfica.
Como eje de simetría consideramos una recta paralela al eje de
ordenadas que pasa por la media de la distribución. Si una distribución
es simétrica, existe el mismo número de valores a la derecha que a la izquierda
de la media, por tanto, el mismo número de
desviaciones con signo positivo que con signo negativo. Decimos que hay
asimetría positiva (o a la derecha) si la 'cola' a la derecha de la
media es más larga que la de la izquierda, es decir, si hay valores más
separados de la media a la derecha. Diremos que hay asimetría negativa (o a la
izquierda) si la 'cola' a la izquierda de la media es más larga que
la de la derecha, es decir, si hay valores más separados de la media a la
izquierda.
Mide el grado de asimetría de la distribución con respecto a la media. Un valor positivo de este indicador significa que la
distribución se encuentra sesgada hacia la izquierda (orientación positiva). Un resultado negativo significa que la distribución se sesga
a la derecha .La distribución se considera simétrica si el valor del coeficiente es cero.
Ejemplo: Cálculo del
coeficiente de asimetría
Para calcular el coeficiente de asimetría es
necesario seguir los siguientes datos obtenidos de una muestra.
55 | 3 | 1 | 3 |3 | 3 |
3 | 4 | 3 | 2 | 3 | 3 |
1 | 2 | 3 | 2 | 3 | 2 |
2 | 4 | 2 | 2 | 2 | 2 |
1 | 2 | 1 | 4 | 2 | 2 |
3 | 2 | 3 | 1 | 2 | 3 |
1 | 5 | 6 | 3 | 2 | 1 |
1 | 1 | 2 | 3 | 2 | 1 |
SOLUCIÓN:
PASO 1: Calculamos la desviación estándar de muestra.
PASO 2: Calculamos la diferencia de cada valor con respecto a la media, divido
por la desviación y luego elevado a la 3.
Coeficiente de Curtosis:
En teoría de la probabilidad y estadística, la curtosis es una medida de la
forma o apuntamiento de las distribuciones. Así las medidas
de curtosis (también llamadas de apuntamiento o de concentración central)
tratan de estudiar la mayor o menor concentración de frecuencias alrededor de
la media y en la zona central de la distribución.
Definición de curtosis
El coeficiente de apuntamiento de uso más extendido es el basado en el cuarto
momento con respecto a la media y se define como:
donde μ4 es el 4s momento centrado o con respecto a la media y σ es
la desviación estándar.
En ocasiones se emplea esta otra definición del coeficiente de curtosis
Donde al final se ha sustraido 3 (que es la curtosis de la Normal) con objeto
de generar un coeficiente que valga 0 para la Normal y tome a ésta como
referencia de apuntamiento:
Tomando, pues, la distribución normal como referencia, una distribución puede
ser:
Más apuntada que la normal –leptocúrtica.
Menos apuntada que la normal- platicúrtica.
La distribución normal es mesocúrtica.
En ladistribución normal se verifica que μ4 = 3σ4, donde μ4 es el
momento de orden 4 respecto a la media y σ la desviación típica.
Así tendremos que
Si la distribución es leptocúrtica β2 > 3 y g2 > 0
Si la distribución es platicúrtica β2 < 3 y g2 < 0
Si la distribución es mesocúrtica β2 = 3 y g2 = 0
Desigualdad de Chebyshov
En probabilidad, la desigualdad de Chebyshov (habitualmente también escrito
como 'Tchebycheff') es un resultado que ofrece una cota inferior a la
probabilidad de que el valor de una variable aleatoria con varianza finita esté
a una cierta distancia de su esperanza matemática. La desigualdad recibe su
nombre del
matemático ruso Pafnuti Chebyshov.
Formulación:
Si X es una variable aleatoria de media μ y varianza finita σ²,
entonces, para todo número real k > 0,
Sólo en caso de que k > 1 la desigualdad proporcionan una cota no trivial
Ejemplos
Otra consecuencia del teorema es que para cada distribución de media μ y
desviación típica finita σ, al menos la mitad de sus valores se
concentrarán en el intervalo (μ-√2 σ, μ+√2 σ)
Demostración
Para demostrar la desigualdad se parte de la variable aleatoria auxiliar Y
definida así:
Entonces, trivialmente,
y por lo tanto,
Tomando esperanzas en ambos miembros se obtiene
por lo que
Pero, a su vez, dado que Y sólo puede ser 0 o 1,
lo que prueba el resultado.
Correcciones de Sheppard
Una medida relacionada con la varianza es la corrección de Sheppard, esta
medidasirve para corregir los errores que se cometen cuando se realizan
cálculos de varianza para datos agrupados, su expresión es dada como:
Se conoce como
la corrección de Sheppard.
La restricción que se impone para poder aplicar este
tipo de corrección es el hecho que solo se puede aplicar para variables
continuas, donde las colas de la distribución en ambas direcciones van a cero.
Sin embargo, su inconveniencia está en que la corrección puede modificar
sustancialmente algunos resultados lo que con lleva a cometer otro error, lo
que a generado mucha polémica sobre cuando usar la
corrección.
Momentos Adimensionales
Momentos de una variable:
Momentos respecto del origen:
Dada una variable aleatoria X con función de probabilidad o densidad f(x)
podemos definir una función de X que sea igual a la variable elevada a un
exponente entero no negativo.
El valor esperado de z(x) es el k-ésimo momento de la variable X respecto a su
origen y se llama
ï‚· k = 0
ï‚· k = 1
a este primer momento respecto al origen que es igual al valor esperado se le
llama también media aritmética de la variable y se le denomina μX, simplemente
μ.
En la mayoría de los casos, la media μ expresa la tendencia central de la
variable o el orden de magnitud de sus valores.
El resto de los momentos respecto al origen tienen
escaso interés en la mayoría de los casos.
Momentos respecto a la media:
Dada una variable aleatoria Xcon función de probabilidad o densidad f(x)
podemos definir una función de X que sea igual a la diferencia entre la
variable y su media aritmética elevada a un exponente entero no negativo.
El valor esperado de z(x) es el k-ésimo momento de la
variable X respecto a la media y se llama μk.
˜ k = 0
 k = 1
es decir, en cualquier variable aleatoria su primer momento respecto de la
media es igual a 0. Esta propiedad se utilizar reiteradamente
en las demostraciones estadísticas.
˜ k =
2
este segundo momento respecto de la media se le llama también varianza.
La varianza de una variable mide la dispersión de sus valores respecto al valor
central μ
Para calcular la varianza por un método más
sencillo se utiliza la expresión:
Es decir, la varianza de una variable es igual a la media de los cuadrados
menos el cuadrado de la media.
|
El principal problema de la varianza es que se expresa en unidades cuadráticas
que no siempre tienen una interpretación clara. Para
obviar este problema se define otra medida de la dispersión que es la
desviación típica, σX, o simplemente σ, que se calcula como la raíz
cuadrada positiva de la varianza; evidentemente, la desviación típica se mide
en las mismas unidades que la variable
No obstante, la desviación típica no resuelve todos los problemas que se pueden
plantear, como por ejemplo la comparación de situaciones en las que la unidad
de medidao el orden de magnitud de esta sea diferente. Para resolver esta
cuestión se define una medida adimensional de la variabilidad que es el
coeficiente de variación, C V, que se calcula como el cociente entre la
desviación típica y la media (a veces este cociente se expresa en tanto por
ciento multiplicándolo por 100).
En este contexto de la medida de la variación se
plantea el problema de medir la variación conjunta de variables asociadas.
Supongamos que tenemos dos variables aleatorias X e Y, discretas o continuas,
con función de probabilidad o densidad conjunta f(x,y)
y definimos una función z(x,y) igual al producto de las desviaciones de cada
valor a su media respectiva (es decir, z(x,y) tiene la misma estructura que (X
- μ)2 = (X - μ) (X - μ) si sustituimos una vez a X por Y).
Al valor esperado de z(x,y) se le llama covarianza de
las variables X e Y y se representa como
σxy o cov(x,y).
La covarianza es una medida de la variación común a dos variables y, por tanto,
una medida del
grado y tipo de su relación.
€ ï€ ï€ ï€ ï€ ï€ ï€ ï€ ï€
σxy es positiva si los valores altos de X están asociados a los valores
altos de Y y viceversa.
ï‚· σxy es
negativa si los valores altos de X están asociados a los valores bajos de Y y
viceversa.
ï‚· Si X e Y son variables aleatorias
independientes cov(x,y) = 0 .
ï‚· La independencia es condición
suficiente pero no necesaria para que la cov (x,y) sea
nula.
|
cov(x,y) = 0 | cov(x,y) > 0 |cov(x,y) < 0 |
Se puede deducir, algebraicamente, un medio más sencillo para calcular la
covarianza de dos variables.
En el caso de la covarianza tenemos el mismo problema que se nos presentó con
la varianza, es decir, la covarianza se expresa en términos del producto de las
unidades de medida de ambas variables, lo cual no siempre es fácilmente
interpretable. Por otra parte también es difícil comparar
situaciones diferentes entre sí. En este caso,
ambos problemas se solucionan de una vez mediante la definición del coeficiente de correlación, ρ, que se define como el cociente entre la
covarianza y el producto de las desviaciones típicas de las dos variables.
La correlación toma valores entre -1 y 1, siendo su signo igual al de la
covarianza. Correlaciones con valor absoluto 1 implican que existe una
asociación matemática lineal perfecta, positiva o negativa, entre las dos
variables y correlaciones iguales a 0 implican ausencia de asociación. Obviamente, las variables independientes tienen correlación 0, pero
nuevamente, la independencia es condición suficiente pero no necesaria.
Correlaciones con valores absolutos intermedios indican cierto grado de
asociación entre los valores de las variables
Republica Bolivariana de Venezuela
Ministerio del Poder Popular para la Defensa
Universidad Nacional Experimental Politécnica de la Fuerza Armada
Juan Griego – Nueva Esparta
ESTADISTICA
Integrantes
Bello, Kelly
Perdomo, Raulcarlo
Junio 2011