You are on page 1of 7

Índice

Medidas de asimetría………………………………………………….……..1

Sucesos compatibles………………………………………………………...2

Sucesos incompatibles……………………………………………………….3

Sucesos contrarios…………………………………………………………...4

Dispersión……………………………………………………………………..5

Sucesos condicionados………………………………………………………6

Sucesos dependientes………………………………………………………7

Usos de las medidas de dispersión………………………………………...8

Propiedades de la varianza…………………………………………………..9

Calculo de aplicación del coeficiente de Kurtosis…………………………10

Interpretación de Kurtosis……………………………………………………11

Valor de coeficiente de Kurtosis…………………………………………….12

Teoría de probabilidad………………………………………………………..13

Propiedades básicos de la probabilidad…………………………………….14

Métodos de la resolución de problemas de probabilidad………………….15


Introducción
Medidas de asimetría

Una distribución es asimétrica a la derecha si las frecuencias (absolutas o


relativas) descienden más lentamente por la derecha que por la izquierda, Es
una medida de forma de una distribución que permite identificar y describir la
manera como los datos tiende a reunirse de acuerdo con la frecuencia con que
se hallen dentro de la distribución. Permite identificar las características de la
distribución de datos sin tener que hacer su representación gráfica.

La asimetría se representa las siguientes formas:


1. Asimetría Negativa o a la Izquierda, Se da cuando en una distribución
la minoría de los datos está en la parte izquierda de la media. Este tipo
de distribución presenta un alargamiento o sesgo hacia la izquierda, es
decir, la distribución de los datos tiene a la izquierda una cola más larga
que a la derecha. También se dice que una distribución es simétrica a la
izquierda o tiene sesgo negativo cuando el valor de la media aritmética
es menor que la mediana y éste valor de la mediana a su vez es menor
que la moda, en símbolos 𝑥̅ < 𝑀𝑑 < 𝑀𝑜

2. Asimetría Positiva o a la Derecha.- Se da cuando en una distribución


la minoría de los datos está en la parte derecha de la media aritmética.
Este tipo de distribución presenta un alargamiento o sesgo hacia la
derecha, es decir, la distribución de los datos tiene a la derecha una cola
más larga que a la izquierda.

Se dice que una distribución es simétrica a la derecha o tiene sesgo


positivo cuando el valor de la media aritmética es mayor que la mediana
y éste a valor de la mediana a su vez es mayor que la moda, en
símbolos:

𝑥̅ > 𝑀𝑑 > 𝑀𝑜
Sucesos compatibles
Dos sucesos, A y B, son compatibles cuando tienen algún suceso
elemental común.
Aquí podemos apreciar un ejemplo de un suceso compatible:

Si A es sacar puntuación par al tirar un dado y B es obtener múltiplo de 3, A y


B son compatibles porque el 6 es un suceso elemental común.

Sucesos incompatibles

Dos sucesos, A y B, son incompatibles cuando no tienen


ningún elemento en común.

Ejemplo de un suceso incompatible:


Si A es sacar puntuación par al tirar un dado y B es obtener
múltiplo de 5, A y B son incompatibles.

Suceso contrario

El suceso contrario a A es otro suceso que se realiza cuando no

se realiza A. Se denota por .

Ejemplo de un suceso Contrario:

Son sucesos contrarios sacar par e impar al lanzar un dado.

Medida de dispersión

Estudia la distribución de los valores de la serie, analizando si estos se


encuentran más o menos concentrados, o más o menos dispersos.

Existen diversas medidas de dispersión, entre las más utilizadas podemos


destacar las siguientes:
1.- Rango: mide la amplitud de los valores de la muestra y se calcula por
diferencia entre el valor más elevado y el valor más bajo.

2.- Varianza: Mide la distancia existente entre los valores de la serie y la


media. Se calcula como sumatorio de las diferencias al cuadrado entre cada
valor y la media, multiplicadas por el número de veces que se ha repetido cada
valor. El sumatorio obtenido se divide por el tamaño de la muestra.

La varianza siempre será mayor que cero. Mientras más se aproxima a cero,
más concentrados están los valores de la serie alrededor de la media. Por el
contrario, mientras mayor sea la varianza, más dispersos están.

3.- Desviación típica: Se calcula como raíz cuadrada de la varianza.

4.- Coeficiente de variación de Pearson: se calcula como cociente entre la


desviación típica y la media.

Sucesos Condicionados

Cuando se producen sucesos estocásticos consecutivamente de un espacio


maestral, pueden darse dos tipos genéricos de situaciones:

 Los sucesos son independientes entre sí, de manera que no influyen


uno en el otro.
 Cada suceso está condicionado por el resultado del anterior.

Cuando un suceso A influye en el resultado de un segundo suceso B, se dice


que la probabilidad de éste es una probabilidad condicionada, expresado como

P (B / A), cuyo valor es:


Sucesos dependientes

Dos sucesos, A y B, son dependientes cuando la probabilidad


de que suceda A se ve afectada porque haya sucedido o no B.

Ejemplo de un suceso dependiente:

Extraer dos cartas de una baraja, sin repos ición, son sucesos
dependientes

Medidas de dispersión

Concepto: Parámetros estadísticos que permiten conocer la dispersión de los


datos.

Son parámetros estadísticos que indican como se alejan los datos respecto de
la media aritmética. Sirven como indicador de la variabilidad de los datos. Las
medidas de dispersión más utilizadas son el rango, la desviación estándar y la
varianza.

Propiedades de la varianza

1. S2>=0 (siempre positiva) si la varianza es 0, la variable es una constante

2. S2=m2=a2-a21

3. a la varianza no le afecta el cambio de origen, solo el de escala elevado al


cuadrado

4. La varianza es la medida de dispersión más óptima, porque es menor o igual


que cualquier diferencia cuadrática (teorema de koning)

You might also like