Professional Documents
Culture Documents
Definicin formal
Hay varios modos de definir formalmente una distribucin de probabilidad. La forma ms visual es mediante su funcin de densidad. De forma equivalente, tambin pueden darse para su definicin la funcin de distribucin, los momentos, la funcin caracterstica y la funcin generatriz de momentos, entre otros.
Funcin de densidad
Se dice que una variable aleatoria continua X sigue una distribucin normal de parmetros y y se denota X~N ( , ) si su funcin de densidad est dada por:
es la varianza).5
Se llama distribucin normal "estndar" a aqulla en la que sus parmetros toman los valores = 0 y = 1. En este caso la funcin de densidad tiene la siguiente expresin:
Su grfica se muestra a la derecha y con frecuencia se usan tablas para el clculo de los valores de su distribucin.
Funcin de distribucin
Esta funcin de distribucin puede expresarse en trminos de una funcin especial llamada funcin error de la siguiente forma:
El complemento de la funcin de distribucin de la normal estndar, 1 ( se denota x), con frecuencia Q(x), y es referida, a veces, como simplemente funcin Q, especialmente en textos de ingeniera. Esto representa la cola de probabilidad de la distribucin gaussiana. Tambin se usan ocasionalmente otras definiciones de la funcin Q, las cuales son todas ellas transformaciones simples de . La inversa de la funcin de distribucin de la normal estndar ( uncin cuantil) puede f expresarse en trminos de la inversa de la funcin de error:
Esta funcin cuantil se llama a veces la funcin probit. No hay una primitiva elemental para la funcin probit. Esto no quiere decir meramente que no se conoce, sino que se ha probado la inexistencia de tal funcin. Existen varios mtodos exactos para aproxi ar la m funcin cuantil mediante la distribucin normal (vase funcin cuantil). Los valores (x) pueden aproximarse con mucha precisin por distintos mtodos, tales como integracin numrica, series de Taylor, series asintticas y fracciones continuas. Lmite inferior y superior estrictos para la funcin de distribucin Para grandes valores de x la funcin de distribucin de la normal estndar prxima a 1 y est muy cerca de 0. Los lmites elementales es muy
en trminos de la densidad son tiles. Usando el cambio de variable v = u/2, el lmite superior se obtiene como sigue:
Resolviendo para
Funciones generadoras
Funcin generadora de momentos
La funcin generadora de momentos se define como la esperanza de e distribucin normal, la funcin generadora de momentos es:
(tX)
. Para una
Funcin caracterstica La funcin caracterstica se define como la esperanza de eitX, donde i es la unidad imaginaria. De este modo, la funcin caracterstica se obtiene reemplazando t por it en la funcin generadora de momentos. Para una distribucin normal, la funcin caracterstica es
Propiedades
Algunas propiedades de la distribucin normal son: 1. Es simtrica respecto de su media, ;
Distribucin de probabilidad alrededor de la media en una distribucin N( , ). 2. La moda y la mediana son ambas iguales a la media, ; yx= 3. Los puntos de inflexin de la curva se dan para x = 4. Distribucin de probabilidad en un entorno de la media:
+ .
1. en el intervalo [ - , + ] se encuentra comprendida, aproximadamente, el 68,26% de la distribucin; 2. en el intervalo [ - 2 , + 2 ] se encuentra, aproximadamente, el 95,44% de la distribucin; 3. por su parte, en el intervalo [ -3 , + 3 ] se encuentra comprendida, aproximadamente, el 99,74% de la distribucin. Estas propiedades son de gran utilidad para el establecimiento de intervalos de confianza. Por otra parte, el hecho de que prcticamente la totalidad de la distribucin se encuentre a tres desviaciones tpicas de la media justifica los lmites de las tablas empleadas habitualmente en la normal estndar. 5. Si X ~ N ( , 2) y a y b son nmeros reales, entonces (aX + b) ~ N (a +b, a2 2). 6. Si X ~ N ( x, x2) e Y ~ N( y, y2) son variables aleatorias normales independientes, entonces: 2 o Su suma est normalmente distribuida con U = X + Y ~ N ( x + y, x + 2 y ) (demostracin). Recprocamente, si dos variables aleatorias independientes tienen una suma normalmente distribuida, deben ser normales (Teorema de Crmer). o Su diferencia est normalmente distribuida con . Si las varianzas de X e Y son iguales, entonces U y V son independientes entre s. o La divergencia de Kullback-Leibler,
o
Si e son variables aleatorias independientes normalmente distribuidas, entonces: o Su producto XY sigue una distribucin con densidad p dada por
Si Si media
Su cociente sigue una distribucin de Cauchy con X / YCauchy (0, X / Y). De este modo la distribucin de Cauchy es un tipo especial de distribucin cociente. son variables normales estndar independientes, entonces sigue una distribucin con n grados de libertad. son variables normales estndar independien tes, entonces la
muestral
la
varianza
muestral
son independientes. Esta propiedad caracteriza a las distribuciones normales y contribuye a explicar por qu el test-F no es robusto respecto a la no-normalidad).
es una variable aleatoria normal est ndar: Z ~ N (0,1). La transformaci n de una distribuci n X ~ N ( , ) en una N (0, 1) se llama normalizaci n, estandarizaci n o ti i icaci n de la variable X. Una consecuencia importante de esto es que la funci n de distribuci n de una distribuci n normal es, por consi uiente,
la inversa, si Z es una distribuci n normal est ndar, Z ~ N (0,1), entonces X= Z+ es una variable aleatoria normal tipificada de media y varianza
2
La distribuci n normal est ndar est tabulada (habitualmente en la forma del valor de la funci n de distribuci n ) y las otras distribuciones normales pueden obtenerse como transformaciones simples, como se describe ms arriba, de la distribuci n estndar. De este modo se pueden usar los valores tabulados de la funci n de distribuci n normal estndar para encontrar valores de la funci n de distribuci n de cualquier otra distribuci n normal.
Momentos
Los primeros momentos de la distribuci n normal son:
Nmero Momento
+3
+6
2 2
+3
+ 10
3 2
+ 15
+ 15
4 2
+ 45
2 4
+ 15
15
+ 21
5 2
+ 105
3 4
+ 105
+ 28
6 2
+ 210
4 4
+ 420
2 6
+ 105
105
Todos los cumulantes de la distribucin normal, ms all del segundo, son cero.
Los momentos centrales de orden superior (2k con = 0) vienen dados por la frmula
Grfica de la funcin de distribucin de una normal con = 12 y funcin de distribucin de una binomial con n = 48 y p = 1/4
= 3, aproximando la
El Teorema del lmite central establece que bajo ciertas condiciones (como pueden ser independientes e idnticamente distribuidas con varianza finita), la suma de un gran nmero de variables aleatorias se distribuye aproximadamente como una normal. La importancia prctica del Teorema del lmite central es que la funcin de distribucin de la normal puede usarse como aproximacin de algunas otras funciones de distribucin. Por ejemplo:
y
Una distribucin binomial de parmetros n y p es aproximadamente normal para grandes valores de n, y p no demasiado cercano a 1 0 (algunos libros recomiendan usar esta aproximacin slo si np y n(1 p) son ambos, al menos, 5; en este caso se debera aplicar una correccin de continuidad). La normal aproximada tiene parmetros = np, 2 = np (1 p). Una distribucin de Poisson con parmetro es aproximadamente normal para grandes valores de . La distribucin normal aproximada tiene parmetros = 2 = .
La exactitud de estas aproximaciones depende del propsito para el que se necesiten y de la tasa de convergencia a la distribucin normal. Se da el caso tpi o de que tales c aproximaciones son menos precisas en las colas de la distribucin. El Teorema de Berry-Essen proporciona un lmite superior general del error de aproximacin de la funcin de distribucin.
Divisibilidad infinita
Las normales tienen una distribucin de probabilidad infinitamente divisible: dada una media , una varianza 2 0, y un nmero natural n, la suma X1 + . . . + Xn de n variables aleatorias independientes
tiene esta especfica distribucin normal (para verificarlo, sese la funcin caracterstica de convolucin y la induccin matemtica).
Estabilidad
Las distribuciones normales son estrictamente estables.
donde erf es la funcin error. Con 12 decimales, los valores para los puntos 1 2-, hasta -, 6- son:
0,682689492137
0,954499736104
0,997300203937
0,999936657516
0,999999426697
0,999999998027
La siguiente tabla proporciona la relacin inversa de mltiples correspondientes a unos pocos valores usados con frecuencia para el rea bajo la campana de Gauss. Estos valores son tiles para determinar intervalos de confianza para los niveles especificados basados en una curva normalmente distribuida (o estimadores asintticamente normales):
0,80
1,28155
0,90
1,64485
0,95
1,95996
0,98
2,32635
0,99
2,57583
0,995
2,80703
0,998
3,09023
0,999
3,29052
0,9999
3,8906
0,99999
4,4172
donde el valor a la izquierda de la tabla es la proporci n de valores que caern en el intervalo dado y n es un mltiplo de la desviaci n tpica que determina la anchura del intervalo.
donde X e Y son variables gaussianas reales e independientes con igual varianza funcin de distribucin de la variable conjunta es entonces
. La
Como compleja Z es
Distribuciones relacionadas
y
donde normales
es una distribucin con grados de libertad si XkN (0,1) para y son independientes.
donde
YCauchy ( = 0, = 1) es una distribucin de Cauchy si Y = X1 / X2 para X1N (0,1) y X2N (0,1) son dos distribuciones normales independientes. YLog-N ( ,
2
).
Relacin con una distribucin estable: si entonces XN ( , 2). Distribucin normal truncada. si entonces truncando X por debajo de A y por encima de B dar lugar a una variable aleatoria de media donde
y
y
Si X es una variable aleatoria normalmente distribuida e Y = | X |, entonces Y tiene una distribucin normal doblada.
Tests de normalidad
Los tests de normalidad se aplican a conjuntos de datos para determinar su similitud con una distribucin normal. La hiptesis nula es, en estos casos, si el conjunto de datos es similar a una distribucin normal, por lo que un P-valor suficientemente pequeo indica datos no normales.
y y y y y y y y
Prueba de Kolmogrov-Smirnov Test de Lilliefors Test de AndersonDarling Test de RyanJoiner Test de ShapiroWilk Normal probability plot (rankit plot) Test de JarqueBera Test omnibs de Spiegelhalter
Estimacin de parmetros
Estimacin de parmetros de mxima verosimilitud Supngase que
son independientes y cada una est normalmente distribuida con media y varianza 2 > 0. En trminos estadsticos los valores observados de estas n variables aleatorias constituyen una "muestra de tamao n de una poblacin normalmente distribuida. Se desea estimar la media poblacional y la desviacin tpica poblacional , basndose en los valores observados de esta muestra. La funcin de densidad conjunta de estasn variables aleatorias independientes es
Como funcin de Xn es
con alguna constante C > 0 (de la cual, en general, se permitira incluso que dependiera de X1,..., Xn, aunque desapareciera con las derivadas parciales de la funcin de log verosimilitud respecto a los parmetros tenidos en cuenta, vase ms abajo).
En el mtodo de mxima verosimilitud, los valores de y que maximizan la funcin de verosimilitud se toman como estimadores de los parmetros poblacionales y . Habitualmente en la maximizacin de una funcin de dos variables, se podran considerar derivadas parciales. Pero aqu se explota el hecho de que el valor de que maximiza la funcin de verosimilitud con fijo no depende de . No obstante, encontramos que ese valor de , entonces se sustituye por en la funcin de verosimilitud y finalmente encontramos el valor de que maximiza la expresin resultante. Es evidente que la funcin de verosimilitud es una funcin decreciente de la suma
Esta es la estimacin de mxima verosimilitud de basada en las n observaciones X1,..., Xn. Cuando sustituimos esta estimacin por en la funcin de verosimilitud, obtenemos
Se conviene en denotar la "log-funcin de verosimilitud", esto es, el logaritmo de la funcin de verosimilitud, con una minscula , y tenemos
entonces
est entre 0 y
o sea igual a esa cantidad, o mayor que esa cantidad. (Si hay solamente una observacin, lo que significa que n = 1, o si X1 =... = Xn, lo cual slo ocurre con probabilidad cero, entonces por esta frmula, refleja el hecho de que en estos casos la funcin de verosimilitud es ilimitada cuando decrece hasta cero.) Consecuentemente esta media de cuadrados de residuos es el estimador de mxima verosimilitud de 2, y su raz cuadrada es el estimador de mxima verosimilitud de basado en las n observaciones. Este estimador es sesgado, pero tiene un menor error medio al cuadrado que el habitual estimador insesgado, que es n/(n 1) veces este estimador.
Sorprendente generalizaci n
La derivada del estimador de mxima verosimilitud de la matriz de covarianza de una distribucin normal multivariante es despreciable. Involucra el teorema espectral y la razn por la que puede ser mejor para ver un escalar como la traza de una matriz 11 matrix que como un mero escalar. Vase estimacin de la covarianza de matrices. Estimaci n insesgada de parmetros El estimador de mxima verosimilitud de la media poblacional de una muestra es un estimador insesgado de la media. El estimador de mxima verosimilitud de la varianza es insesgado si asumimos que la poblacin es conocida a priori, pero en la prctica esto no ocurre. No obstante, si nos enfrentamos con una muestra y no sabemos nada de la media o la varianza de la poblacin de la que se ha extrado, como se asuma en la derivada de mxima verosimilitud de arriba, entonces el estimador de mxima verosimilitud de la varianza es sesgado. Un estimador insesgado de la varianza 2 es:
Esta "varianza muestral" sigue una distribucin Gamma si todas las Xi son independientes e idnticamente distribuidas:
con media
y varianza
La estimacin de mxima verosimilitud de la desviacin tpica es la raz cuadrada de la estimacin de mxima verosimilitud de la varianza. No obstante, ni esta, ni la raz cuadrada de la varianza muestral proporcionan un estimador insesgado para la desviacin tpica (vase estimacin insesgada de la desviacin tpica para una frmula particular para la distribucin normal.
Incidencia
Las distribuciones aproximadam nte normales aparecen por doquier, como queda explicado por el teorema central del lmite. Cuando en un fenmeno se sospecha la presencia de un gran nmero de pequeas causas actuando de forma aditiva e independiente es razonable pensar que las observaciones sern "normales". Hay mtodos estadsticos para probar empricamente esta asuncin, por ejemplo, el test de Kolmogorov-Smirnov. Hay causas que pueden actuar de forma multiplicativa (ms que aditiva). En este caso, la asuncin de normalidad no est justificada y es el logaritmo de la variable en cuestin el que estara normalmente distribuido. La distribucin de las variables directamente observadas en este caso se denomina log-normal. Finalmente, si hay una simple influencia externa que tiene un gran efecto en la variable en consideracin, la asuncin de normalidad no est tampoco justificada. Esto es cierto incluso si, cuando la variable externa se mantiene constante, las distribuciones marginales resultantes son, en efecto, normales. La distribucin completa ser una superposicin de variables normales, que no es en general normal. Ello est relacionado con la teora de errores (vase ms abajo). continuacin se muestran una lista de situaciones que estaran, aproximadamente, normalmente distribuidas. Ms abajo puede encontrarse una discusin detallada de cada una de ellas:
y
En problemas de recuento, donde el teorema central del lmite incluye una aproximacin de discreta a continua y donde las distribuciones infinitamente divisibles y descomponibles estn involucradas, tales como: o variables aleatorias binomiales, asociadas con preguntas s/no; o variables aleatorias de Poisson, asociadas con eventos raros; En medidas fisiolgicas de especmenes biolgicos: o El logaritmo de las medidas del tamao de tejidos vivos (longitud, altura, superficie de piel, peso); o La longitud de apndices inerte (pelo, garras, rabos, dientes) de especmenes biolgicos en la direccin del crecimiento;
Otras medidas fisiolgicas podran estar normalmente distribuidas, aunque no hay razn para esperarlo a priori; Se asume con frecuencia que los errores de medida estn normalmente distribuidos y cualquier desviacin de la normalidad se considera una cuestin que debera explicarse; Variables financieras, en el modelo Black-Scholes: o Cambios en el logaritmo de
o
Changes in the logarithm of tasas de cambio, ndices de precios, ndices de existencias de mercado; estas variables se comportan como el inters compuesto, no como el inters simple, por tanto, son multiplicativas;
y o
Mientras que el modelo Black-Scholes presupone normalidad, en realidad estas variables exhiben colas pesadas, como puede verse en crash de las existencias de mercado; o Otras variables financieras podran estar normalmente distribuidas, pero no hay razn para esperarlo a priori; Intensidad de la luz: o La intensidad de la luz lser est normalmente distribuida; o La luz trmica tiene una distribucin de Bose-Einstein en escalas de tiempo muy breves y una distribucin normal en grandes escalas de tiempo debido al teorema central del lmite.
Es relevante para la biologa y la economa el hecho de que los sistemas complejos tienden a mostrar power laws ms que normal.
Recuento de fotones
La intensidad de la luz de una sola fuente vara con el tiempo, as como las fluctuaciones trmicas que pueden observarse si la luz se analiza a una resolucin suficientemente alta. La mecnica cuntica interpreta las medidas de la intensidad de la luz como un recuento de fotones, donde la asuncin natural es usar la distribucin de Poisson. Cuando la intensidad de la luz se integra a lo largo de grandes periodos de tiempo mayores que el tiempo de coherencia, la aproximacin Poisson - Normal es apropiada.
Medida de errores
La normalidad es la asuncin central de la teora matemtica de errores. De forma similar en el ajuste de modelos estadstico, un indicador de la bondad del ajuste es que el error residual (as es como se llaman los errores en esta circunstancia) sea independiente y normalmente distribuido. La asuncin es que cualquier desviacin de la normalidad necesita ser explicada. En ese sentido, en ambos, ajuste de modelos y teora de errores, la normalidad es la nica observacin que no necesita ser explicada, sino que es esperada. No obstante, si los datos originales no estn normalmente distribuidos (por ejemplo, si siguen una distribucin de Cauchy, entonces los residuos tampoco estarn normalmente distribuidos. Este hecho es ignorado habitualmente en la prctica.
Las medidas repetidas de la misma cantidad se espera que cedan el paso a resultados que estn agrupados en torno a un valor particular. Si todas las fuentes principales de errores se han tomado en cuenta, se asume que el error que queda debe ser el resultado de un gran nmero de muy pequeos y aditivos efectos y, por consiguiente, normal. Las desviaciones de la normalidad se interpretan como indicaciones de errores sistemticos que no han sido tomados en cuenta. Puede debatirse si esta asuncin es vlida. Una famosa observacin atribuida a Gabriel Lippmann dice:
Todo el mundo cree en la ley normal de los errores: los matemticos, porque piensan que es un hecho experimental; y los experimentadores, porque suponen que es un teorema matemtico
Variables financieras
El modelo normal de movimiento de activos no incluye movimientos extremos tales como quiebras financieras. Ya en 1900 Louis Bachelier propuso representar los precios de cambio usando la distribucin normal. Esta aproximacin se ha modificado desde entonces ligeramente. causa de la naturaleza multiplicativa del inters compuesto, los indicadores financieros como valores de mercado y precios de las materias primas exhiben un "comportamiento multiplicativo". Como tales, sus cambios peridicos (por ejemplo, cambios anuales) no
son normales, sino lognormales. Esta es todava la hiptesis ms comnmente aceptada en economa. No obstante, en realidad las variables financieras exhiben colas pesadas y as, la asuncin de normalidad infravalora la probabilidad de eventos extremos como quiebras financieras. Se han sugerido correcciones a este modelo por parte de matemticos como Benot Mandelbrot, quien observ que los cambios en el logaritmo durante breves periodos de tiempo (como un da) se aproximan bien por distribuciones que no tienen una varianza finita y, por consiguiente, el teorema central del lmite no puede aplicarse. Ms an, la suma de muchos de tales cambios sigue una distribucin de log-Levy.
Ecuaci n de difusi n
La funcin de densidad de la distribucin normal est estrechamente relacionada con la ecuacin de difusin (homognea e istropa) y, por tanto, tambin con la ecuacin de calor. Esta ecuacin diferencial parcial describe el tiempo de evolucin de una funcin de densidad bajo difusin. En particular, la funcin de densidad de masa
Si la densidad de masa para un tiempo t = 0 viene dada por la delta de Dirac, lo cual significa, esencialmente que toda la masa est inicialmente concentrada en un punto, entonces la funcin de densidad de masa en el tiempo t tendr la forma de la funcin de densidad de la normal, con varianza creciendo linealmente con t. Esta conexin no es coincidencia: la difusin se debe a un movimiento Browniano que queda descrito matemticamente por un proceso de Wiener, y tal proceso en un tiempo t tambin resultar normal con varianza creciendo linealmente con t'. Ms generalmente, si la densidad de masa inicial viene dada por una funcin ( x), entonces la densidad de masa en un tiempo t vendr dada por la convolucin de y una funcin de densidad normal.
Esta formulacin aparece porque la distribucin con dos grados de libertad (vase la propiedad 4, ms arriba) es una variable aleatoria exponencial fcilmente generada (la cual corresponde a la cantidad lnU en estas ecuaciones). s, un ngulo elegido uniformemente alrededor de un crculo va la variable aleatoria V y un radio elegido para ser exponencial se transforman entonces en coordenadas x e y normalmente distribuidas. Un mtodo mucho ms rpido que la transformacin de Box-Muller, pero que sigue siendo exacto es el llamado algoritmo Zigurat, desarrollado por George Marsaglia. En alrededor del 97% de los casos usa slo dos nmeros aleatorios, un entero aleatorio y un uniforme aleatorio, una multiplicacin y un test-si. Slo un 3% de los casos donde la combinacin de estos dos cae fuera del "corazn del zigurat", un tipo de rechazo muestral usando logaritmos, exponenciales y nmeros aleatorios ms uniformes deberan ser empleados. Hay tambin alguna investigacin sobre la conexin entre la rpida transformacin de Hadamard y la distribucin normal, en virtud de que la transformacin emplea slo adicin y sustraccin y por el teorema central del lmite los nmeros aleatorios de casi cualquier distribucin sern transformados en la distribucin normal. En esta visin se pueden combinar una serie de transformaciones de Hadamard con permutaciones aleatorias para devolver conjuntos de datos aleatorios normalmente distribuidos.
La funcin de distribucin normal se usa extensamente en computacin cientfica y estadstica. Por consiguiente, ha sido implementada de varias formas. La Biblioteca Cientfica GNU calcula valores de la funcin de distribucin normal estndar usando aproximaciones por funciones racionales a trozos. Otro mtodo de aproximacin usa polinomios de tercer grado en intervalos. El artculo sobre ellenguaje de programacin bc proporciona un ejemplo de cmo computar la funcin de distribucin en GNU bc. Para una discusin ms detallada sobre cmo calcular la distribucin normal, vase la seccin 3.4.1C. de The Art of Computer Programming (El arte de la programacin por ordenador), de Knuth.
Uso de tablas
La probabilidad de que una variable aleatoria (que sigue una distribucin normal) se encuentre entre dos valores determinados ser en general difcil de calcular (hay que usar la integral de la funcin de probabilidad). Para ello, existen tablas con los valores correspondientes, si bien stos se calculan para la distribucin Normal Tipificada. Bsicamente, se busca un valor de x (por ejemplo, probabilidad de que : con ), y la tabla nos da la
En el caso de que la distribucin no sea estndar, por ejemplo, y , tendremos que tipificar la variable:
Se obtiene una variable Z normal, que adems est tipificada. Si ahora se consulta en la tabla,