You are on page 1of 11
MODELO CLASICO DE REGRESION LINEAL NORMAL (MCRLN) Lo que se conoce como la teoria clasica de la inferencia estadistica esti for- mada por dos ramas, a saber: la estimacién y la prueba de hipétesis. Hasta el momento hemos estudiado el tema de la estimacién de los parametros del mo- delo de regresién lineal (de dos variables), Mediante el método MCO pudimos calcular los parametros B, B; y 0°. Con los supuestos del modelo clasico de re- gresién lineal (MCRLN) pudimos mostrar que los estimadores de dichos pa- rametros, B,, B, y 6°, satisfacen varias propiedades estadisticas deseables, como el insesgamiento, la varianza minima, etc. (Recuerde la propiedad MELL.) Ob- serve que en vista de que son estimadores, sus valores cambiardn de muestra a muestra. Por consiguiente, tales estimadores son variables aleatorias. Pero la estimacién sélo representa la mitad del todo. La prueba de hipstesis es la otra mitad. Tenga presente que en el andlisis de regresién nuestro objetivo no s6lo consiste en estimar la funcién muestral de regresién (FMR), sino tam- bién en utilizarla para obtener inferencias respecto a la funcién de regresin poblacional (FRP), como se hizo énfasis en el capitulo 2. Asf pues, serfa conve- niente saber qué tan cerca esta f, de la verdadera f,, 0 qué tan cerca esta verdadera a”. Verbigracia, en el ejemplo 3.2 estimamos la SRF como se muestra en la ec. (3.7.2), Pero en vista de que la regresién se basa en una muestra de 55 familias, gc6mo sabemos que el MPC estimado de 0.4368 representa el MPC (verdadero) en la poblacién total? Por tanto, ya que f, 8 y 6? son variables aleatorias, necesitamos averiguar sus distribuciones de probabilidad, va que sin conocerlas no podremos relacio- narlas con sus valores verdaderos. 4.1 DISTRIBUCION DE PROBABILIDAD DE LAS PERTURBACIONES u, Para encontrar las distribuciones de probabilidad de los estimadores MCO, pro- cedemos como sigue. De manera especifica, consideramos a f:. Como se mos- t6 en el apéndice 3A.2, 103 104 PARTE UNO: MODELOS DE REGAESION UNIECUACIONALES. B=DKY, (4.1.1) donde k, = x/Ex7. Pero en vista de que se supone que las X son fijas, 0 no esto- casticas, debido a que el nuestro es un anélisis de regresién condicional (condi- cional en los valores fijos de X;), la ec. (4.1.1) muestra que Bes una fun lineal de Y,, la cual se supone que es aleatoria. Pero dado que ¥,= 8, + BX, + ui, podemos expresar (4.1.1) como By = DAB, + BX; + u;) (4.1.2) Debido a que k,, las betas y X, son fijas, B, es a final de cuentas una funcién [i- neal de la variable aleatoria 1,, que es aleatoria por hipétesis. Por tanto, la dis- tribucién de probabilidad de , (y también de B,) dependera de la suposicién que se hizo respecto a la distribucién de probabilidad de u,. Y puesto que se requiere conocer las distribuciones de probabilidad de los estimadores MCO para obtener las inferencias sobre sus valores de poblacién, la naturaleza de la distribucién de probabilidad de u, desempefia un importante papel en la prueba de hipotesis Ya que el método de MCO no hace ninguna suposicién concerniente con la naturaleza probabilistica de u,, resulta de poca ayuda para el propésito de de- ducir inferencias sobre PRF mediante el SRF, a pesar del teorema de Gauss- Markov. Este vacio puede Ilenarse si se supone que las u siguen determinada distribucién de probabilidad. Por las razones que se darn enseguida, en probabilidad normal. Si a las suposiciones del modelo cl neal (MCRL) analizadas en el capitulo 3 se afiade la suposicién de normalidad para 1,, obtenemos lo que se conoce como el modelo clasico de regresién lineal normal (MCRLN). 4.2. SUPUESTO DE NORMALIDAD La regresi6n lineal normal clasica supone que cada u,, esté normalmente distri- buida con Media’ Blu) = 0 (4.2.1) Varianza: Ele; - E(u)P = E(u?) = 0° (4.2.2) cov, 1): Elle; ~ E(u Iu; - Eu)) = Eu,u)=0 ef (4.2.3) Estos supuestos pueden expresarse en forma mas compacta como u,~ NO, 0°) (4.2.4) donde ~ significa distribuido y N significa distribucion normal y donde los tér- minos entre paréntesis representan los dos parametros de la distribucién nor mal: la media y la varianza. Se puede observar que para dos variables normalmente distribuidas, una covarianza o correlacién cero significa independencia entre las dos varia- bles. Por consiguiente, con el supuesto de normalidad, (4.2.4) significa que u, y CAPITULO CUATRO: MODELO CLASICO DE REGRESION LINEAL NORMAL WCRLN) 105 14; no solamente no estén correlacionadas, sino que también estan independien- temente distribuidas. Por consiguiente, podemos escribir (4.2.4) como u, ~ NID(O, 0?) (4.2.5) donde NID significa normal e independientemente distribuido. éPor qué razén debe formularse el supuesto de normalidad? Existen diversas razones. 1, Como se seftalé en la secci6n 2.5, u, representa la influencia combinada (sobre la variable dependiente) de un gran nuimero de variables independientes que no se han introducido explicitamente en el modelo de regresién. Como se explic6, esperamos que la influencia de estas variables omitidas o descartadas sea pequefia y, en el mejor de los casos, aleatoria. Ahora, gracias al conocido teorema del limite central (TLC) en estadistica (véase el apéndice A), se puede demostrar que si existe un gran ntimero de variables aleatorias independientes cidénticamente distribuidas entonces, con pocas excepciones, la distribucion de su suma tiende a ser normal a medida que el ntimero de tales variables se in: menta indefinidamente.' Precisamente este teorema del limite central es el que proporciona una justificaci6n tedrica para el supuesto de normalidad de 2. Una variante del teorema del limite central establece que aunque el nui- mero de variables no sea muy grande o si estas variables no son estrictamente independientes, su suma puede estar atin normalmente distribuida? 3. Con el supuesto de normalidad, las distribuciones de probabilidad de los estimadores MCO pueden derivarse facilmente ya que, como se explica en el apéndice A, una propiedad de la distribucién normal es que cualquier funcién lineal de variables normalmente distribuidas estaré también normalmen- te distribuida. Como se analiz6 antes, los estimadores MCO fi, y son funcio- nes lineales de u,. Por consiguiente, si, est4 normalmente distribuida, entonces también lo estan yy B,, lo cual hace que nuestra tarea de la prueba de hipstesis sea muy sencilla. 4. La distribucién normal es una distribucién comparativamente sencilla ¢ involucrados parémetros (la media y la varianza); es muy conocida y sus pro piedades tedricas han sido ampliamente estudiadas en estadistica matematica. Ademés, al parecer muchos fenémenos se rigen por la distribuci6n normal. 5. Por tiltimo, si estamos trabajando con una muestra finita o pequefia, di- gamos con datos de 100 0 menos observaciones, la suposicién de normalidad desempeiia un papel critico. No sdlo ayuda a derivar las distribuciones de pro- babilidad exactas de los estimadores MCO, sino también permite utilizar las pruebas estadisticas 1, F y 7 para los modelos de regresi6n. Las propiedades "Para un anilisis relativamente sencillo y directo de este teorema, véase Sheldon M. Ross, Introduction to Probability and Statistics for Engineers and Scientist, 2a. ed., Harcourt Academic Press, Nueva York, 2000, pp. 193-194, Una excepcién a este teoremaes la distribucidn de Cauchy, la cual no tiene media ni momentos mésaltos. Véase M.G. Kendall y A. Stuart, The Advanced Theory of Si Charles Griffin & Co,, Londres 1960, vol. 1, pp. 248-249. ? Para las diversas formas del teorema del limite central, vase Harald Cramer, Mathematical Methods of Statistics, Princeton University Press, Princeton, N. J., 1946, cap. 17. 106 PARTE UNO: MODELOS DE REGRESION UNIECUACIONALES estadisticas de las distribuciones estadisticas 1, F, 7? se estudian en el apéndice A. Como veremos enseguida, si el tamaiio de la muestra es razonablemente grande, se podria moderar la suposicién de normalidad. Nota preventiva: puesto que estamos “imponiendo” la suposicién de norma- lidad, es menester encontrar aplicaciones prdcticas que involucren tamafios pequefios de muestras en las que la suposicién de normalidad resulte apropia- da, Mas adelante se desarrollaran algunas pruebas para hacer esto; asimismo, posteriormente se presentaran situaciones en las que la suposicién de normali- dad quiz sea inadecuada. Pero hasta que no Ilegue ese momento, seguiremos considerando valida la suposicin de normalidad por las razones que se aduje- ron antes. 4.3 PROPIEDADES DE LOS ESTIMADORES MCO BAJO EL SUPUESTO DE NORMALIDAD Si se supone que u, sigue la distribucién normal, como en (4.2.5), los estimadores MCO tienen las propiedades que se mencionan a continuacién; el apéndice A suministra un anilisis general de las propiedades estadisticas deseables de los estimadores 1. Son insesgados. 2, Tienen varianza minima. En combinaci6n con 1, esto significa que son insesgados con varianza minima, o estimadores eficientes. 3. Presentan consistencia; esto es, a medida que el tamaiio de la muestra aumenta indefinidamente, los estimadores convergen hacia sus verdaderos va- lores poblacionales. 4. B, (al ser una funcién lineal de u,) esta normalmente distribuida con Media: — E(B, (4.3.1) var(p,): (3.3.3) (4.3.2) , en forma mas compacta, i) Entonces, de acuerdo con las propiedades de la distribucién normal, la variable Z definida como, (4.3.3) sigue la distribucién normal estandar, es decir, una distribucién normal con media cero y varianza unitaria (=1), 0 Z-N(0,1) FIGURA 4.1 CAPITULO CUATRO: MODELO CLASICO DE REGRESION LINEAL NORMAL (MCRLN) 107 5. B, (al ser una funcién lineal de 1) esta normalmente distribuida con Medi Eth) = B: (43.4) var(j,): 63 Se = (3.3.1) (4.3.5) , en forma mas compacta, Entonces, como en (4.3.3), (4.3.6) también sigue una distribucién normal estandar. A Geométricamente, las distribuciones de probabilidad de fi, trar de la forma que aparece en la figura 4.1, 6. (n ~ 2)(6'/") esta distribuida como la distribucién 7 (ji-cuadrada), con (1-2) g de.’ Saber esto nos ayuda a colegir inferencias respecto a la verdadera o?, a partir de la 0? estimada, como se vera en el capitulo 5. (En el apéndice A se analizan la distribuci6n ji cuadrada y sus propiedades.) B,se puede ilus- fh) Densidad Densidad be f2v a) Densidad ° Probabilidad y dstribucion de f, y B; > La prueba de este enunciado es un poco intrincada. Se proporciona una fuente accesible para la demostracién en la obra de Robert V. Hogg y Allen T. Craig, Introduction to Mathematical Statistics, 2a. ed., Macmillan, Nueva York, 1965, p. 144. 108 PARTE UNO: MODELOS DE REGRESION UNIECUACIONALES 7. (B,, B,)se distribuyen de manera independiente respecto a 6°. La impor- tancia gue tiene lo anterior se explica en el siguiente capitulo. 8. B,y B, tienen varianza minima entre todas las clases de estimadores inses- gados, lineales 0 no lineales. Este resultado, desarrollado por Rao, es muy po- deroso porque a diferencia del teorema de Gauss-Markov no esti restringido solamente a la clase de estimadores lineales.* Por consiguiente, se puede decir que los estimadores de minimos cuadrados son los mejores estimadores in- sesgados (MED); es decir, tienen una varianza minima en toda la clase de los es- timadores insesgados. Para versiones: el punto importante de anotar es que el supuesto de nor- malidad nos permite derivar las distribuciones de probabilidad o muestrales de B; (normal), ; (normal) y 6°(relacionada con ji-cuadrada). Como se verd en el capitulo 5, esto simplifica la tarea de establecer intervalos de confianza y de pruebas (estadisticas) de hipotesis. A propésito, obsérvese que si se supone si, ~ N(0, 6°), Y;siendo una funcién posee también una distribucién normal con una media y una varianza dada por EY) = Bi + BX; (4.3.7) var(¥,) = 0? (43.8) is compacta, podemos escribir Y, ~ N(B, + BX, 0°) (4.3.9) 4.4 METODO DE MAXIMA VEROSIMILITUD (MV) Un método de estimacién puntual, con algunas propiedades teoricamente mas fuertes que las del método MCO es el método de maxima verosimilitud (MV). Puesto que este método es ligeramente complicado, se analiza en el apéndice de este capitulo. Para el lector que sélo tiene un interés general, sera suficiente con aclarar que si se ha supuesto 1; normalmente distribuida, como lo hemos hecho por las razones ya expuestas, los estimadores MV y MCO de los coeficientes de regresion, los B, son idénticos y esto es valido para regresiones simples al igual que para las regresiones multiples. El estimador MV de 0? es 2ii?/n. Este esti- mador es sesgado, en tanto que el estimador MCO de ? = S?/(n ~ 2) como he- mos visto, es insesgado, Pero, comparando estos dos estimadores de o?, se ve que a medida que el tamaiio de la muestra n aumenta, los dos estimadores de 0? tienden a ser iguales, Por tanto, asintoticamente, (es decir, a medida que n crece indefinidamente), el estimador MV de * también es insesgado. Puesto que el método de minimos cuadrados con el supuesto adicional de normalidad de u, nos proporciona todas las herramientas necesarias para llev: a cabo la estimacién y las pruebas de hipotesis de los modelos de regresién lineal, no existe pérdida alguna para los lectores que no deseen continuar revi- sando el método de maxima verosimilitud debido a su ligera complejidad ma- tematica, R. Rao, Linear Statistical Inference and Its Applications, John Wiley & Sons, Nueva York, 1965, CAPITULO CUATRO: MODELO CLASICO DE REGRESION LINEAL NORMAL (wCRLN) 109 4.5 RESUMEN Y CONCLUSIONES APENDICE 4A, 1. En este capitulo se considera el modelo clasico de regresién lineal normal (MCRLN). 2. Este modelo difiere del modelo clisico de regresién lineal (MCRL) que supone especificamente que el término de perturbacién 1,, que forma parte del modelo de regresién, est normalmente distribuido. El MCRL no requiere nin- gtin supuesto sobre la distribucién de probabilidad de u,; solamente requiere que el valor de la media de 1; sea cero y su varianza sea una constante finita, 3. La justificaci6n tedrica para el supuesto de normalidad es el teorema del limite central 4. Sin el supuesto de normalidad, bajo los otros supuestos analizados en el capitulo 3, el teorema de Gauss-Markov demostré que los estimadores MCO son MELI. 5. Con el supuesto adicional de normalidad, los estimadores MCO no sola- mente son los mejores estimadores insesgados (MEI) sino que también si- guen distribuciones de probabilidad bien conocidas. Los estimadores MCO de la intersecci6n y de la pendiente estén normalmente distribuidos y el estimador MCO de la varianza de u,( = 6°) esta relacionado con la distribucién ji cuadrada. 6. En los capitulos 5 y 8 mostraremos la utilidad de estos conocimientos para realizar inferencia con respecto a los valores de los parametros poblacionales. 7. Una alternativa al método de los minimos cuadrados es el método de maxima verosimilitud (MV). Para utilizar este método, embargo, uno debe hacer un supuesto sobre la distribucién de probabilidad del término de pertur bacién u,. En el contexto de regresi6n, el supuesto mas corriente es que las 1 siguen la distribucién normal. 8. Bajo el supuesto de normalidad, los estimadores MCO y MV de los pa- rametros de la interseccién y de la pendiente del modelo de regresién son idénticos, Sin embargo, los estimadores MCO y MV de la varianza de u, son diferentes. En muestras grandes, sin embargo, estos dos estimadores convergen 9. Por tanto, el método MV generalmente recibe el nombre de mérodo de grandes muestras. El método MV tiene una aplicaci6n mas extensa ya que pue- de ser aplicado también a modelos de regresi6n no lineal en los parametros. En este tiltimo caso, el MCO generalmente no se utiliza. Para mayor informacién sobre esto, véase el Cap. 14. 10. En este texto dependeremos en gran parte del método MCO por razones practicas: a) comparado con el MV el MCO es facil de aplicar; b) los estimado- res MV y MCO de B; y B: son idénticos (lo cual se cumple también en regresin miiltiple), yc) aun en muestras moderadamente grandes, los estimadores MCO y MV de 6? no difieren considerablemente. Sin embargo, para satisfacer al lector con formacién matematica, se pre- senta una breve introduccién al MV, en el apéndice de este capitulo y también encl apéndice A. 4A.1_ESTIMACION DE MAXIMA VEROSIMILITUD DEL MODELO DE REGRESION CON DOS VARIABLES. ‘Supéngase que en el modelo de dos variables Y, = f, + BX, + 4, las ¥, son independientes y normalmente distribuidas con media = B, + 3X, y varianza = 110 PARTE UNO: MODELOS DE REGRESION UNECUACIONALES 6°, [Véase ecuacién (4.3.9).] Como resultado, puede escribirse la funcién de densidad de probabilidad conjunta de Y;, Y,,..., ¥,, dadas las medias y varianzas anteriores, de la siguiente forma AY Yavner¥n | By + BX, 07) Pero dada la independencia de las Y, esta funcién de densidad de probabilidad conjunta puede escribirse como el producto de las » funciones de densidad individuales como FM Vayo¥ | Br + BX, 07) =f, | Bi + BX, 0% | By + BX, 0°) -~ FLY, | By + BX, 07) qa) donde @) es la funcién de densidad de una variable normalmente distribuida con media y varianza dadas. (Nota: exp significa e elevado a la potencia de la expresi6n indicada por { }.) Sustituyendo (2) por cada Y, en (1) se tiene £Y, YY, |B + BX,,0°) aba! @) Si ¥;, Yo,.., ¥, Son conocidas o estin dadas, pero fi, f y 0? no se conocen, la funcion en (3) se llama funeién de verosimilitud, denotada por FV(6,, fs, 0°) y escrita asi? FV(B,,B,,0°) @ El método de maxima verosimilitud, como lo indica el nombre, consiste en estimar los pardmetros desconocidos de tal manera que la probabilidad de observar las ¥ dadas sea lo mas alta posible (0 maxima). Por consiguiente, se tiene que encontrar el maximo de la funcién (4). Este es un ejercicio sencillo de calculo diferencial, Para la diferenciacién, es mas facil expresar (4) en térmi- nos de la funcién logaritmo o log de la siguiente manera.* (Nota: In = logaritmo natural.) Por supuesto, si, Bs y 0 son conocidas pero las ¥; no se conocen, (4) representa la funcién de densidad de probabilidad conjunta: la probabilidad de observar conjuntamente las ¥, Puesto que la funcién log es una funcién monétona, In FV alcanzaré su maximo valor en el mismo punto que FV. CAPITULO CUATRO: MODELO CLASICO DE REGRESION LINEAL NORMAL WCRLN) 111 3) Diferenciando (5) parcialmente con respecto a fi, fs y o se obtiene MEY = - LE; BKI-D : a a: LO, - 8 - BXN-X) ” 2m oe LE BBX? a Igualando estas ecuaciones a cero (Ia condicién de primer orden para la optimizacién) y dejando que ,, B; y & denoten los estimadores MV se obtiene’ (9) (10) —3F ay Después de simplificar, las ecuaciones (9) y (10) llevan a LY =nB +B DX, (12) LYX, =BDX + BLN? (13) las cuales son precisamente las ecuaciones normales de la teoria de minimos cuadrados obtenida en (3.1.4) y (3.1.5). Por consiguiente, los estimadores MV las B, son los mismos que los estimadores MCO, los f, dados en (3.1.6) y (3.1.7). Esta igualdad no es fortuita, Al examinar la verosimilitud (5), se ve que el ultimo término entra con signo negativo. Por consiguiente, la maximizacién de (5) eq vale a la minimizacién de este término, que es precisamente el enfoque de mini- mos cuadrados, como se puede apreciar en (3.1.2). Sustituyendo los estimadores MV (= MCO) en (11) y simplificando, se obtie- ne el estimador MV de &?, asi: * Scutiliza el simbolo ~ (virgulilla) para los estimadores MV y * (gorro) para los estimadores MCO. 112 PARTEUNO: MODELOS DE AEGRESION UNIECUACIONALES (14) Se deduce de (14) que el estimador MV 6°, difiere del estimador MCO 6” [1/1 -2)] Za, el cual, como se demuestra en el apéndice 3A, seccion 3A.5, es un estimador insesgado de 0”. Por lo cual, el estimador MV de a? es sesgado. La magnitud de este sesgo puede determinarse facilmente de la siguiente manera: Tomando la esperanza matemitica de (14) en ambos lados de la ecuacién, se obtiene Lay ge qhla%) _(=2)0. — utilizando la ecuaci6n (16) (15) =| J© del apéndice 3A, seccién 3A.5 lo cual demuestra que & esta sesgado hacia abajo (es decir, se subestima el ver- dadero 0%) en muestras pequefias. Pero obsérvese que a medida que n, el tama- Ao de la muestra, se incrementa indefinidamente, el segundo término en (15), factor de sesgo, tiende a ser cero. Por consiguiente, asintoticamente (es decir, en una muestra muy grande), 6? también es insesgada. Esto es, el lim E(6*) = 0? a medida que n — ©. Se puede demostrar ademas que 6” es también un estimador consistente,' es decir, a medida que n aumenta indefinidamente, 6 converge hacia su verdadero valor o”. 4A.2_ESTIMACION MAXIMA DEL GASTO. ALIMENTICIO EN INDIA Volvamos al ejemplo 3.2 y a la regresi6n (3.7.2), que representa la regresién del gasto dedicado a los alimentos del gasto total realizado por 55 comunidades ru- rales de India. Puesto que al suponer la normalidad, los estimadores MCO y ML. de los coeficientes de regresin son iguales, obtenemos los estimadores ML como B, =f, = 94.2087 y B; =f, = 0.4386. El estimador MCO de ° es 469.6913, pero el estimador ML es 6? = 4 407.1563, por lo que es mas pequefio que el esti- \Véase el apéndice A para un andlisis general de las propiedades de los estimadores de maxima vverosimilitud, asf como para la distincién entre insesgamiento asintotico y consistencia. En términos zgenerales, en el insesgamiento asint6tico se trata de encontrar el lim E(@:) cuando n tiende a infinito, donde es el tamafo de la muestra sobre la cual esté basado el estimadr; mientras que en la consis. tencia, se trata de averiguar cémo se comporta 6 a medida que n aumenta indefinidamente. Obsér- vese que Ia propiedad de insesgamiento es una propiedad del muestreo repetido de un estimador basado en una muestra de un tamafo dado, mientras que la consistencia esta relacionada con el comportamiento del estimador a medida que el tamafo de la muestra aumenta indefinidamente. CAPITULO CUATRO: MODELO CLASICO DE REGRESION LINEAL NORMAL wcLN) 113 mador MCO. Como se observa, en pequefias muestras el estimador ML esta sesgado hacia abajo; es decir, subestima en promedio la verdadera varianza o° Por supuesto, ¢ mo cabria esperar, conforme crezca la muestra, la diferencia entre los dos estimadores se estrechara. Al sustituir los valores de los estimadores en la funcién log de verosimilitud, obtenemos el valor de ~308.1625. Si se desea maximizar el valor de LF, sélo se calcula el antilogaritmo de -308.1625. Ningiin otro valor de los parametros dara una probabilidad mas alta de obtener la mues- tra que se ha utilizado en el andlisis. APENDICE 4A EJERCICIOS 4a. 42. 43. “Si dos variables aleatorias son estadisticamente independientes, el coeficiente de correlacién entre las dos es cero, Pero lo contrario no necesariamente es cierto; es decir, una correlacién de cero no implica independencia estadistica. Sin embargo, cuando dos variables estan normalmente distribuidas, una correlacién cero nece- sariamente implica independencia estadistica.” Verifiquese esta afirmacién para Ja siguiente funcién de densidad de probabilidad conjunta de dos variables nor- malmente distribuidas, ¥, y Y (esta funci6n de densidad de probabilidad conjun- tase conoce como la funcién de densidad de probabilidad normal bivariada): donde: jz, = media de ¥, It, = media de Y, 0} = desviacion estandar de Y, 0; = desviacin estandar de Y, = coeliciente de correlacién entre ¥, y Vy Alaplicar las condiciones de segundo orden para la optimizacién (es decir, la prueba de la segunda derivada), demuéstrese que los estimadores de MV de fi, Bs v 62, que se obtienen resolviendo las ecuaciones (9), (10) y (11), de hecho maximizan la funcién de verosimilitud (4). Una variable aleatoria X sigue la distribucién de probabilidad exponencial si presenta la siguiente funcién de densidad de probabilidad (FDP): A(X) =(VOe*? — paraX > 0 =o en otro caso donde @> 0 es el parametro de la distribucién. Utilizando el método de MV demues- tre que el estimador MV de 6 es @= DX/n, donde n es el tamaio de la muestra. Es decir, demuestre que el estimador MV de es la media muestral X.

You might also like