You are on page 1of 42

Catedratico: violeta herrera Lpez Materia: estadstica 1 Trabajo: unidad 1, 2, 6, 7, 8 ALUMNA: Diana Griselda Jimnez Prez

Grado: 2

Grupo: DF

UNIDAD 1

ESTADSTICA La estadstica es una ciencia que estudia la recoleccin, anlisis e interpretacin de datos, ya sea para ayudar en la toma de decisiones o para explicar condiciones regulares o irregulares de algn fenmeno o estudio aplicado, de ocurrencia en forma aleatoria o condicional. Sin embargo estadstica es ms que eso, en otras palabras es el vehculo que permite llevar a cabo el proceso relacionado con la investigacin cientfica. Es transversal a una amplia variedad de disciplinas, desde la fsica hasta las ciencias sociales, desde las ciencias de la salud hasta el control de calidad. Se usa para la toma de decisiones en reas de negocios o instituciones gubernamentales. Definicin y objeto de la estadstica La Estadstica es mucho ms que slo nmeros apilados y grficas bonitas. Es una ciencia con tanta antigedad como la escritura, y es por s misma auxiliar de todas las dems ciencias. Los mercados, la medicina, la ingeniera, los gobiernos, etc. Se nombran entre los ms destacados clientes de sta. La ausencia de sta conllevara a un caos generalizado, dejando a los administradores y ejecutivos sin informacin vital a la hora de tomar decisiones en tiempos de incertidumbre. La Estadstica que conocemos hoy en da debe gran parte de su realizacin a los trabajos matemticos de aquellos hombres que desarrollaron la teora de las probabilidades, con la cual se adhiri a la Estadstica a las ciencias formales. En este breve material se expone los conceptos, la historia, la divisin as como algunos errores bsicos cometidos al momento de analizar datos Estadsticos. Estadstica descriptiva y estadstica inferencial

La estadstica descriptiva, se dedica a la descripcin, visualizacin y resumen de datos originados a partir de los fenmenos de estudio. Los datos pueden ser resumidos numrica o grficamente. Ejemplos bsicos de parmetros estadsticos son: la media y la desviacin estndar. Algunos ejemplos grficos son: histograma, pirmide poblacional, clster, entre otros. La estadstica inferencial, se dedica a la generacin de los modelos, inferencias y predicciones asociadas a los fenmenos en cuestin teniendo en cuenta la aleatoriedad de las observaciones. Se usa para modelar patrones en los datos y extraer inferencias acerca de la poblacin bajo estudio. Estas inferencias pueden tomar la forma de respuestas a

preguntas si/no (prueba de hiptesis), estimaciones de caractersticas numricas (estimacin), pronsticos de futuras observaciones, descripciones de asociacin (correlacin) o modelamiento de relaciones entre variables (anlisis de regresin). Otras tcnicas de modelamiento incluyen anova, series de tiempo y minera de datos. Variables discretas y continuas Una variable discreta. es sencillamente una variable por la que se dan de modo inherente separaciones entre valores observables sucesivos. Dicho con ms rigor, se define una variable discreta como la variable que entre dos valores observables (potencialmente), hay por lo menos un valor no observable (potencialmente). Una variable continua tiene la propiedad de que entre 2 valores observables (potencialmente), hay otro valor observable (potencialmente). Una variable continua toma valores a lo largo de un continuo, esto es, en todo un intervalo de valores. Un atributo esencial de una variable continua es que, a diferencia de una variable discreta, nunca se la puede medir exactamente. Con una variable continua debe haber inevitablemente un error de medida. Fuente de datos Con las Fuentes de Datos que se incluyan en la definicin del modelo, O3 obtiene los datos necesarios para la creacin del datamart correspondiente al modelo. La informacin se usa para crear las Dimensiones y las jerarquas as como tambin para calcular las Medidas. En el caso de los modelos de dimensiones pblicas, las fuentes de datos slo se necesitan para construir las dimensiones con sus jerarquas, pues estos modelos no tienen medidas. Ver tutorial Metadato pblica. O3 construye los cubos en dos etapas claramente diferenciadas (la primera es comn a ambos tipos de modelos, la segunda no se ejecuta para los modelos de dimensiones pblicas):

Construccin de Metadato (las dimensiones y sus jerarquas) Carga de medidas (carga de valores) Cada registro ledo en la segunda etapa debe tener los valores para las medidas y el valor para la clave de cada una de las dimensiones. Si algn registro contiene un valor correspondiente a un elementos de una dimensin que no estaba incluida en la jerarqua (no estaba en los archivos usados para crear la metadato), Designer O3 realiza alguna de las siguientes opciones, segn se haya especificado en el panel de propiedades, en el campo "Modo de Error"

UNIDAD 2 Recopilacin de informacin: teora del muestreo La teora del muestreo es el estudio de las relaciones existente entre una poblacin y muestras extradas de la misma. Tiene gran inters en muchos aspectos de la estadstica. Por ejemplo permite estimar cantidades desconocidas de la poblacin (tales como la media poblacional, la varianza, etc.), frecuentemente llamada parmetros poblacionales o brevemente parmetros, a partir del conocimiento, de las correspondientes cantidades mustrales (tales como la media muestra, la varianza, etc.), a, menudo llamadas estadsticos mustrales o brevemente estadsticos. Poblacin y muestra Una vez definidas las variables a estudiar tenemos que establecer cul ser la poblacin a investigar. En algunos casos se trabaja con toda una poblacin que es el conjunto formado por todos los elementos a estudiar, el cual puede llamarse conjunto completo. Otras veces no es posible trabajar con toda la poblacin. Supongamos que debemos estudiar la altura de los nios que cumplen 10 aos en el presente ao. Nos damos cuenta que no podemos hacerlo con todos los cientos de miles de nios que cumplen 10 aos en el pas, lo que sera toda la poblacin o conjunto completo. Podemos hacerlo con un grupo que sea manejable. O sea que vamos a usar una muestra. Queremos que esa muestra sea una buena representacin de todo el conjunto. No podemos quedarnos con los ms altos, porque en ese caso estaramos deformando los resultados. Tampoco con los ms bajos, ni siquiera con los que estn en el medio. Tienen que estar todos mezclados. Podemos ver que hacer un muestreo tiene varias dificultades. Hay que buscar una muestra que no le d preferencia a ninguna de las cualidades a estudiar. Tiene que ser lo ms heterognea posible, pensando siempre que sea una representacin en pequeo de toda la poblacin. Por lo tanto un muestreo consiste justamente en tomar una parte de un conjunto, estudiar una de sus caractersticas y tratar de analizar si con cuidado podemos extender los resultados y conclusiones a todo el conjunto, a toda la poblacin estudiada.

Muestreo probabilstico y no probabilstico

Los mtodos de muestreo probabilstico son aquellos que se basan en el principio de equi-probabilidad. Es decir, aquellos en los que todos los individuos tienen la misma probabilidad de ser elegidos para formar parte de una muestra y, consiguientemente, todas las posibles muestras de tamao n tienen la misma probabilidad de ser elegidas. Slo estos mtodos de muestreo probabilstico nos aseguran la representatividad de la muestra extrada y son, por tanto, los ms recomendables. Muestreo No Probabilstico A veces, para estudios exploratorios, el muestreo probabilstico resulta excesivamente costoso y se acude a mtodos no probabilstico, aun siendo conscientes de que no sirven para realizar generalizaciones, pues no se tiene certeza de que la muestra extrada sea representativa, ya que no todos los sujetos de la poblacin tienen la misma probabilidad de ser elegidos. En general se seleccionan a los sujetos siguiendo determinados criterios procurando que la muestra sea representativa.

Muestreo aleatorio simple Es el procedimiento probabilstico de seleccin de muestras ms sencillo y conocido, no obstante, en la prctica es difcil de realizar debido a que requiere de un marco muestran y en muchos casos no es posible obtenerlo. Puede ser til cuando las poblaciones son pequeas y por lo tanto, se cuenta con listados. Cuando las poblaciones son grandes, se prefiere el muestreo en etapas. Se utiliza ampliamente en los estudios experimentales, adems, de ser un procedimiento bsico como componente de mtodos ms complejos (muestreo estratificado y en etapas). Se caracteriza por que otorga la misma probabilidad de ser elegidos a todos los elementos de la poblacin. Para l calculo muestran, se requiere de: El tamao poblacional, si sta es finita, del error admisible y de la estimacin de la varianza.

Muestreo estratificado Consiste en la divisin previa de la poblacin de estudio en grupos o clases que se suponen homogneos con respecto a alguna caracterstica de las que se van a estudiar. A cada uno de estos estratos se le asignara una cuota que determinara el nmero de miembros del mismo que compondrn la muestra. Dentro de cada estrato se suele usar la tcnica de muestreo sistemtico, una de las tcnicas de seleccin ms usadas en la prctica. Segn la cantidad de elementos de la muestra que se han de elegir de cada uno de los estratos, existen dos tcnicas de muestreo estratificado:

Asignacin proporcional: el tamao de la muestra dentro de cada estrato es proporcional al tamao del estrato dentro de la poblacin. Asignacin ptima: la muestra recoger ms individuos de aquellos estratos que tengan ms variabilidad. Para ello es necesario un conocimiento previo de la poblacin.

Por ejemplo, para un estudio de opinin, puede resultar interesante estudiar por separado las opiniones de hombres y mujeres pues se estima que, dentro de cada uno de estos grupos, puede haber cierta homogeneidad. As, si la poblacin est compuesta de un 55% de mujeres y un 45% de hombres, se tomara una muestra que contenga tambin esos mismos porcentajes de hombres y mujeres. Para una descripcin general del muestreo estratificado y los mtodos de inferencia asociados con este procedimiento, suponemos que la poblacin est dividida en h su poblaciones o estratos de tamaos conocidos N 1, N2,..., Nh tal que las unidades en cada estrato sean homogneas respecto a la caracterstica en cuestin. La media y la varianza desconocidas para el i-simo estrato son denotadas por mi y si2, respectivamente.

Muestreo por conglomerados Tcnica similar al muestreo por estadios mltiples, se utiliza cuando la poblacin se encuentra dividida, de manera natural, en grupos que se supone que contienen toda la variabilidad de la poblacin, es decir, la representan fielmente respecto a la caracterstica a elegir, pueden seleccionarse slo algunos de estos grupos o conglomerados para la realizacin del estudio. Dentro de los grupos seleccionados se ubicarn las unidades elementales, por ejemplo, las personas a encuestar, y podra aplicrsele el instrumento de medicin a todas las unidades, es decir, los miembros del grupo, o slo se le podra aplicar a algunos de ellos, seleccionados al azar. Este mtodo tiene la ventaja de simplificar la recogida de informacin muestral. Cuando, dentro de cada conglomerado seleccionado, se extraen algunos individuos para integrar la muestra, el diseo se llama muestreo bietpico. Las ideas de estratos y conglomerados son, en cierto sentido, opuestas. El primer mtodo funciona mejor cuanto ms homognea es la poblacin respecto del estrato, aunque ms diferentes son stos entre s. En el segundo, ocurre lo contrario. Los conglomerados deben presentar toda la variabilidad, aunque deben ser muy parecidos entre s Otros diseos y procedimientos de muestreo. Juicio y conveniencia Una muestra es llamada muestra de juicio cuando sus elementos son seleccionados mediante juicio personal. La persona que selecciona los elementos de la muestra, usualmente es un experto en la medida dada, ya que descuerdo a su criterio busca las unidades ms representativas. Una muestra de juicio es llamada una muestra probabilstica, puesto que este mtodo est basado en los puntos de vista subjetivos de una persona y la teora de la probabilidad no puede ser empleada para medir el error de muestreo. Las principales ventajas de una muestra de juicio son la facilidad de obtenerla y que el costo usualmente es bajo. Este tipo de muestreo se ocupa cuando el tamao de la muestra es pequeo. Muestreo por conveniencia Una muestra aleatoria simple es seleccionada de tal manera que cada muestra posible del mismo tamao tiene igual probabilidad de ser seleccionada de la poblacin, incluso la muestra se selecciona segn el criterio de accesibilidad y comodidad Para obtener una muestra aleatoria simple, cada elemento en la poblacin tiene la misma probabilidad de ser seleccionado, el plan de muestreo puede no conducir a una muestra aleatoria simple. Por conveniencia, este mtodo pude ser reemplazado por una tabla de nmeros aleatorios.

Error de muestreo y de la muestra La muestra debe seleccionarse a partir de la poblacin la preocupacin por el tamao de la misma. La estadstica inferencia es un medio para la toma de decisiones con base en informacin limitada. Se utiliza la informacin proveniente de la observacin de las muestras y lo que se conoce acerca del error de muestreo para establecer conclusiones generalizables a la poblacin. Un instrumento bsico de esta disciplina lo constituye la hiptesis de nulidad o explicacin que propone una relacin casual, sosteniendo que no hay ninguna relacin entre las variables y que cualquier relacin que se observe es una funcin de la casualidad. Un investigador debe aceptar o rechazar la hiptesis de nulidad a un determinado nivel de significancia estadstica (= 0.01, =0.05). Toda decisin que el investigador tome pudiera ser aceptada o errnea, pudiendo cometer errores de tipo I y de tipo II. El error de tipo I consiste en rechazar una hiptesis de nulidad verdadera, cuando la hiptesis nula es en realidad verdadera. El error de tipo II consiste en aceptar una hiptesis de nulidad que es en realidad falsa.

UNIDAD 6 MEDIDAS DE VARIABILIDAD O DISPERSIN Los estadsticos de tendencia central o posicin nos indican donde se sita un grupo de puntuaciones. Los de variabilidad o dispersin nos indican si esas puntuaciones o valores estn prximas entre s o si por el contrario estn o muy dispersas. Una medida razonable de la variabilidad podra ser la amplitud o rango, que se obtiene restando el valor ms bajo de un conjunto de observaciones del valor ms alto. Es fcil de calcular y sus unidades son las mismas que las de la variable, aunque posee varios inconvenientes:

No utiliza todas las observaciones (slo dos de ellas); Se puede ver muy afectada por alguna observacin extrema; El rango aumenta con el nmero de observaciones, o bien se queda igual. En cualquier caso nunca disminuye.

RANGO El rango o recorrido estadstico es la diferencia entre el valor mnimo y el valor mximo en un grupo de nmeros aleatorios. Se le suele simbolizar con R. Requisitos del rango

Ordenamos los nmeros segn su tamao. Restamos el valor mnimo del valor mximo

Ejemplo Para una muestra (8,7,6,9,4,5), el dato menor es 4 y el dato mayor es 9 (Valor unitario inmediatamente posterior al dato mayor menos el dato menor). Sus valores se encuentran en un rango de: Rango = 5 DESVIACIN MEDIA ABSOLUTA La DESVIACIN ABSOLUTA MEDIA: es la media aritmtica de los valores absolutos de las desviaciones, por lo que se calcula tomando como positivas todas las desviaciones, sumndolas y dividiendo entre n; en nuestro ejemplo la

suma de los valores absolutos (no confundir con frecuencias absolutas, que no tiene nada que ver) sale 22 y por tanto la desviacin absoluta media vale 22/13 = 1.69 ; el tener que usar valores absolutos complica los desarrollos matemticos con este parmetro y por eso se usa poco, pese a su valor intuitivo.

LA VARIANZA Otra forma para asegurar que las diferencias entre la media y los puntos de un valor positivo, es elevndola al cuadrado. Al promedio de estas distancias al cuadrado se le conoce como varianza.

Varianza (S2 o 2): Es el resultado de la divisin de la sumatoria de las distancias existentes entre cada dato y su media aritmtica elevadas al cuadrado, y el nmero total de datos.

Distinguimos dos smbolos para identificar la varianza: S 2 para datos muestrales, y 2 para datos poblacionales. Note que la frmula para la varianza muestral presenta en su denominador al tamao de la muestra menos uno, tendencia adoptada por los estadsticos para denotar una varianza ms conservadora. Al igual que ocurre con la desviacin media, podemos definir las frmulas para datos agrupados en tablas tipo A y tipo B. Para las tablas tipo A tenemos: Una advertencia en el uso de esta medida, es que al elevar las distancias al cuadrado, automticamente se elevan las unidades. Por ejemplo, si unidad trabajada en los datos es centmetros, la varianza da como resultados centmetros al cuadrado. Ejemplo: Varianza para datos no agrupados La siguiente muestra representa las edades de 25 personas sometidas a un anlisis de preferencias para un estudio de mercado. 25 20 18 19 27 30 21 32 19 35 38 29 44 33 33

26 31 Determinar la varianza.

24 18

28 17

39 30

31 27

SOLUCIN PASO 1: Calcular la media aritmtica. PASO 2: Calcular la varianza En este punto, la varianza es identificada por S 2. La varianza equivale a 51,8567. Por elevar las unidades al cuadrado, carece de un significado contextual dentro del anlisis descriptivo del caso. Ejemplo: Varianza para datos agrupados Calcular la varianza a partir de la siguiente tabla de frecuencia (suponga que los datos son poblacionales). Ni 1 2 3 4 5 Lm [15 [17 [19 [21 [23 Ls 17) 19) 21) 23) 25] f 2 5 13 4 1 Mc 16 18 20 22 24

Total

25

SOLUCIN PASO 1: Calcular la media aritmtica. PASO 2: Calcular la varianza En este punto, la varianza es identificada por S 2.

DESVIACIN ESTNDAR Habamos visto que la varianza transforma todas las distancias a valores positivos elevndolas al cuadrado, con el inconveniente de elevar consigo las unidades de los datos originales. La desviacin estndar soluciona el problema obteniendo la raz cuadrada de la varianza, consiguiendo as, un valor similar a la desviacin media. Desviacin estndar o tpica (S o ): Es igual a la raz cuadrada de la varianza.

La S representa la desviacin estndar de una muestra, mientras que la desviacin para todos los datos de una poblacin. Ampliando las frmulas tenemos Aplicamos el mismo procedimiento a las frmulas para las tablas de frecuencias tipo A. Y para las tablas de frecuencias tipo B. Ejemplo: Desviacin estndar para datos no agrupados Calcular la desviacin estndar al siguiente conjunto de datos muestrales.

220 219 213 218 217

215 208 204 200 209

218 207 225 205 207

210 213 211 220 211

210 225 221 215 218

PASO 1: Calcular la media aritmtica. PASO 2: Calcular la varianza

En este punto, la varianza es identificada por S 2. PASO 3: Calcular la desviacin estndar a partir de la raz cuadrada de la varianza. Los datos se alejan en promedio de la media aritmtica en 6,5516 puntos. Ejemplo: Desviacin estndar para datos agrupados Calcular la desviacin estndar a partir de la siguiente tabla de frecuencia. Considere los datos como poblacionales.

No. Lm 1 2 3 4 5 6 7 Total 13,20 15,21 17,21 19,21 21,21 23,21 25,21

Ls 15,21 17,21 19,21 21,21 23,21 25,21 27,20

f 15 10 1 4 5 12 1 48

Mc 14,21 16,21 18,21 20,21 22,21 24,21 26,21

PASO 1: Calcular la media aritmtica. PASO 2: Calcular la varianza En este punto, la varianza es identificada por 2. PASO 3: Calcular la desviacin estndar a partir de la raz cuadrada de la varianza.

Los datos se alejan en promedio de la media aritmtica en 7,6239 puntos. COEFICIENTE DE VARIACIN El coeficiente de variacin permite comparar la dispersin entre dos poblaciones distintas e incluso, comparar la variacin producto de dos variables diferentes (que pueden provenir de una misma poblacin). Estas variables podran tener unidades diferentes, por ejemplo, podremos determinar si los datos tomados al medir el volumen de llenado de un embase de cierto lquido varan ms que los datos tomados al medir la temperatura de el liquido contenido en el embase al salir al consumidor. El volumen los mediremos en centmetros cbicos y la temperatura en grados centgrados. El coeficiente de variacin elimina la dimensionalidad de las variables y tiene en cuenta la proporcin existente entre una medida de tendencia y la desviacin tpica o estndar. Coeficiente de variacin (Cv): Equivale a la razn entre la media aritmtica y la desviacin tpica o estndar. o Si envs de la media aritmtica se emplea la mediana, obtendremos el coeficiente de variacin mediana. Este ndice solo se debe calcular para variables con todo los valores positivos, para dar seguridad de un o mayores a cero (un coeficiente de variacin positivo). Ejemplo: Desviacin estndar para datos no agrupados En un juego de tiro al blanco con escopeta de perdigones por dos participantes a un tablero, obtienen el siguiente registro despus de 15 disparos cada uno. Determinar el coeficiente de variacin para ambos casos.

Disparo 1 2

f 6 3

Disparo 1 2

f 0 7

3 4 5

0 3 3

3 4 5

7 1 0

PASO 1: Calcular las medias aritmticas: PASO 2: Calcular las varianzas En este punto, la varianza es identificada por S 2. PASO 3: Calcular la desviacin estndar a partir de la raz cuadrada de la varianza. La puntuacin de los disparos se aleja en promedio de la media aritmtica en aproximadamente 1,6818 para el jugador 1 y 0,6325 para el jugador 2. PASO 4: Calcular el coeficiente de variacin. El menor coeficiente de variacin indica que el jugador 2 presento una dispersin menor de sus puntuaciones respecto a la media, caso contrario al jugador 1 donde la dispersin fue mayor. MEDIDAS DE FORMA Las medidas de forma permiten comprobar si una distribucin de frecuencia tiene caractersticas especiales como simetra, asimetra, nivel de concentracin de datos y nivel de apuntamiento que la clasifiquen en un tipo particular de distribucin. Las medidas de forma son necesarias para determinar el comportamiento de los datos y as, poder adaptar herramientas para el anlisis probabilstico. Medidas de forma: Son indicadores estadsticos que permiten identificar si una distribucin de frecuencia presenta uniformidad.

Coeficiente de asimetra Curtosis

COEFICIENTE DE ASIMETRA Mide el grado de asimetra de la distribucin con respecto a la media. Un valor positivo de este indicador significa que la distribucin se encuentra sesgada hacia la izquierda (orientacin positiva). Un resultado negativo significa que la distribucin se sesga a la derecha. La distribucin se considera simtrica si el valor del coeficiente es cero.. 7.3.1 Ejemplo: Clculo del coeficiente de asimetra Calcular el coeficiente de asimetra a partir de los siguientes datos obtenidos de una muestra.

55 3 1 2 1 3 1 1 SOLUCIN

3 4 2 4 2 2 5 1

1 3 3 2 1 3 6 2

3 2 2 2 4 1 3 3

3 3 3 2 2 2 2 2

3 3 2 2 2 3 1 1

PASO 1: Calculamos la desviacin estndar de muestra. PASO 2: Calculamos la diferencia de cada valor con respecto a la media, divido por la desviacin y luego elevado a la 3.

PASO 3: Se calcula el indicador completo. Este valor indica que la distribucin se orienta hacia la izquierda. CURTOSIS Indica que tan apuntada o achatada se encuentra una distribucin respecto a un comportamiento normal (distribucin normal). Si los datos estn muy concentrado hacia la media, la distribucin es leptocrtica (curtosis mayor a 0). Si los datos estn muy dispersos, la distribucin es platicrtica (curtosis menor a 0). El comportamiento normal exige que la curtosis sea igual a 0 (distribucin mesocrtica). La frmula empleada para calcular la Curtosis se muestra a continuacin (reemplace el valor de n por N en caso de tratar con datos poblacionales): 7.4.1 Ejemplo: Clculo de la Curtosis Calcular el coeficiente de asimetra a partir de los siguientes datos obtenidos de una muestra.

5 3 1 5 4 3 1 3

3 4 4 5 4 2 5 1

3 3 3 2 1 3 5 2

3 2 4 4 3 3 3 3

3 3 3 4 2 4 4 2

3 3 2 2 2 3 1 3

SOLUCIN PASO 1: Calculamos la desviacin estndar de muestra. PASO 2: Calculamos la diferencia de cada valor con respecto a la media, divido por la desviacin y luego elevado a la 4. PASO 3: Se calcula el indicador completo. Este valor indica que la distribucin es de tipo platicrtica.

UNIDAD 7 PROBABILIDAD PROBABILIDAD CLSICA, FRECUENCIAL Y SUBJETIVA El concepto de probabilidad es muy antiguo y a lo largo de la historia se ha definido de distintas formas, aunque todas ellas mantienen en comn las caractersticas bsicas del concepto. En general cuando hablemos de probabilidad lo haremos siempre en referencia a la probabilidad de un suceso y la entenderemos como una medida cuantificada de la verosimilitud de ocurrencia de un suceso frente a los dems sucesos del experimento. Pero qu duda cabe que esta definicin no es del todo buena, pues se utiliza el trmino verosimilitud para definir la probabilidad, cuando el mismo es un sinnimo de lo que se quiere definir. Tambin podra hablarse del grado de incertidumbre en la ocurrencia de los resultados de un experimento. En cualquier caso la probabilidad de un suceso es una medida cuantificable que toma valores entre cero y uno a diferencia del concepto de posibilidad que es una medida cualitativa. Probabilidad clsica o a priori (Regla de Laplace) Si el experimento que estamos realizando da lugar a un espacio muestral E que es finito y cuyos resultados son mutuamente excluyentes y equiprobables o simtricos, entonces, la probabilidad del suceso A perteneciente a E se define como el cociente de los resultados favorables a A respecto del total de resultados posibles, este tipo de probabilidad es la que se emplea antes del evento, de ah el nombre de a priori. Probabilidad subjetiva. Hay determinados experimentos aleatorios que no son susceptibles de realizarse y sus resultados no son equiprobables. Imaginemos que se quiere determinar la probabilidad: de que la economa de Espaa crezca en el prximo ao un 3%; que las acciones de una empresa se revaloricen en un 10% en un mes; que una empresa presente suspensin de pagos; que un nuevo producto sea bien acogido en el mercado; que ocurra un accidente nuclear; etc.

En estas circunstancias, donde los experimentos solo se pueden realizar una vez o ninguna o que se puedan repetir pero en condiciones distintas, no son aplicables ninguna de las dos definiciones dadas anteriormente, por lo que no es posible asignar probabilidades mediante un procedimiento objetivo, debiendo recurrir a procedimientos de tipo subjetivo, a opiniones de expertos. En estos casos la probabilidad expresa un grado de creencia o confianza individual en relacin con la ocurrencia o no de un determinado suceso. Se trata de un juicio personal sobre el resultado de un experimento aleatorio. Adems debemos admitir la posibilidad de que distintos sujetos asignen probabilidades diferentes al mismo suceso. No obstante esta definicin de probabilidad tambin satisface las tres propiedades vistas antes. EXPERIMENTOS, EVENTOS Y ESPACIOS MUESTRALES El uso de conjuntos representados por diagramas de Venn, facilita la compresin de espacio muestral y evento, ya que el espacio muestral S, se puede equiparar con el conjunto universo, debido a que S contiene la totalidad de los resultados posibles de un experimento, mientras que los eventos E contienen solo un conjunto de resultados posibles del experimento, mientras que los puntos muestrales se equiparan con los elementos. Vamos a suponer que el experimento que se realiza es el lanzamiento de un dado y queremos conocer cul es la probabilidad de que caiga un 3 o un 5? Si S contiene la totalidad de los resultados posibles, entonces S = {1, 2, 3, 4, 5, 6} puesto que el dado tiene 6 caras y si buscamos la probabilidad P de que caiga 3 o 5, esto constituye un evento entonces, E = {3, 5}. El espacio muestral S, est representado por un rectngulo, este contiene eventos E representados a travs de crculos y puntos muestrales. Dado que en E existen dos elementos y en S seis, la probabilidad P de que ocurra E es 2 de 6 y se obtiene al dividir el nmero de elementos en E sobre el nmero de elementos en S. Espacio Muestral.- Se llama espacio muestral (E) asociado a un experimento aleatorio, el conjunto de todos los resultados posibles de dicho experimento. Al lanzar una moneda, el espacio muestral es E = {sale cara, sale sello} E = {c, s}. Al lanzar un dado de seis caras, el espacio muestral es E = {sale 1, sale 2, sale 3, sale 4, sale 5, sale 6} E = {1, 2, 3, 4, 5, 6} Al lanzar dos monedas, el espacio muestral es E = (c,c), (c,s), (s,c), (s,s).

Al lanzar tres monedas, el espacio muestral es E = (c,c,c), (c,c,s), (c,s,c), (c,s,s), (s,c,c), (s,c,s), (s,s,c), (s,s,s) Evento o Suceso: Se llama evento o suceso a todo subconjunto de un espacio muestral. Por ejemplo en el espacio muestral E = {1, 2, 3, 4, 5, 6} del lanzamiento de un dado, los siguientes son eventos: 1. Obtener un nmero primo A = {2, 3, 5} 2. Obtener un nmero primo y par B = {2} 3. Obtener un nmero mayor o igual a 5 C = {5, 6}

REGLAS DE CONTEO: COMBINACIONES Y PERMUTACIONES Anlisis Combinatorio El anlisis combinatorio es la rama de las matemticas que estudia los diversos arreglos o selecciones que podemos formar con los elementos de un conjunto dado, los cuales nos permite resolver muchos problemas prcticos, y nos va servir para resolver y comprender problemas sobre probabilidades. Tcnicas fundamentales del Anlisis Combinatorio En la mayora de los problemas de anlisis combinatorio se observa que una operacin o actividad aparece en forma repetitiva y es necesario conocer las formas o maneras que se puede realizar dicha operacin. Para dichos casos es til conocer determinadas tcnicas o estrategias de conteo que facilitarn el clculo sealado. Estas tcnicas son: la tcnica de la multiplicacin, la tcnica de la permutacin y la tcnica de la combinacin. La Tcnica de la Multiplicacin Segn La tcnica de la multiplicacin, si hay m formas de hacer una cosa y hay n formas de hacer otra cosa, hay m x n formas da hacer ambas cosas: En trminos de frmula: Nmero total de arreglos = m x n Esto puede ser extendido a ms de dos eventos. Para tres eventos, m, n, y o: Nmero total de arreglos = m x n x o Ejemplo:

Un vendedor de autos quiere presentar a sus clientes todas las diferentes opciones con que cuenta: auto convertible, auto de 2 puertas y auto de 4 puertas, cualquiera de ellos con rines deportivos o estndar. Cuntos diferentes arreglos de autos y rines puede ofrecer el vendedor? Para solucionar el problema podemos emplear la tcnica de la multiplicacin, (donde m es nmero de modelos y n es el nmero de tipos de rin). Nmero total de arreglos = 3 x 2 No fue difcil de listar y contar todos los posibles arreglos de modelos de autos y rines en este ejemplo. Suponga, sin embargo, que el vendedor tiene para ofrecer ocho modelos de auto y seis tipos de rines. Sera tedioso hacer un dibujo con todas las posibilidades. Aplicando la tcnica de la multiplicacin fcilmente realizamos el clculo: Nmero total de arreglos = m x n = 8 x 6 = 48 La Tcnica de la Permutacin Es un conjunto de nmeros o elementos (n) tomados de r en r a la vez y cuyos arreglos responden a un orden determinado. Nos interesa el orden en que estos se hacen. Como vimos anteriormente la tcnica de la multiplicacin es aplicada para encontrar el nmero posible de arreglos para dos o ms grupos. La tcnica de la permutacin es aplicada para encontrar el nmero posible de arreglos donde hay solo u grupo de objetos. Donde: nPr es el nmero de permutaciones posible n es el nmero total de objetos r es el nmero de objetos utilizados en un mismo momento (1 en 1, 2 en 2, 3 en 3, etc.) La Tcnica de la Combinacin En una permutacin, el orden de los objetos de cada posible resultado es diferente. Si el orden de los objetos no es importante, cada uno de estos resultados se denomina combinacin. Por ejemplo, si se quiere formar un equipo de trabajo formado por 2 personas seleccionadas de un grupo de tres (A, B y C). Si en el equipo hay dos funciones diferentes, entonces si importa el orden, los resultados sern permutaciones. Por el contrario si en el equipo no hay funciones definidas, entonces no importa el orden y los resultados sern combinaciones. Los resultados en ambos casos son los siguientes: Permutaciones: AB, AC, BA, CA, BC, CB

Combinaciones: AB, AC, BC REGLAS DE LA PROBABILIDAD 1. La Probabilidad de cualquier evento oscila entre 0 y1 2. La suma de las posibilidades de todos los eventos es 1

3. Suma para eventos elementales

4. Complemento 5. Suma para cualesquiera dos eventos E1 y E2

3. Complemento 4. Suma para cualesquiera dos eventos E1y E2 5. Regla de adicin para eventos mutuamente excluyentes

EVENTOS DEPENDIENTES INDEPENDIENTES Y CONDICIONALES Eventos Independientes Dos o ms eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Un caso tpico de eventos independiente es el muestreo con reposicin, es decir, una vez tomada la muestra se regresa de nuevo a la poblacin donde se obtuvo. Ejemplo: Lanzar al aire dos veces una moneda son eventos independientes por que el resultado del primer evento no afecta sobre las probabilidades efectivas de que ocurra cara o sello, en el segundo lanzamiento. Eventos dependientes

Dos o ms eventos sern dependientes cuando la ocurrencia o no-ocurrencia de uno de ellos afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este caso, empleamos entonces, el concepto de probabilidad condicional para denominar la probabilidad del evento relacionado. La expresin P(A|B) indica la probabilidad de ocurrencia del evento A s el evento B ya ocurri. Se debe tener claro que A|B no es una fraccin. P(A|B) = P(A y B)/P(B) o P(B|A) = P(A y B)/P(A) TEOREMA DE BAYES (ESTADSTICA BAYESIANA). El Teorema de BAYES se apoya en el proceso inverso al que hemos visto en el Teorema de la Probabilidad Total: Teorema de la probabilidad total: a partir de las probabilidades del suceso A (probabilidad de que llueva o de que haga buen tiempo) deducimos la probabilidad del suceso B (que ocurra un accidente). Teorema de Bayes: a partir de que ha ocurrido el suceso B (ha ocurrido un accidente) deducimos las probabilidades del suceso A (estaba lloviendo o haca buen tiempo?). La frmula del Teorema de Bayes es:

Tratar de explicar estar frmula con palabras es un galimatas, as que vamos a intentar explicarla con un ejemplo. De todos modos, antes de entrar en el ejercicio, recordar que este teorema tambin exige que el suceso A forme un sistema completo. Ejemplo. El parte meteorolgico ha anunciado tres posibilidades para el fin de semana: a) Que llueva: probabilidad del 50%. b) Que nieve: probabilidad del 30% c) Que haya niebla: probabilidad del 20%. Segn estos posibles estados meteorolgicos, la posibilidad de que ocurra un accidente es la siguiente: a) Si llueve: probabilidad de accidente del 20%. b) Si nieva: probabilidad de accidente del 10%

c) Si hay niebla: probabilidad de accidente del 5%. Resulta que efectivamente ocurre un accidente y como no estabamos en la ciudad no sabemos que tiempo hizo (llovo, nev o hubo niebla). El teorema de Bayes nos permite calcular estas probabilidades: Las probabilidades que manejamos antes de conocer que ha ocurrido un accidente se denominan "probabilidades a priori" (lluvia con el 50%, nieve con el 30% y niebla con el 20%). Una vez que incorporamos la informacin de que ha ocurrido un accidente, las probabilidades del suceso A cambian: son probabilidades condicionadas P (A/B), que se denominan "probabilidades a posteriori". Vamos a aplicar la frmula:

a) Probabilidad de que estuviera lloviendo:

La probabilidad de que efectivamente estuviera lloviendo el da del accidente (probabilidad a posteriori) es del 71,4%. b) Probabilidad de que estuviera nevando:

La probabilidad de que estuviera nevando es del 21,4%. c) Probabilidad de que hubiera niebla:

La probabilidad de que hubiera niebla es del 7,1% DIAGRAMAS DE RBOL Para la construccin de un diagrama en rbol se partir poniendo una rama para cada una de las posibilidades, acompaada de su probabilidad. En el final de cada rama parcial se constituye a su vez, un nudo del cual parten nuevas ramas, segn las posibilidades del siguiente paso, salvo si el nudo representa un posible final del experimento ( nudo final). Hay que tener en cuenta: que las ramas de cada nudoha de dar 1. la suma de probabilidades de

Ejemplos Una clase consta de seis nias y 10 nios. Si se escoge un comit de tres al azar, hallar la probabilidad de: 1 Seleccionar tres nios.

2Seleccionar exactamente dos nios y una nia.

3Seleccionar exactamente dos nias y un nio.

1 Seleccionar tres nias.

Calcular la probabilidad de que al arrojar al aire tres monedas, salgan: Tres caras.

ESPERANZA MATEMTICA La esperanza matemtica o valor esperado de una variable aleatoria discreta es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso.

Los nombres de esperanza matemtica y valor esperado tienen su origen en los juegos de azar y hacen referencia a la ganancia promedio esperada por un jugador cuando hace un gran nmero de apuestas. Si la esperanza matemtica es cero, E(x) = 0, el juego es equitativo, es decir, no existe ventaja ni para el jugador ni para la banca. Ejemplos Si una persona compra una papeleta en una rifa, en la que puede ganar de 5.000 un segundo premio de 2000 con probabilidades de: 0.001 y 0.003. Cul sera el precio justo a pagar por la papeleta? E(x) = 5000 0.001 + 2000 0.003 = 11 Un jugador lanza dos monedas. Gana 1 2 si aparecen una o dos caras. Por otra parte pierde 5 si no aparece cara. Determinar la esperanza matemtica del juego y si ste es favorable.

E = {(c,c);(c,x);(x,c);(x,x)} p(+1) = 2/4 p(+2) = 1/4 p(5) = 1/4 E(x)= 1 2/4 + 2 1/4 - 5 1/4 = 1/4. Es desfavorable

UNIDAD 8 VARIABLES ALEATORIAS DISCRETAS Y SU DISTRIBUCIN DE PROBABILIDAD Variable Aleatoria Unidimensional La relacin entre los sucesos del espacio muestral y el valor numrico que se les asigna se establece a travs de variable aleatoria. Definicin Una variable aleatoria es una funcin que asigna un valor numrico a cada suceso elemental del espacio muestral. Es decir, una variable aleatoria es una variable cuyo valor numrico est determinado por el resultado del experimento aleatorio. La variable aleatoria la notaremos con letras en mayscula X, Y, ... y con las letras en minscula x, y, ... sus valores. La v.a. puede tomar un nmero numerable o no numerable de valores, dando lugar a dos tipos de v.a.: discretas y continuas. Definicin Se dice que una variable aleatoria X es discreta si puede tomar un nmero finito o infinito, pero numerable, de posibles valores. Definicin

Se dice que una variable aleatoria X es continua si puede tomar un nmero infinito (no numerable) de valores, o bien, si puede tomar un nmero infinito de valores correspondientes a los puntos de uno o ms intervalos de la recta real. DISTRIBUCIN CONTINUAS DE PROBABILIDAD DE VARIABLES ALEATORIAS

La v.a. de tipo continuo se tratar de forma diferente a como se ha visto en el caso de v.a. discreta, ya que en el caso continuo no es posible asignar una probabilidad a cada uno de los infinitos posibles valores de la v.a. y que estas probabilidades sumen uno (como en el caso discreto), teniendo por tanto que utilizar una aproximacin diferente para llegar a obtener la distribucin de probabilidad de una v.a. continua. Definicin Sea X una v.a. continua. Si existe una funcin f(x) tal que verifica: Diremos que f(x) es la funcin de densidad de la v.a. continua X. En el caso continuo la suma de las densidad o el rea bajo la curva f(x) debe ser igual a la unidad, y como consecuencia la probabilidad de que la v.a. continua X tome valores en el intervalo [a,b] ser igual al rea bajo la curva f(x) acotada entre a y b, es decir: Si la v.a. X es discreta, existen las probabilidades puntuales P(X=xi). En el caso continuo, si xi es un punto interior al intervalo de definicin de la v.a. continua X, entonces Definicin Sea X una v.a. de tipo continuo que toma un nmero infinito de valores sobre la recta real y con funcin de densidad f(x). Se define la funcin de distribucin acumulativa de la v.a. X, F(x), como la probabilidad de que la v.a. continua X tome valores menores o iguales a x, es decir: y representa el rea limitada por la curva f(x), a la izquierda de la recta X=x. Consideramos una masa unidad distribuida sobre el intervalo ( ), y la funcin de distribucin F(x) para cada valor x de la v.a. nos da la cantidad de masa que hay en el intervalo , es decir, la masa que hay en el punto x y a la izquierda de x, aunque nos dar igual considerar el intervalo ( ), de forma que: La funcin de distribucin de una v.a. continua es una funcin que verifica: Como la representa grficamente el rea encerrada bajo la curva f(x) y los valores a y b del eje de abscisas, entonces a la probabilidad se le puede dar la misma interpretacin. VARIABLE ALEATORIA BIDIMENSIONAL En determinadas ocasiones hay que trabajar en espacios de ms de una dimensin, estableciendo aplicaciones que transforman los sucesos elementales del experimento aleatorio en puntos del espacio n-dimensional (Rn), estas aplicaciones se hacen utilizando v.a. bidimensionales o n-dimensionales.

En muchas ocasiones nos puede interesar estudiar conjuntamente dos caractersticas del fenmeno aleatorio, es decir, estudiar el comportamiento conjunto de dos v.a. para intentar explicar la posible relacin entre ellas. Para poder estudiar conjuntamente las dos v.a., es necesario conocer la distribucin de probabilidad conjunta. DISTRIBUCIN DE PROBABILIDAD BIDIMENSIONAL Sea la X una v.a. discreta que toma un nmero finito de valores x1, x2, ..., xr y sea Y una v.a. de tipo discreto, que toma valores y1, y2, ..., ys. La probabilidad de que la v.a. X tome el valor xi, y la v.a. Y toma el valor yj, la designaremos por: Definicin La distribucin de probabilidad bidimensional o distribucin de probabilidad conjunta de una v.a. discreta bidimensional es una funcin P(xi,yj) que asigna las probabilidades a los diferentes valores conjuntos de la v.a. bidimensional (X,Y), de tal manera que se verifiquen las dos condiciones siguientes: Definicin Sea una v.a. bidimensional (X,Y) de tipo discreto cuya distribucin de probabilidad es pij = P(xi,yj), i=1, 2, ..., r y j = 1, 2, ..., s. Se define la funcin de distribucin conjunta, F(x,y) como: y representa la suma de las probabilidades puntuales P(xi,yj) hasta el valor (x , y) inclusive de la v.a. bidimensional (X,Y). Consideremos ahora una v.a. bidimensional (X,Y) de tipo continuo: Definicin Sea (X,Y) una v.a. bidimensional de tipo continuo, si existe una funcin f(x,y) tal que verifica: diremos que f(x,y) es la funcin de densidad de la v.a. bidimensional continua (X,Y). Esta funcin de densidad conjunta, se puede interpretar como un histograma de frecuencias relativas conjuntas para X e Y, pues la funcin de densidad f(x,y) representa una superficie de densidad de probabilidad en el espacio tridimensional , y el volumen por debajo de esta superficie y por encima del rectngulo e , es igual a la probabilidad de que las v.a. tienen valores dentro del rectngulo indicado, es decir: Definicin Sea una v.a. bidimensional (X,Y) de tipo continuo que toma valores sobre el espacio bidimensional R2 y cuya funcin de densidad es f(x,y). Se define la funcin de distribucin de la v.a. bidimensional, F(x,y) como: La funcin de distribucin bidimensional satisface una serie de propiedades: DISTRIBUCINES MARGINALES

Ahora nos va a interesar conocer la distribucin de alguna o de ambas v.a. por separado, a partir de la informacin que nos proporcionaba la distribucin conjunta de (X,Y), lo cual nos lleva al concepto de distribucin marginal. En el caso de la v.a. bidimensional (X,Y), teniendo en cuenta que todos los sucesos bivariantes, correspondientes a los diferentes valores que puede tomar la v.a. bidimensional, es decir: (X=xi, Y=yj) i, j = 1, 2, 3, ....eran sucesos mutuamente excluyentes, entonces podremos decir que el suceso univariante X=xi es la unin de todos los sucesos bivariantes (X=xi, Y=yj) para todos los valores posibles de yj. Definicin Sea una v.a. bidimensional (X,Y) de tipo discreto cuya distribucin de probabilidad es pij=P(xi, yj). Entonces las distribuciones de probabilidad marginales, de X e Y, respectivamente vienen dadas por La distribucin de probabilidad marginal de X es la probabilidad de que X=xi con independencia del valor que tome Y, con lo que se puede escribir: De forma anloga la distribucin de probabilidad marginal de Y ser: Definicin Sea una v.a. bidimensional (X,Y) de tipo discreto cuya distribucin de probabilidad es pij = P(xi,yj). Entonces las funciones de distribucin marginales de X e Y, se definen: Si consideramos una v.a. bidimensional de tipo continuo (X,Y) se obtiene: Definicin. Sea una v.a. bidimensional (X,Y) de tipo continuo, cuya funcin de densidad conjunta es f(x,y). Entonces las funciones de densidad marginales de X e Y, se definen: Definicin. Sea una v.a. bidimensional (X,Y) de tipo continuo, cuya funcin de densidad conjunta es f(x,y). Entonces se definen las funciones de distribucin marginales de X e Y como: DISTRIBUCINES CONDICIONADAS Queremos conocer cmo se distribuye una de las variables cuando se imponen condiciones a la otra variable. En el tema anterior definiamos . Ahora consideramos la v.a. bidimensional (X,Y), con su correspondiente distribucin de probabilidad. Se define la probabilidad condicionada de la v.a. discreta X dado Y=yj En este caso yj es fijo y xi vara sobre todos los posibles valores de la v.a. X, obteniendo as la distribucin de probabilidad de la v.a. discreta X bajo la condicin Y=yj. Anlogamente la distribucin de probabilidad condicionada de la v.a. discreta Y dado X=xi sera:

En este caso xi es fijo e yj vara sobre todos los posibles valores de la variable aleatoria Y. PROBABILIDAD CLSICA, FRECUENCIAL Y SUBJETIVA El concepto de probabilidad es muy antiguo y a lo largo de la historia se ha definido de distintas formas, aunque todas ellas mantienen en comn las caractersticas bsicas del concepto. En general cuando hablemos de probabilidad lo haremos siempre en referencia a la probabilidad de un suceso y la entenderemos como una medida cuantificada de la verosimilitud de ocurrencia de un suceso frente a los dems sucesos del experimento. Pero qu duda cabe que esta definicin no es del todo buena, pues se utiliza el trmino verosimilitud para definir la probabilidad, cuando el mismo es un sinnimo de lo que se quiere definir. Tambin podra hablarse del grado de incertidumbre en la ocurrencia de los resultados de un experimento. En cualquier caso la probabilidad de un suceso es una medida cuantificable que toma valores entre cero y uno a diferencia del concepto de posibilidad que es una medida cualitativa. Probabilidad clsica o a priori (Regla de Laplace) Si el experimento que estamos realizando da lugar a un espacio muestral E que es finito y cuyos resultados son mutuamente excluyentes y equiprobables o simtricos, entonces, la probabilidad del suceso A perteneciente a E se define como el cociente de los resultados favorables a A respecto del total de resultados posibles, este tipo de probabilidad es la que se emplea antes del evento, de ah el nombre de a priori. Probabilidad subjetiva. Hay determinados experimentos aleatorios que no son susceptibles de realizarse y sus resultados no son equiprobables. Imaginemos que se quiere determinar la probabilidad: de que la economa de Espaa crezca en el prximo ao un 3%; que las acciones de una empresa se revaloricen en un 10% en un mes; que una empresa presente suspensin de pagos; que un nuevo producto sea bien acogido en el mercado; que ocurra un accidente nuclear; etc. En estas circunstancias, donde los experimentos solo se pueden realizar una vez o ninguna o que se puedan repetir pero en condiciones distintas, no son aplicables ninguna de las dos definiciones dadas anteriormente, por lo que no es posible asignar probabilidades mediante un procedimiento objetivo, debiendo recurrir a procedimientos de tipo subjetivo, a opiniones de expertos. En estos casos la probabilidad expresa un grado de creencia o confianza individual en relacin con la ocurrencia o no de un determinado suceso. Se trata de un juicio personal sobre el resultado de un experimento aleatorio. Adems debemos admitir la posibilidad de que distintos sujetos asignen probabilidades diferentes al

mismo suceso. No obstante esta definicin de probabilidad tambin satisface las tres propiedades vistas antes. DISTRIBUCIN DISCRETAS DE PROBABILIDAD DE VARIABLES ALEATORIAS

Sea X una v.a. discreta que toma un nmero finito de valores, r en total, x1, x2, ..., xi, ..., xr. La probabilidad de que la v.a. X tome un valor particular xi se representar por: . Definicin La distribucin de probabilidad o funcin de probabilidad de una variable aleatoria X, P(x), es una funcin que asigna las probabilidades con que la v.a. toma los posibles valores, de forma que las probabilidades verifiquen: Si X es una v.a. discreta, para determinar la , siendo , tan slo hay que sumar las probabilidades correspondientes a valores de X comprendidos entre a y b, es decir: Definicin Sea una v.a. X de tipo discreto que toma un n finito o infinito numerable de valores x1, x2, ..., xr y cuya distribucin de probabilidad es P(x). Se define la funcin de distribucin acumulativa de la v.a. X, F(x), como la probabilidad de que la v.a. X tome valores menores o iguales que x, es decir: Representando la suma de las probabilidades puntuales hasta el valor x inclusive de la v.a. X. La funcin de distribucin de una v.a. discreta es una funcin que verifica: Se puede decir por tanto que una v.a. X discreta, est caracterizada por su funcin de probabilidad o distribucin de probabilidad P(x) y tambin por su funcin de distribucin F(x). TEOREMA DE BERNOULLI En teora de probabilidad y estadstica, la distribucin de Bernoulli (o distribucin dicotmica), nombrada as por el matemtico y cientfico suizo Jakob Bernoulli, es unadistribucin de probabilidad discreta, que toma valor 1 para la probabilidad de xito (p) y valor 0 para la probabilidad de fracaso (q = 1 p). Si X es una variable aleatoria que mide "nmero de xitos", y se realiza un nico experimento con dos posibles resultados (xito o fracaso), se dice que la variable aleatoria se distribuye como una Bernoulli de parmetro . La frmula ser: Su funcin de probabilidad viene definida por:

Un experimento al cual se aplica la distribucin de Bernoulli se conoce como Ensayo de Bernoulli o simplemente ensayo, y la serie de esos experimentos como ensayos repetidos. DISTRIBUCIN BINOMINAL Y MULTINOMINAL La distribucin binomial parte de la distribucin de Bernoulli: Ejemplo 1: Cul es la probabilidad de obtener 6 caras al lanzar una moneda 10 veces? " k " es el nmero de aciertos. En este ejemplo " k " igual a 6 (en cada acierto decamos que la variable toma el valor 1: como son 6 aciertos, entonces k = 6) " n" es el nmero de ensayos. En nuestro ejemplo son 10 " p " es la probabilidad de xito, es decir, que salga "cara" al lanzar la moneda. Por lo tanto p = 0,5 La frmula quedara: Luego, P (x = 6) = 0,205 Es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10 veces una moneda. La distribucin de Bernoulli se aplica cuando se realiza una sola vez un experimento que tiene nicamente dos posibles resultados (xito o fracaso), por lo que la variable slo puede tomar dos valores: el 1 y el 0 La distribucin binomial se aplica cuando se realizan un nmero "n" de veces el experimento de Bernoulli, siendo cada ensayo independiente del anterior. La variable puede tomar valores entre: 0: si todos los experimentos han sido fracaso n: si todos los experimentos han sido xitos DISTRIBUCIONES DISCRETAS: POISSON. La distribucin de Poisson parte de la distribucin binomial: Cuando en una distribucin binomial se realiza el experimento un nmero "n" muy elevado de veces y la probabilidad de xito "p" en cada ensayo es reducida, entonces se aplica el modelo de distribucin de Poisson: Se tiene que cumplir que: " p " < 0,10

" p * n " < 10 La distribucin de Poisson sigue el siguiente modelo:

Vamos a explicarla: El nmero "e" es 2,71828 " l " = n * p (es decir, el nmero de veces " n " que se realiza el experimento multiplicado por la probabilidad " p " de xito en cada ensayo) " k " es el nmero de xito cuya probabilidad se est calculando Veamos un ejemplo: La probabilidad de tener un accidente de trfico es de 0,02 cada vez que se viaja, si se realizan 300 viajes, cual es la probabilidad de tener 3 accidentes? Como la probabilidad " p " es menor que 0,1, y el producto " n * p " es menor que 10, entonces aplicamos el modelo de distribucin de Poisson.

Luego, P (x = 3) = 0,0892 Por lo tanto, la probabilidad de tener 3 accidentes de trfico en 300 viajes es del 8,9% Otro ejemplo: La probabilidad de que un nio nazca pelirrojo es de 0,012. Cul es la probabilidad de que entre 800 recien nacidos haya 5 pelirrojos?

Luego, P (x = 5) = 4,602 Por lo tanto, la probabilidad de que haya 5 pelirrojos entre 800 recien nacidos es del 4,6%.. DISTRIBUCIN GEOMTRICA

Definamos una experiencia aleatoria cuyo resultado slo puede ser el suceso A o su complementario Ac, y que se repite secuencialmente hasta que aparece el suceso A por primera vez. Definamos la variable aleatoria X como el nmero de veces que repetimos la experiencia en condiciones independientes hasta que se d A por primera vez. Bajo estas condiciones, decimos que la variable X sigue una distribucin geomtrica o de Pascal de parmetro p = P(A). La funcin de densidad puede deducirse fcilmente de la definicin: f(k) = P[X = k] = (1 p)k p Algunas puntualizaciones de la definicin de X:

k = 0, 1, 2, ...

Notse que, en esta definicin, condiciones independientes significa que p, la probabilidad de A, y 1 p, la de su complementarioAc, no varan a lo largo de las sucesivas repeticiones de la experiencia. Tal y como la hemos definido, X se refiere al nmero de lanzamientos hasta que se produce A, pero sin contabilizar el ltimo caso en que se da A. Por dicha razn X puede tomar los valores k = 0, 1, 2, ... con probabilidad no nula.

Un ejemplo de este modelo podra ser la experiencia consistente en lanzar sucesivamente un dado regular hasta que aparezca el nmero 6. Si definimos la variable aleatoria X como el nmero de lanzamientos de un dado regular hasta que aparezca un 6, queda claro que Xsigue una distribucin geomtrica de parmetro p = 1/6. DISTRIBUCIN HIPERGEOMTRICA En algunas de las distribuciones estudiadas en Psicologa considerbamos que se realizaban repeticiones independientes de experimentos o pruebas de Bernouilli, en donde la probabilidad de xito permanecera constante en cada repeticin, es decir, las repeticiones independientes de las pruebas eran equivalentes a la seleccin de una muestra con devolucin o reemplazamiento. Sin embargo, esta circunstancia no se presentar siempre, y cuando el muestreo o seleccin de los elementos de la muestra (lo cual equivale a la repeticin de las pruebas de Bernouilli en la distribucin binomial) se lleva a cabo sin reemplazamiento o reposicin la probabilidad de xito no permanece constante como suceda en la binomial, luego la funcin de probabilidad de la variable aleatoria X no responde a la distribucin binomial sino a una nueva distribucin que denominamos hipergeomtrica.

Definimos la variable aleatoria psicolgica hipergeomtrica X como el nmero de elementos que pertenecen a una de las subpoblaciones (consideramos la primera) cunado tomamos una muestra aleatoria sin reemplazamiento de tamao n de la poblacin total N. Para obtener la funcin de probabilidad de la variable aleatoria hipergeomtrica X tenemos que calcular la probabilidad de que dicha variable tome sus diferentes valores x, es decir, P(X = x) y utilizaremos, para ello, la expresada regla de Laplace , en donde la probabilidad vena dada por el cociente entre el nmero de casos favorables partido por el nmero de casos posibles. Los casos posibles son todas las muestras de tamao n obtenidas de la poblacin total o universo de tamao N, que sern las combinaciones sin repeticin: CN,n = CnN En estadstica, la distribucin hipergeomtrica es una distribucin de probabilidad discreta con tres parmetros discretos: N, d y n cuya funcin de probabilidad es: Aqu, el nmero combinatorio se refiere al coeficiente binomial, o al nmero de combinaciones sin repeticin posibles al seleccionar b elementos de un total a. Esta distribucin se refiere a un espacio muestral donde hay elementos de 2 tipos posibles. Indica la probabilidad de obtener un nmero de objetos x de uno de los tipos, al sacar una muestra aleatoria sin reposicin de tamao n, de un total de N objetos, de los cuales d son del tipo requerido. Dicha funcin est bien definida; as pues, las probabilidades son no negativas y, adems, la suma de todas ellas (probabilidad total) es igual a la unidad. El valor esperado o esperanza matemtica de una variable aleatoria X de distribucin hipergeomtrica es el siguiente: , y su varianza viene dada por: Amn de otras aplicaciones de inters en Psicologa, esta distribucin de probabilidad posee gran utilidad en los sondeos de opinin pblica, con lo que podemos realizar una encuesta para intentar conocer si los individuos de una poblacin tienen o no intencin de votar en unas elecciones de tal manera que el nmero de individuos, de una muestra sin reemplazamiento, que tienen intencin de votar sigue una distribucin hipergeomtrica. En la prctica, la aproximacin de una distribucin hipergeomtrica a una distribucin binomial no requiere que la poblacin N sea excesivamente grande. As pues, consideramos que existe una buena aproximacin cuando N>50 y n01N, aunque otros autores consideran, para esta aproximacin, valores diferentes.

You might also like