You are on page 1of 143

Universidade de S

ao Paulo
Faculdade de Filosoa, Ciencias e Letras de Ribeir ao Preto
Departamento de Fsica e Matematica
Relat

orio Final (Bolsa Ensinar com Pesquisa)


Estudo da adequac

ao de bibliografia e elaborac

ao de
material did

atico no ensino e aprendizagem de Probabilidade


e Estat

stica no contexto de cursos de graduac

ao de
car

ater aplicado
Danieli Xavier de Barros
Orientadora: Geraldine Goes Bosco
Ribeirao Preto
Marco de 2010
2
Relatorio Final
O objetivo inicial do projeto era escrever um texto basico de Probabilidade e Inferencia Estatstica
para as disciplinas Introducao `a Teoria de Probabilidade e Introdu cao `a Inferencia Estatstica, ofereci-
das pelo Departamento de Fsica e Matematica (DFM-FFCLRP) ao curso de gradua cao Bacharelado
em Informatica Biomedica (curso interunidades sob responsabilidade do DFM-FFCLRP e Faculdade de
Medicina de Ribeirao Preto (FMRP)), e para as disciplinas Introducao `a Probabilidade e `a Estatstica
I e II oferecidas pelo DFM-FFCLRP ao curso de Ciencias Economicas, da Faculdade de Economia e
Administracao de Ribeirao Preto (FEARP). Alem disso, o projeto se propunha encontrar exemplos de
probabilidade e inferencia estatstica mais proximos das areas dos respectivos grupos.
A implementa cao do projeto resultou no texto, anexado a este relatorio, Introdu cao `a Probabilidade
e Inferencia Estatstica, baseado nas notas de aulas manuscritas e esquematicas da docente, elaboradas
para as disciplinas, acima citadas durante o ano de 2008. As notas de aula foram baseadas principalmente
na experiencia da docente com as areas envolvidas, que sao suas areas de pesquisa, bem como nos textos
de [1], [3] e [4] para a elaboracao da notas de Probabilidade, e nos textos, na ordem de importancia: [4], [2],
[7], [9], [6], [5], para as notas de Inferencia Estatstica. Alem disso, todas as notas de aula elaboradas em
2008 foram novamente revisadas e alteradas, ao longo do ano de 2009, na medida que a docente cou res-
ponsavel pelas disiciplinas: Estatstica Aplicada I (Departamento de Psicologia da FFCLRP), Introdu cao
`a Probabilidade e Estatstica I e II (Ciencias Economicas (FEARP)), Introducao `a Probabilidade e Es-
tatstica I (MAN). Houve tambem a colaboracao indireta dos alunos, que frequentemente reclamavam dos
pontos fracos e omissos da bibliograa disponvel em portugues, assim como da bibliograa disponvel em
ingles, acessvel a parte dos alunos.
A maior parte do trabalho da bolsista foi transformar essas notas de aula em um texto propriamente
dito. Para tanto, ela se baseou na sua propria experiencia adquirida ao cursar as disciplinas Introdu cao `a
Probabilidade e Estatstica I e II, do curso Matematica Aplicada a Negocios (MAN)(curso interunidades
sob responsabilidade do DFM-FFCLRP e da FEARP), bem como nas leituras dos textos [3], [2] e [7].
Dado que a bolsista e uma aluna do curso MAN, o trabalho cou focalizado em exemplos de economia,
negocios, nancas e administra cao de empresas. Contudo, a quantidade de exemplos ainda e bastante
pequena, decorrencia da maior parte estar em bibliograa de lngua inglesa, lngua nao dominada pela
bolsista, e tambem pelo fato do tempo despendido no texto em si ter sido bem maior do que imaginavamos.
Esse dispendio maior de tempo na elabora cao do texto, deveu-se a duas condi coes. A primeira condi cao,
motivadora do projeto, diz respeito `a falta de material especco, tanto em portugues como em ingles,
para as disciplinas citadas. Nesse sentido, na maior parte das vezes, a aluna nao tinha uma bibliograa a
seguir, contando apenas com sua propria experiencia e com a da docente. A segunda condicao envolveu
o fato do texto ter que ser digitado em um editor cientco com o qual os alunos de graduacao nao tem
contato, a nao ser em algumas iniciacoes cientcas. O editor cientco usado foi o Latex, o qual demandou
da bolsista um intenso estudo inicial e estudos paralelos ao longo do ano para aperfeicoamento do uso
dessa ferramenta.
A aluna apresentara posters sobre o texto na Semana de Matematica Aplicada a Negocios, a ser
realizada em setembro deste ano.
Referencias Bibliogracas
[1] BERTSEKAS D. P; TSITSIKLIS J.N. Introduction to Probability. Cambridge: Athena Scientic,
2000.
[2] BUSSAB, W. O; MORETTIN, P. A. Estatstica Basica. 5
a
ed. Sao Paulo: Saraiva, 2002.
[3] DANTAS, C. A. B. Probabilidade: um curso introdutorio. 2
a
ed. Sao Paulo: Editora da Universi-
dade de Sao Paulo, 2004.
[4] DEKKING, F. M; KRAAIKAMP, C.; LOPUHA

A, H. P; MEESTER, L.E. A Modern Introduction


to Probability and Statistics. Londres: Spinger, 2005.
[5] HOGG, R.V; CRAIG, A. Introduction to Mathematical Statistics. 5
a
ed. Upper Saddle River:
Prentice Hall, 1995.
[6] HOGG, R. V; TANIS, E. A. Probability and Statistical Inference. 3
a
ed. New York: Macmillan
Publishing Company, 1988.
[7] MAGALH

AES, N. M; LIMA, A. C. P. Nocoes de Probabilidade e Estatstica. 6


a
ed. rev. Sao
Paulo: Editora da Universidade de Sao Paulo, 2005.
[8] MORETTIN, L. G. Estatstica Basica. v.1, 7
a
ed. Sao Paulo: Makron Books, 1999.
[9] MORETTIN, P. A. Introducao `a Estatstica para Ciencias Exatas. Sao Paulo: Atual, 1981.
3
4 REFER

ENCIAS BIBLIOGR

AFICAS
Universidade de S

ao Paulo
Faculdade de Filosoa, Ciencias e Letras de Ribeir ao Preto
Departamento de Fsica e Matematica
Introduc

ao
`
a Probabilidade e Infer

encia Estat

stica
Texto resultante da implementac ao do Projeto Ensinar com Pesquisa:
Estudo da adequacao de bibliograa e elaboracao de material didatico no ensino e
aprendizagem de Probabilidade e Estatstica no contexto de cursos de graduacao de
carater aplicado
Danieli Xavier de Barros
Orientadora: Geraldine Goes Bosco
Ribeirao Preto
2010
Sumario
1 Probabilidade - Primeiros Conceitos 7
1.1 Experimentos Aleat orios e Espa co Amostral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Conjuntos e suas rela c oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 Conceito de Par Ordenado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Conceito de Produto Cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 Subconjuntos e Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.4 Rela c oes entre conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.6 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3 Abordagem Cl assica da Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 An alise combinat oria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4 Abordagem Frequentista da Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.5 Deni c ao Axiom atica de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.7

Algebra e -

Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.8 Espa co de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.9 Probabilidade Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.9.1 Teorema do Produto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.9.2 Teorema da Multiplicac ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.9.3 Conceito de Parti c ao de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.9.4 Teorema da Probabilidade Total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.9.5 F ormula de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.9.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.10 Independencia de eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.10.1 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2 Variaveis Aleatorias Discretas 41
2.1 Introdu c ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2 Conceito de Vari avel Aleat oria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.3 Distribui c ao de massa de probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4 Fun c oes de Vari aveis Aleat orias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.5 Esperan ca e Vari ancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.5.1 Esperan ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.5.2 Esperan ca para fun c oes de vari aveis aleat orias . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.5.3 Variancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.6 Vari aveis Aleat orias Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.6.1 Uniforme Discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3
4 SUM

ARIO
2.6.2 Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.6.3 Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.6.4 Geometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.6.5 Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.7 Fun c ao de Distribui cao de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.8 Fun c ao Geradora de Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.9 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3 Vetores Aleat orios Discretos 69
3.1 Distribui c ao Conjunta de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.2 Distribui c oes Marginais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.3 Distribui c oes Condicionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.4 Independencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.5 Covari ancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.6 Correla c ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4 Variaveis Aleat orias Contnuas 81
4.1 Esperan ca e Vari ancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.2 Principais Vari aveis Aleat orias Contnuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2.1 Variavel Aleatoria Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2.2 Variavel Aleatoria Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.2.3 Variavel Aleatoria Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.3 Fun c ao de distribui cao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.4 Fun c ao Geradora de Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.4.1 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5 Vetores Aleat orios Contnuos 99
5.1 Introduc ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.2 Densidades Marginais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.3 Independencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.4 Distribui c oes Condicionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
6 Inferencia Estatstica 105
6.1 Introduc ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.2 Estima c ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.2.1 Estima c ao pontual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.2.2 Distribui c ao Amostral da media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.2.3 Exerccios - Teorema Central do Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.2.4 Exerccios - Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.3 Princpio da M axima Verossimilhan ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.3.1 Para Vari avel Aleatoria Discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.3.2 Para Vari avel Aleatoria Contnua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.3.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.4 Intervalo de Conan ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.4.1 Intervalo de conanca para a media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.4.2 Intervalo de Conanca para p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
SUM

ARIO 5
6.4.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.5 Teste de Hip oteses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.5.1 Erro Tipo I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
6.5.2 Erro Tipo II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6.5.3 Rela c oes entre os Erros Tipo I e Tipo II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
6.5.4 Poder e Fun c ao Poder de um Teste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
6.5.5 Teste de Hipoteses para a media de popula c oes normais com vari ancias conhecidas . . . . . 133
6.5.6 P-valor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.5.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
6 SUM

ARIO
Captulo 1
Probabilidade - Primeiros Conceitos
1.1 Experimentos Aleatorios e Espaco Amostral
Quando falamos em Experimento Aleatorio estamos nos referindo a um experimento que utiliza um me-
canismo que gera resultados aleatorios.

E um dos conceitos mais basicos em probabilidade e estatstica.
Entre esses experimentos, os mais comuns e conhecidos de qualquer pessoas sao bingo, loteria, lan camento
de dados, lan camento de uma moeda.
Exemplo 1.1.1 Experimento Aleatorio: jogar uma moeda.
Usemos a seguinte convencao:
H - Head - cara
T - Tail - coroa
Quais sao todos os possveis resultados?
Resposta: H, T.
Exemplo 1.1.2 Experimento Aleatorio: jogar a mesma moeda duas vezes.
Quais sao todos os possveis resultados?
Resposta: HH, HT, TH, TT (observar que a ordem importa).
Exemplo 1.1.3 Experimento Aleatorio: lancamento de um dado.
Quais sao todos os possveis resultados?
Resposta: 1, 2, 3, 4, 5, 6.
Exemplo 1.1.4 Experimento Aleatorio: Lancamento de dois dados iguais.
Quais sao todos os possveis resultados?
Por exemplo, sair 1 no primeiro lancamento e tambem sair 1 no segundo lancamento, que representaremos
por 1 e 1. Os demais possveis resultados sao entao:
1 e 2; 1 e 3; 1 e 4; 1 e 5; 1 e 6;
2 e 1; 2 e 2; 2 e 3; 2 e 4; 2 e 5; 2 e 6;
3 e 1; 3 e 2; 3 e 3; 3 e 4; 3 e 5; 3 e 6;
4 e 1; 4 e 2; 4 e 3; 4 e 4; 4 e 5; 4 e 6;
5 e 1; 5 e 2; 5 e 3; 5 e 4; 5 e 5; 5 e 6;
6 e 1; 6 e 2; 6 e 3; 6 e 4; 6 e 5; 6 e 6;
7
8 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


As descri coes acima dos possveis resultados de um Experimento Aleatorio sao bastante informais.
Precisamos introduzir alguma estrutura matematica para descrever de maneira formal os resultados de
um experimento aleatorio.
Denicao 1.1.1 (Espaco Amostral) Vamos chamar de Espaco Amostral o conjunto de todos os possveis
resultados de um experimento aleat orio.
Pergunta ao leitor: qual foi a estrutura matematica que usamos nessa deni cao?
1.2 Conjuntos e suas relac oes
O conceito de conjunto e fundamental na Teoria de Probabilidades. Talvez isso so que claro mais tarde.
Num primeiro momento, entender bem as relacoes entre conjuntos vai facilitar muito o entendimento de
diversos conceitos necessarios para denir o que se chama de Espa co de Probabilidade que e a estrutura
fundamental na solu cao de qualquer problema da area. E num segundo momento, se percebe que nao da
para falar em probabilidade sem falar em conjuntos.
Informalmente falando, um conjunto e uma colecao de objetos.
Representamos um conjunto comumente por letras mai usculas (A, B por exemplo) e os objetos sao
colocados entre chaves (. . .).
Conjuntos podem ser tambem representados pelos chamados diagramas de Venn.
Os elementos de um conjunto podem ser representados por letras min usculas: a, b, . . . y, z, .
A rela cao de um elemento a pertencer a um conjunto A e indicada pelo smbolo de pertence: .
Assim temos a A.
Existem varias maneiras de descrever que objetos estao contidos em um conjunto A.
(a) Podemos fazer uma lista dos elementos de A. Por exemplo, A = 1, 2, 3, 4 descreve o
conjunto formado pelos inteiros positivos maiores ou iguais a 1 e menores ou iguais a 4.
(b) Podemos descrever um conjunto A por meio de palavras. Por exemplo, poderemos dizer
que A e o conjunto dos n umeros inteiros pares positivos. E podemos descreve-lo de maneira
mais formal
A = x[x = 2 k, k = 1, 2, . . .
isto e , A e o conjunto de todos os xs tal que x e um n umero inteiro par positivo.
O conjunto vazio e representado pelo smbolo e e o conjunto que nao contem elementos.
O Espaco Amostral e denotado pela letra grega (omega). Um elemento de e chamado de ponto
amostral e representado pela letra grega min uscula (omegazinho). Voltando aos Exemplos 2.2.1,
1.1.2, 2.1.1 e 1.1.4, quais sao os espacos amostrais que aparecem nesses exemplos?
No exemplo 2.2.1 temos
1
= H, T.
1.2. CONJUNTOS E SUAS RELAC

OES 9
No exemplo 1.1.2 temos
2
= HH, HT, TH, TT. Observe que no lan camento de duas moedas,
a ordem importa, pois HT e diferente de TH.
No exemplo 2.1.1 temos
3
= 1, 2, 3, 4, 5, 6.
Pergunta ao leitor: Como representar, de maneira formal, os elementos do Espaco Amostral no caso do
exemplo 1.1.4 ? Para responder essa pergunta precisamos das deni coes de pares ordenados e produto
cartesiano, exibidas a seguir.
1.2.1 Conceito de Par Ordenado
Intuitivamente, um par ordenado consiste de dois elementos, digamos a e b, dos quais um, no caso o
elemento a, e designado como primeiro elemento e o outro como segundo elemento, no caso o elemento b.
Um par ordenado e denotado por (a, b). Dois pares ordenados (a, b) e (c, d) sao iguais se, e somente se,
a = c e b = d. Em smbolos
(a, b) = (c, d) a = c e b = d.
Observacoes:
os pares ordenados (2, 3) e (3, 2) sao diferentes.
podemos ter pares ordenados com os primeiros e segundos elementos identicos tais como: (1, 1),
(5, 5) e (7, 7).
1.2.2 Conceito de Produto Cartesiano
Dados dois conjuntos A e B, o produto cartesiano desses dois conjuntos, simbolizado por A B, e
o conjunto de todos os pares ordenados cujo primeiro elemento pertence ao conjunto A e o segundo
elemento pertecente ao conjunto B.
Exemplo 1.2.1 Produto cartesiano de A e B.
se A = 1, 2, 3 e B = 2, 3, 4 entao o produto cartesiano desses dois conjuntos sera :
AB = (1, 2), (1, 3), (1, 4), (2, 2), (2, 3), (2, 4), (3, 2), (3, 3), (3, 4).
Observe que o elemento (4, 1) nao pertence a AB.
se A = B = 0, 1 entao o produto cartesiano desses dois conjuntos sera :
AB = AA = (0, 0), (0, 1), (1, 0), (1, 1).
Voltando ao lancamento de dois dados, temos que
4
e o produto cartesiano do conjunto A = 1, 2, 3, 4, 5, 6
por ele mesmo, ou seja,
4
= AA e seus elementos sao representados por pares ordenados:

4
= (1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6),
(3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6), (4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6),
10 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


(5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6), (6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6).
Observe que tambem poderamos ter representado
2
(o espaco amostral do lancamento de duas
moedas) atraves de pares ordenados. Para tanto, basta perceber que
2
e o produto cartesiano de
1
(o
espaco amostral do lan camento de uma moeda) por ele mesmo, ou seja,

2
=
1

1
= H, T H, T = (H, H), (H, T), (T, H), (T, T).
1.2.3 Subconjuntos e Eventos
Se todo elemento de um conjunto A for tambem elemento de um conjunto B, diremos que A e um
subconjunto de B e escrevemos simbolicamente A B.
Exemplo 1.2.2 Sejam os conjuntos A = 2, 3 e B = 1, 2, 3, 4. Todos os elementos do conjunto A
pertencem ao conjunto B, portanto o conjunto A e subconjunto de B, ou A B.
Os subconjuntos do espaco amostral sao chamados de eventos.
Exemplo 1.2.3 Voltando ao Exemplo 2.1.1, onde o Experimento Aleatorio e o lancamento de um dado,
e = 1, 2, . . . , 6, vamos considerar o conjunto sair n umeros pares e chama-lo de A, ou seja
A = 2, 4, 6.
Temos que A , e dizemos que A e um evento de .
Exemplo 1.2.4 Consideremos o seguinte Experimento Aleatorio: Lancar tres moedas distintas uma
vez. Temos entao que o Espaco Amostral e dado por
= HHH, HHT, HTH, THH, HTT, THT, TTH, TTT,
Vamos considerar o evento A= nao sair mais do que uma cara (H) nos lancamentos,
A = TTT, THT, HTT, TTH.
Dizemos que um evento A ocorre se o resultado de um experimento aleatorio pertencer a ele. No
exemplo 1.2.3, se jogarmos o dado e sair 2, temos que o evento A = 2, 4, 6 ocorreu, pois 2 A (o ponto
amostral 2 pertence ao evento A). Por outro lado, dizemos que um evento A nao ocorre se o resultado
de um experimento aleatorio nao pertencer ao conjunto A. No exemplo 1.2.3, se jogarmos o dado e sair
3, temos que o evento A nao ocorreu, pois 3 / A (o ponto amostral 3 nao pertence ao evento A).
Um evento que contem um unico elemento e chamado de evento elementar. No exemplo 2.1.1, o evento
B =sair um n umero divisvel por 5(B = 5) e um evento elementar.
Para todo conjunto A, temos que A.
1.2.4 Relacoes entre conjuntos
1) Uniao: Sejam A e B dois eventos de . A uniao de A e B, denotada A B, e o evento em que so A
ocorre ou so B ocorre ou ambos ocorrem. Representamos a uniao de A e B, por:
A B = : A ou B ou ( A e B).
1.2. CONJUNTOS E SUAS RELAC

OES 11
Seja A
1
, A
2
, . . . , A
n
uma sequencia nita de eventos, entao
n
_
i=1
A
i
representa a uniao desses
eventos, e corresponde ao evento em que ao menos um dos A
i
ocorre.
Seja A
1
, A
2
, . . . uma sequencia innita de eventos, temos que

_
i=1
A
i
representa a uniao desses
eventos, e corresponde ao evento em que pelo menos um dos A
i
ocorre.
Exemplo 1.2.5 Voltando ao lancamento de dois dados, vamos considerar os eventos A =sair
soma igual a 5 nos dois lancamentose B = sair soma igual a 7 nos dois lancamentos.
Queremos saber quais sao os resultados que correspondem `a ocorrencia de A, de B ou de ambos.
Temos
A = (1, 4), (2, 3), (3, 2), (4, 1)
e
B = (1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1).
Logo
A B = (1, 4), (2, 3), (3, 2), (4, 1), (1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1).
2) Intersecao: A intersecao de A e B, denotada A B, e o evento em que A ocorre e B ocorre.
Representamos a intersecao de A e B, por:
A B = : A e B.
Seja A
1
, A
2
, . . . , A
n
uma sequencia nita de eventos , entao
n

i=1
A
i
representa a intersec cao
desses eventos e corresponde ao evento em que todos os A
i
ocorrem.
Para uma sequencia innita de eventos A
1
, A
2
, . . ., temos que

i=1
A
i
representa a intersec cao
desses eventos e corresponde ao evento em que todos os A
i
ocorrem.
Exemplo 1.2.6 Um baralho possui 52 cartas. Estas cartas estao divididas em 4 naipes: ouros,
copas, espadas e paus. As cartas dos naipes de ouros e copas sao vermelhas, ja as cartas dos naipes
espadas e paus sao pretas.
Cada naipe possui 13 cartas, sendo que 3 delas sao chamadas de dama, valete e rei, e indenticadas
pelas letras Q,J e K, respectivamente. As demais cartas de um naipe s ao numeradas de 2 a 10, e a
carta que simboliza o n umero 1, e chamada de as, representada pela letra A.
Vamos considerar o experimento aleatorio em que uma carta e retirada ao acaso de um baralho.
Quais sao os possveis resultados?
Vamos representar os naipes pelas letras mai usculas: O = ouros, C = copas, E= espadas e P =
paus. Por exemplo, se sair a carta 2 de paus, esse resultado e representado por 2P, ou se sair a
carta valete de copas, esse resultado e representado por JC.
Logo, o espaco amostral e :
= AO, 2O, 3O, 4O, 5O, 6O, 7O, 8O, 9O, 10O, QO, JO, KO,
12 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


AC, 2C, 3C, 4C, 5C, 6C, 7C, 8C, 9C, 10C, QC, JC, KC,
AE, 2E, 3E, 4E, 5E, 6E, 7E, 8E, 9E, 10E, QE, JE, KE,
AP, 2P, 3P, 4P, 5P, 6P, 7P, 8P, 9P, 10P, QP, JP, KP
Vamos chamar de A o evento retirar uma dama. Entao
A = QC, QO, QP, QE,
Se B for o evento retirar uma carta vermelha, entao
B = AC, 2C, 3C, 4C, 5C, 6C, 7C, 8C, 9C, 10C, JC, QC, KC,
AO, 2O, 3O, 4O, 5O, 6O, 7O, 8O, 9O, 10O, JO, QO, KO.
Portanto, se A B representa o evento retirar uma dama vermelha, entao temos que
A B = QO, QC.
3) Complemento: O complemento de A, denotado A
c
, e o evento que ocorre quando A nao ocorre, ou
seja
A
c
= : , A.
Exemplo 1.2.7 Voltando ao lancamento de um dado, seja A o evento sair um n umero par, entao
A = 2, 4, 6, e nesse caso A
c
= 1, 3, 6.
4) Diferenca: A diferenca entre o evento A e o evento B, A B, e o conjunto dos elementos que
pertencem ao evento A, mas nao pertence ao evento B, ou seja
AB = A B
c
= : A e , B.
Exemplo 1.2.8 Considerando novamente o experimento aleatorio, lancamento de dois dados iguais,
chamamos de A o evento sair n umeros primos nos dois lancamentos. Portanto,
A = (2, 2), (2, 3), (2, 5),
(3, 2), (3, 3), (3, 5), (5, 2), (5, 3), (5, 5).
Chamamos de B o evento sair n umeros mpares nos dois lancamentos, logo
B = (1, 1), (1, 3), (1, 5), (3, 1), (3, 3), (3, 5), (5, 1), (5, 3), (5, 5)
e
AB = (2, 2), (2, 3), (2, 5), (3, 2), (5, 2).
5) Diferenca Simetrica: A diferen ca simetrica de A e B, denotada por A B, e o conjunto dos
elementos que ou pertencem a A ou pertencem a B, mas nao pertencem a ambos os conjuntos A e
B simultaneamente, ou seja
AB = (A B
c
) (B A
c
) = : A e , B ou , A e B.
1.2. CONJUNTOS E SUAS RELAC

OES 13
Exemplo 1.2.9 Voltando ao lan camento de dois dados iguais, seja A o evento sair dois n umeros
mpares, cuja soma seja 6,
A = (1, 5), (3, 3), (5, 1).
Seja B o evento em que saem n umeros pares ou n umeros iguais, tais que somam 6,
B = (2, 4), (4, 2), (3, 3).
Logo temos que a diferenca simetrica de A e B e:
AB = (1, 5), (5, 1), (2, 4), (4, 2).
6) Conjuntos Disjuntos: Se os conjuntos A e B nao possuem elemento em comum, dizemos que A e
B s ao conjuntos disjuntos. Em smbolos matematicos, A e B sao disjuntos, se:
A B = .
Neste caso, os eventos A e B tambem sao chamados mutualmente exclusivos.
Exemplo 1.2.10 Sejam A e B dois eventos quaisquer de . Observemos que os conjuntos A
B, AB e BA sao dois a dois disjuntos. Podemos tambem observar que pela relacao de diferenca,
os conjuntos AB e B sao disjuntos.
Exemplo 1.2.11 Novamente considerando o lancamento de um dado, seja A o evento sair n umeros
pares, e seja B o evento sair n umeros mpares. Entao A e B sao disjuntos, pois nao ha um elemento
comum aos eventos A e B, ja que nao exite um n umero que seja simultaneamente par e mpar.
Antes de demonstrar algumas propriedades de conjuntos, precisamos saber quando um conjunto e igual
a outro. Dados dois conjuntos quaisquer A e B, esses conjuntos sao iguais se, e somente se, eles possuem
os mesmos elementos, isto e,
A = B A B e B A.
A partir desse resultado vamos derivar algumas propriedades, que usaremos mais tarde quando de-
nirmos o conceito de probabilidade:
1)
c
= .
Prova: Temos que provar que
c
e que
c
. Nesse tipo de prova costumamos tomar um
elemento generico de um dos conjuntos e mostrar que ele pertence ao outro conjunto. Vamos chamar
esse elemento de .
Vamos primeiro provar que
c
. Neste caso vamos tomar pertencente a
c
, que representamos
por
c
, que implica em , , que por sua vez implica em . Em smbolos matematicos,
essas ideias cam resumidas na seguinte senten ca:

c
, .
Agora, vamos provar que
c
. Usaremos uma tecnica que se chama provar por vacuidade,
uma vez que o conjunto vazio nao contem nenhum elemento.
14 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


Comecemos pensando no que signica A, sendo A um conjunto qualquer. Por mais absurdo
que pareca, signica que os elementos do conjunto vazio () pertencem a A tambem. Como nao
tem elementos, podemos armar que todos os elementos de pertencem a Ae portanto A.
Podemos concluir que o conjunto vazio e subconjunto de qualquer conjunto. E portanto, neste caso
especco, temos que
c
, nalizando a prova.
2) ( A) = .
Prova: Temos que provar que ( A) e ( A). Primeiramente vamos provar que
( A) . Tomamos pertencente a ( A), que representamos por ( A), que implica
pela relacao de uniao de conjuntos que pertence a ou pertence a A. Na simbologia matematica,
temos que:
( A) ou A.
Mas como A temos e portanto .
Agora temos que provar que ( A). O resultado ca provado se usarmos a ideia de que um
conjunto sempre esta contido na uni ao dele com outro conjunto. Nesse caso
A ( A) e ( A).
3) ( A) = A.
Prova: Temos que provar que (A) A e A (A). Vamos primeiro provar que (A) A.
Nesse caso, vamos tomar ( A), que implica pela, relacao de intersecao de conjuntos, que
pertence a e pertence a A. Em smbolos matematicos, temos:
( A) e A A.
Agora, vamos mostrar que A ( A). Tomemos pertencente a A. Como A , temos que
todo pertencente a A, tambem pertence a . Portanto, nalizando a prova temos que pertence
a interse cao de A e , ou seja, (A ).
4) (A A
c
) = .
Prova: Temos que provar que (A A
c
) e (A A
c
).
Comecaremos provando que (AA
c
) . Nesse caso tomomamos pertencente a (AA
c
), o que
signica que pertence a A ou pertence ao seu complementar (A
c
). Como A e um subconjunto
de , pertence a A implica em . Analogamente, A
c
, e portanto
c
implica em
.
Agora precisamos provar que (A A
c
). Tomamos pertencente a , o que implica em A
ou A
c
. Ou seja, se um elemento pertence a , ou ele pertence a um subconjunto (A) de ou
pertence a ao complementar desse subconjunto (A
c
), que representamos por (AA
c
). Portanto
(A A
c
) , nalizando nossa prova.
5) Leis de De Morgan.
5.1) (A B)
c
= A
c
B
c
.
1.2. CONJUNTOS E SUAS RELAC

OES 15
5.2) (A B)
c
= A
c
B
c
.
Prova de 5.1: Temos que provar que (A B)
c
(A
c
B
c
) e (A
c
B
c
) (A B)
c
.
Vamos primeiro provar que (A B)
c
(A
c
B
c
). Tomamos entao pertencente a (A B)
c
.
Isso equivale a dizer, que nao pertence a uniao de A e B, o que denotamos por , (AB),
que implica em , A e , B. Em smbolos matematicos, temos:
(A B)
c
, (A B) , A e , B.
Como , A e , B, temos que A
c
e B
c
, o que implica que (A
c
B
c
). Portanto
temos que, (A B)
c
(A
c
B
c
).
Agora, vamos mostrar que A
c
B
c
(A B)
c
. Tomamos pertencente a A
c
B
c
. Assim se
pertence a A
c
e B
c
, temos que , A e , B. Em smbolos matematicos, temos:
(A
c
B
c
) A
c
e B
c
, A e , B.
Logo, se , A e , B, temos que , (A B). Isso implica que (A B)
c
. Portanto
concluimos que A
c
B
c
(A B)
c
, nalizando nossa prova.
Deixamos como exerccio para o leitor, a prova de (5.2).
As Leis de De Morgan tambem se aplicam ha uma sequencia nita de eventos (A
1
, A
2
, ..., A
n
) e para
uma sequencia innita (enumeravel) de eventos (A
1
, A
2
, ...) de . Assim, temos
5.3)
_
n
_
i=1
A
i
_
c
=
n

i=1
A
i
c
.
5.4)
_
n

i=1
A
i
_
c
=
n
_
i=1
A
i
c
.
Prova de 5.3:
Temos que provar que
_
n
_
i=1
A
i
_
c

i=1
A
i
c
e
n

i=1
A
i
c

_
n
_
i=1
A
i
_
c
.
Primeiro vamos provar que
_
n
_
i=1
A
i
_
c

i=1
A
i
c
. Seja (A
1
, A
2
, ..., A
n
) uma sequencia de eventos
nita , tomamos pertencente a
_
n
_
i=1
A
i
_
c
. Isso equivale a dizer, que ,
n
_
i=1
A
i
, e que por
sua vez implica que nao pertence a nenhum dos eventos (A
i
). Em simbolos matematicos,
temos

_
n
_
i=1
A
i
_
c
,
n
_
i=1
A
i
, A
i
i = 1, 2, .., n.
Logo, w A
i
c
para todo i. Da decorre que pertence a intersecao de todos A
i
c
, portanto
temos que
_
n
_
i=1
A
i
_
c

i=1
A
i
c
.
Nessa segunda parte da prova vamos mostrar que
n

i=1
A
i
c

_
n
_
i=1
A
i
_
c
. Tomamos entao
pertencente a
n

i=1
A
i
c
. Assim temos que pertence a todos os A
i
c
, o que implica que , A
i
,
16 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


para todo i, que por sua vez implica que ,
n
_
i=1
A
i
. Assim onclui-se que
_
n
_
i=1
A
i
_
c
.
Portanto, nalizando a prova, temos que
n

i=1
A
i
c

_
n
_
i=1
A
i
_
c
.
1.2.5 Exerccios
1. Experimento Aleatorio: Um dado e lancado duas vezes.
(a) Descreva o espaco amostral ().
(b) Descreva os seguintes eventos
i. A=A soma do resultado do lancamento do primeiro dado com o resultado do lancamento
do segundo dado e igual a 2.
ii. B=A soma do resultado do lan camento do primeiro dado com o resultado do lancamento
do segundo dado e igual a 7.
iii. C=o resultado do lan camento do primeiro dado e um n umero mpar.
iv. D=o resultado do lan camento do segundo dado e um n umero mpar.
v. E=A soma do resultado do lan camento do primeiro dado com o resultado do lancamento
do segundo dado e mpar.
2. Experimento Aleatorio: Um dado e lancado e uma mesma moeda e jogada duas vezes.
(a) Descreva o espaco amostral ().
(b) Descreva os seguintes eventos
i. A=no lancamento do dado sai 6, e no lan camento da moeda duas vezes, sai pelo menos
uma cara.
ii. B=no lan camento do dado sai um n umero par, e no lancamento da moeda duas vezes, sai
cara na segunda vez.
iii. C=no lancamento do dado sai um n umero menor que 5, e no lan camento da moeda duas
vezes, sai pelo menos uma coroa.
3. Suponha que voce anote o n umero de dias em que choveu na ultima se-mana.
(a) Quem e o espaco amostral?
(b) Quem e o evento A ter ocorrido mais dias com chuva do que dias sem chuva?
4. Em uma urna ha a bolas amarelas e b bolas brancas. Alguem retira c bolas da urna sem reposicao,
de tal forma que c mina, b
(a) Apenas descreva em palavras o espaco amostral.
(b) Quem e o evento A ter retirado o mesmo n umero de bolas brancas e amarelas? Quem e A
se c for um n umero mpar?
Relacoes entre Conjuntos
5. Desenhe o diagrama de Ven do conjunto (AB) (B A)).
1.2. CONJUNTOS E SUAS RELAC

OES 17
6. Desenhe o diagrama de Venn para os seguintes eventos.
(a) A B C
(b) A
c
B C
7. Mostre que para os eventos A e B vale que
(A B)
c
= A
c
B
c
8. Sejam A, B e C eventos de . Demonstre as seguintes relacoes:
(a) (
c
)
c
=
(b) (A
c
)
c
= A
(c) A A
c
=
(d) A =
(e) A A
c
=
(f) A = A
(g) (A B)
c
= A
c
B
c
(h) (A B)
c
= A
c
B
c
(i) (A B) = ( A) ( B)
(j) A (B C) = (A B) (A C)
(k) A (B U) = (A B) (A C)
(l) (A B) C = (A C) (B C)
(m) (A B) C = (A C) (B C)
(n) A (B C) = (A B) C
(o) A = (A B) (A B
c
)
9. Sejam A e B dois eventos quaisquer. Considere que eles nao sejam disjuntos (A B ,= ). Mostre
que
(a) A B = (A B) (AB) (B A)
(b) A B = A (B A)
(c) A B = B (AB)
10. Sejam A e B dois eventos quaisquer. Considere que eles nao sejam disjuntos (A B ,= ).
(a) Os eventos (A
c
B) e (A
c
B
c
) sao disjuntos? (dica: use os diagramas de Venn para ter intui cao
sobre os eventos. )
(b) Mostre que A
c
= (A
c
B) (A
c
B
c
)
(c) Os eventos (A
c
B), (A
c
B
c
) e A B
c
sao disjuntos?
(d) Mostre que (A B)
c
= (A
c
B) (A
c
B
c
) (A B
c
).
Dicas para os exerccios 5, 6 e 7.
18 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


Dica 1: Use os diagramas de Venn para ter intui c ao sobre os eventos. ATENC

AO: Apresentar so os
diagramas n ao ser a considerado como res-posta correta. Usar os diagramas tem como objetivo ajud a-
lo(a) a entender melhor as rela c oes entre os conjuntos, o que deve ajud a-lo(a) nas demons-tra c oes.
Dica 2: Caso ache estranhas as igualdades acima, mesmo usando os diagramas de Venn, voce pode
usar um exemplo concreto como: Considere o lan camento de um dado. Sejam A o evento sair n umero
mpar, e B sair n umero menor que 4. ATENC

AO: Apresentar s o o exemplo tambem n ao ser a
considerado como resposta correta. Usar o exemplo tem como objetivo ajud a-lo(a) a entender melhor
as relac oes entre os conjuntos, o que deve ajud a-lo(a) nas demonstra c oes.
1.2.6 Complementos
Denicao 1.2.1 Um conjunto e enumeravel se existir uma bijecao entre esse conjunto e o dos n umeros
naturais (N).
Exemplo 1.2.12 Os seguintes conjuntos sao denominados enumeraveis.
(Z) e enumeravel : 3, 2, 1, 0, 1, 2, 3, ....
Todo conjunto nito a
1
,....a
n
e enumeravel.
O conjunto de todas as sequencias binarias nitas e enumeravel:
0, 1, 00, 11, 01, 10, 000, 010, 001, 100, .....
Observacao: Os n umeros binarios sao utilizados pelo computador para processar dados.

E um sistema
de numeracao que em vez de utilizar 10 algarismos, utiliza apenas dois (0,1).
Resumindo, pode se dizer que o Espa co Amostral pode ser um conjunto nito (exemplos 2.2.1, 1.1.2,
2.1.1 e 1.1.4), innito enumeravel (conjunto dos n umeros pares) ou innito nao enumeravel (conjunto dos
n umeros reais do intervalo [0, 1]).
1.3 Abordagem Classica da Probabilidade
Quando realizamos um experimento aleatorio, a pergunta que logo surge e: Qual a probabilidade de certo
evento acontecer?
Assim, para o lancamento de um dado honesto, se perguntamos: Qual a probabilidade de sair um
n umero par? Quase todos respondem (1/2).
Essa conclusao esta baseada no conceito primitivo de eventos igualmente provaveis, pois se o dado for
honesto cada uma das faces tem igual probabilidade de sair, ou seja, (1/6). Assim como temos 3 n umeros
pares, a probabilidade de sair um n umero par e 3(1/6) = (1/2). Mais informalmente, podemos dizer que
metade das ocorrencias correspondem a n umeros pares, ou ainda, contamos o n umero de ocorrencias que
nos interessam e dividimos pelo total.
As duas hipoteses que justicam essa forma de pensar sao:
(1) O espaco amostral, =
1
,
2
, . . . ,
n
, e nito.
(2) Cada um dos resultados e equiprovavel, ou seja, a probabilidade de cada um dos eventos elementares
,w
i
(i = 1 . . . , n), ocorrer e (1/n).
1.3. ABORDAGEM CL

ASSICA DA PROBABILIDADE 19
Essas hipoteses guiaram as primeiras tentativas de modelamento dos jogos de azar, principalmente a
partir do seculo XVII. Basicamente, elas nos permitem dizer que a probabilidade de um evento ocorrer, e
o n umero de resultados favoraveis a esse evento, dividido pelo n umero total de resultados, condiderando
todos os resultados equiprovaveis. Convencionou-se chamar essa abordagem de versao Classica da proba-
bilidade. Assim, temos que dado o espaco amostral e um evento A, a probabilidade de A ocorrer ca
denida como:
P(A) =
n(A)
n()
=
[A[
[[
,
onde n(A) e o n umero de elementos de A e que tambem podemos representar por [A[, e n() = [[ e o
n umero de elementos de .
Exemplo 1.3.1 Considerando novamente o lancamento de duas moedas iguais, onde temos
= HH, HT, TH, TT.
Seja A o evento sair pelo menos uma cara (H), ou seja, A = HH, HT, TH. Supondo que as moedas
sejam honestas, queremos saber qual e a probabilidade de A ocorrer.
Temos [A[ = 3 e [[ = 4, logo pela abordagem classica, a probabilidade de A ocorrer e :
P(A) =
3
4
.
As hipoteses anteriores nos levam a concluir que:
1. P(A) 0, para todo A . Isto e, nao podemos ter um n umero negativo de elementos.
2. P() =
[[
[[
= 1.
3. Se A e B sao eventos disjuntos entao:
P(A B) = P(A) +P(B).
Exemplo 1.3.2 Sejam A =
1
,
2
,
3
e B =
4
,
8
,
9
,
10
eventos pertencentes ao espaco
amostral, =
1
,
2
, ...,
10
. Por meio da abordagem classica, temos que
P(A) =
[A[
[[
=
3
10
e P(B) =
[B[
[[
=
4
10
.
Sabemos pela relacao de uni ao, que A B =
1
,
2
,
3
,
4
,
8
,
9
,
10
.
Portanto concluimos que a probabilidade da uniao dos eventos A e B, e a soma das probabilidades
desses dois eventos, ou seja,
P(A B) =
[A B[
[[
=
7
10
=
(3 + 4)
10
=
3
10
+
4
10
= P(A) +P(B).
20 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


1.3.1 Analise combinatoria
Vimos na secao anterior que para calcularmos a probabilidade de eventos de um espa co amostral nito,
cujos eventos elementares sao equiprovaveis, basta que contemos o n umero de elementos do evento em
questao e o n umero de elementos do espa co amostral ().
Mas quando n for muito grande, contar na mao pode nao ser possvel. Nesse caso a analise com-
binatoria e simplesmente um metodo de contagem que nos auxilia, para evitar que tenhamos que escre-
ver/enumerar toda a lista de resultados possveis. Contudo, sao poucos os problemas de contagem que
podem ser resolvidos por meio das tecnicas que desenvolveremos nessa se cao.
Para motivacao vamos considerar dois problemas:
Probema 1: No congresso brasileiro sempre ha CPIs. A ultima delas a ser formada e para investigar
o grande n umero de reprovacoes nos cursos de calculo. A comissao sera formada por dois parlamentares,
um membro do senado e outro da camara dos deputados. Sabemos que o Brasil possui 81 senadores e 513
deputados.
Questao: De quantas maneiras pode ser formada essa comissao?
Vamos comecar escolhendo o membro do senado, de quantas maneiras podemos fazer isso?
Probema 2: Houve um protesto geral pedindo que os membros da CPI fossem de estados diferentes.
Questao: Considerando esse prostesto, de quantas formas pode ser formada essa comissao?
Para responder a essa pergunta devemos pensar de duas formas:
1. Podemos escolher primeiro o senador e depois selecionar um deputado que nao seja do mesmo
estado do senador escolhido.
2. Como nao conhecemos o n umero de deputados que cada estado apresenta, mas sabemos que cada
estado do pas possui tres senadores, podemos inverter a ordem das escolhas. Entao apos escolher o de-
putado, escolhemos o senador entre os 78 senadores que nao pertence ao mesmo estado do deputado ja
escolhido.
Usaremos a analise combinatoria para resolver casos semelhantes a estes. Veremos que cada problema
devera ser resolvido por meio de um metodo de contagem especco.
Para classicar os casos que poderao ser resolvidos pela analise combinatoria, devemos saber que:
1. Ha casos em que a ordem dos elementos dos arranjos importa. Isto e, quando temos dois arranjos com
os mesmos elementos, porem em ordens distintas, se esses arranjos forem considerados diferentes,
entao dizemos que a ordem dos elementos importa. Caso contrario a ordem dos elementos dos
arranjos nao importa.
2. Temos tambem os casos em que os arranjos sao feitos com ou sem reposicao. Em um arranjo
com reposi cao, a ideia fundamental e que escolhido um elemento, nada impede que ele volte a ser
escolhido.
Os casos podem ser divididos em:
(Ordem importa, com reposi cao)
(Ordem importa, sem reposi cao)
(Ordem nao importa, sem reposi cao)
1.3. ABORDAGEM CL

ASSICA DA PROBABILIDADE 21
(Ordem nao importa, com reposi cao)
1. Ordem importa, com reposicao
O n umero de maneiras distintas para selecionar r elementos com reposicao, de um conjunto com n
elementos, e dado por:
(n)
r
.
Exemplo 1.3.3 As placas de carro no Brasil sao formadas por tres letras do alfabeto e quatro alga-
rismos entre 0 e 9. Tanto as letras quanto os algarismos podem ser repetidos. Assim, se quisermos
formar a parte das letras de uma placa, a escolha da primeira nao impoe restricoes `a escolha da
segunda e a escolha da terceira tambem sera independente das letras escolhidas anteriormente. Alem
disso, para formar a parte das letras, a ordem das letras escolhidas importa. Isto e, duas placas que
possuam a mesma sequencia de algarismos, mas a parte de letras de uma e ABC e da outra e CBA,
sao consideradas diferentes.
Logo, a escolha de letras de uma placa de carro no Brasil, pode ser feita de (26)
3
maneiras.
Exemplo 1.3.4 O lancamento de uma moeda e um exemplo com reposicao. O espaco amostral e
= H, T.
O fato de obtermos cara, n ao impede em obter cara novamente no proximo lancamento.
Portanto, jogando-se uma moeda n vezes, temos (2)
n
resultados possveis.
2. Ordem importa, sem reposicao
O n umero de maneiras distintas para selecionar r elementos sem reposicao, de um conjunto com n
elementos, denotado como (n)
r
, e dado por:
(n)
r
= n(n 1) . . . n(n r + 1).
Ou seja, temos n possibilidades na selecao do primeiro elemento, (n 1) possibilidades na sele cao
do segundo e assim por diante ate chegar a (n(r1)) possibilidades na selecao do ultimo elemento.
Observacao: Como selecionamos os objetos sem reposicao, nao podemos ter r maior que n , ou
seja, nesse caso r n.
Alguns casos especiais:
a) Quando n = r. O n umero de maneiras de ordenar n elementos distintos e:
n! = n(n 1) . . . (2)(1).
Esse n umero e chamado de fatorial de n. Por convencao, 0! = 1.
Exemplo 1.3.5 Tenho 10 livros diferentes e quero distribu-los na primeira parte de uma
prateleira, de quantas maneiras diferentes posso fazer isso?
Resposta: 10!.
Exemplo 1.3.6 Quantos anagramas da palavra VIDA podemos conseguir?
Resposta: 4!.
22 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


b) O que zemos no caso anterior, foi arranjar os objetos em uma linha ou um ao lado do outro.
Um outro caso especial consiste arranja-los em um crculo. Por exemplo, podemos pensar numa
mesa redonda com n lugares, onde se sentarao n pessoas para uma reuniao.
Temos que, o n umero de maneiras de dispor n objetos distintos em torno de um crculo e
(n1)!. Nessa contagem interessa apenas a posicao relativa dos objetos entre si, ou seja, duas
disposi coes sao consideradas indistinguveis se uma pode ser obtida da outra atraves de uma
rotacao conveniente dos objetos.
Exemplo 1.3.7 O presidente e os 10 diretores de uma empresa vao se reunir numa sala onde
ha uma mesa redonda. De quantas maneiras os 11 executivos podem se sentar?
Primeiro observamos que se cada uma das pessoas mudar para a cadeira `a sua direita, a distri-
buicao das pessoas na mesa continua igual a anterior. O mesmo acontece se todas as pessoas
mudarem para a cadeira `a sua esquerda. Agora, se duas pessoas trocarem de lugar, entre si, a
disposicao muda e temos um novo arranjo.
Voltando `a reuniao dos executivos, vamos introduzir o tempo para facilitar a contagem dos
casos:
O presidente senta primeiro (nao importando a cadeira que ele escolheu para se sentar). Temos
que os demais lugares deixaram de ser equivalentes. Por exemplo, temos a primeira cadeira
`a direita do presidente e a primeira cadeira ` a esquerda do presidente, a quarta `a direita do
presidente e a quarta `a esquerda do presidente, e assim por diante.
Portanto agora devemos perguntar: De quantas maneiras os 10 diretores podem se sentar em
10 cadeiras diferentes?
Resposta: (n 1)! = (11 1)! = 10!.
c) Mais um caso. O n umero de maneiras distintas de arranjar n objetos, sendo que r sao iguais, e
dado por:
n!
(n r)!
.
Exemplo 1.3.8 De quantas formas as letras da palavra AMAR podem ser arranjadas, ou seja,
quantos anagramas tem a palavra AMAR ?
Se todas as letras fossem diferentes, A e /, por exemplo, teramos 4! anagramas. Mas agora
temos duas letras A, logo muitos anagramas sao identicos. Por exemplo:
(AM / R = /MAR e M/RA = MAR/),
sao o mesmo anagrama.
Nesse caso, como temos duas letras repetidas, contamos duas vezes cada anagrama. Entao para
obter o n umero de anagramas, dividimos 4! por 2. Isto e, temos que n = 4 e r = 2, assim o
n umero de anagramas da palavra AMAR, e dado por:
n!
(n r)!
=
4!
(4 2)
= 2.
Exemplo 1.3.9 Ja no caso da palavra BATATA temos mais de uma letra que se repete, ou
seja, a letra A aparece agora tre vezes e a letra T aparece duas vezes. Portanto novamente
teremos anagramas identicos. Logo,
(BaT At/ = BAT /ta = B/T atA
= BaT /tA = BAT at/ = B/T Ata)
1.3. ABORDAGEM CL

ASSICA DA PROBABILIDADE 23
e tambem
(AT/T aB = AT /TaB),
sao o mesmo anagrama.
Portanto o n umero de anagramas da palavra BATATA sera:
n!
(n r
1
)!(n r
2
)!
=
6!
(6 3)!(6 2)!
=
6!
3! 4!
= 5.
Vemos que agora o denominador da fomula apresenta uma multiplicacao, isso acontece pelo
fato, de que alem da letra A, a letra T tambem se repete.
Em geral, se tivermos uma palavra ou um anagrama com varias letras repetidas usaremos o
mesmo metodo.
3. Ordem nao importa, sem reposicao
A ideia aqui sera utilizar os metodos expostos acima. Tanto no caso (2) como no caso (3) vamos
selecionar r objetos dentre n, sem reposi cao.
Vimos que ha n!/(nr!) maneiras de selecionar r objetos dentre n, se a ordem for levada em conta.
Ja o n umero de maneiras para escolher r objetos entre n objetos, sem reposicao e independentemente
da ordem, sera denotado por:
_
n
r
_
=
n!
(n r)! r!
.
Exemplo 1.3.10 De quantas formas diferentes podem ser criadas CPMIs com 10 senadores no
Congresso brasileiro?
Como vimos anteriormente, temos no Brasil 81 senadores. Assim para selecionar 10 senadores num
total de 81, fazemos r = 10 e n = 81.
Portanto o n umero de escolhas para selecionar 10 senadores que participarao de apenas uma CPMI
e nao importando a ordem de convocacao de cada senador, sera:
_
81
10
_
=
81!
(81 10)! 10!
.
Exemplo 1.3.11 De quantas maneiras podemos selecionar uma comissao discente com 3 membros,
para representar uma classe de 18 alunos?
Uma possvel comissao seria formada por:
Ana, Paulo, Claudia = Claudia, Paulo, Ana = Ana, Claudia, Paulo =
= Claudia, Ana, Paulo = Paulo, Claudia, Ana = Paulo, Ana, Claudia.
Estamos contando a mesma comissao (6 = 3!) vezes. Assim como no outro caso, temos que dividir
n por (3!).
Portanto o n umero de comissoes diferentes formadas por 3 alunos de uma sala com 18, sera dado
por:
24 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


_
18
3
_
=
18!
15!3!
= 816.
Exemplo 1.3.12 Numa prova, um estudante deve responder exatamente 7 questoes de um total
de 10 questoes. Quantas escolhas ele tem? Quantas escolhas ele tem se entre as 7 questoes deve
responder pelo menos 3 das primeiras 5 questoes?
O estudante deve escolher um subconjunto de tamanho 7 de um conjunto com 10 elementos, logo
tem
_
10
7
_
= 120 escolhas.
No caso em que entre as 7 questoes deve responder pelo menos 3 das primeiras 5 quest oes, o estudante
possui tres opcoes (disjuntas):
- Escolher exatamente 3 das primeiras 5 questoes e 4 das 5 ultimas;
- Escolher exatamente 4 das primeiras 5 questoes e 3 das 5 ultimas;
- Escolher as 5 primeiras questoes e 2 das 5 ultimas.
Assim, o total de escolhas que ele tem, e
_
5
3
_
=
_
5
4
_
+
_
5
4
_ _
5
3
_
+
_
5
2
_ _
5
2
_
= 110.
Outra resposta para a segunda pergunta:
120 -
_
5
2
_ _
5
2
_
= 110.
(4) Ordem nao importa, com reposicao
Esse caso e bem diferente dos anteriores, pois consiste em escolher r objetos dentre n, com reposicao
e nao importando a ordem.
Temos que o n umero de maneiras de escolha nesse caso, e denotado por:
_
n +r 1
r
_
=
(n +r 1)!
(n 1)!r!
Exemplo 1.3.13 De quantas maneiras podemos comprar 5 potes de sorvete, numa sorveteria em
que ha 4 sabores?
Como a escolha dos potes pode ser feita em qualquer ordem, e podera ser escolhido sabores repetidos,
temos que havera
_
n +r 1
r
_
=
_
4 + 5 1
5
_
=
_
8
5
_
= 56,
maneiras de escolha.
Exemplo 1.3.14 Um dado e lancado 3 vezes de maneira independente. O que e mais possvel acontecer:
a soma dos resultados ser 11 ou ser 12?
Antes de comecarmos vamos vericar quantas combinacoes de 3 n umeros entre 1 e 6 dao soma 11:
1.3. ABORDAGEM CL

ASSICA DA PROBABILIDADE 25
As triplas (1,4,6), (2,3,6), (2,4,5) sao formadas por tres n umeros diferentes, entao cada uma apre-
senta 6 combinacoes.
Ja as triplas (3,3,5), (3,4,4), (1,5,5) apresentam dois n umeros iguais cada uma, entao possuem 3
combinacoes.
Seja A o conjunto das triplas, cujos algarismos somam 11, entao A possui 27 elementos. Ou seja, existem
27 combinacoes em que a soma dos resultados de 3 lancamentos de um dado e igual a 11.
Agora temos que vericar quantas combinacoes de 3 n umeros entre 1 e 6 somam 12:
As triplas (1,5,6), (4,3,6), (3,4,5) como possuem 3 n umeros distintos, apresentam cada uma 6
combinacoes.
Ambas as triplas (2,5,5) e (3,3,6) possuem dois n umeros iguais, logo apresentam 3 combinacoes.
Temos tambem a tripla (4,4,4), que e formada so pelo n umero 4, que portanto apresenta uma
combinacao.
Seja B o conjunto das triplas, cujos algarismos somam 12, ent ao B possui 25 elementos. Ou seja,
existem 25 combinacoes em que a soma dos resultados de 3 lancamentos de um dado e igual a 12.
Sabemos que o n umero de triplas e igual a 216, ou seja, [[ = (6)
3
= 216. Assim, a probabilidade de
sair soma igual a 11 e a 12, e dada por:
P(sair soma 11) =
[A[
[[
=
27
216
.
P(sair soma 12) =
[B[
[[
=
25
216
.
Portanto vemos que a probabilidade de sair soma 11 em 3 lancamentos de um dado, e maior do que sair
soma 12.
Mas nem sempre e possvel calcular probabilidade, atraves da abordagem classica. Dois fatores podem
impedir:
1. nao ter um n umero nito de elementos.
Exemplo 1.3.15 Jogando uma moeda repetidas vezes ate aparecer cara (H), temos que
= H, TH, TTH, . . . , TTTTH, . . . , TTTTTTTTTTH, . . ..
Observamos que nesse caso o espaco amostral e um conjunto com um n umero innito (enumeravel)
de elementos, logo a versao cl assica da probabilidade nao se aplica.
2. nito, mas os eventos elementares nao sao equiprovaveis.
Exemplo 1.3.16 Considerando o Experimento Aleat orio que consiste em jogar dados viciados de
um Cassino, sabemos que existe mais chance de sair um ou mais n umeros.
Assim podemos ter que o n umero 1 e o n umero 3, apresentam maior probabilidade de sair do que
os demais:
P(1) =
1
4
, P(3) =
1
3
, . . .
Alem disso, devemos observar que a chamada abordagem classica da probabilidade, nao se sustenta, pois
e denida a partir da premissa dos eventos elementares serem igualmente provaveis. Ou seja, e uma versao
de probabilidade que ja em si, usa o conceito de probabildade.
26 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


1.4 Abordagem Frequentista da Probabilidade
No seculo XVII Jacob Bernoulli realizou estudos de probabilidade, que consistiam em determinar a pro-
babilidade de um evento ocorrer, quando nao fosse nito.
Em seus estudos, repetia n vezes um experimento aleatorio e depois dividia o n umero de vezes em
que o evento de interesse ocorria pelo total de repeti coes, no caso n. Essa razao e chamada de frequencia
relativa de um evento.
Bernoulli concluiu que numa serie imensa de experimentos, a frequencia relativa de um evento se
aproxima cada vez mais da sua probabilidade. Em outras palavras, quando se repete um experimento
um n umero sucientemente grande de vezes e possvel, substituir a expressao Frequencia Relativa por
Probabilidadecom erro desprezvel. Essa abordagem e comumente chamada de abordagem frequentista
da probabilidade.
Nesse caso, o ponto mais delicado e decidir quantas vezes e necessario repetir o experimento para se
fazer a atribuicao de probabilidades, com alguma garantia de nao se estar muito distante do verdadeiro
valor. Porem, essa questao sera vista na parte de Inferencia Estatstica, onde sera apresentada a Lei dos
Grandes N umeros.
Mais tarde outros matematicos continuaram desenvolvendo os estudo de Bernoulli. No seculo XVIII,
o naturalista frances, Conde de Buon, realizou 4040 lancamentos de uma moeda e observou a ocorrencia
de 2048 caras, obtendo uma frequencia relativa de 0,5064. No incio do seculo, por volta de 1900, o ingles
Karl Pearson realizou 24000 lancamentos de moedas, obtendo 12012 caras e uma frequencia relativa de
0,5005. Percebe-se entao que, com o aumento do n umero de realizacoes do experimento, a frequencia
relativa de caras tende a convergir para a real probabilidade de ocorrencia de cara.
A abordagem frequentista da probabilidade e bastante utilizada por estatisticos aplicados e demais
prossionais que trabalham com dados em geral. A partir das ideias acima podemos fazer a seguinte
denicao:
Denicao 1.4.1 Seja n(A) o n umero de vezes em que um evento A ocorre em n repeticoes de um ex-
perimento aleatorio. Assumindo que a frequencia relativa de A convirja para um limite, temos que esse
limite sera a probabilidade de A, denotada por
P(A) = lim
n+
n(A)
n
.
Essa denicao apresenta algumas propriedades:
1. P(A) 0, A .
2. P() = 1.
3. Para A e B, tal que (A B) = , temos
P(A B) = lim
n+
n(A B)
n
= lim
n+
_
n(A)
n
+
n(B)
n
_
= lim
n+
n(A)
n
+ lim
n+
n(B)
n
.
As abordagens anteriores estao de acordo com apenas nossa intuicao, com relacao ao conceito de probabili-
dade. Contudo para derivarmos resultados mais profundos e abrangentes, e necessario denir probabilidade
por meio de axiomas que na verdade justicam as abordagens Classica e Frequentista.
1.5. DEFINIC

AO AXIOM

ATICA DE PROBABILIDADE 27
1.5 Denicao Axiomatica de Probabilidade
Probabilidade e uma funcao, denotada por P, denida para cada evento de , assumindo valores no
intervalo [0, 1] e satisfazendo os seguintes axiomas:
(A
1
) P(A) 0 para todo A ;
(A
2
) P() = 1;
(A
3
) Para uma sequencia innita de eventos disjuntos, temos que:
P
_

_
i=1
A
i
_
=

i=1
P(A
i
).
Propriedades decorrentes dessa denic ao:
1. P(A
c
) = 1 P(A).
Prova:
Sabemos que = A A
c
, o que implica que
P() = P(A A
c
) (1.1)
Do axioma 2, temos que a probabilidade do espa co amostral e 1, ou seja,
P() = 1 (1.2)
e pelo axioma 3, temos que
P(A A
c
) = P(A) +P(A
c
) (1.3)
Substituindo (1.2) e (1.3) em (1.1) temos:
1 = P(A) +P(A
c
)
Logo, temos que P(A
c
) = 1 P(A), nalizando a prova.
2. Da propriedade anterior decorre que P() = 0.
Prova:
Sabemos que
c
= .
Portanto, P(
c
) = P() = 1 P() = 0.
3. Se A B, entao P(A) P(B).
Prova:
Seja A B, temos que B = A (B A
c
) , o que implica que
P(B) = P(A (B A
c
)).
Sendo A e B disjuntos, pelo axioma 3 temos que
P(B) = P(A) +P(B A
c
), o que implica em:
P(A) = P(B) P(B A
c
).
28 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


Devido ao axioma 1, sabemos que P(B A
c
) e positivo, logo
P(A) P(B).
4. P(A B) = P(A) +P(B) P(A B).
Prova:
Se A B = A (B A
c
), temos que P(A B) = P(A (B A
c
)).
Sendo A e B disjuntos, pelo axioma 3
P(A B) = P(A) +P(B A
c
). (1.4)
Seja B = (A B) (B A
c
), pelo axioma 3, temos
P(B) = P(A B) +P(B A
c
). (1.5)
Somando (1.4) e (1.5), obtemos P(A) +P(B) = P(A B) +P(A B), o que implica em
P(A B) = P(A) +P(B) P(A B).
Exemplo 1.5.1 Seja A o evento sair um n umero par, no lancamento de um dado honesto. Quando
nos baseamos na Abordagem Classica da Probabilidade deduzimos que:
P(A) =
[A[
[[
=
3
6
=
1
2
.
Essa armacao est a correta, pois sabemos que o dado nesse caso e honesto e portanto os eventos elemen-
tares sao equiprovaveis.
Agora iremos analisar P(A) pelos axiomas da Denicao Axiomatica. temos que:
P(A) = P(2, 4, 6) = P(2 4 6).
Como os eventos elementares sao disjuntos, pelo axioma 3, tem-se:
P(A) = P(2) +P(4) +P(6) =
1
6
+
1
6
+
1
6
=
1
2
.
Portanto pela denicao axiomatica, obtemos que a probabilidade de sair um n umero par no lancamento
de um dado e
1
2
.
1.6 Exerccios
1. Sejam A e B dois eventos de um espa co amostral. Suponha que P(A) = 0.4, P(B) = 0.5 e P(AB) =
0.1. Encontre a probabilidade de A e B ocorrerem, mas nao ambos ao mesmo tempo ((A B)
(B A)).
2. Sejam C e D dois eventos de um espaco amostral para os quais se sabe que P(C) = 0.3, P(D) = 0.4
e P(C D) = 0.2. Encontre P(D C).
3. Mostre que a probabilidade de exatamente um dos eventos A ou B ocorrer e P(A)+P(B)2P(AB)
1.7.

ALGEBRA E -

ALGEBRA 29
4. Seja o espa co de probabilidade (, P). Sejam A e B eventos (subconjuntos de ), tais que
P(A) =
1
2
, P(B) =
1
4
, P(A B) =
1
5
.
Encontre:
(a) P(A B);
(b) P(A
c
);
(c) P(B
c
);
(d) P(A
c
B
c
).
5. Seja =
1
,
2
,
3
,
4
,
5
,
6
. E sejam os eventos
(AB) =
1
, (B A) =
4
,
6
, (A B) =
1
,
3
,
4
,
6

(a) Determine: A B e A
c
B
c
.
(b) Agora, considere que os eventos elementares sao equiprovaveis. Determine: P(A) e P(B).
6. Sejam A e B eventos, tais que P(A) = 2/3 e P(B) = 4/9. Mostre que
a. P(A B) 2/3;
b. 2/9 P(A B
c
) 5/9;
c. 1/9 P(A B) 4/9.
7. Segundo dados meteorologicos, em certa regiao no inverno, ha 20% de chance do tempo estar umido,
30% de chance de estar ventando e 40% de chance do tempo estar umido e com vento. Encontre as
probabilidades do seguintes eventos:
(a) o tempo esta seco.
(b) o tempo esta seco e ha vento.
(c) o tempo esta umido ou com vento.
1.7

Algebra e -

Algebra
Denicao 1.7.1 Uma colecao nao vazia de subconjuntos de , que e fechada sob nitas operacoes da
teoria de conjuntos, e chamada de

Algebra de subconjuntos de .
Denimos entao como / (

Algebra), uma colecao nao vazia de subconjuntos de , tendo as seguintes


propriedades:
(i) /;
(ii) Se A /, entao A
c
/;
(iii) Se A e B /, entao A B e A B / .
Agora vamos na direcao de uma classe de eventos mais restritiva. Exigiremos que / seja fechada nao
somente a um n umero nito de operacoes da teoria dos conjuntos mas tambem, sob um n umero innito
e enumeravel de opera coes da teoria dos conjuntos, ou seja: Se A
n
, para n 1 e uma sequencia de
conjuntos em /, exigiremos que
30 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS

n=1
A
n
/ e

n=1
A
n
/.
Denicao 1.7.2 Uma colecao de subconjuntos de um espaco amostral , que e fechada sob um n umero
innito enumeravel de operacoes da teoria dos conjuntos e chamada -

Algebra de subconjuntos de .
Diz- se que uma colecao de subconjuntos de e uma -

Algebra de conjuntos de , desde que as
seguintes propriedades sejam satisfeitas:
(i) /;
(ii) Se A /, entao A
c
A;
(iii) Se A
n
/, tal que n N, entao

n=1
A
n
/ e

n=1
A
n
/.
Exemplo 1.7.1 (A menor - algebra gerada por um subconjunto).
Em varias situacoes, nosso interesse e construir uma - algebra que tenha entre seus elementos, um
particular subconjunto A .
Seja T = , A, A
c
, uma - algebra , sendo A um de seus elementos, qualquer outra - algebra
que tambem possuir A sera maior, isto e , ter a os elementos de T e eventualmente mais alguns.
Por isso T e denida como a - algebra gerada por A ou, ainda, como a intersecao de todas as -
algebras que contem o subconjunto A. Numa denominacao mais informal diremos que T e a menor -
algebra que contem o subconjunto A.
Exemplo 1.7.2 Considere = 1, 2, 3 e as seguintes colecoes de subconjuntos: / = , , 1, 2, 3
e T = , , 1, 2, 1, 3, 2, 3.
Seriam ambas algebra ?
Para responder, devemos vericar se / e T satisfazem os itens (i), (ii) e (iii) da denicao.
Para /:
(i) /.
(ii) A
c
/, pois (
c
= ,
c
= , 1
c
= 2, 3, 2, 3
c
= 1) /.
(iii)

_
n=1
A
n
/ , pois (1 2, 3 = ) /.
/ satisfaz todos os itens, logo / e uma algebra.
Para T:
(i) T.
(ii) A
c
T, pois
(
c
= , 1
c
= 2, 3, 2
c
= 1, 3,
c
= , 1, 3
c
= 2, 2, 3
c
= 1) T.
(iii)

_
n=1
A
n
/ T, pois (1 2 = 1, 2) / T.
T nao satisfaz (iii), logo nao e uma algebra.
Para os exemplos que trataremos neste texto, onde e nito, a algebra envolvida e o conjunto de
todos os eventos de , que e o chamado Conjuntos das Partes de .
1.8. ESPAC O DE PROBABILIDADE 31
1.8 Espaco de Probabilidade
Denicao 1.8.1 Um espaco de probabilidade, e representado pela tripla (,/,P), no qual, dado um
experimento, representa o conjunto de todos os resultados possveis; / representa uma - algebra (neste
texto - conjunto das partes ) e P(.) e a funcao de probabilidade, cujo domnio e / e o contradomnio e o
intervalo [0,1].
Exemplo 1.8.1 Sejam = 0, 1, / = , 0, 1, 0, 1 e p, tal que 0 p 1.
Denindo P(1) = p e P(0) = 1 p.
Entao (, /, P) e um espaco de probabilidade.
1.9 Probabilidade Condicional
Considerando novamente o lan camento de dois dados honestos, vamos chamar de A o evento sair o total 6
, ou seja, A = (1, 5), (2, 4), (3, 3), (4, 2), (5, 1). Como [A[ = 5 e como ja vimos [[ = 36, pela abordagem
classica, temos que:
P(A) =
5
36

5
35
=
1
7
.
Vamos supor que nao se presencie os lancamentos dos dados, mas se receba a seguinte informacao: saiu
1 no primeiro dado . Nestas condicoes, pergunta-se: Qual e a probabilidade de A dado essa nova
informacao? Ou seja, qual a probabilidade do total ser 6 no lancamento de dois dados honestos, sendo
que o resultado do primeiro dado e igual a 1?
Com essa nova informacao temos um novo espaco amostral, pois agora vamos considerar apenas os
lancamentos em que saiu 1 no primeiro dado, ou seja, podemos considerar o evento saiu 1 no primeiro
dado como o novo espa co amostral para o experimento. Isto e,
= (1, 1); (1, 2); (1, 3); (1, 4); (1, 5); (1, 6).
A probabilidade atual, ou seja, nesse caso a probabilidade de A dado que o resultado do primeiro dado
e igual a 1 e chamada de probabilidade condicional.
Denicao 1.9.1 Seja (, P) um espa co de probabilidade, com A e B eventos de , com P(B) > 0. A
probabilidade condicional de qualquer evento A, dado um evento B e denida por:
P(A[B) =
P(A B)
P(B)
.
Vamos vericar os tres axiomas da denicao axiomatica para P(A[B):
1. Primeiro precisamos vericar se P(A[B) 0.
Se (A B), temos que 0 = P() P(A B).
Entao
P(A[B) =
P(A B)
P(B)

P()
P(B)
= 0 (1.6)
Por (1.6), conclumos que P(A[B) 0.
2. Agora vamos vericar se P([B) = 1. Seja B um evento de . Temos que:
P([B) =
P( B)
P(B)
=
P(B)
P(B)
= 1.
32 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


3. O axioma 3 diz que, dado dois ou mais eventos disjuntos, a probabilidade conjunta desses eventos
e igual a soma de cada um dos eventos. Portanto, dado A
1
e A
2
tais que A
1
A
2
= , temos que
vericar se P(A
1
A
2
[B) = P(A
1
[B) +P(A
2
[B):
P(A
1
A
2
[B) =
P((A
1
A
2
) B)
P(B)
=
P((A
1
B) (A
2
B))
P(B)
=
P(A
1
B)
P(B)
+
P(A
2
B)
P(B)
= P(A
1
[B) +P(A
2
[B).
A partir desses tres itens, vemos que a probabilidade condicional satisfaz os axiomas da deni cao
axiomatica.
Exemplo 1.9.1 Considerando novamente o lancamento de dois dados, seja A o evento sair o
total 6 na soma dos dois lancamentose B o evento sair o n umero 1 no primeiro dado, B =
(1, 1); (1, 2); (1, 3); (1, 4); (1, 5); (1, 6). Entao temos que A B = (1, 5), que implica em P(A
B) = 1/36.
Portanto a probablidade de A, dado que o evento B ocorreu, e:
P(A[B) =
P(A B)
P(B)
=
1/36
6/36
=
1
6
.
Exemplo 1.9.2 Em um reino, ha um rei que vem de uma famlia de dois lhos. Nestas condicoes
pergunta-se: Qual e a probabilidade do rei ter uma irma?
Vamos denotar por H e M, se o irmao do rei for homem ou mulher, respectivamente.
O espaco amostral em questao e = (H, H), (H, M), (M, H), (M, M). Vamos assumir que os
quatros eventos elementares sejam equiprovaveis.
Sejam U e V dois eventos:
U: uma das criancas e uma menina , ou seja U = (H, M), (M, H), (M, M).
V : uma das criancas e o rei , ou seja V = (H, H), (H, M), (M, H).
UV : uma das criancas e uma menina e a outra crianca e o rei , ou seja UV = (H, M), (M, H).
Logo, a probabilidade do rei ter uma irm a, e dada por:
P(U[V ) =
P(U V ))
P(V )
=
2/4
3/4
=
2
3
.
1.9.1 Teorema do Produto
A partir da deni cao de probabilidade condicional, podemos obter a seguinte expressao:
P(A B) = P(B)P(A[B) = P(A)P(B[A),
para P(A) e P(B) maiores que zero.
Exemplo 1.9.3 Uma urna contem 5 bolas brancas e 2 bolas azuis. Uma bola e retirada e, sem
reposicao, uma segunda bola e retirada. Qual a probabilidade de ambas serem brancas?
1.9. PROBABILIDADE CONDICIONAL 33
Sendo A e B dois eventos:
A: a primeira bola retirada e branca.
B: a segunda bola retirada e branca.
Esses dois eventos sao dependentes, pois a probabilidade de ocorrencia de B depende do que ocorreu
na retirada da primeira bola. Temos que
P(A) = 5/7.
Tendo sido retirada uma bola branca e nao havendo reposicao na urna, restam agora 6 bolas, onde
quatro sao brancas. Logo, a probabilidade de retirar-se outra bola branca e
P(B[A) = 4/6 = 2/3.
Portanto,
P(A B) = P(A)P(B[A) = (5/7)(2/3) = 10/21.
Exemplo 1.9.4 Sabe-se que 80% dos penaltis marcados a favor do Brasil, sao cobrados por joga-
dores do Flamengo. A probabilidade de um penalti ser convertido e de 40% se o cobrador for do
Flamengo e de 70% caso contrario.
Um penalti a favor do Brasil acabou de ser marcado: Qual a probabilidade do penalti ser cobrado
por um jogador do Flamengo e ser convertido?
Sendo A e B os eventos:
A: cobrador do Flamengo .
B: penalti e convertido.
O que queremos saber e a probabilidade do seguinte evento: A B.
Logo, pelo Teorema do Produto
P(A B) = P(A)P(B[A) = (0, 8)(0, 4) = 0, 32.
1.9.2 Teorema da Multiplicacao
Seja (, P) um espaco de probabilidade e A
1
, A
2
. . . , A
n
eventos de , tais que P(A
i
) > 0 para todo
i, tem-se:
P(A
1
A
2
. . . A
n
) = P(A
1
)P(A
2
[A
1
)P(A
3
[A
1
A
2
) . . . P(A
n
[A
1
. . . A
n1
).
Vemos que o Teorema da multiplicac ao e uma generalizacao do Teorema do Produto, de modo que
agora temos a probabilidade da interseccao de n eventos A
1
, A
2
, ...A
n
, por meio das probabilidades
condicionais sucessivas.
Para vericar que a fomula funciona, vamos considerar os eventos A
1
, A
2
, A
3
. A probabilidade
de A
3
dado que a interseccao de A
1
e A
2
ocorreu e
P(A
3
[A
1
A
2
) =
P((A
1
A
2
) A
3
)
P(A
1
A
2
)
Da decorre que
P((A
1
A
2
) A
3
) = P(A
3
[A
1
A
2
)P(A
1
A
2
) = P(A
3
[A
1
A
2
)P(A
2
[A
1
)P(A
1
).
A prova para n eventos e feita por inducao.
34 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


Exemplo 1.9.5 Uma urna contem 10 bolas identicas das quais 5 s ao pretas, 3 sao vermelhas e
2 sao brancas. Quatro bolas sao retiradas uma a uma e sem reposicao. Encontre a probabilidade
da primeira bola ser preta, da segunda ser vermelha, da terceira ser branca, e da quarta ser preta
tambem.
Vamos denotar por:
A
1
o evento em que a primeira bola retirada e preta;
A
2
o evento em que a segunda bola retirada e vermelha;
A
3
o evento em que a terceira bola retirada e branca;
A
4
o evento em que a quarta bola retirada e preta;
Sabendo que sera formado por todas as combinacoes possveis de 4 bolas, qual a probabilidade
pedida?
Queremos saber a probabiliade de inrtersecao desses 4 eventos elementares, assim a probabilidade
de interesse sera denotada por
P(A
1
A
2
A
3
A
4
) = P(A
4
[A
1
A
2
A
3
)P(A
3
[A
2
A
1
)P(A
2
[A
1
)P(A
1
).
Vamos assumir que em cada passo os eventos elementares de sejam equiprovaveis. Sabendo que
P(A
1
) = 5/10
P(A
2
[A
1
) = 3/9
P(A
3
[A
2
A
1
) = 2/8
P(A
4
[A
1
A
2
A
3
) = 4/7
Obtemos
P(A
1
A
2
A
3
A
4
) = (5/10)(3/9)(2/8)(4/7) = (1/42).
1.9.3 Conceito de Particao de
Dizemos que a colecao A
1
, A
2
, ...A
n
forma uma particao de , se seus elementos forem disjuntos,
ou seja, A
i
A
j
= para todo i e todo j com i ,= j, e se a sua uniao, denotada por
n
_
i=1
A
i
, for igual
a .
Seja B um evento, tal que B . De maneira geral, para uma particao A
1
, A
2
, ...A
n
de , temos
que:
B =
n
_
i=1
(B A
i
).
Isso implica em
P(B) = P
_
n
_
i=1
B A
i
_
=
n

i=1
P(B A
i
) =
n

i=1
P(B[A
i
)P(A
i
).
1.9. PROBABILIDADE CONDICIONAL 35
1.9.4 Teorema da Probabilidade Total
Seja A
1
, A
2
, ...A
n
uma particao de e B um evento. Sendo P(A
i
) > 0 para todo i, temos que:
P(B) = P(A
1
B) +... +P(A
n
B)
= P(A
1
)P(B[A
1
) +... +P(A
n
)P(B[A
n
)
=
n

i=1
P(B[A
i
)P(A
i
)
Exemplo 1.9.6 Observou-se que num posto de gasolina da BR, a proporcao de motoristas que
usam gasolina comum, gasolina aditivada e gasolina premium durante um certo perodo de tempo
e: 30%, 35% e 25% respectivamente. A proporcao com que os motoristas enchem o tanque com
essas gasolinas e: 30%, 50% e 60%. Qual e a probabilidade de um motorista selecionado de maneira
aleatoria dentre os clientes do posto, e nesse mesmo perodo de tempo colocar gasolina no seu tanque?
Denotamos os seguintes eventos:
E - encher o tanque no perodo de tempo considerado .
A
1
- motorista usa gasolina comum .
A
2
- motorista usa gasolina aditivada .
A
3
- motorista usa gasolina premium .
A partir desses eventos obtemos as seguintes probabilidades:
P(A
1
) = 0.4, P(A
2
) = 0.35, P(A
3
) = 0.25,
P(E[A
1
) = 0.3, P(E[A
2
) = 0.5 e P(E[A
3
) = 0.6.
Seja A
1
, A
2
, A
3
a particao de e E o evento de interesse. Pelo teorema da probabilidade total,
temos que:
P(E) = P(A
1
)P(E[A
1
) +P(A
2
)P(E[A
2
) +P(A
3
)P(E[A
3
)
= (0.4)(0.3) + (0.35)(0.5) + (0.25)(0.6) = 0.445.
1.9.5 F ormula de Bayes
Seja B um evento e A
1
, A
2
e A
3
uma particao do espa co amostral . Assumindo que P(A
i
) > 0
para i = 1, 2 e 3, temos uma outra aplicacao da probabilidade condicional:
P(A
i
[B) =
P(A
i
)P(B[A
i
)
P(A
1
)P(B[A
1
) +P(A
2
)P(B[A
2
) +P(A
3
)P(B[A
3
)
.
Podemos escrever essa mesma formula para A
1
e A
2
.
Observem que se tomarmos um evento A, entao A e A
c
formam uma particao de . Temos assim
que
P(A[B) =
P(A B)
P(B)
=
P(A)P(B[A)
P(A)P(B[A) +P(A
c
)P(B[A
c
)
.
36 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


Exemplo 1.9.7 Durante o mes de agosto a probabilidade de chuva em um dia determinadado e de
4/10.
O Fluminense ganha um jogo em um dia com chuva com probabilidade 6/10 e em um dia sem chuva
com probabilidade 4/10.
Sabendo-se que o Fluminense ganhou um jogo num dia de agosto, qual a probabilidade de que tenha
chovido nesse dia?
Denotamos os eventos por:
A - O Fluminense ganhou o jogo .
A
1
- Choveu .
A
2
- Nao choveu .
As probabilidades de vitoria do Fluminense, em dias de chuva e em dias sem chuva, s ao respectiva-
mente:
P(A[A
1
) =
6
10
e P(A[A
2
) =
4
10
.
Portanto, a probabilidade de ter chovido em um dia em que o Fluminense ganhou um jogo, e dada
por
P( choveu [ ganhou) = P(A
1
[A) =
(4/10)(6/10)
(4/10)(6/10) + (6/10)(4/10)
= 1/2.
Exemplo 1.9.8 Um teste para uma doenca rara esta correto 95% das vezes. Em outras palavras,
se uma pessoa tem a doenca, o teste da positivo com probabilidade 0.95, e se a pessoa nao tem a
doenca o resultado do teste da negativo com probabilidade 0.95.
Uma pessoa escolhida aleatoriamente de determinada populacao tem probabilidade 0.001 de ter a
doenca. Dado que o resultado do teste para uma determinada pessoa deu positivo, qual e a probabi-
lidade dela ter a doenca?
Temos os seguintes eventos:
A = a pessoa possui a doenca .
A
c
= a pessoa nao possui a doenca .
B = o resultado do teste deu positivo .
E sabemos que:
P(B[A) = 0.95 P(B[A
c
) = 0.05.
Portanto a probabilidade da pessoa ter a doenca, sendo que o resultado do exame deu positivo e:
P(A[B) =
P(A B)
P(B)
=
(0.001)(0.95)
(0.001)(0.95) + (0.999)(0.05)
= 0.0187.
O proximo exemplo foi retirado de Morettin(1999).
1.9. PROBABILIDADE CONDICIONAL 37
Exemplo 1.9.9 A administracao de um fundo de investimentos em acoes pretende divulgar, apos o
encerramento do pregao, a probabilidade de queda de umndice da bolsa no dia seguinte, baseando-se
nas informacoes disponveis ate aquele momento. Suponha que a previsao inicial seja de 0.10. Apos
encerrado o preg ao, nova informacao sugere uma alta do dolar frente ao real. A experiencia passada
indica que, quando houve queda da bolsa no dia seguinte, 20% das vezes foram precedidas por esse
tipo de notcia, enquanto, nos dias em que a bolsa esteve em alta, apenas em 5% das vezes houve
esse tipo de notcia no dia anterior.
Chamando de E o evento que indica queda da bolsa , a sua probabilidade a priori e P(E) = 0.10,
enquanto a probabilidade de alta e P(E
c
) = 0.90. Se B indicar alta do dolar , entao temos que
P(B[E) = 0, 20.
P(B[E
c
) = 0, 05.
Logo pelo Teorema de Bayes, teremos que
P(B[E) =
P(E)P(B[E)
P(E)P(B[E) +P(E
c
)P(B[E
c
)
.
ou seja,
P(B[E) =
(0, 10)(0, 20)
(0, 10)(0, 20) + (0, 90)(0, 05)
=
0, 02
0, 065
= 0, 31.
Portanto a nova informacao aumenta a probabilidade de que haja queda na bolsa de 10% para 31%.
Suponha, agora, que horas depois surja uma nova informacao relevante: o Banco Central ira redu-
zir a taxa de juros vigente a partir do dia seguinte. Denotando-se, agora, por B
1
o evento alta do
dolare por B
2
o evento queda na taxa de juros , o interessante ser a saber como essa nova in-
formacao, B
2
, afetara a probabilidade calculada, P(E[B
1
). Segue-se que essa e agora a probabilidade
a priori para E com respeito a B
2
.
Novamente, informacoes passadas mostram que, dado que tenha havido alta no dolar e queda na
bolsa, 60% das vezes foram precedidas de queda dos juros. Entao temos que
P(B
2
[E, B
1
) = 0, 10.
P(B
2
[E
c
, B
1
) = 0, 60.
O Teorema de Bayes ca escrito agora na forma
P(E[B
1
, B
2
) =
P(E[B
1
)P(B
2
[E, B
1
)
P(E[B
1
)P(B
2
[E, B
1
) +P(E
c
[B
1
)P(B
2
[E
c
, B
1
)
.
do que segue, que
P(E[B
1
, B
2
) =
(0, 31)(0, 10)
(0, 31)(0, 10) + (0, 69)(0, 60)
=
0, 031
0, 445
= 0, 07.
Ou seja, a informacao B
2
causa um decrescimo na probabilidade de queda da bolsa, de 0.31 para
0.07, que e menor ainda do que a probabilidade a prori inicial, P(E) = 0.10.
Observe que usamos a notacao P(E[B
1
, B
2
) = P(E[B
1
B
2
), ou seja, para a probabilidade de E
dado a ocorrencia simultanea dos eventos B
1
e B
2
.
38 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


1.9.6 Exerccios
(a) Em um dia qualquer a chance de chover e de 25%. A chance de chover em dois dias consecutivos
e de 10%.
i. Dado que esta chovendo hoje, qual e a chance de chover amanha?
ii. Dado que chovera amanha, qual e a chance de chover hoje?
(b) Os eventos A, B e C satisfazem as seguintes condi coes: P(A[B B) = 1/4, P(B[C) = 1/3 e
P(C) = 1/2. Encontre P(A
c
B C).
(c) Sejam A e B dois eventos independentes para os quais P(B[A B) = 2/3 e P(A[B) = 1/2.
Encontre P(B).
(d) Mostre que para a probabilidade condicional P(A[B) vale que
i. P(A
1
A
2
[B) = P(A
1
[B) +P(A
2
[B) quando A
1
e A
2
forem disjuntos.
ii. P(A[B) = 1 P(A
c
[B).
1.10 Independencia de eventos
Denicao 1.10.1 Sejam A e B dois eventos disjuntos e suponha que P(A) > 0. O evento B e dito
independente do evento A se:
P(B[A) = P(B).
Esta denicao e bastante intuitiva, pois diz que a probabilidade de ocorrencia de B nao e inuenciada
com a informa cao de que o evento A ocorreu.
Portanto se o evento B e independente do evento A, entao pela formula de probabilidade condicional,
temos que:
P(A B) = P(A)P(B).
No caso de A B = , temos:
P(A B) = P() = 0 = P(A)P(B).
Isso quer dizer que A e B nao sao independentes a menos que um deles tenha probabilidade zero.
Se o evento B for independente do evento A, entao esperamos que A tambem seja independente de
B. De fato isso ocorre, como e vericado a seguir:
P(A[B) =
P(A B)
P(B)
=
P(A)P(B)
P(B)
= P(A).
Exemplo 1.10.1 Considerando novamente o lancamento de duas moedas, onde a probabilidade de
todos os eventos elementares e igual a 1/4, ou seja, a probabilidadede de cada evento sair e:
P(HH) = P(HT) = P(TH) = P(TH) = 1/4.
Temos os seguintes eventos:
A
1
- sair cara no primeiro lancamento , tal que A
1
= HH, HT.
B
2
- sair coroa no segundo lancamento , tal que B
2
= HT, TT.
A
1
B
2
- sair cara no primeiro lancamento e sair coroa no segundo, tal que A
1
B
2
= HT.
Calculando-se as probabilidades desses eventos, obtemos:
1.10. INDEPEND

ENCIA DE EVENTOS 39
P(B
2
[A
1
) = 1/2 = P(B
2
).
Portanto, B
2
e independente de A
1
.
Exemplo 1.10.2 Considerando o exemplo anterior, so que agora com cada evento possuindo pro-
babilidades diferentes, ou seja, agora temos que a probabilidade de cada evento sair e:
P(HH) = 5/24, P(HT) = 9/24, P(TH) = 7/24 e P(TT) = 3/24.
A
1
e B
2
continuam sendo os mesmos eventos, logo:
P(A
1
) = P(HT) +P(HH) = 9/24 + 5/24 = 14/24 = 7/12
P(B
2
) = P(HT) +P(TT = 9/24 + 3/24 = 12/24 = 6/12
P(A
1
B
2
) = P(HT) = 9/24.
Entao temos que
P(B
2
[A
1
) =
P(A
1
B
2
)
P(A
1
)
=
9/24
14/24
= 9/14.
Como P(B
2
[A
1
) ,= P(B
2
), entao nesse caso B
2
e dependente de A
1
.
Conclusao: A independencia de eventos depende da distribuicao de probabilidade.
Exemplo 1.10.3 Suponha-se que joguemos dois dados. Denindo os eventos A, B e C da seguinte forma:
A - o primeiro dado mostra um n umero par .
B - o segundo dado mostra um n umero mpar .
C - ambos os dados mostram n umeros mpares ou ambos mostram n umeros pares .
Decorre da que:
P(A) = P(B) = P(C) = 1/2
P(A B) = P(A C) = P(B C) = 1/4.
Observamos a partir disso as seguintes igualdades:
P(A B) = P(A)P(B)
P(B C) = P(B)P(C)
P(A C) = P(A)P(C).
Portanto, os tres eventos sao todos independentes dois a dois.
Contudo,
P(A B C) = 0 ,= P(A)P(B)P(C).
Este exemplo sugere a seguinte denicao.
Denicao 1.10.2 Diremos que os tres eventos A, B e C sao mutualmente independentes se, e somente
se, todas as condicoes seguintes forem validas:
P(A B) = P(A)P(B)
P(A C) = P(A)P(C)
P(B C) = P(B)P(C)
P(A B C) = P(A)P(B)P(C).
40 CAP

ITULO 1. PROBABILIDADE - PRIMEIROS CONCEITOS


Conclusao: Os eventos A
1
, A
2
, ..., A
n
, tal que (n 2), sao chamados de coletivamente independentes se:
P(A
i1
A
i2
A
im
) = P(A
i1
) P(A
i2
) . . . P(A
im
),
para todo 1 i
1
i
2
< i
m
n, m = 2, 3...
1.10.1 Exerccios
1. Um dado honesto e lan cado duas vezes. Seja A o evento a soma dos lan camentos e igual a 4, e
seja B o evento pelo menos um dos resultados dos lancamentos e igual a 3.
a. Calcule P(A[B).
b. A e B sao independentes? Justique sua resposta.
2. Sejam A e B dois eventos independentes, tais que P(B[A B) = 2/3 e P(A[B) = 1/2. Quanto vale
P(B)?
3. Sejam A e B dois eventos quaisquer. Se A e B forem independentes mostre que
a. A e B
c
tambem sao independentes;
b. A
c
e B tambem sao independentes;
4. Seja o espa co de probabilidade (, P), tal que
=
1
,
2
,
3
,
4
,
e
P(
1
) = P(
2
) = P(
3
) = P(
4
) = 1/4.
Sejam os seguintes eventos:
A =
1
,
2
;
B =
2
,
3
;
C =
2
,
4
.
(a) Mostre que:
i. A e B sao independentes;
ii. A e C sao independentes;
iii. B e C sao independentes.
(b) Os eventos A, B e C sao independentes? Justique sua resposta.
5. Sejam A e B dois eventos independentes, tais que 0 < P(A) < 1 e 0 < P(B) < 1. Responda as
seguintes perguntas com justicativas e contra-exemplos quando forem necessarios.
a. Se A e B forem disjuntos, podem ser independentes?
b. Se A e B forem independentes, podem ser disjuntos?
c. Se A B, podem A e B serem independentes?
d. Se A e B forem independentes, podem A e A B serem independentes?
Captulo 2
Variaveis Aleat orias Discretas
2.1 Introducao
Em varios experimentos aleatorios os resultados sao numericos, por exemplo, dados com 6 faces e megasena
(60 algorismos). Contudo, em outros experimentos os resultados nao sao numericos, mas podem ser
associados a n umeros.
Dado um experimento aleatorio e um espaco amostral, uma variavel aleatoria associa valores numericos
a todos elementos de . Chamamos esses valores de valores assumidos pela variavel aleatoria.
Exemplo 2.1.1 Vamos considerar o experimento aleat orio que envolve o lancamento de dois dados com
4 faces. O espaco amostral nesse caso e
= (1,1),(1,2),(1,3),(1,4),(2,1),(2,2),(2,3),(2,4),(3,1),
(3,2),(3,3),(3,4),(4,1),(4,2),(4,3),(4,4).
Podemos denir a variavel aleatoria como sendo o maximo dos resultados de um lancamento desses dois
dados. Ou seja,
X() = max(x
1
, x
2
).
Para = (1, 1) temos X((1, 1)) = 1.
Para = (1, 2) temos X((1, 2)) = 2.
Para = (4, 2) temos X((4, 2)) = 4.
2.2 Conceito de Variavel Aleat oria
Denicao 2.2.1 Uma variavel aleatoria e uma funcao que associa um n umero real a cada elemento de
.
X : R.
De agora em diante denotaremos o termo variavel aleatoria por v.a. No exemplo 2.1.1 a variavel
aleatoria X pode assumir quatro valores distintos: 1, 2, 3 e 4. Esses sao os elementos do conjunto imagem
da v.a X, ou seja, o conjunto de todas os valores que a v.a. X assume :
I
X
= 1, 2, 3, 4.
41
42 CAP

ITULO 2. VARI

AVEIS ALEAT

ORIAS DISCRETAS
Exemplo 2.2.1 Uma moeda e lancada cinco vezes. Seja X a v.a que denota o n umero de caras em cada
sequencia de lancamentos. Entao, X pode assumir os seguintes valores I
X
= 0, 1, 2, 3, 4, 5.
Exemplo 2.2.2 Lancar duas vezes o mesmo dado.
A soma dos dois valores e uma v.a.
O n umero de seis em cada lancamento e uma v.a.
A funcao que leva cada par ao valor do segundo lancamento elevado `a quinta potencia, tambem e
uma v.a.
Uma v.a e chamada de discreta se seu conjunto imagem for nito ou innito enumeravel. Nos exemplos
2.1.1 e 2.2.1 o conjunto imagem e nito.
Uma vari avel aleatoria pode assumir um n umero innito nao-enumeravel de valores. Por exemplo,
considere o experimento de escolher um ponto a do intervalo [1, 1]. A variavel aleatoria que associa o
valor numerico a
2
ao resultado a nao e discreta. Por outro lado, a seguinte v.a X(a) e discreta:
X(a) = sinal(a) =
_

_
1 se a > 0
0 se a = 0
1 se a < 0.
Nas proximas paginas so trataremos de variaveis aleatorias discretas.
2.3 Distribuicao de massa de probabilidade
Uma v.a discreta tem a ela associada uma distribui cao de probabilidade que fornece a probabilidade da
v.a assumir cada um dos elementos de seu conjunto imagem. A distribuicao de probabilidade e a principal
maneira de caracterizarmos uma variavel aleatoria. Vamos denota-la por p
X
. Em particular, se x for um
valor que a v.a X pode assumir, p
X
(x) e a probabilidade de ocorrer o evento X = x que consiste de
todos os elementos de que sao levados por X ao valor numerico x, ou seja:
p
X
(x) = P(X = x),
tal que

x
P(X = x) = 1, x I
X
.
No exemplo 2.1.1, pode ser importante saber com que probabilidade a v.a X assume, por exemplo,
o valor 2. Essa pergunta pode ser representada matematicamente por:
P(X = 2) = P(X = 2),
onde X = 2 e o conjunto de todos os elementos de que sao levados pela v.a X ao valor numerico 2.
Temos assim que
X = 2 = : X() = 2 = (1, 2), (2, 1), (2, 2).
2.3. DISTRIBUIC

AO DE MASSA DE PROBABILIDADE 43
Se os eventos elementares forem equiprovaveis, entao:
P(X = 2) = P((1, 2), (2, 1), (2, 2))
(A3)
= P((1, 2)) +P((2, 1) +P(2, 2) = 3/16,
P(X = 3) = P((1, 3), (2, 3), (3, 3), (3, 2), (3, 1))
(A3)
= P((1, 3)) +P((2, 3) +P(3, 3) +P((3, 2)) +P((3, 1) = 5/16.
O smbolo (A
3
), representa o uso do axioma 3 em determinada igualdade.
Exemplo 2.3.1 Considere o lancamento de duas moedas honestas. Seja X a v.a que representa o n umero
de caras obtidas nos lancamentos, X assume os valores 0, 1 ou 2, ou seja, I
X
= 0, 1, 2. Entao nesse
caso, dizer quem e a distribuicao de probabilidade de X e encontrar:
P(X = 0), P(X = 1), P(X = 2).
Temos que
= HH, HT, TH, TT,
onde H (Head) e T (Tail) denotam cara e coroa, respectivamente.
Primeiro passo e perguntar: Quem e o evento X = 0 ?
X = 0 = : X() = 0 = T, T.
Em seguida fazer a mesma pergunta para X = 1 e X = 2.
Segundo passo: Descobrir P(X(w) = x).
Para moedas honestas:
P(HH) = P(HT) = P(TH) = P(TT) = 1/4.
Entao:
P(X(w) = 0) = 1/4
P(X(w) = 1) = 1/2
P(X(w) = 2) = 1/4
Terceiro passo: Vericar se:
P(X(w) = 0) +P(X(w) = 1) +P(X(w) = 2) = 1.
Quarto passo: Organizar as ideias:
p
X
(x) =
_

_
1/4 se x = 0 ou x = 2
1/2 se x = 1
0 caso contr ario.
Resumindo: Para determinarmos a distribuicao de probabilidade da v.a X, temos que
44 CAP

ITULO 2. VARI

AVEIS ALEAT

ORIAS DISCRETAS
1. Encontrar todos os valores que a v.a. X assume.
2. Encontrar todos os eventos elementares contidos no evento X = x.
3. Somar suas probabilidades para obter p
X
(x).
E se desejamos calcular P(X > 0)? Inicialmente, vamos descobrir quem e o evento X > 0.
X > 0 = : X() > 0
X > 0 = HT, TH, TT = HT TH
. .
X=1
TT
..
X=2
.
Logo,
P(X > 0) = P(X = 1 X = 2) = P(X = 1) +P(X = 2) = 1/2 + 1/4 = 3/4.
2.4 Funcoes de Variaveis Aleatorias
Quando realizamos um experimento aleatorio, e comum nos interessarmos em uma funcao g(X) de uma
variavel aleatoria X. Ou melhor, em muitos casos e comum o nosso interesse estar na distribuicao de
probabilidade de uma funcao de uma variavel aleatoria. Portanto, nesta secao veremos como determinar
a distribuicao de probabilidade de uma funcao de v.a.
Exemplo 2.4.1 Seja Y = g(X) = (1, 8)X + 32 uma funcao linear da variavel aleatoria X. Temos que,
X representa a temperatura de um ambiente em graus Celsius e Y representa a mesma temperatura, so
que na escala Fahrenheit.
Se X for uma v.a discreta com distribui cao de massa de probabilidade p
X
, e Y uma fun cao de X, a sua
distribui cao de probabilidade pode ser calculada pela distribuicao de probabilidade de X. Em particular,
para obter p
Y
(y) para qualquer valor de y, somamos as probabilidades de todos os valores de x tal que
g(x) = y:
p
Y
(y) =

{x|g(x)=y}
p
X
(x).
Exemplo 2.4.2 Seja X uma variavel aleatoria que assume os valores 1, 0, 1 com as seguintes proba-
bilidades:
p
X
(x) =
_

_
1/3 se x = 1
1/6 se x = 0
1/2 se x = 1.
Vamos encontrar, p
Y
(y) para Y = 2X + 1.
1

passo: Que valores Y assume?


Para X = 1 : Y = 2(1) + 1 = 1.
Para X = 0 : Y = 2(0) + 1 = 1.
Para X = 1 : Y = 2(1) + 1 = 3.
2.4. FUNC

OES DE VARI

AVEIS ALEAT

ORIAS 45
Logo,
I
Y
= 1, 1, 3.
2

passo: Com que probabilidades Y assume esses valores? Ou seja, qual a distribuic ao de massa de
probabilidade de Y ?
Temos que
p
Y
(1) = P(Y = 1) = P(X = 1) = p
X
(1) = 1/3.
p
Y
(1) = P(Y = 1) = P(X = 0) = p
X
(0) = 1/6.
p
Y
(3) = P(Y = 3) = P(X = 1) = p
X
(1) = 1/2.
3

passo: Vericar se o somat orio das probabilidades de Y e igual a 1:


p
Y
(y) = p
Y
(1) +p
Y
(1) +p
Y
(3)
= 1/3 + 1/6 + 1/2 = 1.
Portanto, a distribuicao de massa de probabilidade de Y e denida por
p
Y
(y) =
_

_
1/3 se y = 1
1/6 se y = 1
1/2 se y = 3.
Exemplo 2.4.3 Considere a mesma variavel aleat oria, X, do exemplo 2.4.2.
Vamos agora encontrar p
Y
(y), tal que Y = X
2
.
1

passo: Que valores Y assume?


Para X = 1 : Y = (1)
2
= 1.
Para X = 0 : Y = (0)
2
= 0.
Para X = 1 : Y = (1)
2
= 1.
Entao,
I
Y
= 0, 1.
2

passo: Qual a distribuicao de massa de probabiliddade de Y ?


Temos que
p
Y
(0) = P(Y = 0 = P(X = 0) = p
X
(0) = 1/6.
p
Y
(1) = P(Y = 1) = P(X = 1) +P(X = 1) = p
X
(1) +p
X
(1) = 1/3 + 1/2 = 5/6.
3

passo: Vericar se o somatorio das probabilidades de Y e igual a 1:


p
Y
(y) = p
Y
(0) +p
Y
(1) = 1/6 + 5/6 = 1.
Logo, a distribuicao de massa de probabilidade de Y e denida por
p
Y
(y) =
_
1/6 se y = 0
5/6 se y = 1.
46 CAP

ITULO 2. VARI

AVEIS ALEAT

ORIAS DISCRETAS
2.5 Esperanca e Variancia
2.5.1 Esperanca
A distribui cao de massa de probabilidade de uma variavel aleatoria X nos fornece uma serie de n umeros,
os quais sao as probabilidades de ocorrencia de cada um dos possveis valores de X. Seria interessante
resumir essa informa cao em um unico n umero representativo. Para encontrar esse n umero introduzimos
o conceito de esperanca de X, valor esperado ou media. A esperanca de X, e a media ponderada dos
valores assumidos por X, onde a pondera c ao dos valores e feita pelos p
X
(x)

s.
Denicao 2.5.1 (Esperanca de uma v.a X ou seu valor esperado, ou sua media).
O valor esperado de uma variavel aleatoria X, com distribuic ao de massa de probabilidade p
X
, e
denido por:
E(X) =

x
xp
X
(x).
Exemplo 2.5.1 Vamos considerar novamente o lancamento de um dado honesto. Seja X a v.a, que
assume os resultados do lancamento, vamos encontrar a distribuicao de probabilidade e a esperanca de X.
1. Distribuicao de probabilidade:
Temos que
I
X
= 1, 2, 3, 4, 5, 6.
Como o dado e honesto, a probabilidade de sair qualquer n umero e a mesma, isto e
P(X = 1) = P(X = 2) = P(X = 3) = P(X = 4) = P(X = 5) = P(X = 6) = 1/6.
2. Esperanca de X.
Temos que,
E(X) =
6

x=1
xP(X = x).
Portanto,
E(X) = (1)1/6 + (2)1/6 + (3)1/6 + (4)1/6 + (5)1/6 + (6)1/6 = 3, 5.
Exemplo 2.5.2 Um empresario pretende estabelecer uma rma para montagem de um produto composto
de uma esfera e um cilindro. A esfera sera produzida na fabrica A, enquanto que a producao do cilindro
sera feita na fabrica B.
No setor de montagem sera feita a junc ao e a pintura das pecas. Cada cilindro e cada esfera terao,
respectivamente, um comprimento e uma espessura determinada.
O empresario quer estudar a viabilidade de seu emprendimento, mais precisamente, quer ter uma ideia
da distribuicao do lucro por peca montada.
Caractersticas das pecas:
Cilindro (comprimento) Esfera (espessura)
Bom (B) (dentro das especicacoes) Boa (B) (dento das especicacoes)
Longo (L) (maior que as especicacoes) Longa (L) (maior que as especicacoes)
Curto (C) (menor que as especicacoes) Curta (C) (menor que as especicacoes)
A seguir, temos as probabilidades do comprimento dos cilindros e da espessura das esferas de cada produto.
2.5. ESPERANC A E VARI

ANCIA 47
Produto Cilindro Esfera
B 0.80 0.70
L 0.10 0.20
C 0.10 0.10
O preco de cada componente do produto sera 5 reais. Se algum componente apresentar a caracterstica
curto (C) depois de montadado o produto, o conjunto todo sera vendido como sucata ao preco de 5 reais.
Cada componente longo (L) podera ser recuperado ao preco de 5 reais.
Pergunta 1: Se o preco de venda de cada unidade for de 25 reais, como seria a distribuicao de
probabilidade da v.a X: lucro por conjunto montado?
Como os componentes vem de fabricas diferentes, vamos supor que a classicacao dos cilindros e das
esferas, segundo suas caractersticas, sejam eventos independentes.
Sabemos que:
= BB, BL, LB, BC, CB, LL, CC, LC, CL.
Considerando os seguintes eventos:
A
1
= cilindro bom = BB, BL, BC P(A
1
) = 0.8.
B
1
= esfera boa = BB, LB, CB P(B
1
) = 0.7.
B
2
= esfera longa = BL, LL, CL P(B
2
) = 0.2.
Obtemos,
A
1
B
1
P(A
1
B
1
) = P(A
1
)P(B
1
) = P(B, B) = (0.8)(0.7) = 0.56.
A
1
B
2
P(A
1
B
2
) = P(A
1
)P(B
2
) = P(B, B) = (0.2)(0.8) = 0.16.
A seguir temos a probabilidade de todos os produtos do espaco amostral e seus respectivos lucros:
Produto Probabilidade Lucro por montagem (X)
BB 0.56 25 10 = 15
BL 0.16 25 15 = 10
BC 0.08 5 10 = 5
LB 0.07 25 15 = 10
LL 0.02 25 20 = 5
LC 0.01 5 10 = 5
CB 0.07 5 10 = 5
CL 0.02 5 10 = 5
CC 0.01 5 10 = 5
Vemos facilmente que a v.a X pode assumir os seguintes resultados:
I
X
= 15, 10, 5, 5.
48 CAP

ITULO 2. VARI

AVEIS ALEAT

ORIAS DISCRETAS
Portanto, temos que:
P(X = 15) = P(BB) = 0.56.
P(X = 10) = P(BL, LB) = P(BL) +P(LB) = 0.16 + 0.07 = 0.23.
P(X = 5) = P(LL) = 0.02.
P(X = 5) = P(BC, CB, CL, LC, CC)
= P(BC) +P(CB) +P(CL) +P(LC) +P(CC)
= 0.08 + 0.01 + 0.07 + 0.02 + 0.01 = 0.19.
Assim a distribuicao de probabilidade da v.a X, lucro por conjunto montado, e denida por:
x P(X = x)
15 0.56
10 0.23
5 0.02
5 0.19
Pelos resultados obtidos, conclumos que a probabilidade do lucro ser igual a 15, quando o preco de venda
de cada produto e de 25 reais, e superior a 50%.
Pergunta 2: Qual o lucro medio por conjunto montado, ou seja, qual e a E(X)?
E(X) = 15P(X = 15) + 10P(X = 10) + 5P(X = 5) + (5)P(X = 5)
= 15(0.56) + 10(0.23) + 5(0.02) 5(0.19) = 9, 85.
Portanto, o lucro medio obtido de cada conjunto montado e de 9,85 reais.
2.5.2 Esperanca para funcoes de variaveis aleat orias
Seja X uma variavel aleatoria com distribui cao de massa de probabilidade p
X
, e seja g(X) uma funcao
de X. Entao, o valor esperado da variavel aleatoria g(X) e denido por:
E(g(X)) =

x
g(x) p
X
(x).
Para vericar que isto e verdade, vamos supor que Y = g(x) e usar a formula apresentada anteriormente:
p
Y
(y) =

{x|g(x)=y}
p
X
(x).
Temos entao que:
E(g(x)) = E(Y ) =

y
y p
Y
(y) =

y
y

{x|g(x)=y}
p
X
(x)
=

{x|g(x)=y}
y p
X
(x) =

{x|g(x)=y}
g(x)p
X
(x)
=

x
g(x)p
X
(x).
O que prova a deni cao anterior.
2.5. ESPERANC A E VARI

ANCIA 49
2.5.3 Variancia
Um outro importante n umero associado `a variavel aleatoria X e a variancia, que e denotada por V ar(X)
e e denida como valor esperado da v.a (X E(X))
2
, isto e,
V ar(X) = E[(X E(X))
2
].
Como (X E(X))
2
so assume valores positivos, observamos que V ar(X) e sempre um n umero positivo.
Exemplo 2.5.3 Voltando ao exemplo 2.5.1, vamos agora calcular a variancia de X.
Temos que
V ar(X) =
6

x=1
(x E(X))
2
p
X
(x).
Tomamos E(X) = 3.5, entao:
V ar(X) = (1 3.5)
2
(1/6) + (2 3.5)
2
(1/6) +... + (6 3.5)
2
(1/6) 3.
A variancia representa uma medida de dispersao de X em torno da sua media. Outra medida de dispersao
e o desvio-padrao de X, que e denido como a raiz quadrada da variancia, denotado por
X
:

X
=
_
V ar(X).
O desvio-padrao e muitas vezes mais facil de ser interpretrado, porque ele apresenta as mesmas unidades
de X. Por exemplo, se a unidade de medida de X for metro, entao a unidade do desvio-padrao tambem
sera metro, enquanto que a unidade de medida da variancia sera metro quadrado.
Desenvolvendo o quadrado da formula da variancia de X, encontramos uma outra maneira de calcular
a V ar(X) :
V ar(X) = E(X
2
) (E(X))
2
.
Esta expressao e vericada da seguinte forma:
V ar(X) =

x
(X E(X))
2
p
X
(x)
=

x
(X
2
2XE(X) + (E(X))
2
)p
X
(x)
=

x
X
2
p
X
(x)

x
2XE(X)p
X
(x) +

x
(E(X))
2
p
X
(x)
= E(X
2
) 2E(X)

x
Xp
X
(x) + (E(X))
2

x
p
X
(x)
= E(X
2
) 2E(X)E(X) + (E(X))
2
= E(X
2
) (E(X))
2
.
Esta nova formula, apresenta uma maior facilidade para o calculo da variancia. Uma outra forma de
provar que V ar(X) = E(X
2
) [E(X)]
2
e a seguinte:
V ar(X) = E[(X E(X))
2
]
= EX
2
2E(X)X + [E(X)]
2

= E(X
2
) 2E(X)E(X) + [E(X)]
2
= E(X
2
) [E(X)]
2
.
50 CAP

ITULO 2. VARI

AVEIS ALEAT

ORIAS DISCRETAS
Note que na terceira igualdade usamos o fato de E(X) ser uma constante.
A partir da deni cao de esperanca para funcoes de variaveis aleatorias, vamos agora obter propriedades
da esperanca e da variancia:
Assumindo Y , como uma funcao linear da variavel aleatoria X, isto e,
Y = aX +b,
tal que a, b R. Vamos mostrar as seguintes propriedades:
1. E(Y ) = E(aX +b) = aE(X) +b.
2. V ar(Y ) = V ar(aX +b) = a
2
V ar(X).
3.
Y
= [a[
Y
.
Prova:
1.
E(Y ) = E(aX +b) =

x
(aX +b)p
X
(x) = a

x
Xp
X
(x) +b

x
p
X
(x) = aE(X) +b.
2.
V ar(Y ) =

x
(aX +b E(aX +b))
2
p
X
(x)
=

x
(aX +b aE(X) b)
2
p
X
(x)
=

x
(a(X E(X)))
2
p
X
(x)
= a
2

x
(X E(X))
2
p
X
(x)
= a
2
V ar(X).
3.

Y
=
_
V ar(Y ) =
_
a
2
V ar(Y ) = [a[
_
V ar(Y ) = [a[
Y
.
Podemos observar que nestes resultados estao implcitas mais duas propriedades:
Sejam a e b duas constantes, temos que
E(b) = b.
V ar(a) = 0.
Terminaremos essa secao com uma forma alternativa de expressar a esperanca no caso de variaveis
aleatorias nao negativas.
Suponha que X seja uma v.a inteira e nao negativa. Entao
E(X) =

i=1
P(X i),
E(X
2
) = 2

i=1
iP(X i) E(X).
2.6. VARI

AVEIS ALEAT

ORIAS DISCRETAS 51
Prova:
E(X) =

i=1
i P(X = i) =

i=1
i

j=1
P(X = i) =

1ji<
P(X = i)
=

j=1

i=1
P(X = i) =

j=1
P(X j),
E(X
2
) =

i=1
i
2
P(X = i) =

i=1
i
2
[P(X i) P(X i + 1)]
=

i=1
i
2
P(X i)

i=1
i
2
P(X i + 1)
=

i=1
i
2
P(X i)

i=2
(i 1)
2
P(X i)
= P(X 1) +

i=2
[i
2
(i 1)
2
] P(X i)
=

i=1
(2i 1)P(X i) = 2

i=1
i P(X i)

i=1
P(X i)
= 2

i=1
P(X i) E(X).
2.6 Variaveis Aleat orias Discretas
2.6.1 Uniforme Discreta
Seja X uma variavel aleatoria cujos valores possveis sao representados por x
1
, x
2
, . . . , x
n
. Entao diz-se
que X segue o modelo uniforme discreto se sua distribuicao de probabilidade for da forma:
P(X = x
i
) =
_
1/n, para i = 1,. . . ,n
0, caso contrario.
para n N. Para representar que a v.a X possui distribuicao uniforme, usamos a nota cao X U
d
[n].
Este e o caso mais simples de variavel aleatoria discreta, ja que cada valor possvel ocorre com a mesma
probabilidade.
Esperanca e Variancia:
Se X tiver distribuicao uniforme discreta, entao
E(X) =
n + 1
2
e V ar(X) =
n
2
1
12
.
Prova:
Assumindo p
X
(x) = 1/n, a partir da denicao de E(X), temos que
E(X) =
n

x=1
x p
X
(x) =
n

x=1
x
1
n
=
1
n
n

x=1
x =
1
n
n(n + 1)
2
=
n + 1
2
.
52 CAP

ITULO 2. VARI

AVEIS ALEAT

ORIAS DISCRETAS
Como V ar(X) = E(X
2
) E(X)
2
, temos que obter E(X
2
):
E(X
2
) =
n

x=1
x
2
p
X
(x) =
n

x=1
x
2
1
n
=
1
n
n(n + 1)(2n + 1)
6
=
(n + 1)(2n + 1)
6
.
Logo,
V ar(X) =
(n + 1)(2n + 1)
6

(n + 1)
2
4
=
n
2
1
12
.
Exemplo 2.6.1 Uma rifa possui 100 bilhetes numerados de 1 a 100. Tenho cinco bilhetes consecutivos
numerados de 21 a 25, e meu colega tem outros cinco bilhetes, com os n umeros 7, 13, 29, 66 e 98. Quem
tem a maior possibilidade de ser sorteado?
Seja X uma v.a uniforme que representa o n umero de cada bilhete, entao todos os 100 bilhetes possuem
a mesma probabilidade de serem sorteados. Assim, se ambos os indviduos apresentam o mesmo n umero
de bilhetes, temos que a probabilidade de serem sorteados e a mesma. Entao, a probabilidade de sair os
n umeros 21, 22, 23, 24, 25 e 7, 13, 29, 66, 98 e :
P(X = 21) +P(X = 22) +P(X = 23) +P(X = 24) +P(X = 25) = 5/100,
P(X = 7) +P(X = 13) +P(X = 29) +P(X = 66) +P(X = 98) = 5/100.
Portanto, conclumos que ambos possuem uma probabilidade de 5/100 de serem sorteados.
2.6.2 Bernoulli
Uma variavel aleatoria X com distribuicao de probabilidade de Bernoulli e usada para modelar situacoes
onde ocorre dois eventos, que chamaremos de fracasso e sucesso. Uma v.a de Bernoulli, tem como ca-
racterstica atribuir um valor a `a ocorrencia de fracasso e um valor b para a ocorrencia de sucesso, com
probabilidades (1 p) e p, respectivamente, tal que a, b [0, 1]. Comumente atribumos 0 `a ocorrencia de
fracasso e 1 ` a ocorrencia de sucesso.
Por exemplo, podemos considerar o lancamento de uma moeda, no qual sai cara com probabilidade p
e sai coroa com probabilidade 1 p. Entao seja X uma v.a de Bernoulli, temos que X e igual a 1 se sai
cara e igual a 0 se sai coroa:
X =
_
1 se sai cara
0 se sai coroa.
Como e a distribuicao de massa de probabilidade dessa variavel aleatoria?
Como I
x
= 1, 0, temos que encontrar P(X = 1) e P(X = 0). Sendo = H, T, entao:
X = 1 = : X() = 1 = H.
X = 0 = : X() = 0 = T.
Usaremos a seguinte notacao: P(X = x) = P(X = x). Assim obtemos
P(X = 1) = P(X = 1) = P(H) = p.
P(X = 0) = P(X = 0) = P(T) = 1 p.
Logo, a funcao de probabilidade de uma v.a X de Bernoulli, que denotaremos por X Bernoulli(p), e
denida pela seguinte expressao:
P(X = x) = p
x
(1 p)
1x
,
com x 0, 1 e p [0, 1].
2.6. VARI

AVEIS ALEAT

ORIAS DISCRETAS 53
Esperanca e Variancia:
Se X tiver distribuicao de Bernoulli, entao
E(X) = p e V ar(X) = p(1 p).
Prova:
E(X) =
1

x=0
x p
X
(x) = 0(1 p) + 1(p) = p,
e tambem,
E(X
2
) =
1

x=0
x
2
p
X
(x) = (0)
2
p + (1)
2
p = p.
Entao como V ar(X) = E(X
2
) (E(X))
2
, temos que
V ar(X) = p p
2
= p(1 p).
Por causa da sua simplicidade, uma v.a de Bernoulli e muito importante no dia-a-dia. Ela e usada para
modelar situacoes onde ha apenas dois eventos, tais como:
A situacao de uma linha telefonica: Esta ocupada ou nao.
O estado medico de um paciente: Esta com determinada doenca ou esta saudavel.
A tendencia poltica de uma pessoa: Esta a favor ou contra determinado candidato.
Se combinarmos varias v.as de Bernoulli podemos construir variaveis aleatorias mais complicadas, como
e o caso da variavel aleatoria binomial, que veremos a seguir.
2.6.3 Binomial
Uma moeda e lancada n vezes. Em cada lancamento sai cara com probabilidade p e coroa com probabi-
lidade (1 p), independentemente do lan camento anterior. Seja X a v.a que indica o n umero de caras
nos n lancamentos. Nos referimos a X como sendo uma variavel aleatoria binomial com parametros n
e p, onde n e o n umero de ensaios e p a probabilidade de sucesso em cada ensaio. A variavel aleatoria
binomial e denotada por X b(n, p). O conjunto nesse caso e:
= HH...H
. .
n
, HH...H
. .
n1
T, ..., TT...T
. .
0
.
Qual e a distribui cao de massa de probabilidade de uma v.a binomial?
Nesse caso, I
x
= 0, 1, 2, ..., n, logo temos que encontrar:
P(X = 0), P(X = 1), ..., P(X = n).
Vemos que,
X = 0 = Nao sair cara = TT...T
. .
n
P(X = 0) = (1 p).(1 p)...(1 p)
. .
n
= (1 p)
n
X = 1 = Sair apenas uma cara = H T...T
. .
n1
, TH T...T
. .
n2
, ..., TT...T
. .
n1
H
54 CAP

ITULO 2. VARI

AVEIS ALEAT

ORIAS DISCRETAS
P(X = 1) = P(H TT...T
. .
n1
, TH TT...T
. .
n2
, ..., TT...T
. .
n1
H)
P(X = 1) = P(HTT...T THT...T, ..., TT...TH)
P(X = 1) = P(HTT...T) +P(THTT...T) +... +P(TT...TH)
P(X = 1) = p(1 p)
n1
+ (1 p)p(1 p)
n2
+... + (1 p)
n1
p
P(X = 1) = p(1 p)
n1
+p(1 p)
n1
+... +p(1 p)
n1
P(X = 1) = np(1 p)
n1
.
Na ultima equa cao podemos observar que p(1 p)
n1
e multiplicado por n. Essa parcela e especca
para X = 1, assim para acharmos P(X = x) e necessario pensarmos em todas as combina coes que os
subconjuntos de X = x possuem, o qual representamos por
X = x = H T...T
. .
n1
, TH T...T
. .
n2
, ..., TT...T
. .
n1
H.
Entao para obtermos uma equa cao que descreve genericamente o problema, devemos multiplicar p(1
p)
n1
por todas as suas combinacoes,
n!
(n x)! x!
=
_
n
x
_
onde x e o valor da variavel aleatoria. Assim, a equa cao da distribui cao binomal e:
P(X = x) =
_
n
x
_
p
x
(1 p)
nx
, x N 0.
Uma maneira para testarmos se a distribui cao de probabilidade acima foi denida corretamente, e vericar
se o axioma (A
2
) e satisfeito, ou seja, vericar se a probabilidade do conjunto e igual a 1.
Temos que
= X = 1 X = 2 ... X = n =
n
k=0
X = k, n N.
Entao
P() = P(
n
x=0
X = x) =
n

x=0
P(X = x) =
n

x=0
_
n
x
_
p
x
(1 p)
nx
= (p + 1 p)
n
= 1.
Exemplo 2.6.2 Sabe-se que a ocorrencia de pecas com algum tipo de imperfeicao em uma linha de
producao e de 10%. Escolhem-se tres pecas, ao acaso, e deseja-se vericar o n umero de pecas defeituosas
nesse grupo e as respectivas probabilidades. O evento peca com defeito sera representado por D.
Assim, o espaco amostral e dado por
= DDD, DDD
c
, DD
c
D, D
c
DD, DD
c
D
c
, D
c
D
c
D, D
c
DD
c
, D
c
D
c
D
c
.
Na tabela a seguir temos a probabilidade de todos os eventos, tal que, a probabilidade da peca estar com
ou sem defeito e, respectivamente, 0.1 e 0.9 :
2.6. VARI

AVEIS ALEAT

ORIAS DISCRETAS 55
X Evento Probabilidade (X)
3 DDD (0.1)
3
2 DDD
c
(0.9)(0.3)
2
2 DD
c
D (0.9)(0.3)
2
2 D
c
DD (0.9)(0.3)
2
1 DD
c
D
c
(0.9)
2
(0.3)
1 D
c
D
c
D (0.9)
2
(0.3)
1 D
c
DD
c
(0.9)
2
(0.3)
0 D
c
D
c
D
c
(0.1)
3
Exemplo 2.6.3 Uma moeda honesta e lancada vinte vezes. Qual a probabilidade de sarem oito caras?
Denimos a v.a X como sendo o n umero de sucessos, ou seja, o n umero de caras em vinte lancamentos.
Podemos representa-la atraves do modelo binomial, com parametros n = 20 e p = 1/2.
Logo, a probabilidade de sair oito caras em vinte lancamentos, e:
P(X = 8) =
_
20
8
_
(1/2)
8
(1/2)
12
.
Exemplo 2.6.4 Numa criacao de coelhos, 40% sao machos. Entao qual e a probabilidade de nascer pelo
menos dois coelhos machos, num dia em que nasceram vinte coelhos?
Denimos a variavel aleatoria X como sendo o n umero de coelhos machos nascidos neste dia. Sabemos
que I
X
= 0, 1, 2, . . . , 20, logo X representa uma v.a binomial, com parametros n = 20 e p = 0.4.
Entao a probabilidade de nascer pelo menos dois coelhos machos nesse dia, e denida por:
P(X 2) = 1 P(X < 2) = 1 [P(X = 0) +P(X = 1)]
= 1
_
20
0
_
(0.40)
0
(0.60)
20

_
20
1
_
(0.40)
1
(0.60)
19
.
Esperanca e Variancia:
Se X tiver distribuicao Binomial, vamos provar que
E(X) = np e V ar(X) = np(1 p).
Prova:
Considerando que X representa uma variavel aleatoria binomial, encontramos a partir da denicao de
E(X) que:
E(X) =
n

x=0
x p
X
(x) =
n

x=0
x
_
n
x
_
p
x
(1 p)
nx
=
n

x=1
x
n!
(n x)!x!
p
x
(1 p)
nx
=
n

x=1
x
n!
(n x)!x(x 1)!
p
x
(1 p)
nx
=
n

x=1
n!
(n x)!(x 1)!
p
x
(1 p)
nx
=
n

x=1
n(n 1)!
(n x)!(x 1)!
p
x
(1 p)
nx
= np
n

x=1
(n 1)!
(n x)!(x 1)!
p
x1
(1 p)
nx
= np
n

x=1
_
n 1
x 1
_
p
x1
(1 p)
nx
.
56 CAP

ITULO 2. VARI

AVEIS ALEAT

ORIAS DISCRETAS
Tomando, l = x 1, temos que
E(X) = np
n1

l=0
_
n 1
l
_
p
l
(1 p)
(n1)l
.
De acordo com a denicao de distribui cao de probabilidade de uma v.a binomial,
n

x=0
_
n
x
_
p
x
(1 p)
nx
= 1.
Portanto, a partir da expressao acima, temos que
E(X) = np.
Agora temos que encontrar E(X
2
) para obter V ar(X):
E(X
2
) =
n

x=0
x
2
p
X
(x) =
n

x=1
x
2
_
n
x
_
p
x
(1 p)
nx
=
n

x=1
[x(x 1) +x]
_
n
x
_
p
x
(1 p)
nx
=
n

x=2
x(x 1)
_
n
x
_
p
x
(1 p)
nx
+
n

x=1
x
_
n
x
_
p
x
(1 p)
nx
=
n

x=2
n!
(x 2)!(n x)!
p
x
(1 p)
nx
+np
=
n

x=2
n.(n 1)(n 2)!
(x 2)!(n x)!
p
2
p
x2
q
nx
+ np
= n.(n 1)p
2
n

x=2
(n 2)!
(x 2)!(n x)!
p
x2
q
nx
+ np.
Tomando agora , l = x 2, temos que
E(X
2
) = n.(n 1)p
2
n2

l=2
_
n 2
l
_
p
l
q
n2l
+ np
= n(n 1)p
2
+ np.
Finalmente encontramos V ar(X):
V ar(X) = E(X
2
) (E(X))
2
= n(n 1)p
2
+np n
2
p
2
= n(np
2
p
2
+p np
2
)
= np(np p + 1 np)
= np(1 p).
Exemplo 2.6.5 Seja Y = 3X + 2 uma vari avel aleatoria binomial de par ametros n = 20 e p = 0.3,
encontre:
2.6. VARI

AVEIS ALEAT

ORIAS DISCRETAS 57
(a) E(Y ).
Como vimos anteriormente, E(aX +b) = aE(X) +b, assim nesse caso podemos observar que a = 3
e b = 2, logo:
E(3X + 2) = E(3X) +E(2) = 3E(X) + 2.
Temos que E(X) = np. Entao
E(3X + 2) = 3(np) + 2 = 3(20)(0.3) + 2 = 20.
(b) V ar(Y ).
Sabemos que V ar(aX +b) = a
2
V ar(X), entao
V ar(Y ) = V ar(3X + 2) = V ar(3X) +V ar(2) = 3
2
V ar(X) + 0 = 9V ar(X).
Sendo V ar(X) = np(1 p), temos que
V ar(3X + 2) = 9np(1 p) = 37, 8.
2.6.4 Geometrica
Suponha que repitimos independentemente o lan camento de uma moeda cuja probabilidade de sair cara
e p e sair coroa e (1 p), onde 0 < p < 1. A variavel aleatoria geometrica corresponde ao n umero de
lancamentos necessarios para ocorrer uma cara pela primeira vez. Usamos a notacao X Geo(p), para
representar que X e uma v.a com distribuicao geometrica. Neste caso:
Podemos precisar de 1 lancamento apenas
Podemos precisar de 2 lancamentos apenas
.
.
.
Podemos precisar de n lan camentos
O espaco amostral para esse experimento e o conjunto:
= H, TH, TTH, TTTH....
Sendo X a v.a que representa o n umero de lancamentos que sairam coroa antes de sair a primeira cara,
qual e a distribui cao de probabilidade de X?
Vemos facilmente que
X = 1 = H P(X = 1) = p
X = 2 = TH P(X = 2) = p(1 p)
.
.
.
X = x = TT...T
. .
n1
H P(X = x) = p(1 p)
x1
,
uma vez que p(1 p)
x1
, e a probabilidade de sair uma sequencia de lan camentos consistindo de x 1
sucessivas coroas seguidas por uma cara.
58 CAP

ITULO 2. VARI

AVEIS ALEAT

ORIAS DISCRETAS
Simplicando, diz-se que uma variavel aleatoria tem distribui cao geometrica, se possui a seguinte
distribui cao de probabilidade:
p(1 p)
x1
, x = 1, 2, . . .
Note que, no caso binomial, o n umero de repeticoes e pre determinado e aqui este n umero e uma variavel
aleatoria. Na interpretacao do modelo geometrico, pode-se dizer que a v.a. X, com distribui cao geometrica,
corresponde ao n umero de ensaios de Bernoulli que precedem o primeiro sucesso.
Agora para vericar se a distribui cao de probabilidade foi corretamente denida, vamos provar que a
probabilidade do conjunto e 1:
Temos que
= X = 1 X = 2 ... =

x=1
X = x, n N.
Entao
P() = P(

x=1
X = x) =

x=1
P(X = x)
=

x=1
p(1 p)
x1
= p
1
1 (1 p)
=
p
p
= 1.
A ultima igualdade e consequencia da serie geometrica.
Esperanca e Variancia:
Se X tiver distribuicao Geometrica, vamos mostrar que
E(X) =
1
p
e V ar(X) =
1 p
p
2
.
Prova:
Para calcular a E(X), usaremos uma expressao muito utilizada nos estudos de Calculo. Para todo
n umero real x no intervalo (0, 1) consideremos a serie geometrica cuja soma e dada a seguir:

x=1
x
i
=
1
1 x
. (2.1)
Derivando-se ambos os lados dessa igualdade, temos:
d
dx

x=1
x
i
=

x=1
ix
i1
=
1
(1 x)
2
. (2.2)
Denimos q = 1 p. Usando a denicao de Esperanca, tem-se:
E(X) =
n

x=0
x p
X
(x) =
n

x=1
x p.q
x1
.
Utilizando as expressoes (2.1) e (2.2), obtemos
E(X) = p
n

x=1
dq
x
dq
= p
d
dq
n

x=1
q
x
= p
d
dq
_
q
1 q
_
= p
1
p
2
=
1
p
.
De maneira analoga, podemos obter E(X
2
) e tambem a variancia de X:
V ar(X) = E(X
2
) E(X)
2
=
1 p
p
2
.
2.6. VARI

AVEIS ALEAT

ORIAS DISCRETAS 59
Exemplo 2.6.6 Uma linha de produc ao esta sendo analisada para efeito de controle de qualidade das
pecas produzidas. Tendo em vista o alto padr ao requerido, a producao e interrompida para regulagem toda
vez que uma peca defeituosa e observada. Se 0, 02 e a probabilidade da peca ser defeituosa, deseja-se
vericar o comportamento da variavel, que representa a quantidade de pecas boas produzidas antes da
primeira defeituosa.
Seja X a variavel aleatoria geometrica que corresponde ao n umero de pecas boas produzidas antes da
primeira defeituosa. Entao a probabilidade de a primeira peca ser defeituosa depois de x pecas boas, e
dada por:
P(X = x) = p(1 p)
x1
= (0, 02)(0, 98)
x1
2.6.5 Poisson
A distribuicao de probabilidade de uma variavel aleatoria que registra o n umero de ocorrencias sobre um
intervalo de tempo e chamada de Poisson. A distribuicao de probabilidade de uma v.a de Poisson, com
parametro > 0, e denida pela seguinte expressao:
P(X = x) =
e

x
x!
, x = 0, 1, . . . ,
com o parametro sendo usualmente referido como a a taxa de ocorrencia. A nota cao X Po(), sera
usada para representar que X e uma v.a que segue o modelo Poisson.
O modelo de Poisson tem sido muito utilizado em experimentos fsicos e biologicos e, nesses casos,
e a frequencia media ou esperada de ocorrencias num determinado intervalo de tempo.
Vamos vericar se a distribuicao de probabilidade de uma v.a de Poisson, foi denida corretamente.
Nao e difcil observar que, para qualquer x, ela e um n umero positivo. Basta mostrar que as probabilidades
somam 1. Temos,

x=0
P(X = x) =

x=0
e

x
x!
= e

x=0

x
x!
= e

= 1.
No calculo acima, usamos que a serie
x
/x!, somada para valores de x 0, produz e

. Esse resultado
e bastante utilizado nos textos de Calculo Diferencial e Integral e segue do desenvolvimento em serie de
Taylor do termo e

.
Exemplo 2.6.7 Nos itens abaixo, temos alguns exemplos de fenomenos aleatorios de contagem em uni-
dade de tempo.
N umeros de carros que chegam a um posto de gasolina;
N umeros de acidentes de transito por semana em uma cidade;
N umeros de chamadas telefonicas por hora em uma central telefonica.
Esperanca e Variancia:
Se X tiver distribuicao de Poisson, vamos mostrar que
E(X) = e V ar(X) = .
Prova:
E(X) =

x=0
x
e

x
x!
=

x=0
x
e

x
x(x 1)!
=

x=1
e

x
(x 1)!
=

x=1
e

x1
(x 1)!
.
Tomando, m = x 1, temos que
60 CAP

ITULO 2. VARI

AVEIS ALEAT

ORIAS DISCRETAS
E(X) =

m=0
e

m
m!
.
De acordo com a denicao de distribui cao de probabilidade de uma v.a de Poisson, temos que

x=0
e

x
x!
= 1.
Portanto, a partir da expressao acima, obtemos
E(X) = .
Agora para calcular a V ar(X), temos que obter E(X
2
):
E(X
2
) =

x=0
x
2
p
X
(x) =

x=0
x
2
e

x
x!
=

x=0
x
2
e

x
x(x 1)!
=

x=1
xe

x
(x 1)!
=

x=1
xe

x1
(x 1)!
.
Tomando novamente, m = x 1, temos que
E(X
2
) =

x=1
(m+ 1)e

m
m!
=

x=1
m e

m
m!
+

x=1
e

m
m!
.
Substituindo a E(X) na expressao acima, obtemos
E(X)
2
= E(X) + =
2
+.
Logo,
V ar(X) = E(X
2
) E(X)
2
=
2
+
2
= .
nalizando a prova.
Exemplo 2.6.8 Calcule as probabilidades de obter X = 2 e X = 3 em uma distribuicao de Poisson com
media igual a 1.
Se a media e 1, entao = 1. Assim, a probabilidade de X = 2 e X = 3 e dada da seguite forma:
P(X = 2) =
e
1
1
2
2!
= 0, 18394.
P(X = 3) =
e
1
1
3
3!
= 0, 06131.
2.7 Funcao de Distribuicao de Probabilidade
Nesta se cao, vamos apresentar uma outra forma de associar probabilidades aos valores ou a intervalos de
valores de uma variavel aleatoria. Chamaremos esta nova forma, de funcao de distribui cao de probabilidade
(f.d.p) ou de funcao de distribui cao acumulativa (f.d.a). Veremos que essa segunda denomina cao e bem
sugestiva para a denicao da fun cao.
2.7. FUNC

AO DE DISTRIBUIC

AO DE PROBABILIDADE 61
Denicao 2.7.1 Seja X uma variavel aleatoria discreta, a funcao de distribuicao de probabilidade de X,
e denida para qualquer n umero real x, pela seguinte expressao:
F(x) = P(X x),
sendo que o domnio de F e todo o conjunto dos n umeros reais, enquanto que a imagem e denida pelo
intervalo [0, 1].
A fun cao de distribuicao de probabilidade de uma variavel aleatoria X, apresenta as seguintes proprieda-
des:
i) 0 F(x) 1, pois F(x) representa uma probabilidade.
ii) F(x) e nao decrescente e contnua `a direita.
iii) lim
x
F(x) = 0 e lim
x+
F(x) = 1.
Exemplo 2.7.1 Seja X a variavel aleatoria que representa o n umero de caras em tres lancamentos in-
dependentes de uma moeda, ou seja, X = 0, 1, 2, 3. Queremos determinar a funcao de distribuicao de
probabilidade da v.a X.
Para denir F(x), precisa-se obter a sua expressao para todo x R:
Se (< x < 0):
F(x) = P(X x) = P( : X() x) = P() = 0.
Se (0 x < 1):
Para x = 0, F(0) = P(X 0) = P(T, T, T) = 1/8.
Note que a variavel so assume valores inteiros, entao esse valor ca inalterado no intervalo [0, 1). Isto e,
F(0.1), F(0.5) ou F(0.9) tambem sao iguais a 1/8. Isso tambem vale para os demais intervalos.
Se (1 x < 2):
Para x = 1, F(1) = P(X 1) = P(H, T, T) +P(T, H, T) +P(T, T, H) = 3/8.
Se (2 x < 3):
Para x = 2, F(2) = P(X 2) = P(H, H, T) +P(T, H, H) +P(H, T, H) = 3/8.
Se (x 3):
Para x = 3, F(3) = P(X 3) = P(H, H, H) = 1/8.
Portanto a funcao de distribuicao de probabilidade da variavel aleatoria X e denida por:
F(x) =
_

_
0 se < x < 0
1/8 se 0 x < 1
3/8 se 1 x < 2
3/8 se 2 x < 3
1/8 se x 3.
62 CAP

ITULO 2. VARI

AVEIS ALEAT

ORIAS DISCRETAS
Exemplo 2.7.2 Considerando o lancamento de dois dados honestos, seja X a v.a que assume os valo-
res da soma das faces, ou seja, X = 2, 3, . . . , 12. Qual e a funcao de distribuic ao de probabilidade de X?
Para denir F(x), precisa-se obter a sua expressao para todo x R:
Se (x < 2):
F(x) = P(X x) = P( : X() x) = P() = 0.
Se (2 x < 3):
Para x = 2, F(2) = P(X 2) = P(1, 1) = 1/36.
Se (3 x < 4):
Para x = 3, F(3) = P(X 3) = P(1, 1) +P(1, 2) +P(2, 1) = 3/36.
Repetimos esses mesmos passos para os demais valores de x. Deste modo, encontramos os valores com-
pletos da func ao de distribuicao de probabilidade da vari avel aleatoria X:
F(x) =
_

_
0 se x < 2
1/36 se 2 x < 3
3/36 se 3 x < 4
6/36 se 4 x < 5
10/36 se 5 x < 6
15/36 se 6 x < 7
21/36 se 7 x < 8
26/36 se 8 x < 9
30/36 se 9 x < 10
33/36 se 10 x < 11
35/36 se 11 x < 12
1 se x 12.
A partir da fun cao de distribuicao de probabilidade de uma v.a X, conseguimos encontrar a sua distri-
buicao de massa de probabilidade.
Exemplo 2.7.3 Uma v.a X possui a seguinte funcao de distribuicao de probabilidade:
F(x) =
_

_
0 se x < 5
0.3 se 5 x < 7
0.5 se 7 x < 8
0.9 se 8 x < 15
1 se x 15.
Com essas informacoes vamos determinar a distribuicao de probabilidade de X.
Baseando-se na denicao de func ao de distribuicao de probabilidade, temos que a distribuicao de
probabilidade de X e denida por:
2.8. FUNC

AO GERADORA DE PROBABILIDADES 63
X P(X = x)
5 0.3
7 0.2
8 0.4
15 0.1
Exerccio:
De acordo com o exemplo 2.7.3, determine as seguintes probabilidades:
a) P(X 7).
b) P(X < 7).
c) P(7 X 10).
d) P(X > 9).
2.8 Funcao Geradora de Probabilidades
Se X for uma variavel aleatoria com p
X
dada e I
X
= 0, 1, 2, . . ., denimos a seguinte funcao
G(s) = E(s
X
) = s
0
p
X
(0) +s
1
p
X
(1) +s
2
p
X
(2) +. . . =

r=0
s
r
p
X
(r).
Exemplo 2.8.1 Se X for uma variavel aleatoria binomial de parametros n e p, o que indicaremos por
X Bin(n, p), temos que
E(s
X
) =
n

r=0
s
r
p
X
(r) =
n

r=0
s
r
_
n
r
_
p
r
(1 p)
nr
=
n

r=0
_
n
r
_
(sp)
r
(1 p)
nr
= (sp + (1 p))
n
.
Portanto, G(s) = (sp + 1 p)
n
.
Exemplo 2.8.2 Se X for uma variavel aleatoria geometrica de parametro p, o que indicaremos por
X Geo(p), temos que
E(s
X
) =

r=1
s
r
p
X
(r) =

r=1
s
r
(1 p)
r1
p
= ps

r=1
[s(1 p)]
r1
= ps
1
1 s(1 p)
.
Portanto, G(s) =
ps
1 s(1 p)
.
A funcao G(s) e chamada de fun cao geradora de probabilidades. Como veremos no teorema a seguir, a
sua importancia se deve ao fato de facilitar a obtencao da E(X) e da V ar(X).
Teorema 2.8.1 Seja E(s
X
) = G(s), e seja G
(r)
(s) a r-esima derivada de G(s). Entao
G
(r)
(1) = EX(X 1)(X 2) . . . (X r + 1).
Em particular, G
(1)
(s)

s=1
=
dG(s)
ds

s=1
= G

(1) = E(X).
64 CAP

ITULO 2. VARI

AVEIS ALEAT

ORIAS DISCRETAS
A prova desse teorema pode ser vista em Grimmett (2001).
Observacoes
1. Para r = 2 temos
G
(2)
(s) =
d
2
G(s)
ds
2
= G

(s)
G

(1) = EX(X 2 + 1) = EX(X 1) = EX


2
X
2. A serie

r=0
s
r
p
X
(r) converge para [s[ 1, pois

r=0
p
X
(r) = 1. Logo G(s) esta bem denida para
[s[ 1.
Voltando ao exemplo 1.8.1, onde X Bin(n, p) e G(s) = (sp + 1 p)
n
, temos que
G

(s) = n(sp + 1 p)
n1
p = pn(sp + 1 p)
n1
G

(s) = pn(n 1)p(sp + 1 p)


n2
= p
2
n(n 1)(sp + 1 p)
n2
.
Assim pelo teorema anterior,
G

(1) = E(X) = np,


G

(1) = EX(X 1) = EX
2
X = E(X
2
) E(X).
Logo
G

(1) = p
2
n(n 1) = E(X
2
) E(X)
= p
2
n(n 1) = E(X
2
) np
Portanto,
E(X
2
) = p
2
n(n 1) +np = np(n 1)p + 1.
Agora podemos encontrar V ar(X) = E(X
2
) (E(X))
2
:
V ar(X) = np(n 1)p + 1 n
2
p
2
= npnp p + 1 np = np(1 p).
Voltando agora ao exemplo 1.8.2, onde X Geo(p) e G(s) =
ps
1 s(1 p)
, temos que
G

(s) =
p[1 s(1 p)] [(1 p)]ps
[1 s(1 p)]
2
=
p ps(1 p) +ps(1 p)
[1 s(1 p)]
2
=
p
[1 s(1 p)]
2
.
Substituindo s = 1, encontramos
G

(1) =
p
p
2
=
1
p
= E(X).
Fica a cargo do leitor encontrar V ar(X).
2.9. EXERC

ICIOS 65
2.9 Exerccios
1. Seja (, T, P) o espaco de probabilidade . Para o evento D temos a seguinte variavel aleatoria
X() =
_
_
_
1, se D,
0, se / D.
(a) Mostre que E(X) = P(D).
(b) Mostre que V ar(X) = P(D) P(D
c
).
2. Suponha um jogo infantil onde ha a representacao de uma estrada de 100km que liga a cidade B `a
cidade A. A estrada e tortuosa e esta dividida em 100 quadradinhos de 1km. O jogo comeca com
todos os jogadores na cidade B.

E escolhida uma ordem entre os jogadores, e cada um lanca um dado
honesto duas vezes, e de maneira independente. A soma dos resultados corresponde `a distancia que
cada jogador percorrera em cada rodada. Ganha aquele que chegar primeiro na cidade A.
(a) Encontre .
Voce concorda que os jogadores estao mais interessados na soma dos ressultados do lancamento
do que com os elementos de ? Por isso, e interessante denir a variavel aleatoria S que associa
a cada elemento de a soma dos resultados dos lan camentos.
(b) Encontre S = 8, S = 12.
(c) Se o dado tivesse apenas 3 faces, como seria a distribuicao de massa de probabilidade de S?
(d) Para a mesma situacao do item c, encontre E(S) e V ar(S).
3. Seja =
1
,
2
,
3
,
4
,
5
,
6
,
7
,
8
,
9
,
10
. Considere que todos os eventos elementatares sao
equiprovaveis. Denamos em a seguinte variavel aleatoria:
X(
1
) = X(
2
) = X(
3
) = X(
5
) = 5
X(
4
) = X(
8
) = 10
X(
6
) = X(
7
) = X(
9
) = 20
X(
10
) = 30
(a) Determine a distribui cao de massa de probabilidade de X.
(b) Calcule E(X)
(c) Calcule E(a X), a R.
4. Considere o espaco amostral = 1, 2, 3, 4, 5, 6, e considere os eventos elementares equiprovaveis.
Seja X uma variavel aleatoria tal que
X(1) = X(2) = X(3) = X(5) = 1
X(4) = X(6) = 1.
(a) Determine a distribui cao de massa de probabilidade de X.
(b) Calcule E(X).
66 CAP

ITULO 2. VARI

AVEIS ALEAT

ORIAS DISCRETAS
(c) Calcule E(a X +b), a e b R.
(d) Seja Y = X
2
. Calcule E(Y ).
5. Seja = 1, 2, 3, 4, 5, 6. E sejam os eventos
(AB) = 1, (B A) = 4, 6, (A B) = 1, 3, 4, 6.
Considere os eventos elementares equiprovaveis.
(a) Determine P(A) e P(B).
(b) Dena a seguinte variavel aleat oria
X(2) = X(4) = X(6) = 1
X(1) = X(3) = X(9) = 1.
Encontre a distribui cao de massa de probabilidade de X.
(c) Calcule E(X) e V ar(X).
6. Seja o espaco de probabilidade (, T, P). Considere a variavel aleatoria X, com a seguinte distri-
bui cao de massa de probabilidade:
k 1 0 1 2
p
X
(k) 0.2 0.1 0.3 0.4
Para = 2
X
encontre:
(a) E().
(b) V ar().
7. Considere que voce esteja numa situa cao difcil. Voce vai assistir a aula de uma disciplina e descobre
que o professor preparou uma prova surpresa. Agora voce esta diante de uma prova teste com 10
questoes, cada uma com 4 alternativas equiprovaveis, e somente uma correta, e esta totalmente
despreparada. Voce sequer apareceu nas ultimas aulas. Voce nao foi muito bem na primeira prova
do curso, e sabe que se tirar 6 nessa prova voce passa, caso contrario voce vai ter que fazer a
recupera cao. Voce decide responder `as questoes de maneira aleatoria e de forma que a resposta de
uma n ao inuencie nas outras e vice-versa, ou seja de maneira independente.
(a) Considere a seguinte varavel aleatoria: R
i
= 1 se a i-esima resposta for correta, e R
i
= 0 se a
i-esima resposta nao for correta. Encontre a distribuicao de massa de probabilidade de R
i
.
(b) Encontre E(X) e V ar(X).
8. Seja X uma variavel aleatoria de Bernoulli que assume 1 com probabilidade p e 0 com probabilidade
1 p.
(a) Encontre E(X).
(b) Encontre V ar(X).
2.9. EXERC

ICIOS 67
Agora considere a soma de 12 vari aveis aleatorias de Bernoulli independentes como a denida acima.
Encontre E(X) e V ar(X).
9. Seja X uma variavel aleatoria de Bernoulli tal que
X() =
_
_
_
1, com probabilidade p,
1, com probabilidade 1 p.
(a) Encontre E(X).
(b) Encontre V ar(X).
Agora considere a soma de 10 vari aveis aleatorias de Bernoulli independentes como a denida acima.
Encontre E(X) e V ar(X).
10. Utilizando o teorema 2.8.1, encontre E(X
3
) para X Bin(n, p) e X Geo(p).
11. Experimento Aleatorio: Uma moeda honesta e lancada duas vezes. Seja X() o n umero de
ocorrencias de caras.
(a) Encontre .
(b) Encontre a distribui cao de massa de probabilidade de X.
(c) Encontre E(X).
(d) Encontre V ar(X).
(e) Encontre a fun cao geradora de probabilidades G(s).
(f) A partir da G(s) e do teorema acima, conra se os resultados encontrados nos itens (b) e (c)
estao corretos
12. Encontre a fun cao geradora de probabilidade para a seguinte variavel aleatoria
X() =
_
_
_
1, com probabilidade p,
1, com probabilidade 1 p.
Agora, use-a para encontrar E(X) e V ar(X).
13. Nas 3 situa coes seguintes, calcule explicitamente a probabilidade pedida.
(a) Uma moeda honesta e lancada 3 vezes. Qual a probabilidade de serem obtidas 2 caras?
Dica: Neste caso a v.a. X e o n umero de caras em 3 lancamentos. Entao X tem distribuicao
binomial de parametros n = 3 e p = 1/2.
(b) Um dado honesto e lancado cinco vezes. Qual e a probabilidade de se obter face 5 no maximo
3 vezes?
Dica: Neste caso a v.a. X e o n umero de vezes que aparece face 5 em 5 lancamentos. Entao
X tem distribui cao binomial de parametros n = 5 e p = 1/6. E a probabilidade que se quer
calcular e P(X 3).
68 CAP

ITULO 2. VARI

AVEIS ALEAT

ORIAS DISCRETAS
(c) Dez pecas sao extradas, ao acaso, com reposicao, de um lote contendo 500 pecas. Qual e
a probabilidade de que todas sejam defeituosas, sabendo-se que 10% das pe cas do lote sao
defeituosas.
Dica: Neste caso a v.a. X e o n umero de pecas defeituosas num lote de 10 pecas. Entao X
tem distribuicao binomial de parametros n = 10 e p = 0, 1. E a probabilidade que se quer
calcular e P(X = 10).
14. Acredita-se que 20% dos moradores das proximidades de uma grande ind ustria sider urgica tem
alergia aos poluentes lancados ao ar. Admitindo que este percentual de alergicos e real (correto),
calcule a probabilidade de que pelo menos 4 moradores tenham alergia entre 13 selecionados ao
acaso.
15. Tres em cada quatro alunos de uma universidade zeram cursinho antes de prestar vestibular. Se
16 alunos sao selecionados ao acaso, qual e a probabilidade de que:
(a) Pelo menos 12 tenham feito cursinho?
(b) No maximo 13 tenham feito cursinho?
(c) Exatamente 12 tenham feito cursinho?
16. Num teste tipo certo/errado, com 50 questoes, qual a probabilidade de que um aluno acerte 80%
das questoes, supondo que ele as responda ao acaso?
17. Repita o exerccio anterior, considerando cinco alternativas para cada questao.
18. Seja X uma v.a. Binomial com parametros n = 20 e p = 3/4. Encontre E(X) e V ar(X) em funcao
de n e p.
19. Seja X uma variavel aleatoria Geometrica de parametro p.
(a) Para n 0, mostre que P(X > n) = (1 p)
n
.
(b) Mostre que para n, k = 0, 1, 2, . . .,
P(X > n +k[X > k) = P(X > n).
Captulo 3
Vetores Aleatorios Discretos
3.1 Distribuicao Conjunta de Probabilidade
Modelos probabilsticos geralmente envolvem varias variaveis aleatorias. Aqui vamos nos concentrar
no estudo de um par de variaveis aleatorias, nao se esquecendo que os resultados obtidos para o caso
bidimensional podem ser estendidos facilmente a um conjunto nito de variaveis aleatorias. A seguir
temos a deni cao de vetor aleatorio bidimensional.
Denicao 3.1.1 Sejam X e Y duas variaveis aleatorias. Chamamos (X, Y ) de vetor aleatorio bidimen-
sional, que sera discreto se X e Y forem vari aveis aleatorias discretas.
Exemplo 3.1.1 No contexto de diagn ostico medico, os resultados de diversos exames sao signicativos
para o prossional medico descobrir que doenca acomete seu paciente.
Digamos que um paciente procure um medico com sintomas de cansaco e tontura. O medico pede um
exame de sangue para vericar anemia e diabetes. Denamos:
X =
_
1, se o paciente tiver anemia
0, caso contrario
Y =
_
1, se o paciente tiver diabetes
0, caso contr ario
Nesse caso o par (X, Y ) e uma vetor aleatorio bidimensional.
Um vetor aleatorio analogamente a uma variavel aleatoria unidimensional so ca determinado quando
alem de seus valores, tambem sao conhecidas as probabilidades com que esses valores sao assumidos. A
denicao de distribuicao de probabilidade apresentada para uma v.a unidimensional pode ser estendida
de maneira natural para uma vetor aleatorio.
Denicao 3.1.2 (Distribuicao de Probabilidade Conjunta).
Seja (X, Y ) um vetor aleat orio discreto, onde X assume os valores x
1
, x
2
, . . . , x
n
e Y assume os valores
y
1
, y
2
, . . . , y
m
. A cada par ordenado (x
i
, y
j
) associaremos um n umero p(x
i
, y
j
) = P(X = x
i
, Y = y
j
),
satisfazendo:
1. p(x
i
, y
j
) 0, i, j;
69
70 CAP

ITULO 3. VETORES ALEAT

ORIOS DISCRETOS
2.
n

i=1
m

j=1
p(x
i
, y
j
) = 1.
O conjunto de valores p(x
i
, y
j
), 1 i n, 1 j n e a distribuicao conjunta do vetor aleatorio discreto
(X, Y ). Esses valores sao normalmente apresentados em forma de tabela, tal como veremos nos exemplos
abaixo.
Agora, considerando o exemplo 3.1.1, conseguimos responder algumas perguntas como: a pessoa pode ter
as duas doencas?
Nesse caso os eventos de interesse sao: X = 1 e Y = 1. Em palavras, queremos saber qual e
a probabilidade da pessoa apresentar as duas doen cas. Por meio da distribui cao conjunta conseguimos
encontrar essas probabilidades, ou seja, calculamos
P(X = 1 Y = 1) = P(X = 1, Y = 1).
Isto e, obtemos com que probabilidade X e Y assumem conjuntamente (ao mesmo tempo) seus diversos
valores.
O proximo exemplo foi retirado do livro de Bussab e Morettin (2002).
Exemplo 3.1.2 Suponha que estamos interessados em estudar famlias compostas por 3 criancas. De-
namos:
X = n umero de meninos
Y =
_
1, se o 1

lho for homem


0, se o 1

lho for mulher


Z = n umero de vezes em que houve variacao do sexo entre um nascimento e outro, dentro da mesma
famlia.
Com essas informacoes, e supondo que cada composisao tenha a mesma probabilidade, obtemos na
tabela abaixo a probabilidade de cada evento possvel, onde H e M representam se o lho e homem ou
mulher, respectivamente:
elementos de Probabilidade X Y Z
HHH 1/8 3 1 0
HHM 1/8 2 1 1
HMH 1/8 2 1 2
MHH 1/8 2 0 1
HMM 1/8 1 1 1
MHM 1/8 1 0 2
MMH 1/8 1 0 1
MMM 1/8 0 0 0
Obtidos esses resultados podemos determinar qual e a distribuicao conjunta do vetor aleatorio (X, Y ). Por
exemplo,
P(X = 2, Y = 1) = P(HHM, HMH)
= P(HHM) +P(HMH)
= 1/8 + 1/8 = 2/8
3.2. DISTRIBUIC

OES MARGINAIS 71
Seguindo esse mesmo procedimento para os demais pares ordenados assumidos por (X, Y ), encontramos
sua distribuicao conjunta:
X = 0 X = 1 X = 2 X = 3
Y = 0 1/8 2/8 1/8 0
Y = 1 0 1/8 2/8 1/8
Fica a cargo do leitor encontrar a distribuicao conjunta do vetor (X, Y, Z).
3.2 Distribuic oes Marginais
Consideramos anteriormente uma variavel aleatoria bidimensional (X, Y ), onde X assume os valores
x
1
, x
2
, . . . , x
n
e Y assume os valores y
1
, y
2
, . . . , y
m
. Seja P(X = x
i
, Y = y
j
), para i = 1, 2, . . . , n e
j = 1, 2, . . . , m a distribui cao conjunta de (X, Y ). Uma vez que tenhamos a distribui cao de massa de
probabilidade conjunta, podemos recuperar p
X
e p
Y
.
A distribuicao de probabilidade de X e obtida calculando-se para i = 1, 2, . . . , n:
p
X
(x
i
) = P(X = x
i
) =
m

j=1
P(X = x
i
, Y = y
j
) =
m

j=1
p
X,Y
(x
i
, y
j
).
Ela e denominada distribui cao marginal de X.
A distribuicao marginal de Y e calculada de modo analogo. Entao para j = 1, 2, . . . , m, temos que
p
Y
(y
j
) = P(Y = y
j
) =
n

i=1
P(X = x
i
, Y = y
j
) =
n

i=1
p
X,Y
(x
i
, y
j
).
Exemplo 3.2.1 Seja (X, Y ) um vetor aleatorio discreto. A distribuicao conjunta de X e Y e dada pela
tabela a seguir. Determine as suas distribuicoes marginais.
Y = 1 Y = 2 Y = 3
Y = 1 0 1/5 0
Y = 2 1/5 1/5 1/5
Y = 3 0 1/5 0
Primeiramente vamos calcular a distribuic ao marginal de X:
p
X
(1) =
3

j=1
p
X,Y
(1, j) = p
X
(1, 1) +p
X
(1, 2) +p
X
(1, 3) = 0 +
1
5
+ 0 =
1
5
p
X
(2) =
3

j=1
p
X,Y
(2, j) = p
X
(2, 1) +p
X
(2, 2) +p
X
(2, 3) =
1
5
+
1
5
+
1
5
=
3
5
p
X
(3) =
3

j=1
p
X,Y
(3, j) = p
X
(3, 1) +p
X
(3, 2) +p
X
(3, 3) = 0 +
1
5
+ 0 =
1
5
Agora de forma analoga obtemos a distribuicao marginal de Y :
p
Y
(1) =
3

i=1
p
X,Y
(i, 1) = p
Y
(1, 1) +p
Y
(2, 1) +p
Y
(3, 1) = 0 +
1
5
+ 0 =
1
5
72 CAP

ITULO 3. VETORES ALEAT

ORIOS DISCRETOS
p
Y
(2) =
3

i=1
p
X,Y
(i, 2) = p
X
(1, 2) +p
X
(2, 2) +p
X
(3, 2) =
1
5
+
1
5
+
1
5
=
3
5
p
Y
(3) =
3

i=1
p
X,Y
(i, 3) = p
X
(1, 3) +p
X
(2, 3) +p
X
(3, 3) = 0 +
1
5
+ 0 =
1
5
3.3 Distribuic oes Condicionais
Quando trabalhamos com vetores aleatorios, e conveniente calcular proporcoes em rela cao a uma linha
ou coluna da tabela de distribuicao conjunta, e nao em relacao ao total. Assim, considerando novamente
o exemplo 3.1.2, qual seria a distribuicao do n umero de meninos, sabendo-se que o primeiro lho e do
sexo masculino? Ou seja, queremos calcular a probabilidade P(X = x[Y = 1) = P(X = x[Y = 1). A
partir da denicao de probabilidade condicional, obtemos
P(X = x[Y = 1) =
P(X = x Y = 1)
P(Y = 1)
=
P(X = x, Y = 1)
P(Y = 1)
, x = 0, 1, 2, 3.
Usamos p
X|Y
(x, y) para denotar a probabilidade condicional dos valores de X dado um valor de Y .
De forma geral podemos denir a distribuicao condicional de duas variaveis aleatorias da seguinte forma:
Denicao 3.3.1 Seja (X, Y ) um vetor aleatorio discreto. A probabilidade condicional de X = x, dado
que Y = y ocorreu, e dada pela expressao:
P(X = x[Y = y) =
P(X = x, Y = y)
P(Y = y)
, se P(Y = y) > 0.
Denimos a probabilidade condicional de Y = y, dado que X = x ocorreu da mesma forma. Logo temos
que
P(Y = y[X = x) =
P(X = x, Y = y)
P(X = x)
.
As mesmas condicoes impostas a P(Y = y) para o calculo de P(X = x[Y = y) sao transferidas `a P(X = x)
para determinar P(Y = y[X = x).
A seguir temos outro exemplo retirado de Bussab e Morettin (2002).
Exemplo 3.3.1 Num estudo de rotatividade de mao-de-obra, foram denidas para certa populacao de
trabalhadores as variaveis aleatorias:
X = n umero de empregos que um funcionario teve ao mesmo tempo no ultimo ano
Y = salario
Obteve-se a seguinte distribuicao conjunta:
X = 1 X = 2 X = 3 X = 4
Y = 800 0 0 0.10 0.10
Y = 1200 0.05 0.05 0.10 0.10
Y = 2000 0.05 0.20 0.05 0
Y = 5000 0.10 0.05 0.05 0
3.4. INDEPEND

ENCIA 73
A partir dessas informacoes queremos estudar a distribuic ao do n umero de empregos de cada trabalhador
no ultimo ano, dado que o salario foi de 5000 reais, isto e, queremos estudar a distribuicao de probabilidade
de X dado que Y = 5000 :
P(X = x, Y = 5000) =
P(X = x, Y = 5000)
P(Y = 5000)
.
Da ultima linha da tabela obtemos as probabilidades conjuntas de interesse, P(X = 1, Y = 5000), P(X =
2, Y = 5000), P(X = 3, Y = 5000) e P(X = 4, Y = 5000). Dividindo-se essas probabilidades por P(Y =
5000), que esta na margem da tabela, obtemos a probabilidade condicional P(X = x
i
[Y = 5000):
p
X|Y
(1, 5000) =
P(X = 1, Y = 5000)
P(Y = 5000)
=
0.10
0.20
=
1
2
p
X|Y
(2, 5000) =
P(X = 2, Y = 5000)
P(Y = 5000)
=
0.05
0.20
=
1
4
p
X|Y
(3, 5000) =
P(X = 3, Y = 5000)
P(Y = 5000)
=
0.05
0.20
=
1
4
p
X|Y
(4, 5000) =
P(X = 4, Y = 5000)
P(Y = 5000)
=
0
0.20
= 0
Os resultados obtidos podem ser vericados de forma simplicada, na tabela abaixo:
X 1 2 3 4
p
X|Y
1/2 1/4 1/4 0
Por meio da amostra escolhida, conclui-se que metade das pessoas que possuem salarios de 5000 reais, s o
tiveram um emprego e a outra metade e representada por pessoas que tiveram 2 ou 3 empregos.
Considere a distribuicao condicional de X, dado que Y = 5000, apresentada no exemplo 3.3.1. Podemos
calcular a media dessa distribuicao, a saber
E(X[Y = 5000) = 1(1/2) + 2(1/4) + 3(1/4) + 4(0).
De modo geral, dada a probabilidade condicional de P(X[Y = y), podemos calcular a esperanca dos
valores de X dado um valor de Y . Apresentamos isso na seguinte denicao:
Denicao 3.3.2 A esperanca de X, dado que Y = y
j
, e denida por
E(X[Y = y
j
) =
n

i=1
x
i
P(X = x
i
[Y = y
j
).
Uma denicao an aloga vale para E(Y [X = x
i
).
3.4 Independencia
Intuitivamente a independencia de X em rela cao a Y signica: seja qual for o valor que Y assuma, isso
nao inuencia no fato de X assumir quaisquer de seus valores .
Os conceitos envolvidos na independencia de variaveis aleatorias sao os mesmos ja vistos para eventos
independentes.
74 CAP

ITULO 3. VETORES ALEAT

ORIOS DISCRETOS
Denicao 3.4.1 Dizemos que duas variaveis aleatorias X e Y sao independentes se
p
X,Y
(x, y) = p
X
(x)p
Y
(y), para todo x I
X
e y I
Y
.
Observacoes:
1. a denicao acima e equivalente a dizer que os eventos X = x e Y = y sao independentes para
todo x I
X
e todo y I
Y
.
2. relembrando que p
X|Y
(x[y) =
p
X,Y
(x, y)
p
Y
(y)
. Entao quando X e Y sao independentes temos que
p
X|Y
(x[y) =
p
X
(x) p
Y
(y)
p
Y
(y)
= p
X
(x) para todo y com p
Y
(y) > 0 e todo x.
Exemplo 3.4.1 Sejam X e Y duas variaveis aleatorias, cuja distribuicao conjunta e dada por
p
X,Y
(x, y) =
x +y
21
, x = 1, 2, 3 e y = 1, 2.
Vamos determinar se X e Y sao independentes.
Temos que vericar se p
X,Y
(x, y) = p
X
(x). p
Y
(y). O primeiro passo e encontrar as distribuicoes
marginais p
X
(x), para x = 1, 2, 3 e p
Y
(y), para y = 1, 2:
p
X
(x) =
2

y=1
p
X,Y
(x, y) =
2

y=1
x +y
21
=
x + 1
21
=
2x + 3
21
p
Y
(y) =
3

x=1
p
X,Y
(x, y) =
3

x=1
x +y
21
=
1 +y
21
+
2 +y
21
+
3 +y
21
=
6 + 3y
21
Encontrado as distribuicoes marginais de X e Y , podemos substituir valores para vericar se a igualdade
acima e satisfeita, pois se existir pelo menos um par (x, y), tal que p
X,Y
(x, y) ,= p
X
(x)p
Y
(y), X e Y nao
serao independentes.
Entao, testando para x = 1 e y = 1, temos que:
p
X,Y
(1, 1) =
2
21
,= p
X
(1)p
Y
(1) =
45
21
.
Portanto, as vari aveis aleatorias X e Y nao sao independentes.
A independencia de variaveis aleatorias implica tambem em outros resultados, um deles e mostrado na
denicao abaixo.
Lema 3.4.1 Se X e Y forem vari aveis aleatorias independentes, entao
E(XY ) = E(X)E(Y ).
A demonstracao deste lema e vista facilmente:
Suponhamos que a distribuicao conjunta de (X, Y ), seja dada por p
X,Y
(x
i
, y
j
), para i = 1, 2, . . . , n e
j = 1, 2, . . . , m, entao:
E(XY ) =
n

i=1
m

j=1
x
i
y
j
p
X,Y
(x
i
, y
j
) =
n

i=1
m

j=1
x
i
y
j
p
X
(x
i
)p
Y
(y
j
)
=
n

i=1
x
i
p
X
(x
i
)
m

j=1
y
j
p
Y
(y
j
) = E(X)E(Y ).
3.5. COVARI

ANCIA 75
3.5 Covariancia
1
Seja (X, Y ) um vetor aleatorio discreto. Vimos ate aqui que as esperancas de X e Y nos fornecem
uma medida de posicao das respectivas distribuicoes nos respectivos eixos da coordenada do plano. E as
variancias de X e de Y dao uma medida da dispersao dos valores de cada variavel aleatoria em torno das
respectivas medias E(X) e E(Y ).
A covariancia, que deniremos a seguir, fornece a medida de dispersao dos valores das variaveis
aleatorias (X, Y ) em rela cao ao ponto (E(X), E(Y )).
Denicao 3.5.1 Seja (X, Y ) um vetor aleatorio. A covariancia entre X e Y e denida por
Cov(X, Y ) = E[(X E(X))(Y E(Y ))].
Em palavras, a covariancia de X e Y e o valor medio do produto dos desvios dos valores de cada uma das
duas vari aveis aleatorias em relacao a suas medias. Isso implica que,
Cov(X, Y ) > 0 : X e Y sao positivamente correlacionadas
Cov(X, Y ) < 0 : X e Y sao negativamente correlacionadas
Cov(X, Y ) = 0 : X e Y nao sao correlacionadas
A formula da covariancia pode ser escrita de uma forma mais simples. Note que
Cov(X, Y ) = E[XY XE(Y ) Y E(X) +E(X)E(Y )]
= E(XY ) E(X)E(Y ) E(Y )E(X) +E(X)E(Y )
ou seja,
Cov(X, Y ) = E(XY ) E(X)E(Y ).
Quando escrevemos a formula da covariancia dessa maneira, ca facil entender o proximo resultado.
Lema 3.5.1 Se X e Y forem vari aveis aleatorias independentes, temos que a Cov(X, Y ) = 0.
Em palavras, se X e Y forem independentes, entao elas serao nao-correlacionadas. A recproca desse lema
nao e verdadeira, ou seja, se tivermos Cov(X, Y ) = 0 isso nao implica que X e Y sejam independentes.
Agora sabendo que X e Y sao independentes, a esperanca do produtos das variaveis e igual ao produto
das esperancas, o que torna a demonstracao do lema imediata.
3.6 Correlacao
2

E comum estarmos interessados na relacao entre duas variaveis aleatorias. Por exemplo, e razoavel
esperar uma correlacao (variacao em conjunto) entre um aumento no nvel de produ cao da economia e o
n umero de pessoas empregadas. Ou ainda, o percentual de inadimplencia dos clientes de uma institui cao
nanceira pode estar associado com as varia coes vericadas em seus nveis de renda.
Assim, a correlacao entre duas variaveis aleatorias indica a maneira como essas se movem juntas. A
medicao desse relacionamento e obtida estatisticamente por meio do coeciente de correlacao.
1
Seguindo Dantas [3]
2
Seguindo Dantas [3]
76 CAP

ITULO 3. VETORES ALEAT

ORIOS DISCRETOS
Denicao 3.6.1 Seja (X, Y ) um vetor aleat orio bidimensional, denimos o coeciente de correlacao
entre X e Y como
(X, Y ) =
Cov(X, Y )
_
V ar(X). V ar(Y )
=
Cov(X, Y )

Y
.
Em palavras, o coeciente de correlacao e o quociente entre a covariancia e o produto dos desvios-padrao
de X e Y . A divisao pelo produto dos desvios-padrao tem a funcao de padronizar a medida e torna-la
possvel de ser utilizada para compara coes com outras variaveis.
O coeciente de correla cao varia entre -1 e 1, sendo interpretado em funcao do resultado e sinal esperados.
Assim, quanto mais perto de -1 situar-se o coeciente, mais negativa (inversa) sera a correlacao entre
as variaveis, isto e, quando Y diminui, X tende a elevar-se. O contrario acontece quando o coeciente
esta perto de 1. O coeciente atinge a posicao perfeitamente negativa e positiva quando o coeciente de
correlacao for exatamente igual a -1 e 1, respectivamente.
Exemplo 3.6.1 Sejam X e Y v.as que representam o preco de venda e a demanda de um produto,
respectivamente. Com base no comportamento dos valores obtidos na tabela abaixo, determine o coeciente
de correlacao entre essas duas variaveis aleatorias.
X = Preco de venda Y = Demanda
40 reais 10 unidades
48 reais 8 unidades
52 reais 7 unidades
36 reais 11 unidades
32 reais 12 unidades
De forma intuitiva podemos ver que ha uma correlac ao perfeitamente negativa entre as variaveis preco e
demanda. Um aumento de 4 reais no preco de venda (por exemplo de $32 para $36 ou de $48 para $52 )
determina uma reducao de uma unidade demandada (por exemplo, de 8 para 7 unidades e de 11 para 12
unidades), e assim por diante. Logo, (X, Y ) = 1.
Para as decisoes nanceiras a aplica cao do conceito de correla cao e de grande importancia para o processo
de reducao do risco por meio de uma diversica cao dos retornos esperados. Por exemplo, investimentos
em ativos com semelhantes coecientes de correla cao nao colaboram para a reducao do risco total, visto
que todos eles convergem para ganhos quando a situa cao economica lhes for favoravel, e para perdas em
epocas desfavoraveis.
Como o calculo do coeciente de correlacao e feito facilmente, ele vem sendo bastante utilizado,
contudo, apresenta algumas limitacoes. Uma delas e o fato do coeciente de correla cao de duas v.as
independentes ser igual a zero, mas a recproca nao ser verdadeira.
3.7 Exerccios
1. Considere um dado honesto de 6 faces. Sejam X a variavel aleatoria que assume o resultado de um
lancamento e Y a v.a que assume o n umero de caras do lancamento de X moedas honestas.
a) Encontre as distribui coes condicionais de Y dado X.
b) A partir do item a) encontre a distribuicao conjunta de X e Y .
c) A partir do item a) encontre a distribuicao marginal de Y .
3.7. EXERC

ICIOS 77
Dica: observe que a distribuicao marginal de X esta implicitamente dada no enunciado.
2. Dois dados honestos sao lancados. Seja U a variavel aleatoria que assume o valor mnimo dos
lancamentos. E seja V a variavel aleatoria que assume o valor maximo dos lancamentos.
a) Encontre a distribui cao conjunta de U e V .
b) Encontre as distribui coes condicionais de U e V .
c) A partir dos resultados obtidos no item b), encontre a distribui cao de U, supondo que voce saiba
a distribuicao marginal de V .
d) Encontre as esperan cas condicionais de U dado V .
e) A partir dos resultados obtidos em d) e supondo que a distribuicao marginal de V seja conhecida,
encontre E(U).
3. Seja o espa co de probabilidade (, T, P), e considere A e B dois eventos independentes, a partir dos
quais denimos as seguintes vari aveis aleatorias.
I
A
() =
_
_
_
1, se A,
0, se / A.
I
B
() =
_
_
_
1, se B,
0, se / B.
(a) Encontre a distribuicao de probabilidade conjunta do vetor aleatorio (I
A
, I
B
) em funcao de
P(A) e P(B).
(b) Encontre tambem a distribuicao condicional de probabilidade p
X|Y
(x[y).
4. Considere uma urna com 3 bolas numeradas de 2 a 4. Uma bola e escolhida aleatoriamente. Seja
X a variavel aleatoria que assume o n umero impresso na bola. Agora, considere um dado honesto
que e lan cado X vezes. Seja Y a variavel aleatoria que assume o n umero de vezes que sai o n umero
4. Encontre:
(a) as distribuicoes condicionais de Y dado X.
(b) a distribuicao conjunta de probabilidade de X e Y .
5. Sejam X e Y variaveis aleatorias com a seguinte distribui cao conjunta de probabilidades:
Y / X 1 2 3
1 2/36 2/36 3/36
2 1/36 10/36 3/36
3 4/36 5/36 6/36
(a) Encontre as distribui coes marginais de X e Y .
(b) X e Y sao independentes?
(c) Calcule E(X), E(Y ), V ar(X), V ar(Y )
78 CAP

ITULO 3. VETORES ALEAT

ORIOS DISCRETOS
(d) Calcule E(X +Y ).
(e) Calcule Cov(X, Y ).
(f) Calcule V ar(X +Y ).
6. Sejam X e Y variaveis aleatorias com a seguinte distribuicao conjunta de probabilidades:
Y / X 0 1 2 3
1 1/8 1/16 3/16 1/8
2 1/16 1/16 1/8 1/4
(a) Encontre as distribui coes marginais de X e Y .
(b) X e Y sao independentes?
(c) Calcule E(X), E(Y ), V ar(X), V ar(Y ).
(d) Calcule E(X +Y ).
(e) Calcule Cov(X, Y ).
(f) Calcule V ar(X +Y ).
7. Lancam-se uma moeda e um dado honestos. Seja X a v.a. que conta o n umero de caras obtidas, e
seja Y o n umero de vezes que sai a face 1 do dado.
(a) Exiba o espa co amostral.
(b) Encontre a distribui cao de X.
(c) Calcule a E(X) e a V ar(X).
(d) Encontre a distribui cao de Y .
(e) Calcule a E(Y ) e a V ar(Y ).
(f) Monte a tabela de da distribuic ao conjunta de X e Y .
(g) Calcule Cov(X, Y ).
8. Considere tres moedas distintas. Para a moeda 1, a probabilidade de sair cara e 0.6. Para a moeda
2, a probabilidade de sair cara e 0.2. Para a moeda 3, a probabilidade de sair cara e 0.4. A moeda
1 e lan cada. Seja X a variavel aleat oria que assume 1 se saiu cara e 0 se saiu coroa. Agora, se saiu
cara, lance a moeda 2, e se saiu coroa, lance a moeda 3. Seja Z a variavel aleatoria que assume 1 se
saiu cara nesse segundo lancamento e 0 se saiu coroa. Encontre:
(a) as distribui coes condicionais de probabilidade da variavel aleatoria Z dado a variavel aleatoria
X.
(b) a partir das distribuicoes condicionais de Z dado X, encontre a distribuicao de probabilidade
de Z.
(c) a distribuicao de probabilidade conjunta de X e Z.
(d) a E(Z[X = 0).
3.7. EXERC

ICIOS 79
9. Considere duas variaveis aleatorias X e Y , tais que X assume os valores 1, 2, 3, e Y assume os
valores 2, 3, 4. Sabe-se que Y assume os valores 2, 3, 4 com igual probabilidade, e que E(X[Y = 2) =
E(X[Y = 3) = E(X[Y = 4) = 2. Encontre E(X).
(a) Sejam (X, Y ) um vetor aleatorio bidimensional, mostre que
a) Var(X+Y)=Var(X)+Var(Y)+ 2Cov(X,Y).
b) Var(X - Y)=Var(X)+Var(Y) - 2Cov(X,Y).
(b) Considere uma urna com tres bolas brancas e duas vermelhas. Retiram-se duas bolas da urna,
uma apos a outra, sem reposi cao. Dena a v.a X igual a 1 se a primeira bola retirada for
branca, e igual a 0 se esta for vermelha. Analogamente, dena Y igual a 1 se a segunda bola
for branca, e 0 se for vermelha.
a) Encontre a distribui cao conjunta.
b) Encontre as distribui coes marginais.
c) Graque a Covariancia.
d) Calcule Cov(X, Y ).
80 CAP

ITULO 3. VETORES ALEAT

ORIOS DISCRETOS
Captulo 4
Variaveis Aleat orias Contnuas
As variaveis aleatorias contnuas assumem valores em conjuntos innitos nao-enumeraveis, tais como o
conjunto dos n umeros reais (R) ou como o intervalo [0, 1] R. A velocidade de um veculo trafegando
ao longo de uma estrada, e um exemplo de variavel aleatoria contnua. Se olharmos para um velocmetro
digital que so nos fornece alguns n umeros entre 0 e 200, podemos achar que so existem velocidades em um
conjunto nito de valores. Mas se usarmos um aparelho mais preciso que mostre exatamente a velocidade
do veculo, vamos ver que essas velocidades pertencem a um conjunto nao-enumeravel de valores, o que
caracteriza esta velocidade como sendo uma v.a contnua.
Modelos que envolvem variaveis contnuas sao bastante uteis, pois permitem uma maior precisao e o
uso de tecnicas aprendidas em cursos de calculo e que nao poderiam ser utilizadas em modelos discretos.
Uma variavel aleatoria discreta X tem a ela associada uma distribuicao de massa de probabilidade
p
X
(x). Agora no caso contnuo, quem faz o papel da distribuicao de probabilidade de X e a chamada
funcao densidade de probabilidade de X, que denotaremos por f
X
(x).
Denicao 4.0.1 Uma variavel aleatoria X e chamada de contnua se existir uma funcao f
X
, chamada
de funcao densidade de probabilidade de X, tal que f
X
(x) 0 para todo x R,
_
+

f
X
(x)dx = 1 e
P(a X b) =
_
b
a
f
X
(x)dx
para todo o intervalo [a, b] R.
Podemos dizer que uma variavel aleat oria discreta X tem a ela associada uma distribui cao de massa de
probabilidade p
X
(x), e uma v.a. contnua tem a ela associada uma funcao densidade de probabilidade
f
X
(x).
Observacoes:
(1) Note que continuamos a ter X : R.
(2)
_
b
a
f
X
(x)dx e a area do graco de f
X
(x) entre o intervalo [a, b].
(3) Para qualquer a R, P(X = a) =
_
a
a
f
X
(x)dx = 0.
(4) Por (3), sabemos que incluir ou excluir os extremos de um intervalo nao tem nenhum efeito em sua
probabilidade, ou seja,
P(a X b) = P(a < X < b) = P(a X < b) = P(a < X b).
81
82 CAP

ITULO 4. VARI

AVEIS ALEAT

ORIAS CONT

INUAS
(5) P(< X < ) =
_
+

f
X
(x)dx = 1. Gracamente falando, isso signica que a area inteira sob o
graco da funcao densidade de probabilidade deve ser igual a 1.
(6) A nao ser que ser que seja explicitado, I
X
= R.
(7)

E importante saber que apesar da funcao densidade de probabilidade ser usada para calcular probabi-
lidades de eventos, f
X
(x) nao e a probabilidade de qualquer evento particular. Ou seja , e essencial
saber que f
X
(x) pode assumir valores maiores que 1.
4.1 Esperanca e Variancia
A esperanca matematica de uma variavel aleatoria contnua e obtida de forma semelhante ao caso
discreto. Informalmente falando, troca-se apenas o somatorio pela integral e a p
X
por f(x)dx.
Denicao 4.1.1 A esperanca da variavel aleatoria contnua X, com funcao de densidade f(x), e
dada por
E(X) = =
_

xf(x)dx.
Como consequencia da denicao acima, a variancia de uma v.a X contnua tambem e calculada de
modo similar ao caso discreto. Isso acontece pois a V ar(X) e o valor esperado da v.a (X E(X))
2
.
Denicao 4.1.2 Seja X uma variavel aleatoria contnua, a variancia de X e dada por

2
=
_

(x E(X))
2
f(x)dx.
Para variaveis aleatorias contnuas tambem podemos utilizar a expressao alternativa

2
= E(X
2
) (E(X))
2
.
com E(X
2
) sendo denido por:
E(X
2
) =
_

x
2
f(x)dx.
O proximo exemplo foi retirado de Lima e Magalhaes (2005).
Exemplo 4.1.1 Arqueologos estudaram uma certa regiao e estabeleceram um modelo teorico para a
variavel C, comprimento de fosseis da regiao (em cm). Suponha que C seja uma variavel aleatoria
contnua com a seguinte func ao densidade de probabilidade:
f(c) =
_

_
1
4
(c + 1), se 0 c 2
0, caso contr ario.
Vamos encontrar E(C) e V ar(C).
Temos,
E(C) =
_
2
0
c
1
4
(c + 1) dc =
1
4
c
3
3

2
0
+
1
4
c
2
2

2
0
=
2
3
+
1
2
=
7
6
.
4.2. PRINCIPAIS VARI

AVEIS ALEAT

ORIAS CONT

INUAS 83
Para encontrar a variancia precisamos primeiramente calcular a E(C
2
):
E(C
2
) =
_
2
0
c
2
1
4
(c + 1) dc =
1
4
c
4
4

2
0
+
1
4
c
3
3

2
0
= 1 +
2
3
=
5
3
.
Portanto, obtemos
V ar(C) = E(C
2
) (E(C))
2
=
5
3

49
36
=
11
36
cm
2
.
Assim como foi mostrado para variaveis aleatorias discretas, temos uma formula especca para calcular
a esperanca de v.as contnuas nao negativas.
Suponha que X seja uma variavel aleatoria contnua e nao negativa. Entao
E(X) =
_

0
P(X > x)dx
E(X
2
) = 2
_

0
x P(X > x)dx.
A demonstra cao nesse caso, se baseia na teoria de integracao por partes do Calculo, e por isto sera omitida.
4.2 Principais Variaveis Aleatorias Contnuas
1
Vimos que, para caracterizar completamente uma variavel aleatoria contnua, precisamos fornecer sua
funcao densidade de probabilidade. A seguir apresentamos algumas das principais variaveis aleatorias
contnuas, distinguveis por suas respectivas funcoes densidades de probabilidade.
4.2.1 Variavel Aleat oria Uniforme
Denicao 4.2.1 Uma variavel aleatoria X tem distribuicao uniforme contnua no intervalo [a, b], com
a < b, se sua funcao densidade de probabilidade for denida por:
f(x) =
_

_
1
b a
, a x b,
0, caso contr ario.
Para representar que X tem distribuic ao uniforme no intervalo [a, b], usamos a notacao X U[a, b].
Exemplo 4.2.1 Seja X a variavel aleatoria que representa o tempo de voo de um aeroplano viajando
de Chicago ate Nova York. Suponha que o tempo de voo possa ser qualquer valor no intervalo [120, 140],
o que caracteriza X como uma v.a contnua. Vamos assumir que existem dados de voo sucientes para
concluir que o que acontece em dois ou mais intervalos de tempo de mesmo tamanho, acontece com a
mesma probabilidade. A v.a X apresenta a seguinte funcao densidade de probabilidade:
f(x) =
_

_
c , para 120 c 140
0, caso contr ario.
1
Seguindo Magalhaes e Lima [7]
84 CAP

ITULO 4. VARI

AVEIS ALEAT

ORIAS CONT

INUAS
Vamos encontrar c.
Usando que
_
+

f(x)dx = 1, temos que


_
140
120
c dx = c[140 120] = c.20 = 1.
Logo, c = 1/20.
Exemplo 4.2.2 Seja X uma v.a uniforme contnua, e sua funcao de densidade igual a
f(x) =
_

_
1
7
, se 5 x 2
0, caso contrario.
a) Qual e a probabilidade de X [0.5, 1.5]?
P(0.5 X 1.5) =
_
1.5
0.5
1
7
dx =
1
7
x

1.5
0.5
=
2
7
.
b) Qual e a probabilidade de X [10, 4.5]?
P(10 X 4.5) =
_
5
10
0 dx +
_
4.5
5
1
7
dx = x
1
7

4.5
5
=
1
14
.
Esperanca e Variancia:
De maneira geral, se X tiver distribuicao uniforme no intervalo [a, b], vamos mostrar que
E(X) =
a +b
2
e V ar(X) =
(b a)
2
12
.
Prova:
E(X) =
_
b
a
x
1
b a
dx =
1
b a
x
2
2

b
a
=
b
2
a
2
2(b a)
=
a +b
2
.
Agora para calcular V ar(X), temos que obter E(X
2
) :
E(X
2
) =
_
b
a
x
2
1
b a
dx =
1
b a
x
3
3

b
a
=
b
3
a
3
3(b a)
=
b
2
+ab +a
2
3
.
Logo,
V ar(X) = E(X
2
) (E(X))
2
=
b
2
+ab +a
2
3

_
a +b
2
_
2
=
(b a)
2
12
.
4.2.2 Variavel Aleat oria Exponencial
O modelo exponencial e um bom modelo para representar o tempo que se leva para completar determinada
tarefa, o tempo de vida de um material, e situacoes semelhantes. Por exemplo, o tempo para um cliente
ser atendido numa la de banco, o tempo que um passageiro espera no ponto de onibus ou o tempo de
vida de uma lampada.
Denicao 4.2.2 Uma variavel aleatoria X tem distribuicao exponencial com parametro se sua funcao
densidade de probabilidade for da forma:
f(x) = e
x
, para x 0, 0.
4.2. PRINCIPAIS VARI

AVEIS ALEAT

ORIAS CONT

INUAS 85
Usamos X Exp(), para denotar que X segue o modelo exponencial com parametro .
Exemplo 4.2.3 Seja T uma v.a com distribuic ao exponencial de parametro 1/2. Se T representa o tempo
de vida de uma lampada, qual e a probabilidade dessa lampada durar:
1. menos do que 3 unidades de tempo ?
2. pelo menos 4 unidades de tempo ?
3. entre 1 e 4 unidades de tempo ?
1. P(T < 3) =
1
2
_
3
0
e
x/2
dx = e
x/2

3
0
= e
3/2
1.
2. P(T 4) =
1
2
_

4
e
x/2
dx = e
x/2

4
= e
2
.
3. P(1 T 4) =
1
2
_
4
1
e
x/2
dx = e
x/2

4
1
= e
2
e
1/2
.
Esperanca e Variancia:
Se X tiver distribuicao exponencial, vamos mostrar que
E(X) =
1

e V ar(X) =
1

2
.
Prova:
Sabemos que para x 0,
E(X) =
_

0
P(X > x) dx.
Entao, seja X uma v.a exponencial temos que
P(X > x) =
_

x
f(x)dx =
_

x
e
x
dx = e
x

x
= e
x
,
portanto,
E(X) =
_

0
e
x
dx =
e
x

0
=
1

.
Agora para determinar V ar(X) temos que antes encontrar, E(X
2
):
E(X
2
) = 2
_

0
x P(X > x) dx = 2
_

0
xe
x
dx
=
2

_

0
x e
x
dx =
2

E(X) =
2

2
.
Logo,
V ar(X) = E(X
2
) (E(X))
2
=
2

2

1

2
=
1

2
.
Exemplo 4.2.4 Considere o tempo que se leva para carregar um caminhao na doca de carregamento da
COSIPA em Santos. Se o tempo medio de carregamento e 15 minutos, qual e a probabilidade do caminhao
ser carregado em menos de dez minutos?
O tempo medio de carregamento e 15 minutos, o que implica que, =
1
15
. Logo
P(X 10) =
_
10
0
1
15
e
x/15
dx = e
x/15

10
0
= 1 e
3/2
= 0, 78.
86 CAP

ITULO 4. VARI

AVEIS ALEAT

ORIAS CONT

INUAS
4.2.3 Variavel Aleat oria Normal
Denicao 4.2.3 Dizemos que uma variavel aleatoria contnua X tem distribuicao normal, com parametros
e
2
, se sua funcao densidade for dada por:
f(x) =
1

2
e

(x)
2
2
2
, para x, R e > 0.
Usaremos X N(,
2
) para indicar que X tem distribuicao normal com parametros e
2
.
A seguir temos algumas propriedades da funcao densidade normal:
1. f(x) e simetrica em rela cao `a .
2. f(x) 0 quando x .
3. o valor maximo de f(x) se da quando x = .
Temos que e um parametro de localizacao da distribui cao normal, mais especicamente do eixo de
simetria de f. Ja
2
e uma medida de largura da distribui cao normal. Pode-se ainda vericar que e

2
representam, respectivamente, a esperanca e a variancia da distribui cao. Isto e, seja X uma v.a com
distribui cao normal, temos que
E(X) = e V ar(X) =
2
.
No calculo de probabilidades para variaveis contnuas, devemos resolver a integral da fun cao densidade
no intervalo de interesse, isto e,
P(a X b) =
_
b
a
1

2
e

(x)
2
2
2
dx.
No entanto, a integral acima so pode ser resolvida de modo aproximado e com ajuda de metodos numericos.
Por essa raz ao o calculo de probabilidades para o modelo normal e feito com o auxlio de tabelas. Para
facilitar os c alculos e evitar a multiplicac ao desnecessaria de tabelas para cada par de valores (,
2
),
utiliza-se uma transformacao que conduz sempre ao calculo de probabilidades com uma v.a. X com
distribui cao normal de parametros = 0 e
2
= 1, chamada de v.a. com distribui cao Normal Padrao,
como veremos abaixo.
Padronizacao da distribuicao normal
Uma propridade util da distribuicao normal e a seguinte. Suponha que a variavel X tenha uma distribuicao
normal com com parametros (
0
,
2
0
) arbitrarios. Se Z for a variavel aleatoria obtida de X segundo a
transformacao
Z =
X
0

0
,
denominda padroniza cao de X, entao Z tem distribui cao normal padrao com parametros
0
= 0 e
2
0
= 1.
A notacao usada para representar uma normal padrao e
X N(
0
,
2
0
) Z N(0, 1).
Pelas propriedades do valor esperado e da variancia, segue que
E(Z) = E
_
X
0

0
_
=
1

0
E(X
0
) =
1

0
[E(X)
0
] = 0,
4.2. PRINCIPAIS VARI

AVEIS ALEAT

ORIAS CONT

INUAS 87
V ar(Z) = V ar
_
X
0

0
_
=
1

2
0
V ar(X
0
) =
1

2
0
V ar(X) = 1.
Com isto, as probabilidades de X podem ser obtidas de Z da seguinte maneira. Para todo x
1
, x
2
R,
P(x
1
< X < x
2
) = P(z
1
< Z < z
2
),
com z
i
= (x
i

0
)/
0
, i = 1, 2.
Propriedades da distribuicao normal padrao:
1. A funcao densidade de uma v.a com distribui cao normal padrao, e dada por
f(x) =
1

2
e
x
2
/2
, x R.
2. A funcao densidade de uma v.a com distribuicao normal padrao e simetrica em torno da origem,
isto e _
z

f(x)dx =
_

z
f(x)dx.
3. Em termos de probabilidade a igualdade do item (2) ca da seguinte forma,
P(Z < z) = P(Z > z).
4. Seja a funcao : R [0, 1], tal que para z R
(z) = P(Z < z).
Entao se, a < b
P(a < Z < b) = (b) (a).
Valores de (z) sao tabelados para diversos valores de z. Os valores de z sao so positivos, mas isso
e suciente, pois
(z) = P(Z > z) = 1 P(Z < z) = 1 (z),
onde a complementaridade foi usada na segunda igualdade.
Como usar a tabela da Distribuicao Normal.
Como vimos anteriormente, para que possamos calcular a probabilidade de uma variavel aleatoria com
distribui c ao normal, e necessario resolver a integral da fun cao de densidade no intervalo de interesse.
Porem, como aprendemos nas disciplinas de Calculo, essa integral so pode ser obtida com a utiliza cao de
metodos n umericos. Por esse motivo construiu-se uma tabela com todos os valores de probabilidade de
uma vari avel aleatoria Z com distribuicao normal padrao.
Alem da tabela apresentar facil utilizacao, a partir dela podemos obter as probabilidades de qualquer
v.a com distribui cao normal. Isso acontece, porque conseguimos transformar uma v.a que segue o modelo
normal com quaisquer valores de e
2
em uma v.a normal com = 0 e
2
= 1, ou melhor, em uma v.a
normal padrao.
A tabela a seguir retorna a probabilidade da variavel aleatoria Z estar entre 0 e um n umero z qualquer,
ou seja, P(0 Z z):
88 CAP

ITULO 4. VARI

AVEIS ALEAT

ORIAS CONT

INUAS

Figura 4.1: Tabela da Distritibui cao Normal
As linhas indicam a unidade e a primeira casa decimal de z e a coluna indica a segunda casa decimal de
z. Os valores no interior da tabela referem-se as areas (probabilidades) entre 0 e o valor z correspondente.
Por exemplo, a linha com 1,9 e a coluna com 0,06 indica o valor z = 1,96 e o valor 0,4750 = 47,50%,
obtido da intersec cao da linha 1,9 com a coluna 0,06, indica a area entre z = 0 e z = 1,96. Ou seja, dado
o valor z encontra-se a probabilidade entre 0 e z.
A partir da tabela da distribuicao normal tambem podemos encontrar a P(Z z). Para isso usamos
a propriedade de simetria da curva normal. Por exemplo, se estamos interessados em descobrir a P(Z
1, 96), basta somarmos 0,5 `a probabilidade de Z estar entre 0 e 1, 96. Simplicando,
P(Z 1, 96) = 0, 5 +P(0 Z 1, 96) = 0, 5 + 0, 4750 = 0, 9750.
A seguir apresentamos alguns exemplos para o uso da tabela.
Exemplo 4.2.5 Seja Z uma v.a com distribuicao normal padrao, vamos encontrar a P(Z 0, 54).
4.2. PRINCIPAIS VARI

AVEIS ALEAT

ORIAS CONT

INUAS 89
Com o auxlio da tabela, temos que
P(Z 0, 54) = 0, 5 +P(0 Z 0, 54) = 0, 5 + 0, 2054 = 0, 7054
Portanto, a probabilidade de Z ser menor ou igual a z = 0, 54 e de 0, 7054 ou de 70, 54%.
No proximo exemplo vamos demonstrar como determinar a probabilidade de uma v.a normal padrao ser
menor do que um valor z < 0.
Exemplo 4.2.6 Considere uma vari avel aleatoria Z com distribuicao normal padrao. Vamos determinar
a probabilidade de Z ser menor que z = 1, 7, ou seja, a P(Z 1, 7).
Temos que,
P(Z 1, 7) = P(Z 1, 7) = 1 P(Z 1, 7)
A partir da tabela da normal, obtemos que
P(Z 1, 7) = 1 P(Z 1, 7) = 1 [0, 5 + 0, 4554] = 0, 0446
Logo, a probabilidade de Z ser menor que o valor z = 1, 7 e de aproximadamente 4, 46%.
Exemplo 4.2.7 Considerando novamente Z como sendo uma v.a com distribuicao normal padrao, vamos
agora determinar a probabilidade de Z estar entre z = 1 e z = 0, 5.
Temos que,
P(1 Z 0, 5) = P(Z 0, 5) P(Z 1)
tal que
P(Z 0, 5) = 0, 5 + 0, 1915 = 0, 6915
P(Z 1) = 1 P(Z 1) = 1 [0, 5 + 0, 3413] = 0, 1587
Portanto, o resultado e dado por P(1 Z 0, 5) = 0, 6915 0, 1587 = 0, 5328.
Exemplo 4.2.8 Seja X uma variavel aleatoria que representa o PIB de um pas A, com X N(500, 50),
tal que sua media e variancia s ao calculadas em bilhoes de dolares. A partir desses dados, vamos calcular
a probabilidade de X estar entre 500 e 600 bilhoes de dolares.
A transformacao dessa distribuicao normal para uma distribuicao normal padrao, e feita pela relacao:
Z =
X
X

X
Assim,
P(500 X 600) = P
_
500 500
50
Z
600 500
50
_
= P(0 Z 2) = 0, 4772.
Portanto, a probabilidade do PIB do pas A estar entre 500 e 600 bilhoes de dolares e de aproximada-
mente 47, 72%.
Vamos terminar essa se cao com uma propriedade muito importante do modelo normal, porem a sua
prova ser a omitida:
A combinacao linear de variaveis normais independentes, tambem tera distribuicao normal. Em outras
palavras, se X
1
, X
2
, . . . , X
n
formam uma sequencia de variaveis aleatorias N(
i
,
2
i
) independentes e
90 CAP

ITULO 4. VARI

AVEIS ALEAT

ORIAS CONT

INUAS
a
1
, a
2
, . . . , a
n
, sao constantes quaisquer, entao W =
n

i=1
a
i
X
i
tera distribui cao normal. Seus parametros
sao determinados a partir das propriedades da media e da variancia, ou seja,

W
= E(
n

i=1
a
i
X
i
) =
n

i=1
E(a
i
X
i
) =
n

i=1
a
i
E(X
i
) =
n

i=1
a
i

i
,

2
W
= V ar(
n

i=1
a
i
X
i
) =
n

i=1
V ar(a
i
X
i
) =
n

i=1
a
2
i
V ar(X
i
) =
n

i=1
a
2
i

2
i
.
Este resultado amplia, consideravelmente, o uso da distribui cao normal, conforme pode ser notado no
exemplo a seguir, retirado de Lima e Magalhaes (2005), p. 192.
Exemplo 4.2.9 Uma corretora negocia ttulos na Bolsa de Valores e utiliza um modelo probabilstico
para avaliar seus lucros. Suas aplicacoes nanceiras de compra e venda atingem tres areas: agricultura,
ind ustria e comercio. Admita que o seguinte modelo representa o comportamento do lucro diario da
corretora ( em milhares de reais):
L = 2L
A
+ 5L
I
+ 3L
C
,
com L
A
, L
I
e L
C
representando, respectivamente, os lucros diarios nos setores de agricultura, ind ustria e
comercio. As distribuicoes de probabilidade dessas variaveis aleat orias sao L
A
N(3, 4), L
I
N(6, 9) e
L
C
N(4, 16). Supondo independencia entre os tres setores, qual sera a probabilidade de um lucro diario
acima de 50 mil?
A variavel L e uma combinacao linear de normais independentes, logo possui distribuicao normal com
parametros

L
= 2.(3) + 5.(6) + 3.(4) = 48,

2
L
= 2
2
.(4) + 5
2
.(9) + 3
2
.(16) = 385.
Entao L N(48, 385) e, portanto,
P(L > 50) = P
_
Z >
50 48

385
_
= P(Z > 0.10) = 0, 4602,
indicando uma alta probabilidade de lucros superiores a 50 mil.
4.3 Funcao de distribuicao
Para caracterizar uma variavel aleatoria, podemos usar tanto a funcao de distribui cao F(x), como a
distribui cao de massa de probabilidade e a funcao densidade de probabilidade, para o caso discreto e
contnuo, respectivamente. Usar a fun cao de distribuicao ou a distribui cao de probabilidade e a fun cao
de densidade e uma questao de conveniencia. Vamos ver isso na deni cao a seguir, que nos mostra que se
tivermos a fun cao de distribuicao conseguimos recuperar a fun cao de densidade de probabilidade.
Denicao 4.3.1 A funcao de distribuicao de uma variavel aleatoria X contnua e denida em termos da
f
X
(x), como
F
X
(x) = P(X x) =
_
x

f
X
(x) dx, x R,
tal que,
f
X
(x) =
dF
X
(x)
dx
.
4.4. FUNC

AO GERADORA DE MOMENTOS 91
Exemplo 4.3.1 Seja X uma variavel aleat oria contnua com distribuicao exponencial, sendo F
X
(t) =
1 e
t
a sua funcao de distribuicao, determine f
X
(t).
f
X
(t) =
dF
X
(t)
dt
=
d(1 e
t
)
dt
= e
t
.
Logo
f(x) =
_

_
e
t
, para t 0
0, caso contr ario.
4.4 Funcao Geradora de Momentos
Nesta sec ao vamos apresentar o conceito de funcao geradora de momentos, alem de exemplos para ilustrar
a sua utilizacao. Embora nao intuitiva, a fun cao geradora de momentos e muitas vezes conveniente para
certos tipos de manipulacoesmatematicas. Tambem veremos que com o auxilio da funcao geradora de
momentos, conseguimos obter a esperan ca e a variancia de uma variavel aleatoria.
Denicao 4.4.1 A funcao geradora de momentos de uma vari avel aleatoria X, que denotaremos por
M(t), e denida matematicamente por:
M(t) = E(e
tX
),
para todo t R.
Entao, seja X uma variavel aleatoria discreta, a funcao geradora de momentos de X, e denida por
M(t) =

i=1
e
txi
P(X = x
i
).
Exemplo 4.4.1 Seja X uma variavel aleatoria, tal que
P(X = 0) = 1 p, P(X = 1) = p,
vamos determinar a funcao geradora de momentos de X.
Temos que
M(t) = E(e
tX
) = e
t.0
P(X = 0) +e
t.1
P(X = 1) = 1 p +e
t
p.
Portanto, a func ao geradora de X e 1 p +e
t
p.
Quando X for uma variavel aleatoria contnua com funcao densidade de probabilidade f(x), a funcao
geradora de momentos de X, e denida por
M(t) =
_

e
tx
f(x)dx.
Exemplo 4.4.2 Seja X uma variavel aleatoria contnua com funcao densidade:
f(x) =
_
e
x
x 0
0 x < 0.
92 CAP

ITULO 4. VARI

AVEIS ALEAT

ORIAS CONT

INUAS
Vamos determinar a func ao geradora de momentos de X.
Temos que
M(t) = E(e
tx
) =
_

0
e
tx
(e
x
)dx =
_

0
e
(t)x
dx
=
_
e
(t)x
( t)
_

0
=

t
, para t < .
Portanto, a func ao geradora de momentos de X e

t
, para t < .
A razao pelo nome alternativo e que possuindo a funcao geradora de momentos, conseguimos calcular
facilmente os momentos de uma variavel aleatoria.
Denicao 4.4.2 Seja X uma variavel aleatoria. A esperanca de X
k
e denominada momento da v.a X
ou k-esimo momento de X, para k = 1, 2, 3, . . ..
Para demonstrarmos isto, vamos considerar a denicao de fun cao geradora de momentos para uma v.a
contnua.
Seja X uma v.a contnua, com fun cao geradora de momentos dada por
M(t) =
_

e
tx
f(x)dx.
Se derivarmos em rela cao a t os dois lados da equacao acima, obtemos:
d
dt
M(t) =
_

xe
tx
f(x)dx.
Essa derivada vale para todo valor de t. Ao considerarmos o caso especial t = 0, temos:
M

(0) =
_

xf(x)dx = E(X).
Calculando-se a segunda derivada de M(t), tem-se:
d
2
dt
2
M(t) =
_

x
2
e
tx
f(x)dx.
O valor dessa derivada no ponto t = 0 e:
M

(0) =
_

x
2
f(x)dx = E(X
2
).
Assim, repetindo esses mesmo passos, para k = 3, 4, . . ., obtemos:
M
(k)
(0) = E(X
k
).
em que M
(k)
(0) representa a derivada de ordem k da funcao M(t) no ponto zero.
Portanto, obtemos que
E(X) = M

(0),
V ar(X) = M

(0) (M

(0))
2
.
4.4. FUNC

AO GERADORA DE MOMENTOS 93
Exemplo 4.4.3 Seja X Poisson (). Vamos calcular E(X) e V ar(X) com base na funcao geradora
de momentos.
Primeiramente, temos que encontrar M(t):
M(t) = E(e
tx
) =

x=0
e
tx
P(X = x) =

x=0
e
tx
e

x
x!
=

x=0
e

(e
t
)
x
x!
= e

x=0
(e
t
)
x
x!
= e

e
e
t
= e
(e
t
1)
.
Derivando M(t), obtemos
M

(t) = e
(e
t
1)
e
t
.
Portanto, a esperanca de X e
E(X) = M

(0) = e
(e
0
1)
e
0
= .
Agora para calcular V ar(X), temos que obter M

(t):
M

(t) = e
t
(e
t
e
(e
t
1)
) +e
t
(e
(e
t
1)
).
Substituindo t por zero, obtemos
M

(0) =
2
+.
Portanto a V ar(X) e denida por
V ar(X) = M

(0) (M

(0))
2
=
2
+ ()
2
= .
Entao obtemos que, E(X) = e V ar(X) = .
Exemplo 4.4.4 Seja X uma v.a com distribuicao normal. Vamos determinar E(X) e V ar(X), com base
na funcao gereadora de momentos.
A funcao densidade da v.a X e
f
X
(x) =
1

2
e
{
(x)
2
2
2
}
.
Logo,
M(t) =
_

e
tx
1

2
e
{
(x)
2
2
2
}
=
1

2
_

e
{tx
(x)
2
2
2
}
dx.
Vamos deixar o calculo de M(t) mais simples. Para isso, vamos desenvolver a seguinte expressao
_
tx
(x )
2
2
2
_
Temos que
2
2
tx (x )
2
= 2
2
tx (x
2
2x +
2
) = x
2
2x 2
2
tx +
2

Completanto o quadrado perfeito, obtemos que


x
2
2( +
2
t)x +
2
= x ( +
2
t)
2
+
2
[ +
2
t]
2
= x ( +
2
t)
2
+
2

2
2
2
t
4
t
2
= x ( +
2
t)
2
2
2
t
4
t
2
94 CAP

ITULO 4. VARI

AVEIS ALEAT

ORIAS CONT

INUAS
Portanto, M(t) ca
M(t) =
1

2
_

e
{
[x(+
2
t)]
2
2
2
}
e
{
2
2
t+
4
t
2
2
2
}
.
Tomando,
y =
x ( +
2
t)

dy =
dx

,
temos que
M(t) = e
{t+

2
t
2
2
}
1

2
_

e
(y/2)
2
dy = exp
_
t +

2
t
2
2
_
.
Entao
M

(t) =
_
+
2
2
t
2
2
_
exp
_
t +

2
t
2
2
_
.
O que implica que E(X) e
E(X) = M

(0) = e
0
= .
Agora vamos obter V ar(X). Temos que
M

(t) =
2
exp
_
t +

2
t
2
2
_
+ ( +
2
t)
_
+
2
2
t
2
2
_
exp
_
t +

2
t
2
2
_
M

(0) =
2
+
2
= E(X
2
).
Portanto,
V ar(X) =
2
+
2

2
=
2
.
Entao, obtemos que E(X) = e V ar(X) =
2
.
Exemplo 4.4.5 Seja X uma variavel aleatoria com distribuicao exponencial, com parametro . Vamos
calcular E(X) e V ar(X) com base na fun cao geradora de momentos.
Primeiramente temos que encontrar a fun cao geradora de momentos de X:
M(t) = E(e
tx
) =
_

e
tx
e
x
dx =
_

0
e
(t)x
dx
=
_

0
e
(t)x
dx =
e
(t)x
( t)

0
=

t
.
Derivando M(t), e depois fazendo t = 0, encontramos E(X):
M

(t) =

( t)
2
Portanto,
E(X) = M

(0) =
1

.
Agora vamos encontrar a variancia de X. Para isso, usaremos a seguinte formula
V ar(X) = E(X
2
) (E(X))
2
= M

(0) (M

(0))
2
.
Entao derivando M(t) duas vez e substituindo t por zero, obtemos
M

(t) =
2
2
2t
( t)
4
M

(0) =
2

2
.
Logo,
V ar(X) =
2

2

1

2
=
1

2
.
Entao temos que, E(X) =
1

e V ar(X) =
1

2
.
4.5. EXERC

ICIOS 95
4.4.1 Propriedades
1. Funcao geradora de momentos para uma funcao linear.
Seja M
X
(t) a funcao geradora de momentos associada a variavel aleatoria X. Considerando uma
nova variavel aleatoria Y = aX +b, temos que a funcao geradora de momentos de Y e
M
Y
(t) = E[e
t(aX+b)
] = e
tb
E[e
tax
] = e
tb
M
X
(ta).
Por exemplo, se X for uma variavel aleatoria exponencial com parametro = 1, tal que M
X
(t) =
1
1 t
e Y = 2X + 3, entao
M
Y
(t) = e
3t
1
1 2t
.
2. Soma de variaveis aleatorias independentes.
Sejam X e Y variaveis aleatorias independentes, e seja W = X+Y . A fun cao geradora de momentos
de W, e denida por
M
W
(t) = E(e
tW
) = E(e
t(X+Y )
) = E(e
tX
e
tY
).
Como X e Y sao independentes, e
tX
e e
tY
sao variaveis aleatorias independentes. Sabemos entao
que a esperanca do produto e o produto das esperan cas, logo
M
W
(t) = E(e
tX
)E(e
tY
) = M
X
(t)M
Y
(t).
Generalizando, temos que se X
1
, . . . , X
n
sao v.as independentes e W = X
1
+. . . +X
n
, entao
M
W
(t) = M
X1
(t) +. . . +M
Xn
(t).
Por exemplo, sejam X
1
, . . . , X
n
variaveis aleatorias independentes de Bernoulli, com parametro p.
Como vimos,
M
Xi
(t) = (1 p)e
0t
+pe
1t
= 1 p +pe
t
, para i = 1, . . . , n.
Entao, temos que W = X
1
+. . . +X
n
e uma variavel aleatoria binomial com parametros n e p, em
que sua fun cao geradora de momentos e dada por
M
W
(t) = (1 p +pe
t
)
n
.
4.5 Exerccios
1. Sabe-se que a v.a. X esta uniformemente distribudada entre 1.0 e 1.5
(a) Encontre f
X
(x), a funcao densidade de probabilidade de X, e fa ca o seu graco.
(b) Encontre F(x), a fun cao de distribui cao de X, e fa ca o seu graco.
(c) Calcule P(X = 1.25).
(d) Calcule P(1.0 X 1.25).
(e) Calcule P(1.20 X 1.5).
(f ) Encontre E(X).
(g) Encontre V ar(X).
96 CAP

ITULO 4. VARI

AVEIS ALEAT

ORIAS CONT

INUAS
2. A maioria das linguagens de computador tem uma fun cao que pode ser usada para gerar n umeros
aleatorios. No Excel, a fun cao RAND pode ser usada para gerar n umeros aleatorios entre 0 e 1. Se
X denota um n umero aleatorio gerado, entao X e uma variavel aleatoria contnua com a seguinte
fun cao densidade de probabilidade.
f
X
(x) =
_
_
_
1, para 0 x 1
0, caso contrario.
(a) Fa ca o graco da fun cao densidade de probabilidade de X.
(b) Qual e a probabilidade de se gerar um n umero aleatorio entre 0.25 e 0.75?
(c) Qual e a probabilidade de se gerar um n umero aleatorio com valor menor ou igual a 0.30?
(d) Qual e a probabilidade de se gerar um n umero aleatorio com valor maior que 0.60?
(e) Encontre E(X).
(f ) Encontre V ar(X).
3. Seja X uma variavel aleatoria uniformemente distribuda no intervalo [0, 1]. Considere a variavel
aleatoria Y = g(X), onde
g(x) =
_
_
_
1, se x 1/3
2, se x > 1/3
Encontre o valor esperado de Y de duas formas diferentes e depois compare.
(a) Encontre a f.d.p. de Y e calcule E(X)
_

yf
Y
(y)dy
(b) Encontre o valor esperado de Y usando a f.d.p. de X.
4. Seja X uma variavel aleatoria com a seguinte f.d.p.
f
X
(x) =

2
e
|x|
,
onde e um escalar positivo.
(a) Verique que se
_

f
X
(x)dx = 1.
(b) Encontre E(X).
(c) Encontre V ar(X).
5. Considere uma variavel aleatoria X que tem a seguinte funcao densidade de probabilidade exponen-
cial,
f
X
(x) =
1
8
e
x/8
(a) Fa ca o graco da fun cao densidade de probabilidade de X.
(b) Calcule P(X 2).
(c) Calcule P(X 3).
(d) Calcule P(X 5).
(e) Calcule P(2 X 5).
(f ) Encontre a fun cao de distribui c ao F(x) a partir da f
X
.
4.5. EXERC

ICIOS 97
(g) Encontre a fun cao geradora de momentos de X.
(h) Encontre E(X).
(i) Encontre V ar(X).
6. Se Z for N(0, 1), encontre
(a) P(0.53 < Z 2.06),
(b) P(0.79 Z 1.52),
(c) P(2.63 < Z 0.51),
(d) P(Z > 2.89),
(e) P([Z[ < 1.96),
(f ) P([Z[ < 1),
(g) P([Z[ < 2),
(e) P([Z[ < 3).
(h) Encontre a fun cao geradora de momentos de Z.
(i) Encontre E(Z).
(j) Encontre V ar(Z).
7. Se Z tiver distribui cao normal de probabilidade com media igual a 6 e variancia igual a 25, encontre
(a) P(6 Z 12),
(b) P(0 Z 8),
(c) P(2 < Z 0),
(d) P(Z > 21),
(e) P([Z 6[ < 5),
(f ) P([Z 6[ < 10),
(g) P([Z 6[ < 15),
(h) Encontre a fun cao geradora de momentos de Z.
(i) A partir da fun cao geradora de momentos de Z, verique se E(Z) = 6.
(j) A partir da fun cao geradora de momentos de Z, verique se V ar(X) = 25.
8. Se a fun cao geradora de momentos de Z for M(t) = e
6t+32t
2
, encontre
(a) P(4 Z < 16),
(b) P(10 < Z 0).
9. Se Z for N(650, 625), encontre
(a) P(600 Z < 660),
(b) a constante c tal que P([Z 650[ c) = 0.9544.
10. Doentes sofrendo de certa molestia sao submetidos a um tratamento intensivo, cujo o tempo de cura
foi modelado por uma normal X N(15, 4).
98 CAP

ITULO 4. VARI

AVEIS ALEAT

ORIAS CONT

INUAS
(a) Qual a proporcao desses pacientes que demoram mais de sete dias para se recuperar?
(b) Qual a probabilidade de um paciente, escolhido ao acaso, apresentar tempo de cura inferior a
vinte dias?
(c) Qual o tempo maximo necessario para a recuperacao de 25% dos pacientes?
11. Suponha que certo fundo m utuo tenha uma taxa anual de retorno que seja, aproximadamente,
normalmente distribuda, com media 10% e desvio-padrao 4%. Use a tabela da distribuicao normal.
(a) Ache a probabilidade de seu retorno de um ano ser negativo.
(b) Ache a probabilidade de seu retorno de um ano exceder 15%.
(c) Se os gestores de fundos m utuos modicarem a composicao de suas carteiras, poderao elevar
seu retorno anual medio a 12%, mas isso elevara tambem o desvio-padrao dos retornos a 5%.
Responda as partes a) e b) de acordo com essas decisoes. O leitor aconselharia os gestores de
fundos a fazerem essa mudan ca na carteira?
12. A f.d.p. de uma variavel aleatoria X e dada por
f
X
(x) =
_

_
1/3, se 0 < x < 1
2/3, se 1 < x < 2
0, caso contrario.
Encontre a F
X
(x) e fa ca um graco de F
X
(x) e f
X
(x).
13. Seja X uma variavel aleatoria contnua com f.d.p.
f
X
(x) =
_
_
_
k x, para 0 < x < 1,
0, caso contrario,
onde k e uma constante.
(a) Determine o valor de k e faca o graco de f
X
(x).
(b) Encontre F(x), a fun cao de distribui cao de X, e fa ca seu graco.
(c) Calcule P(1/4 < X 2).
Captulo 5
Vetores Aleatorios Contnuos
5.1 Introducao
Para desenvolver
1
a teoria de v.as contnuas multidimensionais, vamos utilizar um vetor aleatorio bidi-
mensional para facilitar os calculos.
Denicao 5.1.1 Uma funcao f(x, y) denida para < x < , < y < , nao-negativa e
satisfazendo a condicao
_

f(x, y)dx dy = 1,
e denominada uma funcao densidade de probabilidade do vetor aleatorio (X, Y ), se para todo subconjunto
B de pontos do R
2
tivermos
P[(X, Y ) B] =
_ _
B
f(x, y)dx dy.
Seja (x, y) um ponto do plano e consideremos um retangulo de lado x e y construdo a partir do ponto
(x, y). A probabilidade de que (X, Y ) perten ca a esse retangulo e aproximadamente igual ao volume do
paraleleppedo de lados x e y, cuja altura e f(x, y), ou seja
P(x < X x +x, y < Y y +y) f(x, y) x y.
Observacao: O valor exato dessa probabilidade e igual ao volume da gura delimitada pela funcao
f(x, y) e pelo retangulo de lado x e y, que e igual `a integral dupla de f(x, y) nesse retangulo.
5.2 Densidades Marginais
Denicao 5.2.1 Se tivermos a funcao densidade de probabilidade f(x, y), do vetor aleatorio (X, Y ),
podemos recuperar as suas densidades marginais
f
X
(x) =
_

f(x, y)dy
e
f
Y
(y) =
_

f(x, y)dx.
1
Seguindo Dantas [3]
99
100 CAP

ITULO 5. VETORES ALEAT

ORIOS CONT

INUOS
Exemplo 5.2.1 Seja (X, Y ) um vetor aleatorio, cuja func ao densidade de probabilidade e dada por
f(x, y) =
_

_
3
80
(x
2
+xy), se 0 x 2 e 0 y 4
0, caso contr ario.
a) Mostre que f(x, y) e uma funcao densidade de probabilidade.
b) Encontre a densidade marginal de X.
c) Encontre a densidade marginal de Y .
a)
f(x, y) =
_
2
0
_
4
0
3
80
(x
2
+xy) dxdy =
3
80
_
2
0
dx
_
4
0
(x
2
+xy) dy
=
3
80
_
2
0
dx
_
x
2
y +x
y
2
2
_
4
0
=
3
80
_
2
0
dx
_
4x
2
+ 8x
_
=
3
80
_
2
0
(4x
2
+ 8x) dx =
3
20
_
2
0
(x
2
+ 2x) dx
=
3
20
_
x
3
3
+
2x
2
2
_
2
0
=
3
20
_
8
3
+ 4
_
=
3
20
20
3
= 1.
Como f(x, y) = 1, esta provado que f(x, y) e uma funcao densidade de probabilidade.
b)
f
X
(x) =
_
4
0
f(x, y) dy =
3
80
_
4
0
(x
2
+xy)dy =
3
80
_
yx
2
+x
y
2
2
_
4
0
=
3
80
(4x
2
+ 8x) =
3
20
(x
2
+ 2x).
Portanto, a densidade marginal de X e (3/20x
2
+ 3/10x).
c)
f
Y
(y) =
_
2
0
f(x, y)dx =
3
80
_
2
0
(x
2
+xy)dx =
3
80
_
x
3
3
+
x
2
2
y
_
2
0
=
3
80
_
8
3
+
4
2
y
_
=
1
10
+
3
40
y.
Portanto, a densidade marginal de Y e (1/10 + 2/40y).
5.3 Independencia
Denicao 5.3.1 As variaveis aleatorias X e Y com funcao densidade conjunta f(x, y), para <
x < e < y < , e cujas densidades marginais sao denotadas por f
X
(x) e f
Y
(y), sao ditas
independentes se para todo par de valores (x, y) tivermos:
f(x, y) = f
X
(x)f
Y
(y).
5.4. DISTRIBUIC

OES CONDICIONAIS 101
Exemplo 5.3.1 Seja
f(x, y) =
_

_
xe
x(y+1)
, para 0 x e 0 y
0, caso contr ario.
a funcao densidade conjunta de X e Y . Vericar se X e Y sao independentes.
Primeiramente temos que encontrar as densidades marginais de X e Y . Feito isso, precisamos vericar
se o produto delas e igual a densidade conjunta dessas variaveis:
f
X
(x) =
_

0
x e
x(y+1)
dy = x
_

1
e
zx
dz = x
e
zx
x

1
= e
x
.
f
Y
(y) =
_

0
x e
x(y+1)
dx =
1
y + 1
_

0
x(y + 1) e
x(y+1)
dx =
1
y + 1
1
y + 1
=
1
(y + 1)
2
.
Note que,
_

0
x(y + 1) e
x(y+1)
dx, representa a esperanca de uma v.a com distribui cao exponencial, de
parametro (y + 1). Entao,
f
X
(x)f
Y
(y) = e
x
1
(y + 1)
2
,= f(x, y).
Portanto, X e Y nao sao independentes.
Resultado: Se X e Y forem independentes, entao
E(XY ) = E(X)E(Y ).
Mas o contrario nao e verdadeiro, isto e, se E(XY ) = E(X)E(Y ), nao necessariamente X e Y sao
independentes.
5.4 Distribuic oes Condicionais
Vimos distribuicoes condicionais para o caso em que X e Y eram discretas. Agora vamos ver para o caso
onde X e Y sao contnuas.
Denicao 5.4.1 Sejam X e Y variaveis aleat orias contnuas, a densidade condicional de Y dado X = x,
denotada por f(y[x), e dada para cada x xo por
f(y[x) =
f(x, y)
f
X
(x)
f(x, y) = f
X
(x)f(y[x).
Exemplo 5.4.1 Considerando o exemplo 5.3.1, onde
f(x, y) =
_

_
xe
x(y+1)
, para 0 x e 0 y
0, caso contr ario.
Vamos determinar f(y[x).
Sabemos que, f
X
(x) = e
x
para x positivo e zero caso contrario.
Entao
f(y[x) =
f(x, y)
f
X
(x)
=
xe
x(y+1)
e
x
= xe
xy
e
x
e
x
= xe
xy
.
Logo a distribui cao condicional de Y dado X = x e uma exponencial com parametro x.
102 CAP

ITULO 5. VETORES ALEAT

ORIOS CONT

INUOS
Exemplo 5.4.2 Calcule as densidades marginais e condicionais para o vetor (X, Y ), cuja funcao de
densidade e
f(x, y) = 1/64(x +y), para 0 x 4 e 0 y 4.
1. Densidades marginais:
f
X
(x) =
_
4
0
f(x, y)dy =
1
64
_
4
0
(x +y)dy =
1
64
_
xy +
y
2
2
_
4
0
=
x
16
+
1
8
.
f
Y
(y) =
_
4
0
f(x, y)dx =
1
64
_
4
0
(x +y)dx =
1
64
_
x
2
2
+yx
_
4
0
=
y
16
+
1
8
.
2. Densidades condicionais
f(y[x) =
f(x, y)
f
X
(x)
=
1
64
(x +y)
x
16
+
1
8
=
1
4
(x +y)
(x + 2)
.
f(x[y) =
f(x, y)
f
Y
(y)
=
1
64
(x +y)
y
16
+
1
8
=
1
4
(x +y)
(y + 2)
.
Denicao 5.4.2 Sejam X e Y v.as contnuas, com densidades marginais f(x, y), f
X
(x) e densidade
condicional f(y[x) =
f(x,y)
f
X
(x)
. A esperanca condicional de Y dado X = x e denida por
E(Y [X = x) =
_

y f(y[x)dy.
Exemplo 5.4.3 Encontre as esperancas condicionais do vetor aleatorio (X, Y ), do exemplo 5.4.2.
E(Y [X = x) =
_

y f(y[x)dy =
_
4
0
y
1
4
(x +y)
(x + 2)
dy =
1
4(x + 2)
_
4
0
(yx +y
2
)dy
=
1
4(x + 2)
_
y
2
x
2
+
y
3
3
_
4
0
=
1
(x + 2)
_
2x +
16
3
_
.
E(X[Y = y) =
_

x f(x[y)dx =
_
4
0
x
1
4
(x +y)
(y + 2)
dy =
1
4(y + 2)
_
4
0
(x
2
+yx)dy
=
1
4(y + 2)
_
x
3
3
+
x
2
y
2
_
4
0
=
1
(y + 2)
_
16
3
+ 2y
_
.
5.5 Exerccios
1. Sejam X e Y duas v.a.s contnuas cuja funcao densidade de probabilidade conjunta e denida como
segue:
f(x, y) =
_
_
_
c
_
x
2
+
xy
2
_
, se 0 < x < 1 e 0 < y < 2,
0, caso contrario.
(a) Determine o valor da constante c.
(b) Encontre as densidades marginais de X e Y .
(c) Determine as densidades condicionais de Y dado X e X dado Y .
(d) Encontre E(X[Y = y) e E(Y [X = x).
5.5. EXERC

ICIOS 103
2. Sejam X e Y duas v.a.s contnuas cuja funcao densidade de probabilidade conjunta e denida como
segue:
f(x, y) =
_
_
_
6/7(x
2
+xy/2), se 0 < x < 1 e 0 < y < 2,
0, caso contrario.
(a) Encontre as densidades marginais de X e Y .
(b) Determine as densidades condicionais de Y dado X e X dado Y .
(c) Encontre E(X[Y = y) e E(Y [X = x).
3. Seja (X, Y ) um vetor aleatorio com a seguinte densidade conjunta de probabilidade
f(x, y) =
_
_
_
4xy 2x 2y + + 1, se 0 x 2 e 0 y 2,
0, caso contrario,
para 1 < < 1.
(a) Determine a densidade condicional de X dado Y .
(b) Encontre E(X[Y = y).
(c) Para que valores de as variaveis aleatorias X e Y sao independentes?
4. Sejam as v.a.s X
1
, X
2
, . . . , X
n
, independentes e identicamente distribudas segundo uma Normal de
parametro e
2
. Encontre a E(X
1
+X
2
+X
3
+. . . X
n
) e V ar(X
1
+X
2
+X
3
+. . . X
n
), usando a
fun cao geradora de momentos.
104 CAP

ITULO 5. VETORES ALEAT

ORIOS CONT

INUOS
Captulo 6
Inferencia Estatstica
6.1 Introducao
A Inferencia Estatstica e um conjunto de tecnicas para estudar a populacao por meio de evidencias
fornecidas por uma amostra. Ou seja, com base nos elementos da amostra, conseguimos medir quantidades
de interesse da populacao em questao.
Denicao 6.1.1 Populacao e o conjunto de indivduos ou objetos, cujas caractersticas queremos anali-
sar.
Normalmente desejamos analisar caractersticas de uma populacao. Mas na maioria dos casos estudar
toda a populacao pode ser inviavel, pois podemos estar trabalhando com uma populacao muito grande e
difcil de ser encontrada, como toda a ora da oresta amazonica, ou o tempo para realizar a pesquisa
de toda a popula cao pode ser muito pequeno. Um outro caso, e quando estamos interessados em analisar
uma popula cao que requer recursos que podem nao estar disponveis. Desta forma, veremos que sera mais
eciente coletar uma amostra aleatoria dessa populacao.
Denicao 6.1.2 Uma amostra aleatoria e um subconjunto dos elementos da populacao de interesse, ob-
tido de forma aleat oria. Isto e, uma amostra aleatoria e uma simplicacao da populacao sob estudo.
Assim, quanto mais elementos tiver na amostra aleatoria, mais conhecimento teremos da populacao.
Na proxima denicao vamos apresentar uma das formas mais faceis, para selecionar uma amostra aleatoria
de uma populacao.
Denicao 6.1.3 Amostra aleatoria simples.
Para obter uma amostra aleatoria simples de uma populacao com N elementos, associamos uma
variavel aleatoria X
i
a cada elemento da populacao, isto e X
i
, i = 1, . . . , N, e de forma aleatoria, como
um sorteio, escolhem-se n elementos da populacao para formar a amostra. Para selecionar uma amos-
tra aleatoria simples, que denotaremos por A.A.S, alem de serem independentes, todos os elementos da
populacao devem possuir a mesma probabilidade de pertencer `a amostra.
Uma amostra aleatoria simples de tamanho n e representada por uma sequencia de tamanho n de variaveis
aleatorias independentes e identicamente distribudas, que denotaremos por (X
1
, X
2
, . . . , X
n
). A distri-
buicao de probabilidade de X
i
corresponde `a distribui cao de probabilidade da caracterstica da populacao
que esta sendo estudada. E os elementos da amostra efetivamente coletada sao realiza coes da v.a X
105
106 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
associada `a caracterstica de interesse da populacao.
Exemplo 6.1.1 Consideremos a populacao formada pelas mulheres brasileiras. Queremos analisar a
caracterstica altura. Associamos uma v.a X a essa caracterstica e queremos encontrar,
P(X 1.90) e P(X 1.50),
que correspondem a perguntar:
qual a probabilidade de uma mulher brasileira ter mais do que 1.90 m de altura?
qual a probabilidade de uma mulher brasileira ter menos do que 1.50 m de altura?
A maior diculdade para calcular essas probabilidades, e o tamanho da populacao, pois nao conseguimos
entrevistar todas as brasileiras. Por isso, selecionamos uma amostra dessa populacao. Digamos que haja
100 milhoes de mulheres no Brasil, a cada uma vamos associar um n umero. Selecionar uma amostra
corresponde a colocar todos esses n umeros numa urna e sortear digamos mil mulheres e a cada uma
associarmos uma v.a X
i
, i = 1, . . . , 1000, todas independentes e com a mesma distribuicao de X. Feito
isso vamos perguntar a cada uma delas qual a sua altura. Obtidas as respostas, tem-se a seguinte amostra:
(x
1
, x
2
, . . . , x
1000
).
Assim, coletada a altura das 1000 mulheres, a amostra poderia ter a seguinte resposta: (x
1
, x
2
, . . . , x
1000
) =
(1.60, 1.75,. . . , 1.48).
Selecionamos a amostra por meio de sorteio, pois queremos que as respostas sejam independentes,
no sentido de uma mulher nao inuenciar a outra . Tambem vale dizer, que pela natureza aleatoria,
geralmente envolvida no processo amostral, nao podemos armar que repeticoes de amostras produzam
sempre resultados identicos. Isto e, assim como e quase impossvel obter amostras iguais de uma mesma
popula cao, tambem e muito difcil que uma mesma amostra obtenha sempre os mesmos resultados, ja que
ha aleatoriedade na opera cao.

E importante observar que usamos a nota cao X


i
para a variavel aleatoria associada a um indivduo da
popula cao, e queremos denotar todas as possveis variacoes que a caracterstica de interesse pode assumir.
Se estamos interessados na caracterstica altura da mulher brasileira, X
i
pode assumir valores, em metro,
entre [0.50, 2.50]. E a notacao x
i
e usada quando queremos nos referir `a altura da mulher i apos a pesquisa.
6.2 Estimacao
O objetivo de uma estimacao e estudar uma caracterstica de interesse da populacao, por meio da in-
formacao fornecida por uma amostra. Ha dois procedimentos de estima cao: pontual e intervalar.
6.2.1 Estimacao pontual
Quando estudamos uma caracterstica da populacao, em muitos casos temos uma ideia da distribuicao da
v.a X associada a essa caracterstica, porem nao conseguimos denir os parametros dessa distribui cao.
Por isso, nesta secao vamos ver que a partir de uma amostra aleatoria dessa populacao podemos estimar
os valores dos parametros desconhecidos, e entao denir completamente a distribui cao de probabilidade
6.2. ESTIMAC

AO 107
de X. Por exemplo, suponha que X tenha uma distribuicao de Poisson com parametro desconhecido.
Entao a partir da amostra conseguimos estimar .
A estimacao pontual se caracteriza por retornar um unico valor para o parametro desconhecido.
Considerando o exemplo 6.1.1, a v.a X tem uma distribui cao proposta por estatsticos, economistas,
biologos ou fsicos, mas com parametros desconhecidos. Para eles e natural que a v.a X, que representa a
altura das brasileiras, apresente uma distribuicao normal, com parametros e
2
desconhecidos. Entre-
tanto, sabemos que para analisar a caracterstica de interesse temos que encontrar a distribuicao de X e
por isso temos que estimar os parametros desconhecidos.
Denicao 6.2.1 Estatstica e uma funcao da amostra, que usamos para estimar um parametro da po-
pulacao.
Com a amostra numerica em maos, as estatsticas assumem n umeros que sao chamados de estimativas.
Se a amostra numerica muda, as estimativas tambem mudam.
A seguir temos as fun coes especcas para se obter os parametros desconhecidos do exemplo 6.1.1, ou
seja, e
2
:
= g(X
1
, X
2
, . . . , X
n
) = X
n
=

n
i=1
X
i
n
e

2
= h(X
1
, X
2
, . . . , X
n
) = S
2
=
1
n 1
_
n

i=1
X
2
i
nX
2
_
.
Chamaremos estas fun coes de estimadores de e
2
, respectivamente.
Notamos que um estimador, digamos

, e uma funcao das variaveis aleatorias constituintes da amostra,


isto e,

= f(X
1
, X
2
, . . . , X
n
). Logo, um estimador tambem e uma variavel aleatoria. Assim, temos
que saber a distribui cao de probabilidade desses estimadores, para poder dizer se sao ou nao bons
estimadores.
Espera-se que um bom estimador seja nao viesado ou nao viciado.
Denicao 6.2.2 Estimador Viciado. Um estimador

e nao viesado ou nao viciado para um parametro
se E(

) = . Em outras palavras, um estimador e nao-viesado se o seu valor esperado coincidir com o


parametro de interesse.
Espera-se tambem que um bom estimador seja consistente.
Denicao 6.2.3 Consistencia. Um estimador

e consistente, se, `a medida que o tamanho da amostra
aumenta, seu valor esperado convergir para o parametro de interesse e sua variancia convergir para zero.
Ou seja,

e consistente se as duas propriedades seguintes forem satisfeitas:
lim
n
E(

) = e lim
n
V ar(

) = 0.
Observamos, que na deni cao de consistencia, o estimador depende do tamanho da amostra, isto e,
E(

) = so para valores grandes de n. Ja na denicao de vies, o resultado deve valer para todo n. Logo,
vemos que para deni cao de consistencia, o estimador necessita ser nao viesado, apenas para valores
grandes de n.
Iremos apresentar a seguir, uma deni cao que nos ajuda decidir qual e o estimador mais preciso,
quando dois estimadores forem nao viesados e consistentes para um determinado parametro.
Denicao 6.2.4 Eciencia. Sejam

1
e

2
dois estimadores, nao viesados para um parametro , dizemos
que

1
e mais eciente do que

2
se V ar(

1
) < V ar(

2
).
108 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
O proximo exemplo foi retirado de Lima e Magalhaes (2005).
Exemplo 6.2.1 Considere uma certa populacao, cuja caracterstica de interesse seja associada a v.a X,
que tem a seguinte distribuicao de probabilidade:
X 0 10 20 30
P(X = x) 0.2 0.3 0.3 0.2
Com a denicao de esperanca e vari ancia apresentadas no captulo de v.as, vericamos facilmente que
E(X) = 15 e V ar(X) = 105. Mas vamos fazer de conta que nao conhecemos E(X) e vamos tomar uma
amostra aleatoria de tamanho 2 para determin a-la. Para identicarmos as possveis amostras que podemos
coletar, podemos pensar no par ordenado (X
1
, X
2
), sendo X
1
e X
2
variaveis aleatorias independentes com
mesma distribuicao de X. Os possveis resultados dessas amostras, pertencem ao conjunto formado pelo
produto cartesiano, 0, 10, 20, 30 0, 10, 20, 30, o qual possui 2
4
elementos:
(0, 0), (0, 10), (0, 20), (0, 30), (10, 0), (10, 20), (10, 30), . . . , (30, 30).
As amostras nao sao equiprovaveis. Por exemplo, a amostra (0, 0) tem probabilidade 0.04 de ocorrer,
enquanto que (0, 10) tem 0.06 de ocorrer, pois
P((0, 0) = P(X
1
= 0, X
2
= 0) = P(X
1
= 0)P(X
2
= 0) = 0.04
P((0, 10) = P(X
1
= 0, X
2
= 10) = P(X
1
= 0)P(X
2
= 10) = 0.06.
Para estimar o valor da media na populacao, vamos considerar os seguintes estimadores:

1
= f
1
(X
1
, X
2
) = X
1
,

2
= f
1
(X
1
, X
2
) = X =
X
1
+X
2
2
.
A funcao f
1
ja foi apresentada e podemos facilmente calcular sua media. Como X
1
tem a mesma distri-
buicao de X, seus valores esperados s ao iguais, logo
E(X
1
) = 0(0.2) + 10(0.3) + 20(0.3) + 30(0.2) = 15.
Agora para a variavel aleatoria X, nao e difcil vericar que sua distribuic ao de probabilidade e:
X 0 5 10 15 20 25 30
P(X = x) 0.04 0.12 0.21 0.26 0.21 0.12 0.04
Assim, temos que
E(X) = 0(0.04) + 5(0.12) + 10(0.21) + 15(0.26) + 20(0.21) + 25(0.12) + 0.30(0.04) = 15.
Portanto, conclumos que os dois estimadores sao nao viesados, pois
E(X) = E(X
1
) = E(X) = 15.
Sera que sao consistentes?
V ar(X
1
) = 105 lim
n
V ar(
1
) = 105 ,= 0.
Portanto,
1
nao e consistente.
Ja
2
depende do tamanho da amostra e mais tarde veremos que X sera um estimador consistente para
a media populacional.
6.2. ESTIMAC

AO 109
Exemplo 6.2.2 Considere uma populacao com n elementos, tal que E(X) = e V ar(X) =
2
. Um
estimador natural para
2
, baseado na amostra aleatoria (X
1
, X
2
, . . . , X
n
) extrada dessa populacao, e

2
=
1
n
n

i=1
(X
i
X)
2
.
Vamos vericar se esse estimador e nao viesado, para isso tem que valer E(

2
) =
2
:
E(

2
) =
1
n
E
_
n

i=1
(X
i
X)
2
_
=
1
n
E
_
n

i=1
(X
i
+ X)
2
_
=
1
n
E
_
n

i=1
(X
i
)
2
2(X
i
)(X ) + (X )
2
_
=
1
n
E
_
n

i=1
(X
i
)
2
_

2
n
E
_
n

i=1
(X
i
)(X )
_
+
1
n
E
_
n

i=1
(X )
2
_
=
1
n
n

i=1
E(X
i
)
2

2
n
(X )
n

i=1
(E(X
i
) ) +
1
n
n

i=1
E(X )
2
=
1
n
n

i=1
E(X
i
)
2
+
n
n
E(X )
2
=
1
n
n
2


2
n
=
_
n 1
n
_

2
.
Pelo resultado acima, conclui-se que

2
e um estimador viesado para
2
.
Vemos que se multiplicarmos

2
por n/(n 1) teremos um estimador nao viesado.
Fica a cargo do leitor vericar se

2
e consistente. Dica: basta vericar se lim
n
V ar(

) = 0.
Agora iremos estudar a distribuicao amostral da estatistica X . Mais para frente, essa distribuicao sera
usada para fazer inferencias sobre populacoes.
6.2.2 Distribuicao Amostral da media
Vamos considerar uma populacao normal, sendo X a v.a de interesse com media populacional = E(X)
e variancia populacional
2
= V ar(X) conhecidas, isto e, X N(,
2
). Temos que a media amostral e
dada por:
X =
X
1
+X
2
+. . . +X
n
n
.
Vimos que a combinacao linear de uma v.a normal tambem tem distribuicao de probabilidade dada pelo
modelo normal. Assim, podemos dizer que X N(
X
,
2
X
). Entao de acordo com as propriedades de
esperan ca e variancia, temos

X
= E(X) = E
_
1
n
n

i=1
X
i
_
=
1
n
n = ,

2
X
= V ar(X) = V ar
_
1
n
n

i=1
X
i
_
=
1
n
2
n
2
=

2
n
.
Portanto, pelos resultados acima obtemos que E(X) = X e um estimador nao viesado para , e como
lim
n
V ar(X) = 0, temos que X e um estimador consistente.
110 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
Observamos que quando o tamanho da amostra cresce, independentemente da forma da distribuicao
da popula cao, a distribuicao amostral se aproxima cada vez mais de uma distribuicao normal padrao.
Esse resultado fundamental e conhecido como Teorema Central do Limite (T.C.L):
Teorema Central do Limite: Para amostras aleatorias simples (X
1
, . . . , X
n
) retiradas de uma
popula cao com media e variancia
2
nita, a distribuicao amostral da media aproxima-se para n grande,
de uma distribui cao normal com media e variancia (
2
)/n.
A prova desse teorema sera omitida, pois e muito elaborada e exigiria conceitos que estao alem do
escopo deste texto.
Exemplo 6.2.3 Um dado e lancado 180 vezes. Qual e a probabilidade do resultado ser 6 em quarenta
ou mais lancamentos?
Seja X
i
a face do dado observada, no i-esimo lancamento, tal que (i = 1, 2, . . . , 180). Entao
X
i
=
_
1, se x
i
= 6
0, se x
i
,= 6.
Vemos que a v.a X segue a distribuicao de Bernoulli, logo
E(X) = 1(1/6) + 0(5/6) = 1/6,
V ar(X) = E(X
2
) (E(X))
2
= E(X) (E(X))
2
= 1/6 1/36 = 5/36.
Assim,
P(X
1
+. . . +X
180
40) = P
_
X
1
+. . . X
n
n

n

40 n

n
_
T.C.L
P
_
Z
40 n

n
_
= P
_
Z
40 180(1/6)
_
5/36

180
_
= P
_
Z
10
_
900/36
_
= P
_
Z
10

25
_
= P(Z 2) = 1 P(Z 2)
= 1 (0, 5 + 0, 4772) = 1 0, 9772 = 0, 0228.
Portanto, conclui-se que ha uma probabilidade de aproximadamente 2%, para que em mais de 40 lancamentos
a face do dado observada seja 6.
6.2.3 Exerccios - Teorema Central do Limite
1. O nvel de colesterol de uma popula cao de trabalhadores tem media 202 e desvio padrao igual a
14. Se uma amostra de 36 trabalhadores e selecionada, calcule aproximadamente a probabilidade
da media amostral do seu nvel de colesterol estar entre 198 e 206.
2. Considere uma amostra de uma populacao tendo media 128 e desvio padrao igual a 16. Se uma
amostra de tamanho 100 e selecionada, calcule aproximadamente a probabilidade da media amostral
estar entre 124 e 132.
6.2. ESTIMAC

AO 111
3. Sejam X
1
, X
2
, . . . X
144
v.a.s independentes e identicamente distribudas, cada uma tendo media
= E[X
i
] = 2, e variancia
2
= V ar(X
i
) = 4. Use o Teorema Central do Limite para aproximar
P(X
1
+X
2
+. . . +X
144
> 264).
4. Uma companhia de seguros possui 10000 assegurados. Cada assegurado aciona o seguro (aleatoria-
mente e independentemente dos demais assegurados) num valor medio de $300 com desvio padrao
igual a $700. Aproxime pela normal a probabilidade de que o valor total a ser pago pela companhia
seja superior a $2, 7 milhoes.
5. Sejam X
1
, X
2
, . . . X
265
v.a.s independentes e identicamente distribudas, com funcao densidade de
probabilidade f dada por
X
i
=
_
_
_
3(1 x)
2
, para 0 x 1,
0, caso contrario.
Use o Teorema Central do Limite para aproximar
P(X
1
+X
2
+. . . +X
265
> 170).
6. Seja X uma v.a. que descreve determinada caracterstica de certa po-pulacao. Sabemos que X tem
media = 80 e variancia
2
= 26. Dessa populacao retira-se uma amostra de tamanho n = 25.
Calcule
(a) P(X > 83).
(b) P(X 82).
(c) P(X 2 V ar(X) X + 2 V ar(X)).
7. Seja X uma v.a. que descreve determinada caracterstica de certa po-pulacao. Sabemos que X tem
media = 100 e variancia
2
= 85. Dessa populacao retira-se uma amostra de tamanho n = 20.
(a) Calcule P(95 < X > 83 < 105).
(b) Encontre Z

tal que P(X Z

V ar(X) < X +Z

V ar(X)) = 0.95.
8. Qual deve ser o tamanho de uma amostra a ser retirada de uma popula cao, descrita por uma v.a.
X com distribuicao normal de media = 200 e variancia
2
= 350, para que P([X[ < 5) = 0.95?
6.2.4 Exerccios - Estimadores
1. Suponha uma Amostra Aleatoria Simples (A.A.S.) X
1
, X
2
, . . . , X
n
de uma v.a. X com distribui cao
de Bernoulli de parametro p. Seja X o n umero de sucessos e considere os seguintes estimadores para
p:
(a) p
1
= X/n
(b)
p
2
=
_
_
_
1, se a primeira prova resulta sucesso
0, caso contrario
Encontre E( p
1
), E( p
2
), V ar( p
1
) e V ar( p
2
). Sao p
1
e p
2
estimadores nao-viesados para p? Qual dos
dois e mais eciente?
112 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
2. Considere o seguinte estimador para
2
:
V
2
n
=
1
n
n

i=1
(X
i
X)
2
.
Calcule o vies E[V
2
n
]
2
para esse estimador. Dica: observe que V
2
n
= (n 1)S
2
/n.
3. Suponha que as v.a.s X
1
, X
2
, . . . X
n
tenham a mesma esperanca .
(a) S =
1
2
X
1
+
1
3
X
2
+
1
6
X
3
e um estimador nao-viesado para ?
(b) Quais as condi coes que as constantes a
1
, a
2
, . . . , a
n
devem obedecer para que T = a
1
X
1
+
a
2
X
2
+. . . a
n
X
n
seja um estimador nao-viesado para ?
4. Seja X
1
, X
2
, X
3
uma amostra aleatoria de uma populacao exponencial com media , isto e, E[X
i
] =
, i = 1, 2, 3. Cosidere os estimadores

1
=

X,

2
= X
1
,

3
=
X
1
+X
2
2
(i) Demostrar que nenhum dos tres estimadores e viesado. (ii) Qual dos estimadores tem menor
variancia? Lembrar que no caso exponencial Var(X
i
) =
2
.
5. As folhas de arvores sao divididas em 4 tipos: A, B, C e D. De acordo com a teoria genetica, os
tipos ocorrem respectivamente com probabilidades
1
4
( +2),
1
4
,
1
4
(1 ) e
1
4
(1 ), com 0 < < 1.
Suponha que alguem colheu uma amostra de n folhas de uma mata. O n umero de folhas do tipo
A e modelado segundo uma v.a. N
1
com distribuicao Binomial de parametros n e p
1
=
1
4
( + 2),
e o n umero de folhas do tipo B e modelado segundo uma v.a. N
2
com distribuicao Binomial de
parametros n e p
2
=
1
4
. A tabela a seguir mostra a distribui cao da progenia de heterozigotos
auto-fertilizados entre 3839 folhas.
Tipo Quantidade
A 1997
B 32
C 906
D 904
Considere os seguintes estimadores para :
T
1
=
4
n
N
1
2 e T
2
=
4
n
N
2
(a) Verique se T
1
e T
2
sao estimadores nao-viesados para .
(b) Encontre as estimativas para provenientes da tabela acima, usando T
1
e T
2
.
(c) Em termos de eciencia, qual e o melhor estimador?
6. Suponha que alguem observe por algum tempo a chegada de telefonemas e obteve o seguinte con-
junto de dados: x
1
, x
2
, . . . , x
n
, onde x
i
representa n umero de chegadas no i-esimo minuto. Entao
x
1
, x
2
, . . . , x
n
e uma realiza cao das v.a.s X
1
, X
2
, . . . , X
n
, todas com distribuicao de Poisson de
parametro .
(a) Calcule p
0
= P(X = k).
6.3. PRINC

IPIO DA M

AXIMA VEROSSIMILHANC A 113


(b) Um estimador natural para p
0
seria a frequencia relativa de X
i
s iguais a zero, ou seja,
p
0
=
n

de X

i
s iguais a zero
n
.
Mostre que p
0
tem distribuicao binomial de parametros n e p
0
.
(c) Determine um estimador para a partir de p
0
.
(d) O estimador do item anterior e nao-viesado?
6.3 Princpio da Maxima Verossimilhanca
Ate agora construmos apenas de maneira natural os estimadores de parametros de interesses. Por exem-
plo, a esperanca e a probabilidade tem como estimadores a media amostral e a frequencia relativa, res-
pectivamente. Mas em algumas situa c oes, essas analogias nao existem. Por isso, nesta se cao vamos ver
um princpio geral para construir estimadores: princpio da maxima verossimilhanca.
O princpio da maxima verossimilhanca consiste em adotar, como estimativas dos parametros, os
valores que maximizam a probabilidade da amostra observada ocorrer.
6.3.1 Para Variavel Aleatoria Discreta
Suponha que tenhamos um conjunto de dados x
1
, x
2
, . . . , x
n
, modelado segundo uma possvel realizacao
de uma amostra aleatoria simples obtida a partir de uma v.a X discreta com distribui cao de probabilidade,
caracterizada por um parametro , que chamamos de p

(x). Neste caso, a funcao de verossimilhanca e


denida por:
L() = P(X
1
= x
1
, X
2
= x
2
, . . . , X
n
= x
n
)
= P(X
1
= x
1
)P(X
2
= x
2
) . . . P(X
n
= x
n
)
= p

(x
1
)p

(x
2
) . . . p

(x
n
).
Na segunda igualdade, usamos o fato de que X
1
, . . . , X
n
sao variaveis aleatorias independentes.
L() e a fun cao que deve ser maximizada. Para isso, devemos primeiramente derivar e igualar L() a
zero e depois vericar se a condicao de segunda ordem para maximo e satisfeita, isto e:
Primeiro passo: encontrar tal que L

() = 0.
Segundo passo: vericar se para esse , L

() < 0.
Exemplo 6.3.1 Uma moeda viciada e lancada varias vezes ate sair cara pela primeira vez. Esse experi-
mento e repetido tres vezes, com a mesma moeda e os seguintes dados sao obtidos:
Experimento 1: cara apareceu pela primeira vez no 3

lancamento.
Experimento 2: cara apareceu pela primeira vez no 5

lancamento.
Experimento 3: cara apareceu pela primeira vez no 4

lancamento.
Seja p a probabilidade de sair cara para essa moeda. Determine uma estimativa de maxima verossimilhanca
p para p.
114 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
1

passo: Identicar o conjunto de dados:


x
1
= 3, x
2
= 5, x
3
= 4.
2

passo: Propor um modelo para as variaveis aleatorias X


1
, X
2
e X
3
:
As v.as seguem a distribuicao geometrica de parametro p, isto e, X
1
, X
2
, X
3
X, tal que
P(X = x) = (1 p)
x1
p, x = 1, 2, . . .
3

passo: Determinar L(p):


L(p) = P(X
1
= 3, X
2
= 5, X
3
= 4) = P(X
1
= 3)P(X
2
= 5)P(X
3
= 4)
= [(1 p)
2
p][(1 p)
4
p][(1 p)
3
p] = p
3
(1 p)
9
.
Na segunda igualdade usamos que X
1
, X
2
e X
3
sao independentes.
4

passo: Derivar L(p) e igualar a zero:


L

(p) = 3p
2
(1 p)
9
9p
3
(1 p)
8
= 3p
2
(1 p)
8
[(1 p) 3p]
= 3p
2
(1 p)
8
[1 4p] = 0
Portanto, L

(p) = 0 se:
p = 0, que nao faz sentido
(1 p) = 0 p = 1, que nao faz sentido
1 4p = 0 p = 1/4.
5

passo Vericar se a condicao de segunda ordem para maximo e satisfeita, quando p = 1/4:
L

(p) = 6p(1 p)
8
(1 4p) (8)(3)p
2
(1 p)
7
(1 4p) (4)(3)p
2
(1 p)
8
= 6p(1 p)
8
(1 4p) 24p
2
(1 p)
7
(1 4p) 12p
2
(1 p)
8
= 6p(1 p)
7
[(1 4p) 4p(1 4p) 2p(1 p)]
= 6p(1 p)
7
[(1 4p)(1 4p) 2p(1 p)]
= 6p(1 p)
7
[1 8p + 16p
2
2p + 2p
2
]
= 6p(1 p)
7
[1 10p + 18p
2
].
Substituindo p por 1/4, temos
L

(1/4) = (6/4)(3/4)
7
[1 10/4 + 18/16] = 6/4(3/4)
7
(6/16) < 0.
Logo p = 1/4 e a estimativa de m axima verossimilhanca para p.
Exemplo 6.3.2 Suponha tres realizacoes de uma variavel aleatoria de Bernoulli, com parametro de su-
cesso p, tal que 0 < p < 1. Temos que
X =
_
1, com probabilidade p
0, com probabilidade 1 p.
6.3. PRINC

IPIO DA M

AXIMA VEROSSIMILHANC A 115


Os resultados das tres realizacoes sao, repectivamente: x
1
= 1, x
2
= 1 e x
3
= 0.
Vamos determinar uma estimativa de maxima verossimilhanca para p:
L(p) = P(X
1
= 1, X
2
= 1, X
3
= 0)
= P(X
1
= 1)P(X
2
= 1)P(X
3
= 0)
= pp(1 p) = p
2
(1 p).
Na segunda igualdade, usamos que X
1
, X
2
e X
3
sao variaveis aleatorias independentes.
Maximizando a funcao L(p):
L

(p) = 2p(1 p) +p
2
(1) = 2p 2p
2
= 2p 3p
2
= p(2 3p).
Portanto L

(p) = 0 p = 0, que n ao faz sentido ou p = 2/3.


Agora precisamos vericar se a condicao de segunda ordem para maximo e satisfeita:
L

(p) = (2 3p) +p(3) = 2 3p 3p = 2 6p.


Substituindo o valor 2/3 temos que
L

(2/3) = 2 6(2/3) = 2 < 0.


Logo p = 2/3 e a estimativa de maxima verossimilhanca para p.
6.3.2 Para Variavel Aleatoria Contnua
Como e a funcao de verossimilhanca de X, se X for uma variavel aleatoria contnua ?
Para o caso contnuo vamos denir a funcao de maxima verossimilhan ca de forma diferente, pois
denindo igual ao caso discreto teramos sempre L() = 0. Isso acontece, porque a integral de um ponto
e zero. Entao para denir a fun cao de maxima verossimlhan ca para uma amostra de variaveis aleatorias
contnuas, vamos considerar a seguinte motivacao:
Seja f(x, ) a funcao densidade da variavel aleatoria X e tome > 0. Veremos que obteremos uma
estimativa de maxima verossimilhan ca para quando
P(x
1
X
1
x
1
+, . . . , x
n
X
n
x
n
+)
for maxima.
Temos que,
P(x
i
X
i
x
i
+) =
_
xi+
xi
f(x, )dx 2f(x
i
, ).
Entao, como as X
i
s sao independentes, temos
L(x
1
, . . . , x
n
, ) = P(x
1
X
1
x
1
+, . . . , x
n
X
n
x
n
+)
= P(x
1
X
1
x
1
+) . . . P(x
n
X
n
x
n
+)
f(x
1
, )f(x
2
, ) . . . f(x
n
, )(2)
n
.
Note que f(x
1
, )f(x
2
, ) . . . f(x
n
, )(2)
n
e maxima, quando f(x
1
, )f(x
2
, ) . . . f(x
n
, ) for maxima, in-
dependentemente do valor de .
116 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
Portanto, a fun cao de maxima verossimilhan ca de uma v.a contnua e denida por
L(x
1
, . . . , x
n
, ) = f(x
1
, ) . . . f(x
n
, ).
Como no caso discreto, a estimativa de maxima verossimilhanca de e o valor que maximiza L(x
1
, . . . , x
n
, ).
Exemplo 6.3.3 Suponha um conjunto de dados x
1
, . . . , x
n
modelado como sendo uma realizacao de uma
amostra aleat oria simples de uma v.a exponencial de parametro , com funcao densidade dada por
f(x, ) =
_
0, se x < 0
e
x
, para x 0.
Vamos determinar o estimador de maxima verossimilhanca para .
Temos que
L() = e
x1
e
x2
. . . e
xn
= ()
n
e
{x1+x2+...+xn}
.
Derivando e igualando a zero temos,
L

() = n
n1
e
{x1+x2+...+xn}

n
n

i=1
x
i
e
{x1+x2+...+xn}
=
n1
e
{x1+x2+...+xn}
_
n
n

i=1
x
i
_
Assim L

() = 0, se
= 0,
n
n

i=1
x
i
= 0 =
_
n/
n

i=1
x
i
_
=
1
X
Vemos que nesse caso, n ao sera facil encontrar L

(). Por isso, vamos apresentar uma outra ferramenta


para calcular o estimador de maxima verossimilhanca.
Log - Verossimilhanca
Seja L() uma funcao de verossimilhan ca, o maximo dessa fun cao ocorre no mesmo ponto que log(L()).
Isso acontece, pois o logaritmo e uma fun cao monotona crescente. Assim, tanto para o caso discreto como
para o caso contnuo, podemos utilizar o logaritmo natural log(L()) em vez de L(), o que pode ser mais
conveniente em determinadas situa coes, como no exemplo 6.3.3. Assim, temos que
L() = f(x
1
, )f(x
2
, ) . . . f(x
n
, ) log(L()) = log(f(x
1
, )f(x
2
, ) . . . f(x
n
, ))
= log(f(x
1
, )) +log(f(x
2
, )) +. . . +log(f(x
n
, )).
Exemplo 6.3.4 Voltando ao exemplo 6.3.3, vamos encontrar a estimativa de maxima verossimilhanca
para utilizando o logaritmo de L(), que denotaremos por l():
Temos que
L() = ()
n
e
{x1+x2+...+xn}
.
Assim,
l() = log(L()) = n log()
n

i=1
x
i
.
6.3. PRINC

IPIO DA M

AXIMA VEROSSIMILHANC A 117


Derivando l() e depois igualando-o a zero, encontramos que:
l

() = n
1

i=1
x
i
= 0 =
_
n/
n

i=1
x
i
_
=
1
X
.
Agora vamos vericar se a condicao para m aximo e satisfeita, ou seja, se l

() < 0:
l

() = n
1

2
.
Logo, l

() sera menor do que zero, para qualquer valor de diferente de zero. Entao a estimativa de
maxima verossimilhanca para e
1
X
.
Exemplo 6.3.5 Suponha que o n umero de acidentes que ocorrem durante um dia do ano em uma cidade,
siga uma distribuicao de Poisson(). Em dez dias escolhidos ao acaso, os n umeros de acidentes observados
na cidade de Campinas, foram
4, 0, 6, 5, 1, 2, 0, 3, 4 e 2.
Usando o princpio da maxima verossimilhanca para , estime a proporcao de dias do ano nos quais
ocorrerao no maximo dois acidentes em Campinas.
Temos que,
f(x
1
, )f(x
2
, ) . . . f(x
n
, ) =
n

i=1
e

xi
x
i
!
.
Entao
l() = log
_
n

i=1
f(x
i
, )
_
= log
_
n

i=1
e

xi
x
i
!
_
=
n

i=1
_
log
e

xi
x
i
!
_
=
n

i=1
(log e

xi
log x
i
!) =
n

i=1
(log e

+log
xi
log x
i
!)
=
n

i=1
( +log
xi
log x
i
!) = n() +
n

i=1
log
xi

i=1
log x
i
!.
Derivando l() e igualando-o a zero, temos que:
l

() = n +
n

i=1
1

xi

xi1
x
i
=
n

i=1
x
i

n = 0.


=
n

i=1
x
i
n
.
Substituindo os valores da amostra, obtemos

=
n

i=1
x
i
n
=
27
10
= 2, 7.
Agora que encontramos uma estimativa para conseguimos estimar a quantidade de dias em que ocorrerao
no maximo dois acidentes em Campinas.
P(X 2) =
2

a=0
P(X = a) =
2

a=0
e
2,7
2, 7
a
a!
= e
2,7
+ 2, 7e
2,7
+
2, 7
2
e
2,7
= e
2,7
(1 + 2, 7 + (2, 7/2)) = e
2,7
10, 1
2
0, 34.
118 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
Portanto, estima-se que em aproximadamente 35% dos dias do ano ocorrer ao no maximo dois acidentes
nesta cidade.
Exemplo 6.3.6 Vamos supor agora, que o conjunto de dados x
1
, . . . , x
n
seja uma realizacao de uma
amostra aleatoria simples proveniente de uma distribuicao normal, N(,
2
), com e
2
desconhecidos.
Quais sao os estimadores de maxima verossimilhanca para e
2
?
Seja
f(x
i
, ,
2
) =
1

2
exp
_

1
2
_
x

_
2
_
,
temos que
l(,
2
) = n log() n log(

2)
1
2
2
[(x
1
)
2
+. . . + (x
n
)
2
].
Vamos calcular as derivadas parciais de l(,
2
):
l

=
1
2
2
2(x
1
) . . . 2(x
n
)
=
1

2
x
1
. . . x
n
+n =
n

2
X
e
l

2
= n
1

+
1

3
(x
1
)
2
+. . . + (x
n
)
2

=
n

3
_

1
n
n

i=1
(x
i
)
2
_
.
O maximo da funcao l(,
2
) ocorrer a quando
l

=
l

2
= 0 :
1.
l

=
n

2
(X ) = 0 X = 0 = X.
2.
l

2
=
n

3
_

1
n
n

i=1
(x
i
X)
2
_
= 0
2
=
1
n
n

i=1
(x
i
X)
2
.
Portanto, = X e

2
=
1
n
n

i=1
(x
i
X)
2
sao estimadores de maxima verossimilhanca de e
2
, respecti-
vamente.
Propriedades dos estimadores de maxima verossimilhanca:
1. Podem ser viesados.
Como vimos no exemplo 6.3.6,

2
=
1
n
n

i=1
(x
i
X)
2
e o estimador de maxima verossimilhanca para

2
, mas
S
2
=
1
n 1
n

i=1
(x
i
X)
2
e o estimador nao viciado de
2
.
2. Se T for o estimador de maxima verossimilhan ca para um parametro e g() for uma funcao
inversvel para , entao g(T) e o estimador de maxima verossimilhanca para g().
6.3. PRINC

IPIO DA M

AXIMA VEROSSIMILHANC A 119


6.3.3 Exerccios
1. Suponha uma Amostra Aleatoria Simples (A.A.S.) X
1
, X
2
, . . . , X
n
de uma v.a. X com distribui cao
de Bernoulli de parametro p. Para n = 4 obteve-se a seguinte realiza cao das X
i
s: x
1
= 1, x
2
=
0, x
3
= 0, x
4
= 0. Encontre uma estimativa de maxima verossimilhan ca para p.
2. Suponha uma Amostra Aleatoria Simples (A.A.S.) X
1
, X
2
, . . . , X
n
de uma v.a. contnua com fun cao
densidade de probabilidade (f.d.p.) dada por
f

(x) =
_
_
_
x
1
se 0 x 1
0 caso contrario
Seja x
1
, x
2
, . . . , x
n
uma realizacao das v.a.s X
1
, X
2
, . . . , X
n
.
(a) Determine a fun cao de verossimilhanca.
(b) Encontre uma estimativa de maxima verossimilhan ca para .
3. Suponha uma Amostra Aleatoria Simples (A.A.S.) X
1
, X
2
, . . . , X
n
de uma v.a. contnua com fun cao
densidade de probabilidade (f.d.p.) dada por
f

(x) = e
x
, se x 0
Seja x
1
, x
2
, . . . , x
n
uma realizacao das v.a.s X
1
, X
2
, . . . , X
n
.
(a) Proponha um estimador para .
(b) Determine a fun cao de verossimilhanca.
(c) Encontre uma estimativa de maxima verossimilhan ca para .
4. Suponha uma Amostra Aleatoria Simples (A.A.S.) X
1
, X
2
, . . . , X
n
de uma v.a. contnua com fun cao
densidade de probabilidade (f.d.p.) dada por
f

(x) =
_
_
_

2
xe
x
se x > 0
0 caso contrario
Seja x
1
, x
2
, . . . , x
n
uma realizacao das v.a.s X
1
, X
2
, . . . , X
n
.
(a) Proponha um estimador para .
(b) Determine a fun cao de verossimilhanca.
(c) Encontre uma estimativa de maxima verossimilhan ca para .
5. Seja X
1
, X
2
, . . . , X
n
uma amostra aleatoria de uma densidade f(x, ). Encontre o estimador de
maxima verossimilhan ca de em cada um dos casos a seguir:
(a) f(x, ) = e
x
, x 0, > 0.
(b) f(x, ) = c

x
(+1)
, x c > 0, > 0.
(c) f(x, ) =
x

2
exp
_

x
2
2
2
_
, x > 0, > 0.
(d) f(x, ) = c x
c1
expx
c
, x 0, > 0.
120 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
6.4 Intervalo de Conan ca
Estudamos nas secoes anteriores apenas estimadores pontuais, que possuem como caracterstica especicar
um unico valor para o estimador. Vamos ver nesta se cao como construir um intervalo aleatorio, que
com alta probabilidade, contenha o parametro de interesse. Chamaremos esse intervalo de Intervalo de
Conanca.
6.4.1 Intervalo de conanca para a media
Podemos saber se uma estimativa pontual de e boa, perguntando qual e o erro amostral envolvido
na estima cao, isto e: Qual e o erro envolvido quando um determinado valor de X e usado como uma
estimativa por ponto de ?
Denimos o erro amostral de , como a diferenca entre os valores da amostra e da popula cao:
e = X .
Como nao conhecemos , nao conseguiremos determinar o erro amostral utilizando esta fomula. Mas,
uma vez que a distribui cao amostral de X mostra como os valores de X estao distribudos ao redor de ,
tambem nos fornece a informacao sobre as possveis diferencas de X e . Portanto, veremos que podemos
usar a distribui cao de X para fazermos declaracoesde probabilidade sobre o tamanho do erro amostral.
Temos que a esperan ca e a variancia do erro amostral para media, sao:
E(e) = E(X ) = E(X) E() = = 0
e
V ar(e) = V ar(X ) = V ar(X) V ar() = V ar(X) =

2
n
.
Portanto, com esses resultados, conseguimos determinar a probabilidade do erro amostral ser menor que
determinado [0, 1], que denominamos de coeciente de conanca e posteriormente construir o intervalo
de conanca. Entao, temos que
P([e[ < z) = P(z < e < z)
P
_
z
/

n
< e <
z
/

n
_
= P
_
z

< e <
z

_
=
P
_
Z <
z

_
1 +P
_
Z <
z

_
=
2P
_
Z <
z

_
1 =
P
_
Z <
z

_
=
1 +
2
.
Dado = 0.95, obtemos
P(z < e < z) P
_
Z <
z

_
=
1.95
2
= 0.975.
Pela tabela da normal padrao:
z

= 1.96 z =
1.96

n
= 1.96
X
.
6.4. INTERVALO DE CONFIANC A 121
Logo,
P(z < e < z) = P(1.96
X
< X < 1.96
X
)
= P(X 1.96
X
< < X + 1.96
X
) = 0.95.
Assim, o intervalo de conanca para , com coeciente de conanca = 0.95, e dado por
IC(; 0.95) = [ X 1.96
X
, X + 1.96
X
].
Interpretacao: Se pudessemos construir uma quantidade grande desses intervalos [ X 1.96
X
, X +
1.96
X
], todos baseados em amostras de tamanho n, 95% deles conteriam o parametro .
Em outras palavras, se obtivermos varias amostras de mesmo tamanho n e para cada uma delas
calcularmos os correspondentes intervalos de conanca com coeciente de conan ca , esperamos que a
propor cao de intervalos que contenham o valor verdadeiro de seja igual a .
Entao, diferentemente da estimacao pontual, agora conseguimos determinar com que probabilidade
estamos obtendo uma estimativa.
Exemplo 6.4.1 Considere 20 amostras de tamanho n = 25, de uma distribuicao normal com media 5 e
variancia igual a 9, isto e, N(5, 9). Vamos construir um intervalo de conanca para , com = 0.95.
O desvio padrao para a amostra e dado por

X
=

n
=

25
=
3
5
.
Vimos que o intervalo de conanca para , tal que = 0.95, e dado por
IC(; 0.95) = [ X 1.96
X
, X + 1.96
X
]
Portanto, o intervalo procurado e
IC(; 0.95) = [ X 1.96(3/5), X + 1.96(3/5)] = [ X 1.76, X + 1.76].
Exemplo 6.4.2 A Esportes e cia e uma empresa de encomendas por mala direta, especializada em equipa-
mentos e acessorios esportivos. A empresa se preocupa em oferecer o melhor servico aos seus clientes, por
isso monitora a qualidade de seus servicos selecionando uma A.A.S de clientes a cada mes. Cada cliente
e questionado sobre uma serie de problemas e as respostas obtidas sao usadas para calcular uma contagem
de satisfa c ao para cada um dos clientes pertencentes `a amostra, que representaremos pela v.a X. Essa
contagem varia entre 1 a 100, em que 1 e 100 representam a pior e a melhor avaliac ao, respectivamente.
Uma contagem media e calculada todo mes e usada como uma estimativa pontual da contagem media
para toda a populacao de clientes da empresa.
Dado que num lancamento recente 100 clientes foram entrevistados e obteve-se X = 82, vamos deter-
minar o intervalo de conanca para .
Assumiremos que o desvio-padrao da populacao sera sempre = 20. Entao, temos que

X
=

n
=
20
10
= 2.
Como foi visto no desenvolvimento teorico apresentado acima, o intervalo de conanca para , com
= 0.95 e dado por
IC(; 0.95) = [ X 1.96
X
, X + 1.96
X
]
122 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
Entao, nesse caso, o intervalo de conanca para , com coeciente de conanca = 0.95 e
IC(; 0.95) = [ X 1.96(2), X + 1.96(2)] = [82 3.92, 82 + 3.92] = [78.08, 85.92].
Portanto, ha uma probabilidade de 95% de que a media da amostra forneca um erro de 3.92 ou menos.
Esta declaracao e uma declaracao de precisao, que diz `a empresa sobre o erro que pode ser esperado se
uma amostra aleatoria simples de 100 clientes for usada para estimar a media da contagem de satisfacao
da populacao.
Agora vamos analisar o intervalo de conan ca do exemplo 6.4.2, quando mudamos apenas o valor do nvel
de conanca .
Para = 0.99:
IC(; 0.99) = [ X 2.576
X
, X + 2.576
X
] = [82 5.15, 82 + 5.15] = [76.85, 87.15].
Para = 0.90:
IC(; 0.90) = [ X 1.645
X
, X + 1.645
X
] = [82 3.29, 82 + 3.29] = [78.71, 85.29].
Pegamos um valor acima e um abaixo de = 0.95 para podermos analisar o que acontece nesses dois casos
distintos. Vemos que aumentando o valor de , obtemos um intervalo de conanca maior do que o do
exemplo 6.4.2 e o contrario ocorre, quando diminumos o valor de . Isso acontece, porque aumentando
o nvel de conanca , o valor de z tambem aumenta e como consequencia temos um intervalo maior. Ja
quando diminumos , o valor de z ca menor, diminuindo o intervalo de conan ca.
O mesmo acontece se aumentarmos o desvio padrao, ou seja, aumentando a amplitude do intervalo
tambem aumenta e, diminui quando diminumos .
Se aumentarmos o valor de n e deixarmos as outras variaveis constantes, veremos que a amplitude
do intervalo vai diminuir. Isso acontece, porque com um maior n umero de dados a estimacao ca mais
precisa se restringindo a um intervalo cada vez menor. O contrario acontece quando diminumos n.
Portanto, notamos que a amplitude de um intervalo de conanca depende de tres elementos: do
coeciente de conan ca (), do tamanho da amostra (n) e do desvio padrao ().
6.4.2 Intervalo de Conanca para p
O exemplo a seguir foi retirado do livro de Bussab e Morettin (2002), p. 306.
Exemplo 6.4.3 Vamos obter um intervalo de conanca, com = 0.95, para o parametro p de uma
distribuicao binomial de parametros n e p. Seja X a variavel aleatoria que representa o n umero de
sucessos em n provas, temos que
E(X) = np
V ar(X) = np(p 1).
Pelo Toerema Central do Limite sabemos que
Z =
X np
_
np(1 p)
N(0, 1)
ou tambem,
Z =
X/N p
_
pq/n
=

n( p p)

pq
N(0, 1).
6.4. INTERVALO DE CONFIANC A 123
Usando a tabela da normal padrao, temos que
P(1.96 Z 1.96) = 0.95 = P
_
1.96
(p p)

pq
1.96
_
= P
_
1.96

pq

n
p p 1.96

pq

n
_
= P
_
p 1.96

pq

n
p p + 1.96

pq

n
_
onde q = (1 p).
Nao conhecemos p. Como vamos determinar pq?
Uma das formas e obter o valor maximo da funcao p(1 p). Podemos usar este metodo, pois quanto
maior for p(1 p) maior sera o tamanho do intervalo, e consequentemente, havera mais chances desse
intervalo conter o parametro.
Utilizando a regra do maximo, temos que
g(p) = p(1 p) g

(p) = (1 p) p p = 1/2.
Note que g

(p) = 1 1 < 0.
Portanto, p = 1/2 maximiza g(p). Entao substituindo p = 1/2 em g(p), temos que o valor maximo de
p(1 p) e 1/4.
Assim, temos que
pq
1
4

_
pq
n

1

4n
1.96
_
pq
n
1.96
1

4n
.
Usando as desigualdades acima, obtemos
p 1.96
1

4n
p 1.96
_
pq
n
p p + 1.96
_
pq
n
p +
1.96

4n
.
O que implica em
p
1.96

4n
p p +
1.96

4n
.
Entao
_
p
1.96

4n
, p +
1.96

4n
_
e um intervalo de conanca para p com coeciente de conanca de 95%.
Para um qualquer, o intervalo de conanca acima e escrito da seguinte forma:
IC(p; ) =
_
p
z()

4n
, p +
z()

4n
_
.
O intervalo de conanca obtido e chamado de conservador, pois estamos substituindo a variancia por um
valor maior do que o verdadeiro e assim assegurando que o coeciente de conanca seja no mnimo .
No proximo exemplo, tambem retirado do livro de Bussab e Morettin (2002), p.307, vamos mostrar uma
outra maneira para se obter pq quando p for desconhecido.
Exemplo 6.4.4 Numa pesquisa de mercado 400 pessoas foram entrevistadas sobre determinado produto,
e 60% delas preferiram a marca A. Seja p = 0.60, um intervalo de conanca conservador para esse caso,
e:
IC(p; 0.95) =
_
p
z()

4n
, p +
z()

4n
_
= [0.551, 0.649].
124 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
Novamemte nao conhecemos p. A segunda forma de proceder nessas situacoes e substituir pq por p q com
q = 1 p.
Desta forma, obtemos o seguinte intervalo de conanca:
I(p, ) =
_
p z()
_
p q
n
, p +z()
_
p q
n
_
Temos que
p = 0.6 q = 0.4 p q = 0.24.
Entao, o intervalo de conanca com = 0.95 e
IC(p; 0.95) =
_
0.60 1.96
_
0.24
400
, 0.60 + 1.96
_
0.24
400
_
= [0.551, 0.649]
Neste exemplo, tanto o intervalo conservador quanto o intervalo de conan ca obtido pela estimativa de
p apresentaram o mesmo valor. Veremos no proximo exemplo, retirado do livro de Bussab e Morettin
(2002), p. 307, que isso nao acontece sempre.
Exemplo 6.4.5 Suponha que em n = 400 provas obtivemos k = 80 sucessos. Vamos obter um intervalo
de conanca para p com = 0.90.
Temos que
p =
80
400
= 0.2 q = 1 p = 0.8.
Portanto, substituindo pq por p q, obtemos
IC(p; 0.90) =
_
0.2 1.645
_
(0.2)(0.8)
400
, 0.2 + 1.645
_
(0.2)(0.8)
400
_
= [0.167, 0.233].
Como vimos, para construir o intervalo conservador,
_
pq
n
seria trocado por
_
1
4n
=
1
4(400)
=
1
40
.
Portanto, temos que
IC(p; 0.90) =
_
0.2 1.645
1
40
, 0.2 + 1.645
1
40
_
= [0.159, 0.241].
Como o intervalo conservador apresenta uma menor precisao para p, vemos que a amplitude desse inter-
valo sera sempre maior ou igual a do intervalo em que e usado a estimativa para p.
6.4.3 Exerccios
1. Voce tem em maos um conjunto de dados que podem ser considerados como um realizacao de uma
A.A.S de uma variavel aleatoria com distribui cao normal. O tamanho da amostra e n = 34, o valor
assumido pela media amostral e 3.54, e
x
= 0.13. Construa um intervalo para com nvel de
conanca igual a 98%.
2. Uma amostra de 25 observacoes de uma normal N(, 16) foi coletada e forneceu uma media amostral
de 8. Construa intervalos com conan ca 80%, 85%, 90% e 95% para a media populacional. Comente
as diferencas encontradas.
6.5. TESTE DE HIP

OTESES 125
3. Suponha que a media e o desvio padrao amostrais das notas de um teste de habilita cao para uma
amostra de 20 estudantes de uma classe com um total de 100 estudantes, sejam X = 150 e
x
= 20.
Encontrar um intervalo de conanca para de 95%.
6.5 Teste de Hipoteses
Ate agora trabalhamos apenas com estimativas n umericas fornecidas por estimadores e intervalos de
conanca. Nesta se cao iremos estudar situa coes em que temos que escolher ou refutar uma hipotese sobre
o parametro desconhecido e tambem situa coes em que temos que decidir entre duas hipoteses sobre o
parametro desconhecido.
Suponha que um conjunto de dados seja modelado como a realizacao das v.a.s X
1
, X
2
, . . . X
n
e que a
distribui cao de X
i
seja conhecida, mas com parametros desconhecidos. Para determina-los vamos propor
hipoteses sobre esses parametros desconhecidos.
Em particular, vamos estudar distribuicoes com apenas um parametro, , desconhecido, e propor
hipoteses para esse parametro.
Denicao 6.5.1 Hipotese (Estatstica) e qualquer armac ao que se faca sobre um parametro desconhe-
cido.
O proximo exemplo foi retirado de Morettin (1981).
Exemplo 6.5.1 Um professor aplica um teste envolvendo 10 questoes do tipo certo ou errado e quer
testar a hip otese o estudante esta adivinhando (chutando) as respostas.
Vamos chamar de p a probabilidade do estudante responder corretamente a uma questao, independen-
temente de ele estar chutando ou nao as respostas.
Para modelar probabilsticamente este problema, temos que primeiro identicar a amostra aleatoria:
O professor tem em maos uma realizacao das variaveis aleat orias X
1
, X
2
, . . . X
10
, onde X
i
e uma v.a
que assume o valor 1 se o aluno acertou a i-esima pergunta e 0 se errou. Assim, X
i
tem distribuic ao de
Bernoulli com parametro p, desconhecido. Isto e,
X
i
=
_
_
_
1, se acertou (com probabilidade p)
0, se errou (com probabilidade 1 p)
A hipotese natural para este caso, e propor que a probabilidade do aluno acertar uma pergunta seja 1/2.
Esta hipotese e comumente chamada de hipotese nula e simbolizada por H
0
. Porem, se o aluno nao
estivesse chutando, ele responderia corretamente com probabilidade maior que 1/2.
Entao nos interessa testar
H
0
: p = 1/2 contra
H
1
: p > 1/2,
onde H
1
e chamada de hipotese alternativa.
Para resolver exemplos como este, temos que questionar algumas situa coes, para isso as perguntas
frequentes sao: Sem conhecer a atitude do aluno, como julgar se a hipotese nula e verdadeira ou nao?
Uma pergunta mais adequada, seria: Aceito ou rejeito a hipotese nula?
Ou ainda: Com que probabilidade eu aceito ou rejeito a hipotese nula?
Para respondermos a essas questoes precisamos conhecer dois conceitos estatsticos:
126 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
Teste Estatstico
Regra de Decisao
O Teste Estatistico e qualquer fun cao da amostra (estimador), cujo valor numerico (estimativa) possa
ser usado para decidir sobre rejeitar ou aceitar a hipotese nula.
Voltando ao exemplo 6.5.1, o Teste Estatistico mais natural para esse caso e
Y =
10

i=1
X
i
,
o n umero de respostas corretas.
Um Teste Estatstico e uma variavel aleatoria, logo precisamos saber quais valores Y assume e qual
e a sua distribuicao de probabilidade. Temos que Y tem distribuicao binomial de parametros n = 10 e p
(desconhecido) e, portanto, assume os seguintes valores:
0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10.
De acordo com esses valores podemos formar uma Regra de Decisao para o exemplo 6.5.1, a qual
determina para quais valores do Teste Estatstico vamos rejeitar ou aceitar a hipotese nula.
Suponha que no exemplo, o professor adote a seguinte Regra de Decisao:
Se oito ou mais respostas estiverem corretas, o estudante nao esta adivinhando, enquanto que se um
n umero menor que oito questoes estiverem corretas, o estudante esta advinhando.
Ou seja, a hipotese nula, H
0
: p = 1/2, sera rejeitada se Y = 8 ou Y = 9 ou Y = 10.
O evento Y 8 e chamado de Regiao Crtica ou Regiao de Rejei cao do Teste de Hipoteses.
Enquanto que o evento Y < 8 e chamado de Regiao de Aceitacao ou Regiao de Nao-Rejei cao do
Teste de Hip oteses.
6.5.1 Erro Tipo I
Voltando ao exemplo 6.5.1, o professor sabe que e possvel que um estudante esteja adivinhando e ainda
assim ele acerte 8 ou mais questoes. Isto e, temos a situa cao em que H
0
e verdadeira, mas e rejeitada.
O professor quer, certamente, que a probabilidade desse evento seja pequena. Podemos calcula-la da
seguinte forma:
Erro do tipo I = P(Y = 8 Y = 9 Y = 10; usando p = 1/2)
= P(Y = 8; p = 1/2) +P(Y = 9; p = 1/2) +P(Y = 10; p = 1/2)
=
_
10
8
__
1
2
_
10
+
_
10
9
__
1
2
_
10
+
_
10
10
__
1
2
_
10
=
7
128
.
Portanto, se o teste fosse aplicado 128 vezes, o professor esperaria rejeitar H
0
sete vezes, quando H
0
fosse
verdadeira.
A probabilidade 7/128 e chamada de Nvel de Signicancia do Teste de Hipoteses e representada
pela letra . A probabilidade de rejeitar a hipotese nula quando ela for verdadeira, e tambem chamada
6.5. TESTE DE HIP

OTESES 127
probabilidade de se cometer o Erro do tipo I.
No exemplo 6.5.1 vimos um Teste de Hipotese chamado de Unilateral (`a direita). Este teste possui essa
denominacao, pois testamos a hipotese nula onde p = 1/2, contra uma hipotese alternativa de p assumir
valores maiores que 1/2. Agora no proximo exemplo, tambem de Morettin (1981), vamos ver um caso de
Teste de Hipotese Bilateral.
Exemplo 6.5.2 Temos uma moeda e queremos saber se ela e honesta, lancando-a cinco vezes. Vamos
chamar de X a v.a que representa o resultado dos lancamentos, onde X
i
representa se saiu cara ou coroa
no i-esimo lancamento.
Temos que X e uma variavel com ditribuicao de Bermoulli de parametro p, desconhecido, tal que
X
i
=
_
_
_
1, se acertou com probabilidade p
0, se errou com probabilidade 1 p
A hipotese natural a se propor e que a moeda seja honesta (p = 1/2).
Assim, o Teste Estatstico mais adequado neste caso, e
Y =
5

i=1
X
i
onde Y representa o n umero de caras nos 5 lancamentos. Temos, novamente, uma v.a. Y com distribuicao
binomial de probabilidade com par ametros n = 10 e p (desconhecido) e, portanto, assume os seguintes
valores:
0, 1, 2, 3, 4, 5.
Vamos supor a seguinte Regra de Decisao:
A moeda sera considerada viciada se sarem 5 caras ou 5 coroas.
Entao rejeitamos a hipotese nula, se Y = 5 ou Y = 0, ou seja, quando sarem 5 ou nenhuma
cara. Portanto, a Regiao Crtica sera
Y = 5 Y = 0.
Calculando o Nvel de Signicancia do teste, ou melhor, a probabilidade da moeda ser viciada uma vez
que p = 1/2, temos
= P(Y = 0 Y = 5; p = 1/2) =
_
1
2
_
5
+
_
1
2
_
5
=
1
16
.
Portanto, conclumos que se a moeda fosse lancada 16 vezes, rejeitaramos a hipotese nula uma vez,
quando H
0
fosse verdadeira.
No exemplo acima, o teste e chamado de Teste de Hipoteses Bilateral, pois testamos a hipotese nula de
p = 1/2 contra p ,= 1/2, isto e, testamos a hipotese de p assumir valores maiores ou menores que 1/2.
6.5.2 Erro Tipo II
Retornando ao exemplo 6.5.1, vamos supor que o aluno acertou apenas 6 questoes.
Entao, nao ha razao para rejeitar H
0
e diramos que o aluno esta advinhando.
128 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
Mas, e possvel que o aluno nao esteja adivinhando(isto e, p > 0, 5), e no entanto o aluno acertou
apenas 6 questoes. Portanto, ha um outro tipo de erro envolvido nesse processo decisorio: aceitar H
0
,
sendo ela falsa, ou de forma equivalente, rejeitar H
1
, sendo ela verdadeira.
Assim, vamos supor a seguinte situacao. Seja p = 0, 8 a probabilidade desse aluno acertar, podemos
repensar o problema em termos de testar
H
0
: p = 0, 5
contra a hipotese alternativa
H
1
: p = 0, 8.
Vamos calcular a probabilidade, que chamaremos de , de aceitar H
0
quando H
1
for verdadeira, ou
equivalentemente, calcular a probabilidade, , de aceitar H
0
quando H
0
for falsa. Temos, para p = 0.8,
que
= P(Y = 0 Y = 1 . . . Y = 7; p = 0.8)
= P(Y = 0) +P(Y = 1; p = 0.8) +. . . +P(Y = 7; p = 0.8) = 0.322.
O Erro que consiste em aceitar H
0
, sendo ela falsa, e denominado Erro do tipo II. E, portanto, e a
probabilidade de se cometer Erro do tipo II.
Na tabela a seguir estao representados os erros de decisao:
A Verdade
H
0
e verdadeira H
1
e verdadeira
Nossa Decisao Rejeitar H
0
Erro Tipo I Decis ao Correta
Baseada no
Conj. de Dados N ao Rejeitar H
0
Decis ao Correta Erro Tipo II
Na tabela abaixo apresentamos os erros de decis ao do exemplo 6.5.1:
6.5. TESTE DE HIP

OTESES 129
A Verdade
p = 0, 5 p = 0, 8
Nossa Decisao Rejeitar H
0
Erro Tipo I Decis ao Correta
Baseada no
Conj. de Dados N ao Rejeitar H
0
Decis ao Correta Erro Tipo II

130 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
6.5.3 Relacoes entre os Erros Tipo I e Tipo II
Vamos ver como os erros do tipo I e II estao relacionados, quando tentamos diminuir um dos erros,
digamos .
Considerando novamente o exemplo 6.5.1, suponha que tomemos como Regiao Crtica o evento
Y 9.
Com a mudan ca da Regiao Crtica, obtemos novos valores para e :
0.01 < 0.054
e
= P(Y = 0; p = 0.8) +. . . +P(Y = 7; p = 0.8) +P(Y = 8; p = 0.8) = 0.624 > 0.322.
Vemos que diminuindo , aumenta. Na tabela abaixo podemos comparar alguns valores de e ,
associados a diferentes Regioes Crticas:
Regiao Crtica
7, 8, 9, 10 0.17 0.121
8, 9, 10 0.054 0.322
9, 10 0.01 0.624
Gostaramos que e fossem pequenos mas para n xado a priori, nao e possvel escolher e `a
nossa vontade. Entao e usual xar um valor para , comumente menor ou igual a 0, 01.
6.5.4 Poder e Funcao Poder de um Teste
Exemplo 6.5.3 Um novo metodo de ensino envolvendo recursos computacionais foi usado no ensino de
estatstica a um grupo de 100 estudantes. Seja X a variavel aleatoria que representa as notas dos alunos
de 1 a 100, onde X possui distribuicao normal com
2
= 100.
Antes de se adotar o novo metodo de ensino sabia-se que = 60. A partir de uma amostra aleatoria
de 25 notas, queremos testar se a media das notas aumentaram ap os o uso do novo metodo.
Portanto, vamos testar as seguintes hipoteses
H
0
: = 60
H
1
: > 60.
O Teste Estatstico para a media amostral sera:
X =

25
i=1
X
i
25
onde X N(,
2
/n) com
2
= 100/25.
Para caracterizar o desempenho do teste, denimos a Fun cao Poder do Teste, que e a probabilidade
de se rejeitar H
0
quando ela for falsa, que representamos por:
K() = P(rejeitar H
0
; ).
6.5. TESTE DE HIP

OTESES 131
Observe que se H
0
for falsa, entao H
1
e verdadeira. Em todos os exemplos que vimos ate agora, H
1
nao explicita um valor especco para , da termos a Fun cao Poder do Teste, K(), como funcao de
. Para um valor especco de , digamos
1
, obedecendo `a condicao exposta em H
1
, temos que K(
1
) e
chamado de Poder do Teste para
1
.
Voltando ao exemplo, vamos supor inicialmente a seguinte Regra de Decisao: rejeitar H
0
se X 62.
Entao, temos que
K() = P(X 62; ) = P
_
X
2

62
2
;
_
K() = 1 P
_
X
2

62
2
;
_
, 60
K() = 1 P
_
X
2

62
2
;
_
, 60
Em particular, K(60) = 0.1587 e a probabilidade de se rejeitar H
0
: = 60, quando ela for verdadeira.
Note que nesse caso, a func ao poder e igual ao nvel de signic ancia (), ou ainda, e igual a probabilidade
de se cometer o Erro do Tipo I.
Calculando a funcao poder para = 65, temos que K(65) = 0.9332, que e a probabilidade de se rejeitar
H
0
: = 60 quando = 65. Portanto, quando for um valor da hip otese alternativa, nao e difcil
perceber que quanto maior a funcao poder, melhor sera o teste. Entao, para = 65, 1K(65) = 0.0668 e
a probabilidade de nao se rejeitar H
0
: = 60 quando = 65. Ou melhor, e a probabilidade de se cometer
o Erro Tipo II: Rejeitar H
1
: > 60 quando ela for verdadeira, o que denotaremos por:
= 1 K()
Voltando novamente ao exemplo, o valor de = 0.1587 e considerado muito grande para a maior parte
dos estatsticos. Assim, vamos obter uma nova Regra de Decisao xando = 0.05:
K(60) = P(X t
c
; = 60) = 0.05
K(60) = P
_
X 60
2

t
c
60
2
; = 60
_
= 0.05
K(60) = 1 P
_
X
2

t
c
60
2
; = 60
_
= 0.05.
Da Tabela da normal padrao segue que
t
c
60
2
= 1.645 t
c
= 60 + 3.29 = 63.29
Embora esta mudanca cause uma reduc ao em de 0.1587 para 0.05, ela aumenta de 0.0668 para 0.1963,
isto e
= 1 K(62.29) = 1 P(X 63.29; = 65)
= 1 P
_
X 65
2

63.29 65
2
; = 65
_
= P(Z 0.855; = 65) = 0.1963.
132 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
Diminuir e simultaneamente requer o aumento do tamanho da amostra ou a proposta de um teste de
hipoteses mais eciente.
Por exemplo, se n = 100 com = 0.05, signica que a Regra de Decisao sera determinada a partir do
calculo de t
c
, tal que
= P(X t
c
; = 60) = 0.05
Como X N(, 1) temos
= P
_
X 60
1

t
c
60
1
; = 60
_
= 0.05
e pela tabela da normal padrao
t
c
60 = 1.645 t
c
= 61.645.
A funcao poder e
K() = P(X 61.645; )
= P
_
X
1

61.645
1
;
_
= 1 P(Z 61.645 ; ) .
Em particular,
= 1 K(65) = P(Z 61.645 65; = 65)
= P(Z 3.355; = 65) 0.
Portanto, para n = 100, e diminuiram em relacao aos valores que assumiram quando n = 25
( = 0.1587 e = 0.0668), contudo ao preco de termos que usar uma amostra quatro vezes maior, que
em muitos casos pode nao ser praticavel. Porem, podemos encontrar o valor mais adequado de n, que
diminua e , calculando a funcao poder para uma regiao crtica X t
c
, impondo = 0.025, e para
= 65 impondo = 0.05.
Desta forma X N(, 100/n), e temos duas equacoes
0.025 = P(X t
c
; = 60) = 1
_
Z
t
c
60
10/

n
; = 60
_
e
0.05 = P(X t
c
; = 60) =
_
Z
t
c
65
10/

n
; = 65
_
Obtendo,
_

_
t
c
60
10/

n
= 1.96
t
c
65
10/

n
= 1.645
Solucionando o sistema acima, temos que n = 51.98 e t
c
= 62.718. Portanto se X 62.718, rejeitamos
a hipotese nula.
6.5. TESTE DE HIP

OTESES 133
6.5.5 Teste de Hip oteses para a media de populacoes normais com variancias
conhecidas
Vamos abordar este topico atraves de alguns exemplos.
Exemplo 6.5.4 Uma fabrica anuncia que a media do ndice de nicotina dos cigarros da marca X
apresenta-se abaixo de 26mg por cigarro. Um laboratorio realiza dez analises do ndice, obtendo os se-
guintes resultados:
26, 24, 23, 22, 28, 25, 27, 26, 28, 24.
Sabe-se que o ndice de nicotina dos cigarros da marca X se distribui normalmente com variancia
5.36(mg)
2
.
Pode-se aceitar a armacao do fabricante, ao nvel de 5%?
As hipoteses nesse caso, sao
H
0
: = 26
H
1
: < 26.
Temos uma amostra aleatoria simples (X
1
, . . . , X
10
), com distribuicao normal, tal que X
i
N(,
2
), com
2
=
5.36.
O Teste Estatstico para media amostral e
X =

10
i=1
X
i
10
onde X N(,
2
/n) com =
_
(5.73)/10 = 0.73.
Determinamos a Regra de Decisao a partir de = 5%. Entao, temos que
P(X < t
c
; sob H
0
) = 5%
Portanto,
P
_
_
X E(X)
_
V ar(X)

t
c
E(X)
_
V ar(X)
_
_
= 0.05
P
_
X 26
0.73

t
c
26
0.73
_
= P
_
Z
t
c
26
0.73
_
= 0.05
Da tabela da distribuicao normal, obtemos
t
c
26
0.73
= 1.64,
o que nos da
t
c
= 0.73(1.64) + 26 = 24.803
Logo, a Regiao Crtica do teste de hipoteses e
X : X < 24.803.
A amostra forneceu X = 25.3 que nao pertence `a Regiao de Rejeicao de H
0
. Logo, aceitamos H
0
com 5%
de chance de aceitarmos uma hipotese Falsa. Ou ainda, aceitamos H
0
com 5% de chance de cometermos
Erro Tipo I (aceitar H
0
quando ela e falsa).
134 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
Exemplo 6.5.5 De uma populacao normal com variancia 36 toma-se uma amostra aleat oria simples de
tamanho 16, obtendo X = 43. Ao nvel de signicancia de 10%, vamos testar as hipoteses:
H
0
: = 45
H
1
: ,= 45.
A amostra aleatoria simples (X
1
, . . . , X
16
), tem distribuicao normal, onde X
i
N(,
2
) com
2
= 36.
O Teste Estatstico e:
X =

16
i=1
X
i
16
onde X N(,
2
/n) com
2
= 36/16.
A regi ao crtica nesse caso sera da forma:
t
c
< X < t
c
.
Agora vamos precisamos determinar a Regra de Decisao, a partir do nvel de signicancia = 10%.
Entao, devido a simetria da distribuicao normal temos que encontrar
P(X t
c
[ sob H
0
) = 5%
P
_
_
X E(X)
_
V ar(X)

t
c
E(X)
_
V ar(X)
_
_
= 0.05
P
_
X 45
6/4

t
c
45
6/4
_
= P
_
Z
t
c
45
3/2
_
= 0.05
Da tabela da distribuicao normal, temos
t
c
45
3/2
= 1.64,
o que implica em
t
c
= 1.64(3/2) + 45 = 47.46
t
c
= 1.64(3/2) 45 = 42.54
Concluindo
t
c
= 42, 54 e t
c
= 47, 46
Logo, a Regiao Crtica de H
0
e
X : 42, 54 < X < 47, 46.
Temos que X = 43 pertence ` a Regiao de Rejeicao de H
0
. Logo, rejeitamos H
0
.
Passos para a realizacao de um Teste de Hipoteses
A seguir apresentamos resumidamente os passos para a realizacao de um teste de hipoteses:
1. Estabelecer a hipotese nula e a hipotese alternativa.
2. Identicar a A.A.S e sua distribui cao
3. Determinar o teste estatistico e seu valor numerico
4. Fixar ou estabelecer uma Regra de Decisao, e encontrar a regiao crtica
5. Tomar a decisao entre rejeitar ou nao a hipotese nula, com base na regiao crtica.
6.5. TESTE DE HIP

OTESES 135
6.5.6 P-valor
Ate agora, construmos os testes de hipoteses a partir da xacao de um nvel de signicancia ou da
escolha de uma Regra de Decisao. Nesta secao, vamos mostrar outra forma de procedimento, conhecida
por tres denominacoes: Probabilidade de Signicancia, Nvel Descritivo e p-valor. Vamos ver que a unica
diferenca entre os dois procedimentos, e que utilizando o p-valor, nao construmos a Regiao Crtica. A
seguir apresentamos o conceito de p-valor.
Denicao 6.5.2 O pvalor associado a um teste de hipoteses e a probabilidade de se obter o valor
observado do teste estatstico ou um valor mais extremo em direcao `a hipotese alternativa, calculada
quando H
0
for verdadeira.
Assim, ao inves de selecionar uma Regi ao Crtica, o pvalor e calculado e o pesquisador toma uma decisao
comparando-o com um de sua escolha.
Voltando ao exemplo 6.5.3, digamos que queiramos testar
H
0
: = 60
H
1
: > 60.
baseados em uma amostra com 52 observa coes.
Suponha que obtivemos: X = 62.75. O p-valor para esse teste de hipotese e
p-valor = P(X 62.75; = 60)
= P
_
X 60
10/

52

62.75 60
10/

52
; = 60
_
= 1 P
_
X 60
10/

52

62.75 60
10/

52
; = 60
_
= 1 P
_
X 60
10/

52
1.983; = 60
_
= 0.0237.
Entao quando o p-valor for pequeno teremos a evidencia de que a hipotese nula e falsa, pois a amostra
possui uma probabilidade muito pequena de acontecer se H
0
for verdadeira e portanto nesse caso rejeitamos
H
0
. Podemos ver isso no exemplo 6.5.3, onde rejeitar H
0
quando o p valor 0.025 e o mesmo tipo de
rejeicao obtida se X 62.718.
Nesse caso, dizemos que X = 62.718 tem p-valor igual 0.025 e a hipotese nula e rejeitada para um
nvel de signicancia de 5%.
Exemplo 6.5.6 Suponha que no passado, a pontuacao de um jogador de golfe tivesse distribuicao, apro-
ximadamente, normal com = 90 e
2
= 9.
Depois de perder algumas aulas, o jogador acredita que sua media diminuiu, continuando com
2
= 9.
Vamos testar as seguintes hipoteses
H
0
: = 90
H
1
: < 90.
com base nas 16 partidas de golfe, que o jogador jogou recentemente.
136 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
O Teste Estatstico para a media amostral e
X =

16
i=1
X
i
16
onde X N(,
2
/n) com
2
= 9/16.
Regra de Decisao: Se X observado for pequeno, digamos X t
c
, entao H
0
e rejeitado e H
1
aceita.
Vamos supor que t
c
= 88.5, entao a funcao poder do teste e
K() = P(X 88.5; ).
Como X N(, 9/16) temos que
K() = P
_
X
3/4

88.5
3/4
;
_
= P
_
Z
88.5
3/4
;
_
.
onde Z N(0, 1).
Em particular,
= K(90) = P
_
Z
88.5 90
3/4
; = 90
_
= P
_
Z
6
3
; = 90
_
= P(Z 2; = 90) = 1 0.9772 = 0.0228,
que e a probabilidade de se cometer o Erro do Tipo I.
Se o valor verdadeiro de apos as aulas for = 88, o poder do teste e
K(88) = P(Z 2/3; = 88) = 0.7475.
Se, por outro lado, o valor verdadeiro de apos as aulas for = 87, o poder do teste e
K(87) = P(Z 2; = 87) = 0.9772.
O valor observado de X igual a X = 88.25 tem
p valor = P
_
X 88.25; = 90
_
= P
_
X 90
3/4

88.25 90
3/4
; = 90
_
= P
_
X 90
3/4

7
3
; = 90
_
= 0.0098,
e isso nos levaria a rejeitar H
0
para = 0.0228 (ou mesmo ate para = 0.01).
6.5. TESTE DE HIP

OTESES 137
6.5.7 Exerccios
1. Um candidato a presidente de um grande clube de futebol garante que pelo menos metade dos socios
do clube apoia sua candidatura.
(a) Uma empresa de pesquisas pretende avaliar esta pretensao do candidato em termos de um teste
de hipoteses apoiado nos resultados de uma sondagem. Identique a hipotese nula e a hipotese
alternativa que acha adequadas para realizar o teste.
(b) Identique o teste estatstico e diga se o teste e bilateral, unilateral `a esquerda ou unilateral `a
direita.
(c) Quais as interpretacoes das expressoes rejeitar H
o
e nao rejeitar H
o
no contexto do pro-
blema?
(d) Quais os signicados dos erros Tipo I e II no contexto do problema?
2. Num processo de fabrica cao, a probabilidade de uma peca sair defeituosa e 0.1 quando o processo
esta sob controle. Para testar se o processo esta sob controle sao inspecionadas 15 pecas, escolhidas
ao acaso da producao, concluindo-se que o processo esta fora de controle se o n umero de pecas
defeituosas encontradas e maior do que 3.
(a) Identique a hipotese nula e a hipotese alternativa que acha adequadas para realizar o teste.
(b) Identique o teste estatstico e diga se o teste e bilateral, unilateral `a esquerda ou unilateral `a
direita.
(c) Determine o nvel de signic ancia do teste.
(d) Quais as interpretacoes das expressoes rejeitar H
o
e nao rejeitar H
o
no contexto do pro-
blema?
(e) Quais os signicados dos erros Tipo I e II no contexto do problema?
(f) Calcule a potencia do teste admitindo que o processo esta a produzir pe cas de tal maneira que
20% sao defeituosoas. Nestas situacoes, qual e a probabilidade de cometer um erro do tipo II?
3. Uma convic cao generalizada entre as pessoas e que a temperatura media do corpo humano e 37
graus. Para uma amostra formada por 120 adultos sem problemas de sa ude foram observados e
regitradas as suas temperaturas. Obteve-se x = 36.8 e s = 0.62. Baseado nessa amostra, voce acha
que essa conviccao e correta? Teste a hipotese da temperatura media do corpo humano ser 37 graus
contra a hipotese de ser diferente desse valor, usando
(a) o procedimento baseado na determinacao da regiao crtica ao nvel de signicancia = 5%,
(b) e procedimento baseado no p-valor, tendo como referencia = 1%.
4. Um fabricante de latas para conserva de ameixas vai realizar um ajuste do equipamento que produz
as latas, se o valor medio do peso for maior ou igual ao peso da quantidade maxima de ameixas que
e conveniente colocar na lata, e que e 450 gramas.
Para decidir sobre o que deve fazer, o fabricante obteve uma amostra de 15 latas retiradas ao acaso
do estoque produzido e obteve uma media de peso igual a 442.35 gramas e um desvio padrao amostral
igual a 23.2 gramas. Sabe-se ainda, da historia do processo de testes efetuados, que o verdadeiro
desvio padrao do peso e 14.5 gramas.
138 CAP

ITULO 6. INFER

ENCIA ESTAT

ISTICA
(a) Especique as hipoteses que devem ser consideradas para podermos realizar um teste com vista
a encontrar a decisao que o fabricante deve tomar.
(b) Teste as hipoteses que formulou considerando dois nveis de signicancia = 5% e = 10%.
5. Para testar uma certa hipotese nula H
o
usou-se um teste estatstico T com distribuicao amostral
contnua. Concordou-se que H
o
seria rejeitada se fosse observado um valor de t do teste estatstico
para o qual (sob H
o
) a P(T t) fosse menor ou igual a 0.05. Sao fornecidos abaixo, diferentes
valores de t e uma correspondente probabilidade (sob H
o
). Especique para cada caso o p-valor se
possvel, e se devemos rejeitar H
o
.
(a) t = 2.34 e P(T 2.34) = 0.23.
(b) t = 2.34 e P(T 2.34) = 0.23.
(c) t = 0.03 e P(T 0.03) = 0.968.
(d) t = 1.07 e P(T 1.07) = 0.981.
(e) t = 1.07 e P(T 2.34) = 0.01.
(f) t = 2.34 e P(T 1.07) = 0.981.
(g) t = 2.34 e P(T 1.07) = 0.800.
6.

E dado um n umero t, que e a realizacao de uma v.a. T com distribuicao normal N(, 1). Para
testar H
o
: = 0 contra H
1
: ,= 0, usa-se o teste estatstico T. Decide-se rejeitar H
o
a favor de
H
1
se [t[ 2. Encontre a probabilidade de se cometer erro tipo I.
7. Para testar se um dado e honesto, ele e lan cado 1000 vezes e e considerado viciado se o n umero de
resultados pares ocorrerem mais do que 510 ou menos do que 490 vezes. Qual o nvel de siginicancia
do teste?
8. De uma v.a. uniforme assumindo valores no intervalo (0, ) e extrada uma unica observacao com
vista a testar a hipotese H
o
: = 1/2 contra H
1
: > 1/2
(a) Sabendo-se que a regra de decisao consiste em rejeitar H
o
se o valor observado exceder 0.499,
determine
i. nvel de signicancia do teste;
ii. a probabilidade de ser cometido um erro Tipo II, admitindo que H
o
e falsa e que o verda-
deiro valor de e 0.6;
(b) Responda os itens (i) e (ii) anteriores para as seguintes novas regras de decisao:
i. rejeitar H
o
se o valor observado exceder 0.5;
ii. rejeitar H
o
se o valor observado exceder 0.25;
(c) Fa ca uma tabela relacionando os valores de , e nas tres situacoes. O que voce pode
concluir de toda analise feita no decorrer do exerccio?
9. Uma popula cao X tem distribui cao normal X N(, 4). A m de proceder o teste da hipotese
H
o
: = 1 contra hipotese H
1
: ,= 1 ao nvel de signicancia , e extrada uma amostra da
popula cao x
1
, . . . x
n
e usa-se a seguinte regra: rejeitar H
o
se x < 1 c, onde x e o valor assumido
pela media amostral a partir do conjunto de dados x
1
, . . . x
n
.
Determine o valor de c em funcao da dimensao da amostra e do nvel de signicancia. Especique
a regiao de rejeicao para o caso em que n = 64 e = 5%.
Referencias Bibliogracas
[1] BERTSEKAS D. P; TSITSIKLIS J.N. Introduction to Probability. Cambridge: Athena Scientic,
2000.
[2] BUSSAB, W. O; MORETTIN, P. A. Estatstica Basica. 5
a
ed. Sao Paulo: Saraiva, 2002.
[3] DANTAS, C. A. B. Probabilidade: um curso introdutorio. 2
a
ed. Sao Paulo: Editora da Universi-
dade de Sao Paulo, 2004.
[4] DEKKING, F. M; KRAAIKAMP, C.; LOPUHA

A, H. P; MEESTER, L.E. A Modern Introduction


to Probability and Statistics. Londres: Spinger, 2005.
[5] HOGG, R.V; CRAIG, A. Introduction to Mathematical Statistics. 5
a
ed. Upper Saddle River:
Prentice Hall, 1995.
[6] HOGG, R. V; TANIS, E. A. Probability and Statistical Inference. 3
a
ed. New York: Macmillan
Publishing Company, 1988.
[7] MAGALH

AES, N. M; LIMA, A. C. P. Nocoes de Probabilidade e Estatstica. 6


a
ed. rev. Sao
Paulo: Editora da Universidade de Sao Paulo, 2005.
[8] MORETTIN, L. G. Estatstica Basica. v.1, 7
a
ed. Sao Paulo: Makron Books, 1999.
[9] MORETTIN, P. A. Inroducao `a Estatstica para Ciencias Exatas. Sao Paulo: Atual, 1981.
139

You might also like