Professional Documents
Culture Documents
ao Paulo
Faculdade de Filosoa, Ciencias e Letras de Ribeir ao Preto
Departamento de Fsica e Matematica
Relat
ao de bibliografia e elaborac
ao de
material did
ao de
car
ater aplicado
Danieli Xavier de Barros
Orientadora: Geraldine Goes Bosco
Ribeirao Preto
Marco de 2010
2
Relatorio Final
O objetivo inicial do projeto era escrever um texto basico de Probabilidade e Inferencia Estatstica
para as disciplinas Introducao `a Teoria de Probabilidade e Introdu cao `a Inferencia Estatstica, ofereci-
das pelo Departamento de Fsica e Matematica (DFM-FFCLRP) ao curso de gradua cao Bacharelado
em Informatica Biomedica (curso interunidades sob responsabilidade do DFM-FFCLRP e Faculdade de
Medicina de Ribeirao Preto (FMRP)), e para as disciplinas Introducao `a Probabilidade e `a Estatstica
I e II oferecidas pelo DFM-FFCLRP ao curso de Ciencias Economicas, da Faculdade de Economia e
Administracao de Ribeirao Preto (FEARP). Alem disso, o projeto se propunha encontrar exemplos de
probabilidade e inferencia estatstica mais proximos das areas dos respectivos grupos.
A implementa cao do projeto resultou no texto, anexado a este relatorio, Introdu cao `a Probabilidade
e Inferencia Estatstica, baseado nas notas de aulas manuscritas e esquematicas da docente, elaboradas
para as disciplinas, acima citadas durante o ano de 2008. As notas de aula foram baseadas principalmente
na experiencia da docente com as areas envolvidas, que sao suas areas de pesquisa, bem como nos textos
de [1], [3] e [4] para a elaboracao da notas de Probabilidade, e nos textos, na ordem de importancia: [4], [2],
[7], [9], [6], [5], para as notas de Inferencia Estatstica. Alem disso, todas as notas de aula elaboradas em
2008 foram novamente revisadas e alteradas, ao longo do ano de 2009, na medida que a docente cou res-
ponsavel pelas disiciplinas: Estatstica Aplicada I (Departamento de Psicologia da FFCLRP), Introdu cao
`a Probabilidade e Estatstica I e II (Ciencias Economicas (FEARP)), Introducao `a Probabilidade e Es-
tatstica I (MAN). Houve tambem a colaboracao indireta dos alunos, que frequentemente reclamavam dos
pontos fracos e omissos da bibliograa disponvel em portugues, assim como da bibliograa disponvel em
ingles, acessvel a parte dos alunos.
A maior parte do trabalho da bolsista foi transformar essas notas de aula em um texto propriamente
dito. Para tanto, ela se baseou na sua propria experiencia adquirida ao cursar as disciplinas Introdu cao `a
Probabilidade e Estatstica I e II, do curso Matematica Aplicada a Negocios (MAN)(curso interunidades
sob responsabilidade do DFM-FFCLRP e da FEARP), bem como nas leituras dos textos [3], [2] e [7].
Dado que a bolsista e uma aluna do curso MAN, o trabalho cou focalizado em exemplos de economia,
negocios, nancas e administra cao de empresas. Contudo, a quantidade de exemplos ainda e bastante
pequena, decorrencia da maior parte estar em bibliograa de lngua inglesa, lngua nao dominada pela
bolsista, e tambem pelo fato do tempo despendido no texto em si ter sido bem maior do que imaginavamos.
Esse dispendio maior de tempo na elabora cao do texto, deveu-se a duas condi coes. A primeira condi cao,
motivadora do projeto, diz respeito `a falta de material especco, tanto em portugues como em ingles,
para as disciplinas citadas. Nesse sentido, na maior parte das vezes, a aluna nao tinha uma bibliograa a
seguir, contando apenas com sua propria experiencia e com a da docente. A segunda condicao envolveu
o fato do texto ter que ser digitado em um editor cientco com o qual os alunos de graduacao nao tem
contato, a nao ser em algumas iniciacoes cientcas. O editor cientco usado foi o Latex, o qual demandou
da bolsista um intenso estudo inicial e estudos paralelos ao longo do ano para aperfeicoamento do uso
dessa ferramenta.
A aluna apresentara posters sobre o texto na Semana de Matematica Aplicada a Negocios, a ser
realizada em setembro deste ano.
Referencias Bibliogracas
[1] BERTSEKAS D. P; TSITSIKLIS J.N. Introduction to Probability. Cambridge: Athena Scientic,
2000.
[2] BUSSAB, W. O; MORETTIN, P. A. Estatstica Basica. 5
a
ed. Sao Paulo: Saraiva, 2002.
[3] DANTAS, C. A. B. Probabilidade: um curso introdutorio. 2
a
ed. Sao Paulo: Editora da Universi-
dade de Sao Paulo, 2004.
[4] DEKKING, F. M; KRAAIKAMP, C.; LOPUHA
ENCIAS BIBLIOGR
AFICAS
Universidade de S
ao Paulo
Faculdade de Filosoa, Ciencias e Letras de Ribeir ao Preto
Departamento de Fsica e Matematica
Introduc
ao
`
a Probabilidade e Infer
encia Estat
stica
Texto resultante da implementac ao do Projeto Ensinar com Pesquisa:
Estudo da adequacao de bibliograa e elaboracao de material didatico no ensino e
aprendizagem de Probabilidade e Estatstica no contexto de cursos de graduacao de
carater aplicado
Danieli Xavier de Barros
Orientadora: Geraldine Goes Bosco
Ribeirao Preto
2010
Sumario
1 Probabilidade - Primeiros Conceitos 7
1.1 Experimentos Aleat orios e Espa co Amostral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Conjuntos e suas rela c oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 Conceito de Par Ordenado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Conceito de Produto Cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 Subconjuntos e Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.4 Rela c oes entre conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.6 Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3 Abordagem Cl assica da Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 An alise combinat oria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4 Abordagem Frequentista da Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.5 Deni c ao Axiom atica de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.7
Algebra e -
Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.8 Espa co de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.9 Probabilidade Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.9.1 Teorema do Produto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.9.2 Teorema da Multiplicac ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.9.3 Conceito de Parti c ao de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.9.4 Teorema da Probabilidade Total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.9.5 F ormula de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.9.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.10 Independencia de eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.10.1 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2 Variaveis Aleatorias Discretas 41
2.1 Introdu c ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2 Conceito de Vari avel Aleat oria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.3 Distribui c ao de massa de probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4 Fun c oes de Vari aveis Aleat orias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.5 Esperan ca e Vari ancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.5.1 Esperan ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.5.2 Esperan ca para fun c oes de vari aveis aleat orias . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.5.3 Variancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.6 Vari aveis Aleat orias Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.6.1 Uniforme Discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3
4 SUM
ARIO
2.6.2 Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.6.3 Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.6.4 Geometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.6.5 Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.7 Fun c ao de Distribui cao de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.8 Fun c ao Geradora de Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.9 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3 Vetores Aleat orios Discretos 69
3.1 Distribui c ao Conjunta de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.2 Distribui c oes Marginais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.3 Distribui c oes Condicionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.4 Independencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.5 Covari ancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.6 Correla c ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4 Variaveis Aleat orias Contnuas 81
4.1 Esperan ca e Vari ancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.2 Principais Vari aveis Aleat orias Contnuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2.1 Variavel Aleatoria Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2.2 Variavel Aleatoria Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.2.3 Variavel Aleatoria Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.3 Fun c ao de distribui cao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.4 Fun c ao Geradora de Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.4.1 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5 Vetores Aleat orios Contnuos 99
5.1 Introduc ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.2 Densidades Marginais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.3 Independencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.4 Distribui c oes Condicionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
6 Inferencia Estatstica 105
6.1 Introduc ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.2 Estima c ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.2.1 Estima c ao pontual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.2.2 Distribui c ao Amostral da media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.2.3 Exerccios - Teorema Central do Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.2.4 Exerccios - Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.3 Princpio da M axima Verossimilhan ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.3.1 Para Vari avel Aleatoria Discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.3.2 Para Vari avel Aleatoria Contnua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.3.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.4 Intervalo de Conan ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.4.1 Intervalo de conanca para a media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.4.2 Intervalo de Conanca para p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
SUM
ARIO 5
6.4.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.5 Teste de Hip oteses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.5.1 Erro Tipo I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
6.5.2 Erro Tipo II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6.5.3 Rela c oes entre os Erros Tipo I e Tipo II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
6.5.4 Poder e Fun c ao Poder de um Teste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
6.5.5 Teste de Hipoteses para a media de popula c oes normais com vari ancias conhecidas . . . . . 133
6.5.6 P-valor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.5.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
6 SUM
ARIO
Captulo 1
Probabilidade - Primeiros Conceitos
1.1 Experimentos Aleatorios e Espaco Amostral
Quando falamos em Experimento Aleatorio estamos nos referindo a um experimento que utiliza um me-
canismo que gera resultados aleatorios.
E um dos conceitos mais basicos em probabilidade e estatstica.
Entre esses experimentos, os mais comuns e conhecidos de qualquer pessoas sao bingo, loteria, lan camento
de dados, lan camento de uma moeda.
Exemplo 1.1.1 Experimento Aleatorio: jogar uma moeda.
Usemos a seguinte convencao:
H - Head - cara
T - Tail - coroa
Quais sao todos os possveis resultados?
Resposta: H, T.
Exemplo 1.1.2 Experimento Aleatorio: jogar a mesma moeda duas vezes.
Quais sao todos os possveis resultados?
Resposta: HH, HT, TH, TT (observar que a ordem importa).
Exemplo 1.1.3 Experimento Aleatorio: lancamento de um dado.
Quais sao todos os possveis resultados?
Resposta: 1, 2, 3, 4, 5, 6.
Exemplo 1.1.4 Experimento Aleatorio: Lancamento de dois dados iguais.
Quais sao todos os possveis resultados?
Por exemplo, sair 1 no primeiro lancamento e tambem sair 1 no segundo lancamento, que representaremos
por 1 e 1. Os demais possveis resultados sao entao:
1 e 2; 1 e 3; 1 e 4; 1 e 5; 1 e 6;
2 e 1; 2 e 2; 2 e 3; 2 e 4; 2 e 5; 2 e 6;
3 e 1; 3 e 2; 3 e 3; 3 e 4; 3 e 5; 3 e 6;
4 e 1; 4 e 2; 4 e 3; 4 e 4; 4 e 5; 4 e 6;
5 e 1; 5 e 2; 5 e 3; 5 e 4; 5 e 5; 5 e 6;
6 e 1; 6 e 2; 6 e 3; 6 e 4; 6 e 5; 6 e 6;
7
8 CAP
4
= (1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6),
(3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6), (4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6),
10 CAP
2
=
1
1
= H, T H, T = (H, H), (H, T), (T, H), (T, T).
1.2.3 Subconjuntos e Eventos
Se todo elemento de um conjunto A for tambem elemento de um conjunto B, diremos que A e um
subconjunto de B e escrevemos simbolicamente A B.
Exemplo 1.2.2 Sejam os conjuntos A = 2, 3 e B = 1, 2, 3, 4. Todos os elementos do conjunto A
pertencem ao conjunto B, portanto o conjunto A e subconjunto de B, ou A B.
Os subconjuntos do espaco amostral sao chamados de eventos.
Exemplo 1.2.3 Voltando ao Exemplo 2.1.1, onde o Experimento Aleatorio e o lancamento de um dado,
e = 1, 2, . . . , 6, vamos considerar o conjunto sair n umeros pares e chama-lo de A, ou seja
A = 2, 4, 6.
Temos que A , e dizemos que A e um evento de .
Exemplo 1.2.4 Consideremos o seguinte Experimento Aleatorio: Lancar tres moedas distintas uma
vez. Temos entao que o Espaco Amostral e dado por
= HHH, HHT, HTH, THH, HTT, THT, TTH, TTT,
Vamos considerar o evento A= nao sair mais do que uma cara (H) nos lancamentos,
A = TTT, THT, HTT, TTH.
Dizemos que um evento A ocorre se o resultado de um experimento aleatorio pertencer a ele. No
exemplo 1.2.3, se jogarmos o dado e sair 2, temos que o evento A = 2, 4, 6 ocorreu, pois 2 A (o ponto
amostral 2 pertence ao evento A). Por outro lado, dizemos que um evento A nao ocorre se o resultado
de um experimento aleatorio nao pertencer ao conjunto A. No exemplo 1.2.3, se jogarmos o dado e sair
3, temos que o evento A nao ocorreu, pois 3 / A (o ponto amostral 3 nao pertence ao evento A).
Um evento que contem um unico elemento e chamado de evento elementar. No exemplo 2.1.1, o evento
B =sair um n umero divisvel por 5(B = 5) e um evento elementar.
Para todo conjunto A, temos que A.
1.2.4 Relacoes entre conjuntos
1) Uniao: Sejam A e B dois eventos de . A uniao de A e B, denotada A B, e o evento em que so A
ocorre ou so B ocorre ou ambos ocorrem. Representamos a uniao de A e B, por:
A B = : A ou B ou ( A e B).
1.2. CONJUNTOS E SUAS RELAC
OES 11
Seja A
1
, A
2
, . . . , A
n
uma sequencia nita de eventos, entao
n
_
i=1
A
i
representa a uniao desses
eventos, e corresponde ao evento em que ao menos um dos A
i
ocorre.
Seja A
1
, A
2
, . . . uma sequencia innita de eventos, temos que
_
i=1
A
i
representa a uniao desses
eventos, e corresponde ao evento em que pelo menos um dos A
i
ocorre.
Exemplo 1.2.5 Voltando ao lancamento de dois dados, vamos considerar os eventos A =sair
soma igual a 5 nos dois lancamentose B = sair soma igual a 7 nos dois lancamentos.
Queremos saber quais sao os resultados que correspondem `a ocorrencia de A, de B ou de ambos.
Temos
A = (1, 4), (2, 3), (3, 2), (4, 1)
e
B = (1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1).
Logo
A B = (1, 4), (2, 3), (3, 2), (4, 1), (1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1).
2) Intersecao: A intersecao de A e B, denotada A B, e o evento em que A ocorre e B ocorre.
Representamos a intersecao de A e B, por:
A B = : A e B.
Seja A
1
, A
2
, . . . , A
n
uma sequencia nita de eventos , entao
n
i=1
A
i
representa a intersec cao
desses eventos e corresponde ao evento em que todos os A
i
ocorrem.
Para uma sequencia innita de eventos A
1
, A
2
, . . ., temos que
i=1
A
i
representa a intersec cao
desses eventos e corresponde ao evento em que todos os A
i
ocorrem.
Exemplo 1.2.6 Um baralho possui 52 cartas. Estas cartas estao divididas em 4 naipes: ouros,
copas, espadas e paus. As cartas dos naipes de ouros e copas sao vermelhas, ja as cartas dos naipes
espadas e paus sao pretas.
Cada naipe possui 13 cartas, sendo que 3 delas sao chamadas de dama, valete e rei, e indenticadas
pelas letras Q,J e K, respectivamente. As demais cartas de um naipe s ao numeradas de 2 a 10, e a
carta que simboliza o n umero 1, e chamada de as, representada pela letra A.
Vamos considerar o experimento aleatorio em que uma carta e retirada ao acaso de um baralho.
Quais sao os possveis resultados?
Vamos representar os naipes pelas letras mai usculas: O = ouros, C = copas, E= espadas e P =
paus. Por exemplo, se sair a carta 2 de paus, esse resultado e representado por 2P, ou se sair a
carta valete de copas, esse resultado e representado por JC.
Logo, o espaco amostral e :
= AO, 2O, 3O, 4O, 5O, 6O, 7O, 8O, 9O, 10O, QO, JO, KO,
12 CAP
i=1
A
i
c
.
5.4)
_
n
i=1
A
i
_
c
=
n
_
i=1
A
i
c
.
Prova de 5.3:
Temos que provar que
_
n
_
i=1
A
i
_
c
i=1
A
i
c
e
n
i=1
A
i
c
_
n
_
i=1
A
i
_
c
.
Primeiro vamos provar que
_
n
_
i=1
A
i
_
c
i=1
A
i
c
. Seja (A
1
, A
2
, ..., A
n
) uma sequencia de eventos
nita , tomamos pertencente a
_
n
_
i=1
A
i
_
c
. Isso equivale a dizer, que ,
n
_
i=1
A
i
, e que por
sua vez implica que nao pertence a nenhum dos eventos (A
i
). Em simbolos matematicos,
temos
_
n
_
i=1
A
i
_
c
,
n
_
i=1
A
i
, A
i
i = 1, 2, .., n.
Logo, w A
i
c
para todo i. Da decorre que pertence a intersecao de todos A
i
c
, portanto
temos que
_
n
_
i=1
A
i
_
c
i=1
A
i
c
.
Nessa segunda parte da prova vamos mostrar que
n
i=1
A
i
c
_
n
_
i=1
A
i
_
c
. Tomamos entao
pertencente a
n
i=1
A
i
c
. Assim temos que pertence a todos os A
i
c
, o que implica que , A
i
,
16 CAP
i=1
A
i
c
_
n
_
i=1
A
i
_
c
.
1.2.5 Exerccios
1. Experimento Aleatorio: Um dado e lancado duas vezes.
(a) Descreva o espaco amostral ().
(b) Descreva os seguintes eventos
i. A=A soma do resultado do lancamento do primeiro dado com o resultado do lancamento
do segundo dado e igual a 2.
ii. B=A soma do resultado do lan camento do primeiro dado com o resultado do lancamento
do segundo dado e igual a 7.
iii. C=o resultado do lan camento do primeiro dado e um n umero mpar.
iv. D=o resultado do lan camento do segundo dado e um n umero mpar.
v. E=A soma do resultado do lan camento do primeiro dado com o resultado do lancamento
do segundo dado e mpar.
2. Experimento Aleatorio: Um dado e lancado e uma mesma moeda e jogada duas vezes.
(a) Descreva o espaco amostral ().
(b) Descreva os seguintes eventos
i. A=no lancamento do dado sai 6, e no lan camento da moeda duas vezes, sai pelo menos
uma cara.
ii. B=no lan camento do dado sai um n umero par, e no lancamento da moeda duas vezes, sai
cara na segunda vez.
iii. C=no lancamento do dado sai um n umero menor que 5, e no lan camento da moeda duas
vezes, sai pelo menos uma coroa.
3. Suponha que voce anote o n umero de dias em que choveu na ultima se-mana.
(a) Quem e o espaco amostral?
(b) Quem e o evento A ter ocorrido mais dias com chuva do que dias sem chuva?
4. Em uma urna ha a bolas amarelas e b bolas brancas. Alguem retira c bolas da urna sem reposicao,
de tal forma que c mina, b
(a) Apenas descreva em palavras o espaco amostral.
(b) Quem e o evento A ter retirado o mesmo n umero de bolas brancas e amarelas? Quem e A
se c for um n umero mpar?
Relacoes entre Conjuntos
5. Desenhe o diagrama de Ven do conjunto (AB) (B A)).
1.2. CONJUNTOS E SUAS RELAC
OES 17
6. Desenhe o diagrama de Venn para os seguintes eventos.
(a) A B C
(b) A
c
B C
7. Mostre que para os eventos A e B vale que
(A B)
c
= A
c
B
c
8. Sejam A, B e C eventos de . Demonstre as seguintes relacoes:
(a) (
c
)
c
=
(b) (A
c
)
c
= A
(c) A A
c
=
(d) A =
(e) A A
c
=
(f) A = A
(g) (A B)
c
= A
c
B
c
(h) (A B)
c
= A
c
B
c
(i) (A B) = ( A) ( B)
(j) A (B C) = (A B) (A C)
(k) A (B U) = (A B) (A C)
(l) (A B) C = (A C) (B C)
(m) (A B) C = (A C) (B C)
(n) A (B C) = (A B) C
(o) A = (A B) (A B
c
)
9. Sejam A e B dois eventos quaisquer. Considere que eles nao sejam disjuntos (A B ,= ). Mostre
que
(a) A B = (A B) (AB) (B A)
(b) A B = A (B A)
(c) A B = B (AB)
10. Sejam A e B dois eventos quaisquer. Considere que eles nao sejam disjuntos (A B ,= ).
(a) Os eventos (A
c
B) e (A
c
B
c
) sao disjuntos? (dica: use os diagramas de Venn para ter intui cao
sobre os eventos. )
(b) Mostre que A
c
= (A
c
B) (A
c
B
c
)
(c) Os eventos (A
c
B), (A
c
B
c
) e A B
c
sao disjuntos?
(d) Mostre que (A B)
c
= (A
c
B) (A
c
B
c
) (A B
c
).
Dicas para os exerccios 5, 6 e 7.
18 CAP
ASSICA DA PROBABILIDADE 19
Essas hipoteses guiaram as primeiras tentativas de modelamento dos jogos de azar, principalmente a
partir do seculo XVII. Basicamente, elas nos permitem dizer que a probabilidade de um evento ocorrer, e
o n umero de resultados favoraveis a esse evento, dividido pelo n umero total de resultados, condiderando
todos os resultados equiprovaveis. Convencionou-se chamar essa abordagem de versao Classica da proba-
bilidade. Assim, temos que dado o espaco amostral e um evento A, a probabilidade de A ocorrer ca
denida como:
P(A) =
n(A)
n()
=
[A[
[[
,
onde n(A) e o n umero de elementos de A e que tambem podemos representar por [A[, e n() = [[ e o
n umero de elementos de .
Exemplo 1.3.1 Considerando novamente o lancamento de duas moedas iguais, onde temos
= HH, HT, TH, TT.
Seja A o evento sair pelo menos uma cara (H), ou seja, A = HH, HT, TH. Supondo que as moedas
sejam honestas, queremos saber qual e a probabilidade de A ocorrer.
Temos [A[ = 3 e [[ = 4, logo pela abordagem classica, a probabilidade de A ocorrer e :
P(A) =
3
4
.
As hipoteses anteriores nos levam a concluir que:
1. P(A) 0, para todo A . Isto e, nao podemos ter um n umero negativo de elementos.
2. P() =
[[
[[
= 1.
3. Se A e B sao eventos disjuntos entao:
P(A B) = P(A) +P(B).
Exemplo 1.3.2 Sejam A =
1
,
2
,
3
e B =
4
,
8
,
9
,
10
eventos pertencentes ao espaco
amostral, =
1
,
2
, ...,
10
. Por meio da abordagem classica, temos que
P(A) =
[A[
[[
=
3
10
e P(B) =
[B[
[[
=
4
10
.
Sabemos pela relacao de uni ao, que A B =
1
,
2
,
3
,
4
,
8
,
9
,
10
.
Portanto concluimos que a probabilidade da uniao dos eventos A e B, e a soma das probabilidades
desses dois eventos, ou seja,
P(A B) =
[A B[
[[
=
7
10
=
(3 + 4)
10
=
3
10
+
4
10
= P(A) +P(B).
20 CAP
ASSICA DA PROBABILIDADE 21
(Ordem nao importa, com reposi cao)
1. Ordem importa, com reposicao
O n umero de maneiras distintas para selecionar r elementos com reposicao, de um conjunto com n
elementos, e dado por:
(n)
r
.
Exemplo 1.3.3 As placas de carro no Brasil sao formadas por tres letras do alfabeto e quatro alga-
rismos entre 0 e 9. Tanto as letras quanto os algarismos podem ser repetidos. Assim, se quisermos
formar a parte das letras de uma placa, a escolha da primeira nao impoe restricoes `a escolha da
segunda e a escolha da terceira tambem sera independente das letras escolhidas anteriormente. Alem
disso, para formar a parte das letras, a ordem das letras escolhidas importa. Isto e, duas placas que
possuam a mesma sequencia de algarismos, mas a parte de letras de uma e ABC e da outra e CBA,
sao consideradas diferentes.
Logo, a escolha de letras de uma placa de carro no Brasil, pode ser feita de (26)
3
maneiras.
Exemplo 1.3.4 O lancamento de uma moeda e um exemplo com reposicao. O espaco amostral e
= H, T.
O fato de obtermos cara, n ao impede em obter cara novamente no proximo lancamento.
Portanto, jogando-se uma moeda n vezes, temos (2)
n
resultados possveis.
2. Ordem importa, sem reposicao
O n umero de maneiras distintas para selecionar r elementos sem reposicao, de um conjunto com n
elementos, denotado como (n)
r
, e dado por:
(n)
r
= n(n 1) . . . n(n r + 1).
Ou seja, temos n possibilidades na selecao do primeiro elemento, (n 1) possibilidades na sele cao
do segundo e assim por diante ate chegar a (n(r1)) possibilidades na selecao do ultimo elemento.
Observacao: Como selecionamos os objetos sem reposicao, nao podemos ter r maior que n , ou
seja, nesse caso r n.
Alguns casos especiais:
a) Quando n = r. O n umero de maneiras de ordenar n elementos distintos e:
n! = n(n 1) . . . (2)(1).
Esse n umero e chamado de fatorial de n. Por convencao, 0! = 1.
Exemplo 1.3.5 Tenho 10 livros diferentes e quero distribu-los na primeira parte de uma
prateleira, de quantas maneiras diferentes posso fazer isso?
Resposta: 10!.
Exemplo 1.3.6 Quantos anagramas da palavra VIDA podemos conseguir?
Resposta: 4!.
22 CAP
ASSICA DA PROBABILIDADE 23
e tambem
(AT/T aB = AT /TaB),
sao o mesmo anagrama.
Portanto o n umero de anagramas da palavra BATATA sera:
n!
(n r
1
)!(n r
2
)!
=
6!
(6 3)!(6 2)!
=
6!
3! 4!
= 5.
Vemos que agora o denominador da fomula apresenta uma multiplicacao, isso acontece pelo
fato, de que alem da letra A, a letra T tambem se repete.
Em geral, se tivermos uma palavra ou um anagrama com varias letras repetidas usaremos o
mesmo metodo.
3. Ordem nao importa, sem reposicao
A ideia aqui sera utilizar os metodos expostos acima. Tanto no caso (2) como no caso (3) vamos
selecionar r objetos dentre n, sem reposi cao.
Vimos que ha n!/(nr!) maneiras de selecionar r objetos dentre n, se a ordem for levada em conta.
Ja o n umero de maneiras para escolher r objetos entre n objetos, sem reposicao e independentemente
da ordem, sera denotado por:
_
n
r
_
=
n!
(n r)! r!
.
Exemplo 1.3.10 De quantas formas diferentes podem ser criadas CPMIs com 10 senadores no
Congresso brasileiro?
Como vimos anteriormente, temos no Brasil 81 senadores. Assim para selecionar 10 senadores num
total de 81, fazemos r = 10 e n = 81.
Portanto o n umero de escolhas para selecionar 10 senadores que participarao de apenas uma CPMI
e nao importando a ordem de convocacao de cada senador, sera:
_
81
10
_
=
81!
(81 10)! 10!
.
Exemplo 1.3.11 De quantas maneiras podemos selecionar uma comissao discente com 3 membros,
para representar uma classe de 18 alunos?
Uma possvel comissao seria formada por:
Ana, Paulo, Claudia = Claudia, Paulo, Ana = Ana, Claudia, Paulo =
= Claudia, Ana, Paulo = Paulo, Claudia, Ana = Paulo, Ana, Claudia.
Estamos contando a mesma comissao (6 = 3!) vezes. Assim como no outro caso, temos que dividir
n por (3!).
Portanto o n umero de comissoes diferentes formadas por 3 alunos de uma sala com 18, sera dado
por:
24 CAP
ASSICA DA PROBABILIDADE 25
As triplas (1,4,6), (2,3,6), (2,4,5) sao formadas por tres n umeros diferentes, entao cada uma apre-
senta 6 combinacoes.
Ja as triplas (3,3,5), (3,4,4), (1,5,5) apresentam dois n umeros iguais cada uma, entao possuem 3
combinacoes.
Seja A o conjunto das triplas, cujos algarismos somam 11, entao A possui 27 elementos. Ou seja, existem
27 combinacoes em que a soma dos resultados de 3 lancamentos de um dado e igual a 11.
Agora temos que vericar quantas combinacoes de 3 n umeros entre 1 e 6 somam 12:
As triplas (1,5,6), (4,3,6), (3,4,5) como possuem 3 n umeros distintos, apresentam cada uma 6
combinacoes.
Ambas as triplas (2,5,5) e (3,3,6) possuem dois n umeros iguais, logo apresentam 3 combinacoes.
Temos tambem a tripla (4,4,4), que e formada so pelo n umero 4, que portanto apresenta uma
combinacao.
Seja B o conjunto das triplas, cujos algarismos somam 12, ent ao B possui 25 elementos. Ou seja,
existem 25 combinacoes em que a soma dos resultados de 3 lancamentos de um dado e igual a 12.
Sabemos que o n umero de triplas e igual a 216, ou seja, [[ = (6)
3
= 216. Assim, a probabilidade de
sair soma igual a 11 e a 12, e dada por:
P(sair soma 11) =
[A[
[[
=
27
216
.
P(sair soma 12) =
[B[
[[
=
25
216
.
Portanto vemos que a probabilidade de sair soma 11 em 3 lancamentos de um dado, e maior do que sair
soma 12.
Mas nem sempre e possvel calcular probabilidade, atraves da abordagem classica. Dois fatores podem
impedir:
1. nao ter um n umero nito de elementos.
Exemplo 1.3.15 Jogando uma moeda repetidas vezes ate aparecer cara (H), temos que
= H, TH, TTH, . . . , TTTTH, . . . , TTTTTTTTTTH, . . ..
Observamos que nesse caso o espaco amostral e um conjunto com um n umero innito (enumeravel)
de elementos, logo a versao cl assica da probabilidade nao se aplica.
2. nito, mas os eventos elementares nao sao equiprovaveis.
Exemplo 1.3.16 Considerando o Experimento Aleat orio que consiste em jogar dados viciados de
um Cassino, sabemos que existe mais chance de sair um ou mais n umeros.
Assim podemos ter que o n umero 1 e o n umero 3, apresentam maior probabilidade de sair do que
os demais:
P(1) =
1
4
, P(3) =
1
3
, . . .
Alem disso, devemos observar que a chamada abordagem classica da probabilidade, nao se sustenta, pois
e denida a partir da premissa dos eventos elementares serem igualmente provaveis. Ou seja, e uma versao
de probabilidade que ja em si, usa o conceito de probabildade.
26 CAP
ATICA DE PROBABILIDADE 27
1.5 Denicao Axiomatica de Probabilidade
Probabilidade e uma funcao, denotada por P, denida para cada evento de , assumindo valores no
intervalo [0, 1] e satisfazendo os seguintes axiomas:
(A
1
) P(A) 0 para todo A ;
(A
2
) P() = 1;
(A
3
) Para uma sequencia innita de eventos disjuntos, temos que:
P
_
_
i=1
A
i
_
=
i=1
P(A
i
).
Propriedades decorrentes dessa denic ao:
1. P(A
c
) = 1 P(A).
Prova:
Sabemos que = A A
c
, o que implica que
P() = P(A A
c
) (1.1)
Do axioma 2, temos que a probabilidade do espa co amostral e 1, ou seja,
P() = 1 (1.2)
e pelo axioma 3, temos que
P(A A
c
) = P(A) +P(A
c
) (1.3)
Substituindo (1.2) e (1.3) em (1.1) temos:
1 = P(A) +P(A
c
)
Logo, temos que P(A
c
) = 1 P(A), nalizando a prova.
2. Da propriedade anterior decorre que P() = 0.
Prova:
Sabemos que
c
= .
Portanto, P(
c
) = P() = 1 P() = 0.
3. Se A B, entao P(A) P(B).
Prova:
Seja A B, temos que B = A (B A
c
) , o que implica que
P(B) = P(A (B A
c
)).
Sendo A e B disjuntos, pelo axioma 3 temos que
P(B) = P(A) +P(B A
c
), o que implica em:
P(A) = P(B) P(B A
c
).
28 CAP
(a) Determine: A B e A
c
B
c
.
(b) Agora, considere que os eventos elementares sao equiprovaveis. Determine: P(A) e P(B).
6. Sejam A e B eventos, tais que P(A) = 2/3 e P(B) = 4/9. Mostre que
a. P(A B) 2/3;
b. 2/9 P(A B
c
) 5/9;
c. 1/9 P(A B) 4/9.
7. Segundo dados meteorologicos, em certa regiao no inverno, ha 20% de chance do tempo estar umido,
30% de chance de estar ventando e 40% de chance do tempo estar umido e com vento. Encontre as
probabilidades do seguintes eventos:
(a) o tempo esta seco.
(b) o tempo esta seco e ha vento.
(c) o tempo esta umido ou com vento.
1.7
Algebra e -
Algebra
Denicao 1.7.1 Uma colecao nao vazia de subconjuntos de , que e fechada sob nitas operacoes da
teoria de conjuntos, e chamada de
Algebra de subconjuntos de .
Denimos entao como / (
n=1
A
n
/ e
n=1
A
n
/.
Denicao 1.7.2 Uma colecao de subconjuntos de um espaco amostral , que e fechada sob um n umero
innito enumeravel de operacoes da teoria dos conjuntos e chamada -
Algebra de subconjuntos de .
Diz- se que uma colecao de subconjuntos de e uma -
Algebra de conjuntos de , desde que as
seguintes propriedades sejam satisfeitas:
(i) /;
(ii) Se A /, entao A
c
A;
(iii) Se A
n
/, tal que n N, entao
n=1
A
n
/ e
n=1
A
n
/.
Exemplo 1.7.1 (A menor - algebra gerada por um subconjunto).
Em varias situacoes, nosso interesse e construir uma - algebra que tenha entre seus elementos, um
particular subconjunto A .
Seja T = , A, A
c
, uma - algebra , sendo A um de seus elementos, qualquer outra - algebra
que tambem possuir A sera maior, isto e , ter a os elementos de T e eventualmente mais alguns.
Por isso T e denida como a - algebra gerada por A ou, ainda, como a intersecao de todas as -
algebras que contem o subconjunto A. Numa denominacao mais informal diremos que T e a menor -
algebra que contem o subconjunto A.
Exemplo 1.7.2 Considere = 1, 2, 3 e as seguintes colecoes de subconjuntos: / = , , 1, 2, 3
e T = , , 1, 2, 1, 3, 2, 3.
Seriam ambas algebra ?
Para responder, devemos vericar se / e T satisfazem os itens (i), (ii) e (iii) da denicao.
Para /:
(i) /.
(ii) A
c
/, pois (
c
= ,
c
= , 1
c
= 2, 3, 2, 3
c
= 1) /.
(iii)
_
n=1
A
n
/ , pois (1 2, 3 = ) /.
/ satisfaz todos os itens, logo / e uma algebra.
Para T:
(i) T.
(ii) A
c
T, pois
(
c
= , 1
c
= 2, 3, 2
c
= 1, 3,
c
= , 1, 3
c
= 2, 2, 3
c
= 1) T.
(iii)
_
n=1
A
n
/ T, pois (1 2 = 1, 2) / T.
T nao satisfaz (iii), logo nao e uma algebra.
Para os exemplos que trataremos neste texto, onde e nito, a algebra envolvida e o conjunto de
todos os eventos de , que e o chamado Conjuntos das Partes de .
1.8. ESPAC O DE PROBABILIDADE 31
1.8 Espaco de Probabilidade
Denicao 1.8.1 Um espaco de probabilidade, e representado pela tripla (,/,P), no qual, dado um
experimento, representa o conjunto de todos os resultados possveis; / representa uma - algebra (neste
texto - conjunto das partes ) e P(.) e a funcao de probabilidade, cujo domnio e / e o contradomnio e o
intervalo [0,1].
Exemplo 1.8.1 Sejam = 0, 1, / = , 0, 1, 0, 1 e p, tal que 0 p 1.
Denindo P(1) = p e P(0) = 1 p.
Entao (, /, P) e um espaco de probabilidade.
1.9 Probabilidade Condicional
Considerando novamente o lan camento de dois dados honestos, vamos chamar de A o evento sair o total 6
, ou seja, A = (1, 5), (2, 4), (3, 3), (4, 2), (5, 1). Como [A[ = 5 e como ja vimos [[ = 36, pela abordagem
classica, temos que:
P(A) =
5
36
5
35
=
1
7
.
Vamos supor que nao se presencie os lancamentos dos dados, mas se receba a seguinte informacao: saiu
1 no primeiro dado . Nestas condicoes, pergunta-se: Qual e a probabilidade de A dado essa nova
informacao? Ou seja, qual a probabilidade do total ser 6 no lancamento de dois dados honestos, sendo
que o resultado do primeiro dado e igual a 1?
Com essa nova informacao temos um novo espaco amostral, pois agora vamos considerar apenas os
lancamentos em que saiu 1 no primeiro dado, ou seja, podemos considerar o evento saiu 1 no primeiro
dado como o novo espa co amostral para o experimento. Isto e,
= (1, 1); (1, 2); (1, 3); (1, 4); (1, 5); (1, 6).
A probabilidade atual, ou seja, nesse caso a probabilidade de A dado que o resultado do primeiro dado
e igual a 1 e chamada de probabilidade condicional.
Denicao 1.9.1 Seja (, P) um espa co de probabilidade, com A e B eventos de , com P(B) > 0. A
probabilidade condicional de qualquer evento A, dado um evento B e denida por:
P(A[B) =
P(A B)
P(B)
.
Vamos vericar os tres axiomas da denicao axiomatica para P(A[B):
1. Primeiro precisamos vericar se P(A[B) 0.
Se (A B), temos que 0 = P() P(A B).
Entao
P(A[B) =
P(A B)
P(B)
P()
P(B)
= 0 (1.6)
Por (1.6), conclumos que P(A[B) 0.
2. Agora vamos vericar se P([B) = 1. Seja B um evento de . Temos que:
P([B) =
P( B)
P(B)
=
P(B)
P(B)
= 1.
32 CAP
i=1
P(B A
i
) =
n
i=1
P(B[A
i
)P(A
i
).
1.9. PROBABILIDADE CONDICIONAL 35
1.9.4 Teorema da Probabilidade Total
Seja A
1
, A
2
, ...A
n
uma particao de e B um evento. Sendo P(A
i
) > 0 para todo i, temos que:
P(B) = P(A
1
B) +... +P(A
n
B)
= P(A
1
)P(B[A
1
) +... +P(A
n
)P(B[A
n
)
=
n
i=1
P(B[A
i
)P(A
i
)
Exemplo 1.9.6 Observou-se que num posto de gasolina da BR, a proporcao de motoristas que
usam gasolina comum, gasolina aditivada e gasolina premium durante um certo perodo de tempo
e: 30%, 35% e 25% respectivamente. A proporcao com que os motoristas enchem o tanque com
essas gasolinas e: 30%, 50% e 60%. Qual e a probabilidade de um motorista selecionado de maneira
aleatoria dentre os clientes do posto, e nesse mesmo perodo de tempo colocar gasolina no seu tanque?
Denotamos os seguintes eventos:
E - encher o tanque no perodo de tempo considerado .
A
1
- motorista usa gasolina comum .
A
2
- motorista usa gasolina aditivada .
A
3
- motorista usa gasolina premium .
A partir desses eventos obtemos as seguintes probabilidades:
P(A
1
) = 0.4, P(A
2
) = 0.35, P(A
3
) = 0.25,
P(E[A
1
) = 0.3, P(E[A
2
) = 0.5 e P(E[A
3
) = 0.6.
Seja A
1
, A
2
, A
3
a particao de e E o evento de interesse. Pelo teorema da probabilidade total,
temos que:
P(E) = P(A
1
)P(E[A
1
) +P(A
2
)P(E[A
2
) +P(A
3
)P(E[A
3
)
= (0.4)(0.3) + (0.35)(0.5) + (0.25)(0.6) = 0.445.
1.9.5 F ormula de Bayes
Seja B um evento e A
1
, A
2
e A
3
uma particao do espa co amostral . Assumindo que P(A
i
) > 0
para i = 1, 2 e 3, temos uma outra aplicacao da probabilidade condicional:
P(A
i
[B) =
P(A
i
)P(B[A
i
)
P(A
1
)P(B[A
1
) +P(A
2
)P(B[A
2
) +P(A
3
)P(B[A
3
)
.
Podemos escrever essa mesma formula para A
1
e A
2
.
Observem que se tomarmos um evento A, entao A e A
c
formam uma particao de . Temos assim
que
P(A[B) =
P(A B)
P(B)
=
P(A)P(B[A)
P(A)P(B[A) +P(A
c
)P(B[A
c
)
.
36 CAP
ENCIA DE EVENTOS 39
P(B
2
[A
1
) = 1/2 = P(B
2
).
Portanto, B
2
e independente de A
1
.
Exemplo 1.10.2 Considerando o exemplo anterior, so que agora com cada evento possuindo pro-
babilidades diferentes, ou seja, agora temos que a probabilidade de cada evento sair e:
P(HH) = 5/24, P(HT) = 9/24, P(TH) = 7/24 e P(TT) = 3/24.
A
1
e B
2
continuam sendo os mesmos eventos, logo:
P(A
1
) = P(HT) +P(HH) = 9/24 + 5/24 = 14/24 = 7/12
P(B
2
) = P(HT) +P(TT = 9/24 + 3/24 = 12/24 = 6/12
P(A
1
B
2
) = P(HT) = 9/24.
Entao temos que
P(B
2
[A
1
) =
P(A
1
B
2
)
P(A
1
)
=
9/24
14/24
= 9/14.
Como P(B
2
[A
1
) ,= P(B
2
), entao nesse caso B
2
e dependente de A
1
.
Conclusao: A independencia de eventos depende da distribuicao de probabilidade.
Exemplo 1.10.3 Suponha-se que joguemos dois dados. Denindo os eventos A, B e C da seguinte forma:
A - o primeiro dado mostra um n umero par .
B - o segundo dado mostra um n umero mpar .
C - ambos os dados mostram n umeros mpares ou ambos mostram n umeros pares .
Decorre da que:
P(A) = P(B) = P(C) = 1/2
P(A B) = P(A C) = P(B C) = 1/4.
Observamos a partir disso as seguintes igualdades:
P(A B) = P(A)P(B)
P(B C) = P(B)P(C)
P(A C) = P(A)P(C).
Portanto, os tres eventos sao todos independentes dois a dois.
Contudo,
P(A B C) = 0 ,= P(A)P(B)P(C).
Este exemplo sugere a seguinte denicao.
Denicao 1.10.2 Diremos que os tres eventos A, B e C sao mutualmente independentes se, e somente
se, todas as condicoes seguintes forem validas:
P(A B) = P(A)P(B)
P(A C) = P(A)P(C)
P(B C) = P(B)P(C)
P(A B C) = P(A)P(B)P(C).
40 CAP
ITULO 2. VARI
AVEIS ALEAT
ORIAS DISCRETAS
Exemplo 2.2.1 Uma moeda e lancada cinco vezes. Seja X a v.a que denota o n umero de caras em cada
sequencia de lancamentos. Entao, X pode assumir os seguintes valores I
X
= 0, 1, 2, 3, 4, 5.
Exemplo 2.2.2 Lancar duas vezes o mesmo dado.
A soma dos dois valores e uma v.a.
O n umero de seis em cada lancamento e uma v.a.
A funcao que leva cada par ao valor do segundo lancamento elevado `a quinta potencia, tambem e
uma v.a.
Uma v.a e chamada de discreta se seu conjunto imagem for nito ou innito enumeravel. Nos exemplos
2.1.1 e 2.2.1 o conjunto imagem e nito.
Uma vari avel aleatoria pode assumir um n umero innito nao-enumeravel de valores. Por exemplo,
considere o experimento de escolher um ponto a do intervalo [1, 1]. A variavel aleatoria que associa o
valor numerico a
2
ao resultado a nao e discreta. Por outro lado, a seguinte v.a X(a) e discreta:
X(a) = sinal(a) =
_
_
1 se a > 0
0 se a = 0
1 se a < 0.
Nas proximas paginas so trataremos de variaveis aleatorias discretas.
2.3 Distribuicao de massa de probabilidade
Uma v.a discreta tem a ela associada uma distribui cao de probabilidade que fornece a probabilidade da
v.a assumir cada um dos elementos de seu conjunto imagem. A distribuicao de probabilidade e a principal
maneira de caracterizarmos uma variavel aleatoria. Vamos denota-la por p
X
. Em particular, se x for um
valor que a v.a X pode assumir, p
X
(x) e a probabilidade de ocorrer o evento X = x que consiste de
todos os elementos de que sao levados por X ao valor numerico x, ou seja:
p
X
(x) = P(X = x),
tal que
x
P(X = x) = 1, x I
X
.
No exemplo 2.1.1, pode ser importante saber com que probabilidade a v.a X assume, por exemplo,
o valor 2. Essa pergunta pode ser representada matematicamente por:
P(X = 2) = P(X = 2),
onde X = 2 e o conjunto de todos os elementos de que sao levados pela v.a X ao valor numerico 2.
Temos assim que
X = 2 = : X() = 2 = (1, 2), (2, 1), (2, 2).
2.3. DISTRIBUIC
AO DE MASSA DE PROBABILIDADE 43
Se os eventos elementares forem equiprovaveis, entao:
P(X = 2) = P((1, 2), (2, 1), (2, 2))
(A3)
= P((1, 2)) +P((2, 1) +P(2, 2) = 3/16,
P(X = 3) = P((1, 3), (2, 3), (3, 3), (3, 2), (3, 1))
(A3)
= P((1, 3)) +P((2, 3) +P(3, 3) +P((3, 2)) +P((3, 1) = 5/16.
O smbolo (A
3
), representa o uso do axioma 3 em determinada igualdade.
Exemplo 2.3.1 Considere o lancamento de duas moedas honestas. Seja X a v.a que representa o n umero
de caras obtidas nos lancamentos, X assume os valores 0, 1 ou 2, ou seja, I
X
= 0, 1, 2. Entao nesse
caso, dizer quem e a distribuicao de probabilidade de X e encontrar:
P(X = 0), P(X = 1), P(X = 2).
Temos que
= HH, HT, TH, TT,
onde H (Head) e T (Tail) denotam cara e coroa, respectivamente.
Primeiro passo e perguntar: Quem e o evento X = 0 ?
X = 0 = : X() = 0 = T, T.
Em seguida fazer a mesma pergunta para X = 1 e X = 2.
Segundo passo: Descobrir P(X(w) = x).
Para moedas honestas:
P(HH) = P(HT) = P(TH) = P(TT) = 1/4.
Entao:
P(X(w) = 0) = 1/4
P(X(w) = 1) = 1/2
P(X(w) = 2) = 1/4
Terceiro passo: Vericar se:
P(X(w) = 0) +P(X(w) = 1) +P(X(w) = 2) = 1.
Quarto passo: Organizar as ideias:
p
X
(x) =
_
_
1/4 se x = 0 ou x = 2
1/2 se x = 1
0 caso contr ario.
Resumindo: Para determinarmos a distribuicao de probabilidade da v.a X, temos que
44 CAP
ITULO 2. VARI
AVEIS ALEAT
ORIAS DISCRETAS
1. Encontrar todos os valores que a v.a. X assume.
2. Encontrar todos os eventos elementares contidos no evento X = x.
3. Somar suas probabilidades para obter p
X
(x).
E se desejamos calcular P(X > 0)? Inicialmente, vamos descobrir quem e o evento X > 0.
X > 0 = : X() > 0
X > 0 = HT, TH, TT = HT TH
. .
X=1
TT
..
X=2
.
Logo,
P(X > 0) = P(X = 1 X = 2) = P(X = 1) +P(X = 2) = 1/2 + 1/4 = 3/4.
2.4 Funcoes de Variaveis Aleatorias
Quando realizamos um experimento aleatorio, e comum nos interessarmos em uma funcao g(X) de uma
variavel aleatoria X. Ou melhor, em muitos casos e comum o nosso interesse estar na distribuicao de
probabilidade de uma funcao de uma variavel aleatoria. Portanto, nesta secao veremos como determinar
a distribuicao de probabilidade de uma funcao de v.a.
Exemplo 2.4.1 Seja Y = g(X) = (1, 8)X + 32 uma funcao linear da variavel aleatoria X. Temos que,
X representa a temperatura de um ambiente em graus Celsius e Y representa a mesma temperatura, so
que na escala Fahrenheit.
Se X for uma v.a discreta com distribui cao de massa de probabilidade p
X
, e Y uma fun cao de X, a sua
distribui cao de probabilidade pode ser calculada pela distribuicao de probabilidade de X. Em particular,
para obter p
Y
(y) para qualquer valor de y, somamos as probabilidades de todos os valores de x tal que
g(x) = y:
p
Y
(y) =
{x|g(x)=y}
p
X
(x).
Exemplo 2.4.2 Seja X uma variavel aleatoria que assume os valores 1, 0, 1 com as seguintes proba-
bilidades:
p
X
(x) =
_
_
1/3 se x = 1
1/6 se x = 0
1/2 se x = 1.
Vamos encontrar, p
Y
(y) para Y = 2X + 1.
1
AVEIS ALEAT
ORIAS 45
Logo,
I
Y
= 1, 1, 3.
2
passo: Com que probabilidades Y assume esses valores? Ou seja, qual a distribuic ao de massa de
probabilidade de Y ?
Temos que
p
Y
(1) = P(Y = 1) = P(X = 1) = p
X
(1) = 1/3.
p
Y
(1) = P(Y = 1) = P(X = 0) = p
X
(0) = 1/6.
p
Y
(3) = P(Y = 3) = P(X = 1) = p
X
(1) = 1/2.
3
_
1/3 se y = 1
1/6 se y = 1
1/2 se y = 3.
Exemplo 2.4.3 Considere a mesma variavel aleat oria, X, do exemplo 2.4.2.
Vamos agora encontrar p
Y
(y), tal que Y = X
2
.
1
ITULO 2. VARI
AVEIS ALEAT
ORIAS DISCRETAS
2.5 Esperanca e Variancia
2.5.1 Esperanca
A distribui cao de massa de probabilidade de uma variavel aleatoria X nos fornece uma serie de n umeros,
os quais sao as probabilidades de ocorrencia de cada um dos possveis valores de X. Seria interessante
resumir essa informa cao em um unico n umero representativo. Para encontrar esse n umero introduzimos
o conceito de esperanca de X, valor esperado ou media. A esperanca de X, e a media ponderada dos
valores assumidos por X, onde a pondera c ao dos valores e feita pelos p
X
(x)
s.
Denicao 2.5.1 (Esperanca de uma v.a X ou seu valor esperado, ou sua media).
O valor esperado de uma variavel aleatoria X, com distribuic ao de massa de probabilidade p
X
, e
denido por:
E(X) =
x
xp
X
(x).
Exemplo 2.5.1 Vamos considerar novamente o lancamento de um dado honesto. Seja X a v.a, que
assume os resultados do lancamento, vamos encontrar a distribuicao de probabilidade e a esperanca de X.
1. Distribuicao de probabilidade:
Temos que
I
X
= 1, 2, 3, 4, 5, 6.
Como o dado e honesto, a probabilidade de sair qualquer n umero e a mesma, isto e
P(X = 1) = P(X = 2) = P(X = 3) = P(X = 4) = P(X = 5) = P(X = 6) = 1/6.
2. Esperanca de X.
Temos que,
E(X) =
6
x=1
xP(X = x).
Portanto,
E(X) = (1)1/6 + (2)1/6 + (3)1/6 + (4)1/6 + (5)1/6 + (6)1/6 = 3, 5.
Exemplo 2.5.2 Um empresario pretende estabelecer uma rma para montagem de um produto composto
de uma esfera e um cilindro. A esfera sera produzida na fabrica A, enquanto que a producao do cilindro
sera feita na fabrica B.
No setor de montagem sera feita a junc ao e a pintura das pecas. Cada cilindro e cada esfera terao,
respectivamente, um comprimento e uma espessura determinada.
O empresario quer estudar a viabilidade de seu emprendimento, mais precisamente, quer ter uma ideia
da distribuicao do lucro por peca montada.
Caractersticas das pecas:
Cilindro (comprimento) Esfera (espessura)
Bom (B) (dentro das especicacoes) Boa (B) (dento das especicacoes)
Longo (L) (maior que as especicacoes) Longa (L) (maior que as especicacoes)
Curto (C) (menor que as especicacoes) Curta (C) (menor que as especicacoes)
A seguir, temos as probabilidades do comprimento dos cilindros e da espessura das esferas de cada produto.
2.5. ESPERANC A E VARI
ANCIA 47
Produto Cilindro Esfera
B 0.80 0.70
L 0.10 0.20
C 0.10 0.10
O preco de cada componente do produto sera 5 reais. Se algum componente apresentar a caracterstica
curto (C) depois de montadado o produto, o conjunto todo sera vendido como sucata ao preco de 5 reais.
Cada componente longo (L) podera ser recuperado ao preco de 5 reais.
Pergunta 1: Se o preco de venda de cada unidade for de 25 reais, como seria a distribuicao de
probabilidade da v.a X: lucro por conjunto montado?
Como os componentes vem de fabricas diferentes, vamos supor que a classicacao dos cilindros e das
esferas, segundo suas caractersticas, sejam eventos independentes.
Sabemos que:
= BB, BL, LB, BC, CB, LL, CC, LC, CL.
Considerando os seguintes eventos:
A
1
= cilindro bom = BB, BL, BC P(A
1
) = 0.8.
B
1
= esfera boa = BB, LB, CB P(B
1
) = 0.7.
B
2
= esfera longa = BL, LL, CL P(B
2
) = 0.2.
Obtemos,
A
1
B
1
P(A
1
B
1
) = P(A
1
)P(B
1
) = P(B, B) = (0.8)(0.7) = 0.56.
A
1
B
2
P(A
1
B
2
) = P(A
1
)P(B
2
) = P(B, B) = (0.2)(0.8) = 0.16.
A seguir temos a probabilidade de todos os produtos do espaco amostral e seus respectivos lucros:
Produto Probabilidade Lucro por montagem (X)
BB 0.56 25 10 = 15
BL 0.16 25 15 = 10
BC 0.08 5 10 = 5
LB 0.07 25 15 = 10
LL 0.02 25 20 = 5
LC 0.01 5 10 = 5
CB 0.07 5 10 = 5
CL 0.02 5 10 = 5
CC 0.01 5 10 = 5
Vemos facilmente que a v.a X pode assumir os seguintes resultados:
I
X
= 15, 10, 5, 5.
48 CAP
ITULO 2. VARI
AVEIS ALEAT
ORIAS DISCRETAS
Portanto, temos que:
P(X = 15) = P(BB) = 0.56.
P(X = 10) = P(BL, LB) = P(BL) +P(LB) = 0.16 + 0.07 = 0.23.
P(X = 5) = P(LL) = 0.02.
P(X = 5) = P(BC, CB, CL, LC, CC)
= P(BC) +P(CB) +P(CL) +P(LC) +P(CC)
= 0.08 + 0.01 + 0.07 + 0.02 + 0.01 = 0.19.
Assim a distribuicao de probabilidade da v.a X, lucro por conjunto montado, e denida por:
x P(X = x)
15 0.56
10 0.23
5 0.02
5 0.19
Pelos resultados obtidos, conclumos que a probabilidade do lucro ser igual a 15, quando o preco de venda
de cada produto e de 25 reais, e superior a 50%.
Pergunta 2: Qual o lucro medio por conjunto montado, ou seja, qual e a E(X)?
E(X) = 15P(X = 15) + 10P(X = 10) + 5P(X = 5) + (5)P(X = 5)
= 15(0.56) + 10(0.23) + 5(0.02) 5(0.19) = 9, 85.
Portanto, o lucro medio obtido de cada conjunto montado e de 9,85 reais.
2.5.2 Esperanca para funcoes de variaveis aleat orias
Seja X uma variavel aleatoria com distribui cao de massa de probabilidade p
X
, e seja g(X) uma funcao
de X. Entao, o valor esperado da variavel aleatoria g(X) e denido por:
E(g(X)) =
x
g(x) p
X
(x).
Para vericar que isto e verdade, vamos supor que Y = g(x) e usar a formula apresentada anteriormente:
p
Y
(y) =
{x|g(x)=y}
p
X
(x).
Temos entao que:
E(g(x)) = E(Y ) =
y
y p
Y
(y) =
y
y
{x|g(x)=y}
p
X
(x)
=
{x|g(x)=y}
y p
X
(x) =
{x|g(x)=y}
g(x)p
X
(x)
=
x
g(x)p
X
(x).
O que prova a deni cao anterior.
2.5. ESPERANC A E VARI
ANCIA 49
2.5.3 Variancia
Um outro importante n umero associado `a variavel aleatoria X e a variancia, que e denotada por V ar(X)
e e denida como valor esperado da v.a (X E(X))
2
, isto e,
V ar(X) = E[(X E(X))
2
].
Como (X E(X))
2
so assume valores positivos, observamos que V ar(X) e sempre um n umero positivo.
Exemplo 2.5.3 Voltando ao exemplo 2.5.1, vamos agora calcular a variancia de X.
Temos que
V ar(X) =
6
x=1
(x E(X))
2
p
X
(x).
Tomamos E(X) = 3.5, entao:
V ar(X) = (1 3.5)
2
(1/6) + (2 3.5)
2
(1/6) +... + (6 3.5)
2
(1/6) 3.
A variancia representa uma medida de dispersao de X em torno da sua media. Outra medida de dispersao
e o desvio-padrao de X, que e denido como a raiz quadrada da variancia, denotado por
X
:
X
=
_
V ar(X).
O desvio-padrao e muitas vezes mais facil de ser interpretrado, porque ele apresenta as mesmas unidades
de X. Por exemplo, se a unidade de medida de X for metro, entao a unidade do desvio-padrao tambem
sera metro, enquanto que a unidade de medida da variancia sera metro quadrado.
Desenvolvendo o quadrado da formula da variancia de X, encontramos uma outra maneira de calcular
a V ar(X) :
V ar(X) = E(X
2
) (E(X))
2
.
Esta expressao e vericada da seguinte forma:
V ar(X) =
x
(X E(X))
2
p
X
(x)
=
x
(X
2
2XE(X) + (E(X))
2
)p
X
(x)
=
x
X
2
p
X
(x)
x
2XE(X)p
X
(x) +
x
(E(X))
2
p
X
(x)
= E(X
2
) 2E(X)
x
Xp
X
(x) + (E(X))
2
x
p
X
(x)
= E(X
2
) 2E(X)E(X) + (E(X))
2
= E(X
2
) (E(X))
2
.
Esta nova formula, apresenta uma maior facilidade para o calculo da variancia. Uma outra forma de
provar que V ar(X) = E(X
2
) [E(X)]
2
e a seguinte:
V ar(X) = E[(X E(X))
2
]
= EX
2
2E(X)X + [E(X)]
2
= E(X
2
) 2E(X)E(X) + [E(X)]
2
= E(X
2
) [E(X)]
2
.
50 CAP
ITULO 2. VARI
AVEIS ALEAT
ORIAS DISCRETAS
Note que na terceira igualdade usamos o fato de E(X) ser uma constante.
A partir da deni cao de esperanca para funcoes de variaveis aleatorias, vamos agora obter propriedades
da esperanca e da variancia:
Assumindo Y , como uma funcao linear da variavel aleatoria X, isto e,
Y = aX +b,
tal que a, b R. Vamos mostrar as seguintes propriedades:
1. E(Y ) = E(aX +b) = aE(X) +b.
2. V ar(Y ) = V ar(aX +b) = a
2
V ar(X).
3.
Y
= [a[
Y
.
Prova:
1.
E(Y ) = E(aX +b) =
x
(aX +b)p
X
(x) = a
x
Xp
X
(x) +b
x
p
X
(x) = aE(X) +b.
2.
V ar(Y ) =
x
(aX +b E(aX +b))
2
p
X
(x)
=
x
(aX +b aE(X) b)
2
p
X
(x)
=
x
(a(X E(X)))
2
p
X
(x)
= a
2
x
(X E(X))
2
p
X
(x)
= a
2
V ar(X).
3.
Y
=
_
V ar(Y ) =
_
a
2
V ar(Y ) = [a[
_
V ar(Y ) = [a[
Y
.
Podemos observar que nestes resultados estao implcitas mais duas propriedades:
Sejam a e b duas constantes, temos que
E(b) = b.
V ar(a) = 0.
Terminaremos essa secao com uma forma alternativa de expressar a esperanca no caso de variaveis
aleatorias nao negativas.
Suponha que X seja uma v.a inteira e nao negativa. Entao
E(X) =
i=1
P(X i),
E(X
2
) = 2
i=1
iP(X i) E(X).
2.6. VARI
AVEIS ALEAT
ORIAS DISCRETAS 51
Prova:
E(X) =
i=1
i P(X = i) =
i=1
i
j=1
P(X = i) =
1ji<
P(X = i)
=
j=1
i=1
P(X = i) =
j=1
P(X j),
E(X
2
) =
i=1
i
2
P(X = i) =
i=1
i
2
[P(X i) P(X i + 1)]
=
i=1
i
2
P(X i)
i=1
i
2
P(X i + 1)
=
i=1
i
2
P(X i)
i=2
(i 1)
2
P(X i)
= P(X 1) +
i=2
[i
2
(i 1)
2
] P(X i)
=
i=1
(2i 1)P(X i) = 2
i=1
i P(X i)
i=1
P(X i)
= 2
i=1
P(X i) E(X).
2.6 Variaveis Aleat orias Discretas
2.6.1 Uniforme Discreta
Seja X uma variavel aleatoria cujos valores possveis sao representados por x
1
, x
2
, . . . , x
n
. Entao diz-se
que X segue o modelo uniforme discreto se sua distribuicao de probabilidade for da forma:
P(X = x
i
) =
_
1/n, para i = 1,. . . ,n
0, caso contrario.
para n N. Para representar que a v.a X possui distribuicao uniforme, usamos a nota cao X U
d
[n].
Este e o caso mais simples de variavel aleatoria discreta, ja que cada valor possvel ocorre com a mesma
probabilidade.
Esperanca e Variancia:
Se X tiver distribuicao uniforme discreta, entao
E(X) =
n + 1
2
e V ar(X) =
n
2
1
12
.
Prova:
Assumindo p
X
(x) = 1/n, a partir da denicao de E(X), temos que
E(X) =
n
x=1
x p
X
(x) =
n
x=1
x
1
n
=
1
n
n
x=1
x =
1
n
n(n + 1)
2
=
n + 1
2
.
52 CAP
ITULO 2. VARI
AVEIS ALEAT
ORIAS DISCRETAS
Como V ar(X) = E(X
2
) E(X)
2
, temos que obter E(X
2
):
E(X
2
) =
n
x=1
x
2
p
X
(x) =
n
x=1
x
2
1
n
=
1
n
n(n + 1)(2n + 1)
6
=
(n + 1)(2n + 1)
6
.
Logo,
V ar(X) =
(n + 1)(2n + 1)
6
(n + 1)
2
4
=
n
2
1
12
.
Exemplo 2.6.1 Uma rifa possui 100 bilhetes numerados de 1 a 100. Tenho cinco bilhetes consecutivos
numerados de 21 a 25, e meu colega tem outros cinco bilhetes, com os n umeros 7, 13, 29, 66 e 98. Quem
tem a maior possibilidade de ser sorteado?
Seja X uma v.a uniforme que representa o n umero de cada bilhete, entao todos os 100 bilhetes possuem
a mesma probabilidade de serem sorteados. Assim, se ambos os indviduos apresentam o mesmo n umero
de bilhetes, temos que a probabilidade de serem sorteados e a mesma. Entao, a probabilidade de sair os
n umeros 21, 22, 23, 24, 25 e 7, 13, 29, 66, 98 e :
P(X = 21) +P(X = 22) +P(X = 23) +P(X = 24) +P(X = 25) = 5/100,
P(X = 7) +P(X = 13) +P(X = 29) +P(X = 66) +P(X = 98) = 5/100.
Portanto, conclumos que ambos possuem uma probabilidade de 5/100 de serem sorteados.
2.6.2 Bernoulli
Uma variavel aleatoria X com distribuicao de probabilidade de Bernoulli e usada para modelar situacoes
onde ocorre dois eventos, que chamaremos de fracasso e sucesso. Uma v.a de Bernoulli, tem como ca-
racterstica atribuir um valor a `a ocorrencia de fracasso e um valor b para a ocorrencia de sucesso, com
probabilidades (1 p) e p, respectivamente, tal que a, b [0, 1]. Comumente atribumos 0 `a ocorrencia de
fracasso e 1 ` a ocorrencia de sucesso.
Por exemplo, podemos considerar o lancamento de uma moeda, no qual sai cara com probabilidade p
e sai coroa com probabilidade 1 p. Entao seja X uma v.a de Bernoulli, temos que X e igual a 1 se sai
cara e igual a 0 se sai coroa:
X =
_
1 se sai cara
0 se sai coroa.
Como e a distribuicao de massa de probabilidade dessa variavel aleatoria?
Como I
x
= 1, 0, temos que encontrar P(X = 1) e P(X = 0). Sendo = H, T, entao:
X = 1 = : X() = 1 = H.
X = 0 = : X() = 0 = T.
Usaremos a seguinte notacao: P(X = x) = P(X = x). Assim obtemos
P(X = 1) = P(X = 1) = P(H) = p.
P(X = 0) = P(X = 0) = P(T) = 1 p.
Logo, a funcao de probabilidade de uma v.a X de Bernoulli, que denotaremos por X Bernoulli(p), e
denida pela seguinte expressao:
P(X = x) = p
x
(1 p)
1x
,
com x 0, 1 e p [0, 1].
2.6. VARI
AVEIS ALEAT
ORIAS DISCRETAS 53
Esperanca e Variancia:
Se X tiver distribuicao de Bernoulli, entao
E(X) = p e V ar(X) = p(1 p).
Prova:
E(X) =
1
x=0
x p
X
(x) = 0(1 p) + 1(p) = p,
e tambem,
E(X
2
) =
1
x=0
x
2
p
X
(x) = (0)
2
p + (1)
2
p = p.
Entao como V ar(X) = E(X
2
) (E(X))
2
, temos que
V ar(X) = p p
2
= p(1 p).
Por causa da sua simplicidade, uma v.a de Bernoulli e muito importante no dia-a-dia. Ela e usada para
modelar situacoes onde ha apenas dois eventos, tais como:
A situacao de uma linha telefonica: Esta ocupada ou nao.
O estado medico de um paciente: Esta com determinada doenca ou esta saudavel.
A tendencia poltica de uma pessoa: Esta a favor ou contra determinado candidato.
Se combinarmos varias v.as de Bernoulli podemos construir variaveis aleatorias mais complicadas, como
e o caso da variavel aleatoria binomial, que veremos a seguir.
2.6.3 Binomial
Uma moeda e lancada n vezes. Em cada lancamento sai cara com probabilidade p e coroa com probabi-
lidade (1 p), independentemente do lan camento anterior. Seja X a v.a que indica o n umero de caras
nos n lancamentos. Nos referimos a X como sendo uma variavel aleatoria binomial com parametros n
e p, onde n e o n umero de ensaios e p a probabilidade de sucesso em cada ensaio. A variavel aleatoria
binomial e denotada por X b(n, p). O conjunto nesse caso e:
= HH...H
. .
n
, HH...H
. .
n1
T, ..., TT...T
. .
0
.
Qual e a distribui cao de massa de probabilidade de uma v.a binomial?
Nesse caso, I
x
= 0, 1, 2, ..., n, logo temos que encontrar:
P(X = 0), P(X = 1), ..., P(X = n).
Vemos que,
X = 0 = Nao sair cara = TT...T
. .
n
P(X = 0) = (1 p).(1 p)...(1 p)
. .
n
= (1 p)
n
X = 1 = Sair apenas uma cara = H T...T
. .
n1
, TH T...T
. .
n2
, ..., TT...T
. .
n1
H
54 CAP
ITULO 2. VARI
AVEIS ALEAT
ORIAS DISCRETAS
P(X = 1) = P(H TT...T
. .
n1
, TH TT...T
. .
n2
, ..., TT...T
. .
n1
H)
P(X = 1) = P(HTT...T THT...T, ..., TT...TH)
P(X = 1) = P(HTT...T) +P(THTT...T) +... +P(TT...TH)
P(X = 1) = p(1 p)
n1
+ (1 p)p(1 p)
n2
+... + (1 p)
n1
p
P(X = 1) = p(1 p)
n1
+p(1 p)
n1
+... +p(1 p)
n1
P(X = 1) = np(1 p)
n1
.
Na ultima equa cao podemos observar que p(1 p)
n1
e multiplicado por n. Essa parcela e especca
para X = 1, assim para acharmos P(X = x) e necessario pensarmos em todas as combina coes que os
subconjuntos de X = x possuem, o qual representamos por
X = x = H T...T
. .
n1
, TH T...T
. .
n2
, ..., TT...T
. .
n1
H.
Entao para obtermos uma equa cao que descreve genericamente o problema, devemos multiplicar p(1
p)
n1
por todas as suas combinacoes,
n!
(n x)! x!
=
_
n
x
_
onde x e o valor da variavel aleatoria. Assim, a equa cao da distribui cao binomal e:
P(X = x) =
_
n
x
_
p
x
(1 p)
nx
, x N 0.
Uma maneira para testarmos se a distribui cao de probabilidade acima foi denida corretamente, e vericar
se o axioma (A
2
) e satisfeito, ou seja, vericar se a probabilidade do conjunto e igual a 1.
Temos que
= X = 1 X = 2 ... X = n =
n
k=0
X = k, n N.
Entao
P() = P(
n
x=0
X = x) =
n
x=0
P(X = x) =
n
x=0
_
n
x
_
p
x
(1 p)
nx
= (p + 1 p)
n
= 1.
Exemplo 2.6.2 Sabe-se que a ocorrencia de pecas com algum tipo de imperfeicao em uma linha de
producao e de 10%. Escolhem-se tres pecas, ao acaso, e deseja-se vericar o n umero de pecas defeituosas
nesse grupo e as respectivas probabilidades. O evento peca com defeito sera representado por D.
Assim, o espaco amostral e dado por
= DDD, DDD
c
, DD
c
D, D
c
DD, DD
c
D
c
, D
c
D
c
D, D
c
DD
c
, D
c
D
c
D
c
.
Na tabela a seguir temos a probabilidade de todos os eventos, tal que, a probabilidade da peca estar com
ou sem defeito e, respectivamente, 0.1 e 0.9 :
2.6. VARI
AVEIS ALEAT
ORIAS DISCRETAS 55
X Evento Probabilidade (X)
3 DDD (0.1)
3
2 DDD
c
(0.9)(0.3)
2
2 DD
c
D (0.9)(0.3)
2
2 D
c
DD (0.9)(0.3)
2
1 DD
c
D
c
(0.9)
2
(0.3)
1 D
c
D
c
D (0.9)
2
(0.3)
1 D
c
DD
c
(0.9)
2
(0.3)
0 D
c
D
c
D
c
(0.1)
3
Exemplo 2.6.3 Uma moeda honesta e lancada vinte vezes. Qual a probabilidade de sarem oito caras?
Denimos a v.a X como sendo o n umero de sucessos, ou seja, o n umero de caras em vinte lancamentos.
Podemos representa-la atraves do modelo binomial, com parametros n = 20 e p = 1/2.
Logo, a probabilidade de sair oito caras em vinte lancamentos, e:
P(X = 8) =
_
20
8
_
(1/2)
8
(1/2)
12
.
Exemplo 2.6.4 Numa criacao de coelhos, 40% sao machos. Entao qual e a probabilidade de nascer pelo
menos dois coelhos machos, num dia em que nasceram vinte coelhos?
Denimos a variavel aleatoria X como sendo o n umero de coelhos machos nascidos neste dia. Sabemos
que I
X
= 0, 1, 2, . . . , 20, logo X representa uma v.a binomial, com parametros n = 20 e p = 0.4.
Entao a probabilidade de nascer pelo menos dois coelhos machos nesse dia, e denida por:
P(X 2) = 1 P(X < 2) = 1 [P(X = 0) +P(X = 1)]
= 1
_
20
0
_
(0.40)
0
(0.60)
20
_
20
1
_
(0.40)
1
(0.60)
19
.
Esperanca e Variancia:
Se X tiver distribuicao Binomial, vamos provar que
E(X) = np e V ar(X) = np(1 p).
Prova:
Considerando que X representa uma variavel aleatoria binomial, encontramos a partir da denicao de
E(X) que:
E(X) =
n
x=0
x p
X
(x) =
n
x=0
x
_
n
x
_
p
x
(1 p)
nx
=
n
x=1
x
n!
(n x)!x!
p
x
(1 p)
nx
=
n
x=1
x
n!
(n x)!x(x 1)!
p
x
(1 p)
nx
=
n
x=1
n!
(n x)!(x 1)!
p
x
(1 p)
nx
=
n
x=1
n(n 1)!
(n x)!(x 1)!
p
x
(1 p)
nx
= np
n
x=1
(n 1)!
(n x)!(x 1)!
p
x1
(1 p)
nx
= np
n
x=1
_
n 1
x 1
_
p
x1
(1 p)
nx
.
56 CAP
ITULO 2. VARI
AVEIS ALEAT
ORIAS DISCRETAS
Tomando, l = x 1, temos que
E(X) = np
n1
l=0
_
n 1
l
_
p
l
(1 p)
(n1)l
.
De acordo com a denicao de distribui cao de probabilidade de uma v.a binomial,
n
x=0
_
n
x
_
p
x
(1 p)
nx
= 1.
Portanto, a partir da expressao acima, temos que
E(X) = np.
Agora temos que encontrar E(X
2
) para obter V ar(X):
E(X
2
) =
n
x=0
x
2
p
X
(x) =
n
x=1
x
2
_
n
x
_
p
x
(1 p)
nx
=
n
x=1
[x(x 1) +x]
_
n
x
_
p
x
(1 p)
nx
=
n
x=2
x(x 1)
_
n
x
_
p
x
(1 p)
nx
+
n
x=1
x
_
n
x
_
p
x
(1 p)
nx
=
n
x=2
n!
(x 2)!(n x)!
p
x
(1 p)
nx
+np
=
n
x=2
n.(n 1)(n 2)!
(x 2)!(n x)!
p
2
p
x2
q
nx
+ np
= n.(n 1)p
2
n
x=2
(n 2)!
(x 2)!(n x)!
p
x2
q
nx
+ np.
Tomando agora , l = x 2, temos que
E(X
2
) = n.(n 1)p
2
n2
l=2
_
n 2
l
_
p
l
q
n2l
+ np
= n(n 1)p
2
+ np.
Finalmente encontramos V ar(X):
V ar(X) = E(X
2
) (E(X))
2
= n(n 1)p
2
+np n
2
p
2
= n(np
2
p
2
+p np
2
)
= np(np p + 1 np)
= np(1 p).
Exemplo 2.6.5 Seja Y = 3X + 2 uma vari avel aleatoria binomial de par ametros n = 20 e p = 0.3,
encontre:
2.6. VARI
AVEIS ALEAT
ORIAS DISCRETAS 57
(a) E(Y ).
Como vimos anteriormente, E(aX +b) = aE(X) +b, assim nesse caso podemos observar que a = 3
e b = 2, logo:
E(3X + 2) = E(3X) +E(2) = 3E(X) + 2.
Temos que E(X) = np. Entao
E(3X + 2) = 3(np) + 2 = 3(20)(0.3) + 2 = 20.
(b) V ar(Y ).
Sabemos que V ar(aX +b) = a
2
V ar(X), entao
V ar(Y ) = V ar(3X + 2) = V ar(3X) +V ar(2) = 3
2
V ar(X) + 0 = 9V ar(X).
Sendo V ar(X) = np(1 p), temos que
V ar(3X + 2) = 9np(1 p) = 37, 8.
2.6.4 Geometrica
Suponha que repitimos independentemente o lan camento de uma moeda cuja probabilidade de sair cara
e p e sair coroa e (1 p), onde 0 < p < 1. A variavel aleatoria geometrica corresponde ao n umero de
lancamentos necessarios para ocorrer uma cara pela primeira vez. Usamos a notacao X Geo(p), para
representar que X e uma v.a com distribuicao geometrica. Neste caso:
Podemos precisar de 1 lancamento apenas
Podemos precisar de 2 lancamentos apenas
.
.
.
Podemos precisar de n lan camentos
O espaco amostral para esse experimento e o conjunto:
= H, TH, TTH, TTTH....
Sendo X a v.a que representa o n umero de lancamentos que sairam coroa antes de sair a primeira cara,
qual e a distribui cao de probabilidade de X?
Vemos facilmente que
X = 1 = H P(X = 1) = p
X = 2 = TH P(X = 2) = p(1 p)
.
.
.
X = x = TT...T
. .
n1
H P(X = x) = p(1 p)
x1
,
uma vez que p(1 p)
x1
, e a probabilidade de sair uma sequencia de lan camentos consistindo de x 1
sucessivas coroas seguidas por uma cara.
58 CAP
ITULO 2. VARI
AVEIS ALEAT
ORIAS DISCRETAS
Simplicando, diz-se que uma variavel aleatoria tem distribui cao geometrica, se possui a seguinte
distribui cao de probabilidade:
p(1 p)
x1
, x = 1, 2, . . .
Note que, no caso binomial, o n umero de repeticoes e pre determinado e aqui este n umero e uma variavel
aleatoria. Na interpretacao do modelo geometrico, pode-se dizer que a v.a. X, com distribui cao geometrica,
corresponde ao n umero de ensaios de Bernoulli que precedem o primeiro sucesso.
Agora para vericar se a distribui cao de probabilidade foi corretamente denida, vamos provar que a
probabilidade do conjunto e 1:
Temos que
= X = 1 X = 2 ... =
x=1
X = x, n N.
Entao
P() = P(
x=1
X = x) =
x=1
P(X = x)
=
x=1
p(1 p)
x1
= p
1
1 (1 p)
=
p
p
= 1.
A ultima igualdade e consequencia da serie geometrica.
Esperanca e Variancia:
Se X tiver distribuicao Geometrica, vamos mostrar que
E(X) =
1
p
e V ar(X) =
1 p
p
2
.
Prova:
Para calcular a E(X), usaremos uma expressao muito utilizada nos estudos de Calculo. Para todo
n umero real x no intervalo (0, 1) consideremos a serie geometrica cuja soma e dada a seguir:
x=1
x
i
=
1
1 x
. (2.1)
Derivando-se ambos os lados dessa igualdade, temos:
d
dx
x=1
x
i
=
x=1
ix
i1
=
1
(1 x)
2
. (2.2)
Denimos q = 1 p. Usando a denicao de Esperanca, tem-se:
E(X) =
n
x=0
x p
X
(x) =
n
x=1
x p.q
x1
.
Utilizando as expressoes (2.1) e (2.2), obtemos
E(X) = p
n
x=1
dq
x
dq
= p
d
dq
n
x=1
q
x
= p
d
dq
_
q
1 q
_
= p
1
p
2
=
1
p
.
De maneira analoga, podemos obter E(X
2
) e tambem a variancia de X:
V ar(X) = E(X
2
) E(X)
2
=
1 p
p
2
.
2.6. VARI
AVEIS ALEAT
ORIAS DISCRETAS 59
Exemplo 2.6.6 Uma linha de produc ao esta sendo analisada para efeito de controle de qualidade das
pecas produzidas. Tendo em vista o alto padr ao requerido, a producao e interrompida para regulagem toda
vez que uma peca defeituosa e observada. Se 0, 02 e a probabilidade da peca ser defeituosa, deseja-se
vericar o comportamento da variavel, que representa a quantidade de pecas boas produzidas antes da
primeira defeituosa.
Seja X a variavel aleatoria geometrica que corresponde ao n umero de pecas boas produzidas antes da
primeira defeituosa. Entao a probabilidade de a primeira peca ser defeituosa depois de x pecas boas, e
dada por:
P(X = x) = p(1 p)
x1
= (0, 02)(0, 98)
x1
2.6.5 Poisson
A distribuicao de probabilidade de uma variavel aleatoria que registra o n umero de ocorrencias sobre um
intervalo de tempo e chamada de Poisson. A distribuicao de probabilidade de uma v.a de Poisson, com
parametro > 0, e denida pela seguinte expressao:
P(X = x) =
e
x
x!
, x = 0, 1, . . . ,
com o parametro sendo usualmente referido como a a taxa de ocorrencia. A nota cao X Po(), sera
usada para representar que X e uma v.a que segue o modelo Poisson.
O modelo de Poisson tem sido muito utilizado em experimentos fsicos e biologicos e, nesses casos,
e a frequencia media ou esperada de ocorrencias num determinado intervalo de tempo.
Vamos vericar se a distribuicao de probabilidade de uma v.a de Poisson, foi denida corretamente.
Nao e difcil observar que, para qualquer x, ela e um n umero positivo. Basta mostrar que as probabilidades
somam 1. Temos,
x=0
P(X = x) =
x=0
e
x
x!
= e
x=0
x
x!
= e
= 1.
No calculo acima, usamos que a serie
x
/x!, somada para valores de x 0, produz e
. Esse resultado
e bastante utilizado nos textos de Calculo Diferencial e Integral e segue do desenvolvimento em serie de
Taylor do termo e
.
Exemplo 2.6.7 Nos itens abaixo, temos alguns exemplos de fenomenos aleatorios de contagem em uni-
dade de tempo.
N umeros de carros que chegam a um posto de gasolina;
N umeros de acidentes de transito por semana em uma cidade;
N umeros de chamadas telefonicas por hora em uma central telefonica.
Esperanca e Variancia:
Se X tiver distribuicao de Poisson, vamos mostrar que
E(X) = e V ar(X) = .
Prova:
E(X) =
x=0
x
e
x
x!
=
x=0
x
e
x
x(x 1)!
=
x=1
e
x
(x 1)!
=
x=1
e
x1
(x 1)!
.
Tomando, m = x 1, temos que
60 CAP
ITULO 2. VARI
AVEIS ALEAT
ORIAS DISCRETAS
E(X) =
m=0
e
m
m!
.
De acordo com a denicao de distribui cao de probabilidade de uma v.a de Poisson, temos que
x=0
e
x
x!
= 1.
Portanto, a partir da expressao acima, obtemos
E(X) = .
Agora para calcular a V ar(X), temos que obter E(X
2
):
E(X
2
) =
x=0
x
2
p
X
(x) =
x=0
x
2
e
x
x!
=
x=0
x
2
e
x
x(x 1)!
=
x=1
xe
x
(x 1)!
=
x=1
xe
x1
(x 1)!
.
Tomando novamente, m = x 1, temos que
E(X
2
) =
x=1
(m+ 1)e
m
m!
=
x=1
m e
m
m!
+
x=1
e
m
m!
.
Substituindo a E(X) na expressao acima, obtemos
E(X)
2
= E(X) + =
2
+.
Logo,
V ar(X) = E(X
2
) E(X)
2
=
2
+
2
= .
nalizando a prova.
Exemplo 2.6.8 Calcule as probabilidades de obter X = 2 e X = 3 em uma distribuicao de Poisson com
media igual a 1.
Se a media e 1, entao = 1. Assim, a probabilidade de X = 2 e X = 3 e dada da seguite forma:
P(X = 2) =
e
1
1
2
2!
= 0, 18394.
P(X = 3) =
e
1
1
3
3!
= 0, 06131.
2.7 Funcao de Distribuicao de Probabilidade
Nesta se cao, vamos apresentar uma outra forma de associar probabilidades aos valores ou a intervalos de
valores de uma variavel aleatoria. Chamaremos esta nova forma, de funcao de distribui cao de probabilidade
(f.d.p) ou de funcao de distribui cao acumulativa (f.d.a). Veremos que essa segunda denomina cao e bem
sugestiva para a denicao da fun cao.
2.7. FUNC
AO DE DISTRIBUIC
AO DE PROBABILIDADE 61
Denicao 2.7.1 Seja X uma variavel aleatoria discreta, a funcao de distribuicao de probabilidade de X,
e denida para qualquer n umero real x, pela seguinte expressao:
F(x) = P(X x),
sendo que o domnio de F e todo o conjunto dos n umeros reais, enquanto que a imagem e denida pelo
intervalo [0, 1].
A fun cao de distribuicao de probabilidade de uma variavel aleatoria X, apresenta as seguintes proprieda-
des:
i) 0 F(x) 1, pois F(x) representa uma probabilidade.
ii) F(x) e nao decrescente e contnua `a direita.
iii) lim
x
F(x) = 0 e lim
x+
F(x) = 1.
Exemplo 2.7.1 Seja X a variavel aleatoria que representa o n umero de caras em tres lancamentos in-
dependentes de uma moeda, ou seja, X = 0, 1, 2, 3. Queremos determinar a funcao de distribuicao de
probabilidade da v.a X.
Para denir F(x), precisa-se obter a sua expressao para todo x R:
Se (< x < 0):
F(x) = P(X x) = P( : X() x) = P() = 0.
Se (0 x < 1):
Para x = 0, F(0) = P(X 0) = P(T, T, T) = 1/8.
Note que a variavel so assume valores inteiros, entao esse valor ca inalterado no intervalo [0, 1). Isto e,
F(0.1), F(0.5) ou F(0.9) tambem sao iguais a 1/8. Isso tambem vale para os demais intervalos.
Se (1 x < 2):
Para x = 1, F(1) = P(X 1) = P(H, T, T) +P(T, H, T) +P(T, T, H) = 3/8.
Se (2 x < 3):
Para x = 2, F(2) = P(X 2) = P(H, H, T) +P(T, H, H) +P(H, T, H) = 3/8.
Se (x 3):
Para x = 3, F(3) = P(X 3) = P(H, H, H) = 1/8.
Portanto a funcao de distribuicao de probabilidade da variavel aleatoria X e denida por:
F(x) =
_
_
0 se < x < 0
1/8 se 0 x < 1
3/8 se 1 x < 2
3/8 se 2 x < 3
1/8 se x 3.
62 CAP
ITULO 2. VARI
AVEIS ALEAT
ORIAS DISCRETAS
Exemplo 2.7.2 Considerando o lancamento de dois dados honestos, seja X a v.a que assume os valo-
res da soma das faces, ou seja, X = 2, 3, . . . , 12. Qual e a funcao de distribuic ao de probabilidade de X?
Para denir F(x), precisa-se obter a sua expressao para todo x R:
Se (x < 2):
F(x) = P(X x) = P( : X() x) = P() = 0.
Se (2 x < 3):
Para x = 2, F(2) = P(X 2) = P(1, 1) = 1/36.
Se (3 x < 4):
Para x = 3, F(3) = P(X 3) = P(1, 1) +P(1, 2) +P(2, 1) = 3/36.
Repetimos esses mesmos passos para os demais valores de x. Deste modo, encontramos os valores com-
pletos da func ao de distribuicao de probabilidade da vari avel aleatoria X:
F(x) =
_
_
0 se x < 2
1/36 se 2 x < 3
3/36 se 3 x < 4
6/36 se 4 x < 5
10/36 se 5 x < 6
15/36 se 6 x < 7
21/36 se 7 x < 8
26/36 se 8 x < 9
30/36 se 9 x < 10
33/36 se 10 x < 11
35/36 se 11 x < 12
1 se x 12.
A partir da fun cao de distribuicao de probabilidade de uma v.a X, conseguimos encontrar a sua distri-
buicao de massa de probabilidade.
Exemplo 2.7.3 Uma v.a X possui a seguinte funcao de distribuicao de probabilidade:
F(x) =
_
_
0 se x < 5
0.3 se 5 x < 7
0.5 se 7 x < 8
0.9 se 8 x < 15
1 se x 15.
Com essas informacoes vamos determinar a distribuicao de probabilidade de X.
Baseando-se na denicao de func ao de distribuicao de probabilidade, temos que a distribuicao de
probabilidade de X e denida por:
2.8. FUNC
AO GERADORA DE PROBABILIDADES 63
X P(X = x)
5 0.3
7 0.2
8 0.4
15 0.1
Exerccio:
De acordo com o exemplo 2.7.3, determine as seguintes probabilidades:
a) P(X 7).
b) P(X < 7).
c) P(7 X 10).
d) P(X > 9).
2.8 Funcao Geradora de Probabilidades
Se X for uma variavel aleatoria com p
X
dada e I
X
= 0, 1, 2, . . ., denimos a seguinte funcao
G(s) = E(s
X
) = s
0
p
X
(0) +s
1
p
X
(1) +s
2
p
X
(2) +. . . =
r=0
s
r
p
X
(r).
Exemplo 2.8.1 Se X for uma variavel aleatoria binomial de parametros n e p, o que indicaremos por
X Bin(n, p), temos que
E(s
X
) =
n
r=0
s
r
p
X
(r) =
n
r=0
s
r
_
n
r
_
p
r
(1 p)
nr
=
n
r=0
_
n
r
_
(sp)
r
(1 p)
nr
= (sp + (1 p))
n
.
Portanto, G(s) = (sp + 1 p)
n
.
Exemplo 2.8.2 Se X for uma variavel aleatoria geometrica de parametro p, o que indicaremos por
X Geo(p), temos que
E(s
X
) =
r=1
s
r
p
X
(r) =
r=1
s
r
(1 p)
r1
p
= ps
r=1
[s(1 p)]
r1
= ps
1
1 s(1 p)
.
Portanto, G(s) =
ps
1 s(1 p)
.
A funcao G(s) e chamada de fun cao geradora de probabilidades. Como veremos no teorema a seguir, a
sua importancia se deve ao fato de facilitar a obtencao da E(X) e da V ar(X).
Teorema 2.8.1 Seja E(s
X
) = G(s), e seja G
(r)
(s) a r-esima derivada de G(s). Entao
G
(r)
(1) = EX(X 1)(X 2) . . . (X r + 1).
Em particular, G
(1)
(s)
s=1
=
dG(s)
ds
s=1
= G
(1) = E(X).
64 CAP
ITULO 2. VARI
AVEIS ALEAT
ORIAS DISCRETAS
A prova desse teorema pode ser vista em Grimmett (2001).
Observacoes
1. Para r = 2 temos
G
(2)
(s) =
d
2
G(s)
ds
2
= G
(s)
G
r=0
s
r
p
X
(r) converge para [s[ 1, pois
r=0
p
X
(r) = 1. Logo G(s) esta bem denida para
[s[ 1.
Voltando ao exemplo 1.8.1, onde X Bin(n, p) e G(s) = (sp + 1 p)
n
, temos que
G
(s) = n(sp + 1 p)
n1
p = pn(sp + 1 p)
n1
G
(1) = EX(X 1) = EX
2
X = E(X
2
) E(X).
Logo
G
(1) = p
2
n(n 1) = E(X
2
) E(X)
= p
2
n(n 1) = E(X
2
) np
Portanto,
E(X
2
) = p
2
n(n 1) +np = np(n 1)p + 1.
Agora podemos encontrar V ar(X) = E(X
2
) (E(X))
2
:
V ar(X) = np(n 1)p + 1 n
2
p
2
= npnp p + 1 np = np(1 p).
Voltando agora ao exemplo 1.8.2, onde X Geo(p) e G(s) =
ps
1 s(1 p)
, temos que
G
(s) =
p[1 s(1 p)] [(1 p)]ps
[1 s(1 p)]
2
=
p ps(1 p) +ps(1 p)
[1 s(1 p)]
2
=
p
[1 s(1 p)]
2
.
Substituindo s = 1, encontramos
G
(1) =
p
p
2
=
1
p
= E(X).
Fica a cargo do leitor encontrar V ar(X).
2.9. EXERC
ICIOS 65
2.9 Exerccios
1. Seja (, T, P) o espaco de probabilidade . Para o evento D temos a seguinte variavel aleatoria
X() =
_
_
_
1, se D,
0, se / D.
(a) Mostre que E(X) = P(D).
(b) Mostre que V ar(X) = P(D) P(D
c
).
2. Suponha um jogo infantil onde ha a representacao de uma estrada de 100km que liga a cidade B `a
cidade A. A estrada e tortuosa e esta dividida em 100 quadradinhos de 1km. O jogo comeca com
todos os jogadores na cidade B.
E escolhida uma ordem entre os jogadores, e cada um lanca um dado
honesto duas vezes, e de maneira independente. A soma dos resultados corresponde `a distancia que
cada jogador percorrera em cada rodada. Ganha aquele que chegar primeiro na cidade A.
(a) Encontre .
Voce concorda que os jogadores estao mais interessados na soma dos ressultados do lancamento
do que com os elementos de ? Por isso, e interessante denir a variavel aleatoria S que associa
a cada elemento de a soma dos resultados dos lan camentos.
(b) Encontre S = 8, S = 12.
(c) Se o dado tivesse apenas 3 faces, como seria a distribuicao de massa de probabilidade de S?
(d) Para a mesma situacao do item c, encontre E(S) e V ar(S).
3. Seja =
1
,
2
,
3
,
4
,
5
,
6
,
7
,
8
,
9
,
10
. Considere que todos os eventos elementatares sao
equiprovaveis. Denamos em a seguinte variavel aleatoria:
X(
1
) = X(
2
) = X(
3
) = X(
5
) = 5
X(
4
) = X(
8
) = 10
X(
6
) = X(
7
) = X(
9
) = 20
X(
10
) = 30
(a) Determine a distribui cao de massa de probabilidade de X.
(b) Calcule E(X)
(c) Calcule E(a X), a R.
4. Considere o espaco amostral = 1, 2, 3, 4, 5, 6, e considere os eventos elementares equiprovaveis.
Seja X uma variavel aleatoria tal que
X(1) = X(2) = X(3) = X(5) = 1
X(4) = X(6) = 1.
(a) Determine a distribui cao de massa de probabilidade de X.
(b) Calcule E(X).
66 CAP
ITULO 2. VARI
AVEIS ALEAT
ORIAS DISCRETAS
(c) Calcule E(a X +b), a e b R.
(d) Seja Y = X
2
. Calcule E(Y ).
5. Seja = 1, 2, 3, 4, 5, 6. E sejam os eventos
(AB) = 1, (B A) = 4, 6, (A B) = 1, 3, 4, 6.
Considere os eventos elementares equiprovaveis.
(a) Determine P(A) e P(B).
(b) Dena a seguinte variavel aleat oria
X(2) = X(4) = X(6) = 1
X(1) = X(3) = X(9) = 1.
Encontre a distribui cao de massa de probabilidade de X.
(c) Calcule E(X) e V ar(X).
6. Seja o espaco de probabilidade (, T, P). Considere a variavel aleatoria X, com a seguinte distri-
bui cao de massa de probabilidade:
k 1 0 1 2
p
X
(k) 0.2 0.1 0.3 0.4
Para = 2
X
encontre:
(a) E().
(b) V ar().
7. Considere que voce esteja numa situa cao difcil. Voce vai assistir a aula de uma disciplina e descobre
que o professor preparou uma prova surpresa. Agora voce esta diante de uma prova teste com 10
questoes, cada uma com 4 alternativas equiprovaveis, e somente uma correta, e esta totalmente
despreparada. Voce sequer apareceu nas ultimas aulas. Voce nao foi muito bem na primeira prova
do curso, e sabe que se tirar 6 nessa prova voce passa, caso contrario voce vai ter que fazer a
recupera cao. Voce decide responder `as questoes de maneira aleatoria e de forma que a resposta de
uma n ao inuencie nas outras e vice-versa, ou seja de maneira independente.
(a) Considere a seguinte varavel aleatoria: R
i
= 1 se a i-esima resposta for correta, e R
i
= 0 se a
i-esima resposta nao for correta. Encontre a distribuicao de massa de probabilidade de R
i
.
(b) Encontre E(X) e V ar(X).
8. Seja X uma variavel aleatoria de Bernoulli que assume 1 com probabilidade p e 0 com probabilidade
1 p.
(a) Encontre E(X).
(b) Encontre V ar(X).
2.9. EXERC
ICIOS 67
Agora considere a soma de 12 vari aveis aleatorias de Bernoulli independentes como a denida acima.
Encontre E(X) e V ar(X).
9. Seja X uma variavel aleatoria de Bernoulli tal que
X() =
_
_
_
1, com probabilidade p,
1, com probabilidade 1 p.
(a) Encontre E(X).
(b) Encontre V ar(X).
Agora considere a soma de 10 vari aveis aleatorias de Bernoulli independentes como a denida acima.
Encontre E(X) e V ar(X).
10. Utilizando o teorema 2.8.1, encontre E(X
3
) para X Bin(n, p) e X Geo(p).
11. Experimento Aleatorio: Uma moeda honesta e lancada duas vezes. Seja X() o n umero de
ocorrencias de caras.
(a) Encontre .
(b) Encontre a distribui cao de massa de probabilidade de X.
(c) Encontre E(X).
(d) Encontre V ar(X).
(e) Encontre a fun cao geradora de probabilidades G(s).
(f) A partir da G(s) e do teorema acima, conra se os resultados encontrados nos itens (b) e (c)
estao corretos
12. Encontre a fun cao geradora de probabilidade para a seguinte variavel aleatoria
X() =
_
_
_
1, com probabilidade p,
1, com probabilidade 1 p.
Agora, use-a para encontrar E(X) e V ar(X).
13. Nas 3 situa coes seguintes, calcule explicitamente a probabilidade pedida.
(a) Uma moeda honesta e lancada 3 vezes. Qual a probabilidade de serem obtidas 2 caras?
Dica: Neste caso a v.a. X e o n umero de caras em 3 lancamentos. Entao X tem distribuicao
binomial de parametros n = 3 e p = 1/2.
(b) Um dado honesto e lancado cinco vezes. Qual e a probabilidade de se obter face 5 no maximo
3 vezes?
Dica: Neste caso a v.a. X e o n umero de vezes que aparece face 5 em 5 lancamentos. Entao
X tem distribui cao binomial de parametros n = 5 e p = 1/6. E a probabilidade que se quer
calcular e P(X 3).
68 CAP
ITULO 2. VARI
AVEIS ALEAT
ORIAS DISCRETAS
(c) Dez pecas sao extradas, ao acaso, com reposicao, de um lote contendo 500 pecas. Qual e
a probabilidade de que todas sejam defeituosas, sabendo-se que 10% das pe cas do lote sao
defeituosas.
Dica: Neste caso a v.a. X e o n umero de pecas defeituosas num lote de 10 pecas. Entao X
tem distribuicao binomial de parametros n = 10 e p = 0, 1. E a probabilidade que se quer
calcular e P(X = 10).
14. Acredita-se que 20% dos moradores das proximidades de uma grande ind ustria sider urgica tem
alergia aos poluentes lancados ao ar. Admitindo que este percentual de alergicos e real (correto),
calcule a probabilidade de que pelo menos 4 moradores tenham alergia entre 13 selecionados ao
acaso.
15. Tres em cada quatro alunos de uma universidade zeram cursinho antes de prestar vestibular. Se
16 alunos sao selecionados ao acaso, qual e a probabilidade de que:
(a) Pelo menos 12 tenham feito cursinho?
(b) No maximo 13 tenham feito cursinho?
(c) Exatamente 12 tenham feito cursinho?
16. Num teste tipo certo/errado, com 50 questoes, qual a probabilidade de que um aluno acerte 80%
das questoes, supondo que ele as responda ao acaso?
17. Repita o exerccio anterior, considerando cinco alternativas para cada questao.
18. Seja X uma v.a. Binomial com parametros n = 20 e p = 3/4. Encontre E(X) e V ar(X) em funcao
de n e p.
19. Seja X uma variavel aleatoria Geometrica de parametro p.
(a) Para n 0, mostre que P(X > n) = (1 p)
n
.
(b) Mostre que para n, k = 0, 1, 2, . . .,
P(X > n +k[X > k) = P(X > n).
Captulo 3
Vetores Aleatorios Discretos
3.1 Distribuicao Conjunta de Probabilidade
Modelos probabilsticos geralmente envolvem varias variaveis aleatorias. Aqui vamos nos concentrar
no estudo de um par de variaveis aleatorias, nao se esquecendo que os resultados obtidos para o caso
bidimensional podem ser estendidos facilmente a um conjunto nito de variaveis aleatorias. A seguir
temos a deni cao de vetor aleatorio bidimensional.
Denicao 3.1.1 Sejam X e Y duas variaveis aleatorias. Chamamos (X, Y ) de vetor aleatorio bidimen-
sional, que sera discreto se X e Y forem vari aveis aleatorias discretas.
Exemplo 3.1.1 No contexto de diagn ostico medico, os resultados de diversos exames sao signicativos
para o prossional medico descobrir que doenca acomete seu paciente.
Digamos que um paciente procure um medico com sintomas de cansaco e tontura. O medico pede um
exame de sangue para vericar anemia e diabetes. Denamos:
X =
_
1, se o paciente tiver anemia
0, caso contrario
Y =
_
1, se o paciente tiver diabetes
0, caso contr ario
Nesse caso o par (X, Y ) e uma vetor aleatorio bidimensional.
Um vetor aleatorio analogamente a uma variavel aleatoria unidimensional so ca determinado quando
alem de seus valores, tambem sao conhecidas as probabilidades com que esses valores sao assumidos. A
denicao de distribuicao de probabilidade apresentada para uma v.a unidimensional pode ser estendida
de maneira natural para uma vetor aleatorio.
Denicao 3.1.2 (Distribuicao de Probabilidade Conjunta).
Seja (X, Y ) um vetor aleat orio discreto, onde X assume os valores x
1
, x
2
, . . . , x
n
e Y assume os valores
y
1
, y
2
, . . . , y
m
. A cada par ordenado (x
i
, y
j
) associaremos um n umero p(x
i
, y
j
) = P(X = x
i
, Y = y
j
),
satisfazendo:
1. p(x
i
, y
j
) 0, i, j;
69
70 CAP
ORIOS DISCRETOS
2.
n
i=1
m
j=1
p(x
i
, y
j
) = 1.
O conjunto de valores p(x
i
, y
j
), 1 i n, 1 j n e a distribuicao conjunta do vetor aleatorio discreto
(X, Y ). Esses valores sao normalmente apresentados em forma de tabela, tal como veremos nos exemplos
abaixo.
Agora, considerando o exemplo 3.1.1, conseguimos responder algumas perguntas como: a pessoa pode ter
as duas doencas?
Nesse caso os eventos de interesse sao: X = 1 e Y = 1. Em palavras, queremos saber qual e
a probabilidade da pessoa apresentar as duas doen cas. Por meio da distribui cao conjunta conseguimos
encontrar essas probabilidades, ou seja, calculamos
P(X = 1 Y = 1) = P(X = 1, Y = 1).
Isto e, obtemos com que probabilidade X e Y assumem conjuntamente (ao mesmo tempo) seus diversos
valores.
O proximo exemplo foi retirado do livro de Bussab e Morettin (2002).
Exemplo 3.1.2 Suponha que estamos interessados em estudar famlias compostas por 3 criancas. De-
namos:
X = n umero de meninos
Y =
_
1, se o 1
j=1
P(X = x
i
, Y = y
j
) =
m
j=1
p
X,Y
(x
i
, y
j
).
Ela e denominada distribui cao marginal de X.
A distribuicao marginal de Y e calculada de modo analogo. Entao para j = 1, 2, . . . , m, temos que
p
Y
(y
j
) = P(Y = y
j
) =
n
i=1
P(X = x
i
, Y = y
j
) =
n
i=1
p
X,Y
(x
i
, y
j
).
Exemplo 3.2.1 Seja (X, Y ) um vetor aleatorio discreto. A distribuicao conjunta de X e Y e dada pela
tabela a seguir. Determine as suas distribuicoes marginais.
Y = 1 Y = 2 Y = 3
Y = 1 0 1/5 0
Y = 2 1/5 1/5 1/5
Y = 3 0 1/5 0
Primeiramente vamos calcular a distribuic ao marginal de X:
p
X
(1) =
3
j=1
p
X,Y
(1, j) = p
X
(1, 1) +p
X
(1, 2) +p
X
(1, 3) = 0 +
1
5
+ 0 =
1
5
p
X
(2) =
3
j=1
p
X,Y
(2, j) = p
X
(2, 1) +p
X
(2, 2) +p
X
(2, 3) =
1
5
+
1
5
+
1
5
=
3
5
p
X
(3) =
3
j=1
p
X,Y
(3, j) = p
X
(3, 1) +p
X
(3, 2) +p
X
(3, 3) = 0 +
1
5
+ 0 =
1
5
Agora de forma analoga obtemos a distribuicao marginal de Y :
p
Y
(1) =
3
i=1
p
X,Y
(i, 1) = p
Y
(1, 1) +p
Y
(2, 1) +p
Y
(3, 1) = 0 +
1
5
+ 0 =
1
5
72 CAP
ORIOS DISCRETOS
p
Y
(2) =
3
i=1
p
X,Y
(i, 2) = p
X
(1, 2) +p
X
(2, 2) +p
X
(3, 2) =
1
5
+
1
5
+
1
5
=
3
5
p
Y
(3) =
3
i=1
p
X,Y
(i, 3) = p
X
(1, 3) +p
X
(2, 3) +p
X
(3, 3) = 0 +
1
5
+ 0 =
1
5
3.3 Distribuic oes Condicionais
Quando trabalhamos com vetores aleatorios, e conveniente calcular proporcoes em rela cao a uma linha
ou coluna da tabela de distribuicao conjunta, e nao em relacao ao total. Assim, considerando novamente
o exemplo 3.1.2, qual seria a distribuicao do n umero de meninos, sabendo-se que o primeiro lho e do
sexo masculino? Ou seja, queremos calcular a probabilidade P(X = x[Y = 1) = P(X = x[Y = 1). A
partir da denicao de probabilidade condicional, obtemos
P(X = x[Y = 1) =
P(X = x Y = 1)
P(Y = 1)
=
P(X = x, Y = 1)
P(Y = 1)
, x = 0, 1, 2, 3.
Usamos p
X|Y
(x, y) para denotar a probabilidade condicional dos valores de X dado um valor de Y .
De forma geral podemos denir a distribuicao condicional de duas variaveis aleatorias da seguinte forma:
Denicao 3.3.1 Seja (X, Y ) um vetor aleatorio discreto. A probabilidade condicional de X = x, dado
que Y = y ocorreu, e dada pela expressao:
P(X = x[Y = y) =
P(X = x, Y = y)
P(Y = y)
, se P(Y = y) > 0.
Denimos a probabilidade condicional de Y = y, dado que X = x ocorreu da mesma forma. Logo temos
que
P(Y = y[X = x) =
P(X = x, Y = y)
P(X = x)
.
As mesmas condicoes impostas a P(Y = y) para o calculo de P(X = x[Y = y) sao transferidas `a P(X = x)
para determinar P(Y = y[X = x).
A seguir temos outro exemplo retirado de Bussab e Morettin (2002).
Exemplo 3.3.1 Num estudo de rotatividade de mao-de-obra, foram denidas para certa populacao de
trabalhadores as variaveis aleatorias:
X = n umero de empregos que um funcionario teve ao mesmo tempo no ultimo ano
Y = salario
Obteve-se a seguinte distribuicao conjunta:
X = 1 X = 2 X = 3 X = 4
Y = 800 0 0 0.10 0.10
Y = 1200 0.05 0.05 0.10 0.10
Y = 2000 0.05 0.20 0.05 0
Y = 5000 0.10 0.05 0.05 0
3.4. INDEPEND
ENCIA 73
A partir dessas informacoes queremos estudar a distribuic ao do n umero de empregos de cada trabalhador
no ultimo ano, dado que o salario foi de 5000 reais, isto e, queremos estudar a distribuicao de probabilidade
de X dado que Y = 5000 :
P(X = x, Y = 5000) =
P(X = x, Y = 5000)
P(Y = 5000)
.
Da ultima linha da tabela obtemos as probabilidades conjuntas de interesse, P(X = 1, Y = 5000), P(X =
2, Y = 5000), P(X = 3, Y = 5000) e P(X = 4, Y = 5000). Dividindo-se essas probabilidades por P(Y =
5000), que esta na margem da tabela, obtemos a probabilidade condicional P(X = x
i
[Y = 5000):
p
X|Y
(1, 5000) =
P(X = 1, Y = 5000)
P(Y = 5000)
=
0.10
0.20
=
1
2
p
X|Y
(2, 5000) =
P(X = 2, Y = 5000)
P(Y = 5000)
=
0.05
0.20
=
1
4
p
X|Y
(3, 5000) =
P(X = 3, Y = 5000)
P(Y = 5000)
=
0.05
0.20
=
1
4
p
X|Y
(4, 5000) =
P(X = 4, Y = 5000)
P(Y = 5000)
=
0
0.20
= 0
Os resultados obtidos podem ser vericados de forma simplicada, na tabela abaixo:
X 1 2 3 4
p
X|Y
1/2 1/4 1/4 0
Por meio da amostra escolhida, conclui-se que metade das pessoas que possuem salarios de 5000 reais, s o
tiveram um emprego e a outra metade e representada por pessoas que tiveram 2 ou 3 empregos.
Considere a distribuicao condicional de X, dado que Y = 5000, apresentada no exemplo 3.3.1. Podemos
calcular a media dessa distribuicao, a saber
E(X[Y = 5000) = 1(1/2) + 2(1/4) + 3(1/4) + 4(0).
De modo geral, dada a probabilidade condicional de P(X[Y = y), podemos calcular a esperanca dos
valores de X dado um valor de Y . Apresentamos isso na seguinte denicao:
Denicao 3.3.2 A esperanca de X, dado que Y = y
j
, e denida por
E(X[Y = y
j
) =
n
i=1
x
i
P(X = x
i
[Y = y
j
).
Uma denicao an aloga vale para E(Y [X = x
i
).
3.4 Independencia
Intuitivamente a independencia de X em rela cao a Y signica: seja qual for o valor que Y assuma, isso
nao inuencia no fato de X assumir quaisquer de seus valores .
Os conceitos envolvidos na independencia de variaveis aleatorias sao os mesmos ja vistos para eventos
independentes.
74 CAP
ORIOS DISCRETOS
Denicao 3.4.1 Dizemos que duas variaveis aleatorias X e Y sao independentes se
p
X,Y
(x, y) = p
X
(x)p
Y
(y), para todo x I
X
e y I
Y
.
Observacoes:
1. a denicao acima e equivalente a dizer que os eventos X = x e Y = y sao independentes para
todo x I
X
e todo y I
Y
.
2. relembrando que p
X|Y
(x[y) =
p
X,Y
(x, y)
p
Y
(y)
. Entao quando X e Y sao independentes temos que
p
X|Y
(x[y) =
p
X
(x) p
Y
(y)
p
Y
(y)
= p
X
(x) para todo y com p
Y
(y) > 0 e todo x.
Exemplo 3.4.1 Sejam X e Y duas variaveis aleatorias, cuja distribuicao conjunta e dada por
p
X,Y
(x, y) =
x +y
21
, x = 1, 2, 3 e y = 1, 2.
Vamos determinar se X e Y sao independentes.
Temos que vericar se p
X,Y
(x, y) = p
X
(x). p
Y
(y). O primeiro passo e encontrar as distribuicoes
marginais p
X
(x), para x = 1, 2, 3 e p
Y
(y), para y = 1, 2:
p
X
(x) =
2
y=1
p
X,Y
(x, y) =
2
y=1
x +y
21
=
x + 1
21
=
2x + 3
21
p
Y
(y) =
3
x=1
p
X,Y
(x, y) =
3
x=1
x +y
21
=
1 +y
21
+
2 +y
21
+
3 +y
21
=
6 + 3y
21
Encontrado as distribuicoes marginais de X e Y , podemos substituir valores para vericar se a igualdade
acima e satisfeita, pois se existir pelo menos um par (x, y), tal que p
X,Y
(x, y) ,= p
X
(x)p
Y
(y), X e Y nao
serao independentes.
Entao, testando para x = 1 e y = 1, temos que:
p
X,Y
(1, 1) =
2
21
,= p
X
(1)p
Y
(1) =
45
21
.
Portanto, as vari aveis aleatorias X e Y nao sao independentes.
A independencia de variaveis aleatorias implica tambem em outros resultados, um deles e mostrado na
denicao abaixo.
Lema 3.4.1 Se X e Y forem vari aveis aleatorias independentes, entao
E(XY ) = E(X)E(Y ).
A demonstracao deste lema e vista facilmente:
Suponhamos que a distribuicao conjunta de (X, Y ), seja dada por p
X,Y
(x
i
, y
j
), para i = 1, 2, . . . , n e
j = 1, 2, . . . , m, entao:
E(XY ) =
n
i=1
m
j=1
x
i
y
j
p
X,Y
(x
i
, y
j
) =
n
i=1
m
j=1
x
i
y
j
p
X
(x
i
)p
Y
(y
j
)
=
n
i=1
x
i
p
X
(x
i
)
m
j=1
y
j
p
Y
(y
j
) = E(X)E(Y ).
3.5. COVARI
ANCIA 75
3.5 Covariancia
1
Seja (X, Y ) um vetor aleatorio discreto. Vimos ate aqui que as esperancas de X e Y nos fornecem
uma medida de posicao das respectivas distribuicoes nos respectivos eixos da coordenada do plano. E as
variancias de X e de Y dao uma medida da dispersao dos valores de cada variavel aleatoria em torno das
respectivas medias E(X) e E(Y ).
A covariancia, que deniremos a seguir, fornece a medida de dispersao dos valores das variaveis
aleatorias (X, Y ) em rela cao ao ponto (E(X), E(Y )).
Denicao 3.5.1 Seja (X, Y ) um vetor aleatorio. A covariancia entre X e Y e denida por
Cov(X, Y ) = E[(X E(X))(Y E(Y ))].
Em palavras, a covariancia de X e Y e o valor medio do produto dos desvios dos valores de cada uma das
duas vari aveis aleatorias em relacao a suas medias. Isso implica que,
Cov(X, Y ) > 0 : X e Y sao positivamente correlacionadas
Cov(X, Y ) < 0 : X e Y sao negativamente correlacionadas
Cov(X, Y ) = 0 : X e Y nao sao correlacionadas
A formula da covariancia pode ser escrita de uma forma mais simples. Note que
Cov(X, Y ) = E[XY XE(Y ) Y E(X) +E(X)E(Y )]
= E(XY ) E(X)E(Y ) E(Y )E(X) +E(X)E(Y )
ou seja,
Cov(X, Y ) = E(XY ) E(X)E(Y ).
Quando escrevemos a formula da covariancia dessa maneira, ca facil entender o proximo resultado.
Lema 3.5.1 Se X e Y forem vari aveis aleatorias independentes, temos que a Cov(X, Y ) = 0.
Em palavras, se X e Y forem independentes, entao elas serao nao-correlacionadas. A recproca desse lema
nao e verdadeira, ou seja, se tivermos Cov(X, Y ) = 0 isso nao implica que X e Y sejam independentes.
Agora sabendo que X e Y sao independentes, a esperanca do produtos das variaveis e igual ao produto
das esperancas, o que torna a demonstracao do lema imediata.
3.6 Correlacao
2
E comum estarmos interessados na relacao entre duas variaveis aleatorias. Por exemplo, e razoavel
esperar uma correlacao (variacao em conjunto) entre um aumento no nvel de produ cao da economia e o
n umero de pessoas empregadas. Ou ainda, o percentual de inadimplencia dos clientes de uma institui cao
nanceira pode estar associado com as varia coes vericadas em seus nveis de renda.
Assim, a correlacao entre duas variaveis aleatorias indica a maneira como essas se movem juntas. A
medicao desse relacionamento e obtida estatisticamente por meio do coeciente de correlacao.
1
Seguindo Dantas [3]
2
Seguindo Dantas [3]
76 CAP
ORIOS DISCRETOS
Denicao 3.6.1 Seja (X, Y ) um vetor aleat orio bidimensional, denimos o coeciente de correlacao
entre X e Y como
(X, Y ) =
Cov(X, Y )
_
V ar(X). V ar(Y )
=
Cov(X, Y )
Y
.
Em palavras, o coeciente de correlacao e o quociente entre a covariancia e o produto dos desvios-padrao
de X e Y . A divisao pelo produto dos desvios-padrao tem a funcao de padronizar a medida e torna-la
possvel de ser utilizada para compara coes com outras variaveis.
O coeciente de correla cao varia entre -1 e 1, sendo interpretado em funcao do resultado e sinal esperados.
Assim, quanto mais perto de -1 situar-se o coeciente, mais negativa (inversa) sera a correlacao entre
as variaveis, isto e, quando Y diminui, X tende a elevar-se. O contrario acontece quando o coeciente
esta perto de 1. O coeciente atinge a posicao perfeitamente negativa e positiva quando o coeciente de
correlacao for exatamente igual a -1 e 1, respectivamente.
Exemplo 3.6.1 Sejam X e Y v.as que representam o preco de venda e a demanda de um produto,
respectivamente. Com base no comportamento dos valores obtidos na tabela abaixo, determine o coeciente
de correlacao entre essas duas variaveis aleatorias.
X = Preco de venda Y = Demanda
40 reais 10 unidades
48 reais 8 unidades
52 reais 7 unidades
36 reais 11 unidades
32 reais 12 unidades
De forma intuitiva podemos ver que ha uma correlac ao perfeitamente negativa entre as variaveis preco e
demanda. Um aumento de 4 reais no preco de venda (por exemplo de $32 para $36 ou de $48 para $52 )
determina uma reducao de uma unidade demandada (por exemplo, de 8 para 7 unidades e de 11 para 12
unidades), e assim por diante. Logo, (X, Y ) = 1.
Para as decisoes nanceiras a aplica cao do conceito de correla cao e de grande importancia para o processo
de reducao do risco por meio de uma diversica cao dos retornos esperados. Por exemplo, investimentos
em ativos com semelhantes coecientes de correla cao nao colaboram para a reducao do risco total, visto
que todos eles convergem para ganhos quando a situa cao economica lhes for favoravel, e para perdas em
epocas desfavoraveis.
Como o calculo do coeciente de correlacao e feito facilmente, ele vem sendo bastante utilizado,
contudo, apresenta algumas limitacoes. Uma delas e o fato do coeciente de correla cao de duas v.as
independentes ser igual a zero, mas a recproca nao ser verdadeira.
3.7 Exerccios
1. Considere um dado honesto de 6 faces. Sejam X a variavel aleatoria que assume o resultado de um
lancamento e Y a v.a que assume o n umero de caras do lancamento de X moedas honestas.
a) Encontre as distribui coes condicionais de Y dado X.
b) A partir do item a) encontre a distribuicao conjunta de X e Y .
c) A partir do item a) encontre a distribuicao marginal de Y .
3.7. EXERC
ICIOS 77
Dica: observe que a distribuicao marginal de X esta implicitamente dada no enunciado.
2. Dois dados honestos sao lancados. Seja U a variavel aleatoria que assume o valor mnimo dos
lancamentos. E seja V a variavel aleatoria que assume o valor maximo dos lancamentos.
a) Encontre a distribui cao conjunta de U e V .
b) Encontre as distribui coes condicionais de U e V .
c) A partir dos resultados obtidos no item b), encontre a distribui cao de U, supondo que voce saiba
a distribuicao marginal de V .
d) Encontre as esperan cas condicionais de U dado V .
e) A partir dos resultados obtidos em d) e supondo que a distribuicao marginal de V seja conhecida,
encontre E(U).
3. Seja o espa co de probabilidade (, T, P), e considere A e B dois eventos independentes, a partir dos
quais denimos as seguintes vari aveis aleatorias.
I
A
() =
_
_
_
1, se A,
0, se / A.
I
B
() =
_
_
_
1, se B,
0, se / B.
(a) Encontre a distribuicao de probabilidade conjunta do vetor aleatorio (I
A
, I
B
) em funcao de
P(A) e P(B).
(b) Encontre tambem a distribuicao condicional de probabilidade p
X|Y
(x[y).
4. Considere uma urna com 3 bolas numeradas de 2 a 4. Uma bola e escolhida aleatoriamente. Seja
X a variavel aleatoria que assume o n umero impresso na bola. Agora, considere um dado honesto
que e lan cado X vezes. Seja Y a variavel aleatoria que assume o n umero de vezes que sai o n umero
4. Encontre:
(a) as distribuicoes condicionais de Y dado X.
(b) a distribuicao conjunta de probabilidade de X e Y .
5. Sejam X e Y variaveis aleatorias com a seguinte distribui cao conjunta de probabilidades:
Y / X 1 2 3
1 2/36 2/36 3/36
2 1/36 10/36 3/36
3 4/36 5/36 6/36
(a) Encontre as distribui coes marginais de X e Y .
(b) X e Y sao independentes?
(c) Calcule E(X), E(Y ), V ar(X), V ar(Y )
78 CAP
ORIOS DISCRETOS
(d) Calcule E(X +Y ).
(e) Calcule Cov(X, Y ).
(f) Calcule V ar(X +Y ).
6. Sejam X e Y variaveis aleatorias com a seguinte distribuicao conjunta de probabilidades:
Y / X 0 1 2 3
1 1/8 1/16 3/16 1/8
2 1/16 1/16 1/8 1/4
(a) Encontre as distribui coes marginais de X e Y .
(b) X e Y sao independentes?
(c) Calcule E(X), E(Y ), V ar(X), V ar(Y ).
(d) Calcule E(X +Y ).
(e) Calcule Cov(X, Y ).
(f) Calcule V ar(X +Y ).
7. Lancam-se uma moeda e um dado honestos. Seja X a v.a. que conta o n umero de caras obtidas, e
seja Y o n umero de vezes que sai a face 1 do dado.
(a) Exiba o espa co amostral.
(b) Encontre a distribui cao de X.
(c) Calcule a E(X) e a V ar(X).
(d) Encontre a distribui cao de Y .
(e) Calcule a E(Y ) e a V ar(Y ).
(f) Monte a tabela de da distribuic ao conjunta de X e Y .
(g) Calcule Cov(X, Y ).
8. Considere tres moedas distintas. Para a moeda 1, a probabilidade de sair cara e 0.6. Para a moeda
2, a probabilidade de sair cara e 0.2. Para a moeda 3, a probabilidade de sair cara e 0.4. A moeda
1 e lan cada. Seja X a variavel aleat oria que assume 1 se saiu cara e 0 se saiu coroa. Agora, se saiu
cara, lance a moeda 2, e se saiu coroa, lance a moeda 3. Seja Z a variavel aleatoria que assume 1 se
saiu cara nesse segundo lancamento e 0 se saiu coroa. Encontre:
(a) as distribui coes condicionais de probabilidade da variavel aleatoria Z dado a variavel aleatoria
X.
(b) a partir das distribuicoes condicionais de Z dado X, encontre a distribuicao de probabilidade
de Z.
(c) a distribuicao de probabilidade conjunta de X e Z.
(d) a E(Z[X = 0).
3.7. EXERC
ICIOS 79
9. Considere duas variaveis aleatorias X e Y , tais que X assume os valores 1, 2, 3, e Y assume os
valores 2, 3, 4. Sabe-se que Y assume os valores 2, 3, 4 com igual probabilidade, e que E(X[Y = 2) =
E(X[Y = 3) = E(X[Y = 4) = 2. Encontre E(X).
(a) Sejam (X, Y ) um vetor aleatorio bidimensional, mostre que
a) Var(X+Y)=Var(X)+Var(Y)+ 2Cov(X,Y).
b) Var(X - Y)=Var(X)+Var(Y) - 2Cov(X,Y).
(b) Considere uma urna com tres bolas brancas e duas vermelhas. Retiram-se duas bolas da urna,
uma apos a outra, sem reposi cao. Dena a v.a X igual a 1 se a primeira bola retirada for
branca, e igual a 0 se esta for vermelha. Analogamente, dena Y igual a 1 se a segunda bola
for branca, e 0 se for vermelha.
a) Encontre a distribui cao conjunta.
b) Encontre as distribui coes marginais.
c) Graque a Covariancia.
d) Calcule Cov(X, Y ).
80 CAP
ORIOS DISCRETOS
Captulo 4
Variaveis Aleat orias Contnuas
As variaveis aleatorias contnuas assumem valores em conjuntos innitos nao-enumeraveis, tais como o
conjunto dos n umeros reais (R) ou como o intervalo [0, 1] R. A velocidade de um veculo trafegando
ao longo de uma estrada, e um exemplo de variavel aleatoria contnua. Se olharmos para um velocmetro
digital que so nos fornece alguns n umeros entre 0 e 200, podemos achar que so existem velocidades em um
conjunto nito de valores. Mas se usarmos um aparelho mais preciso que mostre exatamente a velocidade
do veculo, vamos ver que essas velocidades pertencem a um conjunto nao-enumeravel de valores, o que
caracteriza esta velocidade como sendo uma v.a contnua.
Modelos que envolvem variaveis contnuas sao bastante uteis, pois permitem uma maior precisao e o
uso de tecnicas aprendidas em cursos de calculo e que nao poderiam ser utilizadas em modelos discretos.
Uma variavel aleatoria discreta X tem a ela associada uma distribuicao de massa de probabilidade
p
X
(x). Agora no caso contnuo, quem faz o papel da distribuicao de probabilidade de X e a chamada
funcao densidade de probabilidade de X, que denotaremos por f
X
(x).
Denicao 4.0.1 Uma variavel aleatoria X e chamada de contnua se existir uma funcao f
X
, chamada
de funcao densidade de probabilidade de X, tal que f
X
(x) 0 para todo x R,
_
+
f
X
(x)dx = 1 e
P(a X b) =
_
b
a
f
X
(x)dx
para todo o intervalo [a, b] R.
Podemos dizer que uma variavel aleat oria discreta X tem a ela associada uma distribui cao de massa de
probabilidade p
X
(x), e uma v.a. contnua tem a ela associada uma funcao densidade de probabilidade
f
X
(x).
Observacoes:
(1) Note que continuamos a ter X : R.
(2)
_
b
a
f
X
(x)dx e a area do graco de f
X
(x) entre o intervalo [a, b].
(3) Para qualquer a R, P(X = a) =
_
a
a
f
X
(x)dx = 0.
(4) Por (3), sabemos que incluir ou excluir os extremos de um intervalo nao tem nenhum efeito em sua
probabilidade, ou seja,
P(a X b) = P(a < X < b) = P(a X < b) = P(a < X b).
81
82 CAP
ITULO 4. VARI
AVEIS ALEAT
ORIAS CONT
INUAS
(5) P(< X < ) =
_
+
f
X
(x)dx = 1. Gracamente falando, isso signica que a area inteira sob o
graco da funcao densidade de probabilidade deve ser igual a 1.
(6) A nao ser que ser que seja explicitado, I
X
= R.
(7)
E importante saber que apesar da funcao densidade de probabilidade ser usada para calcular probabi-
lidades de eventos, f
X
(x) nao e a probabilidade de qualquer evento particular. Ou seja , e essencial
saber que f
X
(x) pode assumir valores maiores que 1.
4.1 Esperanca e Variancia
A esperanca matematica de uma variavel aleatoria contnua e obtida de forma semelhante ao caso
discreto. Informalmente falando, troca-se apenas o somatorio pela integral e a p
X
por f(x)dx.
Denicao 4.1.1 A esperanca da variavel aleatoria contnua X, com funcao de densidade f(x), e
dada por
E(X) = =
_
xf(x)dx.
Como consequencia da denicao acima, a variancia de uma v.a X contnua tambem e calculada de
modo similar ao caso discreto. Isso acontece pois a V ar(X) e o valor esperado da v.a (X E(X))
2
.
Denicao 4.1.2 Seja X uma variavel aleatoria contnua, a variancia de X e dada por
2
=
_
(x E(X))
2
f(x)dx.
Para variaveis aleatorias contnuas tambem podemos utilizar a expressao alternativa
2
= E(X
2
) (E(X))
2
.
com E(X
2
) sendo denido por:
E(X
2
) =
_
x
2
f(x)dx.
O proximo exemplo foi retirado de Lima e Magalhaes (2005).
Exemplo 4.1.1 Arqueologos estudaram uma certa regiao e estabeleceram um modelo teorico para a
variavel C, comprimento de fosseis da regiao (em cm). Suponha que C seja uma variavel aleatoria
contnua com a seguinte func ao densidade de probabilidade:
f(c) =
_
_
1
4
(c + 1), se 0 c 2
0, caso contr ario.
Vamos encontrar E(C) e V ar(C).
Temos,
E(C) =
_
2
0
c
1
4
(c + 1) dc =
1
4
c
3
3
2
0
+
1
4
c
2
2
2
0
=
2
3
+
1
2
=
7
6
.
4.2. PRINCIPAIS VARI
AVEIS ALEAT
ORIAS CONT
INUAS 83
Para encontrar a variancia precisamos primeiramente calcular a E(C
2
):
E(C
2
) =
_
2
0
c
2
1
4
(c + 1) dc =
1
4
c
4
4
2
0
+
1
4
c
3
3
2
0
= 1 +
2
3
=
5
3
.
Portanto, obtemos
V ar(C) = E(C
2
) (E(C))
2
=
5
3
49
36
=
11
36
cm
2
.
Assim como foi mostrado para variaveis aleatorias discretas, temos uma formula especca para calcular
a esperanca de v.as contnuas nao negativas.
Suponha que X seja uma variavel aleatoria contnua e nao negativa. Entao
E(X) =
_
0
P(X > x)dx
E(X
2
) = 2
_
0
x P(X > x)dx.
A demonstra cao nesse caso, se baseia na teoria de integracao por partes do Calculo, e por isto sera omitida.
4.2 Principais Variaveis Aleatorias Contnuas
1
Vimos que, para caracterizar completamente uma variavel aleatoria contnua, precisamos fornecer sua
funcao densidade de probabilidade. A seguir apresentamos algumas das principais variaveis aleatorias
contnuas, distinguveis por suas respectivas funcoes densidades de probabilidade.
4.2.1 Variavel Aleat oria Uniforme
Denicao 4.2.1 Uma variavel aleatoria X tem distribuicao uniforme contnua no intervalo [a, b], com
a < b, se sua funcao densidade de probabilidade for denida por:
f(x) =
_
_
1
b a
, a x b,
0, caso contr ario.
Para representar que X tem distribuic ao uniforme no intervalo [a, b], usamos a notacao X U[a, b].
Exemplo 4.2.1 Seja X a variavel aleatoria que representa o tempo de voo de um aeroplano viajando
de Chicago ate Nova York. Suponha que o tempo de voo possa ser qualquer valor no intervalo [120, 140],
o que caracteriza X como uma v.a contnua. Vamos assumir que existem dados de voo sucientes para
concluir que o que acontece em dois ou mais intervalos de tempo de mesmo tamanho, acontece com a
mesma probabilidade. A v.a X apresenta a seguinte funcao densidade de probabilidade:
f(x) =
_
_
c , para 120 c 140
0, caso contr ario.
1
Seguindo Magalhaes e Lima [7]
84 CAP
ITULO 4. VARI
AVEIS ALEAT
ORIAS CONT
INUAS
Vamos encontrar c.
Usando que
_
+
_
1
7
, se 5 x 2
0, caso contrario.
a) Qual e a probabilidade de X [0.5, 1.5]?
P(0.5 X 1.5) =
_
1.5
0.5
1
7
dx =
1
7
x
1.5
0.5
=
2
7
.
b) Qual e a probabilidade de X [10, 4.5]?
P(10 X 4.5) =
_
5
10
0 dx +
_
4.5
5
1
7
dx = x
1
7
4.5
5
=
1
14
.
Esperanca e Variancia:
De maneira geral, se X tiver distribuicao uniforme no intervalo [a, b], vamos mostrar que
E(X) =
a +b
2
e V ar(X) =
(b a)
2
12
.
Prova:
E(X) =
_
b
a
x
1
b a
dx =
1
b a
x
2
2
b
a
=
b
2
a
2
2(b a)
=
a +b
2
.
Agora para calcular V ar(X), temos que obter E(X
2
) :
E(X
2
) =
_
b
a
x
2
1
b a
dx =
1
b a
x
3
3
b
a
=
b
3
a
3
3(b a)
=
b
2
+ab +a
2
3
.
Logo,
V ar(X) = E(X
2
) (E(X))
2
=
b
2
+ab +a
2
3
_
a +b
2
_
2
=
(b a)
2
12
.
4.2.2 Variavel Aleat oria Exponencial
O modelo exponencial e um bom modelo para representar o tempo que se leva para completar determinada
tarefa, o tempo de vida de um material, e situacoes semelhantes. Por exemplo, o tempo para um cliente
ser atendido numa la de banco, o tempo que um passageiro espera no ponto de onibus ou o tempo de
vida de uma lampada.
Denicao 4.2.2 Uma variavel aleatoria X tem distribuicao exponencial com parametro se sua funcao
densidade de probabilidade for da forma:
f(x) = e
x
, para x 0, 0.
4.2. PRINCIPAIS VARI
AVEIS ALEAT
ORIAS CONT
INUAS 85
Usamos X Exp(), para denotar que X segue o modelo exponencial com parametro .
Exemplo 4.2.3 Seja T uma v.a com distribuic ao exponencial de parametro 1/2. Se T representa o tempo
de vida de uma lampada, qual e a probabilidade dessa lampada durar:
1. menos do que 3 unidades de tempo ?
2. pelo menos 4 unidades de tempo ?
3. entre 1 e 4 unidades de tempo ?
1. P(T < 3) =
1
2
_
3
0
e
x/2
dx = e
x/2
3
0
= e
3/2
1.
2. P(T 4) =
1
2
_
4
e
x/2
dx = e
x/2
4
= e
2
.
3. P(1 T 4) =
1
2
_
4
1
e
x/2
dx = e
x/2
4
1
= e
2
e
1/2
.
Esperanca e Variancia:
Se X tiver distribuicao exponencial, vamos mostrar que
E(X) =
1
e V ar(X) =
1
2
.
Prova:
Sabemos que para x 0,
E(X) =
_
0
P(X > x) dx.
Entao, seja X uma v.a exponencial temos que
P(X > x) =
_
x
f(x)dx =
_
x
e
x
dx = e
x
x
= e
x
,
portanto,
E(X) =
_
0
e
x
dx =
e
x
0
=
1
.
Agora para determinar V ar(X) temos que antes encontrar, E(X
2
):
E(X
2
) = 2
_
0
x P(X > x) dx = 2
_
0
xe
x
dx
=
2
_
0
x e
x
dx =
2
E(X) =
2
2
.
Logo,
V ar(X) = E(X
2
) (E(X))
2
=
2
2
1
2
=
1
2
.
Exemplo 4.2.4 Considere o tempo que se leva para carregar um caminhao na doca de carregamento da
COSIPA em Santos. Se o tempo medio de carregamento e 15 minutos, qual e a probabilidade do caminhao
ser carregado em menos de dez minutos?
O tempo medio de carregamento e 15 minutos, o que implica que, =
1
15
. Logo
P(X 10) =
_
10
0
1
15
e
x/15
dx = e
x/15
10
0
= 1 e
3/2
= 0, 78.
86 CAP
ITULO 4. VARI
AVEIS ALEAT
ORIAS CONT
INUAS
4.2.3 Variavel Aleat oria Normal
Denicao 4.2.3 Dizemos que uma variavel aleatoria contnua X tem distribuicao normal, com parametros
e
2
, se sua funcao densidade for dada por:
f(x) =
1
2
e
(x)
2
2
2
, para x, R e > 0.
Usaremos X N(,
2
) para indicar que X tem distribuicao normal com parametros e
2
.
A seguir temos algumas propriedades da funcao densidade normal:
1. f(x) e simetrica em rela cao `a .
2. f(x) 0 quando x .
3. o valor maximo de f(x) se da quando x = .
Temos que e um parametro de localizacao da distribui cao normal, mais especicamente do eixo de
simetria de f. Ja
2
e uma medida de largura da distribui cao normal. Pode-se ainda vericar que e
2
representam, respectivamente, a esperanca e a variancia da distribui cao. Isto e, seja X uma v.a com
distribui cao normal, temos que
E(X) = e V ar(X) =
2
.
No calculo de probabilidades para variaveis contnuas, devemos resolver a integral da fun cao densidade
no intervalo de interesse, isto e,
P(a X b) =
_
b
a
1
2
e
(x)
2
2
2
dx.
No entanto, a integral acima so pode ser resolvida de modo aproximado e com ajuda de metodos numericos.
Por essa raz ao o calculo de probabilidades para o modelo normal e feito com o auxlio de tabelas. Para
facilitar os c alculos e evitar a multiplicac ao desnecessaria de tabelas para cada par de valores (,
2
),
utiliza-se uma transformacao que conduz sempre ao calculo de probabilidades com uma v.a. X com
distribui cao normal de parametros = 0 e
2
= 1, chamada de v.a. com distribui cao Normal Padrao,
como veremos abaixo.
Padronizacao da distribuicao normal
Uma propridade util da distribuicao normal e a seguinte. Suponha que a variavel X tenha uma distribuicao
normal com com parametros (
0
,
2
0
) arbitrarios. Se Z for a variavel aleatoria obtida de X segundo a
transformacao
Z =
X
0
0
,
denominda padroniza cao de X, entao Z tem distribui cao normal padrao com parametros
0
= 0 e
2
0
= 1.
A notacao usada para representar uma normal padrao e
X N(
0
,
2
0
) Z N(0, 1).
Pelas propriedades do valor esperado e da variancia, segue que
E(Z) = E
_
X
0
0
_
=
1
0
E(X
0
) =
1
0
[E(X)
0
] = 0,
4.2. PRINCIPAIS VARI
AVEIS ALEAT
ORIAS CONT
INUAS 87
V ar(Z) = V ar
_
X
0
0
_
=
1
2
0
V ar(X
0
) =
1
2
0
V ar(X) = 1.
Com isto, as probabilidades de X podem ser obtidas de Z da seguinte maneira. Para todo x
1
, x
2
R,
P(x
1
< X < x
2
) = P(z
1
< Z < z
2
),
com z
i
= (x
i
0
)/
0
, i = 1, 2.
Propriedades da distribuicao normal padrao:
1. A funcao densidade de uma v.a com distribui cao normal padrao, e dada por
f(x) =
1
2
e
x
2
/2
, x R.
2. A funcao densidade de uma v.a com distribuicao normal padrao e simetrica em torno da origem,
isto e _
z
f(x)dx =
_
z
f(x)dx.
3. Em termos de probabilidade a igualdade do item (2) ca da seguinte forma,
P(Z < z) = P(Z > z).
4. Seja a funcao : R [0, 1], tal que para z R
(z) = P(Z < z).
Entao se, a < b
P(a < Z < b) = (b) (a).
Valores de (z) sao tabelados para diversos valores de z. Os valores de z sao so positivos, mas isso
e suciente, pois
(z) = P(Z > z) = 1 P(Z < z) = 1 (z),
onde a complementaridade foi usada na segunda igualdade.
Como usar a tabela da Distribuicao Normal.
Como vimos anteriormente, para que possamos calcular a probabilidade de uma variavel aleatoria com
distribui c ao normal, e necessario resolver a integral da fun cao de densidade no intervalo de interesse.
Porem, como aprendemos nas disciplinas de Calculo, essa integral so pode ser obtida com a utiliza cao de
metodos n umericos. Por esse motivo construiu-se uma tabela com todos os valores de probabilidade de
uma vari avel aleatoria Z com distribuicao normal padrao.
Alem da tabela apresentar facil utilizacao, a partir dela podemos obter as probabilidades de qualquer
v.a com distribui cao normal. Isso acontece, porque conseguimos transformar uma v.a que segue o modelo
normal com quaisquer valores de e
2
em uma v.a normal com = 0 e
2
= 1, ou melhor, em uma v.a
normal padrao.
A tabela a seguir retorna a probabilidade da variavel aleatoria Z estar entre 0 e um n umero z qualquer,
ou seja, P(0 Z z):
88 CAP
ITULO 4. VARI
AVEIS ALEAT
ORIAS CONT
INUAS
Figura 4.1: Tabela da Distritibui cao Normal
As linhas indicam a unidade e a primeira casa decimal de z e a coluna indica a segunda casa decimal de
z. Os valores no interior da tabela referem-se as areas (probabilidades) entre 0 e o valor z correspondente.
Por exemplo, a linha com 1,9 e a coluna com 0,06 indica o valor z = 1,96 e o valor 0,4750 = 47,50%,
obtido da intersec cao da linha 1,9 com a coluna 0,06, indica a area entre z = 0 e z = 1,96. Ou seja, dado
o valor z encontra-se a probabilidade entre 0 e z.
A partir da tabela da distribuicao normal tambem podemos encontrar a P(Z z). Para isso usamos
a propriedade de simetria da curva normal. Por exemplo, se estamos interessados em descobrir a P(Z
1, 96), basta somarmos 0,5 `a probabilidade de Z estar entre 0 e 1, 96. Simplicando,
P(Z 1, 96) = 0, 5 +P(0 Z 1, 96) = 0, 5 + 0, 4750 = 0, 9750.
A seguir apresentamos alguns exemplos para o uso da tabela.
Exemplo 4.2.5 Seja Z uma v.a com distribuicao normal padrao, vamos encontrar a P(Z 0, 54).
4.2. PRINCIPAIS VARI
AVEIS ALEAT
ORIAS CONT
INUAS 89
Com o auxlio da tabela, temos que
P(Z 0, 54) = 0, 5 +P(0 Z 0, 54) = 0, 5 + 0, 2054 = 0, 7054
Portanto, a probabilidade de Z ser menor ou igual a z = 0, 54 e de 0, 7054 ou de 70, 54%.
No proximo exemplo vamos demonstrar como determinar a probabilidade de uma v.a normal padrao ser
menor do que um valor z < 0.
Exemplo 4.2.6 Considere uma vari avel aleatoria Z com distribuicao normal padrao. Vamos determinar
a probabilidade de Z ser menor que z = 1, 7, ou seja, a P(Z 1, 7).
Temos que,
P(Z 1, 7) = P(Z 1, 7) = 1 P(Z 1, 7)
A partir da tabela da normal, obtemos que
P(Z 1, 7) = 1 P(Z 1, 7) = 1 [0, 5 + 0, 4554] = 0, 0446
Logo, a probabilidade de Z ser menor que o valor z = 1, 7 e de aproximadamente 4, 46%.
Exemplo 4.2.7 Considerando novamente Z como sendo uma v.a com distribuicao normal padrao, vamos
agora determinar a probabilidade de Z estar entre z = 1 e z = 0, 5.
Temos que,
P(1 Z 0, 5) = P(Z 0, 5) P(Z 1)
tal que
P(Z 0, 5) = 0, 5 + 0, 1915 = 0, 6915
P(Z 1) = 1 P(Z 1) = 1 [0, 5 + 0, 3413] = 0, 1587
Portanto, o resultado e dado por P(1 Z 0, 5) = 0, 6915 0, 1587 = 0, 5328.
Exemplo 4.2.8 Seja X uma variavel aleatoria que representa o PIB de um pas A, com X N(500, 50),
tal que sua media e variancia s ao calculadas em bilhoes de dolares. A partir desses dados, vamos calcular
a probabilidade de X estar entre 500 e 600 bilhoes de dolares.
A transformacao dessa distribuicao normal para uma distribuicao normal padrao, e feita pela relacao:
Z =
X
X
X
Assim,
P(500 X 600) = P
_
500 500
50
Z
600 500
50
_
= P(0 Z 2) = 0, 4772.
Portanto, a probabilidade do PIB do pas A estar entre 500 e 600 bilhoes de dolares e de aproximada-
mente 47, 72%.
Vamos terminar essa se cao com uma propriedade muito importante do modelo normal, porem a sua
prova ser a omitida:
A combinacao linear de variaveis normais independentes, tambem tera distribuicao normal. Em outras
palavras, se X
1
, X
2
, . . . , X
n
formam uma sequencia de variaveis aleatorias N(
i
,
2
i
) independentes e
90 CAP
ITULO 4. VARI
AVEIS ALEAT
ORIAS CONT
INUAS
a
1
, a
2
, . . . , a
n
, sao constantes quaisquer, entao W =
n
i=1
a
i
X
i
tera distribui cao normal. Seus parametros
sao determinados a partir das propriedades da media e da variancia, ou seja,
W
= E(
n
i=1
a
i
X
i
) =
n
i=1
E(a
i
X
i
) =
n
i=1
a
i
E(X
i
) =
n
i=1
a
i
i
,
2
W
= V ar(
n
i=1
a
i
X
i
) =
n
i=1
V ar(a
i
X
i
) =
n
i=1
a
2
i
V ar(X
i
) =
n
i=1
a
2
i
2
i
.
Este resultado amplia, consideravelmente, o uso da distribui cao normal, conforme pode ser notado no
exemplo a seguir, retirado de Lima e Magalhaes (2005), p. 192.
Exemplo 4.2.9 Uma corretora negocia ttulos na Bolsa de Valores e utiliza um modelo probabilstico
para avaliar seus lucros. Suas aplicacoes nanceiras de compra e venda atingem tres areas: agricultura,
ind ustria e comercio. Admita que o seguinte modelo representa o comportamento do lucro diario da
corretora ( em milhares de reais):
L = 2L
A
+ 5L
I
+ 3L
C
,
com L
A
, L
I
e L
C
representando, respectivamente, os lucros diarios nos setores de agricultura, ind ustria e
comercio. As distribuicoes de probabilidade dessas variaveis aleat orias sao L
A
N(3, 4), L
I
N(6, 9) e
L
C
N(4, 16). Supondo independencia entre os tres setores, qual sera a probabilidade de um lucro diario
acima de 50 mil?
A variavel L e uma combinacao linear de normais independentes, logo possui distribuicao normal com
parametros
L
= 2.(3) + 5.(6) + 3.(4) = 48,
2
L
= 2
2
.(4) + 5
2
.(9) + 3
2
.(16) = 385.
Entao L N(48, 385) e, portanto,
P(L > 50) = P
_
Z >
50 48
385
_
= P(Z > 0.10) = 0, 4602,
indicando uma alta probabilidade de lucros superiores a 50 mil.
4.3 Funcao de distribuicao
Para caracterizar uma variavel aleatoria, podemos usar tanto a funcao de distribui cao F(x), como a
distribui cao de massa de probabilidade e a funcao densidade de probabilidade, para o caso discreto e
contnuo, respectivamente. Usar a fun cao de distribuicao ou a distribui cao de probabilidade e a fun cao
de densidade e uma questao de conveniencia. Vamos ver isso na deni cao a seguir, que nos mostra que se
tivermos a fun cao de distribuicao conseguimos recuperar a fun cao de densidade de probabilidade.
Denicao 4.3.1 A funcao de distribuicao de uma variavel aleatoria X contnua e denida em termos da
f
X
(x), como
F
X
(x) = P(X x) =
_
x
f
X
(x) dx, x R,
tal que,
f
X
(x) =
dF
X
(x)
dx
.
4.4. FUNC
AO GERADORA DE MOMENTOS 91
Exemplo 4.3.1 Seja X uma variavel aleat oria contnua com distribuicao exponencial, sendo F
X
(t) =
1 e
t
a sua funcao de distribuicao, determine f
X
(t).
f
X
(t) =
dF
X
(t)
dt
=
d(1 e
t
)
dt
= e
t
.
Logo
f(x) =
_
_
e
t
, para t 0
0, caso contr ario.
4.4 Funcao Geradora de Momentos
Nesta sec ao vamos apresentar o conceito de funcao geradora de momentos, alem de exemplos para ilustrar
a sua utilizacao. Embora nao intuitiva, a fun cao geradora de momentos e muitas vezes conveniente para
certos tipos de manipulacoesmatematicas. Tambem veremos que com o auxilio da funcao geradora de
momentos, conseguimos obter a esperan ca e a variancia de uma variavel aleatoria.
Denicao 4.4.1 A funcao geradora de momentos de uma vari avel aleatoria X, que denotaremos por
M(t), e denida matematicamente por:
M(t) = E(e
tX
),
para todo t R.
Entao, seja X uma variavel aleatoria discreta, a funcao geradora de momentos de X, e denida por
M(t) =
i=1
e
txi
P(X = x
i
).
Exemplo 4.4.1 Seja X uma variavel aleatoria, tal que
P(X = 0) = 1 p, P(X = 1) = p,
vamos determinar a funcao geradora de momentos de X.
Temos que
M(t) = E(e
tX
) = e
t.0
P(X = 0) +e
t.1
P(X = 1) = 1 p +e
t
p.
Portanto, a func ao geradora de X e 1 p +e
t
p.
Quando X for uma variavel aleatoria contnua com funcao densidade de probabilidade f(x), a funcao
geradora de momentos de X, e denida por
M(t) =
_
e
tx
f(x)dx.
Exemplo 4.4.2 Seja X uma variavel aleatoria contnua com funcao densidade:
f(x) =
_
e
x
x 0
0 x < 0.
92 CAP
ITULO 4. VARI
AVEIS ALEAT
ORIAS CONT
INUAS
Vamos determinar a func ao geradora de momentos de X.
Temos que
M(t) = E(e
tx
) =
_
0
e
tx
(e
x
)dx =
_
0
e
(t)x
dx
=
_
e
(t)x
( t)
_
0
=
t
, para t < .
Portanto, a func ao geradora de momentos de X e
t
, para t < .
A razao pelo nome alternativo e que possuindo a funcao geradora de momentos, conseguimos calcular
facilmente os momentos de uma variavel aleatoria.
Denicao 4.4.2 Seja X uma variavel aleatoria. A esperanca de X
k
e denominada momento da v.a X
ou k-esimo momento de X, para k = 1, 2, 3, . . ..
Para demonstrarmos isto, vamos considerar a denicao de fun cao geradora de momentos para uma v.a
contnua.
Seja X uma v.a contnua, com fun cao geradora de momentos dada por
M(t) =
_
e
tx
f(x)dx.
Se derivarmos em rela cao a t os dois lados da equacao acima, obtemos:
d
dt
M(t) =
_
xe
tx
f(x)dx.
Essa derivada vale para todo valor de t. Ao considerarmos o caso especial t = 0, temos:
M
(0) =
_
xf(x)dx = E(X).
Calculando-se a segunda derivada de M(t), tem-se:
d
2
dt
2
M(t) =
_
x
2
e
tx
f(x)dx.
O valor dessa derivada no ponto t = 0 e:
M
(0) =
_
x
2
f(x)dx = E(X
2
).
Assim, repetindo esses mesmo passos, para k = 3, 4, . . ., obtemos:
M
(k)
(0) = E(X
k
).
em que M
(k)
(0) representa a derivada de ordem k da funcao M(t) no ponto zero.
Portanto, obtemos que
E(X) = M
(0),
V ar(X) = M
(0) (M
(0))
2
.
4.4. FUNC
AO GERADORA DE MOMENTOS 93
Exemplo 4.4.3 Seja X Poisson (). Vamos calcular E(X) e V ar(X) com base na funcao geradora
de momentos.
Primeiramente, temos que encontrar M(t):
M(t) = E(e
tx
) =
x=0
e
tx
P(X = x) =
x=0
e
tx
e
x
x!
=
x=0
e
(e
t
)
x
x!
= e
x=0
(e
t
)
x
x!
= e
e
e
t
= e
(e
t
1)
.
Derivando M(t), obtemos
M
(t) = e
(e
t
1)
e
t
.
Portanto, a esperanca de X e
E(X) = M
(0) = e
(e
0
1)
e
0
= .
Agora para calcular V ar(X), temos que obter M
(t):
M
(t) = e
t
(e
t
e
(e
t
1)
) +e
t
(e
(e
t
1)
).
Substituindo t por zero, obtemos
M
(0) =
2
+.
Portanto a V ar(X) e denida por
V ar(X) = M
(0) (M
(0))
2
=
2
+ ()
2
= .
Entao obtemos que, E(X) = e V ar(X) = .
Exemplo 4.4.4 Seja X uma v.a com distribuicao normal. Vamos determinar E(X) e V ar(X), com base
na funcao gereadora de momentos.
A funcao densidade da v.a X e
f
X
(x) =
1
2
e
{
(x)
2
2
2
}
.
Logo,
M(t) =
_
e
tx
1
2
e
{
(x)
2
2
2
}
=
1
2
_
e
{tx
(x)
2
2
2
}
dx.
Vamos deixar o calculo de M(t) mais simples. Para isso, vamos desenvolver a seguinte expressao
_
tx
(x )
2
2
2
_
Temos que
2
2
tx (x )
2
= 2
2
tx (x
2
2x +
2
) = x
2
2x 2
2
tx +
2
2
2
2
t
4
t
2
= x ( +
2
t)
2
2
2
t
4
t
2
94 CAP
ITULO 4. VARI
AVEIS ALEAT
ORIAS CONT
INUAS
Portanto, M(t) ca
M(t) =
1
2
_
e
{
[x(+
2
t)]
2
2
2
}
e
{
2
2
t+
4
t
2
2
2
}
.
Tomando,
y =
x ( +
2
t)
dy =
dx
,
temos que
M(t) = e
{t+
2
t
2
2
}
1
2
_
e
(y/2)
2
dy = exp
_
t +
2
t
2
2
_
.
Entao
M
(t) =
_
+
2
2
t
2
2
_
exp
_
t +
2
t
2
2
_
.
O que implica que E(X) e
E(X) = M
(0) = e
0
= .
Agora vamos obter V ar(X). Temos que
M
(t) =
2
exp
_
t +
2
t
2
2
_
+ ( +
2
t)
_
+
2
2
t
2
2
_
exp
_
t +
2
t
2
2
_
M
(0) =
2
+
2
= E(X
2
).
Portanto,
V ar(X) =
2
+
2
2
=
2
.
Entao, obtemos que E(X) = e V ar(X) =
2
.
Exemplo 4.4.5 Seja X uma variavel aleatoria com distribuicao exponencial, com parametro . Vamos
calcular E(X) e V ar(X) com base na fun cao geradora de momentos.
Primeiramente temos que encontrar a fun cao geradora de momentos de X:
M(t) = E(e
tx
) =
_
e
tx
e
x
dx =
_
0
e
(t)x
dx
=
_
0
e
(t)x
dx =
e
(t)x
( t)
0
=
t
.
Derivando M(t), e depois fazendo t = 0, encontramos E(X):
M
(t) =
( t)
2
Portanto,
E(X) = M
(0) =
1
.
Agora vamos encontrar a variancia de X. Para isso, usaremos a seguinte formula
V ar(X) = E(X
2
) (E(X))
2
= M
(0) (M
(0))
2
.
Entao derivando M(t) duas vez e substituindo t por zero, obtemos
M
(t) =
2
2
2t
( t)
4
M
(0) =
2
2
.
Logo,
V ar(X) =
2
2
1
2
=
1
2
.
Entao temos que, E(X) =
1
e V ar(X) =
1
2
.
4.5. EXERC
ICIOS 95
4.4.1 Propriedades
1. Funcao geradora de momentos para uma funcao linear.
Seja M
X
(t) a funcao geradora de momentos associada a variavel aleatoria X. Considerando uma
nova variavel aleatoria Y = aX +b, temos que a funcao geradora de momentos de Y e
M
Y
(t) = E[e
t(aX+b)
] = e
tb
E[e
tax
] = e
tb
M
X
(ta).
Por exemplo, se X for uma variavel aleatoria exponencial com parametro = 1, tal que M
X
(t) =
1
1 t
e Y = 2X + 3, entao
M
Y
(t) = e
3t
1
1 2t
.
2. Soma de variaveis aleatorias independentes.
Sejam X e Y variaveis aleatorias independentes, e seja W = X+Y . A fun cao geradora de momentos
de W, e denida por
M
W
(t) = E(e
tW
) = E(e
t(X+Y )
) = E(e
tX
e
tY
).
Como X e Y sao independentes, e
tX
e e
tY
sao variaveis aleatorias independentes. Sabemos entao
que a esperanca do produto e o produto das esperan cas, logo
M
W
(t) = E(e
tX
)E(e
tY
) = M
X
(t)M
Y
(t).
Generalizando, temos que se X
1
, . . . , X
n
sao v.as independentes e W = X
1
+. . . +X
n
, entao
M
W
(t) = M
X1
(t) +. . . +M
Xn
(t).
Por exemplo, sejam X
1
, . . . , X
n
variaveis aleatorias independentes de Bernoulli, com parametro p.
Como vimos,
M
Xi
(t) = (1 p)e
0t
+pe
1t
= 1 p +pe
t
, para i = 1, . . . , n.
Entao, temos que W = X
1
+. . . +X
n
e uma variavel aleatoria binomial com parametros n e p, em
que sua fun cao geradora de momentos e dada por
M
W
(t) = (1 p +pe
t
)
n
.
4.5 Exerccios
1. Sabe-se que a v.a. X esta uniformemente distribudada entre 1.0 e 1.5
(a) Encontre f
X
(x), a funcao densidade de probabilidade de X, e fa ca o seu graco.
(b) Encontre F(x), a fun cao de distribui cao de X, e fa ca o seu graco.
(c) Calcule P(X = 1.25).
(d) Calcule P(1.0 X 1.25).
(e) Calcule P(1.20 X 1.5).
(f ) Encontre E(X).
(g) Encontre V ar(X).
96 CAP
ITULO 4. VARI
AVEIS ALEAT
ORIAS CONT
INUAS
2. A maioria das linguagens de computador tem uma fun cao que pode ser usada para gerar n umeros
aleatorios. No Excel, a fun cao RAND pode ser usada para gerar n umeros aleatorios entre 0 e 1. Se
X denota um n umero aleatorio gerado, entao X e uma variavel aleatoria contnua com a seguinte
fun cao densidade de probabilidade.
f
X
(x) =
_
_
_
1, para 0 x 1
0, caso contrario.
(a) Fa ca o graco da fun cao densidade de probabilidade de X.
(b) Qual e a probabilidade de se gerar um n umero aleatorio entre 0.25 e 0.75?
(c) Qual e a probabilidade de se gerar um n umero aleatorio com valor menor ou igual a 0.30?
(d) Qual e a probabilidade de se gerar um n umero aleatorio com valor maior que 0.60?
(e) Encontre E(X).
(f ) Encontre V ar(X).
3. Seja X uma variavel aleatoria uniformemente distribuda no intervalo [0, 1]. Considere a variavel
aleatoria Y = g(X), onde
g(x) =
_
_
_
1, se x 1/3
2, se x > 1/3
Encontre o valor esperado de Y de duas formas diferentes e depois compare.
(a) Encontre a f.d.p. de Y e calcule E(X)
_
yf
Y
(y)dy
(b) Encontre o valor esperado de Y usando a f.d.p. de X.
4. Seja X uma variavel aleatoria com a seguinte f.d.p.
f
X
(x) =
2
e
|x|
,
onde e um escalar positivo.
(a) Verique que se
_
f
X
(x)dx = 1.
(b) Encontre E(X).
(c) Encontre V ar(X).
5. Considere uma variavel aleatoria X que tem a seguinte funcao densidade de probabilidade exponen-
cial,
f
X
(x) =
1
8
e
x/8
(a) Fa ca o graco da fun cao densidade de probabilidade de X.
(b) Calcule P(X 2).
(c) Calcule P(X 3).
(d) Calcule P(X 5).
(e) Calcule P(2 X 5).
(f ) Encontre a fun cao de distribui c ao F(x) a partir da f
X
.
4.5. EXERC
ICIOS 97
(g) Encontre a fun cao geradora de momentos de X.
(h) Encontre E(X).
(i) Encontre V ar(X).
6. Se Z for N(0, 1), encontre
(a) P(0.53 < Z 2.06),
(b) P(0.79 Z 1.52),
(c) P(2.63 < Z 0.51),
(d) P(Z > 2.89),
(e) P([Z[ < 1.96),
(f ) P([Z[ < 1),
(g) P([Z[ < 2),
(e) P([Z[ < 3).
(h) Encontre a fun cao geradora de momentos de Z.
(i) Encontre E(Z).
(j) Encontre V ar(Z).
7. Se Z tiver distribui cao normal de probabilidade com media igual a 6 e variancia igual a 25, encontre
(a) P(6 Z 12),
(b) P(0 Z 8),
(c) P(2 < Z 0),
(d) P(Z > 21),
(e) P([Z 6[ < 5),
(f ) P([Z 6[ < 10),
(g) P([Z 6[ < 15),
(h) Encontre a fun cao geradora de momentos de Z.
(i) A partir da fun cao geradora de momentos de Z, verique se E(Z) = 6.
(j) A partir da fun cao geradora de momentos de Z, verique se V ar(X) = 25.
8. Se a fun cao geradora de momentos de Z for M(t) = e
6t+32t
2
, encontre
(a) P(4 Z < 16),
(b) P(10 < Z 0).
9. Se Z for N(650, 625), encontre
(a) P(600 Z < 660),
(b) a constante c tal que P([Z 650[ c) = 0.9544.
10. Doentes sofrendo de certa molestia sao submetidos a um tratamento intensivo, cujo o tempo de cura
foi modelado por uma normal X N(15, 4).
98 CAP
ITULO 4. VARI
AVEIS ALEAT
ORIAS CONT
INUAS
(a) Qual a proporcao desses pacientes que demoram mais de sete dias para se recuperar?
(b) Qual a probabilidade de um paciente, escolhido ao acaso, apresentar tempo de cura inferior a
vinte dias?
(c) Qual o tempo maximo necessario para a recuperacao de 25% dos pacientes?
11. Suponha que certo fundo m utuo tenha uma taxa anual de retorno que seja, aproximadamente,
normalmente distribuda, com media 10% e desvio-padrao 4%. Use a tabela da distribuicao normal.
(a) Ache a probabilidade de seu retorno de um ano ser negativo.
(b) Ache a probabilidade de seu retorno de um ano exceder 15%.
(c) Se os gestores de fundos m utuos modicarem a composicao de suas carteiras, poderao elevar
seu retorno anual medio a 12%, mas isso elevara tambem o desvio-padrao dos retornos a 5%.
Responda as partes a) e b) de acordo com essas decisoes. O leitor aconselharia os gestores de
fundos a fazerem essa mudan ca na carteira?
12. A f.d.p. de uma variavel aleatoria X e dada por
f
X
(x) =
_
_
1/3, se 0 < x < 1
2/3, se 1 < x < 2
0, caso contrario.
Encontre a F
X
(x) e fa ca um graco de F
X
(x) e f
X
(x).
13. Seja X uma variavel aleatoria contnua com f.d.p.
f
X
(x) =
_
_
_
k x, para 0 < x < 1,
0, caso contrario,
onde k e uma constante.
(a) Determine o valor de k e faca o graco de f
X
(x).
(b) Encontre F(x), a fun cao de distribui cao de X, e fa ca seu graco.
(c) Calcule P(1/4 < X 2).
Captulo 5
Vetores Aleatorios Contnuos
5.1 Introducao
Para desenvolver
1
a teoria de v.as contnuas multidimensionais, vamos utilizar um vetor aleatorio bidi-
mensional para facilitar os calculos.
Denicao 5.1.1 Uma funcao f(x, y) denida para < x < , < y < , nao-negativa e
satisfazendo a condicao
_
f(x, y)dx dy = 1,
e denominada uma funcao densidade de probabilidade do vetor aleatorio (X, Y ), se para todo subconjunto
B de pontos do R
2
tivermos
P[(X, Y ) B] =
_ _
B
f(x, y)dx dy.
Seja (x, y) um ponto do plano e consideremos um retangulo de lado x e y construdo a partir do ponto
(x, y). A probabilidade de que (X, Y ) perten ca a esse retangulo e aproximadamente igual ao volume do
paraleleppedo de lados x e y, cuja altura e f(x, y), ou seja
P(x < X x +x, y < Y y +y) f(x, y) x y.
Observacao: O valor exato dessa probabilidade e igual ao volume da gura delimitada pela funcao
f(x, y) e pelo retangulo de lado x e y, que e igual `a integral dupla de f(x, y) nesse retangulo.
5.2 Densidades Marginais
Denicao 5.2.1 Se tivermos a funcao densidade de probabilidade f(x, y), do vetor aleatorio (X, Y ),
podemos recuperar as suas densidades marginais
f
X
(x) =
_
f(x, y)dy
e
f
Y
(y) =
_
f(x, y)dx.
1
Seguindo Dantas [3]
99
100 CAP
ORIOS CONT
INUOS
Exemplo 5.2.1 Seja (X, Y ) um vetor aleatorio, cuja func ao densidade de probabilidade e dada por
f(x, y) =
_
_
3
80
(x
2
+xy), se 0 x 2 e 0 y 4
0, caso contr ario.
a) Mostre que f(x, y) e uma funcao densidade de probabilidade.
b) Encontre a densidade marginal de X.
c) Encontre a densidade marginal de Y .
a)
f(x, y) =
_
2
0
_
4
0
3
80
(x
2
+xy) dxdy =
3
80
_
2
0
dx
_
4
0
(x
2
+xy) dy
=
3
80
_
2
0
dx
_
x
2
y +x
y
2
2
_
4
0
=
3
80
_
2
0
dx
_
4x
2
+ 8x
_
=
3
80
_
2
0
(4x
2
+ 8x) dx =
3
20
_
2
0
(x
2
+ 2x) dx
=
3
20
_
x
3
3
+
2x
2
2
_
2
0
=
3
20
_
8
3
+ 4
_
=
3
20
20
3
= 1.
Como f(x, y) = 1, esta provado que f(x, y) e uma funcao densidade de probabilidade.
b)
f
X
(x) =
_
4
0
f(x, y) dy =
3
80
_
4
0
(x
2
+xy)dy =
3
80
_
yx
2
+x
y
2
2
_
4
0
=
3
80
(4x
2
+ 8x) =
3
20
(x
2
+ 2x).
Portanto, a densidade marginal de X e (3/20x
2
+ 3/10x).
c)
f
Y
(y) =
_
2
0
f(x, y)dx =
3
80
_
2
0
(x
2
+xy)dx =
3
80
_
x
3
3
+
x
2
2
y
_
2
0
=
3
80
_
8
3
+
4
2
y
_
=
1
10
+
3
40
y.
Portanto, a densidade marginal de Y e (1/10 + 2/40y).
5.3 Independencia
Denicao 5.3.1 As variaveis aleatorias X e Y com funcao densidade conjunta f(x, y), para <
x < e < y < , e cujas densidades marginais sao denotadas por f
X
(x) e f
Y
(y), sao ditas
independentes se para todo par de valores (x, y) tivermos:
f(x, y) = f
X
(x)f
Y
(y).
5.4. DISTRIBUIC
OES CONDICIONAIS 101
Exemplo 5.3.1 Seja
f(x, y) =
_
_
xe
x(y+1)
, para 0 x e 0 y
0, caso contr ario.
a funcao densidade conjunta de X e Y . Vericar se X e Y sao independentes.
Primeiramente temos que encontrar as densidades marginais de X e Y . Feito isso, precisamos vericar
se o produto delas e igual a densidade conjunta dessas variaveis:
f
X
(x) =
_
0
x e
x(y+1)
dy = x
_
1
e
zx
dz = x
e
zx
x
1
= e
x
.
f
Y
(y) =
_
0
x e
x(y+1)
dx =
1
y + 1
_
0
x(y + 1) e
x(y+1)
dx =
1
y + 1
1
y + 1
=
1
(y + 1)
2
.
Note que,
_
0
x(y + 1) e
x(y+1)
dx, representa a esperanca de uma v.a com distribui cao exponencial, de
parametro (y + 1). Entao,
f
X
(x)f
Y
(y) = e
x
1
(y + 1)
2
,= f(x, y).
Portanto, X e Y nao sao independentes.
Resultado: Se X e Y forem independentes, entao
E(XY ) = E(X)E(Y ).
Mas o contrario nao e verdadeiro, isto e, se E(XY ) = E(X)E(Y ), nao necessariamente X e Y sao
independentes.
5.4 Distribuic oes Condicionais
Vimos distribuicoes condicionais para o caso em que X e Y eram discretas. Agora vamos ver para o caso
onde X e Y sao contnuas.
Denicao 5.4.1 Sejam X e Y variaveis aleat orias contnuas, a densidade condicional de Y dado X = x,
denotada por f(y[x), e dada para cada x xo por
f(y[x) =
f(x, y)
f
X
(x)
f(x, y) = f
X
(x)f(y[x).
Exemplo 5.4.1 Considerando o exemplo 5.3.1, onde
f(x, y) =
_
_
xe
x(y+1)
, para 0 x e 0 y
0, caso contr ario.
Vamos determinar f(y[x).
Sabemos que, f
X
(x) = e
x
para x positivo e zero caso contrario.
Entao
f(y[x) =
f(x, y)
f
X
(x)
=
xe
x(y+1)
e
x
= xe
xy
e
x
e
x
= xe
xy
.
Logo a distribui cao condicional de Y dado X = x e uma exponencial com parametro x.
102 CAP
ORIOS CONT
INUOS
Exemplo 5.4.2 Calcule as densidades marginais e condicionais para o vetor (X, Y ), cuja funcao de
densidade e
f(x, y) = 1/64(x +y), para 0 x 4 e 0 y 4.
1. Densidades marginais:
f
X
(x) =
_
4
0
f(x, y)dy =
1
64
_
4
0
(x +y)dy =
1
64
_
xy +
y
2
2
_
4
0
=
x
16
+
1
8
.
f
Y
(y) =
_
4
0
f(x, y)dx =
1
64
_
4
0
(x +y)dx =
1
64
_
x
2
2
+yx
_
4
0
=
y
16
+
1
8
.
2. Densidades condicionais
f(y[x) =
f(x, y)
f
X
(x)
=
1
64
(x +y)
x
16
+
1
8
=
1
4
(x +y)
(x + 2)
.
f(x[y) =
f(x, y)
f
Y
(y)
=
1
64
(x +y)
y
16
+
1
8
=
1
4
(x +y)
(y + 2)
.
Denicao 5.4.2 Sejam X e Y v.as contnuas, com densidades marginais f(x, y), f
X
(x) e densidade
condicional f(y[x) =
f(x,y)
f
X
(x)
. A esperanca condicional de Y dado X = x e denida por
E(Y [X = x) =
_
y f(y[x)dy.
Exemplo 5.4.3 Encontre as esperancas condicionais do vetor aleatorio (X, Y ), do exemplo 5.4.2.
E(Y [X = x) =
_
y f(y[x)dy =
_
4
0
y
1
4
(x +y)
(x + 2)
dy =
1
4(x + 2)
_
4
0
(yx +y
2
)dy
=
1
4(x + 2)
_
y
2
x
2
+
y
3
3
_
4
0
=
1
(x + 2)
_
2x +
16
3
_
.
E(X[Y = y) =
_
x f(x[y)dx =
_
4
0
x
1
4
(x +y)
(y + 2)
dy =
1
4(y + 2)
_
4
0
(x
2
+yx)dy
=
1
4(y + 2)
_
x
3
3
+
x
2
y
2
_
4
0
=
1
(y + 2)
_
16
3
+ 2y
_
.
5.5 Exerccios
1. Sejam X e Y duas v.a.s contnuas cuja funcao densidade de probabilidade conjunta e denida como
segue:
f(x, y) =
_
_
_
c
_
x
2
+
xy
2
_
, se 0 < x < 1 e 0 < y < 2,
0, caso contrario.
(a) Determine o valor da constante c.
(b) Encontre as densidades marginais de X e Y .
(c) Determine as densidades condicionais de Y dado X e X dado Y .
(d) Encontre E(X[Y = y) e E(Y [X = x).
5.5. EXERC
ICIOS 103
2. Sejam X e Y duas v.a.s contnuas cuja funcao densidade de probabilidade conjunta e denida como
segue:
f(x, y) =
_
_
_
6/7(x
2
+xy/2), se 0 < x < 1 e 0 < y < 2,
0, caso contrario.
(a) Encontre as densidades marginais de X e Y .
(b) Determine as densidades condicionais de Y dado X e X dado Y .
(c) Encontre E(X[Y = y) e E(Y [X = x).
3. Seja (X, Y ) um vetor aleatorio com a seguinte densidade conjunta de probabilidade
f(x, y) =
_
_
_
4xy 2x 2y + + 1, se 0 x 2 e 0 y 2,
0, caso contrario,
para 1 < < 1.
(a) Determine a densidade condicional de X dado Y .
(b) Encontre E(X[Y = y).
(c) Para que valores de as variaveis aleatorias X e Y sao independentes?
4. Sejam as v.a.s X
1
, X
2
, . . . , X
n
, independentes e identicamente distribudas segundo uma Normal de
parametro e
2
. Encontre a E(X
1
+X
2
+X
3
+. . . X
n
) e V ar(X
1
+X
2
+X
3
+. . . X
n
), usando a
fun cao geradora de momentos.
104 CAP
ORIOS CONT
INUOS
Captulo 6
Inferencia Estatstica
6.1 Introducao
A Inferencia Estatstica e um conjunto de tecnicas para estudar a populacao por meio de evidencias
fornecidas por uma amostra. Ou seja, com base nos elementos da amostra, conseguimos medir quantidades
de interesse da populacao em questao.
Denicao 6.1.1 Populacao e o conjunto de indivduos ou objetos, cujas caractersticas queremos anali-
sar.
Normalmente desejamos analisar caractersticas de uma populacao. Mas na maioria dos casos estudar
toda a populacao pode ser inviavel, pois podemos estar trabalhando com uma populacao muito grande e
difcil de ser encontrada, como toda a ora da oresta amazonica, ou o tempo para realizar a pesquisa
de toda a popula cao pode ser muito pequeno. Um outro caso, e quando estamos interessados em analisar
uma popula cao que requer recursos que podem nao estar disponveis. Desta forma, veremos que sera mais
eciente coletar uma amostra aleatoria dessa populacao.
Denicao 6.1.2 Uma amostra aleatoria e um subconjunto dos elementos da populacao de interesse, ob-
tido de forma aleat oria. Isto e, uma amostra aleatoria e uma simplicacao da populacao sob estudo.
Assim, quanto mais elementos tiver na amostra aleatoria, mais conhecimento teremos da populacao.
Na proxima denicao vamos apresentar uma das formas mais faceis, para selecionar uma amostra aleatoria
de uma populacao.
Denicao 6.1.3 Amostra aleatoria simples.
Para obter uma amostra aleatoria simples de uma populacao com N elementos, associamos uma
variavel aleatoria X
i
a cada elemento da populacao, isto e X
i
, i = 1, . . . , N, e de forma aleatoria, como
um sorteio, escolhem-se n elementos da populacao para formar a amostra. Para selecionar uma amos-
tra aleatoria simples, que denotaremos por A.A.S, alem de serem independentes, todos os elementos da
populacao devem possuir a mesma probabilidade de pertencer `a amostra.
Uma amostra aleatoria simples de tamanho n e representada por uma sequencia de tamanho n de variaveis
aleatorias independentes e identicamente distribudas, que denotaremos por (X
1
, X
2
, . . . , X
n
). A distri-
buicao de probabilidade de X
i
corresponde `a distribui cao de probabilidade da caracterstica da populacao
que esta sendo estudada. E os elementos da amostra efetivamente coletada sao realiza coes da v.a X
105
106 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
associada `a caracterstica de interesse da populacao.
Exemplo 6.1.1 Consideremos a populacao formada pelas mulheres brasileiras. Queremos analisar a
caracterstica altura. Associamos uma v.a X a essa caracterstica e queremos encontrar,
P(X 1.90) e P(X 1.50),
que correspondem a perguntar:
qual a probabilidade de uma mulher brasileira ter mais do que 1.90 m de altura?
qual a probabilidade de uma mulher brasileira ter menos do que 1.50 m de altura?
A maior diculdade para calcular essas probabilidades, e o tamanho da populacao, pois nao conseguimos
entrevistar todas as brasileiras. Por isso, selecionamos uma amostra dessa populacao. Digamos que haja
100 milhoes de mulheres no Brasil, a cada uma vamos associar um n umero. Selecionar uma amostra
corresponde a colocar todos esses n umeros numa urna e sortear digamos mil mulheres e a cada uma
associarmos uma v.a X
i
, i = 1, . . . , 1000, todas independentes e com a mesma distribuicao de X. Feito
isso vamos perguntar a cada uma delas qual a sua altura. Obtidas as respostas, tem-se a seguinte amostra:
(x
1
, x
2
, . . . , x
1000
).
Assim, coletada a altura das 1000 mulheres, a amostra poderia ter a seguinte resposta: (x
1
, x
2
, . . . , x
1000
) =
(1.60, 1.75,. . . , 1.48).
Selecionamos a amostra por meio de sorteio, pois queremos que as respostas sejam independentes,
no sentido de uma mulher nao inuenciar a outra . Tambem vale dizer, que pela natureza aleatoria,
geralmente envolvida no processo amostral, nao podemos armar que repeticoes de amostras produzam
sempre resultados identicos. Isto e, assim como e quase impossvel obter amostras iguais de uma mesma
popula cao, tambem e muito difcil que uma mesma amostra obtenha sempre os mesmos resultados, ja que
ha aleatoriedade na opera cao.
n
i=1
X
i
n
e
2
= h(X
1
, X
2
, . . . , X
n
) = S
2
=
1
n 1
_
n
i=1
X
2
i
nX
2
_
.
Chamaremos estas fun coes de estimadores de e
2
, respectivamente.
Notamos que um estimador, digamos
) = e lim
n
V ar(
) = 0.
Observamos, que na deni cao de consistencia, o estimador depende do tamanho da amostra, isto e,
E(
) = so para valores grandes de n. Ja na denicao de vies, o resultado deve valer para todo n. Logo,
vemos que para deni cao de consistencia, o estimador necessita ser nao viesado, apenas para valores
grandes de n.
Iremos apresentar a seguir, uma deni cao que nos ajuda decidir qual e o estimador mais preciso,
quando dois estimadores forem nao viesados e consistentes para um determinado parametro.
Denicao 6.2.4 Eciencia. Sejam
1
e
2
dois estimadores, nao viesados para um parametro , dizemos
que
1
e mais eciente do que
2
se V ar(
1
) < V ar(
2
).
108 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
O proximo exemplo foi retirado de Lima e Magalhaes (2005).
Exemplo 6.2.1 Considere uma certa populacao, cuja caracterstica de interesse seja associada a v.a X,
que tem a seguinte distribuicao de probabilidade:
X 0 10 20 30
P(X = x) 0.2 0.3 0.3 0.2
Com a denicao de esperanca e vari ancia apresentadas no captulo de v.as, vericamos facilmente que
E(X) = 15 e V ar(X) = 105. Mas vamos fazer de conta que nao conhecemos E(X) e vamos tomar uma
amostra aleatoria de tamanho 2 para determin a-la. Para identicarmos as possveis amostras que podemos
coletar, podemos pensar no par ordenado (X
1
, X
2
), sendo X
1
e X
2
variaveis aleatorias independentes com
mesma distribuicao de X. Os possveis resultados dessas amostras, pertencem ao conjunto formado pelo
produto cartesiano, 0, 10, 20, 30 0, 10, 20, 30, o qual possui 2
4
elementos:
(0, 0), (0, 10), (0, 20), (0, 30), (10, 0), (10, 20), (10, 30), . . . , (30, 30).
As amostras nao sao equiprovaveis. Por exemplo, a amostra (0, 0) tem probabilidade 0.04 de ocorrer,
enquanto que (0, 10) tem 0.06 de ocorrer, pois
P((0, 0) = P(X
1
= 0, X
2
= 0) = P(X
1
= 0)P(X
2
= 0) = 0.04
P((0, 10) = P(X
1
= 0, X
2
= 10) = P(X
1
= 0)P(X
2
= 10) = 0.06.
Para estimar o valor da media na populacao, vamos considerar os seguintes estimadores:
1
= f
1
(X
1
, X
2
) = X
1
,
2
= f
1
(X
1
, X
2
) = X =
X
1
+X
2
2
.
A funcao f
1
ja foi apresentada e podemos facilmente calcular sua media. Como X
1
tem a mesma distri-
buicao de X, seus valores esperados s ao iguais, logo
E(X
1
) = 0(0.2) + 10(0.3) + 20(0.3) + 30(0.2) = 15.
Agora para a variavel aleatoria X, nao e difcil vericar que sua distribuic ao de probabilidade e:
X 0 5 10 15 20 25 30
P(X = x) 0.04 0.12 0.21 0.26 0.21 0.12 0.04
Assim, temos que
E(X) = 0(0.04) + 5(0.12) + 10(0.21) + 15(0.26) + 20(0.21) + 25(0.12) + 0.30(0.04) = 15.
Portanto, conclumos que os dois estimadores sao nao viesados, pois
E(X) = E(X
1
) = E(X) = 15.
Sera que sao consistentes?
V ar(X
1
) = 105 lim
n
V ar(
1
) = 105 ,= 0.
Portanto,
1
nao e consistente.
Ja
2
depende do tamanho da amostra e mais tarde veremos que X sera um estimador consistente para
a media populacional.
6.2. ESTIMAC
AO 109
Exemplo 6.2.2 Considere uma populacao com n elementos, tal que E(X) = e V ar(X) =
2
. Um
estimador natural para
2
, baseado na amostra aleatoria (X
1
, X
2
, . . . , X
n
) extrada dessa populacao, e
2
=
1
n
n
i=1
(X
i
X)
2
.
Vamos vericar se esse estimador e nao viesado, para isso tem que valer E(
2
) =
2
:
E(
2
) =
1
n
E
_
n
i=1
(X
i
X)
2
_
=
1
n
E
_
n
i=1
(X
i
+ X)
2
_
=
1
n
E
_
n
i=1
(X
i
)
2
2(X
i
)(X ) + (X )
2
_
=
1
n
E
_
n
i=1
(X
i
)
2
_
2
n
E
_
n
i=1
(X
i
)(X )
_
+
1
n
E
_
n
i=1
(X )
2
_
=
1
n
n
i=1
E(X
i
)
2
2
n
(X )
n
i=1
(E(X
i
) ) +
1
n
n
i=1
E(X )
2
=
1
n
n
i=1
E(X
i
)
2
+
n
n
E(X )
2
=
1
n
n
2
2
n
=
_
n 1
n
_
2
.
Pelo resultado acima, conclui-se que
2
e um estimador viesado para
2
.
Vemos que se multiplicarmos
2
por n/(n 1) teremos um estimador nao viesado.
Fica a cargo do leitor vericar se
2
e consistente. Dica: basta vericar se lim
n
V ar(
) = 0.
Agora iremos estudar a distribuicao amostral da estatistica X . Mais para frente, essa distribuicao sera
usada para fazer inferencias sobre populacoes.
6.2.2 Distribuicao Amostral da media
Vamos considerar uma populacao normal, sendo X a v.a de interesse com media populacional = E(X)
e variancia populacional
2
= V ar(X) conhecidas, isto e, X N(,
2
). Temos que a media amostral e
dada por:
X =
X
1
+X
2
+. . . +X
n
n
.
Vimos que a combinacao linear de uma v.a normal tambem tem distribuicao de probabilidade dada pelo
modelo normal. Assim, podemos dizer que X N(
X
,
2
X
). Entao de acordo com as propriedades de
esperan ca e variancia, temos
X
= E(X) = E
_
1
n
n
i=1
X
i
_
=
1
n
n = ,
2
X
= V ar(X) = V ar
_
1
n
n
i=1
X
i
_
=
1
n
2
n
2
=
2
n
.
Portanto, pelos resultados acima obtemos que E(X) = X e um estimador nao viesado para , e como
lim
n
V ar(X) = 0, temos que X e um estimador consistente.
110 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
Observamos que quando o tamanho da amostra cresce, independentemente da forma da distribuicao
da popula cao, a distribuicao amostral se aproxima cada vez mais de uma distribuicao normal padrao.
Esse resultado fundamental e conhecido como Teorema Central do Limite (T.C.L):
Teorema Central do Limite: Para amostras aleatorias simples (X
1
, . . . , X
n
) retiradas de uma
popula cao com media e variancia
2
nita, a distribuicao amostral da media aproxima-se para n grande,
de uma distribui cao normal com media e variancia (
2
)/n.
A prova desse teorema sera omitida, pois e muito elaborada e exigiria conceitos que estao alem do
escopo deste texto.
Exemplo 6.2.3 Um dado e lancado 180 vezes. Qual e a probabilidade do resultado ser 6 em quarenta
ou mais lancamentos?
Seja X
i
a face do dado observada, no i-esimo lancamento, tal que (i = 1, 2, . . . , 180). Entao
X
i
=
_
1, se x
i
= 6
0, se x
i
,= 6.
Vemos que a v.a X segue a distribuicao de Bernoulli, logo
E(X) = 1(1/6) + 0(5/6) = 1/6,
V ar(X) = E(X
2
) (E(X))
2
= E(X) (E(X))
2
= 1/6 1/36 = 5/36.
Assim,
P(X
1
+. . . +X
180
40) = P
_
X
1
+. . . X
n
n
n
40 n
n
_
T.C.L
P
_
Z
40 n
n
_
= P
_
Z
40 180(1/6)
_
5/36
180
_
= P
_
Z
10
_
900/36
_
= P
_
Z
10
25
_
= P(Z 2) = 1 P(Z 2)
= 1 (0, 5 + 0, 4772) = 1 0, 9772 = 0, 0228.
Portanto, conclui-se que ha uma probabilidade de aproximadamente 2%, para que em mais de 40 lancamentos
a face do dado observada seja 6.
6.2.3 Exerccios - Teorema Central do Limite
1. O nvel de colesterol de uma popula cao de trabalhadores tem media 202 e desvio padrao igual a
14. Se uma amostra de 36 trabalhadores e selecionada, calcule aproximadamente a probabilidade
da media amostral do seu nvel de colesterol estar entre 198 e 206.
2. Considere uma amostra de uma populacao tendo media 128 e desvio padrao igual a 16. Se uma
amostra de tamanho 100 e selecionada, calcule aproximadamente a probabilidade da media amostral
estar entre 124 e 132.
6.2. ESTIMAC
AO 111
3. Sejam X
1
, X
2
, . . . X
144
v.a.s independentes e identicamente distribudas, cada uma tendo media
= E[X
i
] = 2, e variancia
2
= V ar(X
i
) = 4. Use o Teorema Central do Limite para aproximar
P(X
1
+X
2
+. . . +X
144
> 264).
4. Uma companhia de seguros possui 10000 assegurados. Cada assegurado aciona o seguro (aleatoria-
mente e independentemente dos demais assegurados) num valor medio de $300 com desvio padrao
igual a $700. Aproxime pela normal a probabilidade de que o valor total a ser pago pela companhia
seja superior a $2, 7 milhoes.
5. Sejam X
1
, X
2
, . . . X
265
v.a.s independentes e identicamente distribudas, com funcao densidade de
probabilidade f dada por
X
i
=
_
_
_
3(1 x)
2
, para 0 x 1,
0, caso contrario.
Use o Teorema Central do Limite para aproximar
P(X
1
+X
2
+. . . +X
265
> 170).
6. Seja X uma v.a. que descreve determinada caracterstica de certa po-pulacao. Sabemos que X tem
media = 80 e variancia
2
= 26. Dessa populacao retira-se uma amostra de tamanho n = 25.
Calcule
(a) P(X > 83).
(b) P(X 82).
(c) P(X 2 V ar(X) X + 2 V ar(X)).
7. Seja X uma v.a. que descreve determinada caracterstica de certa po-pulacao. Sabemos que X tem
media = 100 e variancia
2
= 85. Dessa populacao retira-se uma amostra de tamanho n = 20.
(a) Calcule P(95 < X > 83 < 105).
(b) Encontre Z
V ar(X) < X +Z
V ar(X)) = 0.95.
8. Qual deve ser o tamanho de uma amostra a ser retirada de uma popula cao, descrita por uma v.a.
X com distribuicao normal de media = 200 e variancia
2
= 350, para que P([X[ < 5) = 0.95?
6.2.4 Exerccios - Estimadores
1. Suponha uma Amostra Aleatoria Simples (A.A.S.) X
1
, X
2
, . . . , X
n
de uma v.a. X com distribui cao
de Bernoulli de parametro p. Seja X o n umero de sucessos e considere os seguintes estimadores para
p:
(a) p
1
= X/n
(b)
p
2
=
_
_
_
1, se a primeira prova resulta sucesso
0, caso contrario
Encontre E( p
1
), E( p
2
), V ar( p
1
) e V ar( p
2
). Sao p
1
e p
2
estimadores nao-viesados para p? Qual dos
dois e mais eciente?
112 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
2. Considere o seguinte estimador para
2
:
V
2
n
=
1
n
n
i=1
(X
i
X)
2
.
Calcule o vies E[V
2
n
]
2
para esse estimador. Dica: observe que V
2
n
= (n 1)S
2
/n.
3. Suponha que as v.a.s X
1
, X
2
, . . . X
n
tenham a mesma esperanca .
(a) S =
1
2
X
1
+
1
3
X
2
+
1
6
X
3
e um estimador nao-viesado para ?
(b) Quais as condi coes que as constantes a
1
, a
2
, . . . , a
n
devem obedecer para que T = a
1
X
1
+
a
2
X
2
+. . . a
n
X
n
seja um estimador nao-viesado para ?
4. Seja X
1
, X
2
, X
3
uma amostra aleatoria de uma populacao exponencial com media , isto e, E[X
i
] =
, i = 1, 2, 3. Cosidere os estimadores
1
=
X,
2
= X
1
,
3
=
X
1
+X
2
2
(i) Demostrar que nenhum dos tres estimadores e viesado. (ii) Qual dos estimadores tem menor
variancia? Lembrar que no caso exponencial Var(X
i
) =
2
.
5. As folhas de arvores sao divididas em 4 tipos: A, B, C e D. De acordo com a teoria genetica, os
tipos ocorrem respectivamente com probabilidades
1
4
( +2),
1
4
,
1
4
(1 ) e
1
4
(1 ), com 0 < < 1.
Suponha que alguem colheu uma amostra de n folhas de uma mata. O n umero de folhas do tipo
A e modelado segundo uma v.a. N
1
com distribuicao Binomial de parametros n e p
1
=
1
4
( + 2),
e o n umero de folhas do tipo B e modelado segundo uma v.a. N
2
com distribuicao Binomial de
parametros n e p
2
=
1
4
. A tabela a seguir mostra a distribui cao da progenia de heterozigotos
auto-fertilizados entre 3839 folhas.
Tipo Quantidade
A 1997
B 32
C 906
D 904
Considere os seguintes estimadores para :
T
1
=
4
n
N
1
2 e T
2
=
4
n
N
2
(a) Verique se T
1
e T
2
sao estimadores nao-viesados para .
(b) Encontre as estimativas para provenientes da tabela acima, usando T
1
e T
2
.
(c) Em termos de eciencia, qual e o melhor estimador?
6. Suponha que alguem observe por algum tempo a chegada de telefonemas e obteve o seguinte con-
junto de dados: x
1
, x
2
, . . . , x
n
, onde x
i
representa n umero de chegadas no i-esimo minuto. Entao
x
1
, x
2
, . . . , x
n
e uma realiza cao das v.a.s X
1
, X
2
, . . . , X
n
, todas com distribuicao de Poisson de
parametro .
(a) Calcule p
0
= P(X = k).
6.3. PRINC
IPIO DA M
de X
i
s iguais a zero
n
.
Mostre que p
0
tem distribuicao binomial de parametros n e p
0
.
(c) Determine um estimador para a partir de p
0
.
(d) O estimador do item anterior e nao-viesado?
6.3 Princpio da Maxima Verossimilhanca
Ate agora construmos apenas de maneira natural os estimadores de parametros de interesses. Por exem-
plo, a esperanca e a probabilidade tem como estimadores a media amostral e a frequencia relativa, res-
pectivamente. Mas em algumas situa c oes, essas analogias nao existem. Por isso, nesta se cao vamos ver
um princpio geral para construir estimadores: princpio da maxima verossimilhanca.
O princpio da maxima verossimilhanca consiste em adotar, como estimativas dos parametros, os
valores que maximizam a probabilidade da amostra observada ocorrer.
6.3.1 Para Variavel Aleatoria Discreta
Suponha que tenhamos um conjunto de dados x
1
, x
2
, . . . , x
n
, modelado segundo uma possvel realizacao
de uma amostra aleatoria simples obtida a partir de uma v.a X discreta com distribui cao de probabilidade,
caracterizada por um parametro , que chamamos de p
(x
1
)p
(x
2
) . . . p
(x
n
).
Na segunda igualdade, usamos o fato de que X
1
, . . . , X
n
sao variaveis aleatorias independentes.
L() e a fun cao que deve ser maximizada. Para isso, devemos primeiramente derivar e igualar L() a
zero e depois vericar se a condicao de segunda ordem para maximo e satisfeita, isto e:
Primeiro passo: encontrar tal que L
() = 0.
Segundo passo: vericar se para esse , L
() < 0.
Exemplo 6.3.1 Uma moeda viciada e lancada varias vezes ate sair cara pela primeira vez. Esse experi-
mento e repetido tres vezes, com a mesma moeda e os seguintes dados sao obtidos:
Experimento 1: cara apareceu pela primeira vez no 3
lancamento.
Experimento 2: cara apareceu pela primeira vez no 5
lancamento.
Experimento 3: cara apareceu pela primeira vez no 4
lancamento.
Seja p a probabilidade de sair cara para essa moeda. Determine uma estimativa de maxima verossimilhanca
p para p.
114 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
1
(p) = 3p
2
(1 p)
9
9p
3
(1 p)
8
= 3p
2
(1 p)
8
[(1 p) 3p]
= 3p
2
(1 p)
8
[1 4p] = 0
Portanto, L
(p) = 0 se:
p = 0, que nao faz sentido
(1 p) = 0 p = 1, que nao faz sentido
1 4p = 0 p = 1/4.
5
passo Vericar se a condicao de segunda ordem para maximo e satisfeita, quando p = 1/4:
L
(p) = 6p(1 p)
8
(1 4p) (8)(3)p
2
(1 p)
7
(1 4p) (4)(3)p
2
(1 p)
8
= 6p(1 p)
8
(1 4p) 24p
2
(1 p)
7
(1 4p) 12p
2
(1 p)
8
= 6p(1 p)
7
[(1 4p) 4p(1 4p) 2p(1 p)]
= 6p(1 p)
7
[(1 4p)(1 4p) 2p(1 p)]
= 6p(1 p)
7
[1 8p + 16p
2
2p + 2p
2
]
= 6p(1 p)
7
[1 10p + 18p
2
].
Substituindo p por 1/4, temos
L
(1/4) = (6/4)(3/4)
7
[1 10/4 + 18/16] = 6/4(3/4)
7
(6/16) < 0.
Logo p = 1/4 e a estimativa de m axima verossimilhanca para p.
Exemplo 6.3.2 Suponha tres realizacoes de uma variavel aleatoria de Bernoulli, com parametro de su-
cesso p, tal que 0 < p < 1. Temos que
X =
_
1, com probabilidade p
0, com probabilidade 1 p.
6.3. PRINC
IPIO DA M
(p) = 2p(1 p) +p
2
(1) = 2p 2p
2
= 2p 3p
2
= p(2 3p).
Portanto L
ITULO 6. INFER
ENCIA ESTAT
ISTICA
Portanto, a fun cao de maxima verossimilhan ca de uma v.a contnua e denida por
L(x
1
, . . . , x
n
, ) = f(x
1
, ) . . . f(x
n
, ).
Como no caso discreto, a estimativa de maxima verossimilhanca de e o valor que maximiza L(x
1
, . . . , x
n
, ).
Exemplo 6.3.3 Suponha um conjunto de dados x
1
, . . . , x
n
modelado como sendo uma realizacao de uma
amostra aleat oria simples de uma v.a exponencial de parametro , com funcao densidade dada por
f(x, ) =
_
0, se x < 0
e
x
, para x 0.
Vamos determinar o estimador de maxima verossimilhanca para .
Temos que
L() = e
x1
e
x2
. . . e
xn
= ()
n
e
{x1+x2+...+xn}
.
Derivando e igualando a zero temos,
L
() = n
n1
e
{x1+x2+...+xn}
n
n
i=1
x
i
e
{x1+x2+...+xn}
=
n1
e
{x1+x2+...+xn}
_
n
n
i=1
x
i
_
Assim L
() = 0, se
= 0,
n
n
i=1
x
i
= 0 =
_
n/
n
i=1
x
i
_
=
1
X
Vemos que nesse caso, n ao sera facil encontrar L
i=1
x
i
.
6.3. PRINC
IPIO DA M
() = n
1
i=1
x
i
= 0 =
_
n/
n
i=1
x
i
_
=
1
X
.
Agora vamos vericar se a condicao para m aximo e satisfeita, ou seja, se l
() < 0:
l
() = n
1
2
.
Logo, l
() sera menor do que zero, para qualquer valor de diferente de zero. Entao a estimativa de
maxima verossimilhanca para e
1
X
.
Exemplo 6.3.5 Suponha que o n umero de acidentes que ocorrem durante um dia do ano em uma cidade,
siga uma distribuicao de Poisson(). Em dez dias escolhidos ao acaso, os n umeros de acidentes observados
na cidade de Campinas, foram
4, 0, 6, 5, 1, 2, 0, 3, 4 e 2.
Usando o princpio da maxima verossimilhanca para , estime a proporcao de dias do ano nos quais
ocorrerao no maximo dois acidentes em Campinas.
Temos que,
f(x
1
, )f(x
2
, ) . . . f(x
n
, ) =
n
i=1
e
xi
x
i
!
.
Entao
l() = log
_
n
i=1
f(x
i
, )
_
= log
_
n
i=1
e
xi
x
i
!
_
=
n
i=1
_
log
e
xi
x
i
!
_
=
n
i=1
(log e
xi
log x
i
!) =
n
i=1
(log e
+log
xi
log x
i
!)
=
n
i=1
( +log
xi
log x
i
!) = n() +
n
i=1
log
xi
i=1
log x
i
!.
Derivando l() e igualando-o a zero, temos que:
l
() = n +
n
i=1
1
xi
xi1
x
i
=
n
i=1
x
i
n = 0.
=
n
i=1
x
i
n
.
Substituindo os valores da amostra, obtemos
=
n
i=1
x
i
n
=
27
10
= 2, 7.
Agora que encontramos uma estimativa para conseguimos estimar a quantidade de dias em que ocorrerao
no maximo dois acidentes em Campinas.
P(X 2) =
2
a=0
P(X = a) =
2
a=0
e
2,7
2, 7
a
a!
= e
2,7
+ 2, 7e
2,7
+
2, 7
2
e
2,7
= e
2,7
(1 + 2, 7 + (2, 7/2)) = e
2,7
10, 1
2
0, 34.
118 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
Portanto, estima-se que em aproximadamente 35% dos dias do ano ocorrer ao no maximo dois acidentes
nesta cidade.
Exemplo 6.3.6 Vamos supor agora, que o conjunto de dados x
1
, . . . , x
n
seja uma realizacao de uma
amostra aleatoria simples proveniente de uma distribuicao normal, N(,
2
), com e
2
desconhecidos.
Quais sao os estimadores de maxima verossimilhanca para e
2
?
Seja
f(x
i
, ,
2
) =
1
2
exp
_
1
2
_
x
_
2
_
,
temos que
l(,
2
) = n log() n log(
2)
1
2
2
[(x
1
)
2
+. . . + (x
n
)
2
].
Vamos calcular as derivadas parciais de l(,
2
):
l
=
1
2
2
2(x
1
) . . . 2(x
n
)
=
1
2
x
1
. . . x
n
+n =
n
2
X
e
l
2
= n
1
+
1
3
(x
1
)
2
+. . . + (x
n
)
2
=
n
3
_
1
n
n
i=1
(x
i
)
2
_
.
O maximo da funcao l(,
2
) ocorrer a quando
l
=
l
2
= 0 :
1.
l
=
n
2
(X ) = 0 X = 0 = X.
2.
l
2
=
n
3
_
1
n
n
i=1
(x
i
X)
2
_
= 0
2
=
1
n
n
i=1
(x
i
X)
2
.
Portanto, = X e
2
=
1
n
n
i=1
(x
i
X)
2
sao estimadores de maxima verossimilhanca de e
2
, respecti-
vamente.
Propriedades dos estimadores de maxima verossimilhanca:
1. Podem ser viesados.
Como vimos no exemplo 6.3.6,
2
=
1
n
n
i=1
(x
i
X)
2
e o estimador de maxima verossimilhanca para
2
, mas
S
2
=
1
n 1
n
i=1
(x
i
X)
2
e o estimador nao viciado de
2
.
2. Se T for o estimador de maxima verossimilhan ca para um parametro e g() for uma funcao
inversvel para , entao g(T) e o estimador de maxima verossimilhanca para g().
6.3. PRINC
IPIO DA M
(x) =
_
_
_
x
1
se 0 x 1
0 caso contrario
Seja x
1
, x
2
, . . . , x
n
uma realizacao das v.a.s X
1
, X
2
, . . . , X
n
.
(a) Determine a fun cao de verossimilhanca.
(b) Encontre uma estimativa de maxima verossimilhan ca para .
3. Suponha uma Amostra Aleatoria Simples (A.A.S.) X
1
, X
2
, . . . , X
n
de uma v.a. contnua com fun cao
densidade de probabilidade (f.d.p.) dada por
f
(x) = e
x
, se x 0
Seja x
1
, x
2
, . . . , x
n
uma realizacao das v.a.s X
1
, X
2
, . . . , X
n
.
(a) Proponha um estimador para .
(b) Determine a fun cao de verossimilhanca.
(c) Encontre uma estimativa de maxima verossimilhan ca para .
4. Suponha uma Amostra Aleatoria Simples (A.A.S.) X
1
, X
2
, . . . , X
n
de uma v.a. contnua com fun cao
densidade de probabilidade (f.d.p.) dada por
f
(x) =
_
_
_
2
xe
x
se x > 0
0 caso contrario
Seja x
1
, x
2
, . . . , x
n
uma realizacao das v.a.s X
1
, X
2
, . . . , X
n
.
(a) Proponha um estimador para .
(b) Determine a fun cao de verossimilhanca.
(c) Encontre uma estimativa de maxima verossimilhan ca para .
5. Seja X
1
, X
2
, . . . , X
n
uma amostra aleatoria de uma densidade f(x, ). Encontre o estimador de
maxima verossimilhan ca de em cada um dos casos a seguir:
(a) f(x, ) = e
x
, x 0, > 0.
(b) f(x, ) = c
x
(+1)
, x c > 0, > 0.
(c) f(x, ) =
x
2
exp
_
x
2
2
2
_
, x > 0, > 0.
(d) f(x, ) = c x
c1
expx
c
, x 0, > 0.
120 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
6.4 Intervalo de Conan ca
Estudamos nas secoes anteriores apenas estimadores pontuais, que possuem como caracterstica especicar
um unico valor para o estimador. Vamos ver nesta se cao como construir um intervalo aleatorio, que
com alta probabilidade, contenha o parametro de interesse. Chamaremos esse intervalo de Intervalo de
Conanca.
6.4.1 Intervalo de conanca para a media
Podemos saber se uma estimativa pontual de e boa, perguntando qual e o erro amostral envolvido
na estima cao, isto e: Qual e o erro envolvido quando um determinado valor de X e usado como uma
estimativa por ponto de ?
Denimos o erro amostral de , como a diferenca entre os valores da amostra e da popula cao:
e = X .
Como nao conhecemos , nao conseguiremos determinar o erro amostral utilizando esta fomula. Mas,
uma vez que a distribui cao amostral de X mostra como os valores de X estao distribudos ao redor de ,
tambem nos fornece a informacao sobre as possveis diferencas de X e . Portanto, veremos que podemos
usar a distribui cao de X para fazermos declaracoesde probabilidade sobre o tamanho do erro amostral.
Temos que a esperan ca e a variancia do erro amostral para media, sao:
E(e) = E(X ) = E(X) E() = = 0
e
V ar(e) = V ar(X ) = V ar(X) V ar() = V ar(X) =
2
n
.
Portanto, com esses resultados, conseguimos determinar a probabilidade do erro amostral ser menor que
determinado [0, 1], que denominamos de coeciente de conanca e posteriormente construir o intervalo
de conanca. Entao, temos que
P([e[ < z) = P(z < e < z)
P
_
z
/
n
< e <
z
/
n
_
= P
_
z
< e <
z
_
=
P
_
Z <
z
_
1 +P
_
Z <
z
_
=
2P
_
Z <
z
_
1 =
P
_
Z <
z
_
=
1 +
2
.
Dado = 0.95, obtemos
P(z < e < z) P
_
Z <
z
_
=
1.95
2
= 0.975.
Pela tabela da normal padrao:
z
= 1.96 z =
1.96
n
= 1.96
X
.
6.4. INTERVALO DE CONFIANC A 121
Logo,
P(z < e < z) = P(1.96
X
< X < 1.96
X
)
= P(X 1.96
X
< < X + 1.96
X
) = 0.95.
Assim, o intervalo de conanca para , com coeciente de conanca = 0.95, e dado por
IC(; 0.95) = [ X 1.96
X
, X + 1.96
X
].
Interpretacao: Se pudessemos construir uma quantidade grande desses intervalos [ X 1.96
X
, X +
1.96
X
], todos baseados em amostras de tamanho n, 95% deles conteriam o parametro .
Em outras palavras, se obtivermos varias amostras de mesmo tamanho n e para cada uma delas
calcularmos os correspondentes intervalos de conanca com coeciente de conan ca , esperamos que a
propor cao de intervalos que contenham o valor verdadeiro de seja igual a .
Entao, diferentemente da estimacao pontual, agora conseguimos determinar com que probabilidade
estamos obtendo uma estimativa.
Exemplo 6.4.1 Considere 20 amostras de tamanho n = 25, de uma distribuicao normal com media 5 e
variancia igual a 9, isto e, N(5, 9). Vamos construir um intervalo de conanca para , com = 0.95.
O desvio padrao para a amostra e dado por
X
=
n
=
25
=
3
5
.
Vimos que o intervalo de conanca para , tal que = 0.95, e dado por
IC(; 0.95) = [ X 1.96
X
, X + 1.96
X
]
Portanto, o intervalo procurado e
IC(; 0.95) = [ X 1.96(3/5), X + 1.96(3/5)] = [ X 1.76, X + 1.76].
Exemplo 6.4.2 A Esportes e cia e uma empresa de encomendas por mala direta, especializada em equipa-
mentos e acessorios esportivos. A empresa se preocupa em oferecer o melhor servico aos seus clientes, por
isso monitora a qualidade de seus servicos selecionando uma A.A.S de clientes a cada mes. Cada cliente
e questionado sobre uma serie de problemas e as respostas obtidas sao usadas para calcular uma contagem
de satisfa c ao para cada um dos clientes pertencentes `a amostra, que representaremos pela v.a X. Essa
contagem varia entre 1 a 100, em que 1 e 100 representam a pior e a melhor avaliac ao, respectivamente.
Uma contagem media e calculada todo mes e usada como uma estimativa pontual da contagem media
para toda a populacao de clientes da empresa.
Dado que num lancamento recente 100 clientes foram entrevistados e obteve-se X = 82, vamos deter-
minar o intervalo de conanca para .
Assumiremos que o desvio-padrao da populacao sera sempre = 20. Entao, temos que
X
=
n
=
20
10
= 2.
Como foi visto no desenvolvimento teorico apresentado acima, o intervalo de conanca para , com
= 0.95 e dado por
IC(; 0.95) = [ X 1.96
X
, X + 1.96
X
]
122 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
Entao, nesse caso, o intervalo de conanca para , com coeciente de conanca = 0.95 e
IC(; 0.95) = [ X 1.96(2), X + 1.96(2)] = [82 3.92, 82 + 3.92] = [78.08, 85.92].
Portanto, ha uma probabilidade de 95% de que a media da amostra forneca um erro de 3.92 ou menos.
Esta declaracao e uma declaracao de precisao, que diz `a empresa sobre o erro que pode ser esperado se
uma amostra aleatoria simples de 100 clientes for usada para estimar a media da contagem de satisfacao
da populacao.
Agora vamos analisar o intervalo de conan ca do exemplo 6.4.2, quando mudamos apenas o valor do nvel
de conanca .
Para = 0.99:
IC(; 0.99) = [ X 2.576
X
, X + 2.576
X
] = [82 5.15, 82 + 5.15] = [76.85, 87.15].
Para = 0.90:
IC(; 0.90) = [ X 1.645
X
, X + 1.645
X
] = [82 3.29, 82 + 3.29] = [78.71, 85.29].
Pegamos um valor acima e um abaixo de = 0.95 para podermos analisar o que acontece nesses dois casos
distintos. Vemos que aumentando o valor de , obtemos um intervalo de conanca maior do que o do
exemplo 6.4.2 e o contrario ocorre, quando diminumos o valor de . Isso acontece, porque aumentando
o nvel de conanca , o valor de z tambem aumenta e como consequencia temos um intervalo maior. Ja
quando diminumos , o valor de z ca menor, diminuindo o intervalo de conan ca.
O mesmo acontece se aumentarmos o desvio padrao, ou seja, aumentando a amplitude do intervalo
tambem aumenta e, diminui quando diminumos .
Se aumentarmos o valor de n e deixarmos as outras variaveis constantes, veremos que a amplitude
do intervalo vai diminuir. Isso acontece, porque com um maior n umero de dados a estimacao ca mais
precisa se restringindo a um intervalo cada vez menor. O contrario acontece quando diminumos n.
Portanto, notamos que a amplitude de um intervalo de conanca depende de tres elementos: do
coeciente de conan ca (), do tamanho da amostra (n) e do desvio padrao ().
6.4.2 Intervalo de Conanca para p
O exemplo a seguir foi retirado do livro de Bussab e Morettin (2002), p. 306.
Exemplo 6.4.3 Vamos obter um intervalo de conanca, com = 0.95, para o parametro p de uma
distribuicao binomial de parametros n e p. Seja X a variavel aleatoria que representa o n umero de
sucessos em n provas, temos que
E(X) = np
V ar(X) = np(p 1).
Pelo Toerema Central do Limite sabemos que
Z =
X np
_
np(1 p)
N(0, 1)
ou tambem,
Z =
X/N p
_
pq/n
=
n( p p)
pq
N(0, 1).
6.4. INTERVALO DE CONFIANC A 123
Usando a tabela da normal padrao, temos que
P(1.96 Z 1.96) = 0.95 = P
_
1.96
(p p)
pq
1.96
_
= P
_
1.96
pq
n
p p 1.96
pq
n
_
= P
_
p 1.96
pq
n
p p + 1.96
pq
n
_
onde q = (1 p).
Nao conhecemos p. Como vamos determinar pq?
Uma das formas e obter o valor maximo da funcao p(1 p). Podemos usar este metodo, pois quanto
maior for p(1 p) maior sera o tamanho do intervalo, e consequentemente, havera mais chances desse
intervalo conter o parametro.
Utilizando a regra do maximo, temos que
g(p) = p(1 p) g
(p) = (1 p) p p = 1/2.
Note que g
(p) = 1 1 < 0.
Portanto, p = 1/2 maximiza g(p). Entao substituindo p = 1/2 em g(p), temos que o valor maximo de
p(1 p) e 1/4.
Assim, temos que
pq
1
4
_
pq
n
1
4n
1.96
_
pq
n
1.96
1
4n
.
Usando as desigualdades acima, obtemos
p 1.96
1
4n
p 1.96
_
pq
n
p p + 1.96
_
pq
n
p +
1.96
4n
.
O que implica em
p
1.96
4n
p p +
1.96
4n
.
Entao
_
p
1.96
4n
, p +
1.96
4n
_
e um intervalo de conanca para p com coeciente de conanca de 95%.
Para um qualquer, o intervalo de conanca acima e escrito da seguinte forma:
IC(p; ) =
_
p
z()
4n
, p +
z()
4n
_
.
O intervalo de conanca obtido e chamado de conservador, pois estamos substituindo a variancia por um
valor maior do que o verdadeiro e assim assegurando que o coeciente de conanca seja no mnimo .
No proximo exemplo, tambem retirado do livro de Bussab e Morettin (2002), p.307, vamos mostrar uma
outra maneira para se obter pq quando p for desconhecido.
Exemplo 6.4.4 Numa pesquisa de mercado 400 pessoas foram entrevistadas sobre determinado produto,
e 60% delas preferiram a marca A. Seja p = 0.60, um intervalo de conanca conservador para esse caso,
e:
IC(p; 0.95) =
_
p
z()
4n
, p +
z()
4n
_
= [0.551, 0.649].
124 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
Novamemte nao conhecemos p. A segunda forma de proceder nessas situacoes e substituir pq por p q com
q = 1 p.
Desta forma, obtemos o seguinte intervalo de conanca:
I(p, ) =
_
p z()
_
p q
n
, p +z()
_
p q
n
_
Temos que
p = 0.6 q = 0.4 p q = 0.24.
Entao, o intervalo de conanca com = 0.95 e
IC(p; 0.95) =
_
0.60 1.96
_
0.24
400
, 0.60 + 1.96
_
0.24
400
_
= [0.551, 0.649]
Neste exemplo, tanto o intervalo conservador quanto o intervalo de conan ca obtido pela estimativa de
p apresentaram o mesmo valor. Veremos no proximo exemplo, retirado do livro de Bussab e Morettin
(2002), p. 307, que isso nao acontece sempre.
Exemplo 6.4.5 Suponha que em n = 400 provas obtivemos k = 80 sucessos. Vamos obter um intervalo
de conanca para p com = 0.90.
Temos que
p =
80
400
= 0.2 q = 1 p = 0.8.
Portanto, substituindo pq por p q, obtemos
IC(p; 0.90) =
_
0.2 1.645
_
(0.2)(0.8)
400
, 0.2 + 1.645
_
(0.2)(0.8)
400
_
= [0.167, 0.233].
Como vimos, para construir o intervalo conservador,
_
pq
n
seria trocado por
_
1
4n
=
1
4(400)
=
1
40
.
Portanto, temos que
IC(p; 0.90) =
_
0.2 1.645
1
40
, 0.2 + 1.645
1
40
_
= [0.159, 0.241].
Como o intervalo conservador apresenta uma menor precisao para p, vemos que a amplitude desse inter-
valo sera sempre maior ou igual a do intervalo em que e usado a estimativa para p.
6.4.3 Exerccios
1. Voce tem em maos um conjunto de dados que podem ser considerados como um realizacao de uma
A.A.S de uma variavel aleatoria com distribui cao normal. O tamanho da amostra e n = 34, o valor
assumido pela media amostral e 3.54, e
x
= 0.13. Construa um intervalo para com nvel de
conanca igual a 98%.
2. Uma amostra de 25 observacoes de uma normal N(, 16) foi coletada e forneceu uma media amostral
de 8. Construa intervalos com conan ca 80%, 85%, 90% e 95% para a media populacional. Comente
as diferencas encontradas.
6.5. TESTE DE HIP
OTESES 125
3. Suponha que a media e o desvio padrao amostrais das notas de um teste de habilita cao para uma
amostra de 20 estudantes de uma classe com um total de 100 estudantes, sejam X = 150 e
x
= 20.
Encontrar um intervalo de conanca para de 95%.
6.5 Teste de Hipoteses
Ate agora trabalhamos apenas com estimativas n umericas fornecidas por estimadores e intervalos de
conanca. Nesta se cao iremos estudar situa coes em que temos que escolher ou refutar uma hipotese sobre
o parametro desconhecido e tambem situa coes em que temos que decidir entre duas hipoteses sobre o
parametro desconhecido.
Suponha que um conjunto de dados seja modelado como a realizacao das v.a.s X
1
, X
2
, . . . X
n
e que a
distribui cao de X
i
seja conhecida, mas com parametros desconhecidos. Para determina-los vamos propor
hipoteses sobre esses parametros desconhecidos.
Em particular, vamos estudar distribuicoes com apenas um parametro, , desconhecido, e propor
hipoteses para esse parametro.
Denicao 6.5.1 Hipotese (Estatstica) e qualquer armac ao que se faca sobre um parametro desconhe-
cido.
O proximo exemplo foi retirado de Morettin (1981).
Exemplo 6.5.1 Um professor aplica um teste envolvendo 10 questoes do tipo certo ou errado e quer
testar a hip otese o estudante esta adivinhando (chutando) as respostas.
Vamos chamar de p a probabilidade do estudante responder corretamente a uma questao, independen-
temente de ele estar chutando ou nao as respostas.
Para modelar probabilsticamente este problema, temos que primeiro identicar a amostra aleatoria:
O professor tem em maos uma realizacao das variaveis aleat orias X
1
, X
2
, . . . X
10
, onde X
i
e uma v.a
que assume o valor 1 se o aluno acertou a i-esima pergunta e 0 se errou. Assim, X
i
tem distribuic ao de
Bernoulli com parametro p, desconhecido. Isto e,
X
i
=
_
_
_
1, se acertou (com probabilidade p)
0, se errou (com probabilidade 1 p)
A hipotese natural para este caso, e propor que a probabilidade do aluno acertar uma pergunta seja 1/2.
Esta hipotese e comumente chamada de hipotese nula e simbolizada por H
0
. Porem, se o aluno nao
estivesse chutando, ele responderia corretamente com probabilidade maior que 1/2.
Entao nos interessa testar
H
0
: p = 1/2 contra
H
1
: p > 1/2,
onde H
1
e chamada de hipotese alternativa.
Para resolver exemplos como este, temos que questionar algumas situa coes, para isso as perguntas
frequentes sao: Sem conhecer a atitude do aluno, como julgar se a hipotese nula e verdadeira ou nao?
Uma pergunta mais adequada, seria: Aceito ou rejeito a hipotese nula?
Ou ainda: Com que probabilidade eu aceito ou rejeito a hipotese nula?
Para respondermos a essas questoes precisamos conhecer dois conceitos estatsticos:
126 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
Teste Estatstico
Regra de Decisao
O Teste Estatistico e qualquer fun cao da amostra (estimador), cujo valor numerico (estimativa) possa
ser usado para decidir sobre rejeitar ou aceitar a hipotese nula.
Voltando ao exemplo 6.5.1, o Teste Estatistico mais natural para esse caso e
Y =
10
i=1
X
i
,
o n umero de respostas corretas.
Um Teste Estatstico e uma variavel aleatoria, logo precisamos saber quais valores Y assume e qual
e a sua distribuicao de probabilidade. Temos que Y tem distribuicao binomial de parametros n = 10 e p
(desconhecido) e, portanto, assume os seguintes valores:
0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10.
De acordo com esses valores podemos formar uma Regra de Decisao para o exemplo 6.5.1, a qual
determina para quais valores do Teste Estatstico vamos rejeitar ou aceitar a hipotese nula.
Suponha que no exemplo, o professor adote a seguinte Regra de Decisao:
Se oito ou mais respostas estiverem corretas, o estudante nao esta adivinhando, enquanto que se um
n umero menor que oito questoes estiverem corretas, o estudante esta advinhando.
Ou seja, a hipotese nula, H
0
: p = 1/2, sera rejeitada se Y = 8 ou Y = 9 ou Y = 10.
O evento Y 8 e chamado de Regiao Crtica ou Regiao de Rejei cao do Teste de Hipoteses.
Enquanto que o evento Y < 8 e chamado de Regiao de Aceitacao ou Regiao de Nao-Rejei cao do
Teste de Hip oteses.
6.5.1 Erro Tipo I
Voltando ao exemplo 6.5.1, o professor sabe que e possvel que um estudante esteja adivinhando e ainda
assim ele acerte 8 ou mais questoes. Isto e, temos a situa cao em que H
0
e verdadeira, mas e rejeitada.
O professor quer, certamente, que a probabilidade desse evento seja pequena. Podemos calcula-la da
seguinte forma:
Erro do tipo I = P(Y = 8 Y = 9 Y = 10; usando p = 1/2)
= P(Y = 8; p = 1/2) +P(Y = 9; p = 1/2) +P(Y = 10; p = 1/2)
=
_
10
8
__
1
2
_
10
+
_
10
9
__
1
2
_
10
+
_
10
10
__
1
2
_
10
=
7
128
.
Portanto, se o teste fosse aplicado 128 vezes, o professor esperaria rejeitar H
0
sete vezes, quando H
0
fosse
verdadeira.
A probabilidade 7/128 e chamada de Nvel de Signicancia do Teste de Hipoteses e representada
pela letra . A probabilidade de rejeitar a hipotese nula quando ela for verdadeira, e tambem chamada
6.5. TESTE DE HIP
OTESES 127
probabilidade de se cometer o Erro do tipo I.
No exemplo 6.5.1 vimos um Teste de Hipotese chamado de Unilateral (`a direita). Este teste possui essa
denominacao, pois testamos a hipotese nula onde p = 1/2, contra uma hipotese alternativa de p assumir
valores maiores que 1/2. Agora no proximo exemplo, tambem de Morettin (1981), vamos ver um caso de
Teste de Hipotese Bilateral.
Exemplo 6.5.2 Temos uma moeda e queremos saber se ela e honesta, lancando-a cinco vezes. Vamos
chamar de X a v.a que representa o resultado dos lancamentos, onde X
i
representa se saiu cara ou coroa
no i-esimo lancamento.
Temos que X e uma variavel com ditribuicao de Bermoulli de parametro p, desconhecido, tal que
X
i
=
_
_
_
1, se acertou com probabilidade p
0, se errou com probabilidade 1 p
A hipotese natural a se propor e que a moeda seja honesta (p = 1/2).
Assim, o Teste Estatstico mais adequado neste caso, e
Y =
5
i=1
X
i
onde Y representa o n umero de caras nos 5 lancamentos. Temos, novamente, uma v.a. Y com distribuicao
binomial de probabilidade com par ametros n = 10 e p (desconhecido) e, portanto, assume os seguintes
valores:
0, 1, 2, 3, 4, 5.
Vamos supor a seguinte Regra de Decisao:
A moeda sera considerada viciada se sarem 5 caras ou 5 coroas.
Entao rejeitamos a hipotese nula, se Y = 5 ou Y = 0, ou seja, quando sarem 5 ou nenhuma
cara. Portanto, a Regiao Crtica sera
Y = 5 Y = 0.
Calculando o Nvel de Signicancia do teste, ou melhor, a probabilidade da moeda ser viciada uma vez
que p = 1/2, temos
= P(Y = 0 Y = 5; p = 1/2) =
_
1
2
_
5
+
_
1
2
_
5
=
1
16
.
Portanto, conclumos que se a moeda fosse lancada 16 vezes, rejeitaramos a hipotese nula uma vez,
quando H
0
fosse verdadeira.
No exemplo acima, o teste e chamado de Teste de Hipoteses Bilateral, pois testamos a hipotese nula de
p = 1/2 contra p ,= 1/2, isto e, testamos a hipotese de p assumir valores maiores ou menores que 1/2.
6.5.2 Erro Tipo II
Retornando ao exemplo 6.5.1, vamos supor que o aluno acertou apenas 6 questoes.
Entao, nao ha razao para rejeitar H
0
e diramos que o aluno esta advinhando.
128 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
Mas, e possvel que o aluno nao esteja adivinhando(isto e, p > 0, 5), e no entanto o aluno acertou
apenas 6 questoes. Portanto, ha um outro tipo de erro envolvido nesse processo decisorio: aceitar H
0
,
sendo ela falsa, ou de forma equivalente, rejeitar H
1
, sendo ela verdadeira.
Assim, vamos supor a seguinte situacao. Seja p = 0, 8 a probabilidade desse aluno acertar, podemos
repensar o problema em termos de testar
H
0
: p = 0, 5
contra a hipotese alternativa
H
1
: p = 0, 8.
Vamos calcular a probabilidade, que chamaremos de , de aceitar H
0
quando H
1
for verdadeira, ou
equivalentemente, calcular a probabilidade, , de aceitar H
0
quando H
0
for falsa. Temos, para p = 0.8,
que
= P(Y = 0 Y = 1 . . . Y = 7; p = 0.8)
= P(Y = 0) +P(Y = 1; p = 0.8) +. . . +P(Y = 7; p = 0.8) = 0.322.
O Erro que consiste em aceitar H
0
, sendo ela falsa, e denominado Erro do tipo II. E, portanto, e a
probabilidade de se cometer Erro do tipo II.
Na tabela a seguir estao representados os erros de decisao:
A Verdade
H
0
e verdadeira H
1
e verdadeira
Nossa Decisao Rejeitar H
0
Erro Tipo I Decis ao Correta
Baseada no
Conj. de Dados N ao Rejeitar H
0
Decis ao Correta Erro Tipo II
Na tabela abaixo apresentamos os erros de decis ao do exemplo 6.5.1:
6.5. TESTE DE HIP
OTESES 129
A Verdade
p = 0, 5 p = 0, 8
Nossa Decisao Rejeitar H
0
Erro Tipo I Decis ao Correta
Baseada no
Conj. de Dados N ao Rejeitar H
0
Decis ao Correta Erro Tipo II
130 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
6.5.3 Relacoes entre os Erros Tipo I e Tipo II
Vamos ver como os erros do tipo I e II estao relacionados, quando tentamos diminuir um dos erros,
digamos .
Considerando novamente o exemplo 6.5.1, suponha que tomemos como Regiao Crtica o evento
Y 9.
Com a mudan ca da Regiao Crtica, obtemos novos valores para e :
0.01 < 0.054
e
= P(Y = 0; p = 0.8) +. . . +P(Y = 7; p = 0.8) +P(Y = 8; p = 0.8) = 0.624 > 0.322.
Vemos que diminuindo , aumenta. Na tabela abaixo podemos comparar alguns valores de e ,
associados a diferentes Regioes Crticas:
Regiao Crtica
7, 8, 9, 10 0.17 0.121
8, 9, 10 0.054 0.322
9, 10 0.01 0.624
Gostaramos que e fossem pequenos mas para n xado a priori, nao e possvel escolher e `a
nossa vontade. Entao e usual xar um valor para , comumente menor ou igual a 0, 01.
6.5.4 Poder e Funcao Poder de um Teste
Exemplo 6.5.3 Um novo metodo de ensino envolvendo recursos computacionais foi usado no ensino de
estatstica a um grupo de 100 estudantes. Seja X a variavel aleatoria que representa as notas dos alunos
de 1 a 100, onde X possui distribuicao normal com
2
= 100.
Antes de se adotar o novo metodo de ensino sabia-se que = 60. A partir de uma amostra aleatoria
de 25 notas, queremos testar se a media das notas aumentaram ap os o uso do novo metodo.
Portanto, vamos testar as seguintes hipoteses
H
0
: = 60
H
1
: > 60.
O Teste Estatstico para a media amostral sera:
X =
25
i=1
X
i
25
onde X N(,
2
/n) com
2
= 100/25.
Para caracterizar o desempenho do teste, denimos a Fun cao Poder do Teste, que e a probabilidade
de se rejeitar H
0
quando ela for falsa, que representamos por:
K() = P(rejeitar H
0
; ).
6.5. TESTE DE HIP
OTESES 131
Observe que se H
0
for falsa, entao H
1
e verdadeira. Em todos os exemplos que vimos ate agora, H
1
nao explicita um valor especco para , da termos a Fun cao Poder do Teste, K(), como funcao de
. Para um valor especco de , digamos
1
, obedecendo `a condicao exposta em H
1
, temos que K(
1
) e
chamado de Poder do Teste para
1
.
Voltando ao exemplo, vamos supor inicialmente a seguinte Regra de Decisao: rejeitar H
0
se X 62.
Entao, temos que
K() = P(X 62; ) = P
_
X
2
62
2
;
_
K() = 1 P
_
X
2
62
2
;
_
, 60
K() = 1 P
_
X
2
62
2
;
_
, 60
Em particular, K(60) = 0.1587 e a probabilidade de se rejeitar H
0
: = 60, quando ela for verdadeira.
Note que nesse caso, a func ao poder e igual ao nvel de signic ancia (), ou ainda, e igual a probabilidade
de se cometer o Erro do Tipo I.
Calculando a funcao poder para = 65, temos que K(65) = 0.9332, que e a probabilidade de se rejeitar
H
0
: = 60 quando = 65. Portanto, quando for um valor da hip otese alternativa, nao e difcil
perceber que quanto maior a funcao poder, melhor sera o teste. Entao, para = 65, 1K(65) = 0.0668 e
a probabilidade de nao se rejeitar H
0
: = 60 quando = 65. Ou melhor, e a probabilidade de se cometer
o Erro Tipo II: Rejeitar H
1
: > 60 quando ela for verdadeira, o que denotaremos por:
= 1 K()
Voltando novamente ao exemplo, o valor de = 0.1587 e considerado muito grande para a maior parte
dos estatsticos. Assim, vamos obter uma nova Regra de Decisao xando = 0.05:
K(60) = P(X t
c
; = 60) = 0.05
K(60) = P
_
X 60
2
t
c
60
2
; = 60
_
= 0.05
K(60) = 1 P
_
X
2
t
c
60
2
; = 60
_
= 0.05.
Da Tabela da normal padrao segue que
t
c
60
2
= 1.645 t
c
= 60 + 3.29 = 63.29
Embora esta mudanca cause uma reduc ao em de 0.1587 para 0.05, ela aumenta de 0.0668 para 0.1963,
isto e
= 1 K(62.29) = 1 P(X 63.29; = 65)
= 1 P
_
X 65
2
63.29 65
2
; = 65
_
= P(Z 0.855; = 65) = 0.1963.
132 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
Diminuir e simultaneamente requer o aumento do tamanho da amostra ou a proposta de um teste de
hipoteses mais eciente.
Por exemplo, se n = 100 com = 0.05, signica que a Regra de Decisao sera determinada a partir do
calculo de t
c
, tal que
= P(X t
c
; = 60) = 0.05
Como X N(, 1) temos
= P
_
X 60
1
t
c
60
1
; = 60
_
= 0.05
e pela tabela da normal padrao
t
c
60 = 1.645 t
c
= 61.645.
A funcao poder e
K() = P(X 61.645; )
= P
_
X
1
61.645
1
;
_
= 1 P(Z 61.645 ; ) .
Em particular,
= 1 K(65) = P(Z 61.645 65; = 65)
= P(Z 3.355; = 65) 0.
Portanto, para n = 100, e diminuiram em relacao aos valores que assumiram quando n = 25
( = 0.1587 e = 0.0668), contudo ao preco de termos que usar uma amostra quatro vezes maior, que
em muitos casos pode nao ser praticavel. Porem, podemos encontrar o valor mais adequado de n, que
diminua e , calculando a funcao poder para uma regiao crtica X t
c
, impondo = 0.025, e para
= 65 impondo = 0.05.
Desta forma X N(, 100/n), e temos duas equacoes
0.025 = P(X t
c
; = 60) = 1
_
Z
t
c
60
10/
n
; = 60
_
e
0.05 = P(X t
c
; = 60) =
_
Z
t
c
65
10/
n
; = 65
_
Obtendo,
_
_
t
c
60
10/
n
= 1.96
t
c
65
10/
n
= 1.645
Solucionando o sistema acima, temos que n = 51.98 e t
c
= 62.718. Portanto se X 62.718, rejeitamos
a hipotese nula.
6.5. TESTE DE HIP
OTESES 133
6.5.5 Teste de Hip oteses para a media de populacoes normais com variancias
conhecidas
Vamos abordar este topico atraves de alguns exemplos.
Exemplo 6.5.4 Uma fabrica anuncia que a media do ndice de nicotina dos cigarros da marca X
apresenta-se abaixo de 26mg por cigarro. Um laboratorio realiza dez analises do ndice, obtendo os se-
guintes resultados:
26, 24, 23, 22, 28, 25, 27, 26, 28, 24.
Sabe-se que o ndice de nicotina dos cigarros da marca X se distribui normalmente com variancia
5.36(mg)
2
.
Pode-se aceitar a armacao do fabricante, ao nvel de 5%?
As hipoteses nesse caso, sao
H
0
: = 26
H
1
: < 26.
Temos uma amostra aleatoria simples (X
1
, . . . , X
10
), com distribuicao normal, tal que X
i
N(,
2
), com
2
=
5.36.
O Teste Estatstico para media amostral e
X =
10
i=1
X
i
10
onde X N(,
2
/n) com =
_
(5.73)/10 = 0.73.
Determinamos a Regra de Decisao a partir de = 5%. Entao, temos que
P(X < t
c
; sob H
0
) = 5%
Portanto,
P
_
_
X E(X)
_
V ar(X)
t
c
E(X)
_
V ar(X)
_
_
= 0.05
P
_
X 26
0.73
t
c
26
0.73
_
= P
_
Z
t
c
26
0.73
_
= 0.05
Da tabela da distribuicao normal, obtemos
t
c
26
0.73
= 1.64,
o que nos da
t
c
= 0.73(1.64) + 26 = 24.803
Logo, a Regiao Crtica do teste de hipoteses e
X : X < 24.803.
A amostra forneceu X = 25.3 que nao pertence `a Regiao de Rejeicao de H
0
. Logo, aceitamos H
0
com 5%
de chance de aceitarmos uma hipotese Falsa. Ou ainda, aceitamos H
0
com 5% de chance de cometermos
Erro Tipo I (aceitar H
0
quando ela e falsa).
134 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
Exemplo 6.5.5 De uma populacao normal com variancia 36 toma-se uma amostra aleat oria simples de
tamanho 16, obtendo X = 43. Ao nvel de signicancia de 10%, vamos testar as hipoteses:
H
0
: = 45
H
1
: ,= 45.
A amostra aleatoria simples (X
1
, . . . , X
16
), tem distribuicao normal, onde X
i
N(,
2
) com
2
= 36.
O Teste Estatstico e:
X =
16
i=1
X
i
16
onde X N(,
2
/n) com
2
= 36/16.
A regi ao crtica nesse caso sera da forma:
t
c
< X < t
c
.
Agora vamos precisamos determinar a Regra de Decisao, a partir do nvel de signicancia = 10%.
Entao, devido a simetria da distribuicao normal temos que encontrar
P(X t
c
[ sob H
0
) = 5%
P
_
_
X E(X)
_
V ar(X)
t
c
E(X)
_
V ar(X)
_
_
= 0.05
P
_
X 45
6/4
t
c
45
6/4
_
= P
_
Z
t
c
45
3/2
_
= 0.05
Da tabela da distribuicao normal, temos
t
c
45
3/2
= 1.64,
o que implica em
t
c
= 1.64(3/2) + 45 = 47.46
t
c
= 1.64(3/2) 45 = 42.54
Concluindo
t
c
= 42, 54 e t
c
= 47, 46
Logo, a Regiao Crtica de H
0
e
X : 42, 54 < X < 47, 46.
Temos que X = 43 pertence ` a Regiao de Rejeicao de H
0
. Logo, rejeitamos H
0
.
Passos para a realizacao de um Teste de Hipoteses
A seguir apresentamos resumidamente os passos para a realizacao de um teste de hipoteses:
1. Estabelecer a hipotese nula e a hipotese alternativa.
2. Identicar a A.A.S e sua distribui cao
3. Determinar o teste estatistico e seu valor numerico
4. Fixar ou estabelecer uma Regra de Decisao, e encontrar a regiao crtica
5. Tomar a decisao entre rejeitar ou nao a hipotese nula, com base na regiao crtica.
6.5. TESTE DE HIP
OTESES 135
6.5.6 P-valor
Ate agora, construmos os testes de hipoteses a partir da xacao de um nvel de signicancia ou da
escolha de uma Regra de Decisao. Nesta secao, vamos mostrar outra forma de procedimento, conhecida
por tres denominacoes: Probabilidade de Signicancia, Nvel Descritivo e p-valor. Vamos ver que a unica
diferenca entre os dois procedimentos, e que utilizando o p-valor, nao construmos a Regiao Crtica. A
seguir apresentamos o conceito de p-valor.
Denicao 6.5.2 O pvalor associado a um teste de hipoteses e a probabilidade de se obter o valor
observado do teste estatstico ou um valor mais extremo em direcao `a hipotese alternativa, calculada
quando H
0
for verdadeira.
Assim, ao inves de selecionar uma Regi ao Crtica, o pvalor e calculado e o pesquisador toma uma decisao
comparando-o com um de sua escolha.
Voltando ao exemplo 6.5.3, digamos que queiramos testar
H
0
: = 60
H
1
: > 60.
baseados em uma amostra com 52 observa coes.
Suponha que obtivemos: X = 62.75. O p-valor para esse teste de hipotese e
p-valor = P(X 62.75; = 60)
= P
_
X 60
10/
52
62.75 60
10/
52
; = 60
_
= 1 P
_
X 60
10/
52
62.75 60
10/
52
; = 60
_
= 1 P
_
X 60
10/
52
1.983; = 60
_
= 0.0237.
Entao quando o p-valor for pequeno teremos a evidencia de que a hipotese nula e falsa, pois a amostra
possui uma probabilidade muito pequena de acontecer se H
0
for verdadeira e portanto nesse caso rejeitamos
H
0
. Podemos ver isso no exemplo 6.5.3, onde rejeitar H
0
quando o p valor 0.025 e o mesmo tipo de
rejeicao obtida se X 62.718.
Nesse caso, dizemos que X = 62.718 tem p-valor igual 0.025 e a hipotese nula e rejeitada para um
nvel de signicancia de 5%.
Exemplo 6.5.6 Suponha que no passado, a pontuacao de um jogador de golfe tivesse distribuicao, apro-
ximadamente, normal com = 90 e
2
= 9.
Depois de perder algumas aulas, o jogador acredita que sua media diminuiu, continuando com
2
= 9.
Vamos testar as seguintes hipoteses
H
0
: = 90
H
1
: < 90.
com base nas 16 partidas de golfe, que o jogador jogou recentemente.
136 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
O Teste Estatstico para a media amostral e
X =
16
i=1
X
i
16
onde X N(,
2
/n) com
2
= 9/16.
Regra de Decisao: Se X observado for pequeno, digamos X t
c
, entao H
0
e rejeitado e H
1
aceita.
Vamos supor que t
c
= 88.5, entao a funcao poder do teste e
K() = P(X 88.5; ).
Como X N(, 9/16) temos que
K() = P
_
X
3/4
88.5
3/4
;
_
= P
_
Z
88.5
3/4
;
_
.
onde Z N(0, 1).
Em particular,
= K(90) = P
_
Z
88.5 90
3/4
; = 90
_
= P
_
Z
6
3
; = 90
_
= P(Z 2; = 90) = 1 0.9772 = 0.0228,
que e a probabilidade de se cometer o Erro do Tipo I.
Se o valor verdadeiro de apos as aulas for = 88, o poder do teste e
K(88) = P(Z 2/3; = 88) = 0.7475.
Se, por outro lado, o valor verdadeiro de apos as aulas for = 87, o poder do teste e
K(87) = P(Z 2; = 87) = 0.9772.
O valor observado de X igual a X = 88.25 tem
p valor = P
_
X 88.25; = 90
_
= P
_
X 90
3/4
88.25 90
3/4
; = 90
_
= P
_
X 90
3/4
7
3
; = 90
_
= 0.0098,
e isso nos levaria a rejeitar H
0
para = 0.0228 (ou mesmo ate para = 0.01).
6.5. TESTE DE HIP
OTESES 137
6.5.7 Exerccios
1. Um candidato a presidente de um grande clube de futebol garante que pelo menos metade dos socios
do clube apoia sua candidatura.
(a) Uma empresa de pesquisas pretende avaliar esta pretensao do candidato em termos de um teste
de hipoteses apoiado nos resultados de uma sondagem. Identique a hipotese nula e a hipotese
alternativa que acha adequadas para realizar o teste.
(b) Identique o teste estatstico e diga se o teste e bilateral, unilateral `a esquerda ou unilateral `a
direita.
(c) Quais as interpretacoes das expressoes rejeitar H
o
e nao rejeitar H
o
no contexto do pro-
blema?
(d) Quais os signicados dos erros Tipo I e II no contexto do problema?
2. Num processo de fabrica cao, a probabilidade de uma peca sair defeituosa e 0.1 quando o processo
esta sob controle. Para testar se o processo esta sob controle sao inspecionadas 15 pecas, escolhidas
ao acaso da producao, concluindo-se que o processo esta fora de controle se o n umero de pecas
defeituosas encontradas e maior do que 3.
(a) Identique a hipotese nula e a hipotese alternativa que acha adequadas para realizar o teste.
(b) Identique o teste estatstico e diga se o teste e bilateral, unilateral `a esquerda ou unilateral `a
direita.
(c) Determine o nvel de signic ancia do teste.
(d) Quais as interpretacoes das expressoes rejeitar H
o
e nao rejeitar H
o
no contexto do pro-
blema?
(e) Quais os signicados dos erros Tipo I e II no contexto do problema?
(f) Calcule a potencia do teste admitindo que o processo esta a produzir pe cas de tal maneira que
20% sao defeituosoas. Nestas situacoes, qual e a probabilidade de cometer um erro do tipo II?
3. Uma convic cao generalizada entre as pessoas e que a temperatura media do corpo humano e 37
graus. Para uma amostra formada por 120 adultos sem problemas de sa ude foram observados e
regitradas as suas temperaturas. Obteve-se x = 36.8 e s = 0.62. Baseado nessa amostra, voce acha
que essa conviccao e correta? Teste a hipotese da temperatura media do corpo humano ser 37 graus
contra a hipotese de ser diferente desse valor, usando
(a) o procedimento baseado na determinacao da regiao crtica ao nvel de signicancia = 5%,
(b) e procedimento baseado no p-valor, tendo como referencia = 1%.
4. Um fabricante de latas para conserva de ameixas vai realizar um ajuste do equipamento que produz
as latas, se o valor medio do peso for maior ou igual ao peso da quantidade maxima de ameixas que
e conveniente colocar na lata, e que e 450 gramas.
Para decidir sobre o que deve fazer, o fabricante obteve uma amostra de 15 latas retiradas ao acaso
do estoque produzido e obteve uma media de peso igual a 442.35 gramas e um desvio padrao amostral
igual a 23.2 gramas. Sabe-se ainda, da historia do processo de testes efetuados, que o verdadeiro
desvio padrao do peso e 14.5 gramas.
138 CAP
ITULO 6. INFER
ENCIA ESTAT
ISTICA
(a) Especique as hipoteses que devem ser consideradas para podermos realizar um teste com vista
a encontrar a decisao que o fabricante deve tomar.
(b) Teste as hipoteses que formulou considerando dois nveis de signicancia = 5% e = 10%.
5. Para testar uma certa hipotese nula H
o
usou-se um teste estatstico T com distribuicao amostral
contnua. Concordou-se que H
o
seria rejeitada se fosse observado um valor de t do teste estatstico
para o qual (sob H
o
) a P(T t) fosse menor ou igual a 0.05. Sao fornecidos abaixo, diferentes
valores de t e uma correspondente probabilidade (sob H
o
). Especique para cada caso o p-valor se
possvel, e se devemos rejeitar H
o
.
(a) t = 2.34 e P(T 2.34) = 0.23.
(b) t = 2.34 e P(T 2.34) = 0.23.
(c) t = 0.03 e P(T 0.03) = 0.968.
(d) t = 1.07 e P(T 1.07) = 0.981.
(e) t = 1.07 e P(T 2.34) = 0.01.
(f) t = 2.34 e P(T 1.07) = 0.981.
(g) t = 2.34 e P(T 1.07) = 0.800.
6.
E dado um n umero t, que e a realizacao de uma v.a. T com distribuicao normal N(, 1). Para
testar H
o
: = 0 contra H
1
: ,= 0, usa-se o teste estatstico T. Decide-se rejeitar H
o
a favor de
H
1
se [t[ 2. Encontre a probabilidade de se cometer erro tipo I.
7. Para testar se um dado e honesto, ele e lan cado 1000 vezes e e considerado viciado se o n umero de
resultados pares ocorrerem mais do que 510 ou menos do que 490 vezes. Qual o nvel de siginicancia
do teste?
8. De uma v.a. uniforme assumindo valores no intervalo (0, ) e extrada uma unica observacao com
vista a testar a hipotese H
o
: = 1/2 contra H
1
: > 1/2
(a) Sabendo-se que a regra de decisao consiste em rejeitar H
o
se o valor observado exceder 0.499,
determine
i. nvel de signicancia do teste;
ii. a probabilidade de ser cometido um erro Tipo II, admitindo que H
o
e falsa e que o verda-
deiro valor de e 0.6;
(b) Responda os itens (i) e (ii) anteriores para as seguintes novas regras de decisao:
i. rejeitar H
o
se o valor observado exceder 0.5;
ii. rejeitar H
o
se o valor observado exceder 0.25;
(c) Fa ca uma tabela relacionando os valores de , e nas tres situacoes. O que voce pode
concluir de toda analise feita no decorrer do exerccio?
9. Uma popula cao X tem distribui cao normal X N(, 4). A m de proceder o teste da hipotese
H
o
: = 1 contra hipotese H
1
: ,= 1 ao nvel de signicancia , e extrada uma amostra da
popula cao x
1
, . . . x
n
e usa-se a seguinte regra: rejeitar H
o
se x < 1 c, onde x e o valor assumido
pela media amostral a partir do conjunto de dados x
1
, . . . x
n
.
Determine o valor de c em funcao da dimensao da amostra e do nvel de signicancia. Especique
a regiao de rejeicao para o caso em que n = 64 e = 5%.
Referencias Bibliogracas
[1] BERTSEKAS D. P; TSITSIKLIS J.N. Introduction to Probability. Cambridge: Athena Scientic,
2000.
[2] BUSSAB, W. O; MORETTIN, P. A. Estatstica Basica. 5
a
ed. Sao Paulo: Saraiva, 2002.
[3] DANTAS, C. A. B. Probabilidade: um curso introdutorio. 2
a
ed. Sao Paulo: Editora da Universi-
dade de Sao Paulo, 2004.
[4] DEKKING, F. M; KRAAIKAMP, C.; LOPUHA