You are on page 1of 112

MATEMÁTICA APLICADA

Autor
ALEX DIAS DE OLIVEIRA

1ª Edição

PROFISSIONET CURSOS LTDA.


Avenida das Américas, 3434
Bloco 05 - Sala 410 - Barra da Tijuca
Rio de Janeiro - R.J. - CEP: 22.640-102
(21) 2141-9500
publicacoes@profissionet.com.br
Rio de Janeiro
2014
PROIBIDA A REPRODUÇÃO
O conteúdo deste material é de uso exclusivo do aluno, sendo vedada sua
reprodução, cópia, divulgação e distribuição não autorizada por quaisquer meios e a
qualquer título.

SISTEMA DE ENSINO ELECTRA

O Brasil hoje possui grande carência de técnicos para atuar no mercado


de trabalho, necessitando formar rapidamente novos profissionais de nível técnico
no país.

Percebendo as novas demandas de formação, a Escola Electra, que atua


no mercado educacional desde 1939, apresenta o seu Sistema de Ensino para
Educação Profissional, com cursos técnicos de grande procura e aceitação no
mercado de trabalho.

Acompanhando o desenvolvimento tecnológico, avançamos na modernização


da estrutura das disciplinas, que estão organizadas em módulos e aliadas aos livros,
a fim de garantir sólida certificação intermediária e, ao final do curso, habilitação
profissional de nível técnico compatível com o mercado.

Os módulos são bimestrais e compostos por cinco disciplinas em média,


selecionadas para garantir cada certificação intermediária, o que possibilita o acesso
ao mercado de trabalho a partir da primeira certificação. Além disso, temos uma
Central de Estágios com cerca de 300 empresas parceiras que oferecem excelentes
oportunidades aos nossos alunos.

O Sistema de Ensino Electra acredita no potencial de seus estudantes e


acredita que, com formação profissional de qualidade, podem conquistar maior
qualidade de vida e contribuir para o desenvolvimento do nosso país.

Nosso conteúdo e nossos livros foram pensados para você que quer
conquistar novas possibilidades! Em suas mãos está o nosso melhor, para
que você possa alcançar o máximo de si! Aproveite seus livros da melhor
forma e se dedique aos seus estudos! Bom futuro!

ESCOLA ELECTRA
ÍNDICE

1. Introdução à Estatística......................................................................................... 7
1.1 Conceitos Iniciais..............................................................................................................................7
1.2 O Impossível de Forma Possível..................................................................................................8
1.3 Obtendo Dados................................................................................................................................9
1.4 Amostragem Aleatória...................................................................................................................10
1.5 Formas de Obter e Analisar os Dados.......................................................................................11
1.6 Variáveis...............................................................................................................................................12
2. Estatística Descritiva............................................................................................. 17
2.1 Estatística como Duas.....................................................................................................................17
2.2 Estatística Descritiva ......................................................................................................................17
2.3 Classificação Inicial e Propriedades de Variáveis...................................................................17
2.4 Distribuição de Frequência...........................................................................................................18
2.5 Gráficos Representativos...............................................................................................................23
2.6 Medidas de Tendencia Central....................................................................................................26
2.7 Medidas de Dispersão....................................................................................................................29
2.8 Quantis ...............................................................................................................................................32
2.9 Simetria de Distribuições...............................................................................................................33
2.10 Boxplot..............................................................................................................................................34
3. Elementos de Probabilidade................................................................................. 41
3.1 Conjuntos e Métodos de Contagem..........................................................................................41
3.2 Probabilidade ...................................................................................................................................46
3.3 Probabilidade Total.........................................................................................................................49
3.4 Variáveis Aleatórias..........................................................................................................................50
3.5 Distribuições......................................................................................................................................51
3.6 Distribuição Bernoulli e Binomial...............................................................................................53
3.7 Distribuição Normal........................................................................................................................55
3.8 Distribuição Uniforme....................................................................................................................57
4. Inferência Estatística............................................................................................. 61
4.1 Inferência............................................................................................................................................61
4.2 Um Pouco mais Sobre: Amostras, Populações, Estatísticas e Parâmetros....................61
4.3 Distribuição Amostral da Média e o Teorema Central do Limite.....................................62
4.4 A Distribuição Amostral da Proporção.....................................................................................65
4.5 Distribuição Amostral da Variância e Distribuição Chi-Quadrado..................................66
4.6 Determinação do Tamanho de uma Amostra........................................................................68
4.7 Propriedade de Estimadores........................................................................................................68
4.8 Estimador de Minimos Quadrados............................................................................................71
4.9 Correlação..........................................................................................................................................72
4.10 Regressão Linear (Ou Regressão de Mínimos Quadrados)..............................................73
4.11 Intervalo de Confiança.................................................................................................................76
4.12 Testes de Hipótese.........................................................................................................................79
5. Introdução à Matemática Financeira................................................................... 89
5.1 Introdução..........................................................................................................................................89
5.2 Conceitos............................................................................................................................................89
5.3 Juros Simples.....................................................................................................................................89
5.4 Juros Compostos..............................................................................................................................90
5.5 Fator de Acumulação de Capital.................................................................................................91
5.6 Fator de Valor Atual.........................................................................................................................91
5.7 Desconto.............................................................................................................................................92
5.8 Desconto Simples Comercial.......................................................................................................92
5.9 Desconto Simples Racional...........................................................................................................93
5.10 Desconto Racional Composto...................................................................................................93
5.11 Taxas...................................................................................................................................................94
5.12 Fuxo de Caixa..................................................................................................................................95
01. Introdução à Estatística
Na área da matemática aplicada existe uma importante ferramenta para analisar dados sobre as mais diversas
situações. Esta ferramenta é a análise estatística.

A Estatística existe desde o século XVI como campo da matemática aplicada. Seu
conceito vem de um conjunto de métodos de pesquisa que, entre outro tópicos, envolve o
planejamento de experimentos, a análise e o processamento de dados, e, a partir disso, criar uma
estimativa sobre o que se pode ter como padrão e conclusões a partir delas.

Imagine que precisamos descobrir se um novo produto será aceito por um publico.
Pesquisas de mercado são feitas entrevistando pessoas sobre a utilidade do produto para verificar
se ele é bem aceito ou não. A intenção dessa pesquisa é, através de uma pequena parte da
população, verificar se há alguma tendência seguida pela maioria e estimar então o comportamento
geral. Respostas que se repetem ou se agrupam de acordo com um comportamento bem definido
forma o que chamamos de padrão. Achar um padrão em um conjunto de informações, que
Fig. 01 chamamos de dados ou observações, é o que chamamos de processo estatístico.

Historicamente, a estatística moderna surgiu no final do século XIX e foi amplamente utilizada por cientistas de forma
a descreverem, com maior certeza, eventos generalizados sobre suas teorias. As hipóteses sobre as contribuições que o tabaco
possuem para o desenvolvimento do Cancêr em fumantes e não fumantes, a estimativa do crescimento da população mundial e
a necessidade por um aumento na oferta de alimentos são dois exemplos de como a estatística, analisando pequenas porções,
pode concluir sobre o comportamento de todos.

No mercado de trabalho moderno, terá destaque aquele profissional capaz de interpretar melhor os dados com que trabalha.

1.1 Conceitos Iniciais


Antes de falarmos sobre quaisquer aplicações da Estatística, devemos distinguir três conceitos importantes:
aleatoriedade, probabilidade e estatística.

Aleatoriedade - É um conceito que se refere a eventos que ocorrem, a principio, sem nenhum tipo de padrão aparente.
Imagine um sorteio de números da loteria, por exemplo. Existem diversas bolinhas dentro de uma urna, cada uma marcada com
um número, e o responsável pelo sorteio coloca a mão na urna e retira, sem olhar, uma bolinha qualquer. O fato de que ele não
usou nenhuma critéio para escolher aquele número em específico faz com que este sorteio seja classificado como aleatório.
Em outras palavras, um evento aleatório é um evento que ocorre sem ser dominado por nenhum tipo de regra e, portanto, é
impossível de ser previsto.

Matemáticos modernos, entretanto, acreditam que qualquer evento, mesmo que pareça completamente aleatório,
segue um determinado padrão que pode ser encontrado e com isso, o evento pode ser previsto.

Embora seja impossível prever exatamente qual será o resultado de um evento aleatório, é possível fazer uma
estimativa do resultado que possuí mais chance de acontecer. Para isso, usamos o conceito de probabilidade.

Probabilidade é uma palavra moderna para conceitos matemáticos antigos. Vamos tratar mais desse assunto na unidade
3, mas, previamente, precisa-se ter a noção de que probabilidade descreve o que poderíamos chamar de “um palpite sobre o que se
pode esperar”.

Para exemplificar, vamos imaginar que temos uma moeda em nossas mãos.
A moeda possui duas faces conhecidas, “cara” ou “coroa”. Se lançarmos essa moeda no
ar e deixarmos que ela caia no chão, somente uma das faces ficará virada para cima,
visível. Seja qual for a face, podemos dizer que, caso não haja interferência externa, cada
face possui a mesma chance, possibilidade ou probabilidade, de que tanto “cara”, quanto
“coroa”, aconteçam.
Fig. 02

7
A probabilidade de algo ocorrer geralmente é expressa em relação ao número total de resultados possíveis. Por
exemplo no caso da moeda, temos um total de dois resultados possíveis, ou cara ou coroa. Assim, a possibilidade de se obter
cara é uma em dois, ou seja, metade das chances. É comum expressar a probabilidade em porcentagem, assim temos que a
chance de se tirar cara é de 50%.

O ato de jogar uma moeda para cima é um evento aleatório, pois não segue nenhuma tendência e embora seu
resultado seja impossível de prever, podemos estimar a possibilidade de se obter um dos dois resultados usando a probabilidade.
Quanto maior a probabilidade de um evento ocorrer, dizemos que ele é mais provável. A probabilidade de um resultado pode ser
determinada a partir da seguinte expressão:

n
(1.1)

P=
NT
Onde:

P - é probabilidade de se obter um determinado resultado para um evento.

NT - é o número total de eventos possíveis.

n - é o número mínimo de vezes em que o resultado que está se medindo a probabilidade, deve ocorrer com certeza.

Finalmente, Estatística trata de uma informação, ou característica numérica obtida através de um conjunto de dados que
tenham sido retirados de eventos aleatórios e estimados de acordo com suas probabilidades de ocorrerem.

O termo estatística surgiu da expressão em latim statisticum collegium ou “palestra sobre os assuntos do Estado”,


de onde surgiu a palavra italiana statista, que significa “homem de estado”, ou político, e a palavra alemã Statistik, designando
a  análise de dados  sobre o Estado. A palavra foi proposta pela primeira vez no  século XVII, em latim, por Schmeitzel na
Universidade de Jena e adotada pelo acadêmico alemão Godofredo Achenwall. Aparece como vocabulário na  Enciclopédia
Britânica em 1797, e adquiriu um significado de coleta e classificação de dados, no início do século 19.

1.2 O Impossível de Forma Possível


Tratando dessa análise inicial, podemos pensar que a estatística serve como um método da matemática aplicada para
a análise de dados e respostas sobre eles. A idéia generalizada de uma análise completa de dados nasceu do método cientifico
– o qual trouxe a estatística ao mundo moderno.

Parte do trabalho dos cientistas está na observação de dados e formulação de hipóteses gerais
para a explicação de fenômenos desconhecidos. Indo mais longe, podemos concordar que isso faz parte
do trabalho de todos – a análise de dados e a obtenção de informações deles para sua utilização faz parte
do trabalho de qualquer um.

A estatística possui métodos que fazem essa parte da análise e estima o possível comportamento
futuro de suas informações. Pesquisas eleitorais, por exemplo, são completamente baseadas em métodos
estatísticos e estimam, de forma simples, a tendência da escolha de uma nação quanto a um assunto
como o futuro governante político.

Certamente você deve estar se questionando como a estatística é capaz de analisar todas as
informações existentes para poder, a partir daí, supor qualquer tipo de conclusão? A resposta é que a
estatística estima o impossível através de analises do possível. Fig. 03

Muitas vezes, não somos capazes de tomar todos os dados que precisamos para fazer uma análise completa. Isso se
dá por questões de ética, no caso de cientistas, ou então por tempo, financiamento ou pessoal limitado.

Assim, através dos conceitos de aleatoriedade, probabilidade e estatística, aplicados a um conjunto de dados,
chegamos ao que chamamos de Modelo. Dado um certo número de dados coletados, a análise estatística procura por repetições
ou padrões entre eles e tenta criar uma regra que determina o comportamento daqueles dados. Essa regra é o modelo.

Imaginemos, a principio, que estamos analisando uma relação entre Quantidade Adquirida de um Produto em relação ao
seu Preço e verificamos que produtos que custam quase R$ 50,00 venderam menos de 10 unidades, produtos que custam R$ 35,00

8
venderam pouco menos de 30 unidades e seguimos até termos, por ultimo que produtos com o preço de R$ 10,00 venderam quase
50 unidades. Com isso, podemos criar um modelo simples que descreve o comportamento desses dados afirmando que quando
menor o preço, maior o número de produtos vendidos.

Esta informação é interessante, mas insuficiente. Para que o vendedor possa fazer uma previsão de quantos produtos
ele irá vender de acordo com o preço, é preciso quantificar esse modelo, isto é, descrevê-lo na forma de equação.

Como este modelo é baseado apenas em uma parcela das vendas, ele possuí erros em suas previsões e estes devem
ser considerados. Quanto maior o número de dados usados para construir o modelo, menor é o tamanho do erro. De forma
simples, podemos elaborar o seguinte gráfico:

Os pontos descritos na Fig. 04, indicam a relação entre a quantidade e o preço e são chamados de Dados. A previsão
feita a partir do modelo é uma informação sobre os dados e por isso, temos que:

Dados = Modelo + Erro

Comumente, chamamos o Modelo de parte regular ou previsível enquanto que o Erro de parte aleatória. É
dessa forma, analisando os dados e criando os chamados Modelos, que a Estatística provém com respostas possíveis
para eventos impossíveis.

Fig. 04 - Relação entre Preço e Quantidade de um Produto

Algumas ciências usam a estatística aplicada tão extensivamente que elas têm uma terminologia especializada. Estas
disciplinas incluem: Bioestatística, Contabilometria, Controle de qualidade, Estatística comercial, Estatística econômica, Estatística
engenharia, Estatística física, Estatística populacional, Estatística psicológica, Estatística social (para todas as ciências sociais),
Física quântica, Geoestatística, Pesquisa operacional, Análise de processo e quimiometria (para análise de dados da química
analítica e da engenharia química).

1.3 Obtendo Dados


Certamente, antes de qualquer tipo de análise que façamos entre os dados, precisamos primeiro obtê-los. A melhor
forma possível para isso é utilizarmos o que se conhece como Pesquisa por Amostras.

Imagine que estamos interessados em estudar a opinião do povo brasileiro tendo em vista suas intenções eleitorais
para dois candidatos à presidência. O Brasil possui mais de 193 milhões de habitantes e entrevistar cada um deles para saber
suas intenções seria financeiramente inviável e impossível em tempo hábil.

Contudo, se selecionarmos um grupo variado de pessoas por todo o território nacional, teremos representações da
intenção de voto por todo o território nacional.

9
Usando essas como guia, podemos traçar um padrão para toda a população e, a
partir daí, esboçarmos uma margem de erro, para mais ou para menos. Ou seja, como não
podemos selecionar toda a população, extraímos uma Amostra dela – um grupo selecionado
aleatoriamente por todo o território.

A partir dessa amostra, criamos Estatísticas e as usamos para formalizar um Modelo.


A diferença de nosso modelo para os dados reais cria os Resíduos (ou Erro).

De forma clara, precisamos entender que População e Amostra são coisas complementares,
ou seja, uma depende da outra, mas que possuem definições e aplicações diferentes. Fig. 05

Uma População é um conjunto completo de indivíduos, objetos ou unidades sobre os quais queremos informações.
Ela pode ser uma população finita, como a população do Brasil, ou infinita, como os artigos que saem de uma linha de produção.
Quando conseguimos pesquisar todas as unidades de uma população temos um Censo.

Amostra é um subconjunto de unidades que são retiradas de uma população de


interesse como, por exemplo, as pessoas escolhidas para a indicação da intenção de votos
na pesquisa eleitoral. Pesquisas por Amostras são mais comuns, pois reduzem os custos e
são mais rápidas de serem realizadas.

Além disso, a População nos fornece o que chamamos de Parâmetros, características


numéricas pertencentes a todos os seus membros. Por exemplo: a renda média dos brasileiros
é uma característica numérica comum à todos os membros da população.

Enquanto isso, a Amostra nos fornece Estatísticas que, como já explicamos, são
características numéricas de uma representação da população e que geralmente usamos
para estimar os parâmetros de uma população. Exemplo: a renda média da População
Fig. 06 Economicamente Ativa brasileira pode estimar a renda média dos brasileiros.

Entretanto, como seria possível que a Amostra demonstrasse um parâmetro de uma População? Se escolhemos
quaisquer tipos de indivíduos para compor nossa amostra, como podemos ter certeza de que eles representarão a População
por completo? Explicaremos isso mais a fundo na unidade 4, mas por hora, usaremos os conceitos inicialmente explicados:
aleatoriedade, probabilidade e estatística.

1.4 Amostragem Aleatória


Imaginemos que uma pesquisa sobre as intenções de voto esteja sendo realizada para saber se a população brasileira
votaria no candidato A ou no candidato B. Imaginando que nossa população seja composta por 193 milhões de pessoas,
devemos escolher uma pessoa qualquer dentre as outras de forma que a opinião dela reflita o que a população deseja.

Pelo principio básico da probabilidade, sabemos que a chance de cada pessoa, pertencente ao território nacional, ser
escolhida é igual. Ou seja, queremos 1 pessoa dentre 193 milhões. Assim, matematicamente:

Multiplicando esse número por 100, temos a porcentagem dessa probabilidade. Logo, qualquer pessoa no Brasil
possuí 0,0000005% de uma dada “chance em ser escolhida” para responder a pesquisa – indiferente de idade, classe social,
profissão ou quaisquer outras características pessoais.

Sendo, portanto, essa chance igual para todas as unidades da população e selecionando-as sem critérios prévios,
temos o que se chama de Amostra Aleatória Simples (AAS).

Quando introduzimos algum critério em nossa pesquisa como, pessoas do mesmo sexo, da mesma faixa etária ou com
a mesma renda, temos o que chamamos de parâmetros da nossa pesquisa. Os parâmetros são as características usadas para
escolher a amostra. Quando não usamos nenhum tipo de parâmetro aparente, temos uma amostra aleatória.

Além de evitar vícios, a Amostragem Aleatória nos possibilita calcular o tamanho do erro provável em nossas
estimativas, ou seja, o Erro Amostral. É importante notar que a idéia de minizarmos nosso erro, ou seja, reduzir o máximo
possível a diferença entre nosso padrão e a posição real dos dados, provém da ideia de termos uma melhor descrição
dos Dados feita pelo Modelo.

10
1.5 Formas de Obter e Analisar os Dados
Escolher um indivíduo com probabilidade igual aos demais não é o único passo que se deve tomar para garantir que
toda a sua amostra corresponda à uma boa aproximação do que é a sua população na realidade – é apenas o primeiro passo.

Como dissemos anteriormente, cientistas criam hipóteses para suas teorias e as comprovam através da comparação
de dados. Os dados, por sua vez, são obtidos através de pesquisas e as conclusões são tipos de previsões feitas a partir desses
dados. Tais pesquisas, comumente fornecem duas fontes de dados: Experimentos e Estudos Observacionais.

Nos dois casos, a principal idéia está em comparar as unidades amostrais de forma a termos como criar padrões e,
a partir dai, modelos.

Em um Experimento, possuímos uma teoria sobre como os dados se comportam acreditando que algumas alterações
podem causar alguns comportamentos específicos. Por exemplo: um cientista acredita que exista uma relação entre o tipo de
alimentação que uma pessoa tem e seu comportamento.

Usando de seus conhecimentos específicos, o cientista cria um experimento onde, usando de cobaias igualmente
prováveis, ou seja, uma AAS, ele aplica um determinado tipo de alimentação e analisa os efeitos dela no comportamento
das cobaias. Desta forma ele estuda o comportamento ou fenômeno que deseja verificar mantendo um certo controle dos
parâmetros que envolvem o experimento.

Em um Estudo Observacional, por outro lado, possuímos uma teoria que explica uma idéia, mas por quaisquer
limitações que possam existir, não temos como controlar o comportamento dos dados. Imagine, por exemplo, que um engenheiro
ambiental acredita que o desmatamento da borda de um rio esteja provocando um determinado efeito de alagamento do solo
nas proximidades. Infelizmente, a mata de borda já está desmatada e, obviamente, o engenheiro não irá desmatar outro lugar
somente para provar sua teoria. Portanto, ele recorre as informações de outros locais que estão com as matas de borda de rio
desmatadas e observa se existe o mesmo efeito que a teoria dele propõe. Este tipo de observação experimental, sem controle
dos parâmetros por parte do pesquisador é o que chamamos de estudo observacional.

A partir da obtenção dos dados, sejam eles por estudo observacional ou por experimento, devemos agora estudar e
interpretar estes dados para verificar se existe alguma relação ou comportamento padronizado presente que possam constituir
um modelo que estabelece a melhor relação “provável causa e efeito”.

Dada a aleatoriedade presente em qualquer tipo de analise estatistica, NUNCA podemos afirmar com 100% de
certeza uma relação de “causa e efeito”. Isso ocorre, pois mesmo com um modelo, ainda existe a chamada parte aleatória, o
Erro. Veremos mais sobre isso na unidade 03 e 04. Dessa forma, SEMPRE usamos a expressão “provável causa e efeito”, pois
há uma idéia de uma probabilidade associada à nossa teoria.
Por exemplo: uma das maiores discussões entre médicos, indústria e bioestatísticos hoje se concentra na relação
entre fumar e o surgimento de câncer nos fumantes. Além da predisposição genética que possa vir a existir, existem casos
onde fumantes intensivos com histórico familiar da doença, não desenvolveram sintomas relacionados à doença – como
também há casos onde pessoas, não-fumantes, sem histórico algum da doença em suas famílias, desenvolveram-na.

Em um Estudo Observacional, por não controlarmos o que acontece com nossos dados, não podemos estabelecer
uma forte relação de “provável causa e efeito” entre as informações se não obtivermos um bom modelo que descreva o
comportamento desses dados.

Em um Experimento, por outro lado, como possuímos controle sobre as


características que atribuímos ao comportamento de nossas hipóteses, podemos
alterá-las para criarmos a comparação. Dessa forma, todas as opções de efeito
desejado podem ser testadas e garantiríamos que nossos resultados possuem uma
forte relação de “provável causa e efeito” baseados em um modelo.

Após conseguirmos os dados, seja por um Experimento ou por um Estudo


Observacional, o que devemos garantir é que o método comparativo entre os dados
seja o melhor possível. Nosso objetivo é de que nossa representação seja aleatória,
de forma a garantir uma boa aproximação à nossa população real.

No inicio dessa unidade dissemos que eventos aleatórios são previsíveis.


Podemos garantir isso usando de duas técnicas comparativas cientificas: o
emparelhamento e a blocagem. Fig. 07

Emparelhar consiste em utilizar uma mesma unidade amostral como comparativo em dois momentos: antes e depois.

11
Imagine que um novo tipo de vacina que se acredita ser capaz de combater o Mal de
Chagas. O cientista anota todas as informações importantes sobre as cobaias, por exemplo, o
número de parasitas que circulam no sistema sanguíneo e o biótipo de cada cobaia. Então ele
aplica a vacina e compara estas informações sobre as cobaias antes e depois, buscando verificar
mudanças causadas pelo experimento, que neste caso foi a vacina.

A Blocagem, por sua vez, trata de considerar todos os fatores possíveis entre as unidades
amostrais aleatórias para determinar se elas constituem um mesmo grupo.

Por exemplo, imagine que uma empresa farmacêutica está querendo testar se uma nova
droga tem um efeito esperado, digamos, de diminuir o apetite. Existe um efeito psicológico que Fig. 08
aparece pelo simples fato de um indivíduo saber que está tomando um remédio. A empresa não está interessada em medir
efeitos de melhora ou mudança de comportamento porque um paciente acredita que está tomando um remédio e sim medir o
efeito de fato causado pelo remédio. Para eliminar este fator as empresas separam as cobaias em dois grupos.

Um grupo de pessoas é selecionado aleatoriamente e eles são submetidos ao tratamento com a droga enquanto outro
grupo recebe o tratamento com uma droga de mentira que chamamos de placebo. A comparação entre os resultados obtidos com
os dois nos permite determinar os efeitos isolados apenas do remédio. A comparação dos resultados será feita utilizando o critério
diminuição de apetite de acordo com o sexo da pessoa, ou seja, quem for do sexo masculino e tomou a droga será comparado com
o outro do mesmo sexo submetido ao placebo (droga de mentira) e a mesma coisa será feita com as pessoas do sexo Feminino.
Isso porque o cientista, neste caso, acredita que homens e mulheres vão responder de forma diferente ao tratamento.

Este processo de dividir os dados obtidos e compará-los usando determinados grupos é que chamamos de blocagem.

Essas duas análises garantem uma melhor forma de se obter informações e, certamente, influenciam na aleatoriedade.
Isso por que para Aleatorização a idéia é de colocar nossas unidades amostrais em grupos para que as comparações sejam
imparciais – e podemos fazer esses agrupamentos pela blocagem ou pelo emparelhamento.

Como vimos, um experimento tem um melhor grau de confiança nas informações que são obtidas para nossa análise.
Garantindo a aleatoriedade, somos capazes de calcular as probabilidades dos erros nos Modelos e nas previsões que fizermos
com nossos resultados.

Portanto, para garantir bons resultados, devemos, sempre que possível:

Utilizar amostras aleatórias;

Colocar as unidades da amostra em grupos, seja por blocagem ou por emparelhamento, determinando, assim, grupos
de dados a serem analisados.

1.6 Variáveis
Sabemos agora que a Estatística utiliza de informações extraídas de grupos analisados em experimentos ou estudos
observacionais e descreve o comportamento das mesmas através de modelos. Entretanto, o que são essas informações?

Quando definimos uma amostra, fazemos isso buscando um determinado tipo de característica associativa a teoria que
temos. Por exemplo, se estamos buscando estimar a renda média da população brasileira, uma boa característica comum entre
unidades amostrais seria a renda média da população ativa. Ou seja, buscamos entre todas as possíveis qualidades que uma
unidade possa ter, por aquela que nos interessa e é indicativa de nosso objetivo. A esta característica damos o nome de variável.

As variáveis são divididas em dois conjuntos e deles, em dois sub-conjuntos:

Variáveis Qualitativas, também chamadas de Categóricas, são variáveis que indicam qualidades ou aspectos dos indivíduos
como, por exemplo, sexo, classe social e etnia. E se dividem em duas categorias: Qualitativas Nominais e Qualitativas Ordinais.

A diferença entre elas está no conceito de que enquanto as Ordinais são do tipo de característica que podem ser
ordenadas como, por exemplo, os diferentes tipos de classe social existentes no Brasil, ou uma pesquisa sobre os nomes mais
comuns no Brasil. Embora os nomes sejam palavras que não podemos atribuir o conceito de quantidade, podemos ordená-
los usando algum tipo de regra, como por exemplo, a ordem alfabética. Já as variáveis qualitativas Nominais não podem ser
ordenadas de forma distinta, por exemplo, em uma pesquisa sobre a concentração de gênero sexual em uma cidade. A variável
neste caso é o sexo que pode ser, masculino ou feminino. Porém, não há, aparentemente, nenhum critério que me permita
colocar estas variáveis em uma ordem específica.

As Variáveis Quantitativas são aquelas que indicam números que resultam de processos de contagem ou mensuração
– altura, temperatura, peso, renda, idade. Como as Qualitativas, podem ser divididas em duas: Discretas e Contínuas.

12
A relação entre variáveis quantitativas discretas e contínuas encontra-se na matemática: as discretas são valores que
formam conjuntos de números inteiros. Por exemplo: número de filhos de um casal ou número de habitantes de uma cidade. Não
há como a resposta para estas pesquisas ser algo do tipo 1,5 ou 2,3. Sempre serão números inteiros. Já as contínuas, são valores
possíveis que pertencem a um intervalo de números reais e admitem casas decimais. Por exemplo: renda familiar ou horas trabalhadas.

Imaginemos, agora, que queremos analisar o grau de satisfação de consumidores sobre um determinado produto feito por
essa mesma indústria. A satisfação das pessoas não possui uma classificação numérica, baseia-se na opinião. Dessa forma, como teremos
respostas do tipo: “Gosto Muito”, “Não Gosto” ou semelhantes, com graus de comparação, temos uma variável Qualitativa Ordinal.

1) No campo da Matemática aplicada, o que é Aleatoriedade para a Estatística?

a) Para matemáticos modernos, aleatoriedade caracteriza a capacidade de se estimar o resultado de um evento dado como
aleatório através de sua probabilidade;
b) Aleatoriedade é o fato de não se usar nenhum critério para se escolher uma unidade da amostra.
c) Matemáticos modernos, dotados de modelos, acreditam que aleatoriedade seja um evento que ocorre sem ser dominado por
qualquer tipo de regra e, portanto, é impossível de ser previsto.
d) Aleatoriedade é ser capaz de isolar uma amostra aleatoria simples através da probabilidade dela acontecer.

2) “Parte do trabalho dos cientistas está alocado na observação de dados e formulação de hipóteses generalizadas para explicação
dos mesmos” – (unidade 01, pág. 02). Explique qual a importância dos métodos estatísticos para a ciência de forma geral.

a) Métodos estatísticos servem para termos boas noções de lógica matemática e aplicações contábeis.
b) A estatística possuí métodos que fazem a análise de informações obtidas por cientistas e, de forma matemática, estimam o
possível comportamento delas.
c) Cientistas usam dos métodos estatísticos para preverem como suas teorias e hipóteses são na realidade.
d) Métodos estatísticos possuem relevante importância para os cientistas, pois são ferramentas matemáticas que possuem a
capacidade de trazer o mundo real para a teoria experimental.

3) O quê são Modelos?

a) São a forma de tendência de uma população.


b) São técnicas para quando náo somos capazes de tomar todos os dados que precisamos para fazer uma análise completa.
c) São um determinado conjunto de dados descritos por uma regra especifica.
d) Dado um conjunto de dados, o modelo é uma regra que determina o comportamento deles.

4) Explique o quê são os Resíduos ou Erros?

a) Erros são quantificações matemáticas das características de uma amostra.


b) Chamamos de Resíduo ou Erro a característica numérica pertencente a uma População.
c) Os Resíduos ou Erros são a diferença existente entre e aproximação do Modelo e o valor real de um Dado.
d) Erros ou Resíduos são a variação entre o Modelo e a Estatística.

5) Na figura a baixo, associe o número à sua respectiva descrição:

13
( ) Um ajuste que descreve uma relação entre os dados.
( ) A variação existente entre o seu valor real e a sua estimativa
( ) Dado uma quantidade ofertada, há um preço correlacionado, formando uma relação de Oferta.

a) 1 – 3 – 2
b) 3 – 1 – 2
c) 2 – 1 – 3
d) 1 – 2 - 3

6) Descreva o quê são Amostras. Por que elas são importantes?

a) Amostras são subconjuntos de unidades que são criadas a partir de uma probabilidade da população de interesse como, por
exemplo, as pessoas escolhidas para uma pesquisa eleitoral.
b) Uma parcela da população que é igual a toda ela.
c) Amostras são um subconjunto de unidades extraídas de uma população de interesse como, por exemplo, pessoas selecionadas
aleatoriamente para responderem uma pesquisa eleitoral.
d) Amostras são tipos de variáveis.

7) Explique o que são Parâmetros?

a) São características numéricas de um Experimento.


b) São quantificações numéricas vindas de uma Blocagem.
c) São características numéricas aleatórias de uma Amostra.
d) São características numéricas de uma População.

8) O que são Estatísticas Amostrais?

a) São informações extraídas de uma População


b) São um conjunto de dados que permitem a estimativa de Erros.
c) As características numéricas de uma Amostra que podem ser usadas para estimar as características de uma População.
d) Existem quatro tipos de Estatísticas Amostrias: Nominais, Ordinais, Discretas e Contínuas.

9) Descreva a diferença entre Experimentos e Estudos Observacionais.

a) Em um Experimento podemos determinar quais unidades amostrais recebem determinados tratamentos, ou fatores aplicáveis
que causam alterações nos resultados, enquanto que em um Estudo Observacional simplesmente comparamos nossas unidades
amostrais entre si.
b) Um Experimento é o que determina quais unidades amostrais podemos comparar de acordo com alterações nos resultados,
enquanto que um Estudo Observacional é uma comparação feita em blocos.
c) Um Estudo Observacional é um conjunto de técnicas que visa comparar os dados de acordo com as características alteradas
por intervenção de um analisador, enquanto que um Experimento é um conjunto de técnicas para comparar os dados de acordo
com as alterações ocasionais sem intervenção do analisador.
d) Experimento é um procedimento cientifico no qual podemos determinar se as unidades amostrais podem ou não receber determinados
tratamentos visando enfatizar uma teoria explicativa. Estudo Observacionais, por outro lado, defendem teorias explicativas.

10) Classifique os itens a seguir com as letras (EX) para Experimento ou (EO) Estudo Observacional:

( ) Comparação entre os custos de duas obras do governo federal;


( ) Comparação entre os custos de dois investimentos de sua empresa;
( ) Cria-se um comparativo entre o serviço executado pelas duas empresas concorrentes à sua;
( ) Compara-se dois serviços disponíveis em sua empresa;
( ) Analisa-se o comportamento de dois clientes em sua empresa: antes e depois de serem atendidos.

11) Defina Emparelhamento e Blocagem e explique qual a importância de tais métodos para a análise de dados.

a) Emparelhamento consiste em analisar um conjunto de dados através da comparação das unidades entre si, enquanto que a
Blocagem usa de estimativas para a comparação e são importantes ferramentas para a redução do Erro Amostral.
b) Emparelhamento consiste em usar a mesma unidade amostral como comparativo em dois momentos, enquanto que a Blocagem
consiste em agrupar as unidades amostrais de acordo com características em comum e tem como objetivo garantir a Aleatoriedade.
c) Emparelhar é agrupar as unidades amostrais de acordo com características em comum, enquanto que Blocagem consiste em analisar
uma mesma unidade amostral em dois momentos diferentes. São importantes pois garantem a Aleatoriedade.
d) Para garantirmos que um Modelo existe, devemos analisar nossa Amostraa através de Emparelhamento e Blocagem – no
primeiro, comparamos uma unidade amostral com ela mesma em dois momentos distintos; no segundo, agrupamos as unidades
amostrais que possuírem alguma característica em comum.

14
12) O quê são Variáveis Qualitativas e Variáveis Quantitativas?

a) Variáveis Qualitativas são caracterizadas como aquelas que indicam características não numéricas a uma unidade amostral. Variáveis
Quantitativas, por outro lado, são um tipo de característica que informações como Sexo, Etnia e Salário Mínimo compartilham.
b) Variáveis Qualitativas são variáveis que indicam qualidades quando ordenadas. Já as Variáveis Quantitativas são aquelas que
indicam valores finitos.
c) Variáveis Qualitativas são variáveis que indicam qualidades ou aspectos dos indivíduos ou unidades amostrais. Já as Variáveis
Quantitativas são aquelas que indicam números resultantes de processos de contagem ou mensuração
d) Variáveis Qualitativas são variáveis que indicam qualidades de uma População. Já as Variáveis Quantitativas são aquelas que
também indicam qualidades de uma População, mas extraídas de uma Amostra.

13) Classifique as variáveis a baixo com (VQN) para Variável Qualitativa Nominal e (VQO) para Variável Qualitativa Ordinal ou
(VQD) para Variável Quantitativa Discreta e (VQC) para Variável Quantitativa Contínua:

( ) Salários dos empregados de uma industria (em número de moeda com centavos);
( ) Os custos, em valores arredondados, de um investimento qualquer;
( ) Respostas de uma pergunta de qualidade onde o entrevistado associa seu grau de contentamento com expressões
como, por exemplo, “Desgosto”, “Indiferente” ou “Gosto Muito”;
( ) Respostas de uma pergunta de qualidade onde o entrevistado associa seu grau de contentamento com uma escala numérica;
( ) As notas de uma prova aplicada em candidatos à uma vaga em uma empresa;
( ) Renda em salários mínimos;
( ) Etnia;

1) Através de qual fundamental ferramenta a Estática é capaz de estimar, ou até mesmo prever, eventos?

a) Dados.
b) Resíduos.
c) Erro.
d) Modelo.

2) Qual a principal utilidade de Amostras Aleatórias Simples?

a) Uma AAS nos permite calcular o erro provável em nossas estimativas.


b) Uma AAS nos permite estimar estatísticas para uma Amostra Completa.
c) Uma AAS é uma representação não viciada de nossa população, capaz de nos permitir calcular um provável erro em nossas estimativas.
d) Uma AAS é um tipo de aleatoriedade de uma população.

3) A Aleatorização é um importante aspecto a ser garantido quando trabalhamos com a análise de dados para estimação.
Quais os dois procedimentos básicos que devemos seguir a fim de obter bons resultados?

a) AAS e Agrupamento.
b) AAS e Blocagem.
c) AAS e Emparelhamento.
d) Blocagem e Emparelhamento.

4) Por que um Experimento pode nos trazer melhores informações sobre uma provável relação de “causa e efeito”?

a) Experimentos não podem nos trazer melhores informações sobre”causa e efeito”.


b) Em um Experimento, controlamos todos os fatores que podem, ou não, virem a fazer alguma alteração em nossos dados.
c) Um Experimento nada mais é do que um estudo observacional e, portanto, traz as mesmas informações.
d) Experimentos são feitos usando AAS e, portanto, trazem melhores informações sobre a População.

5) Um gerente de um banco possui a tarefa de administrar as taxas compostas por um Custo Fixo e um Custo Adicional
impostas a um seleto grupo de clientes. Examine a tabela a baixo atentamente e numere as características de acordo com
as variáveis disponíveis:

Número Controle Custo Fixo Custo Adicional Cliente Idade


1 R$ 125,00 R$ 127,32 Fernando 45 anos
2 R$ 75,00 R$ 92,05 Amélia 31 anos
3 R$ 300,00 R$ 326,77 Bruna 60 anos
4 R$ 457,00 R$ 512,01 Gilberto 57 anos

15
1 – Variável Qualitativa Nominal ( ) Número Controle
2 – Variável Quantitativa Discreta ( ) Custo Fixo
3 – Variável Quantitativa Contínua ( ) Custo Adicional
4 – Variável Qualitativa Ordinal ( ) Cliente
( ) Idade

16
02. Estatística Descritiva
2.1 Estatística como Duas
Conforme vimos na Unidade 01, como campo da matemática aplicada, a Estatística tem como objetivo descrever o
padrão de dados com o propósito de conseguir informações sobre eles. Tais informações serão usadas na tomada de decisões e
conclusões a respeito de um assunto desejado. Contudo, descrever esse comportamento requer um pouco mais de complexidade.

Como se pode imaginar, um conjunto de dados possui diferentes características e conseguir aproximações precisas
do comportamento correto deste conjunto de dados a partir de tais características leva em consideração muitos fatores. A
Estatística possui dois tipos de analise para o tratamento de tal problema: a Descritiva e a Inferência. Trataremos nesta unidade
da parte que resume as informações gerais de uma amostra conhecida como Estatística Descritiva. Nesta unidade estudaremos
os elementos da estatística descritiva e as principais ferramentas usadas para a análise de dados.

2.2 Estatística Descritiva


De modo geral, pode-se dizer que a essência da Ciência consiste em observar algo com
o objetivo de ser capaz de chegar à conclusões sobre uma conjunto de dados que expliquem uma
teoria ou hipótese sobre o comportamento do que se está observando.

Contudo, antes de se poder criar um modelo para tratar do comportamento dos dados, e
a partir daí inferir, ou seja, concluir algo sobre eles, é necessário uma análise inicial para determinar,
por exemplo, como estes dados são, de que tipos são, como se comportam etc. Fig. 09

A Estatística Descritiva tem como idéia a redução, análise e interpretação dos dados sob consideração para que, depois,
exista uma melhor capacidade de estimação (a inferência). Ou seja, antes de sermos capazes de afirmar que um conjunto de dados
segue um padrão de comportamento, primeiro precisamos entender esse comportamento.

2.3 Classificação Inicial e Propriedades de Variáveis


Em primeiro lugar, precisamos ser capazes de classificar os diferentes tipos de dados de acordo com seus tipos. Conforme
vimos na seção 1.6 da unidade anterior, podemos classificar variados tipos de dados de acordo com quatro variáveis conhecidas:

• Variáveis Qualitativas Nominais ou Ordinais


• Variáveis Quantitativas Discretas ou Contínuas

Imagine, por exemplo, que analisamos um conjunto de observações que envolvem a seguinte tabela de dados (Tabela 1):

Número
Sexo Débitos Créditos
De Registro

Masculino 35 R$ -125,75 R$ 500,00

Feminino 42 R$ - 76,54 R$ 475,00

Tabela 1 – Exemplo de Variáveis

A partir destas características podemos classificar “Sexo” como Variável Qualitativa Nominal, “Número de Registro”
como Variável Qualitativa Ordinal, “Débitos” como Variável Quantitativa Continua e “Créditos” como Variável Quantitativa Discreta.

Porém, se olharmos com atenção o caso da classificação de “Sexo” e a analisarmos pensando em uma ordem
alfabética, ela deixará de ser Variável Qualitativa Nominal e passará a ser Ordinal. Essa troca também vale para o contrário, isto
é, se, ao analisarmos, desconsiderarmos a importância da organização dos números de registro de acordo com uma escala, eles
deixam de ser Ordinais e passam a serem Nominais.

17
Isso já não ocorre com as variáveis Discretas e Contínuas. Perceba
que, como critério de classificação, ambas são numéricas e, portanto, respeitam
uma ordem matemática lógica – 500 sempre é maior que 475, por exemplo.

Além disso, podemos transformar nossas variáveis qualitativas em


valores. Imagine, por exemplo, que realizamos uma pesquisa de mercado
sobre um determinado produto novo e nosso objetivo é saber se ele seria
aceito por homens e mulheres. Intuitivamente, nossa primeira pergunta na
pesquisa seria: “qual o seu sexo?”

Sabemos que ser homem ou mulher é uma variável Qualitativa


Nominal. Agora, imagine que para cada resposta “homem” que obtivermos,
nós anotemos o número 1 e para cada resposta “Mulher”, anotemos o
número 0. Por exemplo, (Tabela 2): Fig. 10

Resposta 0 ou 1

Homem 1

Homem 1

Mulher 0

Homem 1

Mulher 0

Mulher 0

Tabela 2 – Atribuição numérica para “Homem” e “Mulher”

A partir disso podemos quantificar variáveis qualitativas, sejam elas nominais ou ordinais simplesmente contando
quantas vezes o número 1 aparece (ou quantas vezes “homem” aparece) e quantas vezes o número 0 aparece (ou quantas vezes
“Mulher” aparece). Isso é um recurso muito importante e será usado a seguir.

2.4 Distribuição de Frequência


Uma vez que somos capazes de quantificar nossos tipos de variáveis, também
podemos lhes dar um primeiro tratamento estatístico: a Distribuição de Frequências, que
consiste em organizar os dados de acordo com o número de vezes que eles ocorrem.

Como primeira parte de uma análise, devemos notar que muitas vezes nossos dados
estão “bagunçados” como valores sem uma ordem especifica. A primeira coisa que devemos fazer é
colocá-los em uma ordem. Chamamos isso de Rol.

Imagine que temos o seguinte conjunto de valores para análise:

{12, 4, 5, 66, 19, 20, 50, 44, 46, 44, 72, 91, 101, 113}

Fig. 11 Em rol teríamos os dados da seguinte maneira:

{4, 5, 12, 19, 20, 44, 44, 46, 50, 66, 72, 91, 101, 113}

Para os dados que se repetem, podemos usar a blocagem, como no caso do número “44” que aparece duas
vezes. Assim, removemos as repetições, tornando as probabilidades de, qualquer um desses dados acontecerem, iguais
– garantindo a aleatoriedade.

Imagine, agora, que durante uma pesquisa eleitoral, tenhamos uma amostra aleatória simples da população brasileira
com 45 pessoas. Aplicamos à essas pessoas uma pesquisa pedindo para que elas digam se votariam em algum entre quatro
candidatos: A, B, C ou D.

Ao final da pesquisa, temos nossas respostas e começamos a contá-las, marcando o número de respostas para cada
um dos candidatos. Imagine, por exemplo, que tenhamos 7 respostas para o candidato A, 13 para o B, 15 para C e 10 para o
candidato D, totalizando as 45 pessoas entrevistadas.

18
Atenção: note que as respostas somadas sempre darão o número total de unidades da Amostra. Assim,

Podemos anotar nossos resultados em uma Tabela de Frequências. Nosso objetivo, com isso, é estabelecer uma
primeira relação entre os dados, resumindo-os. A tabela 3 é um exemplo de uma tabela de freqüências para esta pesquisa
eleitoral onde cada coluna será explicada a seguir.

Frequência
Frequência Frequência
Candidato Frequência Relativa
Acumulada Relativa
Acumulada

A 7 7 0.156 0.156

B 13 20 0.289 0.444

C 15 35 0.333 0.778

D 10 45 0.222 1

TOTAL 45 - 1 -

Tabela 3 – Tabela de Frequências em relação à uma pesquisa eleitoral.

Em uma primeira coluna anotamos os possíveis resultados. Em nosso exemplo, seriam os candidatos A, B, C ou D. A
essa coluna, damos o nome de Classes e, como critério de notação, dizemos:

Linha na tabela para a i-ésima classe

i-ésimo significa “o termo (número) na posição de número i”, e i varia do menor ao maior valor do seu conjunto de
dados. Por exemplo, em nossa tabela, quando i = 2, temos o candidato B.

A definição do número de Classes no qual será dividia sua análise é feita de acordo com a necessidade da análise a ser feita,
entretanto, recomendam-se dois procedimentos: sempre use entre 5 e 15 classes ou use o o critério de Sturges (Regra de Sturges)

Onde:
n - é o número total de dados que existem.

Por exemplo: se quisermos resumir em uma tabela o grau de instrução de um grupo de 20 funcionários de uma
empresa teremos, logo de principio, 3 classes conhecidas: Ensino Fundamental, Ensino Médio e Ensino Superior.

Pelo critério de Sturges, teríamos:

O critério de Sturges nos dá uma noção de que poderíamos, dado as 20 respostas que temos, conseguir separá-las
em, no mínimo, 5 classes distintas. Entretanto, poderíamos parar aqui, se para nossa análise, 3 classes fossem o suficiente.

Vamos seguir a indicação do critério de Sturges: para isso, podemos escolher separar Ensino Médio em dois
subconjuntos distintos: Ensino Médio Normal ou Ensino Médio Técnico – com isso, aumentaríamos para 4 classes. De forma
similar, podemos dividir Ensino Superior em Graduação, Especialização, Mestrado e Doutorado – aumentando nossas classes
para 7 classes. Fica a critério de quem vai fazer a análise dividir os dados em um número bom de classes de forma a abranger
da melhor forma possível os dados.

Note que neste exemplo 3 classes seriam suficientes para dividir nossos dados, porém, em casos onde esta divisão
não é tão óbvia, a regra de Sturges é extremamente útil.

19
Voltando a tabela, na segunda coluna, preenchemos com o número de resultados ou observações do conjunto de
dados que possuem uma característica de interesse. No nosso caso, a contagem que fizemos das respostas relacionadas a cada
candidato. Chamamos essa contagem de Frequência e, por notação:

(2.2)

Onde:

Contagem do número de ocorrências da i-ésima Classe.

Em nosso exemplo, o candidato C foi selecionado como resposta a nossa pesquisa por 15 pessoas, logo, a frequência
com que o candidato C (i = 3) foi apresentado é igual à 15. Em notação: n3 = 15.

Outro exemplo: imagine um grupo de 10 pessoas compostas por duas pessoas com cabelos da cor loira, três pessoas
com cabelos da cor ruiva e cinco pessoas com cabelos da cor preta. Se nossas classes forem os tipos de cabelos, teremos as
frequências como: Loiro = 2, Ruivo = 3 e Moreno = 5. Logo, em notação,

, e

De volta à nossa tabela 3, podemos escrever a terceira coluna chamada de Frequência Acumulada. A freqüência
acumulada é a soma, classe à classe, das frequências contadas. Matematicamente temos:

(2.3)

Onde:

(ver box SAIBA MAIS)

Em matemática o conceito de uma série de somas é identificado pelo simbolo dito como “Somatório” representado
pela letra grega maiúscula sigma (Σ). Uma determinada soma é dita de k parcelas quando o somatório faz a soma da primeira
parcela até a parcela com valor igual à k. Por notação,

Por exemplo, imagine que temos uma sequência numérica que vai de 1 à 10, em valores inteiros. Ou seja, temos
os seguintes números:

{1, 2, 3, 4, 5, 6, 7, 8, 9, 10}

Queremos agora o somatório do inicio, em notação: i=1, até o termino da sequência. Assim, podemos escrever:

De forma similar, se desejarmos, por exemplo, o somatório da mesma sequência até o 6 (ou 6 sexto termo), temos:

Em nosso exemplo, podemos obter a frequência acumulada em C se fizermos a soma das frequências até C. Em outras
palavras, seja C a terceira Classe, temos:

20
A quarta coluna, que chamamos de freqüência relativa, é preenchida a partir da idéia de sabermos a proporção
de uma determinada observação em relação à todas. De volta ao exemplo das 10 pessoas com cabelos de cores diferentes,
sabemos que, de 10 pessoas, 5 delas possuem o cabelo na cor preta. Assim, matematicamente, 5 pessoas divididas por 10
pessoas nos mostra que metade de nossa amostra aleatória simples para o caso possui cabelo na cor preta. Ou seja,

À essa proporção, chamamos de Frequência Relativa, pois ela simboliza a relação entre a frequência observada e o
total de frequências. Escrevemos, em notação matemática, que

(2.4)

Onde:

Frel i - é a frequência relativa da i-ésima classe

ni - é a freqüência observada na i-ésima classe

N - é o total de freqüências observadas

Exemplo: Analisando nossa tabela, temos que o candidato D possuí uma frequência igual à 10. Se dividirmos 10
pelo total das frequências (que é igual ao número total da amostra), ou seja, por 45, teremos aproximadamente 0.222. Caso
estejamos interessados em determinar este valor em termos de porcentagem,basta multiplicarmos por 100, e temos uma
frequência relativa de 22.2%.

Se pensarmos no exemplo das cores de cabelo, podemos concluir que a frequência relativa de quem possui cabelos na
cor loira é de 20%, na cor ruiva é de 30% e na cor preta é de 50%. Note que o total das frequências relativas é sempre igual a 1.

Na última coluna da tabela 3, assumimos a mesma idéia das Frequências Acumuladas e geramos a Frequência Relativa
Acumulada. Matematicamente temos:

(2.5)

Onde

Imagine que queremos saber quanto de nossa amostra já foi analisada proporcionalmente entre as frequencias de A
e C. Da mesma forma que fizemos com a frequência acumulada, somamos, as frequências relativas até a classe de C (i=3)
e obteremos 77,80%.

Note que a soma de nossa Frequência Relativa Acumulada totaliza 1, isso se dá pois, na última Classe, teremos
quantificado praticamente toda a amostra, faltando somente a parcela daquela Classe para totalizar o número da Amostra.

Veja que nosso exemplo tratou de variáveis qualitativas quantificadas, que são de fácil acesso e muito comuns. Como
proceder então no caso de um grupo de variáveis quantitativas?

21
Imagine, por exemplo, que temos uma AAS de 60 funcionários de uma empresa
qualquer. Após um levantamento entre os funcionários, gostaríamos de analisar quantos
funcionários possuem geladeiras em suas casas de acordo com a renda paga a eles pela
empresa. Como a renda é um valor contínuo e muito variável entre os funcionários, fica
fácil de perceber que, quando anotarmos nossa tabela de frequências, teremos muitas
classes distintas.

Entretanto, podemos pensar em agrupar as rendas dos funcionários de acordo


com o salário minimo. Por exemplo, imagine um empregado qualquer com um salário de
R$ 1.575,23. Tendo o salário mínimo base com um valor qualquer, digamos, R$ 525,00,
podemos dizer que esse funcionário recebe aproximadamente 3 salários mínimos.

Se continuarmos com esse critério para blocagem, teremos algo como mostra Fig. 12
a tabela 4.
Renda Frequência
Frequência Frequência
(salários Frequência Relativa
Acumulada Relativa
mínimos) Acumulada
18 18 0,300 0,300
23 41 0,383 0,683

10 51 0,167 0,850

5 56 0,083 0,933

4 60 0,067 1
TOTAL 60 - 1 -
Tabela 4 – Tabela de Frequências de acordo com a Renda em salários mínimos.

Seja a e b dois números reais quaisquer, a notação “s -| b” significa um intervalo numérico indo de valores maiores
que a até valores menores ou iguais a b.

Lê-se: “um intervalo de a até, no mínimo, b”.

Por exemplo: em nossa Tabela 3, dada a terceira classe, podemos ver que nosso intervalo compreende valores
maiores que 2 e menores ou iguais à 3. ( por exemplo o número 2,75)

Perceba que o número de salários mínimos que classifica a renda dos funcionários não é um número inteiro, pois
podem existir funcionários com 2,5 salários mínimos. Para resumir essas informações, adotamos um intervalo numérico que
compreende todos os números entre dois valores.

Entretanto, outro ponto a ser identificado é que, a partir do momento em que agrupamos nossos dados em intervalos,
quais devem ser os limites de cada classe? Ou seja, como definir qual o valor mínimo e máximo que uma classe especifica?

Sabemos que nossos dados, como um conjunto de números, possuem uma amplitude, ou seja, um intervalo matemático
que compreende do menor valor ao maior valor. Temos essa variação através da subtração do valor final pelo valor inicial. Assim,

(2.6)
Onde:

Imagine que possuímos os seguintes valores ordenados: {1, 2, 3, 5, 6, 7, 10, 15, 21, 24, 31}. O valor final nesse caso
será 31 e o valor inicial será 1. Assim, nossa amplitude total será igual à 30.

A Amplitude das Classes, ou seja, o intervalo matemático dentro do qual elas estão, é definido por uma relação entre
a amplitude total dos dados e o número de classes escolhido. Assim, temos:

22
(2.7)

Onde:

Veja que essa relação, na maioria das vezes, não será inteira, portanto, é necessária
uma aproximação, para evitar que a amplitude dos intervalos, de alguma forma, prejudique
nossos valores reais.

Por exemplo, imagine que temos o seguinte conjunto de dados obtidos através de um estudo
observacional a respeito da capacidade de resistência de 16 peças de alumínio em uma indústria:

{ 1.2, 21.1, 11.3, 25.7, 14.57, 5.2, 7.3, 10.2, 2.1, 3.7, 4.53, 16.55, 1.0, 5.2, 0.9, 0.8 } Fig. 13

Em rol, agrupamos as repetições:

{ 0.8, 0.9, 1.0, 1.2, 2.1, 3.7, 4.53, 5.2, 7.3, 10.2, 11.3, 14.57, 16.55, 21.1, 25.7 }

Logo, nossa amplitude total será dada subtraindo do maior valor, o menor valor. Ou seja, Atotal = 25.7 -0.8 = 24.9

A seguir, definimos pelo critério de Sturges o número de classes que teremos:

Contudo, como se recomenda, usaremos 5 classes, procurando um melhor resumo de nossos resultados. Com isso
conseguimos encontrar a amplitude das classes, ou seja, somos capazes de determinar os intervalos das classes para nossa
tabela de frequências. Usando a expressão 2.7 temos:

Logo, partindo do menor valor dentre nossas observações, podemos escrever os intervalos contendo 5 valores cada.
Por exemplo, nosso primeiro intervalo será escrito da seguinte forma: 0.8 + 5 = 5.8. Logo, para i = 1 , temos: 0.8 ┤5.8.

Usando esta idéia agrupamos os dados obtidos com o estudo das folhas de alumínio e construímos uma tabela de
freqüências como mostra a tabela 5:
Resistência Freq. FA FR FRA

8 8 0,533 0,533

2 10 0,133 0,667

2 12 0,133 0,800

1 13 0,067 0,867
2 15 0.133 1
TOTAL 15 - 1 -
Tabela 5 – Tabela de Frequências da Resistência de peças de alumínio

2.5 Gráficos Representativos


Outra forma de representar um conjunto de dados, de forma resumida, é através de gráficos que são diagramas
usados para representar de forma simples e direta o comportamento dos dados. Existem infinitos tipos de gráficos de acordo
com os mais diversos tipos de análises. Aqui estudaremos os tipos mais comuns para a análise de um conjunto de dados.

23
Relacionado às variáveis qualitativas, temos dois tipos de representação gráfica
muito comum e de fácil acesso – Estes gráficos aparecem com maior freqüência na televisão,
jornal, internet – que são o gráfico de barras e o gráfico de setores (“pizza”).

O gráfico de barras consiste em construir retângulos em que uma das dimensões


(geralmente a altura) é proporcional à freqüência dos dados enquanto que a largura é escolhida de
forma a acomodar melhor todos os retângulos dentro da figura. Esta espessura, embora seja livre,
deve ser a mesma para todas as barras. Este gráfico possui uma legenda que indica o significado
de cada barra para ajudar na interpretação da informação que ele fornece. Assim se cada retângulo
represente, por exemplo, a freqüência com que um determinado candidato foi escolhido em uma
pesquisa eleitoral, tem-se que a base de cada barra será associada a uma classe (candidato) e a
altura proporcional a freqüência de escolhas aquele candidato obteve (Figura 2.15). A figura 2.15
é um gráfico de barras representando as freqüências exibidas na tabela 3. Fig. 14

Fig. 15 – Gráfico de barras para as frequências de uma pesquisa eleitoral.

Conseguimos, a partir dessa imagem, concluir que o candidato A possui uma frequência menor do que os demais; que
a maior frequência de respostas encontra-se com o candidato C e que a diferença entre os candidatos C e B é pouca.

Usando da mesma tabela do mesmo exemplo, podemos criar um gráfico de setores, conhecido como “pizza”, que nos
mostrará a composição, normalmente em porcentagem, de partes de um todo. Ou seja, imaginando que o circulo ilustra nossa
amostra de 45 pessoas respondendo à pesquisa eleitoral, cada pedaço representa uma proporção das respostas de acordo com
a frequência delas, conforme Figura 2.16.

Fig.16 – Gráfico de Setores para Pesquisa Eleitoral

Como o gráfico de setores cria uma relação de proporção entre a quantidade de dados que temos naquela classe de
acordo com o número total, utilizamos a Frequência Relativa para elaborá-lo.

Já as variáveis quantitativas são representadas de forma diferente em gráficos. Para isso temos duas ferramentas
mais comuns que são o histograma e o ramo-e-folhas.

24
Um Histograma é uma espécie de gráfico de barras, mas com importantes propriedades:

• Cada retângulo possui área proporcional às frequências das classes;


• A área total da figura formada pelas barras é aproximadamente igual à 1;

A fim de garantir que a área da figura resultante da soma dos retângulos seja igual à 1, cada retângulo deve ter a sua
altura igual a sua densidade de frequência, que é definida como sendo a divisão da frequência relativa da classe pela amplitude
da classe. Assim,
(2.8)

Onde:
di  é a densidade relativa da i-ésima classe.

FRi  é a frequência relativa da i-ésima classe.

Ai  é a amplitude da i-ésima classe.

Por exemplo, voltemos a Tabela 4. Podemos criar um histograma calculando a densidade de cada classe. Desta forma, temos:

Logo, para as demais densidades, teremos:

d2 = 0.383, d3 = 0.167, d4 = 0.083 = d5 = 0.067

Colocando no eixo vertical a densidade e no eixo horizontal as amplitudes de acordo com as classes, temos o seguinte
gráfico (Fig. 17).

Fig.17 – Histograma dos dados da Tabela 4 Fig. 18 – Histograma dos dados da Tabela 5

Analisando-o, conseguimos perceber que existe uma densidade maior entre os valores de 2 e 3 (na tabela 4, podemos
notar que a frequência é igual à 23, maior que qualquer outra frequência).

Se aplicássemos os mesmos conceitos para a Tabela 5, teríamos o gráfico da Figura 18. Podemos perceber que temos
uma grande concentração dos dados no primeiro intervalo, de 0.8 à 5.8 e, analisando a tabela 5, vemos que essa classe possui
uma frequência igual à 8 – muito maior do que as outras.

O gráfico de Ramo-e-Folhas é o resultado de um passo-a-passo para resumir um conjunto de valores e obter uma
idéia da distribuição de frequências.

A idéia é dividir cada observação em duas partes, separadas por uma linha vertical: a primeira parte seria composta
dos algarismos que formam os valores inteiros, que chamamos de ramo, ficando à esquerda da linha.

A segunda parte, chamada de folhas, fica à direita da linha e é composta pela parte decimal dos valores. Quando
temos muitas folhas em um ramo, temos uma maior quantidade de valores ali e sabemos que haverá maior frequência na classe
que compõe aquele valor.

25
Voltemos, por exemplo, aos valores conseguidos através de um estudo observacional da resistência de 16 placas de alumínio.
Para a composição do ramo-e-folhas, não precisamos nos preocupar com valores repetidos. Dessa forma, o conjunto seria em rol:

{ 0.8, 0.9, 1.0, 1.2, 2.1, 3.7, 4.53, 5.2, 5.2, 7.3, 10.2, 11.3, 14.57, 16.55, 21.1, 25.7 }

Vamos fixar primeiro os ramos, ou seja, vamos compor o primeiro campo do gráfico usando os primeiros termos de todos
os algarismos (a parte inteira). Em seguida, alocamos os algarismos restantes de acordo com o primeiro algarismo, conforme Fig. 19.

RAMO FOLHAS
0 8 9
1 0 2
2 1
3 7
4 53
5 2 2
7 3
10 2
11 3
14 57
16 55
21 1
25 7

Fig.19 – Ramo-e-Folhas dos dados da Tabela 5

Por exemplo, se analisarmos o ramo-e-folhas ( 1| 0 2) sabemos que trata-se da representação do


número inteiro “1” mais dois valores decimais, “.0” e “.2”. Portanto, temos a representação dos valores “1.0” e “1.2”.

Uma importante qualidade da representação gráfica dos dados é que conseguimos ter algumas idéias iniciais sobre tendência.

Por exemplo, de volta ao histograma da resistência das 16 peças de alumínio (Fig. 18) podemos notar que existe uma
grande frequência de valores na 1º classe, ou seja, no intervalo de 0.8 á 5.8. Podemos concluir que existe, então, uma tendência
em nossos dados em concentrar a maior parte de suas observações nesse intervalo.

De forma semelhante, podemos analisar a Tabela 3 e concluir que existe uma tendência nas respostas do eleitores
entre os candidatos B e C, pois ambas concentram a maior parte dos valores (suas frequências são as mais altas e pouco
diferentes uma da outra).

2.6 Medidas de Tendencia Central


Conforme vimos, através de um resumo dos dados pela tabela de frequências
e gráficos, algumas conclusões a respeito do conjunto de dados que estão sendo
analisados podem ser feitas e são chamadas de tendências.

Contudo, muitas vezes, queremos resumir ainda mais estes dados, fornecendo
alguns valores que sejam representativos a toda nossa amostra. Isso por que, com um
único valor que apresenta a tendência a respeito de um conjunto de dados, fica mais
simples analisar um grande conjunto de dados.

Esses valores representativos são chamados de Medidas de Tendência


Central e são divididas em Medidas de Posição que indicam a localização de importantes
informações, Medidas de Dispersão que apontam o quão dispersos estão nossos dados
de acordo com uma posição (em geral a média), e os Quantis. Fig. 20

Medidas De Posição

As medidas de posição se subdividem em três tipos. A média, a mediana e a moda.

26
2.6.1 MEDIA
A Média é uma representação matemática para um valor que caracteriza o centro de uma distribuição de dados.
Definimos a média como calculada pela média aritmética de um conjunto de dados, ou seja, a soma de todos os valores dividida
pela quantidade de valores. Quando conhecemos todos os dados, temos a Média Populacional (μ) e quando estamos trabalhando
apenas com uma representação dela, ou seja, uma amostra, temos a Média Amostral ( ).

(2.9)

Onde:

(2.10)

Onde:

Por exemplo, voltemos aos dados da Resistência de 16 peças de alumínio. Podemos calcular sua média amostral
somando todos os valores disponíveis e em seguida dividindo-os por 16. Desta forma, a média amostral será igual à 8.2093.

Contudo, sabemos que a média nesse caso possui uma variável que se repete, o valor “5.2” que aparece duas vezes.
Pensando dessa forma, podemos ponderar o valor repetido em relação ao demais, tornando a nossa média ajustada à repetição.
Assim, podemos definir a Média Populacional e Amostral multiplicando o valor de cada um de seus dados pela sua frequência
relativa. Logo,

(2.11) (2.12)

Onde:

é o somatório dos dados amostrais multiplicados por suas frequências relativas.

é o somatório dos dados populacionais multiplicados por suas frequências relativas.

27
Voltando ao nosso exemplo, vamos retirar o valor repetido e somar todos os dados, multiplicando-os por suas
frequências relativas conforme a Tabela 5.Assim, teremos a média amostral igual à 8.41.

A média é uma medida de posição muito apreciada, pois possui algumas vantagens em relação à todo o conjunto de
dados. São elas:

• A média é facilmente calculável e possuí propriedades algébricas que facilitam sua manipulação;
• A média é indicada para séries de dados que possuem valores em progressão aritmética ou simétricas em relação
à um valor médio (mais sobre isso na Unidade 04);
• A média utiliza todas as observações ou a proporção delas em relação à todo o conjunto de dados.

Entretanto, a média também possui desvantagens:

• A média é influenciada por valores extremos (um único valor muito grande pode nos fazer acreditar que temos
uma distribuição alta quando não temos de fato);
• A média é uma medida quantitativa, portanto, não pode ser aplicada a variáveis qualitativas que não tenham sido
quantificadas (ver sessão 2.2);
• A média não resulta necessariamente em um elemento que faça parte do nosso conjunto de dados analisados,
embora seu valor esteja presente no intervalo entre a maior e a menor observação.

Cabe a nós analisarmos nossos dados e concluirmos se algum tipo de tratamento inicial deverá ser dado como, por
exemplo, excluir valores extremos com baixa frequência ou aproximar nossa média para um valor existente entre nossos dados.

2.6.2 – Mediana
Vamos agora considerar que nossos dados estão em rol, ordenados em uma ordem crescente (do menor para o
maior). Nesse caso, a primeira observação será menor que a segunda; essa, por sua vez, será menor que a terceira e essa lógica
irá se repetir até o último valor. Dessa forma, é comum escrevermos que o primeiro valor será , o segundo será até
o n-ésimo valor, ou seja, .Chamamos essa ordenação de estatísticas de ordem e m atematicamente temos:
(2.13)

Por exemplo, temos um conjunto de dados descrito assim: { 3, -5, 0, 1, -2 }. Sabemos, por lógica matemática, que -5
< -2 < 0 < 1 < 3, portanto,

A partir dessa idéia, podemos supor que, dado um conjunto de dados, existe um entre eles que é exatamente o
ponto de divisão em partes iguais de todo o conjunto. Seguindo nosso exemplo, perceba que a quantidade de números antes
do algarismo “0” é igual à quantidade após. Este valor é o que chamamos de Mediana (md). Para calcular a mediana de uma
distribuição mais complexa que a do exemplo anterior usamos a expressão 2.13

(2.13)

Onde:

Comprovando nossa conclusão ao exemplo dado, com a sequência { 3, -5, 0, 1, -2 }, temos que n = 5, ou seja, ímpar.
Logo, a mediana será dada por:

Em outro caso, digamos que nossa sequência de dados agora seja par, por exemplo, n = 6. Então nosso número que
divide nossa sequência pela metade será dado pela média aritmética dos dois valores centrais. Ou seja, com n = 6,

28
A Mediana, ao contrário da Média, não é influenciada por valores extremos ou por repetições. Entretanto, a Mediana,
como a Média, pode resultar em um valor que não faz parte de seu conjunto de dados observados, mas está no intervalo
representado por eles.

Por exemplo, podemos imaginar um conjunto de dados que mostra a quantidade de acidentes durante cada dia do
Carnaval e é dada pelo conjunto { 2, 4, 4, 3, 2, 10 }. Nesse caso, a média seria aproximadamente igual à 4.17 (calculada usando
a expressão 2.10) . Contudo, a mediana seria dada pela sua fórmula para n par (equação 2.13) e seria igual à 3.5 que é um valor
não observado, mas que está compreendido entre as observações.

2.6.3 Moda
Finalmente, podemos descrever a Moda como sendo o dado mais frequente
em nosso conjunto de valores observados. Quando analisamos uma amostra, chamamos
de moda aqueles valores que aparecem com certa repetição. Dessa forma, em uma
tabela de frequências, a moda será aquele valor ou estará presente na classe que
possuir a maior das frequências.

Por exemplo, na Tabela 3, a moda será o candidato C. Na Tabela 4, a moda serão as


rendas descritas pelo intervalo de 1 à 2 salários mínimos. Finalmente, na Tabela 5, nossa moda
estará no primeiro intervalo da resistência, de 0.8 à 5.8. Fig. 21

Devemos notar, entretanto, que a moda não existirá se os dados não possuírem repetições observadas inicialmente.
Além disso, determinados conjuntos de dados podem possuir mais de uma moda. Por exemplo, o conjunto de dados {0, 0, 0, 2,
3, 5, 6, 6, 6} possui duas modas, “0” e “6”. Quando isto ocorre dizemos que o conjunto é bimodal. Caso hajam três modas ou
mais, o conjunto é chamado de multimodal.

A Moda, diferente da Média e da Mediana pode ser utilizada como medida de tendência central de variáveis qualitativas.
Imagine, por exemplo, que temos um conjunto de dados descrevendo até que grau de instrução um pequeno grupo familiar tem
completo. Imagine que os resultados obtidos a partir de entrevista tenham sido {Médio, Fundamental, Superior, Médio, Médio}. É fácil
percebermos que a Moda nesse caso será “Médio”, uma variável qualitativa nominal.

2.7 Medidas de Dispersão


As medidas de posição nos ajudam a compreender melhor as Medidas de Dispersão. A utilidade das medidas de
dispersão é estabelecer um segundo ponto de comparação entre os dados que, por medidas de posição, seria inexplorado.
Estas medidas de dispersão também se subdividem em 3 grupos que são: A dispersão ou desvio, a variância e o desvio padrão.

2.7.1 Desvio
Imagine, por exemplo, que temos dois conjuntos de dados: A = {3, 4, 5, 6, 7} e B = {1, 3, 5, 7, 9}. Podemos calcular
que a média amostral de A é igual à de B usando a expressão 2.10 e notar que ambas são iguais à 5.

Porém não podemos dizer que A é igual a B, apesar de ambas aparentemente possuirem uma mesma tendencia à
média. Contudo, podemos analisar a variação dos dados ao redor da média para sabermos o quão espalhados, ou dispersos,
os elementos de cada conjunto estão. Assim, chamamos de desvio de um dado a diferença entre o valor deste dado e o valor
da média. Quanto buscamos analisar o desvio de um conjunto de dados em relação a média fazemos o somatório da diferença
entre o valor observado e a média amostral ou populacional.

(2.14)

Onde o número n que limita o somatório é o número de dados onde queremos estudar os desvios. Este tipo de estudo
fornece uma informação sobre a simetria dos dados em torno da média. Isso porque se os dados forem simétricos em torno da
média o somatório total do desvio será igual a zero. No nosso exemplo temos:

29
Dessa forma, para que tenhamos valores precisos da variação de um conjunto simétrico de dados usamos um outro
parâmetro chamado de variância.

2.7.2 Variância
Como já foi mencionada, a variância é uma forma de contabilizar o desvio de todos os pontos em uma amostra sem
que eles se anulem. Isto é feito elevando a diferença entre cada ponto e a média ao quadrado, somando estes valores e divi-
dindo pelo número total de pontos na amostra. Assim como a média, a variância pode ser dividida em Variância Amostral (s²)

(2.15)

Onde:

E Variância Populacional (Var)

(2.16)
Onde:

Perceba que a diferença da variância amostral para a populacional encontra-se na divisão: enquanto a populacional
é dividida por todas as observações, a amostral é dividida por (n – 1). Mais sobre isso será explicado na Unidade 04.

2.7.3 Desvio Padrão


A partir da variância podemos calcular um outro termo de análise de dispersão. Este termo é o desvio padrão que
consiste simplesmente na raiz quadrada da variância. O desvio padrão é uma das melhores formas de se analisar a dispersão
sistemática de um conjunto de dados em torno de um valor. Da mesma forma que a variância o desvio padrão se divide em
desvio padrão amostral e populacional.

(2.17) (2.18)

Onde:

30
Não existirá variância ou desvio padrão, seja amostral ou populacional, negativo, isto é:

Isso ocorre, pois estamos trabalhando com valores que são calculados a partir de uma medida de tendência central
de posição, a média, e que por sua vez estão elevadas ao quadrado, portanto, nunca serão menores que 0.

Imagine, voltando aos nossos conjuntos A e B, que precisamos concluir informações de tendência central sobre aqueles
dados. Sabemos que a média amostral de ambos é identica, mas a variância amostral de A é diferente da variância amostral de B.

Desta forma podemos relacionar desvio padrão e a média através da divisão de um pela outro. Este valor ganha o
nome de Coeficiente de Variação Amostral (2.20) ou Coeficiente de Variação Populacional (2.19), dependendo da origem de seus
dados, isto é, se eles provêm de uma AAS ou se são de uma população conhecida. Matematicamente temos

(2.19)

Onde:

(2.20)

Onde:

Geralmente, o CV de um conjunto de dados é expresso em porcentagem. Costuma-se usar o coeficiente de variação


para entendermos como alguns dados são dispersos em relação à sua média, ou seja, o quão distantes os dados estão da
medida de tendência.

Por exemplo, imagine que um conjunto de dados que chamaremos de A, tenha média amostral igual à 3,5 e desvio
padrão igual à 1,6. Seu coeficiente de variação será dado pela divisão do desvio padrão pela média amostral. Assim,

Sabemos, dessa forma, que o conjunto de dados A está pouco disperso em torno de sua média. Ou seja, a distância
entre os seus dados e a medida de tendência é relativamente pequena.

Suponha, então, que comparemos o conjunto de dados A com outro, B, que possuí média amostral igual à 5,7 e desvio
padrão igual à 3.9. O coeficiente de variação de B será igual à 68%. Podemos observar que, a partir do desvio padrão, B é mais
disperso que A. O coeficiente de variância nos ajuda a demonstrar essa relação.

31
2.8 Quantis
Conhecer as medidas de tendência central de posição e de dispersão nos traz
estatísticas importantes. A média amostral, como veremos mais a frente, é um excelente
estimador para a média populacional. Da mesma forma, a variância amostral é um bom
estimador para a variância populacional. Isso é importante, pois, sabendo essas informações,
podemos traçar modelos para os dados. Isso por que as tendencias nos dão informações sobre
o padrão que os dados seguem.

Contudo, para finalmente abordar essa idéia, precisamos entender que, pelo fato dos
dados possuírem uma medida de posição central e uma dispersão ao redor dessa medida existe
um conceito de simetria para os dados e para isso, precisamos entender o que é um quantil. Fig. 22

A partir do momento que os dados estão ordenados como estatísticas de ordem, ou seja, de forma crescente,
podemos imaginar que existe uma série de valores que representem partes dos dados. Por exemplo: existirá um valor dentre
os dados, ou entre intervalos representados pelos dados, que será igual a 25% de nosso conjunto todo.

Podemos obter a estatística de ordem que corresponderá a representação de uma parte dos dados se buscarmos o
valor na posição igual à multiplicação da proporção que gostaríamos que estivesse sendo representada por todas as posições
mais um. Ou seja,

(2.21)
Onde:

O valor de L nem sempre será exato, quando isso ocorrer, por estarmos analisando estatísticas de ordem,
aproximamos o valor para o maior inteiro próximo.
~
Por exemplo: L = 36,6 -> L ~ 37

Por exemplo, sabemos que a mediana é o valor que divide nossos dados em dois grupos onde a quantidade de valores
antes dele é igual à quantidade de valores depois. Assim, podemos concluir que a mediana é uma quantidade que corresponde
à metade de nossos dados, ou seja, 50%. Podemos calcular a mediana de 50 dados, por exemplo, fazendo:

Um Quantil é definido como sendo uma medida entre os dados que indica uma proporção dos valores presentes no
conjunto de dados que estão a baixo dele. Notamos Quantil ou p-Quantil matematicamente por:

(2.22)
Onde:

32
Por exemplo, vamos analisar o conjunto de dados referente ao exemplo da Tabela 5: { 0.8, 0.9, 1.0, 1.2, 2.1, 3.7, 4.53,
5.2, 7.3, 10.2, 11.3, 14.57, 16.55, 21.1, 25.7 }. Vamos obter os quartis, que seriam os quantis que dividem nossos dados em 4
partes iguais. Como um quarto de um todo pode ser representado como sendo 25% deste todo, denotamos estes quartis por:
q(0.25), q(0.50), q(0.75). Sabemos que como estatística de ordem, nosso conjunto de dados será:

Sabemos que, como n é ímpar, a mediana, ou seja, q(0.50) será exatamente o valor representado por:

Agora, analisando a Tabela 6 podemos perceber que o quantil de 25% estará localizado no primeiro intervalo, ou seja,
de 0.8 à 5.8. Isso por que a frequência relativa acumulada nos mostra que aproximadamente 53,3% de nossos dados estão
inseridos naquele intervalo. Conforme (2.22) nos indica, devemos usar a FRA da classe anterior, entretanto, como ela não nos é
fornecida pela tabela que criamos, podemos aproximar q(0.25) a partir das estatísticas de ordem (2.12).

Já o quantil de 75% estará inserido no terceiro intervalo, pois, pela FRA, aproximadamente 80% dos dados estão
inseridos até ali. Dessa forma, podemos usar a FRA anterior de 0.667. Além disso, sabemos que o quantil de 75% terá frequência
relativa igual à 0.133. Por (2.22) temos,

Os Quantis são importantes, especialmente os quartis, pois é através deles que temos uma noção de como nossos dados
estão distribuídos. Se observarmos, por exemplo, o histograma da tabela 5 (Fig 18), podemos concluir que existem mais dados no primeiro
intervalo do que em relação aos demais. A partir disso, podemos definir se uma distribuição de frequências é simétrica ou assimétrica.

2.9 – Simetria de Distribuições


Uma distribuição será simétrica quando os valores de seu conjunto de dados que estiverem localizados com distâncias
iguais a uma medida de posição central apresentarem a mesma frequência (ou densidade de frequência). Por exemplo: {1 3 3 5
7 7 9}, {-2, -1, 0, 1, -2}, {2, 3, 4, 5, 6}.

Uma distribuição será assimétrica quando os valores de seu conjunto de dados que estiverem localizados em distâncias
diferentes em relação à uma medida de posição central possuírem frequência (ou densidade de frequência) diferentes. Por
exemplo: tabela 5 – resistência de 16 peças de alumínio.

Chamamos de Assimetria Positiva (ou assimetria à direita) quando a distribuição de frequências tem uma maior
concentração de dados à direita da média e de Assimetria Negativa (ou de assimetria à esquerda) quando os dados estão mais
concentrados à esquerda da média. (Fig. 23)

Fig. 23 – Demonstração gráfica de assimetria negativa e positiva.

Podemos analisar a assimetria de uma distribuição através do coeficiente de assimetria de Pearson:

(2.23)

33
Onde:

A partir dos estudos feitos pelo matemático Karl Pearson, temos como padrão que:

Note que o histograma é uma das melhores ferramentas gráficas para visualizarmos a simetria de uma distribuição.

A partir dos quantis podemos ter uma melhor visualização de como nossos dados estão distribuídos ao longo de todo
nosso conjunto. Através desse conceito, a Estatística usa do Desenho Esquemático para fazer uma representação detalhada de
como os dados se comportam em suas distribuições.

2.10 Boxplot
O Desenho Esquemático baseia-se na representação de um conjunto de dados por meio de 5 medidas de tendência
central quando trabalhamos com os dados em estatística de ordem.

Fig. 24 – Desenho Esquemático


Considere a figura 24. Em N colocamos o número total de observações que temos. Q1, Q2 e Q3 são os quartis do
conjunto de dados. Os pontos extremos inferiores da esquerda e direita, são o primeiro e último valores dos dados, quando
estão em estatística de ordem.

Por exemplo, nos dados da tabela 5. Temos então.

Q1 = q(0.25), Q2 = q(0.50) e Q3 = q(0.75)

N = 16; X1 = 0.80 e Xn = 25.7

O desenho experimental para este caso seria, então:

Fig. 25 – Desenho Experimental dos dados da Tabela 5

34
A importância do Desenho Esquemático, entretanto, está em sua representação gráfica. Existe um tipo de gráfico que
mostra a distribuição de frequências de dados de forma simples e muito utilizada: o BOXPLOT.

Fig. 26 – Exemplo de Boxplot

O Boxplot é composto por todas as informações dadas pelo desenho esquemático. Para construí-lo, vamos considerar
que o retângulo (ou caixa) (Fig. 26) onde estão representados os quartis da distribuição da variável. A partir do retângulo, para
cima, segue uma linha até o ponto extremo que não exceda um Limite Superior. Da mesma forma, para baixo, segue uma reta
até menor ponto que não exceda à um Limite Inferior.

O Limite Superior (LS) e o Limite Inferior (LI) são dados por:



(2.24)

(2.25)
Onde:

Valores que excederem estes limites serão chamados de valores extremos, atípicos ou, mais conhecidos, outliers. Um
critério importante que podemos seguir é de que, se o maior e o menor de nossos dados forem menores que os Limites Superior
e Inferior, podemos adotá-los como LS e LI.

Por exemplo, seguindo o Desenho Experimental da Tabela 5 na Figura 27 temos o seguinte boxplot:

Fig. 27 – Boxplot dos dados da Tabela 5

Finalmente, é comum analisarmos o comportamento do conjunto de dados fazendo uma comparação entre o boxplot
e o histograma. Dessa forma, seguindo os dados da Tabela 5, podemos observar uma semelhança na distribuição dos dados pela
frequência com a disposição de seus quartis (Fig. 28).

35
Fig. 28 – Relação Boxplot e Histograma

É importante notarmos que, a partir dessas medidas de tendencia que obtivemos e do resumo de dados que
conseguimos, começamos a ter uma idéia sobre o comportamento de um conjunto de dados. Conforme dissemos na Unidade
01, o conceito gira em torno de criarmos Modelos e de minimizarmos os Erros.

Entretanto, como veremos na próxima Unidade, existe um conceito associado a estimativa que precisamos levar em
consideração antes de podermos tirar conclusões. Se um comportamento acontecerá sempre para aquele conjunto de dados e
evento, devemos analisar a probabilidade deste evento acontecer.

1) “Masculino” e “Feminino” são duas características que qualitificam um genenro sexual. Esse genero é que tipo de vairável?

a) Qualitativa Ordinal
b) Quantitativa Discreta
c) Quantitativa Contínua
d) Qualitativa Nominal

2) Coloque o seguinte conjunto de dados em rol decrescente:

{ 5, 7, 1, 0, -1, -7, -5 }

a) { -1, -5, -7, 0, 1, 5, 7 }


b) { -7, -5, -1, 0, 1, 5, 7 }
c) { 7, 5, 1, 0, -1, -5, -7 }
d) { 5, 7, 1, 0, -5, -7, -1 }

3) Uma pesquisa eleitoral sobre dois candidatos vai a campo e entrevista um conjunto de pessoas sobre dois candidados. 23
pessoas dizem preferir o candidato A, 16 pessoas dizem preferir o candidato B e 13 pessoas dizem que não decidiram se votam
ou não. Qual o número de respostas que essa pesquisa obteve?

a) 16
b) 23
c) 39
d) 52

4) Um funcionário de uma empresa está com um problema: ele precisa resumir os dados que possui a respeito da renda em quantidade
de salário minimos de um grupo de gerentes na empresa. Quantas classes ele conseguirá formar se usar o cirtério de Sturges?
Renda: { 2, 3, 5, 2.1, 4.2, 6.1, 4.1, 2.5, 2.7, 3.8, 4, 8, 6.5, 7.2, 6.3, 2.75, 1.9, 5.02, 3.4 }

a) 5
b) 4

36
c) 6
d) 15

5) Qual a frequência para o candidato A no exercício 3?

a) 16
b) 23
c) 13
d) 39

6) Na tabela de frequências a seguir, alguns valores estão faltando. Qual o valor deles?

Resistência Freq. FA FR FRA

5 5 Y W

2 7 0.133 0.466

3 X 0.200 Z

1 11 0.067 0.733

4 15 0.267 1

TOTAL 15 - 1 -

X = 12; Y = 0.5; W = 0.5; Z = 0.833


X = 10; Y = 0.5, W = 0.333; Z = 0.333
X = 10; Y = 0.333; W = 0.333; Z = 0.666
X = 5; Y = 0.333; W = 0.333; Z = 0.666

7) Uma pesquisa eleitoral é realizada em um municipio para saber as intenções de voto da população local a respeito da próxima
eleição para prefeito. Precisamos saber como está a divisão da opinião de uma Amostra Aleatória Simples a respeito dos
candidatos. Qual gráfico melhor representaria essa idéia de mostrar uma proporção das respostas em relação à todas?

a) Histograma
b) Gráfico de Barras
c) Boxplot
d) Gráfico de Setores

8) Qual as duas principal características de um histograma?

a) Cada retângulo possuí área desproporcional, mas a área total da figura formada pelas barras é aproximadamente igual à 1.
b) Cada retângulo possuí área proporcional às frequências das classes e a área total da figura formada pelas barras é
aproximadamente igual à 1
c) Cada retângulo possuí área igual à 1 e a área da figura formada pelas barras é proporcional às frequ6encias das classes
d) Cada retângulo possuí área proporcional entre si e a área da figura formada pelas barras é diferente de 1.

9) Qual a densidade da terceira classe na tabela do exercício 6?

a) 0.04
b) 0.09
c) 0.03
d) 0.05

10) Dado um conjunto de dados, encontre a média amostral deles.

{ 6.96, 5.62, 7.57, 6.74, 6.58, 4.27, 2.54, 4.20, 5.32, 5.31, 3.16, 2.58, 5.35, 8.29, 3.38 }

a) 5.19
b) 5.18
c) 5.32
d) 3.29

37
11) Qual o desvio padrão do conjunto de dados do exercício 10?

a) 1.83
b) 1.79
c) 1.80
d) 1.81

12) Qual o Coeficiente de Variação do conjunto de dados a seguir?


{ 2.35, -2.77, 2.48, 2.83, 1.49, 1.65, -2.13, 0.80, 2.79, -1.54 }

a) 2.67
b) 3.24
c) 2.69
d) 3.05

13) Qual estatística de ordem aproxima o primeiro quartil para os dados do exercício 10?

a) 6.74
b) 6.58
c) 6.69
d) 5.62

14) Encontre a mediana no conjunto de dados no exercício 12 aproximando pela estatística de ordem.

a) 1.49
b) 2.35
c) 1.65
d) 0.80

15) Dada a tabela, em qual classe estará inserido nosso terceiro quartil?

Frequência
Frequência Frequência
Candidato Frequência Relativa
Acumulada Relativa
Acumulada
A 7 7 0.156 0.156
B 13 20 0.289 0.444
C 15 35 0.333 0.778
D 10 45 0.222 1
TOTAL 45 - 1 -

a) D
b) C
c) A
d) B

16) O conjunto de dados { 5, 7, 1, 0, -1, -7, -5 } possui que tipo de assimetria?

a) Simétrico
b) Assimetria positiva
c) Assimetria negativa
d)Assimetria à direita

17) O desenho esquemático baseia-se na representação de um conjunto de dados por meio de 5 medidas de tendência central.
Quais são elas?

a) Numero total de observaçoes, média, mediana, variância e a primeira e a ultima das observações
b) Número total de observações, os quartis, o primeiro e o ultimo valor dos dados
c) Número total de observações, os quartis, o primeiro e o último valor dos dados em estatistica de ordem
d) Número total de observações, quantis que dividam nossos dados em cinco partes, o primeiro e o ultimo valor de nossos dados
em estatística de ordem

38
18) Dado o boxplot, o que são Q1, Q2 e Q3?

a) Os quartis de nosso conjunto de dados


b) Três medidas de dispersão
c) Três medidas de posição
d) Q1 é a média, Q2 é o Coeficiente de Variação e Q3 é o Coeficiente de Assimetria de Pearson.

1) O histograma a seguir apresenta que tipo de assimetria?

a) Assimetria à direita
b) Assimetria à esquerda
c) Simetrico
d) N.d.a

2) Qual a média amostral do seguinte conjunto de dados:

{ -0.37, 0.28, -1.61, -0.06, 1.79, -0.02, -1.69, -0.23, -0.69, -1.47, 1.16, 0.00, -1.86, 0.94, -0.82, 0.29, -0.51, 1.20, 2.32, -0.13 }

a) -0.07
b) 0.00
c) -0.095
d) 0.28

39
3) Qual o desvio padrão do conjunto de dados a seguir?

{ -10, -6, -2, 0, 2, 6, 10 }

a) 0.3
b) 6.2
c) 6.85
d) 6.83

4) Qual o boxplot melhor indica os dados de um Desenho Experimental N = 50; Q1 = -0.60; Q2 = -0.14; Q3 = 0.68; LI = -1.90;
LS = 1.79; dQ = 3.69 é dado pela figura:

(I) (II)

(III) (IV)

a) (I)
b) (II)
c) (III)
d) (IV)

5) Qual o tipo de assimetria existente nos boxplots das figuras do exercício 4?

a) I – Assimetria Negativa; II – Simétrico; III – Assimetria Negativa; IV – Assimetria Positiva.


b) I – Simétrico; II – Assimetria Positiva; III – Assimetria Positiva; IV – Assimetria Negativa.
c) I – Simétrico; II – Assimetria Positiva; III – Assimetria Negativa; IV – Assimetria à Direita.
d) I – Assimetria à Esquerda; II – Assimetria Positiva; III – Simétrico; IV – Assimetria à Esquerda.

40
03. Elementos e
Probabilidade
Conforme vimos na unidade anterior, através de uma análise de um conjunto de dados (informações) usando as
medidas de tendencia temos uma boa idéia sobre o possivel comportamento destes dados e podemos, a partir do entendimento
desse comportamento, criarmos estimativas ou previsões. Entretanto, entender a aleatoriedade por trás de um conjunto de
dados, isto é, se ele tem realmente um padrão de comportamento requer que tenhamos um conhecimento sobre a chance
daquele comportamento acontecer.

Dentro da matemática aplicada, a Estatística utiliza das Probabilidades para


estimar um grau de confiança para as informações que procura explicar. A distribuição
de freqüências vista na unidade anterior é uma forma importante para avaliarmos a
variabilidade das nossas observações relacionadas à um fenomeno aleatório, pois,
a partir destas frequências calculadas, podemos calcular estimativas (palpites) de
quantidades desconhecidas que estão geralmente associadas à uma população.

Podemos fazer isso, pois, a frequência relativa, que vimos na unidade


anterior, é uma estimativa da probabilidade de ocorrerem certos eventos de nosso
interesse. Com os devidos cuidados que veremos a seguir, podemos começar a
construir modelos que reproduzem a distribuição de freqüências de um determinado
evento a partir de uma observação direta deste evento. Esses modelos recebem o Fig. 29
nome de modelos probabilisticos.

3.1 Conjuntos e Métodos de Contagem


Antes que possamos falar sobre probabilidades e a associação delas com a ocorrência de nosso conjunto de dados,
precisamos estudar alguns conceitos matemáticos importantes: teoria dos conjuntos e métodos de contagem. Isso por que, em
muitos casos, a probabilidade de um determinado evento acontecer é dada pela análise de um conjunto de dados dentro de uma
série de possíveis resultados e a contagem deste conjunto em relação aos resultados.

Por exemplo: conforme dissemos a frequência relativa de um evento é uma estimativa a probabilidade associada à uma observação.
Vamos supor, então, que nos interessa analisar o lançamento de um dado e observarmos qual face ficará voltada para cima.

Seja o dado lançado sem qualquer tipo de influência externa ou até mesmo alteração no objeto (um dado viciado, por
exemplo, sempre caí com uma determinada face voltada para cima), podemos supor que todas as 6 faces possuam a mesma
frequência relativa para quando cairem voltadas para cima. Sabemos que a soma das frequências relativas deve ser igual à 1,
portanto, como tratamos de 6 possíveis faces, podemos supor a seguinte tabela:
Frequência
Face
Relativa
1 1/6
2 1/6
3 1/6
4 1/6
5 1/6
6 1/6
TOTAL 1
Tabela 7 – Suposta Tabela de Frequências para o lançamento de um Dado
Se imaginarmos que a soma das frequências relativas pode ser representada por um espaço e que podemos dividí-lo
em 6 partes iguais, teremos uma representação do que é chamado de Espaço Amostral. Além disso, cada uma dessas seis partes
será uma representação da Probabilidade de um evento especifico ocorrer. Isto significa que cada face possui 1/6 de chance de cair
virada para cima. A Figura 2 ilustra o espaço amostral e probabilidades da tabela 7.

41
Fig. 30 – Suposto espaço amostral da tabela 7
Podemos considerar, então, que nosso espaço amostral é um conjunto de dados composto por outros subconjuntos,
as probabilidades. No caso do lançamento do dado, por exemplo, temos que o nosso espaço amostral é um conjunto que contém
os 6 resultados possíveis (1 , 2, 3, 4, 5 e 6). Um elemento deste conjunto, por exemplo, o 2, é um dos resultados possíveis e
possui uma probabilidade de ocorrer igual a 1/6.

Dessa forma, a Teoria dos conjuntos é aplicável para o entendimento de alguns conceitos de probabilidade que
usaremos. Suponha que temos dois conjuntos de um mesmo espaço amostral sendo eles A e B outro.

A união entre A e B (representada pelo símbolo U entre os conjuntos) é dada pelo conjunto que possuí todos os elementos
de A e de B. Por exemplo, a união do conjunto { 3, 4, 5, 6, 7} e { 4, 5, 6, 7, 8 } é { 3, 4, 5, 6, 7, 8 }. Matematicamente temos:

Fig. 31 – A parte cinza representa a união de A com B

A Interseção entre A e B é dada pelo subconjunto que possuí os elementos que pertencem ao mesmo tempo a A e
B. Por exemplo, a interseção de { 3, 4, 5, 6, 7 } e { 4, 5, 6, 7, 8 } é { 4, 5, 6, 7 }. Porque estes 4 números estão presentes tanto
em A quanto em B. Matematicamente temos:

Fig. 32 – A parte colorida em azul representa a


interseção de A com B

42
O Complementar de A será um conjunto dado por todos os elementos que fazem parte do espaço amostral, mas que
não fazem parte de A. Por exemplo, seja o espaço amostral à { 1, 2, 3, 4, 5 , 6, 7, 8, 9, 0 } e o conjunto A (pertencente a este
espaço amostral) igual à { 3, 4, 5, 6, 7 }. O conjunto complementar de A será dado por { 1, 2, 8, 9, 0 }. Matematicamente temos:

O conceito de complementar também vale para a união e para a interseção. Por exemplo, o conjunto complementar
da união de A com B e nosso espaço amostral será { 1, 2, 9, 0 } e o complementar da interseção de A e B com o nosso espaço
amostral será { 1, 2, 3, 8, 9, 0 }. Matematicamente temos:

Fig. 33 – A parte cinza do retângulo representa o conjunto


complementar da união de A com B

Fig. 34 – A parte cinza da figura representa o conjunto complementar da interseção de A


e B, sendo o retângulo todo o espaço amostral.

A “caixa” onde A e B estão localizados nas figuras 3, 4, 5 e 6 é o espaço amostral, também representado pela letra
grega ômega: Ω. Conforme dito, o importante da teoria dos conjuntos está na representação que
os diagramas podem fazer em relação à um determinado caso de probabilidades que estamos
analisando e como o comportamento de conjuntos assemelha ao de distribuições de probabilidades
– veremos mais sobre isso a seguir.

Além da teoria dos conjuntos, outro importante conceito que nos interessa é o de
métodos de contagem. Imagine que temos um conjunto de 6 bolas que serão retiradas de
forma aleatória de dentro de uma urna, sem qualquer tipo de intervenção se não a do sorteio,
e queremos saber de quantas maneiras possíveis podemos retirar essas bolinhas.

Vamos imaginar o experimento: Uma pessoa abre a urna e tira uma primeira bolinhas.
Imaginando que todas possuam a mesma chance de serem retiradas, a primeira bolinha poderá ser
qualquer uma dentre as seis disponíveis na urna, ou seja, no espaço amostral
Fig. 35
Assim, se identificarmos que queremos sortear as seis bolas em sequência sem determinamos anteriormente nenhum tipo
de critério, podemos concluir que: a primeira bola, conforme dito, será qualquer uma entre as 6 bolinhas possíveis de serem sorteadas.

A segunda será qualquer uma entre as 5 possíveis que restam dentro da urna, a terceira será qualquer uma dentre as
4 possiveis restantes e seguiremos assim até que não reste mais nenhuma bolinha na urna. Podemos escrever, por tanto, quê:

1º sorteio: 6 bolinhas; 2º sorteio: 5 bolinhas; 3º sorteio: 4 bolinhas; 4º sorteio: 3 bolinhas; 5º sorteio: 2 bolinhas; 6º
sorteio: 1 bolinha

43
O número de possibilidades que podemos ter para a ordem das bolinhas que estamos tirando é dada por uma
multiplicação entre o número de elementos possíveis que temos para sortear ao retirar cada bolinha. Esse método de contagem
é chamado de Permutação. Logo, para o exemplo, temos que as 6 bolinhas podem ser sorteadas executando a P(6), lê-se
“permutação de 6 elementos”.

Isto significa que existem 720 maneiras diferentes de combinarmos as 6 bolinhas de acordo com a ordem com a qual
elas são retiradas da urna.

Em notação, escrevemos:
(3.1)

Onde:

P - é a permutação ou troca entre os elementos


n - é o número de elementos a serem permutados.
n! - lê-se “n-fatorial” e representa uma multiplicação entre todos os números inteiros anteriores a n maiores que zero.
(Veja o Box saiba mais).

O Fatorial é um importante operador matemático que baseia-se na multiplicação de um valor inteiro por todos os
seus anteriores inteiros e maiores que zero. Por exemplo:

5!=5x4x3x2x1=120
10!=10x9x8x7x6x5x4x3x2x1=3628800
100!=100x99x98x97x96x...x5x4x3x2x1=9.332622x10157

O número zero “0” não entra como termo multiplicativo pois, convenciona-se que a multiplicação para no último
algarismo anterior ao zero, ou toda nossa contagem seria zerada pelo ultimo elemento. Além disso, 0! = 1, por convenção.

Imagine agora que as bolinhas retiradas da urna precisam seguir uma determinada sequência de sorteio. Digamos,
por exemplo, que das 6 bolinhas colocadas na urna, 4 sejam amarelas e 2 sejam vermelhas. Ao retirarmos as bolinhas no sorteio,
gostaríamos de analisar de quantas maneiras possíveis as 4 bolinhas amarelas podem ser retiradas antes das vermelhas.

Definimos, então, um Arranjo Simples, onde queremos arranjar 4 bolinhas amarelas entre as 6 possíveis bolinhas a serem
sorteadas. Note que há uma importância da ordem entre as bolinhas pois queremos que as amarelas sejam retiradas primeiro. Assim,
para determinar o número de possibilidades de obter esta configuração (4 bolinhas amarelas sorteadas antes de sair qualquer uma das
duas bolinhas vermelhas) tomamos o que chamamos de arranjo de seis quatro a quatro. Matematicamente temos:

(3.2)

Onde:

n - é o número total de elementos que serão arranjados


r - é o número no qual os n elementos serão agrupados
A - É o arranjo dos n elementos de r em r.

No nosso exemplo:

Supondo agora que gostariamos de retirar 4 bolinhas primeiro, mas que a cada vez que retiramos uma bolinha,
anotamos se ela é amarela ou vermelha e em seguida devolvermos esta bolina de volta para a urna. Dessa forma a nossa ordem
importa, mas não a quantidade de vezes que os elementos serão escolhidos. Neste caso temos um Arranjo com repetições.
Matematicamente temos:
(3.3)

44
Onde:

n - é o número total de elementos que serão arranjados


r - é o número no qual os n elementos serão agrupados
AR - É o arranjo com repetições dos n elementos de r em r.

No nosso exemplo,

De volta ao nosso conjunto de bolinhas amarelas e vermelhas, imagine agora que vamos retirar as 4 bolinhas amarelas
seguidas de dentro da urna, mas não nos interessa se alguma bolinha vermelha foi retirada antes ou depois da sequência. Neste caso,
onde a ordem do resultado (4 bolinhas amarelas seguidas) não é importante, Temos uma Combinação. Matematicamente temos:

(3.4)

Onde:

n - é o número total de elementos que serão combinados


r - é o número no qual os n elementos serão agrupados
C nr - É a combinação dos n elementos r a r.

Em nosso exemplo,

Vamos a outro exemplo: Suponha que em um determinado momento do dia, em uma praça de alimentação de um
shopping, existam 10 pessoas comendo. Imagine que 4 delas são crianças, 4 são adultas e 2 são idosos. Imagine, também, que
essa praça de alimentação possua apenas 20 lugares livres de forma que nenhuma das 10 pessoas conseguirá sentar juntas.
Além disso, a partir do momento que as pessoas sentam, elas não levantam mais.

Um segurança do shopping gostaria de contar quantas maneiras as crianças podem sentar nas 20 mesas, não
importando a ordem como a façam.

Como a ordem de acontecimentos não tem influência em nosso método de contagem, podemos calcular isso através
de uma Combinação de 20 lugares dispostas em um conjunto de 4 crianças pelo local. Logo,

Imaginando agora, por exemplo, que os idosos devam sentar primeiro nos 2 lugares mais próximos do segurança
entre os 20 lugares disponíveis; temos um Arranjo simples, ou seja

Finalmente, ele decide contar as 10 pessoas de qualquer forma com que se sentam, logo, teremos uma Permutação
entre 10 pessoas.

45
3.2 Probabilidade
Conforme dissemos, a frequência relativa de um resultado é uma estimativa de uma
probabilidade. Também já mencionamos, na Unidade 01, que a probabilidade é uma tentativa
matemática de contabilizar uma provável chance de acontecimento para determinado evento. A
idéia básica da probabilidade se encontra em gerar valores capazes de relacionar a proporção entre
o número de acontecimentos que nos interessam em relação à todos os acontecimentos possíveis.
Por definição, temos que Probabilidade é definida conforme visto em (1.1). Fig. 36

Onde:

P - é dita Probabilidade de se obter um determinado resultado para um evento.


é o número total de eventos possíveis.
é o número mínimo de vezes em que o resultado que está se medindo a probabilidade deve ocorrer com certeza.

Voltemos ao exemplo do lançamento de um dado. Conforme dissemos, nos interessa avaliar a probabilidade de cada
uma das faces em cair voltada para cima. Sendo assim, podemos pensar que nos interessa que, no mínimo, 1 face caia voltada
para cima dado que todas as possíveis faces são 6. Por definição, vamos definir como A o evento “cair qualquer uma das 6 faces
voltadas para cima”. Dessa forma, por (1.1), temos:

Lemos que “A probabilidade do evento A acontecer é de 1/6”.

Vamos a um exemplo conhecido: a Megasena consiste em escolher 6 dezenas entre 60 dezenas


(01, 02, ... , 59, 60). Um jogador pode marcar um cartão com no mínimo 6 e no máximo 15 dezenas. Qual a
probabilidade de vencermos um jogo?

Primeiramente, devemos analisar que escolher 6 dezenas, não importando a ordem, entre 60
possíveis dezenas é uma combinação. Além disso, nós só podemos vencer a megasena em uma tentativa
por cartão de jogo, portanto o número de eventos favoráveis será igual à 1. Assim, seja V o evento “vencer
Fig. 37 a megasena acertando no mínimo 6 dezenas”, temos:

Note que o número total de eventos é uma combinação dos 60 números 6 a 6. Isso da um total de 500638606
resultados possíveis.

Outro exemplo: Imagine que tenhamos um lote com 15 peças e que existam 4 peças defeituosas. Escolhemos
aleatoriamente uma amostra de 3 peças desse lote de modo que não nos interessa a ordem deles.

Se definirmos A como o evento em que uma dessas peças de nossa amostra é defeituosa, podemos pensar que o número
total de elementos que nossa amostra pode nos dar é uma combinação de 4 peças sorteadas em 15 peças.

Além disso, podemos analisar que o que nos interessa é que essas 3 peças retiradas sejam uma das 4 peças
defeituosas, ou seja, podemos analisar isso como uma combinação de 3 peças possíveis peças defeituosas em 4 peças. Assim,

Se imaginarmos, portanto, que uma probabilidade é um evento dentro de um espaço amostral e que ambos se
comportam como conjuntos, podemos concluir que as propriedades da teoria dos conjuntos e que os conceitos de frequência
relativa se aplicam a probabilidades e assim, chegarmos a importantes propriedades:

Como a frequência relativa, a Probabilidade é um número entre 0 e 1, ou seja:

46
Isto por que, se imaginarmos que todos os elementos de um mesmo espaço amostral ocorrem ao mesmo tempo, o
número de eventos possíveis é igual ao número de eventos que estamos analisando e a divisão será igual à 1. Quando isso ocorre,
dizemos que temos um evento certo. Ao contrário, se imaginarmos que dentro de nosso espaço amostral não existe nenhum caso
possível de eventos que queremos entre todos os possíveis, nossa divisão terá um denominador igual à zero e, portanto, será igual
à 0. Quando isso ocorre, dizemos que temos um evento impossível.

É comum usarmos a letra grega Ω como notação para o evento certo e para o espaço nulo e evento impossível.
Assim, temos que:

Imagine que temos dois eventos, A e B dispostos em conjuntos pertencentes à um mesmo espaço amostral, como
mostra a Figura 4. Se quisermos saber o valor da união entre os eventos A e B e da interseção entre os eventos A e B podemos
usar do mesmo principio que na teoria dos conjuntos. Logo,

(3.5)

Onde:

(3.6)

Atenção! A união entre eventos de probabilidade também é conhecida como “Regra do OU” e a interseção é
conhecida como “Regra do E”. Isso acontece pois, ao analisarmos o problema em que precisamos dessas probabilidades,
comumente, usamos a idéia de que, para a união de dois eventos “ou A ou B acontecem ao mesmo tempo”, e de que, para
a interseção, “A e B ocorrem juntos”.

Imagine que temos um espaço amostral composto por dois eventos: A e B. Sabemos que
toda vez que A acontece, há uma probabilidade relacionada de 7/8 e para B, há uma probabilidade
relacionada de 2/5. Além disso, toda vez que B ocorre depois que A ocorre, existe uma probabilidade
de 2/3. Qual a probabilidade dos dois eventos acontecerem ao mesmo tempo?

Por definição, sabemos que P(A) = 7/8, P(B) = 2/5 e a interseção será de 2/3, logo, por , temos:

(3,5)
Fig. 38
Podemos também definir a existência de um evento complementar a outro pertencente à um mesmo espaço amostral
como a probabilidade de um evento certo subtraída da probabilidade do evento comum. Ou seja

(3.7)
Onde:

Por exemplo: imagine que temos um evento A igual à pela probabilidade de uma face de número par cair voltada
para cima quando lançamos um dado não viciado. Sabemos que existem 3 faces de numero par em um dado de 6 faces, logo,
a probabilidade de A é de 1/2. Qual a probabilidade de cair qualquer uma das faces ímpares?

A interseção de A e B pode ser vista através de um importante conceito da probabilidade:

(3.8)

47
Onde:

O evento “A dado B” é conhecido como Evento condicionial, onde um valor de A só é conhecido quando um valor de
conhecido de B já ocorreu, ou vice-versa. Contudo, para entendermos isso, vamos usar de um exemplo:

Imagine que possuímos uma bolsa com 7 bolas dentro, sendo que 3 são brancas e 4 são azuis. Suponha que são
retiradas dessa bolsa uma bola e que não a colocamos de volta, ou seja, não há reposição de elementos do espaço amostral.

Em seguida retiramos mais outra bola de dentro da bolsa. Vamos chamar de A o evento em que qualquer uma das
bolas sorteadas seja azul e de B o evento em que qualquer uma das bolas sorteadas seja branca.

No primeiro sorteio, a probabilidade de a bola sorteada ser branca ou azul seria dada por:

Em seguida, no segundo sorteio, nossa amostra perdeu uma unidade amostral, a bola já sorteada, e nossos eventos
favoráveis também. Então, nossas probabilidades, de as segundas bolas sorteadas serem brancas ou azuis, seriam dadas
condicionadas ao evento anterior. Assim, nesse caso:

Poderíamos concluir então que, se não houver nenhuma interferência em nossos eventos, a interseção de A e B será
dada por (3.8).

Note que a ordem em que fazemos nossa análise muda o resultado final da probabilidade da interseção.
Em nosso exemplo,

Existem casos, contudo, em que essa ordem não importa e que as probabilidades serão iguais – quando A
ocorre sem depender de nenhum valor de B, mas possui elementos em semelhança. Dizemos que A e B são eventos
independentes e, nesse caso:

(3.9)

Poderíamos continuar com isso até que chegássemos em um evento impossível, mas o quê devemos notar aqui é
que os valores vão sendo modificados de acordo com o conhecimento das probabilidades do sorteio. É comum, para casos de
eventos condicionais, usarmos o Diagrama em árvore (Figura 7) para mostrarmos nossas probabilidades.

Fig. 39 – Diagrama em árvore do sorteio de Bolas Brancas e Azuis

48
Ou seja, suponha que a primeira bola sorteada seja azul. Dado que a primeira bola sorteada foi azul, a probabilidade
da segunda bola sorteada ser azul é de uma unidade amostral à menos no número total de possibilidades e no número de casos
favoráveis, como mostra a Figura 38.

A partir da idéia de (3.8), definimos a probabilidade de um evento A dado B como



(3.10)

A equação (3.10) quando analisada sobre o ponto de vista de diversos eventos pertencentes à um mesmo conjunto,
é chamada de “Teorema de Bayes”

Perceba que a idéia da interseção de dois eventos depende exclusivamente do conhecimento dos elementos que são
pertencentes àquela região. Caso não exista nenhum elemento, ou seja, a interseção de A e B é igual à zero, chamamos os
eventos de Mutuamente Exclusivos. Ou seja:

Por exemplo: Suponha que lançamos uma moeda e deixamos que ela caia no chão sem quaisquer interferências.
Em seguida, anotamos qual face está voltada para cima, se “cara” ou “coroa”. Depois, lançamos outra moeda e anotamos seu
resultado. Qual a interseção de A e B?

Podemos notar que o fato de uma moeda já estar registrada (A) faz dela um evento anterior ao lançamento da
segunda moeda (B) e, portanto, temos um evento condicional. Contudo, o fato da segunda moeda ter sido lançada depois que
a primeira já estava caída, não influenciou de forma alguma seu resultado.

Portanto, podemos dizer que A e B são eventos independentes. Note também que, como nosso evento final acontece sem a
comparação do resultado de A com o de B, temos dois eventos mutuamente exclusivos, isso é, o resultado “coroa” ou “cara” da primeira
moeda não classifica qualquer outro resultado “coroa” ou “cara” da segunda moeda, portanto, são eventos mutuamente exclusivos.

Uma forma interessante de abordar a idéia de eventos mutuamente exclusivos é se perguntar se o acontecimento
de um evento determina o acontecimento do segundo. Por exemplo: lançar uma moeda no Brasil e anotar seu resultado
influenciaria de alguma forma o lançamento de outra moeda no Japão? A resposta é não, pois não há relação mensurável entre
dois eventos mutuamente exclusivos, ou seja, a probabilidade é igual à zero.

A maioria das ciências exatas trabalha com modelos matemáticos. Muitos deles surgiram de uma corrente de
pensamento criada na Física, o “Determinismo”. Diz tal teoria que, se todos as possiveis formas de intervenção em um evento
são conhecidas e capazes de serem calculadas, este evento é determinado por fatores e segue um padrão. A Estatística, por
outro lado, trabalha com modelos probabilísticos, abordando a idéia de que na natureza, nem tudo é possivel de ser conhecido
ou mensurável, mas que estimativas podem ser feitas e conclusões sobre o padrão podem ser inferidas.

3.3 Probabilidade Total


Imagine que um conjunto de eventos A formam um pedaço B em um espaço amostral Ω. Podemos definir a
probabilidade de B como sendo a soma de todos os eventos de interseção entre B e A, isto é,

(3.11)

Onde:

49
A Figura 40 ilustra a forma de visualizarmos a probabilidade de B.

Fig. 40 – Probabilidade de B como soma das probabilidades de B e A

Por exemplo, imagine que a probabilidade de um conector elétrico que é mantido seco vir a falhar no período da
garantia de um comprador é de 0.01. Se esse conector for molhado, a probabilidade da falha durante o período de garantia é
de 0.05. Se 90% desses conectores são mantidos seco e 10% são molhados, qual a probabilidade de um conector desses falhar
durante o período de garantia?

Vamos definir que:

F será o conector falhar


A será o conector ser seco
B será o conector ser molhado

Analisando nossas informações, podemos ver que trabalhamos com um conjunto de elementos condicionados. Ou
seja, teremos a probabilidade de um conector falhar dado que ele faz parte de um evento em ser conector molhado ou seco. Se
desenharmos nossas informações, teremos o que é ilustrado na Figura 9.

Fig. 41 – Exemplo onde Conectores possuem probabilidade de defeito.

Pela figura 9 temos que, em azul, esta nossa parcela de probabilidades relacionado a falhar, ou seja, F, e em cinza,
está nossa parcela de elementos que fazem parte da amostra e são conectores mantidos secos ou molhados, ou seja, a
frequência relativa de A ou B respectivamente.

Portanto, temos que:

3.4 Variáveis Aleatórias


Até o momento, nos referimos à um evento como uma letra do alfabeto, de forma a deixá-lo simples. Contudo, existe
um conceito matemático por trás da representação de um possível evento de um espaço amostral.

50
Vamos imaginar que temos um espaço amostral Ω composto de um conjunto de eventos e seus complementares que
chamaremos de ω (ômega minúsculo). Imagine que um evento ocorre e, portanto, temos uma probabilidade associada à ele,
conforme figura 42.

Fig. 42 – Espaço Amostral e ocorrência dos eventos ω,

Quando dizemos que estamos analisando a probabilidade de um evento ocorrer, estamos analisando, na verdade, a
forma como aquela chance de vir a ocorrer é passada de um conjunto de eventos para um número matemático. Chamamos essa
forma de variável aleatória.

Imagine, por exemplo, que temos um questionário em que uma pessoa é entrevistada a respeito da opinião dela em
relação à um assunto e que as respostas só podem ser sim ou não. Podemos associar à resposta sim o valor de 1 e à resposta
não o valor 0, por exemplo. Como sabemos que, sendo isso um espaço amostral, a probabilidade de sim e não são iguais à 0,5
(não há complementares), podemos dizer que:

A representação da resposta sim e não como os números 0 e 1 são variáveis aleatórias. Os verdadeiros conceitos por trás
dessa representação estão longe do objetivo desse curso, mas precisamos ter uma noção básica delas, pois os principais modelos
são criados a partir delas, uma vez que elas associam eventos impossíveis a probabilidades possíveis. (Ver Unidade 01 – seção 1.2)

Variáveis Aleatórias (abreviamos v.a.’s) são números relacionados a observações, ou dados, que temos sob nossa
análise e, portanto, elas também são configuradas como tipos de variáveis. Entretanto, por serem numéricas, elas sempre serão
discretas ou contínuas.

Variáveis aleatórias discretas são formadas por eventos quaisquer que possuam valores
numéricos inteiros associados. Por exemplo, 0 e 1 são v.a.’s discretas para respostas “sim” ou “não”
de um questionário. Variáveis aleatórias contínuas, por outro lado, são formadas por eventos que
possuam intervalos numéricos associados. Por exemplo, a altura de um indivíduo ser 1,75m é uma v.a.
contínua, pois ela está localizada entre o valor de 1,70 e 1,80.

Representamos a probabilidade de uma variável aleatória assumir um possível
resultado de nosso espaço amostral através do que é chamado de função de probabilidade.
Quando analisamos funções de probabilidade de variáveis aleatórias estamos buscando encontrar
o valor de uma probabilidade para que um evento tenha valor igual ao de nossa resposta. Ou
seja, a idéia de funções de probabilidade é gerar modelos que representem a probabilidade de um
evento assumir um valor qualquer – representação feita através das variáveis aleatórias. Fig. 43

Existem algumas funções de probabilidade conhecidas que descrevem a maior parte dos eventos que encontramos
em nosso dia-a-dia. Chamamos estas funções de probabilidade de distribuições probabilísticas ou de modelos de probabilidade.

3.5 Distribuições
Suponha que tenhamos um conjunto de 100 v.a’s que representam os valores de um evento qualquer. O histograma desse
conjunto é dado pela Figura 44. Note que este histograma representa a densidade de um conjunto de variáveis.

51
Fig. 44 – Histograma de 100 váriáveis aleatórias.

Existe, nesse caso, uma concentração de frequências no centro de nossos dados, ou seja, nossa provável média está em
algum lugar dentro de um intervalo dos valores centrais e a nossa variância descreve a dispersão dos dados ao redor da média de
acordo com a diminuição das barras. Imagine que temos uma linha que descreve o comportamento de todos esses dados. No nosso
caso, a figura 45. Essa linha é uma função de probabilidade que descreve o comportamento de nossa distribuição de probabilidades.

Fig. 45 – Função de probabilidade descrevendo a densidade de frequências

Observe que o eixo y de nossos histogramas nunca possuí valores maiores que 1. Isso se dá pois estamos
trabalhando com a frequência relativa aproximada como a probabilidade.
Assim como as distribuições de frequência, as distribuições de probabilidade são conhecidas funções de probabilidade
que descrevem o comportamento de um conjunto de dados. Digamos, por exemplo, que queremos saber a probabilidade de
uma v.a discreta ter um valor qualquer.

Por conceitos matemáticos, a área a baixo de uma curva de função é a probabilidade do evento acontecer para o valor
que procuramos. O que nos importa não é calcular essa probabilidade, mas sim entender que é ela quem explica a dispersão
dos dados de acordo com sua frequência relativa e v.a’s.

Na Estatistica, a função que descrever o comportamento de variáveis aleatórias discretas é chamada de função de
probabilidade e a que descreve o comportamento de variáveis aleatórias contínuas é chamada nde função de densidade de probabilidade.
Ambas possuem a mesma aplicação, mas são diferentes em termos de calculo, os quais não serão levados em conta aqui.
A importância dos modelos probabilísticos é que eles descrevem qualquer conjunto de dados, sejam eles amostrais
quanto populacionais e, portanto, possuem características próprias, ditas parâmetros.

Uma distribuição de probabilidades é uma distribuição populacional, pois, como sabemos que o evento certo é igual
à um, conhecemos todos os possíveis valores existentes em sua distribuição e a melhor forma de caracterizá-la é através de
seus parâmetros, não de estatísticas.
Em notação, costuma-se dizer que uma variável aleatória qualquer, por exemplo X, segue uma distribuição qualquer
com parâmetros. Assim, X ~ Distribuição (parâmetros).

A média de uma distribuição é chamada de Valor Esperado ou Esperança, pois se acredita que sempre que selecionarmos
um valor aleatório dentro do conjunto que analisamos, pelo menos podemos esperar a média como resposta, uma vez que ela
é a medida de tendência que descreve a maioria dos valores do conjunto de v.a.’s.

52
Podemos calcular a Esperança de um conjunto de dados qualquer se usarmos a idéia de média associada à frequência
relativa, isto é, ponderada por sua probabilidade teórica. Assim,

(3.12)

Onde:

Por exemplo: Imagine que temos o seguinte conjunto de dados e suas probabilidades (tabela 8). Qual o valor esperado
para esse conjunto de v.a.’s?

x P(x)
2 0.1
3 0.1
4 0.3
5 0.2
6 0.2
7 0.1
Tabela 8 – valores possíveis de uma va X e suas probabilidade

Além disso, podemos calcular a Variância de uma distribuição qualquer subtraindo a esperança de nossos valores ao
quadrado pelo quadrado da esperança dos valores. Ou seja,

(3.13)

Onde:

Por exemplo, qual a variância da tabela 7?

Como dito anteriormente, a maioria dos eventos que vemos dia-a-dia são descritos por algumas distribuições já
bastante estudadas e com valores conhecidos para média e variância – tão conhecidas que o valor para suas probabilidades
correspondentes à qualquer v.a. estão tabeladas ao final desse material.

3.6 Distribuição Bernoulli e Binomial


Dentre as distribuições que descrevem variáveis aleatórias discretas, a mais fundamental é a Distribuição Bernoulli.
Vamos descrevê-la através de um exemplo:

Imagine que vamos lançar uma moeda e queremos que seu resultado seja “cara”. Se chamarmos o conjunto de possiveis
respostas de X e atribuirmos 0 e 1 para quando nossos resultados, quantificando-os, podemos dizer que:

53
Existe um principio da matemática que diz que quando somos capazes de executar um evento favorável, somos
capazes de executar o oposto desse evento ao mesmo tempo (principio multiplicativo). Seguindo esse principio, a probabilidade
de uma distribuição Bernoulli é descrita como:

(3.14)
Onde:

Por exemplo: No caso do lançamento de uma moeda, podemos dizer que X, ou seja, o resultado, será igual à 1 quando “cara”
e 0 quando “coroa”. Assim, como sabemos que a face cara tem a mesma probabilidade de coroa, sendo p = (1 – p ) = 0,5 temos:

O quê caracteriza uma distribuição Bernoulli é que, em todos os casos, existirão somente dois resultados possíveis.
Além disso, os valores para a probabilidade da v.a. assumir qualquer valor dentro de nosso espaço amostral é igual.
O Valor Esperado e a Variância de uma distribuição Bernoulli serão dados por:

(3.15) (3.16)

Imagine agora que vamos analisar o lançamento de diversas moedas em


sequência e que cada evento é independente do anterior, ou seja, o fato de cair “cara”
na primeira moeda, não influencia o resultado da segunda. Conforme as moedas vão
caindo, elas assumem um determinado tipo de sequência e necessitamos, no caso de
ser uma sequência de eventos Bernoulli, analisar todas as maneiras possíveis que o
nosso número de moedas pode cair.

Definimos assim, uma variável aleatória Binomial como o número de


sucessos em n eventos Bernoulli repetidos, com probabilidades p iguais de sucesso.
Dizemos que uma variável aleatória X aproxima uma distribuição Binomial quando ela
é, então, uma série de Bernoullis independentes. Ou seja: Fig. 46

E notamos:

(3.17)
Onde:

Imagine por exemplo, que 10 peças são extraídas, ao acaso e com reposição, de um lote contendo 500 peças; qual é a
probabilidade de que todas sejam defeituosas, sabendo-se que 10% das peças do lote são defeituosas?

Temos uma variável aleatória Binomial a partir do conceito de que as 10 peças extraídas só podem assumir dois resultados
possíveis: defeituosas ou não-defeituosas. Além disso, sabemos que a probabilidade de uma peça qualquer ser defeituosa é de 0,1. Logo,

Como uma Binomial é uma série de Bernoullis, a Esperança e a Variância da Binomial também será dada por n vezes
a esperança e a variância da Bernoulli. Portanto,

54
(3.15) (3.16)

Conforme dissemos, existem inúmeras distribuições de probabilidades já conhecidas que descrevem o comportamento de
uma grande variedade de variáveis aleatórias. Para este curso, nossa análise estará focada no comportamento das distribuições contínuas
a seguir, mas o box SAIBA MAIS possuí sugestões de distribuições discretas conhecidas e muito utilizadas para que você possa pesquisar.

Quando estamos analisando variáveis aleatórias que possuem muitos casos possiveis, mas estão completamente
associados a valores muito pequenos de probabilidade, aproximamos nossa distribuição de uma Poisson.
Leia aqui: http://www.cis.udel.edu/
Quando estamos analisando variáveis aleatórias casuais feitas sem reposição, como o exemplo que demos no
começo desse capítulo a respeito das bolinhas azuis e amarelas dentro de uma bolsa. Chamamos essa distribuição de
Hipergeométrica.
Leia aqui: http://www.cis.udel.edu/
Quando estamos analisando uma série de eventos independents e buscamos encontrar a primeira vez que nosso
resultado dito como “sucesso” ocorre, aproximamos essa distribuição para uma Geométrica.
Leia aqui: http://www.portalaction.com.br/

Conforme dissemos, as distribuições contínuas são aquelas que descrevem variáveis aleatórias que estão representadas
por intervalos numéricos, isto é, assumem tanto valores inteiros quanto decimais. Apresentaremos as principais distribuições
contínuas que são dependentes de uma única distribuição conhecida, a distribuição Normal e nos concentraremos na aplicação
delas na próxima unidade.

3.7 Distribuição Normal


A Distribuição Normal é, sem dúvidas a mais importante entre os modelos probabilísticos existentes. A teoria de
origem dela é creditada ao matemático francês Abraham de Moivre, e desenvolvida por Laplace em 1812. A distribuição normal
é tem sua função densidade de probabilidade descrita como:

(3.17)

Onde:

A Normal pode variar de valores negativos à valores positivos, portanto, ela compreende todos os valores possíveis a
serem associados à um evento. Quando uma variável qualquer, digamos, X, é uma normal, fazemos a seguinte notação:

A função densidade de probabilidade da distribuição normal, quando calculada para possíveis valores, apresenta um
característico gráfico conhecido como “curva em forma de sino”, como mostra a

Fig. 47 – Distribuições normais variando de acordo com seus parâmetros.

55
A Distribuição Normal é conhecida por algumas propriedades em relação a probabilidade de seus eventos. Sabe-se, por
exemplo, que 68% dos dados tem probabilidade localizada entre as áreas de um desvio-padrão acima e a baixo da média. 95%
estão entre mais dois e menos dois desvios-padrão e 99% à 100% estão a mais três e menos três desvios-padrão. (figura 48)

Fig. 48 – Concentração de dados ao redor da média

Em notação:

Além disso, a região a direita da média é simétrica à região à esquerda da média, ou seja, a probabilidade de todos
os valores à esquerda até a média é a mesma que a de todos os valores à direita da média. Chamamos isso de propriedade de
simetria. Observe, por exemplo, na figura 16, que a soma dos valores até a média é igual a soma dos valores após a média.

Em notação:

(3.18)

Onde:

Outra importante característica da distribuição é que ela é capaz de aproximar qualquer outra variável aleatória normal
para sua padronização simples, isto é, média igual à 0 e variância igual à 1 – e os valores de probabilidade associados a essa
distribuição são conhecidos. Encontramos a probabilidade dessa variável aleatória fazendo:

(3.19)

Onde:

Por exemplo: as altura de 10000 alunos de um colégio tem distribuição normal com média 170cm e variância de 25cm.
Qual o número esperado de alunos com altura superior a 165cm?

Sabemos que nossa variável para as alturas, digamos, A tem distribuição normal (170, 25). Logo, podemos padronizá-
la fazendo (3.19):

Como procuramos o número entre 10000 alunos:

56
3.8 Distribuição Uniforme
Suponha que um evento seja contínuo, variando em um intervalo de a até b, e que a probabilidade de uma série de
valores possíveis para esse evento seja igual. Nesse caso, temos uma variável aleatória contínua descrita como Uniforme. A
função densidade de probabilidade resultará em valores de probabilidade calculados como:

(3.20)

Onde:

Notamos:

Variáveis Uniformes são comuns e são, também, o exemplo mais simples de distribuições contínuas. Como estamos
tratando de um intervalo linear entre a e b, ou seja, onde a variável varia, podemos escrever a Esperança e a Variância de uma
variável Uniforme como:

(3.21) (3.22)

O gráfico de uma distribuição Uniforme é simples, como mostra a Figura 49.

Fig. 49 – Variável uniforme em seu intervalo.


Suponha que os ponteiros de um relógio podem parar a qualquer instante, enquanto eles funcionam marcando horas na
área delimitada por um circulo. Qual a probabilidade de que os ponteiros parem em um angulo de 90º?

Sabemos que nossos ponteiros variam de posição dentro de um círculo, cujos ângulos vão de 0 até 360. Assim,
por (3.20) temos,

Existem outros modelos probabilísticos conhecidos e muito utilizados, contudo, os mais importantes serão abordados
na próxima unidade, pois eles são derivados da distribuição Normal e, a partir dessa comparação, que podemos concluir
informações sobre nossos dados.

1) Sejam os conjuntos A = { 1, 2, 3, 4, 5, 6, 7, 8, 9} e B = {6, 7, 8, 9, 10, 11}. Qual a união de A com B?

a) {1, 2, 3, 4, 5, 6, 7 ,8, 9, 10, 11}


b) {2, 3, 4, 5, 6, 7, 8, 9, 10, 11}
c) {1, 2, 4, 5, 6, 7, 8, 9}
d) { 5,3, 2, 5, 6, 3, 1, 5, 8}

57
2) Seja A = {1, 2, 3, 4, 9}, B = { 3, 4, 5, 6, 9} e C = {1, 2, 5, 6, 5}. Quantos valores existem em

a) 2
b) 0
c) 3
c) 4

3) Em um esaço amostral Ω = {0,1,2,3,4,5,6,7,8,9}, suponha que A seja um conjunto composto por todos os números pares. Qual
o complementar de A?

a) {0, 1, 3, 5, 7, 9}
b) {0, 1, 2, 3, 4, 5}
c) {0, 2, 4, 6, 8}
d) {3, 5, 6, 8, 9}

4) Suponha que tenhamos uma bolsa com 10 bolinhas amarelas e que as retiramos e colocamos em outra bolsa. De quantas
maneiras diferentes podemos sortear as bolinhas?

a) 1814400
b) 604800
c) 1209600
d) 3628800

5) Em uma urna, colocamos 10 bolas marcadas: 5 com numeros pares, 2 com números impares e 3 com letras. Imagine que
sorteamos uma bola qualquer, de quantas maneiras diferente teremos as bolas com números pares como resultado?

a) 15120
b) 37000
c) 30240
d) 31240

6) Uma linha de montagem fabrica um lote com 20 peças por minuto. Suponha que dessas 20 peças, 4 estão fora do padrão.
Um funcionário ao perceber o problema, decide procurar pelas peças e catalogá-las, sem retirá-las do lote. De quantas maneiras
possíveis ele poderá ter essas peças?

a) 4845
b) 2423
c) 7267
d) 3634

7) Usando os dados do problema anterior, qual a probabilidade das 4 peças fora do padrão?

a) 0.1
b) 0.2
c) 0.3
d) 0.4

8) Usando os dados do problema 6, qual a probabilidade de sortearmos uma das 4 peças fora do padrão?

a) 0.00065
b) 0.00027
c) 0.00032
d) 0.00082

9) Se a probabilidade de um determinado evento A é igual à 0,1 e a probabilidade de um evento B é igual à 0,9 e ambos fazem parte
de um único espaço amostral, qual a probabilidade de que A ou B acontecerem ao mesmo tempo?

a) 0.09
b) 0.50
c) 1.00
d) 0.97

58
10) Um lote com 100 peças é composto somente de peças defeituosas ou não-defeituosas. Se a probabilidade de uma peça
defeituosa ser sorteada é de 0.2, qual a probabilidade de sortemos uma peça não defeituosa?

a) 0.16
b) 0.80
c) 0.32
d) 0.64

11) Colocamos em uma urna 20 bolas sendo que 9 delas são coloridas e o restante são brancas. Retiramos uma boa por vez,
colocando-a em uma outra urna. Qual a probabilidade de, no terceiro sorteio, termos uma bola colorida?

a) 0.45
b) 0.19
c) 0.072
d) 0.38

12) Em uma linha de montagem, um engenheiro percebe que há um padrão entre os 10 erros cometidos pelos montadores até
o final da produção. No primeiro setor, ele verifica que 5 erros são cometidos. No segundo, 2 erros. No terceiro, 1 e no quarto
outros 2 erros. Qual o número aproximado de erros esperado em cada setor na linha de montagem?

a) 10
b) 5
c) 3
d) 8

13) Qual a variância dos erros do problema 12?

a) 2.64
b) 1.04
c) 2.32
d) 3.4

14) Sabe-se que 7% de um lote de 100 peças é defeituoso. Se retirarmos 1 peça qualquer qual a probabilidade de que ela seja defeituosa?

a) 0.0047
b) 0.0053
c) 0.0052
d) 0.0049

15) 300 funcionários de uma empresa tem seus salários iguais à eventos de uma distribuição normal com média 550 e variância
810. Qual a probabilidade de um funcionário ter um salário maior do que 1500,00 reais?

a) 0
b) 0.68
c) 0.97
d) 0.99

1) Seja a taxa de acidentes em uma rodovia uma variável aleatória Bernoulli com probabilidade igual à 0.3. Qual a variância dessa taxa?

a) 0.42
b) 0.21
c) 0.3
d) 0.7

2) Qual o valor esperado para um conjunto de dados descrito por uma distribuição Binomial (10,0.3)?

a) 10
b) 4
c) 2
d) 7

3) Um conjunto de dados possuí distribuição Normal (0,25). Qual a probabilidade de encontrarmos um valor menor ou igual à 5?

a) 0.42
b) 0.72

59
c) 0.84
d) 0.98

4) Sabemos que o número de passáros em uma determinada área de preservação florestal é varia entre 10 e 50 animais pelo
periodo de 6 meses. Qual a probabilidade de encontramos menos de 20 passáros nesse periodo?

a) 0.25
b) 0.50
c) 0.40
d) 0.65

5) Se o número de pássaros dado no exercício anterior pode ser aproximado para uma distribuição Normal (0,1), qual seria a
probabilidade de encontrarmos mais de 5 animais em qualquer periodo?

a) 0
b) 0.5
c) 0.23
d) 0.42

Tabela Normal: A primeira coluna dá o valor inteiro e o primeiro decimal de uma variável aleatória ajustada à uma N(0,1). A
primeira linha dá o valor da segunda casa decimal de uma variável aleatória ajustada à uma N(0,1).

z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09
-4.0 0.00003 0.00003 0.00003 0.00003 0.00003 0.00003 0.00002 0.00002 0.00002 0.00002
-3.9 0.00005 0.00005 0.00004 0.00004 0.00004 0.00004 0.00004 0.00004 0.00003 0.00003
-3.8 0.00007 0.00007 0.00007 0.00006 0.00006 0.00006 0.00006 0.00005 0.00005 0.00005
-3.7 0.00011 0.00010 0.00010 0.00010 0.00009 0.00009 0.00008 0.00008 0.00008 0.00008
-3.6 0.00016 0.00015 0.00015 0.00014 0.00014 0.00013 0.00013 0.00012 0.00012 0.00011
-3.5 0.00023 0.00022 0.00022 0.00021 0.00020 0.00019 0.00019 0.00018 0.00017 0.00017
-3.4 0.00034 0.00032 0.00031 0.00030 0.00029 0.00028 0.00027 0.00026 0.00025 0.00024
-3.3 0.00048 0.00047 0.00045 0.00043 0.00042 0.00040 0.00039 0.00038 0.00036 0.00035
-3.2 0.00069 0.00066 0.00064 0.00062 0.00060 0.00058 0.00056 0.00054 0.00052 0.00050
-3.1 0.00097 0.00094 0.00090 0.00087 0.00084 0.00082 0.00079 0.00076 0.00074 0.00071
-3.0 0.00135 0.00131 0.00126 0.00122 0.00118 0.00114 0.00111 0.00107 0.00103 0.00100
-2.9 0.00187 0.00181 0.00175 0.00169 0.00164 0.00159 0.00154 0.00149 0.00144 0.00139
-2.8 0.00256 0.00248 0.00240 0.00233 0.00226 0.00219 0.00212 0.00205 0.00199 0.00193
-2.7 0.00347 0.00336 0.00326 0.00317 0.00307 0.00298 0.00289 0.00280 0.00272 0.00264
-2.6 0.00466 0.00453 0.00440 0.00427 0.00415 0.00402 0.00391 0.00379 0.00368 0.00357
-2.5 0.00621 0.00604 0.00587 0.00570 0.00554 0.00539 0.00523 0.00508 0.00494 0.00480
-2.4 0.00820 0.00798 0.00776 0.00755 0.00734 0.00714 0.00695 0.00676 0.00657 0.00639
-2.3 0.01072 0.01044 0.01017 0.00990 0.00964 0.00939 0.00914 0.00889 0.00866 0.00842
-2.2 0.01390 0.01355 0.01321 0.01287 0.01255 0.01222 0.01191 0.01160 0.01130 0.01101
-2.1 0.01786 0.01743 0.01700 0.01659 0.01618 0.01578 0.01539 0.01500 0.01463 0.01426
-2.0 0.02275 0.02222 0.02169 0.02118 0.02067 0.02018 0.01970 0.01923 0.01876 0.01831
-1.9 0.02872 0.02807 0.02743 0.02680 0.02619 0.02559 0.02500 0.02442 0.02385 0.02330
-1.8 0.03593 0.03515 0.03438 0.03362 0.03288 0.03216 0.03144 0.03074 0.03005 0.02938
-1.7 0.04456 0.04363 0.04272 0.04181 0.04093 0.04006 0.03920 0.03836 0.03754 0.03673
-1.6 0.05480 0.05370 0.05262 0.05155 0.05050 0.04947 0.04846 0.04746 0.04648 0.04551
-1.5 0.06681 0.06552 0.06425 0.06301 0.06178 0.06057 0.05938 0.05821 0.05705 0.05592
-1.4 0.08076 0.07927 0.07780 0.07636 0.07493 0.07353 0.07214 0.07078 0.06944 0.06811
-1.3 0.09680 0.09510 0.09342 0.09176 0.09012 0.08851 0.08691 0.08534 0.08379 0.08226
-1.2 0.11507 0.11314 0.11123 0.10935 0.10749 0.10565 0.10383 0.10204 0.10027 0.09852
-1.1 0.13566 0.13350 0.13136 0.12924 0.12714 0.12507 0.12302 0.12100 0.11900 0.11702
-1.0 0.15865 0.15625 0.15386 0.15150 0.14917 0.14686 0.14457 0.14231 0.14007 0.13786
-0.9 0.18406 0.18141 0.17878 0.17618 0.17361 0.17105 0.16853 0.16602 0.16354 0.16109
-0.8 0.21185 0.20897 0.20611 0.20327 0.20045 0.19766 0.19489 0.19215 0.18943 0.18673
-0.7 0.24196 0.23885 0.23576 0.23269 0.22965 0.22663 0.22363 0.22065 0.21769 0.21476
-0.6 0.27425 0.27093 0.26763 0.26434 0.26108 0.25784 0.25462 0.25143 0.24825 0.24509
-0.5 0.30853 0.30502 0.30153 0.29805 0.29460 0.29116 0.28774 0.28434 0.28095 0.27759
-0.4 0.34457 0.34090 0.33724 0.33359 0.32997 0.32635 0.32276 0.31917 0.31561 0.31206
-0.3 0.38209 0.37828 0.37448 0.37070 0.36692 0.36317 0.35942 0.35569 0.35197 0.34826
-0.2 0.42074 0.41683 0.41293 0.40904 0.40516 0.40129 0.39743 0.39358 0.38974 0.38590
-0.1 0.46017 0.45620 0.45224 0.44828 0.44433 0.44038 0.43644 0.43250 0.42857 0.42465
-0.0 0.50000 0.49601 0.49202 0.48803 0.48404 0.48006 0.47607 0.47209 0.46811 0.46414

60
04. Inferência Estatística
4.1 Inferência
Até esta unidade nós vimos vários conceitos da matemática
aplicada com o intuito de resumirmos um conjunto de dados. Inicialmente,
com a intenção de conhecer sua tendência, quantificá-lo e entender seu
comportamento. A partir do entendimento dessas qualidades de um evento
qualquer, somos capazes de, finalmente, concluir importantes pontos.

O conceito de Inferência é inerente a todos, mesmo quando não


sabemos, estamos concluindo sobre um conjunto completo de dados a partir de
uma pequena parcela sob nosso conhecimento: uma cozinheira ao experimentar
a quantidade de sal em um prato para dizer se todos os outros pratos preparados
estarão bons; uma pessoa em uma feira de rua, concluindo se irá comprar um
quilo de laranjas após ter experimentado uma amostra do vendedor. Fig. 50

Basicamente, a inferência faz isso: a partir de um resumo de dados descritivos (Estatística Descritiva) que nos ajuda
a descrever seu o comportamento de probabilidades (Elementos de Probabilidade) podemos concluir, estimar ou, como diz o
nome, inferir sobre uma População (Inferência).

4.2 Um Pouco Mais Sobre: Amostras, Populações, Estatísticas e Parâmetros


Suponha que queremos estudar uma característica da população. Essa característica de interesse, como vimos na
Unidade 03, será chamada de Variável Aleatória e seu valor será descrito por uma associação entre probabilidade e valores
observados no conjunto de dados.

Formalmente, dizemos que uma característica de interesse qualquer, digamos X (maiúsculo como notação) é uma
variável aleatória descrita por uma função de probabilidade ou função densidade de probabilidade.

Conforme vimos na Unidade 03, também, após identificarmos descritivamente nossas características (Unidade 02),
estudamos seu comportamento através dos modelos probabilísticos, ou seja, as distribuições de probabilidade. Podemos fazer
isso a partir da idéia de que trabalhamos com informações que são fornecidas de Amostra Aleatórias.

A importância das Amostras Aleatórias Simples tem uma base matemática que vai longe de nosso foco, mas a
conclusão matemática que se obtém e que deve ficar fixada é de que:

Unidades amostrais de Amostras Aleatórias possuem a característica de serem Independentes uma das outras e
Identicamente Distribuídas. Em notação, dizemos que elas são i.i.d.’s.

Podemos ilustrar isso imaginando que temos como um conjunto de dados uma quantidade n de bolinhas dentro de
uma bolsa. Imaginando que, através de um sorteio sem interferências, nos interessa somente anotar o resultado que nos é
apresentado (ou seja, colocamos a bola sorteada de volta dentro da bolsa), o fato da primeira bola que sair se anotada, não
influenciará no resultado da segunda bola que, por probabilidade, pode até ser a mesma bola. Logo, elas são independentes.

Além disso, como trabalhamos com um espaço amostral conhecido e com variáveis conhecidas, podemos dizer que
elas possuem a mesma distribuição. Dentro da bolsa só existem bolas e nada mais, além disso, então, o comportamento de
todas elas tende a seguir um padrão. Logo, são Identicamente Distribuídas.

Quando realizamos um experimento e observamos os valores, no caso do exemplo citado, a bola sorteada é anotada,
observamos valores para as variáveis aleatórias da amostra e representamos isso com letras minúsculas, digamos, por exemplo, x.

Esse valor observado para uma variável aleatória é chamado de estimativa. Por exemplo, a média amostral é uma
estimativa criada através da equação (2.11) onde valores são atribuídos a uma variável e seu resultado é estimado. Ou seja,
podemos dizer que uma estatística é uma função de variáveis e seu resultado possível é a estimativa.

61
Conforme dissemos, olhar o comportamento de uma amostra nos mostra o possível comportamento da população.
As características de uma população são as características de sua distribuição, os parâmetros. Por exemplo, a média de uma
população é dada pelo Valor Esperado da mesma.

Parâmetros são geralmente notados por letras do alfabeto grego. Estatísticas, por sua vez, são notadas por letras
minusculas do alfabeto latim. Por exemplo, a média da população é escrita com o enquanto a média amostral é simbolizada
por um .

A partir do momento que procuramos entender e estimar os parâmetros de uma população através das estatísticas de
uma amostra, dizemos que tais características usadas para a comparação são Estimadores. Por exemplo, sabe-se que a Média
Amostral é um bom estimador para a Média Populacional.

Estimadores são indicados por um acento circunflexo sobre o símbolo procurado. Por exemplo, o Estimador da
média populacional é (lê-se “mi chapéu”).

Podemos supor que nem todos os dados se comportam da mesma forma, bolas em uma
bolsa e bolas marcadas com números em uma urna, por exemplo, são dois grupos semelhantes
amostral mente, mas diferentes em características. Contudo, através da estatística descritiva, somos
capazes de analisar que, independente de qualquer resultado para as estatísticas de uma amostra,
três estimativas sempre existirão: Média, Variância e Proporção.

Imagine, agora, que uma população é formada por incontáveis possíveis amostras. Se
para cada amostra nós resumirmos suas estatísticas teríamos um grande conjunto de estatísticas
que variam, mas que podem ser tratadas como dados e, portanto, possuem uma própria distribuição. Fig. 51

4.3 Distribuição Amostral da Média e o Teorema Central do Limite


Imagine que os fabricantes de potes de vidro para picles querem saber o comprimento médio dos picles. Vamos
chamar a variável de interesse, ou seja, a média do comprimento dos picles, de X.

Selecionamos uma Amostra Aleatória de tamanho n e, anotando temos o comprimento médio dos potes de vidro.
Definimos, então, que nossa estatística chamada média é um conjunto de dados e que, portanto, possuí uma distribuição. A
forma mais fácil de estimar o comportamento dessa distribuição é através de seu Valor Esperado e Variância possuindo, assim,
uma idéia de seu comportamento.

(4.1) (4.2)
Onde:

Perceba que a Esperança da média amostral é a própria média da distribuição e a Variância é uma proporção da
variância populacional sobre o total de unidades amostrais. Além disso, perceba que, se aumentarmos o número de unidades
amostrais, a variância tende a aproximar-se de zero enquanto que a esperança ficará estática. Nesse caso, nossos dados
começam a tomar uma forma bastante conhecida, conforme mostra a Figura 52.

62
Fig. 52 – Acúmulo da distribuição
Podemos perceber que nossa média amostral, em grande quantidade, será descrita como uma Distribuição Normal.

A distribuição da média, quando temos muitas observações, tende a ficar com o comportamento de uma distribuição
Normal. De forma simples, podemos pensar que, sendo a média uma medida de tendencia central de qualquer distribuição, um
conjunto de dados que originou essa média também terá comportamento igual ao de uma Distribuição Normal quando nosso
número de dados for suficientemente grande.

Quando matemáticos entenderam que, para grandes quantidades de observações independentes, os dados ganhavam
o comportamento de uma distribuição Normal (unidade 03), foi desenvolvido um conceito matemático que busca provar isso.
Esse conceito, chamado Teorema Central do Limite apóia se em algumas idéias de Teoria das Probabilidades e só foi provado
matematicamente no inicio do século XX.

A média amostral tender a uma distribuição Normal é um dos resultados mais conhecidos e é notado como:

(4.3)

Onde:

Note que se nossa média amostral for calculada através de um conjunto de dados que seguem uma Distribuição
Normal, podemos padronizá-los subtraíndo a média e dividindo pelo desvio-padrão. Assim, aplicando o TCL, podemos
aproximar nossa média para uma Distribuição Normal Padrão. (como vimos em (3.19)). Logo,

E as probabilidade para possíveis valores da média amostral estão na Tabela dada na unidade 03.

63
Vamos imaginar, por exemplo, que uma máquina de empacotar café despeja em
um pacote uma quantidade X, em peso, de pó torrado e o empacota. Imaginemos agora que
o peso de pó de café em cada pacote seja distribuído de acordo com as probabilidades de
uma Distribuição Normal, com média μ e desvio-padrão igual à 12g.

Suponha que queremos que a máquina seja regulada de forma que o peso médio
μ seja tal que apenas 10% dos pacotes feitos pela máquina tenham menos de 500g.

O peso do pó de café é uma variável quantitativa contínua e aleatória contínua.


Podemos supor que, por ser uma máquina, a quantidade de pacotes feitos em um dia por
essa máquina é suficientemente grande. Além disso, por observações anteriores, tem-se
que a média é variada, mas que a margem de erro nos pacotes, ou seja, o desvio-padrão, é
de aproximadamente 10 gramas. Logo, podemos supor, conforme sugere o problema que: Fig. 53

Nesse caso, nos interessa analisar o caso imaginando que a probabilidade resultante da média fixada seja igual à 10%,
ou seja, 0,1. Para isso, vamos analisar a tabela de probabilidade de uma Normal padrão de forma inversa a que costumamos
fazer, ou seja, vamos olhar a probabilidade e depois encontrar o primeiro valor numérico – olhando a primeira coluna para o
número inteiro e a linha para as casas decimais – que represente aquele resultado. Ou seja, queremos encontrar:

Pela tabela, que nos dá , procuramos um valor para z (minúsculo) que seja correspondente à 0,1. Logo,
analisando a tabela, temos:

Logo,

Multiplicando os dois lados da igualdade por (-1), temos finalmente:

Definimos, assim, a média de nossa distribuição e, a partir do TCL podemos trabalhar qualquer suposição para a
amostra. Por exemplo, imagine que agora, sabendo que nossa variável, a partir da suposição de que o peso não será maior do
que 500 gramas, segue uma aproximada distribuição Normal com média 512,8 e variância 100, queremos saber a probabilidade
de 4 pacotes escolhidos aleatoriamente não ultrapassarem 2kg.

Queremos que os 4 pacotes não possuam peso superios à 2000 grammas. É lógico, pelas noções que vimos até agora,
supor que, no mínimo, os 4 pacotes pesaram a mesma coisa e que, a média deles será menor que a proporção pelos 2Kg. Ou seja,

Percebe-se, então, que buscamos a probabilidade da média amostral de 4 unidades da população com 10% dos
pacotes com menos de 500 gramas, menor ou igual à 500 gramas. Logo, com o auxilio de (4.3) e da tabela, temos que:

Sabendo que nossa média amostral tende, pelo TCL, a ser nossa média populacional, podemos imaginar que, a
medida que vamos aumentando nosso n, a diferença de nossa média amostral para a populacional diminuirá. Definimos essa
diferença esperada como erro amostral da média, ou simplesmente, e e notamos:

64
(4.4)

Onde:

A estimação da media amostral depende do conhecimento da variância da população. Contudo, nem sempre
sabemos o valor da mesma, nesse caso, podemos usar a variância amostral como estimativa para a populacional. Contudo,
neste caso, nossa aproximação será dada por uma distribuição muito similar à Normal, chamada de distribuição t-Student com
parâmetro igual à seus graus de liberdade k menos 1. Assim, temos que (4.3) será:

Mais sobre a distribuição t: http://www.mspc.eng.br/


A tabela que dá as probabilidades de uma t-Student está disponivel no final desse material.

4.4 A Distribuição Amostral da Proporção


Como a média amostral, a proporção também tende a ser uma distribuição Normal quando a quantidade de
unidades amostrais for grande o suficiente. Digamos, por exemplo, que temos uma variável de interesse. Dizemos que,
seja X nossa variável de interesse:
X = 1 se o indivíduo é portador da característica de interesse
X = 0 se caso contrário
Conforme vimos na Unidade 03,

Imagine agora que vamos analisar uma sequência de variáveis suficientemente grandes e que gostaríamos de estimar
a proporção de elementos com essa característica. Podemos supor que a estimativa de p será dada se anotarmos todas as
variáveis que tem resultado 1 e dividirmos por todas as variáveis possíveis. Ou seja,

(4.5)

Onde:

Dessa forma, podemos concluir que a proporção é uma média amostral. Portanto, a partir do TCL e de (4.3), temos:

(4.6)

Onde:

65
Imagine que sabemos, por informações obtidas em uma pesquisa, que 30% de uma empresa é compostas
por mulheres jovens. Suponha que tenhamos uma amostra aleatória de 70 funcionários dessa empresa. Qual
a probabilidade de que a proporção amostral seja inferior a 0,01? Ou seja, qual a probabilidade de 1% destes 70
funcionários pertencerem a proporção de mulheres jovens.

Sabemos que a proporção de nossa empresa é de 30% e que nossa característica de interesse é
simplesmente ser ou não ser uma mulher jovem. Portanto, Fig. 54

Logo, por (4.6) e pela mesma idéia de aproximação da média amostral à uma N(0,1), temos:

Quando a proporção é completamente desconhecida e devemos estimá-la a partir de informações subjetivas, como
em nosso exemplo da sessão, existem duas abordagens conhecidas: Quando usamos de argumentos que proporcionem nosso
resultado em relação ao total, como fizemos no exercicio, chamamos de abordagem otimista. Já quando usamos da idéia de
um evento que possuí somente um resultado como o que procuramos e outro que não nos interessa, como uma Bernoulli
padrão ( X = 1 e X = 0 ), chamamos de abordagem conservadora.

4.5 Distribuição Amostral Da Variância e Distribuição Chi-Quadrado


Contrário a média e a proporção, a variância possuí uma aproximação à outra conhecida distribuição de probabilidades – uma
que tem sua origem na distribuição Normal: a distribuição Chi-Quadrado (pronuncia-se “qui-quadrado”)

Imagine que temos uma série de variáveis aleatórias Normais independentes, e que queremos compará-las de alguma
forma. Se somarmos todas nossas variáveis normais, elevadas à segunda potencia, teremos uma distribuição Chi-Quadrado
dependente de um parâmetro conhecido como k graus de liberdade.

Podemos dizer que:


(4.7)

Onde:

Graus de Liberdade são o número de variáveis independentes usadas para o cálculo de um parâmetro. Quando perdemos uma
dessas variáveis, seja aproximando-a para um valor conhecido, perdemos um grau de liberdade.
Uma variável aleatória Chi-Quadrado tem grande utilidade na análise de eventos independentes, mas que aparentam
ser proporcionais. Imaginando os possíveis valores que a soma das variáveis normais ao quadrado podem assumir, a função de
densidade de probabilidade de uma Chi-Quadrado terá o seguinte gráfico (Figura 55):

66
Fig. 55 – Curvas Chi-Quadrado com diferentes graus de liberdade

Uma importante informação sobre essa distribuição está no fato de que, como ela é o quadrado de variáveis normais,
ela somente poderá ter valores maiores ou iguais à zero. Como a Chi-Quadrado é uma distribuição conhecida, sabe-se que sua
Esperança e Variância serão dadas por:

(4.8) (4.9)

Onde:

Por exemplo, imagine que sabemos existir uma relação entre cinco variáveis aleatórias normais, supondo que
acreditamos que essa mesma relação tenha probabilidade menor do que 0,05. Por (4.7), temos:

Queremos um valor que a variável aleatória Q possa assumir de forma que nossa probabilidade da proporção ser
maior do que esperamos seja igual à 0,05. Então:

Através da Tabela da Distribuição Chi-Quadrado, assumimos:

Isso significa que se nossa

Essa relação entre variáveis, em muitos casos, é a variância. Dessa forma, podemos dizer que o estimador da
Variância é aproximadamente Chi-Quadrado, quando a variável de interesse que originou a variância seguir uma distribuição
aproximadamente Normal.

(4.10)
Onde:

Imagine, por exemplo, que um fabricante de jóias produz dois tipos de produtos para venda: jóias de primeira
linha e jóias de segunda linha. O critério que diferencia uma das outras é a variação no peso das jóias. As jóias de
primeira linha possuem uma variância conhecida de 0,29 gramas, enquanto que as de segunda tendem a ter o peso
variado quando as jóias possuem, no mínimo, 0,50 gramas de variância.

67
O fabricante pesa 20 jóias produzidas suspeitas de serem de segunda linha. Qual a probabilidade
destas jóias possuírem uma variação de peso para maior, em relação às de primeira linha?

Por tese, queremos saber a probabilidade da variância das 20 jóias de segunda linha pode ser
maior que 0,29, uma vez que elas todas possuem uma tendência à variância mínima de 0,50 gramas. Por
(4.10) e pela Tabela Chi-Quadrado, temos: Fig. 56

Isso siginifica que, com nossos dados, a variância será uma chi-quadrado maior que 11.02 e, portanto, a probabilidade de
que a variância de nossas 20 jóias seja maior que a variância das jóias de primeira linha, 0.29, é de aproximadamente 0.90 ou 90%.

4.6 Determinação do Tamanho de Uma Amostra


Podemos, em certas ocasiões, buscar estimar o tamanho da amostra a ser
escolhida de uma população, de modo a obter o menor erro de estimação com uma
determinada confiabilidade.

O que temos em mente, portanto, é garantir uma probabilidade de que nossos


dados amostrais possuirão um erro mínimo para um intervalo de probabilidade máximo. Por
Fig. 57 demonstrações matemáticas, chegamos à seguinte fórmula, baseada no erro amostral:

(4.11)

Onde:

Suponha, por exemplo, que uma pequena amostra de 10 indivíduos foi selecionada e que ela nos forneceu uma média
amostral igual à 15 e uma variância amostral igual à 16.

Imagine que queremos que o erro de nossas estimativas seja menor que 0,5 e que procuramos uma probabilidade de
95% de certeza de conter nossos dados. Então, sabendo que 95% dos dados de uma N(0,1) estão aproximadamente a partir de
, temos:

Podemos dizer, a partir do cálculo, que há uma probabilidade de 95% de que, para uma amostra de 230 indivíduos,
nossa média amostral seja a média da população.

4.7 Propriedade De Estimadores


Como dissemos, variados grupos podem possuir as mesmas características apesar dos diferentes comportamentos que
possuem. Portanto, fica óbvio imaginarmos que, dependendo da situação, uma mesma característica pode ser estimada por maneiras
diferentes. Ou seja, para um determinado parâmetro de interesse, podemos assumir diferentes estimadores. Como escolher o melhor?

Um Estimador é dito como uma função de variáveis aleatórias, resultando, quando analisado em algum evento, em
um número, uma estimativa.

68
Dizemos que um Estimador ideal é aquele que é não-viciado, consistente e possuí o menor Erro Quadrático Médio
(EQM). As três idéias podem ser ilustradas por um exemplo:

Imagine que temos quatro armas diferentes e que atiramos 10 vezes com cada arma em um alvo diferente, ou seja,
atiramos no primeiro alvo somente com a arma 1, no segundo somente com a arma 2, no terceiro somente com a arma 3 e no
ultimo somente com a arma 4. A Figura 10 mostra o resultado dos tiros:

Fig. 58 – Arma 1, Arma 2, Arma 3 e Arma 4, respectivamente. Fonte: http://maralboran.org/


Imagine que nosso parâmetro de interesse é o centro do alvo. Diríamos que a Arma 1, ou seja, o primeiro alvo, é um estimador
pouco consistente, pois seus disparos são muito dispersos em torno do valor. Além disso, seu erro, ou seja, a distância do disparo até o
centro do alvo, é muito grande e, portanto, ele é viciado de alguma forma, subestimando ou superestimando nosso parâmetro.

O segundo alvo, da Arma 2, seria um estimador com mais consistência, pois seus disparos estão determinados em
uma única porção do alvo, contudo, seu erro é gigantesco e, portanto, viciado.

A terceira arma, a Arma 3, é um estimador consistente, pois seus disparos estão em uma única região do algo, mas
ainda sim é viciado, visto que a distância até o centro do alvo, é grande.

Finalmente, o estimador ideal seria a Arma 4, pois seus tiros são centrado próximos ao centro do alvo, ou seja, é
consistente e, certamente, a distancia entre os disparos e o centro do alvo é a menor possível.

A partir dessas idéias, podemos definir que um Estimador é não-viciado (ENV) para um valor de parâmetro qualquer,
se o valor esperado desse estimador for igual ao parâmetro. Ou seja,

(4.13)
Onde:

Por exemplo: Dado que a média amostral é um estimador para a média populacional , ela é não viciada?

Através desta relação, definimos que o Vício de um Estimador é dado por:

(4.13)
Onde:

Por exemplo: Qual o vício do estimador da média populacional ?

69
O motivo de S² ser divido por ( n – 1 ), ao contrário de n como σ² se dá pelo fato de que, se divida por n, nossa
variância amostral tem vício, geralmente, subestimando o verdadeiro valor da populacional.

Estimadores consistentes são estimadores que, a medida que aumentamos o tamanho de nossa amostra, ficam cada
vez mais concentrados ao redor do parâmetro. Podemos analisar isso de forma a estimar uma probabilidade: imagine que temos
um parâmetro θ e que queremos que a diferença entre nosso estimador T e esse parâmetro, em módulo, seja menor que um
erro ε, com ε > 0.

Podemos dizer então que, para um estimador ser consistente:

(4.14)
Onde:

Vamos pensar, por exemplo, na média amostral estimando a média populacional μ. Sabemos que o valor esperado
da média amostral, quando nossa amostra é suficientemente grande, é igual à média populacional μ. Por tanto, em módulo, o
erro será igual à zero e, assim, temos um evento certo.

Podemos, também, avaliar se um estimador é consistente se analisarmos sua Variância, quando n é muito grande. Se
a variância for igual à zero, então o estimador é consistente – caso contrário, não. Ou seja:

, quando n é grande. (4.15)

Imagine, por exemplo, a variância amostral S². Suponha, por exemplo, que tenhamos n crescendo a medida que
vamos analisando a soma dos termos superiores.

Podemos concluir que não importa o valor da soma superior, pois a medida que n é crescente, a divisão tende a dar
mais e mais próxima de zero. Portanto, dizemos que S² é um estimador consistente.

A partir dos conceitos de Vício e Consistência, podemos pensar no erro amostral que cometemos ao estimar um
parâmetro qualquer. Imaginando os alvos da Figura 10, o erro seria a região onde encontram-se os disparos.

O Erro Quadrádico Médio é a quantificação dessa distância. Um estimador ideal tem o valor do EQM próximo de zero.

(4.16)
Onde:

A média amostral e a variância amostral S² são dois exemplos de estimadores com EQMs próximos de zero (no caso
da média, ele é igual à zero).

Quando o estimador é não-viciado, o EQM resulta simplesmente na Variância do estimador.

O EQM também no ajuda a calcular a eficiência entre dois estimadores possiveis para um mesmo parâmetro.


(4.17)
Onde:

70
Sabe-se, portanto, que:
Se Ef > 1, o estimador 1 é mais eficiente.
Se Ef < 1, o estimador 2 é mais eficiente.
Se Ef = 1, os estimadores são igualmente eficientes.

Por exemplo, suponha dois estimadores para a média populacional de três observações . Qual
deles é mais eficiente?

Como Ef > 1, o Estimador é mais eficiente. De fato, pois podemos perceber que o primeiro estimador trata-se da
média amostral, ou seja, .

4.8 Estimador de Minimos Quadrados


Até agora nós apresentamos estimadores para estatísticas que são conhecidos e
comumente utilizados: a média amostral, a variância amostral, a determinação de uma proporção,
média ou variância através de suas distribuições e as propriedades comuns à qualquer estimador,
mas existem métodos para se construir estimadores bons e vamos demonstrar talvez o mais
importante: Estimador de Mínimos Quadrados.

Estimadores de Mínimos Quadrados são estimadores que se baseiam em princípios
introduzidos pelo matemático alemão Gauss em 1794. Imagine que possuímos duas variáveis
aleatórias sendo analisadas Y e X. Suponha que, em determinado momento de nossa análise,
percebemos que Y e X são relacionadas de alguma forma proporcional em relação ao nosso
parâmetro θ. A melhor forma de estimar Y, portanto, seria assumir uma relação proporcional
com X dado um valor qualquer: Fig. 59

(4.17)

Podemos dizer, portanto, que qualquer valor de Y é proporcional à um valor de X multiplicado por um valor φ. O nosso
erro ε, nesse caso, seria dado subtraindo o valor de Y da proporção que usamos como estimativa:

(4.18)

Note que essa diferença pode dar negativa e, portanto, costumamos calculá-la elevando ambos os termos ao quadrado para
termos um valor mais usual. Além disso, como existem vários valores possíveis de Y e X, os erros também serão diversos e, dessa forma,
podemos analisar a soma de todos os erros.

(4.19)

O melhor estimador matemático para que o Erro Quadrático seja zero é supor que precisamos encontrar o menor valor
de φ de forma a minimizar a expressão (4.19). Pelo principio da matemática da derivação, que não vamos explicar, mas usaremos
um resultado conhecido, sabemos que:

71
Dessa forma, podemos supor, finalmente que o melhor estimador para φ é dado como:

(4.20)

Onde:

Imagine, por exemplo, que possuímos o seguinte conjunto de dados X e Y:

Média
Variáveis 1 2 3 4 5
Amostral
X 1.2 1.5 1.7 2.0 2.6 1.8

Y 3.9 4.7 5.6 5.8 7.0 5.4

Dados de X e Y e suas médias amostrais

Podemos perceber que a média de Y é três vezes a média de X. Logo, podemos supor, como em (4.17) que:

(4.17)

Logo, podemos estimar essa relação pelo nosso estimador de minimos quadrados. Assim, temos:

Podemos estimar, portanto, que os valores de Y serão aproximadamente 3 vezes os valores de X. Isso significa que o
que acontece com Y provavelmente acontece com a terça parte de X.

4.9 Correlação
É usual nos depararmos com situações em que temos que avaliar 2 ou mais variáveis conjuntamente. Nesses casos,
o objetivo será explorar as relações e similaridades entre as variáveis.

Quando temos dados que são, aparentemente, explicados por uma relação linear entre duas variáveis, podemos
avaliar essa suspeita através do Coeficiente de Correlação de Pearson que mede o grau de associação (correlação) entre
variáveis quantitativas. Seu valor varia de -1 à 1 e notamos como:

(4.21)

Onde:

72
Se , temos uma correlação perfeita positiva. Se , temos uma correlação perfeita
negativa. Se , dizemos que X e Y são variáveis não-correlacionadas, ou seja, independentes

Se um evento X e outro evento Y possuem probabilidades independentes, a correlação entre eles será igual à zero.
Contudo, uma correlação igual à zero não implica em X ser independente de Y.

Imagine, por exemplo, os dados da Tabela 1, onde uma X e Y são variáveis que apresentam um indicio de relação
linear na proporção de a média de X ser três vezes a de Y. Podemos calcular a correlação entre as duas e obtermos outro índice,
além do estimador dos mínimos quadrados, que mostre uma relação entre elas.

Podemos dizer, portanto, que há uma correlação positiva entre as variáveis X e Y. A partir disso, podemos relacionar
de forma linear, como fizemos para o estimador de mínimos quadrados, as variáveis. Ou seja, (4.17) é uma associação válida.

Assim como a média e o desvio-padrão, o coeficiente de correlação linear de Pearson sofre forte influência de outliers.

É muito comum, a partir do conhecimento dos Estimadores de Mínimos Quadrados e do


Coeficiente de Correlação de Pearson queremos estabelecer relações de causa e efeito. Contudo, o fato de
variáveis serem muito correlacionadas ou explicadas por um EMQ não garante a existência tal afirmativa.

A correlação é uma medida de força, ou seja, de intensidade da associação de duas


variáveis. O EMQ é simplesmente um estimador para uma característica de interesse a partir
do erro quadrático médio. Esses dois métodos são importantes para a previsão de valores de
uma variável a partir do conhecimento de outra, mas conclusões de causalidade não podem
ser feitas delas. Para isso, existem os testes de hipótese e intervalos de confiança. Contudo,
antes disso, vamos falar sobre a Regressão Linear. Fig. 60

4.10 Regressão Linear (Ou Regressão de Minimos Quadrados)


Até agora, nós analisamos e descrevemos uma teoria sobre o possível comportamento de dados. Em situações reais,
sempre procuramos descrever um modelo para um conjunto de dados originados de um evento comum.

A melhor das hipóteses para a analise de duas variáveis aleatórias que representem esses grupos é obtermos um
modelo de regressão linear a partir da equação da reta que melhor representa a relação entre elas.

Sabemos da geometria analítica, que a equação de uma reta é descrita como , contudo, no caso de
eventos reais, devemos adicionar outro fator à essa reta: o erro. Dessa forma, podemos dizer que a melhor maneira de descrever
a relação entre duas variáveis aleatórias e, portanto, entre dois eventos é através de uma reta:

Imagine, entretanto, que vamos usar um método de estimação e, portanto, teremos valores nessa reta que são
calculados de forma a serem não-viciados, consistentes e passam pela idéia de minimização do EQM. Assim, podemos dizer que,
para valores previstos, o erro já estará associado as variáveis e nossa equação da reta se torna a seguinte Regressão Linear:

73
(4.22)

Onde:

Como podemos estabelecer esses valores? Vamos usar a Tabela XX como exemplo. Faremos um gráfico onde
colocaremos, no eixo das abscissas, os valores que conhecemos (X) e no eixo das ordenadas, os valores de Y conhecidos e
relacionados a X. Chamamos esse gráfico (figura 61) de Gráfico de Dispersão.

Fig. 61 - Gráfico de Dispersão dos dados associados de X e Y da Tabela XX

Podemos perceber que existe uma relação entre as variáveis uma vez que, a medida que X cresce, Y também cresce.
Confirmamos essa relação a partir do Coeficiente de Correlação de Pearson que nos indica que há uma forte correlação linear
entre as duas varáveis.

Imaginando, portanto, que podemos descrever o comportamento das variáveis associadas por uma reta, devemos
considerar que a melhor reta que irá modelar nossos dados deve ser aquela que passa a uma distância igual em todos os pontos
de forma que o erro, ou seja, a distância do dado observado e de nosso modelo, seja mínima . Ou seja, buscamos minimizar um
possível erro existente, portanto, pelo Estimador de Mínimos Quadrados (4.19) é possível para descrever (4.22).

Modelo

Fig. 62 - Gráfico de Dispersão dos dados associados de X e Y da Tabela XX

A partir dessa analogia, podemos dizer que se minimizarmos a soma dos quadrados dos erros, teremos um bom
modelo. Por isso, o Estimador de Mínimos Quadrados é importante: a partir dele, (4.20),

podemos conseguir os valores estimados para (4.22). Logo, temos:

74
(4.23) (4.24)

Onde:

Através dos dados da Tabela 1 podemos criar a seguinte regressão linear:

Podemos interpretar essa regressão linear da seguinte forma: para cada valor de X que variar em 01 unidade, é
possível que Y irá variar aproximadamente 2.15 vezes à mais. Se X não variar, o valor mínimo de Y será aproximadamente de
1.531. Podemos visualizar a reta descrita pela equação na imagem figura 15.

A regressão linear não é o único método de modelagem para previsão de valores, contudo, é, certamente o mais usado por
sua facilidade em ser calculado e sua fácil percepção através do gráfico de dispersão.

Fig. 63 – Reta de Regressão Linear

Finalmente, podemos verificar se nossa regressão linear foi bem feita se analisarmos o Coeficiente de Determinação,
também conhecido como R². Esse coeficiente tem por objetivo avaliar a qualidade do ajuste de uma regressão. Seu valo fornece
uma proporção da variação total de Y que é explicada por X através do modelo ajustado.

(4.25)

75
Onde:

Para nossa regressão linear feita, podemos analisar sua qualidade por R².

Podemos concluir que nossa regressão linear determina o comportamento de aproximadamente 95,73% dos dados.
Isso representa que uma grande parcela de nossos dados são descritos a partir de nossa reta e que os que não são descritos
pela reta, seja por quaisquer efeitos que ocorreram sobre eles, são uma parcela muito pequena, menos de 5%.

Contudo, perceba que nosso modelo necessita sempre de algumas variáveis chaves, especialmente a média dos dados
observados. Podemos dizer então que precisamos, antes de realizar uma regressão, analisarmos as distribuições da média, variância
e proporção, dependendo de nossa necessidade para o modelo, a fim de nos assegurarmos sobre o quê estamos predizendo.

4.11 Intervalo de Confiança


Até agora, com exceção do processo de Regressão Linear, nossos
estimadores foram de uma classe chamada de estimadores pontuais, isto é,
eles especificam um único valor, deixando muito aberta a interpretação a
nossa margem de erro.

Pensando nisso, existem os estimadores por intervalo de confiança


que tratam de um possível valor estimado para um parâmetro e sua variação
dentro de uma amostra suficientemente grande. Isso significa que, a medida
que a amostra de onde estimamos um parâmetro cresce, a probabilidade de
nosso parâmetro buscado estar contido no intervalo também cresce.

Chamamos de coeficiente de confiança (ou de nível de confiança)


um valor aproximado para a probabilidade de um grande número de intervalos
possuírem nosso valor estimado como parâmetro. Fig. 64

Por exemplo, imagine que queremos estimar a média µ de uma população e, para isso, usamos a média de
uma amostra de tamanho n. Sabemos que nossa média amostral tende a ser nossa média populacional a medida que vamos
aumentando nosso n. Com isso, também, a diferença de nossa média amostral para a populacional diminuirá. Ou seja, a média
amostral é o estimador ideal para a populacional.

Em (4.4) definimos o erro amostral da média e podemos imaginar que, para estimarmos a média populacional a partir
de nossa média amostral, a diferença entre elas deverá tender a ser zero. Qual seria, portanto, a probabilidade de cometermos
erros de alguma magnitude?

A principio iremos seguir a idéia de que nossa média amostral, pelo TCL, segue uma distribuição Normal, quando n é
suficientemente grande e, portanto, nosso erro amostral (4.4) (que depende de valores da distribuição Normal) terá a mesma distribuição.

A partir dessa suposição, podemos concluir que a média populacional, caso realmente seja a nossa média amostral,
irá variar dentro do intervalo construído pela variância e seu desvio-padrão.

Por exemplo, se o desvio-padrão for de 1 unidade, é possível de observarmos a média ( µ ) em algum


lugar de um intervalo de forma que, imaginando-a centralizada, somando ou subtraindo um desvio-padrão consigamos esse
intervalo, conforme mostra a figura 65.

76
Fig. 65 – Exemplo de intervalo contendo a média

Se fizermos isso mais vezes de forma a garantir que a média esteja presente em uma quantidade de intervalos
suficientes para garantir um coeficiente de confiança que simbolize o valor que corresponde à uma probabilidade, podemos
estimar nosso Intervalo de Confiança para a média (aproximadamente Normal) e de variância conhecida como:

(4.26)

Onde:

Por exemplo, imagine que queremos estimar o Intervalo de Confiança com coeficiente de confiança de 95% para
nossos dados da variável aleatória X da Tabela 1.

Para a variável Y, também na tabela 1 estabelecendo um coeficiente de confiança de 95%.

Isso significa que, para X, se repetirmos o experimento que originou seus resultados varias vezes, existe 95% de
probabilidade do intervalo aproximado de ] 1.33; 2.26 [ conter a média da população de X e, para Y, existe 95% de probabilidade
do intervalo aproximado de ] 4.37; 6.43 [ conter a média da população de Y.

Usualmente, quando nossas variáveis tendem a seguir uma distribuição N(0,1) existem três tipos de coeficientes de
confiança: 95%, 97% e 99%. Em uma tabela normal, independente de como analisamos os valores possiveis de z, SEMPRE:
95% = 1.96 ; 97% = 2.17 ; 99% = 2.58

77
Perceba que esse Intervalo de Confiança depende do conhecimento da
média e da variância de um conjunto de dados. Como procedemos quando não
conhecemos um ou outro?

Podemos estimar a variância através da aproximação de seu estimador S² à


uma distribuição Chi-Quadrado, como vimos em (4.10). Dessa forma, nosso intervalo de
confiança será dado por:

Fig. 66

(4.27)

Onde:

Por exemplo: Uma fábrica produz pequenos frascos para perfumes. Sabemos que o volume desses frascos deve variar
4.8ml para mais ou para menos. Desconfiado dessa variação, o dono da fábrica retira uma amostra aleatoriamente e percebe
que o volume desses frascos variam por volta de 10ml.

De imediato, ele chama por seu chefe do setor de qualidade e questiona sobre o achado. A partir de um intervalo
estimado da variação do volume com 95% de confiança, o chefe de qualidade mostra ao dono da fábrica que essa variação foi
simplesmente o acaso e, portanto, a amostra deverá ser descartada. Por quê?

O chefe do setor de qualidade estimou o seguinte intervalo de confiança para a variância a partir dos dados observados:

Através tabela da distribuição Chi-Quadrado, com o valor aproximado de chi, com 9 graus de liberdade para 0.475 e
0.025, teremos:

Através do Intervalo de Confiança, existe 95% do probabilidade de, dado a analise de varias amostras retiradas de
nossa linha de produção, nossa variância esteja no intervalo de ] 10.54; 24.85 [. A variância da amostra escolhida pelo dono da
fábrica está fora desse intervalo, portanto, trata-se de algo fora do padrão estimado.

Quando não conhecemos a Variância de uma distribuição, devemos aproximar nosso intervalo de confiança da média,
para um coeficiente de confiabilidade, através de uma distribuição t-Student. Logo:

(4.28)

78
Onde:

Suponha que uma amostra aleatória contendo 12 unidades de uma população infinita foi escolhida. Admitindo um desvio-
padrão amostral de 5.09 e média de 30.58, qual o intervalo de confiança para a média com um coeficiente de confiança de 90%?

Através da tabela de probabilidades para uma distribuição t com 11 graus de liberdade e probabilidade de 0.95, temos:

Podemos, então, concluir que seja nossa variância desconhecida, através de um intervalo de confiança com nível de
confiança de 90%, podemos estimar que, se repetirmos a analise dos dados varias vezes, nossa média da população estará
contida no intervalo de ] 30.39; 30.77 [.

A proporção também pode ser estimada por um Intervalo de Confiança, lembrando da relação dada por (4.5), onde
diz-se que a proporção é uma média amostral e, portanto, vale (4.6). Dessa forma, o IC da proporção poderá ser dado para
um nível de confiança através de:

Onde devemos nos atentar para a abordagem conservadora ou otimista em relação à .

4.12 Testes de Hipótese


A forma de estimação mais importante da Estatística consiste em um método usado para
se responder a alguma pergunta a respeito da população com base nos resultados observados na
amostra. A média amostral será a média populacional? A variância de um conjunto é normal, ou seja,
simétrica? Esse tipo de hipótese pode ser testada.

Feita uma determinada afirmação sobre uma população, normalmente a respeito de um


parâmetro dela, desejamos saber se os resultados experimentais observados em uma amostra aleatória
contrariam ou não tal afirmação.

Vamos supor, por exemplo, que um pesquisador encontra no organismo humano uma
determinada substância que é associada ao diagnóstico de uma doença. Acredita-se que se a pessoa
for portadora daquela doença, a concentração média da substância no organismo é de 18 unidades/ml.
Se a pessoa não for portadora da doença, a concentração existente é, em média, de 14 unidades/ml. Fig. 67

Suponha que, nos dois casos, a concentração dessa substância é uma AAS, de distribuição Normal, com desvio-padrão de 6
unidades/ml. Vamos adotar X como a variável aleatória que representa a concentração da substância e notamos:

Pessoas com a doença:


Pessoas sem a doença:

79
Acontece que o pesquisador desenvolveu um novo tratamento para esta doença. Para isso testar tal tratamento,
ele selecinou uma amostra aleatória do tamanho de 30 pessoas com a doença, submeteu-as ao novo tratamento e mediu a
concentração da substância no sangue delas. Podemos dizer, então, que cada observação vinda de uma pessoa é uma variável
aleatória de distribuição Normal (pelo TCL) com média desconhecida.

Ou seja,

Pela hipótese do pesquisador, se o tratamento for eficaz, deverá ser observada uma alteração na concentração da
substância no sangue das pessoas portadores com a doença de forma que, se o novo tratamento fez efeito a concentração
média deverá ser inferior à 18 unidades/ml e, se caso contrário, deverá ser próxima ou maior do que 18 unidades/ml.

A idéia central de um teste de hipótese sobre um parâmetro da população é de supor verdadeira a


hipótese em questão e verificar se a amostra observada é a “mais provável” nessas condições. Isto é, vamos
criar uma regra de decisão entre 2 hipóteses de forma a julgar o resultado observado em relação ao parâmetro.

No caso do pesquisador, podemos dizer que nosso objetivo é avaliar se o novo tratamento foi
eficaz, portanto, é mais fácil avaliarmos se nossa concentração média observada corresponde a 18 unidades/
ml acreditando que nossa população terá esse parâmetro como verdadeiro.

Vamos chamar de Hipótese Nula, a hipótese de que o tratamento foi eficaz, ou seja, que a média da
concentração da substância populacional será menor do que 18 unidades/ml – acreditando que há tendência
dela ser próxima de 14 unidades/ml. Fig. 68

Em contrapartida, podemos assumir que, se o tratamento não foi eficaz, nossa média será maior ou igual à 18
unidades/ml. Vamos chamar essa segunda hipótese de Hipótese Alternativa.

Assim, nos convém analisar se a média amostral de cada X submetido ao novo tratamento é próxima da Hipótese
Nula ou da Alternativa. Contudo, existe a possibilidade de estarmos enganados e, como tratamos de modelos probabilísticos,
estaremos associando essa possibilidade à um erro. Dizemos, portanto, que devemos tomar uma decisão a respeito da veracidade
das hipóteses, conforme mostra a tabela 2.

Dado Hipótese Nula Dado Hipótese Nula


Decisão
Verdadeira Falsa

Rejeitamos a
Erro do tipo I Sem erro associado
Hipótese Nula

Não Rrejeitamos a
Sem erro associado Erro do tipo II
Hipótese Nula
Erros padrões de um teste de hipótese

Se em nossa suposição de assumirmos que a Hipótese Nula é verdadeira, ou seja, que a concentração média da
substância populacional estimada for menor do que 18 unidades/ml estaremos cometendo um erro caso tomemos como decisão
rejeitar tal hipótese. Chamamos esse erro de Erro do Tipo I e representamos esse erro através da letra grega “α” (alfa).

Isto é, a “pior das hipóteses” seria supor que nosso tratamento foi eficaz quando, na verdade, ele não foi. Ou seja,
se houve resultados que mostram que nossa concentração média da substância diminuiu se aproximando de 14 unidades/ml ao
invés de ser maior ou igual à 18 unidades/ml, seria o pior erro possível rejeitarmos tal alternativa.

Por outro lado, se nossa média da concentração da substância populacional estimada for próxima de 18 unidades/ml,
mas nós não rejeitamos a hipótese de que ela seja 18 unidades/ml, também estaremos cometendo um erro. Chamamos esse
erro de Erro do Tipo II e representamos esse erro através da letra grega beta “β”.

É comum, no campo das ciências, atribuírem ao Erro do Tipo I o termo de “falso positivo” indicando um resultado
de origem casual, ou seja, do acaso. E ao Erro do Tipo II o termo de “falso negativo”.

Podemos imaginar, portanto, que existe uma relação entre esses erros e nossa decisão. Se decidirmos por dar como
verdade a hipótese nula, nossa probabilidade de análise será a de que o valor da média amostral (estimando a populacional) é
igual ou menor do que 18 unidades/ml.

80
Porém, se decidirmos pela hipótese alternativa, ou seja, rejeitamos a hipótese nula como verdadeira, nossa probabilidade
de análise será se o valor da média amostral (estimando a populacional) é maior do que 18 unidades/ml.

Suponha, então, que temos uma decisão que está representada por um ponto de equilíbrio entre a média ser menor
do que 18 (com tendência a ser próxima a 14 unidades/ml) ou a média ser maior do que 18. Chamamos esse ponto de Ponto
Critico “c”, ou seja, a partir de nossa decisão sobre nossas hipóteses, nossas probabilidades irão aproximar as distribuições das
médias amostrais, conforme a figura 20.

Fig. 69 – Ponto Critico e tipos de Erro associados à áreas de probabilidade

Pode-se perceber, através da figura 20, que quando α diminuir, β irá aumentar. Isto é, a medida que diminuímos a
probabilidade de um Erro do Tipo I, aumentamos a probabilidade de um Erro do Tipo II e vice-versa.

Contudo, para que nosso teste seja eficaz, devemos levar em consideração a hipótese em questão: “o novo tratamento
fará efeito se a concentração estivar mais próxima de 14 unidades/ml”. Portanto, nos convém atribuir para α um valor muito
pequeno a fim de garantir que o Erro do Tipo I seja o menor possível.

Essa probabilidade associada à um erro é chamada de nível de significância. O conceito por trás desse termo é
abstrato, mas podemos simpliflicá-lo associando a idéia de que um nível de significância indica o quão improvável é de sua
hipótese ter apresentado valores gerados pelo acaso, ou seja, que sua hipótese tem uma relação de provável causa e efeito.

Podemos, portanto, definir que:

- α é a probabilidade de cometermos o Erro do Tipo I, ou seja, a probabilidade de Rejeitarmos nossa Hipótese Nula
dado que a suposição sobre ela é verdadeira; (obtermos um falso positivo)

- β é a probabilidade de cometermos o Erro do Tipo II, ou seja, a probabilidade de Não Rejeitarmos nossa Hipótese
Nula dado que a suposição sobre ela é falsa; (obtermos um falso negativo)

Passo à passo, executamos um teste de hipóteses da seguinte forma:

Em primeiro lugar, descrevemos as hipóteses da melhor forma possível de acordo com nossa determinação a ser
comprovada, isto é, vamos escrever nosso teste de forma a Rejeitar a Hipótese Nula dada que ela é verdadeira.

Em nosso exemplo, a melhor forma de fazer isso é pensarmos no caso de nossa média ser igual à 18 unidades/ml
supondo que ela, na verdade, não é. Portanto:

(4.29)

Onde:

Associamos à esse simbolo nossa hipótese para o Erro Tipo I.

Associamos à esse simbolo nossa hipótese para o Erro Tipo II.

81
Em seguida, devemos analisar a estatística que usaremos como estimador de nosso parâmetro de hipótese. Em nosso
exemplo, buscamos comprovar que a média populacional possuirá um determinado valor se o novo tratamento possuir efeito.
Como sabemos que o melhor estimador para a média populacional, µ, é a média amostral, , vamos usá-la.

A partir disso, devemos escolher como será a forma para formarmos uma regra de rejeição, ou seja, como vamos
analisar a probabilidade de nossa Hipótese Nula? A melhor forma é traçarmos um desenho, conforme a figura 21 e analisarmos
o que nossa Hipótese Nula busca.

Fig. 70 – Formação de uma Regra de Rejeição


Em nosso exemplo, diminuiremos a probabilidade associada ao Erro do Tipo I se nossa média amostral indicar que a
média populacional é menor do que 18 unidades/ml. Portanto, vamos adotar como regra de rejeição a idéia de que “rejeitamos
a Hipótese Nula quando a média amostral for menor ou igual à um ponto crítico “c”.” Nesse ponto, também, definimos o menor
valor que queremos para α.

Comumente, adotam-se três valores para nível de significância (Tabela 3):

Nivel de Significância α = 0.1 α = 0.05 α = 0.01

Probabilidade do Erro de
10% 5% 1%
Tipo I ser menor do que:
Valores mais usados para o nível de significância α

Portanto, (4.29) passa a ficar da seguinte forma:

Agora, vamos dar mais atenção à nosso estimador usado. Independente do que se esteja analisando, sabemos que
os estimadores seguirão uma determinada distribuição de probabilidade. Será através dela que obteremos um valor que deverá
representar nosso nível de significância, ou seja, um valor c tal que nossa probabilidade de cometermos um Erro do Tipo I seja
de acordo com nossa regra de rejeição.

Em nosso exemplo, sabemos que nosso estimador será originário de uma amostra aleatória e, portanto, pelo TCL,
suas estatísticas terão distribuição Normal. Como vamos adotar a média amostral como estimador, podemos dizer que (4.29)
ficará da seguinte forma:

Portanto, podemos encontrar o valor critico que corresponda a, digamos, α = 0.05, fazendo:

82
Podemos compor um quadro resumindo nosso teste conforme mostra a Tabela 4.

Novo Tratamento Novo Tratamento


Decisão
Funciona Não Funciona

Erro de 5% Sem erro

Sem erro Erro de 95%

Análise do resultado de um Teste de Hipótese

Ou seja, se após realizarmos o tratamento, a média da concentração da substância de cada amostra for menor ou
igual à 16.20 unidades/ml, existe uma probabilidade de 5% de estarmos cometendo um Erro do Tipo I, ou seja, um falso positivo.

Podemos pensar do ponto de vista do pesquisador, que ele pode afirmar que seu tratamento funciona com probabilidade
de 5% de estar errado. Isto é, se os resultados observados em seu experimento apresentarem valores menores do que 16.20
há 95% de probabilidade de que seu novo tratamento possua provável efeito sobre a doença.

Esse tipo de análise de teste de hipótese, onde fixamos o a hipótese nula de estarmos cometendo o erro do tipo
I como uma igualdade e a hipótese alternativa como uma desigualdade, ou vice e versa, é chamado de teste unilateral, ou
unicaudal, pois leva em consideração somente uma parcela de probabilidades da distribuição. Um teste chamado bilateral, ou de
duas caudas (bicaudal) é caracterizado por buscarmos avaliar se um valor é igual ou diferente de uma suposição.

Imagine, por exemplo, que outro pesquisador deseja estudar o efeito de certa substância no tempo de reação de
seres vivos a certos estímulos elétricos. Para isso, ele seleciona 10 cobaias, aplica-lhes a substância e mede o tempo de reação
de cada uma a um estimulo elétrico. A média observada foi de 9.1 segundos.

Admite-se que, em geral, o tempo de reação das cobaias a estes estímulos segue uma distribuição N(8,2). Considerando
α = 0.06, qual conclusão o cientista poderia tirar de um teste para a hipótese de que a substância, em média, alterou o tempo
de reação das cobaias.

Em primeiro lugar, vamos definir que nossa média amostral é de 9.1 segundos e que (4.29) será escrita como:

Diremos que nos interessa analisar, na pior da hipóteses, o caso de nossa média continuar sendo igual à 8 e, portanto,
nossa substância não ter relação com a média observada. Seja, portanto, nossa regra de rejeição o fato de que precisamos de
valores diferentes dos da média, podemos analisar pela figura 22 que Rejeitaremos se ou . Como tratamos
de dois pontos criticos, vamos dividir α por dois.

Fig. 71 – Regra de Rejeição para testes bilaterais

Podemos, então, analisar nosso teste da seguinte forma:

83
Analisando a estatística que tem em mãos, o cientista pode concluir que, como a média amostral é de 9.1 que não se
encontra a baixo de 6.81 nem a cima de 9.18, temos que a substância não produziu nenhuma alteração no tempo de resposta
a estímulos elétricos.

Já vimos que quando não conhecemos a variância de uma amostra aleatória, podemos supor sua aproximação para
uma distribuição t com ( k – 1 ) graus de liberdade. Da mesma forma, a variância pode ser aproximada por uma distribuição
chi-quadrado com ( n – 1 ) graus de liberdade. A partir disso, podemos fazer testes de hipósteses onde as suposições de
aproximação sejam verdadeiras.

Nas áreas correlacionadas à matemática aplicada, o uso da estatística basicamente é o de testes de hipótese
buscando comprovar uma relação de provável causa e efeito. É comum, portanto, ouvirmos o termo “significativo” quando
tratamos de um teste de hipótese bem sucedido. Este termo foi criado pelo estatístico Sir Ronald A. Fisher.

1) Quais são os parâmetros de uma Distribuição Amostral da Média?

a) e

b) e

c) e

d) e

2) Sabe-se que o consumo mensal de água por residência em certo bairro paulistano tem distribuição Normal (µ,4m³). Para uma
amostra de 25 dessas residências observou-se uma média de consumo mensal igual à 10m³. Qual a média de consumo desse
bairro de forma que a probabilidade do consumo da amostra é igual à 95%?

a) 8.24m³
b) 9.34m³
c) 7.21m³
d) 8.16m³

3) Utilizando os dados do exercício 2, qual a probabilidade aproximada de que 5 residências não ultrapassem um consumo
conjunto de 8.5m³?

a) 0.00003
b) 0.05050
c) 0.0457
d) 0

84
4) Um determinado experimento resultou no seguinte conjunto de dados relacionados a densidade de algas verdes, em mm³:
{ 4.1, 2.3, 6.2, 8.7, 13.1, 12.0, 9.5, 5.5, 6.2, 1.8, 5 }. Seja essa densidade originária de uma AAS, podemos supor, pelo TCL que:

a) Nossa média da amostra irá convergir para uma distribuição t-Student quando tivermos uma quantidade de dados
suficientemente grande.
b) Se trata de um conjunto de dados com distribuição Normal
c) Não se trata de uma distribuição conhecida, uma vez que não podemos estimar seus parâmetros e, pelo numero de observações,
não se aplica o TCL.
d) Não irá convergir em distribuição para nenhuma distribuição conhecida.

5) Uma equipe de vendedores é composta por homens e mulheres. Sabemos que 60% dessa equipe são homens. Qual a
probabilidade de que a quantidade de mulheres em uma amostra de 30 vendedores dessa equipe seja maior do que 10%?

a) 0.04%
b) 86.54%
c) 99.96%
d) 2%

6) Utilizando os dados do exercício 4, tem-se que o experimento só será válido quando a variância amostral for maior do que
14mm³. Sabe-se, por teoria, que a variância de um conjunto de algas-verdes sob as mesmas condições é aproximadamente igual
à 15mm³. Qual a probabilidade de nossa variância amostral tornar o experimento válido?

a) 45%
b) 50%
c) 93.4%
d) 70%

7) Um dos maiores problemas em um laboratório moderno é o código de ética que limita o número de cobaias que serão
utilizadas para se comprovar uma teoria em relação à dieta delas e o efeito disso sobre e o peso delas. Um grupo de cientistas
desse laboratório trabalha com uma pequena amostra de 7 indivíduos, sabendo que a média amostral é igual 12kg e a variância
estimada é igual a 25kg. Qual seria a quantidade ideal de cobaias que esse grupo necessitaria, se eles quisessem que o erro das
estimativas fosse menor do que 0.03 com probabilidade de 95% de certeza?

a) 1572
b) 2458
c) 3201
d) 4556

8) Dois estimadores são colocados em teste e procura-se saber quais deles é mais eficiente. Sabendo que a variância do primeiro
estimador é de 12 unidades e seu vício é de 3 unidades contra a variância do segundo estimador ser 13 unidades e seu vício 1
unidade, qual estimador é mais eficiente?

a) O segundo estimador é mais eficiente.


b) O primeiro estimador é mais eficiente.
c) Os dois estimadores são aproximadamente iguais em sua eficiencia.
d) O segundo estimador é inferior ao primeiro estimador.

9) Qual o EMQ para o seguinte conjunto de dados:

1.2 3.1 4.5 5.8 6.3 7.01 10.1 12.2 13.1 14.7
0.9 2.32 3.37 4.35 4.72 5.26 7.57 9.15 9.82 11.03

a) 0.649
b) 0.497
c) 0.356
d) 0.749

10) Qual a correlação dos dados apresentados no exercício 9?

a) 0.84
b) 0.63
c) 0.99
d) 0.01

85
11) Qual o valor aproximado dos estimadores de coeficiente angular e translação para a Regressão Linear dos dados
apresentados no exercício 9?

a) 0.35 e 0.001
b) 0.75 e -0.002
c) 0.79 e 0.002
d) 0.81 e 0.01

12) Qual o intervalo de confiança para a média, com 95% de confiança, dos dados apresentados no exercício 4?

a) ] 4.59; 8.94 [
b) ] 5.59; 9.94 [
c) ] 3.79; 4.32 [
d) ] 4.50 ; 8.50 [

13) Um grupo de engenheiros de trafego urbano fez uma análise e concluiu que, em média, leva-se 30 minutos para que uma
pessoa consiga estacionar em uma determinada rua movimentada. Assim, decidiu-se que qualquer pessoa que demorasse mais
do que esse tempo, seria multada. Um motorista, contudo, discordando desses engenheiros fez um experimento e verificou que
em 5 tentativas, ele leva, em média, 25 minutos para estacionar com desvio-padrão de 2 minutos. O motorista possuí argumentos
prováveis para refutar a hipótese dos engenheiros dizendo que “leva-se menos tempo para se estacionar na rua”? (use α = 0.05)

a) Sim, pois a média das tentativas do motorista é inferior a média apresentada pelos engenheiros.
b) Não, pois o motorista tentou poucas vezes.
c) Sim, uma vez que os engenheiros subestimaram os verdadeiros valores da análise.
d) Não, pois o motorista não pode argumentar contra engenheiros do tráfego.

1) Qual a melhore regressão linear para os dados da tabela a seguir?

X Y
10.20 12.24
12.50 15.00
13.70 2.74
14.90 31.29
15.10 25.67
17.20 24.08
18.90 26.46
a) Y = 20.01 + 0.097X
b) Y = 22.20 + 0.095X
c) Y = 15.53 + 21.50X
d) Y = 21.50 + 15.53X

2) Usando os dados do exercicio anterior, o que aconteceria com Y se não houvesse nenhum valor de X?
_
a) Y = Y
b) Y = 20.01
c) Y = X
d) Y = 12.24

3) Uma empresa precisa estimar o retorno que recebrá se aplicar por 12 meses seu capital em um determinado investimento
de risco. Suponha que a empresa já tenha, de outros investimentos do mesmo tipo, uma média de retorno igual à R$
540.000,00, variando R$ 12.000,00 para mais ou para menos. A empresa só fará esse investimento se o valor esperado de
retorno for garantido com 80% de certeza. Qual seria a margem desse retorno?

a) de R$ 601.938,21 à R$ 614.077,13
b) de R$ 538.750,20 à R$ 542.052.00
c) de R$ 539.999,55 à R$ 540.000,45
d) de R$ 538.873,51 à R$ 541.015,47

86
4) O salário médio de funcionários de empresas de um país é de 2,5 salários mínimos, com desvio-padrão conhecido de
0.5 salários mínimos. Uma empresa é escolhida aleatóriamente e uma amostra de 49 empregados dela são selecionadas,
observando-se que o salário, em média, desses funcionários era de 2.3 salários mínimos. Podemos afirmar que esta empresa
paga salários menores à média nacional, com nível de segurança igual à 5%?

a) Não, pois não há como inferir sobre todos os empregados da empresa.


b) Sim, pois nossa média é menor do que a média da população.
c) Não, pois nossa média é inferior a média do Erro do Tipo I.
d) Sim, pois nossa média é inferior a média do Erro Tipo I.

5) Uma companhia de cigarros anuncia que o índice médio de nicotina dos cigarros que fabrica apresenta-se a baixo de 23mg
por cigarro. Um laboratório realiza 6 análises desse índice obtendo um índice média de 24.167mg de nicotina por cigarro.
Supondo que o índice de nicotina se distribui aproximadamente como uma N(µ,4.86), pode-se aceitar, no nível de significância
de 10%, a afirmação do fabricante?

a) Sim, pois podemos perceber que a média amostral é maior do que a média populacional.
b) Não, para esse nível de significância não podemos descartar a hipótese de que o indice de nicotina dos cigarros fabricados
fica a baixo de 23mg.
c) Não, pois não conhecemos a média populacional.
d) Sim, pois o desvio-padrão da distribuição contém nossa média amostral como valor dentro do erro.

Tabela t (student)
Essa tabela dá os valores para que, dados os graus de liberdade na primeira coluna, exista uma probabilidade
associada na primeira linha. Por exemplo: dado 10 graus de liberdade, quando obtivermos um valor igual à 0.260 teremos 0.80
de probabilidade associada.

gl/P 0,90 0,80 0,70 0,60 0,50 0,40 0,30 0,20 0,10 0,05 0,02 0,01 0,001
01 0,158 0,325 0,510 0,727 1,000 1,376 1,963 3,078 6,314 12,706 31,821 63,657 636,619
02 0,142 0,289 0,445 0,617 0,816 1,061 1,386 1,886 2,920 4,303 6,965 9,925 31,598
03 0,137 0,277 0,424 0,584 0,765 0,978 1,250 1,638 2,353 3,182 4,541 5,541 12,924
04 0,134 0,271 0,414 0,569 0,741 0,941 1,190 1,533 2,132 2,776 3,747 4,604 8,610
05 0,132 0,267 0,408 0,559 0,727 0,920 1,156 1,476 2,015 2,571 3,365 4,032 6,869
06 0,131 0,265 0,404 0,553 0,718 0,906 1,134 1,440 1,943 2,447 3,143 3,707 5,959
07 0,130 0,263 0,402 0,549 0,711 0,896 1,119 1,415 1,895 2,365 2,365 3,499 5,408
08 0,130 0,262 0,399 0,546 0,706 0,889 1,108 1,397 1,860 2,306 2,896 3,355 5,041
09 0,129 0,261 0,398 0,543 0,703 0,883 1,100 1,383 1,833 2,262 2,821 3,250 4,781
10 0,129 0,260 0,397 0,542 0,700 0,879 1,093 1,372 1,812 2,228 2,764 3,169 4,587
11 0,129 0,260 0,396 0,540 0,697 0,876 1,088 1,363 1,796 2,201 2,718 3,106 4,437
12 0,128 0,259 0,395 0,539 0,695 0,873 1,083 1,356 1,782 2,179 2,681 3,055 4,318
13 0,128 0,259 0,394 0,538 0,694 0,870 1,079 1,350 1,771 2,160 2,650 3,012 4,221
14 0,128 0,258 0,393 0,537 0,692 0,868 1,076 1,345 1,761 2,145 2,624 2,977 4,140
15 0,128 0,258 0,393 0,536 0,691 0,866 1,074 1,341 1,753 2,131 2,602 2,947 4,073
16 0,128 0,258 0,392 0,535 0,690 0,865 1,071 1,337 1,746 2,120 2,583 2,921 4,015
17 0,128 0,257 0,392 0,534 0,689 0,863 1,069 1,333 1,740 2,110 2,567 2,898 3,965
18 0,127 0,257 0,392 0,534 0,688 0,862 1,067 1,330 1,734 2,101 2,552 2,878 3,922
19 0,127 0,257 0,391 0,533 0,688 0,861 1,066 1,328 1,729 2,093 2,539 2,861 3,883
20 0,127 0,257 0,391 0,533 0,687 0,860 1,064 1,325 1,725 2,086 2,528 2,845 3,850
21 0,127 0,257 0,391 0,532 0,686 0,859 1,063 1,323 1,721 2,080 2,518 2,831 3,819
22 0,127 0,256 0,390 0,532 0,686 0,858 1,061 1,321 1,717 2,074 2,508 2,819 3,792
23 0,127 0,256 0,390 0,532 0,685 0,858 1,060 1,319 1,714 2,069 2,500 2,807 3,767
24 0,127 0,256 0,390 0,531 0,685 0,857 1,059 1,318 1,711 2,064 2,492 2,797 3,745
25 0,127 0,256 0,390 0,531 0,684 0,856 1,058 1,316 1,708 2,060 2,485 2,787 3,726
26 0,127 0,256 0,390 0,531 0,684 0,856 1,058 1,315 1,706 2,056 2,479 2,779 3,707
27 0,127 0,256 0,389 0,531 0,684 0,856 1,057 1,314 1,703 2,052 2,473 2,771 3,690
28 0,127 0,256 0,389 0,530 0,683 0,856 1,056 1,313 1,701 2,048 2,467 2,763 3,674
29 0,127 0,256 0,389 0,530 0,683 0,854 1,055 1,311 1,699 2,045 2,462 2,756 3,659
30 0,127 0,256 0,389 0,530 0,683 0,854 1,055 1,310 1,697 2,042 2,457 2,750 3,646
40 0,126 0,255 0,388 0,529 0,681 0,851 1,050 1,303 1,684 2,021 2,423 2,704 3,551
60 0,126 0,254 0,387 0,527 0,679 0,848 1,046 1,296 1,671 2,000 2,390 2,660 3,460
120 0,126 0,254 0,386 0,526 0,677 0,845 1,041 1,289 1,658 1,980 2,358 2,617 3,373

87
Distribuição Chi-Quadrado
A primeira coluna indica o número de graus de liberdade da distribuição (k). A segunda, associa um valor de
probabilidade procurada, conhecido como probabilidade de tipo de erro. Por exemplo, se analisarmos uma variável chi-quadrado
com 9 graus de liberdade, procurandouma probabilidade de 0.95, teremos que o valor que garante essa associação é 3.325.

gl/P 0,99 0,95 0,90 0,80 0,70 0,50 0,30 0,20 0,10 0,05 0,02 0,01 0,001
1 ,0002 0,004 0,016 0,064 0,148 0,455 1,074 1,642 2,706 3,841 5,412 6,635 10,827
2 0,020 0,103 0,211 0,446 0,713 1,386 2,408 3,219 4,605 5,991 7,824 9,210 13,815
3 0,115 0,352 0,584 1,005 1,424 2,366 3,665 4,642 6,251 7,815 9,837 11,345 16,266
4 0,297 0,711 1,064 1,649 2,195 3,357 4,878 5,989 7,779 9,488 11,668 13,277 18,467
5 0,554 1,145 1,610 2,343 3,000 4,351 6,064 7,289 9,236 11,070 13,388 15,080 20,515
6 0,872 1,635 2,204 3,070 3,828 5,348 7,231 8,558 10,645 12,592 15,033 16,812 22,457
7 1,239 2,167 2,833 3,822 4,671 6,346 8,383 9,803 12,017 14,067 16,622 18,475 24,322
8 1,646 2,733 3,490 4,594 5,527 7,344 9,524 11,030 13,362 15,507 18,168 20,090 26,125
9 2,088 3,325 4,168 5,380 6,393 8,343 10,656 12,242 14,684 16,919 19,679 21,666 27,877
10 2,558 3,940 4,865 6,179 7,267 9,342 11,781 13,442 15,987 18,307 21,161 23,209 29,588
11 3,053 4,575 5,578 6,989 8,148 10,341 12,899 14,631 17,275 19,675 22,618 24,725 31,264
12 3,571 5,226 6,304 7,807 9,034 11,340 14,011 15,812 18,549 21,026 24,054 26,217 32,909
13 4,107 5,892 7,042 8,634 9,926 12,340 15,119 16,985 19,812 22,362 25,472 27,688 34,528
14 4,660 6,571 7,790 9,467 10,821 13,339 16,222 18,151 21,064 23,685 26,873 29,141 36,123
15 5,229 7,261 8,547 10,307 11,721 14,339 17,322 19,311 22,307 24,996 28,259 30,578 37,697
16 5,812 7,692 9,312 11,152 12,624 15,338 18,418 20,465 23,542 26,296 29,633 32,000 39,252
17 6,408 8,672 10,085 12,002 13,531 16,338 19,511 21,615 24,769 27,587 30,995 33,409 40,790
18 7,015 9,390 10,865 12,857 14,440 17,338 20,601 22,760 25,989 28,869 32,346 34,805 42,312
19 7,633 10,117 11,651 13,716 15,532 18,338 21,689 23,900 27,204 30,144 33,687 36,191 43,820
20 8,260 10,851 12,443 14,572 16,266 19,337 22,775 25,038 28,412 31,410 35,020 37,566 45,315

88
05. Introdução à Matemática
Financeira
5.1 Introdução
­C omo a Estatística é uma ferramenta importante para a análise e conclusão sobre
informações sobre conjuntos de dados, a Matemática Financeira também é uma ferramenta
muito usada para o auxilio de problemas do dia a dia: juros, descontos, taxas – todas essas
palavras estão em nosso cotidiano.

A Matemática Financeira, basicamente, envolve questões que abordam um problema de


dinheiro em relação à um determinado tempo e como isso é aplicado sobre o cotidiano. O mercado
de ações e derivativos também utiliza desses processos matemáticos para seu cotidiano. Fig. 72

5.2 Conceitos
Existem termos que são utilizados na Matemática Financeira que tem origem na Teoria Econômica. Vamos abordar o
conceito simplificado deles, de forma a ajudarmos a compreender do que se tratam cada operação e processo matemático que
usaremos daqui para a frente.

Existem alguns tipos de ações financeiras comuns, mas as mais simples e usuais são Empréstimos e Investimentos.
Em ambas as modalidades, é entregue à um individuo ou entidade um valor que vem de sua reserva de dinheiro e espera-se
obter essa quantidade acrescida de mais algum valor depois de determinado tempo.

Inicialmente, o conceito de Capital é empregado a tudo o que pode ser considerado como
investimento. Na Matemática Financeira chama-se de Capital, ou de Principal, ou ainda de Valor Presente o
valor que estará sendo emprestado ou investido.

A partir do momento que o Capital é exposto à uma operação financeira, seja investir isso em alguma
coisa ou simplesmente pagar outra, cria-se o conceito de rendimento a partir do valor original: os Juros. Eles
representam a operação de remuneração do Capital empregado em atividades produtivas. Podemos dividir os
Fig. 73 Juros em dois tipos: os Simples e os Compostos.

Desconto trata-se do abatimento sob o valor do Capital ao final da operação financeira pelo seu valor no período
determinado. Popularmente, é o abatimento que um devedor faz quando antecipa o pagamento de um título ou quando o mesmo
é resgatado antes de seu vencimento, ou ainda, como sendo o juro cobrado, representando um crédito futuro.

O Saldo trata da soma do Capital com o Juro em um determinado momento. Finalmente, o ultimo termo é dito como
Parcela ou Pagamento, que é o retorno feito ao Capital por quem é tomador do empréstimo ou receptor do investimento.

5.3 Juros Simples


Juros Simples são rendimentos gerados em cima do Capital levando em consideração uma taxa em relação ao período
do empréstimo ou do investimento. Imagine que os juros são uma forma de “aluguel” sobre o valor investido ou emprestado.

O Juros Simples de um investimento ou empréstimo pode ser calculado a partir do conhecimento do Capital, da taxa
unitária ao período, isto é, a porcentagem que será tributada sobre o valor do capital, e o período em que a operação financeira terá.

(5.1)
Onde:

C - É o capital investido ou emprestado


i - é a taxa de juros e geralmente é menor do que 1
n - é o tempo durante o qual o capital foi investido ou emprestado.

Imagine que um investidor aplica R$ 1.350,00 durante 4 anos em um fundo de investimento que garante rendimento
à 1.4% ao ano. Qual será o valor acrescido pelos juros ao final do período?

89
Se o mesmo investimento fosse feito à outro fundo de investimento, garantindo retorno de 3% ao mês, qual seria o
valor acrescido pelo juros? Sabemos que quatro anos correspondem a 48 meses, portanto:

Qual seria o valor acrescido ao mesmo investimento se a taxa fosse de 0,8% e o periodo fosse com base diária? Sabemos
que um mês possui, em média, 30 dias, portanto, quarenta e oito meses corresponderiam à 1440 dias. Logo:

A partir do valor gerado pelos Juros Simples, obtém-se o Montante Simples, também chamado de Valor Futuro. O
montante é a soma do capital com os juros gerados sobre ele.

(5.2)
Onde:

Imagine, por exemplo, que um investidor aplica R$ 10.175,00 por 12 meses, em um fundo de investimento com juros
de 115% ao ano. Qual será o valor do montante simples ao final desse período?

5.4 Juros Compostos


Juros Compostos são, essencialmente, juros sobre juros. A idéia por trás desse
conceito é a de supor que existe uma necessidade de se calcular o valor do montante obtido pela
aplicação de um único valor à uma taxa constante aplicada de forma seguida por um período.

Imagine, por exemplo, que exista um investimento inicial de R$ 1.000,00 feito à uma taxa
de 20% ao mês. A Tabela 1 descreve o comportamento do juros composto. Fig. 74

Mês Capital (Valor Principal) Juros Montante


MAR R$ 1.000,00 R$ 000,00 R$ 1.000,00
ABR R$ 1.000,00 R$ 200,00 R$ 1.200,00
MAI R$ 1.200,00 R$ 240,00 R$ 1.440,00
JUN R$ 1.440,00 R$ 288,00 R$ 1.728,00
JUL R$ 1.728,00 R$ 345,60 R$ 2.073,60
Composição do Montante com Juros Compostos

O Juros Composto pode ser obtido realizando-se a mesma conta do Juros Simples para um Capital já acumulado. Por
exemplo, imagine, olhando a Tabela 1, que queremos saber o valor do juros referente ao mês de Maio. Sabemos que o Capital
naquele mês será de R$ 1.200,00, já acumulado dos meses de Abril e Março anteriormente. Portanto,

Podemos calcular o valor do Juro Composto de intervalo de período, ou seja, do inicio da operação financeira até o
momento que desejamos, através de:

(5.3)
Onde:

90
Por exemplo, em nossa tabela, se adotarmos o capital inicial, a taxa de 20% e o período for o referente ao do mês
de Junho, teremos:

O Montante Composto multiplicando o valor do capital aplicado pelo valor acrescido pela taxa elevado ao período.
Assim, juros compostos são dados pela diferença do Montante pelo valor do Capital.

(5.4)
Onde:

Vamos imaginar, por exemplo, que precisa-se do valor do próximo mês segundo os dados da tabela 1. Sabemos que
o mês seguinte à tabela é Agosto e que, assim, seriam 06 meses de aplicoperação de R$ 1.000,00 à uma taxa de 20%. Logo:

A taxa básica de juros é a menor taxa de juros vigente em uma economia, funcionando como uma taxa de
referência para todos os contratos (ações financeiras). No Brasil, a taxa de juros básica é taxa de operações diárias do Sistema
Especial de Liquidoperação e de Custódia – SELIC.

A origem do Juro é algo incerto para muitos economistas e matemáticos financeiros. Sabe-se que as antigas
civilizações possuíam um sistema de crédito baseado no lastro dos metais; na Idade Média, empréstimos com juros eram um
crime chamado de Crime de Usura.

5.5 Fator De Acumulação De Capital


O Fator de Acumulação de Capital é uma porcentagem fornecida através do último termo do calculo dos Montantes
Simples e Composto. Ele indica em quantos por cento haverá aumento ou diminuição no capital original aplicado à uma operação
financeira. Portanto,

(5.5)

Onde:

Por exemplo, qual o FAC para um fundo com taxa de 6% e aplicação mínima de 6 meses? Fig. 75

Isso nos indica que o capital seria aumentado 41.85%. Podemos avaliar esse aumento multiplicando nosso capital por
esse valor de porcetagem. Por exemplo, para o último período da tabela 1, temos:

5.6 Fator De Valor Atual


A partir da idéia do Fator de Acumulo de Capital, podemos pensar na idéia de sabermos o inverso, ou seja, o quanto
do capital inicial está inserido em uma operação financeira em um determinado momento. Calculamos o Fator de Valor Atual
através do inverso de (5.5).

91
(5.6)
Onde:

Imagine que temos um capital inicial que será investido em um determinado fundo de pensão rendendo 5% ao mês.
Depois de 6 meses, qual será o percentual do meu capital inicial em relação ao valor total?

Isso significa que do valor atual rendido pelos juros, o capital inicial corresponde à 74.62%.

Outra utilidade do Fator de Valor Atual é o de ajudar a predizer o valor real de uma operação financeira parcelada.
Imagine que uma pessoa compra uma geladeira em 03 prestações mensais de R$ 345,00, à uma taxa de 4%. Qual o valor original?

Se nosso FVA é a parcela do capital inicial que corresponde o total pago, podemos calcular o valor original da geladeira
somando o valor correspondente em cada uma das 3 parcelas a serem pagas

5.7 Desconto
O conceito de Desconto tem relação com o valor do capital ao final de uma operação financeira,
chamado Valor Nomial, ou Capital Final, e o atual valor dessa operação financeira, o Valor Atual, ou Capital
Atual. Por definição, o desconto é dado como:

(5.7)
Onde: Fig. 76

Por exemplo: seja o valor de um investimento iniciado à 6 meses atrás igual à R$ 1.575,00 e seja o valor final do
investimento igual à R$ 3.456,00, qual seria o desconto recebido pelo devedor se o valor total do investimento fosse pago hoje?

5.8 Desconto Simples Comercial


Os Descontos Simples Comerciais são aqueles aplicados no dia a dia das instituições financeiras e no comércio em geral,
de preferência, nas operações de curto prazo. São calculados da mesma forma que os juros simples, diferenciando apenas que para
os descontos usamos o Capital Final para o cálculo. Assim, podemos escrever que:

(5.8)

Onde:

Se o valor de um empréstimo financeiro, ao final dos pagamentos, será de R$ 15.750,00, qual o valor do desconto à
uma taxa de 6% para a 4ª parcela mensal?

92
Podemos encontrar o Valor Atual referente à um desconto simples comercial calculando:

(5.9)
Onde:

Por exemplo, qual o valor atual de um empréstimo que, totalizado será de R$ 175.342,25, e que está em sua sexta
parcela mensal à uma taxa de 7%?

5.9 Desconto Simples Racional


Chama-se Desconto Simples Racional, ou Desconto Verdadeiro, um desconto aplicado sobre o valor atual. Calcula-se da
mesma forma que o Desconto Simples Comercial, contudo, troca-se o Valor Nominal pelo Valor Atual. Portanto,

(5.10)
Onde:

Suponha um fundo de investimento sofrendo descontos à uma taxa de 15% ao mês. Sabe-se que seu Capital Atual é
de R$ 23.572,52. Qual é o desconto verdadeiro sofrido pelo investimento no quinto mês?

Podemos calcular o Valor Atual de um título sobre operação financeira de desconto simples racional da seguinte forma:

(5.11)

Onde:

Assuma que uma operação financeira tem uma taxa de desconto de 13% que será efetuada por 9 meses e que o
capital final previsto é de R$ 354,56. Qual o valor atual desta operação?

Isso significa que ao final de nossa operação financeira, o Valor Atual corresponde à R$ 163,39 do total de R$ 354,56
relativos ao valor futuro com descontos.

5.10 Desconto Racional Composto


Talvez o tipo de desconto mais utilizado no Brasil, o desconto racional composto funciona de forma parecida aos juros
compostos: descontos sobre descontos. Podemos calculá-lo da seguinte forma:

93

(5.12)

Onde:

Fig. 77

Suponha que temos uma aplicação com valor final de R$ 15.450,00 por um prazo de 8 meses. Sabendo que o desconto
feito no decorrer desse período tem uma taxa de 9%, qual o valor dele?

Juros e Descontos Simples possuem o comportamento de Progressões Aritméticas. Já Juros e Descontos Compostos,
o de Progressões Geométricas.

5.11 Taxas
Uma Taxa é, de forma simples, um percentual escrito de forma decimal que
será fixado a um valor ligado à uma operação financeira. A base de calculo de uma
taxa varia de acordo com o que se impõe à aplicaç ão dela. No Brasil, algumas
taxas são fixadas pelo governo enquanto outras são comuns a um grupo de serviços.

Independete de como analisamos, seja por uma operação financeira


de juros ou de desconto, existem apenas três tipos de taxas, depentes apenas
do período de formação e o período de capitalização, ou seja, o período que ela
acontece e o período em que ela é aplicada ao capital.

Por exemplo, uma taxa de 120% ao mês com capitalização semestral é


uma taxa que possuí uma unidade de tempo relacionada à 12 meses, mas que é
Fig. 78 cobrada em uma operação de 6 em 6 meses.

Uma Taxa Efetiva é aquela em que o período de formação e o período de capitalização são iguais. Por exemplo: uma taxa
de 137% ao ano com capitalização anual ou uma taxa de 455% à cada 6 meses com capitalização semestral.

Chamamos de Taxa Nominal é aquela em que o período de formação e capitalização ao Capital não são iguais.
Por exemplo: uma taxa de 215% ao mês com capitalização trimestral. Finalmente, a Taxa Real é a taxa efetiva corrigida
pela inflação do período da operação.

Na economia, a inflação é a queda do valor de mercado, isto é, do poder de compra do dinheiro. A palavra inflação
é utilizada para ilustrar o aumento no suprimento de dinheiro e expansão monetária que, as vezes, é visto como a causa do
aumento de preços.

Podemos obter qualquer uma das três taxas em relação ao conhecimento das outras através da seguinte análise:

(5.13)

Onde:

94
Se a taxa analisada for uma Taxa Nominal, pode-se corrigí-la para uma Efetiva padronizando o período de
composição com o de capitalização. Por exemplo: uma taxa de 15% ao mês aplicada por 1 ano é simplesmente:

Imagine que uma pessoa que tinha uma caderneta de poupança no valor de R$ 24 mil em Junho de 2007 que rendia
0,5% ao mês. Sabe-se que, até 2011, a taxa inflacionária acumulada de Junho/07 à Junho/11 será igual à 15,73%. Qual será o
valor dessa poupança?

Como nossos períodos são analisados de mês à mês partindo do ano de 2007 até o ano de 2011. Portanto o valor
dessa taxa será dada pela composição de um juros para 04 anos compostos de 12 meses, ou seja, 48 meses.

Portanto, de (5.13), temos:

No Direito Tributário, as taxas aplicadas sobre valores são chamadas Alíquotas.

5.12 Fuxo de Caixa


O Fluxo de Caixa é uma representação gráfica da movimentação financeira em um período de tempo. Representa-se
o tempo por uma linha horizontal dividia pelo número de períodos em análise, sempre iniciando em zero, conforme a figura 79.

Fig. 79 – tempo do Fluxo de Caixa para um n = 5

Os recebimentos são representados por setas verticais apontando para cima e os pagamentos são representados por
setas verticais apontando para baixo, conforme a figura 80

Fig. 80 – Movimentação Financeira com Recebimentos e Pagamentos

Suponha, por exemplo, que uma pessoa aplica R$ 10 mil em um fundo de investimento que tem taxa efetiva de
rendimento mensal igual à 3,2% e Capital Final estimado de R$ 31.079,15, se o investidor não retirar o valor que investiu antes do
prazo de 36 meses. Qual o Capital Atual no 4 mês de aplicação, visualizado por um Fluxo de Caixa?

Pelo cálculo do Juros Composto (5.3), sabemos que:

95
Então, podemos analisar o Fluxo de Caixa como:
R$ 10 mil

0 1 2 3 4 ...

R$ 320,00 R$ 650,24 R$ 991,05 R$ 1.342,76

1) Uma empresa investe R$ 173 mil em uma aplicação com taxa simples de 3% ao ano. Qual o valor esperado ao final de 5 anos?

a) R$ 99.475,00
b) R$ 25.950,00
c) R$ 198.950,00
d) R$ 51.900,00

2) Qual o valor acrescido pelo juros do problema anterior quando a empresa analisar o rendimento da aplicação no 3º ano?

a) R$ 233.550,00
b) R$ 77.850,00
c) R$ 155.700,00
d) R$ 15.570,00

3) Um investidor calcula que deverá investir R$ 1.477,00 mensalmente em um título de capitalização com taxa de 0,5% ao mês
para obter um juros mensal de R$ 850,00. Supondo esse juros mensal, o investidor estará:

a) Superestimando um valor a cima do juros real


b) Subestimando o juros real
c) Calculando o Fator de Acumulação do Capital
d) Investindo corretamente para obter o que ele deseja

4) Um banco avalia uma opção de empréstimo no valor inicial de R$ 230.000,00 à uma taxa de 5,4% ao mês, parcelada em 36
vezes iguais cobradas mensalmente. Qual o valor esperado que será pago de volta ao banco ao final da quitação?

a) R$ 1.528.546,30
b) R$ 1.527.530,28
c) R$ 1.237.341,53
d) R$ 1.345.015,76

5) Qual é, aproximadamente, o Fator de Acumulação de Capital do exercício anterior?

a) 5,4%
b) 6,64%
c) 1,054%
d) 3,32%

6) Um aparelho eletrônico é vendida em 5 parcelas de R$ 128,76 à uma taxa de 3,7% ao mês. Qual o preço desse aparelho à vista?

a) R$ 1.156,12
b) R$ 632,10
c) R$ 578,06
d) R$ 1.094,56

7) Seja o Capital Final de um emprestimo igual à R$ 245.342,70. Qual o valor da segunda parcela à uma taxa de desconto de 7.13%?

a) R$ 34.985,87
b) R$ 3.498,60

96
c) R$ 14.260,00
d) R$ 45.542,43

8) Qual o Valor Atual do problema anterior?

a) R$ 210.356,83
b) R$ 34.985,87
c) R$ 187.343,51
d) R$ 201.356,00

9) Suponha uma ação financeira sofrendo descontos mensais não relacionados. Sabendo que o capital investido, após descontos
relativos a três meses anteriores, é de R$ 38.756,43, qual o desconto verdadeiro sofrido no 4 mês à uma taxa de 11%?

a) R$ 11.983,78
b) R$ 12.789,62
c) R$ 12.052,83
d) R$ 13.123,45

10) Um empréstimo tem uma taxa simples de desconto de 7% ao mês. O valor nominal do empréstimo é de R$ 15.123,34. Qual
o valor atual, sabendo que o empréstimo já possuí 5 parcelas quitadas?

a) R$ 21.475,14
b) R$ 11.202,47
c) R$ 13.456,35
d) R$ 11.507,50

11) Qual o valor do desconto de uma aplicação com Capital Final esperado de R$ 52 mil quando seu prazo é de 12 meses com
uma taxa de 0,2%?

a) R$ 824,56
b) R$ 832,75
c) R$ 679,90
d) R$ 462,26

12) Se a taxa efetiva de um periodo corresponde à 1.5% e sabe-se que a taxa real é aproximadamente 1/3 disso, qual seria a
taxa inflacionária que garantiria isso?

a) 1%
b) 0.995%
c) 0.989%
d) 0.992%

1) Sabe-se que o Fator de Acumulação de Capital de um determinado investimento é de 157% para um período de dois meses
de investimento. Qual o valor da taxa de juros nesse caso?

a) 18%
b) 19%
c) 22%
d) 25%

2) Uma empresa decide investir em um de dois tipos de títulos. No primeiro, a taxa de juros é de 4,7% ao mês e no segundo
a taxa de juros, também ao mês, é de 4.5%. Se a empresa investir no primeiro título por 5 semanas e no segundo por 6
semanas, qual deles será o mais eficiente semanalmente?

a) O primeiro seria mais eficiente.


b) Ambos renderiam aproximadamente a mesma coisa.
c) O segundo seria mais eficiente.
d) As taxas não se referem ao periodo analisado, portanto, não há resposta.

3) Um aposentado investe sua pensão em um fundo de investimento seguro, com taxa de 0.9% ao mês. Após 1 ano nesse
investimento, qual será a proporção da pensão inicial correspondente à todo o rendimento?

a) 89,8%
b) 8,98%

97
c) 0.89%
d) 90%

4) Uma casa é financiada no valor de R$ 150 mil. Sabe-se que a taxa de desconto para pagamentos efetuados até a primeira
semana do mês é de 8%. Suponha que o financiamento está sendo pago em 48 parcelas iguais e que até o presente momento,
os proprietários não atrasaram nenhuma das 10 primeiras parcelas. Qual o valor do desconto referente até o próximo mes?

a) R$ 85.667,57
b) R$ 95.642,78
c) R$ 132.000,00
d) R$ 13.200,00

5) José fez um empréstimo de 2000 reais para terminar de reformar sua casa em um banco que oferece uma taxa de juros
simples de 3% ao mês. Ao invés de financiar o valor José preferiu fazer um único grande pagamento no valor total do saldo
devedor ao final de 4 meses. Qual o valor que deverá ser pago por José?

a) 2240
b) 2140
c) 240
d) 2000

98
REFERÊNCIAS

Harshbarger, R. J. & Reynolds, J. J.(2006) Matemática Aplicada. 7ª ed. São Paulo: McGraw Hill

Magalhães, M. N. & LIMA, A. C. P. (2009) Noções de Probabilidade e Estatística. 7a ed. São Paulo: Edusp

MORETTIN, P. A. & BUSSAB, W. O. (2010) Estatística Básica. 6a ed. São Paulo: Saraiva.

CRESPO, A. A. (2009) Estatística Fácil. 19a ed. São Paulo: Saraiva.


Unidade 1

1) a 2) b 3) d 4) c 5) a 6) c 7) d

8) c 9) a 10) (EO), (EX), (EO), (EX), (EO) 11) b 12) c 13) (VQC), (VQD), (VQO), (VQO), (VQC), (VQD), (VQN)

Atividade Complementar

1) d 2) c 3) a 4) b 5) (4), (2), (3), (1), (1)

Unidade 2

1) d 2) c 3) d 4) a 5) b 6) c 7) d 8) b 9) a

10) a 11) d 12) c 13) a 14) c 15) b 16) a 17) c 18) a

Atividade Complementar

1) b 2) a 3) d 4) c 5) b

Unidade 3

1) a 2) b 3) a 4) d 5) c 6) a 7) b 8) d

9) c 10) b 11) d 12) c 13) a 14) b 15) a

Atividade Complementar

1) b 2) d 3) c 4) a 5) a

Unidade 4

1) a 2) b 3) d 4) a 5) c 6) b 7) c

8) a 9) d 10) c 11) b 12) a 13) a

Atividade Complementar

1) a 2) b 3) c 4) d 5) b

Unidade 5

1) c 2) d 3) a 4) b 5) b 6) c

7) a 8) d 9) c 10) b 11) a 12) b

Atividade Complementar

1) d 2) a 3) a 4) b 5) a

You might also like