Prévia do material em texto
<p>RESERVADA</p><p>Estatística e Probabilidade</p><p>Alline de Mendonça Marinho</p><p>RESERVADA</p><p>INTRODUÇÃO:</p><p>A Estatística e a Probabilidade são áreas da matemática que lidam com a coleta, análise,</p><p>interpretação e apresentação de dados, além do estudo de eventos aleatórios e suas</p><p>chances de ocorrência. Ambas desempenham um papel crucial em várias disciplinas,</p><p>como ciências sociais, economia, biologia e ciência de dados, proporcionando</p><p>ferramentas essenciais para a tomada de decisões e a compreensão de fenômenos</p><p>incertos.</p><p>1. Introdução à Estatística e Probabilidade</p><p>1.1. Estatística</p><p>A Estatística é a ciência de coletar, organizar, analisar e interpretar dados para extrair</p><p>informações e ajudar na tomada de decisões.</p><p>• Estatística Descritiva: Envolve métodos para organizar e resumir dados, como</p><p>gráficos, tabelas e cálculos de medidas de tendência central e dispersão.</p><p>• Estatística Inferencial: Usa uma amostra de dados para fazer previsões ou</p><p>inferências sobre uma população maior. Inclui testes de hipóteses, intervalos de</p><p>confiança e estimação de parâmetros.</p><p>1.2. Probabilidade</p><p>A Probabilidade é a área que estuda a chance de um evento ocorrer em um espaço</p><p>amostral. É fundamental para entender o comportamento de eventos aleatórios.</p><p>• Eventos: Qualquer resultado ou conjunto de resultados de um experimento</p><p>aleatório.</p><p>• Espaço Amostral: Conjunto de todos os possíveis resultados de um experimento.</p><p>• Probabilidade de um Evento: Proporção de vezes que um evento deve ocorrer,</p><p>considerando todas as possibilidades.</p><p>2. Conceitos Básicos de Probabilidade</p><p>2.1. Definições de Probabilidade</p><p>• Probabilidade Clássica: Quando todos os resultados têm a mesma chance de</p><p>ocorrer.</p><p>P(A)=Nuˊmero de resultados favoraˊveisNuˊmero total de resultadosP(A) =</p><p>\frac{\text{Número de resultados favoráveis}}{\text{Número total de</p><p>resultados}}P(A)=Nuˊmero total de resultadosNuˊmero de resultados favoraˊveis</p><p>• Probabilidade Empírica: Baseada na frequência de eventos observados.</p><p>P(A)=Nuˊmero de vezes que o evento A ocorreNuˊmero total de observac¸o˜esP(A) =</p><p>\frac{\text{Número de vezes que o evento A ocorre}}{\text{Número total de</p><p>observações}}P(A)=Nuˊmero total de observac¸</p><p>o˜esNuˊmero de vezes que o evento A ocorre</p><p>RESERVADA</p><p>• Probabilidade Subjetiva: Baseada em crenças pessoais ou julgamentos.</p><p>2.2. Tipos de Eventos</p><p>• Evento Simples: Um único resultado do espaço amostral.</p><p>• Evento Composto: Combinação de dois ou mais eventos simples.</p><p>• Evento Independente: A ocorrência de um evento não afeta a ocorrência do</p><p>outro.</p><p>• Evento Dependente: A ocorrência de um evento influencia a ocorrência do outro.</p><p>2.3. Regras de Probabilidade</p><p>• Regra da Soma (para eventos mutuamente exclusivos):</p><p>P(A∪B)=P(A)+P(B)P(A \cup B) = P(A) + P(B)P(A∪B)=P(A)+P(B)</p><p>• Regra da Multiplicação (para eventos independentes):</p><p>P(A∩B)=P(A)×P(B)P(A \cap B) = P(A) \times P(B)P(A∩B)=P(A)×P(B)</p><p>• Complemento de um Evento:</p><p>P(A′)=1−P(A)P(A') = 1 - P(A)P(A′)=1−P(A)</p><p>2.4. Probabilidade Condicional</p><p>É a probabilidade de um evento ocorrer, dado que outro evento já ocorreu.</p><p>P(A∣B)=P(A∩B)P(B)P(A \mid B) = \frac{P(A \cap B)}{P(B)}P(A∣B)=P(B)P(A∩B)</p><p>3. Conceitos Básicos de Estatística</p><p>3.1. População e Amostra</p><p>• População: Conjunto total de indivíduos ou itens de interesse em um estudo.</p><p>• Amostra: Subconjunto da população usado para fazer inferências sobre o todo.</p><p>3.2. Tipos de Variáveis</p><p>• Variáveis Qualitativas: Não numéricas, como cor dos olhos ou gênero.</p><p>o Nominal: Sem ordem natural (ex: cor).</p><p>o Ordinal: Possui uma ordem (ex: nível de satisfação).</p><p>• Variáveis Quantitativas: Numéricas, como altura ou salário.</p><p>o Discretas: Contáveis (ex: número de filhos).</p><p>o Contínuas: Incontáveis, variam em intervalos (ex: peso).</p><p>3.3. Medidas de Tendência Central</p><p>• Média (μ ou x‾\overline{x}x): Soma de todos os valores dividida pelo número de</p><p>observações.</p><p>x‾=∑xin\overline{x} = \frac{\sum x_i}{n}x=n∑xi</p><p>RESERVADA</p><p>• Mediana: Valor central quando os dados estão ordenados.</p><p>• Moda: Valor que ocorre com mais frequência.</p><p>3.4. Medidas de Dispersão</p><p>• Variância (σ² ou s²): Mede a dispersão dos dados em relação à média.</p><p>σ2=∑(xi−x‾)2N\sigma^2 = \frac{\sum (x_i - \overline{x})^2}{N}σ2=N∑(xi−x)2</p><p>• Desvio Padrão (σ ou s): Raiz quadrada da variância.</p><p>σ=∑(xi−x‾)2N\sigma = \sqrt{\frac{\sum (x_i - \overline{x})^2}{N}}σ=N∑(xi−x)2</p><p>• Amplitude: Diferença entre o valor máximo e mínimo.</p><p>• Coeficiente de Variação (CV): Mede a variação relativa dos dados.</p><p>CV=Desvio Padra~oMeˊdia×100%CV = \frac{Desvio\ Padrão}{Média} \times</p><p>100\%CV=MeˊdiaDesvio Padra~o×100%</p><p>4. Distribuições de Probabilidade</p><p>4.1. Distribuição Binomial</p><p>Modela o número de sucessos em um número fixo de ensaios independentes, cada um</p><p>com a mesma probabilidade de sucesso.</p><p>• Fórmula:</p><p>P(X=k)=(nk)⋅pk⋅(1−p)n−kP(X = k) = \binom{n}{k} \cdot p^k \cdot (1-p)^{n-k}P(X=k)=(kn</p><p>)⋅pk⋅(1−p)n−k</p><p>Onde:</p><p>o nnn = número de tentativas</p><p>o kkk = número de sucessos desejados</p><p>o ppp = probabilidade de sucesso</p><p>4.2. Distribuição de Poisson</p><p>Modela o número de eventos que ocorrem em um intervalo de tempo ou espaço.</p><p>• Fórmula:</p><p>P(X=k)=e−λ⋅λkk!P(X = k) = \frac{e^{-\lambda} \cdot \lambda^k}{k!}P(X=k)=k!e−λ⋅λk</p><p>Onde:</p><p>o λ\lambdaλ = média de ocorrências</p><p>o kkk = número de ocorrências desejadas</p><p>4.3. Distribuição Normal</p><p>Uma das mais importantes distribuições contínuas, usada para modelar fenômenos</p><p>naturais.</p><p>RESERVADA</p><p>• Função Densidade de Probabilidade:</p><p>f(x)=12πσ2e−(x−μ)22σ2f(x) = \frac{1}{\sqrt{2\pi\sigma^2}} e^{-\frac{(x-</p><p>\mu)^2}{2\sigma^2}}f(x)=2πσ21e−2σ2(x−μ)2</p><p>Onde:</p><p>o μ\muμ = média</p><p>o σ\sigmaσ = desvio padrão</p><p>5. Intervalos de Confiança e Testes de Hipóteses</p><p>5.1. Intervalos de Confiança</p><p>Um intervalo de confiança fornece uma estimativa de um parâmetro populacional com</p><p>um determinado nível de confiança (por exemplo, 95%).</p><p>• Fórmula para a Média:</p><p>x‾±Z×σn\overline{x} \pm Z \times \frac{\sigma}{\sqrt{n}}x±Z×nσ</p><p>Onde:</p><p>o x‾\overline{x}x = média amostral</p><p>o ZZZ = valor crítico da distribuição normal</p><p>o σ\sigmaσ = desvio padrão</p><p>o nnn = tamanho da amostra</p><p>5.2. Testes de Hipóteses</p><p>Usados para tomar decisões sobre uma população com base em amostras.</p><p>• Hipótese Nula (H0): Presume-se verdadeira até que se prove o contrário.</p><p>• Hipótese Alternativa (H1): Contraposição à hipótese nula.</p><p>• Erro Tipo I: Rejeitar H0 quando H0 é verdadeira.</p><p>• Erro Tipo II: Não rejeitar H0 quando H1 é verdadeira.</p><p>6. Regressão e Correlação</p><p>6.1. Regressão Linear</p><p>Estuda a relação entre duas variáveis, modelada pela equação:</p><p>y=β0+β1x+ϵy = \beta_0 + \beta_1 x + \epsilony=β0+β1x+ϵ</p><p>Onde:</p><p>• β0\beta_0β0 = intercepto</p><p>• β1\beta_1β1 = coeficiente angular</p><p>• ϵ\epsilonϵ = erro</p><p>6.2. Correlação</p><p>RESERVADA</p><p>Mede a força e direção da relação entre duas variáveis.</p><p>• Coeficiente de Correlação (r): Varia entre -1 e 1.</p><p>o r=1r = 1r=1: Correlação perfeita positiva.</p><p>o r=−1r = -1r=−1: Correlação perfeita negativa.</p><p>o r=0r = 0r=0: Nenhuma correlação.</p><p>7. Aplicações em Diversas Áreas</p><p>• Economia: Análise de séries temporais e modelagem de preços.</p><p>• Ciências Sociais: Estudos populacionais e comportamentais.</p><p>• Ciências Naturais: Experimentos e modelagem biológica.</p><p>• Ciência de Dados: Machine learning e análise preditiva.</p>