Prévia do material em texto
15 Conceitos Fundamentais 15.1 Parâmetro É a medida usada para descrever uma característica numérica populacional. Exemplo 15.1 Exemplos de parâmetros: 1. Média populacional: µ; 2. Variância populacional: σ2. 15.2 Estatística ou Estimador Estimador ou Estatística, de um parâmetro populacional, é qualquer função das ob- servações de uma amostra aleatória. Exemplo 15.2 Exemplos de estimador ou estatística: 1. Média amostral: x; 2. Variância amostral: s2. 15.3 Estimativa Uma estimativa pontual de algum parâmetro θ da população é um único valor numérico Ê de uma estatística Θ̂. 76 15.4 Distribuições Amostrais A inferência estatística lida com tomar decisões acerca de uma população, baseando- se na informação contida em uma amostra aleatória proveniente daquela população. Por exemplo, podemos estar interessados no volume médio de enchimento de uma lata refrigerante. O volume médio de enchimento na população é 300ml. Um engenheiro considera uma amostra aleatória de 25 latas e calcula o volume médio amostral de enchimento como x = 298ml. O engenheiro decidirá, provavelmente, que a média da população é µ = 300ml, muito embora a média amostral tenha sido 298ml, porque ele sabe que a média amostral é uma estimativa razoável de µ e que a média amostral de 298ml é muito provável de ocorrer, mesmo se a média verdadeira for 300ml, então os testes de 25 latas feitos repetidamente, talvez a cada 5 minutos, produzirão valores de x que variarão acima e abaixo de µ = 300ml. A média amostral é uma estatística, isto é, ela é uma variável aleatória que depende dos resultados obtidos em cada amostra particular. Uma vez que uma estatística é uma variável aleatória, ela tem uma distribuição de probabilidades. 15.5 Distribuição Amostral da Média A distribuição amostral de X é chamada de distribuição amostral da média. Considere a determinação da distribuição amostral da média X da amostra. Supo- nha que uma amostra aleatória de tamanho n, constituída pelos elementos x1, x2, . . . , xn, seja retirada de uma população normal com média µ e variância σ2. 77 O estimador da média populacional µ na amostra é: X = 1 n n∑ i=1 Xi. Proposições: 1. A média das médias amostrais, E(X), é igual a média populacional µ, ou E(X) = µ; 2. A variância da média amostral é igual a variância populacional dividida pelo ta- manho da amostra, ou V ar(X) = σ2 n . Portanto, se X ∼ N(µ, σ2) e se dessa população retiramos amostras de tamanho n, então X ∼ N ( µ, σ2 n ) . Exemplo 15.3 Uma companhia eletrônica fabrica resistores que têm uma resistência média de 100Ω e um desvio-padrão de 10Ω. A distribuição de resistências é normal. Encontre a probabilidade de uma amostra aleatória de n = 25 resistores ter uma resistência média menor que 95Ω. 78 15.6 Teorema Central do Limite Se a população X não tem distribuição normal, a variável X não será “exatamente” normal, mas sim aproximadamente normal, isto é, a variável X terá como distribuição limite (quando n −→∞) a distribuição normal padrão (N(0, 1)). Ou seja, X ' N ( µ, σ2 n ) . Exemplo 15.4 Distribuição das pontuações médias obtidas no lançamento de dados: 79 Exemplo 15.5 Suponha que uma variável aleatória X tenha uma distribuição contí- nua uniforme: f(x) = 1/2, 4 6 x 6 6 0, caso contrário. Encontre a distribuição amostral da média de uma amostra aleatória de tamanho n = 40. Agora considere o caso em que temos duas populações independentes. Faça a pri- meira população ter uma média µ1 e variância σ21 e a segunda população ter uma média µ2 e variância σ22. Suponha que ambas as populações sejam distribuídas normalmente. Então, usando o fato de que combinações lineares de variáveis aleatórias normais si- gam a distribuição normal, podemos dizer que a distribuição amostral de X1 −X2 é normal, com média: E(X1 −X2) = E(X1)− E(X2) = µ1 − µ2 e variância: V ar(X1 −X2) = V ar(X1) + V ar(X2) = σ21 n1 + σ22 n2 . Se as duas populações não forem normalmente distribuídas, porém se ambos os tama- nhos das amostras n1 e n2 forem maiores que 30, podemos usar o teorema central do limite e considerar que X1 e X2 sigam aproximadamente distribuições normais inde- pendentes. Por conseguinte, a distribuição amostral de X1 −X2 é aproximadamente normal, com média µ1 − µ2 e variância σ21/n1 + σ22/n2. Se n1 ou n2 forem menores que 30, então a distribuição amostral de X1−X2 será aproximadamente normal, com 80 média µ1 − µ2 e variância σ21/n1 + σ22/n2, desde que a população da qual a amostra é retirada não seja drasticamente diferente da normal. Podemos resumir isso com a seguinte definição: Definição 15.1 Se tivermos duas populações independentes, com médias µ1 e µ2 e variâncias σ21 e σ22, e se X1 e X2 forem as médias amostrais de duas amostras in- dependentes de tamanhos n1 e n2 dessas populações, então, a distribuição amostral de: Z = X1 −X2 − (µ1 − µ2)√ σ21/n1 + σ22/n2 é aproximadamente normal padrão, se as condições do teorema central do limite se aplicarem. Se as duas populações forem normais, então a distribuição amostral de Z será exatamente a normal padrão. Exemplo 15.6 A vida efetiva de um componente usado em um motor de uma turbina de um avião a jato é uma variável aleatória, com média de 5000h e desvio-padrão de 40h. A distribuição da vida efetiva é razoavelmente próxima da distribuição normal. O fabricante do motor introduz uma melhoria no processo de fabricação para esse componente, que aumenta a vida média para 5050h e diminui o desvio-padrão para 30h. Suponha que uma amostra aleatória de n1 = 16 componentes seja selecionada do processo “antigo” e uma amostra aleatória de n2 = 25 componentes seja selecionada do processo “melhorado”. Qual é a probabilidade de que a diferença nas duas médias amostrais X2 −X1 seja no mínimo de 25h? 81 15.7 Distribuição Amostral da Proporção Vamos considerar uma população em que a proporção de elementos portadores de uma certa característica é p. Assim, a população pode ser considerada como a variável X, tal que X = 1, se o indivíduo é portador da característica 0, se o indivíduo não é portador da característica. com P (X = 1) = p e P (X = 0) = 1 − p = q (p + q = 1), logo E(X) = p e V ar(X) = pq. Retiramos uma grande amostra x1, x2, . . . , xn dessa população, com reposição, e definimos Y como o número de sucessos na amostra, isto é, o número de elementos da amostra com a característica que se quer estudar. O estimador de p é definido por p̂ = Y/n: proporção de sucessos na amostra. A esperança de p̂ é dada por: E(p̂) = E ( Y n ) = 1 n E(Y ) = 1 n np = p o que garante que para grandes amostras a proporção amostral se distribui com média igual à proporção populacional. E a variância de p̂ é dada por: V ar(p̂) = V ar ( Y n ) = 1 n2 V ar(Y ) = 1 n2 npq = pq n . Logo, a variância da proporção amostral é a variância da população dividida pelo 82 tamanho da amostra. Para n suficientemente grande a distribuição de p̂ será: p̂ ∼ N ( p, pq n ) . Assim, a sua distribuição padronizada será: Z = p̂− p√ pq/n . Obs.: Considera-se que uma amostra é suficientemente grande quando np > 5 e nq > 5. Exemplo 15.7 Em uma população, a proporção de pessoas favoráveis a uma deter- minada lei é de 40%. Com base em uma amostra de 300 pessoas dessa população, determine a probabilidade de a proporção amostral ser maior que 35%. 16 Inferência Estatística 16.1 Introdução O campo da inferência estatística consiste de métodos que utilizam a informação con- tida em uma amostra para tomar decisões ou tirar conclusões a cerca de uma popula- ção. 83 16.2 Estimação de Parâmetros 16.2.1 Estimação Pontual O processo de estimação tem por finalidade avaliar parâmetros de uma distribuição. Podemos utilizar um único número real, baseado nos dados da amostra, que é o valor mais plausível para o parâmetro θ. Neste caso, estamos procedendo a uma estimação denominada estimação pontual. O valor da média amostral (x) é uma estimativa pontualda média populacional (µ). Da mesma forma, o valor da variância (s2), do desvio-padrão (s) e da proporção (p̂) amostrais são estimativas pontuais dos parâmetros variância (σ2), desvio-padrão (σ) e proporção (p) populacionais, respectivamente. Tabela 1: Resumo dos estimadores, estimativas e parâmetros Estimador ou estatística (Θ̂) Estimativa pontual (θ̂) Parâmetro (θ) X = 1 n ∑n i=1Xi x µ S2 = ∑n i=1(Xi−X)2 n−1 s2 σ2 S = √∑n i=1(Xi−X)2 n−1 s σ p̂ = X n p̂ p Podemos ter várias escolhas diferentes para o estimador pontual de um parâmetro. Por exemplo, se desejarmos estimar a média de uma população, podemos considerar como estimadores pontuais a média ou a mediana da amostra ou talvez a média das observações menores e maiores da amostra. De modo a decidir qual estimador de um parâmetro particular é o melhor para se usar, necessitamos de examinar suas propriedades estatísticas e desenvolver um critério para comparar estimadores. 84 Um estimador deve está “perto”, de algum modo, do valor verdadeiro do parâmetro desconhecido. Formalmente, dizemos que Θ̂ é um estimador não tendencioso de θ, se o valor esperado de Θ̂ for igual a θ. Isso é equivalente a dizer que a média da distribuição de probabilidades de Θ̂ (ou a média da distribuição amostral de Θ̂) é igual a θ. Definição 16.1 O estimador pontual Θ̂ é um estimador não tendencioso para o pa- râmetro θ, se: E(Θ̂) = θ. Se o estimador for tendencioso, então a diferença: E(Θ̂)− θ é chamada de tendenciosidade do estimador Θ̂. Quando o estimador for não tenden- cioso, a tendenciosidade será zero; ou seja: E(Θ̂)− θ = 0. Algumas vezes, há vários estimadores não tendenciosos para o parâmetro da popu- lação. Por exemplo, suponha uma amostra aleatória de tamanho n = 10, proveniente de uma população normal, e obtenha os dados x1 = 12,8, x2 = 9,4, x3 = 8,7, x4 = 11,6, x5 = 13,1, x6 = 9,8, x7 = 14,1, x8 = 8,5, x9 = 12,1, x10 = 10,3. A média da amostra é: x = 110, 4 10 = 11,04 85 a mediana da amostra é: Me = 10,3 + 11,6 2 = 10,95 e uma única observação dessa população normal é x1 = 12,8. Todos esses valores podem resultar de estimadores não tendenciosos de µ. Uma vez que pode não haver um estimador não tendencioso único, não podemos confiar somente na propriedade de não tendenciosidade para selecionar nosso estimador. Necessitamos de um método para selecionar um entre os estimadores não tendenciosos. Suponha que Θ̂1 e Θ̂2 sejam estimadores não tendenciosos de θ. Isso indica que a distribuição de cada estimador está centralizada no valor verdadeiro de θ. Entretanto, as variâncias dessas distribuições podem ser diferentes. A Figura 1 ilustra a situação. Uma vez que Θ̂1 tem uma variância menor do que Θ̂2, é mais provável que o estimador Θ̂1 produza uma estimativa mais próxima do valor verdadeiro de θ. Um princípio lógico de estimação, quando se seleciona um entre os vários estimadores, é escolher o estimador que tiver variância mínima. 86 Figura 1: Curvas normais para as dist. de Θ̂1 e Θ̂2 16.3 Teste de Hipóteses Na seção anterior, ilustramos como um parâmetro pode ser estimado a partir dos dados de uma amostra. Entretanto, muitos problemas em engenharia requerem que decidamos entre aceitar ou rejeitar uma afirmação acerca de algum parâmetro. A afirmação é chamada de hipótese e o procedimento de tomada de decisão sobre a hipótese é chamado de teste de hipóteses. Definição 16.2 Uma hipótese estatística é uma afirmação sobre os parâmetros de uma ou mais populações. Exemplo 16.1 Suponha que estejamos interessados na taxa de queima de um prope- lente sólido, usado para fornecer energia aos sistemas de escapamento de aeronaves. A taxa de queima é uma variável aleatória que pode ser descrita por uma distribuição de 87 probabilidades. Suponha que nosso interesse esteja focado na taxa média de queima (um parâmetro dessa distribuição). Especificamente, estamos interessados em decidir se a taxa média de queima é ou não 50cm/s. Podemos expressar isso formalmente como: H0: µ = 50cm/s (hipótese nula) H1: µ 6= 50cm/s (hipótese alternativa) Uma vez que a hipótese alternativa especifica valores de µ que poderiam ser maiores ou menores do que 50cm/s, ela é chamada de uma hipótese alternativa bilateral. Em algumas situações, podemos desejar formular uma hipótese alternativa unilateral, como em: H0: µ = 50cm/s ou H0: µ = 50cm/s H1: µ 50cm/s Um procedimento levando a uma decisão acerca de uma hipótese particular é cha- mado de teste de hipótese. Procedimentos de teste de hipóteses usam informações de uma amostra aleatória proveniente da população de interesse. Se essa informação for consistente com a hipótese, então concluiremos que a hipótese é verdadeira; no en- tanto, se essa informação for inconsistente com a hipótese, concluiremos que a hipótese é falsa. Enfatizamos que a verdade ou a falsidade de uma hipótese particular nunca pode ser conhecida com certeza, a menos que possamos examinar a população inteira, o que na prática é geralmente impossível. Quando decidimos por rejeitar ou não uma hipótese nula, estamos sujeitos a acertos e erros na decisão. De modo geral, em qualquer tipo de decisão, os acertos e erros podem ser dispostos segundo a tabela abaixo: 88 Realidade Decisão H0 é verdadeira H0 é falsa Falhar em rejeitar H0 Decisão correta Erro tipo II Rejeitar H0 Erro tipo I Decisão correta Definição 16.3 A rejeição da hipótese nula H0 quando ela é verdadeira é definida como um erro tipo I. Definição 16.4 A falha em rejeitar a hipótese nula H0 quando ela é falsa, é definida como um erro tipo II. A probabilidade de cometer o erro tipo I, ou seja, rejeitar uma hipótese verdadeira é denotada por α. Ou seja: α = P (erro tipo I) = P (rejeitar H0 quando H0 for verdadeira). Algumas vezes, a probabilidade do erro tipo I é chamada de nível de significância ou tamanho do teste. 16.4 Inferência sobre a Média de uma População com Variân- cia Conhecida Para fazermos inferências acerca da média µ de uma população simples, conhecendo-se a variância da população σ2, supomos: Suposições: 89 1. X1, X2, . . . , Xn é uma amostra aleatória de tamanho n, proveniente de uma po- pulação; 2. A população é normal ou se ela não for normal, as condições do teorema central do limite se aplicarão. Como já vimos, a média da amostra X é um estimador pontual não tendencioso de µ. Com essas suposições a distribuição de X é aproximadamente normal, com média µ e variância σ2/n. Desta forma, a grandeza Z = X − µ σ/ √ n tem uma distribuição normal padrão, N(0, 1). 16.4.1 Teste de Hipóteses para a Média Suponha que desejemos testar as hipóteses: H0: µ = µ0 H1: µ 6= µ0 sendo µ0 uma constante especificada. Temos uma amostra aleatória X1, X2, . . . , Xn a partir da população. Visto que X tem uma distribuição normal aproximada com média µ0 e desvio-padrão σ/ √ n, se a hipótese nula for verdadeira poderemos construir uma região crítica baseada no valor calculado da média da amostra x. É geralmente mais conveniente padronizar a média da amostra e usar uma estatís- tica de teste baseada na distribuição normal padrão. Ou seja, o procedimento de teste 90 para H0: µ = µ0 usa a estatística do teste: Z0 = X − µ0 σ/ √ n . Se a hipótese nula H0: µ = µ0 for verdadeira, então E(X) = µ0 e a distribuição de Z0 é a distribuição normal padrão. Conseqüentemente, se H0: µ = µ0 for verdadeira, a probabilidade será 1−α de que a estatística Z0 caia entre −Zα/2 e Zα/2, em que Zα/2 é o ponto 100α/2 percentual da distribuição normal padrão. As regiões associadas com −Zα/2 e Zα/2 estão ilustradas abaixo: −zα 2 +zα 2 α 2 α 2 1 −α Note que a probabilidade é α de que a estatística do teste Z0 caia na região Z0 > Zα/2 ou Z0rejeitar H0 se: Z0 > Zα/2 ou Z0 µ0 Nesse caso, colocaríamos a região crítica na extremidade superior da distribuição nor- mal padrão: +zα α 1 −α e rejeitaríamos H0, se o valor calculado para Z0 fosse maior que Zα. Similarmente, para testar: H0: µ = µ0 H1: µ µ0 Φ(Z0), para um teste unilateral inferior : H1 : µ 30). Esses procedimentos são aproximadamente válidos, independentemente da população em foco ser ou não normal. Entretanto, quando a amostra for pequena e σ2 for desconhecida, o procedimento de teste será discutido a seguir. 96 16.5.1 Teste de Hipóteses para a Média Suponha que a população de interesse tenha uma distribuição normal, com média µ e variância σ2 desconhecidas. Desejamos testar a hipótese de que µ seja igual a uma constante µ0. Note que essa situação é similar àquela da Seção 16.4, exceto que agora ambas, µ e σ2, são desconhecidas. Considere uma amostra aleatória de tamanho n, como X1, X2, . . . , Xn, seja disponível e sejam X e S2 a média e a variância da amostra, respectivamente. Desejamos testar as hipóteses: H0: µ = µ0 H1: µ 6= µ0 Um procedimento razoável será trocar σ na expressão: Z0 = X − µ0 σ/ √ n pelo desvio-padrão, S, da amostra. A estatística de teste é agora: T0 = X − µ0 S/ √ n Definição 16.5 Considere X1, X2, . . . , Xn uma amostra aleatória de uma distribuição normal, com media µ e variância σ2 desconhecidas. A quantidade: T = X − µ S/ √ n tem uma distribuição t-Student, com n− 1 graus de liberdade. Agora, pode-se ver, de forma direta, que a distribuição da estatística de teste T0 é 97 t, com n − 1 graus de liberdade, se a hipótese nula H0: µ = µ0 for verdadeira. Para testar H0: µ = µ0, o valor da estatística T0 é calculado e H0 é rejeitada se: T0 > tα/2, n−1 ou se T0 µ0 Nesse caso, a região crítica estará na extremidade superior da distribuição t e é ilustrada por: 98 + tα α 1 −α calcularemos a estatística do teste T0 e rejeitaremos H0 se: T0 > tα, n−1 Para a outra hipótese alternativa unilateral inferior: H0: µ = µ0 H1: µ= 1− α. Exemplo 16.6 A resistência à compressão do concreto está sendo testada por um engenheiro civil. Ele testa 12 corpos de prova e obtém os seguintes dados: 100 2256 2257 2243 2199 2227 2230 2238 2248 2332 2230 2264 2243 Construa um intervalo de confiança de 95% para a resistência média. 16.6 Inferência sobre a Proporção de uma População Freqüentemente, é necessário testar hipóteses e construir intervalos de confiança para a proporção de uma população. Por exemplo, suponha que uma amostra aleatória grande de tamanho n tenha sido retirada de uma população e que X (6 n) observações nessa amostra pertençam a uma classe de interesse. N° de elementos que pertencem (X) N° de elementos que não pertencem (n-X) Amostra n – tamanho da amostra Então, p̂ = X/n é o estimador da proporção p da população que pertence a essa classe. A distribuição amostral de p̂ é aproximadamente normal com média p e variân- cia pq/n, se p não estiver muito próximo de 0 ou 1 e se n for suficientemente grande. Tipicamente, para aplicar essa aproximação, é preciso que np e nq sejam maiores ou iguais a 5. 101 16.6.1 Teste de Hipóteses para uma Proporção Considere um processo de produção que fabrica itens classificados como aceitáveis ou defeituosos. É geralmente razoável modelar a ocorrência de defeitos com a distribuição binomial, em que p representa a proporção de itens defeituosos produzidos. Conseqüen- temente, muitos problemas de decisão em engenharia incluem teste de hipóteses sobre p. Consideremos o teste: H0: p = p0 H1: p 6= p0 Um teste aproximado, baseado na aproximação da binomial pela normal será dado. O seguinte resultado será usado para fazer o teste de hipóteses e construir intervalos de confiança para p. Seja p̂ a proporção de elementos que pertençam a uma classe de interesse em uma amostra aleatória de tamanho n. Então: Z = p̂− p√ pq/n terá, aproximadamente, uma distribuição normal padrão, N(0, 1). Então, se a hipótese nula H0: p = p0 for verdadeira, teremos p̂ ∼ N(p, pq/n), aproximadamente. Para testar H0: p = p0, calcule a estatística de teste: Z0 = p̂− p0√ p0q0/n 102 e rejeite H0: p = p0 se: Z0 > Zα/2 ou Z0