Prévia do material em texto
<p>ECONOMETRIA</p><p>#CURRÍCULO LATTES#</p><p>Professor Doutor Vinicius Borba da Costa</p><p>● Doutor em Economia, na área de Desenvolvimento Econômico pela UFRGS</p><p>(Universidade Federal do Rio Grande do Sul)</p><p>● Mestre em Teoria Econômica pela UEM (Universidade Estadual de Maringá)</p><p>● Graduado em Ciências Econômicas pela UEM</p><p>● Professor em ensino superior desde 2017, tendo lecionada na UEPG</p><p>(Universidade Estadual de Pronta Grossa) e na UEM.</p><p>● Lattes: http://lattes.cnpq.br/2815396821809365</p><p>Experiência como Professor de Ensino Superior, tendo lecionado diversas disciplinas</p><p>para o curso de Economia, Ciências Contábeis, Administração, Engenharia de Software,</p><p>dentre outras áreas. Experiência no mercado financeiro como consultor e investidor</p><p>desde 2008, tendo atuado tanto nos mercados à vista, quando em futuros e derivativos.</p><p>APRESENTAÇÃO DA APOSTILA</p><p>Seja muito bem-vindo(a) ao material de Econometria. A disciplina de econometria</p><p>é muito interessante e, apesar de colecionar alguns alunos fãs e outros nem tanto, tem</p><p>a capacidade de auxiliar a compreensão de como as análises estatísticas são utilizadas</p><p>dentro da investigação econômica. A partir dela podemos observar relações, fazer</p><p>previsões, estimar parâmetros e testar as análises de maneira objetiva permitindo</p><p>entender como uma variável é importante para explicar a outra e assim, permitindo</p><p>identificar como as variáveis econômicas estão incluídas nas relações de comércio,</p><p>crescimento, educação, salários e assim por diante.</p><p>Para que a econometria seja parte da sua caixa de ferramentas como economista,</p><p>esse material traz desde conceitos introdutórios até modelos um pouco mais avançados.</p><p>Para isso, a unidade I, apresenta uma introdução do que é a econometria e quais são os</p><p>aspectos básicos do modelo mais simples que podemos observar, a regressão com duas</p><p>variáveis. Para estimá-la, a unidade também traz o tão conhecido método dos mínimos</p><p>quadrados ordinários (MQO), que será utilizada durante toda a apostila.</p><p>A unidade II, começa apresentando um dos procedimentos mais importantes da</p><p>análise econométrica, os testes de hipóteses e a inferência estatística. Depois disso, são</p><p>apresentados outras formas funcionais de identificar a relação entre as variáveis além</p><p>de outros dois modelos, a análise de regressão múltipla e o modelo com variáveis</p><p>binários (dummy).</p><p>A unidade III fala um pouco sobre a aplicação da econometria e todos os percalços</p><p>que podem ser encontrados. Nessa unidade relaxamos algumas das premissas do</p><p>modelo de regressão linear clássico, identificando problemas como heterocedasticidade,</p><p>autocorrelação e erros de especificação, além de observar como corrigir cada um desses</p><p>problemas e diagnosticar uma modelagem econométrica bem estimada.</p><p>Por fim, na última unidade (IV) falamos sobre alguns modelos mais avançados e</p><p>seus usos. Falaremos sobre os modelos de escolha quantitativa, modelos de equações</p><p>simultâneas e sobre as especificidades da econometria de séries temporais. Além disso,</p><p>observamos um passo a passo de como calcular e estimar uma regressão através de</p><p>softwares estatísticos, o que facilita o trabalho, traz rapidez e eficiência à sua análise.</p><p>UNIDADE I</p><p>INTRODUÇÃO AO ESTUDO DE ECONOMETRIA</p><p>Professor Doutor Vinicius Borba da Costa</p><p>Plano de Estudo:</p><p>• Introdução e conceitos básicos;</p><p>• Análise de Regressão com duas variáveis;</p><p>• Método dos Mínimos Quadrados Ordinários (MQO);</p><p>• Intervalo de Confiança.</p><p>Objetivos de Aprendizagem:</p><p>• Introduzir as características e o método econométrico;</p><p>• Demonstrar os cálculos e o Método dos Mínimos Quadrados Ordinários (MQO);</p><p>• Apresentar a definição dos intervalos de confiança.</p><p>INTRODUÇÃO</p><p>Sempre que imaginamos algum acontecimento, fenômeno ou fato da nossa vida</p><p>cotidiana, imediatamente iniciamos uma investigação científica em nossa mente. O que</p><p>levou esse fenômeno a acontecer? Qual a relação dele com os outros acontecimentos</p><p>desse momento? Será esse um fenômeno isolado ou ocorre com frequência?</p><p>A econometria nos ajuda na resolução de algumas das hipóteses que</p><p>formalizamos nesse processo. Nos auxilia na investigação científica dos fatos e das</p><p>características do mundo em que vivemos.</p><p>Utilizada em diversas áreas e diferentes propósitos, como na tentativa da</p><p>erradicação da pobreza através de políticas econômicas mais efetivas e focadas no</p><p>problema, ou no uso de dados para previsão de séries financeiras para melhor alocação</p><p>de recursos, ou ainda na estimativa da curva de demanda de uma empresa, a</p><p>econometria evoluiu muito nas últimas décadas.</p><p>Através de estimativas estatísticas, modelos econômicos e economia matemática</p><p>investigamos relações, prevemos séries e inferimos se nossos resultados são</p><p>estatisticamente significativos.</p><p>Essa unidade se propõe a auxiliar ao leitor um primeiro passo para entender sobre</p><p>o que a econometria se preocupa. Estudamos aqui alguns dos seus aspectos mais</p><p>básicos, mas também extremamente importantes para a solidificação da teoria</p><p>econométrica. Para isso, o primeiro tópico traz algumas introduções e conceitos básicos.</p><p>O segundo tópico fala sobre a análise de regressão com duas variáveis, abrindo caminho</p><p>para o método dos mínimos quadrados ordinários, explicados no tópico três. Finalmente,</p><p>no tópico quatro, tratamos da estimação dos intervalos de confiança, indispensáveis para</p><p>a posterior inferências estatísticas.</p><p>1 INTRODUÇÃO E CONCEITOS</p><p>Imagem do Tópico: 1710746851</p><p>A cada momento do nosso cotidiano, por termos a curiosidade como característica</p><p>inerente, investigamos como as coisas estão relacionadas, quais seus determinantes e</p><p>consequências. A econometria auxilia de maneira ímpar nesse sentido.</p><p>A econometria se baseia no desenvolvimento de métodos estatísticos para</p><p>medição e estimação de relações existentes na economia, ou no nosso cotidiano.</p><p>Através dela, podemos testar teorias, avaliar políticas econômicas e escolhas</p><p>empresariais e então, tomar decisões. (WOOLDRIDGE, 2016)</p><p>Gujarati e Porter (2011, p. 25) revela que, em uma interpretação literal,</p><p>econometria significa “medição econômica”. Ou seja, o ato de usar os dados para fazer</p><p>medições e, a partir delas, tirar conclusões. No entanto, o autor explica a discussão</p><p>econométrica é muito mais ampla e extensa, assim, nos traz outros conceitos comuns</p><p>apresentados por autores econometristas importantes:</p><p>• A econometria, o resultado de certa perspectiva em relação ao papel da</p><p>economia, é a aplicação da estatística matemática aos dados econômicos para dar apoio</p><p>empírico aos modelos formulados pela economia matemática e obter resultados</p><p>numéricos (TINTNER, 1968, apud Gujarati e Porter, 2011).</p><p>• A econometria pode ser definida como a análise quantitativa dos fenômenos</p><p>econômicos ocorridos com base no desenvolvimento corrente da teoria e das</p><p>observações e com o uso de métodos de inferência adequados (SAMUELSON et. al.</p><p>1954, apud Gujarati e Porter, 2011).</p><p>• A econometria pode ser definida como a ciência social em que as ferramentas</p><p>da teoria econômica, da matemática e da inferência estatística são aplicadas à análise</p><p>de fenômenos econômicos (GOLDBERGER, 1964, apud Gujarati e Porter, 2011).</p><p>• A econometria se ocupa da determinação empírica das leis econômicas (Theil,</p><p>1971, apud Gujarati e Porter, 2011).</p><p>Assim, é fácil de perceber a importância da econometria. Enquanto os campos</p><p>teórico-econômicos, como microeconomia e macroeconomia, se preocupa observar os</p><p>fenômenos que ocorrem nas relações humanas e, através da economia matemática</p><p>constroem modelos baseados em premissas pré definidas. O econometrista utiliza a</p><p>coleta, organização e apresentação dos dados preparados pela estatística econômica</p><p>para fazer a verificação econômica dessas teorias e modelos.</p><p>REFLITA</p><p>“Sem dados você é apenas mais uma pessoa com</p><p>mostram que, dada a tabela ANOVA4, temos o F calculado</p><p>pela fórmula:</p><p>𝐹 =</p><p>𝑀𝑆𝑄 𝑑𝑒 𝑆𝑄𝐸</p><p>𝑀𝑆𝑄 𝑑𝑒 𝑆𝑄𝑅</p><p>=</p><p>�̂�2</p><p>2 ∑ 𝑥𝑖</p><p>2</p><p>1</p><p>∑ 𝑦</p><p>𝑖</p><p>2 −</p><p>(∑ 𝑥𝑖𝑦𝑖</p><p>)</p><p>2</p><p>∑ 𝑥𝑖</p><p>2</p><p>(𝑛 − 2)</p><p>=</p><p>�̂�2</p><p>2 ∑ 𝑥𝑖</p><p>2</p><p>�̂�</p><p>2</p><p>4 A demonstração do cálculo do teste F, que pode ser encontrada na seção 5.4 do Gujarati e Porter</p><p>(2011), será omitida deste material para simplificação.</p><p>Presumindo que os erros são normais e que 𝐻0: 𝛽2 = 0, pode-se demonstrar que</p><p>a variável F segue uma distribuição F com 1GL no numerador e (n-2)GL no denominador.</p><p>A razão F nos dá um teste estatístico para verificar a hipótese nula, 𝛽</p><p>2</p><p>é igual a</p><p>zero. Para isso, é necessário calcular a razão F e compará-la com o valor crítico de F,</p><p>apresentado na tabela F, ao nível de significância escolhido. A regra de decisão é: se o</p><p>F calculado for maior do que o F tabelado, rejeitamos a hipótese nula.</p><p>No entanto, o valor p do teste F também é disponibilizado pela saída dos softwares</p><p>estatísticos, assim, na prática também utilizamos o valor p (para o teste F) para</p><p>identificarmos a significância dos estimadores em conjunto.</p><p>Os t e F oferecem duas formas alternativas de testar 𝐻0: 𝛽2 = 0. Alternativas,</p><p>porém, complementares. O teste t testa a significância dos estimadores individualmente,</p><p>o teste F testa a significância das estimativas dos parâmetros em conjunto. Ou seja, o</p><p>teste F determinada se a regressão está bem especificada.</p><p>3 FORMAS FUNCIONAIS ALTERNATIVAS</p><p>Até agora observamos modelos que são lineares nos parâmetros e nas variáveis.</p><p>No entanto, como observamos na unidade anterior, a premissa de linearidade requer que</p><p>somente os parâmetros sejam lineares, sem exigir isso das variáveis.</p><p>Alguns dos modelos funcionais alternativos mais utilizados são os modelos log-</p><p>linear, que nos permitem medir a elasticidade.</p><p>A elasticidade define quanto às alterações em uma variável influenciam na outra.</p><p>Como por exemplo, a elasticidade-preço da demanda se refere a quanto a quantidade</p><p>demandada é alterada quando há uma alteração do preço do bem. Usualmente essas</p><p>relações são feitas a partir de variações percentuais e representadas como segue:</p><p>∆%𝑄</p><p>∆%𝑃</p><p>=</p><p>∆𝑄</p><p>𝑄</p><p>∆𝑃</p><p>𝑃</p><p>=</p><p>∆𝑄</p><p>𝑄</p><p>𝑃</p><p>∆𝑃</p><p>=</p><p>∆𝑄</p><p>∆𝑃</p><p>𝑃</p><p>𝑄</p><p>Para elaborar o modelo log-linear e estudar as elasticidades, Gujarati et. al (2011)</p><p>apresentam o seguinte modelo conhecido como modelo de regressão exponencial:</p><p>𝑌𝑖 = 𝛽1𝑋𝑖</p><p>𝛽2𝑒𝑢𝑖</p><p>Segundo os autores, esse modelo também pode ser expresso como:</p><p>𝑙𝑛 𝑙𝑛 𝑌𝑖 =𝑙𝑛 𝑙𝑛 𝛽1 + 𝛽2 𝑙𝑛 𝑙𝑛 𝑋𝑖 + 𝑢𝑖</p><p>Em que ln é o logaritmo natural, isto é, logaritmo com base 𝑒 (2.718).</p><p>Se substituirmos 𝑙𝑛 𝑙𝑛 𝛽1 por 𝛼, temos que:</p><p>𝑙𝑛 𝑙𝑛 𝑌𝑖 = 𝛼 + 𝛽2 𝑙𝑛 𝑙𝑛 𝑋𝑖 + 𝑢𝑖</p><p>Perceba que esse modelo é linear nos parâmetros, linear nos logaritmos das</p><p>variáveis 𝑌 e 𝑋, sendo possível estimá-lo por uma regressão de MQO.</p><p>Esse modelo pode ser denominado como log-log, duplo-log ou log-linear.</p><p>Estimado por MQO o modelo:</p><p>𝑌𝑖</p><p>∗ = 𝛼 + 𝛽2𝑋𝑖</p><p>∗ + 𝑢𝑖</p><p>Temos então que o 𝛽</p><p>2</p><p>mede a elasticidade de 𝑌 em relação a 𝑋, ou seja, mede</p><p>a variação percentual em 𝑌 para dada variação percentual (pequena) em 𝑋.</p><p>Para provar essas relações, Gujarati e Porter (2011) partem da seguinte equação:</p><p>𝑙𝑛 𝑙𝑛 𝑌 = 𝛼 + 𝛽 𝑙𝑛 𝑙𝑛 𝑋</p><p>A partir dela, os autores derivam ambos os lados em relação a X:</p><p>𝑑(𝑙𝑛 𝑙𝑛 𝑌 )</p><p>𝑑𝑋</p><p>=</p><p>𝑑(𝛽 𝑙𝑛 𝑙𝑛 𝑋 )</p><p>𝑑𝑋</p><p>1</p><p>𝑌</p><p>𝑑𝑌.</p><p>1</p><p>𝑑𝑋</p><p>= 𝛽</p><p>1</p><p>𝑋</p><p>𝑑𝑋</p><p>𝑑𝑋</p><p>1</p><p>𝑌</p><p>𝑑𝑌</p><p>𝑑𝑋</p><p>= 𝛽</p><p>1</p><p>𝑋</p><p>𝛽 =</p><p>𝑋</p><p>𝑌</p><p>𝑑𝑌</p><p>𝑑𝑋</p><p>𝛽 =</p><p>𝑑𝑌</p><p>𝑑𝑋</p><p>𝑋</p><p>𝑌</p><p>Perceba, portanto, que o parâmetro tem as mesmas relações que a fórmula da</p><p>elasticidade demonstrada anteriormente.</p><p>Gujarati e Porter (2011) ressaltam dois aspectos especiais do modelo log-linear.</p><p>O primeiro é que o modelo pressupõe que o coeficiente de elasticidade entre a variável</p><p>dependente (Y), a explicativa (X) e o coeficiente de inclinação (𝛽</p><p>2</p><p>), permaneçam</p><p>constantes. Além disso, o segundo aspecto apresenta que embora �̂� e �̂� sejam</p><p>estimativas não tendenciosas dos parâmetros da população, quando se estima o</p><p>estimados intercepto como antilog de �̂� , ele passa a ser tendencioso. No entanto, o</p><p>intercepto na análise de elasticidade não é essencial.</p><p>4 ANÁLISE DE REGRESSÃO MÚLTIPLA</p><p>Imagem do Tópico: 1260594907</p><p>Até então trabalhamos com um modelo de regressão com duas variáveis, também</p><p>conhecido como modelo de regressão simples, um modelo que analisava a relação entre</p><p>a variável Y e X, onde investigamos como a variável X poderia explicar a variável Y. No</p><p>entanto, esse modelo pode não ser adequado.</p><p>Imagine, por exemplo, que queremos estudar o que determina consumo de</p><p>frango. Imediatamente imaginaríamos que a primeira variável explicativa seria o preço</p><p>do produto. No entanto, diversas outras variáveis podem ser determinantes para o</p><p>consumo do frango em certa localidade, como por exemplo, o preço do bem substituto</p><p>(carne de boi), os costumes locais, o preço de bens complementares, etc.</p><p>Portanto, ao invés de escolher somente uma variável e deixar que o termo de erro</p><p>carregue as informações de todos os outros fatores que poderiam explicar o consumo</p><p>do frango, utilizamos um modelo com mais variáveis, o modelo de regressão múltipla.</p><p>Os modelos de regressão múltipla são modelos com 3 ou mais variáveis. O</p><p>modelo abaixo, por exemplo, possui uma variável dependente e duas variáveis</p><p>explicativas:</p><p>𝑌𝑖 = 𝛽1 + 𝛽2𝑋2 + 𝛽3𝑋3 + 𝑢𝑖</p><p>Onde:</p><p>𝑌𝑖 é a variável dependente;</p><p>𝑋1𝑒 𝑋2 são as variáveis explicativas;</p><p>𝑢𝑖 é o termo de erro estocástico;</p><p>i refere-se a i-ésima observação (utilizado para séries temporais);</p><p>𝛽</p><p>1</p><p>é o intercepto;</p><p>𝛽</p><p>2</p><p>𝑒 𝛽3 são os coeficientes parciais de regressão.</p><p>Observe portanto que a noção é a mesma da análise com suas variáveis, com</p><p>exceção do fato de que aqui temos mais variáveis para explicar Y e, portanto, cada uma</p><p>delas tem um coeficiente angular, um 𝛽.</p><p>Segundo Gujarati e Porter (2011), a análise de regressão múltipla está</p><p>condicionada aos valores fixados dos regressores. O que obtemos, a partir da regressão,</p><p>é o valor médio de Y, ou seja, a resposta média para os valores dados dos regressores.</p><p>Isso quer dizer que, para interpretarmos, entendemos que 𝛽</p><p>2</p><p>mede a variação no</p><p>valor médio de Y, E(Y), por unidade de variação na variável X2, quando X3 se mantém</p><p>constante. Isto é, 𝛽</p><p>2</p><p>representa o efeito de X2 líquido do efeito de X3.</p><p>Da mesma forma, 𝛽</p><p>3</p><p>mede a variação do valor médio de Y, por unidade de</p><p>variação de X3, quando mantemos o valor de X2 constante, ou seja, nos apresenta o</p><p>efeito de X3 líquido do efeito de X2.</p><p>Na regressão múltipla também temos premissas que devem ser respeitadas. São</p><p>elas:</p><p>1. O termo de erro ui tem valor médio de zero;</p><p>2. Ausência de correlação serial;</p><p>3. Dispersão positiva e constante do termo de erro (homocedasticidade);</p><p>4. Covariância igual a zero entre ui e cada variável X;</p><p>5. Ausência de tendência de especificação;</p><p>6. Inexistência de colinearidade exata entre as variáveis X;</p><p>7. Linearidade nos parâmetros;</p><p>8. valores dos regressores fixados em amostras repetidas;</p><p>9. variabilidade nos valores dos regressores.</p><p>4.1 Estimação dos Coeficientes Parciais</p><p>A estimação na regressão múltipla também pode ser realizada por Mínimos</p><p>Quadrados Ordinários (MQO). Segundo Gujarati e Porter (2011), através do método, é</p><p>possível escolher os parâmetros desconhecidos de forma que a soma do quadrado dos</p><p>resíduos seja o menor possível, ou seja:</p><p>∑ 𝑢𝑖</p><p>2 = ∑ (𝑌𝑖 − 𝛽1</p><p>̂ − 𝛽2</p><p>̂𝑋2𝑖 − 𝛽3</p><p>̂ 𝑋3𝑖)</p><p>2</p><p>A partir dessa minimização, Gujarati e Porter (2011) obtém as seguintes fórmulas</p><p>da estimação:</p><p>�̂�</p><p>1</p><p>= 𝑌 − �̂�2𝑋2 − �̂�3𝑋3</p><p>Onde a barra acima de cada variável significa que utilizamos a média dessa</p><p>variável no cálculo. Assim: 𝑌 = média das</p><p>observações de Y.</p><p>Ainda:</p><p>�̂�</p><p>2</p><p>=</p><p>(∑ 𝑦𝑖𝑥 2𝑖)(∑ 𝑥3𝑖</p><p>2 ) − (∑ 𝑦𝑖𝑥 3𝑖)(∑ 𝑥2𝑖𝑥 3𝑖)</p><p>(∑ 𝑥2𝑖</p><p>2 )(∑ 𝑥3𝑖</p><p>2 ) − (∑ 𝑥2𝑖𝑥 3𝑖)2</p><p>e</p><p>�̂�</p><p>3</p><p>=</p><p>(∑ 𝑦𝑖𝑥 3𝑖)(∑ 𝑥2𝑖</p><p>2 ) − (∑ 𝑦𝑖𝑥 2𝑖)(∑ 𝑥2𝑖𝑥 3𝑖)</p><p>(∑ 𝑥2𝑖</p><p>2 )(∑ 𝑥3𝑖</p><p>2 ) − (∑ 𝑥2𝑖𝑥 3𝑖)2</p><p>Onde 𝑦𝑖 = 𝑌𝑖 − 𝑌 e 𝑥𝑖 = 𝑋𝑖 − 𝑋</p><p>Além disso, os autores apresentam as seguintes equações para as variâncias e</p><p>covariâncias.</p><p>𝑣𝑎𝑟(�̂�2) =</p><p>𝜎2</p><p>∑ 𝑥2𝑖</p><p>2 (1 − 𝑟23</p><p>2 )</p><p>e</p><p>𝑣𝑎𝑟(�̂�3) =</p><p>𝜎2</p><p>∑ 𝑥3𝑖</p><p>2 (1 − 𝑟23</p><p>2 )</p><p>E a covariância:</p><p>𝑐𝑜𝑣(�̂�2, �̂�3) =</p><p>−𝑟23</p><p>2 𝜎2</p><p>(1 − 𝑟23</p><p>2 )√∑ 𝑥2𝑖</p><p>2 √∑ 𝑥3𝑖</p><p>2</p><p>Para encontrar as variâncias, no entanto, precisamos de 𝜎2 =</p><p>∑ 𝑢𝑖</p><p>2</p><p>𝑛−𝑘</p><p>, (onde k é o</p><p>número de estimadores (𝛽), que no caso da regressão apresentada antes eram 3</p><p>[𝛽</p><p>1</p><p>, 𝛽2, 𝛽3]). Além de ∑ �̂�𝑖</p><p>2 = ∑ 𝑦</p><p>𝑖</p><p>2 − �̂�2</p><p>∑ 𝑦</p><p>𝑖</p><p>𝑥 2𝑖 − �̂�3</p><p>∑ 𝑦</p><p>𝑖</p><p>𝑥 3𝑖.</p><p>Para a covariância precisamos de 𝑟23</p><p>2 =</p><p>(∑ 𝑥2𝑖𝑥3𝑖) 2</p><p>∑ 𝑥2𝑖</p><p>2 ∑ 𝑥3𝑖</p><p>2 .</p><p>4.2 O Coeficiente de determinação múltipla: o R2</p><p>Como observamos na unidade anterior, o r2, mostrava como o modelo de</p><p>regressão ajustava bem os dados. Quando tratamos de regressão múltipla utilizamos o</p><p>R2, que também é um coeficiente de determinação múltipla.</p><p>Segundo Gujarati e Porter (2011), esse coeficiente mostra da variação de Y que</p><p>é explicada, conjuntamente, pelas variáveis X2 e X3.</p><p>Para encontrá-lo, temos que:</p><p>𝑅2 =</p><p>𝑆𝑜𝑚𝑎 𝑑𝑜𝑠 𝑄𝑢𝑎𝑑𝑟𝑎𝑑𝑜𝑠 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑑𝑜𝑠 𝑝𝑒𝑙𝑎 𝑟𝑒𝑔𝑟𝑒𝑠𝑠ã𝑜</p><p>𝑆𝑜𝑚𝑎 𝑑𝑜𝑠 𝑄𝑢𝑎𝑑𝑟𝑎𝑑𝑜𝑠 𝑇𝑜𝑡𝑎𝑖𝑠</p><p>𝑅2 =</p><p>�̂�2 ∑ 𝑦</p><p>𝑖</p><p>𝑥 2𝑖 + �̂�3</p><p>∑ 𝑦</p><p>𝑖</p><p>𝑥 3𝑖</p><p>∑ 𝑦𝑖</p><p>2</p><p>Assim, se R2 = 1, as variações de Xi explicam 100% das variações de Y; e se R2</p><p>= 0, as variações de Xi não explicam nada das variações de Y. Para qualidade do</p><p>ajustamento é mais desejável, então, que R2 seja mais próximo de 1.</p><p>4.3 Exemplo de interpretação</p><p>Para exemplificar a interpretação5, Gujarati e Porter (2011) nos apresenta um</p><p>exemplo de estudo sobre a relação da mortalidade infantil (MI, mortes/1000 nascimentos)</p><p>e algumas variáveis explicativas, como o PNB per capita (PNBpc, dólar) e a taxa de</p><p>alfabetização feminina (TAF, em porcentagem).</p><p>Temos então, pelo modelo apresentado que:</p><p>𝑀𝐼𝑖</p><p>̂ = 𝛽1 + 𝛽2𝑃𝑁𝐵𝑝𝑐 𝑖 + 𝛽3𝑇𝐴𝐹𝑖 + 𝑢𝑖</p><p>Através dos dados e de um software, chegamos a:</p><p>𝑀𝐼𝑖 ̂ = 263,6416 (11,5932) − 0,0056𝑃𝑁𝐵𝑝𝑐 𝑖 (0,0019) − 2,2316𝑇𝐴𝐹𝑖 (0,2094)</p><p>𝑅2 = 0,7077</p><p>Onde, os números abaixo do resultado dos parâmetros são seus erros-padrão.</p><p>5 Entender como calcular os estimadores é importante, no entanto, ainda mais importante é entender como</p><p>se dá a interpretação dos resultados, uma vez que na imensa maioria das vezes os estudos econométricos</p><p>são feitos através dos softwares econométricos.</p><p>O primeiro passo para analisar os resultados dessa regressão é observar se os</p><p>sinais dos parâmetros fazem sentido econômico. Nesse caso, como os sinais de ambos</p><p>são negativos, o modelo mostra que o aumento do PNBpc e da taxa de alfabetização</p><p>feminina levam a uma redução da mortalidade infantil, o que faz sentido econômico.</p><p>Podemos então analisar os coeficientes parciais de regressão (cada um dos 𝛽).</p><p>Temos, portanto, que, como o coeficiente parcial de regressão do PNBpc é igual a -</p><p>0,0056, mantendo TAF constante, quando há aumento de 1 dólar no PNBpc, a mortalidade</p><p>infantil cai, em média, 0,0056 mortes/mil nascimentos.</p><p>Além disso, como o coeficiente parcial de regressão da TAF é de -2,2316: Mantido</p><p>o PBN constante, com o aumento de 1 ponto percentual na TAF há uma redução média</p><p>de 2,23 mortes a cada mil nascimentos.</p><p>Ainda, sendo o 𝛽</p><p>1</p><p>= 236,6416, dizemos que se PNB e TAF forem iguais a 0, a</p><p>mortalidade infantil média seria de cerca de 264 óbitos /1000 nascimentos.</p><p>O resultado do R2 mostra que aproximadamente 70,77% da variação da</p><p>mortalidade infantil pode ser explicada por PNB e TAF.</p><p>4.4 A inferência em Regressões múltiplas</p><p>Assim como na regressão simples, na regressão múltipla também devemos fazer</p><p>inferência para identificar se os parâmetros são estatisticamente significativos e,</p><p>portanto, podem ser utilizados para explicar as relações.</p><p>Gujarati e Porter (2011) nos recordam que o modelo de regressão linear clássico</p><p>exige que o valor médio do erro aleatório seja igual a zero e que a variância seja positiva</p><p>e constante. No entanto, os autores destacam que para que se possa realizar uma</p><p>análise inferencial, faz-se necessário pressupor que os erros sigam distribuição normal</p><p>de probabilidade.</p><p>Isso quer dizer que o erro populacional é independente das variáveis explicativa</p><p>e normalmente distribuído, com média zero e variância 𝜎2, ou seja, 𝑢 ~ 𝑁𝑜𝑟𝑚𝑎𝑙 (0, 𝜎2).</p><p>Pelo teorema do limite central, qualquer função linear que tenha variáveis com</p><p>distribuição normal é também naturalmente distribuída. Assim, como no método do MQO</p><p>os parâmetros estimados são funções lineares dos erro aleatório, se , 𝑢 ~ 𝑁𝑜𝑟𝑚𝑎𝑙 (0, 𝜎2,</p><p>então, os parâmetros estimados também serão.</p><p>Portanto, ao respeitar a hipótese da normalidade, Gujarati e Porter (2011) afirma</p><p>que é possível fazer a inferência estatística pelos testes t, F e 𝜒2(chi-quadrado).</p><p>Para tal, temos que o teste t para a regressão múltipla que observamos, pode ser</p><p>calculado através do confronto entre o t tabelado e o t calculado através de:</p><p>𝑡 =</p><p>�̂�1 − 𝛽1</p><p>𝑒𝑝(�̂�1)</p><p>𝑡 =</p><p>�̂�2 − 𝛽2</p><p>𝑒𝑝(�̂�2)</p><p>𝑡 =</p><p>�̂�3 − 𝛽3</p><p>𝑒𝑝(�̂�3)</p><p>O procedimento é o mesmo que realizamos no início da unidade. O �̂�</p><p>2</p><p>é</p><p>coeficiente estimado (obtido através das fórmulas ou do software), o 𝛽</p><p>2</p><p>é o valor que</p><p>estamos testando na hipótese nula (a maioria das vezes será zero, já que estamos</p><p>testando se o parâmetro é igual ou diferente de zero). Depois de calcular o t, procura-se</p><p>os t críticos na tabela t de student e se coloca na distribuição normal (nas duas caudas</p><p>para o bicaudal e em uma das causas para o monocaudal). Se o t tabelado estiver dentro</p><p>do intervalo do t crítico, na área de aceitação (não rejeição), não se rejeita a hipótese</p><p>nula. Se ela estiver dentro ou fora da área de aceitação, rejeita-se a hipótese.</p><p>No entanto, assim como no teste de hipóteses no segundo tópico desta unidade,</p><p>se tivermos o valor p calculado pelo software, podemos utilizá-lo para inferir sobre os</p><p>parâmetros. Lembre-se que o valor p é o menor nível de significância no qual a hipótese</p><p>nula pode ser rejeitada, assim, podemos utilizá-lo para realizar o teste de cada parâmetro</p><p>(valor p do teste t) ou para os parâmetros em conjunto (valor p do teste F).</p><p>4.5 Exemplo de interpretação e inferência de saída de software</p><p>Voltemos ao exemplo da saída do software Gretl do primeiro tópico:</p><p>Figura 5: Regressão múltipla, saída do software Gretl</p><p>Fonte: saída do software Gretl.</p><p>Esses resultados correspondem ao seguinte modelo:</p><p>Mort =β0 +β1INCC +β2POV +β3ALCC +β4TOBC</p><p>onde:</p><p>MORT: mortalidade por 100 mil habitantes</p><p>INCC: Renda per capita em dólares</p><p>POV: Famílias vivendo abaixo da linha da pobreza (mil famílias)</p><p>ALCC: Consumo per capita de álcool (por litro)</p><p>TOBC: Consumo per capita de cigarro (maços)</p><p>Inicialmente identificamos os sinais dos parâmetros, para analisar se há sentido</p><p>econômico ou intuitivo. Percebemos que as variáveis INCC, POV e TOBC estão</p><p>positivamente relacionadas com a mortalidade. Ou seja, se aumentarmos esses índices,</p><p>a mortalidade aumenta. Os sinais de POV e TOBC fazem sentido intuitivamente, pois se</p><p>aumentarmos as famílias abaixo da linha da pobreza aumentamos a mortalidade e se o</p><p>uso de cigarros aumenta, a mortalidade também aumenta, o que é do conhecimento</p><p>geral. A renda per capita, no entanto, não teve um resultado esperado. O sinal revela</p><p>que se aumentarmos a renda, a mortalidade aumenta, o que é contra intuitivo. Isso</p><p>também acontece com o álcool, que está negativamente relacionado com a mortalidade.</p><p>Partimos então para a interpretação e inferência dos parâmetros (considere que</p><p>a hipótese nula é que o parâmetro é igual a zero e a alternativa diferente de zero).</p><p>Vimos que o coeficiente parcial da regressão do INCC é aproximadamente</p><p>0,0168, ou seja, mantido as outras variáveis explicativas constantes, um aumento de um</p><p>dólar de renda per capita está associado com um aumento, em média, de 0,0165 na</p><p>mortalidade por 100 mil habitantes. No entanto, pelo p-valor do teste t, o menor nível de</p><p>significância o qual podemos rejeitar a hipótese nula é de 18,06%. Como, na prática,</p><p>rejeitamos a hipótese com no máximo 10% de significância. Nesse caso não rejeitamos</p><p>a hipótese nula e, portanto, inferimos que o parâmetro não tem significância estatística</p><p>(há grande chance de ele ser igual a zero).</p><p>O coeficiente de POV é igual a 1227,76, ou seja, mantendo o resto constante, se</p><p>1000 famílias a mais ficarem abaixo da linha de pobreza, a mortalidade aumenta em</p><p>1127,76 por cem mil habitantes. A partir do p valor (0,08) do teste t, podemos rejeitar a</p><p>hipótese nula com 10% de significância, tendo então que o parâmetro é estatisticamente</p><p>significativo.</p><p>No que se refere ao Consumo de álcool (ALCC), temos que, um aumento de um</p><p>litro no consumo de álcool, reduz a mortalidade em média em 53 pessoas por 100 mil</p><p>habitantes. Apesar de ser contra intuitivo, pelo valor p, percebemos que o coeficiente é</p><p>estatisticamente significativo ao nível de 10% de significância.</p><p>Além disso, se aumentarmos o consumo per capita de cigarros em um maço, há</p><p>um aumento, em média, de aproximadamente 2,11 pessoas falecidas a cada 100 mil</p><p>habitantes. Nesse caso podemos rejeitar a hipótese nula com 5% de significância (valor</p><p>p = 0,0188) e definir que o parâmetro é estatisticamente significativo.</p><p>Quando analisamos os coeficientes em conjunto (teste F), temos que, em conjunto</p><p>eles são estatisticamente significativo ao nível de confiança de 5% (valor p do teste F:</p><p>0,0322).</p><p>Por último, pelo resultado do R2, temos que 20,10% das variações da mortalidade</p><p>podem ser explicadas pelas variações das variáveis explicativas.</p><p>5 VARIÁVEIS BINÁRIAS</p><p>Imagem do Tópico: 1183255090</p><p>Quando analisamos uma regressão, percebemos que a variável dependente</p><p>usualmente não depende somente de fatores quantitativos ou proporcionais, como</p><p>preço, litros, custos, etc., mas também de fatores que tem natureza essencialmente</p><p>qualitativa, como sexo, religião, raça, região, etc.</p><p>Como essas variáveis indicam algum atributo, ou qualidade (embora em alguns</p><p>casos o nome qualidade não seja adequado, por não definirmos melhor ou pior), Gujarati</p><p>e Porter (2011) explica que uma maneira de “quantificar” essas variáveis é formular</p><p>variáveis alternativas que assumam os valores 1 ou 0, em que 1 identifica a presença do</p><p>atributo (ou qualidade) e 0 a ausência desse atributo. Essas variáveis são conhecidas</p><p>como variáveis binárias ou dummies. Os modelos que estudam esses regressores</p><p>qualitativos são conhecidos como Modelos de análise de variância, ou ANOVA.</p><p>Gujarati (2004) exemplifica o uso de variáveis binárias através do exemplo de um</p><p>modelo que se baseia em dados referentes ao salário médio dos professores das escolas</p><p>públicas de 50 estados e do distrito da Columbia para o ano de 1986.</p><p>São 51 áreas que estão divididas em três regiões geográficas:</p><p>● Nordeste e Centro-Norte – 21 Estados;</p><p>● Sul – 17 estados; e,</p><p>● Oeste – 13 estados.</p><p>A tabela abaixo apresenta os dados:</p><p>Tabela 1: Salário médio dos professores da escola pública, por estado, 1986</p><p>Fonte: Tradução de Gujarati (2004).</p><p>Se observarmos as médias aritmética simples dos salários nestas regiões temos</p><p>que:</p><p>1. Nordeste e Centro-Norte – Salário médio: US$ 24.424,14;</p><p>2. Sul – Salário médio: US$ 22.894; e,</p><p>3. Oeste – Salário médio: US$ 26.158,62.</p><p>É fácil perceber que esses números são diferentes e, que a região oeste tem um</p><p>salário médio maior do que as outras regiões. No entanto, somente pela análise da média</p><p>aritmética não conseguimos identificar se eles são diferentes sob o aspecto estocástico.</p><p>Para verificar, Gujarati (2004) considera o seguinte modelo:</p><p>𝑌𝑖 = 𝛽1 + 𝛽2𝐷2𝑖 + 𝛽3𝐷3𝑖 + 𝑢𝑖</p><p>Onde:</p><p>𝑌𝑖 - salário médio dos professores das escolas públicas;</p><p>D2i = 1 para os estados das regiões nordeste e centro-norte e 0 para as demais</p><p>regiões</p><p>D3i = 1 para estados da região sul e 0 para as demais regiões.</p><p>Observe que o modelo se assemelha aos modelos de regressão múltipla vistos até</p><p>aqui, exceto que, em lugar de regressores quantitativos, só há regressores qualitativos</p><p>ou binários.</p><p>Supondo que o termo de erro satisfaça as premissas do método dos MQO de praxe,</p><p>tomando as esperanças de ambos os lados, obtemos:</p><p>● Salário médio dos professores do nordeste e Centro-Norte:</p><p>𝐸(𝐷2𝑖 = 1, 𝐷3𝑖 = 0) = 𝛽1 + 𝐵2</p><p>● Salário médio do Sul:</p><p>𝐸(𝐷2𝑖 = 0, 𝐷3𝑖 = 1) = 𝛽1 + 𝐵3</p><p>● Salário médio do Oeste:</p><p>𝐸(𝐷2𝑖 = 0, 𝐷3𝑖 = 0) = 𝛽1</p><p>Assim, o salário médio dos professores da região Oeste é dado pelo intercepto</p><p>𝛽</p><p>1</p><p>, os coeficientes angulares 𝛽</p><p>2</p><p>e 𝛽</p><p>3</p><p>nos mostram qual a diferença dos salários dos</p><p>professores das regiões nordeste e centro-norte e da região sul, respectivamente, em</p><p>relação aos professores do oeste. No entanto, temos que identificar se essas diferenças</p><p>são estatisticamente significativas (GUJARATI, 2004).</p><p>Para os dados apresentados, a regressão estimada foi:</p><p>Figura 6: Saída do modelo ANOVA</p><p>Fonte: saída do Gretl com os dados de Gujarati (2004)</p><p>Pelo modelo, esses resultados mostram que o salário médio dos professores do</p><p>Oeste é de cerca de US$ 26.158,6. Enquanto isso, o salário médio dos professores do</p><p>nordeste e centro-norte está abaixo desse valor em cerca de US$ 1.734,47; e, o salário</p><p>médio dos professores do sul são menores em cerca de US$ 3.264,32.</p><p>Ou, de outra forma,</p><p>● o Salário médio dos professores do nordeste e Centro-Norte:</p><p>𝛽</p><p>1</p><p>+ 𝛽2 = 𝑈𝑆$ 24.424,127</p><p>● Salário médio do Sul:</p><p>𝛽</p><p>1</p><p>+ 𝛽3 = 𝑈𝑆$ 22.894,28</p><p>● Salário médio do Oeste:</p><p>𝛽</p><p>1</p><p>= 𝑈𝑆$ 26.158,62</p><p>Como podemos verificar, o �̂�</p><p>2</p><p>não é estatisticamente significativo (valor p de 0,23).</p><p>Como vimos, supondo que a hipótese nula seja de que 𝛽</p><p>2</p><p>= 0, não podemos rejeitá-la.</p><p>Assim, a conclusão exposta por Gujarati (2004) é a de que os salários médios dos</p><p>professores das escolas públicas do oeste e das regiões nordeste e centro-norte são</p><p>muito similares, no entanto, os salários dos professores do sul são estatisticamente mais</p><p>baixos em cerca de US$ 3.264,32.</p><p>No entanto, Gujarati (2004) expõe que precisamos ter cautela no uso das variáveis</p><p>binárias. Os autores listam os seguintes pontos:</p><p>1. Segundo eles, o primeiro ponto é que não devemos usar três binárias para</p><p>distinguir as três regiões a serem estudadas. Se o fizermos, não há como calcular</p><p>a regressão, pois, ao incluir uma variável binária para cada categoria ou grupo e</p><p>também um intercepto nos deparamos com o caso de colinearidade perfeita,</p><p>isto é, uma relação linear exata entre as variáveis. Então, se existem m</p><p>categorias, só podemos introduzir (m-1) variáveis binárias.</p><p>2. Além disso, a categoria para a qual não é atribuída uma binária é conhecida como</p><p>categoria base, de referência, de controle, de comparação ou omitida. Assim,</p><p>todas as comparações serão feitas em relação a ela.</p><p>3. O valor do intercepto representa o valor médio da categoria de referência.</p><p>4. Os coeficientes das variáveis binárias são conhecidos como coeficientes</p><p>diferenciais de intercepto porque mostram de quanto o valor do intercepto difere</p><p>do coeficiente da categoria. Sendo assim, �̂�</p><p>2</p><p>= −1.734,47 nos diz que o salário</p><p>da região nordeste e centro-norte é cerca de US$ 1.734,47 inferior ao da região</p><p>oeste, categoria de referência.</p><p>5. A escolha da categoria de referência depende apenas do pesquisador.</p><p>6. Podemos escolher binárias para todas as categorias se excluirmos o intercepto.</p><p>Segundo Gujarati e Porter (2011), de modo geral, para a maioria dos estudos</p><p>econômicos um modelo de regressão contém algumas variáveis explanatórias</p><p>quantitativas e outras qualitativas. Os modelos de regressão onde se misturam as</p><p>variáveis quantitativas e qualitativas são chamados de modelos de análise de covariância</p><p>(ANCOVA).</p><p>Eles são uma extensão dos modelos ANOVA no sentido de que fornecem um</p><p>método de controle estatístico dos efeitos de regressores quantitativos, chamados</p><p>covariáveis ou variáveis de controle, em um modelo que inclui tanto regressores</p><p>quantitativos quanto qualitativos.</p><p>Se observarmos o mesmo exemplo anterior, no entanto, adicionando a variável</p><p>gastos com educação público, teremos:</p><p>𝑌𝑖 = 𝛽1 + 𝛽2𝐷2𝑖 + 𝛽3𝐷3𝑖 + 𝛽4𝑋𝑖 + 𝑢𝑖</p><p>Onde: 𝑋𝑖 - gastos com o ensino público em US$ por aluno.</p><p>Os resultados são apresentados pela figura a seguir:</p><p>Figura 7: Saída do modelo ANCOVA</p><p>Fonte: saída do Gretl com os dados de Gujarati. (2004).</p><p>Com tudo o mais mantido constante, quando os gastos públicos aumentam um</p><p>dólar, os salários dos professores aumentam, em média, US$ 3,29. Levando em conta</p><p>os gastos com o ensino, verificamos agora que o coeficiente de intercepto diferencial é</p><p>significativo para as regiões nordeste e centro-norte, mas não para o sul. Esse resultado</p><p>é natural já que no primeiro modelo não foram consideradas as diferenças da covariável</p><p>gastos com educação.</p><p>CONSIDERAÇÕES FINAIS</p><p>Nessa unidade aproximamos os modelos econométricos de aplicações mais</p><p>reais. Para isso, a unidade começa mostrando alguns conceitos básicos dos modelos</p><p>econométricos e apresentando algo que o pesquisador que utiliza o método</p><p>econométrico utilizará diversas vezes, a saída de um modelo “rodado” em um programa</p><p>econométrico.</p><p>Esses conceitos são essenciais para a econometria e nos permitem avançar nos</p><p>modelos mais elaborados. No entanto, para isso, apresentamos no segundo tópico a o</p><p>método para se fazer inferências estatísticas, ou seja, para identificar se os resultados</p><p>são verdadeiros ou significativos, em termos estatísticos.</p><p>A partir de então estudamos 4 diferentes modelos. O primeiro se refere a uma</p><p>forma funcional da regressão que permite analisar elasticidade. O quarto tópico</p><p>apresenta o segundo modelo e talvez o mais importante da unidade, o modelo de</p><p>regressão múltipla, no qual podemos analisar como a variável dependente pode ser</p><p>explicada por mais de um regressor.</p><p>No último tópico observamos os dois modelos com variáveis binárias. O modelo</p><p>ANOVA utiliza apenas modelos com variáveis qualitativas, onde se observam como os</p><p>atributos influenciam no intercepto. O outro modelo com variáveis binárias é o modelo</p><p>ANCOVA, que utiliza variáveis qualitativas e quantitativas em sua análise.</p><p>Na próxima unidade verificaremos o que acontece quando relaxamos algumas</p><p>das premissas do modelo de regressão linear.</p><p>LEITURA COMPLEMENTAR</p><p>Softwares econométricos</p><p>Em suas pesquisas, trabalhos e papers, os economistas, ou qualquer interessado</p><p>em calcular relações econômicas, não utilizará as fórmulas e os cálculos manuais para</p><p>encontrar os parâmetros, os valores dos testes de inferências, ou então para apresentar</p><p>os resultados. Para isso foram criados diferentes softwares que permitem a análise</p><p>rápida e completa dos modelos econométricos.</p><p>Durante muito tempo, os principais programas utilizados foram o STATA e o</p><p>EVIEWS. O primeiro é o favorito para os econometristas que se habituaram ao seu</p><p>layout. O Stata tem a caraterística de ser um pouco mais difícil de utilizar por funcionar</p><p>a partir de comandos de programação próprios. No entanto, a partir do momento que o</p><p>usuário conhece esses comandos ou aprende a utilizar a funcionalidade de ajuda, seu</p><p>uso ocorre de maneira mais fluida.</p><p>O Eviews, por sua vez, apesar de ser considerado menos elaborado e completo</p><p>pelos econometristas, tem a funcionalidade mais simples e, a partir do menu superior,</p><p>quase todas as funcionalidades podem ser utilizadas de maneira simples.</p><p>Dois softwares muito comuns para a didática com iniciantes e alunos de</p><p>econometria são o Gretl e o próprio Excel. O primeiro tem a grande vantagem de ser um</p><p>software livre e, assim, de fácil acesso para iniciantes. Além disso, assim como o Eviews,</p><p>os passos são mais acessíveis e intuitivos. O Excel também é bastante simples de se</p><p>utilizar, no entanto, tem menos funcionalidades e capacidade de análise.</p><p>Ainda, está cada vez mais comum o uso de linguagens de programação e</p><p>estatísticas para analisar relações econométricas. É o exemplo do uso da linguagem R</p><p>e da linguagem Python. Ambas são linguagens de programação que permitem, dentre</p><p>outras coisas, a análise e estudo científico de dados, simulações e trabalhos de</p><p>inteligência artificial e machine learning.</p><p>Fonte: elaboração própria</p><p>LIVRO</p><p>• Título: Econometria na Prática</p><p>• Autor: Gisele Ferreira Tiryaki</p><p>• Editora: Alta Books</p><p>• Sinopse: A utilização de métodos econométricos têm se expandido para várias áreas</p><p>do conhecimento, indicando o reconhecimento de sua importância para uma análise</p><p>empírica robusta, em que o pesquisador pode inferir sugestões de políticas públicas ou</p><p>estratégias individuais com maior grau de confiabilidade. A evolução da econometria veio</p><p>acompanhada de uma crescente sofisticação matemática e estatística dos modelos</p><p>estimados, tornando desafiante a identificação e apresentação dos conceitos</p><p>econométricos, particularmente no ensino da graduação de economia e para outras</p><p>áreas do conhecimento que fazem uso do instrumental econométrico.</p><p>FILME/VÍDEO</p><p>• Título: O QUE É REGRESSÃO?</p><p>• Ano: 2018</p><p>• Sinopse: Você está tentando por que as vendas de um produto subiram. Vários</p><p>elementos podem ter tido um impacto nas vendas. Como entender quais variáveis são</p><p>importantes? O professora Carlos Eduardo, o Dudu, do Por Quê?, explica o que é</p><p>regressão. Vem ver!</p><p>• Link: https://www.youtube.com/watch?v=9BjLLEpxKfI</p><p>WEB</p><p>• Apresentação do link: O link leva ao site do Software Gretl. Esse software, como já</p><p>apresentado, é livre e permite download. A visita ao site vai permitir que o aluno se</p><p>familiarize com as funcionalidades e a ideia central do programa.</p><p>• Link do site: http://gretl.sourceforge.net/pt.html</p><p>REFERÊNCIAS</p><p>GUJARATI, Damodar N. Basic Econometrics. New York: The McGraw-Hill</p><p>Companies, 2004</p><p>GUJARATI, Damodar N., PORTER, Dawn C. Econometria Básica. São Paulo: AMGH</p><p>Editora Ltda., 5 ed., 2011</p><p>WOOLDRIDGE, Jeffrey M. Introdução à Econometria: uma abordagem moderna. São</p><p>Paulo: Cengage Learning, 2016</p><p>UNIDADE III</p><p>ECONOMETRIA APLICADA</p><p>Professor Doutor Vinicius Borba da Costa</p><p>Plano de Estudo:</p><p>• Heterocedasticidade;</p><p>• Autocorrelação;</p><p>• Especificação;</p><p>• Diagnóstico da modelagem econométrica.</p><p>Objetivos de Aprendizagem:</p><p>• Aprender a diagnosticar e resolver os problemas de heterocedasticidade e</p><p>autocorrelação;</p><p>• Entender a importância da especificação correta do modelo;</p><p>• Conhecer as ferramentas para análise da especificação do modelo.</p><p>INTRODUÇÃO</p><p>Os modelos de regressão são ferramentas muito importantes e úteis na análise da</p><p>economia na prática. No entanto, quando aplicamos esses modelos, não encontramos</p><p>todas as características necessárias para que, segundo a teoria econométrica, tenhamos</p><p>os melhores estimadores, resultados e confiabilidade estatística.</p><p>Diversas vezes, após uma análise inicial, encontramos dados que não atendem</p><p>as premissas do modelo de regressão linear clássica. Por isso, precisamos entender</p><p>primeiramente o que essa situação acarreta na nossa análise e como poderíamos</p><p>resolvê-la.</p><p>Nessa unidade falaremos um pouco sobre isso. Inicialmente falaremos um pouco</p><p>sobre a</p><p>heterocedasticidade, um problema relacionado às diferentes variâncias dos</p><p>termo de erro. O segundo problema observado é a autocorrelação, uma situação que fere</p><p>a premissa de ausência de correlação entre os integrantes da regressão. Passamos</p><p>então, no terceiro tópico a entender a importância de se especificar bem um modelo e as</p><p>consequências de um modelo incorretamente especificado. E, por último, finalizamos o</p><p>capítulo com os diagnósticos da especificação e mostrando instrumentos para esse</p><p>diagnóstico.</p><p>1 HETEROCEDASTICIDADE</p><p>Imagem do Tópico: 1975031147</p><p>O modelo clássico linear tem algumas hipóteses para que ele produza os melhores</p><p>resultados, ou os estimadores BLUE. Dentre essas hipóteses, que observamos na</p><p>unidade I deste material, está a de que os termos de erro tenham a mesma variância, ou</p><p>seja, sejam homocidásticos.</p><p>Os termos de erro com a mesma variância, ou homocedásticos, podem serem</p><p>representados na figura abaixo:</p><p>Figura 1: Termo de erro homocedástico</p><p>Fonte: Gujarati e Porter (201</p><p>A figura mostra uma regressão linear da relação entre poupança e renda, além de</p><p>um terceiro eixo com a densidade de probabilidade. Perceba que a distribuição de</p><p>probabilidade dos dados é igual ao longo da curva, o que nos mostra que a variância da</p><p>diferença entre o a observação e a reta estimada, ou seja, o erro aleatório, é</p><p>homocedástico.</p><p>A figura 2, por outro lado, mostra como essa mesma relação se apresenta quando</p><p>há heterocedasticidade:</p><p>Figura 2: Termo de erro heterocedástico</p><p>Fonte: Gujarati e Porter (2011).</p><p>Perceba que, agora, as distribuições de probabilidade (representadas pelos sinos),</p><p>são diferentes. Alguns são mais achatados, mostrando que as observações são mais</p><p>espalhadas em uma área maior em torno da reta de regressão, enquanto a primeira é</p><p>menos achatada, mostrando que a maioria das observações se encontram muito próxima</p><p>a reta de regressão.</p><p>Segundo Gujarati e Porter (2011), diversas podem ser as causas da presença de</p><p>heterocedasticidade. Podem estar relacionadas às técnicas de coleta, ao comportamento</p><p>dos agentes em cada modelo econômico, dados discrepantes, erros de digitação, dentre</p><p>outras coisas.</p><p>Faz-se importante, no entanto, observar o que ocorre com o método dos Mínimos</p><p>Quadrados Ordinários (MQO), se introduzirmos a heterocedasticidade. Voltemos a</p><p>estimação de duas variáveis:</p><p>𝑌𝑖 = 𝛽1 + 𝛽2𝑋𝑖 + 𝑢𝑖</p><p>O estimador habitual de mínimos quadrados é:</p><p>�̂�</p><p>2</p><p>=</p><p>∑ 𝑥𝑖𝑦𝑖</p><p>∑ 𝑥𝑖</p><p>2</p><p>Quando observamos esse modelo com heterocedasticidade, ou seja, se</p><p>introduzirmos 𝐸(𝑢𝑖</p><p>2) = 𝜎𝑖</p><p>2, o estimador de MQO, não muda, ou seja, ainda podemos usar</p><p>a equação acima para estimar o parâmetro. No entanto, segundo Gujarati et. al (2011), a</p><p>variância se altera, sendo representada pela equação a seguir:</p><p>𝑣𝑎𝑟(�̂�2) =</p><p>𝜎2</p><p>∑ 𝑥𝑖</p><p>2</p><p>Gujarati et. al (2011) explicam ainda que, apesar de com heterocedasticidade o</p><p>estimador continuar linear e não tendencioso, ele não é eficiente e nem o melhor</p><p>estimados, ou seja, não é mais BLUE. Para que essas características sejam atingidas,</p><p>há outro método que pode ser utilizado, apresentado no subtópico que segue.</p><p>1.1 Método dos Mínimos Quadrados Generalizados.</p><p>O método dos MQG leva em conta a variabilidade explícita e gera estimadores</p><p>BLUE.</p><p>Voltando ao exemplo de duas variáveis:</p><p>𝑌𝑖 = 𝛽1 + 𝛽2𝑋𝑖 + 𝑢𝑖</p><p>Se considerarmos que 𝑋0𝑖 = 1, 𝑝𝑎𝑟𝑎 𝑐𝑎𝑑𝑎 𝑖, então temos que:</p><p>𝑌𝑖 = 𝛽1𝑋0𝑖 + 𝛽2𝑋𝑖 + 𝑢𝑖</p><p>Considerando, como em Gujarati et. al (2011), que as variâncias heterocedásticas</p><p>𝜎𝑖</p><p>2 sejam conhecidas, temos:</p><p>𝑌𝑖</p><p>𝜎𝑖</p><p>= �̂�1 (</p><p>𝑋0𝑖</p><p>𝜎𝑖</p><p>) + �̂�2 (</p><p>𝑋𝑖</p><p>𝜎𝑖</p><p>) + (</p><p>û𝑖</p><p>𝜎𝑖</p><p>)</p><p>Ou, com variáveis transformadas:</p><p>𝑌𝑖</p><p>∗ = �̂�1</p><p>∗𝑋0𝑖</p><p>∗ + �̂�2</p><p>∗𝑋𝑖</p><p>∗ + �̂�𝑖</p><p>∗</p><p>Com essa transformação, Gujarati e Porter (2011) explicam que a variância dos</p><p>erros é constante e igual a 1, ou seja, é homocedástica. Mantendo as outras premissas</p><p>verdadeiras, temos novamente um estimador BLUE. Os mínimos quadrados</p><p>generalizados são, portanto, os MQO estimados com variáveis transformadas de maneira</p><p>a satisfazer a premissa de homocedasticidade.</p><p>A mecânica para estimação do MQG é um pouco diferente. Gujarati e Porter</p><p>(2011) apresenta as seguintes equações para estimá-lo:</p><p>�̂�</p><p>2</p><p>∗</p><p>=</p><p>(∑ 𝑤𝑖)(∑ 𝑤𝑖𝑋𝑖𝑌𝑖) − (∑ 𝑤𝑖𝑋𝑖)(∑ 𝑤𝑖𝑌𝑖)</p><p>(∑ 𝑤𝑖)(∑ 𝑤𝑖𝑋𝑖</p><p>2) − (∑ 𝑤𝑖𝑋𝑖)2</p><p>e</p><p>𝑣𝑎𝑟(�̂�2</p><p>∗) =</p><p>∑ 𝑤𝑖</p><p>(∑ 𝑤𝑖)(∑ 𝑤𝑖𝑋𝑖</p><p>2) − (∑ 𝑤𝑖𝑋𝑖)2</p><p>Em que: 𝑤𝑖 =</p><p>1</p><p>𝜎𝑖</p><p>2</p><p>` 1.2 Detecção da Heterocedasticidade`</p><p>Para detectarmos e concluirmos que há heterocedasticidade em um conjunto de</p><p>observações temos uma dificuldade. Só podemos conhecer a 𝜎𝑖</p><p>2 se tivermos toda a</p><p>população Y correspondentes aos X selecionados. Assim, Gujarati e Porter (2011)</p><p>destacam que na maioria dos casos de pesquisas econométricas, a heterocedasticidade</p><p>é um caso de intuição, de palpites baseados nas informações disponíveis, em</p><p>experiências obtidas pelo pesquisador ou mesmo por pura especulação.</p><p>Podemos, no entanto, realizar alguns testes formais e informais para tentar</p><p>detectar o problema.</p><p>Os métodos informais são:</p><p>● Natureza do problema: por vezes a natureza do problema já sugere que pode</p><p>haver heterocedasticidade.</p><p>● Método gráfico: Nesse método estima se o MQO supondo homocedasticidade e</p><p>depois se examina visualmente os padrões gráficos dos resíduos de �̂�𝑖</p><p>2.</p><p>A heterocedasticidade também pode ser testadas através dos métodos formais,</p><p>como o Teste de Goldfeld-Quandt e o Teste de White1.</p><p>O teste de Goldfeld-Quandt é um método aplicável quando se pressupõe que a</p><p>variância heterocedástica, 𝜎𝑖</p><p>2, se relaciona de modo positivo a um das variáveis</p><p>independentes do modelo de regressão (Gujarati e Porter, 2011):</p><p>𝑌𝑖 = 𝛽1 + 𝛽2𝑋𝑖 + 𝑢𝑖</p><p>Suponha que 𝜎𝑖</p><p>2 se relaciona de maneira positiva com Xi da forma que segue:</p><p>𝜎𝑖</p><p>2 = 𝑋𝑖𝜎</p><p>2</p><p>Para aplicar o teste, seus idealizadores sugerem as seguintes etapas:</p><p>1. Ordene e classifique as observações de acordo com os valores de 𝑋𝑖</p><p>(ordem crescente);</p><p>2. Omita 𝑐 observações centrais e divida as observações restante em dois</p><p>grupos;</p><p>3. Ajuste a regressão por MQO e obtenha as SQR.</p><p>4. Calcule a razão:</p><p>𝜆 =</p><p>𝑆𝑄𝑅2</p><p>𝐺𝐿</p><p>𝑆𝑄𝑅1</p><p>𝐺𝐿</p><p>A regra de decisão é: Se 𝐹(𝜆) calculado for maior que o tabelado – rejeita-se a</p><p>hipótese nula de Homocedasticidade, ou seja, os resíduos são heterocedásticos.</p><p>Ao contrário do teste exposto acima, o teste de White não exige reordenamento</p><p>das observações sendo, assim, de fácil implementação. Para implementá-lo, considere</p><p>o seguinte modelo:</p><p>𝑌𝑖 = 𝛽1 + 𝛽2𝑋2𝑖 + 𝛽3𝑋3𝑖 + 𝑢𝑖</p><p>A partir dele estime a regressão e obtenha os resíduos , �̂�𝑖. Calcule então a</p><p>seguinte regressão auxiliar:</p><p>�̂�𝑖</p><p>2 = 𝛼1 + 𝛼2𝑋2𝑖 + 𝛼3𝑋3𝑖 + 𝛼4𝑋2𝑖</p><p>2 + 𝛼5𝑋3𝑖</p><p>2 + 𝛼6𝑋2𝑖𝑋3𝑖 + 𝑣𝑖</p><p>Gujarati e Porter (2011) explicam que sob a hipótese nula de que não há</p><p>heterocedasticidade, pode-se demonstrar que o tamanho da amostra 𝑛 quando</p><p>1 Gujarati e Porter (2011) demonstram outros testes formais que podem ser utilizados. Para eles, veja a</p><p>seção 11.5.</p><p>multiplicado por 𝑅2 (coeficiente de determinação) segue assintoticamente a distribuição</p><p>de qui-quadrado com graus de liberdade iguais ao número de regressores (quando</p><p>exclui-se a constante) da regressão auxiliar. Se o valor obtido por essa multiplicação</p><p>exceder o valor do qui-quadrado tabelado (crítico), conclui-se que há</p><p>heterocedasticidade.</p><p>Quando detectada a heterocedasticidade, Gujarati e Porter (2011) apresentam</p><p>duas maneiras de corrigi-la. a primeira delas se refere à situação onde 𝜎𝑖</p><p>2 é conhecida.</p><p>Nesse caso podemos utilizar o método dos mínimos quadrados generalizados (MQG) e</p><p>ter estimadores BLUE.</p><p>No entanto, quando 𝜎𝑖</p><p>2 é desconhecido, se a amostra for grande é possível aplicar</p><p>os testes de</p><p>erro-padrão consistente para heterocedasticidade de White aos estimadores</p><p>de MQO e conduzir a inferência sob esses erros-padrão. Caso contrário, é possível dar</p><p>palpites baseados em informações quanto à heterocedasticidade, com base nos resíduos</p><p>de MQO, e transformar os originais de tal forma que a heterocedasticidade seja eliminada</p><p>(Gujarati e Porter, 2011).</p><p>2 AUTOCORRELAÇÃO</p><p>Na análise empírica vimos que há três tipos de dados disponíveis, as séries de</p><p>tempo, os cortes transversais e os dados combinados (ou dados em painel), que são</p><p>combinações de séries temporais e corte transversal.</p><p>Gujarati e Porter (2011) explicam que em estudos de corte transversal os dados</p><p>são frequentemente coletados através de amostras aleatórias de unidades, tais como</p><p>domicílios ou empresas. Assim, não há razões a priori para considerar que o termo de</p><p>erro que pertence a um grupo (id) seja correlacionado com o termo de erro de outro. Se</p><p>essa correlação for encontrada é chamada de auto-correlação espacial.</p><p>Quando lidamos com séries temporais, as observações seguem uma ordem</p><p>natural ao longo do tempo dessa série. Por isso, essas observações tendem a apresentar</p><p>intercorrelações, principalmente se o período se caracteriza por intervalos curtos (dia,</p><p>semana). Nesses casos a premissa de ausência de autocorrelação ou correlação serial</p><p>nos termos de erro exigida no modelo de regressão linear clássico não é respeitada.</p><p>(Gujarati e Porter 2011)</p><p>Assim como no caso da heterocedasticidade, os estimadores de MQO embora</p><p>lineares, não tendenciosos e assintoticamente distribuídos de modo normal, não mais</p><p>apresentam variância mínima, ou seja, deixam de ser eficientes. Em consequência, os</p><p>testes t, F e 𝜒2 podem não ser válidos. (Gujarati e Porter 2011)</p><p>2.1 A Natureza da Autocorrelação</p><p>Kendal e Buckland (1971 apud Gujarati e Porter, 2011, p. 416) definem a</p><p>correlação como “correlação entre integrantes de séries de observações ordenadas no</p><p>tempo [séries temporais] ou no espaço [cortes transversais]”. Ou seja, o problema ocorre</p><p>quando o erro de um período tem correlação com o outro, de forma que:</p><p>𝐸(𝑢𝑖𝑢𝑗) ≠ 0 𝑖 ≠ 𝑗</p><p>Os gráficos abaixo mostram alguns padrões plausíveis de presença e ausência de</p><p>autocorrelação.</p><p>Figura 3: Padrões de presença ou não de autocorrelação serial</p><p>Fonte: Baseado em Gujarati e Porter (2011).</p><p>O primeiro gráfico mostra um padrão cíclico, o segundo e o terceiro tendências</p><p>lineares (ascendente e descendente), o quarto indica a presença de tendência linear e</p><p>quadrática nos termos de erro e o último gráfico indica ausência de correlação.</p><p>Gujarati e Porter (2011) apresentam algumas explicações para a presença de</p><p>autocorrelação serial:</p><p>i. Inércia: Quando se tem início uma recuperação econômica, após uma</p><p>recessão ter atingido o seu fundo (pior estágio) a maioria das séries começam</p><p>a se mover em sentido ascendente, de recuperação. As séries então evoluem</p><p>de tal forma que o valor subsequente é maior do que o anterior, com impulso</p><p>que continua que predomina até que uma força contrária o impeça. Ou seja,</p><p>em séries temporais, há uma interdependência entre as observações, cada</p><p>uma segue o padrão que está em voga no momento, uma inércia.</p><p>ii. Viés de especificação: o caso das variáveis excluídas. O pesquisador pode,</p><p>para atender suas hipóteses, alterar seu modelo de forma que encontre os</p><p>resultados desejados. Por exemplo, ele pode fazer um gráfico dos resíduos</p><p>estimados e observar se eles apresentam algum padrão. Se isto acontecer,</p><p>indica que eles estão representando alguma variável que deveria ter sido</p><p>incluída no modelo, mas não foi.</p><p>iii. Defasagens: Em uma regressão de despesas de consumo sobre a renda na</p><p>qual os dados são de séries temporais, as despesas usualmente dependem</p><p>das despesas do período anterior. Isto é:</p><p>𝐶𝑜𝑛𝑠𝑢𝑚𝑜𝑡 = 𝛽1 + 𝛽2𝑟𝑒𝑛𝑑𝑎𝑡 + 𝛽3𝑐𝑜𝑛𝑠𝑢𝑚𝑜𝑡−1 + 𝑢𝑖</p><p>De fato, os consumidores não costumam alterar seu padrão de consumo de</p><p>um período para o outro. Isso é estabelecido por seus hábitos e instituições.</p><p>No entanto, se não utilizarmos o termo defasado (t-1), ele estará incluído no</p><p>termo de erro, que refletirá esse padrão sistêmico.</p><p>iv. Manipulação dos dados: Muitas vezes, na análise econômica, os dados são</p><p>manipulados para serem colocados no modelo. Um exemplo é quando</p><p>calculamos um modelo com séries mensais, porém uma variável só tem dados</p><p>trimestrais disponíveis. Assim, uma opção é dividir essa série em três. A</p><p>desvantagem é que dentro desse trimestre pode ter havido flutuações que essa</p><p>manipulação não captou. Portanto, a representação gráfica dos dados</p><p>trimestrais é muito menos irregular que a dos dados mensais. Assim, essa</p><p>regularidade pode gerar padrões sistemáticos nos termos de erro, incorrendo</p><p>em auto-correlação.</p><p>v. Ausência de estacionariedade: Uma série é estacionária se suas</p><p>características (como média, variância e covariância) não variam ao longo do</p><p>tempo. Então, se as variáveis dependentes e independentes forem não</p><p>estacionárias o termo de erro também poderá ser. Assim, neste caso, o termo</p><p>de erro será autocorrelacionado.</p><p>2.2 Teste e Correção da Autocorrelação</p><p>Assim como no caso da heterocedasticidade, temos métodos formais e informais</p><p>para detecção da autocorrelação serial.</p><p>Gujarati e Porter (2011) mostram que, pelo método gráfico, podemos ter uma ideia</p><p>sobre uma provável presença de autocorrelação. Há várias formas de examiná-los, uma</p><p>delas é plotar (inserir em um gráfico) contra o tempo. Além disso, podemos plotar os</p><p>resíduos estimados padronizados que são, simplesmente, os resíduos divididos pelo</p><p>erro-padrão da regressão. Uma terceira forma de analisar o gráfico é colocar o valor do</p><p>resíduo estimado no período t contra seu valor no período t-1, como apresentado abaixo:</p><p>Figura 4: Resíduos x resíduos defesados</p><p>Fonte: Gujarati e Porter (2011)</p><p>Repare que a maioria dos resíduos se encontram em dois quadrantes, o II e o IV.</p><p>Isso é um forte sinal de correlação positiva dos resíduos.</p><p>Os exames formais podem ser feitos através de diferentes testes. Apresentamos</p><p>aqui o teste de Durbin-Watson, o mais conhecido teste de autocorrelação, e o teste</p><p>Breusch-Godfrey.</p><p>O teste de Durbin-Watson é extensivamente utilizado. No entanto, Gujarati e</p><p>Porter (2011) explicam que é necessário ficar atento às premissas do teste:</p><p>i. O modelo de regressão incluir o intercepto;</p><p>ii. As variáveis explanatórias são não estocásticas ou fixadas em amostras</p><p>repetidas;</p><p>iii. Os termos de erro são gerados pelo processo auto-regressivo de ordem</p><p>um. Portanto, não pode ser implementado para detectar esquemas auto-</p><p>regressivos de ordem maior;</p><p>iv. Pressupõe que o termo de erro seja normalmente distribuído;</p><p>v. O modelo de regressão não inclui os valores defasados da variável</p><p>dependente como uma das variáveis explanatórias;</p><p>vi. Não há falta de observação nos dados.</p><p>Para realizar o teste, calcula-se o d de Durbin-Watson através da fórmula abaixo:</p><p>𝑑 =</p><p>∑𝑡=𝑛</p><p>𝑡=2 (�̂�𝑡 − �̂�𝑡−1)2</p><p>∑𝑡=𝑛</p><p>𝑡=2 �̂�𝑡</p><p>2</p><p>ou seja,</p><p>𝑑 =</p><p>∑ �̂�𝑡</p><p>2 + ∑ �̂�𝑡−1</p><p>2 − 2 ∑ �̂�𝑡�̂�𝑡−1</p><p>∑ �̂�𝑡</p><p>2</p><p>Em que, segundo Gujarati e Porter (2011), o d está entre um limite de 0 e</p><p>4.</p><p>A partir do cálculo de d, utilizamos as áreas da figura abaixo para tomada de</p><p>decisão:</p><p>Figura 5: Estatística d de Durbin-Watson</p><p>Fonte: Baseado em Gujarati e Porter (2011).</p><p>Temos então que se d ficar em torno de 2 não há correlação serial. Quanto mais</p><p>próximo de 0, maior a evidência de correlação serial positiva e, quanto mais próximo de</p><p>4, maior a evidência de correlação serial negativa.</p><p>De forma mais precisa, podemos observar os limites inferiores e superiores em</p><p>uma tabela estatística de d de Durbin-Watson, que relacionada esses valores para</p><p>diferentes tamanhos de amostra (n) e números de variáveis</p><p>explicativas menos a</p><p>constante (k’).2</p><p>Gujarati e Porter (2011) destacam, no entanto, que o teste d se tornou tão utilizado</p><p>que seus usuários muitas vezes esquecem das premissas. Porém, se alguma delas for</p><p>violada a estatística d ficará em torno de 2 erroneamente. Assim, teremos um viés</p><p>embutido nesses modelos que impede a detecção da autocorrelação pelo teste de</p><p>Durbin-Watson.</p><p>Para evitar esse erro, pode-se utilizar os testes de Breusch-Godfrey (BG), que é</p><p>mais geral pois: (i) tem regressores não estocásticos; (ii) tem esquemas auto-regressivos</p><p>de ordem mais elevada; (iii) tem médias móveis simples ou de ordem mais elevada em</p><p>termos de ruído branco (Gujarati e Porter, 2011).</p><p>2 Essa tabela pode ser encontrada em Gujarati et. al (2011) ou em outros livros e sites de estatística e</p><p>econometria.</p><p>O teste de BG também é conhecido como teste LM. Suponha a seguinte</p><p>regressão:</p><p>𝑌𝑡 = 𝛽1 + 𝛽2𝑋𝑡 + 𝑢𝑡</p><p>Além disso, suponha que o termo de erro siga uma esquema auto-regressivo de</p><p>ordem p, ou seja:</p><p>𝑢𝑡 = 𝜌1𝑢𝑡−1 + 𝜌2𝑢𝑡−2 + ⋯ + 𝜌𝑝𝑢𝑡−𝑝 + 𝜀𝑡</p><p>Nesse teste a hipótese nula a ser testada é de que os pi são iguais entre si e iguais</p><p>a zero, ou seja:</p><p>𝐻0 = 𝜌1 = 𝜌2 = ⋯ = 𝜌𝑝 = 0</p><p>Observe, portanto, que não há correlação serial de qualquer ordem.</p><p>As etapas para a elaboração do teste é:</p><p>1. Estime a regressão por Mínimos quadrados e obtenha os resíduos estimados;</p><p>2. Faça a regressão dos resíduos estimados contra as variáveis explanatórias e</p><p>contra os resíduos defasados encontrados na etapa 1. Assim, encontramos o</p><p>coeficiente de determinação desta regressão.</p><p>3. Se o tamanho da amostra for grande, demonstra-se que:</p><p>(𝑛 − 𝑝)𝑅2~𝜒𝑝</p><p>2</p><p>Regra de decisão: Se o valor encontrado for maior que o tabelado, rejeitamos a</p><p>hipótese nula de ausência de correlação, ou seja, os resíduos são autocorrelacionados.</p><p>(Gujarati e Porter, 2011).</p><p>Se a autocorrelação for identificada, Gujarati e Porter (2011) apresentam quatro</p><p>opções: (i) verificar se é m casa de autocorrelação pura e não um erro de especificação</p><p>do modelo; (ii) Utilizar o MQG, assim como na heterocedasticidade; (iii) Utilizar o método</p><p>Newey-West, que é uma extensão do método de erros padrão consistente de White; (iv)</p><p>ou continuar usando o MQO (quando o coeficiente de autocorrelação for baixo).</p><p>3 ESPECIFICAÇÃO</p><p>Apesar de a econometria ser um instrumento para pesquisa empírica e científica,</p><p>não se pode utilizá-la como um instrumento direto e automático, com uma mecânica</p><p>totalmente objetiva. É necessário entender seus processos e os modelos econômicos de</p><p>modo a compreender o que se está fazendo e avaliar cada etapa do processo.</p><p>Uma das hipóteses do modelo clássico linear, que vimos nas apostilas anteriores,</p><p>era a de que o modelo seja especificado corretamente. Se isso não ocorrer, podemos ter</p><p>problemas de viés ou erro de especificação.</p><p>Os modelos que escolhermos para investigar empiricamente uma relação, devem</p><p>seguir alguns critérios. O primeiro deles é ser confirmado pelos dados , ou seja, as</p><p>previsões feitas por ele devem ser logicamente possíveis, algo consistente com uma</p><p>hipótese ou com o que se entende como possível. Além disso, o modelo também deve</p><p>ser consistente com a teoria e ter sentido econômico. (Gujarati e Porter, 2011)</p><p>O modelo deve ainda ter regressores fracamente exógenos, o que indica que as</p><p>variáveis dependentes não são correlacionadas com o termo de erro, e ter constância</p><p>dos parâmetros, ou seja, parâmetros estáveis.</p><p>Gujarati e Porter (2011) indicam ainda que o modelo deve mostrar consistência</p><p>com os dados e ser abrangente, o que significa incluir todos os modelos concorrentes de</p><p>modo a explicar seus resultados.</p><p>Tendo em vista a dificuldade de se ter todas essas características não é incomum,</p><p>é provável que algum erro de especificação ocorra no desenvolvimento dos modelos</p><p>econométricos.</p><p>Alguns desses erros, segundo Gujarati e Porter (2011) são:</p><p>1. Omissão de uma ou mais variáveis relevantes;</p><p>2. Inclusão de uma ou mais variáveis desnecessárias;</p><p>3. Adoção da forma funcional errada;</p><p>4. Erros de medida;</p><p>5. Especificação incorreta do termo de erro estocástico.</p><p>6. Pressuposição de que o termo de erro tem distribuição normal.</p><p>Perceba que os quatros primeiros erros estão relacionados à própria especificação</p><p>do modelo, na sua idealização, enquanto os dois últimos estão relacionados ao fato de</p><p>não sabermos qual é o verdadeiro modelo.</p><p>REFLITA</p><p>Não se pode aplicar os conceitos de econometria de um modo mecânico; é preciso</p><p>compreensão, intuição e habilidade (CUTHBERTSON, HALL e TAYLOR, 1992, apud</p><p>Gujarati e Porter, 2011.p. 466).</p><p>#REFLITA#</p><p>Falaremos aqui nesse subtópico sobre os dois primeiros erros. No próximo</p><p>subtópico avançamos abrangendo também os testes e diagnóstico de especificação.</p><p>3.1 Omissão de Uma ou Mais Variáveis Relevantes</p><p>Para entender esse tipo de erro de especificação suponha que o verdadeiro</p><p>modelo seja:</p><p>𝑌𝑖 = 𝛽1 + 𝛽2𝑋2𝑖 + 𝛽3𝑋3𝑖 + 𝑢𝑖</p><p>No entanto, por alguma razão especificamos o modelo erroneamente de modo que</p><p>se apresenta da seguinte forma:</p><p>𝑌𝑖 = 𝛼1 + 𝛼2𝑋2𝑖 + 𝑣𝑖</p><p>Perceba que a diferença entre esses modelos é que no primeiro utilizamos duas</p><p>variáveis explicativas para a variável dependente Y. Já no segundo, omitimos a variável</p><p>X3. As consequências de omitir essa variável são, segundo Gujarati e Porter (2011), as</p><p>seguintes:</p><p>1. Se a variável omitida, 𝑋3, for correlacionada com a incluída o coeficiente de</p><p>correlação entre as duas variáveis não será zero e os parâmetros 𝛼1̂ e 𝛼2̂ serão</p><p>tendenciosos e inconsistentes.</p><p>2. Se ambas as variáveis explicativas não forem correlacionados, 𝛼1̂ se torna</p><p>tendencioso, mesmo que 𝛼2̂ não seja.</p><p>3. A variância do erro, 𝜎2, é estimada incorretamente.</p><p>4. Por isso, a variância dos estimadores é tendenciosa.</p><p>5. Pelas consequências anteriores, a inferência estatística pode levar a conclusões</p><p>equivocadas.</p><p>6. Além de gerar previsões não confiáveis.</p><p>Gujarati e Porter (2011) ilustram um exemplo desse problema de especificação a</p><p>partir do modelo de regressão da mortalidade infantil que já observamos em outras</p><p>unidades. Esse modelo tinha como variável dependente a MORT e como variáveis</p><p>explicativas o PNB per capita (PNBpc) e a taxa de alfabetização feminina (TAF), e obtinha</p><p>os seguintes resultados:</p><p>𝑀𝐼𝑖</p><p>̂ = 263,6416 − 0,0056 𝑃𝑁𝐵𝑝𝑐𝑖 − 2,2316 𝑇𝐴𝐹𝑖</p><p>𝑒𝑝 = (11,5932) (0,0019) (0,2099)</p><p>Onde o coeficiente de determinação (R2) é igual a 0,7077 e o coeficiente de</p><p>determinação ajustado3 (𝑅2).</p><p>Quando o modelo foi estimado sem a taxa de alfabetização feminina:</p><p>𝑀𝐼𝑖</p><p>̂ = 157,4244 − 0,0114 𝑃𝑁𝐵𝑝𝑐𝑖</p><p>𝑒𝑝 = (9,8455) (0,0032)</p><p>sendo o coeficiente de determinação4 (r2) é de 0,1662.</p><p>Se considerarmos o primeiro modelo for o correto, então o modelo que não possui</p><p>a variável explicativa TAF será um modelo com especificação equivocada, pois omite</p><p>uma variável relevante.</p><p>No primeiro modelo, o que consideramos correto, o coeficiente da variável PNBpc</p><p>era -0,0056, enquanto no segundo foi de -0,0114. Em termos absolutos, agora o PNBpc</p><p>tem um impacto maior na mortalidade infantil quando comparado ao modelo correto, mas,</p><p>3 O coeficiente de determinação ajustado é um coeficiente de determinação com algumas alterações que</p><p>nos mostram se a inclusão ou exclusão de algumas variáveis são boas ou ruins para o modelo. Nesse</p><p>sentido, ele aumenta se adicionarmos uma variável explicativa que melhora a estimação do modelo e</p><p>diminui se ela não melhora.</p><p>4 Lembre-se que nesse caso o r2 é expresso em letra minúscula por ser uma regressão simples.</p><p>se efetuamos a regressão na qual a TAF seja a variável dependente e p PNB seja a</p><p>explicativa, temos, segundo Gujarati e Porter (2011) :</p><p>𝑇𝐴�̂� = 47,5971 + 0,00256 𝑃𝑁𝐵𝑝𝑐</p><p>𝑒𝑝 = (3,5553) (0,0011)</p><p>𝑟2 = 0,0721</p><p>Ou seja, a regressão da variável excluída contra a incluída, o coeficiente de PNB</p><p>será 0,00256. Isso sugere que, quando o PNBpc aumenta em uma unidade, em média,</p><p>a TAF sobe 0,00256 unidades. Mas se a TAF subir nessa magnitude, seu efeito na MI</p><p>será:</p><p>(−2,2316)(0,00256) = �̂�3𝑏32 = −0,00543</p><p>em que 𝑏32 é o coeficiente angular na regressão da variável excluída 𝑋3 contra a variável</p><p>incluída 𝑋2.Portanto, temos que:</p><p>𝐸(�̂�2) = 𝛽2 + 𝛽3𝑏32 = [−0,0056 + (−2,2316)(0,00256)] ≈ −0,0111</p><p>Que é coeficiente obtido no modelo incorreto.</p><p>Em resumo, como ilustra esse exemplo, o verdadeiro impacto do PNBpc sobre a</p><p>MI é muito menor (−0,0056) do que o sugerido pelo modelo incorreto (−0,0114). O que</p><p>nos leva a conclusão de que se o modelo é baseado em uma teoria relevante, não é</p><p>prudente excluir uma variável do modelo. (Gujarati e Porter, 2011)</p><p>3.2 Inclusão de Uma Variável Irrelevante (Sobre-Especificação)</p><p>Agora vamos supor que o modelo abaixo seja o modelo correto:</p><p>𝑌𝑖 = 𝛽1 + 𝛽2𝑋2𝑖 + 𝑢𝑖</p><p>No entanto, o ajustamos da seguinte maneira:</p><p>𝑌𝑖 = 𝛼1 + 𝛼2𝑋2𝑖 + 𝛼3𝑋3𝑖 + 𝑣𝑖</p><p>Ou seja, incluímos uma variável explicativa a mais (X3). Nesse caso, Gujarati e</p><p>Porter (2011) explicam que as consequências são:</p><p>1. Os parâmetros do MQO são tendenciosos e consistentes;</p><p>2. A variância do erro é estimada corretamente.</p><p>3. A inferência estatística permanece válida.</p><p>4. Entretanto, os coeficientes estimados serão ineficientes e suas variâncias maiores</p><p>do que as dos coeficientes do modelo correto.</p><p>Portanto, a inclusão de uma variável irrelevante, 𝑋3, faz com que a variância do</p><p>estimador �̂�2 seja maior do que necessário e menos precisa tanto para �̂�2, quanto para</p><p>�̂�1.</p><p>Repare, portanto, a diferença entre esses dois problemas de estimação. Excluir</p><p>uma variável relevante faz com que os coeficientes sejam tendenciosos e inconsistentes,</p><p>que a variância seja estimada incorretamente e os métodos de inferências inválidos. Por</p><p>outro lado, incluir uma variável irrelevante, apesar de nos dar estimativas não</p><p>tendenciosas e consistentes dos coeficientes corretos e inferência estatística válida, as</p><p>variâncias estimadas dos coeficientes aumentam e, como resultado, as inferências</p><p>probabilísticas sobre os parâmetros são menos exatas.</p><p>Conclui-se que “a melhor abordagem é incluir apenas variáveis explanatórias que,</p><p>em termos teóricos, influenciam diretamente a variável dependente e que não são</p><p>explicadas pelas outras variáveis incluídas.” (INTRILIGATOR, 1978 apud Gujarati e</p><p>Porter 2011, P. 588).</p><p>4 DIAGNÓSTICO DA MODELAGEM ECONOMÉTRICA</p><p>Imagem do Tópico: 735715732</p><p>Na prática nunca temos certeza de que o modelo adotado para teste aplicado é o</p><p>verdadeiro ou real. Com base na teoria ou na introspecção e em trabalhos aplicados,</p><p>desenvolvemos um modelo que acreditamos captar a essência do assunto estudado.</p><p>Seguindo o método econométrico, submetemos nosso modelo à aplicação</p><p>empírica e passamos a examinar buscando as características que vimos até aqui. Esse</p><p>exame busca entender se o modelo escolhido é adequado. Alguns aspectos como o valor</p><p>do 𝑅2, o teste t, os sinais dos coeficientes, o teste de Durbin-Watson e outros. Após</p><p>passar por esse crivo, afirmamos que o modelo escolhido é uma representação</p><p>adequada da realidade. (Gujarati e Porter 2011)</p><p>Agora, se os resultados não forem satisfatórios temos que analisar para entender</p><p>se omitimos alguma variável importante, utilizamos a forma funcional errada ou</p><p>deveríamos utilizar as variáveis defasadas e, assim, corrigir o modelo. Para auxiliar a</p><p>determinar se a inadequação do modelo está relacionada a esses problemas Gujarati e</p><p>Porter (2011) sugerem alguns métodos.</p><p>4.1 Exame de Resíduos</p><p>O primeiro desses métodos é o exame dos resíduos, que pode ser utilizado para</p><p>verificar a autocorrelação ou heterocedasticidade, como vimos nas subseções anteriores.</p><p>Para além desses propósitos, o exame de resíduos ainda pode auxiliar na</p><p>detecção de erros de especificação do modelo (principalmente em modelos de corte</p><p>transversal), como da omissão de uma variável importante ou do uso de uma forma</p><p>funcional incorreta, através dos padrões distintos dos gráficos de resíduos.</p><p>Imagine, por exemplo, que a verdadeira função de custo total de uma firma seja</p><p>descrita como se segue:</p><p>𝑌𝑖 = 𝛽1 + 𝛽2𝑋𝑖 + 𝛽3𝑋𝑖</p><p>2 + 𝛽4𝑋𝑖</p><p>3 + 𝑢𝑖</p><p>Em que: 𝑌𝑖 – custo total; e, 𝑋𝑖 – produção.</p><p>Ao tentar estimar uma função custo, imagine também que o pesquisador tenha</p><p>estimado uma função quadrática e outra linear. Assim, como descrevem Gujarati e Porter</p><p>(2011), o gráfico com os resíduos dos três modelos se dá por:</p><p>Figura 5: Resíduos de três formas funcionais da função custo</p><p>Fonte: Gujarati e Porter (2011)</p><p>A figura 5 mostra os resíduos de três formas funcionais da função custo: (a) linear;</p><p>(b) quadrática; (c) cúbica. Perceba que os resíduos de (c) mostraram que o modelo é</p><p>mais próximo ao verdadeiro, já que além de os resíduos serem menores, não exibem</p><p>oscilações cíclicas, características de modelos mal ajustados. Assim, Gujarati e Porter</p><p>(2011) conclui que examinar o gráfico dos resíduos possibilita diagnosticar erros de</p><p>especificação quando os resíduos exibem padrões marcantes.</p><p>4.2 O teste Reset de Ramsey</p><p>O teste de RESET, regression specification error test (teste de erro de especificação</p><p>da regressão, tradução livre) é um teste geral proposto por Ramsey para detectar erros</p><p>de especificação. Segundo Gujarati e Porter (2011), as etapas na aplicação do RESET</p><p>são:</p><p>1. Do modelo escolhido, obtemos o 𝑌𝑖 estimado, �̂�𝑖.</p><p>Por exemplo, estimamos a função de custos linear:</p><p>𝑌𝑖 = 𝜑1 + 𝜑2𝑋𝑖 + 𝑢3𝑖</p><p>2. Recalculamos a equação introduzindo de algum modo �̂�𝑖 como regressor</p><p>adicional.</p><p>Por exemplo, dada a figura:</p><p>Figura 6: Resíduos e Y em uma função linear custo</p><p>Fonte: Gujarati e Porter (2011)</p><p>Observamos que há uma relação curvilínea entre �̂�𝑖 e �̂�𝑖 o que sugere a introdução</p><p>de �̂�𝑖</p><p>2 e �̂�𝑖</p><p>3 como regressores adicionais. A partir disso calculamos:</p><p>𝑌𝑖 = 𝛽1 + 𝛽2𝑋𝑖 + 𝛽3�̂�𝑖</p><p>2 + 𝛽4�̂�𝑖</p><p>3 + 𝑢𝑖</p><p>3. Se chamarmos o 𝑅2 obtido pela equação logo acima como o 𝑅𝑁𝑂𝑉𝑂</p><p>2 e aquele obtido</p><p>na primeira equação como 𝑅𝑉𝐸𝐿𝐻𝑂</p><p>2 . Gujarati e Porter (2011) mostra que podemos</p><p>usar o teste F para verificar se o aumento do coeficiente de determinação da nova</p><p>regressão é estatisticamente significativo pela equação abaixo:</p><p>𝐹 =</p><p>(𝑅𝑁𝑂𝑉𝑂</p><p>2 − 𝑅𝑉𝐸𝐿𝐻𝑂</p><p>2 )</p><p>𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑛𝑜𝑣𝑜𝑠 𝑟𝑒𝑔𝑟𝑒𝑠𝑠𝑜𝑟𝑒𝑠</p><p>(1 − 𝑅𝑁𝑂𝑉𝑂</p><p>2 )</p><p>(𝑛 − 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑝𝑎𝑟â𝑚𝑒𝑡𝑟𝑜𝑠 𝑛𝑜 𝑛𝑜𝑣𝑜 𝑚𝑜𝑑𝑒𝑙𝑜)</p><p>4. A partir desse teste, determinamos o nível de significância e se o valor de F for</p><p>significativo a ele, podemos aceitar a hipótese de que a especificação estava</p><p>errada.</p><p>Segundo Gujarati e Porter (2011), o teste não exige a especificação de um modelo</p><p>alternativo, tornando de fácil aplicação, uma vantagem do teste Reset. No entanto, os</p><p>autores dizem que isso também pode ser visto como uma desvantagem já que saber que</p><p>o modelo é mal especificado não facilita, necessariamente, na escolha de uma alternativa</p><p>melhor.</p><p>4.3 Erros de Medida</p><p>Ao analisar o modelo de regressão linear, Gujarati e Porter (2011), supôs que a</p><p>variável dependente Y e as variáveis explanatórias, os X, são medidas sem erro, variáveis</p><p>exatas, não extrapoladas, interpoladas ou arredondadas de modo sistemático.</p><p>No entanto, os autores revelam que esse ideal não é alcançado na prática por</p><p>diversas razões. Mas, independente delas, o erro de medição pode ser um problema já</p><p>que não se configura como um viés de especificação.</p><p>4.3.1 Erros de medida da variável dependente Y</p><p>Considerando o seguinte modelo:</p><p>𝑌𝑖</p><p>∗ = 𝛼 + 𝛽𝑋𝑖 + 𝑢𝑖</p><p>Em que 𝑌𝑖</p><p>∗ são as despesas permanentes de consumo; 𝑋𝑖 a renda corrente; e 𝑢𝑖</p><p>é o termo</p><p>de erro estocástico. Uma vez que não podemos podemos medir 𝑌𝑖</p><p>∗ diretamente,</p><p>Gujarati et. al (2011) sugere usar uma variável de despesas observável 𝑌𝑖 tal que:</p><p>𝑌𝑖 = 𝑌𝑖</p><p>∗ + 𝜀𝑖</p><p>Em que 𝜀𝑖 são os erros de medida em 𝑌𝑖</p><p>∗. Assim, podemos estimar que:</p><p>𝑌𝑖 = (𝛼 + 𝛽𝑋𝑖 + 𝑢𝑖) + 𝜀𝑖</p><p>𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖 + 𝑣𝑖</p><p>Em que 𝑣𝑖 = 𝑢𝑖 + 𝜀𝑖 é um termo de erro comporto, contendo o termo de erro da</p><p>população e o termo de erro de medida.</p><p>Supondo que:</p><p>● 𝐸(𝑢𝑖) = 𝐸(𝜀𝑖) = 0 e 𝐶𝑜𝑣(𝑋𝑖, 𝑢𝑖) = 0 – ou seja, que os erros de medida em 𝑌𝑖</p><p>∗ não</p><p>estão correlacionados com 𝑋𝑖.; e que</p><p>● 𝐶𝑜𝑣(𝑋𝑖, 𝜀𝑖) = 0: o erro da equação e erro de medida não estão correlacionados.</p><p>Gujarati e Porter (2011) mostra que o 𝛽 estimado na primeira equação ou na</p><p>modificada será um estimador não tendencioso do verdadeiro 𝛽. Os erros de medida da</p><p>variável dependente Y não destroem a propriedade de ausência de viés dos estimadores</p><p>de MQO.</p><p>No entanto, as variâncias e os erros padrão de 𝛽´s dados por essas equações</p><p>serão diferentes:</p><p>● Primeiro modelo - 𝑣𝑎𝑟(�̂�) =</p><p>𝜎𝑢</p><p>2</p><p>∑ 𝑥𝑖</p><p>2</p><p>● Segundo modelo - 𝑣𝑎𝑟(�̂�) =</p><p>𝜎𝑣</p><p>2</p><p>∑ 𝑥𝑖</p><p>2 =</p><p>𝜎𝑢</p><p>2+𝜎𝜀</p><p>2</p><p>∑ 𝑥𝑖</p><p>2</p><p>Perceba que a variância do segundo modelo é maior. Segundo Gujarati et. al</p><p>(2011, p. 482) “embora os erros de medida na variável dependente ainda deem</p><p>estimativas não tendenciosas dos parâmetros e suas variâncias, as variâncias estimadas</p><p>agora são maiores que no caso em que não há tais erros de medida.”</p><p>4.3.2 Erros de medida na variável explanatória X</p><p>Gujarati e Porter (2011) supõe, agora, que tenhamos o seguinte modelo:</p><p>𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖</p><p>∗ + 𝑢𝑖</p><p>Em que 𝑌𝑖 são despesas atuais de consumo; 𝑋𝑖</p><p>∗ é renda permanente; e 𝑢𝑖 é termo de</p><p>erro (da equação).</p><p>Se, em vez de 𝑋𝑖</p><p>∗, tivermos:</p><p>𝑋𝑖 = 𝑋𝑖</p><p>∗ + 𝑤𝑖</p><p>𝑋𝑖</p><p>∗ = 𝑋𝑖 − 𝑤𝑖</p><p>𝑤𝑖 = 𝑋𝑖 − 𝑋𝑖</p><p>∗</p><p>Em que 𝑤𝑖 representa erros de medida em 𝑋𝑖</p><p>∗. Assim, calculamos:</p><p>𝑌𝑖 = 𝛼 + 𝛽(𝑋𝑖 − 𝑤𝑖) + 𝑢𝑖</p><p>𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖 + (𝑢𝑖 − 𝛽𝑤𝑖)</p><p>𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖 + 𝑧𝑖</p><p>Em que 𝑧𝑖 = 𝑢𝑖 − 𝛽𝑤𝑖, um composto de erros da equação e de medida.</p><p>Agora, independente que 𝑤𝑖 tenha média zero, sejam serialmente independente e</p><p>não esteja correlacionado a 𝑢𝑖, não é mais possível supor que o termo de erro 𝑧𝑖 seja</p><p>independente da variável explanatória 𝑋𝑖:</p><p>𝐸(𝑧𝑖) = 0</p><p>𝐶𝑜𝑣(𝑧𝑖, 𝑋𝑖) = 𝐸[𝑧𝑖 − 𝐸(𝑧𝑖)][𝑋𝑖 − 𝐸(𝑋𝑖)]</p><p>𝐶𝑜𝑣(𝑧𝑖, 𝑋𝑖) = 𝐸(𝑢𝑖 − 𝛽𝑤𝑖)(𝑤𝑖)</p><p>𝐶𝑜𝑣(𝑧𝑖, 𝑋𝑖) = 𝐸(−𝛽𝑤𝑖</p><p>2) = −𝛽𝜎𝑤</p><p>2</p><p>Assim, a variável explanatória e o termo de erro da equação modificada estão</p><p>correlacionados, o que, segundo Gujarati et. al (2011), viola a hipótese de que a variável</p><p>explicativa não esteja correlacionado com o termo de erro, uma das premissas do Modelo</p><p>de Regressão Linear Clássica, MRLC. Se essa premissa não for satisfeita, os</p><p>estimadores de MQO não são tendenciosos, mas também inconsistentes; eles continuam</p><p>tendenciosos mesmo que o tamanho da amostra n aumente indefinidamente. (Gujarati e</p><p>Porter, 2011)</p><p>Os erros de medição se mostram problemáticos quando presentes nas variáveis</p><p>explicativas, já que impossibilitam a estimação de parâmetros consistentes. No entanto,</p><p>Gujarati e Porter (2011) explica que um erro na variável explicativa não é facilmente</p><p>solucionável. Se supormos que 𝜎𝑤</p><p>2 seja pequeno comparado a 𝜎𝑋∗</p><p>2 , poderíamos “ignorar”</p><p>o problema e proceder à estimação usual com MQO. No entanto, os autores destacam</p><p>que não podemos observar ou medir as variâncias, e não há como avaliar suas</p><p>magnitudes relativas.</p><p>Gujarati et al (2011) ainda sugere o uso de variáveis instrumentais ou proxy.</p><p>Segundo eles, mesmo com a presença de correlação com as variáveis X originais, elas</p><p>não são correlacionadas com os termos de erro da equação e de medida.</p><p>Se pudermos encontrar a proxy, obtemos estimativas consistentes dos</p><p>parâmetros. No entanto, encontrá-las não é uma tarefa fácil. Gujarati e Porter (2011)</p><p>ainda afirma que a literatura não tem uma resposta definitiva a esses problemas, assim,</p><p>medir os dados com exatidão é extremamente desejável.</p><p>4.3.3 Critérios para Seleção de Modelos</p><p>Existem alguns testes que permitem a melhor seleção de modelos. Os principais</p><p>são R2, R2 ajustado, critério de informação de Akaike e de Schwartz. Veremos aqui alguns</p><p>desses critérios.</p><p>O critério 𝑅2, utiliza o coeficiente de determinação para definir o quanto bom é o</p><p>ajustamento. Lembre-se que quanto mais próximo de 1, mais alterações da variável</p><p>dependente são explicadas pelas alterações das variáveis explicativas, assim, o modelo</p><p>é melhor.</p><p>No entanto, segundo Gujarati e Porter (2011) esse critério apresenta alguns</p><p>problemas, como os citados a seguir:</p><p>1. Ele mede a qualidade do ajustamento dentro da amostra, o que não garante que</p><p>o modelo será capaz de prever os valores fora da amostra;</p><p>2. Na comparação de dois ou mais 𝑅2, a variável dependente, ou regressando, deve</p><p>ser a mesma,</p><p>3. O R2 sempre aumenta com a inclusão de variáveis no modelo mas, como vimos,</p><p>a inclusão de variáveis pode aumentar a variância do erro de previsão.</p><p>O 𝑅2 ajustado, por outro lado, tenta corrigir o efeito dessa inclusão, reduzindo o</p><p>coeficiente se a nova variável piora o modelo. Assim, Gujarati e Porter (2011) define que,</p><p>para fins de comparação, 𝑅2 é uma medida melhor que 𝑅2.</p><p>Outro critério que pode ser utilizado é o Critério de informação de Akaike (CIA).</p><p>Esse instrumento permite uma medida corretiva pelo acréscimo de regressores do</p><p>modelo, como o coeficiente de determinação ajustado. No entanto, o critério de</p><p>informação de Akaike impõe penalidade ainda maior à essas inclusões. Como regra, o</p><p>modelo com o valor mais baixo de CIA é preferido. (Gujarati e Porter, 2011)</p><p>Um último critério exposto aqui é o Critério de informação de Schwarz (CIS). O</p><p>CIS é ainda mais duro com inclusões de variáveis do que o CIA e nele a regra de decisão</p><p>também define que, ao comparar modelos, aquele com valor mais baixo é o melhor.</p><p>SAIBA MAIS</p><p>O Cálculo e os critérios de decisão</p><p>Não foram demonstrados aqui os cálculos dos critérios de decisão, com exceção</p><p>do coeficiente de determinação tratado na unidade anterior. Apesar de importantes para</p><p>entender mais profundamente esses critérios (se for interessantes, leia Gujarati e Porter,</p><p>2011), esses cálculos são feitos rapidamente pelos softwares estatísticos e, pela</p><p>facilidade, permitem com que o pesquisador ajuste o modelo de maneira mais adequada,</p><p>testando diferentes configurações até encontrar o modelo preferível.</p><p>#SAIBA MAIS#</p><p>CONSIDERAÇÕES FINAIS</p><p>Essa unidade nos ajudou a compreender melhor o que ocorre quando utilizamos</p><p>a econometria na prática. Ao contrário dos modelos empíricos que encontramos nos livros</p><p>textos e nos materiais básicos sobre econometria, os dados no mundo real não atendem</p><p>necessariamente às premissas dos modelos econométricos, como o MQO que já</p><p>estudamos neste material. Por isso, precisamos entender como lidar com os problemas</p><p>relacionados ao relaxamento dessas premissas e se é possível ou desejável resolvê-los.</p><p>Nesse sentido, essa unidade começa analisando o problema da</p><p>heterocedasticidade. Vimos que esse problema é referente a existência de diferentes</p><p>variâncias nas observações ou no termo de erro. Percebemos que em sua presença, os</p><p>estimadores do MQO não são mais considerados BLUE. Uma maneira de corrigir o</p><p>problema é estimando a regressão através do Método dos Mínimos Quadrados</p><p>Generalizados.</p><p>O outro problema relacionado ao relaxamento das premissas é a presença de</p><p>autocorrelação serial. Este problema está mais relacionado aos cortes transversais e que</p><p>podem ter diversas explicações, como a inércia, o viés, a especificação da defasagem e</p><p>assim por diante. Observamos também como operacionalizar o teste de Durbin Watson,</p><p>um dos testes mais utilizados para identificar a autocorrelação. Além</p><p>disso, concluímos</p><p>que utilizar os MQG, também pode ser uma maneira de lidar com a autocorrelação.</p><p>Esse material também auxiliou a entender o problema da especificação, suas</p><p>consequências e como fazer diagnósticos que permitam com que se utilize o melhor</p><p>modelo disponível para os dados apresentados. Observamos quatro diferentes critérios</p><p>para essa decisão e concluímos que o coeficiente de determinação ajustado é mais</p><p>adequado que o normal, além de que os critérios de CIS e CIA são mais rigorosos com</p><p>a inclusão de variáveis explicativas.</p><p>LIVRO (OBRIGATÓRIO)</p><p>• Título:Análise de Modelos de Regressão Linear com Aplicações</p><p>• Autor:Reinaldo Charnet, Clarice Azevedo de Luna Freire, Eugênia M. Reginato</p><p>Charnet, Heloísa Bonvino</p><p>• Editora: Editora da Unicamp</p><p>• Sinopse: Este livro tem por objetivo apresentar a parte da estatística que trata de</p><p>modelos de regressão, podendo ser utilizado como texto básico para disciplinas de</p><p>regressão, tanto para alunos de graduação em estatística como para alunos de</p><p>diferentes áreas para as quais essas disciplinas usualmente são oferecidas. Cada</p><p>capítulo traz no final um grupo de exercícios que serve de estímulo ao aluno para a</p><p>aplicação e a fixação de todo o material exposto.</p><p>FILME/VÍDEO (OBRIGATÓRIO)</p><p>• Pôster do Filme;</p><p>• Título: Multicolinearidade, Heterocedasticidade e Autocorrelação no Stata</p><p>• Ano: 2011</p><p>• Sinopse: Este é o sexto vídeo da série de vídeos com o teor que diagnosticar e corrigir</p><p>problemas que violam os pressupostos dos modelos econométricos através do uso do</p><p>STATA.</p><p>• Link do vídeo (se houver).: https://www.youtube.com/watch?v=UOHxeacprBo</p><p>REFERÊNCIAS</p><p>GUJARATI, Damodar N. Basic Econometrics. New York: The McGraw-Hill</p><p>Companies, 2004</p><p>GUJARATI, Damodar N., PORTER, Dawn C. Econometria Básica. São Paulo: AMGH</p><p>Editora Ltda., 5 ed., 2011</p><p>WOOLDRIDGE, Jeffrey M. Introdução à Econometria: uma abordagem moderna. São</p><p>Paulo: Cengage Learning, 2016</p><p>UNIDADE IV</p><p>USOS E ATRIBUIÇÕES PRÁTICAS</p><p>Professor Doutor Vinicius Borba da Costa</p><p>Plano de Estudo:</p><p>•Modelos de Escolha qualitativa;</p><p>•Modelos de Equações Simultâneas;</p><p>•Econometria de Séries Temporais;</p><p>•Sugestões práticas.</p><p>Objetivos de Aprendizagem:</p><p>• Apresentar a natureza da escolha qualitativa;</p><p>• Apresentar a natureza dos modelos de equações simultâneas e séries temporais;</p><p>• Demonstrar de maneira prática como rodar um modelo pelo Gretl.</p><p>INTRODUÇÃO</p><p>A econometria é uma fantástica ferramenta para entendermos e estudarmos a</p><p>relação entre duas ou mais variáveis. Até agora, examinamos modelos mais simples e</p><p>os problemas que encontramos quando aplicamos esses modelos na prática. Vimos que</p><p>nem sempre as premissas do modelo de regressão linear clássico são satisfeitas e,</p><p>assim, precisamos de mecanismos para corrigir esses erros.</p><p>Para além desses modelos mais básicos, temos diversas evoluções teóricas e</p><p>práticas neste instrumento. Algumas dessas evoluções são demonstradas nesta</p><p>unidade.</p><p>A unidade IV, então, se dedica a dar uma ideia geral de modelos econométricos</p><p>mais avançados, para responder a diferentes questões e tipos de dados.</p><p>Para isso, inicialmente tratamos de modelos de escolha qualitativa que, diferente</p><p>do que observamos até agora, permitem que a variável dependente tenha um caráter</p><p>qualitativo, de qualidade, de atributo. Esses modelos são relacionados a modelos de</p><p>probabilidade.</p><p>Passamos então a analisar modelos que tem como base equações que não são</p><p>estudadas de maneira individual, mas em conjunto, quando variáveis são inter-</p><p>relacionadas. Essas equações simultâneas dificultam a análise simples dos modelos</p><p>anteriores, então tem modelos dedicados a elas.</p><p>Além disso, analisamos também a econometria de séries temporais. Como</p><p>veremos, o uso de séries de tempo traz diversas peculiaridades que necessitam uma</p><p>análise atenta aos dados.</p><p>Para finalizar, a unidade apresenta um tutorial prático de como utilizar, ainda que</p><p>de maneira básica, o software gretl para estudos econométricos.</p><p>1 MODELOS DE ESCOLHA QUALITATIVA</p><p>Imagem do Tópico: 1383005873</p><p>Nos deparamos com diferentes modelos econométricos até esse ponto. Modelos</p><p>de regressão simples, múltipla, com variáveis binárias e, apesar de a variável explicativa</p><p>ter sido apresentada de maneira quantitativa e qualitativa (como no caso das variáveis</p><p>binárias), a variável dependente sempre foi estimada como uma variável quantitativa.</p><p>Nesse tópico exploraremos, ainda que de forma superficial, alguns problemas e</p><p>modelos relacionados aos modelos de escolha (ou resposta) qualitativa, onde o</p><p>regressando (variável dependente) é qualitativo.</p><p>No modelo de resposta qualitativa investigamos a probabilidade de que algo</p><p>aconteça, de que o regressando (Y) seja relacionado a essa resposta ou a outra. Como</p><p>exemplo, o modelo aponta a probabilidade de uma família decidir comprar uma casa ou</p><p>não, de um eleitor votar em um candidato da esquerda ou da direita, de um jovem</p><p>escolher fazer ou não o seguro de um carro. Todos esses são exemplos de uma escolha</p><p>dicotômica. No entanto, os modelos de resposta qualitativa também podem ter mais</p><p>respostas (tricotômica, se tiver 3 possibilidades, policotómica se várias possibilidades).</p><p>O importante é destacar o fato de que a variável dependente é qualitativa (Gujarati e</p><p>Porter, 2011).</p><p>1.1 O modelo de Probabilidade Linear</p><p>O primeiro modelo de resposta qualitativa apresentado aqui é mais simples e pode</p><p>ser calculado por MQO, é o modelo de probabilidade linear (MPL).</p><p>Para apresentá-lo, Gujarati e Porter(2011) propõem a seguinte regressão:</p><p>𝑌𝑖 = 𝛽1 + 𝛽2𝑋2 + 𝑢𝑖</p><p>À primeira vista a regressão acima parece uma regressão linear simples, como às</p><p>que já vimos anteriormente. O que a diferencia é o fato de que essa regressão tenta</p><p>responder se uma família tem uma casa própria ou não, dependendo de sua renda.</p><p>Portanto, Y é igual a 1 se a família possui a casa e 0 se não possui, enquanto X é a renda</p><p>familiar. Temos então um modelo linear em que o regressando é binário, portanto, temos</p><p>um modelo de probabilidade linear.</p><p>Como tratamos de probabilidade, suponha que Pi seja a probabilidade de que a</p><p>família tenha a casa (que o evento ocorra, Yi=1) e que (1-Pi), seja a probabilidade de que</p><p>a família não tenha a casa (que o evento não ocorra, Yi=0). Assim, Gujarati e Porter</p><p>(2011) revela que:</p><p>𝐸(𝑌𝑖) = 0(1 − 𝑃𝑖) + 1(𝑃𝑖) = 𝑃𝑖</p><p>E portanto,</p><p>𝐸(𝑌𝑖|𝑋𝑖) = 𝛽1 + 𝛽2𝑋2 = 𝑃𝑖</p><p>A esperança condicional de Y dado X é igual a probabilidade de sucesso (de que o</p><p>evento ocorra. Portanto, a regressão nos fornece tal probabilidade.</p><p>Um exemplo para ilustrar esse modelo é apresentado pelos resultados abaixo</p><p>(Gujarati e Porter 2011):</p><p>�̂�𝑖 = −0,9457 + 0,1021𝑋𝑖</p><p>Onde, Y corresponde a 1 se o indivíduo possui casa própria e 0 se não; e X a</p><p>renda familiar em milhares de dólares para 40 famílias.</p><p>A regressão mostra primeiramente que se a família tem renda zero, a</p><p>probabilidade de que ela tenha uma casa própria é de -94% (um dos problemas do</p><p>modelo é de que os resultados podem ficar fora do intervalo probabilístico entre 0 e 1,</p><p>como veremos a seguir). Esse resultado, segundo os autores, não indica que há 0% de</p><p>probabilidade de possuir casa própria se a renda é igual a zero. O valor do coeficiente</p><p>de inclinação diz que para cada mil dólares a mais que uma família tem de renda, a</p><p>média de probabilidade dessa família possuir uma casa própria aumenta em 10%</p><p>aproximadamente.</p><p>Portanto, o modelo pode ser estimado por MQO, no entanto, apresenta vários</p><p>problemas:</p><p>● ausência de normalidade nos termos de erro;</p><p>● variáveis heterocedásticas;</p><p>● Resultados em que a probabilidade é menor que 0 ou maior que 1.</p><p>● r2 questionável.</p><p>O maior desses problemas é o fato</p><p>uma opinião. ”</p><p>W. Edwards Deming</p><p>#REFLITA#</p><p>1.1 O método econométrico</p><p>Para cumprir com aquilo que a econometria se propõe, utiliza-se o método</p><p>econométrico de análise tradicional que segue etapas importantes expostas por Gujarati</p><p>e Porter (2011):</p><p>I. Exposição da teoria ou hipótese;</p><p>II. Especificação do modelo matemático da teoria;</p><p>III. Especificação do modelo estatístico ou econométrico;</p><p>IV. Obtenção dos dados;</p><p>V. Estimação dos parâmetros do modelo econométrico;</p><p>VI. Testes de hipóteses;</p><p>VII. Projeção ou previsão; e,</p><p>VIII. Uso do modelo com fins de controle ou de política.</p><p>Esse método, portanto, começa através da exposição de uma teoria, ou seja,</p><p>explicando as noções teóricas daquilo que será testado. Para demonstrar cada um</p><p>desses passos, Gujarati e Porter (2011) utiliza a teoria de consumo Keynesiana.</p><p>Essa teoria objetiva explicar a relação entre renda e consumo para o agente típico,</p><p>ou seja, para a maioria dos indivíduos, para isso, Keynes declara que “os homens estão</p><p>dispostos a aumentar o seu consumo quando o seu rendimento cresce, embora não no</p><p>mesmo grau em que aumenta o seu rendimento” (KEYNES, 2012, p. 87). Essa teoria é</p><p>conhecida como lei psicológica fundamental.</p><p>Portanto, a hipótese a ser testada é de que o agente consome mais se sua renda</p><p>aumentar. No entanto, o aumento do consumo não é proporcional ao aumento da renda.</p><p>A partir da teoria, pode-se então passar para a próxima etapa, a Especificação do</p><p>modelo matemático da teoria. Muitas vezes as teorias terão seu modelo matemático</p><p>determinado pelo autor quando apresentadas, no entanto, eventualmente, as hipóteses</p><p>são qualitativas ou não expressas de maneira matemática. Nessa casa, cabe ao</p><p>Econometrista especificar o modelo.</p><p>Para a teoria psicológica fundamental, um economista matemático pode sugerir a</p><p>seguinte forma:</p><p>𝑌 = 𝛽1 + 𝛽2𝑋, 0 < 𝛽2 < 1 (1)</p><p>Onde:</p><p>𝑌 = despesas com o consumo;</p><p>𝑋 = renda; e,</p><p>𝛽</p><p>1</p><p>e 𝛽</p><p>2</p><p>= parâmetros do modelo – intercepto e coeficiente angular.</p><p>O coeficiente 𝛽</p><p>2</p><p>mede a propensão marginal a consumir (PMC), ou seja, quanto</p><p>o consumidor deve consumir dado o aumento de uma unidade de renda. Por exemplo,</p><p>se a PMC é igual a 0,5, quer dizer que a cada real a mais em sua renda, 50 centavos</p><p>serão consumidos e o restante poupados.</p><p>A figura abaixo mostra a representação geométrica da relação exposta:</p><p>Figura 1: Função consumo Keynesiana</p><p>Fonte: Gujarati e Porter (2011).</p><p>Segundo Gujarati e Porter (2011), a equação especifica que o consumo se</p><p>relaciona linearmente à renda. Se o modelo tem apenas uma equação ele é denominado</p><p>como modelo de uma equação (como no exemplo), já se tiver mais de uma equação será</p><p>denominado de modelo de equações múltiplas.</p><p>A variável que aparece do lado esquerdo do sinal de igualdade é chamada</p><p>variável dependente (endógena, controlada) e a(s) variável(eis) do lado direito é a(s)</p><p>independente (exógena, de controle).</p><p>Esse modelo é um modelo matemático pois possui uma relação exata entre as</p><p>variáveis, ou seja, expõe que se a renda aumenta em uma medida, o consumo aumenta</p><p>em outro, independente de outros fatores. No entanto, o econometrista entende que as</p><p>relações econômicas na realidade não são exatas, ou seja, podem sofrer influências de</p><p>fatores que não estão sendo contabilizados no modelo.</p><p>Por exemplo, se tivermos esses dados para uma amostra de 500 famílias e</p><p>organizássemos elas em um gráfico ou diagrama, o resultado visual com certeza não</p><p>seria igual ao apresentado na figura 1.</p><p>Para considerar a falta de exatidão matemática dos dados estatísticos,</p><p>especificamos (etapa III) um modelo estatístico ou econométrico, como o apresentado</p><p>por Gujarati e Porter (2011):</p><p>𝑌 = 𝛽1 + 𝛽2𝑋 + 𝑢 (2)</p><p>Onde: 𝑢 = distúrbio ou termo de erro</p><p>O distúrbio ou termo de erro é uma variável aleatória (estocástica) que tem</p><p>propriedades probabilísticas conhecidas. De forma prática, considera-se contido no erro,</p><p>todas as variáveis que afetam a variável que estamos investigando, mas que não estão</p><p>especificadas como variáveis que explicam a primeira. No nosso exemplo, em que</p><p>explicamos o consumo através da renda, tudo que não é renda, mas também afeta o</p><p>consumo (como gostos, localização, clima, etc.) está dentro do termo do erro.</p><p>A figura 2, abaixo, demonstra como são colocados os dados estatísticos (em um</p><p>gráfico de dispersão) e como a reta de regressão linear (um modelo econométrico que</p><p>falaremos mais à frente) é estimada. Repare que o erro aleatório é a distância entre as</p><p>observações e a reta de regressão. Essa reta representa um modelo de regressão linear.</p><p>Figura 2: Modelo econométrico da Função consumo</p><p>Fonte: Gujarati e Porter (2011).</p><p>A próxima etapa da investigação econométrica é a obtenção de dados. A</p><p>obtenção de dados é uma parte crucial no método. Buscamos os dados nas fontes</p><p>confiantes e organizamos em tabelas para rodar os modelos econométricos. Gujarati e</p><p>Porter (2011) expõe que uma das partes mais difíceis do trabalho é encontrar proxies1</p><p>adequadas.</p><p>Para o modelo demonstrado como exemplo, Gujarati e Porter (2011) utilizou-se o</p><p>PIB como indicador (proxy) da renda agregada e as despesas de consumo pessoal</p><p>agregado para indicar o consumo.</p><p>A etapa seguinte diz respeito à estimação dos parâmetros do modelo</p><p>econométrico. A estimação desses parâmetros depende de vários fatores e do modelo</p><p>utilizado, conforme estudaremos. Mas, aplicando um método simples Gujarati e Porter</p><p>(2011) chega nos seguintes valores:</p><p>�̂�𝑡 = −299,5913 + 0,7218𝑋𝑡 (3)</p><p>O acento circunflexo no 𝑌 indica que se trata de uma estimativa. A função</p><p>consumo estimada (isto é, a linha de regressão) é:</p><p>Figura 3: Reta de regressão estimada</p><p>Fonte: Gujarati e Porter (2011).</p><p>Perceba como a reta de regressão está muito próxima dos dados estatísticos. Isso</p><p>demonstra que a linha se ajusta bem aos dados. A partir da equação 3, Gujarati e Porter</p><p>1 Proxy é uma variável econômica escolhida para representar alguma característica esperada. Por</p><p>exemplo, como proxy do crescimento econômico, utiliza-se a variação do PIB, ou do PIB per capita.</p><p>(2011, p. 29) interpreta que: “ o coeficiente angular (a PMC) era de quase 0,72, indicando</p><p>que, no período amostrado, um aumento de um dólar na renda real levava, em média2,</p><p>a um aumento de cerca de 72 centavos nas despesas reais de consumo. ”</p><p>A etapa subsequente testa as hipóteses do modelo. Para isso, temos de</p><p>formular critérios formais adequados para verificar se as estimativas obtidas estão de</p><p>acordo com as expectativas da teoria que está sendo testada.</p><p>Keynes esperava que a PMC fosse positiva, mas menor que um. No exemplo,</p><p>ela é 0,72. Porém, antes de aceitar isso (não rejeitar) é preciso perguntar se 0,72 é</p><p>estatisticamente significativo, ou menor que um.</p><p>A confirmação ou refutação de teorias econômicas com base em evidências</p><p>amostrais se alicerça em um ramo da teoria estatística conhecida como inferência</p><p>estatística (ou teste de hipótese).</p><p>Se o resultado for estatisticamente significativo, é possível utilizá-lo para as</p><p>etapas VII e VIII. A projeção ou previsão é feita ao analisar os valores futuros da</p><p>variável dependente (Y, no nosso exemplo o Consumo) para diferentes níveis da</p><p>variável explicativa (X, renda).</p><p>Além disso, também é possível analisar Modelos com fins de controle ou de</p><p>política, no qual Gujarati e Porter (2011) explica que, nesse exemplo, o governo pode</p><p>manejar a variável de controle X para gerar o nível desejado da variável meta Y.</p><p>O método econométrico por si só já carrega várias informações importantes e a</p><p>noção geral do que é a econometria. No entanto, alguns conceitos são de importante</p><p>entendimento para avançarmos na demonstração das análises.</p><p>SAIBA MAIS</p><p>2Importante destacar que o resultado se dá em média por que a relação</p><p>de que o MQO não garante que a</p><p>probabilidade esteja entre 0 e 1, o que é matematicamente aceitável. Os modelos logit e</p><p>probit, apresentados a seguir, garantem que as probabilidades estejam nesse intervalo.</p><p>1.2 O Modelo Logit e Probit1</p><p>O problema fundamental da MPL é que a probabilidade aumenta linearmente</p><p>conforme aumenta-se as variáveis explicativas, ou seja, o efeito marginal permanece</p><p>constante durante a curva. Segundo Gujarati e Porter (2011) seria desejável que o efeito</p><p>marginal diminuísse com a evolução da série de maneira que não ultrapassasse os</p><p>limites 0 e 1, correspondentes à lógica matemática probabilística.</p><p>Essa qualidade é alcançada com modelos de função de distribuição acumulada</p><p>(FDA), através dos modelos Logit e Probit.</p><p>Para entender o método logit Gujarati e Porter (2011) utiliza o mesmo exemplo da</p><p>casa própria:</p><p>𝐸(𝑌𝑖|𝑋𝑖) = 𝛽1 + 𝛽2𝑋2 = 𝑃𝑖</p><p>𝑃𝑖 = 𝛽1 + 𝛽2𝑋2</p><p>Considerando que:</p><p>𝑃𝑖 =</p><p>1</p><p>1 + 𝑒−(𝛽1+ 𝛽2𝑋𝑖)</p><p>e substituindo 𝛽</p><p>1</p><p>+ 𝛽2𝑋2 𝑝𝑜𝑟 𝑍 temos que:</p><p>𝑃𝑖 =</p><p>1</p><p>1 + 𝑒−𝑍𝑖</p><p>=</p><p>𝑒𝑍</p><p>1 + 𝑒𝑍𝑖</p><p>Assim, a equação acima é conhecida como função de distribuição logística</p><p>(acumulada) e P passa a variar somente entre 0 e 1.</p><p>Para que a equação seja linear, Gujarati e Porter (2011) ainda aplica o logaritmo</p><p>natural e transforma as variáveis de forma que:</p><p>𝐿𝑖 =𝑙𝑛 𝑙𝑛 (</p><p>𝑃𝑖</p><p>1 − 𝑃𝑖</p><p>) = 𝑍𝑖</p><p>onde, 𝑍 = 𝛽1 + 𝛽2𝑋𝑖</p><p>Ou seja, “L, O logaritmo da razão de chances não é apenas linear em X, mas</p><p>também (do ponto de vista de estimação), linear nos parâmetros. L é chamado de logit</p><p>[...]” (Gujarati e Porter, 2011, p. 552)</p><p>1 Os modelos são apresentados aqui somente para entender as principais características, para</p><p>estimação e interpretação, ver Gujarati e Porter (2011)</p><p>Os modelos probit, por outro lado, utilizam uma função de distribuição acumulada</p><p>normal, FDA normal, e também pode ser conhecido como modelos normit. Os modelos</p><p>probit são, esse , assim, representados por uma integral, de modo que:</p><p>𝐹(𝐼𝑖) =</p><p>1</p><p>√2𝜋</p><p>∫</p><p>𝛽1+𝛽2𝑋𝑖</p><p>−∞</p><p>𝑒−𝑧2/2𝑑𝑧</p><p>Gujarati e Porter (2011) explica ainda que os modelos são bastante parecidos e o</p><p>que os diferencia é que a distribuição do logit possuir caudas um pouco mais pesadas,</p><p>como na figura abaixo:</p><p>Figura 1: Distribuição acumulada do Logit e do Probit</p><p>Fonte: Gujarati e Porter (2011, p. 568)</p><p>Isso demonstra que a probabilidade condicional de P1 se aproxima mais</p><p>rapidamente de 1 ou 0 no probit do que no logit.</p><p>2 MODELOS DE EQUAÇÕES SIMULTÂNEAS</p><p>Nessa apostila, vimos diversos tipos de modelos econométricos, de duas ou mais</p><p>variáveis e com formas funcionais diferentes. No entanto, sempre observamos modelos</p><p>com uma única equação, modelos nos quais tínhamos uma variável dependente e uma</p><p>ou mais variáveis explicativas.</p><p>Gujarati e Porter (2011) expôs que nesses modelos, destaca-se o valor médio da</p><p>variável dependente, condicionado aos valores da variável explicativa e, portanto, a</p><p>relação causa e efeito tem a direção da explicativa para a variável de resposta.</p><p>No entanto, diversas relações econômicas têm relações mais complexas, de</p><p>modo que haja uma relação de mão-dupla entre elas. Essas relações são conhecidas</p><p>como simultâneas. Isso faz com que a relação entre Y e Xi seja duvidoso.</p><p>Assim, Gujarati e Porter (2011, p. 665) revela que é “melhor agrupar um conjunto</p><p>de variáveis que possam ser determinadas simultaneamente pelo conjunto restante de</p><p>variáveis, o que é feito nos modelos de equações simultâneas”. Ou seja, há mais de uma</p><p>equação, sendo uma para cada variável endógena.</p><p>Um exemplo de modelos de equações simultâneas é o modelo de oferta e</p><p>demanda. Gujarati e Porter (2011) apresenta que, pela teoria econômica, o preço e a</p><p>quantidade vendida de um produto são determinados pela interseção das curvas de</p><p>oferta e demanda por um produto, ou seja, pelo ponto de equilíbrio onde os ofertantes e</p><p>demandantes querem a mesma quantidade de um produto, ao mesmo preço.</p><p>Supondo que as curvas sejam lineares e acrescentando os erros estocásticos</p><p>como em um modelo econométrico temos que:</p><p>▪ Função de demanda: 𝑄𝑡</p><p>𝑑 = 𝛼0 + 𝛼1𝑃𝑡 + 𝑢1𝑡 , 𝛼1 < 0</p><p>▪ Função de oferta: 𝑄𝑡</p><p>𝑠 = 𝛽0 + 𝛽1𝑃𝑡 + 𝑢2𝑡 , 𝛽1 > 0</p><p>▪ Condição de equilíbrio: 𝑄𝑡</p><p>𝑑 = 𝑄𝑡</p><p>𝑠</p><p>Onde Qd é a quantidade demandada e Qs a quantidade ofertada.</p><p>A figura abaixo mostra 3 diferentes gráficos, o primeiro mostra a relação de</p><p>equilíbrio entre a oferta e a demanda. O equilíbrio é, então, dado pela igualdade entre a</p><p>quantidade ofertada e demandada para um dado preço. A lei da demanda diz que quanto</p><p>menor preço, maior é a quantidade demandada, por isso, a curva é inclinada para baixo</p><p>e a 𝛼1 < 0 (negativo).</p><p>A lei da oferta diz que quando maior o preço, maior a quantidade ofertada, por</p><p>isso, a curva é positivamente inclinada, 𝛽</p><p>1</p><p>> 0</p><p>Figura 2: Interdependência entre preço e quantidade</p><p>Fonte: Gujarati e Porter (2011)</p><p>Gujarati e Porter (2011) destacam que as variáveis P e Q são conjuntamente</p><p>dependentes. Se, como no segundo gráfico e no terceiro gráfico, alguma variável que</p><p>(diferente do preço) aumentam ou reduzem a quantidade demandada, esse efeito será</p><p>contabilizado pelo termo de erro (𝑢1𝑡) e deslocará a curva para cima ou para baixo,</p><p>dependendo da natureza da mudança e das suas consequências. Esse deslocamento o</p><p>preço como a quantidade de equilíbrio.</p><p>De maneira semelhante, uma mudança em algum fator exógeno altere as</p><p>condições de oferta, a curva de oferta se deslocará para cima ou para baixo, assim como</p><p>ocorreu com a curva de demanda, afetando preço e quantidade.</p><p>Segundo Gujarati e Porter (2011), por causa da dependência simultânea existente</p><p>entre P e Q, as relações entre 𝑢1𝑡 e Pt na curva de demanda e 𝑢2𝑡 e Pt na curva de oferta,</p><p>não podem ser independentes. Isso faz com que as variáveis explicativas e os termos</p><p>de erro sejam correlacionados, ferindo a premissa do modelo linear de regressão</p><p>clássicos e fazendo com que os resultados do MQO sejam inconsistentes. Os autores</p><p>apresentam alguns métodos para resolver as equações simultâneas, sendo o principal</p><p>deles, o método dos Mínimos Quadrados em dois estágios (MQ2E).2</p><p>3 ECONOMETRIA DE SÉRIES TEMPORAIS</p><p>2 Pela sua natureza mais complexa e como o objetivo aqui é somente apresentar a natureza dos</p><p>modelos de equação simultânea, não são apresentados tais modelos. Para entender e aplicar o MQ2E,</p><p>veja o capítulo 20 de Gujarati e Porter (2011).</p><p>A econometria utiliza modelos econômicos que, a partir dos dados conseguem</p><p>estudar relações ou fazer previsões de variáveis. Um dos tipos de dados que obtemos</p><p>são séries de tempo. Essas séries são variáveis de uma unidade (agente) distribuídas</p><p>em certa periodicidade, dias, meses, anos, segundos.</p><p>A econometria de séries temporais, modelos que analisam essas séries de tempo,</p><p>são muito úteis, mas segundo Gujarati e Porter (2011), apresentam algumas dificuldades</p><p>para o econometrista.</p><p>SAIBA MAIS</p><p>A Econometria de séries temporais é uma importante ferramenta para diferentes</p><p>áreas, do mercado financeiro às políticas públicas. Através da análise das séries de</p><p>tempo os econometristas fazem estimações para variáveis com taxa de juros, Produto</p><p>Interno Bruto (PIB), Taxa de inflação, taxa de câmbio dentre outras.</p><p>Além disso, pode-se utilizar esse instrumento para analisar estimativas de</p><p>demandas em negócios empresariais, implementar políticas econômicas públicas ou</p><p>mesmo a níveis gerenciais.</p><p>Fonte: o autor.</p><p>#SAIBA MAIS#</p><p>Primeiramente elas podem apresentar estacionaridade e autocorrelação,</p><p>problemas já discutidos nesta apostila. Também podem ter problemas relacionados ao</p><p>R2, o coeficiente de determinação. Segundo Gujarati e Porter (2011) quando estimamos</p><p>as séries de tempo relacionando-as com outras séries</p><p>temporal, podemos ter um</p><p>coeficiente de determinação muito alto, mesmo sem que as variáveis tenham qualquer</p><p>relação real, chamamos isso de regressão espúria.</p><p>Além disso, algumas séries de tempo, especialmente as financeiras, exibem um</p><p>comportamento conhecido como fenômeno do passeio aleatório. Nesse fenômeno a</p><p>variável em t+1, ou seja, do próximo período, é simplesmente a variável no período t</p><p>(período corrente), mais um choque aleatório, ou seja, sem uma direção definida. Se isso</p><p>ocorrer, tentar prever os próximos períodos seria inútil, já a série é aleatória.</p><p>Para entendermos as séries temporais, alguns conceitos relacionados à elas têm</p><p>que ser compreendidos. Gujarati e Porter (2011) destacam alguns conceitos que</p><p>veremos nessa seção.</p><p>Um passeio aleatório, ou estocástico, é um conjunto de variáveis aleatórias</p><p>ordenadas no tempo e podem ser estacionários ou não estacionários.</p><p>Os processos estocásticos estacionários são quando sua média e variância são</p><p>constantes ao longo da série e quando os valores da covariância entre dois períodos de</p><p>tempo dependem da defasagem entre os dois períodos, e não do próprio tempo em que</p><p>a covariância é calculada. Assim,</p><p>𝑀é𝑑𝑖𝑎: 𝐸(𝑌𝑡) = 𝜇</p><p>𝑉𝑎𝑟𝑖â𝑛𝑐𝑖𝑎: 𝑉𝑎𝑟(𝑌𝑡) = 𝐸(𝑌𝑡 − 𝜇)2 = 𝜎2</p><p>𝐶𝑜𝑣𝑎𝑟𝑖â𝑛𝑐𝑖𝑎: 𝛾𝑘 = 𝐸[(𝑌𝑡 − 𝜇)(𝑌𝑡+𝑘 − 𝜇)]</p><p>Ou seja, a série é estacionária se sua média, variância e autocovariância</p><p>permanecem as mesmas, não variam com o tempo. Um dos tipos mais utilizados como</p><p>exemplo é o ruído branco em que o erro é distribuído de modo independente e idêntico</p><p>como uma distribuição normal com média zero e variância constante, ou seja,</p><p>𝑢𝑡~𝐼𝐼𝐷𝑁(0, 𝜎2).</p><p>Já os processos estocásticos não estacionários terão média e variância variando</p><p>ao longo do tempo, o passeio aleatório é um exemplo e pode ser dividido com ou sem</p><p>deslocamento (Gujarati e Porter, 2011)</p><p>1. Passeio aleatório sem deslocamento</p><p>Suponha que 𝑢𝑡 é o erro de ruído branco com média 0 e variância 𝜎2. Sendo</p><p>assim, dizemos que a série 𝑌𝑡 é um passeio aleatório se</p><p>𝑌𝑡 = 𝑌𝑡−1 + 𝑢𝑡</p><p>Perceba valor de Y no tempo t é igual ao seu valor no tempo (t-1) mais um choque</p><p>aleatório. Para esse modelo, a média e a variância serão:</p><p>𝐸(𝑌𝑡) = 𝑌0</p><p>𝑉𝑎𝑟(𝑌𝑡) = 𝑡𝜎2</p><p>2. Passeio aleatório com deslocamento</p><p>Para esse caso considere o modelo abaixo:</p><p>𝑌𝑡 = 𝛿 + 𝑌𝑡−1 + 𝑢𝑡</p><p>Onde 𝛿 é o parâmetro de deslocamento. Perceba que, aqui, o 𝑌𝑡 se deslocará para</p><p>cima ou para baixo dependendo do sinal de 𝛿. Para o caso com deslocamento, a média</p><p>e a variância serão:</p><p>𝐸(𝑌𝑡) = 𝑌0 + 𝑡𝛿</p><p>𝑉𝑎𝑟(𝑌𝑡) = 𝑡𝜎2</p><p>Gujarati e Porter (2011) destaca, portanto, que o processo aleatório, com ou sem</p><p>deslocamento, é um processo estocástico não-estacionário e ferem a premissa</p><p>Além disso, os autores ainda destacam que o passeio aleatório é um exemplo</p><p>muito conhecido como processo de raiz unitária. Para entendê-lo considera o modelo de</p><p>passeio aleatório abaixo:</p><p>𝑌𝑡 = 𝜌𝑌𝑡−1 + 𝑢𝑡 − 1 ≤ 𝜌 ≤ 1</p><p>Se 𝜌 = 1, estamos diante do problema de raiz unitária. Mas, se |𝜌| ≤ 1, ou seja,</p><p>se o valor absoluto de 𝜌 é menor do que 1, a série temporal será estacionária.</p><p>No entanto, os modelos que trabalham com séries temporais têm como premissa</p><p>a estacionaridade, portanto, temos algumas maneiras de torná-los estacionários, como</p><p>por exemplo quando tiramos diferenciamos a séries.</p><p>Quando as séries são diferenciadas, elas podem se tornar estacionários e</p><p>classificadas como processos estacionários em diferença. Diferenciar a série é</p><p>basicamente transformá-la de forma a subtrair cada variável pela observação dos</p><p>períodos anteriores (1 período para primeira diferença, dois para segunda diferença e</p><p>assim por diante. Dessa forma, quando fazemos a primeira diferença, Yt, é transformado</p><p>subtraindo o mesmo Y do período t-1, ou seja, estimamos a partir de (Yt – Yt-1)</p><p>O modelo de passeio aleatório é um caso específico de uma classe de processo</p><p>estocástico conhecidos como processos integrados. O modelo de passeio aleatório sem</p><p>deslocamento é não-estacionário, no entanto se calcularmos a primeira diferença ele</p><p>passa a ser. Por isso, o modelo de passeio aleatório sem deslocamento é denominado</p><p>integrado de ordem 1, que se denota como 𝑌𝑡~𝐼(1).</p><p>De maneira geral, se é necessário diferenciar d vezes uma série para que ela se</p><p>torne estacionária, dizemos que essa série é integrada de ordem d; 𝑌𝑡~𝐼(𝑑). E se a série</p><p>é estacionária por natureza, ou seja, não precisa ser diferenciada, integrada de ordem</p><p>zero; 𝑌𝑡~𝐼(0). Assim, uma série temporal estacionária ou integrada de ordem zero</p><p>possuem o mesmo significado. (Gujarati e Porter, 2011)</p><p>Para verificar a estacionariedade de uma série podemos utilizar o teste de raíz</p><p>unitária. O ponto de partida é o processo (estocástico) de raiz unitária, como a equação</p><p>abaixo.</p><p>𝑌𝑡 = 𝜌𝑌𝑡−1 + 𝑢𝑡 −1 ≤ 𝜌 ≤ 1</p><p>Onde 𝑢𝑡 é um termo de erro de ruído branco. Como observamos, quando 𝜌 = 1</p><p>a série se torna um modelo de passeio aleatório sem deslocamento, ou seja, um</p><p>processo estocástico não-estacionário.</p><p>Para entender o teste, manipulamos o processo estocástico subtraindo 𝑌𝑡−1 de</p><p>ambos os lados, para obter:</p><p>𝑌𝑡 − 𝑌𝑡−1 = 𝜌𝑌𝑡−1 − 𝑌𝑡−1 + 𝑢𝑡</p><p>∆𝑌𝑡 = 𝛿𝑌𝑡−1 + 𝑢𝑡</p><p>onde 𝛿 = (𝜌 − 1)</p><p>Assim, estimando ∆𝑌𝑡 = 𝛿𝑌𝑡−1 + 𝑢𝑡, testamos a hipótese nula de que 𝛿 = 0. Se</p><p>𝛿 = 0 então 𝜌 = 1, ou seja, temos uma raiz unitária, indicando que a série temporal sob</p><p>análise é não-estacionária.</p><p>Para aplicar o teste de raiz unitária, tomamos as primeiras diferenças de 𝑌𝑡 e</p><p>rodamos a regressão destas em relação a 𝑌𝑡−1. Vemos então se o coeficiente angular</p><p>estimado nessa regressão é igual a zero ou não. Se for igual a zero, a série 𝑌𝑡 é não-</p><p>estacionária. Nesse caso, sob a hipótese nula de que 𝛿, o valor t estimado do coeficiente</p><p>de 𝑌𝑡−1 segue a estatística 𝜏 (tau). Em homenagem aos autores desse modelo esse teste</p><p>de raiz unitária ficou conhecido como teste de Dickey-Fuller.</p><p>Além desse teste, também é importante fazer um teste de cointegração. Em</p><p>algumas situações, a combinação linear de duas séries não-estacionárias poderá</p><p>resultar numa série estacionária, tendo assim duas séries cointegradas.</p><p>Para testar a cointegração, Gujarati e Porter (2011) sugere o teste de Engle-</p><p>Granger ou Engle-Granger aumentado. Para aplicá-lo, estimamos uma regressão como</p><p>𝑌𝑡 = 𝛽1 + 𝛽2𝑋𝑡 + 𝑢𝑡, obtemos os resíduos e usamos os testes de Dickey-Fuller.</p><p>Como os 𝑢𝑡 estimados se baseiam no parâmetro estimado �̂�</p><p>2</p><p>, os valores críticos</p><p>de significância do teste de Dickey-Fuller não são muito apropriados. Engle e Granger</p><p>calcularam esses valores e, por conta disso, esse teste de cointegração ficou então</p><p>conhecido como teste de Engle-Granger. (Gujarati e Porter, 2011)</p><p>3.1 Previsão de séries temporais</p><p>A possibilidade de estimar previsões para as próximas variáveis é uma parte muito</p><p>importante da econometria. Veremos aqui, de maneira introdutória, um dos métodos</p><p>mais comuns para tal, o modelo ARIMA.</p><p>O modelo ARIMA, também conhecido como metodologia Box-Jenkins (BJ), o</p><p>modelo ARIMA destaca a análise probabilística ou estocástica da própria série temporal,</p><p>ou seja, os dados explicam a si mesmos de forma que Yt seja explicado pelos seus</p><p>valores defasados e estocásticos (Gujarati e Porter 2011).</p><p>O nome ARIMA se refere ao processo autoregressivo (AR), com médias móveis</p><p>(MA) e integrado (I). No entanto, dependendo da série, será utilizado somente o AR, o</p><p>MA, o ARMA ou então o ARIMA.</p><p>O processo autoregressivo AR(1) é representado como:</p><p>(𝑌𝑡 − 𝛿) = 𝛼1(𝑌𝑡−1 − 𝛿) + 𝑢𝑡</p><p>onde 𝛿 é a média de Y e ut é o termo de ruído branco.</p><p>O processo autorregressivo é então um modelo que informa que o valor previsto</p><p>de Y no período t é alguma proporção 𝛼1do período prévio mais um choque aleatório.</p><p>De maneira mais geral</p><p>podemos ter que:</p><p>(𝑌𝑡 − 𝛿) = 𝛼1(𝑌𝑡−1 − 𝛿) + 𝛼2(𝑌𝑡−2 − 𝛿) + ⋯ + 𝛼𝑝(𝑌𝑡−𝑝 − 𝛿) + 𝑢𝑡</p><p>que é chamado de AR(p).</p><p>Já o processo de média móvel (MA) considera que:</p><p>𝑌𝑡 = 𝜇 + 𝛽0𝑢𝑡 + 𝛽1𝑢𝑡−1</p><p>onde 𝜇 é uma constante e u é o termo de erro de ruído branco.</p><p>Nesse caso, Y no período t é uma constante mais uma média móvel dos termos</p><p>de erro atuais e do passado. Esse Y segue, então, um processo de média móveis de</p><p>primeira ordem.</p><p>Também podemos observar o processo de média móvel de forma geral, onde:</p><p>𝑌𝑡 = 𝜇 + 𝛽0𝑢𝑡 + 𝛽1𝑢𝑡−1 + 𝛽2𝑢𝑡−2 + ⋯ + 𝛽𝑞𝑢𝑡−𝑞</p><p>Sendo esse um processo de MA(q).</p><p>Se a variável Y possui características de AR e MA, será uma ARMA, de forma</p><p>que:</p><p>𝑌𝑡 = 𝜃 + 𝛼1𝑌𝑡−1 + 𝛽0𝑢𝑡 + 𝛽1𝑢𝑡−1</p><p>Que é considerado um ARMA(1,1). Em geral, em um processo ARMA(p,q) haverá termos</p><p>autorregressivos p e termos de média móvel q.</p><p>Ainda, algumas séries são não estacionárias, ou seja, integradas. Se tivermos</p><p>que diferenciar a série de vezes para torná-la estacionária e aplicar o ARMA, dizemos</p><p>que a série original é ARIMA(p,d,q), ou seja, uma série temporal autoregressiva de</p><p>médias móveis.</p><p>A metodologia Box-Jenkins auxilia na identificação desses níveis p, d e q. Para</p><p>isso, utiliza-se 4 etapas.</p><p>1. Identificação: Através do método do correlograma ou do correlograma parcial3</p><p>identificamos provisoriamente p, d e q.</p><p>2. Estimação: Nessa etapa, estima-se os parâmetros autorregressivos e os termos</p><p>da média móvel do modelo (por MQO ou métodos não lineares).</p><p>3. Verificação de diagnóstico: Verifica-se se o modelo ajusta-se aos dados</p><p>razoavelmente bem. Um teste para isso é identificar se os resíduos são ruídos</p><p>brancos. Se não, retome o passo 1 e altere p, d e q. Se sim, pode-se ir pra</p><p>próxima etapa.</p><p>4. Previsão: pode-se fazer previsões seguras, principalmente de curto-prazo.</p><p>3 esse método pode ser verificado em Gujarati e Porter (2011, cap. 22)</p><p>4 SUGESTÕES PRÁTICAS.</p><p>Imagem do Tópico: 696061426</p><p>A econometria se baseia em muitos argumentos e premissas teóricas para</p><p>identificação, no mundo real, da relação entre as variáveis. Isso faz com que</p><p>inevitavelmente seja uma teoria de complexo entendimento. No entanto, alguns</p><p>exercícios práticos facilitam seu uso e, com a experiência do pesquisador, os</p><p>procedimentos passam a ser mais intuitivos e simples.</p><p>Nesta seção, faremos um exemplo simples, a partir de dados reais brasileiros, que</p><p>permitiram aplicação prática de alguns dos conteúdos aqui demonstrados.</p><p>O software utilizado para demonstrar o passo-a-passo do procedimento para rodar</p><p>o modelo é o gretl4. O modelo exposto aqui se assemelha ao modelo de Gujarati e Porter</p><p>(2011) de regressão múltipla, exposto nesse material na unidade II, tópico 4.3.</p><p>O modelo busca entender a relação entre a mortalidade infantil no Brasil (por mil</p><p>nascidos vivos) e duas variáveis explicativas, a renda da população, a qual utilizamos o</p><p>salário mínimo real como sua proxy, e a taxa mulheres analfabetas5 (percentual de</p><p>mulheres de 15 a 24 anos que não sabem ler nem escrever um bilhete simples). Os</p><p>dados se referem a uma série temporal de 2000 a 2014. Os dados foram obtidos do site</p><p>IPEADATA.</p><p>Portanto, o modelo é representado pela equação a seguir:</p><p>𝑀𝐼𝑖</p><p>̂ = 𝛽1 + 𝛽2𝑆𝑎𝑙𝑀𝑖𝑛 + 𝛽3𝑇𝑀𝐴 + 𝑢𝑖</p><p>onde:</p><p>𝑀𝐼𝑖 = Mortalidade infantil (por mil nascidos vivos)</p><p>𝑆𝑎𝑙𝑀𝑖𝑛 = Salário Mínimo real (fim de período)</p><p>𝑇𝑀𝐴 = Taxa de mulheres analfabetas.</p><p>Apresentamos abaixo os passos necessários para “rodar” esse modelo no Gretl.</p><p>4 O gretl é um software livre que pode se baixado no link http://gretl.sourceforge.net/pt.html.</p><p>5 Importante reparar que no modelo do Gujarati e Porter(2011) utilizou-se a taxa de alfabetização e no</p><p>modelo aqui apresentado, estamos utilizando a taxa de analfabetas, ou seja, esperamos um resultado</p><p>inverso.</p><p>http://gretl.sourceforge.net/pt.html</p><p>Primeiramente, organize os dados em uma planilha de excel ou software</p><p>semelhante, como demonstrado na figura 3:</p><p>Figura 3: Dados no excel</p><p>Fonte: elaboração própria.</p><p>Salve o arquivo em uma pasta de fácil localização. O próximo passo é importar os</p><p>dados para o software. Na tela inicial do Gretl abra as seguintes abas arquivo > Abrir</p><p>dados > Arquivos do usuário, como a figura abaixo.</p><p>Figura 4: Importar dados</p><p>Fonte: Gretl.</p><p>Na próxima tela siga os caminhos que te levarão à pasta que você escolheu para</p><p>salvar o arquivo e garanta que o software esteja mostrando todos os arquivos (opção no</p><p>canto inferior direito da tela, selecione a opção todos os arquivos (*.*) ). Selecione então</p><p>os dados e clique em abrir.</p><p>Figura 5: Selecionar arquivo</p><p>Fonte: Gretl.</p><p>Quando você completar esse passo abrirá uma pequena janela na qual você</p><p>mostrará para o programa em que células estão localizados os dados. Nesse ponto, não</p><p>selecionaremos a coluna do período (2000, 2001, ...), portanto, preencha o espaço para</p><p>coluna com o número 2 e a linha com 1 (para mostrar a nomenclatura das séries), como</p><p>na figura abaixo:</p><p>Figura 6: Importação de planilha</p><p>Fonte: Gretl.</p><p>O gretl então perguntará se você deseja que o programa interprete os dados como</p><p>de série temporal ou dados de painel, clique na opção sim e, na próxima janela selecione</p><p>Série temporal e Avançar. Como nas figuras abaixo.</p><p>Figura 7: Estrutura de dados</p><p>Fonte: Gretl.</p><p>A partir desse passo, você deve estabelecer o período (anual), a observação</p><p>inicial (2000) e confirmar a estrutura do conjunto de dados (aplicar), como os passos</p><p>demonstrados abaixo.</p><p>Figura 8: Confirmar estrutura de dados</p><p>Fonte: Gretl.</p><p>Pronto, com isso você importou os dados para o Gretl. A partir de agora é possível</p><p>analisar os dados, montar gráficos, fazer modelos e testar as variáveis. O layout do seu</p><p>programa ficará como abaixo:</p><p>Figura 9: Layout do gretl após importação de dados</p><p>Fonte: Gretl.</p><p>Como nosso objetivo é realizar uma regressão múltipla sob o método dos mínimos</p><p>quadrados ordinários (MQO), abra a aba superior Modelo e selecione Mínimos</p><p>Quadrados Ordinários, como abaixo:</p><p>Figura 10: Rodando o Modelo</p><p>Fonte: Gretl.</p><p>A próxima aba serve para definirmos nossa equação. Selecione a variável MI e</p><p>clique na seta grande azul, para que o MI preencha a lacuna na variável dependente.</p><p>Selecione as variáveis SalMin e TMA e clique na seta verde, para que as variáveis sejam</p><p>os regressores (variáveis explicativas). A aba deve ficar exatamente como a figura</p><p>abaixo.</p><p>Figura 11: especificando o modelo</p><p>Fonte: Gretl.</p><p>Quando você clicar em OK, da figura anterior, o seu modelo já será apresentado</p><p>na próxima tela, exatamente como observamos a “saída” de modelo nas unidades</p><p>anteriores. Observe abaixo nosso modelo.</p><p>Figura 12: Saída do Modelo</p><p>Fonte: Gretl.</p><p>A interpretação segue o mesmo padrão daquele observado na unidade II,</p><p>sugerimos que o aluno releia aquela unidade e interprete esses resultados como estudo.</p><p>O próximo passo é fazer os testes de heterocedasticidade e autocorrelação dos</p><p>resíduos.</p><p>O testes podem ser feitos nas abas testes, como demonstrado pela figura abaixo</p><p>(teste de White):</p><p>Figura 13: Aba para testes</p><p>Fonte: Gretl.</p><p>O resultado do teste de White, por exemplo, gera a seguinte saída:</p><p>Figura 14: Saída do teste de White</p><p>Fonte: Gretl.</p><p>Como vimos, o resultado mais importante nessa saída é apresentado na última</p><p>linha, com o p-valor (ou valor p) do teste. Como a hipótese nula do teste de White é a de</p><p>que não há heterocedasticidade e como o p-valor é maior do que 0,10, não podemos</p><p>rejeitar a hipótese de que não há heterocedasticidade, ou seja, há grande probabilidade</p><p>de a série</p><p>ser homocedástica.</p><p>REFLITA</p><p>É necessária maturidade para entender que modelos econométricos devem ser</p><p>usados, mas sem realmente acreditar neles.”</p><p>Henry Theil.</p><p>#REFLITA#</p><p>CONSIDERAÇÕES FINAIS</p><p>Por trás de toda a complexidade da análise econométrica, existe um objetivo muito</p><p>simples, analisar, metrificar, concluir sobre as relações econômicas entre variáveis.</p><p>Nesse material fizemos isso de maneiras diferentes, por diversos métodos</p><p>distintos. Essa unidade auxiliou a ir um pouco mais longe, investigando aspectos básicos</p><p>de modelos econométricos diferentes daqueles mais simples das unidades passadas.</p><p>Começamos falando sobre o modelo de escolha qualitativa, em que a variável</p><p>dependente assume valores quantitativos, de atributo, de qualidade. Assim, a análise</p><p>pode nos demonstrar a probabilidade do agente possuir ou não aquele atributo.</p><p>Observamos também que, o modelo apresentado, o modelo de probabilidade linear tem</p><p>alguns problemas matemáticos que podem ser contornados através dos métodos do</p><p>Probit e Logit.</p><p>Passamos então a analisar os modelos de equações simultâneas, quando as</p><p>variáveis são inter-relacionadas e as relações são demonstradas por mais de uma</p><p>equação. A sugestão para esses modelos foi o uso do método dos Mínimos Quadrados</p><p>em Dois Estágios (MQ2E).</p><p>E, então, apresentamos alguns aspectos introdutórios sobre a análise de séries</p><p>temporais, tão importante para fazer previsões e análise de dados no tempo. Como</p><p>vimos, essas análises têm peculiaridades referentes à estacionaridade e ao</p><p>comportamento dos dados no tempo e, por isso, devemos considerar tais singularidades.</p><p>Para finalizar, observamos como executar, na prática, um modelo de regressão</p><p>múltipla no software estatístico gretl.</p><p>LEITURA COMPLEMENTAR</p><p>Controvérsias sobre o uso da econometria</p><p>O uso da econometria pode ser um poderoso aliado na análise do mundo real. No</p><p>entanto, nem todos os economistas acreditam que as equações matemáticas</p><p>conseguem refletir tudo que se passa nas relações humanas entre os agentes</p><p>econômicos.</p><p>Portanto, assim como na batalha metodológica entre a abstração matemática e a</p><p>análise histórica das relações da economia (batalha conhecida como Methodenstreit der</p><p>Nationalökonomie, travada entre os economistas austríacos e alemães, no final do</p><p>século XIX), a econometria também enfrenta alguns opositores.</p><p>Para esses opositores a economia não pode ser tratada como uma ciência exata</p><p>porque depende de um mundo complexo, com diversas variáveis mudando</p><p>constantemente e que, assumir que qualquer uma dessas variáveis está constante</p><p>enquanto a outra é alterada, é totalmente irreal.</p><p>Os que defendem o instrumento, acreditam que ela tem que ser utilizada com o</p><p>conhecimento de que se analisa relações baseadas em dados, para dar suporte ao</p><p>entendimento amplo da economia e, portanto, é extremamente válida no processo.</p><p>Fonte: o autor.</p><p>LIVRO</p><p>• Título: Econometria Financeira: um Curso em Séries Temporais Financeiras</p><p>• Autor: Pedro Morettin</p><p>• Editora: Blucher</p><p>• Sinopse: O livro Econometria Financeira resulta da experiência vivenciada pelo autor,</p><p>em vários anos, de ministrar cursos na área no Instituto de Matemática e Estatística da</p><p>Universidade de São Paulo.</p><p>Seu conteúdo didático e prático é dirigido para alunos de pós-graduação, mestrado e</p><p>doutorado em áreas como Estatística, Economia, Finanças e afins. O tema da obra se</p><p>destaca de forma prática e funcional pelo espaço dedicado a análises de séries reais,</p><p>com uso intensivo de pacotes computacionais apropriados, fato que a indica como</p><p>literatura obrigatória para estudantes e profissionais do mercado financeiro.</p><p>FILME/VÍDEO</p><p>• Título: Quants: Os alquimistas de Wall Street</p><p>• Ano: 2010</p><p>• Sinopse: A grande maioria das ações do mercado financeiro mundial são vendidas e</p><p>compradas por decisões de programas de computador que levam milésimos de segundo.</p><p>Se nem mesmo as maiores autoridades do mundo que já trabalharam com os modelos</p><p>matemáticos para calcular os riscos e o valor de um produto financeiro acreditam nesse</p><p>sistema, porque a sociedade e os governos deveriam?</p><p>REFERÊNCIAS</p><p>GUJARATI, Damodar N. Basic Econometrics. New York: The McGraw-Hill</p><p>Companies, 2004</p><p>GUJARATI, Damodar N., PORTER, Dawn C.. Econometria Básica. São Paulo: AMGH</p><p>Editora Ltda., 5 ed., 2011</p><p>WOOLDRIDGE, Jeffrey M. Introdução à Econometria: uma abordagem moderna. São</p><p>Paulo: Cengage Learning, 2016</p><p>CONCLUSÃO GERAL</p><p>Prezado(a) Aluno(a),</p><p>Nesse material, buscamos trazer os aspectos gerais do estudo e uso da</p><p>econometria para alunos de economia. Para tanto, transitamos desde os pontos mais</p><p>básicos até modelos mais complexos e avançados, para que, assim, você tenha</p><p>ferramentas necessárias para dar embasamento empírico aos seus trabalhos, sejam</p><p>para o curso, para análises no mercado de trabalho ou simplesmente para entender</p><p>melhor como as relações econômicas funcionam.</p><p>Para isso, destacamos inicialmente a introdução dos conceitos econométricos, no</p><p>modelo de regressão linear simples, um modelo pouco complexo que nos permite</p><p>identificar as principais características e absorver a ideia básica do estudo econométrico.</p><p>Através desse modelo, percebemos também que diversas condições, premissas, devem</p><p>ser atendidas para que tenhamos o melhor e mais eficiente estimador para a equação</p><p>econométrica.</p><p>Aprendemos também a calcular e, ainda mais importante, a interpretar os</p><p>resultados do método dos mínimos quadrados ordinários, um método que minimiza o</p><p>quadrado dos erros e nos permite observar qual a melhor linha de regressão para</p><p>analisar a relação entre uma variável explicativa e a variável dependente.</p><p>Após o bom entendimento desses métodos, partimos então para a análise</p><p>inferencial, onde detectamos que podemos confiar nos estimadores que calculamos e,</p><p>como consequência, nas conclusões que obtivemos. Além disso, a unidade II também</p><p>permitiu a expansão do modelo simples para o múltiplo, ampliando a capacidade de</p><p>análise e aproximando-a do contexto real.</p><p>A partir disso, observamos a aplicação real da econometria e os problemas</p><p>relacionados ao relaxamento das premissas antes expostas, além de identificar como</p><p>resolver tais problemas e como diagnosticar a especificação correta.</p><p>Por fim, na última unidade observamos alguns modelos mais avançados que</p><p>permitem analisar diferentes tipos de dados e situações, além de demonstrar na prática</p><p>como se utiliza um software econométrico.</p><p>A partir de agora você, como pesquisador, analista ou aluno, tem as ferramentas</p><p>necessárias para iniciar testes empíricos sobre as relações econômicas que mais lhe</p><p>interessam. Para isso, eventualmente você terá que voltar à essa apostila, aos livros e à</p><p>pesquisa econométrica, mas agora com melhor entendimento de como essa fantástica</p><p>ferramenta pode ser utilizada.</p><p>Até uma próxima oportunidade. Muito Obrigado!</p><p>entre as variáveis não é exata.</p><p>A econometria é a base de grande número de trabalhos científicos nos dias de</p><p>hoje. Ela está presente em inúmeros papers das revistas mais importantes da academia,</p><p>algumas das quais são exclusivas para o desenvolvimento teórico do assunto.</p><p>No entanto, a econometria foi ainda mais central para garantir três prêmios Nobel.</p><p>O primeiro deles foi para o norueguês Ragnar Frisch e o holandês Jan Tinbergen, em</p><p>1969, considerados por muitos como os pioneiros da formulação de modelos</p><p>matemáticos e estatísticos na economia. O segundo Nobel para desenvolvimentos nessa</p><p>área foi para Lawrence Robert Klein, que analisou modelos empíricos de flutuação de</p><p>negócios e criou modelos computacionais para prever tendências através da</p><p>econometria. O último destaque é o prêmio cedido ao norueguês Trygve Haavelmo, que</p><p>criou técnicas para prever como a mudança de um aspecto influencia em outros, na</p><p>economia.</p><p>Fonte: https://www.nobelprize.org/prizes/lists/all-prizes-in-economic-sciences/</p><p>#SAIBA MAIS#</p><p>1.2 Conceitos e definições importantes</p><p>O método econométrico por si só já carrega várias informações importantes e a</p><p>noção geral do que é a econometria. No entanto, alguns conceitos são de importante</p><p>entendimento para avançarmos na demonstração das análises. Neste subtópico</p><p>trataremos sobre alguns desses conceitos.</p><p>A regressão é uma das ferramentas mais importantes para a análise econométrica</p><p>e foi, inclusive, utilizada para demonstrar o método no subtópico anterior. A origem do</p><p>termo regressão, segundo Gujarati e Porter (2011), vem de Francis Galton, em 1886,</p><p>que verificou a relação entre a altura dos pais e dos filhos. Galton percebeu que, apesar</p><p>de existir uma tendência de que pais mais altos tivessem filhos mais altos, a estatura</p><p>média das crianças tendiam a mover-se para a altura média da população como um todo,</p><p>ou seja, voltar à mediocridade.</p><p>Mais tarde, Karl Pearson (1903 apud Gujarati e Porter, 2011), coletou mais de mil</p><p>registros das estaturas de membros de diferentes grupos familiares e constatou que a</p><p>altura média dos filhos de um grupo de pais altos era menor do que a de seus pais e que</p><p>a altura média de um grupo de filhos de pais mais baixos era maior do que a de seus</p><p>pais; portanto, filhos de pais altos e baixos “regrediam” igualmente à altura média de</p><p>todos os homens.</p><p>No entanto, Gujarati e Porter (2011) argumenta que a interpretação moderna da</p><p>regressão evoluiu e se diferenciou, para ele:</p><p>A análise de regressão diz respeito ao estudo da dependência de uma variável,</p><p>a variável dependente, em relação a uma ou mais variáveis, as variáveis</p><p>explanatórias, visando estimar e/ou prever o valor médio (da população) da</p><p>primeira em termos dos valores conhecidos ou fixados (em amostragens</p><p>repetidas) das segundas.(Gujarati e Porter, 2011, p. 39)</p><p>Portanto, a variável dependente é aquela cujo valor depende das variações da</p><p>variável independente (explanatória ou explicativa). Segundo Wooldridge (2016) os</p><p>termos variáveis dependentes e variáveis e independentes são usados com frequência</p><p>em economia, mas tem vários nomes diferentes, que são intercambiáveis.3</p><p>Temos também diferentes tipos de dados: Séries temporais, dados em corte</p><p>transversal (cross-section) e dados em painel.</p><p>Wooldridge (2016) explica que os dados de corte transversal são uma amostra de</p><p>indivíduos, agentes, empresas, cidades, etc, tomada em um ponto do tempo. Por</p><p>exemplo, para 2020, temos um para a Argentina, uma renda, uma carga tributária, gastos</p><p>do governo. Para o segundo país, o ID 2, Brasil, também temos as mesmas variáveis,</p><p>porém também para 2020.</p><p>No caso das séries temporais, Wooldridge (2016) explica que temos observações</p><p>sobre uma ou várias variáveis ao longo do tempo. Portanto, para a Argentina temos renda</p><p>e carga tributária e gastos do governo para o intervalo de tempo de 1980 a 2020.</p><p>Diferente dos cortes transversais, nas séries de tempo, a ordem cronológica traz</p><p>informações importantes para a análise.</p><p>3 Wooldridge (2016) destaca que os nomes comumente dados à variável dependente são: variável</p><p>explicativa, variável de resposta, variável prevista e regressando. Para a variável independente, do outro</p><p>lado, os nomes são: variável explicativa, de controle, previsora ou regresso.</p><p>Os dados em painel consiste em uma série de tempo (1980 – 2020, por exemplo)</p><p>para cada indivíduo, empresa, etc, para várias variáveis. Portanto, caracteriza-se como</p><p>uma mistura entre os dois tipos acima (cross –section e Séries temporais).</p><p>Portanto, a econometria é uma combinação analítica da teoria econômica,</p><p>economia matemática e da estatística econômica e, a partir dela, pode-se fazer</p><p>inferência sobre as relações entre as variáveis dependente e independente. O próximo</p><p>tópico começa a explicar como funciona a análise de regressão com 2 variáveis.</p><p>2 ANÁLISE DE REGRESSÃO COM DUAS VARIÁVEIS</p><p>Imagem do Tópico: 766012597</p><p>A partir dos conceitos estabelecidos no tópico passado podemos começar a</p><p>observar como é estimado um dos modelos mais simples da econometria, a regressão</p><p>com duas variáveis (ou bivariada). Nesse tipo de regressão é identificada e estimada a</p><p>relação entre somente duas variáveis, sendo elas a variável dependente e uma variável</p><p>explicativa.</p><p>2.1 A função de regressão populacional (FRP)</p><p>Gujarati e Porter (2011) explica que a análise de regressão se trata de uma</p><p>estimação ou previsão do valor médio (para a população) de uma variável dependente</p><p>com base nos valores coletados de uma variável independente. Para exemplificar</p><p>algumas ideias básicas desse tipo de regressão, o autor cria um exemplo hipotético,</p><p>ainda analisando a lei psicológica fundamental keynesiana.</p><p>Assim, divide em dez grupos de renda, 60 famílias (considerando-as à população).</p><p>Assim, a tabela 1 demonstra os dados hipotéticos:</p><p>Tabela 1: Despesas familiares e função de densidade de probabilidade</p><p>Fonte: Adaptado de Gujarati e Porter (2011, p. 60 e 61).</p><p>A tabela mostra os dados de despesa de consumo semanal das famílias (Y, a</p><p>variável dependente) representada pelas colunas e os dez grupos de renda (X, variável</p><p>explicativa). Analisamos então, como a renda (que varia entre os grupos) determina o</p><p>consumo. Gujarati e Porter (2011) destaca que, apesar da variabilidade de gastos com</p><p>consumo dentro de cada grupo de renda, as despesas com consumo aumentam, em</p><p>média, com o aumento da renda.</p><p>Se somarmos as despesas com consumo de cada faixa de renda das 60 famílias</p><p>e dividirmos pelo total alcançamos:</p><p>7.272</p><p>60</p><p>= 121,60</p><p>Esta é a média incondicional. É incondicional porque não levamos em</p><p>consideração a classe de renda para chegar neste total.</p><p>Estamos interessados na média condicional. Para tanto, fazemos as</p><p>probabilidades condicionais de cada consumo a cada nível de renda e multiplicamos pelo</p><p>valor da despesa com consumo e, assim, encontramos a média condicional.</p><p>𝐸(𝑋 = 80) =</p><p>1</p><p>5</p><p>∗ 55 +</p><p>1</p><p>5</p><p>∗ 60 +</p><p>1</p><p>5</p><p>∗ 65 +</p><p>1</p><p>5</p><p>∗ 70 +</p><p>1</p><p>5</p><p>∗ 75 = 65</p><p>𝐸(𝑋 = 100) =</p><p>1</p><p>6</p><p>∗ 65 +</p><p>1</p><p>6</p><p>∗ 70 +</p><p>1</p><p>6</p><p>∗ 74 +</p><p>1</p><p>6</p><p>∗ 80 +</p><p>1</p><p>6</p><p>∗ 85 +</p><p>1</p><p>6</p><p>∗ 88 = 77</p><p>𝐸(𝑋 = 120) =</p><p>1</p><p>5</p><p>∗ 79 +</p><p>1</p><p>5</p><p>∗ 84 +</p><p>1</p><p>5</p><p>∗ 90 +</p><p>1</p><p>5</p><p>∗ 94 +</p><p>1</p><p>5</p><p>∗ 98 = 89</p><p>𝐸(𝑋 = 260) =</p><p>1</p><p>7</p><p>∗ 150 +</p><p>1</p><p>7</p><p>∗ 152 +</p><p>1</p><p>7</p><p>∗ 175 +</p><p>1</p><p>7</p><p>∗ 178 +</p><p>1</p><p>7</p><p>∗ 180 +</p><p>1</p><p>7</p><p>∗ 185 +</p><p>1</p><p>7</p><p>∗ 191 = 173</p><p>Se unirmos os valores médios condicionais obteremos o que é conhecido como</p><p>linha de regressão populacional (LRP), demonstrada na figura abaixo:</p><p>Figura 4: Distribuição condicional das despesas para níveis de renda</p><p>Fonte: Gujarati e Porter (2011, p. 60)</p><p>De maneira mais simples, essa relação é “a regressão de Y contra X”. o</p><p>qualificativo “populacional” mostra que estamos considerando toda a população de 60</p><p>famílias. Na realidade, uma população tem muito mais famílias. (Gujarati e Porter, 2011,</p><p>p. 61)</p><p>A figura 5, abaixo,</p><p>mostra em termos geométricos, que “uma curva de regressão</p><p>populacional é apenas o local geométrico das médias condicionais da variável</p><p>dependente para os valores fixados da variável explanatória.” (Gujarati e Porter, 2011,</p><p>p. 61) Ou seja, é a curva que faz a conexão das médias da população de Y para cada</p><p>valor da variável explicativa X.</p><p>Figura 5: Linha de Regressão populacional</p><p>Fonte: Gujarati e Porter (2011, p. 61).</p><p>Perceba como, para cada diferente faixa de renda (X), há uma população de</p><p>valores de correspondentes às despesas de consumo (Y) que estão distribuídas em</p><p>torno da média condicional dos vários valores de Y. (Gujarati e Porter, 2011). Ou seja,</p><p>dadas as condições de distribuição normal que veremos mais à frente, temos uma</p><p>esperança (ou expectativa) de Y dada as observações de X, ou ainda, de consumo dada</p><p>a renda, que forma uma relação positivamente inclinada entre as variáveis.</p><p>Portanto, a média condicional E (Y|X) é uma função de Xi, em que o i subscrito</p><p>denota cada observação de X, ou seja:</p><p>𝐸(𝑋𝑖) = 𝑓(𝑋𝑖) (4)</p><p>Se identificarmos que a função 𝑓(𝑋𝑖) é linear, podemos transformar essa</p><p>equação em:</p><p>𝐸(𝑋𝑖) = 𝛽1 + 𝛽2𝑋𝑖 (5)</p><p>Assim, temos uma função de regressão populacional (FRP) linear4 onde 𝛽</p><p>1</p><p>e 𝛽</p><p>2</p><p>são parâmetros que não conhecemos, mas são fixos. Chamamos o 𝛽</p><p>1</p><p>de intercepto, que</p><p>representa qual o valor da variável dependente (Y), quando a variável explicativa (X) é</p><p>igual a zero. Para entender melhor esse conceito imagine novamente a função de</p><p>consumo. Examinamos quanto é o nosso consumo para cada nível de renda, ou seja,</p><p>quanto é Y para cada diferente X. Mas e se a minha renda for igual a zero, não consumirei</p><p>nada? Para nossa subsistência, temos que consumir ao menos o que nos satisfaz</p><p>fisicamente. Assim, mesmo quando X=0, Y>0. Essa quantia é representada pelo 𝛽</p><p>1</p><p>. O</p><p>𝛽</p><p>2</p><p>, por outro lado, é o coeficiente angular, nos mostra quanto Y varia se X variar uma</p><p>unidade, definindo a inclinação da reta de regressão.</p><p>Lembre-se, no entanto, que para considerarmos um modelo econométrico</p><p>devemos considerar o distúrbio de erro, ou seja, apesar de entender pelo exemplo que</p><p>o consumo aumenta com o aumento da renda, isso não é observado para todas as</p><p>famílias. Assim, Gujarati e Porter (2011) mostra que: dada uma renda Xi, o consumo de</p><p>uma das famílias da população se encontra ao redor do consumo médio dessa</p><p>população, em torno de sua expectativa condicional.</p><p>Assim, podemos expressar o desvio de Yi em relação ao seu valor esperado como</p><p>sendo:</p><p>𝑢𝑖 = 𝑌𝑖 − 𝐸(𝑋𝑖) (6)</p><p>Ou</p><p>𝑌𝑖 = 𝐸(𝑋𝑖) + 𝑢𝑖 (7)</p><p>em que 𝑢𝑖 o distúrbio estocástico ou termo de erro estocástico, uma variável</p><p>aleatória não observável que pode assumir valores negativos ou positivos.</p><p>Dada a equação (7) se tomarmos o valor esperado nos dois lados, obteremos:</p><p>𝐸(𝑋𝑖) = 𝐸[𝐸(𝑋𝑖)] + 𝐸(𝑢𝑖) (8)</p><p>Observe que 𝐸(𝑋𝑖) é uma constante, uma vez que o valor de 𝑋𝑖 é fixo. Além disso, 𝐸(𝑋𝑖)</p><p>é o mesmo que 𝐸(𝑋𝑖). Então:</p><p>𝐸(𝑢𝑖) = 0 (9)</p><p>4 A função de regressão pode não ser linear. Dependendo do modelo e de sua estimação podemos ter</p><p>linearidade ou não nos parâmetros ou nas variáveis. Assim, podemos ter funções quadráticas,</p><p>exponenciais, cúbicas, etc.</p><p>Assim, segundo Gujarati e Porter (2011), ao supor que a reta de regressão passa</p><p>pelas médias condicionais de Y temos que os valores médios condicionais de 𝑢𝑖 sejam</p><p>iguais a zero.</p><p>2.2 A função de regressão Amostral</p><p>Até agora analisamos as estimativas de dados que consideramos da população.</p><p>No entanto, na maioria dos casos, os econometristas não têm acesso a todos os dados</p><p>existentes daquele grupo área. Assim, usualmente trabalha-se com dados amostrais,</p><p>uma pequena parcela da população. Esse tópico apresenta, portanto, estimar a função</p><p>de regressão embasada em informações amostrais.</p><p>No uso de dados amostrais, utilizados quando a população é desconhecida,</p><p>temos dados amostrais selecionados aleatoriamente de valores de Y para os valores de</p><p>X fixos.</p><p>No caso das amostras, não podemos estimar exatamente a FRP devido às</p><p>variações amostrais. Cada amostra é diferente de outra em uma mesma população.</p><p>Assim, Gujarati e Porter (2011) demonstra que, para a amostra, a função de regressão</p><p>pode ser descrita por:</p><p>�̂�𝑖 = �̂�1 + �̂�2𝑋𝑖 (10)</p><p>Em que:</p><p>�̂�𝑖 = estimador de 𝐸(𝑋𝑖);</p><p>�̂�</p><p>1</p><p>= estimador 𝛽</p><p>1</p><p>; e,</p><p>�̂�</p><p>2</p><p>= estimador de 𝛽</p><p>2</p><p>.</p><p>Assim, podemos estimar a função de regressão amostral (FRA) na forma</p><p>estocástica:</p><p>𝑌𝑖 = �̂�1 + �̂�2𝑋𝑖 + �̂�𝑖 (11)</p><p>Gujarati e Porter (2011) explica ainda que podemos encontrar um método que</p><p>tenha a maior aproximação possível entre a FRA e a FRP. Essa tentativa e o método</p><p>serão explorados na próxima seção.</p><p>3 MÉTODO DOS MÍNIMOS QUADRADOS ORDINÁRIOS (MQO)</p><p>Imagem do Tópico: 1655006335</p><p>O método dos mínimos quadrados ordinários é, segundo Gujarati e Porter (2011),</p><p>o método mais utilizado para análise de regressão e na tentativa de estimar a função de</p><p>regressão populacional (FRP) com base na função de regressão amostral (FRA) da</p><p>maneira mais acurada possível.</p><p>Este método é atribuído a Carl Friedrich Gauss, um matemático alemão. Sob</p><p>certas premissas, o método consiste da seguinte forma. Temos a FRP para duas</p><p>variáveis:</p><p>𝑌𝑖 = 𝛽1 + 𝛽2𝑋𝑖 + 𝑢𝑖</p><p>Contudo, a FRP não pode ser observada diretamente. Temos que a estimar a</p><p>partir da FRA:</p><p>𝑌𝑖 = �̂�1 + �̂�2𝑋𝑖 + �̂�𝑖</p><p>onde, 𝑌𝑖 = �̂�𝑖 + �̂�𝑖</p><p>Mas como estimamos a própria FRA? Primeiro expressamos:</p><p>�̂�𝑖 = 𝑌𝑖 − �̂�𝑖</p><p>�̂�𝑖 = 𝑌𝑖 − �̂�1 − �̂�2𝑋𝑖</p><p>Segundo Gujarati e Porter (2011), o que objetivamos determinar a é uma FRA de</p><p>tal forma que fique o mais próximo possível de 𝑌𝑖 (Y observado). Isso quer dizer que</p><p>buscamos minimizar os erros. Para atingir esse objetivo, podemos adotar o seguinte</p><p>critério: escolhemos a FRA de tal forma que a soma dos resíduos (∑ �̂�𝑖 =</p><p>∑ (𝑌𝑖 − �̂�𝑖)) seja a menor possível.</p><p>Valor Estimado – Média condicional de</p><p>Diferença entre o valor observado e</p><p>estimado</p><p>Figura 6: Critério dos Mínimos Quadrados ordinários</p><p>Fonte: Gujarati e Porter (2011)</p><p>Se adotarmos o critério de minimizar a soma dos resíduos, como vemos na Figura</p><p>acima, os resíduos �̂�2 e �̂�3, bem como os resíduos �̂�1 e �̂�4tem o mesmo peso na soma,</p><p>mesmo que �̂�2 e �̂�3 estejam muito mais próximos da FRA. Ou seja, todos os resíduos</p><p>recebem a mesma importância em relação à FRA, independente se estão mais próximos</p><p>ou mais distantes. Uma consequência disso é que é bem possível que a soma</p><p>algébrica dos �̂�𝑖 seja pequena (ou até zero).</p><p>Para evitar esse problema Gujarati e Porter (2011) sugere a adoção do critério</p><p>dos mínimos quadrados, segundo o qual a FRA pode ser fixada de tal modo que:</p><p>∑ �̂�𝑖</p><p>2 = ∑ (𝑌𝑖 − �̂�𝑖)</p><p>2</p><p>= ∑ (𝑌𝑖 − �̂�1 − �̂�2𝑋𝑖)</p><p>2</p><p>Seja o menor possível e que �̂�𝑖</p><p>2 represente os resíduos ao quadrado.</p><p>A intuição deste critério se inclina no fato de que, ao elevá-los ao quadrado, o</p><p>método dá mais peso aos resíduos maiores (�̂�1 e �̂�4) do que para os menores (�̂�2 e �̂�3).</p><p>3.1 Estimadores dos métodos dos mínimos quadrados ordinários.</p><p>A subseção anterior demonstrou porque o método dos mínimos quadrados</p><p>permite a melhor escolha da FRA. Demonstraremos agora como encontrar os</p><p>parâmetros do modelo MQO.</p><p>Segundo Gujarati e Porter (2011), a função de regressão amostral é dada por:</p><p>𝑌𝑖 = �̂�1 + �̂�2𝑋𝑖 + �̂�𝑖</p><p>A equação da reta (médias incondicionais) é dada por:</p><p>𝑌 = �̂�1 + �̂�2𝑋 + 0</p><p>Subtraindo a primeira equação da segunda, alcançamos:</p><p>𝑌𝑖 − 𝑌 = �̂�1 − �̂�1 + �̂�2𝑋𝑖 − �̂�2𝑋 + �̂�𝑖 − 0</p><p>Quando subtraímos do valor observado de determinada variável a sua média</p><p>incondicional obtemos os valores centrados na média (que</p><p>pode ser visto como um</p><p>processo de padronização). Assim, a variável resultante se torna:</p><p>𝑌𝑖 − 𝑌 = 𝑦𝑖</p><p>𝑋𝑖 − 𝑋 = 𝑥𝑖</p><p>Assim, teremos que:</p><p>𝑌𝑖 − 𝑌 = �̂�1 − �̂�1 + �̂�2𝑋𝑖 − �̂�2𝑋 + �̂�𝑖 − 0</p><p>𝑦𝑖 = �̂�2𝑥𝑖 + �̂�𝑖</p><p>�̂�𝑖 = 𝑦𝑖 − �̂�2𝑥𝑖</p><p>Como vimos, para ponderarmos de maneira eficiente a soma dos resíduos</p><p>(∑ �̂�𝑖) utilizamos os resíduos elevados ao quadrado. Então:</p><p>∑</p><p>𝑛</p><p>𝑖=1</p><p>�̂�𝑖</p><p>2 = ∑</p><p>𝑛</p><p>𝑖=1</p><p>(𝑦𝑖 − �̂�2𝑥𝑖)</p><p>2</p><p>∑</p><p>𝑛</p><p>𝑖=1</p><p>�̂�𝑖</p><p>2 = ∑</p><p>𝑛</p><p>𝑖=1</p><p>(𝑦𝑖</p><p>2 − 2𝑦𝑖�̂�2𝑥𝑖 + �̂�2</p><p>2𝑥𝑖</p><p>2)</p><p>Distribuindo o somatório, teremos:</p><p>∑</p><p>𝑛</p><p>𝑖=1</p><p>�̂�𝑖</p><p>2 = ∑</p><p>𝑛</p><p>𝑖=1</p><p>𝑦𝑖</p><p>2 − 2�̂�2 ∑</p><p>𝑛</p><p>𝑖=1</p><p>𝑥𝑖𝑦𝑖 + �̂�2</p><p>2 ∑</p><p>𝑛</p><p>𝑖=1</p><p>𝑥𝑖</p><p>2</p><p>Para minimizar a soma do quadrado do resíduo, fazemos a derivada parcial em relação</p><p>a �̂�</p><p>2</p><p>e igualamos a zero (ponto de mínimo – inclinação da reta tangente (derivada)</p><p>igualada a zero (inclinação zero – reta horizontal)):</p><p>𝜕 ∑𝑛</p><p>𝑖=1 �̂�𝑖</p><p>2</p><p>𝜕�̂�2</p><p>= −2 ∑</p><p>𝑛</p><p>𝑖=1</p><p>𝑥𝑖𝑦𝑖</p><p>+ 2�̂�2 ∑</p><p>𝑛</p><p>𝑖=1</p><p>𝑥𝑖</p><p>2 = 0</p><p>Isolando o �̂�</p><p>2</p><p>encontramos o estimador pelo método dos mínimos quadrados</p><p>ordinários de 𝛽</p><p>2</p><p>. Então:</p><p>�̂�2 =</p><p>∑𝑛</p><p>𝑖=1 𝑥𝑖𝑦𝑖</p><p>∑𝑛</p><p>𝑖=1 𝑥𝑖</p><p>2 (12)</p><p>Para encontrar o estimador de 𝛽</p><p>1</p><p>utilizamos a equação da reta:</p><p>𝑌 = �̂�1 + �̂�2𝑋 + 0</p><p>�̂�</p><p>1</p><p>= 𝑌 − �̂�2𝑋 (13)</p><p>Ou seja, o método dos MQO nos fornece estimadores únicos de �̂�</p><p>1</p><p>e �̂�</p><p>2</p><p>que são</p><p>responsáveis pelo menor valor possível de ∑𝑛</p><p>𝑖=1 �̂�𝑖</p><p>2.</p><p>Até aqui desenvolvemos o método dos mínimos quadrados ordinários para</p><p>permitir um melhor entendimento do método. No entanto, não há necessidade de saber</p><p>todo o desenvolvimento algébrico do método. As equações (12) e (13) são as mais</p><p>importantes nesse sentido. Elas permitirão, a partir dos dados disponibilizados pelo</p><p>exercício ou coletados pelo pesquisador, o cálculo de intercepto estimado (�̂�</p><p>1</p><p>) e do</p><p>coeficiente angular (�̂�</p><p>2</p><p>), as duas informações mais importantes para a reta de regressão.</p><p>3.2 Exemplo numérico dos estimadores</p><p>Para entender melhor como fazer a mecânica do cálculo dos estimadores, vamos</p><p>analisar um exemplo numérico apresentado por Gujarati e Porter (2011).</p><p>A partir da lei psicológica fundamental de Keynes (a qual dizia que os homens</p><p>estão dispostos em regra e na média, a aumentar seu consumo à medida que sua renda</p><p>aumenta, mas não tanto o aumento de renda), foi obtida a amostra abaixo:</p><p>Tabela 3: Exemplo hipotético</p><p>Y X</p><p>70 80</p><p>65 100</p><p>90 120</p><p>95 140</p><p>110 160</p><p>115 180</p><p>120 200</p><p>140 220</p><p>155 240</p><p>150 260</p><p>onde Y é o consumo e X é a renda.</p><p>Embora Keynes não tenha especificado a forma funcional exata da relação entre</p><p>consumo e renda, para simplificar, imaginaremos que é linear. Então, dada a amostra,</p><p>iremos alcançar a FRA:</p><p>�̂�𝑖 = �̂�1 + �̂�2𝑋𝑖</p><p>Vamos, então, alcançar as estimativas que acabamos de aprender:</p><p>Tabela 4: Cálculos para aplicação nas equações (exemplo)</p><p>Nº de</p><p>Obs. 𝑌𝑖 𝑋𝑖</p><p>𝑌𝑖 − 𝑌</p><p>= 𝑦𝑖</p><p>𝑋𝑖 − 𝑋</p><p>= 𝑥𝑖 𝑥𝑖</p><p>2 𝑥𝑖𝑦𝑖 �̂�𝑖 𝑌𝑖 − �̂�𝑖 = �̂�𝑖</p><p>�̂�𝑖</p><p>2</p><p>1 70 80 -41 -90 8.100 3.690 65,1818 4,8181 23,214</p><p>2 65 100 -46 -70 4.900 3.220 75,3636 -10,3636 107,404</p><p>3 90 120 -21 50 2.500 1.050 85,5454 4,4545 19,843</p><p>4 95 140 -16 -30 900 480 95,7272 -0,7272 0,529</p><p>5 110 160 -1 -10 100 10 105,9090 4,0909 16,735</p><p>6 115 180 4 10 100 40 116,0909 -1,0909 1,190</p><p>7 120 200 9 30 900 270 25,2727 -6,2727 39,347</p><p>8 140 220 29 50 2.500 1.450 136,4545 3,5454 12,570</p><p>9 155 240 44 70 4.900 3.080 145,6363 8,3636 69,950</p><p>10 150 260 39 90 8.100 3.510 156,8181 -6,8181 46,486</p><p>Soma 1.110 1.700 0 0 33.000 16.800 1.110 0 337,268</p><p>Média 111 170 - - - - - -</p><p>Fonte: elaboração própria</p><p>As primeiras 3 colunas se referem aos dados coletados, Consumo (Y) e Renda</p><p>(X). Para aplicar a fórmula das equações (12) e (13), necessitamos calcular as outras</p><p>colunas. A terceira coluna se refere à 𝑦𝑖, que é a distância entre cada observação de Y</p><p>e a média de Y. Assim, calcula-se primeiramente a média de Y (111) e subtrai-se cada</p><p>observação de Y por essa média. A primeira linha, por exemplo, é dada por:</p><p>𝑌𝑖 − 𝑌 = 𝑦𝑖</p><p>70 – 111 = -41</p><p>O mesmo ocorre com a quarta coluna, mas agora para a variável X.</p><p>Após calcular em cada coluna os componentes da equação (12) e (13), para</p><p>cada observação, podemos aplicá-los na fórmula:</p><p>�̂�</p><p>2</p><p>=</p><p>∑𝑛</p><p>𝑖=1 𝑥𝑖𝑦𝑖</p><p>∑𝑛</p><p>𝑖=1 𝑥𝑖</p><p>2 =</p><p>16800</p><p>33000</p><p>= 0,5091</p><p>�̂�</p><p>1</p><p>= 𝑌 − �̂�2𝑋 = 111 − 0,5091 ∗ 170 = 24,4545</p><p>�̂�𝑖 = �̂�1 + �̂�2𝑋𝑖</p><p>�̂�𝑖 = 24,4545 + 0,5091𝑋𝑖</p><p>A figura 7 demonstra os resultados estimados em um gráfico:</p><p>Figura 7: Linha de regressão baseado no exemplo do consumo keynesiano</p><p>Fonte: Gujarati (2004)</p><p>Como podemos interpretar a FRA? Uma vez que a variável endógena são as</p><p>despesas com o consumo e a exógena a renda (considere que a unidade de medida seja</p><p>reais brasileiros), temos que: Sendo o �̂�</p><p>1</p><p>o intercepto, ou seja, o valor de Y quando X é</p><p>igual a zero, observamos que quando a renda é zero, o consumidor ainda consome em</p><p>média R$ 24,45.</p><p>Temos também que, sendo o �̂�</p><p>2</p><p>o coeficiente angular (define a inclinação e mostra</p><p>quanto Y varia quando X varia em uma unidade), observamos que quando a renda varia</p><p>em 1 real, o consumidor altera sua renda em R$ 0,5091.</p><p>3.3 Premissas subjacentes ao método dos MQO</p><p>Até agora examinamos como o MQO pode minimizar os erros e estimar os</p><p>parâmetros. Se nosso objetivo fosse somente o da estimação, isso seria suficiente. No</p><p>entanto, para entender se a estimação pode ser considerada estatisticamente</p><p>significativa, temos que fazer inferências estatísticas e, para isso, os estimadores</p><p>precisam atender algumas hipóteses. Gujarati e Porter (2011) apresenta as premissas</p><p>do modelo como seguem:5</p><p>1. Modelo de regressão linear: o modelo é linear nos parâmetros, mas pode</p><p>não ser linear nas variáveis</p><p>2. Os valores de X são fixos ou independentes do termo de erro.</p><p>3. Valor médio do termo de erro ui é zero:</p><p>4. Homocedasticidade ou variância constante de ui: A variância do termo de</p><p>erro não se altera, independentemente do valor de X.</p><p>5. Não há autocorrelação entre os termos de erro.</p><p>6. O número de observações n deve ser maior que o número de parâmetros</p><p>a serem estimados</p><p>7. Os valores de X precisam ter variabilidade</p><p>Através dessas premissas, Gujarati e Porter (2011) explica que o método do MQO</p><p>proporciona estimadores que tem diversas propriedades estatísticas desejáveis, tais</p><p>como:</p><p>i) Os estimadores são lineares, o que facilita o entendimento da regressão;</p><p>ii) São não-viesados, ou seja, se repetirmos o método diversas vezes, na</p><p>média, os estimadores tem valores iguais ao valores reais;</p><p>iii) os estimadores são eficientes.</p><p>Isso faz com que os estimadores sejam o “Best linear unbiased estimator”,</p><p>extensamente conhecido como BLUE, ou, na tradução mais comum, “melhor estimador</p><p>linear não-viesado”, o MELNT. Essas condições ótimas estão contidas no teorema de</p><p>Gauss-Markov (Gujarati e Porter, 2011, p. 93).</p><p>3.4 Coeficiente de Determinação r2: a medida de qualidade do ajustamento</p><p>5 Por terem caráter teórico as premissas são só apresentadas nesse momento. Voltaremos a falar mais</p><p>sobre elas quando as mesmas forem relaxadas, nas unidades posteriores. Se desejar entender melhor a</p><p>construção dessas premissas, ler Gujarati e Porter (2011, cap. 3).</p><p>O coeficiente de determinação (r2) nos ajuda a mostrar se a reta de regressão é</p><p>adequada aos dados coletados e observados. Quando tratamos de uma regressão para</p><p>duas variáveis, como a que consideramos até aqui, usaremos a nomenclatura r2. No</p><p>entanto, quando passarmos a tratar sobre regressões múltiplas, usaremos R2.</p><p>Gujarati e Porter (2011) simplifica a demonstração do coeficiente através da</p><p>utilização de diagramas de Venn:</p><p>Figura 8: Diagrama de Venn</p><p>Fonte: Gujarati e Porter (2011).</p><p>Nas figuras, o círculo Y representa a variação da variável dependente 𝑌 e o círculo</p><p>𝑋, a variável independente 𝑋. A área sombreada indica a medida em que a variação de</p><p>𝑌 é explicada pela variação de 𝑋 (no caso, pela estimação dos MQO). Na figura 8(a) as</p><p>variação de X em nada explicam as variações de Y. Nas figuras subsequentes, esse</p><p>poder de explicação aumenta.</p><p>Com o r2 podemos descrever então, quanto às variações da variável dependente</p><p>X, explicam a variável da variável dependente Y. Ou de outra forma, o “r2 mede a</p><p>proporção ou percentual da variação total de Y explicada pelo modelo de regressão”.</p><p>(Gujarati e Porter, 2011, p. 97).</p><p>Gujarati e Porter (2011) explica que o coeficiente de determinação pode ser</p><p>encontrado por:</p><p>𝑟2 =</p><p>[∑ (𝑌𝑖−𝑌)(�̂�𝑖−𝑌)]</p><p>2</p><p>∑ (𝑌𝑖−𝑌)</p><p>2</p><p>∑ (�̂�𝑖−𝑌)</p><p>2 (13)</p><p>Utilizaremos esse coeficiente tanto para regressão quanto para a regressão</p><p>múltipla. No entanto, antes, analisaremos a construção dos intervalos de confiança para</p><p>inferência estatística.</p><p>4 INTERVALO DE CONFIANÇA</p><p>Imagem do Tópico: 1758007673</p><p>Na estatística6, a confiabilidade de um estimador pontual é medida por seu erro-</p><p>padrão. Assim, ao invés de nos embasar apenas na estatística pontual, podemos</p><p>construir um intervalo em torno do estimador pontual, de tal modo que esse intervalo</p><p>tenha, digamos, 95% de probabilidade de incluir o verdadeiro valor do parâmetro. Assim,</p><p>podemos fazer inferências sobre a significância estatística da análise realizada.</p><p>Essas inferências são feitas dentro de um intervalo de confiança, que é um</p><p>intervalo estimado de um parâmetro populacional não conhecido.</p><p>Para estimar esse intervalo, suponha primeiramente que queremos verificar o</p><p>quanto �̂�</p><p>2</p><p>“está perto” de 𝛽</p><p>2</p><p>. Para isto tentamos encontrar dois números positivos 𝛿 e 𝛼,</p><p>sendo este último situado entre 0 e 1, tais que a probabilidade de que o intervalo</p><p>aleatório (�̂�</p><p>2</p><p>+ 𝛿, �̂�</p><p>2</p><p>− 𝛿) contenha o verdadeiro valor de 𝛽</p><p>2</p><p>seja 1 − 𝛼. (Gujarati e Porter,</p><p>2011)</p><p>temos então,</p><p>𝑃𝑟 𝑃𝑟 (�̂�2 − 𝛿 ≤ 𝛽2 ≤ �̂�2 + 𝛿) = 1 − 𝛼 (14)</p><p>Tal intervalo é conhecido como intervalo de confiança:</p><p>1 − 𝛼 : Coeficiente de confiança;</p><p>𝛼 – (0 < 𝛼 < 1) : nível de significância;</p><p>�̂�</p><p>2</p><p>− 𝛿 : limite inferior de confiança;</p><p>�̂�</p><p>2</p><p>+ 𝛿 : limite superior de confiança.</p><p>Para tal, consideramos 𝛽</p><p>2</p><p>sendo uma incógnita e consideramos que ele tenha um</p><p>valor fixo, que está ou não dentro do intervalo. Assim, estabelecemos a chance</p><p>(probabilidade) de verificar um intervalo de confiança contendo um parâmetro 𝛽</p><p>2</p><p>a um</p><p>nível 1 − 𝛼 de confiança.</p><p>6 Para entender esse tópico é preciso a noção básica de estatística. Se o aluno precisar de uma revisão,</p><p>no próprio Gujarati e Porter (2011), há um apêndice que revisita os principais conceitos.</p><p>4.1 Intervalos de Confiança para os Coeficientes de Regressão 𝛽</p><p>2</p><p>e 𝛽</p><p>1</p><p>Dada a premissa de normalidade para os resíduos do modelo de MQO, os</p><p>estimadores �̂�</p><p>1</p><p>e �̂�</p><p>2</p><p>são eles distribuídos normalmente com médias e variâncias dadas.</p><p>Então, por exemplo, a variável Z, da equação, é uma variável padronizada.</p><p>𝑍 =</p><p>�̂�2−𝛽2</p><p>𝑒𝑝(�̂�2)</p><p>=</p><p>(�̂�2−𝛽2)√∑ 𝑥𝑖</p><p>2</p><p>𝜎</p><p>(15)</p><p>Podemos empregar a distribuição normal para fazer afirmações probabilísticas</p><p>sobre 𝛽</p><p>2</p><p>desde que a verdadeira variância da população, 𝜎2, seja conhecida.</p><p>Mas, raramente conhecemos 𝜎2 e, na prática, ela é determinada pelo estimador</p><p>não tendenciosos �̂�</p><p>2</p><p>.</p><p>Para encontrar esse estimador não tendencioso, Gujarati e Porter (2011) explica</p><p>que inicialmente precisamos definir a variância e o erro padrão dos estimadores através</p><p>de:</p><p>𝑣𝑎𝑟(�̂�2) =</p><p>𝜎2</p><p>∑ 𝑥𝑖</p><p>2 𝑣𝑎𝑟(�̂�1) =</p><p>∑ 𝑋𝑖</p><p>2</p><p>𝑛 ∑ 𝑥𝑖</p><p>2 𝜎2</p><p>𝑒𝑝(�̂�2) =</p><p>𝜎</p><p>√∑ 𝑥𝑖</p><p>2</p><p>𝑒𝑝(�̂�1) = √</p><p>∑ 𝑋𝑖</p><p>2</p><p>𝑛 ∑ 𝑥𝑖</p><p>2 𝜎2</p><p>Das incógnitas acima, o único valor que ainda não sabemos calcular é o 𝜎2. Ele é obtido da</p><p>seguinte forma7:</p><p>�̂�</p><p>2 =</p><p>∑ 𝑢𝑖</p><p>2</p><p>𝑛−2</p><p>ou, �̂� = √∑ �̂�𝑖</p><p>2</p><p>𝑛−2</p><p>(16)</p><p>Se substituirmos 𝜎 por �̂�, na equação (15), poderíamos representá-la como:</p><p>𝑡 =</p><p>�̂�2−𝛽2</p><p>𝑒𝑝(�̂�2)</p><p>=</p><p>𝐸𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟−𝑝𝑎𝑟â𝑚𝑒𝑡𝑟𝑜</p><p>𝑒𝑟𝑟𝑜 𝑝𝑎𝑑𝑟ã𝑜 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜 𝑝𝑒𝑙𝑜 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟</p><p>=</p><p>(�̂�2−𝛽2)√∑ 𝑥𝑖</p><p>2</p><p>�̂�</p><p>(17)</p><p>7 A expressão número de graus de liberdade representa o número total de observações da amostra menos</p><p>o número de restrições independentes impostas a ele. Em outras palavras, é o número de observações</p><p>independentes dentre um total n de observações.</p><p>A variável t assim definida, segue a distribuição t com n-2 graus de liberdade.</p><p>Portanto, em lugar de empregar a distribuição normal, podemos usar a distribuição</p><p>t para estabelecer um intervalo de confiança para 𝛽</p><p>2</p><p>como em:</p><p>𝑃𝑟 𝑃𝑟 (−𝑡𝛼</p><p>2</p><p>≤ 𝑡 ≤ 𝑡𝛼</p><p>2</p><p>) = 1 − 𝛼 (18)</p><p>Em que:</p><p>𝑡 é dado pela equação 17;</p><p>𝑡𝛼</p><p>2</p><p>é o valor da variável t obtido na tabela da distribuição t para um nível de</p><p>significância</p><p>𝛼</p><p>2</p><p>e com 𝑛 − 2 graus de liberdade (valor crítico de t a um nível de</p><p>significância de</p><p>𝛼</p><p>2</p><p>)</p><p>Substituindo o t, obtemos:</p><p>𝑡 =</p><p>�̂�2 − 𝛽2</p><p>𝑒𝑝(�̂�2)</p><p>𝑃𝑟 𝑃𝑟 (−𝑡𝛼</p><p>2</p><p>≤</p><p>�̂�2 − 𝛽2</p><p>𝑒𝑝(�̂�2)</p><p>≤ 𝑡𝛼</p><p>2</p><p>) = 1 − 𝛼</p><p>Reorganizando:</p><p>𝑃𝑟 𝑃𝑟 (�̂�2 − 𝑡𝛼</p><p>2</p><p>. 𝑒𝑝(�̂�2) ≤ 𝛽2 ≤ �̂�2 + 𝑡𝛼</p><p>2</p><p>. 𝑒𝑝(�̂�2)) = 1 − 𝛼 (19)</p><p>A equação (19) oferece um intervalo de confiança de 100(1 − 𝛼)% para 𝛽</p><p>2</p><p>, que</p><p>pode ser escrito como:</p><p>𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛ç𝑎 100(1 − 𝛼)% 𝑝𝑎𝑟𝑎 𝛽2: �̂�2 ± 𝑡𝛼</p><p>2</p><p>. 𝑒𝑝(�̂�2)</p><p>É análogo para o 𝛽</p><p>1</p><p>:</p><p>𝑃𝑟 𝑃𝑟 (�̂�1 − 𝑡𝛼</p><p>2</p><p>. 𝑒𝑝(�̂�1) ≤ 𝛽1 ≤ �̂�1 + 𝑡𝛼</p><p>2</p><p>. 𝑒𝑝(�̂�1)) = 1 − 𝛼</p><p>𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛ç𝑎 100(1 − 𝛼)% 𝑝𝑎𝑟𝑎 𝛽1: �̂�1 ± 𝑡𝛼</p><p>2</p><p>. 𝑒𝑝(�̂�1)</p><p>Perceba que quanto maior for o erro-padrão, maior o tamanho (a amplitude) do</p><p>intervalo de confiança. Quanto maior for o erro-padrão, maior será incerteza quanto a se</p><p>estimar o verdadeiro valor do parâmetro desconhecido. Dessa maneira, o erro-padrão é</p><p>descrito como uma medida de precisão, de como o estimador mede o verdadeiro valor</p><p>da população. (Gujarati e Porter, 2011)</p><p>Podemos calcular o intervalo de confiança para o exemplo que examinamos</p><p>anteriormente, no tópico anterior. Lá vimos que: �̂�</p><p>2</p><p>= 0,5091</p><p>Para encontrar o erro padrão calculamos8 primeiramente o �̂�</p><p>�̂� = √</p><p>∑ �̂�𝑖</p><p>2</p><p>𝑛 − 2</p><p>= √</p><p>337,268</p><p>10 − 2</p><p>= 6,492959</p><p>Para então, calcular o erro padrão do �̂�</p><p>2</p><p>:</p><p>𝑒𝑝(�̂�2) =</p><p>𝜎</p><p>√∑ 𝑥𝑖</p><p>2</p><p>=</p><p>6,492959</p><p>√33000</p><p>= 0,035743</p><p>Portanto, temos que 𝑒𝑝(�̂�2) = 0,0357 e 8 graus de liberdade (n-2 = 10-2 = 8)</p><p>Supondo 𝛼 = 5%, isto é, um coeficiente de confiança de 95%. A tabela t mostra</p><p>que, para 8 graus de liberdade, o valor crítico de 𝑡𝛼</p><p>2</p><p>será:</p><p>𝑡𝛼</p><p>2</p><p>= 𝑡0,025 = 2,306</p><p>O intervalo de confiança de 𝛽</p><p>2</p><p>será:</p><p>𝑃𝑟 𝑃𝑟 (�̂�2 − 𝑡𝛼</p><p>2</p><p>. 𝑒𝑝(�̂�2) ≤ 𝛽2 ≤ �̂�2 + 𝑡𝛼</p><p>2</p><p>. 𝑒𝑝(�̂�2)) = 1 − 𝛼</p><p>𝑃𝑟 𝑃𝑟 (0,5091 − 2,306.0,0357 ≤ 𝛽2 ≤ 0,5091 + 2,306.0,0357) = 1 − 0,05</p><p>𝑃𝑟 𝑃𝑟 (0,4268 ≤ 𝛽2 ≤ 0,5914) = 0,95</p><p>Assim, podemos interpretar que, dado o coeficiente de 95%, no longo prazo (em</p><p>amostras repetidas), em 95 de cada 100 casos, o intervalo [0,4268; 0,5914] conterá o</p><p>verdadeiro valor de 𝛽</p><p>2</p><p>. Ou ainda, há 95% de chance de 𝛽</p><p>2</p><p>estar neste intervalo.</p><p>Pode-se também calcular essas estimativas para o �̂�</p><p>1</p><p>:</p><p>�̂�</p><p>1</p><p>= 24,4545 𝑒𝑝(�̂�1) = 6,4138 𝐺𝑟𝑎𝑢𝑠 𝑑𝑒 𝐿𝑖𝑏𝑒𝑟𝑑𝑎𝑑𝑒 = 8</p><p>𝑡𝛼</p><p>2</p><p>= 𝑡0,025 = 2,306</p><p>𝑃𝑟 𝑃𝑟 (24,4545 − 2,306.6,4138 ≤ 𝛽1 ≤ 24,4545 − 2,306.6,4138) = 1 − 0,05</p><p>𝑃𝑟 𝑃𝑟 (9,6643 ≤ 𝛽1 ≤ 39,2448) = 0,95</p><p>8 Repare que para esse cálculo utilizamos a última coluna da tabela 4 (tópico 3 desta unidade).</p><p>Assim, interpretamos que, dado o coeficiente de 95%, no longo prazo, em 95 de</p><p>cada 100 casos, o intervalo [9,6643; 39,2448] conterá o verdadeiro valor de 𝛽</p><p>1</p><p>. Ou há</p><p>95% de chance de 𝛽</p><p>1</p><p>estar neste intervalo.</p><p>A estimação do intervalo de confiança será base para os testes de hipóteses que</p><p>realizaremos na próxima unidade, permitindo assim que façamos inferências</p><p>estatísticas</p><p>sobre o modelo estudado.</p><p>CONSIDERAÇÕES FINAIS</p><p>A econometria é uma ciência que objetiva a estimação e verificação das hipóteses</p><p>econômicas. Através da matemática e da estatística, vimos que temos modelos que</p><p>podem analisar relações e que nos permitam certas conclusões.</p><p>No entanto, o leitor percebe que, para utilizar o método econométrico para seus</p><p>fins, é necessário entender diversas premissas e conceitos subjacentes a essa teoria.</p><p>Essa primeira unidade se propôs a trazer esses aspectos mais básicos (e também</p><p>mais teóricos) sobre o método econométrico e seu modelo mais simples, mas</p><p>extremamente poderoso, o Método dos Mínimos Quadrados ordinários.</p><p>Pelo capítulo 3, concluímos que, se respeitadas algumas premissas e condições,</p><p>o método do MQO pode nos apresentar como se dá a relação entre duas variáveis e</p><p>assim, permitir análises dessas relações.</p><p>Para dar suporte estatístico a essas análises e maior confiança aos resultados,</p><p>precisamos ainda fazer inferências sobre as saídas dos modelos econométricos. O</p><p>primeiro passo para tal foi dado no tópico 4, na construção do intervalo de confiança. A</p><p>partir de então, nas próximas unidades, faremos testes de hipóteses e avançaremos para</p><p>modelos mais complexos.</p><p>LEITURA COMPLEMENTAR</p><p>Em todas as Copas do Mundo aparecem maneiras novas e divertidas de tentar</p><p>prever os resultados dos jogos e do torneio em si. Desde o gato Aquiles da Rússia, ou o</p><p>Marcus “Místico”, porco que ficou famoso na Inglaterra, ou até mesmo o mais famoso de</p><p>todos, o Polvo Paul, todos entendiam que essas previsões eram aleatórias e acertar era</p><p>uma questão meramente estatística.</p><p>No entanto, já há algum tempo, os maiores e mais conhecidos bancos de</p><p>investimento do mundo também tentam estimar o resultado das disputas entre as</p><p>seleções nacionais. Entre suas exaustivas pesquisas de mercado e desenvolvimento de</p><p>teses de investimento, os analistas de instituições como Goldman Sachs, UBS, ING e</p><p>Macquarie Bank, reservam um tempo para montar e “rodar” modelos de previsão</p><p>baseados em Econometria, Ciência de Dados e Machine Learning.</p><p>O Banco Goldman Sachs, por exemplo, através de horas de organização de</p><p>dados, mais de 200 mil árvores de probabilidade e 1 milhão de simulações, conclui (antes</p><p>do torneio) que a final seria realizada pelas seleções do Brasil e da Alemanha e que a</p><p>seleção canarinho seria campeã da Copa do Mundo de 2018. Segundo o jornal The</p><p>Guardian (2014), os analistas do banco ainda garantiram o resultado dizendo que “para</p><p>os que duvidam, este resultado final foi verificado em detalhes excruciantes pelo nosso</p><p>economista-chefe (alemão) Jan Hatzius!” (THE GUARDIAN, 2014, tradução livre)</p><p>Aposto que a maioria dos brasileiros torceu muito para que as estimativas do</p><p>banco estivessem certas, inclusive para lavar a alma daqueles que viram o resultado do</p><p>jogo entre essas duas seleções em 2014. No entanto, como sabemos, o Brasil foi</p><p>desclassificado nas quartas de final e a Alemanha surpreendeu a todos quando foi</p><p>desclassificada na fase de grupos.</p><p>Você pode imaginar que o insucesso dessa previsão pode ser um argumento</p><p>contrário à econometria. No entanto, é óbvio que a previsão de algo com tantas variáveis,</p><p>tão subjetivo e qualitativo, quanto o desempenho de tantos jogadores e times, seria algo</p><p>muito difícil de ter assertividade.</p><p>No entanto, a capacidade de se analisar tantos cenários, realizar tantas</p><p>simulações e previsões de maneira computadorizada, em tão pouco tempo, nos mostra</p><p>como esses métodos estatísticos avançaram e são levados a sério. Não é por</p><p>coincidência que aqueles que fizeram todas essas previsões utilizam os mesmos</p><p>métodos para tentar fazer estimativas dos resultados de investimentos para trilhões de</p><p>dólares alocados de diversos fundos de investimentos e gestoras de recursos.</p><p>Fonte:</p><p>LIVRO</p><p>• Título: Estatística: O que é, para que serve, como funciona</p><p>• Autor: Charles Wheelan</p><p>• Editora: Zahar</p><p>• Sinopse: Um livro que nos faz entender os números por trás dos fatos e apreciar a força</p><p>extraordinária dos dados em diversos aspectos do cotidiano A estatística é uma ciência</p><p>que está em toda parte, muito embora seja considerada desinteressante e inacessível</p><p>por envolver números e dados muitas vezes complexos. Útil, quando usada de forma</p><p>correta, mas potencialmente desastrosa em mãos erradas, sua aplicação no mundo real</p><p>é cada vez mais requisitada - seja em relatórios médicos, no resultado de campeonatos</p><p>esportivos ou em pesquisas eleitorais. O consagrado economista Charles Wheelan</p><p>mostra que com os dados certos e as ferramentas estatísticas adequadas podemos</p><p>responder muitas perguntas, tais como: Quais substâncias ou comportamentos causam</p><p>câncer? O que está provocando o aumento da incidência de autismo? Como a Netflix</p><p>sabe quais filmes você gosta? Sem usar muita matemática, equações e gráficos, esse</p><p>livro nos ajuda a compreender conceitos estatísticos importantes para a vida cotidiana,</p><p>como: inferência, correlação, análise de dados etc. Ao falar das ideias mais importantes</p><p>da disciplina sem entrar em detalhes técnicos, o autor torna a estatística palatável não</p><p>só para aqueles que a estudam em salas de aula, mas para qualquer um que deseje</p><p>compreender melhor os desafios do mundo em que vivemos.</p><p>FILME/VÍDEO</p><p>• Título: O Homem que Mudou o Jogo</p><p>• Ano: 2011</p><p>• Sinopse: Billy Beane, gerente geral do Oakland A's, um dia tem uma epifania: a</p><p>sabedoria convencional do beisebol está totalmente errada. Diante de um orçamento</p><p>apertado, Beane tenta reinventar seu time superando os clubes de bola mais ricos.</p><p>Unindo forças com Peter Brand, graduado da Ivy League, Beane se prepara para</p><p>desafiar as tradições da velha escola. Ele recruta jogadores de barganha que os olheiros</p><p>rotularam como falhos, mas que têm potencial para vencer o jogo.</p><p>REFERÊNCIAS</p><p>GUJARATI, Damodar N. Basic Econometrics. New York: The McGraw-Hill</p><p>Companies, 2004</p><p>GUJARATI, Damodar N. PORTER, Dawn C.. Econometria Básica. São Paulo: AMGH</p><p>Editora Ltda., 5 ed., 2011</p><p>KEYNES, John M. Teoria geral do emprego, do juro e da moeda. São Paulo:</p><p>Saraiva, 2012</p><p>WOOLDRIDGE, Jeffrey M. Introdução à Econometria: uma abordagem moderna. São</p><p>Paulo: Cengage Learning, 2016</p><p>UNIDADE II</p><p>MODELOS</p><p>Professor Doutor Vinicius Borba da Costa</p><p>Plano de Estudo:</p><p>• Conceitos Gerais;</p><p>• Teste de Hipóteses;</p><p>• Formas Funcionais alternativas;</p><p>• Análise de Regressão Múltipla;</p><p>• Modelos com variáveis binárias.</p><p>Objetivos de Aprendizagem:</p><p>• Aprender como fazer a inferência dos parâmetros dos modelos;</p><p>• Conhecer o Modelo de regressão múltipla;</p><p>• Conhecer alguns modelos com variáveis binárias.</p><p>INTRODUÇÃO</p><p>As relações encontradas na vida econômica, ou mesmo na natureza, nos mostram</p><p>que vários fatores são importantes para explicar o acontecimento. Quando iniciamos os</p><p>estudos em econometria, todas as premissas, regras, cálculos e derivações, fazem</p><p>parecer que ela foge da realidade.</p><p>No entanto, nessa unidade, começaremos a aprender modelos um pouco mais</p><p>realistas e que são capazes de identificar essa relação da variável dependente com mais</p><p>de uma variável explicativa.</p><p>Para isso, inicialmente será apresentado um complemento ao final da unidade I.</p><p>Lá, analisamos como montar os intervalos de confiança para fazer inferências. Nesta</p><p>unidade II, faremos esses testes que nos permitirão dizer se os modelos são</p><p>estatisticamente significativos. Além disso, o tópico dois apresenta como esses testes</p><p>podem ser interpretados de maneira rápida e exata, através dos resultados dos cálculos</p><p>computadorizados.</p><p>Além disso, a unidade ainda mostra uma forma funcional alternativa para o modelo</p><p>de regressão e, então, apresenta o modelo de</p><p>regressão múltipla, que permite aumentar</p><p>o número de variáveis explicativas. A unidade termina apresentando os aspectos básicos</p><p>da análise de variáveis binárias.</p><p>1 CONCEITOS GERAIS</p><p>Imagem do Tópico: 1202783737</p><p>A econometria é uma ferramenta para análises econômicas e estatísticas que</p><p>permitem fazer projeções, estimativas, análises e inferências sobre as variáveis do nosso</p><p>dia-a-dia. Como já observado na unidade anterior, a noção principal da econometria é</p><p>dada na análise mais simples, aquela que relaciona duas diferentes variáveis, a</p><p>dependente e a explicativa (ou independente).</p><p>Essa ferramenta pode ser utilizada em diversas aplicações. Podemos estudar a</p><p>relação entre as variáveis, identificando o intercepto e o coeficiente de inclinação, como</p><p>fizemos na unidade anterior. Além disso, podemos ainda fazer previsões sobre variáveis</p><p>econômicas, como o PIB, a taxa de câmbio, o desemprego, a inflação, a taxa de juros e</p><p>assim por diante. Podemos ainda avaliar as políticas econômicas, não só na sua</p><p>efetividade em alcançar o objetivo proposto como as consequências em outras áreas</p><p>econômicas.</p><p>Para se beneficiar dessas diferentes aplicações, devemos entender como essas</p><p>relações são observadas na economia. A partir dessas observações podemos montar os</p><p>modelos econômicos e econométricos. Os modelos econômicos mostram a relação</p><p>observada e apresentam a hipótese que será testada. Os modelos econométricos</p><p>utilizam da estatística para adequar os modelos econômicos à realidade, inserindo o</p><p>termo de erro, que inclui tudo aquilo que não é observado no modelo econômico.</p><p>A partir das características que queremos observar, dos dados que temos</p><p>disponível e do objetivo de nossos estudos, podemos então adequar diferentes modelos</p><p>e métodos econométricos.</p><p>Na primeira unidade observamos os modelos de duas variáveis através do método</p><p>dos mínimos quadrados ordinários. Esse modelo possui algumas extensões, ou</p><p>diferentes formas funcionais, que permitem com que as variáveis sejam observadas em</p><p>outra forma. O modelo log-linear, por exemplo, permite entendermos como funciona a</p><p>relação entre a variação das variáveis, permite a análise de espasticidades.</p><p>Além disso, podemos utilizar os modelos para analisar mais de duas variáveis,</p><p>como no modelo de regressão múltipla, por exemplo. Temos ainda modelos de variáveis</p><p>binárias, que permitem a análise qualitativa de algumas relações, o que não seria</p><p>possível em outro modelo.</p><p>A partir dessa unidade, partiremos para análises mais práticas dos resultados</p><p>desses modelos. Apesar de ainda mostrar as fórmulas e desenvolvimentos da teoria,</p><p>através das saídas (output) dos softwares econométricos, poderemos observar o</p><p>resultado mais facilmente e partir para o que é mais essencial, sua interpretação.</p><p>A figura abaixo mostra um resultado de um modelo de regressão múltipla “rodado”</p><p>no software Gretl1, voltaremos à essas saídas quando tratarmos do modelo, mas perceba</p><p>onde os principais resultados se encontram:</p><p>Figura 1: Exemplo de saída de software estatístico</p><p>Fonte: saída do Gretl (destaques do autor).</p><p>Os destaques são para demonstrar os principais resultados que abordaremos</p><p>nesta unidade. O destaque em preto demonstra o resultado para os coeficientes</p><p>calculados de cada variável explicativa. O primeiro deles se refere à constante, ou</p><p>intercepto. A partir de então, demonstra-se o resultado para cada variável explicativa.</p><p>O destaque em verde mostra o resultado do teste t, o qual utilizaremos na próxima</p><p>seção para fazer inferências estatísticas. Os destaques em laranja mostram o R2 e o R2</p><p>1 A seção “Leitura Complementar” fala um pouco sobre os softwares econométricos mais utilizados.</p><p>ajustados. Lembre-se que o coeficiente de determinação mostra como as variáveis</p><p>explicam umas às outras. Voltaremos à ela no modelo de regressão múltipla.</p><p>Em suma, os modelos econométricos se adequam ao objetivo da metodologia</p><p>científica empírica e nos permite uma gama de análises. O próximo tópico, no entanto,</p><p>utiliza alguns conceitos da unidade anterior sobre intervalo de confiança para,</p><p>primeiramente, mostrar como é feita a inferência dos resultados obtidos.</p><p>2 TESTES DE HIPÓTESES</p><p>Os testes de hipóteses são fundamentais para a inferência estatística. As</p><p>hipóteses estatísticas são afirmativas a respeito de um parâmetro de uma distribuição de</p><p>probabilidade. Por exemplo, se observamos a produção de uma máquina industrial</p><p>podemos formular a hipótese de que a máquina fábrica 5 peças por hora. Formalmente,</p><p>isso pode ser escrito por:</p><p>𝐻𝑜: 𝜇 =</p><p>2,5</p><p>ℎ𝑜𝑟𝑎</p><p>𝐻1: 𝜇 ≠</p><p>2,5</p><p>ℎ𝑜𝑟𝑎</p><p>A primeira. H0, é a hipótese nula que geralmente é uma igualdade, ou seja, supõe-</p><p>se que determinado parâmetro seja igual a um número. Nesse caso, a hipótese nula é a</p><p>de que a máquina fabrica em média 2,5 peças por hora. A segunda, H1 é a hipótese</p><p>alternativa (também representada por HA), que contradiz a hipótese nula, e portanto, é</p><p>uma desigualdade (diferente, maior ou menor).</p><p>Na aplicação econométrica frequentemente testaremos os parâmetros, por</p><p>exemplo, o 𝛽</p><p>1</p><p>𝑜𝑢 𝛽𝑛. A teoria do teste de hipóteses cuida da formulação de regras ou</p><p>procedimentos a serem adotados para decidir se a hipótese nula deve ser aceita (não</p><p>rejeitada) ou rejeitada. Há duas abordagens mutuamente complementares para a</p><p>elaboração dessas regras: o intervalo de confiança e o teste de significância.</p><p>2.1 A Abordagem Intervalo de Confiança</p><p>A abordagem do intervalo de confiança utiliza as noções que observamos no final</p><p>da unidade anterior. Se usarmos novamente o exemplo da lei psicológica fundamental</p><p>keynesiana – o modelo no qual relacionamos os gastos com consumo e a renda de um</p><p>indivíduo que conclui que se a renda aumenta, o consumo aumenta em uma proporção</p><p>menor – temos que a propensão marginal a consumir (PMC) era de 0,5091.</p><p>Gujarati e Porter (2011) supõem os seguintes postulados.</p><p>𝐻0: 𝛽2 = 0,3</p><p>𝐻1: 𝛽2 ≠ 0,3</p><p>Ou seja, apresenta a hipótese nula de que a PMC verdadeira seja de 0,3. Sendo</p><p>assim, a hipótese que contradiz a hipótese nula, ou seja, a hipótese alternativa diz que</p><p>a PMC é diferente de 0,3. Podendo assim ser maior ou menor do que o valor da hipótese</p><p>nula.</p><p>A hipótese nula é uma hipótese simples e a alternativa é composta, o que é</p><p>conhecido como uma hipótese bilateral2.</p><p>Nesse sentido, devemos identificar se o �̂�</p><p>2</p><p>, o parâmetro estimado, é compatível</p><p>com a hipótese nula. Para testá-lo voltaremos ao intervalo de confiança já calculado.</p><p>Sabemos que 𝑃𝑟 𝑃𝑟 (0,4268 ≤ 𝛽2 ≤ 0,5914) = 0,95, ou seja, no longo prazo,</p><p>intervalos como [0,4268; 0,5914] conterão, com 95% de probabilidade, o verdadeiro valor</p><p>de 𝛽</p><p>2</p><p>. Consequentemente, esses intervalos nos propiciam faixas ou limites dentro dos</p><p>quais o verdadeiro valor de 𝛽</p><p>2</p><p>pode estar com um coeficiente de confiança de 95%. O</p><p>intervalo de confiança nos fornece um conjunto de 𝐻0 plausíveis. A regra de decisão,</p><p>portanto, é a que se parâmetro que estamos testando sob a hipótese nula cai no intervalo</p><p>de confiança de 100(1 − 𝛼)% não rejeitamos 𝐻0; se, por outro lado, ele estiver fora deste</p><p>intervalo podemos rejeitá-la (Gujarati e Porter, 2011).</p><p>A regra de decisão pode ser ilustrada pela figura a seguir:</p><p>2 Se a hipótese nula ou alternativa fosse representada por maior (>) ou menor (<), ao invés de diferente</p><p>ou igual, teríamos uma hipótese monolateral, ou monocaudal, que utiliza somente uma cauda da</p><p>distribuição de probabilidade do teste.</p><p>Figura 2: Regiões de decisão do teste para intervalo de confiança</p><p>Fonte: elaboração própria baseada em Gujarati e Porter (2011).</p><p>Segundo o exemplo, 𝐻0: 𝛽2 = 0,3 está fora do intervalo de confiança de 95%.</p><p>Portanto, podemos rejeitar a hipótese de que a verdadeira PMgC seja 0,3 com 95% de</p><p>confiança.</p><p>De acordo com Gujarati e Porter (2011), quando rejeitamos a hipótese nula,</p><p>dizemos que nossos resultados foram estatisticamente significativos. Por outro lado,</p><p>quando não rejeitamos 𝐻0, dizemos que nossos resultados não são estatisticamente</p><p>significativos.</p><p>2.2 A Abordagem do Teste de Significância</p><p>Em termos gerais, um teste de significância é um procedimento em que os</p><p>resultados amostrais são usados para verificar a veracidade ou a falsidade de uma</p><p>hipótese nula. O teste de significância apresentado abaixo é o mais comum e apresenta</p><p>algumas regras práticas para observação, o que facilita a análise. Ele é conhecido como</p><p>teste t.</p><p>Segundo Gujarati e Porter (2011), sob a premissa de normalidade, a variável t</p><p>(expressa abaixo) segue a distribuição t, com n-2 graus de liberdade:</p><p>𝑡 =</p><p>�̂�2 − 𝛽2</p><p>𝑒𝑝(�̂�2)</p><p>=</p><p>(�̂�2 − 𝛽2)√∑ 𝑥𝑖</p><p>2</p><p>𝜎</p><p>Se o valor verdadeiro de 𝛽</p><p>2</p><p>é definido como a hipótese nula, o valor t da fórmula</p><p>acima pode ser calculado para a amostra disponível e, assim, servir como teste</p><p>estatístico. Assim, podemos afirmar que os intervalos de confiança seguem como sendo:</p><p>𝑃𝑟 𝑃𝑟 (−𝑡𝛼</p><p>2</p><p>≤</p><p>�̂�2 − 𝛽2</p><p>∗</p><p>𝑒𝑝(�̂�2)</p><p>≤ 𝑡𝛼</p><p>2</p><p>) = 1 − 𝛼</p><p>Onde: 𝛽</p><p>2</p><p>∗ é o valor de 𝛽</p><p>2</p><p>sob a 𝐻0;</p><p>±𝑡𝛼</p><p>2</p><p>são valores tabelados obtidos na tabela t3 para o nível de significância</p><p>𝛼</p><p>2</p><p>com</p><p>𝑛 − 2 GL.</p><p>Em Gujarati e Porter (2011) temos que, ao reorganizar a equação acima temos</p><p>que:</p><p>𝑃𝑟 𝑃𝑟 (𝛽2</p><p>∗ − 𝑡𝛼</p><p>2</p><p>. 𝑒𝑝(�̂�2) ≤ �̂�2 ≤ 𝛽2</p><p>∗ + 𝑡𝛼</p><p>2</p><p>. 𝑒𝑝(�̂�2)) = 1 − 𝛼</p><p>O IC de 100(1 − 𝛼)% é conhecido como região de aceitação da hipótese nula e</p><p>as regiões fora do IC são chamadas de região de rejeição de 𝐻0 ou região crítica.</p><p>Comparando as abordagens de IC e de teste de significância para o teste hipóteses,</p><p>temos que:</p><p>No procedimento do intervalo de confiança tentamos estabelecer uma faixa ou</p><p>intervalo com certa probabilidade de incluir o valor verdadeiro, mas</p><p>desconhecido, de 𝛽</p><p>2</p><p>, enquanto, na abordagem do teste de significância,</p><p>supusemos o valor de 𝛽</p><p>2</p><p>e tentamos ver se o �̂�</p><p>2</p><p>calculado está dentro de limites</p><p>razoáveis (confiáveis) em torno desse valor hipotético. (Gujarati e Porter, 2011,</p><p>p. 136).</p><p>Aplicando para o exemplo que utilizamos anteriormente, temos que:</p><p>�̂�</p><p>2</p><p>= 0,5091 𝑒𝑝(�̂�2) = 0,0357 𝐺𝑟𝑎𝑢𝑠 𝑑𝑒 𝐿𝑖𝑏𝑒𝑟𝑑𝑎𝑑𝑒 = 8 𝛼 = 5%</p><p>𝑡𝛼</p><p>2</p><p>= 𝑡0,025 = 2,306 (Definido a partir da tabela t, para 8 gl e 2,5%, por ser bicaudal)</p><p>{𝐻0: 𝛽2 = 𝛽2</p><p>∗ = 0,3 𝐻1: 𝛽2 ≠ 0,3</p><p>Assim:</p><p>𝑃𝑟 𝑃𝑟 (𝛽2</p><p>∗ − 𝑡𝛼</p><p>2</p><p>. 𝑒𝑝(�̂�2) ≤ �̂�2 ≤ 𝛽2</p><p>∗ + 𝑡𝛼</p><p>2</p><p>. 𝑒𝑝(�̂�2)) = 1 − 𝛼</p><p>3 A tabela t refere-se a tabela de distribuição de t de student, uma distribuição de probabilidade similar à</p><p>distribuição normal. Para entender melhor a leitura dessa tabela observe o apêndice de revisão estatística</p><p>de Gujarati e Porter(2011). Para efeitos práticos, no entanto, quando observarmos as saídas dos modelos</p><p>nos softwares, teremos o p-valor como ferramenta para inferências mais práticas.</p><p>𝑃𝑟 𝑃𝑟 (0,3 − 2,306.0,0357 ≤ �̂�2 ≤ 0,3 + 2,306.0,0357) = 1 − 0,05</p><p>𝑃𝑟 𝑃𝑟 (0,2177 ≤ �̂�2 ≤ 0,3823) = 0,95</p><p>A figura 3 mostra as regiões de aceitação do teste t:</p><p>Figura 3: Região de aceitação do teste t para o exemplo</p><p>Fonte: Elaboração própria.</p><p>A conclusão é de que, como o parâmetro estimado, �̂�</p><p>2</p><p>, está fora da região de</p><p>aceitação (está na região crítica), podemos rejeitar a hipótese nula de que o verdadeiro</p><p>valor de o �̂�</p><p>2</p><p>é 0,3 com 95% de confiança.</p><p>No entanto, na prática não precisamos estimar explicitamente o intervalo de</p><p>confiança. Gujarati e Porter (2011) explica que podemos calcular o valor t no meio de</p><p>dupla desigualdade e ver se ele se situa entre os valores críticos de t ou fora deles.</p><p>Para isso aplicamos a fórmula:</p><p>𝑡 =</p><p>�̂�2 − 𝛽2</p><p>∗</p><p>𝑒𝑝(�̂�2)</p><p>Perceba então o �̂�</p><p>2</p><p>é o coeficiente que conseguimos pelo MQO, 𝛽</p><p>2</p><p>é a hipótese</p><p>nula que estamos testando e ep é o erro padrão que calculamos na unidade anterior.</p><p>Então:</p><p>𝑡 =</p><p>0,5091 − 0,3</p><p>0,0357</p><p>= 5,86</p><p>Como já observado anteriormente, os t tabelados são definidos pela tabela t de</p><p>student, para 8 graus de liberdade e 2,5% de probabilidade, assim temos que o t crítico</p><p>são -2,306 e +2,306, montamos a distribuição com região de aceitação como segue na</p><p>figura 4:</p><p>Figura 4: Regiões de aceitação teste t:</p><p>Fonte: elaboração própria a partir de Gujarati e Porter (2011)</p><p>Como temos que 𝑡𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑜 = 5,86, que está na região crítica, rejeitamos 𝐻0 com</p><p>95% de confiança. Desse maneira, podemos rejeitar a hipótese nula de que o verdadeiro</p><p>valor de o �̂�</p><p>2</p><p>é 0,3 com 95% de confiança.</p><p>Diferente do exemplo que vimos acima, Gujarati e Porter (2011) mostrem que a</p><p>hipótese nula mais testada é se o coeficiente (de intercepto ou angular) é igual a zero.</p><p>Assim, 𝐻0: 𝛽2 = 0</p><p>𝐻1: 𝛽2 ≠ 0</p><p>Isto é, o coeficiente angular é igual à zero.</p><p>Esta hipótese nula “zero” tem o objetivo de descobrir se Y está relacionada de</p><p>alguma forma a X, a variável explanatória. Se não conseguirmos rejeitar a hipótese nula,</p><p>quer dizer que o coeficiente é estatisticamente igual a zero e, portanto, não podemos</p><p>afirmar que existe relação entre a variável dependente e a variável explicativa.</p><p>2.3 O nível de significância exato: o valor p</p><p>O teste de hipótese tem um problema muito mencionado que, segundo Gujarati e</p><p>Porter (2011) é a arbitrariedade da seleção do 𝛼 (nível de significância). Esse problema</p><p>é resolvido pelo valor p (valor da probabilidade), que é o menor nível de significância na</p><p>qual a Ho pode ser rejeitada.</p><p>Se estivermos testando uma hipótese nula de que o verdadeiro valor de 𝛽</p><p>2</p><p>é igual</p><p>à zero, queremos que o nível de significância seja o menor possível. Se observarmos na</p><p>tabela t escolheremos entre 1%, 5% ou 10%. No entanto, utilizando os softwares</p><p>econométricos alcançamos que valor p para �̂�</p><p>2</p><p>é igual a (0,000000289). Ou seja, é</p><p>menor que o nível de significância de 1%. Assim, a interpretação será: nossas</p><p>estimativas são estatisticamente significativas com mais de 99% de confiança.</p><p>Portanto, de maneira prática, quando observamos as saídas do software, como</p><p>aquela mostrada na figura 1, definimos as seguintes regras de decisão:</p><p>● Se p value (valor p) < 0,01: podemos rejeitar a hipótese nula de que o parâmetro</p><p>é igual a 0 com 1% de significância, portanto, nossa variável é estatisticamente</p><p>significativa.</p><p>● Se p value (valor p) < 0,05: : podemos rejeitar a hipótese nula de que o parâmetro</p><p>é igual a 0 com 5% de significância, portanto, nossa variável é estatisticamente</p><p>significativa.</p><p>● Se p value (valor p) < 0,10 : podemos rejeitar a hipótese nula de que o parâmetro</p><p>é igual a 0 com 10% de significância, portanto, nossa variável é estatisticamente</p><p>significativa.</p><p>● Se p value (valor p) > 0,10: : não podemos rejeitar a hipótese nula de que o</p><p>parâmetro é igual a 0 com 10% de significância, portanto, nossa variável é não é</p><p>estatisticamente significativa.</p><p>Alguns softwares apresentam ainda os asteriscos (*) ao lado do valor p, para</p><p>facilitar a inferência. Três asterisco (***) significa valor p < 0,01; dois (**) valor p < 0,05;</p><p>um (*) valor p < 0,10.</p><p>Perceba, portanto, que se ela é estatisticamente significativa a variável</p><p>dependente pode ser explicada pela variável independente (explicativa) pelo parâmetro</p><p>estimado. O valor p é, então, a maneira mais fácil de se analisar a significância</p><p>estatística.</p><p>2.4 O Teste F</p><p>Com o teste t, testamos a significância dos parâmetros de forma individual. No</p><p>entanto, podemos analisar se os parâmetros são iguais a zero, por exemplo, de forma</p><p>conjunta.</p><p>Imagine que queiramos testar se:</p><p>𝐻0: 𝛽2 = 𝛽3 = 0</p><p>Nesse caso, Gujarati e Porter (2011) explicam que não podemos fazer a inferência</p><p>separadamente. Recorre-se então à técnica de análise da variância, através do teste F.</p><p>Gujarati e Porter (2011)</p>