Prévia do material em texto
6 Análise de correlação: o r de Pearson V I S Ã O G E R A L D O C A P Í T U L O Nos primeiros cinco capítulos, apresentamos os conceitos mais básicos que você precisa- rá para entender as análises estatísticas introduzidas no restante deste livro. É importan- te que entenda todos os conceitos apresentados nesses capítulos anteriores, e, para veri- ficar seu conhecimento, você pode resolver as atividades e questões de múltipla escolha presentes no decorrer e no final de cada capítulo. Se achar que existem algumas coisas que ainda não entendeu, vale a pena voltar ao capítulo em questão e ter certeza de que compreendeu o conceito completamente. Uma vez que se sinta confiante de que domina todos os conceitos, você estará pronto para lidar com as análises estatísticas mais exi- gentes que serão apresentadas de agora em diante. Ter realmente entendido os conceitos anteriores facilitará seu percurso pelo restante do livro. Nos primeiros cinco capítulos, você foi apresentado à ideia de observar as relações entre variáveis como, por exemplo, a relação entre horas de estudo e desempenho em provas. Os psicólogos muitas vezes pro- curam saber se existe uma relação ou associação significativa entre duas variáveis. Esse é o assunto deste capítulo. Você precisará ter um entendimento do seguinte: ●● hipóteses uni e bilaterais (Cap. 5); ●● significância estatística (Cap. 5); e ●● intervalos de confiança (Cap. 4). Neste capítulo, discutiremos maneiras pelas quais podemos analisar relaciona- mentos ou associações entre variáveis. No capítulo anterior, falamos sobre o relacio- namento entre tempo de estudo e desempenho em provas. Para descobrirmos se tal relacionamento existe, pegamos um número de alunos e registramos quantas horas por unidade de tempo (p. ex., por semana) eles passam estudando e depois medimos seu desempenho nas provas. Teríamos, então, dois conjuntos de dados (ou duas variáveis). Análises de correlação nos dão uma medida da relação entre eles. No capítulo anterior sugerimos que somos capazes de calcular a medida da força desse relacionamento, e a análise de correlação nos oferece tal medida. Aqui discutiremos o seguinte: ●● a análise e o relato de estudos usando a análise de correlação; ●● r como um tamanho do efeito natural; e ●● os limites de confiança em torno de r. 6.1 Correlações bivariadas Quando consideramos o relacionamento entre duas variáveis, chamamos isso de correlação bivariada. Se as duas variáveis são associadas, dizemos que elas são correlacionadas. Isso significa que elas covariam; quando os valores em uma variável mudam, valores na outra variável mudam de maneira previsível. Em outras palavras, as duas variáveis não são inde- pendentes. 170 Estatística sem matemática para psicologia 6.1.1 Tirando conclusões a partir da análise de correlação Um relacionamento correlacional não pode ser automaticamente considerado como um que sugere causalidade. Lembre-se de que, no Capítulo 1, dissemos que você não pode suge- rir causalidade com correlações, isto é, se existe uma associação significativa entre duas variáveis, isso não quer dizer que x causa y ou, pelo contrário, que y causa x. Por exemplo, considere o seguinte. Já foi mostrado que existe uma relação positiva significativa entre os salários de pastores presbiterianos em Massachusetts e o preço do rum em Havana. Nesse caso, é obviamente inapropriado argumentar que uma variável causa a outra. Como Huff (1973), que providenciou esse exemplo, observou, não é necessário inferir causalidade, pois a explicação mais óbvia é que os valores estão crescendo devido a um terceiro fator – o aumento mundial nos preços de praticamente tudo! A análise estatística pode nos mostrar se duas variáveis são relacionadas estatistica- mente, mas a análise não pode nos dizer as razões pelas quais elas estão correlacionadas – nós é que temos que fazer esse trabalho! Vamos supor que duas variáveis, x e y, estejam correlacionadas. Isso poderia ser porque: ●● a variação dos escores em y foi causada pela variação dos escores em x (i.e., x causou y); ●● a variação dos escores em x foi causada pela variação dos escores em y (i.e., y causou x); ●● a correlação entre x e y pode ser explicada pela influência de uma terceira variável, z (ou até mesmo por várias outras variáveis); ●● a correlação entre elas é puramente aleatória. Como um exemplo do último item, em uma ocasião, pedimos aos nossos alunos que fizessem uma análise de correlação de algumas variáveis. Quando fazemos isso no computador, é muito fácil cometer o erro de incluir variáveis que não são relevantes. Um de nossos alunos incluiu “número de participantes” com as outras variáveis, erro- neamente. Ela nos mostrou que “número de participantes” tinha uma correlação positi- va alta com autoestima, uma das variáveis. Na verdade, não havia um relacionamento real entre essas variáveis. É importante, portanto, ter em mente a possibilidade de que um relacionamento mostrado por uma análise de correlação possa ser espúrio. Francis Galton (1822-1911) era primo de Charles Darwin. Embora Galton tenha inventado a correlação, Karl Pearson (1857-1936) a desenvolveu e descobriu as correlações espúrias (apenas um relacionamento estatístico, não um relacionamento real entre duas variáveis, como acabamos de explicar). Ele encontrou muitos casos de correlações espúrias. Cabe ao pesquisador determinar se as correlações estatisticamente significativas são expres- sivas e importantes (em vez de apenas estatisticamente significativas) e excluir fatores aleatórios. A exploração dos relacionamentos entre variáveis pode incluir os seguintes passos: 1. Inspeção de diagramas de dispersão (ver a seguir) 2. Um teste estatístico chamado r de Pearson, que nos mostra a magnitude e o grau de re- lacionamento e a probabilidade de tal relacionamento ocorrer devido ao erro amostral, dado que a hipótese nula seja verdadeira 3. Limites de confiança em torno da estatística r, quando apropriado 4. Interpretação dos resultados 6.1.2 Objetivos da análise de correlação O propósito, portanto, de se fazer uma análise de correlação é descobrir se existe uma relação entre as variáveis que seja improvável de acontecer devido ao erro amostral se a Capítulo 6 • Análise de correlação: o r de Pearson 171 hipótese nula for verdadeira e improvável de ser espúria. A hipótese nula é que não existe relação real entre as duas variáveis. Entretanto, essa não é a única informação que a análise de correlação oferece. Ela também nos permite determinar: ●● a direção do relacionamento – se é positivo, negativo ou zero; e ●● a força ou magnitude do relacionamento entre as duas variáveis – o teste estatístico, chamado coeficiente de correlação, varia de 0 (nenhuma relação entre as variáveis) a 1 (relação perfeita entre as variáveis). Esses dois pontos são discutidos em mais detalhes a seguir. 6.1.3 Direção do relacionamento Positivo Valores altos em uma variável (que chamamos de x) tendem a ser associados a valores altos na outra variável (que chamamos de y); e, ao contrário, valores baixos na variável x tendem a ser associados a valores baixos na variável y. Negativo Valores altos em uma variável são associados com valores baixos na outra variável. Zero Relacionamentos zero são aqueles em que não existe um relacionamento linear (linha reta) entre as duas variáveis. (O que queremos dizer pelo termo “relacionamento linear” será explicado mais tarde. Por ora, vamos assumir que a ausência de um relacionamento linear não significa a ausência de relacionamento entre as duas variáveis.) Agora, pense na direção dos relacionamentos dos exemplos abaixo. ●● Número de horas de estudo e desempenho em provas: Espera-se que o número de horas de estudo tenha um relacionamento positivo com desempenho em provas: quanto mais tempo um aluno passa estudando, melhor o desempenho. ●● Tabagismo em usuários de ecstasy: Fisk, Montgomery e Murphy (2009) descobriram que em uma amostra de usuários de ecstasyexistia uma correlação positiva entre o número de cigarros fumados e o número de reações adversas relatadas. 6.1.4 Relacionamentos positivos perfeitos Já foi dito que, em relacionamentos positivos, valores altos em uma variável são associa- dos a valores altos na outra e vice-versa. Podemos ver esse relacionamento ao plotar os valores em um gráfico chamado diagrama de dispersão. Quando executamos uma corre- lação bivariada, temos dois conjuntos de valores (escores). Quando plotamos os valores em um diagrama de dispersão, colocamos uma variável no eixo horizontal – eixo x. Co- locamos a outra variável no eixo vertical – eixo y. Não importa qual variável designamos ao x e qual ao y. Para construir um diagrama de dispersão, pegamos o valor de cada pessoa nos eixos x e y e plotamos onde os dois se encontram. Cada ponto é representado por dois valores (x e y). Você foi apresentado à construção de diagramas de dispersão usando o SPSS na seção 3.5, e aqui detalharemos o assunto. Um relacionamento positivo perfeito é apresentado no diagrama de dispersão na Figura 6.1. Um relacionamento perfeito é aquele onde todos os pontos no diagrama en- contram-se alinhados. Por exemplo, pense na sua idade plotada contra a idade da sua 172 Estatística sem matemática para psicologia irmã. (É claro que esse não é um exemplo realista. Ninguém iria realmente querer cor- relacionar a sua idade com a da irmã – é somente um exemplo.) Vamos considerar que sua irmã é quatro anos mais velha do que você. Atribuímos a idade da sua irmã ao eixo vertical (y) e a sua idade ao eixo horizontal (x) e, para cada par de idades, colocamos um ponto no diagrama de dispersão. Deve estar imediatamente óbvio que o relacionamento é positivo: quando você envelhece, sua irmã também envelhece. O relacionamento tam- bém deve ser perfeito: para cada ano que você envelhece, sua irmã envelhece um ano também. É importante entender que esse exemplo mostra que você não pode inferir causalidade quando executa a correlação. Afinal de contas, o aumento da sua idade não causa o aumen- to da idade de sua irmã, nem o envelhecimento dela causa o seu! 6.1.5 Relacionamentos positivos imperfeitos Vamos imaginar que temos um número de estudantes, os quais avaliamos em testes de QI e em uma prova com notas percentuais. Queremos determinar se existe uma relação entre QI e as notas nas provas. Isso não quer dizer que o QI causa as notas nas provas dos estudantes, nem quer dizer que as notas nas provas afetaram os seus QIs de alguma maneira. Um QI alto ou baixo e notas altas ou baixas poderiam ter sido “causadas” por vários fatores, como cursos preparatórios, prática em testes de QI e motivação. Decidimos atribuir os valores dos QIs ao eixo vertical (y) e as notas nas provas ao eixo horizontal (x). Cada aluno tem dois escores, um de QI e um da nota na prova. Entretanto, cada aluno contribui com um ponto somente no diagrama de dispersão, como é possível ver na Figura 6.2. O diagrama nos mostra que QIs altos tendem a estar associados a notas altas nas provas e QIs baixos tendem a estar associados a notas baixas nas provas. É claro que nesse caso a correlação não é perfeita. Entretanto, a tendência está presente, e isso é o que importa. Quer dizer, embora os pontos não estejam completamente alinhados, ainda é um relacionamento linear positivo, pois formam um padrão visível indo do canto inferior esquerdo ao canto superior direito. 18 16 14 12 10 8 6 4 0 2 4 6 8 10 12 14 Sua idade Id ad e da s ua ir m ã Quando você tinha 12 anos, sua irmã tinha 16 Escore de x = 12, escore de y = 16 (dois escores, mas somente um ponto) Figura 6.1 A idade da sua irmã e a sua. Capítulo 6 • Análise de correlação: o r de Pearson 173 Tente pensar em alguns relacionamentos positivos bivariados. Os seus exemplos têm a proba- bilidade de serem relacionamentos perfeitos? Discuta os exemplos com seus colegas. Vocês concordam esses exemplos são bons? Atividade 6.1 6.1.6 Relacionamentos negativos perfeitos Novamente, devido ao fato de este relacionamento ser perfeito, os pontos no diagrama de dispersão formariam uma linha reta. Cada vez que x aumenta, y diminui de forma constan- te. Imagine uma máquina automática vendendo café. Cada café custa R$1,00. Suponha que no início do dia a máquina é preenchida com apenas dez copos de papel. Supondo, é claro, que a máquina automática funciona como deve (i.e., a máquina aceita seu dinheiro, o copo desce de maneira correta, o dinheiro fica dentro, ela dá o troco corretamente, etc.), então, cada vez que alguém colocar R$1,00 um copo é liberado (e, esperamos, com café dentro) e menos copos permanecem. Isso pode ser visto na Figura 6.3. Como se pode ver, com um relacionamento linear negativo perfeito, os pontos ainda formam uma linha reta, mas dessa vez eles vão do canto superior esquerdo ao canto inferior direito. 6.1.7 Relacionamentos negativos imperfeitos Em um relacionamento linear negativo imperfeito, os pontos não estão todos alinhados, mas ainda formam um padrão visível saindo do canto superior esquerdo em direção ao canto inferior direito. Por exemplo, digamos que tivéssemos coletado dados de presença em jogos de futebol e de precipitação de chuva. O diagrama de dispersão resultante pode parecer algo como o da Figura 6.4. De modo geral, a tendência é de que a presença nos jogos seja menor quando a precipitação é maior. 140 130 120 110 100 90 0 10 20 30 40 50 Notas na prova Q I Figura 6.2 Diagrama de dispersão do QI e das notas em uma prova. 174 Estatística sem matemática para psicologia 6.1.8 Relacionamentos não lineares Note que, se um relacionamento não é estatisticamente significativo, pode não ser apro- priado inferir que não existe relação entre as duas variáveis. Isso se dá pelo fato de que, como foi dito anteriormente, a análise de correlação testa a existência de um relaciona- mento linear. Alguns relacionamentos não são lineares. Um exemplo desse relacionamen- to é aquele entre excitação e desempenho. Embora pudéssemos esperar que certo nível 10,00 9,00 8,00 7,00 6,00 5,00 4,00 3,00 2,00 1,00 0,00 Co po d e be bi da q ue nt e 0,00 1,00 2,00 3,00 4,00 5,00 Dinheiro (R$) 6,00 7,00 8,00 9,00 10,00 Figura 6.3 Diagrama do relacionamento entre copos de café na máquina e a quantia de dinheiro depositada nela. 40 10 0 14 Pr es en ça (m ilh ar es ) Precipitação (cm/mês) 30 20 2 4 6 8 10 12 Figura 6.4 Diagrama de dispersão da presença em jogos de futebol e da precipitação de chuva. Capítulo 6 • Análise de correlação: o r de Pearson 175 de excitação melhoraria o desempenho esportivo, excesso de excitação pode levar a uma queda no desempenho. Esse relacionamento é descrito pela lei de Yerkes-Dodson (Yerkes e Dodson, 1908). Essa lei prevê um relacionamento curvilíneo invertido entre excitação e desempenho. Com baixos níveis de excitação, o desempenho (p. ex., desempenho atlético) será menor do que se o nível de excitação estivesse um pouco mais alto. Existe um nível de excitação “ideal”, no qual o desempenho será o mais alto. Além desse nível, a excitação na verdade diminui o desempenho. Isso pode ser representado como mostra a Figura 6.5. O mesmo relacionamento pode ser representado pelo diagrama de dispersão na Figura 6.6, que mostra um relacionamento curvilíneo, onde y aumenta com x até certo ponto e en- tão diminui. O que queremos dizer é que aqui, sem dúvida, existe uma relação entre x e y, mas o coeficiente de correlação não seria estatisticamente significativo, pois não existe um relacionamento linear (linha reta). Por esse motivo, você deve sempre verificar o diagrama de dispersão antes de realizar sua análise para ter certeza de que suas variáveis não estão relacionadas dessa maneira, pois, se elas estão, então não faz sentido utilizar as técnicas descritas neste capítulo. Bom Ruim Baixo Alto Nível de excitação D es em pe nh o Figura 6.5 A hipótese do U invertido (lei de Yerkes-Dodson,1908). 14 8 10 12 2 4 6 0 2 4 6 8 10 12 x y Figura 6.6 Diagrama de dispersão ilustrando um relacionamento curvilíneo entre x e y. 176 Estatística sem matemática para psicologia Qual é a conclusão mais adequada? A correlação entre salário inicial e salário atual é: 60.000 50.000 40.000 30.000 20.000 10.000 0 Sa lá rio a tu al 0 10.000 20.000 Salário inicial 30.000 40.000 (a) Negativa (b) Positiva (c) Zero Atividade 6.2 6.1.9 A força ou magnitude do relacionamento A força de um relacionamento linear entre duas variáveis é medida por uma estatística chamada coeficiente de correlação, também conhecida como r, que varia de –1 a 0 ou de 0 a +1. De fato, existem vários tipos de coeficientes de correlação, sendo os mais utilizados o r de Pearson (em homenagem a Karl Pearson, que criou o teste) e o ρ de Spearman (o eta2 e o V de Cramer são outros dois que mencionamos apenas de passa- gem). O nome completo do r de Pearson é coeficiente de correlação produto-momento de Pearson; esse é um teste paramétrico e será apresentado neste capítulo. Você deve lembrar que, para usar um teste paramétrico, devemos satisfazer certos pressupostos (ver seção 5.12). O pressuposto mais importante é que os dados são provenientes de uma população normalmente distribuída. Se você tem um grande número de participantes, esse pressuposto será provavelmente satisfeito. Se tem motivos para crer que esse não é o caso, você deve usar o equivalente não paramétrico do r de Pearson, chamado ρ de Spearman (ver seção 16.1). Na Figura 6.1, o relacionamento é representado por +1: sinal de mais, porque o rela- cionamento é positivo, e 1 porque o relacionamento é perfeito. Na Figura 6.3, o relaciona- mento é –1: sinal de menos, pois o relacionamento é negativo, e 1, pois o relacionamento é perfeito. Lembre-se: +1 = relacionamento positivo perfeito –1 = relacionamento negativo perfeito O diagrama na Figura 6.7 mostra os vários graus dos coeficientes de correlação. Esse diagrama (Fig. 6.7) ilustra a ideia de que –1 é tão forte quanto +1. Só porque o relacionamento é negativo não quer dizer que seja menos importante ou menos forte que um relacionamento positivo. Como já foi dito anteriormente (mas a repetição ajuda), um relacionamento positivo Capítulo 6 • Análise de correlação: o r de Pearson 177 simplesmente quer dizer que valores altos em x tendem a se relacionar com valores altos em y e valores baixos em x tendem a se relacionar com valores baixos em y. Já em um relacionamento negativo, valores altos em x tendem a se relacionar com valores baixos em y. Pode-se ver que atribuímos nomes a números, que são somente guias. Uma correlação de 0,9 é uma correlação forte. Obviamente, quanto mais próximo a 1 (+ ou –) está um coefi- ciente de correlação, mais forte é o relacionamento. Quanto mais próximo a 0 (que significa a ausência de relacionamento linear), mais fraca é a correlação. Correlações de 0,4 a 0,6 são moderadas. O coeficiente de correlação mede a proximidade dos pontos à linha que representa o relacionamento. Um coeficiente de correlação de +0,2 é considerado: (a) Zero (b) Fraco (c) Moderado (d) Forte Atividade 6.3 Os diagramas de dispersão nas Figuras 6.8 e 6.9 dão uma ideia do significado do coe- ficiente de correlação. Walsh e colaboradores (2009) utilizaram a análise correlacional para ver se ansiedade com apego e evitação de apego estavam relacionados à atenção plena (mindfulness). A aten- ção plena é um estado mental em que a pessoa está atenta ao momento presente (em vez de ao passado ou futuro). A pessoa que é plenamente atenta procura “viver no presente” e foca na experiência imediata. Isso deve diminuir a preocupação e a ruminação mental. O diagrama de dispersão na Figura 6.8 mostra que, à medida que a ansiedade com ape- go aumenta, a evitação de apego aumenta. A correlação é de fraca a moderada. Perfeito �1 0 �1 Forte Moderado Zero Fraco �0,1 �0,2 �0,3 �0,4 �0,5 �0,6 �0,7 �0,8 �0,9 �0,1 �0,2 �0,3 �0,4 �0,5 �0,6 �0,7 �0,8 �0,9 Figura 6.7 Ilustração da intensidade de coeficientes de correlação positivos e negativos. 178 Estatística sem matemática para psicologia A correlação entre ansiedade-traço e atenção plena mostra que existe uma associação negativa moderada entre ansiedade-traço e atenção plena (ver Fig. 6.9). Se a correlação é zero, os pontos podem parecer aleatórios e não apresentar um padrão discernível. Portanto, não existe um relacionamento entre x e y. 6,00 5,00 4,00 3,00 2,00 1,00 1,00 2,00 3,00 4,00 5,00 6,00 Ev ita çã o de a pe go Ansiedade com apego Figura 6.8 Diagrama de dispersão mostrando a correlação entre ansiedade com apego e evitação de apego (n = 127; r = +0,363, pterá o melhor escore no Teste 2 (130). O contrário também é verdade, o participante com o menor escore no Teste 1 terá o menor escore no Teste 2. Como já foi dito anteriormente, relacionamentos perfeitos são raros, mas o mesmo raciocínio se aplica aos relacionamentos imperfeitos. Isso quer dizer que, para calcular o coeficiente de correlação, é necessário relacionar a posição relativa de cada participante em uma variável com a sua posição relativa na segunda variável. 182 Estatística sem matemática para psicologia Vamos imaginar que fizemos uma análise correlacional entre o número de casquinhas de sor- vetes compradas de um sorveteiro na frente da sua universidade e a temperatura. Pergun- tamos ao vendedor, chamado VendeMuito, quantas casquinhas foram vendidas em cada dia. Pegamos os dados durante um período de 20 dias. Agora, precisamos saber se o número de sorvetes vendidos varia com a temperatura. Prevemos que, de acordo com a literatura, a ven- da de sorvete aumentaria com o aumento da temperatura. Essa é uma hipótese unilateral. Os dados são apresentados na Tabela 6.1. Agora fica fácil ver como plotar um diagrama de dispersão à mão, embora isso possa ser tedioso quando temos muitos valores. Naturalmente, o SPSS faz esse trabalho melhor do que nós! (Instruções de como obter diagramas de dispersão foram dadas na seção 3.5.) Tabela 6.1 Dados dos números de sorvetes de casquinha vendidos em dias com diferentes temperaturas Sorvetes vendidos Temperatura Sorvetes vendidos Temperatura 1.000 26 550 14 950 22 600 19 870 19 700 21 890 20 750 22 886 19 800 22 900 21 850 24 560 17 950 22 550 16 1.050 26 400 12 1.000 26 500 13 1.000 26 Podemos ver no diagrama da Figura 6.14 que a temperatura e o número de casquinhas de sorvete vendidas estão relacionados. Obviamente, não é uma correlação perfeita, mas basta olhar os dados para percebermos uma correlação positiva. Exemplo: temperatura e venda de sorvetes 120 140 60 80 100 0 20 40 0 10 20 30 x y Teste 1 Te st e 2 Escore de Sharmini Figura 6.13 Relacionamento linear perfeito. Capítulo 6 • Análise de correlação: o r de Pearson 183 1100 1000 900 800 700 600 500 400 300 10 12 14 16 18 20 22 24 26 28 Temperatura Ve nd a de s or ve te s Figura 6.14 Diagrama de dispersão dos dados de venda de sorvete. Agora, queremos saber o valor do coeficiente de correlação e a probabilidade associada; por- tanto, voltamos novamente ao SPSS. Nossos dados já foram colocados no software, então selecionamos Analyze, Correlate (correlacionar), Bivariate (bivariada): SPSS: correlações bivariadas – o r de Pearson 184 Estatística sem matemática para psicologia Isso abre a seguinte caixa de diálogo: Mova as variáveis de interesse para a caixa Variables Mova ambas as variáveis do lado esquerdo para o lado direito. Tenha certeza de que as opções Pearson e One-tailed foram selecionadas. Clique no botão OK. Isso gerará os seus resultados. Vamos dar uma olhada na saída do SPSS. Os resultados importantes para serem rela- tados são os seguintes: ●● o coeficiente de correlação r, que nos mostra o grau em que nossas variáveis se rela- cionam umas com as outras e em qual direção; e ●● o nível de probabilidade associada, que nos dá a probabilidade de nosso coeficiente de correlação ter ocorrido apenas devido ao erro amostral dado que a hipótese nula seja verdadeira. Os resultados são apresentados em forma de uma matriz. A matriz é simplesmen- te um conjunto de números dispostos em linhas e colunas. A matriz de correlação é um exemplo de uma matriz quadrada simétrica. Cada variável deve estar em perfeita corre- lação com ela mesma (se não, algo está errado). Além disso, os resultados são mostrados duas vezes: cada metade da matriz é uma imagem simétrica dela mesma. Isso quer dizer que você precisa olhar somente uma metade (acima ou abaixo da diagonal principal). O SPSS também fornece o número de pares para cada variável. Na saída a seguir, o ponto onde a nossa variável sorvete encontra a nossa variável temperatura fornece as informa- ções de que precisamos. A primeira linha fornece o coeficiente de correlação – o padrão é fornecer esse coeficiente calculado com até duas decimais. O nível de significância atingi- do é apresentado na segunda linha, e a terceira confirma quantos pares temos na análise. Lembre-se de que, quando o SPSS apresenta uma fileira de zeros para a probabilidade associada, recomendamos mudar o último zero para 1 e usar o sinalcomo se fos- sem independentes, mas eles não são independentes, pois compartilham muita variância. Quanta variância exatamente eles compartilham? A estatística de teste, um coeficiente de correlação, nos dará essa resposta. Explicamos que o coeficiente de correlação vai de –1 a 0 e de 0 a +1. Ao elevar ao quadrado o coeficiente de correlação, você sabe quanta variância, em termos percentuais, as duas variáveis compartilham. Veja a Tabela 6.2. Lembre-se de que correlações negativas elevadas ao quadrado dão uma resposta positi- va. Por exemplo, –0,4 ao quadrado ( –0,4 × –0,4) = 0,16. Portanto, 16% da variância foi ex- plicada pela correlação de –0,4, da mesma maneira teríamos esse resultado se a correlação fosse +0,4. Se você tem uma correlação de 0,9, explicou 81% da variância. Um diagrama de Venn deixará isso mais claro. Se duas variáveis tivessem uma correlação perfeita, elas não seriam independentes, e os dois círculos para x e y estariam um em cima do outro, exata- mente como se houvesse duas moedas empilhadas: As duas variáveis teriam uma correlação de +1,00, e toda a variância nos escores de uma variável seria explicada pela variância nos escores da outra variável. Por exemplo, podemos supor que as horas de sol e a temperatura tenham uma correlação de 0,9 (81%). Os dois círculos pareceriam como os seguintes: 81%9,5% 9,5% Capítulo 6 • Análise de correlação: o r de Pearson 187 Se 81% da variância é compartilhada entre as duas variáveis, sobra 19% da variância. Isso é o que conhecemos por variância exclusiva: 9,5% é exclusiva do sol, e 9,5% é exclusiva da temperatura. Se a variância compartilhada for relativamente mais alta que as variâncias exclusivas, o r terá um valor alto. Se as variâncias exclusivas forem relativamente mais altas do que a variância compartilhada, o valor de r será baixo. r = uma medida de variância compartilhada uma medida das variâncias separadas A parte sombreada (81%) é a variância compartilhada. Em outras palavras, 81% da va- riabilidade no número de horas de sol pode ser explicada pela variabilidade na temperatura. Da mesma forma, 81% da variabilidade na temperatura pode ser explicada pela variabili- dade no número de horas de sol, enquanto 19% não é explicada, quer dizer, a variância nos escores deve-se também a outros fatores. Observe o diagrama de dispersão a seguir: 7 6 5 4 3 2 3,0 3,5 4,0 4,5 5,02,5 SATIS RE LA C Qual é a conclusão mais adequada? As duas variáveis mostram uma: (a) Correlação positiva moderada (b) Correlação negativa moderada (c) Correlação negativa forte (d) Correlação zero Atividade 6.6 Tabela 6.2 Tabela mostrando o relacionamento entre correlações e correlações ao quadrado Correlação (r) Correlação ao quadrado (r2) Variância compartilhada 0,0 0,0 0,00 (0%) 0,1 0,1² 0,01 (1%) 0,2 0,2² 0,04 (4%) 0,3 0,3² 0,09 (9%) 0,4 0,4² 0,16 (16%) 0,5 0,5² 0,25 (25%) 0,6 0,6² 0,36 (36%) 0,7 0,7² 0,49 (49%) 0,8 0,8² 0,64 (64%) 0,9 0,9² 0,81 (81%) 1,0 1,0² 1,00 (100%) 188 Estatística sem matemática para psicologia Vamos usar como exemplo o número de centímetros de precipitação de chuva e a pre- sença em jogos de futebol. Esperaríamos um relacionamento negativo: quanto mais chuva, menos pessoas presentes. Vamos supor que o relacionamento é –0,3. Isso significa que 9% (–0,3 × –0,3 = +0,09) da variância foi explicada (ver Fig. 6.15). Como outro exemplo (ver Fig. 6.16), vamos supor que medimos e pesamos uma turma de crianças e que a altura e o peso têm uma correlação de 0,7. Quanto da variância foi ex- plicada? Multiplicamos 0,7 por 0,7 = 0,49 (49%): isso significa que praticamente metade da variância nos valores da altura pode ser explicada pela variância do peso. Da mesma forma, quase metade da variância do peso pode ser explicada pela variância da altura. É claro que isso também significa que 51% não é explicada, quer dizer, 51% é explicada por outros fatores, como idade, genética ou fatores ambientais. O coeficiente de correlação pode sempre ser elevado ao quadrado para obter a variância explicada (r ao quadrado). Da mesma maneira, se você sabe o r², pode usar o botão da raiz quadrada na sua calculadora para obter o coeficiente de correlação, o r (embora isso não informe a direção do relacio- namento). Você deve perceber que uma correlação de 0,4 não é duas vezes mais forte que uma correlação de 0,2. Uma correlação de 0,4 significa que 16% da variância foi explicada, enquanto uma de 0,2 significa que somente 4% foi explicada. Portanto, uma correlação de 0,4 é, na verdade, quatro vezes mais forte do que uma correlação de 0,2. Um coeficiente de correlação é uma boa medida do tamanho do efeito e pode sempre ser elevado ao quadrado 9% (r 2) Número de pessoas, 45,5%Precipitação de chuva, 45,5% Figura 6.15 Diagrama ilustrando a variância compartilhada entre duas variáveis. Altura, 25,5% Peso, 25,5% Os círculos sempre somam 100% r2 � 49% Figura 6.16 Outra ilustração de variância compartilhada. Capítulo 6 • Análise de correlação: o r de Pearson 189 para verificar quanto da variância dos escores de uma variável pode ser explicada por va- riações de outra variável. Quando você está avaliando a significância de um coeficiente de correlação, é importante pres- tar atenção: (a) no nível de significância. (b) no valor do coeficiente de correlação. (c) em ambos (a) e (b). (d) nem em (a) nem em (b). Atividade 6.7 Existe uma correlação (talvez fictícia!) entre a quantidade de sorvete ingerido e um sentimento de grande felicidade (+0,85). Quanto da variação nos escores da felicidade pode ser explicada pela quantidade de sorvete ingerido? Quanto da variação permanece sem explicação? 6.1.11 Significância estatística e importância psicológica No passado, algumas pessoas estavam mais preocupadas com a “significância” do que com o tamanho da correlação ou a quantidade da variância explicada. Às vezes, as pessoas di- ziam que tinham uma correlação altamente significativa: lembravam o valor da probabi- lidade (p. ex., 0,005), mas se esqueciam do valor da correlação. O valor da probabilidade significa muito pouco se o valor de r não for relatado. O coeficiente de correlação indica o nível de relacionamento das variáveis, e o valor probabilístico é a probabilidade daquele valor ocorrer unicamente por erro amostral. Portanto, quando relatar seus estudos, apresente o coeficiente de correlação e pense se o r é significativo para o seu estudo, assim como o valor da probabilidade. Não apresente apenas o valor da probabilidade. Lembre-se: significância estatística não equivale necessa- riamente à significância psicológica (ver Caps. 5 e 8 para mais informações). Agora que você já sabe sobre a variância explicada, podemos ajustar o texto do relato dos seus resultados para incluí-la. O relato da sua análise pode ser algo como: A venda de casquinhas de sorvete está fortemente associada à temperatura: quando a temperatura aumenta, o mesmo ocorre com a venda de sorvete. O r de 0,89 mostrou que 79% da variância das vendas de sorvete é explicada pela variância da temperatura. O nível de probabilidade associada de