Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.

Prévia do material em texto

6
Análise de correlação: o r de Pearson
V I S Ã O G E R A L D O C A P Í T U L O
Nos primeiros cinco capítulos, apresentamos os conceitos mais básicos que você precisa-
rá para entender as análises estatísticas introduzidas no restante deste livro. É importan-
te que entenda todos os conceitos apresentados nesses capítulos anteriores, e, para veri-
ficar seu conhecimento, você pode resolver as atividades e questões de múltipla escolha 
presentes no decorrer e no final de cada capítulo. Se achar que existem algumas coisas 
que ainda não entendeu, vale a pena voltar ao capítulo em questão e ter certeza de que 
compreendeu o conceito completamente. Uma vez que se sinta confiante de que domina 
todos os conceitos, você estará pronto para lidar com as análises estatísticas mais exi-
gentes que serão apresentadas de agora em diante. Ter realmente entendido os conceitos 
anteriores facilitará seu percurso pelo restante do livro. Nos primeiros cinco capítulos, 
você foi apresentado à ideia de observar as relações entre variáveis como, por exemplo, a 
relação entre horas de estudo e desempenho em provas. Os psicólogos muitas vezes pro-
curam saber se existe uma relação ou associação significativa entre duas variáveis. Esse 
é o assunto deste capítulo. Você precisará ter um entendimento do seguinte:
●● hipóteses uni e bilaterais (Cap. 5);
●● significância estatística (Cap. 5); e
●● intervalos de confiança (Cap. 4).
Neste capítulo, discutiremos maneiras pelas quais podemos analisar relaciona-
mentos ou associações entre variáveis. No capítulo anterior, falamos sobre o relacio-
namento entre tempo de estudo e desempenho em provas. Para descobrirmos se tal 
relacionamento existe, pegamos um número de alunos e registramos quantas horas por 
unidade de tempo (p. ex., por semana) eles passam estudando e depois medimos seu 
desempenho nas provas. Teríamos, então, dois conjuntos de dados (ou duas variáveis). 
Análises de correlação nos dão uma medida da relação entre eles. No capítulo anterior 
sugerimos que somos capazes de calcular a medida da força desse relacionamento, e a 
análise de correlação nos oferece tal medida.
Aqui discutiremos o seguinte:
●● a análise e o relato de estudos usando a análise de correlação;
●● r como um tamanho do efeito natural; e
●● os limites de confiança em torno de r.
6.1 Correlações bivariadas
Quando consideramos o relacionamento entre duas variáveis, chamamos isso de correlação 
bivariada. Se as duas variáveis são associadas, dizemos que elas são correlacionadas. Isso 
significa que elas covariam; quando os valores em uma variável mudam, valores na outra 
variável mudam de maneira previsível. Em outras palavras, as duas variáveis não são inde-
pendentes.
170 Estatística sem matemática para psicologia
6.1.1 Tirando conclusões a partir da análise de correlação
Um relacionamento correlacional não pode ser automaticamente considerado como um que 
sugere causalidade. Lembre-se de que, no Capítulo 1, dissemos que você não pode suge-
rir causalidade com correlações, isto é, se existe uma associação significativa entre duas 
variáveis, isso não quer dizer que x causa y ou, pelo contrário, que y causa x. Por exemplo, 
considere o seguinte. Já foi mostrado que existe uma relação positiva significativa entre os 
salários de pastores presbiterianos em Massachusetts e o preço do rum em Havana. Nesse 
caso, é obviamente inapropriado argumentar que uma variável causa a outra. Como Huff 
(1973), que providenciou esse exemplo, observou, não é necessário inferir causalidade, pois 
a explicação mais óbvia é que os valores estão crescendo devido a um terceiro fator – o 
aumento mundial nos preços de praticamente tudo!
A análise estatística pode nos mostrar se duas variáveis são relacionadas estatistica-
mente, mas a análise não pode nos dizer as razões pelas quais elas estão correlacionadas 
– nós é que temos que fazer esse trabalho! Vamos supor que duas variáveis, x e y, estejam 
correlacionadas. Isso poderia ser porque:
●● a variação dos escores em y foi causada pela variação dos escores em x (i.e., x causou 
y);
●● a variação dos escores em x foi causada pela variação dos escores em y (i.e., y causou 
x);
●● a correlação entre x e y pode ser explicada pela influência de uma terceira variável, z 
(ou até mesmo por várias outras variáveis);
●● a correlação entre elas é puramente aleatória.
Como um exemplo do último item, em uma ocasião, pedimos aos nossos alunos 
que fizessem uma análise de correlação de algumas variáveis. Quando fazemos isso no 
computador, é muito fácil cometer o erro de incluir variáveis que não são relevantes. 
Um de nossos alunos incluiu “número de participantes” com as outras variáveis, erro-
neamente. Ela nos mostrou que “número de participantes” tinha uma correlação positi-
va alta com autoestima, uma das variáveis. Na verdade, não havia um relacionamento 
real entre essas variáveis. É importante, portanto, ter em mente a possibilidade de que 
um relacionamento mostrado por uma análise de correlação possa ser espúrio. Francis 
Galton (1822-1911) era primo de Charles Darwin. Embora Galton tenha inventado a 
correlação, Karl Pearson (1857-1936) a desenvolveu e descobriu as correlações espúrias 
(apenas um relacionamento estatístico, não um relacionamento real entre duas variáveis, 
como acabamos de explicar). Ele encontrou muitos casos de correlações espúrias. Cabe 
ao pesquisador determinar se as correlações estatisticamente significativas são expres-
sivas e importantes (em vez de apenas estatisticamente significativas) e excluir fatores 
aleatórios.
A exploração dos relacionamentos entre variáveis pode incluir os seguintes passos:
1. Inspeção de diagramas de dispersão (ver a seguir)
2. Um teste estatístico chamado r de Pearson, que nos mostra a magnitude e o grau de re-
lacionamento e a probabilidade de tal relacionamento ocorrer devido ao erro amostral, 
dado que a hipótese nula seja verdadeira
3. Limites de confiança em torno da estatística r, quando apropriado
4. Interpretação dos resultados
6.1.2 Objetivos da análise de correlação
O propósito, portanto, de se fazer uma análise de correlação é descobrir se existe uma 
relação entre as variáveis que seja improvável de acontecer devido ao erro amostral se a 
Capítulo 6 • Análise de correlação: o r de Pearson 171
hipótese nula for verdadeira e improvável de ser espúria. A hipótese nula é que não existe 
relação real entre as duas variáveis. Entretanto, essa não é a única informação que a análise 
de correlação oferece. Ela também nos permite determinar:
●● a direção do relacionamento – se é positivo, negativo ou zero; e
●● a força ou magnitude do relacionamento entre as duas variáveis – o teste estatístico, 
chamado coeficiente de correlação, varia de 0 (nenhuma relação entre as variáveis) a 1 
(relação perfeita entre as variáveis).
Esses dois pontos são discutidos em mais detalhes a seguir.
6.1.3 Direção do relacionamento
Positivo
Valores altos em uma variável (que chamamos de x) tendem a ser associados a valores altos 
na outra variável (que chamamos de y); e, ao contrário, valores baixos na variável x tendem 
a ser associados a valores baixos na variável y.
Negativo
Valores altos em uma variável são associados com valores baixos na outra variável.
Zero
Relacionamentos zero são aqueles em que não existe um relacionamento linear (linha reta) 
entre as duas variáveis. (O que queremos dizer pelo termo “relacionamento linear” será 
explicado mais tarde. Por ora, vamos assumir que a ausência de um relacionamento linear 
não significa a ausência de relacionamento entre as duas variáveis.)
Agora, pense na direção dos relacionamentos dos exemplos abaixo.
●● Número de horas de estudo e desempenho em provas: Espera-se que o número de horas 
de estudo tenha um relacionamento positivo com desempenho em provas: quanto mais 
tempo um aluno passa estudando, melhor o desempenho.
●● Tabagismo em usuários de ecstasy: Fisk, Montgomery e Murphy (2009) descobriram 
que em uma amostra de usuários de ecstasyexistia uma correlação positiva entre o 
número de cigarros fumados e o número de reações adversas relatadas.
6.1.4 Relacionamentos positivos perfeitos
Já foi dito que, em relacionamentos positivos, valores altos em uma variável são associa-
dos a valores altos na outra e vice-versa. Podemos ver esse relacionamento ao plotar os 
valores em um gráfico chamado diagrama de dispersão. Quando executamos uma corre-
lação bivariada, temos dois conjuntos de valores (escores). Quando plotamos os valores 
em um diagrama de dispersão, colocamos uma variável no eixo horizontal – eixo x. Co-
locamos a outra variável no eixo vertical – eixo y. Não importa qual variável designamos 
ao x e qual ao y.
Para construir um diagrama de dispersão, pegamos o valor de cada pessoa nos eixos x e 
y e plotamos onde os dois se encontram. Cada ponto é representado por dois valores (x e y). 
Você foi apresentado à construção de diagramas de dispersão usando o SPSS na seção 3.5, 
e aqui detalharemos o assunto.
Um relacionamento positivo perfeito é apresentado no diagrama de dispersão na 
Figura 6.1. Um relacionamento perfeito é aquele onde todos os pontos no diagrama en-
contram-se alinhados. Por exemplo, pense na sua idade plotada contra a idade da sua 
172 Estatística sem matemática para psicologia
irmã. (É claro que esse não é um exemplo realista. Ninguém iria realmente querer cor-
relacionar a sua idade com a da irmã – é somente um exemplo.) Vamos considerar que 
sua irmã é quatro anos mais velha do que você. Atribuímos a idade da sua irmã ao eixo 
vertical (y) e a sua idade ao eixo horizontal (x) e, para cada par de idades, colocamos um 
ponto no diagrama de dispersão. Deve estar imediatamente óbvio que o relacionamento 
é positivo: quando você envelhece, sua irmã também envelhece. O relacionamento tam-
bém deve ser perfeito: para cada ano que você envelhece, sua irmã envelhece um ano 
também.
É importante entender que esse exemplo mostra que você não pode inferir causalidade 
quando executa a correlação. Afinal de contas, o aumento da sua idade não causa o aumen-
to da idade de sua irmã, nem o envelhecimento dela causa o seu!
6.1.5 Relacionamentos positivos imperfeitos
Vamos imaginar que temos um número de estudantes, os quais avaliamos em testes de QI e 
em uma prova com notas percentuais. Queremos determinar se existe uma relação entre QI 
e as notas nas provas. Isso não quer dizer que o QI causa as notas nas provas dos estudantes, 
nem quer dizer que as notas nas provas afetaram os seus QIs de alguma maneira. Um QI 
alto ou baixo e notas altas ou baixas poderiam ter sido “causadas” por vários fatores, como 
cursos preparatórios, prática em testes de QI e motivação.
Decidimos atribuir os valores dos QIs ao eixo vertical (y) e as notas nas provas ao eixo 
horizontal (x). Cada aluno tem dois escores, um de QI e um da nota na prova. Entretanto, 
cada aluno contribui com um ponto somente no diagrama de dispersão, como é possível ver 
na Figura 6.2.
O diagrama nos mostra que QIs altos tendem a estar associados a notas altas nas provas 
e QIs baixos tendem a estar associados a notas baixas nas provas. É claro que nesse caso a 
correlação não é perfeita. Entretanto, a tendência está presente, e isso é o que importa. Quer 
dizer, embora os pontos não estejam completamente alinhados, ainda é um relacionamento 
linear positivo, pois formam um padrão visível indo do canto inferior esquerdo ao canto 
superior direito.
18
16
14
12
10
8
6
4
0 2 4 6 8 10 12 14
Sua idade
Id
ad
e 
da
 s
ua
 ir
m
ã
Quando você
tinha 12 anos, sua
irmã tinha 16
Escore de x = 12, 
escore de y = 16 
(dois escores, 
mas somente um 
ponto)
Figura 6.1 A idade da sua irmã e a sua.
Capítulo 6 • Análise de correlação: o r de Pearson 173
Tente pensar em alguns relacionamentos positivos bivariados. Os seus exemplos têm a proba-
bilidade de serem relacionamentos perfeitos? Discuta os exemplos com seus colegas. Vocês 
concordam esses exemplos são bons?
Atividade 6.1
6.1.6 Relacionamentos negativos perfeitos
Novamente, devido ao fato de este relacionamento ser perfeito, os pontos no diagrama de 
dispersão formariam uma linha reta. Cada vez que x aumenta, y diminui de forma constan-
te.
Imagine uma máquina automática vendendo café. Cada café custa R$1,00. Suponha 
que no início do dia a máquina é preenchida com apenas dez copos de papel. Supondo, é 
claro, que a máquina automática funciona como deve (i.e., a máquina aceita seu dinheiro, 
o copo desce de maneira correta, o dinheiro fica dentro, ela dá o troco corretamente, etc.), 
então, cada vez que alguém colocar R$1,00 um copo é liberado (e, esperamos, com café 
dentro) e menos copos permanecem. Isso pode ser visto na Figura 6.3.
Como se pode ver, com um relacionamento linear negativo perfeito, os pontos ainda 
formam uma linha reta, mas dessa vez eles vão do canto superior esquerdo ao canto inferior 
direito.
6.1.7 Relacionamentos negativos imperfeitos
Em um relacionamento linear negativo imperfeito, os pontos não estão todos alinhados, 
mas ainda formam um padrão visível saindo do canto superior esquerdo em direção ao 
canto inferior direito. Por exemplo, digamos que tivéssemos coletado dados de presença 
em jogos de futebol e de precipitação de chuva. O diagrama de dispersão resultante pode 
parecer algo como o da Figura 6.4. De modo geral, a tendência é de que a presença nos jogos 
seja menor quando a precipitação é maior.
140
130
120
110
100
90
0 10 20 30 40 50
Notas na prova
Q
I
Figura 6.2 Diagrama de dispersão do QI e das notas em uma prova.
174 Estatística sem matemática para psicologia
6.1.8 Relacionamentos não lineares
Note que, se um relacionamento não é estatisticamente significativo, pode não ser apro-
priado inferir que não existe relação entre as duas variáveis. Isso se dá pelo fato de que, 
como foi dito anteriormente, a análise de correlação testa a existência de um relaciona-
mento linear. Alguns relacionamentos não são lineares. Um exemplo desse relacionamen-
to é aquele entre excitação e desempenho. Embora pudéssemos esperar que certo nível 
10,00
9,00
8,00
7,00
6,00
5,00
4,00
3,00
2,00
1,00
0,00
Co
po
 d
e 
be
bi
da
 q
ue
nt
e
0,00 1,00 2,00 3,00 4,00 5,00
Dinheiro (R$)
6,00 7,00 8,00 9,00 10,00
Figura 6.3 Diagrama do relacionamento entre copos de café na máquina e a quantia de 
dinheiro depositada nela.
40
10
0 14
Pr
es
en
ça
 (m
ilh
ar
es
)
Precipitação (cm/mês)
30
20
2 4 6 8 10 12
Figura 6.4 Diagrama de dispersão da presença em jogos de futebol e da precipitação de 
chuva.
Capítulo 6 • Análise de correlação: o r de Pearson 175
de excitação melhoraria o desempenho esportivo, excesso de excitação pode levar a uma 
queda no desempenho. Esse relacionamento é descrito pela lei de Yerkes-Dodson (Yerkes 
e Dodson, 1908). Essa lei prevê um relacionamento curvilíneo invertido entre excitação e 
desempenho. Com baixos níveis de excitação, o desempenho (p. ex., desempenho atlético) 
será menor do que se o nível de excitação estivesse um pouco mais alto. Existe um nível 
de excitação “ideal”, no qual o desempenho será o mais alto. Além desse nível, a excitação 
na verdade diminui o desempenho. Isso pode ser representado como mostra a Figura 6.5.
O mesmo relacionamento pode ser representado pelo diagrama de dispersão na Figura 
6.6, que mostra um relacionamento curvilíneo, onde y aumenta com x até certo ponto e en-
tão diminui. O que queremos dizer é que aqui, sem dúvida, existe uma relação entre x e y, 
mas o coeficiente de correlação não seria estatisticamente significativo, pois não existe um 
relacionamento linear (linha reta). Por esse motivo, você deve sempre verificar o diagrama 
de dispersão antes de realizar sua análise para ter certeza de que suas variáveis não estão 
relacionadas dessa maneira, pois, se elas estão, então não faz sentido utilizar as técnicas 
descritas neste capítulo.
Bom
Ruim
Baixo Alto
Nível de excitação
D
es
em
pe
nh
o
Figura 6.5 A hipótese do U invertido (lei de Yerkes-Dodson,1908).
14
8
10
12
2
4
6
0 2 4 6 8 10 12
x
y
Figura 6.6 Diagrama de dispersão ilustrando um relacionamento curvilíneo entre x e y.
176 Estatística sem matemática para psicologia
Qual é a conclusão mais adequada? A correlação entre salário inicial e salário atual é:
60.000
50.000
40.000
30.000
20.000
10.000
0
Sa
lá
rio
 a
tu
al
0 10.000 20.000
Salário inicial
30.000 40.000
(a) Negativa
(b) Positiva
(c) Zero
Atividade 6.2
6.1.9 A força ou magnitude do relacionamento
A força de um relacionamento linear entre duas variáveis é medida por uma estatística 
chamada coeficiente de correlação, também conhecida como r, que varia de –1 a 0 ou 
de 0 a +1. De fato, existem vários tipos de coeficientes de correlação, sendo os mais 
utilizados o r de Pearson (em homenagem a Karl Pearson, que criou o teste) e o ρ de 
Spearman (o eta2 e o V de Cramer são outros dois que mencionamos apenas de passa-
gem). O nome completo do r de Pearson é coeficiente de correlação produto-momento 
de Pearson; esse é um teste paramétrico e será apresentado neste capítulo. Você deve 
lembrar que, para usar um teste paramétrico, devemos satisfazer certos pressupostos 
(ver seção 5.12). O pressuposto mais importante é que os dados são provenientes de uma 
população normalmente distribuída. Se você tem um grande número de participantes, 
esse pressuposto será provavelmente satisfeito. Se tem motivos para crer que esse não 
é o caso, você deve usar o equivalente não paramétrico do r de Pearson, chamado ρ de 
Spearman (ver seção 16.1).
Na Figura 6.1, o relacionamento é representado por +1: sinal de mais, porque o rela-
cionamento é positivo, e 1 porque o relacionamento é perfeito. Na Figura 6.3, o relaciona-
mento é –1: sinal de menos, pois o relacionamento é negativo, e 1, pois o relacionamento 
é perfeito.
Lembre-se: +1 = relacionamento positivo perfeito 
–1 = relacionamento negativo perfeito
O diagrama na Figura 6.7 mostra os vários graus dos coeficientes de correlação. Esse 
diagrama (Fig. 6.7) ilustra a ideia de que –1 é tão forte quanto +1. Só porque o relacionamento 
é negativo não quer dizer que seja menos importante ou menos forte que um relacionamento 
positivo. Como já foi dito anteriormente (mas a repetição ajuda), um relacionamento positivo 
Capítulo 6 • Análise de correlação: o r de Pearson 177
simplesmente quer dizer que valores altos em x tendem a se relacionar com valores altos em y e 
valores baixos em x tendem a se relacionar com valores baixos em y. Já em um relacionamento 
negativo, valores altos em x tendem a se relacionar com valores baixos em y.
Pode-se ver que atribuímos nomes a números, que são somente guias. Uma correlação 
de 0,9 é uma correlação forte. Obviamente, quanto mais próximo a 1 (+ ou –) está um coefi-
ciente de correlação, mais forte é o relacionamento. Quanto mais próximo a 0 (que significa 
a ausência de relacionamento linear), mais fraca é a correlação. Correlações de 0,4 a 0,6 
são moderadas. O coeficiente de correlação mede a proximidade dos pontos à linha que 
representa o relacionamento.
Um coeficiente de correlação de +0,2 é considerado:
(a) Zero
(b) Fraco
(c) Moderado
(d) Forte
Atividade 6.3
Os diagramas de dispersão nas Figuras 6.8 e 6.9 dão uma ideia do significado do coe-
ficiente de correlação.
Walsh e colaboradores (2009) utilizaram a análise correlacional para ver se ansiedade 
com apego e evitação de apego estavam relacionados à atenção plena (mindfulness). A aten-
ção plena é um estado mental em que a pessoa está atenta ao momento presente (em vez de 
ao passado ou futuro). A pessoa que é plenamente atenta procura “viver no presente” e foca 
na experiência imediata. Isso deve diminuir a preocupação e a ruminação mental.
O diagrama de dispersão na Figura 6.8 mostra que, à medida que a ansiedade com ape-
go aumenta, a evitação de apego aumenta. A correlação é de fraca a moderada.
Perfeito �1
0
�1
Forte
Moderado
Zero
Fraco
�0,1
�0,2
�0,3
�0,4
�0,5
�0,6
�0,7
�0,8
�0,9
�0,1
�0,2
�0,3
�0,4
�0,5
�0,6
�0,7
�0,8
�0,9
Figura 6.7 Ilustração da intensidade de coeficientes de correlação positivos e negativos.
178 Estatística sem matemática para psicologia
A correlação entre ansiedade-traço e atenção plena mostra que existe uma associação 
negativa moderada entre ansiedade-traço e atenção plena (ver Fig. 6.9).
Se a correlação é zero, os pontos podem parecer aleatórios e não apresentar um padrão 
discernível. Portanto, não existe um relacionamento entre x e y.
6,00
5,00
4,00
3,00
2,00
1,00
1,00 2,00 3,00 4,00 5,00 6,00
Ev
ita
çã
o 
de
 a
pe
go
Ansiedade com apego
Figura 6.8 Diagrama de dispersão mostrando a correlação entre ansiedade com apego e 
evitação de apego (n = 127; r = +0,363, pterá o melhor escore no Teste 
2 (130). O contrário também é verdade, o participante com o menor escore no Teste 1 terá o 
menor escore no Teste 2.
Como já foi dito anteriormente, relacionamentos perfeitos são raros, mas o mesmo 
raciocínio se aplica aos relacionamentos imperfeitos. Isso quer dizer que, para calcular o 
coeficiente de correlação, é necessário relacionar a posição relativa de cada participante em 
uma variável com a sua posição relativa na segunda variável.
182 Estatística sem matemática para psicologia
Vamos imaginar que fizemos uma análise correlacional entre o número de casquinhas de sor-
vetes compradas de um sorveteiro na frente da sua universidade e a temperatura. Pergun-
tamos ao vendedor, chamado VendeMuito, quantas casquinhas foram vendidas em cada dia. 
Pegamos os dados durante um período de 20 dias. Agora, precisamos saber se o número de 
sorvetes vendidos varia com a temperatura. Prevemos que, de acordo com a literatura, a ven-
da de sorvete aumentaria com o aumento da temperatura. Essa é uma hipótese unilateral. Os 
dados são apresentados na Tabela 6.1.
Agora fica fácil ver como plotar um diagrama de dispersão à mão, embora isso possa ser 
tedioso quando temos muitos valores. Naturalmente, o SPSS faz esse trabalho melhor do que 
nós! (Instruções de como obter diagramas de dispersão foram dadas na seção 3.5.)
Tabela 6.1 Dados dos números de sorvetes de casquinha vendidos em dias com diferentes 
temperaturas
Sorvetes vendidos Temperatura Sorvetes vendidos Temperatura
1.000 26 550 14
950 22 600 19
870 19 700 21
890 20 750 22
886 19 800 22
900 21 850 24
560 17 950 22
550 16 1.050 26
400 12 1.000 26
500 13 1.000 26
Podemos ver no diagrama da Figura 6.14 que a temperatura e o número de casquinhas de 
sorvete vendidas estão relacionados. Obviamente, não é uma correlação perfeita, mas basta 
olhar os dados para percebermos uma correlação positiva.
Exemplo: temperatura e venda de sorvetes
120
140
60
80
100
0
20
40
0 10 20 30
x
y
Teste 1
Te
st
e 
2
Escore de 
Sharmini
Figura 6.13 Relacionamento linear perfeito.
Capítulo 6 • Análise de correlação: o r de Pearson 183
1100
1000
900
800
700
600
500
400
300
10 12 14 16 18 20 22 24 26 28
Temperatura
Ve
nd
a 
de
 s
or
ve
te
s
Figura 6.14 Diagrama de dispersão dos dados de venda de sorvete.
Agora, queremos saber o valor do coeficiente de correlação e a probabilidade associada; por-
tanto, voltamos novamente ao SPSS. Nossos dados já foram colocados no software, então 
selecionamos Analyze, Correlate (correlacionar), Bivariate (bivariada):
SPSS: correlações bivariadas – o r de Pearson
184 Estatística sem matemática para psicologia
Isso abre a seguinte caixa de diálogo:
Mova as 
variáveis de 
interesse para 
a caixa 
Variables
Mova ambas as variáveis do lado esquerdo para o lado direito. Tenha certeza de que as 
opções Pearson e One-tailed foram selecionadas. Clique no botão OK. Isso gerará os seus 
resultados.
Vamos dar uma olhada na saída do SPSS. Os resultados importantes para serem rela-
tados são os seguintes:
●● o coeficiente de correlação r, que nos mostra o grau em que nossas variáveis se rela-
cionam umas com as outras e em qual direção; e
●● o nível de probabilidade associada, que nos dá a probabilidade de nosso coeficiente de 
correlação ter ocorrido apenas devido ao erro amostral dado que a hipótese nula seja 
verdadeira.
Os resultados são apresentados em forma de uma matriz. A matriz é simplesmen-
te um conjunto de números dispostos em linhas e colunas. A matriz de correlação é um 
exemplo de uma matriz quadrada simétrica. Cada variável deve estar em perfeita corre-
lação com ela mesma (se não, algo está errado). Além disso, os resultados são mostrados 
duas vezes: cada metade da matriz é uma imagem simétrica dela mesma. Isso quer dizer 
que você precisa olhar somente uma metade (acima ou abaixo da diagonal principal). O 
SPSS também fornece o número de pares para cada variável. Na saída a seguir, o ponto 
onde a nossa variável sorvete encontra a nossa variável temperatura fornece as informa-
ções de que precisamos. A primeira linha fornece o coeficiente de correlação – o padrão é 
fornecer esse coeficiente calculado com até duas decimais. O nível de significância atingi-
do é apresentado na segunda linha, e a terceira confirma quantos pares temos na análise. 
Lembre-se de que, quando o SPSS apresenta uma fileira de zeros para a probabilidade 
associada, recomendamos mudar o último zero para 1 e usar o sinalcomo se fos-
sem independentes, mas eles não são independentes, pois compartilham muita variância. 
Quanta variância exatamente eles compartilham? A estatística de teste, um coeficiente de 
correlação, nos dará essa resposta. Explicamos que o coeficiente de correlação vai de –1 a 0 
e de 0 a +1. Ao elevar ao quadrado o coeficiente de correlação, você sabe quanta variância, 
em termos percentuais, as duas variáveis compartilham. Veja a Tabela 6.2.
Lembre-se de que correlações negativas elevadas ao quadrado dão uma resposta positi-
va. Por exemplo, –0,4 ao quadrado ( –0,4 × –0,4) = 0,16. Portanto, 16% da variância foi ex-
plicada pela correlação de –0,4, da mesma maneira teríamos esse resultado se a correlação 
fosse +0,4. Se você tem uma correlação de 0,9, explicou 81% da variância. Um diagrama de 
Venn deixará isso mais claro. Se duas variáveis tivessem uma correlação perfeita, elas não 
seriam independentes, e os dois círculos para x e y estariam um em cima do outro, exata-
mente como se houvesse duas moedas empilhadas:
As duas variáveis teriam uma correlação de +1,00, e toda a variância nos escores de 
uma variável seria explicada pela variância nos escores da outra variável. Por exemplo, 
podemos supor que as horas de sol e a temperatura tenham uma correlação de 0,9 (81%). Os 
dois círculos pareceriam como os seguintes:
81%9,5% 9,5%
Capítulo 6 • Análise de correlação: o r de Pearson 187
Se 81% da variância é compartilhada entre as duas variáveis, sobra 19% da variância. 
Isso é o que conhecemos por variância exclusiva: 9,5% é exclusiva do sol, e 9,5% é exclusiva 
da temperatura. Se a variância compartilhada for relativamente mais alta que as variâncias 
exclusivas, o r terá um valor alto. Se as variâncias exclusivas forem relativamente mais altas 
do que a variância compartilhada, o valor de r será baixo.
r = uma medida de variância compartilhada 
 uma medida das variâncias separadas
A parte sombreada (81%) é a variância compartilhada. Em outras palavras, 81% da va-
riabilidade no número de horas de sol pode ser explicada pela variabilidade na temperatura. 
Da mesma forma, 81% da variabilidade na temperatura pode ser explicada pela variabili-
dade no número de horas de sol, enquanto 19% não é explicada, quer dizer, a variância nos 
escores deve-se também a outros fatores.
Observe o diagrama de dispersão a seguir:
7
6
5
4
3
2
3,0 3,5 4,0 4,5 5,02,5
SATIS
RE
LA
C
Qual é a conclusão mais adequada? As duas variáveis mostram uma:
(a) Correlação positiva moderada
(b) Correlação negativa moderada
(c) Correlação negativa forte
(d) Correlação zero
Atividade 6.6
Tabela 6.2 Tabela mostrando o relacionamento entre correlações e correlações ao quadrado
Correlação (r) Correlação ao quadrado (r2) Variância compartilhada
0,0 0,0 0,00 (0%)
0,1 0,1² 0,01 (1%)
0,2 0,2² 0,04 (4%)
0,3 0,3² 0,09 (9%)
0,4 0,4² 0,16 (16%)
0,5 0,5² 0,25 (25%)
0,6 0,6² 0,36 (36%)
0,7 0,7² 0,49 (49%)
0,8 0,8² 0,64 (64%)
0,9 0,9² 0,81 (81%)
1,0 1,0² 1,00 (100%)
188 Estatística sem matemática para psicologia
Vamos usar como exemplo o número de centímetros de precipitação de chuva e a pre-
sença em jogos de futebol. Esperaríamos um relacionamento negativo: quanto mais chuva, 
menos pessoas presentes. Vamos supor que o relacionamento é –0,3. Isso significa que 9% 
(–0,3 × –0,3 = +0,09) da variância foi explicada (ver Fig. 6.15).
Como outro exemplo (ver Fig. 6.16), vamos supor que medimos e pesamos uma turma 
de crianças e que a altura e o peso têm uma correlação de 0,7. Quanto da variância foi ex-
plicada? Multiplicamos 0,7 por 0,7 = 0,49 (49%): isso significa que praticamente metade da 
variância nos valores da altura pode ser explicada pela variância do peso. Da mesma forma, 
quase metade da variância do peso pode ser explicada pela variância da altura.
É claro que isso também significa que 51% não é explicada, quer dizer, 51% é explicada 
por outros fatores, como idade, genética ou fatores ambientais. O coeficiente de correlação 
pode sempre ser elevado ao quadrado para obter a variância explicada (r ao quadrado). Da 
mesma maneira, se você sabe o r², pode usar o botão da raiz quadrada na sua calculadora 
para obter o coeficiente de correlação, o r (embora isso não informe a direção do relacio-
namento). Você deve perceber que uma correlação de 0,4 não é duas vezes mais forte que 
uma correlação de 0,2. Uma correlação de 0,4 significa que 16% da variância foi explicada, 
enquanto uma de 0,2 significa que somente 4% foi explicada. Portanto, uma correlação de 
0,4 é, na verdade, quatro vezes mais forte do que uma correlação de 0,2. Um coeficiente de 
correlação é uma boa medida do tamanho do efeito e pode sempre ser elevado ao quadrado 
9% (r 2)
Número de 
pessoas, 45,5%Precipitação de 
chuva, 45,5%
Figura 6.15 Diagrama ilustrando a variância compartilhada entre duas variáveis.
Altura, 25,5% Peso, 25,5%
Os círculos 
sempre somam 
100%
r2 � 49% 
Figura 6.16 Outra ilustração de variância compartilhada.
Capítulo 6 • Análise de correlação: o r de Pearson 189
para verificar quanto da variância dos escores de uma variável pode ser explicada por va-
riações de outra variável.
Quando você está avaliando a significância de um coeficiente de correlação, é importante pres-
tar atenção:
(a) no nível de significância.
(b) no valor do coeficiente de correlação.
(c) em ambos (a) e (b).
(d) nem em (a) nem em (b).
Atividade 6.7
Existe uma correlação (talvez fictícia!) entre a quantidade de sorvete ingerido e um 
sentimento de grande felicidade (+0,85). Quanto da variação nos escores da felicidade pode 
ser explicada pela quantidade de sorvete ingerido? Quanto da variação permanece sem 
explicação?
6.1.11 Significância estatística e importância psicológica
No passado, algumas pessoas estavam mais preocupadas com a “significância” do que com 
o tamanho da correlação ou a quantidade da variância explicada. Às vezes, as pessoas di-
ziam que tinham uma correlação altamente significativa: lembravam o valor da probabi-
lidade (p. ex., 0,005), mas se esqueciam do valor da correlação. O valor da probabilidade 
significa muito pouco se o valor de r não for relatado. O coeficiente de correlação indica 
o nível de relacionamento das variáveis, e o valor probabilístico é a probabilidade daquele 
valor ocorrer unicamente por erro amostral.
Portanto, quando relatar seus estudos, apresente o coeficiente de correlação e pense se 
o r é significativo para o seu estudo, assim como o valor da probabilidade. Não apresente 
apenas o valor da probabilidade. Lembre-se: significância estatística não equivale necessa-
riamente à significância psicológica (ver Caps. 5 e 8 para mais informações).
Agora que você já sabe sobre a variância explicada, podemos ajustar o texto do relato dos seus 
resultados para incluí-la. O relato da sua análise pode ser algo como:
A venda de casquinhas de sorvete está fortemente associada à temperatura: quando a 
temperatura aumenta, o mesmo ocorre com a venda de sorvete. O r de 0,89 mostrou que 
79% da variância das vendas de sorvete é explicada pela variância da temperatura. O nível 
de probabilidade associada de