Prévia do material em texto
MATEMÁTICA
COMPUTACIONAL
AULA 3
Prof. Gian Brustolin
2
CONVERSA INICIAL
A ideia de se prever o futuro é algo que sempre instigou a curiosidade
humana. Pensamos que, se possível fosse conhecer o provir, muito se poderia
fazer hoje para que melhor pudéssemos enfrentá-lo ou evitá-lo. Há, entretanto,
um paradigma lógico interessante a se enfrentar: se de fato é possível antever o
futuro, este seria imutável e, se assim o for, não há utilidade em conhecê-lo.
A hipótese mais aceitável, que rompe o paradigma do destino acima
discutido, é aquela que presume a existência de vários futuros possíveis, cada
um deles com uma possibilidade maior ou menor de se tornar realidade em
função das ações encetadas entre o momento atual e a materialização de uma
das hipóteses de futuro. Teríamos, então, a capacidade de calcular essas
possibilidades de ocorrência de cada hipótese?
De fato, este é exatamente o mote do estudo da probabilidade e da
estatística. Certamente, neste ponto, você deve estar pensando como isto se
relaciona com computação. A ciência da computação, por quase toda sua
existência, buscou insistentemente por soluções determinísticas para os
algoritmos computacionais. A complexidade dos problemas que essa ciência
enfrenta atualmente a obrigou, em alguns aspectos, a se aproximar das soluções
estocásticas de problemas. Dito de outra forma, há certos problemas cuja
complexidade não permite mais a busca pela solução ótima. Uma solução “boa”,
ou mesmo, em alguns casos extremos, uma solução ao menos viável, é aceita
para essas questões de extrema dificuldade.
Exemplos marcantes são os algoritmos de redes neurais artificiais. Treinar
uma rede neural para que resolva determinado problema é um processo de
minimização de erro. Uma rede treinada não acertará sempre, mas terá uma
probabilidade controlada de erro. Essa probabilidade que poderá ser calculada
depende, entre outros fatores, das amostras utilizadas para treinar a rede. Essas
amostras devem ser escolhidas segundo critérios estatísticos determinados para
que a rede convirja, ou seja, para que ela tenha a capacidade de aprender e
generalizar seu aprendizado.
Nesta aula, vamos apresentar alguns rudimentos de probabilidade e
estatística que serão úteis na codificação de algoritmos estocásticos, ou seja,
algoritmos para os quais não existe uma solução definitiva, como o exemplificado
anteriormente.
3
Utilizaremos uma aproximação instrumental dessa ciência, de forma a
torná-la apenas suficientemente profunda para as nossas necessidades futuras
de estudo.
TEMA 1 – CONCEITOS DE PROBABILIDADE
Como comentamos anteriormente, a ideia da probabilidade é fornecer um
valor numérico para a possibilidade de ocorrência de um evento. Antes de
sermos capazes de realizar esses cálculos, devemos construir alguns conceitos
básicos dessa ciência.
1.1 Espaço amostral
Espaço amostral pode ser conceituado como a junção de todos os
possíveis resultados obtidos com base em um determinado experimento. Dito de
outra forma, considerando um acontecimento qualquer, o espaço amostral é o
conjunto de todas as possibilidades de ocorrência.
Tomemos um exemplo contextualizado para nosso estudo: suponha um
jogo computacional. Ao se logar na aplicação, o jogador pode encontrar o jogo
disponível e iniciar seu entretenimento, ou o jogo pode apresentar defeito e se
tornar indisponível. Assim, para o evento “logar no jogo”, há dois resultados
possíveis: sucesso ou insucesso.
Figura 1 – Resultados e espaço amostral
Outra possibilidade é o jogador, após logar, encontrar problemas de HW
que impeçam o prosseguimento do jogo, por exemplo, um defeito no mouse. A
princípio, a disponibilidade do jogo é independente do funcionamento do mouse,
assim, podemos representar o exposto segundo a figura a seguir:
Figura 2 – Resultados e espaço amostral II
Logar
Jogo Disponível (D)
Jogo Indisponível (I)
Logar
Jogo Disponível (D)
Jogo Indisponível (I)
Mouse OK (M)
Mouse não OK (N)
Mouse OK (M)
Mouse não OK (N)
4
O espaço amostral – conjunto de todas as possibilidades –, normalmente
chamado de “S” (do inglês Space) ou Ω (letra grega ômega), descrito na figura
anterior é o seguinte:
S= { DM, DN, IM, IN}
É possível que o jogo esteja disponível (D) e o mouse não apresente
defeito (M). Alternativamente, mesmo estando o jogo disponível (D), o mouse
pode estar com problemas (N). No outro ramo da figura, estando o jogo
indisponível (I), o mouse pode estar operacional (M) ou com defeito (N). Essas
são todas as possibilidades de ocorrência para esse exercício, ou, usando o
jargão estatístico, este é o espaço amostral do experimento.
1.2 Evento
Tomando o mesmo experimento, podemos imaginar subconjuntos de S,
por exemplo, ocorrerem defeitos simultâneos, ou apenas um defeito. Qualquer
subconjunto de S será dito evento de S. Vamos supor o evento E, jogo
indisponível, podemos escrever.
E={I};
Vamos agora supor um teclado numérico, composto das seguintes teclas
S={1,2,3,4,5,6,7,8,9,0,+,-,*,/,=,C}. Podemos imaginar o evento números
pares={2,4,6,8}, ou o evento operadores matemáticos={+,-,*,/,=}.
1.3 Probabilidade
De maneira simples, podemos dizer que probabilidade é a chance de que
um determinado evento ocorra. Vamos voltar ao teclado. Imagine que uma
pessoa aperte, aleatoriamente, uma tecla qualquer. Qual a possibilidade de a
tecla apertada ser 9, por exemplo?
Como a escolha da tecla foi aleatória, essa pessoa poderia ter apertado
qualquer tecla, ou seja, a chance da tecla 9 ser apertada é igual à de qualquer
outra o ser (são eventos equiprováveis). Assim, podemos pensar que, se existem
16 teclas, a chance de se apertar a tecla 9 é uma em 16 possibilidades. Dito de
outra forma, a probabilidade do evento 9 é 1/16, ou seja, 0,0625, ou ainda 6,25%.
Se, no mesmo exemplo, desejássemos saber qual a probabilidade de
nosso apertador de teclados acertar um número par, a situação é ligeiramente
diferente. Nesse caso, existem quatro números pares nas 16 teclas.
5
Usando a mesma lógica, serão quatro chances em 16 possibilidades ou
4/16, ou seja, 25%. Desse exercício mental, é possível generalizar o cálculo da
probabilidade, que denotaremos P(A) ou probabilidade de ocorrência do evento
A qualquer.
𝑷 (𝑨) = 𝒏 / 𝑵
Onde 𝒏 é o número de elementos de A e 𝑵 é o número de elementos de
S.
1.4 Tipos de eventos e união de eventos
Os eventos, quando relacionados com sua probabilidade de ocorrência,
recebem uma classificação que veremos em seguida. Quando a ocorrência de
um evento elimina a possibilidade da ocorrência de outro, esses eventos são
chamados de mutuamente excludentes. A probabilidade de ocorrência de
vários eventos independentes é a soma simples das probabilidades individuais
de ocorrência.
Dois eventos são ditos complementares quando:
p + q = 1 (100%)
Onde:
p é a probabilidade de sucesso em um dos eventos;
q é a probabilidade de sucesso no outro evento.
Nos eventos complementares, a soma de suas probabilidades de
ocorrência representa o espaço amostral por completo.
A união de eventos é a ocorrência de eventos sucessivos ou simultâneos
em S. A probabilidade da união de eventos sucessivos é a soma das
probabilidades individuais decrescida da interseção entre eles, ou seja, para os
eventos A e B:
𝑷(𝑨 ∪ 𝑩) = 𝑷(𝑨) + 𝑷(𝑩) − 𝑷(𝑨 ∩ 𝑩)
Isto se explica pela teoria dos conjuntos, segundo a qual, para
conhecermos o conjunto união de dois outros conjuntos, basta somar os
elementos desses dois, mas se existirem elementos comuns, eles devem ser
contados uma única vez.
A probabilidade da união de eventos simultâneos é a multiplicação das
probabilidades individuais, ou seja, para os eventos A e B:
𝑷(𝑨 ∩ 𝑩) = 𝑷(𝑨) ∗ 𝑷(𝑩)
6
1.5 Probabilidade de eventoscomplementares
Os eventos complementares podem ser descritos com um evento e seu
complemento, já que p+q=1, assim:
𝑨 ∪ �̅� = 𝛀
𝑨 ∪ �̅� = ∅
𝑷(�̅�) = 𝟏 − 𝐏(𝑨)
TEMA 2 – AMOSTRAGEM
O estudo da probabilidade nos torna capazes de calcular em dado
experimento a chance de se obter determinado resultado. Nesses cálculos,
todos os eventos são conhecidos, e o número de eventos é controlável. Quando
objetivamos aplicar tais conhecimentos a espaços amostrais substancialmente
maiores, como a população de um país, encontraremos dificuldade em conhecer
cada evento individualmente. Será necessário realizar o experimento em uma
parcela do espaço amostral, dita amostra, e, posteriormente, generalizar os
resultados obtidos nessa amostra para a população. Este é o campo de estudos
da estatística. Segundo Navidi (2012), “a ideia básica por trás de todos os
métodos de estatística da análise de dados é inferir sobre uma população
estudando uma amostra relativamente pequena dela”.
Como você já percebeu, amostrar a população é o primeiro passo da
análise estatística. Trataremos a seguir de alguns conceitos de base que nos
auxiliarão na aplicação da estatística.
2.1 Amostragem aleatória simples
Já entendemos que para ser possível a descrição de um fenômeno amplo,
é necessário reduzir o campo de análise pela amostragem. Coletar amostras,
entretanto, não é um procedimento acidental. Imagine que queremos coletar
amostras para treinar uma rede neural de forma que ela seja capaz de identificar
imagens de planadores. Existem infinitas imagens de aviões, e há outra
infinidade de imagens de céu com objetos voadores distintos destes, mas será
necessário escolher (ou amostrar) uma coleção finita de imagens.
7
Suponha agora que você escolha somente imagens de planadores
centralizados no campo visual, com asas vermelhas e inclinados para bombordo.
Se treinarmos a rede neural com essas amostras, ela somente reconhecerá
aviões de asas vermelhas, centralizados etc.
Ao amostrarmos uma população, devemos seguir alguns critérios de
forma a garantir a presença, entre as amostras, de elementos representativos de
toda a variedade da população. Tornar a escolha de amostras absolutamente
aleatória pode ser uma solução. Há vários métodos de amostragem aleatória,
vamos conhecer o método básico chamado amostragem aleatória simples.
Navidi (2012, p. 3) conceitua amostra aleatória simples de tamanho n
como “uma amostra escolhida por um método no qual cada coleção de n itens
da população é igualmente provável de compor a amostra, da mesma forma
como em uma loteria”. Dito de outra forma, se os eventos são equiprováveis,
você pode amostrá-los por mero sorteio. A comparação com a loteria feita por
Navidi é interessante. Você já pensou que em um jogo como a Quina, a
probabilidade de termos o resultado 1, 2, 3, 4, 5 é a mesma de termos qualquer
outro resultado? Como todos os eventos são equiprováveis, qualquer
combinação de números tem exatamente a mesma possibilidade de ocorrer.
2.2 Variação amostral
O método de amostragem aleatória simples é plenamente eficaz em
experimentos equiprováveis e homogêneos, nos quais não há distinção entre as
amostras. Nas aplicações reais, porém, há sempre certa heterogeneidade entre
as amostras. Imagine um conjunto de esferas metálicas produzidas por uma
máquina. Podemos retirar uma amostra dessa população para verificar a
qualidade da produção, mas isso indica que, de fato, a população não é
plenamente homogênea. Ao usarmos a técnica de amostragem aleatória
simples, poderemos inferir sobre a qualidade de toda a população, mas uma
segunda amostragem, pela mesma técnica, pode levar a um resultado
ligeiramente diferente. Esse fenômeno é conhecido como variação amostral.
Então, qual seria a vantagem desse método, se os resultados podem ser
diferentes? O fato de se escolher as amostras de forma aleatória garante que
não ocorreu nenhum viés de seleção. A relação entre a amostra puramente
aleatória e a população é matematicamente conhecida e será possível calcular
qual o possível erro de generalização.
8
2.3 Vícios de amostragem
Garantir a plena aleatoriedade da amostra, entretanto, não é algo tão
simples. O processo de coleta de amostras, muitas vezes, esconde vícios
ignorados inicialmente pelo coletor. Imagine, no exemplo das esferas, que o
coletor realize a amostragem toda a manhã, e após o término do turno da
madrugada. As condições de operação da máquina, neste momento, não são
totalmente aleatórias. O final de um turno normalmente deixa a máquina em
temperatura de operação elevada, alterando a qualidade do produto. O horário
viciado de coleta também pode traduzir o comportamento da equipe da
madrugada em detrimento dos demais turnos. Dessa forma, coletadas as
amostras, é interessante testar sua aleatoriedade. A própria estatística fornece
algumas ferramentas de avaliação. A observação gráfica das amostras é uma
delas. Na figura a seguir, vemos gráficos representativos de amostras obtidas
por amostragem aleatória simples.
Figura 3 – Vícios em amostragem aleatória simples
Fonte: Brustolin, 2022, com base em Navidi, 2012, p. 7.
De forma independente do que possam representar abscissa e ordenada
do gráfico, podemos observar que os dois primeiros gráficos da esquerda
mostram padrões nas amostras indicando possível viés na sua coleta. Amostras
aleatórias devem apresentar uma dispersão aleatória dentro do espaço amostral.
Por outro lado, o fato de se verificar um viés nas amostras aleatórias pode não
ser um erro de coleta, e sim indicar que a população é heterogênea ou que os
eventos não são equiprováveis.
Tome o exemplo de uma amostragem feita em uma linha de produção de
carros em que a maior parte dos carros produzidos, por solicitação dos clientes,
é branca. Se desejarmos descrever estatisticamente o comportamento da
9
pintura, podemos realizar uma amostragem estratificada, dividindo a população
em extratos e só então coletar aleatoriamente as amostras dentro de cada
extrato populacional. Outra possibilidade é a amostragem ponderada, segundo
a qual a quantidade de amostras por extrato respeita a participação ponderal
desse estrato na população. Uma amostragem cega certamente trará mais
informação dos carros brancos que de outras cores de pintura, enviesando a
estatística.
TEMA 3 – ESTATÍSTICA DESCRITIVA
Acabamos de entender os rudimentos da amostragem para obtenção de
dados sobre determinada população. Concluída a coleta, será necessário
apresentar os dados coletados de forma útil para as análises que desejamos.
Este é o campo da estatística descritiva. É importante comentar que, para a
estatística descritiva, eventual viés na amostra não é importante, posto que não
desejamos inferir informações sobre a população por meio da amostra, mas
apenas descrevê-los.
Segundo Becker (2015, p. 47), a estatística descritiva
engloba um conjunto de métodos e técnicas utilizáveis para avaliar as
características exteriores de uma série de dados. Engloba técnicas de
representação e sintetização de dados, como gráficos e tabelas, assim
como várias medidas (descritivas) relacionadas a um determinado
conjunto de dados.
3.1 Estatística descritiva monovariada
Quando apenas uma característica da população é observada e descrita,
teremos a estatística descritiva monovariada. Quando observamos a população
de esferas de nossa máquina, por exemplo, imagine que precisamos controlar
apenas seu diâmetro máximo. Nesse caso, a variável observada será o diâmetro
da esfera.
Podemos descrever uma variável de forma nominal (em categorias ou
categórica) ou de forma métrica (intervalares ou de razão). Voltando ao nosso
exemplo das esferas, podemos avaliar o diâmetro da amostra da esfera por um
sistema de duas peneiras de classificação. Teremos, então, três categorias:
esferasdentro do diâmetro padrão, abaixo do diâmetro padrão ou acima dele.
Nesse caso, podemos tratar a variável diâmetro como categórica.
10
Gráficos e tabelas categóricos típicos podem ser vistos a seguir. Veja que
a descrição da variável se dá pelo total de eventos de uma ou outra categoria
(pode haver várias categorias, não apenas duas).
Tabela 1 – Tabela descritiva monovariável categórica
Sexo Frequência % % de respostas validas
1 feminino 159 38,7 39,1
2 masculino 248 60,3 60,9
Subtotal 407 99,0 100,0
9 sem resposta 4 1,0 -
Total 411 100,0 -
Fonte: Brustolin, 2022, com base em Becker, 2015, p. 48.
Da mesma forma, para a descrição de uma variável única de forma
categórica, as apresentações tradicionais são barras e pizza:
Gráfico 1 – Gráficos descritivos de monovariável categórica
39,1%
60,9%
0,0%
10,0%
20,0%
30,0%
40,0%
50,0%
60,0%
70,0%
1 feminino 2 masculino
11
Fonte: Brustolin, 2022, com base em Becker, 2015, p. 49.
Por outro lado, talvez seja mais útil tratar o diâmetro de nossas esferas de
forma numérica ou métrica. As tabelas de monovariáveis métricas assumem um
aspecto diferente. Devemos escolher faixas ou intervalos de avaliação, como se
observa na tabela a seguir. Becker indica, sobre a escolha do número faixas, a
regra da raiz quadrada de n, onde n representa o tamanho da amostra. Dessa
forma, teríamos √𝑛 faixas de diâmetro. Essa é apenas uma regra de uso
frequente, mas não existe uma diretriz definitiva sobre o tema.
Tabela 2 – Tabela descritiva de monovariável métrica
Diâmetro (mm) Frequência %
20,5 – 22,5
22,5 – 24,5
24,5 – 26,5
26,5 – 28,5
28,5 – 30,5
30,5 – 32,5
32,5 – 34,5
34,5 – 36,5
36,5 – 38,5
38,5 – 40,5
40,5 – 42,5
42,5 – 44,5
44,5 – 46,5
15
17
14
12
20
24
21
35
21
39
44
45
50
3,6
4,1
3,4
2,9
4,9
5,8
5,1
8,5
5,1
9,5
10,7
10,9
12,2
39%
61%
1 feminino
2 masculino
12
46,6 – 48,5
48,5 – 50,5
50,5 – 52,5
52,5 – 54,5
29
14
8
3
7,1
3,4
1,9
0,7
Total 411 100,0
Fonte: Brustolin, 2022, com base em Becker, 2015, p. 56.
Gráficos que descrevem esse tipo de variável são tipicamente
histogramas, como se vê na figura a seguir. Veja que a mesma amostragem
pode produzir gráficos com envoltórias distintas, conforme se escolhe o intervalo
de avalição.
Gráfico 2 – Histograma de monovariável métrica
Fonte: Brustolin, 2022, com base em Becker, 2015, p. 56.
Este problema de escolha do intervalo, por interferir na envoltória que nos
indicará o tipo de distribuição estatística dos dados (tema que veremos adiante),
demanda a criação de alguns parâmetros de dispersão dos dados. Esses
parâmetros, ditos medidas descritivas, nos permitirão ajustar os intervalos
corretamente para que tenhamos o histograma correto.
0
10
20
30
40
50
60
20,5 22,5 24,5 26,5 28,5 30,5 32,5 34,5 36,5 38,5 40,5 42,5 44,5 46,5 48,5 50,5 52,5 54,5
13
3.2 Medidas descritivas em estatística monovariada
Nesta seção, estudaremos algumas medidas descritivas que podem nos
ajudar no processo de ajuste da amostragem. Estudaremos as medidas média,
desvio padrão e variância.
3.2.1 Média
A média aritmética simples, ou simplesmente média de um conjunto de
valores, é dada pela somatória de todos os valores amostrados dividida pelo
número total de amostras. Dessa forma, supondo que tenhamos as seguintes
amostras de dado experimento: {2;1; 20; 15}, a média será calculada como a
soma (2+1+20+15=38) dividida pelo total de amostras (4), portanto, 38/4 = 9,5.
A média nos fornece uma aproximação da centralidade da distribuição dos
valores das amostras.
3.2.2 Desvio em torno da média
Já sabemos que a média nos informa o centro da dispersão, mas a
distribuição dos valores em torno da média pode assumir perfis bastante
diversos. Podemos ter alta concentração de amostras nas proximidades da
média ou amostras isoladas e distantes em relação a esta, fenômeno chamado
de variabilidade. Cada amostra terá um desvio próprio D em relação à média,
que pode ser calculado pela diferença entre o valor da média e o valor da
amostra.
No exemplo das quatro amostras acima, como a média é 9,5, podemos
dizer que o desvio da primeira amostra (2) é D=2-9,5=-7,5. O valor negativo de
D indica que a amostra está abaixo da média. Valores positivos de desvio
indicarão valores superiores à média.
3.2.3 Variância
Ao somarmos os desvios de todas as amostras, teremos sempre o
resultado nulo, uma vez que a média é formada pelo próprio conjunto de valores
amostrais. Mas se elevarmos ao quadrado os desvios antes de somá-los, o
resultado será sempre positivo e nos dará uma ideia da variabilidade das
amostras em torno da média.
14
Vejamos o caso de nossas quatro amostras, chamando de Di o desvio da
amostra i.
D1 = 2 – 9,5 = -7,5 então Di
2 = -7,5*-7,5 = 56,25
D2 = 1 – 9,5 = -8,5 então Di
2 = 72,25
D3 = 20 – 9,5 = 10,5 então Di
2 = 110,25
D4 = 15 – 9,5 = 5,5 então Di
2 = 42,25
A soma dos desvios Di será Σ Di = -7,5-8,5+10,5+5,5 = 0, como afirmamos
acima, entretanto, a variância Σ Di
2 = 56,25+72,25+110,25+42,25=281. O valor
281 em relação ao valor da média 9,5 é bastante elevado, o que nos informa que
os valores se encontram bastante dispersos em relação a esta. Para que
demonstremos o afirmado, tome as seguintes quatro amostras {7; 8;11;12}, cuja
média também é 9,5. Nesse caso, as amostras têm desvios menores em relação
à média, e a variância será 15, indicando a proximidade desses valores.
Você certamente está se perguntando onde este conhecimento será
aplicado em sua formação. Daremos a você dois exemplos. Escolher amostras
com variância elevada é um critério importante para treinamento de redes
neurais. Se escolhermos amostras de baixa variância, a rede não será capaz de
generalizar o treinamento e apresentará muitos erros de interpretação.
Quando enfrentamos a vigilância de segurança de uma rede, o
comportamento de acesso dos usuários segue um padrão médio com variância
conhecida. Se a variância se altera significativamente, há boa possibilidade de
estarmos enfrentando uma invasão.
3.2.4 Desvio padrão
Esta medida é uma mera operação matemática sobre a variância. Ao se
extrair a raiz quadrada da variância, obtêm-se o desvio padrão em torno da
média.
A criação dessa medida tem a característica positiva de se encontrar na
mesma dimensão das amostras. Quando calculamos a variância, elevamos os
desvios ao quadrado e, portanto, teremos a unidade de medida também
quadrática. Se, por exemplo, estamos medindo o diâmetro de uma esfera em
milímetros, a variância será expressa em mm2, dificultando uma análise direta.
Ao se extrair a raiz da variância, retornamos à dimensão original, milímetros.
15
Será mais fácil avaliar a distância em relação à média se as unidades estiverem
na mesma dimensão.
3.3 Estatística descritiva bivariada
Quando duas características independentes da população são
observadas e descritas, teremos a estatística descritiva bivariada. A principal
questão nesse tipo de análise é a identificação das variações conjuntas. De fato,
se duas variáveis são independentes, não pode haver correlação entre elas.
Ocorrendo correlação, as variáveis se tornam dependentes e a análise será
monovariada. Como trata-se de duas variáveis, é possível que tenhamos ambas
categóricas, uma delas métricas ou ambas métricas.
Para variáveis categóricas, a apresentação em tabela de contingência é
a forma tradicional. Trata-se de acrescentar mais colunas à tabela 1. Tome o
exemplo presente na tabela em questão. Se além do sexo biológico,
desejássemos relacioná-lo com a área de trabalho, elaboraríamos a tabela de
contingência ilustrada a seguir:
Tabela 3 – Tabela descritiva bivariável categórica
Local de trabalho
Sexo
Total da linha
1 feminino 2masculino
1 direção geral 13 28 41
2 superintendências 24 33 57
3 agências 89 136 225
4 órgãos regionais 33 50 83
Total da coluna 159 247 406
Fonte: Brustolin, 2022, com base em Becker, 2015, p. 80.
Para a combinação entre variáveis categórica e métrica, a
apresentação seguirá em tabela de contingência, acrescentando-se mais
colunas à tabela. Os histogramas, entretanto, serão distintos, um para cada
categoria.
Para ambas as variáveis métricas, a apresentação também ocorrerá em
tabela, mas além dos histogramas independentes, surge a figura do gráfico ou
diagrama de dispersão. Esse modelo de apresentação não é propriamente um
gráfico com o qual estamos acostumados, no qual a abscissa (eixo horizontal)
16
expressa a variável independente (tradicionalmente dita “x”) e as ordenadas
(eixo vertical) expressam a variável dependente (y=f(x)).
Como, a princípio, as variáveis são independentes, a expressão gráfica é
chamada de diagrama para evitar conclusões equivocadas. A seguir, um
exemplo de diagrama de dispersão para a rentabilidade diária das ações Petro
e Vale. Veja que tanto nas ordenadas quanto nas abscissas há valores de
rentabilidade, e as plotagens de pontos ocorrem sequencialmente.
Diagrama 1 – Diagrama de dispersão
Fonte: Brustolin, 2022, com base em Becker, 2015, p. 80.
3.4 Medidas descritivas em estatística bivariada
Já sabemos que a grande preocupação em análises bivariadas é a
eventual dependência entre as variáveis analisadas. De forma a ser possível
avaliar essa dependência, foram criadas medidas como Covariância e
Coeficiente de Correlação, que nos trazem indicações dessa possível
17
correlação. De fato, ambas as medidas se baseiam no cálculo da variância entre
a média de uma variável e outra. O coeficiente de correção, também dito
coeficiente de Pearson ou “p”, apenas torna essa relação adimensional,
permitindo levantar um índice de correlação -130 amostras para que a inferência
seja válida. Embora esse número nos pareça pequeno quando nos
referenciamos a populações de milhões de indivíduos, é possível provar essa
vinculação, guardada a questão estudada acima no que se refere ao intervalo de
confiança. Para nindependentes).
Várias medidas naturais (antropomórficas, por exemplo) e várias
medidas industriais se ajustam bem a tais pressupostos.
21
Dessa forma, essa “normalmente” é a primeira tentativa de adequação,
mas existem métodos matemáticos para que se verifique tal adequação, ditos
“testes de normalidade”.
5.2 Distribuição de Poisson
A distribuição de probabilidade Poisson foi descoberta por Simeon
Poisson no século XIX como boa descritora de eventos temporais. Ela descreve
a possibilidade de ocorrência de dado fenômeno em um intervalo de tempo.
A distribuição de Poisson é usada, por exemplo, em call centers, quando
se quer estimar a probabilidade de ocorrência de dada demanda de atendimento
em determinado período de tempo, conhecida a média de atendimentos por
período.
P(X=K)=
𝜆𝑘𝑒−𝜆
𝑘!
, para k=0,1,2... 𝒆 = 𝟐, 𝟕𝟏𝟖𝟐𝟖𝟏𝟖. . .
Figura 6 – Distribuição de Poisson
Fonte:
.
5.3 Distribuição binomial
A distribuição de probabilidade binomial é uma evolução do experimento
de Bernoulli. Essa distribuição adequa-se bem a eventos de 𝑛 repetições
independentes, sob as mesmas condições, nas quais a probabilidade de
ocorrência de um evento 𝐴 é constante. Um exemplo de aplicação é a
determinação da probabilidade de um grupo de clientes responder a uma
22
pesquisa se sabemos que a resposta média dos clientes é de P% das pesquisas
enviadas. A equação que define essa distribuição, bem como o seu gráfico,
encontram-se a seguir:
P(X)=
𝑁!
𝑋!(𝑁−𝑋)!
.𝑝𝑋.𝑞𝑁−𝑋
Figura 7 – Distribuição binomial
Fonte: .
FINALIZANDO
Concluímos nosso breve estudo sobre probabilidade e estatística. Este
conhecimento será fundamental em disciplinas que utilizem tratamentos não
determinísticos de dados. A análise estocástica de informações em computação
não é algo novo, porém, permanecia no âmbito acadêmico. A necessidade de
tratamento estatístico de dados em análise de segurança da informação, em
inteligência artificial e em tratamento de congestionamento de redes – apenas
para citar alguns exemplos entre muitos outros – forçaram a aplicação deste
conhecimento em larga escala. Recomendamos que, entendida esta base de
conhecimento, você a aprofunde sempre que deparar-se com a necessidade de
sua aplicação.
23
REFERÊNCIAS
BECKER, J. L. Estatística Básica. Porto Alegre: Grupo A, 2015.
NAVIDI, W. Probabilidade e Estatística para Ciências Exatas. Porto Alegre:
Grupo A, 2012.
SPIEGEL, M. R.; STEPHENS, L. J. Estatística. 4. ed. Porto Alegre: Grupo A,
2009.