Logo Passei Direto
Material
Study with thousands of resources!

Text Material Preview

Árvore de decisão 
O que e uma arvore de decisao?
A) Uma estrutura de dados usada para armazenar informacoes de forma hierarquica
B) Uma tecnica usada para visualizacao de dados em tabelas
C) Um modelo de aprendizado supervisionado utilizado para classificar dados ou prever valores
D) Uma estrutura de arvore binaria usada apenas para operacoes matematicas
Resposta correta: C
Explicacao: A arvore de decisao e um modelo de aprendizado supervisionado que pode ser usado
tanto para classificacao quanto para regressao, ajudando a prever ou classificar dados com base
em caracteristicas de entrada.
Quais sao os elementos principais de uma arvore de decisao?
A) No raiz, ramos e folhas
B) Nos internos, folhas e pesos
C) No raiz, atributos e ramos
D) Nos folha, subarvores e criterios de decisao
Resposta correta: A
Explicacao: Os principais elementos de uma arvore de decisao sao o no raiz (onde o processo de
decisao comeca), os ramos (que conectam os nos) e as folhas (onde as decisoes finais ou
previsoes sao feitas).
Como e determinado o criterio para dividir os dados em uma arvore de decisao?
A) Usando o valor medio dos dados em cada no
B) Atraves de uma analise de correlacao entre os atributos
C) Atraves da maximizacao de uma metrica de pureza, como o indice de Gini ou a entropia
D) Por meio da comparacao de valores absolutos dos atributos
Resposta correta: C
Explicacao: O criterio para dividir os dados em uma arvore de decisao e baseado em metricas de
pureza, como o indice de Gini ou a entropia, que ajudam a escolher o atributo que melhor separa
as classes nos dados.
O que e o indice de Gini em uma arvore de decisao?
A) Uma metrica que mede a precisao das previsoes da arvore
B) Uma medida de entropia usada para calcular a incerteza dos dados
C) Uma metrica que mede a impureza de um no, com valores menores indicando maior pureza
D) Uma funcao de erro usada para treinar o modelo
Resposta correta: C
Explicacao: O indice de Gini e uma metrica usada para medir a impureza de um no em uma arvore
de decisao. Quanto menor o valor do Gini, maior a pureza do no, ou seja, os dados estao mais
agrupados em uma unica classe.
O que acontece quando um no alcanca uma pureza maxima em uma arvore de decisao?
A) A arvore e dividida ainda mais para melhorar a precisao
B) A divisao no no e interrompida, tornando-o uma folha
C) A arvore de decisao e removida
D) O modelo tenta maximizar a entropia
Resposta correta: B
Explicacao: Quando um no alcanca a pureza maxima, ou seja, todos os dados em um no
pertencem a mesma classe, a divisao e interrompida, e o no e convertido em uma folha, que
fornece a previsao ou a decisao final.
Qual e o objetivo principal do processo de "poda" em uma arvore de decisao?
A) Aumentar a complexidade do modelo para melhorar a precisao
B) Reduzir o numero de nos para evitar overfitting
C) Melhorar a precisao dos dados de treino
D) Aumentar a profundidade da arvore
Resposta correta: B
Explicacao: A poda e o processo de remover partes da arvore que nao contribuem
significativamente para a precisao do modelo, com o objetivo de evitar o overfitting e melhorar a
capacidade de generalizacao do modelo.
O que e overfitting em uma arvore de decisao?
A) Quando a arvore de decisao nao e capaz de aprender os dados de treinamento
B) Quando a arvore e muito simples e nao captura a complexidade dos dados
C) Quando o modelo se ajusta excessivamente aos dados de treinamento, perdendo capacidade
de generalizacao
D) Quando a arvore de decisao tem poucos dados para treinar
Resposta correta: C
Explicacao: O overfitting ocorre quando o modelo de arvore de decisao se ajusta tao bem aos
dados de treinamento que acaba perdendo a capacidade de generalizar para novos dados, o que
prejudica seu desempenho em dados nao vistos.
Qual e a principal diferenca entre uma arvore de decisao e uma floresta aleatoria (random forest)?
A) A arvore de decisao e um modelo supervisionado, enquanto a floresta aleatoria e nao
supervisionada
B) A floresta aleatoria usa multiplas arvores de decisao para melhorar a precisao, enquanto a
arvore de decisao usa apenas uma
C) A arvore de decisao nao pode lidar com dados ausentes, enquanto a floresta aleatoria pode
D) A floresta aleatoria tem maior capacidade de overfitting
Resposta correta: B
Explicacao: A principal diferenca e que uma floresta aleatoria e composta por varias arvores de
decisao, e o modelo faz uma media ou votacao das previsoes das varias arvores para melhorar a
precisao e reduzir o risco de overfitting.
O que e entropia em uma arvore de decisao?
A) Uma metrica que mede a variabilidade dos dados dentro de um no
B) Uma funcao de perda usada durante o treinamento da arvore
C) Uma medida de pureza que indica a incerteza ou impureza dos dados em um no
D) Um metodo de ajuste do modelo para aumentar a precisao
Resposta correta: C
Explicacao: A entropia e uma medida da incerteza ou impureza de um no em uma arvore de
decisao. Quanto maior a entropia, mais misturados estao os dados, indicando que o no pode ser
subdividido de forma a aumentar a pureza.
Qual e o problema de utilizar uma arvore de decisao muito profunda?
A) Maior dificuldade em interpretar o modelo
B) Aumento da complexidade computacional sem ganho de precisao
C) Menor capacidade de generalizacao devido ao overfitting
D) Maior capacidade de classificar corretamente os dados de teste
Resposta correta: C
Explicacao: Uma arvore de decisao muito profunda tende a se ajustar excessivamente aos dados
de treinamento (overfitting), perdendo a capacidade de generalizar para novos dados e,
consequentemente, reduzindo a precisao em dados de teste.
Como a arvore de decisao lida com atributos continuos?
A) A arvore sempre ignora atributos continuos
B) A arvore de decisao divide os atributos continuos em intervalos, criando um ponto de divisao
C) A arvore de decisao so pode usar atributos categoricos
D) A arvore de decisao transforma os atributos continuos em uma variavel binaria
Resposta correta: B
Explicacao: A arvore de decisao lida com atributos continuos dividindo-os em intervalos. Durante o
treinamento, ela encontra um ponto de corte que melhor divide os dados, levando em consideracao
a metrica de pureza (como Gini ou entropia).
Qual e a funcao principal dos nos internos em uma arvore de decisao?
A) Armazenar os valores finais das previsoes
B) Servir como pontos de decisao para a divisao dos dados com base em atributos
C) Conectar os dados de entrada aos dados de saida
D) Armazenar a profundidade da arvore
Resposta correta: B
Explicacao: Os nos internos em uma arvore de decisao funcionam como pontos de decisao, onde o
conjunto de dados e dividido com base em atributos, com o objetivo de melhorar a pureza dos
grupos resultantes.
Qual e o criterio utilizado para determinar o melhor ponto de divisao em uma arvore de decisao?
A) O criterio de maxima variancia dos dados
B) O ponto em que a distribuicao dos dados e mais equilibrada
C) O criterio que minimiza a entropia ou o indice de Gini
D) A media dos valores dos atributos
Resposta correta: C
Explicacao: O criterio utilizado para determinar o melhor ponto de divisao e aquele que minimiza a
impureza dos dados, medido pela entropia ou indice de Gini, com o objetivo de criar grupos o mais
homogeneos possivel.
Como a arvore de decisao lida com dados ausentes?
A) Ignora os dados ausentes durante o treinamento
B) Substitui os valores ausentes pela media ou mediana dos dados
C) Cria ramos especificos para valores ausentes
D) Treina a arvore com dados ausentes sem ajustes
Resposta correta: C
Explicacao: Em muitos algoritmos de arvore de decisao, uma abordagem comum para lidar com
dados ausentes e criar ramos especificos para os valores ausentes, permitindo que a arvore tome
decisoes com base nesses dados sem precisar descarta-los.
Qual e o objetivo da "pruning" (poda) em uma arvore de decisao?
A) Aumentar a profundidade da arvore para melhorar a precisao
B) Eliminarnos irrelevantes para melhorar a simplicidade do modelo e evitar overfitting
C) Modificar os criterios de divisao para otimizar o modelo
D) Ajustar os valores de entropia para melhorar a eficiencia
Resposta correta: B
Explicacao: A poda (pruning) tem como objetivo remover nos irrelevantes ou excessivos da arvore,
o que ajuda a melhorar a simplicidade do modelo e reduzir o risco de overfitting.