Text Material Preview
Árvore de decisão O que e uma arvore de decisao? A) Uma estrutura de dados usada para armazenar informacoes de forma hierarquica B) Uma tecnica usada para visualizacao de dados em tabelas C) Um modelo de aprendizado supervisionado utilizado para classificar dados ou prever valores D) Uma estrutura de arvore binaria usada apenas para operacoes matematicas Resposta correta: C Explicacao: A arvore de decisao e um modelo de aprendizado supervisionado que pode ser usado tanto para classificacao quanto para regressao, ajudando a prever ou classificar dados com base em caracteristicas de entrada. Quais sao os elementos principais de uma arvore de decisao? A) No raiz, ramos e folhas B) Nos internos, folhas e pesos C) No raiz, atributos e ramos D) Nos folha, subarvores e criterios de decisao Resposta correta: A Explicacao: Os principais elementos de uma arvore de decisao sao o no raiz (onde o processo de decisao comeca), os ramos (que conectam os nos) e as folhas (onde as decisoes finais ou previsoes sao feitas). Como e determinado o criterio para dividir os dados em uma arvore de decisao? A) Usando o valor medio dos dados em cada no B) Atraves de uma analise de correlacao entre os atributos C) Atraves da maximizacao de uma metrica de pureza, como o indice de Gini ou a entropia D) Por meio da comparacao de valores absolutos dos atributos Resposta correta: C Explicacao: O criterio para dividir os dados em uma arvore de decisao e baseado em metricas de pureza, como o indice de Gini ou a entropia, que ajudam a escolher o atributo que melhor separa as classes nos dados. O que e o indice de Gini em uma arvore de decisao? A) Uma metrica que mede a precisao das previsoes da arvore B) Uma medida de entropia usada para calcular a incerteza dos dados C) Uma metrica que mede a impureza de um no, com valores menores indicando maior pureza D) Uma funcao de erro usada para treinar o modelo Resposta correta: C Explicacao: O indice de Gini e uma metrica usada para medir a impureza de um no em uma arvore de decisao. Quanto menor o valor do Gini, maior a pureza do no, ou seja, os dados estao mais agrupados em uma unica classe. O que acontece quando um no alcanca uma pureza maxima em uma arvore de decisao? A) A arvore e dividida ainda mais para melhorar a precisao B) A divisao no no e interrompida, tornando-o uma folha C) A arvore de decisao e removida D) O modelo tenta maximizar a entropia Resposta correta: B Explicacao: Quando um no alcanca a pureza maxima, ou seja, todos os dados em um no pertencem a mesma classe, a divisao e interrompida, e o no e convertido em uma folha, que fornece a previsao ou a decisao final. Qual e o objetivo principal do processo de "poda" em uma arvore de decisao? A) Aumentar a complexidade do modelo para melhorar a precisao B) Reduzir o numero de nos para evitar overfitting C) Melhorar a precisao dos dados de treino D) Aumentar a profundidade da arvore Resposta correta: B Explicacao: A poda e o processo de remover partes da arvore que nao contribuem significativamente para a precisao do modelo, com o objetivo de evitar o overfitting e melhorar a capacidade de generalizacao do modelo. O que e overfitting em uma arvore de decisao? A) Quando a arvore de decisao nao e capaz de aprender os dados de treinamento B) Quando a arvore e muito simples e nao captura a complexidade dos dados C) Quando o modelo se ajusta excessivamente aos dados de treinamento, perdendo capacidade de generalizacao D) Quando a arvore de decisao tem poucos dados para treinar Resposta correta: C Explicacao: O overfitting ocorre quando o modelo de arvore de decisao se ajusta tao bem aos dados de treinamento que acaba perdendo a capacidade de generalizar para novos dados, o que prejudica seu desempenho em dados nao vistos. Qual e a principal diferenca entre uma arvore de decisao e uma floresta aleatoria (random forest)? A) A arvore de decisao e um modelo supervisionado, enquanto a floresta aleatoria e nao supervisionada B) A floresta aleatoria usa multiplas arvores de decisao para melhorar a precisao, enquanto a arvore de decisao usa apenas uma C) A arvore de decisao nao pode lidar com dados ausentes, enquanto a floresta aleatoria pode D) A floresta aleatoria tem maior capacidade de overfitting Resposta correta: B Explicacao: A principal diferenca e que uma floresta aleatoria e composta por varias arvores de decisao, e o modelo faz uma media ou votacao das previsoes das varias arvores para melhorar a precisao e reduzir o risco de overfitting. O que e entropia em uma arvore de decisao? A) Uma metrica que mede a variabilidade dos dados dentro de um no B) Uma funcao de perda usada durante o treinamento da arvore C) Uma medida de pureza que indica a incerteza ou impureza dos dados em um no D) Um metodo de ajuste do modelo para aumentar a precisao Resposta correta: C Explicacao: A entropia e uma medida da incerteza ou impureza de um no em uma arvore de decisao. Quanto maior a entropia, mais misturados estao os dados, indicando que o no pode ser subdividido de forma a aumentar a pureza. Qual e o problema de utilizar uma arvore de decisao muito profunda? A) Maior dificuldade em interpretar o modelo B) Aumento da complexidade computacional sem ganho de precisao C) Menor capacidade de generalizacao devido ao overfitting D) Maior capacidade de classificar corretamente os dados de teste Resposta correta: C Explicacao: Uma arvore de decisao muito profunda tende a se ajustar excessivamente aos dados de treinamento (overfitting), perdendo a capacidade de generalizar para novos dados e, consequentemente, reduzindo a precisao em dados de teste. Como a arvore de decisao lida com atributos continuos? A) A arvore sempre ignora atributos continuos B) A arvore de decisao divide os atributos continuos em intervalos, criando um ponto de divisao C) A arvore de decisao so pode usar atributos categoricos D) A arvore de decisao transforma os atributos continuos em uma variavel binaria Resposta correta: B Explicacao: A arvore de decisao lida com atributos continuos dividindo-os em intervalos. Durante o treinamento, ela encontra um ponto de corte que melhor divide os dados, levando em consideracao a metrica de pureza (como Gini ou entropia). Qual e a funcao principal dos nos internos em uma arvore de decisao? A) Armazenar os valores finais das previsoes B) Servir como pontos de decisao para a divisao dos dados com base em atributos C) Conectar os dados de entrada aos dados de saida D) Armazenar a profundidade da arvore Resposta correta: B Explicacao: Os nos internos em uma arvore de decisao funcionam como pontos de decisao, onde o conjunto de dados e dividido com base em atributos, com o objetivo de melhorar a pureza dos grupos resultantes. Qual e o criterio utilizado para determinar o melhor ponto de divisao em uma arvore de decisao? A) O criterio de maxima variancia dos dados B) O ponto em que a distribuicao dos dados e mais equilibrada C) O criterio que minimiza a entropia ou o indice de Gini D) A media dos valores dos atributos Resposta correta: C Explicacao: O criterio utilizado para determinar o melhor ponto de divisao e aquele que minimiza a impureza dos dados, medido pela entropia ou indice de Gini, com o objetivo de criar grupos o mais homogeneos possivel. Como a arvore de decisao lida com dados ausentes? A) Ignora os dados ausentes durante o treinamento B) Substitui os valores ausentes pela media ou mediana dos dados C) Cria ramos especificos para valores ausentes D) Treina a arvore com dados ausentes sem ajustes Resposta correta: C Explicacao: Em muitos algoritmos de arvore de decisao, uma abordagem comum para lidar com dados ausentes e criar ramos especificos para os valores ausentes, permitindo que a arvore tome decisoes com base nesses dados sem precisar descarta-los. Qual e o objetivo da "pruning" (poda) em uma arvore de decisao? A) Aumentar a profundidade da arvore para melhorar a precisao B) Eliminarnos irrelevantes para melhorar a simplicidade do modelo e evitar overfitting C) Modificar os criterios de divisao para otimizar o modelo D) Ajustar os valores de entropia para melhorar a eficiencia Resposta correta: B Explicacao: A poda (pruning) tem como objetivo remover nos irrelevantes ou excessivos da arvore, o que ajuda a melhorar a simplicidade do modelo e reduzir o risco de overfitting.