Ed
há 9 meses
O termo "overfitting" refere-se a uma situação em que um modelo de aprendizado de máquina se ajusta excessivamente aos dados de treinamento. Isso significa que ele aprende não apenas os padrões gerais, mas também o "ruído" e as flutuações específicas dos dados de treinamento, o que prejudica sua capacidade de generalizar para novos dados. Analisando as alternativas: a) Quando o modelo é muito simples e não captura padrões suficientes dos dados. - Isso descreve o "underfitting", não o overfitting. b) Quando o modelo é ajustado excessivamente aos dados de treinamento, perdendo a capacidade de generalizar para novos dados. - Esta é a definição correta de overfitting. c) Quando o modelo apresenta boa precisão nos dados de teste, mas falha nos dados de treinamento. - Isso não é uma descrição correta de overfitting. d) Quando o modelo sofre de baixa variância e alta acurácia. - Isso não se relaciona com overfitting. e) Quando o modelo tem alta acurácia, mas não é eficiente computacionalmente. - Isso não descreve o overfitting. Portanto, a alternativa correta é: b) Quando o modelo é ajustado excessivamente aos dados de treinamento, perdendo a capacidade de generalizar para novos dados.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material