Logo Passei Direto
Buscar

Engenharia de Software

Humanas / Sociais
Considere um cenário onde um modelo de Gradient Boosting (GBM) está sendo desenvolvido para prever a progressão de uma doença crônica. A equipe nota que o modelo tem uma performance excelente no conjunto de treino, mas significativamente pior no conjunto de teste, indicando overfitting. Com base nos conceitos de GBM, XGBoost e LightGBM, qual das seguintes estratégias seria a mais eficaz e conceitualmente alinhada para mitigar esse overfitting, indo além do GBM tradicional? Grupo de escolhas da pergunta Mudar para um modelo AdaBoost, pois ele é menos complexo e, portanto, menos propenso a overfitting. Adotar uma implementação como XGBoost, pois ela introduz penalidades de regularização (L1 e L2) na função de perda para controlar a complexidade das árvores. Utilizar Bagging sobre as predições do GBM, pois Bagging sempre reduz a variância e o overfitting. Implementar Stacking, usando o GBM como um dos modelos base, pois o meta-modelo irá naturalmente corrigir o overfitting do GBM.
User badge image
Gabriela Candida Cunha

mês passado

Respostas

User badge image

Ed Verified user icon

mês passado

A estratégia mais eficaz e conceitualmente alinhada para mitigar o overfitting em um modelo de Gradient Boosting, indo além do GBM tradicional, seria: Adotar uma implementação como XGBoost, pois ela introduz penalidades de regularização (L1 e L2) na função de perda para controlar a complexidade das árvores. O XGBoost é projetado para lidar melhor com overfitting através de técnicas de regularização, o que o torna uma escolha sólida para melhorar a performance do modelo em dados não vistos.

Essa resposta te ajudou?

0
Dislike0
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar essa resposta. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina