Ed
mês passado
A estratégia mais eficaz e conceitualmente alinhada para mitigar o overfitting em um modelo de Gradient Boosting, indo além do GBM tradicional, seria: Adotar uma implementação como XGBoost, pois ela introduz penalidades de regularização (L1 e L2) na função de perda para controlar a complexidade das árvores. O XGBoost é projetado para lidar melhor com overfitting através de técnicas de regularização, o que o torna uma escolha sólida para melhorar a performance do modelo em dados não vistos.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade