Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

Prova 7: Estatística Avançada em Modelos de Machine Learning
Introdução
Esta prova aborda os fundamentos estatísticos aplicados a algoritmos de Machine Learning. As questões incluem regularização, validação cruzada e escolha de métricas apropriadas para avaliar modelos.
Questões
1. Qual é o objetivo principal da regularização em modelos de Machine Learning?
a) Aumentar a complexidade do modelo.
b) Melhorar o desempenho nos dados de treinamento.
c) Reduzir overfitting penalizando parâmetros grandes.
d) Garantir que o modelo tenha alta variância.
e) Diminuir a dimensionalidade dos dados de entrada.
2. O parâmetro lambda (λ) em regularização L2 é usado para:
a) Maximizar a acurácia do modelo.
b) Determinar o peso de penalização dos coeficientes.
c) Aumentar a sensibilidade do modelo.
d) Reduzir o viés dos dados.
e) Ampliar a capacidade de generalização do modelo.
3. Qual é a principal vantagem da validação cruzada (k-fold)?
a) Reduzir o tempo de treinamento do modelo.
b) Evitar a necessidade de dividir os dados em treino e teste.
c) Estimar a performance do modelo de forma mais robusta.
d) Identificar outliers no conjunto de dados.
e) Melhorar a precisão do modelo nos dados de teste.
4. Qual métrica é mais adequada para avaliar um modelo de classificação desbalanceado?
a) Acurácia.
b) Erro absoluto médio (MAE).
c) F1-Score.
d) Coeficiente de determinação (R²).
e) Erro quadrático médio (MSE).
5. Em um modelo de regressão linear, o R² (coeficiente de determinação) mede:
a) A correlação entre as variáveis independentes.
b) O erro médio entre os valores preditos e reais.
c) A proporção da variabilidade da variável dependente explicada pelo modelo.
d) A capacidade do modelo de generalizar para novos dados.
e) O impacto do viés nos resultados do modelo.
6. O que é gradiente descendente?
a) Um algoritmo para calcular a variância dos dados.
b) Um método para minimizar a função de custo ajustando os parâmetros do modelo.
c) Uma técnica para selecionar variáveis independentes relevantes.
d) Um processo para identificar valores discrepantes.
e) Um método para agrupar dados em categorias.
7. Qual técnica é usada para lidar com dados desbalanceados em problemas de classificação?
a) Redução de dimensionalidade.
b) Oversampling da classe minoritária.
c) Aplicação de regressão linear.
d) Eliminação de outliers.
e) Normalização dos dados.
8. Em aprendizado supervisionado, o bias representa:
a) A variância dos dados de entrada.
b) O erro devido à suposição incorreta de que o modelo é simples.
c) A relação entre os dados de treino e teste.
d) A dependência dos dados de treinamento.
e) O desempenho consistente em diferentes conjuntos de dados.
9. Qual técnica pode ser utilizada para avaliar o impacto de cada variável no modelo?
a) Normalização.
b) Análise de componentes principais (PCA).
c) Regularização L1 (LASSO).
d) Algoritmos de clustering.
e) Cross-validation.
10. Em redes neurais, qual é o objetivo da função ReLU (Rectified Linear Unit)?
a) Aumentar a linearidade dos modelos.
b) Reduzir o erro quadrático médio.
c) Introduzir não linearidade no modelo.
d) Gerar saídas sempre positivas.
e) Normalizar os pesos da rede neural.
Gabarito e Justificativas
1. c) Regularização reduz overfitting ao penalizar coeficientes muito grandes.
2. b) O parâmetro lambda controla a intensidade da penalização dos coeficientes.
3. c) A validação cruzada avalia a performance de forma mais robusta e com menor viés.
4. c) O F1-Score é ideal para lidar com desbalanceamento, equilibrando precisão e recall.
5. c) O R² indica a proporção da variabilidade explicada pela regressão.
6. b) O gradiente descendente ajusta parâmetros para minimizar a função de custo.
7. b) Oversampling equilibra as classes, aumentando os exemplos da classe minoritária.
8. b) O bias representa erros devido à simplicidade excessiva do modelo.
9. c) Regularização L1 reduz coeficientes irrelevantes, identificando variáveis importantes.
10. c) A função ReLU introduz não linearidade para capturar padrões complexos.