Ed
há 3 dias
Vamos analisar cada alternativa com base no conhecimento sobre explicabilidade em redes neurais: A) Grad-CAM é uma técnica de visualização usada principalmente em modelos de visão computacional para destacar áreas relevantes da imagem, não para avaliar impacto de palavras em PLN (Processamento de Linguagem Natural). Portanto, essa alternativa está incorreta. B) LIME fornece explicações locais, ou seja, explica decisões específicas, não uma importância global das características em todo o modelo. Logo, essa alternativa está incorreta. C) SHAP é um método geral para explicação de modelos, não específico para visão computacional, e não se limita a mapas de calor em imagens. Portanto, essa alternativa está incorreta. D) Técnicas de explicabilidade são aplicáveis a redes neurais profundas, mesmo com sua complexidade, justamente para aumentar a transparência. Então, essa alternativa está incorreta. E) Redes baseadas em atenção, usadas em PLN, atribuem pesos diferenciados aos elementos de entrada, permitindo entender quais partes do texto foram mais relevantes para a decisão do modelo. Essa alternativa está correta. Resposta correta: E) As redes baseadas em atenção, amplamente utilizadas em processamento de linguagem natural, atribuem pesos diferenciados aos elementos de entrada, permitindo entender quais partes do texto foram mais relevantes.


Cadastre-se ou realize login
Ao continuar, você aceita os Termos de Uso e Política de Privacidade