Ed
há 2 meses
Vamos analisar cada uma das afirmativas para identificar a correta: A) A ReLU (Rectified Linear Unit) é uma função de ativação útil para classificação binária, pois transforma a saída em um intervalo entre -1 e 1, facilitando a interpretação probabilística. Análise: A ReLU não transforma a saída em um intervalo entre -1 e 1; ela transforma valores negativos em zero e mantém valores positivos. Portanto, essa afirmativa está incorreta. B) As funções de ativação são elementos fundamentais no MLP, pois introduzem não-linearidade, permitindo que o modelo capture relações complexas nos dados de entrada. Análise: Esta afirmativa está correta. As funções de ativação, como a ReLU, são essenciais para permitir que o MLP aprenda relações não-lineares. C) O treinamento do MLP ocorre sem a necessidade de ajustes nos pesos sinápticos, uma vez que os valores são atribuídos de acordo com uma configuração inicial e permanecem fixos. Análise: Isso está incorreto. O treinamento do MLP envolve ajustes nos pesos sinápticos através de algoritmos de aprendizado, como o backpropagation. D) A camada de entrada do MLP define o número de neurônios da rede com base na complexidade do problema, sem relação com as características presentes nos dados fornecidos. Análise: Isso está incorreto. O número de neurônios na camada de entrada é determinado pelas características dos dados de entrada, não apenas pela complexidade do problema. E) O MLP é composto por uma única camada de neurônios, responsável por processar e fornecer os resultados do modelo diretamente a partir das entradas, sem necessidade de camadas ocultas. Análise: Isso está incorreto. O MLP é composto por uma ou mais camadas ocultas, além da camada de entrada e da camada de saída. Portanto, a afirmativa correta é: B) As funções de ativação são elementos fundamentais no MLP, pois introduzem não-linearidade, permitindo que o modelo capture relações complexas nos dados de entrada.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade