Ed
há 2 meses
Vamos analisar cada uma das alternativas para identificar qual delas melhor descreve o papel da função de ativação em uma rede neural: A) Calcular o erro da rede durante o treinamento, para que os pesos possam ser ajustados corretamente. - Esta opção não descreve o papel da função de ativação, mas sim o papel da função de perda. B) Normalizar os dados de entrada para garantir que a rede tenha um desempenho mais estável durante o treinamento. - A normalização é uma etapa de pré-processamento, não o papel da função de ativação. C) Propagar o erro de uma camada para outra, garantindo que o modelo aprenda de forma eficiente. - Isso se refere ao algoritmo de retropropagação, não à função de ativação. D) Atualizar os pesos da rede com base no gradiente calculado, ajustando o modelo durante o treinamento. - Isso também se refere ao processo de otimização, não ao papel da função de ativação. E) Introduzir não-linearidade no modelo, permitindo que a rede aprenda relações complexas entre as entradas e saídas. - Esta opção descreve corretamente o papel da função de ativação, que é fundamental para permitir que a rede neural aprenda padrões complexos. Portanto, a alternativa correta é: E) Introduzir não-linearidade no modelo, permitindo que a rede aprenda relações complexas entre as entradas e saídas.