Logo Passei Direto
Buscar

Direito

Anhanguera
As funções de ativação são um componente crucial das redes neurais, pois decidem se um neurônio deve ser ativado ou não. Além disso, elas tornam o aprendizado possível ao garantir que pequenas alterações nos pesos e bias da rede gerem apenas uma variação suave na saída, permitindo um ajuste fino e controlado do modelo. Sobre as funções de ativação em redes neurais profundas, assinale a alternativa correta: A função sigmoide é ideal para camadas intermediárias por sua estabilidade numérica e capacidade de preservar gradientes. A tangente hiperbólica sempre supera a ReLU no desempenho em tarefas de classificação de imagens. A ReLU possui derivada contínua em todos os pontos, o que elimina problemas de saturação. A função ReLU pode sofrer com o problema de "neurônios mortos", mas sua eficiência computacional e simplicidade a tornam amplamente utilizada. A função softmax é utilizada em todas as camadas da rede para garantir a normalização dos dados.
User badge image
Raffael Andrade

há 2 meses

Respostas

User badge image

Ed Verified user icon

há 2 meses

A alternativa correta é: "A função ReLU pode sofrer com o problema de 'neurônios mortos', mas sua eficiência computacional e simplicidade a tornam amplamente utilizada." As funções de ativação têm características distintas, e a ReLU é popular por sua eficiência, apesar de ter algumas desvantagens, como o problema dos neurônios mortos.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina