Logo Passei Direto
Buscar

Inglês

ESTÁCIO
analise as afirmações a seguir: I - o processo backpropagation não pode ser utlizado no processo de aprendizagem em uma rede neural; II - A soma dos erros quadrados é um valor importante para se retropropagar o erro para as camadas e neurônios anteriores da rede; III - a principal ideia é ajustar os pesos de cada neurônio artificial usando essencialmente o valor esperado para a saída da rede e o erro ou distância da saída da rede para o valor esperado.
User badge image
Ione Oliveira

mês passado

Respostas

User badge image

Ed Verified user icon

mês passado

Vamos analisar cada afirmação: I - O processo backpropagation não pode ser utilizado no processo de aprendizagem em uma rede neural. Falso. O backpropagation é, na verdade, um dos métodos mais utilizados para o treinamento de redes neurais, permitindo a atualização dos pesos com base no erro da saída. II - A soma dos erros quadrados é um valor importante para se retropropagar o erro para as camadas e neurônios anteriores da rede. Verdadeiro. A soma dos erros quadrados é frequentemente utilizada como uma função de custo para medir a diferença entre a saída prevista e a saída real, e é fundamental para o processo de retropropagação. III - A principal ideia é ajustar os pesos de cada neurônio artificial usando essencialmente o valor esperado para a saída da rede e o erro ou distância da saída da rede para o valor esperado. Verdadeiro. Essa afirmação descreve corretamente o objetivo do processo de aprendizagem em redes neurais, que é ajustar os pesos com base no erro. Agora, vamos resumir os resultados: - I: Falso - II: Verdadeiro - III: Verdadeiro Portanto, a alternativa que contém todos os itens verdadeiros é: b) II e III.

Essa resposta te ajudou?

0
Dislike0

Experimente
o Premium! 🤩

Libere respostas sem pagar

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina