Logo Passei Direto
Buscar
As Redes Transformers são mais eficientes do que as RNNs em tarefas de processamento de linguagem natural (NLP). PORQUE Utilizam o mecanismo de self-attention para capturar dependências contextuais de forma mais eficiente. Analise a relação entre a afirmação e a razão apresentadas e escolha a alternativa correta. Alternativas: A afirmação e a razão são verdadeiras, mas a razão não explica a afirmação. A afirmação é falsa, mas a razão é verdadeira. A afirmação e a razão são verdadeiras, e a razão explica a afirmação. A afirmação e a razão são falsas. A afirmação é verdadeira, mas a razão é falsa.
User badge image
Bruno Roberto

há 4 dias

Respostas

User badge image

Ed Verified user icon

há 4 dias

A alternativa correta é: A afirmação e a razão são verdadeiras, e a razão explica a afirmação. As Redes Transformers realmente são mais eficientes do que as RNNs em tarefas de processamento de linguagem natural, e isso se deve ao uso do mecanismo de self-attention, que permite capturar dependências contextuais de forma mais eficaz e paralelizar o processamento, ao contrário das RNNs, que processam sequencialmente.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina