Ed
há 4 semanas
Vamos analisar as funções dos componentes do Hadoop: - HDFS (Hadoop Distributed File System) é um sistema de armazenamento distribuído, projetado para armazenar grandes volumes de dados de forma tolerante a falhas. - MapReduce é um modelo de programação para processamento paralelo e distribuído de grandes conjuntos de dados. Analisando as alternativas: A) Processamento paralelo de tarefas e armazenamento de dados semiestruturados em formato JSON. — Inverte as funções e especifica JSON, que não é foco do HDFS. B) Armazenamento distribuído tolerante a falhas e um modelo de programação para processamento paralelo de grandes volumes de dados. — Corresponde exatamente às funções do HDFS e MapReduce. C) Visualização de dados em dashboards interativos e gerenciamento de bancos de dados NoSQL. — Não são funções do Hadoop. D) Garantir a veracidade dos dados através de validação e o processamento de consultas em tempo real. — Não corresponde às funções do Hadoop. E) Realizar consultas em linguagem SQL e armazenar os dados de forma estruturada em um único servidor. — Hadoop não armazena em um único servidor nem é focado em SQL tradicional. Portanto, a alternativa correta é a B.