Logo Passei Direto
Buscar

Apache Hadoop

User badge image
Claire Cruz

em

Ferramentas de estudo

Questões resolvidas

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Questões resolvidas

Prévia do material em texto

1. O que é o Apache Hadoop?
a) Um sistema de gerenciamento de banco de dados relacional.
b) Uma ferramenta de análise de dados em tempo real.
c) Um framework de código aberto para o processamento distribuído de grandes
volumes de dados.
d) Uma plataforma de visualização de dados.
Resposta: c) Um framework de código aberto para o processamento distribuído de
grandes volumes de dados.
Explicação: O Apache Hadoop é um framework de código aberto que permite o
processamento de grandes quantidades de dados de forma distribuída, utilizando
clusters de servidores.
2. Qual é o principal componente do Hadoop para o processamento de dados?
a) Apache HBase
b) Hadoop Distributed File System (HDFS)
c) Apache Hive
d) MapReduce
Resposta: d) MapReduce
Explicação: O MapReduce é o principal modelo de programação do Hadoop, utilizado
para processar grandes volumes de dados em paralelo, dividindo o trabalho em duas
fases: Map (mapeamento) e Reduce (redução).
3. Qual é a função do Hadoop Distributed File System (HDFS)?
a) Gerenciar as conexões entre as máquinas do cluster Hadoop.
b) Armazenar grandes volumes de dados de forma distribuída.
c) Realizar operações de processamento de dados em tempo real.
d) Monitorar o desempenho do cluster Hadoop.
Resposta: b) Armazenar grandes volumes de dados de forma distribuída.
Explicação: O HDFS é o sistema de arquivos distribuído do Hadoop, projetado para
armazenar grandes volumes de dados de maneira escalável e redundante em clusters
de máquinas.
4. O que é o "NameNode" no HDFS?
a) Um servidor que armazena os dados do sistema de arquivos.
b) Um servidor responsável por armazenar a configuração do Hadoop.
c) Um componente que gerencia o armazenamento e a estrutura de diretórios no HDFS.
d) Um nó responsável por realizar o processamento de dados.
Resposta: c) Um componente que gerencia o armazenamento e a estrutura de
diretórios no HDFS.
Explicação: O NameNode é o mestre no HDFS e gerencia a estrutura do sistema d
e
arquivos, incluindo a localização dos blocos de dados, enquanto o DataNode armazena
os dados reais.
5. O que é o "DataNode" no HDFS?
a) Um servidor que processa os dados de forma paralela.
b) Um componente que armazena os dados reais em blocos no HDFS.
c) Um componente que gerencia a estrutura de diretórios do HDFS.
d) Um servidor que armazena os metadados de todos os arquivos.
Resposta: b) Um componente que armazena os dados reais em blocos no HDFS.
Explicação: O DataNode é o nó onde os dados reais são armazenados em blocos n
o
HDFS. Ele gerencia a leitura e gravação de dados para os clientes do Hadoop.
6. Qual é a principal vantagem do Hadoop em relação a sistemas de processamento de
dados tradicionais?
a) Ele pode processar dados em tempo real.
b) Ele é projetado para processar grandes volumes de dados de maneira escalável e
eficiente.
c) Ele usa apenas bancos de dados relacionais para armazenar dados.
d) Ele não exige uso de clusters de servidores.
Resposta: b) Ele é projetado para processar grandes volumes de dados de maneira
escalável e eficiente.
Explicação: O Hadoop foi projetado para processar grandes volumes de dados,
distribuindo o processamento e armazenamento por vários nós, o que permite
escalabilidade horizontal, ou seja, adicionar mais máquinas ao sistema conforme
necessário.
7. Qual é a função do Apache Hive no ecossistema Hadoop?
a) Processar dados em tempo real.
b) Oferecer uma interface SQL para consultas sobre grandes volumes de dados.
c) Armazenar dados em um formato comprimido.
d) Monitorar o desempenho dos nós no cluster.
Resposta: b) Oferecer uma interface SQL para consultas sobre grandes volumes de
dados.
Explicação: O Apache Hive é uma ferramenta que fornece uma interface SQL para
consultas em dados armazenados no HDFS, facilitando a análise de grandes volumes
de dados usando uma linguagem familiar aos analistas.
8. O que é o "YARN" no Hadoop?
a) Uma ferramenta de visualização de dados.
b) Um sistema de gerenciamento de recursos e agendamento de tarefas em um cluster
Hadoop.
c) Uma biblioteca para manipulação de dados em tempo real.
d) Uma plataforma para análise de dados em fluxos contínuos.
Resposta: b) Um sistema de gerenciamento de recursos e agendamento de tarefas em
um cluster Hadoop.
Explicação: O YARN (Yet Another Resource Negotiator) é responsável por gerenciar os
recursos no cluster Hadoop e coordenar a execução de tarefas, permitindo a execução
de diferentes tipos de trabalhos além do MapReduce.
9. O que é o "MapReduce"?
a) Um algoritmo para compressão de dados no Hadoop.
b) Um modelo de programação para processamento de dados em paralelo.
c) Um sistema de gerenciamento de arquivos do Hadoop.
d) Uma ferramenta para análise de dados em tempo real.
Resposta: b) Um modelo de programação para processamento de dados em paralelo.
Explicação: O MapReduce é um modelo de programação que permite processar
grandes volumes de dados em paralelo, dividindo a tarefa em duas fases principais:
mapeamento e redução. Cada fase é executada em diferentes nós do cluster.
10. Qual das seguintes afirmações é verdadeira sobre a escalabilidade do Hadoop?
a) O Hadoop tem escalabilidade vertical, o que significa que você deve aumentar a
capacidade de cada servidor.
b) O Hadoop tem escalabilidade horizontal, permitindo adicionar mais servidores para
lidar com mais dados.
c) O Hadoop não pode escalar além de um único servidor.
d) O Hadoop não tem escalabilidade, independentemente do número de servidores.
Resposta: b) O Hadoop tem escalabilidade horizontal, permitindo adicionar mais
servidores para lidar com mais dados.
Explicação: O Hadoop é projetado para escalabilidade horizontal, o que significa que é
possível adicionar mais nós (servidores) ao cluster para aumentar a capacidade de
processamento e armazenamento.

Mais conteúdos dessa disciplina