Logo Passei Direto
Buscar
Compreender os conceitos e princípios do framework Apache Spark é fundamental para o cientista de dados. Selecione a opção correta que contém o componente do ecossistema Spark responsável por dar suporte para tratar fluxo de dados típicos de aplicações de tempo real.
Spark SQL
Spark Streaming
RDDs
Spark Core
Spark Hadoop
User badge image
Exercícios Para o Aprendizado

ano passado

Respostas

User badge image

Ed Verified user icon

ano passado

A opção correta que contém o componente do ecossistema Spark responsável por dar suporte para tratar fluxo de dados típicos de aplicações de tempo real é Spark Streaming.

Essa resposta te ajudou?

0
Dislike0
details

Libere essa resposta sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Essa pergunta também está no material:

Mais perguntas desse material

Ser capaz de gerenciar uma infraestrutura complexa é uma habilidade fundamental para o profissional de Tecnologia da Informação. Sendo assim, analise as alternativas e selecione a opção que apresenta o componente responsável por desempenhar o papel de mestre na arquitetura do Hadoop.
NameNode
HServerMap
Bloco de dados
DataNode
Replicador

O Spark é um framework de alto desempenho usado para aplicações de Big Data. Em relação à arquitetura do Spark, selecione a opção correta.
O gerenciador de cluster do Spark oferece suporte a Hadoop YARN.
O Executor e os Worker Nodes desempenham papeis equivalentes na arquitetura do Spark.
O gerenciador de cluster do Spark faz o gerenciamento da execução das tarefas.
Os Worker Nodes da arquitetura Spark são responsáveis pelo gerenciamento das máquinas que executarão como escravos.
O Executor corresponde ao conjunto de máquina que executam como escravos.

Luís foi contratado recentemente para trabalhar em uma empresa de consultoria de análise de dados. O projeto no qual foi alocado já havia começado, e os colegas de Luís lhe disseram que estavam preparando o conjunto de dados para poder passar os mesmos por um modelo de árvore de decisão. Já que especificamente os colegas de Luís estão removendo dados faltantes, em qual etapa do processo de KDD, Luís se encontra:
Coleta de Dados.
Descoberta de Padrões.
Pré-Processamento.
Avaliação.
Transformação de Dados.

Mais conteúdos dessa disciplina