Logo Passei Direto
Buscar
Compreender os conceitos e princípios do framework Apache Spark é fundamental para cientista de dados. Selecione a opção correta que contém O componente do ecossistema Spark responsável por dar suporte para tratar fluxo de dados típicos de aplicações de tempo real.

A Spark SQL
B Spark Streaming
C RDDs
D Spark Core
E Spark Hadoop
User badge image
Progresso com Exercícios

há 2 anos

Respostas

User badge image

Ed Verified user icon

há 2 anos

Para identificar o componente do ecossistema Spark que dá suporte ao tratamento de fluxo de dados em tempo real, vamos analisar as opções: A) Spark SQL - Este componente é usado para consultas estruturadas e manipulação de dados, mas não é específico para fluxo de dados em tempo real. B) Spark Streaming - Este é o componente projetado especificamente para processar dados em tempo real, permitindo o processamento contínuo de fluxos de dados. C) RDDs (Resilient Distributed Datasets) - São a estrutura de dados fundamental do Spark, mas não são um componente específico para fluxo de dados em tempo real. D) Spark Core - Este é o núcleo do Spark, que fornece as funcionalidades básicas, mas não é específico para o tratamento de fluxo de dados. E) Spark Hadoop - Não é um componente do Spark, mas sim uma referência à integração do Spark com o Hadoop. Portanto, a opção correta que contém o componente responsável por tratar fluxo de dados típicos de aplicações de tempo real é: B) Spark Streaming.

Essa resposta te ajudou?

1
Dislike0
details

Libere essa resposta sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

User badge image

Marcos Martins Arruda

há 2 anos

B) Spark Streaming

Resposta correta

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Essa pergunta também está no material:

Mais conteúdos dessa disciplina