Ed
há 8 meses
Para responder à sua pergunta sobre os componentes do Apache Spark, vamos analisar cada uma das opções apresentadas: 1. Spark.Catalog - Este componente é usado para gerenciar metadados de tabelas e bancos de dados, mas não é responsável por estabelecer a conexão com o cluster. 2. SparkSession - Este é o ponto de entrada para programar com o Spark e é responsável por criar uma conexão com o cluster. Ele unifica a funcionalidade de diferentes componentes do Spark. 3. DataFrame - Este é um tipo de estrutura de dados que permite trabalhar com dados de forma distribuída, mas não é responsável por estabelecer a conexão com o cluster. 4. RDD (Resilient Distributed Dataset) - Este é um conceito fundamental do Spark para trabalhar com dados distribuídos, mas também não estabelece a conexão com o cluster. 5. SparkContext - Este é o componente que, em versões anteriores do Spark, era usado para estabelecer a conexão com o cluster. No entanto, com a introdução do SparkSession, o uso do SparkContext foi reduzido. Diante dessa análise, a opção correta que contém o componente responsável por estabelecer uma conexão com o cluster é: SparkSession.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material