Ed
há 4 meses
Para responder à sua pergunta sobre os componentes do Spark, vamos analisar cada uma das opções apresentadas: 1. Spark.Catalog: Este componente é usado para gerenciar metadados de tabelas e bancos de dados, mas não é responsável por estabelecer a conexão com o cluster. 2. SparkSession: Este é o ponto de entrada para programar com o Spark e é responsável por criar uma conexão com o cluster. Ele unifica a funcionalidade de diferentes componentes do Spark. 3. DataFrame: Este é um tipo de estrutura de dados que permite trabalhar com dados de forma distribuída, mas não é responsável por estabelecer a conexão com o cluster. 4. RDD (Resilient Distributed Dataset): Este é um conceito fundamental do Spark para trabalhar com dados distribuídos, mas também não estabelece a conexão com o cluster. 5. SparkContext: Este é o componente que, em versões anteriores ao Spark 2.0, era usado para estabelecer a conexão com o cluster. No entanto, a partir do Spark 2.0, o SparkSession é o que deve ser utilizado. Diante disso, a opção correta que contém o componente responsável por estabelecer uma conexão com o Cluster é: SparkSession.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material