Ed
há 8 meses
Para responder à sua pergunta sobre os componentes do ecossistema do Spark, vamos analisar as opções apresentadas: 1. MLlib - Este é o componente do Spark especializado em aprendizado de máquina. Ele fornece algoritmos e utilitários para tarefas de machine learning. 2. Spark Learning - Não é um componente oficial do Spark. 3. GraphX Learning - GraphX é um componente do Spark para processamento de grafos, não especificamente para aprendizado de máquina. 4. RDDs - RDDs (Resilient Distributed Datasets) são a estrutura de dados fundamental do Spark, mas não são específicos para aprendizado de máquina. 5. MLSpark - Este é um projeto que integra Spark com o Azure Machine Learning, mas não é o componente principal do Spark para aprendizado de máquina. Diante disso, a opção correta que contém o componente do ecossistema do Spark especializado em aplicações de aprendizado de máquina é: MLlib.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material