Logo Passei Direto
Buscar
Os componentes do Spark têm como objetivo facilitar o desenvolvimento de projetos com finalidades específicas.
Selecione a opção que contém o componente do ecossistema do Spark especializado em aplicações de aprendizado de máquina.
MLlib
Spark Learning
GraphX Learning
RDDs
MLSpark
User badge image
Exercícios Para o Conhecimento

há 8 meses

Respostas

User badge image

Ed Verified user icon

há 8 meses

Para responder à sua pergunta sobre os componentes do ecossistema do Spark, vamos analisar as opções apresentadas: 1. MLlib - Este é o componente do Spark especializado em aprendizado de máquina. Ele fornece algoritmos e utilitários para tarefas de machine learning. 2. Spark Learning - Não é um componente oficial do Spark. 3. GraphX Learning - GraphX é um componente do Spark para processamento de grafos, não especificamente para aprendizado de máquina. 4. RDDs - RDDs (Resilient Distributed Datasets) são a estrutura de dados fundamental do Spark, mas não são específicos para aprendizado de máquina. 5. MLSpark - Este é um projeto que integra Spark com o Azure Machine Learning, mas não é o componente principal do Spark para aprendizado de máquina. Diante disso, a opção correta que contém o componente do ecossistema do Spark especializado em aplicações de aprendizado de máquina é: MLlib.

Essa resposta te ajudou?

0
Dislike0
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar essa resposta. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Essa pergunta também está no material:

Mais perguntas desse material

Selecione a opção correta com a medida de volume de dados que normalmente é usada para se referenciar a projetos de Big Data.
Zetabytes
Petabytes
Exabytes
Gigabytes
Terabytes

Selecione a opção que indica o processo responsável por executar uma tarefa atribuída a ele pelo Job Tracker.
MapJob
Task Tracker
MapTracker
MapReduce
Job Tracker Slave

Em relação as fases do Hadoop, selecione a opção correta que apresenta o componente responsável pela geração de pares intermediários de valor e chave.
Combinação Redução Embaralhamento Agrupamento Gravação da saída

O Spark é uma ferramenta computacional voltada para aplicações de Big Data. Selecione a opção correta a respeito do componente que pode ser tratado com o Spark SQL.
Tasks
Work Node
Executor

Dado que Felipe quer fazer a junção entre dois conjuntos de dados e escreveu o seguinte código: import pandas as pd df1 = pd.DataFrame({'lkey': ['foo', 'bar', 'baz', 'foo'], 'value': [1, 2, 3, 5]}) df2 = pd.DataFrame({'rkey': ['foo', 'bar', 'baz', 'foo'], 'value': [5, 6, 7, 8]}) df1.merge(df2, left_on='lkey', right_on='rkey')
Qual destas alternativas descreve as saídas do código?
I ¿ O conjunto resultante terá colunas lkey, value_x, rkey, value_y
II ¿ O código não executará, pois Filipe não definiu os sufixos de coluna
III ¿ O resultado do código em questão retornará um pd.Series juntando os conjuntos pela lkey e rkey.
Apenas as opções II e III estão corretas.
Apenas a opção I está correta.
Apenas as opções I e III estão corretas.
Apenas a opção II está correta.
Apenas a opção III está correta.

A linguagem Python se destaca como intuitiva e de fácil aprendizagem. Analise o código abaixo que apresenta laços condicionais e instruções de repetição. for i in range(10): if (i%2==0): print(i) Qual a saída esperada após a execução do programa?
Serão impressos no console os números racionais entre 0 e 9.
Serão impressos no console os números ímpares entre 0 e 10.
Serão impressos no console os números ímpares entre 0 e 9.
Serão impressos no console os números pares entre 1 e 10.
Serão impressos no console os números pares entre 0 e 9.

Com qual tipo de IA Alfredo está lidando?
IA Quântica
IA Pura
IA SubSimbólica
IA Biológica
IA Simbólica

Mais conteúdos dessa disciplina