Prévia do material em texto
20/05/2022 16:09 Estácio: Alunos
https://simulado.estacio.br/alunos/?user_cod=&matr_integracao=0 1/7
Simulado AV
Teste seu conhecimento acumulado
Disc.: TÓPICOS DE BIG DATA EM PYTHON
Aluno(a): LUIZ FERNANDO MOREIRA ALVES JUNIOR 202003577146
Acertos: 4,0 de 10,0 25/03/2022
Acerto: 1,0 / 1,0
Selecione a opção correta com a medida de volume de dados que normalmente é usada para se referenciar a projetos de Big
Data.
Exabytes
Petabytes
Zetabytes
Terabytes
Gigabytes
Respondido em 25/03/2022 20:14:08
Explicação:
As aplicações que possuem ordem de grandeza de petabytes de volume de dados são consideradas de Big Data. As alternativas
da questão podem ser vistas em ordem crescente de grandeza das unidades de medida de armazenamento: Gigabytes,
Terabytes, Petabytes, Exabytes e Zetabytes.
Questão1
a
https://simulado.estacio.br/alunos/inicio.asp
javascript:voltar();
20/05/2022 16:09 Estácio: Alunos
https://simulado.estacio.br/alunos/?user_cod=&matr_integracao=0 2/7
Acerto: 1,0 / 1,0
Em relação ao formato dos dados, selecione a opção correta que corresponde ao formato dos dados de transações bancárias.
dados de Big Data
dados semiestruturados
dados estruturados
dados não estruturados
dados de Internet das Coisas
Respondido em 25/03/2022 20:14:30
Explicação:
Os dados de transações bancárias são salvos em tabelas e, portanto, correspondem a dados estruturados, que são típicos de
sistemas de transações on line armazenados em banco de dados. As demais alternativas tratam de dados não convencionais que
não são armazenados em bancos de dados tradicionais.
Acerto: 0,0 / 1,0
A respeito do HDFS, selecione a opção correta cujo componente lógico mantém os dados do usuário na forma de blocos de
dados.
NameNode
Replicação
Bloco de dados
YARN
DataNode
Respondido em 25/03/2022 20:18:37
Explicação:
O DataNode é componente da arquitetura do HDFS responsável pelo armazenamento dos dados na forma de blocos de dados.
Acerto: 0,0 / 1,0
Questão2a
Questão3
a
Questão4
a
20/05/2022 16:09 Estácio: Alunos
https://simulado.estacio.br/alunos/?user_cod=&matr_integracao=0 3/7
Em relação ao Data Lake, selecione a opção correta que contenha o(s) formato(s) de dados que pode(m) ser armazenado(s)
nele.
apenas tabelas relacionais
estruturado e semiestruturado
apenas estruturado
apenas não estruturado
estruturado, não estruturado e semiestruturado
Respondido em 25/03/2022 20:18:39
Explicação:
O Data Lake pode armazenar dados estruturados, semiestruturados e não estruturados que correspondem a característica de
variedade dos dados que é bem típica de aplicações de Big Data.
Acerto: 0,0 / 1,0
Os componentes do Spark têm como objetivo facilitar o desenvolvimento de projetos com finalidades específicas. Selecione a
opção que contém o componente do ecossistema do Spark especializado em aplicações de aprendizado de máquina.
MLlib
Spark Learning
RDDs
MLSpark
GraphX Learning
Respondido em 25/03/2022 20:18:34
Explicação:
Gabarito: MLlib
Justificativa: O componente MLlib é o componente do ecossistema do Spark usado para implementar algoritmos estatísticos e
de aprendizado de máquina para simplificar pipelines de aprendizado de máquina em projetos de big data. As opções Spark
Learning, GraphX Learning e MLSpark não são componentes válidos do Spark. Os RDDs são componentes para conjunto de
dados resilientes.
Questão5
a
6a
20/05/2022 16:09 Estácio: Alunos
https://simulado.estacio.br/alunos/?user_cod=&matr_integracao=0 4/7
Acerto: 1,0 / 1,0
O Spark é uma ferramenta computacional voltada para aplicações de Big Data. Selecione a opção correta a respeito do
componente que pode ser tratado com o Spark SQL.
RDD
Executor
Work Node
Tasks
DAG
Respondido em 25/03/2022 20:18:34
Explicação:
Gabarito: RDD
Justificativa: O componente Spark SQL do ecossistema do Spark fornece suporte à linguagem SQL para manipular RDDs. DAGs
correspondem a abstrações sobre as execuções dos processos. O Executor é responsável pela execução de tarefas individuais,
enquanto o Work Node corresponde ao conjunto de máquinas que executam as tarefas que são as Tasks, ou seja, subdivisões do
processo.
Acerto: 0,0 / 1,0
Compreender a análise de dados em Python é fundamental para o cientista de dados. Qual o papel do sistema pip da
linguagem Python?
Biblioteca de Processamento de Linguagem Natural.
Gerenciador de memória do Python.
Motor de Busca da IDE do Python.
Gerenciador de espaços virtuais do Python.
Gerenciador de Pacotes do Python.
Respondido em 25/03/2022 20:18:33
Explicação:
O papel do comando pip é gerenciar os pacotes a serem importados no Python, bem como instalá-los via comando pip install.
Gerenciar memória é papel do sistema operacional, não do pip. A função de gerenciar espaços virtuais é atribuída ao venv, o
virtualenv. Motor de busca é uma atribuição de IDE, não de linguagem de programação. O processamento de linguagem natural
é função de biblioteca, diferente de gerenciamento de pacotes.
Questão
Questão7
a
20/05/2022 16:09 Estácio: Alunos
https://simulado.estacio.br/alunos/?user_cod=&matr_integracao=0 5/7
Acerto: 0,0 / 1,0
A linguagem Python se destaca como intuitiva e de fácil aprendizagem. Analise o código abaixo que apresenta laços
condicionais e instruções de repetição.
for i in range(10):
if (i%2==0):
print(i)
Qual a saída esperada após a execução do programa?
Serão impressos no console os números ímpares entre 0 e 10.
Serão impressos no console os números pares entre 1 e 10.
Serão impressos no console os números ímpares entre 0 e 9.
Serão impressos no console os números pares entre 0 e 9.
Serão impressos no console os números racionais entre 0 e 9.
Respondido em 25/03/2022 20:18:42
Explicação:
O constructo de laço que itera sobre uma sequência dos números reais de 0 a 9, e cujo condicional dentro do laço escolhe
apenas os números cujo resto de sua divisão por 2 seja 0, condição lógica que define se um número é par ou não.
Acerto: 0,0 / 1,0
Quais destas opções representam as diferenças entre o KDD e o CRISP-DM?
I - Etapas de Entendimento do Negócio, e Implantação do Artefato de ML
II - A etapa de Preparação de Dados substituindo as etapas de Seleção de Dados, Pré-Processamento e Transformação de
Dados
III - A obrigatoriedade da entrega de um artefato de ML
Questão8
a
Questão9
a
20/05/2022 16:09 Estácio: Alunos
https://simulado.estacio.br/alunos/?user_cod=&matr_integracao=0 6/7
Apenas a opção II
Apenas as opções I e III
Apenas as opções II e III
As opções I, II, e III estão corretas
Apenas a opção I
Respondido em 25/03/2022 20:18:43
Explicação:
O processo do CRISP-DM se diferencia do processo de KDD tradicional pela inclusão das etapas de entendimento do negócio e
entendimento dos dados, bem como a simplificação de três etapas de preparação de dados para uma, e, finalmente, o
comprometimento do processo CRISP-DM de entregar um artefato de ML.
Acerto: 1,0 / 1,0
Leonardo começou seu trabalho de conclusão de curso. Nesse trabalho, Leonardo quer elaborar um classificador de imagem,
mas, não sabe se decidir com relação à configuração das camadas de sua rede neural. É muito comum utilizarmos o conjunto
________ para fazermos o benchmark de modelos de ______________:
Pizzas; Categorias
MNIST; Processamento de Linguagem Natural
MNIST; Processamento de Imagens
IRIS; Processamento da Linguagem Natural
IRIS; Processamento de Imagens
Respondido em 25/03/2022 20:18:58
Explicação:
O conjunto MNIST de dígitos escritos a mão é um dos conjuntos mais conhecidos na literatura de aprendizado de máquina. Mas,
essa fama não é à toa, pois esse é o conjunto de comparação entre modelos de processamento de imagens, uma vez que uma
boa configuração de rede neural deve ser capaz de reconhecer os dígitos escritos a mão do MNIST.
Questão10
a
javascript:abre_colabore('38403','278878044','5159698419');
20/05/2022 16:09 Estácio: Alunos
https://simulado.estacio.br/alunos/?user_cod=&matr_integracao=07/7