Prévia do material em texto
24/10/2023, 15:55 Estácio: Alunos https://simulado.estacio.br/alunos/ 1/5 Exercício avalie sua aprendizagem Em relação ao protocolo de transporte para transmissão de aplicações de streaming, selecione a opção correta. Em relação às plataformas para Internet das Coisas, selecione a opção correta sobre o Arduino. TÓPICOS DE BIG DATA EM PYTHON Lupa DGT0134_202111087766_TEMAS Aluno: DINI SEBASTIAN MORAIS Matr.: 202111087766 Disc.: TÓPICOS DE BIG DAT 2023.4 EAD (GT) / EX Prezado (a) Aluno(a), Você fará agora seu EXERCÍCIO! Lembre-se que este exercício é opcional, mas não valerá ponto para sua avaliação. O mesmo será composto de questões de múltipla escolha. Após responde cada questão, você terá acesso ao gabarito comentado e/ou à explicação da mesma. Aproveite para se familiarizar com este modelo de questões que será usado na sua AV e AVS. 02727PRINCÍPIOS DE BIG DATA 1. UDP CoAP TCP MQTT HTTP Data Resp.: 24/10/2023 15:49:11 Explicação: O protocolo UDP - protocolo de datagrama do usuário - é utilizado para aplicações de streaming por ser mais rápido. O protocolo TCP é orientado à con�abilidade e, no caso de aplicações de streaming, ele é muito lento inviabilizando a aplicação. Os protocolos HTTP, MQTT e CoAP não se enquadram no transporte de dados. 2. É um programa É um ecossistema que envolve software e hardware É um protocolo de internet das coisas É o outro nome para Raspberry PI É uma placa de hardware Data Resp.: 24/10/2023 15:49:39 javascript:voltar(); javascript:voltar(); javascript:voltar(); javascript:voltar(); javascript:diminui(); javascript:diminui(); javascript:aumenta(); javascript:aumenta(); 24/10/2023, 15:55 Estácio: Alunos https://simulado.estacio.br/alunos/ 2/5 A linguagem Python se destaca como intuitiva e de fácil aprendizagem. Analise o código abaixo que apresenta laços condicionais e instruções de repetição. for i in range(10): if (i%2==0): print(i) Qual a saída esperada após a execução do programa? A visualização dos dados é fundamental no processo de análise e interpretação. Qual o tipo de visualização de dados mais indicada para dados temporais? Explicação: O arduino é uma tecnologia que combina hardware e software e é utilizada para internet das coisas. Portanto, não é um programa, nem uma placa de hardware e tão pouco um protocolo de comunicação. Já o Raspberry PI não é o mesmo que Arduino, pois se trata de uma outra tecnologia para internet das coisas. 02260ANÁLISE DE DADOS EM PYTHON COM PANDAS 3. Serão impressos no console os números pares entre 0 e 9. Serão impressos no console os números pares entre 1 e 10. Serão impressos no console os números ímpares entre 0 e 10. Serão impressos no console os números racionais entre 0 e 9. Serão impressos no console os números ímpares entre 0 e 9. Data Resp.: 24/10/2023 15:51:11 Explicação: O constructo de laço que itera sobre uma sequência dos números reais de 0 a 9, e cujo condicional dentro do laço escolhe apenas os números cujo resto de sua divisão por 2 seja 0, condição lógica que de�ne se um número é par ou não. 4. Grá�co de Linha. Grá�co de Estrela. Grá�co de Barra. Grá�co de Matriz de Dispersão. Grá�co de Faces de Chernoff. Data Resp.: 24/10/2023 15:51:45 Explicação: O grá�co de linhas passa a visualização de cronologia, acompanhando a linha de vida do dado, mostrando através das inclinações ou gradientes, o crescimento ou decrescimento do dado. As demais alternativas indicam tipos de visualização inadequados para dados temporais. 24/10/2023, 15:55 Estácio: Alunos https://simulado.estacio.br/alunos/ 3/5 Reconhecer os conceitos de Data Lake é fundamental para o pro�ssional de Tecnologia da Informação. Selecione a opção correta a respeito do Data Lake. Em relação ao Data Lake, selecione a opção correta que contenha o(s) formato(s) de dados que pode(m) ser armazenado(s) nele. Observe o trecho de código abaixo import numpy as np from pyspark import SparkContext spark_contexto = SparkContext() a = np.array([1, 5, 1, 6, 4, 7, 7]) teste = spark_contexto.parallelize(a) Selecione a opção correta a respeito dele. 02508HADOOP E ARMAZENAMENTO DE DADOS 5. Aplicam processos de tratamento nos dados. Demandam por equipamentos especiais. Armazenam os dados de modo e�ciente. São exclusivos da distribuição Hadoop Apache. Possui alta latência para acesso dos dados. Data Resp.: 24/10/2023 15:52:26 Explicação: O Data Lake utiliza um método muito e�ciente para fazer o armazenamento dos dados. Dessa forma ele possui baixa latência para acessar os dados. Além disso, o Data Lake não demanda por equipamentos especiais e não é de uso exclusivo da distribuição Hadoop Apache. 6. estruturado, não estruturado e semiestruturado estruturado e semiestruturado apenas tabelas relacionais apenas não estruturado apenas estruturado Data Resp.: 24/10/2023 15:52:55 Explicação: O Data Lake pode armazenar dados estruturados, semiestruturados e não estruturados que correspondem a característica de variedade dos dados que é bem típica de aplicações de Big Data. 02729PRINCIPIOS DE DESENVOLVIMENTO DE SPARK COM PYTHON 7. O objetivo do trecho de código é contar a quantidade de ocorrências dos valores do vetor "a". A variável "teste" corresponde a um RDD. A linha "spark_contexto.parallelize(a)" aplica a técnica MapReduce para processar o vetor "a". A execução do trecho de código vai gerar um erro. A utilização do SparkContext é opcional. Data Resp.: 24/10/2023 15:53:47 24/10/2023, 15:55 Estácio: Alunos https://simulado.estacio.br/alunos/ 4/5 O paradigma MapReduce é uma estratégia de computação com capacidade de processar grandes conjuntos de dados de maneira distribuída em várias máquinas. Em relação à técnica MapReduce, selecione a opção que é responsável por consolidar os resultados produzidos ao longo do processamento. Qual o objetivo da inteligência arti�cial ao simular comportamentos humanos na máquina? O enquadramento de aprendizado não supervisionado contempla qual(is) técnicas? I - Agrupamento II - Classi�cação III - Regressão Explicação: Gabarito: A variável "teste" corresponde a um RDD. Justi�cativa: O trecho de código está sintaticamente correto. O objetivo é criar um RDD que, no caso, é representado pela variável "teste" para isso é obrigatório utilizar o "SparkContext". O pacote "numpy" foi utilizado por causa da variável vetor "a". 8. Mapeamento Redução Processamento Agregação Separação Data Resp.: 24/10/2023 15:54:21 Explicação: Gabarito: Redução Justi�cativa: A função de redução agrupa os pares após a fase de embaralhamento concluindo o processamento dos dados. O MapReduce é uma técnica clássica de programação distribuída e é bastante utilizada por diversos frameworks como o Spark, por exemplo. 02318BIG DATA ANALYTICS 9. Incrementar o uso da memória de longa duração do sistema. Otimizar algoritmos para que eles se adaptem a contextos não previamente codi�cados. Fazer com que computadores acessem a internet mais rápido. Viabilizar a computação paralela. Melhorar a capacidade de processamento de dados do sistema. Data Resp.: 24/10/2023 15:54:59 Explicação: A razão por trás da existência da inteligência arti�cial é criar algoritmos e soluções capazes de se adaptar a novas situações que não necessariamente foram pré-programadas, mas se adapte pela experiência passada com casos similares. 10. 24/10/2023, 15:55 Estácio: Alunos https://simulado.estacio.br/alunos/ 5/5 Apenas as opções I e III estão corretas Apenas a opção III está correta Apenas as opções II e III estão corretas Apenas a opção I está correta Apenas a opção II está correta Data Resp.: 24/10/2023 15:55:47 Explicação: O aprendizado supervisionado se caracteriza pelo aprendizado autodidata que é caracterizado pelo agrupamento. Já a classi�cação e a regressão são técnicas oriundas do aprendizado supervisionado. Não Respondida Não Gravada Gravada Exercício inciado em 24/10/2023 15:48:43.