Logo Passei Direto
Buscar

Engenharia de Dados e Banco de Dados Aplicado AOL3 - Tentativa 2

Ferramentas de estudo

Questões resolvidas

Leia o trecho a seguir: “O número de Web Services, espalhados em redes públicas e privadas, que se destinam a fornecer dados armazenados em alguma fonte de dados tem aumentado consideravelmente. Tais Web Services, também chamados de Web data services (ou apenas serviços de dados), têm como objetivo fornecer interfaces Web de acesso e manipulação a fontes de dados. O rápido crescimento de tais serviços e fontes de dados disponibilizadas hoje na Web resultou em uma disseminação de dados representados em formatos heterogêneos e difíceis de serem processados e reutilizados.” Fonte: OLIVEIRA, B.; SIQUEIRA, F. OntoGenesis: Uma Arquitetura para Enriquecimento Semântico de Web Data Services. In: XVII Workshop de Teses de Dissertações (WTD 2017), Gramado, Brasil. Anais do XXIII Simpósio Brasileiro de Sistemas Multimídia e Web: Workshops e Pôsteres. Porto Alegre: Sociedade Brasileira de Computação, 2017.
Considerando as informações apresentadas no texto acima e o conteúdo estudado, a respeito dos Web Services e seus protocolos é possível afirmar que:
ambos utilizam os protocolos SOAP e REST para integração de dados.
o protocolo REST utiliza o XML para armazenamento de dados.
o protocolo SOAP utiliza o HTTP para transportes de dados.
ambos utilizam os protocolos XML e JSON para armazenamento de dados.
ambos utilizam os protocolos XML e JSON para integração de dados.

Leia o trecho a seguir: “Um Sistema de Banco de Dados Federado (SBDF) é um conjunto de sistemas de bancos de dados que são autônomos e possivelmente heterogêneos que trabalham cooperativamente para um fim único. Cada banco de dados de um sistema de banco de dados federado é completamente auto-sustentável e funcional. Quando é enviada alguma consulta, o sistema descobre em qual banco de dados os dados requerentes dessa consulta estão e envia essa consulta para ele.” Fonte: FERNANDES, Eduardo Pires. Arquitetura de Integração entre Bancos de Dados: Uma abordagem aplicada à Secretaria de Estado de Educação do Distrito Federal – SEEDF. Dissertação de Mestrado. (Mestrado Profissional em Computação Aplicada) - Universidade de Brasília, 2017.
A partir dessas informações e do conteúdo estudado, é possível afirmar que o maior objetivo dos Bancos de Dados Federados, no contexto da Integração de Dados, é sua utilização:
para integração de dados disponíveis em bancos de dados do tipo cliente/servidor, dispersos na Internet.
para integração de dados dispersos em função das unidades federativas ao qual pertencem.
para integração de dados disponíveis em bancos de dados do tipo cliente/servidor, agrupados em função de suas unidades federativas.
para integração de dados disponíveis em Sistemas de Gerenciamento de Bancos de Dados Distribuídos na Internet.
para a integração de dados fora da Internet, uma vez que lidam com Sistemas de Gerenciamento de Bancos de Dados Distribuídos.

Leia o trecho a seguir: “A divisão em camadas é uma técnica muito utilizada pelos engenheiros de software para implementar um sistema de software complexo. Separando o sistema em camadas, o entendimento é facilitado, pois cada camada é responsável por prover uma funcionalidade restrita e bem definida. O acoplamento também é reduzido, uma vez que cada camada está acoplada somente à camada imediatamente superior e inferior, provendo serviços para a primeira e consumindo serviços da segunda.” Fonte: SILVA, R. F.; GONÇALVES, P. R. Web Services – Uma Análise Comparativa. Revista das Faculdades Integradas Claretianas – N. 5 – Janeiro/Dezembro de 2012.
A partir dessas informações e do conteúdo estudado a respeito da Arquitetura Multicamada, é correto afirmar que, no contexto da Integração de Dados:
podem ser utilizadas fontes de dados heterogêneas, que antes de ser integradas ficam armazenadas em diferentes servidores nas camadas inferiores.
os middlewares de integração são executados abaixo da camada inferior, uma vez que fornecem os dados que serão ali armazenados.
as camadas clientes acessam diretamente as camadas inferiores, onde os dados estão armazenados de forma integrada.
a separação em camadas é feita de forma lógica, uma vez que os clientes, middlewares e dados integrados ficam no mesmo servidor físico.
a camada intermediária armazena os bancos de dados materializados, que fornecerão os dados integrados para consulta.

Leia o trecho a seguir: “Um dos grandes desafios computacionais da atualidade é armazenar, manipular e analisar de forma inteligente a grande quantidade de dados existente. Sistemas corporativos, serviços e sistemas Web, mídias sociais, entre outros, produzem juntos um volume impressionante de dados, alcançando a dimensão de petabytes diários. Com essa evolução da tecnologia da informação (TI) surgiram vários recursos em processamento e armazenamento de dados que visam organizar as bases de informação.” Fonte: FURTADO, J. C.; BULSING, G. M.; KROTH, E. et al. Ferramenta para extração de dados semiestruturados para carga de um Big Data. Revista Brasileira de Computação Aplicada (ISSN 2176-6649), Passo Fundo, v.7, n. 3, p. 43-52, abr. 2015.
Sabendo que grande parte dos dados existentes está armazenada em formato semiestruturado, considerando as características desse formato de armazenamento é possível afirmar que:
seus dados estão armazenados em colunas com tipos de dados bem definidos.
o formato permite a execução de comandos em linguagem SQL-DML e SQL-DDL.
seus dados possuem um modelo formal de representação, chamado de modelo relacional.
de estrutura irregular e implícita, apenas parte dos dados possuem metadados.
esse formato é adequado para o armazenamento de dados homogêneos (de mesmo tipo).

Leia o trecho a seguir: “A necessidade de melhorar o ciclo de vida em todas as diferentes fases e, especialmente, a grande competitividade do mercado, tendo que lançar produtos rapidamente se alinhando às tendências, foi o que originou o conceito de Entrega Contínua (CD) que, como extensão da Integração Contínua, defende a automação dos testes, dos processos de lançamento e das etapas de implantação. Para isso acontecer, teve que ser reduzida a separação dos papéis entre as diferentes equipes e levou ao surgimento do movimento DevOps. O movimento DevOps está centrado em um objetivo: encorajar uma colaboração maior entre todos os envolvidos no processo de entrega de software de maior valor com mais confiança e rapidez.” Fonte: CRUZ, V. L.; ALBUQUERQUE, A. B. Um Processo de Introdução de DevOps em Sistemas Legados – A DevOps Introduction Process for Legacy Systems. XLIV Conferência Latino-americana de Informática – CLEI 2018. São Paulo/SP. 01 a 05 de outubro de 2018.
Na visão de Cruz e Albuquerque, a Entrega Contínua pode ser vista como uma extensão da Integração Contínua, e ambas devem ser executadas pelo DevOps. Considerando a citação apresentada e os conteúdos abordados na unidade a respeito de entrega e integração contínua, analise as asserções a seguir e a relação proposta entre elas.
I. A Integração Contínua é uma atividade executada pelo DevOps em que, ao ser entregue o código pelos desenvolvedores, serão automatizados os trabalhos de integração do código gerado, gerência de configuração e geração da build.
II. Trata-se um subprocesso da Entrega Contínua que, por sua vez, representa um conjunto mais abrangente de práticas, que visa garantir que um código desenvolvido esteja pronto para ser enviado para o ambiente de produção.
As asserções I e II são proposições falsas.
As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da I.
A asserção I é uma proposição falsa, e a II é uma proposição verdadeira.
A asserção I é uma proposição verdadeira, e a II é uma proposição falsa.
As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa correta da I.

Leia o trecho a seguir: “A integração contínua é uma prática no desenvolvimento de software, onde os membros de uma equipa integram o seu trabalho frequentemente. Habitualmente, cada pessoa integra o seu trabalho uma vez por dia, o que leva a múltiplas integrações por dia. Cada integração é verificada por um sistema automático, que inclui testes de modo a detetar erros de integração o mais rapidamente possível. O objetivo desses testes é fornecer uma resposta rápida para quando um erro for introduzido no código, possa ser identificado e retificado de imediato (COELHO, 2015, p. 20).” Fonte: COELHO, A. S. M. Desenvolvimento de software com integração contínua. Dissertação de Mestrado em Engenharia Informática, Área de Especialização em Arquiteturas, Sistemas e Redes. Instituto Superior de Engenharia do Porto. Porto, 2015.
Considerando as informações apresentadas no texto acima e o conteúdo estudado a respeito da técnica de Integração Contínua, assinale a seguir a alternativa verdadeira a seguir:
o termo Integração Contínua surgiu a partir do processo de desenvolvimento ágil de software XP, e seus princípios podem ser aplicados a todas as metodologias de desenvolvimento de software.
Jenkins, GitHub, Ant, Maven e Gradle são exemplos de ferramentas utilizadas para o trabalho de Integração Contínua. Sua utilização é recomendada, pois torna o trabalho mais eficiente.
em cenários de equipes de desenvolvimento que utilizam Integração Contínua, a responsabilidade inicial pela integração é do programador, que deve executar os software específicos para esta finalidade localmente.
são princípios adotados pelas metodologias ágeis que utilizam a Integração Contínua: processos e ferramentas mais que indivíduos e interações; seguir um plano mais que responder à mudanças.
o trabalho de Integração Contínua deve se feito ser feito, preferencialmente de forma manual, através de reuniões entres os componentes das equipes de desenvolvimento, que decidirão as melhores estratégias.

Leia o trecho a seguir: “O pipeline de implantação de software é, essencialmente, uma implementação automatizada do processo de compilar todas as partes de aplicação, implantá-la em ambiente, testá-la e efetuar sua entrega final. Este processo geralmente segue as atividades vistas na figura a seguir: Basicamente cada mudança feita no código fonte do programa, no ambiente ou na arquitetura inicia uma nova instância do pipeline.” Fonte: HUMBLE, J.; FARLEY, D. Entrega Contínua: como entregar software de forma rápida e confiável. Porto Alegre: Bookman, 2014. (adaptado).
Sabendo que o trabalho de Entrega Contínua de Software é centrado no processo de implantação de software apresentado no texto e na figura acima, considerando os conceitos de Entrega Contínua e Implantação Contínua e seus objetivos é correto afirmar que:
tanto o processo de entrega, quanto o de implantação contínua, devem ser revisto com frequência, uma vez que precisam ser aprimorados, já que falhas nesses processos geralmente são críticas para o ambiente.
é comum em ambiente de entrega e implantação contínuas que os programadores sejam chamados para explicar o motivo pelo qual uma versão do software colocada em produção está apresentando falhas.
um dos princípios da Entrega Contínua é a produção de documentação extensa e detalhada descrevendo cada atividade que deve ser realizada no processo, assim como todas as falhas que podem ocorrer.
são objetivos da Implantação Contínua: tornar as atividades do processo visíveis a todos os envolvidos, melhorar o feedback do processo, implantação automatizada das versões do software em seus ambientes.
executar processos automatizados de implantação e entrega contínuas é uma atividade tende a se tornar tediosa e repetitiva para a equipe de desenvolvimento. Por isso parte do processo deve ser manual.

Leia o trecho a seguir: “Os primeiros sistemas de processamento de dados desenvolvidos pela área de Tecnologia da Informação faziam uso de um recurso conhecido como Processamento em Lote (Batch), cujas principais características eram a execução em computadores de grande porte, conhecidos como Mainframes, e a ausência de interação entre o software e seus usuários finais, uma vez que a execução dos comandos era efetuada por meio de Jobs, criados em uma linguagem chamada JCL (Job Control Language), responsável por controlar a execução dos programas, geralmente desenvolvidos em COBOL. Quando um Job era, então, submetido à execução, ele era informado como uma entrada no sistema, e rodava através de fluxo sequencial de tarefas.
Considerando essas informações e o conteúdo estudado a respeito do fluxo de um Job em um sistema de processamento sequencial, ordene as etapas a seguir de acordo a sequência de tarefas necessárias para execução de um Job:
( ) Processamento
( ) Conversão
( ) Purga
( ) Saída
( ) Impressão
3, 1, 2, 4, 5.
2, 4, 3, 1, 5.
5, 2, 4, 3, 1.
2, 1, 5, 3, 4.
1, 3, 5, 2, 4.

Considere o seguinte trecho de arquivo em formato XML: 111-11-111-1111-1 Editora 123 03/07/2019 Nome 1 Sobrenome 1
Considerando o que você aprendeu sobre armazenamento de dados em formato XML, assinale a seguir a alternativa verdadeira a respeito do trecho de arquivo apresentado:
os dados dos autores podem ser recuperados via comando SQL-DDL.
os dados dos autores podem ser recuperados via comando SQL-DML.
“111-11-111-1111-1” e “03/07/2019” são exemplos de tags semânticas.
, , e são exemplos de tags semânticas.
as tags semânticas deste XML ficam ocultas no DTD relacionado.

Middlewares para integração de dados geralmente são oferecidos na forma de drivers, que são softwares executados em segundo plano pelos Sistemas Operacionais (SO), responsáveis por implementar a interface de comunicação entre o SO e outros elementos de hardware e software, como impressoras, monitores de vídeos, teclados, mouses e bancos de dados.
Assim, considerando as informações apresentadas e os conteúdos estudados a respeito dos middlewares para integração de dados, analise os drivers citados a seguir e associe-os com suas respectivas características.
1) ODBC.
2) CORBA.
3) DCOM.
4) .NET.
( ) Contém a especificação para comunicação com banco de dados via API, que é um tipo de software que permite a troca de informação entre sistemas.
( ) Baseado no protocolo HTTP, que provê a comunicação entre sistemas de informação através de transferência de dados na Internet.
( ) Tem sua arquitetura definida a partir de uma linguagem de descrição de interfaces e de um serviço de localização de objetos remotos.
( ) É baseado no modelo Orientado a Objetos, que é o paradigma de programação mais utilizado para desenvolvimento de software.
2, 4, 3, 1.
3, 1, 2, 4.
1, 2, 4, 3.
4, 1, 2, 3.
1, 4, 2, 3.

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

Questões resolvidas

Leia o trecho a seguir: “O número de Web Services, espalhados em redes públicas e privadas, que se destinam a fornecer dados armazenados em alguma fonte de dados tem aumentado consideravelmente. Tais Web Services, também chamados de Web data services (ou apenas serviços de dados), têm como objetivo fornecer interfaces Web de acesso e manipulação a fontes de dados. O rápido crescimento de tais serviços e fontes de dados disponibilizadas hoje na Web resultou em uma disseminação de dados representados em formatos heterogêneos e difíceis de serem processados e reutilizados.” Fonte: OLIVEIRA, B.; SIQUEIRA, F. OntoGenesis: Uma Arquitetura para Enriquecimento Semântico de Web Data Services. In: XVII Workshop de Teses de Dissertações (WTD 2017), Gramado, Brasil. Anais do XXIII Simpósio Brasileiro de Sistemas Multimídia e Web: Workshops e Pôsteres. Porto Alegre: Sociedade Brasileira de Computação, 2017.
Considerando as informações apresentadas no texto acima e o conteúdo estudado, a respeito dos Web Services e seus protocolos é possível afirmar que:
ambos utilizam os protocolos SOAP e REST para integração de dados.
o protocolo REST utiliza o XML para armazenamento de dados.
o protocolo SOAP utiliza o HTTP para transportes de dados.
ambos utilizam os protocolos XML e JSON para armazenamento de dados.
ambos utilizam os protocolos XML e JSON para integração de dados.

Leia o trecho a seguir: “Um Sistema de Banco de Dados Federado (SBDF) é um conjunto de sistemas de bancos de dados que são autônomos e possivelmente heterogêneos que trabalham cooperativamente para um fim único. Cada banco de dados de um sistema de banco de dados federado é completamente auto-sustentável e funcional. Quando é enviada alguma consulta, o sistema descobre em qual banco de dados os dados requerentes dessa consulta estão e envia essa consulta para ele.” Fonte: FERNANDES, Eduardo Pires. Arquitetura de Integração entre Bancos de Dados: Uma abordagem aplicada à Secretaria de Estado de Educação do Distrito Federal – SEEDF. Dissertação de Mestrado. (Mestrado Profissional em Computação Aplicada) - Universidade de Brasília, 2017.
A partir dessas informações e do conteúdo estudado, é possível afirmar que o maior objetivo dos Bancos de Dados Federados, no contexto da Integração de Dados, é sua utilização:
para integração de dados disponíveis em bancos de dados do tipo cliente/servidor, dispersos na Internet.
para integração de dados dispersos em função das unidades federativas ao qual pertencem.
para integração de dados disponíveis em bancos de dados do tipo cliente/servidor, agrupados em função de suas unidades federativas.
para integração de dados disponíveis em Sistemas de Gerenciamento de Bancos de Dados Distribuídos na Internet.
para a integração de dados fora da Internet, uma vez que lidam com Sistemas de Gerenciamento de Bancos de Dados Distribuídos.

Leia o trecho a seguir: “A divisão em camadas é uma técnica muito utilizada pelos engenheiros de software para implementar um sistema de software complexo. Separando o sistema em camadas, o entendimento é facilitado, pois cada camada é responsável por prover uma funcionalidade restrita e bem definida. O acoplamento também é reduzido, uma vez que cada camada está acoplada somente à camada imediatamente superior e inferior, provendo serviços para a primeira e consumindo serviços da segunda.” Fonte: SILVA, R. F.; GONÇALVES, P. R. Web Services – Uma Análise Comparativa. Revista das Faculdades Integradas Claretianas – N. 5 – Janeiro/Dezembro de 2012.
A partir dessas informações e do conteúdo estudado a respeito da Arquitetura Multicamada, é correto afirmar que, no contexto da Integração de Dados:
podem ser utilizadas fontes de dados heterogêneas, que antes de ser integradas ficam armazenadas em diferentes servidores nas camadas inferiores.
os middlewares de integração são executados abaixo da camada inferior, uma vez que fornecem os dados que serão ali armazenados.
as camadas clientes acessam diretamente as camadas inferiores, onde os dados estão armazenados de forma integrada.
a separação em camadas é feita de forma lógica, uma vez que os clientes, middlewares e dados integrados ficam no mesmo servidor físico.
a camada intermediária armazena os bancos de dados materializados, que fornecerão os dados integrados para consulta.

Leia o trecho a seguir: “Um dos grandes desafios computacionais da atualidade é armazenar, manipular e analisar de forma inteligente a grande quantidade de dados existente. Sistemas corporativos, serviços e sistemas Web, mídias sociais, entre outros, produzem juntos um volume impressionante de dados, alcançando a dimensão de petabytes diários. Com essa evolução da tecnologia da informação (TI) surgiram vários recursos em processamento e armazenamento de dados que visam organizar as bases de informação.” Fonte: FURTADO, J. C.; BULSING, G. M.; KROTH, E. et al. Ferramenta para extração de dados semiestruturados para carga de um Big Data. Revista Brasileira de Computação Aplicada (ISSN 2176-6649), Passo Fundo, v.7, n. 3, p. 43-52, abr. 2015.
Sabendo que grande parte dos dados existentes está armazenada em formato semiestruturado, considerando as características desse formato de armazenamento é possível afirmar que:
seus dados estão armazenados em colunas com tipos de dados bem definidos.
o formato permite a execução de comandos em linguagem SQL-DML e SQL-DDL.
seus dados possuem um modelo formal de representação, chamado de modelo relacional.
de estrutura irregular e implícita, apenas parte dos dados possuem metadados.
esse formato é adequado para o armazenamento de dados homogêneos (de mesmo tipo).

Leia o trecho a seguir: “A necessidade de melhorar o ciclo de vida em todas as diferentes fases e, especialmente, a grande competitividade do mercado, tendo que lançar produtos rapidamente se alinhando às tendências, foi o que originou o conceito de Entrega Contínua (CD) que, como extensão da Integração Contínua, defende a automação dos testes, dos processos de lançamento e das etapas de implantação. Para isso acontecer, teve que ser reduzida a separação dos papéis entre as diferentes equipes e levou ao surgimento do movimento DevOps. O movimento DevOps está centrado em um objetivo: encorajar uma colaboração maior entre todos os envolvidos no processo de entrega de software de maior valor com mais confiança e rapidez.” Fonte: CRUZ, V. L.; ALBUQUERQUE, A. B. Um Processo de Introdução de DevOps em Sistemas Legados – A DevOps Introduction Process for Legacy Systems. XLIV Conferência Latino-americana de Informática – CLEI 2018. São Paulo/SP. 01 a 05 de outubro de 2018.
Na visão de Cruz e Albuquerque, a Entrega Contínua pode ser vista como uma extensão da Integração Contínua, e ambas devem ser executadas pelo DevOps. Considerando a citação apresentada e os conteúdos abordados na unidade a respeito de entrega e integração contínua, analise as asserções a seguir e a relação proposta entre elas.
I. A Integração Contínua é uma atividade executada pelo DevOps em que, ao ser entregue o código pelos desenvolvedores, serão automatizados os trabalhos de integração do código gerado, gerência de configuração e geração da build.
II. Trata-se um subprocesso da Entrega Contínua que, por sua vez, representa um conjunto mais abrangente de práticas, que visa garantir que um código desenvolvido esteja pronto para ser enviado para o ambiente de produção.
As asserções I e II são proposições falsas.
As asserções I e II são proposições verdadeiras, e a II é uma justificativa correta da I.
A asserção I é uma proposição falsa, e a II é uma proposição verdadeira.
A asserção I é uma proposição verdadeira, e a II é uma proposição falsa.
As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa correta da I.

Leia o trecho a seguir: “A integração contínua é uma prática no desenvolvimento de software, onde os membros de uma equipa integram o seu trabalho frequentemente. Habitualmente, cada pessoa integra o seu trabalho uma vez por dia, o que leva a múltiplas integrações por dia. Cada integração é verificada por um sistema automático, que inclui testes de modo a detetar erros de integração o mais rapidamente possível. O objetivo desses testes é fornecer uma resposta rápida para quando um erro for introduzido no código, possa ser identificado e retificado de imediato (COELHO, 2015, p. 20).” Fonte: COELHO, A. S. M. Desenvolvimento de software com integração contínua. Dissertação de Mestrado em Engenharia Informática, Área de Especialização em Arquiteturas, Sistemas e Redes. Instituto Superior de Engenharia do Porto. Porto, 2015.
Considerando as informações apresentadas no texto acima e o conteúdo estudado a respeito da técnica de Integração Contínua, assinale a seguir a alternativa verdadeira a seguir:
o termo Integração Contínua surgiu a partir do processo de desenvolvimento ágil de software XP, e seus princípios podem ser aplicados a todas as metodologias de desenvolvimento de software.
Jenkins, GitHub, Ant, Maven e Gradle são exemplos de ferramentas utilizadas para o trabalho de Integração Contínua. Sua utilização é recomendada, pois torna o trabalho mais eficiente.
em cenários de equipes de desenvolvimento que utilizam Integração Contínua, a responsabilidade inicial pela integração é do programador, que deve executar os software específicos para esta finalidade localmente.
são princípios adotados pelas metodologias ágeis que utilizam a Integração Contínua: processos e ferramentas mais que indivíduos e interações; seguir um plano mais que responder à mudanças.
o trabalho de Integração Contínua deve se feito ser feito, preferencialmente de forma manual, através de reuniões entres os componentes das equipes de desenvolvimento, que decidirão as melhores estratégias.

Leia o trecho a seguir: “O pipeline de implantação de software é, essencialmente, uma implementação automatizada do processo de compilar todas as partes de aplicação, implantá-la em ambiente, testá-la e efetuar sua entrega final. Este processo geralmente segue as atividades vistas na figura a seguir: Basicamente cada mudança feita no código fonte do programa, no ambiente ou na arquitetura inicia uma nova instância do pipeline.” Fonte: HUMBLE, J.; FARLEY, D. Entrega Contínua: como entregar software de forma rápida e confiável. Porto Alegre: Bookman, 2014. (adaptado).
Sabendo que o trabalho de Entrega Contínua de Software é centrado no processo de implantação de software apresentado no texto e na figura acima, considerando os conceitos de Entrega Contínua e Implantação Contínua e seus objetivos é correto afirmar que:
tanto o processo de entrega, quanto o de implantação contínua, devem ser revisto com frequência, uma vez que precisam ser aprimorados, já que falhas nesses processos geralmente são críticas para o ambiente.
é comum em ambiente de entrega e implantação contínuas que os programadores sejam chamados para explicar o motivo pelo qual uma versão do software colocada em produção está apresentando falhas.
um dos princípios da Entrega Contínua é a produção de documentação extensa e detalhada descrevendo cada atividade que deve ser realizada no processo, assim como todas as falhas que podem ocorrer.
são objetivos da Implantação Contínua: tornar as atividades do processo visíveis a todos os envolvidos, melhorar o feedback do processo, implantação automatizada das versões do software em seus ambientes.
executar processos automatizados de implantação e entrega contínuas é uma atividade tende a se tornar tediosa e repetitiva para a equipe de desenvolvimento. Por isso parte do processo deve ser manual.

Leia o trecho a seguir: “Os primeiros sistemas de processamento de dados desenvolvidos pela área de Tecnologia da Informação faziam uso de um recurso conhecido como Processamento em Lote (Batch), cujas principais características eram a execução em computadores de grande porte, conhecidos como Mainframes, e a ausência de interação entre o software e seus usuários finais, uma vez que a execução dos comandos era efetuada por meio de Jobs, criados em uma linguagem chamada JCL (Job Control Language), responsável por controlar a execução dos programas, geralmente desenvolvidos em COBOL. Quando um Job era, então, submetido à execução, ele era informado como uma entrada no sistema, e rodava através de fluxo sequencial de tarefas.
Considerando essas informações e o conteúdo estudado a respeito do fluxo de um Job em um sistema de processamento sequencial, ordene as etapas a seguir de acordo a sequência de tarefas necessárias para execução de um Job:
( ) Processamento
( ) Conversão
( ) Purga
( ) Saída
( ) Impressão
3, 1, 2, 4, 5.
2, 4, 3, 1, 5.
5, 2, 4, 3, 1.
2, 1, 5, 3, 4.
1, 3, 5, 2, 4.

Considere o seguinte trecho de arquivo em formato XML: 111-11-111-1111-1 Editora 123 03/07/2019 Nome 1 Sobrenome 1
Considerando o que você aprendeu sobre armazenamento de dados em formato XML, assinale a seguir a alternativa verdadeira a respeito do trecho de arquivo apresentado:
os dados dos autores podem ser recuperados via comando SQL-DDL.
os dados dos autores podem ser recuperados via comando SQL-DML.
“111-11-111-1111-1” e “03/07/2019” são exemplos de tags semânticas.
, , e são exemplos de tags semânticas.
as tags semânticas deste XML ficam ocultas no DTD relacionado.

Middlewares para integração de dados geralmente são oferecidos na forma de drivers, que são softwares executados em segundo plano pelos Sistemas Operacionais (SO), responsáveis por implementar a interface de comunicação entre o SO e outros elementos de hardware e software, como impressoras, monitores de vídeos, teclados, mouses e bancos de dados.
Assim, considerando as informações apresentadas e os conteúdos estudados a respeito dos middlewares para integração de dados, analise os drivers citados a seguir e associe-os com suas respectivas características.
1) ODBC.
2) CORBA.
3) DCOM.
4) .NET.
( ) Contém a especificação para comunicação com banco de dados via API, que é um tipo de software que permite a troca de informação entre sistemas.
( ) Baseado no protocolo HTTP, que provê a comunicação entre sistemas de informação através de transferência de dados na Internet.
( ) Tem sua arquitetura definida a partir de uma linguagem de descrição de interfaces e de um serviço de localização de objetos remotos.
( ) É baseado no modelo Orientado a Objetos, que é o paradigma de programação mais utilizado para desenvolvimento de software.
2, 4, 3, 1.
3, 1, 2, 4.
1, 2, 4, 3.
4, 1, 2, 3.
1, 4, 2, 3.

Prévia do material em texto

Conteúdo do exercício
Ocultar opções de resposta 
Pergunta 1 -- /0
Leia o trecho a seguir:
“O número de Web Services, espalhados em redes públicas e privadas, que se destinam a fornecer dados 
armazenados em alguma fonte de dados tem aumentado consideravelmente. Tais Web Services, também 
chamados de Web data services (ou apenas serviços de dados), têm como objetivo fornecer interfaces Web de 
acesso e manipulação a fontes de dados. O rápido crescimento de tais serviços e fontes de dados 
disponibilizadas hoje na Web resultou em uma disseminação de dados representados em formatos 
heterogêneos e difíceis de serem processados e reutilizados.”
Fonte: OLIVEIRA, B.; SIQUEIRA, F. OntoGenesis: Uma Arquitetura para Enriquecimento Semântico de Web 
Data Services. In: XVII Workshop de Teses de Dissertações (WTD 2017), Gramado, Brasil. Anais do XXIII 
Simpósio Brasileiro de Sistemas Multimídia e Web: Workshops e Pôsteres. Porto Alegre: Sociedade Brasileira de 
Computação, 2017.
Considerando as informações apresentadas no texto acima e o conteúdo estudado, a respeito dos Web Services 
e seus protocolos é possível afirmar que:
Resposta corretaambos utilizam os protocolos SOAP e REST para integração de dados.
o protocolo REST utiliza o XML para armazenamento de dados.
Incorreta: o protocolo SOAP utiliza o HTTP para transportes de dados.
ambos utilizam os protocolos XML e JSON para armazenamento de dados.
ambos utilizam os protocolos XML e JSON para integração de dados. 
Pergunta 2 /0
Ocultar opções de resposta 
Pergunta 2 -- /0
Leia o trecho a seguir:
“Um Sistema de Banco de Dados Federado (SBDF) é um conjunto de sistemas de bancos de dados que são 
autônomos e possivelmente heterogêneos que trabalham cooperativamente para um fim único. Cada banco de 
dados de um sistema de banco de dados federado é completamente auto-sustentável e funcional. Quando é 
enviada alguma consulta, o sistema descobre em qual banco de dados os dados requerentes dessa consulta 
estão e envia essa consulta para ele.”
Fonte: FERNANDES, Eduardo Pires. Arquitetura de Integração entre Bancos de Dados: Uma abordagem 
aplicada à Secretaria de Estado de Educação do Distrito Federal – SEEDF. Dissertação de Mestrado. (Mestrado 
Profissional em Computação Aplicada) - Universidade de Brasília, 2017.
A partir dessas informações e do conteúdo estudado, é possível afirmar que o maior objetivo dos Bancos de 
Dados Federados, no contexto da Integração de Dados, é sua utilização:
para integração de dados disponíveis em bancos de dados do tipo cliente/servidor, dispersos na 
Internet.
para integração de dados dispersos em função das unidades federativas ao qual pertencem.
para integração de dados disponíveis em bancos de dados do tipo cliente/servidor, agrupados em 
função de suas unidades federativas.
Resposta correta
para a integração de dados fora da Internet, uma vez que lidam com Sistemas de 
Gerenciamento de Bancos de Dados Distribuídos. 
para integração de dados disponíveis em Sistemas de Gerenciamento de Bancos de Dados 
Distribuídos na Internet.
Pergunta 3 -- /0
Leia o trecho a seguir:
“A divisão em camadas é uma técnica muito utilizada pelos engenheiros de software para implementar um 
sistema de software complexo. Separando o sistema em camadas, o entendimento é facilitado, pois cada 
camada é responsável por prover uma funcionalidade restrita e bem definida. O acoplamento também é 
Ocultar opções de resposta 
Ocultar opções de resposta 
reduzido, uma vez que cada camada está acoplada somente à camada imediatamente superior e inferior, 
provendo serviços para a primeira e consumindo serviços da segunda.
”Fonte: SILVA, R. F.; GONÇALVES, P. R. Web Services – Uma Análise Comparativa. Revista das Faculdades 
Integradas Claretianas – N. 5 – Janeiro/Dezembro de 2012.
A partir dessas informações e do conteúdo estudado a respeito da Arquitetura Multicamada, é correto afirmar 
que, no contexto da Integração de Dados:
os middlewares de integração são executados abaixo da camada inferior, uma vez que fornecem os 
dados que serão ali armazenados.
Resposta correta
podem ser utilizadas fontes de dados heterogêneas, que antes de ser integradas 
ficam armazenadas em diferentes servidores nas camadas inferiores.
as camadas clientes acessam diretamente as camadas inferiores, onde os dados estão armazenados 
de forma integrada.
a separação em camadas é feita de forma lógica, uma vez que os clientes, middlewares e dados 
integrados ficam no mesmo servidor físico.
a camada intermediária armazena os bancos de dados materializados, que fornecerão os dados 
integrados para consulta.
Pergunta 4 -- /0
Leia o trecho a seguir:
“Um dos grandes desafios computacionais da atualidade é armazenar, manipular e analisar de forma inteligente 
a grande quantidade de dados existente. Sistemas corporativos, serviços e sistemas Web, mídias sociais, entre 
outros, produzem juntos um volume impressionante de dados, alcançando a dimensão de petabytes diários. 
Com essa evolução da tecnologia da informação (TI) surgiram vários recursos em processamento e 
armazenamento de dados que visam organizar as bases de informação.”
Fonte: FURTADO, J. C.; BULSING, G. M.; KROTH, E. et al. Ferramenta para extração de dados 
semiestruturados para carga de um Big Data. Revista Brasileira de Computação Aplicada (ISSN 2176-6649), 
Passo Fundo, v.7, n. 3, p. 43-52, abr. 2015.
Sabendo que grande parte dos dados existentes está armazenada em formato semiestruturado, considerando 
as características desse formato de armazenamento é possível afirmar que:
Ocultar opções de resposta 
seus dados estão armazenados em colunas com tipos de dados bem definidos.
o formato permite a execução de comandos em linguagem SQL-DML e SQL-DDL.
seus dados possuem um modelo formal de representação, chamado de modelo relacional.
Resposta corretade estrutura irregular e implícita, apenas parte dos dados possuem metadados.
esse formato é adequado para o armazenamento de dados homogêneos (de mesmo tipo).
Pergunta 5 -- /0
Leia o trecho a seguir:
“A necessidade de melhorar o ciclo de vida em todas as diferentes fases e, especialmente, a grande 
competitividade do mercado, tendo que lançar produtos rapidamente se alinhando às tendências, foi o que 
originou o conceito de Entrega Contínua (CD) que, como extensão da Integração Contínua, defende a 
automação dos testes, dos processos de lançamento e das etapas de implantação. Para isso acontecer, teve 
que ser reduzida a separação dos papéis entre as diferentes equipes e levou ao surgimento do movimento 
DevOps. O movimento DevOps está centrado em um objetivo: encorajar uma colaboração maior entre todos os 
envolvidos no processo de entrega de software de maior valor com mais confiança e rapidez”Fonte: CRUZ, V. L.; 
ALBUQUERQUE, A. B. Um Processo de Introdução de DevOps em Sistemas Legados – A DevOps Introduction 
Process for Legacy Systems. XLIV Conferência Latino-americana de Informática – CLEI 2018. São Paulo/SP. 01 
a 05 de outubro de 2018. 
Na visão de Cruz e Albuquerque, a Entrega Contínua pode ser vista como uma extensão da Integração 
Contínua, e ambas devem ser executadas pelo DevOps. Considerando a citação apresentada e os conteúdos 
abordados na unidade a respeito de entrega e integração contínua, analise as asserções a seguir e a relação 
proposta entre elas.
I. A Integração Contínua é uma atividade executada pelo DevOps em que, ao ser entregue o código pelos 
desenvolvedores, serão automatizados os trabalhos de integração do código gerado, gerência de configuração e 
geração da build.
Porque:
II. Trata-se um subprocesso da Entrega Contínua que, por sua vez, representa um conjunto mais abrangente de 
práticas, que visa garantir que um código desenvolvido esteja pronto para ser enviado para o ambiente de 
produção.
A seguir, assinale a alternativa correta:
As asserções I e II são proposições falsas.
Ocultar opções de resposta 
As asserções I e II são proposições falsas.
Resposta correta
As asserções I e II são proposiçõesverdadeiras, e a II é uma justificativa correta da 
I.
A asserção I é uma proposição falsa, e a II é uma proposição verdadeira.
A asserção I é uma proposição verdadeira, e a II é uma proposição falsa.
As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa correta da I.
Pergunta 6 -- /0
Leia o trecho a seguir:
“A integração contínua é uma prática no desenvolvimento de software, onde os membros de uma equipa 
integram o seu trabalho frequentemente. Habitualmente, cada pessoa integra o seu trabalho uma vez por dia, o 
que leva a múltiplas integrações por dia. Cada integração é verificada por um sistema automático, que inclui 
testes de modo a detetar erros de integração o mais rapidamente possível. O objetivo desses testes é fornecer 
uma resposta rápida para quando um erro for introduzido no código, possa ser identificado e retificado de 
imediato (COELHO, 2015, p. 20).”Fonte: COELHO, A. S. M. Desenvolvimento de software com integração 
contínua. Dissertação de Mestrado em Engenharia Informática, Área de Especialização em Arquiteturas, 
Sistemas e Redes. Instituto Superior de Engenharia do Porto. Porto, 2015.
Considerando as informações apresentadas no texto acima e o conteúdo estudado a respeito da técnica de 
Integração Contínua, assinale a seguir a alternativa verdadeira a seguir:
Resposta correta
o termo Integração Contínua surgiu a partir do processo de desenvolvimento 
ágil de software XP, e seus princípios podem ser aplicados a todas as metodologias 
de desenvolvimento de software.
Jenkins, GitHub, Ant, Maven e Gradle são exemplos de ferramentas utilizadas para o trabalho de 
Integração Contínua. Sua utilização é recomendada, pois torna o trabalho mais eficiente.
em cenários de equipes de desenvolvimento que utilizam Integração Contínua, a responsabilidade 
inicial pela integração é do programador, que deve executar os software específicos para esta 
finalidade localmente.
são princípios adotados pelas metodologias ágeis que utilizam a Integração Contínua: processos e 
ferramentas mais que indivíduos e interações; seguir um plano mais que responder à mudanças.
Ocultar opções de resposta 
o trabalho de Integração Contínua deve se feito ser feito, preferencialmente de forma manual, através 
de reuniões entres os componentes das equipes de desenvolvimento, que decidirão as melhores 
estratégias.
Pergunta 7 -- /0
Leia o trecho a seguir:
“O pipeline de implantação de software é, essencialmente, uma implementação automatizada do processo de 
compilar todas as partes de aplicação, implantá-la em ambiente, testá-la e efetuar sua entrega final. Este 
processo geralmente segue as atividades vistas na figura a seguir:
Basicamente cada mudança feita no código fonte do programa, no ambiente ou na arquitetura inicia uma nova 
instância do pipeline.
”Fonte: HUMBLE, J.; FARLEY, D. Entrega Contínua: como entregar software de forma rápida e confiável. Porto 
Alegre: Bookman, 2014. (adaptado).
Sabendo que o trabalho de Entrega Contínua de Software é centrado no processo de implantação de software 
apresentado no texto e na figura acima, considerando os conceitos de Entrega Contínua e Implantação Contínua
e seus objetivos é correto afirmar que:
QUESTÃO 16.PNG
tanto o processo de entrega, quanto o de implantação contínua, devem ser revisto com frequência, 
uma vez que precisam ser aprimorados, já que falhas nesses processos geralmente são críticas para 
o ambiente.
é comum em ambiente de entrega e implantação contínuas que os programadores sejam chamados 
para explicar o motivo pelo qual uma versão do software colocada em produção está apresentando 
falhas.
um dos princípios da Entrega Contínua é a produção de documentação extensa e detalhada 
descrevendo cada atividade que deve ser realizada no processo, assim como todas as falhas que 
podem ocorrer.
Resposta correta
são objetivos da Implantação Contínua: tornar as atividades do processo visíveis a 
todos os envolvidos, melhorar o feedback do processo, implantação automatizada 
das versões do software em seus ambientes.
Ocultar opções de resposta 
 executar processos automatizados de implantação e entrega contínuas é uma atividade tende a se 
tornar tediosa e repetitiva para a equipe de desenvolvimento. Por isso parte do processo deve ser 
manual.
Pergunta 8 -- /0
Os primeiros sistemas de processamento de dados desenvolvidos pela área de Tecnologia da Informação 
faziam uso de um recurso conhecido como Processamento em Lote (Batch), cujas principais características 
eram a execução em computadores de grande porte, conhecidos como Mainframes, e a ausência de interação 
entre o software e seus usuários finais, uma vez que a execução dos comandos era efetuada por meio de Jobs, 
criados em uma linguagem chamada JCL (Job Control Language), responsável por controlar a execução dos 
programas, geralmente desenvolvidos em COBOL. Quando um Job era, então, submetido à execução, ele era 
informado como uma entrada no sistema, e rodava através de fluxo sequencial de tarefas.
Considerando essas informações e o conteúdo estudado a respeito do fluxo de um Job em um sistema de 
processamento sequencial, ordene as etapas a seguir de acordo a sequência de tarefas necessárias para 
execução de um Job:
( ) Processamento
( ) Conversão
( ) Purga
( ) Saída
( ) Impressão
Agora, assinale a alternativa que apresenta a sequência correta:
3, 1, 2, 4, 5.
2, 4, 3, 1, 5.
5, 2, 4, 3, 1.
Resposta correta2, 1, 5, 3, 4.
1, 3, 5, 2, 4.
Pergunta 9 /0
Ocultar opções de resposta 
Pergunta 9 -- /0
Considere o seguinte trecho de arquivo em formato XML:
<livro>
 <isbn>111-11-111-1111-1</isbn>
<editora>Editora 123</editora>
<datapublicacao>03/07/2019</datapublicacao>
 <autor>
 <primeiro>Nome 1</primeiro>
 <ultimo>Sobrenome 1</ultimo>
 </autor>
</livro>
Considerando o que você aprendeu sobre armazenamento de dados em formato XML, assinale a seguir a 
alternativa verdadeira a respeito do trecho de arquivo apresentado:
os dados dos autores podem ser recuperados via comando SQL-DDL.
os dados dos autores podem ser recuperados via comando SQL-DML.
“111-11-111-1111-1” e “03/07/2019” são exemplos de tags semânticas.
Resposta correta<livro>, <isbn>, <editora> e <autor> são exemplos de tags semânticas.
as tags semânticas deste XML ficam ocultas no DTD relacionado.
Pergunta 10 -- /0
Middlewares para integração de dados geralmente são oferecidos na forma de drivers, que são softwares 
executados em segundo plano pelos Sistemas Operacionais (SO), responsáveis por implementar a interface de 
comunicação entre o SO e outros elementos de hardware e software, como impressoras, monitores de vídeos, 
teclados, mouses e bancos de dados.
Assim, considerando as informações apresentadas e os conteúdos estudados a respeito dos middlewares para 
integração de dados, analise os drivers citados a seguir e associe-os com suas respectivas características.
1)ODBC.
2)CORBA
Ocultar opções de resposta 
3)DCOM
4).NET
( ) Contém a especificação para comunicação com banco de dados via API, que é um tipo de software que 
permite a troca de informação entre sistemas.
( ) Baseado no protocolo HTTP, que provê a comunicação entre sistemas de informação através de transferência 
de dados na Internet. 
( ) Tem sua arquitetura definida a partir de uma linguagem de descrição de interfaces e de um serviço de 
localização de objetos remotos.
( ) É baseado no modelo Orientado a Objetos, que é o paradigma de programação mais utilizado para 
desenvolvimento de software.
Agora, assinale a alternativa que apresenta a sequência correta:
2, 4, 3, 1.
3, 1, 2, 4.
1, 2, 4, 3.
4, 1, 2, 3.
Resposta correta1, 4, 2, 3.

Mais conteúdos dessa disciplina