Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.

Prévia do material em texto

DESCRIÇÃO
Introdução e conceituação às plataformas em nuvem, como IBM Cloud, Google Cloud, Amazon AWS, além de Big Data e Analytics para
indústria 4.0.
PROPÓSITO
Compreender os conceitos básicos de computação em nuvem, as principais plataformas empregadas, como a IBM Cloud, Google Cloud e
Amazon AWS; bem como os conceitos de Big Data e Analytics no contexto da indústria 4.0, essencial ao profissional que deseja integrar os
diversos tipos de dispositivos para IoT.
PREPARAÇÃO
É necessário um computador com acesso à internet e um navegador para acessar as principais plataformas de computação em nuvem.
OBJETIVOS
MÓDULO 1
Identificar as principais características das mais relevantes plataformas de computação em nuvem para IoT
MÓDULO 2
Descrever os conceitos de Big Data e Analytics aplicados no contexto de computação em nuvem
INTRODUÇÃO
Quando pensamos na indústria 4.0 é fácil associar o emprego da Internet das Coisas (IoT) com um conjunto de dispositivos, sejam eles
sensores, atuadores, ou quaisquer outros que estejam interligados através da internet.
Entretanto, a quantidade de dispositivos empregados e o volume de informação gerados pode se tornar um problema complexo, que dificulte
a adoção e administração dessa tecnologia.
Com o objetivo de facilitar a integração dos dispositivos, a coleta e o processamento dos dados, é comum a adoção de plataformas de
computação em nuvem, como as de IBM Cloud, Google Cloud e AWS Cloud.
Essas plataformas possuem soluções que permitem a rápida integração de dispositivos e ferramentas que fazem a análise dos dados
gerados, gerando informação para a empresa para que ela possa otimizar os seus processos.
Neste material, abordaremos os conceitos relacionados à computação na nuvem, tais como nuvem pública, privada e híbrida, SaaS, PaaS e
IaaS. Mostraremos, também, as justificativas para a adoção do modelo e apresentaremos três plataformas baseadas em nuvem (cloud), que
figuram entre as principais disponíveis no mercado.
Na segunda parte, falaremos sobre a indústria 4.0, conceituando-a e mostrando sua evolução. Apresentaremos as tecnologias que são a
base da quarta revolução industrial e detalharemos Big Data e Analytics ao leitor.
MÓDULO 1
 Identificar as principais características das mais relevantes plataformas de computação em nuvem para IoT
PLATAFORMAS DE NUVEM PARA IOT: IBM CLOUD, GOOGLE CLOUD,
AWS CLOUD
Neste módulo, introduzimos o conceito de computação em nuvem e falamos um pouco sobre três das principais plataformas em nuvem
usadas para IoT.
CONCEITUANDO PLATAFORMAS NA NUVEM
Antigamente, as empresas precisavam estimar hardware e software a serem comprados para suportar suas operações diárias ou novos
projetos – era frequente que grandes servidores precisassem ser importados. Parte desse esforço consistia também em projetar a demanda
por cinco anos.
O investimento costumava ser grande, além do risco.
Caso a demanda ficasse abaixo do esperado, as máquinas e os sistemas comprados ficariam subutilizados.
Havendo demanda acima do previsto, novos hardwares e softwares precisariam ser adquiridos, reiniciando o ciclo.
Acontece que o processo de compras em uma empresa costuma ser bastante lento. Reuniões, relatórios, métricas e disponibilidade de
orçamento precisam acontecer para que o processo de aquisição de novos ativos seja iniciado. Isso pode demorar meses, e até anos.
Antigamente, além do risco que a empresa corria em perder dinheiro, comprando demais, havia o risco de comprar de menos, fazendo com
que a solução estimada não funcionasse adequadamente, o que levaria, também, à perda de dinheiro, pelas receitas perdidas, ou
adicionando ineficiências aos processos da companhia, o que seria muito pior do que o cenário da subutilização.
Justamente por isso, companhias costumavam exagerar na compra inicial, para criar folga na infraestrutura a ser adquirida. Mas esse
investimento inicial costumava demandar muito investimento. Era necessário fazer um aporte financeiro inicial elevado na compra de
servidores, placas etc., para suportar o crescimento orgânico da demanda, em média, por cinco anos. Assim, a infraestrutura adquirida estaria
sempre subutilizada no início e sobrecarregada no final.
Observe que as máquinas eram compradas e trazidas fisicamente ao local do comprador. Então, elas precisavam ser instaladas e
homologadas. O pessoal interno tinha que receber treinamento e certificação, tanto para hardware (os servidores, placas etc.) quanto para
software (sistemas operacionais, bancos de dados, software de redundância e proteção de dados, segurança etc.). As ineficiências desse
modelo são óbvias.
Com a virtualização e a comoditização do hardware, um novo modelo de negócios surgiu, baseado na computação em nuvem, que consiste
em usar sob demanda recursos de hardware e de software:
Hardware
Servidores, rede, banda de transmissão, processamento, armazenamento, memória.
Software
Banco de dados, sistemas operacionais, balanceamento de carga, sistemas de analytics, aprendizado de máquina e gerenciamento.
O modelo inovador permitiu às empresas reduzir o investimento inicial trocando Capex por Opex. Isso quer dizer que, no modelo de
computação em nuvem, os clientes podem adquirir exatamente os recursos de que precisam e pagar apenas pelo uso dos recursos
contratados. Funciona basicamente como um aluguel dos recursos. Havendo aumento de demanda, o cliente consegue contratar mais
recursos rapidamente, como por exemplo, mais licenças de banco de dados, mais discos rígidos, mais servidores ou mais memória ou
capacidade de processamento. Se acontecer o contrário, os recursos podem ser liberados imediatamente e deixam de ser faturados.
 VOCÊ SABIA
Capex, do inglês, Capital Expenditure, ou despesas de capital, são despesas não recorrentes destinadas à compra, ou à manutenção de
ativos, como equipamentos, imóveis, veículos, terras, patentes etc. Normalmente, os valores investidos como Capex seguem a estratégia de
evolução da empresa e são usados para aumentar ou gerar novas receitas, expandir a operação ou ganhar novos mercados.
Opex, do inglês, Operating Expenditures, ou despesas de operação, são despesas recorrentes e ordinárias, necessárias para manter a
operação da empresa, tais como: aluguéis e salários.
Todos os recursos disponibilizados são virtuais. Isto é, são máquinas virtuais (VMs):
VMS SÃO SOFTWARES QUE EMULAM COMPUTADORES E RECURSOS
EXATAMENTE COMO SE FOSSEM REAIS. ELES TÊM MEMÓRIA, PROCESSADOR,
PLACAS DE REDE, SISTEMA OPERACIONAL, SOFTWARES INSTALADOS, MAS
NÃO EXISTEM NO MUNDO FÍSICO. AS MÁQUINAS VIRTUAIS USAM RECURSOS
FÍSICOS DO SERVIDOR REAL QUE AS HOSPEDA.
Assim, as VMs usam parte da memória, dos processadores e de outras capacidades disponibilizadas entre todos os recursos totais do
servidor físico real subjacente, mas de forma transparente para o usuário, que percebe os recursos como se fossem partes independentes.
Os softwares também são instalados nas máquinas virtuais da mesma forma que nas máquinas reais: instalação e uso de bancos de dados,
aplicativos, sistemas operacionais seguem o mesmo procedimento que em uma máquina física.
 COMENTÁRIO
Uma das grandes vantagens das VMs é permitir o armazenamento do seu estado corrente. Desse modo, depois que está plenamente
configurada e carregada, a VM pode ser armazenada em disco rígido exatamente como um aplicativo convencional, como backup.
No caso de falha, apaga-se a VM defeituosa e usa-se o backup para reestabelecer o servidor imediatamente. Esse processo leva alguns
minutos. Antigamente, poderia levar horas.
O modelo de negócios baseado em computação na nuvem, portanto, resolve diversos problemas para as empresas:
Ajuda a suavizar a curva de investimento, eliminando a necessidade de grandes aportes financeiros para compra de ativos no início do
projeto, transformando Capex em Opex.
Reduz custo de operação, transferindo a gestão de TI dos grandes servidores físicos para o fornecedor dos recursos em nuvem.
Ajusta osrecursos computacionais à curva de demanda, permitindo a contratação exata da capacidade computacional necessária além de
permitir o escalonamento da solução rapidamente: havendo a necessidade de mais memória, processamento, ou licenças, basta adicioná-los
com um clique de botão e custeá-los como despesas operacionais, sem a necessidade de processos de compra lentos e burocráticos.
Os recursos adquiridos são entregues em tempo real, afinal, não são elementos físicos, mas virtuais.
De acordo com o National Institute of Standards and Technology (NIST), a computação em nuvem possui cinco características essenciais:
SELF-SERVICE
É a capacidade que o cliente tem em se servir (self-service), de acordo com suas necessidades e demandas (on demand). O cliente cria e
aloca tantos recursos quanto for preciso, manualmente, ou pode, por meio de configuração, definir gatilhos para que mais recursos, como
memória, disco rígido ou banda sejam alocados, caso o uso se torne crítico.
FACILIDADE DE ACESSO
Diz respeito à facilidade de acesso, que deve ser provido pela rede e por meio de aplicativos simples, não apenas para estações de trabalho
e computadores mais robustos, mas também para telefones inteligentes (smartphones) e tablets. O acesso deve ser simples e diversificado.
DIFERENTES USUÁRIOS
A computação em nuvem deve permitir a alocação de recursos para servir diferentes usuários. Normalmente, eles estão disponíveis em um
pool de recursos virtuais e são alocados dinamicamente pelos clientes, de acordo com a demanda.
ELASTICIDADES
O cliente deve ser capaz de aprovisionar e liberar recursos e capacidades a qualquer momento, como no caso de haver picos de demanda.
SOLUÇÕES EM NUVEM
Diz respeito à capacidade e à importância de medição das soluções baseadas em nuvem. O faturamento e a cobrança dos clientes é feita de
acordo com o uso. Por isso, a medição do uso deve ser feita de maneira transparente e precisa, mensurando a utilização dos recursos
praticamente em tempo real.
De acordo com o NIST, a computação em nuvem é um modelo que permite o acesso onipresente, conveniente e sob demanda à rede
compartilhada e ao conjunto de recursos de computação configuráveis (por exemplo, redes, servidores, armazenamento, aplicativos e
serviços), que pode ser provisionado e liberado rapidamente com o mínimo de esforço de gerenciamento ou interação do provedor de
serviços.
Além disso, três modelos de serviços ofertados e três modelos de implantação também compõem os modelos de computação em nuvem.
Grandes gigantes de tecnologia perceberam as vantagens desse modelo e criaram suas próprias plataformas baseadas em nuvem para
fornecer recursos virtuais para seus clientes.
Alguns exemplos são:
Amazon
Google
Microsoft
Salesforce
VMware
Cisco
DE MANEIRA GERAL, PODE-SE DIZER QUE PLATAFORMA NA NUVEM É UM
PORTAL EM QUE O CLIENTE CONTRATA E CONSOME RECURSOS VIRTUAIS SOB
DEMANDA, PARA SUPRIR SUAS NECESSIDADES DE RECURSOS
COMPUTACIONAIS E SOFTWARE.
A empresa dona do portal fornece ambientes em que o cliente pode configurar e gerenciar todos os itens contratados de maneira integrada, e
recebe faturas mensais de acordo com a utilização.
Os serviços ofertados, que estudaremos mais à frente, podem ser basicamente de três tipos:
INFRAESTRUTURA COMO SERVIÇO
(Infrastructure as a Service - IaaS)
PLATAFORMA COMO SERVIÇO
(Platform as a Service - PaaS)
SOFTWARE COMO SERVIÇO
(Software as a Service - SaaS)
É importante frisar que uma variedade de tecnologias, tanto de código fechado como de código aberto são ofertadas pelas plataformas.
MODELOS DE COMPUTAÇÃO EM NUVEM
Os três tipos mais comuns de implementação de modelos na nuvem são:
Nuvem Pública (Public Cloud);
Nuvem Privada (Private Cloud);
Nuvem Híbrida (Hybrid Cloud).
Qualquer empresa que deseje migrar seu ambiente sistêmico para a nuvem deve examinar cuidadosamente qual das três opções é mais
aderente a sua realidade, tanto em termos de custos quanto de regulação.
NUVEM PÚBLICA (PUBLIC CLOUD)
Na nuvem pública, os serviços estão disponíveis a qualquer cliente através da internet. Para usá-los, basta se cadastrar no portal da
empresa, que oferece os serviços e alugar os recursos necessários.
 COMENTÁRIO
Alguns serviços são até mesmo gratuitos, mas a maioria pode custar uma assinatura mensal ou possuir uma tarifação sob demanda, como é
o caso da banda de internet, faturada por utilização.
Nuvens públicas costumam levantar dúvidas sobre segurança. É que os recursos alocados para um cliente compartilham a mesma
infraestrutura física subjacente a outros clientes: vários “inquilinos” coexistem muito próximos uns dos outros, compartilhando os mesmos
recursos computacionais, sem que, no entanto, saibam disso.
As empresas provedoras de nuvem pública, todavia, garantem que se as medidas de segurança forem implementadas corretamente, esse
risco é mínimo.
Os críticos desse modelo dizem que o cliente tem quase ou nenhum controle sobre a infraestrutura, o que de fato é verdade, já que todo o
gerenciamento e manutenção é feito de forma transparente ao cliente, que é apenas notificado quando tem algum serviço contratado
impactado.
Custo, escalabilidade, confiabilidade, proteção contra desastre são vantagens importantes desse modelo, que permitem ao cliente operar de
modo mais eficiente, exatamente por não precisar se preocupar com todos esses aspectos. O provedor dos serviços é o responsável por
garantir todos eles, bem como em realizar a manutenção dos recursos físicos, aliviando o departamento de TI do cliente.
O MODELO DE NUVEM PÚBLICA É O MAIS UTILIZADO.
NUVEM PRIVADA (PRIVATE CLOUD)
No modelo de nuvem privado, os recursos físicos podem estar tanto fisicamente instalados dentro do cliente, como podem ser acessíveis
pela internet. A diferença é que a equipe de TI do cliente é responsável por configuração, gerenciamento, segurança, disponibilidade, e deve
definir e executar os planos de recuperação e proteção contra desastres e manutenção preventiva e reativa.
Há, portanto, um incremento nos custos de operação para que o cliente tenha total controle da rede em nuvem. As vantagens continuam
basicamente as mesmas: escalabilidade, flexibilidade e segurança.
 ATENÇÃO
No quesito segurança, inexistem outros clientes compartilhando os mesmos recursos: toda a infraestrutura é dedicada a um único cliente.
NUVEM HÍBRIDA (HYBRID CLOUD)
A solução de nuvem híbrida tenta racionalizar os dois modelos anteriores em um modelo misto. Nele, o cliente pode optar por manter dados
sujeitos a forte regulação do governo ou aplicativos de missão crítica confinados em uma nuvem privada, e usar uma nuvem pública para
outras necessidades da companhia, reduzindo custos de gestão operacional. Existe também grande mobilidade de dados e sistemas entre
uma e outra.
A nuvem híbrida fornece as vantagens da nuvem pública, mas também a segurança, o controle e a conformidade com leis e regulações,
como no caso da privacidade de dados, quando a empresa é impedida por lei de terceirizar a gestão deles.
 COMENTÁRIO
Quanto ao custo de operação, para o mesmo tamanho de rede, a nuvem híbrida acaba custando um valor intermediário entre a pública e a
privada.
MODELOS DE SERVIÇO
Como já estudamos, além dos modelos de implementação, existem os modelos de serviço, que podem ser:
INFRAESTRUTURA COMO SERVIÇO (INFRASTRUCTURE AS A SERVICE – IAAS)
Consiste no aluguel de infraestrutura de TI. Em vez de comprar os ativos, o cliente paga por servidores, máquinas virtuais, capacidade de
processamento, armazenamento, rede, entre outros, de acordo com o uso.
PLATAFORMA COMO SERVIÇO (PLATFORM AS A SERVICE – PAAS)
Além dos recursos computacionais, as empresas precisam desenvolver e integrar sistemas sob medida. As plataformas de computação em
nuvem fornecem plataformas que permitem aos clientes desenvolver, testar e gerenciar os aplicativos, isolando essas tarefas da
complexidade de manejar os recursos computacionais que suportam as aplicações desenvolvidas.
SOFTWARECOMO SERVIÇO (SOFTWARE AS A SERVICE – SAAS)
Tradicionalmente, software é distribuído sob licenciamento. No modelo SaaS, ele passa a ser comercializado por meio de aluguel ou
assinatura. Cabe ao provedor da plataforma da nuvem atualizar, instalar patches de segurança e manutenir o sistema. O cliente pode
encerrar o uso do software a qualquer momento.
Atualmente, no mercado, existem diversas empresas que fornecem plataformas de computação na nuvem. Amazon, Microsoft, Joyent, IBM,
Digital Ocean, VMware, Oracle; todas elas possuem nuvens, que fornecem diferentes serviços e implementam distintos modelos. Nos
próximos tópicos, veremos um pouco sobre IBM Cloud, Google Cloud e Amazon AWS.
GOOGLE CLOUD
Google Cloud é a plataforma pública de computação em nuvem do Google. Ela é acessível através do Google Cloud Console.
Para isso, é preciso primeiro ter uma conta no Google ou Gmail. O Console permite a criação de projetos, a visualização e o
aprovisionamento de vários recursos e a contratação de serviços. Ele é a interface principal do usuário. Toda a gestão dos recursos é feita
por meio do Console, que funciona de forma transparente: é possível que os recursos estejam distribuídos por diferentes data centers, sem
que o usuário perceba.
A empresa mantém diversos data centers espalhados pelo mundo em cinco regiões diferentes: Austrália, América do Norte, América do Sul,
Europa e Ásia. Essas regiões são subdivididas em zonas isoladas. O cliente pode escolher o data center mais próximo para reduzir tempos
de acesso, bem como espelhar seus ambientes em um ou mais data centers geograficamente distantes, de acordo com o plano de alta
disponibilidade e recuperação de catástrofe. Alguns recursos estão disponíveis globalmente, outros apenas por região ou zona.
O cliente pode contratar diversos serviços, são muitas opções distribuídas em várias categorias, entre as quais listamos algumas:
Inteligência Artificial e Machine Learning
Análise de Dados
IoT
Mídia e Jogos
Banco de Dados
Rede
Migração de Dados
Saúde e Ciências Biológicas
Ferramentas de Gestão
Contêineres
Cada uma dessas áreas contém diversos serviços relacionados. Por exemplo, na categoria IA e Machine Learning é possível contratar
serviços de reconhecimento de fala e transcrição em mais de cem idiomas, bem como fazer o reverso, usar algoritmos que transformam texto
em fala.
Alguns dos serviços mais utilizados são: Big Query, Cloud CDN, Compute Engine, Data FLow, Cloud SQL, Anthos, Cloud Storage, Operações
e Google Kubernetes Engine.
Vamos ver alguns detalhes sobre eles.
BIG QUERY
É o serviço para grandes massas de dados: tabelas com bilhões de linhas e que podem ocupar até petabytes de armazenamento.
Os dados são persistidos no BigTable – o sistema de armazenamento proprietário da empresa para armazenamento de Big Data –, e permite
ao usuário executar queries SQL complexas muito rapidamente.
 ATENÇÃO
O Big Query não fornece uma base de dados transacional, por isso, é indicado apenas para Big Data. O Google Cloud encapsula toda a
complexidade do hardware subjacente. O usuário precisa apenas carregar os dados na nuvem, seja em arquivos CSV ou em outros formatos,
que o Big Query já pode ser usado.
É possível, também, aplicar outros serviços como Data Analytics ou de ingestão de dados, este último no caso de um fluxo contínuo.
O Google Cloud encapsula toda a complexidade do hardware subjacente. O usuário precisa apenas carregar os dados na nuvem, seja em
arquivos CSV ou em outros formatos, que o Big Query já pode ser usado. É possível, também, aplicar outros serviços como Data Analytics ou
de ingestão de dados, este último no caso de um fluxo contínuo.
BIG QUERY, PORTANTO, É INDICADO PARA CIENTISTAS DE DADOS QUE
PRECISAM DE AGILIDADE NA ANÁLISE DE GRANDES VOLUMES OU FLUXOS DE
DADOS, E QUE NÃO QUEREM PERDER TEMPO COM A INFRAESTRUTURA DE
HARDWARE E SOFTWARE NECESSÁRIA PARA ISSO.
CLOUD CDN (CONTENT DELIVERY NETWORK)
O Cloud CDN é um serviço de entrega de conteúdo: aplicativos, vídeo etc. Normalmente, os pacotes oriundos de um servidor de conteúdo e
que precisam ser entregues em diferentes lugares do mundo viajam longas distâncias, passando por diversas redes públicas, o que
frequentemente causa atrasos e insatisfação.
O Cloud CDN possibilita ao usuário transmitir seu conteúdo pela internet com segurança e rapidez. Em vez de usar redes públicas e
roteamento de pacotes sem prioridade, o cliente conecta o seu servidor de conteúdo diretamente com os servidores do Google na borda da
rede, em localidades próximas dos seus clientes.
O CDN faz uso da rede global do Google de servidores de borda (Google Global Edge), para trazer o conteúdo o mais próximo quanto
possível do seu destino. Além disso, os pacotes que trafegam nesses canais diretos têm prioridade alta e são tarifados por volumes, cerca de
fração de dólar por gigabyte. A solução, portanto, acelera a entrega de conteúdo em nível global.
COMPUTE ENGINE
É o serviço de máquinas virtuais (VMs) da plataforma. Elas podem ser predefinidas ou customizadas.
As primeiras vêm com configurações típicas de memória, cpu etc. O cliente precisa apenas selecionar a imagem e o local em que ela deve
operar e iniciá-la.
Já as máquinas customizadas permitem ao cliente escolher exatamente a configuração que precisa.
As máquinas do tipo E2 são as de melhor custo-desempenho, porque são de uso geral, mas a plataforma oferece também algumas VMs
otimizadas para atender necessidades específicas, como, por exemplo, grande carga de processamento (tipo C2), no caso de jogos e
algoritmos pesados, ou sistemas que requeiram muita memória (M1 e M2), como grandes bases dados ou algoritmos de uso intenso de
memória. Neste último caso, por exemplo, uma única máquina virtual pode conter até 12 TB de memória RAM.
A plataforma ainda permite que dados nas VMs sejam criptografados, por questões de confidencialidade, e oferece um serviço de
recomendação de dimensionamento automático. Assim, a plataforma sugere redução ou expansão dos recursos, de acordo com o uso.
DATA FLOW
Em muitas aplicações empresariais, é preciso lidar com um enorme fluxo de dados produzidos em tempo real, muitas vezes, por fontes
distintas. Isso acontece com redes de IoT (Internet of Things). As empresas precisam não somente armazenar os dados entrantes, mas
também processá-los. Acontece que os dados nem sempre vêm no formato esperado.
O serviço de Data Flow do Google cuida de recebê-los e fazer o processamento necessário para formatá-los ou transformá-los, então
persistidos, para que sejam posteriormente lidos e analisados. Em todo esse processamento intermediário, realizado após a coleta dos dados
e antes da entrega final, eles são organizados em um tipo genérico chamado de PCollection.
O Data Flow permite o encadeamento de transformações em batch (pipeline), modificando os dados passo a passo, e salvando-os sempre
como PCollections, de maneira automática. Esse pipeline pode ser tanto escrito em Java quanto em Python e é chamado de Data Flow Job.
A plataforma permite que o cliente crie diversos pipelines que reutilizam código e são executados paralelamente. Ao final da última
transformação, os dados são armazenados em um Data Sink e podem ser, então, analisados ou usados de qualquer outra forma.
 COMENTÁRIO
É possível também contratar serviços de Análise de Dados do Google para realizar a tarefa.
CLOUD SQL
Cloud SQL é o serviço de banco de dados na nuvem oferecido pela plataforma do Google. Ele é baseado no MySQL, PostgreSQL e SQL
Server.
Através do Console, o cliente pode facilmente instanciar qualquer um dos bancos citados, bem como gerenciar a capacidade de
armazenamento, criar réplicas e realizar backups. É possível automatizar a criação de backup por meio da configuração no Console. O
serviço ainda fornece ferramentas integradas para migração de dados e drivers para conexão. De forma similar às VMs, o cliente, ao
provisionar o banco de dados na nuvem, precisa escolher a regiãoem que ele será hospedado. Isso permite flexibilidade para que o banco
seja posicionado o mais próximo quanto possível dos usuários, reduzindo tempo de acesso. Ainda é possível escolher a quantidade de
memória e a quantidade de CPUs da máquina que servirá o banco, bem como o tipo de disco rígido, se convencional ou SSD (SOLID STATE
DRIVE).
 COMENTÁRIO
A empresa de consultoria Garter posicionou o Google Cloud como líder de sistemas de bancos de dados em nuvem, em 2020.
ANTHOS
É muito difícil para uma grande empresa usar apenas um provedor de serviços de nuvem. A heterogeneidade é comum e aumenta a
complexidade de gerenciamento dos recursos virtuais, bem como riscos associados com permissões de utilização e cotas de uso. Para
mitigar esse problema, o Google oferece o serviço Anthos, que é um sistema de gestão de recursos na nuvem multiplataforma. Com ele é
possível gerenciar a infraestrutura tanto da Google Cloud do cliente, como nuvens privadas e plataformas de nuvens públicas de outros
fabricantes.
O Anthos permite gerenciar clusters Kubernetes, serviços, regras de acesso, alarmes, verificar informações operacionais e automatizar
procedimentos, como o carregamento de aplicações, independentemente da plataforma onde eles estão ativos. O cliente, então, tem a visão
de toda sua infraestrutura em nuvem completa e consolidada em um único sistema, o Anthos, e pode usá-lo para otimizar o uso dos seus
recursos, manualmente. Entretanto, a plataforma também faz recomendações automáticas de otimização sobre o uso dos recursos
instanciados. Ainda é possível estabelecer regras e políticas para diferentes regiões distintas, cruzando diferentes plataformas, basta
organizá-los em grupos lógicos chamados de environs.
O APELO DO SERVIÇO É REDUZIR A COMPLEXIDADE E A QUANTIDADE DE
HORAS NECESSÁRIAS PARA GERENCIAR UM AMBIENTE HETEROGÊNEO,
NECESSITANDO DE MENOS GENTE PARA ISSO.
CLOUD STORAGE
O Cloud Storage é a solução do Google para a gestão de arquivos na nuvem. De fato, o serviço funciona como um servidor de arquivos
hierarquizado.

O cliente pode espelhar a estrutura de projetos da empresa nele.
Cria-se uma organização, que pode representar um departamento ou mesmo toda a empresa.


Os projetos estão subordinados à entidade organização.
Cada projeto é independente e consome seus próprios recursos do Cloud Storage.


Abaixo de cada um deles, estão os buckets, os organizadores lógicos genéricos para os arquivos.
O cliente carrega os arquivos, sejam fotos, vídeos ou relatórios, e os associa com os devidos buckets de acordo com lógica organizacional.

Além dos serviços citados, o módulo chamado de IAM (Identify and Access Management) faz parte do Console. Ele é responsável pelas
regras de segurança, autorização e identificação de acesso para a plataforma. A partir dele, o usuário administrador pode adicionar e criar
perfis de usuários para interagir com recursos específicos: podem ser segmentados por times, departamentos, áreas da empresa, e cada
equipe tem visibilidade apenas dos seus recursos.
Também é possível estabelecer cotas de utilização, para evitar que o orçamento seja consumido de forma desigual entre os times.
O CONSOLE PODE SER ACESSADO DE DIVERSAS FORMAS, SENDO O
COMPUTADOR PESSOAL A MAIS USADA.
Entretanto, o Google disponibiliza aplicativos para smartphones que rodam tanto iOS como Android, e que funcionam como clientes leves
para o Google Cloud, permitindo ao cliente monitorar recursos e usuários da mesma maneira, em um computador de mesa ou notebook.
Outro recurso interessante da plataforma é o marketplace, em que é possível encontrar fornecedores que customizaram ou desenvolveram
soluções diversas, desde aprendizado de máquina, até migração de dados ou pacotes de aplicativos. A maioria dos produtos listados é
vendida, mas é possível encontrar muitos gratuitos.
AWS CLOUD
AWS é a plataforma de nuvem da Amazon. Ele funciona de forma semelhante ao Google Cloud. É preciso criar uma conta que dará acesso a
interface do usuário. Atualmente, a AWS conta com diversos data centers espalhados pelo mundo, organizados em 25 regiões geográficas,
subdivididas em 80 zonas de disponibilidade. Devido a essa capilaridade, a empresa promete oferecer a menor latência entre as
concorrentes: abaixo de dez milissegundos.
A partir do Console, é possível instanciar e configurar recursos, bem como contratar serviços. São mais de 200, que rivalizam com o Google
Cloud.
Os serviços são organizados em categorias, como Análise, Computação, Bancos de Dados, Blockchain, Robótica, Satélite, Game Tech,
Armazenamento, Tecnologias Quânticas, Serviços de Mídia, entre outras.
Alguns dos serviços mais populares são:
AMAZON S3 (AMAZON SIMPLE STORAGE SERVICE)
Ele consiste num serviço de armazenamento de dados para Big Data. O cliente então pode carregar e recuperar massas de dados muito
grande, até 5 terabytes, bem como gerenciar acessos e permissões. O serviço S3 é para dados que precisam ser acessados frequentemente.
AWS LAMBDA
O serviço AWS Lambda permite ao cliente carregar funções na nuvem e executá-las de forma transparente, sem a necessidade de configurar
um servidor. Ele é escalável e bastante flexível. O serviço faz o dimensionamento automático, de acordo com a carga de trabalho.
AMAZON GLACIER
Além do S3, a Amazon oferece um serviço de armazenamento de longo prazo que custa apenas um dólar por terabyte por mês, porém, cobra
pelo tempo de acesso aos dados. Além disso, o serviço garante uma taxa de durabilidade de 99.99%, porque persiste os dados de forma
redundante, em diversos discos localmente, mas também em diferentes data centers, implementando proteção contra desastres de forma
transparente para o cliente.
 ATENÇÃO
Diferentemente do S3, o Glacier deve ser usado para guardar grandes quantidades de dados por longos períodos, sem que haja a
necessidade de consultá-los frequentemente.
AMAZON EC2
A empresa disponibiliza serviços computacionais através do Amazon EC2. No portal, o cliente pode instanciar diversos tipos de máquinas
virtuais, escolhendo desde o processador (capacidade de processamento), sistema operacional memória e disco. O serviço é extremamente
seguro, flexível e escalável, permitindo melhorias (upgrades) e rebaixamentos (downgrades) nas máquinas contratadas. A empresa alega ter
cerca de 400 tipos de instâncias diferentes, suportando inclusive macOS e provê um SLA de 99.99% de disponibilidade.
Além dos diversos serviços, e similarmente ao Google Cloud, a plataforma AWS também oferece um marketplace, em que diversos
fornecedores parceiros oferecem suas soluções aos clientes da plataforma. As soluções podem ser do tipo SaaS e API. O cliente pode
escolher pagar mensalmente, conforme o uso, ou pagar pela previsão de uso nos próximos anos, até três anos.
 COMENTÁRIO
Uma vez que o cliente compra o que deseja, a entrega tanto pode ser feita pela Amazon, pelo marketplace, ou diretamente pelo fornecedor.
IBM CLOUD
IBM Cloud é uma plataforma de computação em nuvem de propriedade da empresa de mesmo nome, que implementa serviços baseados na
nuvem. Ela oferece tanto nuvem pública como híbrida e suporta gerenciamento multicloud.
Similarmente ao Google Cloud e ao Amazon AWS, ela tem presença global com vários data centers posicionados em regiões distintas. A IBM
Cloud oferece serviços de infraestrutura (IaaS) e de plataforma (PaaS) para pequenas, médias e grandes empresas. Entre eles, destacamos
servidores virtuais (VMs) e físicos (nuvem híbrida), Containers etc.
Todos os recursos podem ser gerenciados através do IBM Cloud Console, inclusive a segurança do ambiente, usando-se controles para
gerenciamento de acesso e de identidade.
O catálogo de produtos oferecidos pela plataforma é bem menor do que o das duas anteriormente vistas, mas possui pontos de diferenciação
que podem justificar sua escolha, como, por exemplo, o sistema de inteligência artificial Watson. Além disso, grandes empresas, por causa do
porte, podem barganhartermos melhores junto à IBM, fazendo contratos customizados. Entretanto, isso não é possível no AWS, nem na
Google Cloud.
Os seguintes grupos de serviços estão disponíveis através do Console: Compute, Blockchain, Databases, Containers, Developer Tools, AI e
Machine Learning, Mobile, Integration, Internet of Things, entre outros. Alguns são muito parecidos com os de suas concorrentes.
COMPUTE
Serviço de recursos computacionais, em que tanto máquinas virtuais como servidores bare metal podem ser configurados e instanciados.
BLOCKCHAIN
O serviço de Blockchain da IBM Cloud permite ao cliente criar uma rede descentralizada baseada na tecnologia de mesmo nome. Ela
disponibiliza também a tecnologia Hyperledger Fabric, desenvolvida em consórcio com outras empresas. Essa tecnologia permite incorporar
componentes de Blockchain, como o mecanismo de consenso, a outras aplicações rapidamente, de forma plug and play.
DATABASES
É o serviço de banco de dados em nuvem da IBM. A plataforma disponibiliza bases de dados relacionais como MySQL e PostgreSQL, bem
como bases não relacionais (NoSQL), como MongoDB e Apache CouchDB.
CONTAINERS
O serviço de Containers da IBM Cloud é baseado no Kubernetes. Através do Console, o cliente pode automatizar a criação de clusters
Kubernetes, bem como isolar e monitorar aplicações em Containers.
DEVELOPER TOOLS
A plataforma da IBM disponibiliza diversas ferramentas para que o cliente interaja com as aplicações e as faça evoluir. Uma delas é o IBM
Cloud CLI (Command Line Interface), que permite a criação de scripts automáticos capazes de realizar diversas tarefas, como a instanciação
automática de recursos na nuvem.
AI E MACHINE LEARNING
Uma das aplicações mais conhecidas de IA da IBM é o serviço IBM Watson Machine Learning. O cliente pode carregar modelos de
aprendizado de máquina e inteligência artificial para operar sobre os dados carregados na nuvem.
MOBILE
O serviço Mobile permite que o cliente desenvolva e gerencie aplicativos para plataformas móveis. Para isso, a plataforma oferece diversas
SDKs completamente integradas ao ambiente na nuvem. O Mobile Developer Console é a interface que ajuda o cliente a desenvolver e
instanciar seus aplicativos para plataformas móveis.
INTEGRATION
Hoje em dia, mais do que nunca, as empresas empreendem esforços para conectar sistemas. Integração de sistemas, portanto, tem um
papel bastante relevante na modernização de ambientes sistêmicos. A IBM Cloud oferece diversos serviços de integração para seus clientes.
O IBM Cloud Park é um deles. A empresa alega que usando o sistema, a velocidade do desenvolvimento pode aumentar em até 300%.
INTERNET OF THINGS
O serviço de IoT da IBM permite ao cliente conectar milhares ou até mesmo milhões de dispositivos de forma prática e rápida. Além disso,
através do Console, o usuário pode gerenciá-los, e através das APIs conectar com dispositivos para fazer atualizações ou configurações em
lote.
AS PLATAFORMAS DE COMPUTAÇÃO EM NUVEM PARA IOT
Assista ao vídeo e aprofunde o seu conhecimento sobre as três plataformas de computação em nuvem para IoT.
VERIFICANDO O APRENDIZADO
MÓDULO 2
 Descrever os conceitos de Big Data e Analytics aplicados no contexto de computação em nuvem
O QUE É INDÚSTRIA 4.0
A quarta revolução industrial ou, como é mais popularmente chamada, a indústria 4.0 é o resultado da evolução e dos melhoramentos dos
processos de manufatura nas três gerações anteriores (a primeira revolução ocorreu após o advento de ferrovias e máquinas a vapor); agora,
a indústria 4.0 vem sendo enriquecida com a convergência das tecnologias de aprendizado de máquina (Machine Learning), Inteligência
Artificial, Analytics, internet das coisas (IoT) e virtualização (Cloud).
 COMENTÁRIO
Isso só é possível porque na etapa anterior, iniciada na década de 1960, empresas e processos fabris adotaram a tecnologia de informação e
posteriormente transformaram-se digitalmente (revolução digital): foram automatizados (robotizados), interconectados, conectados à internet
e passaram a produzir dados digitais. Muitos autores afirmam também que está havendo uma conexão entre o mundo físico e o biológico.
ASSIM COMO SUAS ANTECESSORAS, O OBJETIVO DA INDÚSTRIA 4.0 TAMBÉM É
TORNAR OS PROCESSOS DE FABRICAÇÃO MAIS EFICIENTES E PRODUTIVOS,
AGILIZANDO-OS, REDUZINDO CUSTOS E INEFICIÊNCIAS.
Entretanto, a novidade é que a quarta revolução industrial quer tornar os processos fabris inteligentes e até certa medida, autônomos,
descentralizados e virtualizados. Além disso, há diversas externalidades positivas.
A revolução vigente é bastante diferente de suas predecessoras em outros aspectos. Tome-se, por exemplo, o perfil médio do trabalhador de
chão de fábrica. Ele está mudando. Via de regra, a atividade fabril é intensa em mão de obra e esse trabalhador é remunerado minimamente.
Há, inclusive, o uso de mão de obra infantil em países subdesenvolvidos. Entretanto, automação, analytics, uso intensivo de sistemas em
nuvem, sensores dos mais diversos e aplicação de IA estão reduzindo a necessidade desses trabalhadores menos capacitados e
demandando profissionais mais qualificados: engenheiros de sistemas, programadores e cientistas de dados, que são mais bem
remunerados.
O contraste existe também quanto ao impacto no meio ambiente. Equipamentos, sensores e materiais que consomem cada vez menos
eletricidade estão ajudando a viabilizar o uso de energia renováveis, reduzindo o uso de combustíveis fósseis e, consequentemente, poluindo
e degradando menos o ambiente.
A MUDANÇA DE PARADIGMA CONSISTE, PORTANTO, EM TORNAR AS FÁBRICAS
INTELIGENTES.
Para isso, é preciso mudar os processos vigentes. Note que a transformação digital produziu e tornou disponível dados de toda a cadeia de
produção incluindo logística.
Engenheiros e analistas cuidavam de armazenar os dados em bancos ou arquivos, formatá-los, para depois analisá-los aplicando técnicas e
ferramentas de BI (Business Intelligence) para extrair significado.

Agora, nas fábricas inteligentes, os dados são processados em tempo real.
A sociedade já começa a perceber os resultados da quarta onda da revolução industrial. Os veículos autônomos são os exemplos mais
emblemáticos. Carros conscientes do seu entorno e capazes de navegar de forma autônoma em vias públicas já estão nas ruas. Alguns
modelos do fabricante de automotores Tesla já são comercializados com computadores de bordo, que permitem ao motorista largar o volante
e apenas desfrutar o passeio.
Veículos aéreos autônomos vêm sendo largamente usados, seja na agricultura para monitoramento de plantações ou de gado, seja na
indústria de defesa: diversos países empregam drones munidos de câmeras especiais, sensores infravermelhos e toda uma parafernália que
os torna capazes de coletar informações estratégicas do campo de batalha e realizar monitoramento de tropas e pessoal.
Atualmente, os Estados Unidos vivem uma escassez de motoristas de caminhão. Em resposta, diversas empresas já estão trabalhando para
viabilizar caminhões ou comboios de caminhões autônomos para transporte de carga interestadual. Até o momento, legislação,
regulamentação e outros aspectos legais e jurídicos têm limitado a difusão de veículos autônomos mais do que a tecnologia existente.
Para ilustrar bem essa junção de produtos existentes com as novas tecnologias 4.0, voltemos aos carros autônomos. Cada veículo consiste
em um enorme conjunto de sensores inteligentes e modernos capazes de fornecer um volume sem precedentes de dados, por segundo.
Imagine um carro que se move numa pista de alta velocidade.
Parte do processamento dos dados coletados do ambiente é feito pelo computador do automóvel, mas muito da computação precisa ser
realizada em computadores remotos. Os dados são, então, enviados pela internet para servidores na borda da rede de telecomunicações que
estejam o mais próximo quanto possível do automóvel. Neles, diversas funções virtuais hospedadas em máquinas também virtuais sãoalocadas para processar o fluxo de dados entrante e retornar para o veículo.
É tudo muito dinâmico, porque o carro está em movimento, trocando de antenas o tempo todo, e pode, inclusive, acessar diferentes
servidores. A rede de telecomunicações, portanto, precisa proporcionar altas velocidades de transmissão e ter baixa latência para permitir que
essa troca de informações seja quase em tempo real.
Por isso, a rede 5G é tão esperada, pois ela viabilizará diversos produtos da indústria 4.0.
É verdade que ver carros movendo-se sem intervenção humana impressiona, mas eles são uma fração da mudança que está começando. A
quarta revolução industrial afetará de forma disruptiva diversas indústrias, não apenas a automotiva, mas a de transporte, de aço, a naval,
têxtil, de segurança, defesa, mineração e a agricultura. Todas elas apostam em mudanças radicais no modo de operar seus processos
industriais.
BIG DATA
Big Data é um dos pilares da indústria 4.0. Conceitualmente, consiste em enormes quantidades de todo tipo de dado, estruturados ou não.
É um volume tão grande, que pode superar dezenas de exabytes e requer técnicas especiais de gerenciamento, não apenas pelo seu
tamanho, mas também pela complexidade. Tudo fica mais complicado, desde o armazenamento, processamento, a análise, e sobretudo, a
transferência e a visualização deles.
OFICIALMENTE, O VOLUME DE DADOS PASSA A SER BIG DATA QUANDO AS
CARACTERÍSTICAS DOS DADOS IMPEDEM QUE SEJAM USADOS OS MÉTODOS
CONVENCIONAIS PARA GERENCIÁ-LOS, E ANALISÁ-LOS.
Um exemplo típico é trocar bancos de dados relacionais por NoSQL (não relacionais).
Além disso, alguns autores falam em 5 Vs (vês) do Big Data, que seriam as características básicas:
Valor.
Variedade.
Volume.
Velocidade.
Veracidade.
 ATENÇÃO
É importante mencionar os cuidados que a indústria 4.0 precisa ter quanto à privacidade e a proteção desses dados.
No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD), normatiza o tratamento que os dados privados devem receber para
preservar os direitos fundamentais das pessoas e empresas. Ela é válida para todo o território nacional e foi sancionada em agosto de 2018.
Um dos pontos mais importantes da lei é que ela define o que são dados pessoais e estabelece outros princípios, como o da necessidade do
consentimento do cidadão, da finalidade e da necessidade para coleta do dado, da responsabilidade de fiscalização, e as penalidades que
devem incorrer sobre quem não respeitar a lei.
 COMENTÁRIO
O Big Data na quarta revolução industrial começa com a necessidade de gerir, proteger e extrair valor dessa enorme quantidade de
informação, mas também, e sobretudo, fazê-lo de forma eficiente.
As empresas que se transformaram digitalmente em anos recentes e mesmo as que nasceram digitais, precisaram contratar pessoal,
desenvolver políticas, práticas e processos para gerenciar a grande quantidade de informação produzida diariamente e que está
geograficamente dispersa.
Os dados são oriundos das mais diversas fontes:
Dados de telemetria enviados por sensores e equipamentos sofisticados aplicados diretamente ou que suportam indiretamente a linha de
produção e que são consolidados em sistema de controle industriais em larga escala (SCADA, DCS, PLC).
Fluxos de dados provenientes dos sensores de milhares de dispositivos de IoT.
Registros das interações de usuários com os portais ou canais de atendimento da empresa, perfis sociais, ordens de compra, devoluções,
controle de estoque, logística, comentários em redes sociais, transações, avaliações de produtos, dados históricos e mineração de dados
brutos da internet.
Esse novo cenário tecnológico vem apresentando novos desafios às empresas que começaram a usar tecnologias e processos da indústria
4.0. Não é raro que grandes companhias tenham operações em diversos países.
Uma das gigantes de vendas no varejo por internet no mundo opera cerca de dez data centers (DC) próprios, geograficamente dispersos com
milhares de computadores físicos e máquinas virtuais.
Com a migração para nuvem, os DCs passaram a responder por todo o poder computacional da empresa e cresceram enormemente. Em
cada um deles, milhares de operações em batch são executadas diariamente, e muitos processos acessam dados de outros DCs. Isso
porque sistemas de gestão empresariais, logística, vendas, CRM e principalmente analytics precisam cada vez mais cruzar e consolidar
dados.
O crescimento desse acesso cruzado vem consumindo cada vez mais banda da rede WAN que os conecta. Isso tem elevado sobremaneira
os custos de operação, não somente da empresa, mas de muitas outras que operam data centers geograficamente muito distantes.
Para mitigar esse problema, muitas vêm desenvolvendo e aplicando técnicas modernas de realocação e replicação de dados e processos, de
acordo com critérios que visam otimizar o desempenho e reduzir o uso de banda da rede WAN. Ainda, é preciso que qualquer solução
adotada para esse fim permita a empresa escalar e manter níveis baixos de interdependência entre processos.
Outro problema típico é a dificuldade de sincronização de dados entre DCs para suportar alta disponibilidade: HA (High Availability). Um
ambiente sistêmico virtual contendo aplicações empresariais disponíveis para milhares ou milhões de usuários possui de centenas a milhares
de máquinas virtuais, trabalhando de forma coordenada.
Algumas máquinas virtuais são responsáveis pelo payload: sistema que é o motivo da arquitetura existir.
Outras máquinas virtuais cumprem as mais diversas funções, como: hospedar bases de dados, logs, backups locais, perfis de configuração,
balanceamento de carga etc.
O ambiente é clusterizado e replicado em pelo menos outro DC geograficamente distante, para servir de salvaguarda para uma situação de
catástrofe. Tem-se, então, o cluster principal e o de stand by. Em caso de uma falha grave do cluster principal, é preciso reverter toda
operação de forma transparente ao usuário final para o ambiente de modo de espera. Isso implica a sincronização de centenas de bases de
dados e a transmissão de centenas de terabytes de informação, não apenas das transações vigentes, mas as configurações das máquinas
virtuais e os estados em que elas se encontram.
 COMENTÁRIO
Obviamente que ambos os ambientes precisam ser sincronizados regularmente porque ambos os ambientes precisam estar consistentes,
mas o volume de dados cada vez maior tem demandado janelas de operação também cada vez mais longas. As empresas vêm batalhando
para reduzir esse tempo.
Diversas soluções estão sendo usadas, mas a mais promissora delas é a tecnologia Software Defined Wide Area Network (SDWAN). Ela
permite que se estabeleça um path temporário de alta velocidade para transmissão dos dados, viabilizando, portanto, a sincronização entre
clusters.
ANALYTICS
A moderna análise de dados na indústria 4.0 começou com a enxurrada de dados produzidos em todos as etapas da operação da empresa,
desde a compra de insumos, passando pela fabricação ou transformação do produto até sua venda e a interação dos clientes com os portais
e canais de atendimento da empresa.
O fato é que a introdução maciça de sensores no chão de fábrica e até mesmo máquinas autônomas e dispositivos de IoT começou a
produzir um gigantesco volume de dados.
Acontece que os dados brutos precisam ser tratados, transformados, categorizados e persistidos em uma base de Big Data para eliminar
qualquer tipo de inconsistência ou ruído antes de serem analisados, muitas vezes em tempo real. Entretanto, devido ao volume, essa tarefa é
impossível de ser feita manualmente.
A ANÁLISE DE DADOS VEM DESEMPENHANDO UM PAPEL IMPORTANTE NA
INDÚSTRIA 4.0, POIS POSSIBILITA QUE AS EMPRESAS SEJAM MAIS EFICIENTES
AO SUBMETER OS DADOS ANALISADOS A DIVERSOS TIPOS DE ALGORITMOS.
Muitas empresas estão usando modelos de Inteligência Artificial ou de Machine Learning para extrair significado deles, encontrar padrões de
comportamento, fazer predições, classificações e até sugerirprodutos e serviços para seus clientes.
 EXEMPLO
Empresas que operam frotas de veículos ou grande parque de máquinas estão usando os dados coletados da maquinaria para antecipar
falhas e tornar a manutenção preventiva mais eficiente, além de prever quando uma máquina vai falhar.
Todavia, a análise de dados não é uma tarefa fácil, tampouco simples. Ela envolve a coleta e a transformação de grandes quantidades de
dados, além do uso de algoritmos e sistemas avançados. É uma tarefa bastante complexa.
As empresas vêm usando plataformas em nuvem para hospedar e analisar os dados, porque é muito rápido e barato organizar a
infraestrutura.
Além disso, não são necessários grandes investimentos iniciais.
Existem basicamente quatro tipos de análises de dados que podem ser executadas no contexto da indústria 4.0, dependendo do tipo e da
quantidade de dados disponíveis.
ANÁLISE DESCRITIVA
Ela consolida os dados e informa o que está acontecendo na operação, sempre usando os dados mais recentes e, muitas vezes, em tempo
real. Também é possível usar o histórico de dados para revelar tendencias e tipificar cenários evolutivos. A visualização dos dados aqui é
extremamente importante.
ANÁLISE PREDITIVA
A análise preditiva requer que os especialistas da empresa treinem modelos matemáticos capazes de simular comportamentos futuros
baseados no histórico de dados. Aqui, frequentemente, a figura de um cientista de dados é necessária para os casos mais complexos, visto a
dificuldade do tema. O modelo matemático, quando bem treinado e isento de overfitting, pode revelar padrões e comportamentos
extremamente relevantes sobre o futuro da operação da companhia.
ANÁLISE PRESCRITIVA
Muitas empresas implementaram assistência automática para prescrição de melhores práticas ou ajustes para tornar a operação mais
eficientes. Novamente aqui, modelos matemáticos são treinados para que o sistema que opera sobre os dados consiga identificar as
javascript:void(0)
ineficiências da empresa e fazer recomendações de ajustes operacionais.
ANÁLISE DIAGNÓSTICA
A análise diagnóstica é empregada para identificar a causa de problemas e falhas. Comumente chamada de diagnóstico de causa-raiz (root
cause), é um dos tipos mais complexos, porque requer que o problema seja completamente esmiuçado. Um cenário típico é o de cientistas
de dados analisando séries temporais sobre a operação da empresa.
Concluindo, e a despeito da análise que venha a ser empregada, as empresas já notaram que analisar os dados significa aumentar a
produtividade e a receita, seja pela economia de custos operacionais, identificação de pontos de ineficiência ou falhas, redução de acidentes,
otimização de processos ou pelo aumento das vendas. De fato, empresas em quase todos os segmentos da indústria, turismo, logística,
saúde etc. estão usando análise de dados para suportar tomada de decisões estratégicas.
OVERFITTING
Overfitting ocorre quando o modelo se adaptou muito bem aos dados com os quais está sendo treinado; porém, não generaliza bem para
novos dados. Ou seja, o modelo decorou o conjunto de dados de treino, mas não aprendeu de fato o que diferencia aqueles dados para
quando precisar enfrentar novos testes.
BIG DATA E ANALYTICS NA INDÚSTRIA 4.0
Não deixe de assistir sobre o papel do Big Data e Analytics na indústria 4.0.
VERIFICANDO O APRENDIZADO
CONCLUSÃO
CONSIDERAÇÕES FINAIS
A computação em nuvem é uma realidade consolidada e muitas empresas já moveram seus ambientes sistêmicos de TI para algumas das
plataformas baseadas em nuvens existentes no mercado. No que tange à tecnologia IoT, devido ao volume de dados transmitidos e a
quantidade de dispositivos conectados, usar as plataformas baseadas em nuvem é fundamental para reduzir tanto custos de operação
quanto a complexidade de gestão da rede.
No primeiro módulo, apresentamos os conceitos básicos de computação na nuvem, bem como as vantagens que justificam sua adoção.
Falamos também de três plataformas bastante utilizadas no mercado, identificamos os principais serviços disponíveis e explicamos como
usar a documentação disponibilizada pelo fabricante para entender melhor o seu funcionamento.
Finalmente, no último módulo, analisamos o conceito de indústria 4.0, bem como as principais tecnologias que o suportam. Compreendemos
o conceito de Big Data e como a análise de dados (analytics) está presente nas empresas 4.0 e seus principais tipos.
 PODCAST
Para finalizar, ouça um resumo sobre a importância do uso das plataformas de computação em nuvem, o papel da tecnologia e Big Data na
indústria 4.0.
AVALIAÇÃO DO TEMA:
REFERÊNCIAS
IBM. What is the IBM Cloud platform? IBM, 19 maio 2021.
LIN, S. W.; MURPHY, B.; CLAUER, E.; LOEWEN, U.; NEUBERT, R.; BACHMANN, G.; PAI, M.; HANKEL, M. Architecture Alignment and
Interoperability. An Industrial Internet Consortium and Plattform Industrie 4.0 Joint Whitepaper. The Industrial Internet Consortium, 5 fev.
2017.
MELL, P.; GRANCE, T. The NIST Definition of Cloud Computing. Recommendations of the National Institute of Standards and Technology.
Gaithersburg: NIST, set. 2011.
WATTS, S.; RAZA, M. SaaS vs PaaS vs IaaS: What’s the Difference & How To Choose. Irvine: BMC, 15 jun. 2019.
EXPLORE+
Acesse o site das plataformas de computação em nuvem Amazon AWS, IBM Cloud e Google Cloud e verifique as características dos serviços
que são oferecidos por cada um.
CONTEUDISTA
Michel Souza Medeiros
 CURRÍCULO LATTES
javascript:void(0);
javascript:void(0);

Mais conteúdos dessa disciplina