Prévia do material em texto
Inteligência Artificial no Contexto do Serviço Público Contextualização e conceitos sobre inteligência artificial (IA)1 M ód ul o 2Enap Fundação Escola Nacional de Administração Pública Enap, 2020 Enap Escola Nacional de Administração Pública Diretoria de Educação Continuada SAIS - Área 2-A - 70610-900 — Brasília, DF Fundação Escola Nacional de Administração Pública Presidente Diogo Godinho Ramos Costa Diretor de Educação Continuada Paulo Marques Coordenador-Geral de Educação a Distância Carlos Eduardo dos Santos Conteudista/s Fábio dos Santos Barbosa (Conteudista, 2020). Equipe responsável: Danielle Alves de Oliveira Tabosa (Implementadora Moodle, 2020) Fabiany Glaura Barbosa (Coordenadora de Desenvolvimento, 2020). Ivan Lucas Alves Oliveira (Coordenação de Produção Web). Isaac Silva Martins (Implementador Moodle, 2020). Israel Silvino Batista Neto (Direção e Produção Gráfica, 2020). Sanny Caroline Saraiva (Produção Gráfica, 2020). Vanessa, Mubarak Albim (Diagramação, 2020). Curso produzido em Brasília 2020. Desenvolvimento do curso realizado no âmbito do acordo de Cooperação Técnica FUB / CDT / Laboratório Latitude e Enap. 3Enap Fundação Escola Nacional de Administração Pública Unidade 1 - Contextualização da inteligência artificial nas organizações públicas ............................................................................................ 5 1.1 O que é IA .........................................................................................................5 1.2. A história da IA e porque ela é uma das principais tecnologias atuais ...........6 1.3. IA e a ciência de dados ....................................................................................8 1.4. IA nas organizações públicas ..........................................................................9 Unidade 2 - Conceitos principais referentes à inteligência artificial ... 9 2.1. Aprendizagem de máquina (machine learning) ..............................................9 2.2. Redes neurais e deep learning ......................................................................14 2.3. Processamento de Linguagem Natural ..........................................................16 2.4. Visão computacional .....................................................................................19 2.5. Internet das coisas (IoT) ................................................................................22 Referências ..................................................................................... 24 Sumário 4Enap Fundação Escola Nacional de Administração Pública 5Enap Fundação Escola Nacional de Administração Pública Unidade 1 - Contextualização da inteligência artificial nas organizações públicas Ao final desta unidade, você deverá ser capaz de reconhecer a importância da inteligência artificial nas organizações públicas. 1.1 O que é IA A inteligência artificial, também conhecida pelas siglas IA (em português) e AI (em inglês), é um campo de estudo que busca formas para softwares desempenharem tarefas simples para seres humanos, mas complexas para uma máquina. Vamos analisar melhor essa definição? O primeiro ponto importante define a IA como um campo de estudo. Isso significa que é uma área ampla, englobando várias outras ciências, como estatística, matemática e computação. O senso comum tende a definir a IA como uma técnica ou ferramenta por si só, sendo bastante usual encontrar notícias para o grande público utilizando definições imprecisas do termo, como algo do tipo: “A empresa XYZ acaba de anunciar a nova versão do carro ABC, que anda sozinho utilizando inteligência artificial”. Não podemos culpar a imprensa pelo uso impreciso de termos técnicos, pois eles precisam deixar a informação mais palatável para o grande público. O segundo, e mais importante, ponto da definição de IA indica que a finalidade desse campo de estudo é a realização de tarefas complexas para computadores, mas simples para seres humanos. Provavelmente você não tem dificuldade em diferenciar um gato de um cachorro, correto? Analisando as imagens a seguir, é possível perceber que são animais completamente diferentes. M ód ul o Contextualização e conceitos sobre inteligência artificial (IA)1 6Enap Fundação Escola Nacional de Administração Pública Agora, tente explicar para uma pessoa que não conhece um gato como ele é. Qualquer referência óbvia, tal como quatro patas, duas orelhas, dois olhos, um focinho, uma boca ou peludo, poderá fazer com que a pessoa pense que se trata de um cachorro. Da mesma forma, seria extremamente complexo criar um programa de computador que fizesse tal distinção baseado apenas em informações estruturadas, tais como quantidade de membros, formato ou cor. Esse exemplo descreve um problema de classificação muito simples para humanos, mas complexo para máquinas, que são objeto de estudo pela ciência da inteligência artificial. O exemplo com animais é apenas para ilustrar a dificuldade do problema apresentado, mas observe que a mesma lógica é válida, por exemplo, para a classificação de documentos digitalizados em um tribunal. Problemas de classificação são apenas uma das múltiplas aplicabilidades de técnicas de inteligência artificial. Outros exemplos de funcionalidades bastante utilizados atualmente são o processamento de linguagem natural, a interpretação de fala e a visão computacional. 1.2. A história da IA e porque ela é uma das principais tecnologias atuais A história da inteligência artificial teve início antes mesmo da criação dos primeiros computadores, com filmes como O Mágico de Oz, de 1939, e Metrópolis, de 1927, trazendo personagens humanoides. Confira um trecho do filme de ficção científica Metrópolis, de 1927, no qual é retratada a criação de Maschinenmensch (máquina humana, em tradução livre do alemão) por meio de um experimento científico: 7Enap Fundação Escola Nacional de Administração Pública Link do video: https://www.youtube.com/watch?v=IcReykfvqi4 Na década de 50, tínhamos uma geração de cientistas, matemáticos e filósofos que cresceram influenciados pela cultura da ficção científica e começaram a estudar o tema. Entre os estudos da época, destaca-se o artigo Computing Machinery and Intelligence, publicado por Alan Turing, que discutia como construir máquinas e testar sua inteligência. Tal artigo foi responsável por introduzir o famoso Teste de Turing, o qual, em resumo, verifica a possibilidade de uma máquina se passar por um ser humano sem que este consiga perceber. Saiba mais O Teste de Turing é questionado por alguns estudos, pois entendem que uma máquina ser capaz de dar respostas corretas não implica que ela consiga pensar. Um exemplo desses estudos é o denominado experimento da sala chinesa. Uma pessoa trancada em uma sala recebe anotações em chinês. Tal pessoa, munida de dicionários, seria capaz de responder corretamente às anotações, mas ainda assim não compreenderia o idioma. Conheça mais sobre a vida e as contribuições do cientista Alan Turing, acessando a página dedicada a ele na Wikipédia. Ainda na década de 50, John McCarthy e Marvin Minsky organizaram a conferência Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI). Nesse evento, foi apresentado o Logic Theorist, primeiro programa desenvolvido para simular ações humanas na resolução de problemas, cunhando o termo inteligência artificial. As duas décadas seguintes foram de altos e baixos para a IA. Por um lado, havia um interesse enorme de governos e grandes corporações para utilização da tecnologia em atividades como a tradução de línguas estrangeiras e processamento de grande quantidade de dados. Por outro, os altos custos de recursos computacionais na época, combinados com a precariedade dos computadores até então, dificultavam os avanços esperados. Na década de 80, tivemos a adoção do conceito de sistemas especialistas, que consistiam em dois componentes: uma base de conhecimento formadaa partir da opinião de especialistas e um sistema de inferência, que tentava buscar respostas a partir da base de conhecimento. A ideia por trás do sistema especialista era permitir que um leigo conseguisse chegar às mesmas conclusões de um especialista no assunto, usando a ferramenta como apoio. Esses sistemas foram amplamente adotados no período, contando, inclusive, com pesados investimentos governamentais para o desenvolvimento da tecnologia. Fechando nosso ciclo histórico, tivemos dois fatores muito importantes para a consolidação da IA na década de 90. O primeiro foi a redução do custo de equipamentos de informática, tornando-os itens comuns até mesmo em residências. O segundo foi o avanço da capacidade 8Enap Fundação Escola Nacional de Administração Pública de processamento dos computadores. Tivemos o marco do computador Deep Blue, da IBM, vencendo o campeão mundial de xadrez Gary Kasparov em 1997. Atualmente, produzimos um volume cada vez maior de dados e tal produção não se limita a documentos de escritório, páginas da web ou arquivos multimídia, como fotos ou vídeos. A popularização de sensores conectados, conhecidos pelo termo internet das coisas (IoT), ampliou de forma exponencial a produção de dados por pessoas comuns. Para se ter uma ideia, apenas na cidade de São Paulo, a empresa responsável pelo aplicativo de navegação Waze afirmou rotear 400 milhões de quilômetros por mês. Qualquer pessoa utilizando um smartphone com as configurações de fábrica consegue saber exatamente onde estava em qualquer dia e horário, mesmo muitos anos atrás, variando apenas a quantidade de dados disponíveis, a depender da fabricante. Esse gigantesco volume de dados é conhecido pelo termo big data. Tais dados, seja pelo seu volume, seja pelo formato não estruturado ou ao menos não estruturado de uma forma interoperável, requerem sistemas de informação especializados para tratamento. Sistemas criados utilizando técnicas de IA conseguem fazer uso desses dados de maneira bastante efetiva, permitindo a realização em larga escala de atividades, tais como identificação de fraudes, roteamento de tráfego, monitoramento do meio ambiente, entre outras. Saiba mais O YouTube produziu uma série documental denominada The Age of A.I. (A Era da Inteligência Artificial, em tradução livre para o português), que discute os usos mais recentes de técnicas de inteligência artificial. Há disponibilidade de legendas em português. Para conferir, link dos videos: https://www.youtube. com/playlist?list=PLjq6DwYksrzz_fsWIpPcf6V7p2RNAneKc 1.3. IA e a ciência de dados No tópico anterior, comentamos sobre a quantidade de dados que estamos gerando a todo momento e que tal volume é muitas vezes referenciado como big data. A ciência de dados busca extrair informações do big data combinando métodos matemáticos, estatísticos e algoritmos computacionais. A ciência de dados é um grande “guarda-chuva” que engloba técnicas como mineração de dados, visualização de dados, análise de dados e aprendizagem de máquina (este mais conhecido pelo termo em inglês machine learning). A combinação dos diferentes elementos da ciência de dados permite a construção de algoritmos que cheguem a um resultado esperado sem que seja necessário programar explicitamente tal resultado. A ciência de dados engloba tarefas como capturar, limpar e tratar os dados que serão objeto de análise. Caso esses dados sejam ruins, o resultado será ruim. Cabe ao cientista de dados verificar 9Enap Fundação Escola Nacional de Administração Pública se as amostras de treino dos algoritmos são suficientemente variadas a fim de que o programa tenha um volume de informação satisfatório para a geração do modelo. Vamos a um exemplo: Um sistema foi criado para analisar, em tempo real, imagens capturadas por câmeras instaladas em viaturas de polícia, com o objetivo de avisar os policiais sobre automóveis com boletins de ocorrência em aberto. Para funcionar, tal sistema precisa realizar duas tarefas: 1. Identificar placas de veículos em uma imagem. 2. Verificar se a placa consta de um banco de dados e, em caso positivo, emitir o alerta. Caso o algoritmo para identificação do automóvel tenha sido treinado apenas com as placas de fundo cinza, por exemplo, ele pode não reconhecer a placa de um automóvel de colecionador, que possui fundo preto. Aqui se destaca a importância do cientista de dados: com o objetivo de buscar, inicialmente, uma massa de dados suficientemente heterogênea para a geração de um modelo abrangente e, posteriormente, a recalibragem do modelo, o cientista de dados pode observar os resultados gerados pelo algoritmo e retroalimentá-lo, indicando os erros e acertos. No nosso exemplo, ao informar que uma placa de fundo preto também é uma placa, o modelo seria recalibrado e passaria a reconhecer tal tipo de objeto também. 1.4. IA nas organizações públicas No vídeo a seguir, Fabio dos Santos Barbosa, auditor federal de finanças e controle da Secretaria do Tesouro Nacional, aborda o tema inteligência artificial e contextualiza a sua utilização em organizações públicas: Link do video: https://cdn.evg.gov.br/cursos/377_EVG/scorm/modulo01_ scorm01/scormcontent/assets/MeSGELwFatCiy18o_transcoded-X2Wg2wJ0q5ITT_EP- Intelig%C3%AAncia%20artif icial%20no%20contexto%20do%20Servi%C3%A7o%20 P%C3%BAblico.mp4?v=1 Unidade 2 - Conceitos principais referentes à inteligência artificial Ao final desta unidade, você deverá ser capaz de identificar os conceitos principais referentes à inteligência artificial. 10Enap Fundação Escola Nacional de Administração Pública 2.1. Aprendizagem de máquina (machine learning) Aprendizagem de máquina, também conhecida pelo termo em inglês machine learning, é uma ciência que busca formas para um programa aprender a realizar tarefas de forma autônoma a partir de uma amostra de treinamento. Durante a fase de treinamento, utilizando um algoritmo, o sistema gerará um modelo matemático a partir da amostra fornecida. Existem diversos algoritmos utilizados para o aprendizado de máquina, variando de acordo com os tipos de entrada e saída esperados. Vamos conhecer resumidamente alguns dos principais algoritmos e suas aplicações: • Regressão Linear Busca identificar uma linha que melhor se adere a um conjunto de pontos em um gráfico. • Regressão Logística De forma similar à regressão linear, analisa pontos em um gráfico, com a diferença que a saída esperada é binária, ou seja, só existem duas possibilidades de saída. • Árvores de Decisão Busca prever valores para uma variável a partir de um conjunto de regras representadas em uma estrutura de árvore. • Naive Bayes É um tipo de algoritmo de classificação baseado no teorema de Bayes, aplicável a problemas com saídas do tipo verdadeiro/falso. • Support Vector Machines (SVM) Algoritmo de classificação supervisionado utilizado para a identificação de clusters. • Randon Forest Combina várias árvores de decisão para tentar buscar um resultado mais preciso. • Redes Neurais Algoritmo de classificação que utiliza uma rede de nós interconectados para buscar o resultado. Treinamento Em relação ao treinamento, o algoritmo utilizado pode ser supervisionado ou não supervisionado. O treinamento supervisionado pressupõe que o programador irá informar a classificação dos itens da amostra ao sistema e é utilizado para tarefas de classificação e regressão. 11Enap Fundação Escola Nacional de Administração Pública O treinamento não supervisionado delega a busca dos resultados esperados ao próprio algoritmo e é muito utilizado para tarefas de identificação de clusters. Problemas comuns Existem dois problemas comuns relacionados à amostra de treinamento que podem afetar o resultado do algoritmo de aprendizagem de máquina gerando resultados com baixa taxa de assertividade. Esses problemas são conhecidos pelos termos em inglês overfitting e underfitting. O overfitting ocorre quando os elementos que compõem a amostra de treinamento são tão dísparesque o algoritmo não consegue identificar uma quantidade suficiente de padrões em comum na amostra. Para evitar o overfitting, algumas ações podem ser tomadas: a) Aumento da amostra contendo variações intermediárias entre as amostras extremas. b) Exclusão de pontos fora da curva (outliers). A amostra pode conter elementos muito díspares e pouco relevantes para o modelo. Eliminá-los irá reduzir o desvio padrão da amostra e pode melhorar a assertividade do modelo. Em um algoritmo para identificação de aviões, o problema do overfitting poderia ocorrer caso a amostra utilizada contivesse apenas imagens do 14-BIS (avião criado por Santos Dummont) e do Airbus A320. Os objetos são os mesmos, aviões, mas são tão diferentes que seria difícil para o modelo identificar padrões entre os dois exemplos. 12Enap Fundação Escola Nacional de Administração Pública 14-BIS Airbus A320 O underfitting é o caso oposto, ou seja, ocorre quando a amostra é muito uniforme e não apresenta quantidade suficiente de variações para a identificação de padrões com outros elementos. O problema pode ser corrigido pelo aumento de elementos na amostra, contendo mais variações do objeto em análise. Utilizando o mesmo exemplo do algoritmo de identificação de aviões, o underfitting poderia ocorrer com a utilização de uma amostra formada apenas por aviões a jato da Airbus. Nesse caso, provavelmente o ATR-42, um avião turbo hélice fabricado pela Embraer, não seria identificado como um avião por esse algoritmo. 13Enap Fundação Escola Nacional de Administração Pública ATR-42 A320 Outro problema comum no aprendizado de máquina é o viés, uma propensão de o modelo tender para um determinado caminho sempre. Além do fato de modelos enviesados não levarem às melhores respostas, o viés pode gerar sérios problemas, por exemplo, no caso em que um chatbot não supervisionado começou a insultar pessoas (os detalhes estão no saiba mais). O problema do viés pode ocorrer por características do algoritmo utilizado, por questões técnicas, como sensores IoT descalibrados ou câmeras mal posicionadas, ou por questões humanas, como estereótipos e preconceitos inerentes à pessoa que rotulou os dados de treinamento. 14Enap Fundação Escola Nacional de Administração Pública Saiba mais O caso do chatbot Tay Em 2016, um chatbot baseado em aprendizado de máquina não supervisionado da Microsoft chamado Tay causou grande polêmica após começar a ofender pessoas no Twitter. Dois fatores contribuíram para o problema: a utilização de um algoritmo não supervisionado, que levou o chatbot a aprender a se comunicar com base nas entradas de dados que recebia dos usuários; e o comportamento dos usuários, que enviaram milhares de mensagens incitando ofensas a minorias e idolatrando atividades criminosas. 2.2. Redes neurais e deep learning Redes neurais são um tipo de aprendizado de máquina, no qual o programa aprende a realizar uma tarefa a partir de uma amostra de treinamento. Durante a fase de aprendizagem, são repassadas amostras para o programa com a devida classificação. O programa então analisa as amostras e procura padrões a fim de distinguir cada elemento da imagem. Uma vez treinado, o programa será capaz de identificar outros elementos da mesma categoria de um elemento que nunca havia visto antes, com base nos padrões identificados na fase de treinamento. Redes neurais recebem esse nome pois utilizam uma rede de nós interconectados, de forma similar aos neurônios em nosso cérebro. Os nós são dispostos em camadas e a informação sempre flui em um único sentido, ou seja, um dado nó pode estar conectado a múltiplos nós da camada anterior e a múltiplos nós da camada posterior. Tal nó, usualmente, receberá informações de um nó da camada anterior e sempre passará a informação para um nó da camada posterior. 15Enap Fundação Escola Nacional de Administração Pública Para cada conexão de entrada do nó, é estabelecido um valor de peso para aquela conexão. O pacote que transita pela rede neural contém um número, que é a soma do produto dos pesos das conexões que ele passou. Quando um nó recebe um pacote, ele lê esse número e multiplica pelo peso da conexão por onde o pacote chegou. A multiplicação é realizada para todas as conexões por onde o nó recebeu o pacote e o resultado é somado ao valor original e definido como valor do pacote. Caso o valor obtido esteja abaixo de um determinado limite, o nó descarta o pacote. Caso esteja acima, o nó dispara o pacote para todas as suas conexões de saída. Durante a fase de treinamento, todas as conexões recebem pesos aleatórios. À medida que as amostras de treinamento são repassadas para a rede, os pesos vão sendo ajustados, de forma a entregar saídas com padrões similares. Por isso, a amostra original não pode ser muito pequena, pois, nesse caso, não haveria elementos suficientes para o correto balanceamento dos pesos e, consequentemente, o resultado do processamento da rede teria um baixo grau de precisão. Uma rede neural típica possui três camadas: entrada, camada oculta e saída. Caso a rede possua mais de uma camada oculta, ou seja, quatro ou mais camadas ao todo, ela também é conhecida pelo termo em inglês deep learning. 16Enap Fundação Escola Nacional de Administração Pública Saiba mais O canal do YouTube 3BlueInBrown possui um vídeo que demonstra visualmente como uma rede neural processa uma imagem de um número de 28 x 28 pixels para identificar qual número está desenhado na imagem. O vídeo é em inglês, com legendas em português disponíveis. Você pode conferi-lo pelo link: https://www.youtube.com/watch?v=aircAruvnKk 2.3. Processamento de Linguagem Natural O processamento de linguagem natural (PLN) é uma área da inteligência artificial que estuda formas de um computador se comunicar com humanos. Nesse contexto, estão incluídas tanto a comunicação falada, por exemplo, quando você pede para a Siri ou o Google configurar um alarme, quanto a comunicação escrita, por exemplo, ao utilizar um chatbot. Para estudarmos como a PLN funciona e entendermos sua complexidade, vamos analisar o seguinte diálogo: 17Enap Fundação Escola Nacional de Administração Pública A cada interação da pessoa, o algoritmo de PLN precisa converter o áudio em palavras, efetuar o processamento do texto e buscar a resposta com maior probabilidade de corresponder ao comando recebido. Para efetuar o processamento de texto, existem diversas técnicas que envolvem a análise sintática e semântica do conteúdo de entrada. Algumas delas são: Análise sintática • Lematização Converte diversas variações de uma palavra para uma única variável. Assim, carro, carros, carrinho e carrão são todas tratadas da mesma forma. • Segmentação Morfológica Divide as palavras para a identificação dos morfemas. • Segmentação de Palavras Identifica cada palavra do texto. • Stemização Reduz cada palavra ao seu radical. 18Enap Fundação Escola Nacional de Administração Pública • Correção Ortográfica Corrige erros na fala humana. • Parsing Analisa as palavras a partir de regras gramaticais. • Remoção de Stopwords Elimina palavras como artigos e preposições, que normalmente são desnecessárias para a identificação da intenção. Análise semântica • Reconhecimento de Entidades Nomeadas (Named Entity Recognition – NER) Identifica partes do texto que fazem parte de grupos pré-definidos. • Remoção de Ambiguidade (Word Sense Disambiguation) Dá sentido para a palavra dentro do contexto. Vamos entender como o nosso exemplo pode ser analisado por um algoritmo PLN de forma a obter o resultado esperado. Ao receber a primeira interação, inicialmente são identificadas cada palavra individualmente: “oi”, “ligue”, “pra”, “maria”. Em seguida, é feita a remoção das palavras sem utilidade para o contexto: “oi”, “pra”. Na sequência, a análise das regras gramaticais identifica “ligue” como um verbo, ou seja, uma ação, e “Maria” como um sujeito, ou seja, aquele que sofre ou executa a ação, e um substantivo,ou seja, identifica algo. Depois disso, a análise semântica analisa o que temos até agora: o verbo “ligar” e o sujeito “Maria”. O reconhecimento de entidades nomeadas permite identificar que Maria se refere a um nome de pessoas na agenda de contatos do dispositivo. O verbo ligar possui vários significados, como fazer um telefonema, ligar dois pontos, acionar um eletrodoméstico, entre outros. A técnica de remoção de ambiguidade será utilizada para identificar que, no contexto, o verbo ligar associado a um contato da agenda significa efetuar uma ligação. Por fim, o algoritmo identifica que existem múltiplas ocorrências para Maria e questiona ao usuário qual a correta. Na interação 3, o usuário responde a ocorrência correta, mas de uma maneira confusa para a máquina. Com isso, o algoritmo precisa analisar todo o contexto da conversa a fim de identificar corretamente para qual Maria a ligação deve ser realizada. Observe ainda que o algoritmo precisa tratar a entrada, pois o usuário não utilizou a língua portuguesa de forma correta, utilizando uma palavra que não existe no dicionário. Ao final, a interação homem-máquina é encerrada e o algoritmo invoca uma API para iniciar a ligação desejada pelo usuário. Observe que o processamento de linguagem natural é uma atividade bastante complexa, com muitas etapas. Por esse motivo, normalmente, dispositivos eletrônicos que possuem essa 19Enap Fundação Escola Nacional de Administração Pública funcionalidade dependem de conexão com a internet, pois o comando precisa ser encaminhado para data centers com grande capacidade de processamento a fim de ser analisado. 2.4. Visão computacional A visão computacional é outra área com o objetivo de estudar formas para que um computador possa realizar tarefas humanas, mais especificamente como criar programas capazes de identificar elementos em imagens e vídeos, da mesma forma que um ser humano o faz por meio da visão. A visão computacional possui uma série de aplicações, mas ganhou bastante notoriedade nos últimos anos com o desenvolvimento dos primeiros carros autônomos. No vídeo a seguir, um veículo da fabricante Tesla utiliza diferentes câmeras para identificar tudo o que acontece ao seu redor de forma a identificar por onde passar, quando efetuar uma curva, quando frear por conta de um carro parado e outras atividades típicas da condução de um carro dependentes da visão. Link do video: https://youtu.be/9ydhDQaLAqM Como funciona a visão computacional O cérebro humano conta com milhares de anos de evolução, o que gerou a capacidade de visualizar uma foto e determinar elementos como flores e borboleta. O que você vê na imagem acima? Como uma máquina seria capaz de reconhecer os mesmos elementos que você? Para um programa, considerando que tal foto tenha uma resolução de 1024 x 768 pixels, tal imagem nada mais é do que uma matriz de 786.432 elementos, cada um contendo um código numérico representando uma tonalidade de cor. 20Enap Fundação Escola Nacional de Administração Pública Para o computador, a imagem nada mais é do que uma matriz de 786.432 elementos, cada um contendo um código numérico representando uma tonalidade de cor. Por meio de técnicas de machine learning, programas podem ser treinados para identificar os elementos com um excelente nível de confiança. Observe que, assim como um humano, as máquinas nem sempre conseguem distinguir elementos em uma imagem, os algoritmos também não são perfeitos. De fato, o resultado do processamento apontará uma possível classificação do elemento associada a um percentual de confiança. As imagens a seguir são de cães da raça Komondor e de esfregões. Para diversos casos como esse, o algoritmo apresentará um índice de confiança muito baixo, pois são imagens particularmente difíceis de serem analisadas, apesar de representarem elementos completamente diferentes. 21Enap Fundação Escola Nacional de Administração Pública Komondor ou esfregão? Para aumentar o nível de confiança dos resultados, é utilizado um tipo específico de rede neural: a rede neural convolucional (convolutional neural network - CNN). A CNN divide a imagem em grupos de pixels menores, chamados filtros, de onde serão buscados os padrões esperados. Essa rede utiliza uma função de cálculo de erro que avalia os pesos utilizados com os pesos esperados baseados na massa de treinamento, de forma a apresentar um índice de assertividade maior. E no caso de vídeos? Vídeos são um conjunto de imagens exibidas em sequência. Um vídeo de 60 frames por segundo (60 FPS) nada mais é do que 60 imagens sendo exibidas no intervalo de um segundo. Os vídeos trazem uma dificuldade a mais para a visão computacional: o contexto temporal de cada elemento. No exemplo do automóvel com direção autônoma, não basta o algoritmo identificar, por exemplo, que o elemento da frente é um carro. É necessário diferenciar se é um carro parado, se aproximando ou se afastando. Para fazer o reconhecimento dos elementos no contexto temporal, ou seja, como ele se comporta ao longo dos frames, o resultado obtido pela CNN é carregado para outro tipo de rede neural, a recorrente (recurrent neural network - RNN). As RNNs consideram a informação passada no 22Enap Fundação Escola Nacional de Administração Pública processo de decisão, por isso são capazes de fazer a identificação de um elemento com base no contexto. Destaque h, h, h, h, O treinamento de algoritmos de visão computacional requer volumes muito grandes de amostras para atingir um bom índice de assertividade. Grandes companhias, muitas vezes, utilizam usuários de seus serviços para treinar seus algoritmos, solicitando que identifiquem placas de trânsito ou casas em imagens. Outra forma é a contratação de pessoas para geração de dados. Existem ainda plataformas que fornecem os modelos já treinados, permitindo a contratação as a service, com o pagamento pela quantidade de uso. 2.5. Internet das coisas (IoT) A internet das coisas, mais conhecida pelo seu termo em inglês (e de onde a sigla se deriva) internet of things, consiste na inserção de sensores e recursos de conectividade nos mais diversos elementos (ou coisas, como o termo sugere), de forma que estes possam transmitir informações úteis. A IoT possui as mais diversas aplicações, partindo desde elementos vestíveis, como relógios, até grandes equipamentos industriais. A ideia de conectar os mais diversos elementos em rede já existe há bastante tempo, mas uma série de fatores fez com que o conceito se popularizasse na última década. O barateamento dos custos de produção, combinado com a evolução tecnológica, que permitiu a miniaturização dos componentes e a redução drástica do consumo de energia, pode ser considerado um dos principais fatores. Hoje é possível adquirir no varejo um transmissor wi-fi, como o da foto, por menos de um dólar. A criação de padrões de transmissão LE (low energy) fez com que fosse possível a conexão em elementos alimentados por bateria sem comprometer a autonomia dos dispositivos. A ampla oferta de plataformas de processamento em nuvem foi outro importante fator. Essas plataformas simplificam a recepção dos dados por meio de APIs e permitem a utilização de 23Enap Fundação Escola Nacional de Administração Pública milhares de sensores de forma simultânea com alto grau de confiabilidade e baixo custo de implantação para os utilizadores da tecnologia. O avanço do aprendizado de máquina e de plataformas de análise de big data trouxe o poder de processamento necessário para a extração de informação da imensa quantidade de dados gerados pelos dispositivos Destaque h, h, h, h, O setor público pode se beneficiar dessa tecnologia das mais diversas formas. Concessionárias de energia elétrica podem utilizar sensores em sua malha para identificar falhas de transmissão e acionar automaticamente as equipes de reparo. Viaturas policiais conectadas permitem identificar o veículo mais próximo para o atendimento de uma ocorrência.Sensores de esgoto podem mapear o avanço de doenças por regiões em tempo real. As possibilidades de aplicação são quase infinitas e podem trazer um salto de qualidade significativo na prestação do serviço público. 24Enap Fundação Escola Nacional de Administração Pública Referências Unidade 1 ALISSON, E. Inteligência artificial prevê ocorrência de crimes em áreas urbanas. Galileu, São Paulo, 2 ago. 2020. Disponível em: https://revistagalileu.globo.com/Tecnologia/noticia/2020/08/ inteligencia-artificial-preve-ocorrencia-de-crimes-em-areas-urbanas.html. Acesso em: 7 dez. 2020. ANYOHA, R. The History of Artificial Intelligence. Science in the News, Boston, 28 Aug. 2017. Disponível em: http://sitn.hms.harvard.edu/flash/2017/history-artificial-intelligence/. Acesso em: 7 dez. 2020. IBM. Artificial intelligence in medicine. Watson Health Learning Hub, Armonk, [25 Aug. 2020]. Disponível em: https://www.ibm.com/watson-health/learn/artificial-intelligence-medicine. Acesso em: 7 dez. 2020. SASIKUMAR, S. Data Science vs. Data Analytics vs. Machine Learning: expert talk. Simpli Learn, San Francisco, 13 Nov. 2020. Disponível em: https://www.simplilearn.com/data-science-vs-data- analytics-vs-machine-learning-article. Acesso em: 7 dez. 2020. WAZE chega a 3 milhões de usuários em São Paulo. Exame, São Paulo, 15 set. 2016. Disponível em: https://exame.com/tecnologia/waze-chega-a-3-milhoes-de-usuarios-em-sao-paulo/. Acesso em: 7 dez. 2020. Unidade 2 FAWCETT, A. The top 10 ML algorithms for data science in 5 minutes. Educative, Bellevue, 9 Dec. 2019. Disponível em: https://www.educative.io/blog/top-10-ml-algorithms-for-data-science-in- 5-minutes. Acesso em: 7 dez. 2020. GARBADE, M. J. A Simple Introduction to Natural Language Processing. Medium, [s. l.], 15 Oct. 2018. Disponível em: https://becominghuman.ai/a-simple-introduction-to-natural-language- processing-ea66a1747b32. Acesso em: 7 dez. 2020. GOMES, P. C. T. Ética e Inteligência Artificial: viés em machine learning. Data Geeks, [s. l.], 9 abr. 2019. Disponível em: https://www.datageeks.com.br/etica-e-inteligencia-artificial/. Acesso em: 7 dez. 2020. HARDESTY, L. Explained: neural networks. MIT News, Cambridge, 14 Apr. 2017. Disponível em: https://news.mit.edu/2017/explained-neural-networks-deep-learning-0414. Acesso em: 7 dez. 2020. 25Enap Fundação Escola Nacional de Administração Pública HOW Computer Vision Works. [S. l.: s. n.], 2018. 1 vídeo. (7 min). Publicado pelo canal Google Cloud Platform. Disponível em: https://www.youtube.com/watch?v=OcycT1Jwsns. Acesso em: 7 dez. 2020. KAVLAKOGLU, E. AI vs. Machine Learning vs. Deep Learning vs. Neural Networks: what’s the difference? IBM Cloud, Armonk, 27 May 2020. Disponível em: https://www.ibm.com/cloud/ blog/ai-vs-machine-learning-vs-deep-learning-vs-neural-networks. Acesso em: 7 dez. 2020. ORACLE. O Que é Internet of Things (IoT)? Oracle Brasil, [s. l., 5 Sept. 2020]. Disponível em: https://www.oracle.com/br/internet-of-things/what-is-iot.html. Acesso em: 7 dez. 2020. RODRIGUES, J. O que é o Processamento de Linguagem Natural? Medium, [s. l.], 14 jul. 2020. Disponível em: https://medium.com/botsbrasil/o-que-é-o-processamento-de-linguagem- natural-49ece9371cff. Acesso em: 7 dez. 2020. VINCENT, J. Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day. The Verge, [s. l.], 24 Mar. 2016. Disponível em: https://www.theverge.com/2016/3/24/11297050/ tay-microsoft-chatbot-racist. Acesso em: 7 dez. 2020.