Logo Passei Direto
Buscar

Inteligência Artificial no Contexto do Serviço Público

User badge image
Luciano

em

Ferramentas de estudo

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

Inteligência Artificial 
no Contexto do 
Serviço Público
Contextualização 
e conceitos sobre 
inteligência artificial (IA)1
M
ód
ul
o
2Enap Fundação Escola Nacional de Administração Pública
Enap, 2020
Enap Escola Nacional de Administração Pública
Diretoria de Educação Continuada
SAIS - Área 2-A - 70610-900 — Brasília, DF
Fundação Escola Nacional de Administração Pública
Presidente 
Diogo Godinho Ramos Costa
Diretor de Educação Continuada
Paulo Marques
Coordenador-Geral de Educação a Distância 
Carlos Eduardo dos Santos
Conteudista/s 
Fábio dos Santos Barbosa (Conteudista, 2020).
Equipe responsável:
Danielle Alves de Oliveira Tabosa (Implementadora Moodle, 2020)
Fabiany Glaura Barbosa (Coordenadora de Desenvolvimento, 2020).
Ivan Lucas Alves Oliveira (Coordenação de Produção Web).
Isaac Silva Martins (Implementador Moodle, 2020).
Israel Silvino Batista Neto (Direção e Produção Gráfica, 2020).
Sanny Caroline Saraiva (Produção Gráfica, 2020).
Vanessa, Mubarak Albim (Diagramação, 2020).
Curso produzido em Brasília 2020.
Desenvolvimento do curso realizado no âmbito do acordo de Cooperação Técnica FUB / CDT / 
Laboratório Latitude e Enap.
3Enap Fundação Escola Nacional de Administração Pública
Unidade 1 - Contextualização da inteligência artificial nas organizações 
públicas ............................................................................................ 5
1.1 O que é IA .........................................................................................................5
1.2. A história da IA e porque ela é uma das principais tecnologias atuais ...........6
1.3. IA e a ciência de dados ....................................................................................8
1.4. IA nas organizações públicas ..........................................................................9
Unidade 2 - Conceitos principais referentes à inteligência artificial ... 9
2.1. Aprendizagem de máquina (machine learning) ..............................................9
2.2. Redes neurais e deep learning ......................................................................14
2.3. Processamento de Linguagem Natural ..........................................................16
2.4. Visão computacional .....................................................................................19
2.5. Internet das coisas (IoT) ................................................................................22
Referências ..................................................................................... 24
Sumário
4Enap Fundação Escola Nacional de Administração Pública
5Enap Fundação Escola Nacional de Administração Pública
Unidade 1 - Contextualização da inteligência artificial nas 
organizações públicas
Ao final desta unidade, você deverá ser capaz de reconhecer a importância da inteligência 
artificial nas organizações públicas.
1.1 O que é IA
A inteligência artificial, também conhecida pelas siglas IA (em português) e AI (em inglês), é um 
campo de estudo que busca formas para softwares desempenharem tarefas simples para seres 
humanos, mas complexas para uma máquina. 
Vamos analisar melhor essa definição? O primeiro ponto importante define a IA como um 
campo de estudo. Isso significa que é uma área ampla, englobando várias outras ciências, como 
estatística, matemática e computação. O senso comum tende a definir a IA como uma técnica ou 
ferramenta por si só, sendo bastante usual encontrar notícias para o grande público utilizando 
definições imprecisas do termo, como algo do tipo: “A empresa XYZ acaba de anunciar a nova 
versão do carro ABC, que anda sozinho utilizando inteligência artificial”. Não podemos culpar a 
imprensa pelo uso impreciso de termos técnicos, pois eles precisam deixar a informação mais 
palatável para o grande público.
O segundo, e mais importante, ponto da definição de IA indica que a finalidade desse campo de 
estudo é a realização de tarefas complexas para computadores, mas simples para seres humanos. 
Provavelmente você não tem dificuldade em diferenciar um gato de um cachorro, correto? 
Analisando as imagens a seguir, é possível perceber que são animais completamente diferentes.
M
ód
ul
o Contextualização e conceitos 
sobre inteligência artificial (IA)1
6Enap Fundação Escola Nacional de Administração Pública
 
Agora, tente explicar para uma pessoa que não conhece um gato como ele é. Qualquer referência 
óbvia, tal como quatro patas, duas orelhas, dois olhos, um focinho, uma boca ou peludo, 
poderá fazer com que a pessoa pense que se trata de um cachorro. Da mesma forma, seria 
extremamente complexo criar um programa de computador que fizesse tal distinção baseado 
apenas em informações estruturadas, tais como quantidade de membros, formato ou cor. Esse 
exemplo descreve um problema de classificação muito simples para humanos, mas complexo 
para máquinas, que são objeto de estudo pela ciência da inteligência artificial.
O exemplo com animais é apenas para ilustrar a dificuldade do problema apresentado, mas observe 
que a mesma lógica é válida, por exemplo, para a classificação de documentos digitalizados em 
um tribunal. Problemas de classificação são apenas uma das múltiplas aplicabilidades de técnicas 
de inteligência artificial. Outros exemplos de funcionalidades bastante utilizados atualmente são 
o processamento de linguagem natural, a interpretação de fala e a visão computacional.
1.2. A história da IA e porque ela é uma das principais tecnologias 
atuais 
A história da inteligência artificial teve início antes mesmo da criação dos primeiros computadores, 
com filmes como O Mágico de Oz, de 1939, e Metrópolis, de 1927, trazendo personagens 
humanoides. 
Confira um trecho do filme de ficção científica Metrópolis, de 1927, no qual é retratada a 
criação de Maschinenmensch (máquina humana, em tradução livre do alemão) por meio de um 
experimento científico:
7Enap Fundação Escola Nacional de Administração Pública
 Link do video: https://www.youtube.com/watch?v=IcReykfvqi4
Na década de 50, tínhamos uma geração de cientistas, matemáticos e filósofos que cresceram 
influenciados pela cultura da ficção científica e começaram a estudar o tema. Entre os estudos 
da época, destaca-se o artigo Computing Machinery and Intelligence, publicado por Alan Turing, 
que discutia como construir máquinas e testar sua inteligência. Tal artigo foi responsável por 
introduzir o famoso Teste de Turing, o qual, em resumo, verifica a possibilidade de uma máquina 
se passar por um ser humano sem que este consiga perceber.
Saiba mais 
O Teste de Turing é questionado por alguns estudos, pois entendem que uma 
máquina ser capaz de dar respostas corretas não implica que ela consiga pensar. 
Um exemplo desses estudos é o denominado experimento da sala chinesa. 
Uma pessoa trancada em uma sala recebe anotações em chinês. Tal pessoa, 
munida de dicionários, seria capaz de responder corretamente às anotações, 
mas ainda assim não compreenderia o idioma.
Conheça mais sobre a vida e as contribuições do cientista Alan Turing, 
acessando a página dedicada a ele na Wikipédia.
Ainda na década de 50, John McCarthy e Marvin Minsky organizaram a conferência Dartmouth 
Summer Research Project on Artificial Intelligence (DSRPAI). Nesse evento, foi apresentado o 
Logic Theorist, primeiro programa desenvolvido para simular ações humanas na resolução de 
problemas, cunhando o termo inteligência artificial.
As duas décadas seguintes foram de altos e baixos para a IA. Por um lado, havia um interesse 
enorme de governos e grandes corporações para utilização da tecnologia em atividades como a 
tradução de línguas estrangeiras e processamento de grande quantidade de dados. Por outro, 
os altos custos de recursos computacionais na época, combinados com a precariedade dos 
computadores até então, dificultavam os avanços esperados.
Na década de 80, tivemos a adoção do conceito de sistemas especialistas, que consistiam em 
dois componentes: uma base de conhecimento formadaa partir da opinião de especialistas e 
um sistema de inferência, que tentava buscar respostas a partir da base de conhecimento. A 
ideia por trás do sistema especialista era permitir que um leigo conseguisse chegar às mesmas 
conclusões de um especialista no assunto, usando a ferramenta como apoio. Esses sistemas 
foram amplamente adotados no período, contando, inclusive, com pesados investimentos 
governamentais para o desenvolvimento da tecnologia.
Fechando nosso ciclo histórico, tivemos dois fatores muito importantes para a consolidação 
da IA na década de 90. O primeiro foi a redução do custo de equipamentos de informática, 
tornando-os itens comuns até mesmo em residências. O segundo foi o avanço da capacidade 
8Enap Fundação Escola Nacional de Administração Pública
de processamento dos computadores. Tivemos o marco do computador Deep Blue, da IBM, 
vencendo o campeão mundial de xadrez Gary Kasparov em 1997.
Atualmente, produzimos um volume cada vez maior de dados e tal produção não se limita a 
documentos de escritório, páginas da web ou arquivos multimídia, como fotos ou vídeos. A 
popularização de sensores conectados, conhecidos pelo termo internet das coisas (IoT), ampliou 
de forma exponencial a produção de dados por pessoas comuns.
Para se ter uma ideia, apenas na cidade de São Paulo, a empresa responsável pelo aplicativo 
de navegação Waze afirmou rotear 400 milhões de quilômetros por mês. Qualquer pessoa 
utilizando um smartphone com as configurações de fábrica consegue saber exatamente onde 
estava em qualquer dia e horário, mesmo muitos anos atrás, variando apenas a quantidade de 
dados disponíveis, a depender da fabricante.
Esse gigantesco volume de dados é conhecido pelo termo big data. Tais dados, seja pelo 
seu volume, seja pelo formato não estruturado ou ao menos não estruturado de uma forma 
interoperável, requerem sistemas de informação especializados para tratamento. Sistemas 
criados utilizando técnicas de IA conseguem fazer uso desses dados de maneira bastante efetiva, 
permitindo a realização em larga escala de atividades, tais como identificação de fraudes, 
roteamento de tráfego, monitoramento do meio ambiente, entre outras.
Saiba mais 
O YouTube produziu uma série documental denominada The Age of A.I. (A Era 
da Inteligência Artificial, em tradução livre para o português), que discute os 
usos mais recentes de técnicas de inteligência artificial. Há disponibilidade de 
legendas em português. Para conferir, link dos videos: https://www.youtube.
com/playlist?list=PLjq6DwYksrzz_fsWIpPcf6V7p2RNAneKc
1.3. IA e a ciência de dados
No tópico anterior, comentamos sobre a quantidade de dados que estamos gerando a todo 
momento e que tal volume é muitas vezes referenciado como big data. A ciência de dados busca 
extrair informações do big data combinando métodos matemáticos, estatísticos e algoritmos 
computacionais. A ciência de dados é um grande “guarda-chuva” que engloba técnicas como 
mineração de dados, visualização de dados, análise de dados e aprendizagem de máquina (este 
mais conhecido pelo termo em inglês machine learning).
A combinação dos diferentes elementos da ciência de dados permite a construção de algoritmos 
que cheguem a um resultado esperado sem que seja necessário programar explicitamente tal 
resultado.
A ciência de dados engloba tarefas como capturar, limpar e tratar os dados que serão objeto de 
análise. Caso esses dados sejam ruins, o resultado será ruim. Cabe ao cientista de dados verificar 
9Enap Fundação Escola Nacional de Administração Pública
se as amostras de treino dos algoritmos são suficientemente variadas a fim de que o programa 
tenha um volume de informação satisfatório para a geração do modelo.
Vamos a um exemplo:
Um sistema foi criado para analisar, em tempo real, imagens capturadas por câmeras instaladas 
em viaturas de polícia, com o objetivo de avisar os policiais sobre automóveis com boletins de 
ocorrência em aberto. Para funcionar, tal sistema precisa realizar duas tarefas:
1. Identificar placas de veículos em uma imagem.
2. Verificar se a placa consta de um banco de dados e, em caso positivo, emitir o alerta.
Caso o algoritmo para identificação do automóvel tenha sido treinado apenas com as placas de 
fundo cinza, por exemplo, ele pode não reconhecer a placa de um automóvel de colecionador, 
que possui fundo preto.
Aqui se destaca a importância do cientista de dados: com o objetivo de buscar, inicialmente, 
uma massa de dados suficientemente heterogênea para a geração de um modelo abrangente 
e, posteriormente, a recalibragem do modelo, o cientista de dados pode observar os resultados 
gerados pelo algoritmo e retroalimentá-lo, indicando os erros e acertos. No nosso exemplo, ao 
informar que uma placa de fundo preto também é uma placa, o modelo seria recalibrado e 
passaria a reconhecer tal tipo de objeto também.
1.4. IA nas organizações públicas 
No vídeo a seguir, Fabio dos Santos Barbosa, auditor federal de finanças e controle da Secretaria 
do Tesouro Nacional, aborda o tema inteligência artificial e contextualiza a sua utilização em 
organizações públicas:
 Link do video: https://cdn.evg.gov.br/cursos/377_EVG/scorm/modulo01_
scorm01/scormcontent/assets/MeSGELwFatCiy18o_transcoded-X2Wg2wJ0q5ITT_EP-
Intelig%C3%AAncia%20artif icial%20no%20contexto%20do%20Servi%C3%A7o%20
P%C3%BAblico.mp4?v=1
Unidade 2 - Conceitos principais referentes à inteligência 
artificial
Ao final desta unidade, você deverá ser capaz de identificar os conceitos principais referentes 
à inteligência artificial.
10Enap Fundação Escola Nacional de Administração Pública
2.1. Aprendizagem de máquina (machine learning)
Aprendizagem de máquina, também conhecida pelo termo em inglês machine learning, é uma 
ciência que busca formas para um programa aprender a realizar tarefas de forma autônoma a 
partir de uma amostra de treinamento. Durante a fase de treinamento, utilizando um algoritmo, o 
sistema gerará um modelo matemático a partir da amostra fornecida. Existem diversos algoritmos 
utilizados para o aprendizado de máquina, variando de acordo com os tipos de entrada e saída 
esperados.
Vamos conhecer resumidamente alguns dos principais algoritmos e suas aplicações:
• Regressão Linear
Busca identificar uma linha que melhor se adere a um conjunto de pontos em um 
gráfico.
• Regressão Logística
De forma similar à regressão linear, analisa pontos em um gráfico, com a diferença que 
a saída esperada é binária, ou seja, só existem duas possibilidades de saída.
• Árvores de Decisão
Busca prever valores para uma variável a partir de um conjunto de regras representadas 
em uma estrutura de árvore.
• Naive Bayes
É um tipo de algoritmo de classificação baseado no teorema de Bayes, aplicável a 
problemas com saídas do tipo verdadeiro/falso.
• Support Vector Machines (SVM)
Algoritmo de classificação supervisionado utilizado para a identificação de clusters.
• Randon Forest
Combina várias árvores de decisão para tentar buscar um resultado mais preciso.
• Redes Neurais
Algoritmo de classificação que utiliza uma rede de nós interconectados para buscar o 
resultado.
Treinamento
Em relação ao treinamento, o algoritmo utilizado pode ser supervisionado ou não supervisionado.
O treinamento supervisionado pressupõe que o programador irá informar a classificação dos 
itens da amostra ao sistema e é utilizado para tarefas de classificação e regressão.
11Enap Fundação Escola Nacional de Administração Pública
O treinamento não supervisionado delega a busca dos resultados esperados ao próprio algoritmo 
e é muito utilizado para tarefas de identificação de clusters.
Problemas comuns
Existem dois problemas comuns relacionados à amostra de treinamento que podem afetar o 
resultado do algoritmo de aprendizagem de máquina gerando resultados com baixa taxa de 
assertividade. Esses problemas são conhecidos pelos termos em inglês overfitting e underfitting.
O overfitting ocorre quando os elementos que compõem a amostra de treinamento são tão 
dísparesque o algoritmo não consegue identificar uma quantidade suficiente de padrões em 
comum na amostra. Para evitar o overfitting, algumas ações podem ser tomadas:
a) Aumento da amostra contendo variações intermediárias entre as amostras extremas.
b) Exclusão de pontos fora da curva (outliers).
A amostra pode conter elementos muito díspares e pouco relevantes para o modelo. Eliminá-los 
irá reduzir o desvio padrão da amostra e pode melhorar a assertividade do modelo.
Em um algoritmo para identificação de aviões, o problema do overfitting poderia ocorrer caso a 
amostra utilizada contivesse apenas imagens do 14-BIS (avião criado por Santos Dummont) e do 
Airbus A320. Os objetos são os mesmos, aviões, mas são tão diferentes que seria difícil para o 
modelo identificar padrões entre os dois exemplos.
12Enap Fundação Escola Nacional de Administração Pública
14-BIS
Airbus A320
O underfitting é o caso oposto, ou seja, ocorre quando a amostra é muito uniforme e não apresenta 
quantidade suficiente de variações para a identificação de padrões com outros elementos. O 
problema pode ser corrigido pelo aumento de elementos na amostra, contendo mais variações 
do objeto em análise.
Utilizando o mesmo exemplo do algoritmo de identificação de aviões, o underfitting poderia 
ocorrer com a utilização de uma amostra formada apenas por aviões a jato da Airbus. Nesse caso, 
provavelmente o ATR-42, um avião turbo hélice fabricado pela Embraer, não seria identificado 
como um avião por esse algoritmo.
13Enap Fundação Escola Nacional de Administração Pública
ATR-42
A320
Outro problema comum no aprendizado de máquina é o viés, uma propensão de o modelo 
tender para um determinado caminho sempre. Além do fato de modelos enviesados não levarem 
às melhores respostas, o viés pode gerar sérios problemas, por exemplo, no caso em que um 
chatbot não supervisionado começou a insultar pessoas (os detalhes estão no saiba mais).
O problema do viés pode ocorrer por características do algoritmo utilizado, por questões técnicas, 
como sensores IoT descalibrados ou câmeras mal posicionadas, ou por questões humanas, como 
estereótipos e preconceitos inerentes à pessoa que rotulou os dados de treinamento.
14Enap Fundação Escola Nacional de Administração Pública
Saiba mais 
O caso do chatbot Tay
Em 2016, um chatbot baseado em aprendizado de máquina não supervisionado 
da Microsoft chamado Tay causou grande polêmica após começar a ofender 
pessoas no Twitter. Dois fatores contribuíram para o problema: a utilização 
de um algoritmo não supervisionado, que levou o chatbot a aprender a se 
comunicar com base nas entradas de dados que recebia dos usuários; e o 
comportamento dos usuários, que enviaram milhares de mensagens incitando 
ofensas a minorias e idolatrando atividades criminosas.
2.2. Redes neurais e deep learning
Redes neurais são um tipo de aprendizado de máquina, no qual o programa aprende a realizar 
uma tarefa a partir de uma amostra de treinamento. Durante a fase de aprendizagem, são 
repassadas amostras para o programa com a devida classificação. O programa então analisa as 
amostras e procura padrões a fim de distinguir cada elemento da imagem. Uma vez treinado, o 
programa será capaz de identificar outros elementos da mesma categoria de um elemento que 
nunca havia visto antes, com base nos padrões identificados na fase de treinamento. 
Redes neurais recebem esse nome pois utilizam uma rede de nós interconectados, de forma 
similar aos neurônios em nosso cérebro. Os nós são dispostos em camadas e a informação sempre 
flui em um único sentido, ou seja, um dado nó pode estar conectado a múltiplos nós da camada 
anterior e a múltiplos nós da camada posterior. Tal nó, usualmente, receberá informações de um 
nó da camada anterior e sempre passará a informação para um nó da camada posterior.
15Enap Fundação Escola Nacional de Administração Pública
Para cada conexão de entrada do nó, é estabelecido um valor de peso para aquela conexão. O 
pacote que transita pela rede neural contém um número, que é a soma do produto dos pesos das 
conexões que ele passou. Quando um nó recebe um pacote, ele lê esse número e multiplica pelo 
peso da conexão por onde o pacote chegou. A multiplicação é realizada para todas as conexões 
por onde o nó recebeu o pacote e o resultado é somado ao valor original e definido como valor 
do pacote. Caso o valor obtido esteja abaixo de um determinado limite, o nó descarta o pacote. 
Caso esteja acima, o nó dispara o pacote para todas as suas conexões de saída.
Durante a fase de treinamento, todas as conexões recebem pesos aleatórios. À medida que as 
amostras de treinamento são repassadas para a rede, os pesos vão sendo ajustados, de forma a 
entregar saídas com padrões similares. Por isso, a amostra original não pode ser muito pequena, 
pois, nesse caso, não haveria elementos suficientes para o correto balanceamento dos pesos e, 
consequentemente, o resultado do processamento da rede teria um baixo grau de precisão.
Uma rede neural típica possui três camadas: entrada, camada oculta e saída. Caso a rede possua 
mais de uma camada oculta, ou seja, quatro ou mais camadas ao todo, ela também é conhecida 
pelo termo em inglês deep learning.
16Enap Fundação Escola Nacional de Administração Pública
Saiba mais 
O canal do YouTube 3BlueInBrown possui um vídeo que demonstra visualmente 
como uma rede neural processa uma imagem de um número de 28 x 28 pixels 
para identificar qual número está desenhado na imagem. O vídeo é em inglês, 
com legendas em português disponíveis. Você pode conferi-lo pelo link: 
https://www.youtube.com/watch?v=aircAruvnKk
2.3. Processamento de Linguagem Natural
O processamento de linguagem natural (PLN) é uma área da inteligência artificial que estuda 
formas de um computador se comunicar com humanos. Nesse contexto, estão incluídas tanto 
a comunicação falada, por exemplo, quando você pede para a Siri ou o Google configurar um 
alarme, quanto a comunicação escrita, por exemplo, ao utilizar um chatbot. 
Para estudarmos como a PLN funciona e entendermos sua complexidade, vamos analisar o 
seguinte diálogo:
17Enap Fundação Escola Nacional de Administração Pública
A cada interação da pessoa, o algoritmo de PLN precisa converter o áudio em palavras, efetuar 
o processamento do texto e buscar a resposta com maior probabilidade de corresponder ao 
comando recebido. 
Para efetuar o processamento de texto, existem diversas técnicas que envolvem a análise sintática 
e semântica do conteúdo de entrada. Algumas delas são:
Análise sintática
• Lematização
Converte diversas variações de uma palavra para uma única variável. Assim, carro, 
carros, carrinho e carrão são todas tratadas da mesma forma.
• Segmentação Morfológica
Divide as palavras para a identificação dos morfemas.
• Segmentação de Palavras
Identifica cada palavra do texto.
• Stemização
Reduz cada palavra ao seu radical.
18Enap Fundação Escola Nacional de Administração Pública
• Correção Ortográfica
Corrige erros na fala humana.
• Parsing
Analisa as palavras a partir de regras gramaticais.
• Remoção de Stopwords
Elimina palavras como artigos e preposições, que normalmente são desnecessárias 
para a identificação da intenção.
Análise semântica
• Reconhecimento de Entidades Nomeadas (Named Entity Recognition – NER)
Identifica partes do texto que fazem parte de grupos pré-definidos.
• Remoção de Ambiguidade (Word Sense Disambiguation)
Dá sentido para a palavra dentro do contexto.
Vamos entender como o nosso exemplo pode ser analisado por um algoritmo PLN de forma a 
obter o resultado esperado.
Ao receber a primeira interação, inicialmente são identificadas cada palavra individualmente: 
“oi”, “ligue”, “pra”, “maria”. Em seguida, é feita a remoção das palavras sem utilidade para o 
contexto: “oi”, “pra”. Na sequência, a análise das regras gramaticais identifica “ligue” como um 
verbo, ou seja, uma ação, e “Maria” como um sujeito, ou seja, aquele que sofre ou executa a 
ação, e um substantivo,ou seja, identifica algo.
Depois disso, a análise semântica analisa o que temos até agora: o verbo “ligar” e o sujeito 
“Maria”. O reconhecimento de entidades nomeadas permite identificar que Maria se refere a um 
nome de pessoas na agenda de contatos do dispositivo. O verbo ligar possui vários significados, 
como fazer um telefonema, ligar dois pontos, acionar um eletrodoméstico, entre outros.
A técnica de remoção de ambiguidade será utilizada para identificar que, no contexto, o verbo 
ligar associado a um contato da agenda significa efetuar uma ligação. Por fim, o algoritmo 
identifica que existem múltiplas ocorrências para Maria e questiona ao usuário qual a correta.
Na interação 3, o usuário responde a ocorrência correta, mas de uma maneira confusa para a 
máquina. Com isso, o algoritmo precisa analisar todo o contexto da conversa a fim de identificar 
corretamente para qual Maria a ligação deve ser realizada. Observe ainda que o algoritmo precisa 
tratar a entrada, pois o usuário não utilizou a língua portuguesa de forma correta, utilizando uma 
palavra que não existe no dicionário. Ao final, a interação homem-máquina é encerrada e o 
algoritmo invoca uma API para iniciar a ligação desejada pelo usuário.
Observe que o processamento de linguagem natural é uma atividade bastante complexa, com 
muitas etapas. Por esse motivo, normalmente, dispositivos eletrônicos que possuem essa 
19Enap Fundação Escola Nacional de Administração Pública
funcionalidade dependem de conexão com a internet, pois o comando precisa ser encaminhado 
para data centers com grande capacidade de processamento a fim de ser analisado.
2.4. Visão computacional
A visão computacional é outra área com o objetivo de estudar formas para que um computador 
possa realizar tarefas humanas, mais especificamente como criar programas capazes de identificar 
elementos em imagens e vídeos, da mesma forma que um ser humano o faz por meio da visão.
A visão computacional possui uma série de aplicações, mas ganhou bastante notoriedade nos 
últimos anos com o desenvolvimento dos primeiros carros autônomos. No vídeo a seguir, um 
veículo da fabricante Tesla utiliza diferentes câmeras para identificar tudo o que acontece ao seu 
redor de forma a identificar por onde passar, quando efetuar uma curva, quando frear por conta 
de um carro parado e outras atividades típicas da condução de um carro dependentes da visão.
 Link do video: https://youtu.be/9ydhDQaLAqM
Como funciona a visão computacional
O cérebro humano conta com milhares de anos de evolução, o que gerou a capacidade de 
visualizar uma foto e determinar elementos como flores e borboleta.
O que você vê na imagem acima? Como uma máquina seria capaz 
de reconhecer os mesmos elementos que você?
Para um programa, considerando que tal foto tenha uma resolução de 1024 x 768 pixels, tal 
imagem nada mais é do que uma matriz de 786.432 elementos, cada um contendo um código 
numérico representando uma tonalidade de cor.
20Enap Fundação Escola Nacional de Administração Pública
Para o computador, a imagem nada mais é do que uma matriz de 786.432 elementos, 
cada um contendo um código numérico representando uma tonalidade de cor.
Por meio de técnicas de machine learning, programas podem ser treinados para identificar os 
elementos com um excelente nível de confiança. Observe que, assim como um humano, as 
máquinas nem sempre conseguem distinguir elementos em uma imagem, os algoritmos também 
não são perfeitos.
De fato, o resultado do processamento apontará uma possível classificação do elemento 
associada a um percentual de confiança. As imagens a seguir são de cães da raça Komondor e de 
esfregões. Para diversos casos como esse, o algoritmo apresentará um índice de confiança muito 
baixo, pois são imagens particularmente difíceis de serem analisadas, apesar de representarem 
elementos completamente diferentes.
21Enap Fundação Escola Nacional de Administração Pública
Komondor ou esfregão?
Para aumentar o nível de confiança dos resultados, é utilizado um tipo específico de rede neural: 
a rede neural convolucional (convolutional neural network - CNN). A CNN divide a imagem em 
grupos de pixels menores, chamados filtros, de onde serão buscados os padrões esperados. Essa 
rede utiliza uma função de cálculo de erro que avalia os pesos utilizados com os pesos esperados 
baseados na massa de treinamento, de forma a apresentar um índice de assertividade maior.
E no caso de vídeos?
Vídeos são um conjunto de imagens exibidas em sequência. Um vídeo de 60 frames por segundo 
(60 FPS) nada mais é do que 60 imagens sendo exibidas no intervalo de um segundo. Os vídeos 
trazem uma dificuldade a mais para a visão computacional: o contexto temporal de cada 
elemento. No exemplo do automóvel com direção autônoma, não basta o algoritmo identificar, 
por exemplo, que o elemento da frente é um carro. É necessário diferenciar se é um carro parado, 
se aproximando ou se afastando.
Para fazer o reconhecimento dos elementos no contexto temporal, ou seja, como ele se comporta 
ao longo dos frames, o resultado obtido pela CNN é carregado para outro tipo de rede neural, 
a recorrente (recurrent neural network - RNN). As RNNs consideram a informação passada no 
22Enap Fundação Escola Nacional de Administração Pública
processo de decisão, por isso são capazes de fazer a identificação de um elemento com base no 
contexto.
Destaque h, h, h, h, 
O treinamento de algoritmos de visão computacional requer volumes muito 
grandes de amostras para atingir um bom índice de assertividade. Grandes 
companhias, muitas vezes, utilizam usuários de seus serviços para treinar 
seus algoritmos, solicitando que identifiquem placas de trânsito ou casas em 
imagens. Outra forma é a contratação de pessoas para geração de dados. 
Existem ainda plataformas que fornecem os modelos já treinados, permitindo 
a contratação as a service, com o pagamento pela quantidade de uso.
2.5. Internet das coisas (IoT)
A internet das coisas, mais conhecida pelo seu termo em inglês (e de onde a sigla se deriva) 
internet of things, consiste na inserção de sensores e recursos de conectividade nos mais 
diversos elementos (ou coisas, como o termo sugere), de forma que estes possam transmitir 
informações úteis. A IoT possui as mais diversas aplicações, partindo desde elementos vestíveis, 
como relógios, até grandes equipamentos industriais.
A ideia de conectar os mais diversos elementos em rede já existe há bastante tempo, mas uma 
série de fatores fez com que o conceito se popularizasse na última década. O barateamento 
dos custos de produção, combinado com a evolução tecnológica, que permitiu a miniaturização 
dos componentes e a redução drástica do consumo de energia, pode ser considerado um dos 
principais fatores. Hoje é possível adquirir no varejo um transmissor wi-fi, como o da foto, por 
menos de um dólar. A criação de padrões de transmissão LE (low energy) fez com que fosse 
possível a conexão em elementos alimentados por bateria sem comprometer a autonomia dos 
dispositivos.
A ampla oferta de plataformas de processamento em nuvem foi outro importante fator. Essas 
plataformas simplificam a recepção dos dados por meio de APIs e permitem a utilização de 
23Enap Fundação Escola Nacional de Administração Pública
milhares de sensores de forma simultânea com alto grau de confiabilidade e baixo custo de 
implantação para os utilizadores da tecnologia.
O avanço do aprendizado de máquina e de plataformas de análise de big data trouxe o poder 
de processamento necessário para a extração de informação da imensa quantidade de dados 
gerados pelos dispositivos
Destaque h, h, h, h, 
O setor público pode se beneficiar dessa tecnologia das mais diversas formas. 
Concessionárias de energia elétrica podem utilizar sensores em sua malha 
para identificar falhas de transmissão e acionar automaticamente as equipes 
de reparo. Viaturas policiais conectadas permitem identificar o veículo mais 
próximo para o atendimento de uma ocorrência.Sensores de esgoto podem 
mapear o avanço de doenças por regiões em tempo real. As possibilidades de 
aplicação são quase infinitas e podem trazer um salto de qualidade significativo 
na prestação do serviço público.
24Enap Fundação Escola Nacional de Administração Pública
Referências
Unidade 1
ALISSON, E. Inteligência artificial prevê ocorrência de crimes em áreas urbanas. Galileu, São 
Paulo, 2 ago. 2020. Disponível em: https://revistagalileu.globo.com/Tecnologia/noticia/2020/08/
inteligencia-artificial-preve-ocorrencia-de-crimes-em-areas-urbanas.html. Acesso em: 7 dez. 
2020.
 
ANYOHA, R. The History of Artificial Intelligence. Science in the News, Boston, 28 Aug. 2017. 
Disponível em: http://sitn.hms.harvard.edu/flash/2017/history-artificial-intelligence/. Acesso 
em: 7 dez. 2020.
 
IBM. Artificial intelligence in medicine. Watson Health Learning Hub, Armonk, [25 Aug. 2020]. 
Disponível em: https://www.ibm.com/watson-health/learn/artificial-intelligence-medicine. 
Acesso em: 7 dez. 2020.
 
SASIKUMAR, S. Data Science vs. Data Analytics vs. Machine Learning: expert talk. Simpli Learn, 
San Francisco, 13 Nov. 2020. Disponível em: https://www.simplilearn.com/data-science-vs-data-
analytics-vs-machine-learning-article. Acesso em: 7 dez. 2020.
 
WAZE chega a 3 milhões de usuários em São Paulo. Exame, São Paulo, 15 set. 2016. Disponível 
em: https://exame.com/tecnologia/waze-chega-a-3-milhoes-de-usuarios-em-sao-paulo/. 
Acesso em: 7 dez. 2020.
Unidade 2
FAWCETT, A. The top 10 ML algorithms for data science in 5 minutes. Educative, Bellevue, 9 Dec. 
2019. Disponível em: https://www.educative.io/blog/top-10-ml-algorithms-for-data-science-in-
5-minutes. Acesso em: 7 dez. 2020.
 
GARBADE, M. J. A Simple Introduction to Natural Language Processing. Medium, [s. l.], 15 Oct. 
2018. Disponível em: https://becominghuman.ai/a-simple-introduction-to-natural-language-
processing-ea66a1747b32. Acesso em: 7 dez. 2020.
 
GOMES, P. C. T. Ética e Inteligência Artificial: viés em machine learning. Data Geeks, [s. l.], 9 abr. 
2019. Disponível em: https://www.datageeks.com.br/etica-e-inteligencia-artificial/. Acesso em: 
7 dez. 2020.
 
HARDESTY, L. Explained: neural networks. MIT News, Cambridge, 14 Apr. 2017. Disponível em: 
https://news.mit.edu/2017/explained-neural-networks-deep-learning-0414. Acesso em: 7 dez. 
2020.
 
25Enap Fundação Escola Nacional de Administração Pública
HOW Computer Vision Works. [S. l.: s. n.], 2018. 1 vídeo. (7 min). Publicado pelo canal Google 
Cloud Platform. Disponível em: https://www.youtube.com/watch?v=OcycT1Jwsns. Acesso em: 7 
dez. 2020.
 
KAVLAKOGLU, E. AI vs. Machine Learning vs. Deep Learning vs. Neural Networks: what’s the 
difference? IBM Cloud, Armonk, 27 May 2020. Disponível em: https://www.ibm.com/cloud/
blog/ai-vs-machine-learning-vs-deep-learning-vs-neural-networks. Acesso em: 7 dez. 2020.
 
ORACLE. O Que é Internet of Things (IoT)? Oracle Brasil, [s. l., 5 Sept. 2020]. Disponível em: 
https://www.oracle.com/br/internet-of-things/what-is-iot.html. Acesso em: 7 dez. 2020.
 
RODRIGUES, J. O que é o Processamento de Linguagem Natural? Medium, [s. l.], 14 jul. 2020. 
Disponível em: https://medium.com/botsbrasil/o-que-é-o-processamento-de-linguagem-
natural-49ece9371cff. Acesso em: 7 dez. 2020.
 
VINCENT, J. Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day. The 
Verge, [s. l.], 24 Mar. 2016. Disponível em: https://www.theverge.com/2016/3/24/11297050/
tay-microsoft-chatbot-racist. Acesso em: 7 dez. 2020.

Mais conteúdos dessa disciplina