Logo Passei Direto
Buscar

FUNDAMENTOSE ARQUITETURA DE COMPUTADORES

Ferramentas de estudo

Questões resolvidas

Agora, vamos explorar as portas lógicas e as respectivas funcionalidades.
VOCÊ SABE RESPONDER?
Você já parou para pensar em como um computador “pensa”?
Portas lógicas
Quando pressionamos uma tecla, clicamos em um botão ou enviamos uma mensagem, esperamos uma reação. Entretanto, como a máquina entende o que deve ser feito? Essa mágica acontece graças aos elementos chamados “portas lógicas”. De acordo com Stallings (2024), elas são os blocos fundamentais do processamento digital, responsáveis por interpretar os sinais binários (0 e 1) e tomar decisões simples que, quando combinadas, geram sistemas complexos.
Mas, afinal, o que são essas portas lógicas? Por que elas são tão importantes? As portas lógicas são circuitos eletrônicos que realizam operações booleanas básicas, como AND, OR, NOT, entre outras com sinais binários. Em outras palavras, elas recebem um ou mais bits (0 ou 1) como entrada, realizam um teste lógico e fornecem um bit de saída. Imagine que cada porta é como uma decisão simples dentro de um cérebro eletrônico: ela analisa condições e responde com "sim" (1) ou "não" (0). Vejamos, no quadro a seguir, as principais portas e as respectivas funções.
Quais são as funções das portas lógicas AND, OR, NOT e XOR?
AND: Só retorna 1 se todas as entradas forem 1.
OR: Retorna 1 se pelo menos uma entrada for 1.
NOT: Inverte a entrada: 0 se torna 1, e 1 se torna 0.
XOR: Retorna 1 somente se as entradas forem diferentes.

É muito importante entendermos o que são circuitos combinacionais para avançarmos cada vez mais na nossa disciplina e fazer projetos cada vez mais complexos. Assim, um circuito lógico combinacional é aquele em que a saída depende exclusivamente do estado atual das entradas. Ele não armazena histórico, ou seja, não tem memória interna: toda vez que alteramos uma entrada, a saída é recalculada instantaneamente (Brookshear, 2013).
Ao utilizarmos um exemplo cotidiano, imagine um sistema de entrada com senha eletrônica que destrava uma porta se a combinação correta for pressionada. Esse sistema pode ser construído com um circuito lógico que compara os bits inseridos com uma combinação fixa. Se forem iguais, a saída (destravar) será ativada.
Para a elaboração de um projeto de circuitos combinacionais, iniciamos com a análise do problema. Logo, o primeiro passo é entender o que o circuito deve fazer. Quantas entradas são necessárias? Quantas saídas? Qual é a lógica da decisão? Exemplo prático: uma fábrica quer automatizar o sistema de ventilação. O ventilador liga se a temperatura for alta ou se houver muita fumaça.
Entradas:
■ T = 1 se temperatura alta.
■ F = 1 se fumaça detectada.
Saída:
■ V = 1 se o ventilador deve ligar.
Lógica: V = T + F
Para a verificação das condições, isto é, se estão corretas ou não, utilizamos uma ferramenta tradicional chamada tabela-verdade. A tabela-verdade é uma ferramenta essencial, porque lista todas as combinações possíveis de entrada e a respectiva saída desejada.
Qual é a expressão booleana que representa a lógica do ventilador que liga se a temperatura for alta ou se houver fumaça?
V = T + F

CIRCUITOS SEQUENCIAIS: QUANDO A LÓGICA GANHA MEMÓRIA
Até agora, estudamos os circuitos que mudam a saída conforme a entrada no exato momento. Mas e se quisermos que o sistema lembre o que aconteceu antes? É nesse contexto que entram os circuitos lógicos sequenciais. Diferentemente dos circuitos combinacionais, os quais respondem apenas ao estado atual das entradas, os circuitos sequenciais levam em conta o histórico, ou seja, eles possuem memória.
Eles são a base de dispositivos inteligentes que dependem do tempo ou da sequência de eventos, como cronômetros digitais, controladores de elevador, processadores, máquinas de estados, entre muitos outros. Um circuito sequencial é composto por elementos lógicos (como portas AND, OR, NOT) e elementos de memória, que armazenam o estado atual e fomentam decisões baseadas em entradas passadas e presentes. Esses elementos de memória são os flip-flops, que veremos a seguir.
Flip-flops: o bit da memória digital. O flip-flop é o menor elemento de memória digital. Ele armazena um único bit, podendo manter seu estado indefinidamente até ser alterado por uma entrada de controle (normalmente, um sinal de clock). Vamos conhecer alguns tipos principais de flip-flop:
SR (SET-RESET)
Permite ligar ou desligar uma saída.
D (DATA OU DELAY)
Armazena o valor da entrada na borda de clock.
JK
Evolução do SR, com melhor controle de estados.
Quais são os principais tipos de flip-flop e suas funções básicas?
SR (SET-RESET): Permite ligar ou desligar uma saída.
D (DATA OU DELAY): Armazena o valor da entrada na borda de clock.
JK: Evolução do SR, com melhor controle de estados.

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Questões resolvidas

Agora, vamos explorar as portas lógicas e as respectivas funcionalidades.
VOCÊ SABE RESPONDER?
Você já parou para pensar em como um computador “pensa”?
Portas lógicas
Quando pressionamos uma tecla, clicamos em um botão ou enviamos uma mensagem, esperamos uma reação. Entretanto, como a máquina entende o que deve ser feito? Essa mágica acontece graças aos elementos chamados “portas lógicas”. De acordo com Stallings (2024), elas são os blocos fundamentais do processamento digital, responsáveis por interpretar os sinais binários (0 e 1) e tomar decisões simples que, quando combinadas, geram sistemas complexos.
Mas, afinal, o que são essas portas lógicas? Por que elas são tão importantes? As portas lógicas são circuitos eletrônicos que realizam operações booleanas básicas, como AND, OR, NOT, entre outras com sinais binários. Em outras palavras, elas recebem um ou mais bits (0 ou 1) como entrada, realizam um teste lógico e fornecem um bit de saída. Imagine que cada porta é como uma decisão simples dentro de um cérebro eletrônico: ela analisa condições e responde com "sim" (1) ou "não" (0). Vejamos, no quadro a seguir, as principais portas e as respectivas funções.
Quais são as funções das portas lógicas AND, OR, NOT e XOR?
AND: Só retorna 1 se todas as entradas forem 1.
OR: Retorna 1 se pelo menos uma entrada for 1.
NOT: Inverte a entrada: 0 se torna 1, e 1 se torna 0.
XOR: Retorna 1 somente se as entradas forem diferentes.

É muito importante entendermos o que são circuitos combinacionais para avançarmos cada vez mais na nossa disciplina e fazer projetos cada vez mais complexos. Assim, um circuito lógico combinacional é aquele em que a saída depende exclusivamente do estado atual das entradas. Ele não armazena histórico, ou seja, não tem memória interna: toda vez que alteramos uma entrada, a saída é recalculada instantaneamente (Brookshear, 2013).
Ao utilizarmos um exemplo cotidiano, imagine um sistema de entrada com senha eletrônica que destrava uma porta se a combinação correta for pressionada. Esse sistema pode ser construído com um circuito lógico que compara os bits inseridos com uma combinação fixa. Se forem iguais, a saída (destravar) será ativada.
Para a elaboração de um projeto de circuitos combinacionais, iniciamos com a análise do problema. Logo, o primeiro passo é entender o que o circuito deve fazer. Quantas entradas são necessárias? Quantas saídas? Qual é a lógica da decisão? Exemplo prático: uma fábrica quer automatizar o sistema de ventilação. O ventilador liga se a temperatura for alta ou se houver muita fumaça.
Entradas:
■ T = 1 se temperatura alta.
■ F = 1 se fumaça detectada.
Saída:
■ V = 1 se o ventilador deve ligar.
Lógica: V = T + F
Para a verificação das condições, isto é, se estão corretas ou não, utilizamos uma ferramenta tradicional chamada tabela-verdade. A tabela-verdade é uma ferramenta essencial, porque lista todas as combinações possíveis de entrada e a respectiva saída desejada.
Qual é a expressão booleana que representa a lógica do ventilador que liga se a temperatura for alta ou se houver fumaça?
V = T + F

CIRCUITOS SEQUENCIAIS: QUANDO A LÓGICA GANHA MEMÓRIA
Até agora, estudamos os circuitos que mudam a saída conforme a entrada no exato momento. Mas e se quisermos que o sistema lembre o que aconteceu antes? É nesse contexto que entram os circuitos lógicos sequenciais. Diferentemente dos circuitos combinacionais, os quais respondem apenas ao estado atual das entradas, os circuitos sequenciais levam em conta o histórico, ou seja, eles possuem memória.
Eles são a base de dispositivos inteligentes que dependem do tempo ou da sequência de eventos, como cronômetros digitais, controladores de elevador, processadores, máquinas de estados, entre muitos outros. Um circuito sequencial é composto por elementos lógicos (como portas AND, OR, NOT) e elementos de memória, que armazenam o estado atual e fomentam decisões baseadas em entradas passadas e presentes. Esses elementos de memória são os flip-flops, que veremos a seguir.
Flip-flops: o bit da memória digital. O flip-flop é o menor elemento de memória digital. Ele armazena um único bit, podendo manter seu estado indefinidamente até ser alterado por uma entrada de controle (normalmente, um sinal de clock). Vamos conhecer alguns tipos principais de flip-flop:
SR (SET-RESET)
Permite ligar ou desligar uma saída.
D (DATA OU DELAY)
Armazena o valor da entrada na borda de clock.
JK
Evolução do SR, com melhor controle de estados.
Quais são os principais tipos de flip-flop e suas funções básicas?
SR (SET-RESET): Permite ligar ou desligar uma saída.
D (DATA OU DELAY): Armazena o valor da entrada na borda de clock.
JK: Evolução do SR, com melhor controle de estados.

Prévia do material em texto

EDMAR ALVES SENNE
FUNDAMENTOS E 
ARQUITETURA DE 
COMPUTADORES
Coordenador(a) de Conteúdo 
Silvio Cesar de Castro
Projeto Gráfico e Capa
Arthur Cantareli Silva
Editoração
Edinei Tomelin
Design Educacional
Fernanda Brito
Revisão Textual
Cindy Mayumi Okamoto Luca
Ilustração
Bruno Cesar Pardinho Figueiredo
Eduardo Aparecido Alves
Fotos
Shutterstock e Envato
Ano de impressão: 
Impresso por: 
Bibliotecária: Leila Regina do Nascimento - CRB- 9/1722.
Ficha catalográfica elaborada de acordo com os dados fornecidos pelo(a) autor(a).
Núcleo de Educação a Distância. SENNE, Edmar Alves.
Fundamentos e Arquitetura de Computadores / Edmar Alves 
Senne. - Florianópolis, SC: Arqué, 2025.
216 p.
ISBN papel 978-65-279-1286-6
ISBN digital 978-65-279-1234-7
1. Fundamentos 2. Arquitetura 3. Computadores 4. EaD. I. Título. 
CDD - 004.22 
EXPEDIENTE
FICHA CATALOGRÁFICA
N964
02512039
https://apigame.unicesumar.edu.br/qrcode/17299
RECURSOS DE IMERSÃO
Utilizado para temas, assuntos ou con-
ceitos avançados, levando ao aprofun-
damento do que está sendo trabalhado 
naquele momento do texto. 
APROFUNDANDO
Uma dose extra de 
conhecimento é sempre 
bem-vinda. Aqui você 
terá indicações de filmes 
que se conectam com o 
tema do conteúdo.
INDICAÇÃO DE FILME
Uma dose extra de 
conhecimento é sempre 
bem-vinda. Aqui você terá 
indicações de livros que 
agregarão muito na sua 
vida profissional.
INDICAÇÃO DE LIVRO
Utilizado para desmistificar pontos 
que possam gerar confusão sobre o 
tema. Após o texto trazer a explicação, 
essa interlocução pode trazer pontos 
adicionais que contribuam para que 
o estudante não fique com dúvidas 
sobre o tema. 
ZOOM NO CONHECIMENTO
Este item corresponde a uma proposta 
de reflexão que pode ser apresentada por 
meio de uma frase, um trecho breve ou 
uma pergunta. 
PENSANDO JUNTOS
Utilizado para aprofundar o 
conhecimento em conteúdos 
relevantes utilizando uma lingua-
gem audiovisual.
EM FOCO
Utilizado para agregar um con-
teúdo externo.
EU INDICO
Professores especialistas e con-
vidados, ampliando as discus-
sões sobre os temas por meio de 
fantásticos podcasts.
PLAY NO CONHECIMENTO
PRODUTOS AUDIOVISUAIS
Os elementos abaixo possuem recursos 
audiovisuais. Recursos de mídia dispo-
níveis no conteúdo digital do ambiente 
virtual de aprendizagem.
4
83
127
169
U N I D A D E 3
ORGANIZAÇÃO DO PROCESSADOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .84
MEMÓRIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .104
U N I D A D E 4
SISTEMAS DE ENTRADA E SAÍDA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .128
SISTEMAS OPERACIONAIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .150
U N I D A D E 5
ARQUITETURAS AVANÇADAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .170
TÓPICOS ESPECIAIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .194
7
U N I D A D E 1
INTRODUÇÃO À COMPUTAÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
35
U N I D A D E 2
REPRESENTAÇÃO DE DADOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .36
LÓGICA DIGITAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .58
5
CAMINHOS DE APRENDIZAGEM
UNIDADE 1
MINHAS METAS
INTRODUÇÃO À COMPUTAÇÃO
Compreender o conceito de computação e a respectiva aplicação no cotidiano.
Conhecer o pensamento computacional e a resolução de problemas.
Identificar as principais áreas de atuação da computação.
Relacionar os conceitos de hardware e software.
Entender a estrutura de um sistema computacional.
Explorar o modelo de arquitetura de Von Neumann.
Desenvolver uma visão crítica sobre a importância da computação.
T E M A D E A P R E N D I Z A G E M 1
8
INICIE SUA JORNADA
Você já se perguntou como o celular que está na sua mão, o computador que 
você usa para estudar ou até o caixa eletrônico do banco conseguem realizar 
tantas tarefas diferentes com tanta rapidez? Hoje, isso parece algo natural, mas, 
por trás dessas ações simples, existe uma ciência complexa, cheia de histórias e 
transformações. A computação está tão presente em nossa rotina que, muitas 
vezes, esquecemo-nos de questionar: como tudo isso funciona? E mais: como 
posso me tornar um profissional nesse universo?
Entender como o mundo moderno se movimenta, conecta-se e evolui é im-
portante em qualquer área profissional. Nesse cenário, saber ao menos o básico 
sobre sistemas computacionais é uma vantagem e, para quem deseja seguir car-
reira na área, trata-se de um universo repleto de oportunidades.
Imagine que você está desenvolvendo um aplicativo que ajuda pequenos comér-
cios da sua cidade a organizarem vendas e estoque. Para isso, você deve pensar em 
como coletar dados, como processá-los, como apresentar os resultados e como 
o aplicativo funcionará em diferentes aparelhos. Tudo isso envolve noções de 
hardware, software, dados, algoritmo e pensamento computacional.
Diante disso, ao longo da nossa disciplina, você terá contato com esses ele-
mentos, entenderá como surgiram, como funcionam e como usá-los a seu favor. 
O mais interessante: você perceberá que a lógica por trás de um sistema pode ser 
parecida com a de um jogo ou até mesmo de uma receita de bolo. A partir dessa 
jornada, você não será apenas um usuário de tecnologia, mas alguém capaz de 
entender, criar e transformar. 
No episódio de hoje, exploraremos a história da computação, 
desde os primeiros cálculos manuais até os supercomputadores 
e a Inteligência Artificial (IA). Aperte o play e descubra como o 
passado moldou o mundo digital em que vivemos!
PLAY N O CONHECIMENTO
UNICESUMAR
9
https://on.soundcloud.com/045zhGFN3Ox9m94Wk4
TEMA DE APRENDIZAGEM 1
VAMOS RECORDAR?
Você sabia que os computadores ajudaram a reduzir 
a duração da Segunda Guerra Mundial? Em 1943, o 
engenheiro britânico Tommy Flowers criou o Colossus, 
o primeiro computador eletrônico programável. Um 
ano depois, ele lançou uma versão ainda mais rápida, 
o Colossus Mark 2. Winston Churchill disse que, sem 
elas, a guerra teria durado pelo menos dois anos a mais. 
Impressionante, não é? Acesse e saiba a importância dos 
computadores para a nossa história.
DESENVOLVA SEU POTENCIAL
Iniciaremos o nosso tema respondendo à seguinte pergunta: o que é computação? 
De forma sucinta, podemos afirmar que é a ciência que estuda os fundamentos 
teóricos da informação, incluindo os processos de cálculo e representação, bem 
como o desenvolvimento e o uso de sistemas computacionais para processar, 
armazenar e transmitir dados. 
Os três principais objetivos da área da computação são:
 ■ Resolver problemas de forma automática e eficiente.
 ■ Automatizar tarefas com o uso de algoritmos e máquinas.
 ■ Criar soluções digitais aplicadas à vida cotidiana.
Podemos observar que vivemos em um mundo cada vez mais conectado, no 
qual a computação se tornou parte essencial da vida cotidiana. De simples tarefas 
domésticas a sistemas complexos de gestão empresarial, é a computação que está 
por trás das soluções que usamos diariamente. Afinal, como surgiu a computa-
ção? Quais são os principais componentes dela? Qual é o impacto dela no mundo 
em que vivemos? Esta disciplina busca explorar esses questionamentos por meio 
de uma jornada histórica, conceitual e reflexiva.
1
1
https://www.youtube.com/watch?v=c5lugpYQLD8
Quando ouvimos a palavra “computação”, logo nos vem à mente a imagem de 
computadores,Por que elas são tão importantes? 
As portas lógicas são circuitos eletrônicos que realizam operações booleanas 
básicas, como AND, OR, NOT, entre outras com sinais binários. Em outras 
palavras, elas recebem um ou mais bits (0 ou 1) como entrada, realizam um 
teste lógico e fornecem um bit de saída. Imagine que cada porta é como uma 
decisão simples dentro de um cérebro eletrônico: ela analisa condições e res-
ponde com "sim" (1) ou "não" (0). Vejamos, no quadro a seguir, as principais 
portas e as respectivas funções.
PORTA SÍMBOLO FUNÇÃO EXEMPLO PRÁTICO
AND ·
Só retorna 1 se todas 
as entradas forem 1.
Um carro só liga se o botão for 
pressionado e a embreagem esti-
ver acionada.
OR +
Retorna 1 se pelo me-
nos uma entrada for 1.
Um alarme dispara se detectar 
movimento ou uma porta aberta.
NOT ~
Inverte a entrada: 0 se 
torna 1, e 1 se torna 0.
Um ventilador desliga 
 automaticamente quando não há 
pessoas na sala.
XOR ⊕
Retorna 1 somente 
se as entradas forem 
diferentes.
Um interruptor paralelo: ligar uma 
luz a partir de dois pontos distintos.
NAND ~(AND)
Retorna 0 só se todas 
as entradas forem 1.
Lógica de proteção: falha quando 
tudo está “ok” (detecta anomalias).
NOR ~(OR)
Retorna 1 só se todas 
as entradas forem 0.
Sistemas de espera: só iniciam 
se não houver nenhuma solicita-
ção ativa.
Quadro 1 – Portas lógicas / Fonte: o autor.
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 3
Representação simbólica
Cada porta possui uma representação gráfica padronizada utilizada em circui-
tos digitais. Essa representação gráfica facilita a leitura e a aplicação em projetos 
e diagramas de circuitos. Essa padronização é essencial para que engenheiros, 
técnicos, programadores e desenvolvedores consigam ler, projetar e simular 
circuitos digitais com precisão, independentemente da linguagem falada ou da 
ferramenta utilizada.
Vamos conhecer quais são as representações e funções. Lembre-se de que há 
relação com a programação, ou seja, é um assunto muito importante até mesmo 
para programadores, que, ao observarem a representação, poderiam iniciar o 
desenvolvimento de projetos.
 Porta AND 
Retorna 1 apenas quando todas as en-
tradas são 1. 
AND
 Porta OR 
Retorna 1 quando pelo menos uma das 
entradas é 1. 
OR
1
8
 Porta NOT 
Inverte o valor da entrada; retorna 0 para 
entrada 1 e 1 para entrada 0. 
NOT
 Porta XOR 
Retorna 1 quando um número ímpar de 
entradas é 1. 
XOR
 Porta NAND 
Retorna 0 apenas quando todas as entra-
das são 1. É a negação da porta AND. 
NAND
UNICESUMAR
1
9
TEMA DE APRENDIZAGEM 3
 Porta NOR 
Retorna 1 apenas quando todas as entra-
das são 0. É a negação da porta OR. 
NOR
 Porta XNOR 
Retorna 1 quando um número par de en-
tradas é 1. É a negação da porta XOR. 
XNOR
Esses símbolos são utilizados em diagramas de circuitos, facilitando a visualiza-
ção da lógica do sistema. As portas lógicas, quando combinadas, podem formar 
até microprocessadores inteiros. Todo processador é uma rede complexa de por-
tas lógicas. Ao somar dois números, fazer uma comparação ou tomar decisões 
de fluxo, as portas estão lá, executando cada passo.
Em um sistema embarcado de irrigação automática, por exemplo, as portas 
lógicas decidem se Sensor de Umidade = 0 AND Horario = noturno o resultado 
é Acionar a bomba. Ao programar um circuito com Arduino para ligar uma 
lâmpada, se for noite ou houver um movimento detectado, a luz acende. Ou seja, 
utiliza-se OR. Engines de jogos usam a lógica booleana para comportamentos. 
Por exemplo: o personagem só atira se estiver vivo e tiver munição.
Assim, é demarcada a importância de se estudar esses conceitos, principal-
mente em nossa área, pois, quando dominamos as portas lógicas, conseguimos 
compreender o funcionamento de qualquer circuito digital. Isso também se ex-
pande para a programação.
1
1
O Logisim é uma ferramenta educacional para a concepção e a simulação 
digital de circuitos lógicos. Com uma interface simples e com ferramentas dis-
poníveis para simular circuitos à medida que são construídos, é simples o bas-
tante para facilitar a aprendizagem dos conceitos mais básicos relacionados aos 
circuitos lógicos. Além disso, é possível construir circuitos maiores a partir de 
subcircuitos menores e traçar conexões com um mero arrastar do mouse.
Circuitos lógicos: criando sistemas digitais inteligentes
Já imaginou como um sistema decide automaticamente abrir um portão, ativar 
um alarme ou até controlar o funcionamento de um robô? Na base de tudo 
isso, estão os circuitos lógicos combinacionais: se as portas lógicas são os blocos 
fundamentais, os circuitos combinacionais são como as frases construídas com 
essas palavras, uma combinação de lógica que interpreta entradas e gera saídas 
coerentes de forma imediata, sem depender de tempo ou memória.
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 3
É muito importante entendermos o que são circuitos combinacionais para 
avançarmos cada vez mais na nossa disciplina e fazer projetos cada vez mais 
complexos. Assim, um circuito lógico combinacional é aquele em que a saída 
depende exclusivamente do estado atual das entradas. Ele não armazena histó-
rico, ou seja, não tem memória interna: toda vez que alteramos uma entrada, a 
saída é recalculada instantaneamente (Brookshear, 2013).
Ao utilizarmos um exemplo cotidiano, imagine um sistema de entrada com 
senha eletrônica que destrava uma porta se a combinação correta for pressionada. 
Esse sistema pode ser construído com um circuito lógico que compara os bits in-
seridos com uma combinação fixa. Se forem iguais, a saída (destravar) será ativada.
Para a elaboração de um projeto de circuitos combinacionais, iniciamos com 
a análise do problema. Logo, o primeiro passo é entender o que o circuito deve 
fazer. Quantas entradas são necessárias? Quantas saídas? Qual é a lógica da de-
cisão? Exemplo prático: uma fábrica quer automatizar o sistema de ventilação. 
O ventilador liga se a temperatura for alta ou se houver muita fumaça.
Entradas:
 ■ T = 1 se temperatura alta.
 ■ F = 1 se fumaça detectada.
Saída:
 ■ V = 1 se o ventilador deve ligar.
Lógica: V = T + F
Para a verificação das condições, isto é, se estão corretas ou não, utilizamos uma 
ferramenta tradicional chamada tabela-verdade. A tabela-verdade é uma fer-
ramenta essencial, porque lista todas as combinações possíveis de entrada e a 
respectiva saída desejada.
1
1
A partir da tabela-verdade, escrevemos uma expressão booleana que representa 
o comportamento do sistema. Essa expressão pode ser simplificada com técnicas, 
como álgebra booleana ou softwares de simulação.
Expressão original: V = T + F
Todavia, em circuitos maiores, com 4, 5 ou mais variáveis, a simplificação é cru-
cial para reduzir o custo e aumentar a eficiência. Temos, hoje, na eletrônica au-
tomotiva, as seguintes condições que podemos relacionar com a tabela-verdade:
 ■ Acionamento automático dos faróis.
 ■ Sinal sonoro se a porta estiver aberta e o cinto não estiver afivelado.
 ■ Ativação de sensores de ré baseada na posição da marcha.
Essas decisões baseadas em sensores e atuadores são modeladas com circuitos 
combinacionais. A simplificação de circuitos não é só teórica: no mercado, uti-
lizamos Mapas de Karnaugh, que constituem um método visual o qual ajuda a 
minimizar as expressões booleanas, e softwares, como Logisim, que permitem 
simular e otimizar circuitos. Circuitos combinacionais são sistemas lógicos sem 
memória, pois fomentam decisões rápidas e determinísticas com base nas entra-
das. Portanto, são utilizados em todo sistema digital inteligente.
T (TEMP) F (FUMAÇA) V (VENTILADOR)
0 0 0
0 1 1
1 0 1
1 1 1
Tabela 1 – Tabela-verdade V = T + F / Fonte: o autor.
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 3
CIRCUITOS SEQUENCIAIS: 
QUANDO A LÓGICA GANHA MEMÓRIA
Até agora, estudamos os circuitos que mudam a saída conforme a entrada no 
exato momento. Mas e se quisermos que o sistema lembre o que aconteceu 
antes? É nesse contexto que entram os circuitos lógicos sequenciais.Diferen-
temente dos circuitos combinacionais, os quais respondem apenas ao estado 
atual das entradas, os circuitos sequenciais levam em conta o histórico, ou seja, 
eles possuem memória.
Eles são a base de dispositivos inteligentes que dependem do tempo ou 
da sequência de eventos, como cronômetros digitais, controladores de ele-
vador, processadores, máquinas de estados, entre muitos outros. Um circuito 
sequencial é composto por elementos lógicos (como portas AND, OR, NOT) 
e elementos de memória, que armazenam o estado atual e fomentam decisões 
baseadas em entradas passadas e presentes. Esses elementos de memória são 
os flip-flops, que veremos a seguir.
Flip-flops: o bit da memória digital. O flip-flop é o menor elemento de memória 
digital. Ele armazena um único bit, podendo manter seu estado indefinidamente 
até ser alterado por uma entrada de controle (normalmente, um sinal de clock). 
Vamos conhecer alguns tipos principais de flip-flop:
SR (SET-RESET)
Permite ligar ou desligar uma saída.
D (DATA OU DELAY)
Armazena o valor da entrada na borda de clock.
JK
Evolução do SR, com melhor controle de estados.
1
1
Registradores: armazém de bits: os registradores são conjuntos de flip-flops 
organizados para armazenar palavras (conjuntos de bits). Um registrador de 8 
bits, por exemplo, armazena um byte completo. Eles são utilizados para:
 ■ Armazenar dados temporariamente durante o processamento.
 ■ Mover dados entre componentes de um processador.
 ■ Controlar estados de dispositivos em sistemas embarcados.
Na prática, um microcontrolador armazena os valores lidos de sensores em 
registradores antes de tomar uma decisão, como ligar um motor ou enviar 
dados via rede.
Contadores: sequência sob controle. De acordo com Hennessy (2019), os con-
tadores são circuitos sequenciais que incrementam ou decrementam automa-
ticamente a cada pulso de clock. Eles servem para:
T (TOGGLE)
Alterna entre 0 e 1 sempre que recebe um pulso de clock.
• Contar eventos: número de peças produzidas.
• Controlar tempo: cronômetros digitais e máquinas de lavar.
• Gerar sequências: endereços em memória e estados de uma máquina.
Estudaremos, agora, os contadores, que são circuitos formados por flip-flops. Eles 
funcionam de acordo com a forma como esses flip-flops recebem e processam 
os pulsos de entrada:
• Contadores síncronos: todos os flip-flops mudam com o mesmo clock.
• Contadores assíncronos: os flip-flops mudam em sequência, com atrasos.
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 3
Um dos exemplos que utilizam o flip-flop são os sistemas embarcados: um 
smartwatch usa registradores para manter o tempo atual, além de utilizar con-
tadores para contar passos, batimentos cardíacos ou tempo de uso. Logo, os 
flip-flops, nesse caso, são utilizados para construir as memórias internas dos 
microcontroladores.
Em arquitetura de processadores, cada instrução executada é carregada 
em um registrador de instruções. O endereço da próxima instrução é contro-
lado por um contador de programa, enquanto os estados intermediários da 
CPU são mantidos por flip-flops. Entender circuitos sequenciais é entender 
como os dispositivos armazenam, processam e tomam decisões ao longo do 
tempo. Eles são essenciais para o funcionamento de qualquer sistema digital 
moderno (Monteiro, 2015).
Estudante, para expandir os seus conhecimentos no assunto 
abordado, gostaríamos de indicar a aula que preparamos espe-
cialmente para você. Acreditamos que essa aula irá complemen-
tar e aprofundar ainda mais o seu entendimento do tema.
E M FOCO
NOVOS DESAFIOS
Ao longo deste tema de aprendizagem, exploramos os fundamentos da lógica, 
da álgebra booleana e de outras bases essenciais à formação em tecnologia. Mais 
do que conteúdos isolados, essas informações são partes de um sistema maior: o 
entendimento de como a informação é processada, manipulada e automatizada 
tanto por softwares quanto por máquinas.
1
1
https://vimeo.com/1102497221/940a37a2f4
A lógica booleana, por exemplo, é a linguagem fundamental por trás das decisões 
automáticas presentes nos sistemas computacionais. Em um código de software, 
ela define comportamentos com base em condições. Em um circuito eletrônico, 
ela determina o acionamento de componentes. No campo da segurança digital, 
está presente em regras de acesso e filtragem de dados. Assim, habilidades, como 
a capacidade de abstração, decomposição de problemas e análise lógica, tornam-
-se diferenciais para os profissionais da área de tecnologia, sendo altamente valo-
rizadas em processos seletivos, entrevistas técnicas e no dia a dia das empresas.
Portanto, mais do que finalizar um conteúdo, concluímos uma etapa de ama-
durecimento intelectual e preparação para o mercado de trabalho. Levar consigo 
a compreensão profunda dos fundamentos, a curiosidade ativa e a capacidade de 
aplicar o conhecimento aprendido em novas situações é o verdadeiro diferencial 
na trajetória profissional que você começa a trilhar.
Neste momento de conclusão, é essencial compreender que a teoria não se 
encerra em si mesma: ela ganha vida quando aplicada a contextos reais, sendo 
essencial para a resolução de problemas complexos no ambiente de trabalho. 
Profissionais das áreas de desenvolvimento de sistemas e de Internet das Coisas 
utilizam diariamente os princípios que estudamos.
UNICESUMAR
1
1
1. Na base de tudo isso, estão os circuitos lógicos combinacionais. Se as portas lógicas são 
os blocos fundamentais, os circuitos combinacionais são como as frases construídas com 
essas palavras: uma combinação de lógica que interpreta entradas e gera saídas coerentes 
de forma imediata, sem depender de tempo ou memória. Um circuito lógico combinacional 
é aquele em que a saída depende exclusivamente do estado atual das entradas. Toda vez 
que alteramos uma entrada, a saída é recalculada instantaneamente.
Com base nas informações apresentadas, avalie as asserções a seguir e a relação proposta 
entre elas:
I - Circuitos combinacionais são essenciais no desenvolvimento de sistemas que precisam 
de respostas imediatas e sem dependência de estados anteriores.
PORQUE
II - As saídas são determinadas apenas pelas entradas atuais, sem armazenamento de dados 
ou memória.
A respeito dessas asserções, assinale a alternativa correta:
a) As asserções I e II são verdadeiras, e a II é uma justificativa correta da I.
b) As asserções I e II são verdadeiras, mas a II não é uma justificativa correta da I.
c) A asserção I é uma proposição verdadeira e a II é uma proposição falsa.
d) A asserção I é uma proposição falsa e a II é uma proposição verdadeira.
e) As asserções I e II são falsas.
VAMOS PRATICAR
1
8
2. As portas lógicas são representadas por símbolos específicos em diagramas de circuitos 
digitais. Esses símbolos facilitam a compreensão da lógica implementada em projetos de 
sistemas computacionais. O comportamento de cada porta segue uma regra lógica distinta. 
Quando combinadas, essas portas podem formar estruturas mais complexas, como unida-
des de controle e processadores inteiros. Entender o funcionamento e a simbologia dessas 
portas é essencial para quem deseja atuar nas áreas de hardware, automação, sistemas 
embarcados ou design de circuitos.
Considerando o funcionamento das portas lógicas, analise as afirmativas a seguir:
I - A porta NAND se comporta exatamente como a porta AND, retornando 1 apenas quan-
do todas as entradas forem 1.
II - A porta XOR retorna 1 quando há uma quantidade ímpar de entradas iguais a 1.
III - A porta XNOR retorna 1 quando há uma quantidade par de entradas iguais a 1.
IV - A porta NOR retorna 1 apenas se todas as entradas forem 0.
É correto o que se afirma em:
a) I e IV, apenas.
b) II e III, apenas.
c) III e IV, apenas.
d) I, II e III, apenas.
e) II, III e IV, apenas.
3. Sistemas computacionais realizam decisões com base em condições previamente esta-
belecidas. Em automações residenciais, por exemplo, sensores são usados para acionar 
luzes, alarmes ou trancar portas. Essas decisõessão tomadas a partir de combinações 
lógicas entre variáveis, que podem representar presença, ausência de luz, abertura de 
portas, entre outras situações. Cada combinação é avaliada para gerar um resultado que 
determina a ação do sistema.
Em um sistema automatizado, uma lâmpada deve acender somente quando for detectada 
a presença de uma pessoa em um ambiente escuro. Assinale qual operação lógica melhor 
representa essa situação:
a) OR.
b) XOR.
c) NOT.
d) AND.
e) NOR.
VAMOS PRATICAR
1
9
REFERÊNCIAS
BROOKSHEAR, J. G. Ciência da computação. Porto Alegre: Bookman, 2013.
HENNESSY, J. Arquitetura de computadores: uma abordagem quantitativa. Rio de Janeiro: Gen; 
LTC, 2019.
MONTEIRO, M. Organização e arquitetura de computadores. 2. ed. São Paulo: Érica, 2015.
STALLINGS, W. Arquitetura e organização de computadores: projetando com foco em desem-
penho. 11. ed. Porto Alegre: Bookman, 2024.
8
1
1. Alternativa A. 
A asserção I está correta, pois os circuitos combinacionais são amplamente usados nos 
ambientes em que decisões imediatas são necessárias. A asserção II está correta e justifica a 
primeira, já que a ausência de memória interna e a dependência apenas das entradas atuais 
explicam o motivo pelo qual esses circuitos fornecem respostas instantâneas.
2. Alternativa E.
A afirmativa I está incorreta, porque a porta NAND é a negação da AND, ou seja, retorna 0 
apenas quando todas as entradas forem 1. A afirmativa II está correta, pois a porta XOR re-
torna 1 quando o número de entradas em nível lógico 1 for ímpar. A afirmativa III está correta, 
dado que a porta XNOR retorna 1 quando o número de entradas em nível lógico 1 for par, 
comportamento inverso da XOR. A afirmativa IV está correta, visto que a porta NOR retorna 
1 somente quando todas as entradas forem 0, sendo a negação da OR.
3. Alternativa D.
A situação exige que duas condições simultâneas sejam verdadeiras para que a lâmpada 
acenda: presença e ausência de luz. A operação lógica que só retorna verdadeiro quando 
todas as condições são verdadeiras ao mesmo tempo é a AND. Por isso, ela representa 
corretamente o comportamento esperado no sistema.
CONFIRA SUAS RESPOSTAS
8
1
UNIDADE 3
MINHAS METAS
ORGANIZAÇÃO DO PROCESSADOR 
Compreender os componentes fundamentais da CPU.
Investigar o ciclo de instrução do processador.
Relacionar estruturas da lógica com a organização interna da CPU.
Explorar o conceito de conjunto de instruções.
Analisar a importância dos registradores no desempenho da CPU.
Desenvolver raciocínio lógico sobre o funcionamento interno da CPU.
Refletir sobre paralelismo com pipeline no processador.
T E M A D E A P R E N D I Z A G E M 1
8
1
INICIE SUA JORNADA
Você já se perguntou como o computador entende o que você programou? Como 
ele sabe que precisa somar dois números, comparar uma informação ou tomar 
uma decisão em um jogo, sistema ou aplicativo? Em um mundo onde cada vez 
mais soluções tecnológicas dependem da programação, compreender o que 
acontece dentro do “cérebro” da máquina é essencial. Afinal, não basta apenas 
escrever código, é preciso entender como ele é executado.
A Unidade Central de Processamento (CPU) está presente em tudo o que 
usamos: no celular que desbloqueia com reconhecimento facial, no caixa auto-
mático do supermercado e no sensor que controla um semáforo. Saber como 
ela funciona é ir além da programação: é dominar o caminho que a informação 
percorre até se tornar ação. Profissionais de tecnologia que compreendem a or-
ganização da CPU têm mais autonomia para desenvolver soluções eficientes, 
escaláveis e conscientes da realidade do hardware onde elas serão executadas.
Exploraremos como cada linha de código que você escreve é interpretada pela 
CPU. Por meio de exemplos práticos de lógica de programação, simulações de 
ciclos de instrução e atividades que conectam variáveis, decisões e operações 
matemáticas aos componentes internos da CPU, você perceberá que aquilo que 
parecia invisível começa a fazer sentido. O foco não é decorar peças, mas enten-
der a engrenagem por trás da computação.
Descubra, neste episódio, o motivo pelo qual entender o funciona-
mento do computador pode transformar a sua forma de progra-
mar e te destacar no mercado de tecnologia. Dê o play e comece 
a pensar como computador para criar como um profissional.
PLAY N O CONHECIMENTO
UNICESUMAR
8
1
https://on.soundcloud.com/4FzSxSu01tjS2SYHP4
TEMA DE APRENDIZAGEM 4
Compreender a organização da CPU é um passo fundamental na sua forma-
ção como profissional da área de tecnologia. Mais do que operar sistemas, você 
será capaz de pensar estrategicamente sobre desempenho, eficiência e arquite-
tura. Que impacto teria o seu código se fosse executado em uma máquina com 
processador básico? E em um sistema embarcado? Pensar nisso é assumir uma 
postura crítica e criativa diante da tecnologia, exatamente o que o mercado de 
trabalho espera de quem está se formando nessa área.
VAMOS RECORDAR?
A Arquitetura de Von Neumann é muito importante 
para entendermos como funciona o computador. Logo, 
isso nos proporciona uma visão mais profunda como 
profissionais de tecnologia. Para saber mais, assista ao 
vídeo Porque calculadoras não são computadores?
DESENVOLVA SEU POTENCIAL
ARQUITETURA DA UNIDADE CENTRAL 
DE PROCESSAMENTO (CPU)
A Unidade Central de Processamento, ou CPU, é entendida como o cérebro 
do computador. Ela é a responsável por interpretar e executar cada uma das 
instruções (Monteiro, 2015). Essas instruções são contidas nos programas que 
desenvolvemos, desde as tarefas mais simples, como uma soma matemática, até 
as mais complexas, como controlar o comportamento de um jogo ou sistema de 
gestão. Tudo passa pela Unidade Central de Processamento.
8
1
https://www.youtube.com/watch?v=G4MvFT8TGII
Compreender a organização da CPU permite ao programador desenvolver códi-
gos mais otimizados e adequados ao ambiente de execução. Para isso, explorare-
mos os seus principais componentes — como a Unidade de Controle, a Unidade 
Lógica e Aritmética e os registradores — e entenderemos o ciclo de instrução, que 
envolve as etapas de busca, decodificação, execução e armazenamento. Também 
conheceremos o conceito de conjunto de instruções e compreenderemos como 
técnicas modernas, como pipelining e execução superescalar, contribuem para 
o aumento do desempenho dos processadores atuais.
A CPU é composta por três elementos principais: a Unidade de Controle, a 
Unidade Lógica e Aritmética e os registradores. Cada um deles desempenha um 
papel fundamental na execução das instruções. Os principais componentes da 
CPU trabalham em conjunto para interpretar e executar instruções. Segundo 
Stallings (2004, p. 82):
 “ A Unidade Central de Processamento (CPU) consiste principal-
mente da Unidade Lógica e Aritmética (ULA), que executa as ope-
rações aritméticas e lógicas, e da Unidade de Controle, que coor-
dena as operações da máquina.
UNICESUMAR
8
1
TEMA DE APRENDIZAGEM 4
Unidade de Controle (UC)
A Unidade de Controle é a responsável por coordenar todas as operações da 
CPU, indicando a cada parte o que deve ser feito. Sua função é interpretar as 
instruções do programa e organizar o funcionamento do sistema, determinando 
quais dados serão utilizados, qual operação será realizada e onde o resultado será 
armazenado. Os papéis da Unidade de Controle são coordenar e gerenciar 
o fluxo de dados entre os componentes internos da Unidade Central de Pro-
cessamento (Hennessy, 2019). Assim, a Unidade de Controle possui algumas 
responsabilidades, como:
• Buscar instruções na memória.
• Decodificá-las e ativar os sinais apropriados.
• Controlar a execução de cada etapa do ciclo de instrução.
Quando o processador precisa somar dois números, a Unidade de Controle ati-
va os sinais necessários para mover os operandos e acionar a Unidade Lógica e 
Aritmética. Vejamos um exemplo que acontece quando estamos programando 
a interpretação de instrução com base em um valor.
inteiro opcaoescreva("Digite 1 para somar, 2 para subtrair: ")
leia(opcao)
 se (opcao == 1) { // UC sinaliza para a ULA somar
 escreva("Executando operação de soma...")
} senao se (opcao == 2) { // UC direciona para a ULA subtrair
 escreva("Executando operação de subtração...")
 }
8
8
Esse exemplo representa a lógica de uma Unidade de Controle, que decide qual 
operação enviar para a ULA com base no conteúdo de uma instrução. Contudo, 
há algo que não discutimos ainda: o que seria a ULA? Não se preocupe, continue 
acompanhando, porque vamos nos aprofundar ainda neste tópico.
Unidade Lógica e Aritmética (ULA)
A ULA é a responsável por executar todas as operações matemáticas e lógicas. 
Isso inclui somas, subtrações, multiplicações, divisões e comparações, como 
maior, menor ou igual. Sempre que o programa realiza algum cálculo ou tomada 
de decisão baseada em condições, é a ULA que entra em ação.
De forma direta, a Unidade Lógica e Aritmética tem a função de realizar ope-
rações matemáticas e comparações de lógica. Vamos a um exemplo: para avaliar 
se A é maior que B, a ULA faz a comparação e retorna verdadeiro ou falso para 
que a Unidade de Controle tome uma decisão condicional.
inteiro A, B
A = 10
B = 5
// A comparação se A > B é um trabalho típico da ULA.
se (A > B) {
 escreva("A é maior que B")
} senao {
 escreva("A não é maior que B")
}
Diante disso, é possível constatar que entender como a parte interna do compu-
tador funciona é, de fato, essencial para melhorarmos a nossa lógica e saber o 
que podemos e o que não podemos fazer na programação. Agora, falaremos do 
terceiro componente que compõe a CPU: os registradores.
UNICESUMAR
8
9
TEMA DE APRENDIZAGEM 4
Registradores
Os registradores são pequenas memórias internas da CPU. Essas memórias são 
extremamente rápidas e utilizadas para armazenar dados temporários durante 
a execução das instruções. Os registradores permitem que as informações este-
jam prontamente disponíveis, sem a necessidade de acesso à memória principal. 
Vamos conhecer os tipos de registradores comuns e as funções de cada tipo. Ob-
serve, a seguir, que eles atuam em sequência durante a execução das instruções.
• Registrador de Instrução (IR): armazena a instrução atual.
• Contador de Programa (PC): aponta para a próxima instrução a ser executada.
• Acumulador (ACC): armazena os resultados intermediários de operações.
De forma resumida, os registradores são pequenas memórias internas da CPU 
que armazenam temporariamente dados e instruções em uso imediato. Para fins 
de estudo, é possível simular registradores utilizando variáveis; observe, a seguir, 
um exemplo de operações com um acumulador simulado.
inteiro primeiroValor
inteiro segundoValor
inteiro ACC
primeiroValor = 7
segundoValor = 3
 
ACC = primeiroValor + segundoValor
escreva("Resultado armazenado no acumulador: ", ACC)
Aqui, usamos a variável ACC como uma analogia, lembrando o registrador 
acumulador.
9
1
Ciclo de instrução
Segundo Torres (2022), o ciclo de instrução é o processo que a CPU executa 
para realizar cada comando de um programa. Ele é dividido em quatro etapas 
fundamentais, que são: a busca, a decodificação, a execução e o armazenamento. 
Compreender esse ciclo é essencial para entender como a máquina transforma 
linhas de código em ações reais.
BUSCA (FETCH)
A CPU começa localizando a próxima instrução a ser executada na memória. O endere-
ço dessa instrução está contido no Contador de Programa (PC). Essa instrução é, então, 
carregada para o Registrador de Instrução (IR).
DECODIFICAÇÃO (DECODE)
Depois que a instrução é buscada, a Unidade de Controle decodifica seu conteúdo, ou 
seja, interpreta qual operação deve ser realizada e quais dados ou registradores estão 
envolvidos. Esse passo é uma preparação para a execução.
EXECUÇÃO (EXECUTE)
Com a instrução compreendida, a CPU realiza a ação solicitada. Se for uma operação 
matemática ou lógica, a ULA é ativada. Se for movimentação de dados, os caminhos 
internos da CPU são acionados para direcionar os dados.
ARMAZENAMENTO (WRITE-BACK)
Por fim, o resultado da execução é armazenado, seja em um registrador, seja na memó-
ria principal. Esse dado poderá ser usado em instruções futuras ou exibido ao usuário.
O ciclo de instrução descreve a sequência de etapas realizadas pela CPU para 
processar uma única instrução. Vejamos um exemplo durante a execução de 
uma lógica de programação.
UNICESUMAR
9
1
TEMA DE APRENDIZAGEM 4
inteiro a, b, resultado
leia(a, b) // Busca
resultado = a + b // Decodificação + Execução
escreva(resultado) // Armazenamento e saída
Esse ciclo se repete continuamente, em alta velocidade, para que um programa 
inteiro seja executado. Cada linha de código envolve múltiplas pequenas ações 
dentro da CPU, e entender isso ajuda o programador a raciocinar de forma mais 
estruturada e eficiente.
Conjunto de instruções
O conjunto de instruções (ou instruction set) é uma coleção de comandos básicos 
que a CPU entende e consegue executar diretamente. Cada tipo de processador 
tem o seu próprio conjunto de instruções, mas todos eles seguem um princípio 
comum: transformar instruções simples em ações concretas. Essas instruções são 
codificadas em linguagem de máquina e representam ações, como somar dois 
valores, mover dados de um lugar para outro ou comparar números.
9
1
As instruções podem ser classificadas em diferentes tipos, dependendo das ope-
rações que realizam.
TIPO DEFINIÇÃO OPERAÇÃO
Aritmética
Realizam operações matemáticas, como 
adição, subtração, multiplicação e divisão.
ADD, SUB, MUL,DIV
Lógica
Realizam operações, como AND, OR, NOT, 
comparação de igualdade e desigualdade.
AND, OR, NOT
XOR
Controle de 
Fluxo
Alteram a sequência de execução, como 
saltos (IF, WHILE, FOR), chamadas de 
função e retornos.
JMP, CALL, RET, IF/
ELSE
Transferência
Transferem dados entre registradores ou 
entre registradores e a memória
LOAD, STORE, MOV
Entrada e 
Saída
Dispositivos, como periféricos de entrada 
e saída.
IN, OUT
Quadro 1 – Conjunto de instruções / Fonte: o autor.
Agora, vejamos a estrutura das instruções em uma CPU. É fundamental com-
preender não somente os componentes de uma instrução, mas também como 
os dados são acessados ou manipulados durante a execução. Cada instrução 
possui um formato específico, geralmente dividido em duas partes principais: o 
operador (opcode), que indica a operação a ser realizada, e os operandos, que 
são os dados sobre os quais essa operação atuará.
Esses operandos podem assumir diferentes formas, como valores fixos, ende-
reços de memória ou registradores. A forma como eles são acessados é definida 
pelos modos de endereçamento. Esses modos desempenham um papel essencial 
tanto no desempenho da execução quanto na flexibilidade de programação, per-
mitindo ao programador escolher a maneira mais eficiente de acessar os dados.
UNICESUMAR
9
1
TEMA DE APRENDIZAGEM 4
O modo de endereçamento define como os operandos são acessados. Existem 
vários modos e compreendê-los ajuda a entender como o dado é recuperado ou 
armazenado. Vejamos:
Imediato
O valor do operando está diretamente embutido na instrução. Isso significa 
que não há necessidade de buscar na memória ou em registradores: o dado já 
está disponível.
 Muito rápido, pois não há acesso à memória.
Pouco flexível, pois o valor é fixo.
Comum em configurações e inicializações.
Exemplo em Portugol Studio
Modo Imediato - O número 10 está diretamente na instrução
x = 10 
Direto
A instrução acessa diretamente o endereço da variável na memória. A CPU pega 
o valor da variável e executa a operação.
Simples e claro.
Mais flexível que o imediato
Requer acesso à memória.
9
1
Indireto
A instrução acessa uma variável que contém o endereço do operando, ou seja, 
um tipo de ponteiro. É necessário seguir uma referência para chegar ao dado.
Modo Direto - Acessa o conteúdo de uma variável
salario = 3000
escreva(salario)
Permite dinamismo, pois o ponteiropode apontar para locais diferentes.
Requer dois acessos à memória: um para buscar o endereço, outro para buscar o dado.
Muito usado para manipular vetores, listas e ponteiros.
Modo Indireto - Acessa o dado por meio de um "ponteiro"
dados[1] = 45
dados[2] = 90
ponteiro = 1
escreva(dados[ponteiro])
Indexado
O endereço final do operando é obtido por meio de um valor-base somado a um 
índice. Muito comum no uso de arrays ou vetores.
UNICESUMAR
9
1
TEMA DE APRENDIZAGEM 4
 Essencial para trabalhar com estruturas sequenciais, como vetores e matrizes.
Usa um registrador de índice.
O tempo de acesso é constante e eficiente.
Modo Indexado - Usa o índice como base de acesso
notas[1] = 6.5
notas[2] = 7.8
notas[3] = 9.0
indice = 2
escreva(notas[indice])
Entender os tipos de instruções e os respectivos modos de endereçamento per-
mite escrever programas mais otimizados e compreender melhor o que acontece 
internamente na CPU a cada linha de código. Agora, entraremos em um tópico 
muito importante, que é a evolução dos processadores e a forma de executar 
tantas tarefas de forma simultânea. Isso se deu graças ao paralelismo, elemento 
que detalharemos a seguir.
Organização Estruturada de Computadores 
A obra explora a arquitetura do processador, memória, E/S, lin-
guagens de máquina e princípios de organização dos compu-
tadores. Tanenbaum conecta os níveis de abstração, desde as 
portas lógicas aos sistemas operacionais, formando uma visão 
completa. Oferece uma base teórica que reforça a importância 
de compreender não só os componentes isoladamente, mas 
também sua interação para o desempenho do sistema.
I N DI CAÇÃO DE L IVRO
9
1
Paralelismo: pipeline e execução superescalar
À medida que os processadores evoluíram, foi necessário encontrar formas de 
executar mais instruções em menos tempo. Aumentar apenas a frequência do 
clock tem limitações físicas e energéticas. Por isso, foram desenvolvidas técnicas 
de paralelismo, como o pipelining e a execução superescalar.
O pipelining é uma técnica que permite à CPU executar múltiplas instruções 
simultaneamente, dividindo a execução em etapas independentes: logo, enquanto 
uma instrução está sendo decodificada, outra pode estar sendo buscada, e uma 
terceira já está sendo executada (Stallings, 2024). Isso se assemelha a uma linha 
de montagem, em que cada operário executa uma parte do processo.
O conceito de pipelining divide o ciclo de instrução em etapas que são execu-
tadas simultaneamente em instruções diferentes. O benefício é o aumento signi-
ficativo do número de instruções por unidade de tempo. Imagine uma pizzaria 
com 3 pedidos e 5 funcionários, cada um fazendo uma etapa:
1. Abre a massa.
2. Coloca o molho.
3. Acrescenta recheio.
4. Leva ao forno.
5. Embala.
Utilizando pipelining, a execução de todas essas etapas fica muito mais eficien-
te: no momento em que o primeiro pedido vai para o forno, o segundo já está 
recebendo recheio, o terceiro recebe molho e assim por diante.
PEDIDO ETAPA 1 ETAPA 2 ETAPA 3 ETAPA 4 ETAPA 5
Pizza 1 ✔ ✔ ✔ ✔ ✔
Pizza 2 ✔ ✔ ✔ ✔
Pizza 3 ✔ ✔ ✔
Quadro 1 – Execução / Fonte: o autor.
UNICESUMAR
9
1
TEMA DE APRENDIZAGEM 4
A seguir, são exibidas algumas etapas típicas do pipelining:
IF (Instruction Fetch) Busca da instrução na memória.
ID (Instruction Decode) Decodificação da instrução.
EX (Execute) Execução da operação.
MEM (Memory Access) Acesso à memória, se necessário.
WB (Write Back) Escrita do resultado.
Quadro 1 – Pipelining / Fonte: o autor.
Não conhecemos algo parecido neste tema de aprendizagem? Pois é, a sequência 
de etapas do pipelining segue a mesma organização de execução. A execução 
superescalar leva o paralelismo a outro nível: ao contrário de apenas processar 
instruções em sequência com sobreposição de etapas, ela permite que múltiplas 
instruções sejam executadas no mesmo ciclo de clock por meio de múltiplas 
unidades funcionais internas.
O processador possui vários clones de seus principais componentes, os quais 
são capazes de trabalhar em paralelo. Isso aumenta significativamente o número 
de instruções processadas por segundo. Portanto, a CPU possui múltiplas uni-
dades de execução que permitem executar várias instruções ao mesmo tempo. 
O diferencial dela vai além do pipelining tradicional, ao executar instruções em 
paralelo quando não há dependência entre elas.
Estudante, para expandir os seus conhecimentos no assunto 
abordado, gostaríamos de indicar a aula que preparamos espe-
cialmente para você. Acreditamos que essa aula irá complemen-
tar e aprofundar ainda mais o seu entendimento do tema.
E M FOCO
9
8
https://vimeo.com/1102497249/1900f33f0a
NOVOS DESAFIOS
Exploramos os principais componentes internos da CPU, compreendemos o ci-
clo de instrução, o papel das instruções de máquina e as estratégias de otimização, 
como o pipelining. Todavia, este aprendizado vai além da teoria: ele é um passo 
essencial para a sua formação como profissional da computação.
Entender como a CPU interpreta e executa cada linha de código que você 
escreve é o que transforma um programador comum em um desenvolvedor 
consciente de desempenho, estrutura e propósito. Essa consciência é exigida 
em diversas áreas do mercado de trabalho, desde o desenvolvimento de softwa-
re embarcado, aplicações móveis e jogos digitais, até soluções empresariais em 
nuvem e sistemas inteligentes.
Saber como o código se traduz em instruções executadas pela máquina te dá 
o poder de decidir melhor, otimizar mais e resolver problemas com eficiência. No 
mercado de tecnologia, essa é uma das competências mais valorizadas: aliar a capa-
cidade de programar com o entendimento técnico do que acontece por trás da tela.
Você está desenvolvendo não apenas habilidades técnicas, mas uma visão 
sistêmica e estratégica da computação. A cada conceito estudado, você se apro-
xima mais do ambiente profissional, preparando-se para construir soluções que 
funcionam na prática, com solidez e inteligência.
UNICESUMAR
9
9
1. A Unidade de Controle (UC) gerencia o ciclo de instruções da CPU, sendo responsável por 
buscar e decodificar as instruções, ativar os componentes necessários e garantir que tudo 
funcione de forma sincronizada. Ao receber uma instrução, ela identifica qual operação 
deve ser feita e direciona os dados para os locais adequados. A UC não executa os cálculos, 
mas garante que a Unidade Lógica e Aritmética (ULA) entre em ação quando necessário, 
controlando os sinais e a ordem de execução.
Com base no funcionamento da Unidade de Controle, assinale a alternativa que não corres-
ponde a uma responsabilidade dessa unidade dentro da CPU:
a) Controlar o fluxo de dados entre registradores e memória.
b) Acionar a Unidade Lógica e Aritmética no momento adequado.
c) Gerenciar a sequência do ciclo de instruções.
d) Executar operações lógicas entre valores armazenados.
e) Interpretar a instrução recuperada da memória.
2. O ciclo de instrução é o processo que a CPU executa para realizar cada comando de um 
programa. Ele é dividido em quatro etapas principais: busca, decodificação, execução e 
armazenamento. Compreender esse ciclo é essencial para entender como a máquina trans-
forma o código em ações. A CPU busca a instrução, decodifica para entender sua finalidade, 
executa a ação e, por fim, armazena o resultado para uso futuro.
Considerando o ciclo de instrução da CPU, analise as afirmativas a seguir:
I - A Unidade de Controle é a responsável por decodificar a instrução e ativar os compo-
nentes adequados.
II - A Unidade Lógica e Aritmética entra em ação durante a fase de execução, quando há 
cálculos ou comparações.
III - O registrador de instrução (IR) armazena temporariamente a instrução que foi buscada 
da memória.
IV - A etapa de armazenamento (write-back) não é necessária se o dado não for usado 
novamente.
É correto o que se afirma em:
a) I, apenas.
b) II e IV, apenas.
c) III e IV, apenas.
d) I, II e III, apenas.
e) I, II, III e IV.
VAMOS PRATICAR
1
1
1
3. A execuçãosuperescalar é uma técnica de paralelismo avançada que permite à CPU exe-
cutar múltiplas instruções no mesmo ciclo de clock. Isso é possível, porque o processador 
conta com múltiplas unidades funcionais internas, capazes de operar de forma simultânea. 
Assim, ao contrário de apenas sobrepor etapas, como no pipelining, a execução superes-
calar processa instruções em paralelo, desde que não haja dependência direta entre elas. 
O resultado é um aumento significativo no desempenho da CPU.
Com base nas informações apresentadas, avalie as asserções a seguir e a relação proposta 
entre elas:
I - A execução superescalar fomenta um maior desempenho da CPU, ao processar múltiplas 
instruções simultaneamente.
PORQUE
II - A CPU conta com várias unidades funcionais internas capazes de executar instruções 
em paralelo.
A respeito dessas asserções, assinale a alternativa correta:
a) As asserções I e II são verdadeiras, e a II é uma justificativa correta da I.
b) As asserções I e II são verdadeiras, mas a II não é uma justificativa correta da I.
c) A asserção I é uma proposição verdadeira e a II é uma proposição falsa.
d) A asserção I é uma proposição falsa e a II é uma proposição verdadeira.
e) As asserções I e II são falsas.
VAMOS PRATICAR
1
1
1
REFERÊNCIAS
HENNESSY, J. Arquitetura de computadores: uma abordagem quantitativa. Rio de Janeiro: Gen; 
LTC, 2019.
MONTEIRO, M. Organização e arquitetura de computadores. 2. ed. São Paulo: Érica, 2015.
STALLINGS, W. Arquitetura e organização de computadores: projetando com foco em desem-
penho. 11. ed. Porto Alegre: Bookman, 2024.
TORRES, G. Hardware. 2. ed. Senhor do Bonfim: Nova Terra, 2022.
1
1
1
1. Alternativa D.
Executar operações lógicas é função da ULA (Unidade Lógica e Aritmética), e não da Unidade 
de Controle. A UC somente aciona os componentes necessários, mas não realiza diretamente 
cálculos ou comparações. As demais alternativas estão de acordo com as funções da UC, 
tais como interpretar instruções, controlar fluxos e sequenciar a execução.
2. Alternativa D.
A afirmativa I está correta, pois a Unidade de Controle interpreta a instrução e direciona os 
sinais de controle para os demais componentes da CPU, preparando-os para a execução. A 
afirmativa II está correta, porque, durante a execução, a ULA é ativada quando a instrução 
exige uma operação matemática ou lógica. A afirmativa III está correta, visto que o registra-
dor de instrução (IR) armazena temporariamente a instrução que está sendo processada.
3. Alternativa A.
A primeira asserção está correta, pois a execução superescalar aumenta o desempenho da 
CPU, ao permitir que mais de uma instrução seja processada ao mesmo tempo. A segunda 
asserção justifica corretamente a primeira, ao explicar como isso acontece: por meio do uso 
de múltiplas unidades funcionais (como várias ULAs), a CPU pode executar várias instruções 
paralelamente, desde que não dependam umas das outras.
CONFIRA SUAS RESPOSTAS
1
1
1
MINHAS METAS
MEMÓRIA 
Compreender a organização da memória em sistemas computacionais.
Analisar o papel da memória no desempenho do sistema computacional.
Diferenciar as tecnologias e os tipos de memória existentes no mercado.
Relacionar a teoria e a prática no diagnóstico de desempenho de sistemas.
Desenvolver a capacidade de tomada de decisão técnica fundamentada.
Explorar o conceito de localidade e sua relevância no uso da memória cache.
Refletir sobre o papel estratégico da memória no ambiente profissional.
T E M A D E A P R E N D I Z A G E M 1
1
1
1
INICIE SUA JORNADA
Você já se perguntou o motivo pelo qual dois computadores com processadores 
semelhantes podem apresentar desempenhos tão diferentes ao executar as mesmas 
tarefas? Ou por que um sistema leva mais tempo para carregar um software, mesmo 
que o hardware pareça atual? Essa diferença, muitas vezes, não está no processador 
em si, mas em como o sistema gerencia as próprias memórias, um aspecto, muitas 
vezes, subestimado, mas absolutamente central no desempenho computacional.
Compreender o funcionamento da memória e sua hierarquia é essencial não 
apenas para quem pretende montar máquinas ou trabalhar com hardware, mas 
também para quem desenvolve sistemas, modela soluções em nuvem, programa 
jogos ou gerencia redes. Saber como e onde os dados circulam e são armazenados, 
mesmo que temporariamente, pode ser o fator decisivo para criar sistemas mais 
eficientes, robustos e preparados para lidar com os desafios reais do mercado.
Imagine que você está configurando uma máquina virtual para um sistema que 
exige alto desempenho. Quanta memória será necessária? Qual tipo de armazena-
mento é mais adequado? Ao longo deste tema, você será convidado a refletir sobre 
decisões como essas, entendendo como os diferentes tipos de memória influenciam 
diretamente o funcionamento e a eficiência de um sistema computacional.
Por isso, eu te convido a começar este estudo com uma pergunta provocativa: 
como a memória invisível aos olhos do usuário final pode ser a engrenagem mais 
crítica no desempenho de um sistema? Ao longo deste tema, exploraremos esse 
universo e, mais do que entender como ele funciona, refletiremos sobre como 
utilizá-lo de maneira estratégica na sua futura atuação profissional.
Você já usou um computador potente no papel, mas lento na 
prática? Processador atual, boa memória e, mesmo assim, tudo 
demora? No episódio de hoje, vamos investigar um caso real 
que mostra como um único componente pode comprometer o 
desempenho de todo o sistema.
PLAY N O CONHECIMENTO
UNICESUMAR
1
1
1
https://on.soundcloud.com/AZiwKTjCh3U2mHfS5K
TEMA DE APRENDIZAGEM 5
VAMOS RECORDAR?
Você se lembra da arquitetura de um processador? 
Ela é formada por componentes que trabalham 
juntos no processamento. Vamos relembrar como 
essa estrutura funciona?
DESENVOLVA SEU POTENCIAL 
A HIERARQUIA DE MEMÓRIA NO COMPUTADOR
A memória é um dos componentes fundamentais em qualquer sistema com-
putacional, pois é onde os dados e as instruções são armazenados temporária 
ou permanentemente para que a CPU possa acessá-los e executar as operações 
necessárias. Diferentes tipos de memória atendem a necessidades distintas den-
tro do computador, variando em velocidade, capacidade, custo e volatilidade. 
Entender como esses tipos de memória funcionam e se relacionam é essencial 
para compreender o desempenho e a eficiência dos sistemas computacionais.
A CPU, responsável pelo processamento das informações, depende de um 
acesso rápido e eficiente aos dados. Por isso, existem memórias rápidas, porém 
pequenas e caras, localizadas próximas à CPU, que armazenam temporariamente 
os dados usados com mais frequência. Já as memórias mais lentas, maiores e de 
custo inferior são utilizadas para armazenar grandes volumes de informações que 
não precisam estar imediatamente disponíveis para o processador. Essa organi-
zação em diferentes camadas busca um equilíbrio entre velocidade, capacidade 
e custo, garantindo que o sistema funcione de maneira eficiente.
1
1
1
https://www.youtube.com/watch?v=0TV0uB0gQwQ
Para facilitar essa organização, adotamos o conceito de hierarquia de memória, 
que classifica os diversos tipos de memória em níveis dispostos em uma pirâmide, 
onde cada nível representa uma tecnologia específica com suas características 
próprias. A partir dessa hierarquia, o computador consegue otimizar o acesso aos 
dados, utilizando a memória mais adequada para cada situação, o que melhora 
significativamente o desempenho geral do sistema.
Ao estudar a arquitetura de computadores, torna-se essencial compreen-
der como as diversas memórias interagem com o processador e com os demais 
subsistemas. Quando um usuário executa um programa, acessa um arquivo ou 
simplesmente move o cursor do mouse, múltiplos mecanismos de armazena-
mento são acionados em diferentes níveis. O desempenho final de qualquer sis-
tema computacional, seja um supercomputador, um servidor ou um notebook 
doméstico, depende de forma significativade como esses níveis de memória são 
organizados e utilizados.
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 5
Essa organização é conhecida como hierarquia de memória e consiste 
em uma estrutura lógica que equilibra velocidade, capacidade, custo e pro-
ximidade ao processador. Stallings (2024) afirma que o uso da hierarquia de 
memória possibilita que sistemas computacionais conciliam desempenho 
e custo, utilizando memórias rápidas e caras em conjunto com memórias 
mais lentas e acessíveis.
A hierarquia de memória é uma estratégia de arquitetura adotada para 
otimizar o acesso aos dados e instruções que um processador necessita du-
rante a execução de tarefas (Stallings, 2024). Como nem todas as memórias 
oferecem alta velocidade a um custo acessível, a solução foi distribuir os da-
dos entre diferentes tipos de memória, de modo que os mais requisitados fi-
quem mais próximos do processador, e os menos utilizados, mais distantes.
Nos sistemas computacionais, a memória é um componente essencial 
para o funcionamento e o desempenho do computador. No entanto, nem 
toda memória é igual: existem diferentes tipos que variam em velocidade, 
capacidade, custo e função. Para organizar essas memórias de forma efi-
ciente, utilizamos o conceito de hierarquia de memória, que classifica os 
tipos de memória em níveis, desde os mais rápidos e pequenos até os mais 
lentos e de maior capacidade.
Essa organização em camadas permite que a CPU acesse rapidamente 
os dados mais usados nas memórias superiores, enquanto utiliza memórias 
mais lentas e amplas para armazenar grandes volumes de informações de 
forma permanente. Compreender essa hierarquia ajuda a entender o motivo 
pelo qual alguns dados são acessados rapidamente e outros demandam mais 
tempo, além de mostrar como diferentes tecnologias de armazenamento 
trabalham juntas para otimizar o desempenho do computador.
Observe, a seguir, a Figura 1, que ilustra a hierarquia de memória, de-
talhando os diferentes níveis e suas características principais. Conceitual-
mente, essa hierarquia pode ser representada da seguinte forma:
1
1
8
Armazenamento
no chip
Armazenamento
na placa
Armazenamento
fora da placa
Armazenamento
off-line
CPU
Registradores
Cache
Múltiplos níveis de cache
(SRAM, eDRAM)
Memória principal
DRAM, SDRAM, SDRAM DDR etc.
Memória de estado sólido
Memória flash (SSD, unidade flash)
Disco magnético
Fita magnética
Memória virtual e memória de arquivo/banco de dados
Memória em massa off-line
Figura 1 – Hierarquia de memória / Fonte: Stallings (1111, p. 111).
Descrição da Imagem: é exibida uma pirâmide composta por dez níveis horizontais em diferentes tons de cinza e faixas 
pretas alternadas para destacar cada camada. No topo, em faixa preta, está o texto “CPU” em branco; logo abaixo, 
no segundo nível em cinza-claro, aparece “Registradores” em preto; o terceiro nível, novamente em faixa preta, traz 
a palavra “Cache” centralizada em branco; no quarto nível, em cinza-claro, lê-se “Múltiplos níveis de cache (SRAM, 
eDRAM)” em preto; o quinto nível, em cinza mais claro, apresenta “Memória principal” seguido, em fonte menor, pelas 
siglas “DRAM, SDRAM, SDRAM DDR etc.” em preto. O sexto nível, em faixa preta, traz “Memória de estado sólido” em 
branco e, logo abaixo, em fonte menor, “Memória flash (SSD, unidade flash)”; no sétimo nível, em cinza-claro, está 
escrito “Memória virtual e memória de arquivo/banco de dados” em preto; o oitavo nível, em faixa preta, exibe “Disco 
magnético” em branco; o nono nível, em cinza-claro, apresenta “Memória em massa off-line” em preto; e, na base, 
em faixa preta, está centralizado o texto “Fita magnética” em branco. À direita da pirâmide, há três setas verticais 
que identificam os níveis: a seta superior vai do topo até o quarto nível, com a legenda “Armazenamento no chip”; a 
seta do meio se estende do quinto ao sétimo nível, com a legenda “Armazenamento na placa”; e a seta inferior cobre 
do oitavo ao décimo nível, com a legenda “Armazenamento fora da placa”. Por fim, na base da pirâmide, uma última 
seta aponta para baixo com a identificação “Armazenamento off-line”. Fim da descrição.
UNICESUMAR
1
1
9
TEMA DE APRENDIZAGEM 5
A hierarquia de memória organiza os diferentes tipos de armazenamento de 
dados do computador em níveis, conforme suas características de velocidade, ca-
pacidade e custo. De forma resumida, ela pode ser dividida da seguinte maneira:
 ■ Registradores: são memórias internas do processador, extremamente 
rápidas, mas com capacidade muito limitada. Armazenam dados tem-
porários usados imediatamente pela CPU.
 ■ Memória cache: localizada próxima à CPU, é uma memória rápida que 
guarda os dados e as instruções usados com frequência para acelerar o 
acesso e diminuir a necessidade de ir até a memória principal.
 ■ Memória principal (RAM): tem maior capacidade que a cache, mas é 
mais lenta. Armazena os dados e os programas que estão sendo execu-
tados no momento, servindo como principal área de trabalho da CPU.
 ■ Memória secundária: são dispositivos de armazenamento, como discos 
rígidos e SSDs, com grande capacidade, porém muito mais lentos que a 
RAM. Usados para armazenar dados de forma permanente.
Essa estrutura promove o princípio da localidade, em que dados e instruções re-
centemente utilizados ou acessados com frequência tendem a ser reutilizados em 
um curto espaço de tempo. A partir desse princípio, os sistemas são capazes de 
reduzir o tempo de acesso médio à memória, melhorando consideravelmente a 
performance global. A seguir, serão explicados os diferentes níveis que compõem 
a hierarquia de memória. Essa hierarquia organiza os diversos tipos de memória 
do computador de acordo com a velocidade, capacidade e custo. Compreender 
essa estrutura é fundamental para entender como os dados são armazenados e 
acessados pelo processador de forma eficiente.
Registradores: a memória interna da CPU
Na base mais alta da hierarquia estão os registradores, que fazem parte do 
próprio núcleo do processador. Cada registrador possui uma função específica, 
como armazenar operandos, endereços de memória ou resultados temporá-
rios de operações lógicas e aritméticas. De acordo com Weber (2012, p. 45), 
“registradores são as memórias mais rápidas disponíveis no sistema, mas seu 
número é extremamente limitado”.
1
1
1
Por estarem embutidos diretamente na Unidade de Controle (UC) e na Uni-
dade Lógica e Aritmética (ULA) da CPU, os registradores operam em velo-
cidades compatíveis com o clock do processador. Dizer que os registradores 
operam na mesma velocidade do clock do processador significa que eles são 
capazes de acompanhar o ritmo do processador ao executar instruções. Como 
o clock define a velocidade de batida do processador, os registradores preci-
sam ser rápidos o suficiente para não atrasar esse processo, garantindo acesso 
praticamente instantâneo aos dados. Contudo, seu tamanho é extremamente 
limitado, normalmente, entre 8 e 64 bits cada, o que os torna inadequados para 
armazenar grandes volumes de informação.
Logo abaixo dos registradores, temos a memória cache, a qual armazena 
os dados mais usados pela CPU por um tempo curto, ajudando o computador 
a trabalhar mais rápido. Isso porque ela é mais rápida que a RAM e fica mais 
próxima do processador. A cache é uma memória do tipo SRAM (Static RAM, 
ou memória estática de acesso aleatório), caracterizada por sua alta velocidade 
e por não exigir atualização constante para manter os dados. Ela apresenta 
tempos de acesso extremamente baixos, embora tenha um custo por bit signifi-
cativamente mais alto do que a DRAM utilizada na memória principal. A RAM 
principal do computador geralmente utiliza um tipo específico de memória 
chamado DRAM (Dynamic Random Access Memory), que precisa ser cons-
tantemente atualizada para manter os dados armazenados temporariamente 
enquanto o sistema está em funcionamento.
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 5
O papel da cache é armazenar as cópias dos dadosmais utilizados recentemente, 
de modo a antecipar as solicitações do processador (Monteiro, 2015). Quando 
um dado é requisitado e se encontra na cache (situação chamada de cache hit), 
o tempo de acesso é muito reduzido. Caso contrário (cache miss), o sistema é 
obrigado a buscar o dado em níveis inferiores, aumentando a latência. De acordo 
com Monteiro (2015, p. 97), “a memória cache funciona como uma ponte de alta 
velocidade entre o processador e a memória principal”.
Antes de analisarmos a figura a seguir, é importante entendermos como a me-
mória cache atua no processamento de dados. A memória cache é uma memória 
intermediária de alta velocidade que armazena temporariamente as informações 
mais acessadas pela CPU. Seu objetivo é reduzir o tempo de acesso aos dados, 
evitando que a CPU precise buscar essas informações diretamente na memória 
principal, que é mais lenta. A organização e a quantidade de níveis de cache po-
dem influenciar significativamente o desempenho do sistema. A figura a seguir 
ilustra dois modelos de organização de cache, facilitando a compreensão do fluxo 
de dados entre a CPU e a memória.
1
1
1
Figura 1 – Memória cache / Fonte: Stallings (1111, p. 119).
Descrição da Imagem: são exibidos dois esquemas comparativos. No item a), intitulado Cache única, a CPU transfere 
palavras para a cache, que por sua vez realiza a transferência de blocos para a memória principal; o retorno ocorre 
da memória principal para a cache e, em seguida, da cache para a CPU. Já no item b), intitulado Organização de cache 
de três níveis, a transferência parte da CPU para a Cache de Nível 1 (L1), segue para a Cache de Nível 2 (L2), depois 
para a Cache de Nível 3 (L3) e, finalmente, alcança a memória principal — processo que também se repete no sentido 
inverso, da memória até a CPU. A imagem possui fundo branco e utiliza blocos em cinza com textos em fonte escura, 
conectados conforme descrito. Fim da descrição.
A figura apresenta dois modelos de organização da memória cache, os quais ajudam 
a entender como os dados são transferidos entre a CPU e a memória principal.
Item a) Cache única: ilustra um modelo mais simples, no qual existe apenas 
um único nível de cache entre a CPU e a memória principal. Nesse caso, a CPU 
solicita os dados à cache, que, por sua vez, se não tiver os dados (cache miss), 
busca na memória principal. Depois, os dados são enviados da memória para a 
cache e, em seguida, para a CPU. Esse modelo é mais básico e menos eficiente 
para processadores modernos.
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 5
Item b) Cache de três níveis (L1, L2 e L3): mostra uma organização mais com-
plexa e comum em processadores atuais. Os dados fluem da CPU para a cache 
L1 (a mais rápida e próxima da CPU), depois, para L2 e L3, antes de chegar à 
memória principal. O mesmo fluxo ocorre no sentido inverso. Essa hierarquia 
de múltiplos níveis de cache melhora o desempenho, porque permite que a CPU 
acesse dados com mais rapidez, reduzindo o tempo de espera.
A arquitetura moderna de processadores emprega múltiplos níveis de cache:
L1 (NÍVEL 1)
Extremamente rápida, localizada no núcleo da CPU, com capacidade entre 32KB e 128KB.
L2 (NÍVEL 2)
Capacidade maior (512KB a alguns MB), também integrada ou muito próxima do núcleo.
L3 (NÍVEL 3)
Cache compartilhada entre os núcleos de múltiplos processadores, com capacidade 
de até dezenas de megabytes.
Como a cache possui espaço limitado, é necessário implementar políticas de 
substituição que determinem quais dados devem ser removidos para dar lugar 
a novos. As mais comuns são: FIFO, LRU e Random Replacement. Veremos a 
seguir como elas funcionam.
A política FIFO (first in, first out – primeiro a entrar, primeiro a sair) é 
uma das mais simples e intuitivas quando se trata da substituição de blocos na 
memória cache. Nessa abordagem, o sistema mantém uma fila com a ordem em 
que os dados foram inseridos na cache. Quando a cache está cheia e um novo 
dado precisa ser inserido, o bloco mais antigo (ou seja, o que está há mais tempo 
na cache) é descartado para dar lugar ao novo (Weber, 2012)
1
1
1
A política LRU (least recently used – menos recentemente utilizado) é 
uma das mais eficientes, pois substitui o bloco que está há mais tempo sem ser 
acessado. Ela parte do princípio da localidade temporal, que sugere que dados 
acessados recentemente tendem a ser acessados novamente em breve. Assim, 
o LRU tenta manter na cache os dados mais relevantes para o momento atual 
da execução (Weber, 2012).
Na política de substituição aleatória, o sistema escolhe aleatoriamente um 
bloco da cache para ser substituído, sem considerar o tempo de entrada, nem a 
frequência de uso. É uma estratégia simples e útil em algumas arquiteturas, espe-
cialmente aquelas que priorizam baixo custo de implementação ou em situações 
em que o padrão de acesso aos dados é imprevisível (Weber, 2012).
Hennessy (2019) destaca que a performance computacional está diretamente 
relacionada à forma como o sistema manipula a memória e aproveita os aces-
sos repetidos a dados e instruções, reforçando a importância da localidade na 
arquitetura moderna.
Memória RAM: a memória principal do sistema
A RAM (Random Access Memory) é a memória principal de um sistema e ser-
ve como área de trabalho para os dados e as instruções ativamente utilizados 
durante a execução dos programas. Todos os processos em andamento, como 
o sistema operacional, aplicativos e arquivos temporários, residem na RAM en-
quanto estão em uso.
A memória RAM é essencial para o funcionamento dos sistemas computacionais, 
porque armazena temporariamente os dados e as instruções que estão sendo 
usados pelo processador, mas, diferentemente da cache, a RAM é uma memória 
volátil, ou seja, perde todo o conteúdo quando o sistema é desligado.
Nessa categoria, existem dois tipos principais de RAM: DRAM e SRAM, cada 
uma com características, usos e performances específicas.
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 5
A DRAM é o tipo mais comum de memória RAM utilizada como memória 
principal nos computadores e dispositivos eletrônicos em geral. É usada como a 
memória principal do sistema (RAM do usuário), em que são carregados o siste-
ma operacional, os programas em execução e os arquivos em uso. Sua estrutura 
é composta por milhões de pequenos capacitores e transistores. Capacitores são 
componentes que armazenam e liberam energia elétrica rapidamente. Transisto-
res controlam o fluxo de corrente elétrica e são essenciais para o funcionamento 
de processadores e circuitos lógicos, formando células de memória que armaze-
nam bits (Monteiro, 2015).
No entanto, como os capacitores perdem carga rapidamente, a DRAM precisa 
ser constantemente recarregada, mesmo quando os dados não estão sendo mo-
dificados. Vejamos o quadro a seguir para entendermos as vantagens da DRAM.
VANTAGENS DESVANTAGENS
Alta densidade de armazenamento (mui-
to mais compacta que a SRAM).
Mais lenta que a SRAM.
Custo significativamente mais baixo por 
bit armazenado.
Requer circuitos de controle mais com-
plexos para o refresh constante.
Quadro 1 – Vantagens da DRAM / Fonte: o autor.
A SRAM é um tipo de memória mais rápida e estável do que a DRAM. Dife-
rentemente da DRAM, ela não precisa de recarga constante, porque mantém os 
dados enquanto houver alimentação elétrica. Cada célula de SRAM é composta 
por um conjunto maior de transistores (geralmente 6), o que ocupa mais espaço 
físico e encarece a respectiva fabricação (Monteiro, 2015). Vejamos o quadro a 
seguir para entendermos as vantagens da SRAM.
1
1
1
Por ser mais rápida, a SRAM é utilizada em registradores internos da CPU e nas 
memórias cache (L1, L2, L3), em que o acesso rápido aos dados é essencial para 
o desempenho do processador.
VANTAGENS DESVANTAGENS
Muito mais rápida e confiável que a DRAM. Maior custo por bit.
Não necessita de refresh, o que reduz a 
complexidade dos circuitos de controle.
Menor densidade (ocupa mais espaço 
físico).
Quadro 1 –Vantagens da SRAM / Fonte: o autor.
Com o avanço da tecnologia, a DRAM evoluiu em diversas gerações, chamadas 
de DDR (Double Data Rate), que aumentam a largura de banda de comunicação 
entre a memória e o controlador, ao mesmo tempo em que otimizam o consumo 
de energia e latência. Vejamos, na sequência, a diferença e a evolução das taxas 
de transmissão da memória RAM (Monteiro, 2015):
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 5
DDR3
Durante muitos anos, foi o padrão mais utilizado. Opera com voltagens entre 1,5V e 1,35V 
(DDR3L), e frequências entre 800 e 2133 MHz.
DDR4
Substituiu a DDR3 com ganhos de velocidade (até 3200 MHz ou mais), menor consumo 
(1,2V) e mais capacidade de armazenamento por módulo.
DDR5
A mais recente e ainda em expansão no mercado. Possui maiores taxas de transferência 
(acima de 4800 MHz), voltagem ainda mais reduzida (1,1V) e recursos internos de geren-
ciamento de energia e correção de erros mais avançados.
A cada nova geração, a comunicação entre processador e memória se torna mais 
rápida e eficiente, o que beneficia diretamente a performance geral do sistema, 
especialmente em aplicações que lidam com grandes volumes de dados, como 
jogos, renderização gráfica, Inteligência Artificial e servidores.
Memória secundária: armazenamento permanente
Na base da hierarquia, está a memória secundária, onde residem os dados de 
longo prazo. Ela é a responsável por armazenar o sistema operacional, os aplica-
tivos instalados, os arquivos de usuário, entre outros. Ao contrário das demais 
memórias tratadas até aqui, a memória secundária é não volátil, ou seja, preserva 
os dados mesmo após o desligamento do computador.
Temos as principais tecnologias que são utilizadas como memória secundária:
1
1
8
Ainda no que diz respeito aos SSDs, destacam-se os modelos com interface 
NVMe (Non-Volatile Memory Express). Trata-se de um protocolo de comuni-
cação projetado especificamente para SSDs modernos que permite acesso muito 
mais rápido aos dados em comparação com interfaces antigas, como SATA, que 
utilizam o barramento PCIe para alcançar taxas de transferência superiores a 
3.000 MB/s (Stallings, 2024).
HDD (Hard Disk Drive): dispositivo magnético com partes móveis. Tem alta 
capacidade (1TB ou mais) e baixo custo, mas a performance é inferior em relação à 
leitura e à escrita.
SSD (Solid State Drive): baseado em memória flash (memória que armazena dados 
mesmo sem energia, como a usada em SSD e pendrives), é muito mais rápido, 
silencioso e resistente, embora tenha custo mais elevado por gigabyte.
Outras formas de armazenamento secundário são exibidas a seguir:
No artigo indicado, é explorada a diferença entre SSDs e 
HDDs. Acesse!
E U I N DI CO
SSHD HÍBRIDO ENTRE SSD E HDD
Armazenamento óptico. CDs, DVDs, Blu-rays.
Dispositivos externos. Pendrives, HDs externos, cartões SD.
Quadro 1 – Armazenamento secundário / Fonte: o autor.
UNICESUMAR
1
1
9
https://aws.amazon.com/pt/compare/the-difference-between-ssd-hard-drive/
TEMA DE APRENDIZAGEM 5
A eficiência de um sistema computacional está diretamente relacionada ao geren-
ciamento da hierarquia de memória. Um processador moderno, por mais avan-
çado que seja, terá o desempenho limitado caso precise acessar frequentemente 
memórias mais lentas. Para melhorar o desempenho percebido pelo usuário, é 
essencial otimizar o fluxo de dados: maximizar os acertos em cache, manter os 
dados críticos na RAM e utilizar o armazenamento secundário para os dados, 
de forma que não sobrecarregue a memória RAM. 
O quadro a seguir apresenta uma comparação entre os diferentes níveis 
de memória:
NÍVEL VELOCIDADE
CUSTO 
POR BIT
CAPACIDADE VOLATILIDADE
Registradores Muito alta Muito alto Muito baixa Volátil
Cache (L1–L3) Alta Alta Baixa Volátil
RAM (DRAM) Média Média Média Volátil
Memória 
Secundária
Baixa Baixo Alta Não volátil
Quadro 1 – Níveis de memória / Fonte: o autor.
A hierarquia de memória é uma das principais responsáveis pela viabilidade e 
eficiência dos computadores modernos. Ela permite que o sistema opere de for-
ma equilibrada entre desempenho e custo, combinando diferentes tecnologias 
que variam quanto à velocidade, capacidade, consumo de energia e durabilidade.
Compreender essa hierarquia não é apenas um exercício teórico, mas uma 
habilidade prática para quem atua no campo da computação. Seja projetando 
sistemas, otimizando software, montando hardware ou simplesmente realizando 
manutenção, conhecer o papel de cada tipo de memória e sua interação com o 
processador é um diferencial técnico essencial.
1
1
1
NOVOS DESAFIOS
Agora, é hora de conectar todo o conhecimento obtido a um dos pontos mais 
críticos para a performance de qualquer sistema computacional: a hierarquia de 
memória. Em ambientes profissionais, sejam eles focados em desenvolvimento de 
software, administração de sistemas, suporte técnico ou engenharia de soluções, 
compreender o modo como o fluxo de dados circula entre registradores, cache, 
memória principal e armazenamento secundário é o que diferencia um profissional 
que apenas usa a tecnologia de outro que entende, projeta e otimiza essa tecnologia.
A teoria que você construiu até aqui não está distante da prática do mercado. Pelo 
contrário: ela é a base que sustenta decisões técnicas importantes, como configurar 
um servidor, projetar a infraestrutura de um sistema embarcado, realizar upgrades 
de hardware em estações de trabalho ou avaliar gargalos de desempenho em aplica-
ções críticas. Ao compreender o funcionamento interno da memória e suas camadas, 
você estará apto a tomar decisões mais conscientes e técnicas em situações reais. 
Um exemplo é a recomendação do uso de SSDs NVMe para bancos de dados 
de alto desempenho, dimensionar corretamente a RAM em ambientes virtuais 
ou explorar as vantagens da memória cache na construção de sistemas embar-
cados ou jogos digitais.
Este conteúdo, portanto, não é apenas parte da sua formação acadêmica, mas 
um elemento estratégico da sua atuação futura no mercado. Conhecer profunda-
mente a hierarquia de memória é conhecer as engrenagens invisíveis que fazem 
a computação acontecer, e saber manipulá-las é um diferencial competitivo para 
qualquer profissional da área.
Estudante, para expandir os seus conhecimentos no assunto 
abordado, gostaríamos de indicar a aula que preparamos espe-
cialmente para você. Acreditamos que essa aula irá complemen-
tar e aprofundar ainda mais o seu entendimento do tema.
E M FOCO
UNICESUMAR
1
1
1
https://vimeo.com/1102497017/be1a92eb07
1. Durante a execução de programas, diferentes tipos de memória interagem com o proces-
sador em velocidades distintas. A arquitetura moderna organiza essas memórias em uma 
hierarquia que busca equilibrar velocidade, custo e capacidade. Embora algumas memórias 
sejam extremamente rápidas e próximas do processador, elas também são limitadas em 
tamanho. Já outras memórias oferecem maior capacidade de armazenamento, mas com 
maior tempo de acesso. O conhecimento adequado dessa hierarquia é essencial para en-
tender o desempenho de sistemas computacionais.
Qual das opções a seguir representa corretamente uma ordenação da hierarquia da memória 
do sistema, desde a mais rápida para a mais lenta?
a) Memória RAM > Cache > Registradores > Memória Secundária.
b) Memória Secundária > Memória RAM > Cache > Registradores.
c) Registradores > Cache > Memória RAM > Memória Secundária.
d) Cache > Registradores > Memória RAM > Memória Secundária.
e) Cache > Memória Secundária > Memória RAM > Registradores.
2. Em um sistema computacional moderno, diferentes tipos de memória trabalham em con-
junto para fornecer ao processador os dados necessários com o menor tempo de acesso 
possível. Essa organização hierárquica de memórias é fundamental para o equilíbrio entre 
custo, desempenho e capacidade. Em níveis mais altos, estão as memórias extremamente 
rápidas e de baixa capacidade, diretamente ligadas ao processador. Em níveis mais baixos, 
memórias maiores, porém mais lentas,armazenam dados de longo prazo. O desempenho 
de todo o sistema depende de como essas memórias são gerenciadas e acessadas.
Qual dos tipos de memória atua como intermediário entre a memória RAM e o armazena-
mento secundário, oferecendo grande capacidade, porém com desempenho inferior à RAM?
a) Registradores.
b) Memória Cache.
c) Memória Virtual.
d) SRAM.
e) L2 Cache.
VAMOS PRATICAR
1
1
1
3. Os sistemas computacionais modernos são construídos com múltiplos níveis de memória, 
organizados de forma hierárquica. Essa hierarquia visa equilibrar desempenho, capacida-
de de armazenamento e custo, colocando as memórias mais rápidas e caras próximas ao 
processador e as mais lentas e baratas mais distantes. A estratégia favorece o princípio 
da localidade, permitindo que dados acessados com frequência estejam disponíveis com 
menor latência. A eficiência dessa organização impacta diretamente o tempo de resposta 
do sistema e a experiência do usuário.
Considerando a hierarquia de memória, analise as afirmativas a seguir:
I - A SRAM é utilizada principalmente como memória principal, por oferecer mais capaci-
dade e menor custo.
II - A política LRU substitui o bloco menos recentemente acessado na memória cache.
III - A memória virtual é usada para acelerar o clock do processador.
IV - Os registradores são memórias de altíssima velocidade e fazem parte da CPU.
É correto o que se afirma em:
a) I, apenas.
b) II e IV, apenas.
c) III e IV, apenas.
d) I, II e III, apenas.
e) I, II, III e IV.
VAMOS PRATICAR
1
1
1
REFERÊNCIAS
HENNESSY, J. Arquitetura de computadores: uma abordagem quantitativa. Rio de Janeiro: Gen; 
LTC, 2019.
MONTEIRO, M. Organização e arquitetura de computadores. 2. ed. São Paulo: Érica, 2015.
STALLINGS, W. Arquitetura e organização de computadores: projetando com foco em desem-
penho. 11. ed. Porto Alegre: Bookman, 2024.
WEBER, R. F. Fundamentos de arquitetura de computadores. 4. ed. Porto Alegre: Bookman, 2012.
1
1
1
1. Alternativa C.
A hierarquia de memória é organizada de acordo com a proximidade ao processador e a 
velocidade de acesso. Os registradores são as memórias mais rápidas e estão embutidos na 
CPU. Logo abaixo, estão as memórias cache, que são extremamente rápidas, mas com maior 
capacidade que os registradores. Em seguida, vem a memória RAM, com média velocidade 
e capacidade moderada. Por fim, temos a memória secundária (como HDs e SSDs), que ofe-
rece grande capacidade de armazenamento, mas com tempos de acesso significativamente 
maiores. Essa organização otimiza o desempenho, permitindo que os dados mais acessados 
estejam nos níveis superiores da hierarquia.
2. Alternativa C.
A memória virtual é um recurso de gerenciamento de memória que utiliza parte do arma-
zenamento secundário (geralmente o disco rígido ou SSD) para simular uma expansão da 
memória RAM. Quando a RAM está cheia, o sistema operacional move os dados pouco usados 
para a memória virtual, liberando espaço na RAM para tarefas ativas. Ela atua, portanto, como 
intermediária entre a RAM e o armazenamento secundário, e tem grande capacidade, mas seu 
desempenho é significativamente inferior ao da RAM, já que depende da velocidade do disco.
3. Alternativa B.
A afirmativa I está incorreta, pois a SRAM não é usada como memória principal por ser cara 
e ocupar mais espaço físico. Quem cumpre esse papel é a DRAM. A afirmativa II está corre-
ta, pois a política LRU (Least Recently Used) substitui o bloco que não foi acessado há mais 
tempo, aproveitando o princípio da localidade temporal. A afirmativa III está incorreta, pois a 
memória virtual serve para expandir logicamente a RAM usando o disco, e não para alterar ou 
acelerar o clock do processador. A afirmativa IV está correta, pois os registradores estão no 
topo da hierarquia, dentro da CPU, sendo as memórias mais rápidas e com menor capacidade.
CONFIRA SUAS RESPOSTAS
1
1
1
UNIDADE 4
MINHAS METAS
SISTEMAS DE ENTRADA E SAÍDA
Compreender o papel dos dispositivos de entrada, saída e entrada/saída.
Classificar os dispositivos de E/S com base no fluxo de dados.
Analisar as principais características técnicas dos dispositivos de E/S.
Entender os modos de comunicação síncrono e assíncrono.
Comparar as três técnicas de comunicação entre CPU e periféricos.
Identificar e diferenciar interfaces seriais e paralelas.
Aplicar os conhecimentos teóricos em contextos reais.
T E M A D E A P R E N D I Z A G E M 1
1
1
8
INICIE SUA JORNADA
Você já parou para pensar no modo como um teclado, uma câmera ou até o Wi-Fi 
do seu computador conversa com o sistema? Essa comunicação entre o mundo 
físico e o processamento digital acontece por meio dos dispositivos de entrada 
e saída, o que vai muito além de simplesmente digitar ou visualizar algo na tela.
Neste tema de aprendizagem, analisaremos como esses dispositivos funcio-
nam, como são classificados e o motivo pelo qual as suas características técnicas 
(como velocidade e modo de operação) fazem tanta diferença no desempenho do 
sistema. Também entenderemos como essa comunicação se dá por barramentos 
e interfaces, e como ela pode ser otimizada por técnicas, como entrada e saída 
programada, por interrupção ou por DMA.
Estudaremos exemplos, como o uso de sensores e atuadores em sistemas em-
barcados com Arduino e ESP32, e perceberemos como esse conhecimento se 
conecta com soluções reais, desde automação residencial até sistemas de alto 
desempenho. Prepare-se para descobrir o que acontece por trás da interação 
entre você e a máquina e o motivo pelo qual dominar isso é fundamental para 
quem quer projetar e otimizar sistemas computacionais.
Você já parou para pensar na maneira como o seu notebook 
conversa com todos os componentes? Neste episódio, mergu-
lhamos nos bastidores da computação para entender os barra-
mentos, os protocolos e a revolução invisível que está moldando 
o futuro das máquinas e da atuação de quem trabalha com elas.
PLAY N O CONHECIMENTO
UNICESUMAR
1
1
9
https://on.soundcloud.com/SoYLWzd0H5qxypGiFH
TEMA DE APRENDIZAGEM 6
DESENVOLVA SEU POTENCIAL
DISPOSITIVOS DE ENTRADA E SAÍDA
Ao analisarmos o funcionamento de um sistema computacional moderno, torna-
-se evidente a importância dos dispositivos de Entrada/Saída (E/S) na mediação 
entre o processamento interno e o mundo externo. Esses dispositivos compõem o 
elo entre o usuário, o ambiente e a máquina, permitindo a comunicação contínua 
e eficiente com o sistema. Sua correta compreensão é fundamental tanto para o 
entendimento da arquitetura dos computadores quanto para o desenvolvimento 
de soluções tecnológicas eficazes. 
A categorização dos dispositivos de E/S pode ser realizada com base no 
fluxo de dados que ocorre entre o sistema computacional e o meio externo. 
Nesse sentido, os dispositivos de E/S são tradicionalmente organizados em 
três grupos principais:
VAMOS RECORDAR?
Vamos recordar e entender como, em 1950, houve uma 
mudança significativa para os computadores hoje serem 
de mesas, pois, antigamente, eles funcionavam somente 
com válvulas. Logo, não estavam sendo suficientes para 
o próprio propósito.
DISPOSITIVOS DE ENTRADA
Capturam dados do ambiente externo e os enviam ao sistema para processamento.
1
1
1
https://www.youtube.com/watch?v=sS7r7a-6SO0&list=PLYjrJH3e_wDOA5mxhiMxE6yslcIzU5NkX&index=5
DISPOSITIVOS DE SAÍDA
Apresentam ao usuário os resultados das operações computacionais.
DISPOSITIVOS DE ENTRADA E SAÍDA
Realizam tanto a recepção quanto a transmissão de dados, como pendrives, discos e 
placas de rede.
Figura 1 – Teclado
Descrição da Imagem: é exibido um teclado escuro como exemplo de dispositivo de entrada. Fim da descrição.
Dispositivos de entrada
Os dispositivos de entrada são responsáveis por capturar dados do ambiente 
externo e enviá-los ao sistema para processamento. Eles incluem periféricos am-
plamente conhecidos, como teclado, mouse, scanner e microfone. Seu papel é 
essencial para viabilizar a interação entre o usuário e os softwares e os sistemascódigos, telas cheias de números e alguém digitando frenetica-
mente. Todavia, a computação vai muito além disso: ela é o estudo da resolução 
de problemas de forma automática e eficiente. Não estamos falando apenas de 
programação, pois estudar esse tema exige a compreensão de processos, dados, 
algoritmos, hardware e software e de como tudo isso se conecta para criar solu-
ções no mundo real.
 “ De forma simples, podemos dizer que a computação é a ciência que 
estuda o processamento de informações. Isso inclui desde pensar 
em como representar um problema, até encontrar formas eficientes 
de resolvê-lo, com ou sem o uso de computadores (Stallings, 2017).
VOCÊ SABE RESPONDER?
Você já parou para pensar no que é, de fato, a computação?
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 1
Hoje, o termo está associado às máquinas que usamos no dia a dia, como note-
books, smartphones, servidores, entre outros. No entanto, o “coração” da tecno-
logia está na capacidade de transformar dados em informações úteis, resolver 
problemas e criar soluções digitais.
A computação e sua aplicação na resolução de problemas
A computação é a ciência que estuda os processos de tratamento da informação, 
englobando desde a elaboração de algoritmos até a implementação desses pro-
cessos em sistemas computacionais. A principal aplicação dela é na resolução de 
problemas, sejam eles matemáticos, lógicos, sociais ou operacionais. Um exemplo 
clássico é o uso de algoritmos em aplicativos de entrega, visto que otimizam rotas, 
estimam tempo e gerenciam pedidos em tempo real.
Curiosidade
Você sabia que a palavra “computador” vem do verbo “computar”, que significa fazer 
cálculos? Os primeiros computadores da história eram, na verdade, pessoas que 
realizavam cálculos complexos manualmente, especialmente durante guerras e 
missões científicas.
1
1
Pensamento computacional: 
o raciocínio por trás da computação
 Quando falamos que a computação ajuda a resolver problemas, não estamos 
falando apenas de criar softwares ou lidar com máquinas. Estamos falando de 
uma forma de pensar, uma estratégia mental que permite organizar informações, 
analisar cenários e construir soluções eficientes. Essa estratégia é chamada de 
pensamento computacional.
Mas o que isso quer dizer, na prática? Pensar computacionalmente é como 
treinar o cérebro para enxergar um problema como um programador enxergaria. 
Imagine que você precisa organizar uma fila de pessoas por ordem de chegada em 
um restaurante. O pensamento computacional entra quando você segue alguns 
passos importantes para a resolução da problemática:
DECOMPOR O PROBLEMA
Quebrar em partes menores: identificar cada cliente, verificar o horário de chegada 
e ordenar.
RECONHECER PADRÕES
Perceber que clientes em grupos têm comportamentos parecidos ou que determina-
dos horários têm mais movimento.
ABSTRAIR DETALHES IRRELEVANTES
Não importa o prato que a pessoa vai pedir, apenas o horário de chegada.
CRIAR UM ALGORITMO
Estabelecer um passo a passo para organizar essa fila de forma justa e automatizada.
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 1
Os quatro pilares que acabamos de conhecer como decomposição, reconheci-
mento de padrões, abstração e algoritmos, constituem a base do pensamento 
computacional. Como isso se aplica ao nosso cotidiano? É importante conhecer 
as possibilidades e as respectivas utilidades na rotina do profissional de tecnolo-
gia. Vamos utilizar um exemplo real: os aplicativos de transporte, tais como Uber, 
99 e Google Maps. Eles precisam, o tempo todo, resolver problemas:
1. Qual é o motorista mais próximo?
2. Qual é a rota mais rápida?
3. Como calcular o tempo de chegada?
4. E se o trânsito mudar durante o trajeto?
Esses desafios são resolvidos com pensamento computacional. Milhões de dados 
são processados com base em algoritmos que simulam o raciocínio lógico de um 
ser humano, mas com muito mais velocidade e precisão.
Você pode não se tornar programador, mas o pensamento computacional te 
dá ferramentas para pensar melhor: tomar decisões com base em dados, orga-
nizar tarefas com mais clareza e entender sistemas complexos com lógica. Pro-
fissionais da saúde, engenheiros, arquitetos, administradores e professores, por 
exemplo, podem se beneficiar dessa forma estruturada de pensar. Assim como 
podemos perceber, hoje, a tecnologia está por trás de praticamente tudo. Portan-
to, compreender a lógica que faz isso funcionar não apenas é importante, mas 
essencial para participar ativamente da sociedade digital.
Áreas de atuação da tecnologia
As áreas de atuação em tecnologia vão muito além da simples programação, 
abrangendo desde o desenvolvimento de soluções digitais até o suporte à ciência, 
à engenharia e à vida cotidiana. A seguir, são descritas algumas das principais 
áreas da tecnologia e suas aplicações práticas, além do modo como elas impactam 
diretamente o mundo em que vivemos. 
1
1
ÁREA DEFINIÇÃO APLICAÇÕES
IMPACTO NA 
SOCIEDADE
Desenvol-
vimento de 
Software
Criação, manuten-
ção e evolução de 
sistemas, aplicati-
vos e plataformas 
digitais.
Aplicativos, como 
WhatsApp, ERPs 
(TOTVS, SAP), jogos 
(Minecraft, God of 
War) e plataformas 
web (Google Docs, 
Moodle).
Automatiza tare-
fas, inova mode-
los de negócio e 
amplia o acesso 
à tecnologia 
e aos serviços 
digitais.
Segurança da 
Informação
Proteção de dados 
e sistemas contra 
ameaças, como 
ataques cibernéti-
cos e vazamentos.
Autenticação em 
dois fatores (2FA), 
firewalls, antiví-
rus, LGPD/GDPR, 
centros de opera-
ções de segurança 
(SOCs).
Garante privaci-
dade, integrida-
de e confiança 
em ambientes 
digitais empresa-
riais e pessoais.
Inteligência 
Artificial
Desenvolvimento 
de sistemas capa-
zes de aprender, 
adaptar e tomar de-
cisões autônomas.
ChatGPT, assisten-
tes virtuais (Alexa, 
Siri), recomenda-
ções da Netflix e 
Spotify, carros autô-
nomos e reconheci-
mento facial.
Automatiza deci-
sões, personaliza 
serviços, melho-
ra a análise de 
dados e transfor-
ma o mercado 
de trabalho.
Engenharia 
de Compu-
tação
Integração entre 
hardware e soft-
ware com foco em 
dispositivos físicos 
e sistemas embar-
cados.
Arduino, Raspberry 
Pi, dispositivos mé-
dicos, automação 
industrial, weara-
bles e controle de 
drones.
Conecta o digital 
ao físico, impul-
siona a Indústria 
4.0 e desenvolve 
soluções para 
saúde e mobili-
dade.
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 1
ÁREA DEFINIÇÃO APLICAÇÕES
IMPACTO NA 
SOCIEDADE
Computação 
Quântica
Computação ba-
seada em princípios 
da mecânica quân-
tica para resolver 
problemas alta-
mente complexos.
IBM Q, Google 
Sycamore, simula-
ções moleculares, 
algoritmos de otimi-
zação e criptografia 
quântica.
Promete trans-
formar áreas, 
como criptogra-
fia, finanças e 
pesquisa científi-
ca avançada.
Robótica
Projeto e constru-
ção de sistemas 
automatizados que 
interagem com o 
ambiente físico.
Robôs industriais, 
cirúrgicos, educa-
cionais, drones e 
robôs de limpeza, 
como o Roomba.
Automatiza 
tarefas repe-
titivas, amplia 
a capacidade 
humana e apoia 
setores, como 
saúde, indústria 
e educação.
Quadro 1 – Áreas de atuação / Fonte: o autor.
Conceitos fundamentais em tecnologia da informação
Na base de todos os sistemas computacionais, encontram-se cinco pilares es-
senciais: hardware, software, dados, informação e algoritmos. Esses conceitos 
são interdependentes e compõem o núcleo dos estudos em Tecnologia da Infor-
mação, pois compreendê-los é essencial para qualquer atuação na área, desde a 
montagem de computadores até o desenvolvimento de aplicações.
1
1
O hardware é a parte física do computador, ou seja, todos os dispositivos físicos, 
como processador, memória RAM, disco rígido, placa-mãe, monitores, sensores, 
entre outros componentes. Um técnico ou analista de suporte precisa saber, por 
exemplo, como diagnosticar falhas de hardware, instalar novos dispositivos e 
garantir a comunicação correta deles com o sistema. Na área de servidores, esco-
lher o hardware adequado (memória,operacionais (Stallings, 2024).
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 6
Figura 1 – Monitor
Descrição da Imagem: é exi-
bido um monitor escuro como 
exemplo de dispositivo de 
saída. Fim da descrição.
Dispositivos de saída
Em contrapartida, os dispositivos de saída desempenham a função oposta, apre-
sentando ao usuário os resultados das operações computacionais. São exemplos 
disso os monitores, as impressoras, os projetores e os alto-falantes. Tais dispositi-
vos não captam informações, apenas as reproduzem ou exibem (Monteiro, 2015).
Dispositivos de entrada e saída
Por fim, encontram-se os dispositivos de Entrada/Saída (E/S), capazes de tanto 
receber quanto transmitir dados. Esses dispositivos bidirecionais incluem discos 
rígidos, unidades SSD, pendrives, placas de rede e modems, desempenhando um 
papel crucial em contextos em que a troca constante de dados é exigida, como no 
armazenamento de informações e na comunicação em rede (Monteiro, 2015).
 A distinção entre essas categorias não apenas favorece uma melhor organiza-
ção dos recursos de hardware, como também permite que o sistema operacional 
otimize o gerenciamento do acesso aos dispositivos, atribuindo prioridades e 
alocando recursos de forma eficiente (Weber, 2012).
1
1
1
Características técnicas dos dispositivos de entrada e saída
Além da funcionalidade, os dispositivos de E/S apresentam características técni-
cas específicas que afetam diretamente o desempenho geral do sistema. A veloci-
dade de comunicação, o modo de operação e a presença de buffers são elementos 
determinantes na eficiência de suas operações.
A velocidade de transferência, por exemplo, é uma métrica que indica a quantidade 
de dados que um dispositivo é capaz de transmitir ou de receber em determinado 
intervalo de tempo.
Dispositivos, como SSDs NVMe, placas de vídeo e interfaces de rede Gigabit, 
destacam-se por suas elevadas taxas de transferência, exigindo, por isso, interfa-
ces compatíveis de alta velocidade, como o barramento PCIe. Já dispositivos de 
entrada simples, como teclados e mouses, operam com baixas taxas de transfe-
rência, uma vez que lidam com pequenas quantidades de dados.
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 6
Para lidar com essa variedade de velocidades, o sistema faz uso de recursos, 
como buffers, que consistem em áreas de memória temporária utilizadas para 
armazenar dados enquanto são transferidos entre o dispositivo e a CPU. Esse 
mecanismo evita perdas de informação e permite que o processador continue 
suas tarefas enquanto, por exemplo, uma impressora realiza a impressão dos 
dados armazenados no buffer (Weber, 2012).
O artigo Direto ao Ponto - A Arquitetura do Computador aprofunda 
temas diretamente relacionados ao conteúdo estudado, como a 
interação entre CPU, barramentos e dispositivos de E/S, ao expor 
exemplos práticos e didáticos. Ele complementa o estudo sobre 
classificação, características técnicas e modos de operação de 
E/S, reforçando os conceitos de integração entre hardware e soft-
ware em sistemas embarcados e arquiteturas de alto desempenho.
E U I N DI CO
Outro aspecto técnico relevante diz respeito aos modos de operação, que podem 
ser sincrônicos ou assíncronos. No modo sincrônico, a comunicação entre o dis-
positivo e o processador ocorre com base em um relógio compartilhado, garan-
tindo que os dados sejam transmitidos em intervalos regulares e previsíveis. Um 
exemplo típico é o uso em memórias DRAM. Por outro lado, o modo assíncrono 
não depende de uma temporização comum, utilizando sinais de controle para 
indicar a disponibilidade dos dados. Essa abordagem é comum em periféricos, 
como teclados e portas seriais, e se mostra vantajosa em sistemas embarcados 
pela simplicidade da implementação e pelo menor consumo de energia.
A escolha entre um modo de comunicação ou outro depende diretamente 
da aplicação pretendida, da complexidade do sistema e dos requisitos de desem-
penho e economia (Weber, 2012).
A aplicabilidade dos conceitos abordados pode ser claramente observada em 
projetos contemporâneos de automação residencial, em que os microcontroladores, 
como o Arduino e o ESP32, são usados para monitorar e controlar dispositivos de 
E/S em tempo real.
1
1
1
�https://www.dio.me/articles/direto-ao-ponto-4-a-arquitetura-do-computador
Nesses sistemas, sensores de presença, luz, temperatura e umidade atuam como 
dispositivos de entrada, captando informações do ambiente. Atuadores, como relés, 
motores e lâmpadas inteligentes, funcionam como dispositivos de saída, reagindo 
aos comandos processados pelo microcontrolador. Além disso, módulos Wi-Fi, 
interfaces Bluetooth ou portas USB operam como dispositivos de entrada e saída, 
permitindo a comunicação com redes, aplicativos móveis e outros sistemas.
Programação de Sistemas Embarcados - Desenvolvendo 
Software para Microcontroladores em Linguagem C 
O livro aprofunda a aplicação de técnicas de entrada e saída 
em sistemas embarcados, destacando o uso de E/S progra-
mada, por interrupção e DMA com microcontroladores. A lin-
guagem C é usada para demonstrar o controle de dispositivos 
e barramentos, como SPI e I2C, conectando teoria e prática de 
forma essencial para projetos de automação e IoT.
I N DI CAÇÃO DE L IVRO
Esse tipo de aplicação não apenas evidencia a importância dos dispositivos de 
E/S no contexto prático, como também ilustra a integração direta entre teoria e 
prática em projetos reais. A correta escolha e configuração dos dispositivos in-
fluencia diretamente a funcionalidade, a segurança e a eficiência de soluções que 
já fazem parte do cotidiano de muitos usuários, como casas inteligentes, sistemas 
de segurança autônomos e controle remoto de equipamentos.
Entrada e saída: 
programada, interrupção e com acesso direto à memória 
A comunicação entre a CPU e os dispositivos de entrada e saída (E/S) representa um 
dos desafios mais práticos no desenvolvimento de sistemas computacionais, especial-
mente em cenários que exigem desempenho, responsividade e estabilidade. Com-
preender como essa comunicação acontece na prática e por quais técnicas ela pode ser 
realizada não é apenas uma necessidade acadêmica, mas uma habilidade essencial para 
quem deseja atuar no mercado de tecnologia, seja desenvolvendo hardware embarca-
do, seja otimizando arquiteturas de software que interagem com dispositivos externos.
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 6
A técnica mais básica de E/S é a programada, na qual o processador tem total 
responsabilidade pelo controle da comunicação. Aqui, a CPU entra em um ciclo 
de espera ativa (polling), checando constantemente o estado do dispositivo até 
que ele esteja pronto para operar. Esse método, embora conceitualmente simples 
e de fácil implementação, apresenta uma limitação crítica: o alto desperdício de 
recursos de processamento (Stallings, 2024).
A aplicação dessa técnica, embora seja limitada a sistemas de baixa comple-
xidade, ajuda a entender o papel direto da CPU no gerenciamento dos fluxos de 
dados. Um exemplo clássico e acessível pode ser encontrado em projetos com 
Arduino, nos quais a função loop() realiza leituras contínuas do estado de um 
botão físico para controlar um LED. Ainda que funcional, essa abordagem não é 
escalável para sistemas que exigem múltiplas entradas, tempo real ou paralelismo.
VOCÊ SABE RESPONDER?
O que acontece se a CPU precisar verificar o tempo todo se um dispositivo está 
pronto para enviar ou receber dados, sem nunca poder se dedicar a outras tarefas?
1
1
1
Essa é a lógica da E/S programada, uma técnica simples de entender e imple-
mentar, mas que pode se tornar um gargalo em sistemas com múltiplas ope-
rações concorrentes. Ao experimentar essa abordagem em situações práticas, 
como no controle de um LED, com base na leitura contínua de um botão, você 
perceberá como o processador desperdiça recursos ao ficar preso em um ciclo 
de verificação constante. Ao compreender isso, você desenvolve a capacidade 
de analisar criticamente assoluções mais diretas e percebe que, em muitos 
casos, a eficiência está em delegar parte do controle aos próprios dispositivos. 
Essa percepção é essencial para a transição da teoria para a prática e 
para a construção de soluções mais escaláveis e profissionais. A E/S por in-
terrupção surge como uma evolução natural da técnica anterior, permitindo 
que a CPU não fique mais presa em ciclos de espera. Nessa abordagem, o 
dispositivo de E/S emite um sinal de interrupção para notificar o proces-
sador assim que estiver pronto para transmitir ou receber dados. A CPU, 
por sua vez, pode focar em outras tarefas até ser acionada, o que amplia 
significativamente a eficiência do sistema.
Você perceberá o valor prático da técnica de E/S por interrupção espe-
cialmente em sistemas que precisam reagir a eventos externos imprevisí-
veis. Um bom exemplo é o uso do microcontrolador ESP32 com um leitor 
RFID: ele só precisa agir quando um cartão é detectado. Enquanto isso, a 
CPU permanece livre para executar outras tarefas, tornando o sistema mais 
fluido, escalável e profissional.
Ao lidar com interrupções, você entende na prática como a autonomia 
dos dispositivos periféricos contribui para a eficiência do sistema e começa 
a desenvolver rotinas de atendimento a interrupções (ISRs), fundamentais 
em projetos de automação, sistemas embarcados e Internet das Coisas (IoT). 
Dominar o uso de interrupções é mais do que saber programar, é aprender 
a pensar como um desenvolvedor capaz de projetar soluções responsivas, 
multitarefas e preparadas para o mundo real.
Em contextos que exigem alto desempenho e transferências de gran-
des volumes de dados, tais como sistemas multimídia, redes ou aplicações 
com sensores de alta resolução, entra em cena o Acesso Direto à Memória 
(DMA). Essa técnica permite que os dados sejam transferidos diretamente 
entre a memória e o dispositivo de E/S, sem que a CPU precise intervir 
continuamente no processo.
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 6
Você já se perguntou como um sistema com recursos limitados, como o Raspber-
ry Pi, consegue lidar com o processamento de imagens em tempo real sem travar? 
Esse é um bom ponto de partida para pensarmos sobre desempenho e eficiência 
em sistemas computacionais e sobre o papel do DMA nessa equação.
PE N SA N DO JUNTOS
O Acesso Direto à Memória (DMA) se torna essencial em arquiteturas que lidam 
com grandes volumes de dados. No caso de câmeras CSI conectadas ao Raspber-
ry Pi, por exemplo, o DMA permite transferir os quadros capturados diretamente 
para a memória RAM sem depender da CPU. Com isso, o processador fica livre 
para executar outras tarefas, como processar imagens ou enviar informações 
para servidores. O resultado é um sistema mais leve, ágil e capaz de executar 
algoritmos mais avançados.
Não se trata apenas de hardware potente, mas de saber usar bem os recursos 
disponíveis. É nesse contexto que entra a sua capacidade de refletir sobre o im-
pacto das decisões de projeto. Em um cenário permeado por dados, automação e 
conectividade, dominar técnicas, como o DMA, não é apenas um conhecimento 
técnico é uma estratégia. 
Interfaces de entrada e saída: comunicação serial e paralela
De acordo com Monteiro (2015), interfaces seriais transmitem dados sequen-
cialmente, um bit por vez, utilizando um número reduzido de linhas de comu-
nicação. Embora possa parecer limitante, tecnologias modernas implementam 
técnicas sofisticadas de codificação, multiplexação e sincronização para maximi-
zar a eficiência. Exemplos relevantes incluem USB, SATA, SPI e I2C, cada qual 
com especificidades adequadas a diferentes contextos. Observe as definições 
exibidas a seguir:
USB (UNIVERSAL SERIAL BUS)
amplamente empregada em periféricos, oferece suporte à conexão hot-plug e alimen-
tação elétrica, com versões sucessivas apresentando incrementos de velocidade.
1
1
8
Em microcontroladores, como ESP32 e Arduino, sensores de temperatura e 
umidade DHT12 se comunicam via interface I2C, reduzindo o cabeamento e 
facilitando a manutenção. Ao contrário das seriais, as interfaces paralelas trans-
mitem múltiplos bits simultaneamente por meio de múltiplas linhas físicas, o 
que proporciona maior taxa de transferência em curtas distâncias, mas implica 
maior complexidade e custos com cabeamento e sincronização.
Exemplos incluem barramentos internos, como PCIe e conexões de memória 
RAM. Embora o PCI Express utilize conectores que aparentam ser paralelos, 
internamente, ele emprega linhas seriais multiplexadas, combinando alta largura 
de banda com baixa latência, o que é essencial em aplicações gráficas e científicas 
de alto desempenho. Em estações de trabalho avançadas, placas de vídeo, como 
GPU RTX 3090, utilizam PCIe para comunicação rápida com CPU e memória, 
evitando gargalos no processamento. 
Vejamos um quadro comparativo entre interfaces seriais e paralelas:
SATA (SERIAL ADVANCED TECHNOLOGY ATTACHMENT)
destinada à conexão de dispositivos de armazenamento, substituindo os antigos barra-
mentos paralelos IDE, com maior eficiência e taxa de transferência.
SPI (SERIAL PERIPHERAL INTERFACE) E I2C (INTER-INTEGRATED CIRCUIT)
protocolos usados em sistemas embarcados para comunicação com sensores e perifé-
ricos, destacando-se pela simplicidade e baixo custo.
CRITÉRIO SERIAL PARALELO
Velocidade
Alta (com codifica-
ção eficiente).
Alta apenas em curta distância.
Custo
Baixo (menos linhas 
e conectores).
Alto (maior cabeamento e sincronização).
UNICESUMAR
1
1
9
TEMA DE APRENDIZAGEM 6
A escolha da interface adequada depende dos requisitos específicos de velocida-
de, distância, consumo e custo do projeto.
Barramentos: tipos, características e protocolos
No coração da arquitetura de computadores, os barramentos desempenham um 
papel fundamental, ao viabilizar a comunicação entre os componentes do siste-
ma. Eles são estruturas físicas e lógicas que interligam o processador, a memória 
e os dispositivos de entrada e saída, permitindo a troca de dados, endereços e 
sinais de controle de forma sincronizada e eficiente.
Para compreender como essa comunicação ocorre, é necessário identificar 
os três principais tipos de barramentos presentes em um sistema computacional: 
o barramento de dados, o barramento de endereço e o barramento de controle. 
O barramento de dados é responsável por transportar as informações propria-
mente ditas, sendo a largura normalmente de 32 ou 64 bits, determinante para a 
quantidade de dados transmitidos em cada ciclo de clock. 
Já o barramento de endereço conduz os identificadores dos dispositivos ou 
posições de memória com os quais o processador deseja se comunicar. Por fim, o 
barramento de controle carrega os sinais essenciais para a coordenação das ope-
rações, como comandos de leitura, escrita, interrupções e reset (Stallings, 2024).
CRITÉRIO SERIAL PARALELO
Distância Longa (até metros).
Curta (problemas com ruídos e 
interferência).
Complexidade
Menor (fácil imple-
mentação).
Maior (necessita controle de clock e 
sincronização).
Uso típico
Periféricos, sensores 
e armazenamento.
GPU, memória RAM e sistemas embar-
cados de alta performance.
Quadro 1 – Interfaces seriais e paralelas / Fonte: o autor.
1
1
1
Esses barramentos podem ser classificados conforme sua localização 
no sistema: internos, presentes na placa-mãe, conectando CPU, memória 
e chipsets; e externos, responsáveis por conectar dispositivos periféricos 
por intermédio de interfaces, como USB, Thunderbolt e HDMI.
As características técnicas dos barramentos impactam diretamente 
o desempenho do sistema (Stallings, 2024). A largura do barramento 
influencia o volume de dados transportados simultaneamente, enquan-
to a velocidade do clock define a frequência com que essas transferên-
cias ocorrem, afetando diretamente o throughput. Em sistemas mais 
avançados, a multiplexação é uma técnica empregada para otimizar o 
uso das linhas físicas do barramento, permitindo que elas carreguem 
diferentes tipos de informação em momentosdistintos, conforme os 
sinais de controle (Hennessy, 2019). 
A topologia do barramento também varia: pode ser paralela, como em 
barramentos tradicionais compartilhados, ou ponto a ponto, como no caso 
do PCI Express (PCIe), em que há canais dedicados para cada dispositivo, 
favorecendo a comunicação direta e full-duplex (Stallings, 2024).
Os protocolos de comunicação regem como essas trocas de in-
formações acontecem em cada tipo de barramento. Um dos protocolos 
mais comuns é o USB (Universal Serial Bus), amplamente adotado 
pela flexibilidade, suporte a hot-plug e velocidade crescente com cada 
versão. O USB 4, por exemplo, atinge até 40 Gbps. Já o PCIe se destaca 
por seu modelo ponto a ponto, permitindo comunicação simultânea 
bidirecional e alcançando taxas de até 16 gigatransfers por segundo 
(GT/s) por pista em suas versões mais recentes. 
Para dispositivos embarcados e de baixa velocidade, utilizam-
-se os barramentos I2C e SPI. O I2C, com dois fios e comunicação 
mestre-escravo, é ideal para sensores e pequenos periféricos. O SPI, 
com quatro fios e comunicação síncrona full-duplex, é comum em 
aplicações que exigem maior taxa de transferência, como controle de 
displays e leitura de cartões SD.
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 6
Um bom exemplo da aplicação prática de múltiplos barramentos pode ser ob-
servado em um notebook moderno. Nesse tipo de equipamento, o barramento PCIe 
é utilizado para conectar componentes de alto desempenho, como uma GPU dedi-
cada, um SSD do tipo NVMe ou até mesmo a placa de rede Wi-Fi, assegurando alto 
desempenho em tarefas exigentes. O barramento SATA ainda pode estar presente 
para suportar dispositivos de armazenamento mais antigos, como HDs. As portas 
USB continuam sendo fundamentais para conexão de periféricos, como mouses, 
teclados e dispositivos externos. E, internamente, protocolos, como I2C e SPI, são 
largamente utilizados para comunicação com sensores e componentes responsáveis 
pela gestão de energia, iluminação de tela, leitura de temperatura, entre outros.
Compreender os barramentos e seus protocolos é essencial para projetar sis-
temas eficientes, compatíveis e capazes de atender às demandas de desempenho 
contemporâneas. Em última análise, a forma como os dispositivos conversam 
dentro de um computador e com o mundo externo depende da arquitetura pre-
cisa e bem planejada desses canais de comunicação.
Estudante, para expandir os seus conhecimentos no assunto 
abordado, gostaríamos de indicar a aula que preparamos espe-
cialmente para você. Acreditamos que essa aula irá complemen-
tar e aprofundar ainda mais o seu entendimento do tema.
E M FOCO
NOVOS DESAFIOS
Compreender os dispositivos de entrada/saída, suas classificações, características téc-
nicas, modos de operação, interfaces e barramentos vai muito além da teoria. Ao lon-
go deste tema de aprendizagem, quero que você perceba como esses conhecimentos 
formam a base para que você atue com segurança e competência no desenvolvimento 
de sistemas computacionais. Ao estudar esses conceitos, você desenvolve a capacidade 
de analisar e projetar soluções eficientes, capazes de atender às exigências atuais por 
desempenho, confiabilidade e integração entre diferentes dispositivos. 
1
1
1
https://vimeo.com/1102497053/05670509cb
No ambiente profissional, essa base teórica sustenta a aplicação prática em áreas 
diversas, desde a automação industrial e residencial até o desenvolvimento de 
sistemas embarcados, dispositivos móveis e infraestruturas de redes de alta ve-
locidade. O conhecimento sobre técnicas de E/S programada, por interrupção e 
DMA permite aos futuros profissionais escolherem soluções tecnológicas ade-
quadas às especificidades dos projetos, otimizando recursos computacionais e 
elevando a qualidade dos produtos e serviços desenvolvidos.
Além disso, a familiaridade com interfaces seriais e paralelas, bem como a 
arquitetura dos barramentos, torna-se estratégica para lidar com as constantes 
inovações tecnológicas, como IoT, computação em nuvem, Inteligência Artifi-
cial e sistemas de comunicação avançados, que requerem integração eficiente de 
hardware e software.
Portanto, a articulação entre teoria e prática que você encontrou neste tema 
de aprendizagem te ajudará a enfrentar os desafios do mercado de trabalho atual 
e futuro. Compreender e aplicar os conceitos fundamentais de arquitetura e or-
ganização de computadores será um diferencial importante para que você inove 
com segurança e se destaque como profissional na área de tecnologia.
UNICESUMAR
1
1
1
1. Os registradores são pequenas áreas de armazenamento dentro do processador que guar-
dam os dados temporários enquanto as instruções são executadas. São essenciais para a 
velocidade de processamento, pois acessam informações de forma muito mais rápida do 
que a memória RAM. Existem registradores de uso geral e registradores específicos, como 
o contador de instruções, acumulador, e registradores de status, que controlam o fluxo das 
operações no processador.
Com base nos seus conhecimentos sobre registradores, assinale a alternativa que representa 
corretamente uma função do registrador contador de instruções (PC – Program Counter):
a) Armazena dados intermediários provenientes de operações matemáticas realizadas 
pela ULA.
b) Controla o número de ciclos de clock usados para cada instrução executada pelo 
processador.
c) Indica o endereço físico da próxima instrução a ser buscada na memória. 
d) Armazena os resultados que serão enviados para dispositivos de saída.
e) Gerencia o tráfego de dados entre os barramentos de controle e o sistema operacional.
2. O barramento é um conjunto de linhas de comunicação que transporta dados, endereços 
e sinais de controle entre os diversos componentes do computador, como CPU, memória e 
dispositivos de entrada e saída. Entre os tipos de barramento, destacam-se o de dados, que 
transfere informações binárias; o de endereços, que indica onde os dados devem ser lidos 
ou gravados; e o de controle, que coordena e sincroniza as operações entre os dispositivos.
Com base nas informações apresentadas, assinale qual barramento é responsável por infor-
mar à CPU onde um dado deve ser buscado ou armazenado na memória:
a) Barramento de dados.
b) Barramento de controle.
c) Barramento de endereços.
d) Barramento de entrada e saída.
e) Barramento lógico.
VAMOS PRATICAR
1
1
1
3. O desempenho de um sistema computacional depende, em grande parte, da forma como 
os dispositivos de entrada/saída (E/S) se comunicam com o processador. Para isso, são 
utilizadas técnicas, como E/S programada, por interrupção e com acesso direto à memória 
(DMA). A E/S programada exige que a CPU controle diretamente a transferência de dados, 
enquanto a por interrupção permite que o dispositivo alerte o processador quando estiver 
pronto. Já o DMA transfere dados diretamente entre o dispositivo e a memória principal, 
liberando a CPU para outras tarefas e aumentando a eficiência.
Com base no texto exposto e nos seus conhecimentos, analise as afirmativas a seguir:
I - A técnica DMA é ideal para grandes volumes de dados, pois libera a CPU durante as 
transferências.
II - A E/S por interrupção torna o sistema mais eficiente ao evitar o uso contínuo da CPU.
III - Na E/S programada, a CPU realiza polling, o que pode causar desperdício de processamento.
IV - A técnica de DMA é desaconselhada em sistemas que utilizam sensores de alta resolução 
por conta da baixa taxa de transferência.
É correto o que se afirma em:
a) I e IV, apenas.
b) II e III, apenas.
c) III e IV, apenas.
d) I, II e III, apenas.
e) II, III e IV, apenas.
VAMOS PRATICAR
1
1
1
REFERÊNCIAS
HENNESSY, J. Arquitetura de computadores: uma abordagem quantitativa. Rio de Janeiro: Gen; 
LTC, 2019.
MONTEIRO, M. Organização e arquitetura de computadores. 2. ed. São Paulo: Érica, 2015.
STALLINGS, W. Arquitetura e organização de computadores: projetando com foco em desem-
penho. 11. ed. Porto Alegre: Bookman, 2024.
WEBER,R. F. Fundamentos de arquitetura de computadores. 4. ed. Porto Alegre: Bookman, 2012.
1
1
1
1. Alternativa C.
O contador de instruções (Program Counter) tem a função de apontar para o endereço da 
próxima instrução que o processador deve buscar e executar. Ele é atualizado automatica-
mente após cada ciclo de instrução, garantindo o fluxo sequencial do programa (salvo nos 
casos de desvios, como em estruturas de controle).
As demais alternativas estão incorretas:
A. Essa função é típica do registrador acumulador ou de registradores de uso geral, e 
não do Program Counter. O acumulador guarda resultados temporários de operações 
aritméticas e lógicas. 
B. O número de ciclos de clock depende do design da CPU e do tipo de instrução, mas não 
é controlado por um registrador específico. O PC apenas aponta para a próxima instrução, 
sem gerenciar tempo de execução.
D. Isso pode estar relacionado à memória principal ou aos registradores específicos de 
I/O, mas não ao PC. O Program Counter não guarda dados de saída, ele apenas aponta o 
próximo passo na execução do código. 
E. O tráfego entre barramentos e o sistema é gerenciado por outros componentes de controle, 
como a Unidade de Controle, e não diretamente por registradores, como o Program Counter.
2. Alternativa C. 
O barramento de endereços é o responsável por informar o local exato na memória onde os 
dados devem ser lidos ou gravados, permitindo que a CPU acesse a posição correta durante 
a execução de uma instrução.
As demais alternativas estão incorretas:
A. Esse barramento transporta os próprios dados que estão sendo processados, mas não 
informa onde eles devem ser lidos ou gravados. 
B. Esse barramento transporta sinais de controle, como leitura, escrita, interrupções etc., 
mas não carrega endereços de memória.
D. Apesar de conectar dispositivos periféricos ao sistema, não é ele quem informa o endereço 
de memória a ser acessado. 
E. Esse termo não corresponde a um barramento reconhecido na arquitetura tradicional de 
computadores, sendo conceitualmente impreciso ou inexistente no contexto.
CONFIRA SUAS RESPOSTAS
1
1
1
3. Alternativa D.
A afirmativa I está correta, porque o texto e o conhecimento técnico indicam que o DMA 
é ideal para grandes volumes de dados e libera a CPU, aumentando o desempenho. A 
afirmativa II está correta, pois a E/S por interrupção evita o uso contínuo da CPU, tornando 
o sistema mais eficiente. A afirmativa III também está correta, visto que a E/S programada 
utiliza polling (espera ativa), o que pode causar desperdício de ciclos da CPU. A afirmativa 
IV está incorreta, já que o DMA é altamente recomendado para sistemas com sensores de 
alta resolução justamente pela alta taxa de transferência que oferece.
CONFIRA SUAS RESPOSTAS
1
1
8
MEU ESPAÇO
1
1
9
MINHAS METAS
SISTEMAS OPERACIONAIS
Compreender o papel estratégico dos sistemas operacionais.
Diferenciar os tipos de sistemas operacionais.
Explorar as principais funções do sistema operacional.
Entender os mecanismos de gerenciamento de processos.
Compreender o gerenciamento de memória.
Analisar o funcionamento dos sistemas de arquivos.
Relacionar o conteúdo com aplicações práticas da computação.
T E M A D E A P R E N D I Z A G E M 1
1
1
1
INICIE SUA JORNADA
Hoje, estamos o tempo todo conectados: a comunicação entre hardware e soft-
ware, a execução segura de aplicativos, o armazenamento correto de informações 
e a resposta instantânea a um toque na tela apenas são possíveis graças à atuação 
do sistema operacional. Invisível para a maioria dos usuários, ele é o responsável 
por tornar viável qualquer tecnologia que utilizamos.
Se o sistema operacional é invisível para a maioria dos usuários, mas indis-
pensável para a execução de qualquer tecnologia, de que forma compreender seu 
funcionamento contribui para que profissionais de tecnologia possam otimizar 
aplicações, garantir segurança e gerir recursos de forma eficiente?
Na formação em tecnologia, compreender o papel dos sistemas operacio-
nais vai muito além: é entender a infraestrutura que sustenta toda solução digital 
moderna. Do desenvolvedor que busca otimizar o próprio código ao administra-
dor de redes que define as permissões e acessos, todos dependem e são cobrados 
a dominar conceitos essenciais, como gerenciamento de processos, memória, 
sistemas de arquivos e segurança.
Ao longo deste tema de aprendizagem, observaremos como conceitos aparente-
mente abstratos, como escalonamento de processos ou segmentação de memória, 
traduzem-se em situações reais, seja identificando gargalos de desempenho, con-
figurando sistemas multiusuário ou entendendo o motivo pelo qual um aplicativo 
consome mais recursos do que outro. O domínio desses fundamentos possibilita o 
desenvolvimento de soluções mais eficazes; logo, estar preparado para esse cenário 
começa com a construção sólida da base técnica e do pensamento sistêmico.
Neste episódio, exploramos de forma clara e acessível as princi-
pais funções, tipos e desafios dos sistemas operacionais moder-
nos, além de discutir como esse conhecimento é fundamental 
para desenvolvedores que desejam criar softwares eficientes e 
seguros. Aproveite!
PLAY N O CONHECIMENTO
UNICESUMAR
1
1
1
https://on.soundcloud.com/zHZHsLT4lTCKGiqHiZ
TEMA DE APRENDIZAGEM 7
DESENVOLVA SEU POTENCIAL
O avanço da computação moderna tornou os sistemas operacionais compo-
nentes indispensáveis em praticamente todos os dispositivos digitais, desde 
supercomputadores até smartphones. Eles são os responsáveis por criar o am-
biente necessário para que aplicações sejam executadas com segurança, efi-
ciência e organização, ao mesmo tempo em que coordenam o uso dos recursos 
físicos da máquina.
Ao contrário do que pode parecer à primeira vista, o sistema operacional 
não é apenas uma interface visual amigável. Ele é um conjunto sofisticado de 
programas que atua nos bastidores, tomando decisões fundamentais sobre qual 
processo será executado, como a memória será utilizada, de que forma os dados 
serão armazenados e como o usuário poderá interagir com o sistema.
Este tema de aprendizagem tem como objetivo apresentar os fundamen-
tos dos sistemas operacionais, oferecendo uma visão abrangente e estrutura-
da das principais funções, dos diferentes tipos existentes e dos mecanismos 
de gerenciamento de processos, memória e arquivos. Por intermédio de uma 
abordagem conceitual aliada a exemplos, você será conduzido a compreender 
o papel estratégico dos sistemas operacionais na arquitetura dos sistemas com-
putacionais modernos.
VAMOS RECORDAR?
Vamos relembrar o que é hardware e software? Assista 
ao vídeo e compreenda as diferenças entre eles.
1
1
1
https://www.youtube.com/watch?v=RM8bBzHggu8
Funções do sistema operacional
O sistema operacional é o componente fundamental de qualquer sistema com-
putacional moderno. A principal função dele é agir como uma ponte entre o 
hardware e os programas de aplicação, garantindo que os recursos sejam utiliza-
dos de forma eficiente, segura e organizada (Hennessy, 2019). Para isso, o sistema 
operacional atua principalmente no gerenciamento de recursos, na oferta de uma 
interface para o usuário e na execução de aplicativos.
No gerenciamento de recursos, o sistema operacional distribui e controla o 
uso da CPU, da memória principal, dos dispositivos de entrada e saída e do ar-
mazenamento secundário. Por exemplo, quando múltiplos programas estão em 
execução, é o sistema operacional que decide qual terá acesso ao processador em 
determinado momento, controlando o uso da memória e evitando conflitos de 
acesso a dispositivos (Stallings, 2024).
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 7
Imagine que um desenvolvedor está criando um aplicativo de edição de vídeo. Se 
o programa não for otimizado para uso eficiente de CPU e memória, ele poderá 
travar facilmente ou consumir recursos excessivos, prejudicando o desempenho 
de todo o sistema. Conhecer como o sistema operacional aloca e compartilhar 
recursospermite que o programador desenvolva aplicações mais eficientes, evi-
tando vazamentos de memória, uso desnecessário da CPU ou o bloqueio de 
dispositivos de Entrada e Saída. Isso se traduz em software mais rápido, mais 
leve e com menos falhas.
A interface com o usuário pode se apresentar de maneira gráfica, como nos 
sistemas Windows e macOS, ou por meio de linhas de comando, como em muitos 
sistemas Unix. Essa interface é essencial para que o usuário possa interagir com 
o computador de forma intuitiva ou precisa, conforme o perfil da aplicação ou 
do operador. Por fim, a execução de aplicativos é outra responsabilidade central 
do sistema operacional. Quando um programa é iniciado, o sistema operacional 
aloca os recursos necessários, carrega as instruções na memória, inicia a execução 
e acompanha seu estado até a finalização. Esse processo garante que diferentes 
aplicações possam ser executadas simultaneamente com segurança e estabilidade.
VOCÊ SABE RESPONDER?
Por que entender o gerenciamento de recursos é importante para o programador?
2001 - Uma Odisseia no Espaço 
Uma estrutura imponente fornece uma conexão entre o pas-
sado e o futuro nesta adaptação enigmática de um conto reve-
renciado de ficção científica do autor Arthur C. Clarke. Quando 
o Dr. Dave Bowman e outros astronautas são enviados para 
uma misteriosa missão, os chips de seus computadores co-
meçam a mostrar um comportamento estranho, levando a um 
tenso confronto entre homem e máquina que resulta em uma 
viagem alucinante no espaço e no tempo.
I N DI CAÇÃO DE FILME
1
1
1
Considere um usuário que, em um computador pessoal, está utilizando simulta-
neamente um navegador de internet, um editor de texto e um software de video-
conferência. O sistema operacional, neste cenário, precisa tomar várias decisões 
críticas em tempo real: qual processo terá acesso ao processador, como distribuir 
a memória entre os aplicativos, de que forma gerenciar os dispositivos de entrada 
(como teclado e microfone) e de saída (como vídeo e áudio), e como garantir que 
cada um desses programas funcione sem interferir no funcionamento dos demais.
Se o usuário quiser abrir um arquivo diretamente do navegador e editá-lo 
no processador de texto, o sistema operacional deve permitir essa comunicação 
entre processos com segurança e controle de acesso. Essa organização interna é 
essencial para uma experiência fluida e estável, evidenciando o papel estratégico 
do sistema operacional como intermediador e gestor dos recursos computa-
cionais. Para atender às diversas demandas de uso desde ambientes industriais 
até dispositivos pessoais, os sistemas operacionais se diversificam em tipos com 
estruturas e comportamentos distintos. Conhecer essas variações é fundamen-
tal para compreender como cada sistema atende a contextos específicos com 
eficiência e flexibilidade.
Tipos de sistemas operacionais
Existem diferentes tipos de sistemas operacionais, classificados conforme seu 
propósito, forma de operação e estrutura. Os sistemas em lote foram os primei-
ros a surgir e ainda são utilizados em contextos em que não há necessidade de 
interação direta do usuário. Nesse modelo, tarefas são agrupadas e processadas 
sequencialmente, o que é ideal para ambientes corporativos de processamento 
massivo de dados (Hennessy, 2019).
Segundo Stallings (2024), os sistemas de tempo real, por sua vez, são usados 
quando há a necessidade de respostas rápidas e precisas a eventos externos, como 
em sistemas de controle industrial ou médico. Nesses casos, o tempo de resposta 
não pode ultrapassar um limite predeterminado. Já os sistemas distribuídos 
operam com múltiplos computadores interconectados, compartilhando recur-
sos e tarefas de maneira coordenada. Essa arquitetura é comum em aplicações 
em nuvem, como as oferecidas por plataformas de hospedagem e serviços web 
escaláveis (Monteiro, 2015).
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 7
Entretanto, o que são sistemas distribuídos? Um sistema distribuído é um 
conjunto de computadores independentes que se apresenta ao usuário como um 
único sistema coerente. Eles compartilham recursos, dados e tarefas por meio de 
uma rede, mas estão fisicamente separados. A grande meta é trabalhar de forma 
colaborativa e escalar mediante o aumento do desempenho, da disponibilidade 
e da tolerância a falhas (Hennessy, 2019). Vejamos as principais características 
dos sistemas distribuídos:
CONCORRÊNCIA
Várias tarefas/processos acontecendo ao mesmo tempo.
TRANSPARÊNCIA
O usuário não precisa saber onde ou em qual máquina está sendo feita a tarefa.
ESCALABILIDADE
Fácil aumentar a capacidade adicionando mais nós.
TOLERÂNCIA A FALHAS
Se um nó falha, outro pode assumir.
Serviços de nuvem, como Google Drive, Dropbox ou AWS, são exemplos de 
sistema distribuído, pois têm servidores espalhados pelo mundo processando 
e armazenando dados como se fosse um só. Outros tipos incluem os sistemas 
monousuário e multiusuário, bem como os monotarefa e multitarefa, que 
variam conforme a quantidade de usuários e as tarefas simultâneas suportadas. 
Os sistemas móveis também merecem destaque pela adaptação a ambientes com 
recursos limitados, como smartphones e tablets (Monteiro, 2015).
1
1
1
Independentemente do tipo de sistema operacional adotado, todos com-
partilham uma responsabilidade central: gerenciar os processos em execução. 
Entender como essa gestão é realizada é essencial para garantir o desempenho, 
a estabilidade e a correta execução das aplicações no ambiente computacional.
Gerenciamento de processos
Processos são programas em execução. O sistema operacional é o responsável 
por gerenciar a criação, a execução, a comunicação e a finalização. O gerencia-
mento de processos envolve o escalonamento, a comunicação entre processos e 
a sincronização.
O escalonamento define a ordem e o tempo em que os processos terão acesso 
ao processador. Para isso, o sistema operacional utiliza algoritmos, como round 
robin ou prioridade, que buscam equilibrar desempenho e prioridade de execu-
ção. Assim, garante-se que aplicações mais urgentes ou interativas não sofram 
atrasos indesejados (Weber, 2012). 
A comunicação entre processos é essencial quando diferentes programas ou 
partes de um sistema precisam trocar informações. O sistema operacional fornece 
mecanismos, como pipes, sockets e memória compartilhada, para possibilitar essa 
troca de dados de forma eficiente e segura (Weber, 2012).
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 7
A sincronização entre processos é crucial para evitar conflitos quando múltiplos 
processos tentam acessar o mesmo recurso ao mesmo tempo. Técnicas, como 
semáforos e exclusão mútua, são empregadas para garantir que o acesso seja 
ordenado, evitando inconsistências e garantindo a integridade dos dados e das 
operações (Weber, 2012). Enquanto o gerenciamento de processos assegura a 
coordenação e o fluxo de execução dos programas, é igualmente fundamental 
que a memória seja utilizada de forma eficiente e segura. O gerenciamento de 
memória entra em cena para organizar esse recurso vital, garantindo que cada 
processo tenha acesso ao espaço necessário para funcionar corretamente.
Gerenciamento de memória
A memória principal é um dos recursos mais disputados em um sistema, e seu 
gerenciamento adequado é essencial para o desempenho e a estabilidade do 
computador. O sistema operacional é responsável por alocar e liberar memória 
para os processos em execução, além de organizar seu uso de forma eficiente. A 
alocação de memória pode ser feita de forma contínua ou dinâmica, conforme 
a necessidade do programa (Hennessy, 2019).
Um dos avanços importantes no gerenciamento de memória foi a adoção 
da paginação, uma técnica que permite dividir a memória lógica em páginas, e 
a física em quadros, facilitando a execução de programas maiores do que a me-
mória física disponível (Hennessy, 2019). Essa abordagem melhora a utilização 
da memória e permite a implementação de memória virtual. 
Outro conceitoimportante é a segmentação, que divide os programas em 
segmentos lógicos, como código, dados e pilha. Isso permite um controle mais 
refinado do acesso à memória, aumentando a segurança e a organização interna 
dos processos. Segundo Stallings (2024), a segmentação contribui para a proteção 
de dados, isolando áreas críticas contra acessos indevidos.
Com a memória devidamente organizada e gerenciada, o próximo desafio 
enfrentado pelo sistema operacional é garantir a persistência e o acesso estru-
turado aos dados armazenados em dispositivos permanentes. É nesse contexto 
que entra em cena o sistema de arquivos, responsável por dar forma, segurança 
e lógica à maneira como os dados são gravados, recuperados e protegidos.
1
1
8
Sistemas de arquivos
O sistema de arquivos é responsável pela organização, armazenamento, recupe-
ração e proteção dos dados no sistema de armazenamento permanente, como 
discos rígidos e SSDs. Ele define como os dados são estruturados em arquivos e 
diretórios, quais informações adicionais (metadados) são armazenadas e como 
os acessos são controlados.
Você já parou para pensar no que acontece quando clica em "Salvar como" e es-
colhe uma pasta no seu computador?
PE N SA N DO JUNTOS
Esse processo, aparentemente simples, envolve diversas camadas do sistema ope-
racional e do sistema de arquivos, que precisam localizar o local correto no disco, 
garantir que o nome do arquivo seja único (ou sobrescrevê-lo com segurança) e 
armazenar os dados fisicamente sem perda ou corrupção.
A organização dos arquivos pode seguir diferentes estruturas, desde sistemas 
simples, como FAT, até sistemas modernos, como NTFS e EXT4, que oferecem 
recursos avançados, como criptografia e controle de acesso detalhado (Stallings, 
2024). Confira o quadro a seguir para entender algumas diferenças:
UNICESUMAR
1
1
9
TEMA DE APRENDIZAGEM 7
SISTEMA DE 
ARQUIVOS
COMPATIBILIDADE
TAMANHO MÁX . 
DE ARQUIVO
INDICADO PARA
FAT32
Windows, Linux, 
macOS
4 GB
Pendrives, dispositi-
vos antigos.
NTFS
Windows (nativo), Li-
nux/macOS (leitura)
>16 TB
Sistemas Windows, 
servidores.
EXT4 Linux 16 TB
Distribuições Linux, 
servidores web.
exFAT
Windows, macOS, 
Linux (atual)
128 PB
Pendrives e SSDs 
entre sistemas.
APFS macOS, iOS
Teoricamente 
ilimitado
Sistemas Apple 
modernos.
Quadro 1 – Comparação dos sistemas de arquivos / Fonte: o autor.
O tamanho máximo de arquivos pode variar conforme a implementação e 
o sistema operacional. Os recursos avançados listados são os mais relevantes 
para cada sistema.
Imagine um servidor corporativo que armazena documentos financeiros sigilosos. 
Utilizar um sistema de arquivos, como o NTFS, permite configurar permissões 
específicas para que apenas usuários autorizados acessem determinados 
diretórios. Além disso, garante que, em caso de queda de energia, os dados não 
sejam corrompidos.
O acesso aos arquivos é feito por meio de operações, como abrir, ler, escrever 
e fechar, todas mediadas pelo sistema operacional. Esse controle assegura que 
dois processos não modifiquem simultaneamente um mesmo arquivo de forma 
conflitante (Monteiro, 2015). Por exemplo, se um usuário está editando uma 
planilha, o sistema de arquivos pode bloquear temporariamente aquele arquivo 
para que outro usuário não o modifique ao mesmo tempo.
1
1
1
Por fim, a segurança é uma preocupação essencial nos sistemas de arquivos. 
O sistema operacional define permissões de leitura, escrita e execução para 
diferentes usuários e grupos, além de implementar políticas de acesso baseadas 
em regras mais complexas, como as listas de controle de acesso (ACLs) (Mon-
teiro, 2015). Isso garante que os dados estejam protegidos contra acessos não 
autorizados, mantendo a integridade e a confidencialidade das informações.
Escolher um sistema de arquivos adequado ao cenário, seja ele um servidor de 
dados sensíveis, um computador pessoal ou um dispositivo móvel, é uma decisão 
que impacta diretamente o desempenho, a segurança e a confiabilidade do sistema.
O estudo dos sistemas operacionais revela a complexidade e a importância 
dessas ferramentas na sustentação de toda a infraestrutura computacional con-
temporânea. Ao gerenciar recursos limitados, manter a integridade dos dados 
e coordenar a execução de múltiplos processos, o sistema operacional atua 
como um orquestrador silencioso, garantindo que as aplicações funcionem 
corretamente e que o usuário tenha uma experiência fluida e segura.
Compreender suas funções e mecanismos internos permite não apenas utili-
zar melhor os recursos disponíveis, mas também projetar e desenvolver sistemas 
mais eficientes, seguros e escaláveis. Ao longo deste tema, foram exploradas as 
principais áreas que compõem um sistema operacional moderno, incluindo o 
papel dele na interface com o usuário, no gerenciamento de processos e memória 
e na organização dos sistemas de arquivos.
Esse conhecimento é essencial não apenas para desenvolvedores e admi-
nistradores de sistemas, mas para qualquer profissional da área de computação 
que deseje compreender como o software se relaciona com o hardware em seu 
nível mais fundamental. 
Para aprofundar esse entendimento, uma leitura altamente recomendada 
é o livro Sistemas Operacionais Modernos, de Andrew S. Tanenbaum. Consi-
derado um clássico na área, ele combina clareza didática com profundidade 
técnica, explorando desde conceitos básicos até tópicos avançados, como 
gerenciamento de processos, memória, sistemas de arquivos, segurança e 
virtualização, sempre com exemplos aplicados a sistemas reais, como Linux, 
Windows e Android.
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 7
Sistemas Operacionais Modernos 
Esta edição apresenta os mais recentes avanços em sistemas 
operacionais, com estudos de caso de plataformas populares 
e contextualização prática. Explica, de forma clara e acessí-
vel, conceitos essenciais, como processos, threads, memória, 
arquivos, E/S, impasses, interface, multimídia, desempenho e 
tendências. Inclui novo capítulo sobre Windows 11, atualização 
em segurança com foco em relevância prática e destaque para 
SSDs baseados em memória flash.
I N DI CAÇÃO DE L IVRO
Dominar os conceitos e as responsabilidades de um sistema operacional é um 
passo fundamental na formação de profissionais da computação. Mais do que 
conhecer comandos ou estruturas superficiais, trata-se de compreender como 
os recursos computacionais são coordenados, monitorados e otimizados para 
garantir o funcionamento de aplicações em diferentes contextos de servidores 
corporativos a dispositivos móveis.
Esse entendimento amplia a capacidade crítica do profissional, permitindo 
escolhas mais conscientes em termos de arquitetura de software, desempenho, 
segurança e escalabilidade. Futuramente, os conceitos abordados servirão de 
base para o aprofundamento em temas específicos, como gerenciamento avan-
çado de processos, virtualização, sistemas distribuídos e segurança operacional. 
Ao conhecer como o sistema operacional atua nos bastidores, você estará mais 
preparado para criar soluções tecnológicas robustas, eficientes e alinhadas às 
exigências do mundo real.
Estudante, para expandir os seus conhecimentos no assunto 
abordado, gostaríamos de indicar a aula que preparamos espe-
cialmente para você. Acreditamos que essa aula irá complemen-
tar e aprofundar ainda mais o seu entendimento do tema.
E M FOCO
1
1
1
https://vimeo.com/1102497087/748ab6bbfe
NOVOS DESAFIOS
Em um mercado cada vez mais orientado por desempenho, segu-
rança e escalabilidade, compreender o funcionamento interno dos 
sistemas operacionais é um diferencial competitivo para quem deseja 
atuar nas mais diversas áreas da computação, como desenvolvimento 
de software, administração de sistemas, engenharia de dados, segu-
rança da informação e computação em nuvem.
Por exemplo, desenvolvedores que conhecem os princípios de 
gerenciamento de memória e processos são capazes de escrever có-
digos mais eficientes, evitando vazamentos e criando aplicaçõesque 
utilizam menos recursos, o que é crucial em ambientes, como dis-
positivos embarcados, sistemas móveis e aplicações em tempo real. 
Já os profissionais de infraestrutura e suporte precisam entender 
profundamente como sistemas de arquivos, permissões e alocação 
de recursos funcionam, visto que isso é decisivo para manter a estabi-
lidade e a segurança de servidores, redes corporativas e data centers.
Portanto, a teoria apresentada neste tema de aprendizagem não 
deve ser entendida apenas como um conjunto de conceitos técnicos, 
mas como ferramentas de base que sustentam soluções reais nos cená-
rios enfrentados por profissionais de TI todos os dias. A capacidade de 
diagnosticar um problema de desempenho, de projetar um sistema se-
guro ou de otimizar uma aplicação passa diretamente pela compreen-
são daquilo que o sistema operacional está executando internamente.
Em resumo, dominar os fundamentos de sistemas operacionais 
é dominar as engrenagens que movem a computação moderna. É 
exatamente isso o que o mercado exige de profissionais preparados: 
pessoas que saibam construir, manter e evoluir soluções tecnológicas 
robustas, seguras e inteligentes.
UNICESUMAR
1
1
1
1. Sistemas operacionais modernos utilizam diversas estratégias para organizar e proteger 
os dados armazenados em dispositivos, como discos rígidos e SSDs. Por meio do sistema 
de arquivos, os dados são agrupados em estruturas chamadas arquivos, que podem ser 
organizadas em diretórios. Além disso, o sistema operacional controla o acesso a esses 
dados com permissões específicas para leitura, escrita e execução. Esses mecanismos são 
essenciais para manter a integridade dos arquivos e garantir que apenas usuários autori-
zados possam modificá-los ou executá-los.
Com base no funcionamento dos sistemas de arquivos, assinale a alternativa que apresenta 
um recurso não mencionado diretamente no texto, mas essencial em sistemas modernos 
para aumentar a resiliência e a confiabilidade dos dados:
a) Journaling, que registra operações antes de aplicá-las ao sistema de arquivos.
b) Diretórios, usados para organizar arquivos de forma hierárquica.
c) Permissões de execução, que restringem a execução de arquivos a determinados usuários.
d) Estruturas de arquivos, que agrupam dados em unidades lógicas.
e) Leitura e escrita, que representam operações básicas sobre arquivos.
2. Um sistema operacional gerencia os recursos do computador para garantir que múltiplos 
processos possam ser executados de forma segura e eficiente. Entre os principais papéis, 
estão a alocação de tempo de CPU, o controle de acesso à memória e a coordenação 
do uso de dispositivos de entrada e saída. Além disso, ele fornece interfaces para que os 
usuários e os programas interajam com o sistema de maneira padronizada. A estabilidade 
e o desempenho geral de um sistema computacional dependem diretamente da qualidade 
das decisões tomadas pelo sistema operacional.
Com base no texto e nos seus conhecimentos sobre sistemas operacionais, analise as afir-
mativas a seguir:
I - O sistema operacional atua como intermediário entre os programas de aplicação e 
o hardware.
II - O sistema operacional implementa mecanismos que permitem que múltiplos processos 
compartilhem a CPU de forma controlada.
III - O sistema operacional é responsável por evitar que um processo interfira indevidamente 
na memória de outro.
IV - Além de gerenciar recursos, o sistema operacional provê serviços para que programas 
possam ser executados de maneira padronizada e segura.
VAMOS PRATICAR
1
1
1
É correto o que se afirma em:
a) I, apenas.
b) II e IV, apenas.
c) III e IV, apenas.
d) I, II e III, apenas.
e) I, II, III e IV.
3. O gerenciamento de memória é um dos pilares do sistema operacional, garantindo que 
os programas tenham acesso aos recursos necessários para a execução. Entre as técnicas 
utilizadas, estão a segmentação e a paginação, que permitem dividir o espaço de endereça-
mento de forma lógica e eficiente. Essas estratégias têm impactos diretos no desempenho, 
na segurança e na organização da memória do sistema.
Com base nas informações apresentadas, avalie as asserções a seguir e a relação proposta 
entre elas:
I - O uso de paginação em sistemas operacionais ajuda a evitar problemas de fragmentação 
externa na memória.
PORQUE
II - A paginação divide a memória física em blocos de tamanho fixo (frames), o que permite 
alocar apenas os espaços necessários para os processos de forma contígua lógica, mas 
não física.
A respeito dessas asserções, assinale a alternativa correta:
a) As asserções I e II são verdadeiras, e a II é uma justificativa correta da I.
b) As asserções I e II são verdadeiras, mas a II não é uma justificativa correta da I.
c) A asserção I é uma proposição verdadeira e a II é uma proposição falsa.
d) A asserção I é uma proposição falsa e a II é uma proposição verdadeira.
e) As asserções I e II são falsas.
VAMOS PRATICAR
1
1
1
REFERÊNCIAS
HENNESSY, J. Arquitetura de computadores: uma abordagem quantitativa. Rio de Janeiro: Gen; 
LTC, 2019.
MONTEIRO, M. Organização e arquitetura de computadores. 2. ed. São Paulo: Érica, 2015.
STALLINGS, W. Arquitetura e organização de computadores: projetando com foco em desem-
penho. 11. ed. Porto Alegre: Bookman, 2024.
WEBER, R. F. Fundamentos de arquitetura de computadores. 4. ed. Porto Alegre: Bookman, 2012.
1
1
1
1. Alternativa A.
O texto menciona permissões de diretórios e operações básicas sobre arquivos, mas não 
menciona o journaling, que é um recurso avançado usado por sistemas, como EXT4 e NTFS. 
O journaling melhora a resiliência do sistema de arquivos ao manter um log das operações 
pendentes antes de serem definitivamente aplicadas. Isso permite recuperar o sistema após 
falhas ou desligamentos inesperados, evitando corrupção de dados — uma funcionalidade 
essencial, porém implícita no tema.
As demais alternativas estão incorretas:
B. O texto menciona diretamente que os arquivos são organizados em diretórios. 
C. O texto cita explicitamente “permissões específicas para leitura, escrita e execução”.
D. O texto afirma que os dados são “agrupados em estruturas chamadas arquivos”, ou seja, 
essa ideia já foi abordada.
E. O texto menciona claramente essas operações: “com permissões específicas para leitura, 
escrita e execução”.
2. Alternativa E.
Afirmativa I: correta. Embora o texto não use a palavra "intermediário", essa é uma descrição 
clássica da função do sistema operacional: ele conecta os programas ao hardware, geren-
ciando recursos e oferecendo abstrações. 
Afirmativa II: correta. O texto menciona a alocação de tempo de CPU e a execução de 
múltiplos processos, o que implica o uso de algoritmos de escalonamento para comparti-
lhamento da CPU.
Afirmativa III: correta. Essa proteção de memória entre processos é um dos pilares da segu-
rança e da estabilidade dos sistemas operacionais, embora o texto a mencione apenas de 
forma indireta, ao falar em "execução segura e eficiente". 
Afirmativa IV: correta. O texto menciona que o sistema operacional fornece interfaces pa-
dronizadas para usuários e programas. Isso inclui serviços, como bibliotecas do sistema, 
chamadas de sistema e gerenciamento de erros.
3. Alternativa A.
A asserção I é verdadeira, porque a paginação realmente evita a fragmentação externa, pois 
trabalha com blocos de tamanho fixo e não requer que a memória física seja contígua. A 
asserção II também é verdadeira, já que, na paginação, a memória física é dividida em fra-
mes de tamanho fixo, enquanto os processos são divididos em páginas do mesmo tamanho. 
Como as páginas podem ser alocadas em qualquer lugar da memória física, a necessidade 
de espaço contíguo é eliminada, evitando a fragmentação externa.
CONFIRA SUAS RESPOSTAS
1
1
1
UNIDADE 5
MINHAS METAS
ARQUITETURAS AVANÇADAS
Compreender a evolução das arquiteturas computacionais.
Entender os conceitos de computação paralela.
Diferenciar arquiteturas SIMD, MIMD e vetoriais.
Compreender os sistemas distribuídos.Analisar sistemas embarcados e requisitos de tempo real.
Conhecer arquiteturas específicas: GPUs, FPGAs e ASICs.
Aplicar os conhecimentos obtidos em cenários profissionais.
T E M A D E A P R E N D I Z A G E M 8
1
1
1
INICIE SUA JORNADA
No cenário atual, a tecnologia evolui em ritmo acelerado e, com ela, crescem as 
exigências do mercado de trabalho. Profissionais da área de computação não 
lidam apenas com computadores pessoais ou servidores tradicionais, mas com 
sistemas cada vez mais complexos e especializados. Surge, então, uma questão 
fundamental: como acompanhar essa evolução e estar preparado para lidar com 
arquiteturas que sustentam desde jogos eletrônicos até Inteligência Artificial (IA), 
passando pela indústria, saúde e agricultura?
Entender as arquiteturas avançadas de computação significa muito mais do 
que aprender teorias. Trata-se de enxergar como o conhecimento técnico se co-
necta com as demandas reais de eficiência, velocidade e inovação. Afinal, essas 
arquiteturas estão presentes em dispositivos do nosso dia a dia nos celulares, nos 
carros, nas plataformas de streaming e até em diagnósticos médicos. Portanto, 
estudar este tema te ajuda a perceber que a sua formação está diretamente ligada 
à transformação digital que vivenciamos.
Descubra como as placas de vídeo deixaram de ser apenas para 
jogos e se tornaram essenciais na Inteligência Artificial, na ciên-
cia de dados e na supercomputação. No episódio sobre progra-
mação para GPUs, você entenderá de forma prática o paralelis-
mo das GPUs, conhecerá ferramentas, como CUDA e OpenCL, e 
enxergará novas oportunidades no mercado de trabalho.
PLAY N O CONHECIMENTO
Durante o nosso tema de aprendizagem, você terá a oportunidade de explorar 
como diferentes arquiteturas se aplicam em contextos práticos. Seja ao observar 
como processadores paralelos aceleram cálculos científicos, como sistemas dis-
tribuídos possibilitam serviços de nuvem ou como sistemas embarcados tornam 
possível a Internet das Coisas (IoT), cada exemplo aproxima a teoria da prática 
profissional. Essa experimentação é um convite para enxergar a sala de aula como 
um laboratório de soluções capaz de te preparar para os desafios reais do mercado.
UNICESUMAR
1
1
1
https://on.soundcloud.com/4046Z0YFyZSc8UEB9l
TEMA DE APRENDIZAGEM 8
Por fim, é essencial refletir sobre o impacto dessas arquiteturas na sua carreira 
e na sociedade como um todo. Estar atualizado em relação a tecnologias, como 
GPUs, FPGAs ou sistemas em nuvem, não é apenas uma exigência técnica, mas 
um diferencial competitivo. Mais do que dominar ferramentas, trata-se de de-
senvolver uma visão crítica sobre como a tecnologia pode ser aplicada de forma 
ética, sustentável e inovadora, contribuindo para a construção de um mundo 
mais conectado e eficiente.
VAMOS RECORDAR?
Antes de avançarmos, é essencial revisitar as portas 
lógicas, base de todo circuito digital. Elas são os blocos 
fundamentais que permitem construir processadores, 
memórias e sistemas embarcados complexos.
DESENVOLVA SEU POTENCIAL
A evolução das arquiteturas computacionais tem sido impulsionada pela neces-
sidade de maior desempenho, eficiência energética e escalabilidade. Hennessy 
(2019) destaca que a busca por arquiteturas otimizadas é uma resposta direta ao 
aumento da complexidade e ao volume de dados nas aplicações modernas. Logo, 
este tema explora as arquiteturas avançadas que sustentam aplicações modernas 
em ciência, engenharia, indústria e sistemas embarcados. Serão abordadas as 
arquiteturas paralelas (SIMD, MIMD e vetoriais), os sistemas distribuídos (clus-
ters, grids e nuvem), a computação embarcada (tempo real e baixo consumo) e 
as arquiteturas específicas (GPUs, FPGAs e ASICs).
Diante do aumento exponencial de dados e da complexidade das aplicações 
modernas, surgem estratégias capazes de explorar de forma eficiente o poder 
de processamento disponível. Entre elas, destaca-se a computação paralela, que 
permite executar múltiplas operações simultaneamente, reduzindo significativa-
mente o tempo necessário para resolver problemas complexos.
1
1
1
https://embarcados.com.br/portas-logicas/
Computação paralela
A computação paralela é considerada uma das estratégias mais eficazes para lidar com 
problemas de grande complexidade e volume de dados (Stallings, 2024). Ao contrário 
de executar tarefas de forma sequencial, essa técnica permite que múltiplas opera-
ções sejam realizadas simultaneamente, aproveitando o poder de processamento de 
múltiplos núcleos, processadores ou até mesmo máquinas distribuídas. O princípio 
fundamental da computação paralela está na decomposição de um problema em 
subproblemas menores, que podem ser resolvidos de forma independente e simul-
tânea, reduzindo significativamente o tempo total de execução (Stallings, 2024).
Essa abordagem é especialmente relevante em áreas, como simulações cien-
tíficas, processamento de imagens, Inteligência Artificial e análise de grandes 
volumes de dados. Para que a computação paralela seja eficaz, é necessário com-
preender as diferentes arquiteturas que a suportam, cada uma com características 
específicas que influenciam diretamente o desempenho e a aplicabilidade em 
diferentes contextos. Entre as arquiteturas paralelas mais estudadas e aplicadas, 
encontram-se as arquiteturas SIMD, MIMD e vetoriais, cada uma com um 
modelo de execução distinto (Stallings, 2024).
Essa abordagem é extremamente eficiente em tarefas que envolvem operações re-
petitivas sobre grandes conjuntos de dados homogêneos, como vetores ou matrizes 
(Hennessy, 2019). Um exemplo prático bastante comum é o processamento de ima-
gens digitais. Ao aplicar um filtro de suavização ou detecção de bordas, como o filtro 
de Sobel, cada pixel da imagem pode ser processado simultaneamente utilizando 
instruções SIMD. Processadores modernos, como os da família Intel com suporte às 
extensões AVX (Advanced Vector Extensions), permitem que múltiplos pixels sejam 
manipulados em paralelo, acelerando significativamente o tempo de processamento.
A arquitetura SIMD é caracterizada pela execução de uma única instrução sobre 
múltiplos dados simultaneamente. Isso significa que todos os elementos de dados 
são processados de forma paralela, utilizando a mesma operação.
A PR OFUNDANDO
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 8
Linguagens, como C++, e bibliotecas, como OpenMP ou Intel TBB, oferecem su-
porte direto à programação SIMD, permitindo que desenvolvedores explorem esse 
tipo de paralelismo de forma eficiente. Diferentemente do SIMD, a arquitetura 
MIMD permite que múltiplos processadores executem diferentes instruções sobre 
diferentes conjuntos de dados. Essa flexibilidade torna o MIMD ideal para sistemas 
multiprocessados e ambientes distribuídos, como clusters e supercomputadores.
Em aplicações científicas, como a modelagem climática, o MIMD é ampla-
mente utilizado. Cada processador pode ser responsável por simular uma re-
gião geográfica específica, utilizando algoritmos distintos e conjuntos de dados 
próprios. Ao final da simulação, os resultados são agregados para formar uma 
previsão climática global. Esse tipo de paralelismo é essencial para lidar com a 
complexidade e o volume de dados envolvidos em simulações de larga escala. Do 
ponto de vista profissional, o MIMD é frequentemente explorado em ambientes 
de alta performance (HPC), em que sistemas, como o MPI (Message Passing 
Interface), são utilizados para coordenar a comunicação entre os diferentes nós 
do sistema (Hennessy, 2019).
As arquiteturas vetoriais, por sua vez, são projetadas para operar sobre con-
juntos de dados organizados em vetores. Elas usam registradores vetoriais que 
permitem a execução de operações matemáticas sobre múltiplos elementos de 
dados em uma única instrução. Embora compartilhem semelhanças com o 
SIMD, as arquiteturas vetoriais possuem otimizações específicas para cálculos 
científicos e matemáticos (Hennessy, 2019).
1
1
1
Um exemplo teórico clássico é acomputação de transformadas de Fourier em si-
nais digitais. Ao aplicar a FFT (Fast Fourier Transform) sobre um vetor de amostras 
de áudio, a arquitetura vetorial permite que múltiplas operações de multiplicação e 
soma sejam realizadas simultaneamente, acelerando o processamento e permitindo 
aplicações em tempo real, como compressão de áudio ou análise espectral.
Historicamente, supercomputadores, como o Cray-1, foram pioneiros na utili-
zação de arquiteturas vetoriais, e até hoje esse modelo é utilizado em aplicações que 
exigem alto desempenho em cálculos matemáticos intensivos. Embora a computação 
paralela acelere tarefas em um único sistema, problemas de grande escala, muitas vezes, 
exigem a colaboração entre múltiplos computadores interconectados. É nesse contexto 
que surgem os sistemas distribuídos, permitindo que recursos e responsabilidades de 
processamento sejam compartilhados entre máquinas geograficamente distribuídas.
Sistemas distribuídos
A evolução da computação paralela naturalmente conduz à necessidade de dis-
tribuir tarefas não apenas entre múltiplos núcleos ou processadores de um único 
sistema, mas também entre diferentes máquinas interligadas em rede. Essa ex-
pansão do paralelismo dá origem aos sistemas distribuídos, que representam 
uma abordagem arquitetural voltada à cooperação entre computadores inde-
pendentes para a execução de tarefas complexas (Tanenbaum; Van Steen, 2007).
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 8
Enquanto a computação paralela tradicional se concentra na execução simul-
tânea de instruções dentro de um único ambiente físico, os sistemas distribuídos 
ampliam esse conceito, ao permitirem que múltiplos computadores, muitas vezes, 
geograficamente distantes compartilhem recursos, dados e responsabilidades 
de processamento. Essa descentralização traz benefícios, como escalabilidade, 
tolerância a falhas e flexibilidade na alocação de recursos.
Um sistema distribuído é composto por um conjunto de computadores 
autônomos que se comunicam e coordenam as próprias ações por intermédio 
de uma rede. Cada nó do sistema pode executar tarefas localmente e colaborar 
com outros nós para atingir objetivos comuns. Essa colaboração é viabilizada 
por protocolos de comunicação, sincronização e gerenciamento de recursos. Do 
ponto de vista teórico, os sistemas distribuídos são estudados sob aspectos, como 
consistência de dados, latência de comunicação, escalabilidade e segurança. Já na 
prática, eles são a base de diversas infraestruturas modernas, como serviços de 
nuvem, redes de sensores, plataformas de Big Data e ambientes de computação 
científica (Tanenbaum; Van Steen, 2007).
Para compreender melhor como esses sistemas são organizados e aplicados, é útil 
conhecer os principais tipos de sistemas distribuídos, que se diferenciam pela 
forma como os computadores são interconectados, pela homogeneidade do hard-
ware e pela finalidade de uso. Os clusters são conjuntos de computadores interliga-
dos localmente, geralmente em uma mesma sala ou data center, que operam como 
se fossem um único sistema. Cada máquina (ou nó) do cluster possui hardware 
semelhante e está conectada por uma rede de alta velocidade. O objetivo principal 
é aumentar o desempenho e a disponibilidade dos serviços (Hennessy, 2019).
1
1
1
A computação em nuvem representa uma evolução dos sistemas distribuídos, 
oferecendo recursos sob demanda por meio da internet. Os usuários podem 
acessar armazenamento, processamento e serviços sem se preocupar com a in-
fraestrutura física subjacente. A nuvem é baseada em virtualização, escalabilidade 
automática e modelos de serviço, tais como IaaS (Infraestrutura como Serviço), 
PaaS (Plataforma como Serviço) e SaaS (Software como Serviço), permitindo 
que empresas escalem sistemas conforme a demanda (Stallings, 2024). Empre-
sas que desenvolvem aplicações web utilizam plataformas, como Amazon Web 
Services (AWS), Microsoft Azure ou Google Cloud, para hospedar seus sistemas, 
escalar recursos conforme a demanda e garantir alta disponibilidade. 
O projeto https://home.cern/science/computing, do CERN, utilizado para processar 
os dados gerados pelo acelerador de partículas LHC, é um exemplo emblemático 
de grid. Ele conecta centros de dados em diversos países, permitindo que cientistas 
analisem petabytes de informações de forma colaborativa.
Quer conhecer na prática como funciona a computação em 
nuvem com Microsoft Azure? Este vídeo traz uma visão clara e 
acessível sobre os recursos, as aplicações e as possibilidades 
da plataforma.
E U I N DI CO
Em universidades e centros de pesquisa, os clusters são utilizados para si-
mulações numéricas intensivas, como modelagem de estruturas mecânicas ou 
análise de genomas. Ferramentas, como o SLURM (Simple Linux Utility for Re-
source Management), são empregadas para gerenciar filas de tarefas e distribuir 
o processamento entre os nós. A computação em grid expande o conceito de 
cluster, ao permitir a interconexão de recursos computacionais distribuídos geo-
graficamente. Diferentemente dos clusters, os grids são formados por máquinas 
heterogêneas, pertencentes a diferentes organizações, que colaboram para resol-
ver problemas de grande escala.
UNICESUMAR
1
1
1
https://www.youtube.com/watch?v=ePi8eQKQeJs
TEMA DE APRENDIZAGEM 8
Um sistema de e-commerce, por exemplo, pode aumentar automaticamente a capa-
cidade de processamento durante períodos de alta demanda, como promoções ou 
datas comemorativas. Os sistemas distribuídos estão presentes em diversos setores:
EDUCAÇÃO
Ambientes Virtuais de Aprendizagem que integram recursos de diferentes instituições.
INDÚSTRIA
Monitoramento de processos produtivos em tempo real, com sensores distribuídos e 
análise centralizada.
SAÚDE
Compartilhamento de prontuários eletrônicos entre hospitais e clínicas.
PESQUISA CIENTÍFICA
Colaboração entre laboratórios para análise de dados genômicos, astronômicos ou 
ambientais.
A compreensão dos sistemas distribuídos é essencial para profissionais que atuam 
com infraestrutura de TI, desenvolvimento de software escalável e análise de da-
dos em larga escala. À medida que a tecnologia avança, esses sistemas se tornam 
cada vez mais integrados com outras arquiteturas, como a computação embar-
cada e os dispositivos inteligentes.
Embora a computação paralela acelere tarefas em um único sistema, proble-
mas de grande escala, muitas vezes, exigem a colaboração entre múltiplos com-
putadores interconectados. É nesse contexto que surgem os sistemas distribuídos, 
permitindo que recursos e responsabilidades de processamento sejam comparti-
lhados entre máquinas geograficamente distribuídas. Vamos entender como esses 
sistemas operam em tempo real e com baixo consumo de energia, conectando-se, 
inclusive, aos sistemas distribuídos por meio da Internet das Coisas (IoT).
1
1
8
Sistemas embarcados
À medida que os sistemas distribuídos se tornam mais presentes em nosso coti-
diano, especialmente com o avanço da Internet das Coisas (IoT), surge a necessi-
dade de dispositivos que sejam capazes de operar de forma autônoma, eficiente e 
em tempo real. É nesse contexto que os sistemas embarcados se destacam como 
uma área essencial da arquitetura computacional moderna.
Diferentemente dos sistemas tradicionais de propósito geral, os sistemas embar-
cados são projetados para executar funções específicas dentro de dispositivos maio-
res. Eles estão presentes em automóveis, eletrodomésticos, equipamentos médicos, 
sistemas industriais e até mesmo em brinquedos inteligentes. A principal caracterís-
tica desses sistemas é a integração ao ambiente físico, exigindo confiabilidade, baixo 
consumo de energia e, muitas vezes, resposta em tempo real (Monteiro, 2015).
Um sistema embarcado é composto por hardware e software dedicados a 
uma tarefa específica. O hardware geralmente inclui microcontroladores ou mi-
croprocessadores, sensores, atuadores e interfaces de comunicação. O software 
embarcado, por sua vez, é desenvolvidopara operar com recursos limitados, 
garantindo desempenho e estabilidade (Monteiro, 2015).
UNICESUMAR
1
1
9
TEMA DE APRENDIZAGEM 8
Esses sistemas podem ser classificados em duas grandes categorias: sistemas 
de tempo real e sistemas de baixo consumo de energia. Ambos são fundamentais 
para aplicações críticas, em que atrasos ou falhas podem comprometer a segu-
rança, a funcionalidade ou a eficiência do sistema. Segundo Monteiro (2015), 
os sistemas de tempo real são projetados para responder a eventos dentro de 
prazos rigorosos. Eles são divididos em duas subcategorias:
• Tempo Real Hard: em que o não cumprimento do prazo pode causar falhas 
catastróficas. Exemplo prático: sistemas de controle de aeronaves, nos quais 
sensores e atuadores devem responder em milissegundos para garantir a 
estabilidade do voo.
• Tempo Real Soft: em que atrasos são toleráveis até certo ponto, mas podem 
afetar a qualidade do serviço. Exemplo prático: sistemas de streaming de 
vídeo, nos quais pequenos atrasos podem causar perda de qualidade, mas não 
comprometem a funcionalidade geral.
Vejamos um quadro que exibe as principais diferenças entre os sistemas de tempo 
real e o de baixo consumo.
TIPO CARACTERÍSTICA APLICAÇÃO
Tempo Real Hard Resposta imediata, crítica Controle de aeronaves
Tempo Real Soft Atrasos toleráveis Streaming de vídeo
Baixo Consumo Eficiência energética Sensores IoT, agricultura
Quadro 1 – Sistemas de tempo real / Fonte: o autor.
1
8
1
Do ponto de vista técnico, esses sistemas utilizam sistemas operacionais embar-
cados, como FreeRTOS, VxWorks ou RTEMS, que oferecem mecanismos de 
escalonamento determinístico, interrupções rápidas e gerenciamento eficiente 
de recursos. A eficiência energética é uma exigência crescente, especialmente em 
dispositivos alimentados por baterias ou que operam em ambientes remotos. Os 
sistemas embarcados de baixo consumo utilizam técnicas, como:
Um exemplo está nos sensores ambientais usados em plantações inteligentes, 
que coletam dados de temperatura e umidade e transmitem via LoRaWAN para 
um servidor central. Esses sensores precisam operar por meses ou anos com 
uma única bateria, exigindo extrema eficiência energética. O desenvolvimento 
de software para esses sistemas exige atenção especial à otimização de código, 
uso de bibliotecas leves e técnicas de programação defensiva para evitar falhas. 
DUTY CYCLING
O sistema alterna entre estado ativo e de repouso para economizar energia.
GERENCIAMENTO DINÂMICO DE ENERGIA
Ajusta a frequência do processador conforme a carga de trabalho.
COMPONENTES DE BAIXO CONSUMO
Como microcontroladores da família ARM Cortex-M, que operam com poucos miliwatts.
UNICESUMAR
1
8
1
TEMA DE APRENDIZAGEM 8
A computação embarcada está presente em diversos setores:
AUTOMOTIVO
Sistemas de freios ABS, controle de tração e gerenciamento de motor.
SAÚDE
Monitores cardíacos, bombas de infusão e dispositivos de diagnóstico portátil.
INDÚSTRIA
Controle de máquinas CNC, sensores de vibração e sistemas de supervisão.
AGRICULTURA
Estações meteorológicas, sensores de solo e controle de irrigação.
Esses sistemas, muitas vezes, conectam-se a redes distribuídas, formando ecos-
sistemas inteligentes que integram sensores, atuadores e servidores em nuvem. 
Essa convergência entre computação embarcada e sistemas distribuídos é a base 
da chamada Indústria 4.0, em que a automação e a análise de dados em tempo 
real transformam processos produtivos. 
À medida que aplicações críticas exigem desempenho cada vez maior e efi-
ciência energética, surgem arquiteturas específicas, como GPUs, FPGAs e ASI-
Cs, projetadas para otimizar tarefas computacionais intensivas e complementar 
os sistemas tradicionais. Vamos entender como GPUs, FPGAs e ASICs estão 
moldando o futuro da computação, especialmente em áreas, como Inteligência 
Artificial, processamento gráfico e sistemas embarcados avançados.
1
8
1
Arquiteturas específicas
À medida que as demandas computacionais se tornam mais complexas e espe-
cializadas, surgem arquiteturas projetadas para atender a requisitos específicos de 
desempenho, eficiência energética e flexibilidade. Essas arquiteturas específicas, 
como GPUs, FPGAs e ASICs, não substituem os processadores tradicionais, mas 
os complementam, oferecendo soluções otimizadas para tarefas intensivas ou 
altamente especializadas.
Essas arquiteturas são amplamente utilizadas em áreas, como Inteligência Ar-
tificial, processamento gráfico, sistemas embarcados avançados, criptografia, redes 
de comunicação e automação industrial. A escolha entre elas depende de fatores, 
como custo, tempo de desenvolvimento, flexibilidade e requisitos de desempenho. 
As GPUs foram originalmente desenvolvidas para acelerar o processamento gráfico 
em aplicações, como jogos e modelagem 3D. No entanto, sua arquitetura paralela 
massiva composta por milhares de núcleos simples as tornou ideais para tarefas 
que envolvem grandes volumes de dados e operações repetitivas.
UNICESUMAR
1
8
1
TEMA DE APRENDIZAGEM 8
A GPU segue o modelo SIMD, permitindo que uma mesma instrução seja 
aplicada a múltiplos dados simultaneamente. Isso a torna extremamente eficiente 
em algoritmos de aprendizado profundo, simulações físicas e renderização de 
imagens (Hennessy, 2019). No treinamento de redes neurais profundas, como as 
utilizadas em reconhecimento de voz ou imagem, as GPUs aceleram o cálculo de 
milhões de operações matriciais. Frameworks, como TensorFlow e PyTorch, ofe-
recem suporte nativo a GPUs via CUDA (Compute Unified Device Architecture), 
uma plataforma de programação desenvolvida pela NVIDIA. Em laboratórios de 
pesquisa em Inteligência Artificial, é comum o uso de servidores com múltiplas 
GPUs para treinar modelos complexos em questão de horas, ao contrário de dias.
Os FPGAs são dispositivos de hardware reconfiguráveis que permitem ao desen-
volvedor definir a lógica interna do circuito após a fabricação. Essa flexibilidade 
os torna ideais para prototipagem, aplicações embarcadas e sistemas que exigem 
processamento paralelo personalizado. Ao contrário das GPUs, que possuem 
uma arquitetura fixa, os FPGAs podem ser programados para executar qualquer 
lógica digital, desde simples contadores até algoritmos complexos de processa-
mento de sinais. Eles operam com baixa latência e alta eficiência energética, sendo 
muito utilizados em sistemas de tempo real (Stallings, 2024).
1
8
1
Em sistemas de comunicação digital, como modems ou rádios definidos 
por software, os FPGAs são usados para implementar algoritmos de modulação 
e recuperação diretamente em hardware, garantindo desempenho em tempo 
real. Em sistemas embarcados industriais, FPGAs são utilizados para controle 
de motores, leitura de sensores e comunicação com protocolos específicos, 
como SPI, I2C ou CAN.
Os ASICs são circuitos integrados projetados para realizar uma função específica. 
Diferentemente dos FPGAs, eles não são reconfiguráveis após a fabricação, mas 
oferecem desempenho superior e consumo energético reduzido, sendo ideais 
para a produção em larga escala. Por serem projetados sob medida, os ASICs 
eliminam redundâncias e otimizam cada componente do circuito para a tarefa 
desejada. Isso resulta em dispositivos extremamente eficientes, porém com alto 
custo de desenvolvimento e menor flexibilidade (Stallings, 2024).
Na mineração de criptomoedas, como o Bitcoin, ASICs especializados são 
utilizados para realizar cálculos de hash de forma extremamente rápida e efi-
ciente. Esses dispositivos superam GPUs e CPUs em desempenho e consumo 
energético. Em dispositivos móveis, como smartphones, ASICs são utilizados 
para funções, como processamento de imagem, gerenciamento de energia e co-
municação sem fio, garantindo desempenho com baixo consumo.
Que tal explorar como as FPGAs estão transformando a forma 
de projetar sistemas digitais e abrem novas possibilidades no 
mercado de tecnologia?
E U I N DI CO
UNICESUMAR
1
8
1
�https://embarcados.com.br/introducao-do-mundo-do-hardware-reconfiguravel-conhecendo-as-fpgas/processamento e armazenamento) impacta 
diretamente o desempenho de um sistema de banco de dados.
Figura 1 – Componentes de hardware
Descrição da Imagem: são exibidos os componentes internos essenciais para a montagem de um computador. Fim 
da descrição.
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 1
O software é a parte lógica do computador. Entretanto, também podemos 
defini-lo como um conjunto de instruções que fazem o hardware funcionar. Isso 
inclui sistemas operacionais, programas aplicativos, drivers e ferramentas de 
desenvolvimento. O seu WhatsApp ou o leitor de livros digitais que você pode 
estar usando neste momento é um exemplo de software.
Agora, entramos em um assunto importante, que são os dados. Os dados 
abrangem elementos, como números, palavras, imagens ou sinais, que, iso-
ladamente, podem não ter significado, mas são a matéria-prima para gerar 
informação. Um banco de dados armazena milhares de dados de clientes, 
tais como nomes, endereços e compras realizadas. Esses dados precisam ser 
organizados e processados para se tornar úteis.
A informação surge quando os dados são processados, organizados e inter-
pretados. É o valor agregado que permite a tomada de decisões. Assim, o profis-
sional de tecnologia precisa entender como transformar dados em informação 
útil, seja para um relatório gerencial, seja para um sistema de recomendação 
de filmes, assim como visualizamos na Netflix. Um sistema de e-commerce 
transforma o histórico de compras (dados) em sugestões personalizadas para 
o cliente (informação).
“Algoritmos são sequências lógicas e finitas de instruções usadas para resolver 
problemas” (Forbellone; Eberspächer, 2005, p. 3). Com eles, os sistemas podem 
buscar rotas mais curtas, detectar fraudes ou classificar imagens automaticamen-
te. Exemplo: um algoritmo de busca é utilizado para encontrar a palavra-chave 
em um grande conjunto de documentos ou páginas da web.
1
8
O algoritmo a seguir é responsável por ordenar dados reais de uma lista de pre-
ços. Exemplo com dados reais: Lista de preços: [50, 20, 10, 40]. Vejamos, agora, 
a execução do algoritmo e como ele trabalha.
Ele realiza uma primeira passagem pelos dados e faz comparações, encon-
trando, então, uma diferença entre os valores. Diante disso, ele realiza a troca, 
organizando os dados. Observe:
Algoritmo BubbleSort
 Para i de 0 até n - 1 faça
 Para j de 0 até n - i - 2 faça
 Se lista[j] > lista[j + 1] então
 aux = lista[j]
 lista[j] = lista[j + 1]
 lista[j + 1] = aux
 FimSe
 FimPara
 FimPara
 // Exibe a lista ordenada
 Para i de 0 até n - 1 faça
 Escreva(lista[i], " ")
 FimPara
FimAlgoritmo
Compara 50 e 20 - realiza a troca - [20, 50, 10, 40]
Compara 50 e 10 - realiza a troca - [20, 10, 50, 40]
Compara 50 e 40 - realiza a troca - [20, 10, 40, 50]
Agora, ele realiza uma segunda passagem, pois ele já tinha passado todos os valo-
res, mas ainda não estava totalmente ordenado. Após a ordenação, ele completa 
a execução.
UNICESUMAR
1
9
TEMA DE APRENDIZAGEM 1
A lista, agora, está ordenada: [10, 20, 40, 50]. Lembre-se de que é somente 
um exemplo do que você pode realizar no futuro conforme o andamento da 
nossa disciplina.
Compara 20 e 10 - realiza a troca - [10, 20, 40, 50]
Compara 20 e 40 - dados já ordenados.
Compara 40 e 50 - dados já ordenados.
O Jogo da Imitação 
O filme conta a história de Alan Turing, recrutado pelo governo britâ-
nico para decifrar códigos nazistas durante a Segunda Guerra. Com 
sua equipe, ele projeta uma máquina capaz de quebrar o “Enigma”, 
tornando-se peça-chave para o fim da guerra. A obra mostra a im-
portância da lógica, do hardware e do processamento de dados, 
destacando Turing como pioneiro da computação moderna.
I N DI CAÇÃO DE FILME
Sistemas computacionais
Um sistema computacional é um conjunto integrado de hardware e software que 
executa tarefas específicas. Ele se divide em três funções principais:
 ■ Entrada de dados: por meio de dispositivos, como teclado e mouse.
 ■ Processamento: realizado pela CPU.
 ■ Saída de informação: monitor, impressora, som.
A memória e os dispositivos de armazenamento também são partes essenciais 
desse sistema, garantindo a persistência dos dados e a eficiência do processa-
mento (Brookshear, 2013). Um sistema de controle de estoque envolve sensores 
(hardware), interface gráfica (software), registros de produtos (dados), relatórios 
gerenciais (informação) e lógica de reposição automática (algoritmo). Você, fu-
turo profissional de tecnologia, deve ser capaz de projetar, implementar e manter 
esses sistemas, garantindo a eficiência, a segurança e a usabilidade.
1
1
ARQUITETURA DE VON NEUMANN
A Arquitetura de Von Neumann é um modelo teórico de computador pro-
posto por John von Neumann, em 1945, que serviu de base para o desen-
volvimento da maioria dos computadores modernos. A ideia central do 
modelo é a de que dados e instruções (programas) sejam armazenados na 
mesma memória e processados pela mesma unidade central, permitindo 
uma abordagem flexível e programável ao processamento de informações.
Componentes principais
A Arquitetura de Von Neumann se organiza em cinco blocos principais, 
que trabalham de maneira interdependente. 
A Unidade de Entrada é a responsável por capturar os dados do mundo 
externo e levá-los ao sistema computacional. Esses dados podem ser simples 
comandos de teclado ou sinais complexos advindos de sensores de presença, 
como utilizados em portas automáticas ou até mesmo em biometria facial. 
Para você entender melhor, vejamos o papel e a importância da unida-
de de entrada na arquitetura do computador. Utilizamos os periféricos de 
entrada, porque eles funcionam como a porta de entrada das informações, 
permitindo a interação entre usuário e sistema. Além disso, convertem si-
nais físicos (toques, som, luz) em dados digitais que podem ser processados.
Os periféricos de entrada são responsáveis por enviar as informações 
para dentro do computador, e dois exemplos de periféricos de entrada 
são o teclado e o mouse. Os sensores estão por toda parte no mundo da 
Internet das Coisas (IoT): elementos que medem temperatura, detectam 
movimento e analisam a qualidade do ar, por exemplo, também fazem 
parte dos periféricos.
A memória é onde o computador guarda temporária ou permanen-
temente os dados e as instruções. Ela é essencial para que qualquer pro-
cessamento ocorra, pois armazena tudo o que o sistema precisa acessar 
rapidamente, além de funcionar como um caderno de anotações que o 
processador consulta e modifica constantemente. Os principais tipos de 
memória são exibidos a seguir.
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 1
Figura 1 – Memória de acesso aleatório (RAM)
Descrição da Imagem: é exibido um módulo de memória RAM (Random Access Memory), um dos principais componen-
tes de hardware de um computador. Ele aparece na forma de uma placa verde retangular, com diversos chips pretos 
alinhados na superfície, responsáveis pelo armazenamento temporário de dados. Na parte inferior, há uma fileira de 
contatos metálicos dourados, que permitem a conexão do módulo com a placa-mãe. Fim da descrição.
A Memória de Acesso Aleatório (RAM) é utilizada para armazenar o que está 
em uso no momento (programas abertos, arquivos sendo editados etc.). Quanto 
maior for a RAM, maior será a capacidade de multitarefa.
1
1
A Memória Somente de Leitura (ROM) contém instruções básicas para inicializa-
ção do sistema como Firmware e BIOS. Na arquitetura von Neumann (utilizada em 
muitos computadores atuais), dados e instruções compartilham o mesmo espaço 
de memória, o que torna a implementação mais simples, mas pode gerar conflitos 
(como ataques de código malicioso, incluindo buffer overflow) (Stallings, 2024).
A Unidade de Controle é o componente que orquestra todas as ações do 
sistema computacional. Ela não faz cálculos,TEMA DE APRENDIZAGEM 8
As arquiteturas específicas representam o ápice da especialização em compu-
tação. Elas permitem que sistemas sejam otimizados para tarefas críticas, ofere-
cendo desempenho, confiabilidade e eficiência energética superiores. A escolha 
entre GPUs, FPGAs e ASICs depende do contexto de aplicação, assim como é 
visível no quadro a seguir.
ARQUITETURA CARACTERÍSTICA APLICAÇÃO
GPU Paralelismo massivo, SIMD. IA, renderização, simulações.
FPGA Reconfigurável, baixa latência. Embarcados, tempo real.
ASIC Específico, alto desempenho.
Mineração de criptomoedas, 
smartphones.
Quadro 1 – Arquiteturas específicas / Fonte: o autor.
Para o profissional da área de tecnologia, compreender essas arquiteturas é essen-
cial para projetar soluções inovadoras, eficientes e escaláveis. Seja no desenvolvi-
mento de sistemas embarcados, na implementação de algoritmos de Inteligência 
Artificial ou na automação industrial, o domínio dessas tecnologias abre portas 
para aplicações avançadas e de alto impacto.
Em síntese, o estudo das arquiteturas computacionais modernas evidencia 
a importância de escolher a estratégia adequada para cada tipo de aplicação. 
Desde a computação paralela, que acelera o processamento de grandes volumes 
de dados por meio de arquiteturas SIMD, MIMD e vetoriais, até os sistemas dis-
tribuídos, que ampliam o paralelismo para múltiplas máquinas interconectadas, 
cada abordagem oferece vantagens específicas em termos de desempenho, esca-
labilidade e eficiência. A compreensão dessas arquiteturas permite que profissio-
nais e pesquisadores adaptem soluções conforme a complexidade do problema, 
equilibrando rapidez de processamento, consumo energético e confiabilidade.
1
8
1
A integração entre computação embarcada e arquiteturas específicas, como 
GPUs, FPGAs e ASICs, demonstra como a especialização tecnológica é essencial 
para atender às demandas contemporâneas de Inteligência Artificial, processa-
mento gráfico, automação industrial e Internet das Coisas. Esses sistemas não 
apenas otimizam tarefas críticas, mas também possibilitam a criação de ecos-
sistemas inteligentes, capazes de operar em tempo real e com baixo consumo 
energético. Dessa forma, o domínio dessas tecnologias fornece a base para o 
desenvolvimento de soluções inovadoras, escaláveis e de alto impacto, consoli-
dando o papel central das arquiteturas computacionais na transformação digital 
e na evolução tecnológica.
Estudante, para expandir os seus conhecimentos no assunto 
abordado, gostaríamos de indicar a aula que preparamos espe-
cialmente para você. Acreditamos que essa aula irá complemen-
tar e aprofundar ainda mais o seu entendimento do tema.
E M FOCO
UNICESUMAR
1
8
1
https://vimeo.com/1102497125/f7c3cc871a
TEMA DE APRENDIZAGEM 8
NOVOS DESAFIOS
Diante dos estudos realizados, é possível perceber que a compreensão das ar-
quiteturas avançadas de computação vai muito além da teoria. Cada conceito 
explorado da computação paralela aos sistemas distribuídos, das arquiteturas 
embarcadas às soluções específicas, como GPUs e FPGAs, revela-se como um 
alicerce para enfrentar os desafios tecnológicos do presente e do futuro.
Na prática profissional, compreender esses modelos significa estar preparado 
para desenvolver aplicações que exijam alto desempenho, confiabilidade e efi-
ciência energética, qualidades indispensáveis em setores, como indústria, saúde, 
finanças, entretenimento, Inteligência Artificial e Internet das Coisas. O profis-
sional que domina esses fundamentos tem maior capacidade de inovar, propor 
soluções escaláveis e acompanhar tendências, como a computação em nuvem, 
a análise de grandes volumes de dados (Big Data) e o avanço da IA generativa.
O conhecimento construído até aqui se conecta diretamente às exigências 
do mercado, que busca cada vez mais especialistas capazes de transitar entre 
diferentes plataformas e arquiteturas. Assim, você não apenas amplia a sua for-
mação acadêmica, mas também se projeta como um profissional competitivo, 
com visão crítica e aplicada, pronto para contribuir em ambientes complexos e 
em constante transformação tecnológica.
1
8
8
1. Sistemas distribuídos consistem em múltiplos computadores que trabalham em conjun-
to para compartilhar recursos e resolver problemas. Entre as principais formas, estão: os 
clusters, que agrupam máquinas interligadas para atuar como um único sistema de alto 
desempenho; os grids, que conectam recursos heterogêneos geograficamente dispersos; 
e a computação em nuvem, que oferece serviços escaláveis sob demanda. Cada modelo 
apresenta características próprias e é aplicado em contextos distintos, desde centros de 
pesquisa até aplicações comerciais e serviços digitais.
Assinale qual tipo de sistema distribuído organiza computadores interligados para funcionar 
como um único recurso de alto desempenho, geralmente usado em pesquisas científicas:
a) Grid Computing.
b) Cluster.
c) Computação em Nuvem.
d) Supercomputador Monolítico.
e) FPGA.
2. Sistemas distribuídos conectam múltiplos computadores para compartilhar recursos, au-
mentar desempenho e garantir disponibilidade. Entre os principais modelos, estão: os clus-
ters, que funcionam como um único sistema de alto desempenho; os grids, que integram 
recursos heterogêneos em diferentes locais; e a computação em nuvem, que oferece ser-
viços escaláveis sob demanda. Esses sistemas estão presentes em áreas, como pesquisa 
científica, bancos de dados de larga escala, serviços digitais e aplicações críticas.
Considerando os estudos feitos sobre os sistemas distribuídos, analise as afirmativas a seguir:
 I - Clusters agrupam computadores interligados para atuar como um único sistema de alto 
desempenho.
 II - Grids conectam recursos heterogêneos e geograficamente dispersos para colaboração 
em larga escala.
 III - A computação em nuvem fornece serviços escaláveis sob demanda, como processa-
mento, armazenamento e redes.
 IV - Os sistemas distribuídos são sempre homogêneos e compostos por máquinas idênticas, 
sem variação de hardware ou software. 
É correto o que se afirma em:
a) I, apenas.
b) II e IV, apenas.
c) III e IV, apenas.
d) I, II e III, apenas.
e) I, II, III e IV.
VAMOS PRATICAR
1
8
9
3. A computação paralela busca acelerar a execução de tarefas dividindo o processamento 
entre múltiplas unidades. Existem diferentes arquiteturas, como as que aplicam a mesma 
instrução sobre vários dados ao mesmo tempo, e aquelas em que processadores indepen-
dentes executam instruções distintas em diferentes conjuntos de dados. Essas arquiteturas 
estão presentes tanto em GPUs quanto em supercomputadores modernos.
Com base nas informações apresentadas, avalie as asserções a seguir e a relação proposta 
entre elas:
I - Arquiteturas paralelas aumentam o desempenho, ao permitirem que várias operações 
sejam realizadas simultaneamente.
PORQUE
II - O processamento é dividido entre múltiplas unidades ou núcleos, que podem trabalhar 
em paralelo em diferentes partes do problema.
A respeito dessas asserções, assinale a alternativa correta:
a) As asserções I e II são verdadeiras, e a II é uma justificativa correta da I.
b) As asserções I e II são verdadeiras, mas a II não é uma justificativa correta da I.
c) A asserção I é uma proposição verdadeira e a II é uma proposição falsa.
d) A asserção I é uma proposição falsa e a II é uma proposição verdadeira.
e) As asserções I e II são falsas.
VAMOS PRATICAR
1
9
1
REFERÊNCIAS
HENNESSY, J. Arquitetura de computadores: uma abordagem quantitativa. Rio de Janeiro: Gen; 
LTC, 2019.
MONTEIRO, M. Organização e arquitetura de computadores. 2. ed. São Paulo: Érica, 2015.
STALLINGS, W. Arquitetura e organização de computadores: projetando com foco em desem-
penho. 11. ed. Porto Alegre: Bookman, 2024.
TANENBAUM, A. S.; VAN STEEN, M. Sistemas distribuídos: princípios e paradigmas. 2. ed. São 
Paulo: Pearson Prentice Hall, 2007.
1
9
1
1. Alternativa B.
O Grid Computing conecta recursos heterogêneos em larga escala,mas não necessariamente 
atua como um único sistema integrado. O cluster é um conjunto de computadores interligados 
que funcionam como uma única unidade de processamento, muito utilizado em simulações 
científicas e HPC. A computação em nuvem oferece elasticidade e serviços sob demanda, 
mas não é voltada diretamente ao desempenho concentrado como os clusters. O super-
computador monolítico é um único sistema de grande porte, e não uma rede de máquinas 
interligadas. Por fim, o FPGA é um hardware reconfigurável, e não um sistema distribuído.
2. Alternativa D.
A afirmativa I está correta, porque descreve com precisão o conceito de clusters. A afirma-
tiva II também está correta, visto que reflete corretamente a natureza dos grids, que unem 
recursos heterogêneos e distribuídos. A afirmativa III está correta, dado que corresponde ao 
modelo da computação em nuvem, que fornece elasticidade e serviços sob demanda. Por 
fim, a afirmativa IV está incorreta, pois os sistemas distribuídos podem ser heterogêneos, 
combinando diferentes tipos de hardware, software e redes.
3. Alternativa A.
A asserção I é verdadeira, porque o principal objetivo da computação paralela é aumentar 
o desempenho, explorando a execução simultânea. A asserção II também é verdadeira, e 
a explicação está correta, pois dividir tarefas entre múltiplas unidades é justamente o que 
possibilita o ganho de velocidade. 
CONFIRA SUAS RESPOSTAS
1
9
1
MEU ESPAÇO
1
9
1
MINHAS METAS
TÓPICOS ESPECIAIS 
Compreender a virtualização.
Analisar a segurança da informação.
Explorar a computação quântica.
Identificar as tendências em arquitetura.
Relacionar conceitos e práticas profissionais.
Desenvolver o pensamento crítico e estratégico.
Estimular a aprendizagem contínua e a inovação.
T E M A D E A P R E N D I Z A G E M 9
1
9
1
INICIE SUA JORNADA
A simples compreensão de hardware e software já não é suficiente: sistemas com-
plexos exigem flexibilidade, proteção de dados e capacidade de lidar com tecno-
logias emergentes. Ambientes corporativos modernos precisam consolidar ser-
vidores, proteger informações críticas, explorar novas formas de processamento 
e se preparar para arquiteturas inovadoras que ainda estão em desenvolvimento.
Entender conceitos, como virtualização, segurança da informação, compu-
tação quântica e tendências arquiteturais, não se resume a aprender definições 
teóricas. A virtualização permite maximizar recursos de hardware, a segurança 
protege ativos digitais essenciais, a computação quântica antecipa mudanças dis-
ruptivas e as tendências em arquitetura indicam como sistemas serão projetados 
para um maior desempenho e eficiência. 
Por exemplo, criar máquinas virtuais, configurar redes virtuais, aplicar regras bá-
sicas de segurança, simular algoritmos simples em plataformas quânticas on-line 
ou analisar casos de uso de chips neuromórficos permite que eles experimentem 
o impacto de cada tecnologia no mundo real.
Ao percorrer esses tópicos, é importante refletir sobre o papel da tecnologia 
na sociedade e na indústria: como os recursos computacionais podem ser otimi-
zados sem comprometer a segurança? De que forma as tecnologias emergentes 
transformarão os processos? Como os profissionais podem se preparar para lidar 
com sistemas cada vez mais complexos e interconectados? 
Você já imaginou um chip que se adapta ao seu projeto? Neste 
episódio, exploramos os FPGAs, mostrando como essa arqui-
tetura flexível une performance de hardware à versatilidade do 
software, revolucionando 5G, Inteligência Artificial (IA), finanças e 
carros autônomos.
PLAY N O CONHECIMENTO
UNICESUMAR
1
9
1
https://on.soundcloud.com/q0qKa372wNiwERKNe8
TEMA DE APRENDIZAGEM 9
DESENVOLVA SEU POTENCIAL
NOVAS TENDÊNCIAS NA TECNOLOGIA
A evolução dos sistemas computacionais não se limita apenas ao aumento da 
frequência de clock ou ao número de núcleos em um processador. Novos para-
digmas, tecnologias e preocupações têm moldado a maneira como utilizamos, 
projetamos e protegemos computadores. Este tema apresenta tópicos especiais 
que refletem tendências e desafios contemporâneos: a virtualização, a segu-
rança da informação, a computação quântica e as tendências emergentes em 
arquitetura de computadores.
A crescente demanda por eficiência, escalabilidade e redução de custos le-
vou ao desenvolvimento de técnicas que permitem utilizar melhor os recursos 
computacionais. Entre elas, a virtualização se destaca como uma das mais im-
pactantes, pois possibilita executar diversos sistemas e aplicações em um mesmo 
hardware físico de forma isolada e controlada. Um exemplo prático: ao contrário 
de manter dez servidores físicos para rodar diferentes aplicações, uma empresa 
pode consolidar todos em apenas dois servidores com máquinas virtuais (VMs), 
reduzindo custos de energia, espaço e manutenção.
VAMOS RECORDAR?
Vamos relembrar o que é um chip? Trata-se de um tópico 
muito importante para entendermos a evolução que 
ocorreu na tecnologia até a chegada dos atuais chips.
1
9
1
https://www.youtube.com/watch?v=uByQnP5FsVY
Virtualização é o processo de abstração de recursos físicos, como processador, 
memória e armazenamento, permitindo que múltiplos ambientes independen-
tes sejam executados em um único sistema físico. Essa abstração é realizada 
por um software chamado hipervisor, que cria e gerencia as máquinas virtuais 
(Hennessy, 2019).
A virtualização não é um conceito único ou restrito a servidores. Pelo con-
trário, ao longo dos anos, diferentes áreas da computação passaram a adotar essa 
técnica, cada uma com finalidades específicas, mas todas guiadas pelos mesmos 
objetivos: otimizar recursos, aumentar a flexibilidade e simplificar a gestão dos 
ambientes de TI. Para compreender melhor, é possível observar como a virtua-
lização se manifesta em diferentes dimensões, segundo Stallings (2024):
UNICESUMAR
1
9
1
TEMA DE APRENDIZAGEM 9
• Virtualização de servidores: permite particionar um único servidor físico em 
vários servidores virtuais, cada um funcionando como se fosse independente. 
• Virtualização de armazenamento: une diferentes dispositivos de armazenamento 
em um único pool lógico, facilitando a gestão e garantindo maior eficiência no 
uso do espaço disponível.
• Virtualização de rede: possibilita criar redes virtuais independentes sobre a 
mesma infraestrutura física, oferecendo isolamento, segurança e flexibilidade 
no gerenciamento.
• Virtualização de desktop: centraliza os ambientes de trabalho em servidores, 
permitindo que usuários acessem seus desktops de forma remota e segura a 
partir de qualquer dispositivo.
• Virtualização de aplicações: garante que softwares sejam executados em 
ambientes isolados.
Esses diferentes tipos mostram como a virtualização não se limita ao nível da 
infraestrutura, mas se expande até a experiência do usuário final. Cada camada, 
seja servidor, rede, armazenamento ou aplicação, ganha novas possibilidades 
de uso, sempre mantendo a lógica de abstrair o físico para oferecer mais fle-
xibilidade e controle (Torres, 2022). Para que tudo isso seja possível, entram 
em cena tecnologias fundamentais, como os hipervisores e os containers, que 
dão sustentação prática à virtualização e moldam os ambientes modernos de 
computação em nuvem.
Enquanto uma VM tradicional pode precisar de 20 GB para rodar um siste-
ma completo, um container com a mesma aplicação pode pesar apenas algumas 
centenas de megabytes. A virtualização só se tornou prática e eficiente graças 
ao desenvolvimento de tecnologias específicas que permitem isolar e gerenciar 
recursos físicos de maneira controlada. Essas tecnologias variam em nível de 
complexidade, desempenho e casos de uso, mas todas compartilham dois ob-
jetivos em comum: maximizar o aproveitamento da infraestrutura e oferecer 
flexibilidade para usuários e empresas. Entre as mais conhecidas, destacam-se: 
hipervisores e containers.
1
9
8
Os hipervisores de tipo 1 (bare-metal) são considerados os mais eficientes, 
poisrodam diretamente sobre o hardware físico, sem depender de um sistema 
operacional intermediário. Por essa razão, oferecem melhor desempenho e se-
gurança. São muito utilizados em datacenters corporativos e ambientes de cloud 
computing. Alguns exemplos são: VMware ESXi, Xen (utilizado pela Amazon 
Web Services em larga escala) e Microsoft Hyper-V.
Em um datacenter de uma instituição financeira, o Hyper-V pode particionar um 
servidor físico em dezenas de máquinas virtuais, cada uma hospedando siste-
mas críticos, como banco de dados, aplicações de internet banking e sistemas 
de monitoramento.
A PR OFUNDANDO
Os hipervisores de tipo 2 (hosted), diferentemente do tipo 1, rodam sobre um 
sistema operacional já existente. Isso torna a implementação mais simples, sendo 
ideais para testes, ambientes de desenvolvimento e laboratórios de estudo. En-
tretanto, apresentam maior sobrecarga, já que dependem do sistema hospedeiro, 
como Oracle VirtualBox, VMware Workstation e Parallels Desktop (muito usado 
em Macs). Um desenvolvedor que precisa testar um software em diferentes ver-
sões do Windows e Linux pode criar várias VMs no VirtualBox em seu próprio 
notebook, sem a necessidade de múltiplos computadores físicos. Containers 
surgiram como uma alternativa mais leve e flexível à virtualização tradicional. 
Essas três abordagens não competem entre si, mas se complementam. Enquanto 
os hipervisores de tipo 1 garantem robustez e desempenho em ambientes críticos, 
os hipervisores de tipo 2 democratizam o acesso à virtualização para uso cotidiano e 
testes. Já os containers representam a evolução natural rumo a arquiteturas mais ágeis 
e escaláveis, fundamentais para a era da nuvem e dos microsserviços. Justamente por 
essa ampla adoção em ambientes corporativos e na nuvem, surge uma preocupação: 
como proteger todas essas camadas virtuais contra ameaças e ataques?
UNICESUMAR
1
9
9
TEMA DE APRENDIZAGEM 9
Segurança da informação
Proteger esses dados contra acessos indevidos, perdas ou modificações malicio-
sas é um desafio central da segurança da informação. Para isso, são empregados 
conceitos, práticas e tecnologias que garantem a confidencialidade, a integridade 
e a disponibilidade de sistemas e informações.
Quando falamos em segurança da informação, o primeiro passo é entender 
contra o que precisamos nos proteger. No mundo digital, as ameaças assumem 
diferentes formas, variando desde programas maliciosos invisíveis até ataques 
orquestrados em grande escala. Essas ameaças exploram fragilidades de sistemas, 
redes e até do próprio comportamento humano, tornando a proteção um desafio 
constante. De acordo com Torres (2022), entre as principais ameaças, estão:
 MALWARE
Softwares maliciosos que podem se infiltrar em sistemas com diferentes objetivos, 
como roubar dados, causar danos ou sequestrar informações (exemplos: vírus, worms, 
trojans e ransomware).
1
1
1
Esses exemplos mostram que a segurança não pode ser vista apenas como um 
problema técnico, mas também organizacional e humano. Compreender as 
ameaças é apenas o primeiro passo. Para combatê-las de forma eficaz, é necessário 
identificar as vulnerabilidades que elas exploram e os mecanismos de proteção 
capazes de reduzir os respectivos impactos (Monteiro, 2015).
ATAQUES DE REDE
Tentativas externas de comprometer a comunicação ou sobrecarregar serviços, assim 
como ocorre nos ataques de phishing, DDoS e sniffing.
ENGENHARIA SOCIAL
Técnicas de manipulação psicológica que visam enganar usuários para obter informa-
ções sigilosas, muitas vezes, passando-se por alguém de confiança.
AMEAÇAS INTERNAS
Riscos que partem de dentro da própria organização, quando usuários autorizados abu-
sam de privilégios ou atuam de forma maliciosa.
Snowden - Herói ou Traidor 
Ex-funcionário da Agência de Segurança dos Estados Unidos, 
Edward Snowden (Joseph Gordon-Levitt) expõe documentos 
sigilosos que revelam a espionagem do governo contra cida-
dãos e líderes mundiais. O filme destaca a relevância da pro-
teção de dados e mostra como falhas ou abusos no controle 
de acesso comprometem a segurança da informação e afetam 
pessoas e organizações.
I N DI CAÇÃO DE FILME
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 9
Se as ameaças representam os perigos externos (ou internos) que rondam os siste-
mas, as vulnerabilidades são as portas de entrada que permitem que esses perigos 
se concretizem. Em outras palavras, uma vulnerabilidade é uma fragilidade em 
softwares, hardwares ou processos que pode ser explorada para comprometer 
a segurança da informação. Segundo Torres (2022), essas fragilidades podem 
assumir diferentes formas:
FALHAS DE SOFTWARE
Todo programa é suscetível a erros de código, conhecidos como bugs. Alguns desses 
erros podem ser explorados por invasores para ganhar acesso indevido ou executar 
comandos maliciosos.
CONFIGURAÇÕES INCORRETAS
Um servidor com portas abertas desnecessárias, permissões excessivas para usuários 
ou políticas mal aplicadas criam brechas que podem ser exploradas sem grande esforço.
SENHAS FRACAS
Credenciais fáceis de adivinhar, como “123456” ou “senha”, continuam sendo um dos 
principais problemas de segurança, mesmo com tantas campanhas de conscientização.
FALTA DE ATUALIZAÇÃO
Sistemas sem patches de segurança se tornam alvos fáceis. Quando um fabricante divulga 
uma correção, também está revelando a existência de uma falha que pode ser explorada.
Além de conhecer ameaças e identificar vulnerabilidades, é essencial adotar me-
canismos de proteção que atuem como barreiras de defesa. São eles que permitem 
reduzir riscos, mitigar danos e garantir que os sistemas continuem funcionando 
de forma segura e confiável.
1
1
1
Se vulnerabilidades são as portas abertas de um sistema, os mecanismos de 
proteção são as fechaduras, barreiras e alarmes que ajudam a mantê-lo seguro. 
Em ambientes cada vez mais complexos e interconectados, confiar apenas em 
uma camada de defesa não é suficiente. Por isso, adota-se o conceito de defesa 
em profundidade, que combina diferentes estratégias para dificultar a vida de 
invasores e reduzir riscos. Entre os principais mecanismos, destacam-se:
 ■ Criptografia: técnica essencial para garantir a confidencialidade e a in-
tegridade das informações. Algoritmos, como AES (usado em VPNs e 
discos criptografados), RSA (comum em comunicações seguras na web), 
ECC (eficiente para dispositivos móveis) e funções de hash, como SHA, 
são pilares da segurança moderna.
 ■ Autenticação Multifator (MFA): adicionar camadas extras de verificação 
além da senha se tornou indispensável. Combinar senha + token ou senha + 
biometria dificulta ataques mesmo quando credenciais são comprometidas.
 ■ Firewalls e IDS/IPS: enquanto os firewalls funcionam como “porteiros 
digitais”, controlando o que entra e sai da rede, sistemas de detecção e 
prevenção de intrusos (IDS/IPS) monitoram o tráfego em busca de com-
portamentos suspeitos e podem bloquear ataques em tempo real.
 ■ Políticas de segurança: tecnologia sozinha não basta. É necessário definir 
regras e boas práticas de uso de recursos, como controle de acessos, nor-
mas de senha, regras de uso de dispositivos móveis e resposta a incidentes.
 ■ Backup e recuperação: quando todas as defesas falham, ter um plano de con-
tingência é vital. Backups atualizados e estratégias de recuperação rápida mi-
nimizam o impacto de incidentes, como ransomware ou falhas de hardware. 
Esses mecanismos formam um conjunto robusto de defesas, mas é importan-
te lembrar que o cenário tecnológico está em constante transformação. Novas 
ameaças exigem novas respostas e até mesmo técnicas que hoje parecem intrans-
poníveis, como certos algoritmos de criptografia, já estão sendo desafiadas por 
avanços da computação quântica, a qual redefine os limites do que é seguro e do 
que precisa ser repensado.
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 9
Computação quântica
A computação clássica, baseada no modelo de Von Neumann, foi responsável 
por avanços extraordináriosnas últimas décadas. Todavia, limitações físicas e 
matemáticas impõem barreiras ao respectivo crescimento. Surge, assim, a com-
putação quântica, que explora princípios da mecânica quântica, como super-
posição e emaranhamento, para realizar cálculos que seriam impraticáveis em 
computadores convencionais.
A computação quântica se diferencia da clássica porque não trabalha apenas 
com os bits tradicionais (0 e 1), mas com qubits, que exploram propriedades da 
mecânica quântica para alcançar um poder de processamento sem precedentes 
(Stallings, 2024). Para entender como isso é possível, precisamos explorar seus 
princípios fundamentais:
 ■ Qubit: o qubit é a unidade básica de informação quântica, análogo ao 
bit clássico. Porém, enquanto um bit só pode estar em 0 ou 1, um qubit 
pode assumir ambos os estados simultaneamente, graças à superposição. 
Exemplo prático: imagine uma moeda jogada para o alto: até cair, ela está 
em uma combinação de cara e coroa. Da mesma forma, um qubit pode 
estar em uma mistura de 0 e 1 ao mesmo tempo.
1
1
1
 ■ Superposição: esse princípio é o que dá aos qubits sua principal vanta-
gem: a capacidade de representar muitos estados ao mesmo tempo. Isso 
permite que um computador quântico explore várias soluções paralela-
mente, ao contrário de seguir um caminho de cada vez, como a compu-
tação clássica. Exemplo prático: em um problema de busca em banco de 
dados, enquanto um computador clássico testaria cada item de forma 
sequencial, um computador quântico pode avaliar todos os itens de uma 
vez só, graças à superposição.
 ■ Emaranhamento: é um fenômeno em que dois ou mais qubits ficam 
correlacionados de tal forma que o estado de um afeta instantaneamen-
te o estado do outro, mesmo que estejam fisicamente distantes. Esse 
recurso aumenta exponencialmente o poder de processamento, pois 
permite que qubits “trabalhem juntos” de forma altamente coordenada. 
Exemplo prático: se dois qubits estão emaranhados, ao medir um deles 
como 0, automaticamente sabemos que o outro está em 1, independen-
temente da distância.
 ■ Interferência: na mecânica quântica, probabilidades podem se refor-
çar ou se cancelar. O princípio da interferência é usado em algoritmos 
quânticos para “eliminar” os caminhos incorretos e reforçar os que levam 
à resposta correta. Exemplo prático: pense em ondas no mar. Quando 
duas ondas se encontram, podem se somar e formar uma onda maior 
(interferência construtiva) ou se cancelar (interferência destrutiva). 
A computação quântica não se resume apenas à manipulação de qubits e à explo-
ração de superposição e emaranhamento. O verdadeiro poder está nos algoritmos 
quânticos, que aproveitam essas propriedades para resolver problemas complexos 
de forma significativamente mais rápida do que os computadores clássicos. 
Entre os principais algoritmos quânticos, está o algoritmo de Shor. Desenvolvi-
do por Peter Shor em 1994, esse algoritmo possibilita a fatoração de grandes núme-
ros inteiros de forma extremamente eficiente. Na computação clássica, a fatoração 
de números muito grandes é praticamente inviável, mas, para um computador 
quântico, o algoritmo de Shor consegue realizar essa tarefa em tempo polinomial. 
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 9
Outro algoritmo é o de Grover. Criado por Lov Grover em 1996, esse algo-
ritmo acelera a busca em bases de dados não estruturadas. Enquanto um com-
putador clássico precisa examinar, em média, metade dos itens para encontrar 
a resposta correta, o algoritmo de Grover reduz esse número aproximadamente 
pela raiz quadrada do total de elementos.
Tudo isso impacta a otimização de pesquisas, a recuperação de informações 
e a resolução de problemas complexos de forma mais rápida. Exemplo prático: 
empresas de Inteligência Artificial podem usar algoritmos quânticos baseados 
em Grover para acelerar processos de busca em grandes volumes de dados, como 
recomendações personalizadas em plataformas de streaming ou análise de gran-
des bancos de dados científicos.
Diferentemente dos algoritmos de Shor e Grover, as simulações quânticas 
aproveitam a capacidade dos qubits de representar múltiplos estados simulta-
neamente para modelar sistemas físicos complexos com precisão impossível para 
computadores clássicos. Logo, é possível trazer avanços em química, ciência dos 
materiais, descoberta de fármacos e otimização de processos industriais. Exem-
plo prático: startups, como a Quantum Motion, e laboratórios da IBM e Google 
utilizam computadores quânticos para simular moléculas e reações químicas, 
acelerando a pesquisa de novos medicamentos e materiais com propriedades 
específicas, como baterias mais eficientes.
A computação quântica, embora ainda esteja em desenvolvimento, já de-
monstra aplicações concretas em diferentes áreas, mostrando seu potencial 
disruptivo para os mercados da tecnologia e da ciência. Com a chegada de com-
putadores quânticos poderosos, algoritmos de criptografia tradicionais, como 
RSA e ECC, podem se tornar vulneráveis. A criptografia pós-quântica desenvolve 
novos métodos resistentes a ataques quânticos, garantindo que informações sen-
síveis continuem protegidas.
Algoritmos quânticos podem resolver problemas complexos de otimização 
muito mais rápido do que computadores clássicos. Isso inclui a otimização de 
rotas logísticas, estratégias financeiras, cadeias de suprimentos e até modelos de 
Inteligência Artificial. Exemplo prático: empresas de logística podem usar com-
putadores quânticos para encontrar o roteamento ideal de entregas, reduzindo 
custos e tempo de transporte. No setor financeiro, é possível otimizar portfólios 
de investimento com maior eficiência.
1
1
1
A capacidade de simular moléculas e reações químicas de forma precisa ace-
lera a descoberta de novos medicamentos e materiais. Computadores quânticos 
podem prever propriedades de moléculas antes mesmo de testes laboratoriais. 
Exemplo prático: laboratórios farmacêuticos e startups de biotecnologia utilizam 
simulações quânticas para identificar candidatos a novos medicamentos, como 
tratamentos para câncer ou doenças virais, economizando tempo e recursos em 
pesquisa e desenvolvimento.
Assim como a computação quântica, outras abordagens buscam superar os 
limites do modelo clássico. Entre elas, destacam-se a computação neuromórfi-
ca, a computação aproximada e as arquiteturas heterogêneas, que representam 
tendências emergentes na área de arquitetura de computadores.
Tendências em arquitetura de computadores
A busca por maior desempenho, eficiência energética e especialização em tarefas 
específicas tem impulsionado novas formas de projetar computadores. Entre as 
tendências em arquitetura, estão os modelos inspirados no cérebro humano, 
arquiteturas que aceitam resultados aproximados e sistemas que integram dife-
rentes tipos de processadores em um mesmo ambiente.
UNICESUMAR
1
1
1
TEMA DE APRENDIZAGEM 9
A computação neuromórfica busca inspiração direta no cérebro humano 
para projetar novos tipos de processadores. Ao contrário de trabalharem com a 
arquitetura tradicional de Von Neumann (separação entre memória e processa-
mento), esses sistemas são baseados em circuitos que imitam o funcionamento 
de neurônios e sinapses biológicas. A grande vantagem desse modelo é a capa-
cidade de lidar com tarefas cognitivas, tais como reconhecimento de padrões, 
visão computacional e aprendizado adaptativo, de forma muito mais eficiente 
energeticamente que as arquiteturas tradicionais.
• Loihi (Intel): chip neuromórfico com mais de 130 mil “neurônios artificiais” integrados 
em hardware, capaz de aprender em tempo real com baixo consumo de energia.
• TrueNorth (IBM): processador inspirado no cérebro humano, com 1 milhão de 
“neurônios digitais” e 256 milhões de sinapses, desenvolvido para aplicações de IA.
• Reconhecimento de padrões: identificação de sons, imagens ou sinais biomédi-
cos em tempo real.
• Visão computacional: uso em robôs autônomos e sistemas de vigilância inteligentes.
• IA embarcada:dispositivos móveis e IoT que necessitam de Inteligência Artificial 
com baixo consumo energético, como drones e sensores inteligentes.
A computação neuromórfica abre espaço para sistemas que “pensam” de forma 
mais parecida com o cérebro humano, trazendo eficiência e autonomia para apli-
cações que exigem aprendizado contínuo. A computação aproximada segue um 
princípio diferente: nem sempre é necessário ter 100% de precisão nos cálculos. 
Em muitos cenários, aceitar resultados levemente imprecisos pode trazer grandes 
ganhos em desempenho e economia de energia. 
Isso é possível, porque, em áreas, tais como processamento multimídia, gráfi-
cos ou aplicações de IA, a exatidão absoluta não é perceptível para o usuário final. 
Por exemplo, uma imagem comprimida em JPEG pode perder alguns detalhes, 
mas continua sendo perfeitamente visualizável.
1
1
8
 ■ Algoritmos de compressão de imagem (JPEG) e áudio (MP3): reduzem 
a quantidade de dados descartando informações “menos perceptíveis”.
 ■ Circuitos de baixa precisão em hardware: processadores que realizam 
cálculos com menos bits para reduzir consumo de energia em disposi-
tivos móveis.
 ■ Processamento multimídia: streaming de vídeo e música com compressão 
de dados.
 ■ Sistemas embarcados de baixo consumo: sensores IoT e wearables, que 
precisam equilibrar precisão com economia de bateria.
 ■ Inteligência Artificial: redes neurais profundas que utilizam cálculos em 
menor precisão (ex.: FP16 ou INT8) para acelerar o treinamento sem 
perder acurácia relevante.
As arquiteturas heterogêneas representam uma das tendências mais marcantes 
da computação moderna. Diferentemente dos sistemas tradicionais, baseados 
exclusivamente em CPUs, esse modelo integra diferentes tipos de processadores, 
como CPUs, GPUs, FPGAs e TPUs, para aproveitar o melhor de cada um em 
tarefas específicas.
UNICESUMAR
1
1
9
TEMA DE APRENDIZAGEM 9
A ideia central é que nenhum processador é perfeito para todas as aplicações. 
Enquanto as CPUs são versáteis e boas em operações sequenciais e de controle, 
as GPUs brilham em tarefas paralelas de alta intensidade, como renderização 
gráfica e aprendizado de máquina. Já os FPGAs (Field Programmable Gate Ar-
rays) oferecem flexibilidade, permitindo que o hardware seja configurado para 
executar algoritmos sob medida, com excelente eficiência energética, assim como 
Hennessy (2019) aponta, a seguir:
CUDA (NVIDIA)
Plataforma que permite programar GPUs para além dos gráficos, sendo uma base fun-
damental para treinar redes neurais em inteligência artificial.
ARQUITETURA ARM COM ACELERADORES
Chips ARM utilizados em smartphones e dispositivos IoT que já vêm acompanhados de 
NPUs (Neural Processing Units) para processar tarefas de IA, como reconhecimento 
facial ou assistentes de voz.
FPGAS DA XILINX E INTEL
Empregados em telecomunicações e data centers para acelerar algoritmos de cripto-
grafia, compressão de dados e processamento em tempo real.
A Inteligência Artificial (IA) utiliza o treinamento e a inferência de redes neurais 
profundas, em que GPUs e TPUs oferecem desempenho muito superior às CPUs 
tradicionais. No campo de Big Data e Analytics, a análise de grandes volumes de 
dados é realizada em paralelo, combinando CPU e GPU para reduzir significa-
tivamente o tempo de processamento. Já em gráficos 3D e realidade virtual, os 
motores gráficos fazem uso intensivo das GPUs, possibilitando a renderização 
de imagens em tempo real com alta fidelidade.
1
1
1
As arquiteturas heterogêneas mostram que o futuro da computação está em combi-
nar forças, explorando a versatilidade das CPUs, o paralelismo das GPUs e a adaptabi-
lidade dos FPGAs. Essa abordagem não apenas aumenta o desempenho, mas também 
reduz o consumo energético, um fator crucial em data centers e dispositivos móveis.
Essas tendências mostram que o futuro da computação não se limita ao au-
mento de frequência ou ao número de núcleos de processadores. A inovação 
está em repensar a forma como computadores são projetados e utilizados, apro-
ximando-se cada vez mais das necessidades do mundo real. Dessa forma, ao 
analisarmos a virtualização, a segurança, a computação quântica e as tendências 
arquiteturais, percebemos que todos esses tópicos estão interligados e apontam 
para um cenário em que eficiência, flexibilidade e proteção caminham lado a lado 
na construção da próxima geração de sistemas computacionais.
Estudante, para expandir os seus conhecimentos no assunto 
abordado, gostaríamos de indicar a aula que preparamos espe-
cialmente para você. Acreditamos que essa aula irá complemen-
tar e aprofundar ainda mais o seu entendimento do tema.
E M FOCO
NOVOS DESAFIOS
Hoje, devemos compreender que o conhecimento técnico adquirido vai muito 
além da teoria: ele é a base para atuar em um mercado de TI em constante trans-
formação. A virtualização, por exemplo, é uma habilidade essencial para profis-
sionais que gerenciam datacenters, nuvem corporativa ou ambientes híbridos, 
visto que possibilita consolidar recursos, reduzir custos e garantir disponibilidade 
de serviços. Profissionais que dominam essa tecnologia são altamente demanda-
dos em empresas que buscam eficiência e escalabilidade.
UNICESUMAR
1
1
1
https://vimeo.com/1102497154/b962c80ca4
TEMA DE APRENDIZAGEM 9
Da mesma forma, a segurança da informação é central para qual-
quer carreira em TI. A capacidade de identificar ameaças, gerenciar 
vulnerabilidades e aplicar mecanismos de proteção é exigida em todos 
os níveis organizacionais. Com o crescimento de ataques digitais e 
vazamentos de dados, especialistas em segurança se tornam estraté-
gicos, e a aplicação prática desse conhecimento é diária: desde a con-
figuração de firewalls até a implementação de políticas corporativas 
de proteção de dados.
A computação quântica, embora ainda seja emergente, já abre 
perspectivas futuras significativas. Profissionais que entendem algo-
ritmos quânticos, criptografia pós-quântica e simulações complexas 
estarão na vanguarda da inovação, podendo atuar em setores de pes-
quisa, fintechs, logística e indústria farmacêutica. Mesmo conceitos 
iniciais de programação e experimentação quântica em plataformas 
online oferecem vantagem competitiva e visão estratégica sobre o fu-
turo da computação.
As tendências em arquitetura de computadores neuromórfica, 
aproximada e heterogênea mostram que o mercado valoriza profis-
sionais capazes de trabalhar com soluções especializadas e eficientes. 
Profissionais que compreendem essas tecnologias podem atuar em In-
teligência Artificial, Big Data, IoT e computação de alto desempenho, 
projetando sistemas que unem performance, eficiência energética e 
adaptabilidade a diferentes demandas.
Ao integrarmos virtualização, segurança, computação quântica e 
arquiteturas emergentes, passamos a perceber que a prática profissio-
nal exige visão sistêmica e interdisciplinar. Cada tecnologia não é 
isolada; elas se complementam e devem ser aplicadas considerando 
desempenho, proteção, custo e inovação.
Portanto, a conexão entre teoria e prática fortalece a sua prepa-
ração para o mercado: você não apenas aprende conceitos, mas de-
senvolve habilidades críticas, estratégicas e adaptativas, tornando-se 
capaz de enfrentar desafios reais, propor soluções inovadoras e se 
posicionar de forma competitiva na profissão de TI.
1
1
1
1. A virtualização transformou a forma como as empresas utilizam seus recursos computacio-
nais. Com ela, é possível executar diversos sistemas e aplicações em um mesmo hardware 
físico, otimizando custos e ampliando a flexibilidade. Para isso, diferentes abordagens foram 
criadas, cada uma com vantagens específicas e casos de uso recomendados.
Qual das alternativas apresenta corretamente a diferença entre os tipos de hipervisor utili-
zados na virtualização?
a) Hipervisores de tipo 1 dependem de um sistema operacional hospedeiro, enquanto os 
de tipo 2 executam diretamente no hardware.
b) Hipervisores de tipo 1 rodam diretamente sobre ohardware, oferecendo melhor de-
sempenho, enquanto os de tipo 2 dependem de um sistema operacional hospedeiro.
c) Tanto os hipervisores de tipo 1 quanto os de tipo 2 executam diretamente no hardware, 
mas o tipo 2 é mais seguro.
d) Os hipervisores de tipo 2 são utilizados exclusivamente em datacenters corporativos, por 
garantirem máxima performance.
e) Hipervisores de tipo 1 e tipo 2 não possuem diferenças técnicas relevantes, apenas comerciais.
2. Com a crescente digitalização de serviços e informações, crescem também os riscos de 
ataques cibernéticos. Entre eles, destacam-se os malwares, ataques de rede, engenharia 
social e ameaças internas, cada um explorando fragilidades diferentes, seja em sistemas, 
redes ou no comportamento humano.
Qual das alternativas descreve corretamente uma ameaça do tipo engenharia social?
a) Um ataque que explora falhas de software para obter acesso não autorizado a um sistema.
b) Um conjunto de técnicas que manipula usuários para que revelem informações confidenciais.
c) Um vírus que se replica automaticamente ao infectar outros programas.
d) Um ataque de negação de serviço (DDoS) que sobrecarrega servidores com tráfego malicioso.
e) Um usuário autorizado que aumenta seus privilégios para acessar recursos restritos.
VAMOS PRATICAR
1
1
1
3. Mecanismos de proteção são fundamentais para reduzir os riscos em sistemas de infor-
mação. Eles incluem ferramentas técnicas, como criptografia e firewalls, além de práticas 
organizacionais, como políticas de segurança e estratégias de backup. Cada mecanismo 
atua de forma complementar, criando uma defesa em camadas.
Considerando os mecanismos de proteção em segurança da informação, analise as afir-
mativas a seguir:
 I - A criptografia garante a confidencialidade dos dados, tornando-os ilegíveis para quem 
não possui a chave correta.
 II - A autenticação multifator (MFA) aumenta a segurança ao exigir mais de uma forma de 
verificação da identidade do usuário.
 III - Firewalls podem bloquear tráfego malicioso e controlar acessos entre redes internas e externas.
 IV - O backup é utilizado para prevenir falhas de segurança e detectar invasores em tempo real.
É correto o que se afirma em:
a) I, apenas.
b) II e IV, apenas.
c) III e IV, apenas.
d) I, II e III, apenas.
e) I, II, III e IV.
VAMOS PRATICAR
1
1
1
REFERÊNCIAS
HENNESSY, J. Arquitetura de computadores: uma abordagem quantitativa. Rio de Janeiro: Gen; 
LTC, 2019.
MONTEIRO, M. Organização e arquitetura de computadores. 2. ed. São Paulo: Érica, 2015.
STALLINGS, W. Arquitetura e organização de computadores: projetando com foco em desem-
penho. 11. ed. Porto Alegre: Bookman, 2024.
TORRES, G. Hardware. 2. ed. [S. l.]: Nova Terra, 2022.
1
1
1
1. Alternativa B. 
A alternativa B descreve com precisão a diferença essencial. O tipo 1 (bare-metal) roda direto 
no hardware, ideal para ambientes críticos e datacenters. O tipo 2 (hosted) funciona sobre 
um SO hospedeiro, com mais sobrecarga, mas útil para testes e desenvolvimento.
As demais alternativas estão incorretas:
A. Inverte as características dos hipervisores, confundindo seus papéis. 
C. Ambos não executam diretamente no hardware; apenas o tipo 1 faz isso. 
D. Hipervisores de tipo 2 não são usados em datacenters de alta performance, mas em 
ambientes menores e de teste. 
E. As diferenças são técnicas e estruturais, não apenas comerciais.
2. Alternativa B. 
A engenharia social não depende de falhas técnicas, mas da manipulação psicológica de 
usuários, como em golpes de phishing ou ligações falsas de suporte.
As demais alternativas estão incorretas:
A. Descreve a exploração de vulnerabilidades técnicas, e não manipulação humana. 
C. Trata do malware autorreplicante (worm/vírus). 
D. Corresponde ao ataque de rede do tipo DDoS. 
E. Representa uma ameaça interna, e não engenharia social.
3. AlternativaD. 
A afirmativa I está correta, porque a criptografia é, de fato, usada para proteger dados. A 
afirmativa II está correta, pois a MFA adiciona uma camada extra de segurança. A afirmativa 
III está correta, visto que os firewalls monitoram e controlam tráfego entre redes. Por fim, a 
afirmativa IV está incorreta, dado que o backup não serve para detectar invasores em tempo 
real, mas para a recuperação após incidentes ou falhas.
CONFIRA SUAS RESPOSTAS
1
1
1
	unidade 1
	INTRODUÇÃO À COMPUTAÇÃO
	unidade 2
	REPRESENTAÇÃO DE DADOS 
	Título do tema 
	unidade 3
	ORGANIZAÇÃO DO PROCESSADOR 
	MEMÓRIA 
	unidade 4
	SISTEMAS DE ENTRADA E SAÍDA
	SISTEMAS OPERACIONAIS
	unidade 5
	ARQUITETURAS AVANÇADAS
	TÓPICOS ESPECIAIS 
	Forms - Unicesumatr: 
	Botão 50: 
	Botão 51: 
	Botão 52: 
	Botão 53: 
	Botão 54:mas diz a todas as outras partes o 
que fazer e quando fazer.
 ■ Busca (fetch): a Unidade de Controle pega a próxima instrução da memória.
 ■ Decodifica (decode): interpreta qual ação deve ser executada.
 ■ Executa (execute): ativa a ULA ou outro componente conforme necessário.
A Unidade Lógica e Aritmética é a calculadora do computador. É aqui que 
os cálculos matemáticos e as decisões lógicas entre as condições e as compa-
rações acontecem.
Figura 1 – Memória somente de leitura (ROM)
Descrição da Imagem: é exibido um ícone representativo de memória ROM (Read-Only Memory). O desenho mostra 
um chip eletrônico estilizado, em cor preta, com pinos laterais que lembram os terminais de conexão usados em circui-
tos integrados. No centro do chip, está escrito “ROM” em letras brancas, indicando o tipo de memória. Fim da descrição.
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 1
Toda operação condicional em programação depende da lógica booleana reali-
zada pela ULA. Operações de criptografia, compressão e até gráficos envolvem 
milhares de cálculos por segundo. A Unidade de Saída é onde a informação é 
exibida: ela possui um papel muito importante na arquitetura dos computadores, 
visto que vai muito além da exibição: recebe os dados já processados pela CPU 
e os converte em formas de apresentação, seja em texto na tela, som em caixas 
acústicas ou impressão em papel.
Síntese integrada: a máquina em ação
Vamos entender agora como esses componentes trabalham juntos em um 
exemplo prático: você digita um número na calculadora do computador para 
somar 10 + 20.
É responsável por realizar as operações básicas de aritmética, como adição, 
subtração e multiplicação, sendo que cálculos mais complexos são simulados por 
meio de combinações dessas operações. Ela executa operações lógicas, como 
AND, OR e NOT, bem como comparações do tipo "igual", "maior" ou "menor". Vale 
destacar que a ULA não trabalha sozinha: ela depende da Unidade de Controle, que 
envia as ordens indicando o que deve ser feito e quando.
1. Unidade de Entrada: teclado envia os números e o símbolo de “+”.
2. Memória RAM: armazena temporariamente os dados digitados e as instruções 
da calculadora.
3. Unidade de Controle (UC): identifica que a operação é uma soma e envia sinais 
para a ULA.
4. ULA: realiza o cálculo 10 + 20 = 30.
5. Memória: armazena o resultado temporariamente.
6. Unidade de Saída: exibe o resultado “30” na tela do monitor.
1
1
A integração entre os componentes inicia com o teclado (entrada), 
que envia os dados para o processador, que faz os cálculos, usa a me-
mória para guardar os passos e exibe o resultado na tela (saída). Isso é 
a arquitetura de Von Neumann funcionando em tempo real. Durante 
o funcionamento do computador, todos os componentes se comuni-
cam entre si por meio de barramentos, também chamados de BUS:
 ■ Barramento de dados: transporta os dados entre os com-
ponentes.
 ■ Barramento de endereços: especifica a localização na me-
mória de onde os dados serão lidos ou gravados.
 ■ Barramento de controle: leva sinais que coordenam as ope-
rações (leitura, escrita, clock).
Armazenar dados e instruções no mesmo espaço facilita a implementa-
ção e permite que os programas sejam modificados na memória, abrin-
do caminho para a computação moderna e adaptável a diferentes tipos 
de dispositivos computacionais.
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 1
Figura 1 – Arquitetura de Von Neumann
Descrição da Imagem: é exibido um diagrama de blocos simples que ilustra a arquitetura fundamental de um com-
putador, com componentes interconectados. No topo, encontra-se o bloco "Memória", indicando o local de armaze-
namento de dados e instruções. Abaixo da Memória, há dois blocos principais. À esquerda, a "Unidade de controle" é 
responsável por gerenciar e coordenar todas as operações do sistema. À direita, a "Unidade Aritmética e Lógica" (UAL) 
executa cálculos matemáticos e operações lógicas; dentro dela, um sub-bloco rotulado "Acumulador" é destacado, que 
geralmente armazena resultados intermediários das operações da UAL. Uma seta fina aponta para o Acumulador. Na 
parte inferior do diagrama, há dois blocos: "Entrada" à esquerda e "Saída" à direita, representando os dispositivos pelos 
quais o computador recebe dados e envia informações, respectivamente. As interconexões entre esses blocos não 
são explicitamente desenhadas com linhas, mas a disposição sugere um fluxo de dados e controle entre eles, comum 
em representações básicas da arquitetura de Von Neumann. O diagrama utiliza um esquema de cores simples, com 
blocos cinza sobre um fundo preto, e texto em português para os rótulos. Fim da descrição. 
Gargalo de Von Neumann
BANDA LIMITADA
Como dados e instruções compartilham o mesmo caminho (barramento), há um limite na 
velocidade com que podem ser processados. Isso é chamado de "gargalo de Von Neumann".
1
1
Apesar de sua idade, o modelo de Von Neumann ainda é extremamente rele-
vante, servindo como base conceitual até mesmo em sistemas com arquiteturas 
mais complexas.
 ■ Arquitetura Harvard: separa fisicamente a memória de dados e de ins-
truções, reduzindo o gargalo.
 ■ Computação paralela e multicore: tenta contornar o gargalo usando 
múltiplos processadores e pipelines.
No futuro, temas, como computação quântica, Inteligência Artificial e órgãos biô-
nicos, prometem mudar. Aprender os fundamentos da computação não é apenas 
estudar máquinas e códigos, é entender como o mundo funciona hoje e como 
você pode influenciar o futuro. Seja você um futuro desenvolvedor, cientista de 
dados ou apenas um cidadão digital mais consciente: para isso, compreender 
esses conceitos é o primeiro passo para fazer parte dessa transformação.
CONCORRÊNCIA LIMITADA
A arquitetura clássica não permite a execução paralela de múltiplas instruções ou da-
dos com eficiência.
VULNERÁVEL A SOBRESCRITA DE CÓDIGO
Já que código e dados compartilham memória, um erro pode corromper instruções.
Estudante, para expandir os seus conhecimentos no assunto 
abordado, gostaríamos de indicar a aula que preparamos espe-
cialmente para você. Acreditamos que essa aula irá complemen-
tar e aprofundar ainda mais o seu entendimento do tema.
E M FOCO
UNICESUMAR
1
1
https://vimeo.com/1102497179/ae1f7ee7d1
TEMA DE APRENDIZAGEM 1
NOVOS DESAFIOS
Cada uma das unidades que compõem a arquitetura de um computador (entra-
da, memória, controle, processamento e saída) é essencial e interdependente. 
Assim, compreender profundamente o funcionamento interno desses compo-
nentes vai muito além de um conteúdo teórico: trata-se do alicerce para uma 
atuação consciente, eficiente e inovadora em qualquer campo da Tecnologia da 
Informação. No ambiente profissional, esse conhecimento é constantemente 
aplicado: mesmo quando não se percebe de forma direta, um programador 
escreve um código que será interpretado e executado por meio desses mesmos 
ciclos de controle e processamento.
Ao entender como as instruções são buscadas, decodificadas e executadas 
dentro do sistema, você desenvolve uma visão sistêmica. Isso te prepara para 
atuar com mais segurança, seja programando sistemas embarcados, mantendo 
servidores, desenvolvendo jogos ou projetando soluções de automação. Também 
te permite criar sistemas mais rápidos, seguros e acessíveis, que atendem melhor 
às pessoas e às empresas.
Ao estudar arquitetura de computadores, você não está apenas decorando 
nomes de componentes: está desenvolvendo raciocínio lógico, visão técnica e 
pensamento crítico, qualidades indispensáveis para o ambiente profissional mo-
derno. Mais do que nunca, o profissional de Tecnologia da Informação precisa 
ser adaptável, analítico e colaborativo. E tudo isso começa quando entendemos, 
de fato, um sistema computacional.
1
8
1. A Unidade Lógica e Aritmética (ULA) é uma das principais partes do processador. Ela realiza 
cálculos aritméticos e operações lógicas fundamentais para o funcionamento de progra-
mas. A ULA atua em conjunto com a Unidade de Controle,que envia as instruções a serem 
executadas. A atuação dela é essencial para processar decisões lógicas e comparações 
utilizadas em diversas aplicações tecnológicas.
Com base nas informações apresentadas, avalie as asserções a seguir e a relação proposta 
entre elas:
I - A Unidade Lógica e Aritmética é fundamental para a tomada de decisões em programas 
de computador.
PORQUE
II - É ela quem realiza as comparações lógicas e matemáticas, como “maior que”, “igual a” 
e “menor que”.
A respeito dessas asserções, assinale a alternativa correta:
a) As asserções I e II são verdadeiras, e a II é uma justificativa correta da I.
b) As asserções I e II são verdadeiras, mas a II não é uma justificativa correta da I.
c) A asserção I é uma proposição verdadeira e a II é uma proposição falsa.
d) A asserção I é uma proposição falsa e a II é uma proposição verdadeira.
e) As asserções I e II são falsas.
VAMOS PRATICAR
1
9
2. A Unidade de Controle (UC) é uma parte vital da CPU que coordena as operações do sistema 
computacional. Embora não execute cálculos diretamente, ela garante que as instruções 
sejam interpretadas corretamente e que cada parte do sistema saiba o que precisa fazer. 
O funcionamento dela envolve ciclos de instrução que incluem busca, decodificação e 
execução, assegurando que as tarefas sejam realizadas na ordem correta.
Com base no funcionamento da Unidade de Controle (UC) nos sistemas computacionais, 
analise as afirmativas a seguir:
I - A Unidade de Controle é a responsável por realizar operações matemáticas complexas, 
como multiplicações e divisões.
II - Durante o ciclo de instrução, a etapa de decodificação interpreta qual ação a instrução exige.
III - A Unidade de Controle envia sinais para que outros componentes, como a ULA e a me-
mória, executem suas funções.
IV - A principal função da Unidade de Controle é armazenar grandes quantidades de dados 
temporários para agilizar o processamento.
É correto o que se afirma em:
a) I e IV, apenas.
b) II e III, apenas.
c) III e IV, apenas.
d) I, II e III, apenas.
e) II, III e IV, apenas.
3. O pensamento computacional é uma habilidade que permite resolver problemas de for-
ma lógica e eficiente. Ele se baseia em quatro pilares: decomposição, reconhecimento de 
padrões, abstração e algoritmos. Essa forma de pensar é aplicada não apenas na progra-
mação, mas também no cotidiano, auxiliando na organização de tarefas e na tomada de 
decisões. Profissionais de diversas áreas se beneficiam ao aplicar essa lógica estruturada 
para entender e solucionar desafios do dia a dia.
Com base no texto apresentado, assinale a alternativa que representa uma situação prática 
de uso do pensamento computacional, mesmo fora do contexto de programação.
a) Publicar uma foto em uma rede social após aplicar um filtro.
b) Escolher um filme para assistir com base na capa e no título.
c) Planejar um evento dividindo as tarefas, prevendo imprevistos e criando um cronograma.
d) Escutar música enquanto realiza outras atividades.
e) Compartilhar um link de uma notícia em um grupo de mensagens.
VAMOS PRATICAR
1
1
REFERÊNCIAS
BROOKSHEAR, J. G. Ciência da computação . Porto Alegre: Bookman, 2013.
FORBELLONE, A. L. V.; EBERSPÄCHER, H. F. Lógica de programação: a construção de algorit-
mos e estruturas de dados. 3. ed. São Paulo: Pearson, 2005.
STALLINGS, W. Arquitetura e organização de computadores . 10. ed. São Paulo: Pearson, 2017.
STALLINGS, W. Arquitetura e organização de computadores: projetando com foco em desem-
penho. 11. ed. Porto Alegre: Bookman, 2024.
1
1
1. Alternativa A.
A asserção I está correta, pois as decisões em programas dependem diretamente do resul-
tado de comparações e verificações lógicas. A asserção II também está correta, pois cabe 
à ULA realizar essas comparações, sendo a responsável por processar as decisões do tipo 
"se... então".
2. Alternativa B. 
A afirmativa I está incorreta, porque a UC não realiza cálculos matemáticos; essa é uma 
função da ULA (Unidade Lógica e Aritmética). A afirmativa II está correta, visto que a deco-
dificação é uma das etapas do ciclo de instrução, em que a UC interpreta qual ação precisa 
ser realizada. A afirmativa III está correta, pois a UC emite sinais de controle que ativam os 
demais componentes do sistema, como a ULA e dispositivos de entrada/saída. A afirmativa 
IV está incorreta, dado que a UC não armazena dados; essa é função da memória RAM ou 
dos registradores. A UC apenas coordena ações.
3. Alternativa C.
A alternativa C representa o uso do pensamento computacional, pois envolve decompor o 
problema (dividir tarefas), reconhecer padrões (atividades semelhantes em eventos ante-
riores), abstrair o que não é essencial e criar uma sequência lógica (cronograma) — ou seja, 
aplica os quatro pilares citados no texto. Aplicar filtro e postar foto não exige raciocínio lógico 
estruturado ou decomposição de tarefas — é uma ação direta e estética, sem envolvimento 
com os pilares do pensamento computacional. Escolher um filme pela capa e pelo título 
é uma decisão baseada em preferência visual, e não em análise lógica ou criação de solu-
ções estruturadas. Escutar música enquanto faz outra coisa envolve multitarefa, mas não 
há identificação de padrões, decomposição ou criação de algoritmos — apenas execução 
simultânea de ações. Por fim, compartilhar um link é uma ação simples de disseminação de 
informação e não exige planejamento ou resolução lógica de problemas.
CONFIRA SUAS RESPOSTAS
1
1
MEU ESPAÇO
1
1
UNIDADE 2
MINHAS METAS
REPRESENTAÇÃO DE DADOS 
Compreender os sistemas de numeração utilizados na computação.
Desenvolver a habilidade de conversão entre bases numéricas.
Identificar e aplicar as unidades de medida de dados.
Entender os padrões de codificação de caracteres.
Analisar como as imagens digitais são representadas e armazenadas.
Explorar a representação digital do áudio e seus formatos.
Conhecer a estrutura e a codificação de vídeos digitais.
T E M A D E A P R E N D I Z A G E M 1
1
1
INICIE SUA JORNADA
Vivemos em uma sociedade orientada por dados. Ao assistir a um vídeo, enviar 
mensagens ou salvar uma imagem, há um complexo sistema invisível que con-
verte ações humanas em linguagem compreensível para as máquinas. Contudo, 
como isso acontece? O que está por trás de uma simples imagem ou caractere? 
Compreender esse processo é essencial não apenas para profissionais da tecno-
logia, mas para qualquer pessoa que atue em ambientes digitais.
A representação de dados determina como a informação é manipulada, 
armazenada e transmitida nos sistemas computacionais. Esse conhecimento é 
fundamental para enfrentar os desafios contemporâneos, pois tudo o que visua-
lizamos e compartilhamos no mundo digital só existe porque foi convertido para 
uma estrutura binária que a máquina entende.
Que tal entendermos um pouco mais dos caracteres e a forma 
com que são representados? Acesse este episódio e acompa-
nhe como os caracteres se formam por meio do teclado.
PLAY N O CONHECIMENTO
Entender como textos, imagens, áudios e vídeos são tratados pelo computador 
permite uma aprendizagem significativa. Atividades, como converter números 
decimais em binários, comparar tamanhos de arquivos ou analisar quantos bytes 
são necessários para representar um caractere, criam conexões entre teoria e 
prática, o que te aproxima do universo profissional.
UNICESUMAR
1
1
https://on.soundcloud.com/SCI0ZMHrNstgJzoxXX
TEMA DE APRENDIZAGEM 2
VAMOS RECORDAR?
Vamos relembrar como funciona o código binário, 
de que maneira surgiu e qual é a importância dele na 
história. Acesse o link para viajarmos ao passado.
DESENVOLVA SEU POTENCIAL
SISTEMAS DE NUMERAÇÃO: 
A LINGUAGEM OCULTA DA MÁQUINA
Vamos conversar sobre números?
Imagine por um instante que você está ensinando uma criança a contar. 
Naturalmente, começaria com 1, 2, 3... até chegar ao 9. Quando ela chega ao 
10, percebe que os dígitos se repetem, mas, agora, em uma nova casa. Isso 
acontece, porque usamoso sistema decimal, ou base 10, algo que nos é tão 
natural quanto respirar. 
Hennessy (2019) comenta que os computadores veem o mundo de forma 
diferente: eles não conhecem os números como nós, mas como combinações de 
dois símbolos: 0 e 1. Essa é a base do sistema binário, é a forma com que o com-
putador se comunica internamente. Todavia, o que é um sistema de numeração?
Um sistema de numeração é um conjunto de regras usadas para representar 
os valores numéricos por meio de símbolos. A principal característica que os 
define é a base, que indica quantos símbolos diferentes são usados.
Refletir sobre a representação de dados é refletir sobre o papel da tecnologia 
na vida moderna. Ao entendermos como os dados são estruturados, desenvolve-
mos um olhar técnico e crítico, ampliando a capacidade de solucionar problemas 
e se preparando para inovar em um mundo impulsionado por dados.
1
8
Link:��https://www.youtube.com/watch?v=LAlfCBlp63s
SISTEMA BASE SÍMBOLOS USADOS
Decimal 10 0, 1, 2, 3, 4, 5, 6, 7, 8, 9
Binário 2 0, 1
Octal 8 0, 1, 2, 3, 4, 5, 6, 7
Hexadecimal 16 0–9 e A, B, C, D, E, F
Tabela 1 – Sistemas numéricos / Fonte: o autor.
Por que precisamos de outros sistemas além do decimal? A resposta é simples: 
porque os computadores não funcionam como nós. Eles precisam de sistemas 
otimizados para o funcionamento. Para isso, utilizam os sistemas binário, octal 
e hexadecimal.
PE N SA N DO JUNTOS
UNICESUMAR
1
9
TEMA DE APRENDIZAGEM 2
a seguir:a seguir:
no qual:no qual:
1
1
Conversões entre sistemas
Entender os sistemas é ótimo, mas o verdadeiro poder está em saber converter 
entre eles. Vamos aprender, passo a passo, como fazer isso por intermédio da 
tabela a seguir.
CONVERSÃO PROCEDIMENTO EXEMPLO RESULTADO
Decimal 
para Binário
Divida por 2 suces-
sivamente, anote 
os restos e leia de 
baixo para cima.
25 ÷ 2 → restos: 1,0,0,1,1 11001₂
Binário para 
Decimal
Multiplique cada 
bit por sua potên-
cia de 2 e some os 
valores.
1×2⁴ + 0×2³ + 1×2² + 1×2¹ + 0×2⁰ 22₁₀
Decimal 
para Octal
Divida por 8 suces-
sivamente e leia 
os restos de baixo 
para cima.
65 ÷ 8 → restos: 1, 0, 1 101₈
Decimal 
para Hexa-
decimal
Divida por 16, con-
verta restos maio-
res que 9 em letras 
(A=10, B=11 etc.).
254 ÷ 16 → restos: E (14), F 
(15)
FE₁₆
Binário para 
Octal
Agrupe bits em 3 
da direita para a 
esquerda e con-
verta para octal.
110101 → 000 110 101 → 0 6 5 065₈
Binário para 
Hexadecimal
Agrupe bits em 4 
da direita para a es-
querda e converta 
para hexadecimal.
11010111 → 1101 0111 → D7 D7₁₆
Tabela 1 – Conversão de sistemas / Fonte: o autor.
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 2
Saber converter sistemas de numeração é entender a base do funcionamento das 
máquinas. Tudo começa com 0 e 1.
Código: A Vida Secreta dos Computadores 
Autor: Charles Petzold
Descrição: os computadores estão por toda parte: laptops, 
smartphones, carros, televisões, fornos de micro-ondas, des-
pertadores, aspiradores de pó e outros aparelhos inteligentes. 
A obra explora profundamente a construção bit a bit e porta 
a porta do coração de cada dispositivo inteligente, a unidade 
de processamento central que combina as operações básicas 
mais simples para realizar as proezas mais complexas.
I N DI CAÇÃO DE L IVRO
UNIDADES DE MEDIDA DA INFORMAÇÃO
No mundo digital, todas as interações realizadas com dispositivos eletrônicos, 
como salvar uma imagem no celular, assistir a um vídeo no computador ou ins-
talar um aplicativo, envolvem a manipulação e o armazenamento de dados. Com-
preender como esses dados são medidos é essencial para qualquer profissional 
da área de tecnologia.
1
1
Ainda em relação aos bits, vamos entender, de fato, como o 
computador conversa, isto é, qual é a forma com que ele se 
comunica. Entender esse processo é primordial para os futuros 
profissionais, porque, ao aprender como eles se comunicam, o 
trabalho de um desenvolvedor faz mais sentido e os de outros 
profissionais da tecnologia também. Assista ao vídeo e mergulhe 
pelo mundo dos bits.
E U I N DI CO
A combinação de múltiplos bits permite representar uma maior variedade de 
informações. Com dois bits, por exemplo, é possível representar quatro combi-
nações (00, 01, 10, 11).
Do bit ao byte
Segundo Torres (2022), para facilitar o processamento e a organização dos 
dados, a computação padronizou o agrupamento de 8 bits em uma unidade 
denominada byte. Um byte é capaz de representar 256 combinações diferentes 
(2⁸ = 256), o que é suficiente, por exemplo, para codificar letras, números e 
símbolos segundo o padrão ASCII.
No padrão ASCII, a letra “A” corresponde ao número 65, que, em binário, é 
01000001, exatamente 8 bits ou 1 byte. Dessa forma, cada caractere digitado em 
um texto consome aproximadamente um byte de espaço de armazenamento. A 
tabela a seguir mostra como é representada cada unidade e o respectivo símbolo.
A menor unidade de informação reconhecida por um sistema computacional 
é o bit, abreviação de binary digit (dígito binário). O bit representa dois estados 
distintos: 0 ou 1, correspondentes, por exemplo, a um sinal elétrico desligado ou 
ligado, respectivamente. 
UNICESUMAR
1
1
https://www.youtube.com/watch?v=YgSjnLXM2Ts
TEMA DE APRENDIZAGEM 2
UNIDADE SÍMBOLO TAMANHO (BINÁRIO)
Byte B 8 bits
KB Kilobyte 1.024 bytes
MB Megabyte 1.024 KB
GB Gigabyte 1.024 MB
TB Terabyte 1.024 GB
Tabela 1 – Unidade e símbolo / Fonte: o autor.
Entender as unidades é compreender as informações que visualizamos no dia 
a dia, como na hora de comprar um computador ou um notebook. Agora, você 
compreende os dados e, com isso, entende o que você está adquirindo.
Uma imagem capturada com uma câmera moderna pode ocupar em torno de 3 
MB, o que representa aproximadamente 3 milhões de bytes. Já um vídeo em alta 
definição pode variar de 1 a 4 GB, dependendo do formato e grau de compressão.
Sistemas operacionais normalmente adotam a base binária (1 KB = 1.024 bytes), 
enquanto fabricantes de dispositivos de armazenamento, como HDs e pendrives, 
frequentemente utilizam a base decimal (1 KB = 1.000 bytes) por motivos merca-
dológicos. Como consequência, um disco rígido vendido como tendo 1TB (base 
decimal: 1.000.000.000.000 bytes) é exibido no sistema operacional como apro-
ximadamente 931 GB, já que utiliza a base binária (1 GB = 1.073.741.824 bytes).
Esse tipo de diferença pode causar confusão, principalmente entre usuários 
menos experientes, e reforça a importância de compreender a forma como essas 
unidades são estruturadas. A eficiência no tratamento e na movimentação desses 
dados depende de um conhecimento sólido sobre a representação e a manipula-
ção dessas unidades (Stallings, 2024).
1
1
Velocidade de transferência
Outro aspecto importante é a distinção entre bytes (B) e bits (b), ao se tratar de 
velocidades de transmissão de dados. Enquanto o tamanho dos arquivos costuma 
ser expresso em megabytes (MB) ou gigabytes (GB), a taxa de transferência de 
dados é normalmente medida em megabits por segundo (Mbps) ou gigabits por 
segundo (Gbps). Quantos bits existem em 5 megabytes?
Esse tipo de cálculo é frequente em situações que envolvem compressão de dados, 
transmissão de informações e dimensionamento de sistemas. As unidades de me-
dida afetam diretamente as decisões sobre armazenamento, transmissão de dados, 
otimização de sistemas, especificação de hardware e configuração de redes.
Vamos considerar a base binária, como a usada nos sistemas operacionais:
1 MB = 1.048.576 bytes
5 MB = 5 × 1.048.576 = 5.242.880 bytes
5.242.880 bytes × 8 = 41.943.040 bits
REPRESENTAÇÃO DE CARACTERES
Os computadores operam exclusivamente com números binários e, portanto, 
qualquer caractere de letras, acentos e símbolos precisa ser convertido em valores 
numéricos e, em seguida, em sequências de bits.
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 2
ASCII: a base da codificação moderna
O ASCII (American Standard Code for Information Interchange), criado na 
década de 1960, foi um dos primeiros padrõesde codificação amplamente uti-
lizados. O padrão define 128 caracteres codificados por valores decimais de 0 
a 127, o que permite que cada caractere seja armazenado utilizando apenas 7 
bits. O conjunto inclui letras maiúsculas e minúsculas do alfabeto latino, dígitos 
numéricos, símbolos de pontuação e operadores e caracteres de controle.
CARACTER DECIMAL BINÁRIO
Letra "A" 65 01000001
Letra "a" 97 01100001
Espaço em branco 32 00100000
Tabela 1 – Codificação / Fonte: o autor.
Embora o padrão ASCII tenha sido eficaz para sistemas baseados no alfabeto in-
glês, ele não contempla caracteres acentuados, cedilha ou grafias de outras línguas, 
tornando-se insuficiente em contextos multilíngues. Cada caractere no Unico-
de é representado por um code point, identificado por uma notação no formato 
U+XXXX, em que XXXX é um valor hexadecimal. Veja os exemplos a seguir:
LETRA "A" LETRA "Ç"
U+0041 U+00E7
Tabela 1 – Unicode / Fonte: o autor.
O Unicode é um padrão de mapeamento simbólico e não define por si só como 
os caracteres devem ser armazenados fisicamente. A representação binária e a 
transmissão dos code points são realizadas por esquemas de codificação, como 
UTF-8, UTF-16 ou UTF-32.
1
1
UTF-8: codificação eficiente e compatível
Entre os esquemas de codificação Unicode, o UTF-8 (Unicode Transformation 
Format - 8 bits) tornou-se o mais adotado, especialmente em aplicações web. A 
principal vantagem dele é a compatibilidade direta com o ASCII, o que garante 
interoperabilidade com sistemas legados.
A codificação variável do UTF-8 proporciona maior eficiência para textos em 
inglês, ao mesmo tempo em que garante compatibilidade com qualquer carac-
tere do Unicode. Por isso, o HTML adota o UTF-8 como padrão. Um exemplo 
em código é a utilização da seguinte tag: . A correta 
interpretação da codificação de caracteres é crucial para o funcionamento de 
sistemas computacionais. 
Analise um exemplo em Python, em que é salvo um texto com acentos 
em UTF-8:
with open("mensagem.txt", "w", encoding="utf-8") as f:
f.write("Olá, mundo!")
A representação digital de caracteres é um dos fundamentos da computação 
moderna. O Unicode, especialmente com a codificação UTF-8, possibilitou a 
comunicação globalizada e multicultural por meio de sistemas digitais.
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 2
REPRESENTAÇÃO DE IMAGENS, ÁUDIO E VÍDEO
Você já se perguntou o que acontece quando assiste a um vídeo no celular, ouve 
uma música no fone ou visualiza uma imagem na tela do computador? À primei-
ra vista, parece tudo muito simples: apertamos um botão e, instantaneamente, o 
conteúdo aparece. Entretanto, nos bastidores, há um universo inteiro de proces-
sos digitais acontecendo em milésimos de segundo.
Compreender como essas mídias (imagens, sons e vídeos) são representadas 
e processadas digitalmente é fundamental para qualquer pessoa que deseja atuar 
nas áreas de tecnologia (Brookshear, 2013). O que é uma imagem digital? Imagine 
que você está olhando para uma fotografia digital: aos nossos olhos, vemos uma 
cena contínua e colorida. Contudo, para o computador, essa imagem é apenas 
uma grande tabela composta por milhares ou milhões de pequenos pontos cha-
mados pixels (picture elements).
Cada pixel representa uma pequena parte da imagem e contém informações 
sobre a cor. A qualidade ou nitidez da imagem está diretamente relacionada à 
resolução, que indica quantos pixels existem na horizontal e na vertical. Você 
já se perguntou como as cores são codificadas digitalmente? O segredo está em 
modelos de cores, sendo o mais comum o modelo RGB (Red, Green, Blue). Nesse 
modelo, cada pixel contém três valores: um para o vermelho, outro para o verde 
e outro para o azul. Cada valor varia de 0 a 255, formando uma combinação que 
resulta em uma cor específica.
1
8
 Por exemplo:
 ■ Vermelho: 255.
 ■ Verde: 0.
 ■ Azul: 0.
Esse pixel produzirá a cor vermelha pura. Como há 
256 possibilidades para cada canal, temos, no total, 
256 × 256 × 256 = 16.777.216 combinações possíveis, 
ou seja, mais de 16 milhões de cores. Esse tipo de imagem 
é conhecido como True Color, em que cada canal (R, G, B) é 
armazenado com 8 bits, totalizando 24 bits por pixel.
Principais formatos de imagem
Os dados que compõem uma imagem precisam ser organizados e armazenados 
em formatos específicos. Cada formato possui características próprias de com-
pressão, qualidade e finalidade.
BMP (BITMAP)
Formato antigo, sem compressão. Cada pixel é armazenado individualmente. Gera arqui-
vos muito grandes.
JPEG
Compressão com perda de qualidade (lossy). Ideal para fotografias e imagens com mui-
tos detalhes. Perde fidelidade a cada nova compressão.
PNG
Compressão sem perdas (lossless). Preserva a qualidade original e permite transparência. 
Muito usado em interfaces gráficas.
GIF
Limitado a 256 cores, mas permite animações simples e ícones animados.
UNICESUMAR
1
9
TEMA DE APRENDIZAGEM 2
Imagine uma imagem de 100x100 pixels em JPEG: ela pode ter cerca de 20 KB. 
A mesma imagem em BMP pode ocupar mais de 300 KB. Agora, o som é uma 
onda contínua e uma vibração que se propaga no ar. Para que o computador possa 
processar essa onda, ela precisa ser convertida em dados digitais. Esse processo 
envolve duas etapas fundamentais: amostragem e quantização. Amostragem é 
como se tivéssemos tirado "fotografias" da onda sonora em intervalos regula-
res. Esses pontos capturados são chamados de amostras. Um CD de áudio, por 
exemplo, utiliza 44.100 amostras por segundo, ou seja, uma taxa de 44.100 Hz.
Depois da amostragem, ocorre a etapa de quantização, em que os valores da 
onda sonora são convertidos em números binários. A quantidade de bits usada 
para representar cada amostra determina a profundidade de bits. Um áudio com 
16 bits, por exemplo, pode representar até 65.536 níveis de volume diferentes. 
Vamos conhecer alguns formatos de áudio:
WAV
Formato sem compressão. Qualidade altíssima, mas arquivos muito grandes. Usado em 
estúdios e edições profissionais.
MP3
Compressão com perdas. Remove frequências que o ouvido humano raramente perce-
be. Equilibra bem qualidade e tamanho.
FLAC
Sem perdas, porém compactado. Mantém a qualidade com redução significativa de tamanho.
OGG VORBIS
Formato aberto e mais eficiente que o MP3. Utilizado em alguns jogos e sistemas Linux.
Um arquivo MP3 de 3 minutos pode ter cerca de 3 MB. O mesmo áudio em 
WAV pode ultrapassar 30 MB.
1
1
Um vídeo é uma sequência de imagens (quadros) exibidas rapidamente: o cére-
bro humano interpreta essas imagens como movimento contínuo. A quantidade 
de quadros exibidos por segundo é chamada de frame rate, também conhecida 
como quadros por segundo. Os padrões mais comuns são:
24 FPS 30 FPS 60 FPS
Cinema Televisão Jogos e vídeos
Tabela 1 – Frames por segundo / Fonte: o autor.
Vamos conhecer alguns conceitos de vídeo que ouvimos em nosso cotidiano, 
mas nem sempre temos o real entendimento dos termos.
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 2
Veremos também alguns formatos já conhecidos e outros nem tanto:
 ■ MP4: o formato mais utilizado. Suporta vídeo, áudio e legendas.
 ■ AVI: formato mais antigo, ainda usado em algumas aplicações, porém 
menos eficiente.
 ■ MKV: moderno e aberto. Suporta múltiplas faixas de áudio, legendas e 
metadados.
Um vídeo de 5 minutos em 1080p com o codec H.264 pode variar entre 100 MB e 
500 MB, dependendo do bitrate. O mesmo vídeo em H.265 pode ter metade desse 
tamanho, mas com qualidade semelhante. Vivemos em um mundo multimídia, em 
que tudo, desde aplicativos até jogos, de aulas a redes sociais utiliza imagens, sons e 
vídeos. Entender como esses conteúdos são representados, codificados e comprimi-
dos é um diferencial para quem deseja não apenas consumir tecnologia, mas criá-la.
RESOLUÇÃO
Número de pixels por quadro. Exemplos: 1920x1080 (Full HD), 3840x2160 (4K).
BITRATE
Quantidade de dados transmitidos por segundo. Determina a qualidade e o tamanho do vídeo.
COMPRESSÃO
Essencialpara tornar o vídeo viável. Pode ser com perdas (lossy) ou seja, é reduzido o tamanho, 
sacrificando detalhes visuais, ou sem perdas (lossless), pois são mantidos todos os dados, mas 
são gerados arquivos grandes.
Estudante, para expandir os seus conhecimentos no assunto 
abordado, gostaríamos de indicar a aula que preparamos espe-
cialmente para você. Acreditamos que essa aula irá complemen-
tar e aprofundar ainda mais o seu entendimento do tema.
E M FOCO
1
1
https://vimeo.com/1102497200/d426288577
NOVOS DESAFIOS
A compreensão da representação de dados ultrapassa a teoria e se torna 
uma habilidade essencial para o profissional do século XXI. Em um mer-
cado cada vez mais impulsionado pela informação, saber como dados são 
estruturados, codificados e manipulados é uma competência valorizada 
em diversas áreas da tecnologia.
Desenvolvedores de software precisam entender como otimizar o arma-
zenamento e a leitura de arquivos, enquanto os profissionais de redes lidam 
com a transferência eficiente de dados. Especialistas em segurança digital 
trabalham diretamente com codificações e representações que garantem a 
integridade e a confidencialidade da informação.
No design digital, compreender como uma imagem é construída em 
pixels e cores permite criar conteúdos visuais otimizados e compatíveis com 
diferentes dispositivos e plataformas. Já no campo da Inteligência Artificial 
e ciência de dados, saber como os dados são representados é fundamental 
para tratá-los corretamente e extrair valor deles. Em áreas, como jogos di-
gitais, realidade aumentada e desenvolvimento de aplicativos multimídia, 
o domínio da representação de áudio, vídeo e imagem é indispensável para 
garantir desempenho e qualidade.
Assim, ao dominar esses conceitos, você não está somente aprendendo 
“como o computador vê o mundo”, mas está se preparando para atuar com 
segurança, criatividade e eficiência em um ambiente profissional que exige 
cada vez mais domínio técnico e pensamento crítico. A representação de 
dados é a base sobre a qual se constroem algoritmos, sistemas e experiências 
digitais. Portanto, entender essa base é o que torna um profissional pronto 
para o presente e preparado para o futuro.
UNICESUMAR
1
1
1. Imagine um mundo em que só existem dois estados possíveis: ligado (1) ou desligado (0). 
Esse é o princípio do sistema binário, a linguagem fundamental dos computadores. No 
sistema binário, apenas dois símbolos, 0 e 1, são utilizados para representar qualquer valor. 
Cada posição em um número binário indica uma potência de 2, aumentando da direita para 
a esquerda. Por operarem com estados binários, os computadores conseguem representar 
e processar informações eletronicamente com grande eficiência e confiabilidade.
Por que o sistema binário é adotado como base fundamental para o funcionamento dos 
computadores?
a) Porque o sistema binário é mais próximo da forma como os seres humanos contam 
naturalmente.
b) Porque ele permite representar letras e símbolos com maior facilidade do que outros 
sistemas.
c) Porque é o único sistema numérico que não precisa de potências para representar valores.
d) Porque sua estrutura de dois estados se adapta perfeitamente aos circuitos eletrô-
nicos digitais.
e) Porque ele permite a realização de operações matemáticas apenas com números ím-
pares e pares.
2. Compreender as unidades de medida da informação vai muito além de decorar escalas: 
trata-se de um conhecimento muito importante para quem deseja atuar em qualquer área 
da tecnologia. As unidades de medida afetam diretamente as decisões sobre armaze-
namento, transmissão de dados, otimização de sistemas, especificação de hardware e 
configuração de redes.
Com base na compreensão sobre bits, bytes e medidas de velocidade e armazenamento, 
analise as afirmações a seguir:
I - A velocidade de 100 Mbps indica que o sistema transfere 100 megabytes por segundo.
II - Um arquivo de 8 MB ocupa 64 megabits de espaço, considerando a conversão de byte 
para bit.
III - A conversão de MB para bits é feita multiplicando o valor por 8 e, depois, por 1.048.576.
IV - Quando a taxa de transferência é medida em megabits por segundo, é necessário con-
verter os arquivos para bits antes de calcular o tempo de envio.
VAMOS PRATICAR
1
1
É correto o que se afirma em:
a) I, apenas.
b) II e IV, apenas.
c) III e IV, apenas.
d) I, II e III, apenas.
e) I, II, III e IV.
3. O ASCII (American Standard Code for Information Interchange), criado na década de 1960, 
foi um dos primeiros padrões de codificação amplamente utilizados. O padrão define 128 
caracteres codificados por valores decimais de 0 a 127, o que permite que cada caractere 
seja armazenado utilizando apenas 7 bits.
Com base nas informações apresentadas, avalie as asserções a seguir e a relação proposta 
entre elas:
I - O padrão Unicode se tornou essencial em sistemas computacionais modernos que pre-
cisam manipular textos em múltiplos idiomas.
PORQUE
II - O Unicode permite representar uma ampla variedade de caracteres e símbolos por meio 
de code points, atendendo a diferentes alfabetos e linguagens.
A respeito dessas asserções, assinale a alternativa correta:
a) As asserções I e II são verdadeiras, e a II é uma justificativa correta da I.
b) As asserções I e II são verdadeiras, mas a II não é uma justificativa correta da I.
c) A asserção I é uma proposição verdadeira e a II é uma proposição falsa.
d) A asserção I é uma proposição falsa e a II é uma proposição verdadeira.
e) As asserções I e II são falsas.
VAMOS PRATICAR
1
1
REFERÊNCIAS
BROOKSHEAR, J. G. Ciência da computação. Porto Alegre: Bookman, 2013.
HENNESSY, J. Arquitetura de computadores: uma abordagem quantitativa. Rio de Janeiro: Gen; 
LTC, 2019
STALLINGS, W. Arquitetura e organização de computadores: projetando com foco em desem-
penho. 11. ed. Porto Alegre: Bookman, 2024.
TORRES, G. Hardware. 2. ed. [S. l.]: Nova Terra, 2022.
1
1
1. Alternativa D. 
O sistema binário é utilizado nos computadores, porque sua estrutura de dois estados (0 e 1) 
se ajusta perfeitamente à lógica dos circuitos eletrônicos, que operam em dois níveis de ten-
são: ligado/desligado, alto/baixo, verdadeiro/falso. Isso torna o binário ideal para representar 
dados e instruções internamente nos sistemas digitais de forma simples, estável e confiável.
2. Alternativa B. 
A afirmativa II está correta, porque um arquivo de 8 MB possui 8 × 8 = 64 megabits. Cada 
megabyte contém 8 megabits. Essa é a conversão direta entre unidades de medida. A afir-
mativa IV também está correta, pois, como a taxa de transferência é geralmente medida em 
megabits por segundo (Mbps), é necessário converter o tamanho do arquivo de megabytes 
para megabits (multiplicando por 8) para, então, calcular o tempo de envio corretamente.
3. Alternativa A. 
Com a globalização e a necessidade de lidar com diferentes línguas, o uso de um padrão 
que suporte diversos alfabetos e símbolos é indispensável nos sistemas atuais. Além disso, 
o Unicode foi projetado exatamente para isso: mapear caracteres de todas as línguas conhe-
cidas (e até símbolos técnicos) usando um sistema padronizado de code points.
CONFIRA SUAS RESPOSTAS
1
1
MINHAS METAS
LÓGICA DIGITAL 
Explorar os conceitos fundamentais da Álgebra Booleana.
Interpretar e elaborar tabelas-verdade.
Compreender e interpretar portas lógicas.
Analisar circuitos lógicos combinacionais.
Projetar circuitos lógicos básicos.
Entender o funcionamento dos circuitos sequenciais.
Explorar registradores e contadores.
T E M A D E A P R E N D I Z A G E M 1
1
8
INICIE SUA JORNADA
Você já parou para se perguntar o motivo pelo qual, ao programar um jogo, 
desenvolver um sistema ou configurar um sensor, o computador parece enten-
der exatamente o que fazer? Como algo tão lógico, tão exato, consegue reagir a 
situações que envolvem decisões, condições e até estratégias? A resposta está na 
lógica por trás da inteligência digital, um campo que une eletrônica, matemática 
e programaçãoem uma única linguagem: a lógica booleana.
A lógica usada nas máquinas, aquela que dita se um circuito acende ou se um 
personagem salta, não surgiu ao acaso. Está baseada em princípios matemáticos 
criados há mais de 150 anos e que hoje são a espinha dorsal de tudo o que envol-
ve tecnologia digital. Compreender essa estrutura é como desvendar o idioma 
nativo dos computadores: saber o motivo pelo qual uma porta só abre se duas 
condições forem verdadeiras, ou o motivo pelo qual um sistema falha quando 
uma única variável está fora do padrão.
Ao longo deste estudo, você perceberá que operações, como AND, OR e NOT, 
não são meros símbolos: são regras que determinam ações em um sistema inteli-
gente. Seja ao escrever um código em Portugol Studio, seja ao projetar um sistema 
embarcado com sensores, essas operações surgem naturalmente no processo 
criativo e técnico. Dessa maneira, você poderá simular, testar e montar circuitos, 
traduzindo decisões humanas em comandos computacionais.
Você já parou para pensar no modo como decisões simples, 
como acender uma luz ou destravar uma porta, são feitas por 
circuitos digitais? No episódio de hoje, vamos mergulhar na 
construção de um circuito lógico.
PLAY N O CONHECIMENTO
UNICESUMAR
1
9
https://on.soundcloud.com/mLMiQc6gSphY6xdsL5
TEMA DE APRENDIZAGEM 3
Dominar a lógica digital é mais do que passar por uma etapa da formação téc-
nica: é construir o raciocínio necessário para lidar com desafios reais no mercado 
de tecnologia. É entender como as máquinas pensam, para que, como profissio-
nais, sejamos capazes de projetar sistemas confiáveis, eficientes e inteligentes. Ao 
final deste tema de aprendizagem, você perceberá que não está apenas aprenden-
do lógica, mas adquirindo uma nova forma de pensar e solucionar problemas.
VAMOS RECORDAR?
Neste vídeo, é abordado um tópico muito importante 
para a evolução dos computadores, principalmente 
quando tratamos de lógica e da forma com que ela é 
interpretada pelo computador.
DESENVOLVA SEU POTENCIAL
A LÓGICA POR TRÁS DA INTELIGÊNCIA DIGITAL
Às vezes, escuto perguntas, como: por que precisamos aprender Álgebra Boo-
leana se queremos trabalhar com programação, sistemas ou automação? Trata-
-se de uma excelente pergunta, e a resposta é simples: a Álgebra Booleana é a 
linguagem fundamental da lógica computacional. Toda tomada de decisão feita 
por um computador, sistema embarcado, aplicação web ou circuito digital tem 
raízes booleanas.
Imagine a seguinte situação: ao desenvolver um sistema de controle de acesso, 
um carro autônomo ou um jogo digital, você precisa tomar decisões baseadas 
em condições. É nesse contexto que entram as operações booleanas. Portanto, 
vamos conhecer mais as origens das operações booleanas.
1
1
https://www.youtube.com/watch?v=uQPiyxoCk9E
Criada por George Boole no século XIX, a Álgebra Booleana é um sistema ma-
temático que opera apenas com dois valores possíveis: verdadeiro (1) e falso (0). 
O grande diferencial dela reside na capacidade de modelar lógica com precisão 
matemática, o que a torna ideal para computadores, pois eles operam por meio 
dos números binários 0 e 1. Isso já nos soa familiar, não é mesmo?
Operações lógicas e tabela-verdade
Durante as operações fundamentais, também estudaremos a tabela-verdade, 
momento em que, de fato, comprovamos se a lógica está correta na comparação 
dos operadores. 
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 3
Iniciaremos pelas quatro operações mais comuns, que serão apresentadas 
seguidas pela respectiva definição e exemplo de utilização:
AND (E lógico): o resultado é verdadeiro somente se todas as entradas forem 
verdadeiras. Exemplo: "O portão só abre se o cartão for válido E o botão for 
pressionado". Tabela-verdade:
A B A AND B
0 0 0
0 1 0
1 0 0
1 1 1
Tabela 1 – Tabela-verdade E / Fonte: o autor.
OR (OU lógico): o resultado é verdadeiro se ao menos uma das entradas for 
verdadeira. Exemplo: "O alarme dispara se o sensor de movimento ou o sensor 
de janela forem ativados". Tabela-verdade:
A B A OR B
0 0 0
0 1 1
1 0 1
1 1 1
Tabela 1 – Tabela-verdade OU / Fonte: o autor.
1
1
NOT (NÃO lógico): inverte o valor da entrada: se for 1, torna-se 0. Se for 0, tor-
na-se 1. Exemplo: "Se não houver obstáculo, o robô continua". Tabela-verdade:
A NOT A
0 1
1 0
Tabela 1 – Tabela-verdade NÃO / Fonte: o autor.
XOR (OU Exclusivo): o resultado é verdadeiro se as entradas forem diferentes. 
Exemplo: "A luz de emergência acende se apenas um dos sensores detectar mo-
vimento". Tabela-verdade:
A B A XOR B
0 0 0
0 1 1
1 0 1
1 1 0
Tabela 1 – Tabela-verdade OU Exclusivo / Fonte: o autor.
Agora, podemos pensar em aplicações reais da Álgebra Booleana. Por exemplo, fa-
lamos muito de Internet das Coisas (IoT) hoje e, automaticamente, pensamos em 
automação residencial. Observe: uma lâmpada inteligente só deve acender se detectar 
presença e o ambiente estiver escuro. Como resolvemos esse problema no momento 
em que tivermos de programar? Veja um exemplo: presença AND (~Luz)
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 3
Lembre-se de que o ~(til) antes da luz indica NOT, ou seja, inverte o valor de 
positivo para negativo. Agora, em programação, podemos visualizar, no código a 
seguir, feito em Python, que também são usados os operadores booleanos:
if idade >= 18 and cadastro_valido:
 permitir_acesso()
O operador and representa a lógica AND booleana, mas também podemos en-
tender que ele está querendo dizer E. Em circuitos digitais, temos os proces-
sadores que usam portas XOR para operações de soma de bits. Já os sistemas 
eletrônicos utilizam NOT para inverter sinais e otimizar o controle de energia. 
Imagine um sistema que só libera acesso se duas condições forem verdadeiras:
A digital for reconhecida (A = 1) E A senha estiver correta (B = 1)
Veja a expressão booleana = A · B
A (DIGITAL) B (SENHA) A AND B (ACESSO)
0 0 0
1 0 0
0 1 0
1 1 1
Tabela 1 – Tabela-verdade A · B / Fonte: o autor.
1
1
Assim, é possível afirmar que aprender Álgebra Booleana é mais do que conhe-
cer símbolos e regras: é adquirir a capacidade de pensar como as máquinas, de 
estruturar decisões e projetar soluções eficientes. Diante disso, ao dominarmos 
essa linguagem, podemos:
1. Criar algoritmos mais claros e robustos.
2. Projetar sistemas de automação seguros e funcionais.
3. Compreender o comportamento dos dispositivos eletrônicos.
4. Otimizar lógicas de programação e engenharia de software.
A seguir, é indicado um material muito rico e com muitas informações importantes 
que complementam tudo o que estamos estudando neste tema de aprendizagem.
Podemos utilizar um exemplo no desenvolvimento de jogos digitais: você pode 
programar que um personagem só execute uma ação especial se:
O botão A e o botão B forem pressionados simultaneamente 
⬇
Que ganhe pontos se acertar o inimigo ou coletar uma moeda
Arquitetura de Computadores: Uma Abordagem Quantitativa 
A 6ª edição deste clássico é totalmente revisada com os mais 
recentes desenvolvimentos em arquitetura de processador e 
sistema. Agora, a obra apresenta exemplos de arquitetura do 
conjunto de instruções RISC-V (RISC Five), um moderno con-
junto de instruções RISC desenvolvido e projetado para ser um 
padrão livre e abertamente adotável.
I N DI CAÇÃO DE L IVRO
UNICESUMAR
1
1
TEMA DE APRENDIZAGEM 3
Agora, vamos explorar as portas lógicas e as respectivas funcionalidades.
VOCÊ SABE RESPONDER?
Você já parou para pensar em como um computador “pensa”?
Portas lógicas
Quando pressionamos uma tecla, clicamos em um botão ou enviamos uma men-
sagem, esperamos uma reação. Entretanto, como a máquina entende o que deve 
ser feito? Essa mágica acontece graças aos elementos chamados “portas lógicas”. 
De acordo com Stallings (2024), elas são os blocos fundamentais do processa-
mento digital, responsáveis por interpretar os sinais binários (0 e 1) e tomar 
decisões simples que, quando combinadas, geram sistemas complexos.
1
1
Mas, afinal, o que são essas portas lógicas?

Mais conteúdos dessa disciplina