Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

VARIÁVEIS
COMPLEXAS
Tiago Loyo Silveira
 
Álgebra e geometria dos 
números complexos
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
  Identificar a álgebra dos números complexos.
  Efetuar as operações algébricas dos números complexos.
  Definir a geometria dos números complexos.
Introdução
O advento da unidade imaginária i possibilitou não apenas a representação 
algébrica de um número complexo, mas também a representação de 
raízes negativas de uma forma geométrica. Com isso, mais aplicações 
para os números complexos surgiram. Foi possível, por exemplo, que 
polinômios de raízes não reais fossem representados no plano cartesiano. 
A álgebra moderna também incorporou os números complexos para 
representar vetores.
Neste capítulo, você verá mais sobre as características algébricas e 
geométricas de um número complexo. Avançaremos em nossos estudos 
pelas operações com os números complexos e as suas representações 
geométricas.
Álgebra dos números complexos
Sejam m e n números reais, podemos escrever m e n na forma de pares orde-
nados (m, 0) e (n, 0). Observe que as operações abaixo entre os números reais 
m e n são fechadas, ou seja, conservam o resultado no conjunto dos reais.
Igualdade:
(m, 0) = (n, 0) se, e somente se, m = n
Cap_2_Variaveis_Complexas.indd 1 01/03/2018 16:51:33
Adição:
(m, 0) + (n, 0) + (m + n, 0 + 0) = (m + n, 0)
Multiplicação:
(m, 0).(n, 0) = (m.n – 0.0, m.0 + 0.n) = (m.n, 0)
Nas operações descritas acima, todas as coordenadas y nos pares ordenados 
são iguais a zero. Portanto, os números (m, 0) e (n, 0) podem ser representados 
no eixo das abscissas, que é a reta real, ou seja, os números (m, 0) e (n, 0) 
podem ser escritos simplesmente como m e n, respectivamente.
No entanto, se um par ordenado possui coordenada y ≠ 0, não pode ser 
representado no eixo das abscissas. Portanto, na forma algébrica a + bi, onde 
o coeficiente a representa a parte real, b a parte imaginária e i a unidade 
imaginária, com b ≠ 0, esse número será um complexo.
Operações com números complexos
Potências da unidade imaginária
A defi nição do comportamento das potências de i comtempla as potências 
dos complexos z = a + bi, uma vez que temos uma potência de um binômio, 
no que se segue. Observe:
, já que todo número elevado a zero é igual a 1;
, já que todo número elevado a 1 é igual a si mesmo;
, já que por definição, ;
;
;
;
;
;
.
[...]
Sendo , de um modo geral, temos:
Álgebra e geometria dos números complexos2
Cap_2_Variaveis_Complexas.indd 2 01/03/2018 16:51:34
 
Ou seja, as potências , sendo , são obtidas por meio dos restos da 
divisão por 4, sendo possível apenas os resultados 1, i, -1, -i. Veja o exemplo 
abaixo.
Qual é o resultado de ?
Solução:
Adição e subtração
Sejam os números complexos e . A adição e sub-
tração são feitas entre as partes reais e as partes imaginárias separadamente. 
Dessa forma, temos:
Multiplicação
Sejam os números complexos e . O produto entre 
números complexos atende a defi nição de produto entre pares ordenados. 
Dessa forma, temos:
Outra maneira de realizar o produto é utilizando a propriedade distributiva 
e as propriedades de potência da unidade imaginária. Assim, temos:
3Álgebra e geometria dos números complexos
Cap_2_Variaveis_Complexas.indd 3 01/03/2018 16:51:34
Acompanhe o exemplo abaixo.
(4 – i).(3 + i) = (4.3 – (– 1).1) + (4.1 + (–1).3)i = (12 + 1) + (4 – 3)i = 13 + i
Divisão
Para defi nir a divisão dos complexos, antes precisamos defi nir o conjugado de 
um número complexo. Seja um número complexo. Dizemos que 
a − bi é o conjugado de . Representamos com . Os conjugados possuem 
as propriedades a seguir.
O conjugado da soma é igual à soma dos conjugados:
O conjugado do produto é igual ao produto dos conjugados:
O produto de um número complexo pelo seu conjugado é um número real 
não negativo.
, 
que é um número real positivo.
O produto de um número complexo pelo seu conjugado é denominado 
norma de um número complexo. Portanto, dizemos que um número complexo 
z = a + bi foi normalizado, se ele foi escrito na forma:
.
Sejam dois números complexos e , sendo . Obter o quociente 
da divisão de por significa encontrar um número complexo , tal que 
. Dessa forma, escrevendo na sua forma algébrica, temos:
Veja o exemplo abaixo.
Álgebra e geometria dos números complexos4
Cap_2_Variaveis_Complexas.indd 4 01/03/2018 16:51:34
Da igualdade de complexos, temos que:
Portanto, e .
Uma outra maneira de realizar a divisão de complexos e , sem precisar 
do uso de sistemas, é multiplicar e pelo conjugado de . Considere 
o exemplo abaixo.
Geometria dos números complexos
Dois eixos ordenados, centrados e perpendiculares na origem (0,0) defi nem o 
plano cartesiano. De forma semelhante, defi niremos um plano para representar 
os números complexos. Para todos os fi ns, é similar ao plano cartesiano, mas 
o eixo x será chamado de eixo real (Re) e vai representar a coordenada real 
de um número complexo, e o eixo y será chamado de eixo imaginário (Im), 
representando a coordenada imaginária de um número complexo.
O plano de representação dos números complexos é chamado de plano de 
Argand-Gauss. Dessa forma, cada número complexo z = a + bi representa um 
ponto P nesse plano. O plano de Argand-Gauss, ou plano complexo, também é 
muito utilizado para representar vetores bidimensionais. O ponto P é chamado 
de afixo do número complexo z.
5Álgebra e geometria dos números complexos
Cap_2_Variaveis_Complexas.indd 5 01/03/2018 16:51:35
Figura 1. Plano de Argand-Gauss.
Módulo de um número complexo
A distância de um ponto P até a origem do plano é denominada módulo de um 
número complexo. Representamos por ou pela letra grega (rô).
Sendo , o módulo de um número complexo é dado por:
Figura 2. Módulo de um número complexo.
Álgebra e geometria dos números complexos6
Cap_2_Variaveis_Complexas.indd 6 01/03/2018 16:51:35
O módulo do número complexo z = 5 +12i será:
Figura 3. Módulo de um número complexo.
Argumento de um número complexo
Sendo o módulo de um número complexo a distância entre a origem e um 
ponto P, então, se as coordenadas de P variam de forma que seja constante, 
então teríamos uma circunferência centrada na origem. Dessa forma, um 
número complexo pode ser representado ou parametrizado de acordo com 
o ângulo formado entre e o eixo real. Essa abertura recebe o nome de 
argumento de um número complexo, indicada por arg (z), com medida no 
intervalo . O argumento terá sentido anti-horário com o seu 
sentido positivo.
7Álgebra e geometria dos números complexos
Cap_2_Variaveis_Complexas.indd 7 01/03/2018 16:51:36
Figura 4. Argumento de um número complexo.
Portanto, as coordenadas de um número complexo podem ser dadas em 
função do arco .
Qual é o argumento do número complexo z = −1 + i?
Solução:
Temos que 
Dessa forma, o arco com e é o arco de 135º ou .
Álgebra e geometria dos números complexos8
Cap_2_Variaveis_Complexas.indd 8 01/03/2018 16:51:36
Forma trigonométrica de um número complexo
Como consequência do que vimos até aqui, os números complexos podem ser 
apresentados, além da sua forma algébrica, em uma forma trigonométrica. 
Das razões trigonométricas abaixo, temos que:
Aplicando as relações obtidas vindas do plano de Argand-Gauss na forma 
algébrica z = a + bi, obtemos:
, com 
A forma trigonométrica, também chamada de polar, possui aplicações 
diversas, além de facilitar os cálculos de potências de números complexos.
Figura 5. Representação de uma circunferência de 
raio |z|.
9Álgebra e geometria dos números complexos
Cap_2_Variaveis_Complexas.indd 9 01/03/2018 16:51:37
Potenciação de um número complexo
Apesar de ser uma operação com número complexo, deixamos para descrevê-
-la somente agora, pois a forma trigonométrica nos facilitará sobremaneira 
nesse processo.
Para elevar um número complexo z ≠ 0 a um expoente , escrevemos 
z na sua forma trigonométrica.Elevamos o módulo ao expoente n, e os 
argumentos serão multiplicados por n. Dessa forma, temos:
Essa fórmula é denominada 1ª Lei de De Moivre, em homenagem ao 
matemático francês Abraham de Moivre. Se z = 0, então, qualquer que seja 
n, teremos .
Moivre formulou ainda, fórmulas para o produto, quociente e para raízes, todas utili-
zando sua forma polar (MAPLI, 2018; FÓRMULA, 2017):
https://goo.gl/BB4aXi
https://goo.gl/zpq7ui
Veja mais sobre o plano complexo e as suas peculiaridades (PLANO, 2016):
https://goo.gl/nFThNv
Assista a uma aula sobre produto de números complexos (O MATEMÁTICO, 2014):
https://goo.gl/pMoN5g
Álgebra e geometria dos números complexos10
Cap_2_Variaveis_Complexas.indd 10 01/03/2018 16:51:37
https://goo.gl/BB4aXi
https://goo.gl/zpq7ui
https://goo.gl/nFThNv
https://goo.gl/pMoN5g
1. Para que (6 – 3i).(k + 6i) seja um 
número real, o valor de k deverá ser:
a) k = 0.
b) k= -12.
c) k= 12.
d) k = 18.
e) k = -18.
2. Sendo i a unidade imaginária 
do conjunto dos números 
complexos, o valor da expressão 
 é:
a) 1024i.
b) 0.
c) -512i.
d) 512i.
e) -1024i.
3. Observe o plano de Argand-Gauss 
representado abaixo, onde A é afixo 
do número complexo z = a + bi. 
Qual é a diferença entre z e ?
a) .
b) .
c) .
d) .
e) .
4. Sendo , unidade 
imaginária do conjunto dos 
números complexos, qual o valor 
da expressão ?
a) 2i.
b) i.
c) –2i.
d) –i.
e) 0.
5. Qual o argumento do número 
complexo ?
a) .
b) .
c) .
d) .
e) .
11Álgebra e geometria dos números complexos
Cap_2_Variaveis_Complexas.indd 11 01/03/2018 16:51:39
FÓRMULA DE DE MOIVRE. Wikipédia, Flórida, 2017. Disponível em: <https://pt.wikipedia.
org/wiki/F%C3%B3rmula_de_De_Moivre>. Acesso em: 21 fev. 2018. 
MAPLI. Fórmulas de De Moivre. Matika, Jundiaí, 2018. Disponível em: <http://www.
matika.com.br/numeros-complexos/formulas-de-de-moivre>. Acesso em: 21 fev. 2018.
O MATEMÁTICO. Grings - Aula 5 - Produto de Números Complexos. YouTube, 2014. 
Disponível em: <https://www.youtube.com/watch?v=ilNv7lVXpAY>. Acesso em: 21 
fev. 2018.
PLANO COMPLEXO. Wikipédia, Flórida, 2016. Disponível em: <https://pt.wikipedia.
org/wiki/Plano_complexo>. Acesso em: 21 fev. 2018.
Leituras recomendadas
BARRETO FILHO, B.; SILVA, C. X. Matemática aula por aula: volume único. São Paulo: 
FTD, 2005.
IEZZI, G. et al. Matemática: volume único. 6. ed. São Paulo: Atual, 2015. 
RIGONATTO, M. Plano de Argand-Gauss. Brasil Escola, Goiânia, 2018. Disponível em: 
<http://brasilescola.uol.com.br/matematica/plano-argand-gauss.htm>. Acesso em: 
21 fev. 2018.
Álgebra e geometria dos números complexos12
Cap_2_Variaveis_Complexas.indd 12 01/03/2018 16:51:39
https://pt.wikipedia/
http://matika.com.br/numeros-complexos/formulas-de-de-moivre
https://www.youtube.com/watch?v=ilNv7lVXpAY
https://pt.wikipedia/
http://brasilescola.uol.com.br/matematica/plano-argand-gauss.htm
Encerra aqui o trecho do livro disponibilizado para 
esta Unidade de Aprendizagem. Na Biblioteca Virtual 
da Instituição, você encontra a obra na íntegra.
Conteúdo:
ÁLGEBRA LINEAR
André Ricardo Rocha da Silva
Introdução ao estudo 
das matrizes
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
 � Definir matriz e seus elementos, classificação e relacioná-la com tabelas 
utilizadas no dia a dia.
 � Realizar as operações de adição, subtração, produto por escalar, trans-
posição e multiplicação de matrizes.
 � Resolver problemas aplicados envolvendo operações com matrizes.
Introdução
As matrizes são ferramentas matemáticas muito úteis para organizar e 
processar informações. Por isso, elas estão frequentemente presentes 
em várias áreas da ciência. 
Neste capítulo, você aprenderá a construir e classificar uma matriz, 
bem como manipulá-la algebricamente por meio das operações de 
soma, subtração e multiplicação (entre um escalar e uma matriz e entre 
matrizes). A partir disso, você aplicará esse conhecimento na resolução 
de problemas cotidianos por meio de matrizes. 
Definição e classificação de matrizes
Para que você desenvolva uma intuição inicial sobre matrizes, considere o 
seguinte exemplo hipotético: você e uma amiga são agentes autônomos e atuam 
em um escritório ofertando produtos financeiros a clientes que queiram investir 
na formação de poupança. Os produtos financeiros são: fundos de renda fixa 
(RF), fundos multimercado (M) e planos de previdência (P). Para o mês de 
janeiro, você e sua amiga elaboraram um quadro com o quantitativo (Quadro 1) 
que cada um ofertou desses produtos. 
RF M P
Você 14 10 12
Amiga 20 8 16
Quadro 1. Quantidade de cada produto financeiro ofertado
Os números apresentados nesse quadro podem ser representados como:
 O arranjo acima corresponde a uma matriz, e cada número desse arranjo 
é denominado de elemento da matriz. Cada linha representa o quanto de cada 
produto financeiro você e sua amiga ofertaram — por exemplo, na segunda 
linha, é visto que sua amiga ofertou 20 fundos de renda fixa, 8 fundos multi-
mercado e 16 planos de previdência. Já cada coluna representa o quanto você 
e sua amiga ofertaram de cada tipo de produto financeiro — por exemplo, a 
primeira coluna mostra que você ofertou 14 fundos de renda fixa, e sua amiga 
ofertou 20 fundos desse mesmo tipo.
Dessa forma, uma matriz é simplesmente um agrupamento retangular de 
números dispostos regularmente em linhas e colunas. 
O tamanho de uma matriz é definido pelo número de linhas e colunas que 
ela contém. Assim, uma matriz é dita ser do tipo m × n (leia-se m por n) quando 
ela tem m linhas e n colunas. No exemplo anterior, a matriz que representa o 
quantitativo de produtos financeiros ofertados por você e sua amiga no mês de 
janeiro é do tipo 2 × 3 (m = 2 e n = 3). Consequentemente, pode-se desenvolver 
uma classificação de diferentes tipos de matrizes baseada no tamanho delas. 
Introdução ao estudo das matrizes2
Matriz retangular
É aquela na qual o número de linhas e colunas é diferente, isto é, m ≠ n. 
A matriz a seguir é retangular, pois é do tipo 2 × 3:
Outro exemplo desse tipo de matriz seria o seguinte, que é uma matriz 
do tipo 3 × 2:
Matriz quadrada
É aquela que contém o mesmo número de linhas e colunas, isto é, m = n. Esse 
é o caso de uma matriz do tipo 2 × 2:
Matriz coluna
É um caso particular de matriz retangular, composta por uma única coluna. 
Por isso, é do tipo m × 1. O exemplo a seguir mostra uma matriz coluna do 
tipo 3 × 1.
Uma matriz coluna pode representar as componentes de um vetor e, por isso, também 
é conhecida por vetor coluna.
3Introdução ao estudo das matrizes
Matriz linha
É outro caso particular de matriz retangular, pois é composta por uma única 
linha e, por isso, do tipo 1 × n. O exemplo a seguir mostra uma matriz linha 
do tipo 1 × 2.
[3 5]
Uma matriz linha também pode representar as componentes de um vetor e, por isso, 
é conhecida por vetor linha.
Outra classificação importante de matrizes envolve os elementos da matriz. 
Considere a matriz A dada por:
O elemento que aparece na intersecção da primeira linha, i = 1, com a 
segunda coluna, j = 2, é o número 0. Assim, ele pode ser representado de 
forma mais geral como a12 = 0. Dessa maneira, cada elemento da matriz é 
representado por uma “coordenada de localização” na matriz dada por aij, 
em que o índice i indica a linha, e o índice j indica a coluna em que se pode 
localizar um determinado elemento da matriz. 
Neste exemplo, os elementos da matriz são identificados como: a11 = 1, 
a12 = 0, a21 = 6 e a22 = 4. Ou seja:
Para a matriz do tipo 2 × 3 dada por:
Introdução ao estudo das matrizes4
os elementos da matriz são identificados como: a11 = –1, a12 = 4, a13 = 0, 
a21 = 1, a22 = –2 e a23 = 3.
Matriz diagonal
Os elementos da diagonal principal de uma matriz são aqueles em que i = j, 
ou seja, a11, a22, a33, etc.
Uma matriz quadrada em que os elementos fora da diagonal principal são 
todos nulos, isto é aij = 0 para i ≠ j, é dita ser diagonal. No exemplo a seguir, 
a matriz B é diagonal,pois os elementos b21 e b12 são nulos.
Matriz triangular
Há dois tipos de matriz triangular: a superior, em que os elementos abaixo da 
diagonal principal são nulos, ou seja,
e a inferior, em que os elementos acima da diagonal principal são nulos, 
ou seja,
Matriz escalar
É uma matriz diagonal em que todos os elementos são iguais.
5Introdução ao estudo das matrizes
Matriz identidade
É um caso particular da matriz escalar, pois todos seus elementos da diagonal 
principal são iguais à unidade, isto é, ajj = 1 para i = j. Uma notação convencional 
para a matriz identidade é rotulá-la por I. A matriz identidade do tipo 3 × 3 é:
e a matriz identidade do tipo 2 × 2 é:
Matriz transposta
Dada uma matriz A:
do tipo 2 × 3, a matriz transposta de A, denotada por AT, é obtida pela 
transposição entre a primeira linha e a primeira coluna, e entre a segunda 
linha e a segunda coluna, resultando em uma matriz do tipo 3 × 2:
A matriz transposta de A = 1 0
6 4
 é AT = 1 6
0 4
.
A matriz transposta de 
 2 –2 1
 3 0 7
–3 4 5
B = é 
 2 3 –3
–2 0 4
 1 7 5
BT = .
Introdução ao estudo das matrizes6
Matriz simétrica
Uma matriz quadrada é simétrica quando AT = A, o que implica na seguinte 
relação entre os elementos da matriz fora da diagonal principal: aij = aji. Por 
exemplo, a matriz a seguir é simétrica, uma vez que a12 = a21 = 3.
Em contrapartida, uma matriz quadrada é antissimétrica se AT = –A. Por 
exemplo, é antissimétrica, pois:
Matriz nula
É aquela matriz em que todos os elementos são nulos, isto é, aij = 0 para 
qualquer valor de i e j.
Operações com matrizes
Depois de conhecidos os diferentes tipos de matrizes, você aprenderá como 
efetuar algumas operações importantes com matrizes, tais como: adição, 
subtração, multiplicação por um escalar e, finalmente, multiplicação entre 
matrizes. 
Igualdade 
Duas matrizes são iguais quando elas têm o mesmo tamanho, e seus elementos 
são todos iguais. Se as matrizes quadradas A e B do tipo 2 × 2 são iguais, 
então aij = bij.
7Introdução ao estudo das matrizes
Se a matriz quadrada B do tipo 2 × 2, dada por B =
b11 b12
b21 b22
, for igual à matriz 
A = 1 0
6 4
, então é verdadeiro que:
=
b11 b12
b21 b22
1 0
6 4
implicando que b11 = 1, b12 = 0, b21 = 6 e b22 = 4. 
Se a matriz A = 1 2
0 1
 for igual à matriz C = x y
0 1
, então:
=1 2
0 1
x y
0 1
implicando que x = 1 e y = 2.
Adição 
A operação de adição entre duas matrizes A e B de mesmo tamanho é realizada 
por meio da soma direta dos elementos de cada matriz, que estão localizados 
em uma mesma linha e uma mesma coluna, ou seja, aij + bij. 
Dadas duas matrizes quadradas do tipo 2 × 2, A = 1 2
3 4
 e B = 2 5
3 3
, então o resultado 
da soma dessas duas matrizes, A + B, é:
A + B = + =1 2
3 4
2 5
3 3
3 7
6 7
Observe que:
 � a11 + b11 = 1 + 2 = 3
 � a12 + b12 = 2 + 5 = 7
 � a21 + b21 = 3 + 3 = 6
 � a22 + b22 = 4 + 3 = 7
Introdução ao estudo das matrizes8
A operação de adição tem duas propriedades importantes, descritas a seguir.
Propriedade comutativa
Dadas duas matrizes A e B, o resultado das somas A + B e B + A é igual.
A + B = B + A
Propriedade associativa
Dadas três matrizes A, B e C, o resultado da soma (A + B) com C é igual ao 
da soma de A com B + C.
(A + B) + C = A + (B + C)
Subtração 
A operação de subtração entre duas matrizes A e B de mesmo tamanho é 
realizada por meio da subtração direta dos elementos de cada matriz, que 
estão localizados em uma mesma linha e uma mesma coluna, ou seja, aij – bij. 
Dadas duas matrizes quadradas do tipo 2 × 2, A = 4 8
3 5
 e B = 2 5
3 3
, então o resultado 
da subtração de A por B, A – B é:
A – B = – =4 8
3 5
2 5
3 3
2 3
0 2
Observe que:
 � a11 – b11 = 4 – 2 = 2
 � a12 – b12 = 8 – 5 = 3
 � a21 – b21 = 3 – 3 = 0
 � a22 – b22 = 5 – 3 = 2
9Introdução ao estudo das matrizes
A matriz resultante de operações de adição ou subtração terá sempre o mesmo 
tamanho das matrizes que foram usadas nessas operações. 
Multiplicação de uma matriz por um escalar
Um escalar é simplesmente um número puro (que também pode ser visto como 
uma matriz 1 × 1). Então, a multiplicação de uma matriz A por um escalar c 
qualquer implica que cada elemento da matriz será multiplicado pelo escalar, 
c isto é, caij. Por exemplo, se c = 2, então:
Observe que, nesse processo de multiplicação, a matriz resultante tem o 
mesmo tamanho da matriz original A.
A operação de multiplicação de uma matriz por um escalar apresenta 
algumas propriedades, que são descritas a seguir.
 � Dadas duas matrizes A e B e um escalar c, o resultado da multiplicação 
do escalar pela soma das matrizes, c(A + B), é igual à soma das matrizes 
já multiplicadas individualmente pelo escalar, cA + cB.
c(A + B) = cA + cB
 � Dada uma matriz A e dois escalares c e d, o resultado da soma dos 
escalares multiplicado pela matriz, (c + d)A, é igual à soma da matriz 
multiplicada individualmente por cada um dos escalares, cA + dA.
(c + d)A = cA + dA
 � Dada uma matriz A e dois escalares c e d, o resultado da multiplicação 
de um escalar pela matriz já multiplicada pelo outro escalar, c(dA), é 
igual ao produto dos escalares multiplicado pela matriz, (cd)A.
c(dA) = (cd)A
Introdução ao estudo das matrizes10
Multiplicação entre matrizes
A multiplicação entre matrizes exigirá de você um pouco mais de atenção. 
A única condição necessária para que se possa multiplicar duas matrizes, A e B, 
é que o número de colunas da matriz A seja igual ao número de linhas da 
matriz B. Assim, se a matriz A é do tipo m × n, e a matriz B é do tipo p × q, 
então o produto AB entre as matrizes somente ocorre se n = p. Além disso, 
o resultado final dessa multiplicação entre as matrizes A e B será uma nova 
matriz do tipo m × q, ou seja, com o mesmo número de linhas da matriz A, mas 
com o mesmo número de colunas da matriz B. Em particular, para o caso de 
duas matrizes quadradas de mesmo tamanho, a matriz resultante do produto 
entre elas será do mesmo tamanho que elas. 
A existência dessa relação entre o número de colunas de uma matriz com 
o número de linhas da outra decorre da necessidade de se envolver um mesmo 
número de elementos para multiplicação entre as matrizes. 
Considere o seguinte exemplo: uma matriz A do tipo 2 × 3, dada por:
e uma matriz B do tipo 3 × 1, dada por:
Como o número de colunas de A, que é 3, é igual ao número de linhas 
de B, que também é 3, essa multiplicação é possível. Observe também que a 
multiplicação de uma matriz do tipo 2 × 3 (A) por uma matriz do tipo 3 × 1 (B) 
resulta em uma matriz do tipo 2 × 1 (AB).
Operacionalmente, a multiplicação ocorre da seguinte maneira: multiplica-
-se a primeira linha da matriz A pela coluna da matriz B, elemento por elemento 
na ordem que estão dispostos — primeiro elemento da primeira linha de A, 
1, com o primeiro elemento da coluna de B, 2, segundo elemento da primeira 
linha de A, 1, com o segundo elemento da coluna de B, 3, e assim por diante — 
somando-se os produtos individuais desses elementos, 1 ∙ 2 + 1 ∙ 3 + 2 ∙ 1 = 7, 
cujo resultado será o primeiro elemento da matriz coluna resultante do pro-
duto entre A e B. Repete-se o mesmo procedimento para a segunda linha da 
matriz A, multiplicando-a com a primeira coluna da matriz B, cujo resultado, 
2 ∙ 2 + 3 ∙ 3 + 3 ∙ 1 = 13, corresponderá ao segundo elemento da matriz coluna 
resultante do produto entre A e B. Veja:
11Introdução ao estudo das matrizes
Agora, considere uma nova matriz A do tipo 1 × 2, dada por:
[1 3]
e uma nova matriz B do tipo 2 × 2, dada por:
Nesse caso, o resultado da multiplicação da matriz A pela matriz B será uma 
matriz do tipo 1 × 2. Agora, para você calcular o produto AB, deve multiplicar 
a linha da matriz A pela primeira coluna da matriz B, 1 ∙ 2 + 3 ∙ 2 = 8, cujo 
resultado fornece o primeiro elemento da matriz linha resultante do produto 
entre A e B. O segundo elemento dessa matriz é obtido pela multiplicação da 
linha da matriz A com a segunda coluna da matriz B, 1 ∙ 3 + 3 ∙ 1 = 6. Veja:
O último tipode multiplicação de matrizes relevante é a multiplicação entre 
duas matrizes quadradas. Considere duas matrizes do tipo 2 × 2, dadas por:
A matriz resultante do produto AB também será uma matriz quadrada do 
tipo 2 × 2 e é operacionalmente obtida como:
Logo:
Introdução ao estudo das matrizes12
1. A multiplicação de uma matriz quadrada A pela matriz identidade I de mesmo 
tamanho é igual à própria matriz A. Se A = 3 2
–1 5
, então o produto AI fica sendo:
AI = = 3 2
–1 5
 3 2
–1 5
1 0
0 1
2. Considere duas matrizes quadradas do tipo 3 × 3, A = e B = .
 2 1 3
 1 0 1
 4 2 3
–1 3 0
 0 5 1
–2 2 2Então, o resultado produto entre elas, AB, é:
AB =
2 · (–1) + 1 · 0 + 3 · (–2) 2 · 3 + 1 · 5 + 3 · 2 2 · 0 + 1 · 1 + 3 · 2
1 · (–1) + 0 · 0 + 1 · (–2) 1 · 3 + 0 · 5 + 1 · 2 1 · 0 + 0 · 1 + 1 · 2
4 · (–1) + 2 · 0 + 3 · (–2) 4 · 3 + 2 · 5 + 3 · 2 4 · 0 + 2 · 1 + 3 · 2
AB =
 –8 17 7
 –3 5 2
–10 28 8
3. Se uma matriz A = 3 2
–1 5
 multiplica uma matriz B = 2 0
1 0
 que contém uma coluna 
(ou uma linha) inteira com elementos nulos, então o resultado será igual a uma matriz 
que também contém uma coluna (ou uma linha) inteira com elementos nulos:
AB = = 3 2
–1 5
8 0
3 0
2 0
1 0
A operação de multiplicação entre matrizes apresenta algumas proprieda-
des importantes. Considere três matrizes A, B e C, cujos tamanhos permitem 
realizar as operações de soma e multiplicação para cada situação de interesse.
Propriedade associativa
O resultado da multiplicação da matriz A pelo produto das matrizes B e C é 
igual ao produto das matrizes A e B multiplicado pela matriz C:
A(BC) = (AB)C
13Introdução ao estudo das matrizes
Propriedade distributiva
À direita: o resultado da multiplicação da soma das matrizes A e B pela matriz C 
é igual à soma dos produtos das matrizes A com C e B com C:
(A + B)C = AC + BC
À esquerda: o resultado da multiplicação da matriz A pela soma das matrizes 
B e C é igual à soma dos produtos das matrizes A com B e A com C:
A(B + C) = AB + AC
Contudo, vale a pena observar que, em geral, o produto entre duas matrizes 
não é comutativo, isto é, AB ≠ BA (note que o produto entre dois escalares é 
sempre comutativo, ou seja, 2 ∙ 3 = 3 ∙ 2 = 6). 
Para que você entenda isso, considere duas matrizes quadradas do tipo 2 × 2:
 e 
O produto AB é dado por:
O produto BA é dado por:
Logo, quando você compara elemento por elemento em cada uma das 
matrizes resultantes de AB e BA (por exemplo, (AB)11 = a11 ∙ b11 + a12 ∙ b21 ≠ 
a11 ∙ b11 + a21 ∙ b12 = (BA)11), você percebe que eles são todos diferentes. 
No entanto, a partir desse tratamento geral para o produto de duas matri-
zes, é possível extrair algumas condições particulares que possibilitam gerar 
AB = BA. Uma primeira condição surge quando uma das matrizes é a matriz 
identidade. Por exemplo, se B = I, então o produto entre A e I será comutativo:
Introdução ao estudo das matrizes14
(Faça b11 = b22 = 1 e b12 = b21 = 0 nos resultados acima de AB e BA.)
A segunda condição particular é aquela em que as duas matrizes são 
diagonais, ou seja, . Nesse caso, o produto entre 
as duas matrizes é comutativo, pois:
(Faça a12 = a21 = 0 e b12 = b21 = 0 nos resultados acima de AB e BA.)
Equação matricial
Uma equação matricial é uma relação de igualdade entre duas ou mais matrizes, 
assim como ocorre com os escalares — por exemplo, 2x – 4 = 0.
Algumas equações matriciais típicas são: A + B = C; A – 2B = 3C; 
AX = B; A² = X; e assim por diante.
1. Dadas as matrizes A = 3 2
–1 5
, B =
x y
z t e C =
0 –1
1 2
, é possível encontrar os 
valores dos elementos da matriz B que satisfaçam a equação matricial 2A + B = C. Veja:
=+
0 –1
1 2
x y
z t
2A + B = C � 2 3 2
–1 5
=+
0 –1
1 2
x y
z t
 6 4
–2 10
=
0 –1
1 2
 6 + x
–2 + z
 4 + y
10 + t
Agora, como os elementos da matriz do lado esquerdo devem ser iguais aos da 
matriz do lado direito, você tem simplesmente quatro equações escalares para as 
variáveis x, y, z e t: 6 + x = 0, então x = –6; 4 + y = –1, então y = –5; –2 + z = 1, então z = 3; 
e 10 + t = 2, então t = –8.
15Introdução ao estudo das matrizes
2. Dadas as matrizes A =
a11 a12
a21 a22
, X =
x
y e B =
b1
b2
, a equação matricial AX = B 
resulta em um sistema de duas equações lineares para as variáveis x e y. Veja:
AX = B →
a11 a12
a21 a22
x
y =
b1
b2
a11x + a12y
a21x + a22y
=
b1
b2
Ou seja:
a11x + a12y
a21x + a22y
=
b1
b2{
Um exemplo típico desse tipo de sistema é o seguinte:
3x – y = 2
x + 4y = 1{
onde, nesse caso, você pode identificar a matriz A como sendo 3 –1
1 4
, e a matriz 
B como sendo 2
1
.
Aplicações com matrizes
Reconsidere o exemplo discutido no início deste capítulo, em que você e 
sua amiga são agentes autônomos. A matriz que representa o quantitativo 
de produtos financeiros ofertados por você e sua amiga no mês de janeiro é:
Para o mês de fevereiro, o quantitativo de produtos financeiros ofertados 
por você e sua amiga é:
Introdução ao estudo das matrizes16
Portanto, a quantidade de diferentes produtos financeiros que vocês ofer-
taram nesses dois meses é:
Logo, você ofertou 24 fundos de renda fixa e fundos multimercado, en-
quanto sua amiga ofertou 30 fundos de renda fixa e 22 fundos multimercados. 
Agora, considere que vocês recebem uma comissão para cada produto 
financeiro ofertado. Para fundos de renda fixa, a comissão é de R$ 100,00 por 
produto ofertado. Já para os fundos multimercados e os planos de previdência, 
as comissões são, respectivamente, de R$ 120,00 e R$ 150,00 por produto 
ofertado. Para saber o valor total que cada um de vocês receberá de comissão 
ao final desses dois meses, basta primeiro criar uma matriz do tipo 3 × 1, em 
que cada elemento será o valor da comissão para cada produto. Assim:
Depois, você pode multiplicar o resultado da soma das matrizes A e B, ou 
seja, A + B, com a matriz C:
Portanto, nesses dois meses, você receberá um total de R$ 9.330,00 de 
comissão, e sua amiga receberá um total R$ 9.840,00.
17Introdução ao estudo das matrizes
Como exemplo adicional de multiplicação de matrizes, considere uma matriz A do 
tipo 2 × 2 dada por:
A =
a11 a12
a21 a22
e a matriz identidade I, também do tipo 2 × 2:
1 0
0 1
I =
Então, o resultado do produto AI será:
AI =
a11 a12
a21 a22
a11 a12
a21 a22
1 0
0 1
=
Ou seja, AI = A. Esse resultado é válido para qualquer tipo de matriz quadrada A, 
do tipo m × m, desde que a matriz identidade também tenha o mesmo tamanho. 
Verifique também que IA = A. 
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006.
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre: Bookman, 2003.
CRISPINO, M. L. 320 questões resolvidas de álgebra linear. Rio de Janeiro: Ciência Mo-
derna, 2012.
Introdução ao estudo das matrizes18
ÁLGEBRA LINEAR
André Ricardo Rocha da Silva
Inversão de matrizes
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
 � Calcular a inversa de uma matriz utilizando operações elementares 
com suas linhas.
 � Utilizar o produto de matrizes para escrever um sistema de equações 
lineares em forma de uma única equação matricial.
 � Resolver um sistema linear com o uso da matriz inversa.
Introdução
Os sistemas de equações lineares são conjuntos de equações lineares que 
envolvem várias incógnitas simultaneamente e que podem ser represen-
tados por uma equação matricial. Essa representação matricial permite 
obterá obtenção da solução de um sistema linear de equações por meio 
do cálculo da matriz inversa dos coeficientes do sistema.
Neste capítulo, você aprenderá a calcular a matriz inversa e a escrever 
um sistema de equações lineares como uma equação matricial e, a partir 
daí, a resolver esse sistema de equações lineares usando o método da 
matriz inversa.
Inversa de uma matriz
Uma operação simples na álgebra de escalares é a divisão de um número 
por ele mesmo, cujo resultado é igual à unidade. Assim, se N é um númeroqualquer e , então:
Por exemplo, para N = 3:
Aqui, o número N–1 representa o inverso do número N, de modo que qualquer 
número multiplicado por seu inverso será igual à unidade. 
Esse conceito também pode ser estendido para as matrizes com a devida 
adaptação. Com efeito, se A for uma matriz quadrada, e B for outra matriz 
quadrada de mesmo tamanho, então, a verificação de uma relação do tipo:
AB = BA = I
onde I é a matriz identidade, implica necessariamente que B é a matriz 
inversa de A. Desse modo, você pode fazer a seguinte identificação: B = A–1.
Logo:
AA–1 = A–1A = I
No entanto, vale a pena fazer a seguinte ressalva: diferentemente dos 
escalares, não existe a relação para matrizes, ou seja, não é possível 
dividir algo (um escalar ou mesmo uma matriz) por uma matriz.
 Para exemplificar como o conceito de matriz inversa pode ser visto, con-
sidere a matriz A dada por:
cuja matriz inversa é a B:
pois:
Inversão de matrizes2
Para o caso de uma matriz quadrada do tipo 2 × 2, é possível desenvolver 
uma solução geral para se determinar sua inversa. Sejam a, b, c e d os ele-
mentos de uma matriz A:
e sejam x, y, z e t os elementos da matriz inversa de A:
que são, em princípio, desconhecidos. A fim de se determinar os elementos 
dessa matriz inversa, a partir do conhecimento dos elementos de A, é necessário 
que a seguinte relação seja verificada: 
A relação anterior conduz a um conjunto de quatro equações a quatro 
variáveis, x, y, z e t, pois os elementos a, b, c e d são supostamente conhecidos 
a partir de uma dada matriz A. Logo:
ax + cy = 1
bx + dy = 0
az + ct = 0
bz + dt = 1
A partir das duas primeiras equações, determina-se x e y (por exemplo, 
basta isolar a variável x na primeira equação, e substituir na segunda, 
, obtendo-se a variável y, que, depois, pode ser substituída 
na primeira equação, a fim de se obter x). Desse modo:
A partir das duas últimas equações, determinam-se z e t (por exemplo, 
basta isolar a variável z na terceira equação, z = (–ct)/a, e substituir na quarta, 
(–bct/a) + dt = 1, obtendo-se a variável t, que, depois, pode ser substituída na 
terceira equação, a fim de se obter z). Desse modo:
3Inversão de matrizes
Como o fator é comum a todos os elementos da matriz inversa, 
você pode fatorá-lo na montagem da matriz inversa, de maneira que:
No exemplo inicial proposto, os elementos da matriz A eram a = 3, b = 
5, c = 1 e d = 2, e, portanto, pelo resultado anterior, a matriz inversa ficaria:
que é exatamente a matriz B, inicialmente considerada como sendo a 
matriz inversa de A. 
Uma consequência direta desse resultado para uma matriz do tipo 2 × 2 é 
que a matriz inversa existe somente se o denominador (ad – bc) for diferente 
de 0. Observe que a quantidade (ad – bc) nada mais é que o determinante da 
matriz A. Caso contrário, se (ad – bc) = 0, a matriz inversa não existe, pois 
todos os elementos da matriz inversa estariam divididos por 0. Nesse sentido, 
diz-se que a matriz é invertível. 
Se uma matriz A admite a existência de uma matriz inversa A–1, então, A–1 é única, não 
havendo outra matriz inversa para A. 
Existem algumas propriedades envolvendo as matrizes inversas que valem 
a pena ser conhecidas.
Propriedade 1
Se uma matriz A contém uma inversa A–1, então, a inversa da matriz inversa 
é a própria matriz A:
(A–1)–1 = A 
Inversão de matrizes4
No exemplo apresentado, você viu que:
Então, calculando a inversa dessa matriz A–1:
que é exatamente a matriz A.
Propriedade 2
Considere duas matrizes A e B, ambas invertíveis, então, a inversa do produto 
entre elas, AB, será igual ao produto das inversas de B e A, B–1A–1:
(AB)–1 = B–1A–1
Por exemplo, para as matrizes:
as respectivas matrizes inversas são:
Já o produto entre as matrizes A e B é:
Então, a matriz inversa desse produto é:
5Inversão de matrizes
Mas o produto da matriz inversa de B, B–1, com a matriz inversa de A, A–1, 
também resulta em:
Logo, nesse exemplo, verifica-se a validade da expressão (AB)–1 = B–1A–1.
Propriedade 3
Se A é uma matriz quadrada, então, o produto de n vezes ela mesma, , 
será igual a An. Além disso, se a matriz inversa de A existe, então, a matriz An 
também contém uma inversa, que é dada por:
(An)–1 = (A–1)n 
Por exemplo, para n = 2 e a matriz:
cuja inversa é:
você tem que o quadrado de A é:
e a inversa dessa matriz é dada por:
No entanto, o quadrado da matriz A–1 é:
que é exatamente igual a (A2)–1. Logo, verifica-se explicitamente que 
(A2)–1 = (A–1)2.
Inversão de matrizes6
Matriz ortogonal
Uma matriz A é dita ortogonal se sua matriz transposta é igual à sua matriz 
inversa: 
AT = A–1 
Assim como A–1A = AA–1 = I, para uma matriz ortogonal, vale também:
ATA = AAT = I
Um bom exemplo de matriz ortogonal surge na física, envolvendo a rotação 
de corpos rígidos ou sistemas de referência no plano. Nesse caso, a matriz de 
rotação é dada por:
A matriz transposta de R (obtida trocando a primeira linha pela primeira 
coluna, e a segunda linha pela segunda coluna) é:
Então, efetuando o produto entre R e RT, você tem:
em que se empregou a identidade trigonométrica sen2θ + cos2θ = 1. 
Similarmente:
Embora o resultado obtido para encontrar a matriz inversa de uma matriz 
do tipo 2 × 2:
7Inversão de matrizes
seja muito útil e relativamente fácil de ser construído, desenvolver o mesmo 
procedimento que conduziu a esse resultado para obter a matriz inversa de 
matrizes de tamanhos maiores pode ser algo extremamente trabalhoso. 
Outro método que você pode utilizar para encontrar a matriz inversa de 
matrizes de qualquer tamanho envolve apenas operações elementares sobre 
linhas. 
A ideia básica é perfilar, lado a lado, uma matriz A que se quer determinar a 
inversa, e a matriz identidade I, ambas de mesmo tamanho, da seguinte maneira:
[A|I]
Se você multiplicar essa relação por A–1 pela esquerda, você tem:
Observe atentamente que essa operação fez com que, no lado esquerdo, 
aparecesse a matriz identidade, mas, principalmente, do lado direito, surge 
a matriz inversa de A.
Portanto, se você executar operações elementares entre linhas, tal como 
multiplicar uma linha por uma constante ou somar uma linha com outra linha, 
de modo a transformar a matriz A do lado esquerdo em uma matriz identidade, 
então, a matriz resultante que aparece no lado direito após esse processo é 
essencialmente a matriz inversa de A:
[I|A–1]
Como um primeiro exemplo sobre esse método, considere novamente a 
matriz A dada no exemplo inicial deste capítulo:
Fazendo o perfilamento entre A e I, você tem:
Agora, você deve efetuar algumas operações elementares sobre essa "matriz 
2 × 4", a fim de transformar o bloco 2 × 2 do lado esquerdo em uma matriz 
identidade. 
Inversão de matrizes8
Para isso, multiplique toda a segunda linha por –3:
–3 ∙ [1 2|0 1] = [–3 –6|0 –3]
E a nova segunda linha fica:
Então, some os elementos da primeira linha com os da segunda, um a um, 
mantendo a mesma ordem:
[3 5|1 0] + [–3 –6|0 –3] = [0 –1|1 –3]
Esses resultados vão compor a nova segunda linha:
Multiplique a segunda linha por –1:
–1 ∙ [0 –1|1 –3] = [0 1|–1 3]
E a nova segunda linha fica:
Note que a segunda linha do lado esquerdo já tem a aparência da segunda 
linha de uma matriz identidade. Agora, multiplique a segunda linha por –5 e, 
depois, some com a primeira linha:
–5 ∙ [0 1|–1 3] + [3 5|1 0] = [3 0|6 –15]
E a nova primeira linha fica:
Por fim, divida toda a primeira linha por:
9Inversão de matrizes
E a nova primeira linha fica:
Observe que, do lado esquerdo, apareceu a matriz identidade. Portanto, 
do lado direito dessa relação, você tem exatamente a matriz inversa de A:
Esse resultado para a matriz inversa de certamente já era esperado, pois ele 
já foi obtido de outra maneira no início desta seção. No entanto, exatamente 
por já ser um resultado conhecido, você pode desenvolver a aplicação desse 
método de obtenção da matriz inversa com mais segurança. 
A partir deste ponto, você já tem condições de empregar o método de 
inversãode matrizes para matrizes maiores que uma do tipo 2 × 2. Essa é a 
grande vantagem desse método.
Então, para um segundo exemplo de uso do método, considere a seguinte 
matriz quadrada do tipo 3 × 3:
Para você encontrar C–1, é necessário perfilar a matriz C com a matriz 
identidade de mesmo tamanho:
Multiplique a primeira linha por –1 e some com a última linha:
–1 ∙ [1 2 3|1 0 0] + [1 0 8|0 0 1] = [0 –2 5|–1 0 1]
E a nova terceira linha fica:
Inversão de matrizes10
Agora, multiplique a primeira linha por –2 e some com a segunda linha:
–2 ∙ [1 2 3|1 0 0] + [2 5 3|0 1 0] = [0 1 –3|–2 1 0]
E a nova segunda linha fica:
Multiplique a segunda linha por 2 e some com a terceira linha:
2 ∙ [0 1 –3|–2 1 0] + [0 –2 5|–1 0 1] = [0 0 –1|–5 2 1]
E a nova terceira linha fica:
Multiplique a última linha por –1:
–1 ∙ [0 0 –1|–5 2 1] = [0 0 1|5 –2 –1]
E a nova terceira linha fica:
Aqui, você já conseguiu obter a última linha de uma matriz identidade do 
tipo 3 × 3 do lado esquerdo. Agora, o próximo passo é transformar a segunda 
linha do lado esquerdo na segunda linha de uma matriz identidade. Então, 
multiplique a terceira linha por 3 e some com a segunda linha:
3 ∙ [0 0 1|5 –2 –1] + [0 1 –3|–2 1 0] = [0 1 0|13 –5 –3]
11Inversão de matrizes
E a nova segunda linha fica:
que, no lado esquerdo, já corresponde à segunda linha da matriz identidade 
do tipo 3 × 3. Agora, resta transformar apenas a primeira linha. Para isso, 
multiplique a última linha por –3 e some com a primeira linha:
–3 ∙ [0 0 1|5 –2 –1] + [1 2 3|1 0 0] = [1 2 0|–14 6 3]
E a nova primeira linha fica:
Por fim, multiplique a segunda linha por –2 e some com a primeira linha:
–2 ∙ [0 1 0|13 –5 –3] + [1 2 0|–14 6 3] = [1 0 0|–40 16 9]
E a nova primeira linha fica:
Observe que, finalmente, a matriz que aparece do lado esquerdo é a matriz 
identidade do tipo 3 × 3. Portanto, a matriz inversa de C é dada por:
Em princípio, você pode obter a matriz inversa, desde que ela exista de 
uma dada matriz quadrada de qualquer tamanho, por meio desse método.
Inversão de matrizes12
Sistemas lineares com uma equação matricial
Todo sistema de equações lineares contém naturalmente uma estrutura matri-
cial. Para que você perceba isso, considere um sistema do tipo 2 × 2 qualquer:
A estrutura do lado esquerdo dessas duas equações lineares é tipicamente 
igual àquela que envolveria o produto entre duas matrizes: uma matriz qua-
drada do tipo 2 × 2 para os coeficientes aij, em que i, j = 1, 2; e outra matriz 
coluna do tipo 2 × 1 para as variáveis xj, em que j = 1, 2. Dessa forma, você 
pode escrever:
Similarmente, as constantes bi, em que i = 1, 2, que aparecem do lado direito 
das equações lineares anteriores, também podem ser postas em um formato 
matricial — mais especificamente, como uma matriz coluna do tipo 2 × 1:
Com efeito, o sistema de equações lineares pode ser substituído por uma 
representação em forma de equação matricial do tipo:
AX = B
em que a matriz A:
é denominada de matriz dos coeficientes, a matriz X:
é a matriz das variáveis, e a matriz B:
é a matriz das constantes. 
13Inversão de matrizes
Uma vez estabelecida a relação entre sistemas de equações lineares e ma-
triciais, você pode encontrar a solução de tais sistemas por meio das matrizes. 
Veja como isso é possível: se a matriz dos coeficientes A é quadrada e admite 
a existência de uma inversa, A–1, então, você pode determinar a matriz das 
variáveis por multiplicar a equação matricial do sistema por A–1 pela esquerda: 
em que I é a matriz identidade.
Portanto, a solução do sistema será dada pela matriz das variáveis X , 
calculada por meio da relação:
X = A–1B
Assim, torna-se necessário saber calcular a matriz inversa associada à 
matriz dos coeficientes, a fim de se obter a solução do sistema.
Um sistema de equações lineares contém uma única solução quando a matriz dos 
coeficientes do sistema for invertível. 
Sistemas lineares com matriz inversa
Para que você coloque em prática os resultados da seção anterior e, portanto, 
consiga resolver um sistema de equações lineares por meio da matriz inversa 
dos coeficientes, considere o seguinte sistema do tipo 2 × 2:
Nesse caso, é fácil reconhecer a matriz dos coeficientes:
Inversão de matrizes14
enquanto que a matriz das variáveis é:
e a matriz das constantes é:
A fim de se determinar X por meio da equação matricial X = A–1B, é 
necessário calcular a matriz inversa de A. Então, perfilando a matriz A e a 
matriz identidade do tipo 2 × 2, você obtém: 
Primeiro, multiplique a primeira linha por 3 e some com a segunda linha:
3 ∙ [–1 1|1 0] + [3 2|0 1] = [0 5|3 1]
E a nova segunda linha fica:
Divida a segunda linha por 5:
E a nova segunda linha fica:
Agora, multiplique a segunda linha por –1 e some com a primeira linha:
–1 ∙ [0 1|3/5 1/5] + [–1 1|1 0] = [–1 0|2/5 –1/5]
E a nova primeira linha fica:
15Inversão de matrizes
Multiplique a primeira linha por –1:
–1 ∙ [–1 0|2/5 –1/5] = [1 0|–2/5 1/5]
E a nova primeira linha fica:
Observe que você já tem, do lado esquerdo, uma matriz identidade do tipo 
2 × 2. Logo, a matriz inversa de A é dada por:
Por fim, para você determinar a matriz X, basta calcular o produto matricial 
A–1B:
Logo, a solução desse sistema é dada por:
em que x = –1 e y = 5.
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006. 
612 p.
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre: Bookman, 
2012. 786 p.
Leitura recomendada
CRISPINO, M. L. 320 questões resolvidas de álgebra linear. Rio de Janeiro: Ciência Moderna, 
2012. 352 p.
Inversão de matrizes16
ÁLGEBRA LINEAR
Silvano Antonio Alves Pereira Junior
Geometria vetorial e 
transformações lineares
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
 � Definir transformações matriciais.
 � Identificar a transformações lineares como casos particulares de trans-
formações matriciais.
 � Relacionar as transformações lineares com inversão de matrizes.
Introdução
Neste capítulo, exploraremos um pouco mais o assunto sobre matrizes. 
Você verá algumas aplicações práticas de matrizes, como no estudo da 
geometria das transformações lineares. Nesta etapa, estaremos seguindo 
uma linha semelhante à apresentada em Nicholson (2006). Seguiremos 
estabelecendo as relações entre transformações lineares e matrizes. 
Finalmente, você será apresentado à conexão entre transformações 
lineares e inversão de matrizes.
Transformações matriciais
Para caminhar na direção do primeiro objetivo, trabalharemos com o plano (R2) 
euclidiano. E para tal fim, não realizaremos distinção entre um ponto e o vetor 
associado ao transporte da origem até esse ponto, conforme Figura 1, a seguir.
Figura 1. O ponto do plano e o vetor associado a ele.
6
4
2
–6 –4 –2 0 2 4 6
v
(x,y)
Como pode ser visto na figura, não há distinção entre o ponto P(x,y) e o 
vetor a ele associado . Nesse contexto, uma transformação matricial 
pode ser definida como o resultado do produto de uma matriz 2x2 pelos vetores 
do plano. Isto é, uma transformação matricial relaciona um vetor do plano à 
sua imagem pelo produto com uma determinada matriz. Dessa forma, serão 
válidas todas as propriedades do produto de matrizes.
Para entender como matrizes se relacionam com transformações geomé-
tricas do plano euclidiano, apresentaremos alguns exemplos.
Considere a matriz R =
1 0
0 –1 . Seja v
→ =
x
y um vetor qualquer do plano euclidiano, 
qual é a imagem do vetor v→ pela transformação R? Tem-se:
Rv→ = = =
1 0
0 –1
x
y
1 × x + 0 × y
0 × x – 1 × y
x
–y
Em palavras, a transformação R reflete o vetor v→ =
x
y em torno do eixo coordenado 
x, conforme Figura 2.
Geometria vetorial e transformações lineares2
v
u
–2
–2–1
–1
1 2 30
2
1
(x,y)
(x,–y)
Figura 2. Reflexão de vetor em torno do eixo x.
Uma observação interessante sobre essa transformação é que ela é sua própria 
inversa. Isto é, ao aplicarmos a reflexão R duas vezes seguidas, voltamos ao vetor 
original. Tem-se:
RR = 1 0
0 –1
1 0
0 1
1 0
0 –1
=
Esse é um primeiro exemplo de como algumas matrizes se relacionam 
com transformações geométricas. Ali, uma transformação geométrica foi 
induzida por uma matriz.
No próximo exemplo, partiremos de uma transformação geométrica e 
veremos a matriz que induz a mesma transformação.
Considere a transformação geométrica que rotaciona vetores em torno da origem 
(Figura 3) e que leva, por exemplo, o vetor v
→ = 1
0 no vetor u
→ = –1
0
. Essa transformação 
pode ser induzida pela seguinte matriz:
3Geometria vetorial e transformações lineares
–7 –6 –5 –4 –3 –2 –1 1 2 3 4
4
3
2
1
–1
–2
–3
–4
5 6 7
(–x,–y)
(x,y)
v
u
α = C30º
0
Figura 3. Transformação geométrica rotacionando vetores 180º em torno da origem o x.
De maneira geral, algumas transformações geométricas no plano R2 podem 
ser induzidas, ou representadas, por transformações matriciais. Se T é uma 
transformação geométrica do plano, então, caso exista uma matriz A que 
induza tal transformação, ela deve satisfazer:
para todo v→ no plano R2.
A igualdade acima deve ser válida para v→ no plano R2. Perceba, por exemplo, que a 
rotação de 180º apresentada no exemplo anterior é igual à transformação de reflexão 
em torno do eixo y para os vetores v→ = 1
0
 e u→ = –1
0
, mas não para os demais do 
plano. Com efeito, a matriz que induz a transformação de reflexão em torno do eixo 
y apresenta a seguinte forma:
Ref = –1 0
 0 1
Geometria vetorial e transformações lineares4
Ainda sobre matrizes de rotação no plano, é importante destacar que elas 
apresentam uma forma geral. Dada uma transformação geométrica no plano 
de rotação em torno da origem por um ângulo de θº, a matriz que induz essa 
transformação é dada por: 
Vamos determinar a matriz que induz a rotação de 45º em torno da origem no plano 
euclidiano. Pela forma geral apresentada anteriormente, tem-se: 
Rθ =
cos 45º –sen 45º
sen 45º cos 45º
Lembrando-se de que cos 45º = sin 45º =
√2
2 , obtemos:
√2
2
√2
2
√2
2
√2
2
–
Rθ =
A seguir, você verá um importante resultado apresentado em Nicholson 
(2006), que nos permite determinar as matrizes que induzem reflexões e 
projeções para uma reta que passa pela origem do plano R2.
Teorema: considere a reta y = mx que passa pela origem e tem inclinação m. 
Então, a projeção Pm sobre a reta e a reflexão Qm em torno da reta são ambas 
as transformações matriciais no plano euclidiano. Mais precisamente:
Você poderá encontrar a demonstração desse teorema em Nicholson (2006). 
Veja, a seguir, um exemplo de como podemos utilizar esse resultado.
5Geometria vetorial e transformações lineares
Considere a reta de equação y = 2x. Vamos determinar a reflexão do vetor v→ = 1
–3
 em 
torno dessa reta. Primeiramente, utilizaremos o teorema anteriormente apresentado 
para encontra a matriz Q que induz tal transformação. Como o coeficiente angular 
da reta é m = 2, temos:
Q = ×1
1 + 22
1 – 22 2 × 2
2 × 2 22–1
Q = ×1
5
–3 4
 4 3
Q =
–3
5
4
5
4
5
3
5
Agora, vamos calcular o resultado da ação da matriz Q sobre o vetor v→ = 1
–3
. Obtemos:
Q = = =
–3
5
4
5
4
5
3
5
–3
5
4
5
4
5
3
5
1
–3
–3
–1
× 1 +
× 1 +
× (–3)
× (–3)
Veja, na Figura 4, a representação dessa transformação.
4
2
–2
0–2 2 4 6
–4
–4–6
y = 2x
E
Qv
v
A
D
Figura 4. Reflexão do vetor v
→ = 1
–3 em torno da reta y = 2x.
Cabe destacar que nem toda matriz de ordem 2x2 representa uma transformação 
geométrica do plano.
Geometria vetorial e transformações lineares6
Transformações lineares
Na seção anterior, você aprendeu sobre algumas transformações geométricas 
do plano euclidiano e como elas podem ser representadas por matrizes que 
induzem tais transformações — que eram casos particulares de um conceito 
mais abrangente que ocupa um papel central no estudo da álgebra linear: as 
transformações lineares.
Inicialmente, vamos apresentar a definição de transformação linear, que 
pode ser encontrada em Nicholson (2006) e Anton e Busby (2006).
Definição: seja T: R2 → R2 uma aplicação que a cada vetor v→ do plano associa 
um vetor T v→ também em R2 Diremos que T é uma transformação linear se 
ela satisfizer as seguintes condições.
1. para todo α ∈ R e todo v→ ∈ R2.
2. para todo v→, u→ ∈ R2.
Observe o caso das transformações matriciais estudadas na seção anterior. 
Se T: R2 → R2 for uma transformação matricial, existe uma matriz A, tal que:
para todo v→ no plano R2. Então, podemos verificar que T é, de fato, uma 
transformação linear. Com efeito, dados α ∈ R e v→, u→ ∈ R2, temos:
Segue das propriedades do produto de matrizes que:
Temos, ainda, que:
Novamente, segue das propriedades do produto de matrizes que:
7Geometria vetorial e transformações lineares
Portanto, toda transformação matricial no plano euclidiano é também uma 
transformação linear.
De fato, a relação entre transformações lineares e matrizes é ainda mais 
forte. Temos o seguinte resultado.
Fato: toda transformação linear em R2 tem um representação matricial. 
Veja, a seguir, como encontrar a representação matricial de uma transfor-
mação linear em R2.
Considere a seguinte transformação em R2, T(x,y) = (2x, –y). Primeiramente, vamos 
verificar se T é, de fato, uma transformação linear. Dados α ∈ R e v→, u→ ∈ R2, com v→ = xy 
e u→ =
r
s , tem-se:
T(αv→) = T(αx, αy) = 2(αx, –αy) = α(2x, –y)
Temos, ainda:
T(v→ + u→) = T(x + r, y + s) = (2(x + r), –(y + s)) = (2x + 2r, –y –s) = (2x, –y) + (2r, –s)
Portanto:
T(v→ + u→) = T(v→) + T(u→)
Assim, concluímos que T é uma transformação linear. Agora, vamos determinar a 
forma matricial dessa transformação. Para tal tarefa, precisaremos utilizar o fato de que 
a forma matricial de uma transformação linear T em R2 é dada por:
MT = [T(e1)|E(e2)]
Isto é, MT é uma matriz cujas colunas é a imagem dos vetores canônicos de R
2, e1 =
1
0
 
e e2 =
0
1
, pela transformação T. Neste exemplo, temos:
T(e1) = (2 × 1, –0) = (2, 0) e T(e2) = (2 × 0, –1) = (0, –1)
Dessa maneira:
MT =
2 0
0 –1
Geometria vetorial e transformações lineares8
Existem algumas transformações lineares que merecem destaque. A trans-
formação identidade, por exemplo, é aquela que associa a cada vetor v→ em R2 
a ele mesmo. Isto é:
I2×2(v
→) = v→ para todo v→ ∈ R2
Outra transformação linear que apresenta um papel distinto é a transforma-
ção nula, isto é, aquela que associa todos os vetores do plano ao vetor nulo 0
→
.
Verifiquemos que I2×2 é, de fato, linear. Dados α ∈ R e v
→, u→ ∈ R2 com 
 e , tem-se:
Temos, ainda:
I2×2(v
→ + u→) = I2×2(x + r, y + s) = ((x + r) + (y + s)) = (x + r, y + s) = I2×2(x,y) + I2×2(r,s)
Portanto:
Concluindo que I2×2 é, de fato, uma transformação linear. Conta semelhante 
pode ser realizada para a transformação nula. 
Veja mais um exemplo que relaciona transformações lineares com suas 
representações matriciais.
Seja T uma transformação linear, tal que T(2, 1) = (4, 1) e que T(1, 1) = (2, 1). Qual é a 
forma matricial da transformação T? 
Observe que, neste caso, não temos em mãos a expressão da transformação linear 
para que possamos calcular T(e1) e T(e2). Entretanto, podemos proceder da seguinte 
maneira:
v→ = e2
1
u→ = 1
1
9Geometria vetorial e transformações lineares
Segue das propriedades aritméticas das matrizes e dos vetores que podemos escrever:
e1 = v
→ – u→ e e2 = 2u
→ – v→
Usando a linearidade de T, obtemos:
T(e1) = T(v
→ – u→) = T(v→) – T(u→) = (4,1) – (2,1) = (2,0)
De forma análoga:
T(e2) = T(2u
→ – v→) = T(2u→) – T(v→) = 2T(u→) – T(v→) = 2(2,1) – (4,1) = (4,2) – (4,1) = (0,1)
Finalmente, utilizamos o fato apresentado no exemplo anterior para concluirmos que:
MT =
2 0
0 1
Ainda sobre a forma matricial de transformações lineares, existe uma 
relaçãode muita importância entre a composição de transformações lineares 
e suas formas matriciais. 
Sejam T e S duas transformações lineares no plano euclidiano com suas 
respectivas formas matriciais dadas por MT e MS. A composição TºS das 
transformações lineares tem, como representação matricial, a matriz dada por 
MTMS. Lembramos aqui que TºS, a composição das transformações, é dada por:
Isto é, primeiramente, aplicamos S e, em seguida, T ao resultado S(v→). 
Veja um exemplo de como podemos utilizar essa informação.
Geometria vetorial e transformações lineares10
Considere as seguintes transformações lineares. T é a transformação de reflexão em 
trono do eixo y, e S é a transformação que realiza uma rotação de 30º em torno da 
origem. Qual é a representação matricial da composição TºS?
O plano é utilizar o resultado apresentado anteriormente, que relaciona composição 
e representação matricial de transformações lineares. Portanto, começamos determi-
nando a representação matricial de cada uma das operações.
Para a transformação T, vimos, na seção anterior, que a representação matricial para 
a reflexão em torno do eixo y é dada por:
MT =
–1 0
 0 1
Para o caso da transformação S, vimos que a forma matricial de uma transformação 
geométrica de rotação de θº em torno da origem é dada por:
Rθ° =
cos θº –sen θº
sen θº cos θº
Nesse caso, temos 30º. Obtemos, portanto:
R30 = =
cos 30º –sen 30º
sen 30º cos 30º
√3
2
1
2
1
2
√3
2
–
Finalmente, para obtermos a representação matricial de TºS, calcularemos o produto 
MTMS. Temos:
√3
2
1
2
1
2
√3
2
–
√3
2
1
2
1
2
√3
2
–
MTMS = = 
–1 0
 0 1
Perceba que, se quiséssemos obter apenas a imagem de um único vetor 
pela composição, poderíamos tê-lo feito da forma direta. 
11Geometria vetorial e transformações lineares
É comum o erro de inverter a ordem do produto das matrizes. Fique atento ao realizar 
esses cálculos e lembre-se de que o produto das matrizes segue a mesma ordem da 
composição das transformações. 
Transformações lineares e inversão de matrizes
Nesta seção, veremos como utilizar a relação entre transformações lineares 
e suas representações matriciais para obter informações de grande utilidade 
no processo de inversão de matrizes. 
Aqui, faremos uma abordagem do assunto semelhante à encontrada em 
Nicholson (2006). 
Assim como para matrizes, existe, também, um conceito de inversa para 
transformações lineares. 
Se T é uma transformação linear no plano euclidiano, diremos que T–1 é 
uma transformação inversa para T, se for válida a seguinte igualdade:
TºT–1 = T–1ºT = I2×2
Em palavras, T–1 é uma transformação inversa para T, se a composição 
desses, seja pela esquerda ou pela direita, resulta no operado identidade.
Na primeira seção, vimos a transformação geométrica que realizava a refle-
xão em torno do eixo x, além de que sua representação matricial era dada por:
Vimos, ainda, que MR era sua própria inversa. Essa matriz MR induz a 
transformação que pode ser representada por R(x,y) = (x,–y). Dada a experiência 
com a forma matricial, seria natural imaginar que R é um bom candidato para 
ser sua própria transformação inversa. Agora, vamos calcular RºR. Temos:
RºR = R(R(x,y)) = R(x,–y) = (x,–(–y)) = (x,y) = I2×2(x,y)
Portanto, R–1 = R.
Geometria vetorial e transformações lineares12
Esse resultado não aconteceu por acaso. Temos o seguinte teorema, que 
também pode ser encontrado em Nicholson (2015).
Teorema: seja T:R2 → R2 uma transformação linear no plano euclidiano com 
representação dada por MT, são equivalentes as seguintes afirmações.
1. T é invertível (isto é, MT é invertível).
2. Existe uma transformação linear S, tal que TºS = SºT = I2×2.
Além disso, a matriz de S é dada por MT
–1.
Aqui, é fundamental destacar a relação entre a transformação e sua forma 
matricial.
T é invertível se, e somente se, MT também for.
Essas relações nos permitem estabelecer um procedimento alternativo para 
encontrar a inversa de algumas matrizes. Veja o exemplo a seguir.
Considere a matriz MT =
cos (60º) –sen (60º)
sen (60º) cos (60º)
, que representa uma rotação de 60º, 
no sentido anti-horário, em torno da origem. Calculando os valores de seno e cosseno, 
MT pode ser escrita como:
MT =
1
2
√3
2
√3
2
1
2
–
Nessa situação, conhecemos bem a transformação geométrica envolvida. Sabemos, 
por exemplo, que a transformação inversa seria uma rotação de –60º no sentido 
horário. Essa transformação teria sua forma matricial dada por:
MT
–1 = cos (–60º) –sen (–60º)
sen (–60º) cos (–60º)
13Geometria vetorial e transformações lineares
Novamente, calculando os valores de seno e cosseno, obtemos:
MT
–1 =
1
2
√3
2
√3
2
1
2–
Essa MT
–1 é nossa candidata à matriz inversa. Vejamos se, de fato, ela é inversa de MT. 
Para tal, basta calcular os produtos MTMT
–1 e MT
–1MT. Temos:
MTMT
–1 = = 
1
2
√3
2
√3
2
1
2–
1
2
√3
2
√3
2
1
2
–
1 0
0 1
De forma semelhante, também obtemos:
MT
–1MT = = 
1
2
√3
2
√3
2
1
2
–
1
2
–√3
2
√3
2
1
2
1 0
0 1
Assim, MT
–1 é, de fato, a inversa da matriz apresentada inicialmente.
O procedimento utilizado no exemplo anterior pode ser sumarizado da 
seguinte maneira.
1. Observar a transformação geométrica induzida pela matriz, caso ela 
exista.
2. Procurar pela transformação inversa.
3. Encontrar a matriz dessa transformação.
Assim como matrizes, transformações lineares também apresentam a noção 
de núcleo, que também se relaciona com o fato de uma transformação linear 
e, por consequência, a matriz que a induz ser ou não invertível.
Vamos denotar que o núcleo por Null(T), de uma transformação linear 
T, é o conjunto de todos os vetores do v→ plano euclidiano, tais que T(v→) = 0.
Geometria vetorial e transformações lineares14
Segue da definição de uma transformação linear que:
 � o vetor nulo 0
→
 sempre pertence ao núcleo de uma transformação linear, 
isto é, ;
 � se v→ ∈ Null(T), então todo múltiplo de v→ também pertencerá.
Essas observações, somadas aos resultados previamente apresentados, nos 
permitem apresentar o seguinte resultado.
Teorema: seja T:R2 → R2 uma transformação linear cuja forma matricial é 
MT, são equivalentes as seguintes informações.
 � det(MT) ≠ 0.
 � Null(T) = {0
→
}.
 � T é invertível.
 � MT é invertível.
Veja, a seguir, um exemplo de aplicação desse resultado.
Considere A uma transformação de rotação de 90º no sentido anti-horário. Qual é o 
núcleo dessa transformação?
Como visto nas seções anteriores, a forma matricial dessa transformação é dada por:
R90 =
cos 90º –sen 90º
sen 45º cos 90º
Calculando os valores de seno e cosseno, obtemos:
R90 =
0 –1
1 0
Não é difícil perceber que o determinante dessa matriz é igual 1 e, portanto, diferente 
de zero. Como consequência do resultado anterior, temos:
Null(T ) = {0
→
}
15Geometria vetorial e transformações lineares
Como um último resultado, apresentamos um teorema que permite identifi-
car rotações e reflexões em torno de retas que passam pela origem a partir dos 
determinantes de suas matrizes. Esse resultado também pode ser encontrado 
em Nicholson (2015). 
Teorema: seja T:R2 → R2 uma transformação linear no plano euclidiano com 
forma matricial dada por MT, temos que:
4. T é uma rotação se, e somente se, det(MT) = 1;
5. T é reflexão se, e somente se, det(MT) = –1.
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006.
NICHOLSON, W. K. Álgebra linear. 2. ed. Porto Alegre: McGraw-Hill, 2006.
Leitura recomendada
LIPSCHUTZ, S.; LIPSON, M. L. Álgebra linear. 4. ed. Porto Alegre: Bookman, 2011. (Coleção 
Schaum). 
Geometria vetorial e transformações lineares16
ÁLGEBRA LINEAR
Silvano Antonio Alves Pereira Junior
O espaço vetorial ℝn: 
dependência e 
independência linear 
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
 � Definir dependência e independência linear.
 � Relacionar dependência e independência linear com os conceitosde 
gerador e matriz inversa.
 � Reconhecer a interpretação geométrica de dois vetores linearmente 
dependentes.
Introdução
Neste capítulo, exploraremos um pouco mais os conjuntos de vetores 
em ℝn. Você verá as definições de conjuntos linearmente independentes 
e dependentes, conforme Nicholson (2006). Seguiremos estabelecendo 
conexão entre a geometria e as combinações lineares, bem como re-
lacionando as ideias de dependência, independência linear e gerador 
com matrizes.
Dependência e independência linear
Começamos com o resgate do conceito de combinação linear. Dado um con-
junto de vetores em ℝn diremos que o vetor w→ é uma combinação 
linear desses, se existirem a1, a2, ..., ak em ℝ, tais que:
Veja, a seguir, um exemplo de combinação linear.
No plano euclidiano ℝ2 temos alguns exemplos interessantes. Os vetores 
e→1 = e e
→
2 =
1
0
0
1
, geram o espaço ℝ2. Em particular, dado um vetor v→ = ab , podemos 
escrevê-lo como uma combinação linear de e→1 e e
→
2. Com efeito, temos:
v→ = = + = a + b = ae1 + be2
a
b
0
b
1
0
0
1
a
0
Mais precisamente, qualquer vetor do plano pode ser escrito como uma combinação 
linear de e→1 e e
→
2.
Consideremos, agora, um conjunto de vetores { }em ℝn, que 
diremos que é linearmente independente, se os únicos valores de a1, a2, ..., 
ak em ℝ, que tornam a combinação verdadeira, são a1, a2, ..., ak = 0.
Em outras palavras, um conjunto de vetores é linearmente independente 
se, e somente se, a única combinação deles, que resulta no vetor nulo, for a 
que apresenta todos os coeficientes iguais a zero.
No exemplo anterior, os vetores e→1 = e e
→
2 =
1
0
0
1 , formavam um conjunto de vetores 
linearmente independentes. De fato, se ae1 + be2 = 0
→
, teríamos:
a + 0 = 0
0 + b = 0
Portanto, a única combinação desses vetores, que resulta no vetor nulo, é a que tem 
todos os coeficientes nulos.
O espaço vetorial ℝn: dependência e independência linear2
Como era de se esperar, nem todo conjunto de vetores é linearmente independente. 
Considere o conjunto {e1, e2, w} formado pelos vetores do exemplo anterior e w =
2
3 . 
Utilizando o resultado desse exemplo, podemos escrever:
w = 2e1 + 3e2
Segue daí, pelas propriedades algébricas dos vetores, que também podemos escrever:
w – 2e1 + 3e2 = 0
→
Ou seja, existem coeficientes, não todos nulos, que formam uma combinação do 
vetor igual ao nulo.
O conjunto apresentado na segunda parte do exemplo anterior nos fornece 
um primeiro exemplo de um conjunto linearmente dependente. Diremos 
que um conjunto { }em ℝ é linearmente dependente se existirem 
coeficientes a1, a2, ..., ak em ℝ, tais que:
Isto é, existe uma combinação não nula que resulta no vetor nulo.
Uma interpretação importante de um conjunto linearmente dependente é 
que qualquer um dos vetores desse conjunto pode ser escrito como combinação 
linear dos demais.
Veja o exemplo a seguir.
Ainda no espírito do exemplo anterior, vamos considerar o espaço ℝ3. De forma 
semelhante ao que ocorre com ℝ2, qualquer vetor v→ =
a
b
c
 em espaço ℝ3 pode ser escrito 
como uma combinação linear dos vetores e1 = , e2 = e e3 =
1
0
0
0
1
0
0
0
1
. Com efeito, temos:
3O espaço vetorial ℝn: dependência e independência linear
v→ = = a + b + c = ae1 + be2 + ce3
a
b
c
1
0
0
0
1
0
0
0
1
Ainda como em ℝ2, o conjunto {e1, e2, e3} é linearmente independente. 
Considere, agora, o conjunto formado por {e1, e2, e3, w}, onde w
→ =
5
3
15
. Tal conjunto é
linearmente dependente de vetores. Com efeito, temos do apresentado anteriormente 
que:
w→ = = 5e1 + 3e2 + 15e3
5
3
15
Segue que:
w – 5e1 + 3e2 + 15e3 = 0
Como dito, podemos escrever qualquer um dos vetores de um conjunto linearmente 
dependente como combinação dos demais, como:
e3 = w – e1 + e2
1
15
1
3
1
5
Um importante teorema sobre esse assunto é apresentado em Nicholson 
(2006). 
Teorema: se { }em ℝn é um conjunto linearmente independente, 
então, todo vetor em ger{ } tem uma escrita única como combinação 
linear dos vetores v→i.
Em palavras, se um conjunto de geradores é linearmente independente, 
cada vetor do espaço gerado é escrito de maneira única, a menos da ordenação, 
como combinação linear dos vetores geradores.
Veja o seguinte exemplo sobre conjuntos geradores linearmente 
independentes.
O espaço vetorial ℝn: dependência e independência linear4
Considere a matriz identidade In×n. Vamos mostrar que as colunas dessa matriz formam 
um conjunto gerador de ℝn linearmente independente. Temos:
In×n =
1 ⋯ 0
⋮ ⋱ ⋮
0 ⋯ 1
e os vetores:
e1 = , e2 = , ..., en =
1
0
⋮
0
0
1
⋮
0
0
0
⋮
1
Verificamos, primeiramente, que esse conjunto gera o espaço ℝn. Seguindo a mesma 
ideia apresentada nos exemplos anteriores, temos que, dado um vetor:
w = є Rn
w1
w2
⋮
wn
podemos escrever:
w = = w1 + w2 + ⋯ + wn = w1e1 + w2e1 + ⋯ + wnen
w1
w2
⋮
wn
1
0
⋮
0
0
1
⋮
0
0
0
⋮
1
concluindo que ger{e1, e2, ⋯, en} = ℝn. Agora, a parte sobre a independência linear: 
digamos que exista uma combinação linear dos vetores e1, e2, ⋯, en, tal que:
a1e1 + a2e2 + ⋯ + anen = 0
→
Teríamos, então:
a1 + 0 + ⋯ + 0 =0
0 + a2 + ⋯ + 0 = 0
⋮
0 + 0 + ⋯ + an =0
a1 = 0
a2 = 0
⋮
an = 0
Portanto, a única combinação desses vetores, que resulta no vetor nulo, é a com 
todos os coeficientes nulos. 
5O espaço vetorial ℝn: dependência e independência linear
Gerador e matriz inversa
O último exemplo da seção anterior nos fornece uma bela ideia de como 
conjuntos geradores estão relacionados com conjuntos linearmente indepen-
dentes. Agora, você verá de perto essa relação e como matrizes inversas e 
determinantes podem ser utilizadas para auxiliar na identificação de conjuntos 
linearmente independentes de vetores.
O método do exemplo anterior pode ser sumarizado da seguinte maneira 
(NICHOLSON, 2006).
Teste para independência linear: para verificar que um conjunto de vetores 
{ }em ℝn é linearmente independente, proceda do seguinte modo.
1. Escreva uma combinação linear dos vetores e iguale ao vetor nulo: 
2. Mostre que a única maneira de isso ocorrer é trivialmente, ou seja, com 
todos os coeficientes iguais a zero.
É claro que, se existir alguma solução não trivial, o conjunto de vetores é 
linearmente dependente.
Veja mais um exemplo em que podemos utilizar essa ideia.
Considere a matriz:
A =
1 2 0 0
2 1 0 0
0 0 –1 2
0 0 3 6
Vamos verificar que as colunas dela não formam um conjunto linearmente inde-
pendente de vetores. Temos os seguintes vetores:
O espaço vetorial ℝn: dependência e independência linear6
v1 = + v2 = , v3 = , v4 =
1
2
0
0
2
1
0
0
0
0
2
6
0
0
–1
3
Escrevemos a combinação linear a1v1 + a2v2 + a3v3 + a4v4 = 0
→
, que dá origem ao 
seguinte sistema linear:
a1 + 2a2 = 0
2a1 + a2 = 0
–a3 + 2a4 = 0
3a3 + 6a4 = 0
Resolvendo esse sistema por substituição, por exemplo, obtemos a1 = a2 = a3 = a4 = 0. 
O conjunto dos vetores coluna da matriz, portanto, é um conjunto linearmente 
dependente.
Ainda sobre o exemplo anterior, é importante observar que o sistema linear 
associado ao problema poderia ser escrito em forma matricial, como:
Observe, primeiramente, que o sistema é homogêneo. Portanto, se a matriz 
principal for invertível, ele admite como solução apenas o vetor nulo. Com 
efeito, a matriz principal do sistema tem determinante igual 36 e, portanto, 
é invertível. Segue que a única solução possível para esse sistema é a trivial.
Resumindo o fato exposto, temos o seguinte teorema (NICHOLSON, 2015).
Seja A uma matriz n × n, então as seguintes afirmações são equivalentes.
1. A é invertível.
2. As colunas de A são linearmente independentes em ℝn.
3. As colunas de A geram o espaço ℝn.
4. As linhas de A são linearmente independentes em ℝn.
5. As linhas de A geram o espaço ℝn.
7O espaço vetorial ℝn: dependência e independência linear
Esse método de verificar se a matriz é invertível para concluirsobre a 
independência de um conjunto de vetores pode ser muito útil. Veja o exemplo 
a seguir.
Vamos utilizar o resultado anterior para verificar que os vetores a seguir formam um 
conjunto de vetores linearmente independentes e mais ger{v1 + v2 + v3 + v4 } = ℝ4.
v1 = + v2 = , v3 = , v4 =
1
0
0
0
2
1
0
0
0
3
4
5
3
2
3
0
Começamos montando uma matriz A, cujas colunas são esses vetores. Temos:
A =
1 2 3 0
0 1 2 3
0 0 3 4
0 0 0 5
Pelo teorema anterior, basta verificar se a matriz A é invertível ou não, para podermos 
obter as informações desejadas. Observe que a matriz A é diagonal superior, e seu 
determinante é igual ao produto dos elementos em sua diagonal. Segue que:
det(A) = 1 × 1 × 3 × 5 = 15 ≠ 0
Concluímos, portanto, que A é invertível. Segue do teorema que os vetores formam 
um conjunto linearmente independente de geradores do espaço ℝ4.
Consideremos os vetores v1 = , v2 =
cos(θ)
sen(θ)
–sen(θ)
cos(θ)
. Vamos verificar que, para qualquer 
valor de θ, esses vetores formam um conjunto de geradores linearmente independentes 
para o plano euclidiano. Com efeito, construímos a matriz:
A =
cos(θ) –sen(θ)
sen(θ) cos(θ)
O espaço vetorial ℝn: dependência e independência linear8
O determinante dela é dado por:
det(A) = cos(θ) cos(θ) – sen(θ)(–sen(θ))
det(A) = cos2(θ) + sen2(θ) = 1 
onde essa última igualdade é uma identidade trigonométrica fundamental. Veja, 
na Figura 1, alguns vetores dessa forma.
2.221.81.61.41.210.80.60.40.20–0.2–0.4–0.6–0.8–1–1.2–1.4–1.6–1.8–2
1.6
1.4
1.2
1
0.8
0.6
0.4
0.2
–0.2
–0.4
–0.6
–0.8
–1
90º
45º
Figura 1. Representação de vetores com coordenadas determinadas por valores de seno 
e cosseno.
A matriz do exemplo anterior é de rotação. Ainda é possível ver a relação 
entre dependência e independência linear e geometria.
Para encerrar este tópico, veja, ainda, um teorema apresentado em Ni-
cholson (2015).
Um conjunto de vetores { } em ℝn é linearmente dependente 
se, e somente se, pelo menos um dos vetores pode ser escrito como combinação 
linear dos demais.
9O espaço vetorial ℝn: dependência e independência linear
Combinações lineares e geometria
Na seção anterior, você estudou sobre a relação entre matrizes invertíveis, 
sistemas lineares e independência linear de conjuntos de vetores. Agora, você 
terá maior contato com a geometria dos espaços ℝn e algumas de suas relações 
com conjuntos geradores, dependência e independência linear.
Em continuação ao tópico anterior, um corolário imediato daquele teorema 
pode ser enunciado como em Nicholson (2015).
Corolário: sejam u→ e v→ vetores não nulos em ℝ3 ou ℝ2, então:
1. {u→, v→} é linearmente dependente se, e somente se, os vetores são 
paralelos;
2. {u→, v→} é linearmente independente se, e somente se, os vetores não 
são paralelos.
Esse simples resultado pode nos ajudar a estabelecer alguns testes muito 
úteis para a compreensão de algumas propriedades geométricas. No plano 
euclidiano, por exemplo, é muito importante conhecer quando dois vetores 
são paralelos. Veja o exemplo a seguir.
Considere os vetores v1 = , v2 =
–1
2
10
–20
 Eles são paralelos? Podemos verificar, por 
inspeção direta, se existe α ∈ ℝ, tal que v1 = αv2 . Por outro lado, pelos resultados 
estudados até este ponto, sabemos que tais vetores são paralelos se, e somente se, 
forem linearmente dependentes. E eles assim serão se o determinante da matriz a 
seguir for igual a zero:
A =
–1 10
 2 –20
Temos:
det(A) = –1 × (–20) – (2 × 10) = 20 – 20 = 0
Logo, os vetores são, de fato, paralelos. 
Observe que, em ℝ3 não podemos utilizar determinante para verificar a condição 
de paralelismo.
O espaço vetorial ℝn: dependência e independência linear10
Uma consequência importante desse corolário é a possibilidade de deter-
minar se duas retas em ℝ2 são paralelas ou não, com o simples cálculo de um 
determinante.
Em ℝ3, temos algumas possibilidades quanto à geometria de espaços 
gerados. Conjuntos com um único vetor não nulo dão origem a retas em 
ℝ3. Conjunto com dois vetores linearmente independentes geram, como su-
bespaços, planos em ℝ3. Por fim, conjuntos com três vetores linearmente 
independentes geram o próprio espaço ℝ3.
Unindo essa informação com a ideia de que, em transformações matriciais, 
as colunas geram o espaço imagem, podemos determinar a geometria do espaço 
imagem por meio da dependência ou independência linear dos vetores coluna 
da matriz da transformação. 
Veja o exemplo a seguir.
Considere a matriz:
A =
 4 1 5
–7 5 –2
 9 –3 6
Qual a geometria do espaço imagem dessa transformação: reta, plano ou todo o 
espaço? Um primeiro teste que podemos fazer é o cálculo do determinante da matriz. 
Se o determinante for diferente de zero, as colunas serão linearmente independentes 
e, portanto, gerariam o espaço.
Obtemos que o determinante da matriz é igual a zero. Logo, as colunas não são 
linearmente independentes, e existem números a, b, c ∈ ℝ, não todos nulos, que 
sejam solução do sistema:
4a + b + 5c =0
–7a + 5b – 2c = 0
9a – 3b + 6c =0
Resolvendo esse sistema linear, pelo método de eliminação gaussiana, por exemplo, 
obtemos a solução a = 1, b = 1, c = –1 Temos, portanto:
1 + 1 – 1 =
4
–7
9
1
5
–3
5
–2
6
0
0
0
11O espaço vetorial ℝn: dependência e independência linear
Segue dessa última igualdade que:
1 + 1 =
4
–7
9
1
5
–3
5
–2
6
A terceira coluna é a soma das duas primeiras que, por sua vez, não são paralelas. 
De fato, não existe λ ∈ ℝ, tal que:
4
–7
9
1
5
–3
= λ
Dessa maneira, o espaço imagem dessa transformação é um plano em ℝ3.
Observe, ainda, que o sistema poderia ter sido resolvido com a simples constatação de 
que a última coluna é a soma das duas primeiras, apenas seguindo o caminho contrário.
Veja outro exemplo sobre a geometria do espaço imagem de transformações 
matriciais. 
Considere a seguinte matriz:
H =
5 7 9
0 2 4
0 –6 –8
Vamos determinar a geometria do espaço imagem dessa transformação. Podemos 
procurar por alguma combinação linear mais evidente, como no exemplo anterior. 
Observe que a primeira coluna parece o resultado da diferença entre o dobro da 
segunda coluna e a terceira. De fato, a conta é válida para os dois primeiros elementos, 
mas falha no terceiro.
5 = 2 × 7 – 9
0 = 2 × 2 – 4
0 ≠ 2 × (–6) – (–8)
O espaço vetorial ℝn: dependência e independência linear12
Seguimos, então, calculando o determinante dessa matriz, obtendo:
det(H) = 40
Uma vez que o determinante é diferente de zero, sabemos que a matriz H é invertível, 
e suas colunas formam um conjunto linearmente independente. Assim, o espaço 
imagem da transformação matricial é o próprio ℝ3.
As relações de dependência e independência linear fornecem poderosas 
informações sobre conjuntos de vetores. Futuramente, você aprenderá sobre o 
importante papel que conjuntos geradores linearmente independentes exercem 
em álgebra linear.
É importante estar atento ao fato de que, em muitas das contas envolvendo trans-
formações matriciais, podemos utilizar os vetores linha ao invés dos vetores coluna.
NICHOLSON, W. K. Álgebra linear. 2. ed. São Paulo: McGraw-Hill, 2006.
Leitura recomendada
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2007.
LIPSCHUTZ, S.; LIPSON, M. Álgebra linear. 4. ed. Porto Alegre: Bookman, 2011. (Coleção 
Schaum).
Referência
13O espaço vetorial ℝn: dependência e independência linear
ÁLGEBRA LINEAR
Marcelo Maximiliano Danesi
Espaços vetoriais: 
dependência e 
independência linear
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
 � Definir os conceitos de dependência e independência linear para 
espaços vetoriais gerais.
 � Demonstrar a independência linear.
 � Avaliar se um conjunto dado é independente a partir de suas 
propriedades.
Introdução
Neste capítulo, você vai definirá o conceito de independência linear entre 
vetores dentro da definição generalizada dos espaços vetoriais.Também, 
verá exemplos de independência e dependência linear no espaço vetorial 
das matrizes, dos polinômios e, principalmente, das funções.
A generalização de independência linear depende fortemente da 
definição estudada no ℝn. Você verá como esse conhecimento anterior 
está sendo usado como base e como adaptamos propriedades do ℝn 
para o espaço vetorial das matrizes, dos polinômios e das funções em ℝ. 
Dependência e independência linear
Dados E espaço vetorial e um conjunto não vazio de vetores B = {u1, u2, ..., un} ⊂ E, 
dizemos que B é um conjunto linearmente independente se:
α1u1 + α2u2 + ... + αnun = 0
admite apenas a solução trivial α1 = α2 = ... = αn = 0. Caso contrário, se houver 
solução além dessa, dizemos que B é um conjunto linearmente dependente.
No espaço vetorial P2 dos polinômios de grau menor ou igual a 2 de coeficientes reais, 
considere o conjunto B = {u1, u2, u3}, tal que:
u1 = x
2 + 2x – 1
u2 = 3x
2 + x
u3 = –5x + 3
Esse conjunto é linearmente dependente, pois:
α1u1 + α2u2 + α3u3 = 0
admite a solução não trivial α1 = 3, α2 = –1, α3 = 1, de modo que:
3u1 – 1u2 + 1u3 = 0
Um caso particular da definição é o caso onde B contém dois vetores. Nesse 
caso, B = {u1, u2} é linearmente dependente se, e somente se:
α1u1 + α2u2 = 0
admite solução não trivial, tal que α1, α2 ≠ 0. Assim, a igualdade é equi-
valente a:
E podemos concluir que um conjunto de dois vetores é linearmente depen-
dente se, e somente se, u1 e u2 são vetores múltiplos.
Espaços vetoriais: dependência e independência linear2
No espaço vetorial M3×2(ℝ) das matrizes 3 × 2 de coeficientes reais, considere os 
conjuntos:
1. B1 = u1 = , u2 =
 2 1
–3 2
–1 0
 1 2
–1 1
 3 2
2. B2 = v1 = , v2 =
–2 –4
 2 –2
–6 –4
 3 6
–3 3
 9 6
Observe o seguinte:
 � B1 é linearmente independente, pois não existe λ ∈ ℝ, tal que u1 = λu2. Para isso, 
basta verificar que a igualdade u1 = λu2 é equivalente ao sistema a seguir, o qual 
não tem solução:
2 = 1λ
1 = 2λ
–3 = –1λ
2 = 1λ
–1 = 3λ
0 = 2λ
 � B2 é linearmente dependente, pois existe λ ∈ ℝ, tal que v1 = λv2. Para isso, verificamos 
que a igualdade v1 = λv2 é equivalente ao sistema:
–2 = 3λ
–4 = 6λ
2 = –3λ
–2 = 3λ
–6 = 9λ
–4 = 6λ
que tem solução λ = –2/3. Isto é:
1 ∙ + (–2/3) ∙ = 
 3 6
–3 3
 9 6
–2 –4
 2 –2
–6 –4
0 0
0 0
0 0
3Espaços vetoriais: dependência e independência linear
A última igualdade do exemplo anterior sinaliza um detalhe muito sutil da 
definição de conjuntos linearmente independentes. Nas condições da definição, 
dizer que B é linearmente independente significa que a única combinação 
linear que resulta no vetor nulo é a combinação:
α1u1 + α2u2 + ... + αnun = 0
onde α1 = α2 = ... = αn = 0. Estamos destacando essa sutiliza pelo exemplo 
a seguir.
No espaço vetorial C 0 (ℝ) das funções reais contínuas em ℝ, considere os conjuntos:
1. B1 = {u1 = cos
2(x), u2 = 1 – sen
2(x)}
2. B2 = {v1 – sen(x), v2 = cos(x)}
E observe o seguinte:
 � B1 é linearmente dependente, pois existe λ ∈ ℝ, tal que u1 = λu2. Para isso, temos que 
nos lembrar da relação fundamental trigonométrica que afirma, para todo x ∈ ℝ:
cos2(x) + sen2(x) = 1
Portanto:
cos2(x) = 1 · (1 – sen2 (x))
Essa igualdade vale para todo x ∈ ℝ.
 � B2 é linearmente independente, pois não existe λ ∈ ℝ, tal que v1 = λv2; essa última 
igualdade ocorre porque v1 = λv2 significa que:
sen(x) = λcos(x)
Ou, de forma equivalente:
sen(x)
cos(x) = tg(x) = λ
onde a função tg(x) não é constante. Isto é, não existe λ, tal que v1(x) = λv2(x) para 
todo x ∈ ℝ.
Espaços vetoriais: dependência e independência linear4
Esse último exemplo saiu um pouco da nossa zona de conforto porque nem 
sempre conseguimos identificar de imediato as várias formas que uma função 
assume. O critério a seguir ajuda imensamente nesse sentido.
Dados I ⊂ ℝ intervalo aberto e o espaço vetorial C0(I) das funções reais 
contínuas em I, se as funções u1, u2, ..., un são diferenciáveis, pelo menos (n – 1) 
vezes em I (ANTON; RORRES, 2012), e a função:
for diferente de zero em, pelo menos, um ponto do intervalo I, então as 
funções u1, u2, ..., un são linearmente independentes em C
0(I). Também podemos 
referir à função anterior como wronskiano de u1, u2, ..., un ou W(u1, u2, ..., un). 
Essa definição será bastante utilizada na resolução de equações diferenciais.
A função u’ representa a derivada de primeira ordem da função u = u(x), e a função u(n) 
representa a derivada de n-ésima ordem da função u = u(x), de forma que:
u’ = e u(n) =
du
dx
dnu
dxn
Veremos um exemplo sobre esse critério.
Em C0(ℝ), considere {v1 = sen(x), v2 = cos(x)}. Para esse conjunto, o wronskiano calcula:
W(x) = det = det = –sen(x) sen(x) – cos(x) cos(x) 
 = –(sen2(x) + cos2(x)) = –1
v1 v2
v’1 v’2
sen(x) cos(x)
cos(x) –sen(x)
Assim, W(x) = –1 para todo x ∈ ℝ, e esse conjunto é linearmente independente.
5Espaços vetoriais: dependência e independência linear
Cuidado: o critério fornecido pelo wronskiano é bastante poderoso, mas 
nada garante a sua recíproca. Isto é, nas hipóteses da condição, se W(u1, u2, 
..., un) = 0 para todo x ∈ I, não necessariamente, {u1, u2, ..., un} é linearmente 
dependente ou independente.
Em C 0(ℝ), considere {u1, u2, u3}, tal que:
u1 = x2 + 2x – 1
u2 = 3x2 + x
u3 = –5x + 3
Para esse conjunto, o wronskiano calcula:
W(x) = det = det
 u1 u2 u3
 u’1 u’2 u’3
u’1’ u’2’ u’3’
x2 + 2x –1 3x2 + x –5x + 3
 2x + 2 6x + 1 –5
 2 6 0
= +(0 + (3x2 + x)(–5)(2) + (–5x + 3)(2x + 2)6) 
– (0 + 2(6x + 1)(–5x + 3) + 6(–5)(x2 + 2x –1))
= +(–90x2 – 34x + 36) – (–90x2 –34x + 36) = 0
Assim, W(x) = 0 para todo x ∈ ℝ. Não podemos garantir que esse conjunto seja 
linearmente independente.
Outras propriedades
Antes de prosseguirmos, é importante citarmos outras propriedades já co-
nhecidas e generalizar mais algumas. Dados E espaço vetorial B ⊂ E um 
conjunto de vetores, se:
I. 0 ∈ B, então B é linearmente dependente;
II. B = {u1} e u1 ≠ 0, então B é linearmente independente;
III. B = {u1, u2}, então B é linearmente independente se, e somente se, u1 
≠ λu2 para todo λ ∈ ℝ;
IV. E = ℝn e B = {u1, u2, ..., um}, onde m > n, então B é linearmente dependente;
Espaços vetoriais: dependência e independência linear6
V. B é linearmente dependente, então existe u ∈ B , tal que u é combinação 
linear dos demais vetores em B;
VI. B = {u1, u2, …, um} é linearmente independente, v ∈ E e v ∉ ger(B), então 
B ∪{v} = {u1, u2, ..., um, v} é linearmente independente.
Demonstração da independência linear
A ideia agora é mostrarmos, por meio de uma série de exemplos, como veri-
ficamos a definição de independência linear nos diferentes espaços vetoriais.
Começando com um exemplo no espaço vetorial Pn (n ∈ ℕ fixado) dos 
polinômios de grau menor ou igual a n e de coeficientes reais. 
Sejam n = 3 e {u1, u2, u3} ⊂ P3, tal que:
u1 = x
3 – 2x + 4
u2 = x
2 + 1
u3 = 2x
3 – x2 + x + 1
Pela definição, {u1, u2, u3} é linearmente independente se:
α1u1 + α2u2 + α3u3 = 0
admite apenas a solução trivial α1 = α2 = α3 = 0. 
Substituindo u1, u2, u3 na condição anterior, podemos reescrevê-la como:
α1(x
3 – 2x + 4) + α2(x
2 + 1) + α3(2x
3 – x2 + x + 1) = 0.
Reorganizando os termos de acordo com as potências de x, a igualdade fica:
(α1 + 2α3)x
3 + (α2 – α3)x
2 + (–2α1 + α3)x + (4α1 + α2 + α3) = 0
Essa igualdade afirma, então, que cada coeficiente à esquerda é igual ao respectivo 
coeficiente do vetor nulo à direita. Ou seja:
α1 + 2α3 = 0
α2 – α3 = 0
–2α1 + α3 = 0
4α1 + α2 + α3 = 0
7Espaços vetoriais: dependência e independência linear
é equivalente à equação matricial:
 1 0 2
 0 1 –1
–2 0 1
 4 1 1
. =
α1
α2
α3
0
0
0
0
Aplicando o método de Gauss, podemos escalonar essa matriz de forma que:
 1 0 2
 0 1 –1
–2 0 1
 4 1 1
~ ~ ~
1 0 2
0 1 –1
0 0 5
0 1 –7
1 0 2
0 1 –1
0 0 5
0 0 –6
1 0 2
0 1 –1
0 0 1
0 0 0
é uma matriz triangular superior com 3 pivôs, o que significa que a únicasolução dessa 
equação é a solução trivial α1 = α2 = α3 = 0, e {u1, u2, u3} é linearmente independente.
É interessante observar que, no exemplo anterior, existe uma relação di-
reta entre a independência linear dos vetores u1, u2, u3 em P3 e a dos vetores 
v→1 = (1,0,–2,4), v
→
2 = (0,1,0,1), v
→
3 = (2,–1,1,1) em ℝ4 (os vetores coluna da matriz). 
Essa relação serve para mostrar que o espaço Pn não é tão diferente do ℝn+1, 
uma vez que identificamos o polinômio u = anx
n + ... + a1x + a0∈Pn como o 
vetor v→ = (an, ..., a1, a0) ∈ ℝn+1.
Para todo n ∈ ℕ, Pn é um subespaço vetorial de C 0(ℝ). Logo, podemos usar o wronskiano 
para determinar a independência de polinômios.
O próximo exemplo explora uma relação similar no espaço vetorial Mm×n (ℝ) 
(n, m ∈ ℕ fixados) das matrizes m × n de coeficientes reais.
Espaços vetoriais: dependência e independência linear8
Sejam m = 3, n = 2 e {u1, u2, u3, u4} ⊂ M3×2(ℝ), tal que:
u1 =
–3 12
–2 6
–4 –11
u2 =
 0 3
–4 0
–2 –4
u3 =
–1 2
 2 2
 0 –1
u4 =
 3 –2
 0 –1
–3 2
Pela definição, {u1, u2, u3, u4} é linearmente independente se:
α1u1 + α2u2 + α3u3 + α4u4 = 0
admite apenas a solução trivial α1 = α2 = α3 = α4 = 0. 
Substituindo u1, u2, u3, u4 na condição anterior, podemos reescrevê-la como:
α1 + α2 + α3 + α4
–3 12
–2 6
–4 –11
 0 3
–4 0
–2 –4
–1 2
 2 2
 0 –1
 3 –2
 0 –1
–3 2
=
0 0
0 0
0 0
Somando as matrizes, temos:
–3α1 – 1α3 + 3α4
–2α1 – 4α2 + 2α3
–4α1 – 2α2 – 3α4
12α1 + 3α2 + 2α3 – 2α4
6α1 + 2α3 –1α4
–11α1 – 4α2 – 1α3 + 2α4
=
0 0
0 0
0 0
Essa igualdade afirma, então, que cada entrada à esquerda seja igual à respectiva 
entrada do vetor nulo à direita. Ou seja:
–3α1 – 1α3 + 3α4 = 0
12α1 + 3α2 + 2α3 – 2α4 = 0
–2α1 – 4α2 + 2α3 = 0
6α1 + 2α3 – 1α4 = 0
–4α1 – 2α2 – 3α4 = 0
–11α1 – 4α2 – 1α3 + 2α4 =0
9Espaços vetoriais: dependência e independência linear
é equivalente à equação matricial:
 –3 0 –1 3
 12 3 2 –2
 –2 –4 2 0
 6 0 2 –1
–4 –2 0 –3
–11 –4 –1 2
.
α1
α2
α3
α4
=
0
0
0
0
0
0
Aplicando o método de Gauss, podemos escalonar essa matriz de forma que:
 –3 0 –1 3
 12 3 2 –2
 –2 –4 2 0
 6 0 2 –1
 –4 –2 0 –3
–11 –4 –1 2
~ ~
 1 2 –1 0
 12 3 2 –2
 –3 0 –1 3
 6 0 2 –1
 –4 –2 0 –3
–11 –4 –1 2
1 2 –1 0
0 –21 14 –2
0 6 –4 3
0 –12 8 –1
0 6 –4 –3
0 18 –12 2
~ ~ ~ ~
1 2 –1 0
0 –21 14 –2
0 6 –4 3
0 0 0 5
0 0 0 –6
0 0 0 –7
1 2 –1 0
0 –21 14 0
0 6 –4 0
0 0 0 1
0 0 0 0
0 0 0 0
1 2 –1 0
0 3 –2 0
0 3 –2 0
0 0 0 1
0 0 0 0
0 0 0 0
3 0 1 0
0 3 –2 0
0 0 0 1
0 0 0 0
0 0 0 0
0 0 0 0
é uma matriz com 3 pivôs, uma variável livre, o que significa que existe solução não 
nula, e {u1, u2, u3, u4} é linearmente dependente. Em particular, as soluções da equação 
matricial são da forma:
(α1, α2, α3, α4) = α3
–1
3
, , 1, 02
3
com α3 ∈ ℝ, o que significa que:
–1/3 + 2/3 + 1 + 0 = 0
–3 12
–2 6
–4 –11
 0 3
–4 0
–2 –4
–1 2
 2 2
 0 –1
 3 –2
 0 –1
–3 2
ou
1 = +1/3 – 2/3
–1 2
 2 2
 0 –1
–3 12
–2 6
–4 –11
 0 3
–4 0
–2 –4
u3 = + u1 – u2
1
3
2
3
Isso confere com a propriedade que diz que, se o conjunto é linearmente dependente, 
então, algum vetor é combinação dos demais.
Espaços vetoriais: dependência e independência linear10
Como no exemplo anterior, temos uma relação direta entre a independência 
linear dos vetores u1, u2, u3, u4 em M3×2(ℝ) e a dos vetores coluna da matriz 
da equação. Essa relação alerta como podemos entender a independência 
linear das matrizes em Mm×n (ℝ) a partir de vetores no ℝmn. Inclusive podemos 
enunciar o seguinte.
Dado B = {u1, u2, …, uk} conjunto contido em E espaço vetorial, então B 
é linearmente dependente se:
I. E = ℝn e k > n;
II. E = Pn e k > n + 1;
III. E = Mm×n (ℝ) e k > m ∙ n.
Em C0(ℝ), não existe essa estimativa. Inclusive, podemos usar o wronskiano 
para mostrar que, para todo k ∈ ℕ, é possível construir um conjunto de k vetores 
linearmente independentes em C0(ℝ). A saber, fixado k ∈ ℕ, para o conjunto 
{u1 = 1, u2 = x, u3 = x
2, ..., uk = x
k–1}, calculamos:
Essa última matriz é uma diagonal superior, e o seu determinante é o 
produto das constantes positivas ao longo da sua diagonal principal. Logo, 
W(x) ≠ 0 para todo x ∈ ℝ, e esse conjunto é linearmente independente em C 0(ℝ).
Avaliação da independência linear a partir 
das propriedades do conjunto
A ideia, agora, é mostrarmos, por meio de uma série de exemplos, como 
identificamos se um conjunto é linearmente independente ou dependente de 
acordo com as propriedades que listamos.
No exemplo a seguir, exploramos a propriedade que fala sobre a independên-
cia de um conjunto formado por dois vetores. Isto é, que {u1, u2} é linearmente 
independente se, e somente se, u1 ≠ λu2 para todo λ ∈ ℝ.
11Espaços vetoriais: dependência e independência linear
No espaço vetorial C 0(ℝ) das funções reais contínuas em ℝ, considere os conjuntos:
1. B1 = {u1 = e
x, u2 = 2e
x}
2. B2 = {v1 = e
x, v2 = xe
x}
e observe o seguinte:
1. B1 é linearmente dependente, pois existe λ ∈ ℝ, tal que u1 = λu2. Para isso, basta 
tomar λ = 1/2 e observar que, para todo x ∈ ℝ, ex = (2ex)1
2
.
2. B2 é linearmente independente, pois não existe λ ∈ ℝ, tal que v1 = λv2. Essa última 
igualdade ocorre porque v1 = λv2 significa que e
x = λxex. Ou, de forma equivalente, 
que e
x
xex = = λ 
1
x
, onde a função 1/x não é uma constante. Aliás, também podemos 
justificar que esse conjunto é linearmente independente, tomando o wronskiano:
W(x) = det = det = (x + 1)e2x – xe2x = e2x
v1 v2
v’1 v’2
ex xex
ex (x + 1)ex
Assim, W(x) = e2x ≠ 0 para todo x ∈ ℝ. E podemos afirmar que esse conjunto é, de 
fato, linearmente independente.
A maior observação que temos de fazer em relação ao exemplo anterior é 
em relação ao uso do termo “vetores múltiplos” quando estamos no espaço 
das funções. O conjunto {ex, 2ex} é linearmente dependente porque essas 
funções são múltiplas por um número real, enquanto que o conjunto {ex, xex} 
é linearmente independente porque essas funções não são múltiplas por um 
número real.
No exemplo a seguir, examinaremos que, em Pn, qualquer conjunto de (n + 2) 
vetores ou mais é, obrigatoriamente, linearmente dependente, mas sempre é 
possível determinar um conjunto de (n + 1) vetores linearmente independente.
Em P2 , o conjunto dos polinômios de grau menor ou igual a 2 de coeficientes reais, 
considere os conjuntos:
Espaços vetoriais: dependência e independência linear12
1. B1 = {u1, u2, u3, u4}, tal que:
u1 = 3x
2 – 2x + 1
u2 = –x
2 – x + 1
u3 = x
2 + x
u4 = 3x + 5 
2. B2 = {v1 = 1, v2 = x, v3 = x
2}
Observe o seguinte:
1. Pela definição, {u1, u2, u3, u4} é linearmente independente se α1u1 + α2u2 + α3u3 + 
α4u4 = 0 admite apenas a solução trivial α1 = α2 = α3 = α4 = 0. Substituindo u1, u2, u3, 
u4 na condição anterior, podemos reescrevê-la como:
α1(3x
2 – 2x + 1) + α2(–x
2 – x + 1) + α3(x
2 + x) + α4(3x + 5) = 0 
Somando e reorganizando os termos de acordo com as potências de x, a igualdade 
fica:
(3α1 – α2 + α3)x
2 + (–2α1 – α2 + α3 + 3α4)x + (α1 + α2 + 5α4) = 0
Logo, para cada coeficiente, temos:
3α1 – α2 + α3 = 0
–2α1 – α2 + α3 + 3α4 = 0
α1 + α2 + 5α4 = 0
que é equivalente à equação matricial:
. =
α1
α2
α3
α4
0
0
0
 3 –1 1 0
–2 –2 1 3
 1 1 0 5
Observe que, para essa quantidade de vetores, o método de Gauss nos indicará ao 
menos uma variável livre, e, por esse motivo, {u1, u2, u3, u4} é linearmente dependente.
Em particular:
 3 –1 1 0
–2 –2 1 3
 1 1 0 5
~ ~ ~
 1 1 0 5
 3 –1 1 0
–2 –2 1 3
1 1 0 5
0 –4 1 –15
0 0 1 13
1 1 0 5
0 –4 0 –28
0 0 1 13
~ ~
1 1 0 5
0 1 0 7
0 0 1 13
1 0 0 –2
0 1 0 7
0 0 1 13
13Espaços vetoriais: dependência e independência linear
e as soluções da equação matricial são da forma:
(α1, α2, α3, α4) = α4(2, –7, –13, 1)
com α4 ∈ ℝ, o que significa que:
2(3x2 – 2x + 1) – 7(–x2 – x + 1) – 13(x2+ x) + 1(3x + 5) = 0
ou
1(3x + 5) = –2(3x2 – 2x + 1) + 7(–x2 – x + 1) + 13(x2 + x)
u4 = –2u1 + 7u2 + 13u3 
2. B2 é linearmente independente, pois calculando o wronskiano:
W(x) = det = det = 2
v1 v2 v3
v’1 v’2 v’3
v’1’ v’2’ v’3’
1 x x2
0 1 2x
0 0 2
Assim, W(x) = 2 ≠ 0 para todo x ∈ ℝ. E podemos afirmar que esse conjunto é, de 
fato, linearmente independente.
Analogamente, em Mm×n (ℝ), qualquer conjunto de (m ∙ n + 1) vetores ou mais 
é, obrigatoriamente, linearmente dependente, e sempre é possível determinar 
um conjunto de (m ∙ n) vetores linearmente independente. 
Em M2×3(ℝ), qualquer conjunto com 7 ou mais matrizes é linearmente dependente, 
enquanto que a seguinte matriz é um conjunto linearmente independente.
A11 = , A12 = , A13 = ,
A21 = , A22 = , A23 =
1 0 0
0 0 0
0 0 0
1 0 0
0 0 0
0 1 0
0 0 0
0 0 1
0 1 0
0 0 0
0 0 1
0 0 0
Espaços vetoriais: dependência e independência linear14
No exemplo a seguir, coloque em prática a propriedade que: dados B = {u1, 
u2, ..., um} e v ∈ E tal que B é linearmente independente e v ∉ ger(B), então 
B ∪ {v} = {u1, u2, ..., um, v} é linearmente independente.
Em P3, o conjunto dos polinômios de grau menor ou igual a 3 de coeficientes reais, 
considere o conjunto B1 = {u1 = –3x
2 + 4, u2 = 2x
2 – 1} e repare que esse é linearmente 
independente, pois u1 não é múltiplo de u2.
Se tomarmos v ∈ P3, um polinômio de grau 1 qualquer, então, v ∉ ger(B1) e B2 = B1 ∪ {v} 
é linearmente independente.
Podemos repetir esse processo mais uma vez, já que nenhum polinômio de grau 3 
pode ser escrito como combinação dos vetores em B2. Se w é um polinômio de grau 
3 qualquer, então, B3 = {u1, u2, v, w} é linearmente independente.
ANTON, H.; RORRES, C. Álgebra linear: com aplicações. 10. ed. Porto Alegre: Bookman, 
2012.
Leituras recomendadas
ANTON, H.; BIVENS, I.; DAVIS, S. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. v. 1.
LAY, D.; LAY, S.; MACDONALD, J. Álgebra linear e suas aplicações. 5. ed. Rio de Janeiro: 
LTC, 2018.
Referência
15Espaços vetoriais: dependência e independência linear
ÁLGEBRA LINEAR 
Marcelo Maximiliano Danesi
O espaço vetorial ℝn : 
formas quadráticas
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
 � Definir formas quadráticas.
 � Reconhecer uma matriz positiva definida.
 � Resolver o algoritmo para a Decomposição de Cholesky.
Introdução
Neste capítulo, você aprenderá sobre matrizes ortogonais, matrizes 
simétricas, as propriedades que permitem reescrever as matrizes simé-
tricas a partir de matrizes ortogonais, o uso desse método para formas 
quadráticas, a classificação de matrizes simétricas em relação aos seus 
autovalores e o cálculo da Decomposição de Cholesky para matrizes de 
uma classe das simétricas.
Para uma matriz simétrica, seus autovalores e autovetores são essen-
ciais para um tipo especial de diagonalização. Usaremos essa decom-
posição para definir e reescrever as formas quadráticas -dimensionais 
e classificá-las. Veremos, também, como a diagonalização de matrizes 
simétricas por matrizes ortogonais permite calcular uma forma especial 
de decomposição LU: a decomposição de Cholesky — que, quando 
possível, requer aproximadamente metade do número de operações 
necessário na fase de eliminação da fatoração LU.
Decomposição espectral e formas quadráticas
Uma matriz A, n × n, é dita ortogonal se:
A ∙ AT = AT ∙ A = I
Isto é, se:
A–1 = AT
Considere as matrizes quadradas:
A = –3/5 4/5
 4/5 3/5
B =
 1/√5 2/√6 –2/√30
–2/√5 1/√6 –1/√30
 0 1/√6 5/√30
Mostre que A e B são matrizes ortogonais pela definição.
Solução:
A forma mais simples é calcular o produto da matriz pela sua transposta. Se esse 
produto resultar na matriz identidade, então, a matriz em questão será ortogonal.
A · AT =
–3/5 4/5
 4/5 3/5
–3/5 4/5
 4/5 3/5· =
1 0
0 1
B · BT =
 1/√5 2/√6 –2/√30
–2/√5 1/√6 –1/√30
 0 1/√6 5/√30
 1/√5 –2/√5 0
 2/√6 1/√6 1/√6
–2/√30 –1/√30 5/√30
. =
1 0 0
0 1 0
0 0 1
O espaço vetorial ℝn : formas quadráticas2
O exemplo anterior é interessante por mostrar uma propriedade entre linhas 
e colunas de uma matriz ortogonal frente ao produto escalar.
Se A é matriz n × n, então as afirmações a seguir são equivalentes.
a) A é ortogonal.
b) Os vetores coluna de A formam uma base ortonormal do ℝn.
c) Os vetores linha de A formam uma base ortonormal do ℝn.
Isso significa que as matrizes ortogonais são essencialmente matrizes de mudança 
de base.
Uma matriz A = [aij], n × n, é dita simétrica se:
AT = A
Isto é, se para cada i, j = 1, ..., n
aij = aji
Um caso particular de matriz simétrica são as matrizes diagonais. Uma 
matriz D = [dij], n × n é dita diagonal se dij = 0 para i ≠ j, e i, j = 1, ..., n, isto 
é, uma matriz diagonal apresenta entradas nulas em todas as posições fora 
da diagonal principal.
3O espaço vetorial ℝn : formas quadráticas
Estas matrizes são simétricas:
A = 3 –4
–4 –3
B =
1 5 0
5 –2 –3
0 –3 0
C =
–2 0 0
 0 0 0
 0 0 5
Em particular, C é uma matriz diagonal.
Estamos definindo essas características para mostrar, no exemplo a se-
guir, a relação entre matrizes ortogonais e simétricas. Generalizaremos esse 
resultado na sequência.
Diagonalize a matriz simétrica:
A = 3 –4
–4 –3
Solução:
A equação característica de A é:
det(A – λI) = 0
det 3 – λ –4
 –4 –3 – λ
= 0
(3 – λ)(–3 – λ) –16 = 0
–9 – 3λ + 3λ + λ2 – 16 =0
λ2 – 25 = 0
O espaço vetorial ℝn : formas quadráticas4
Isto é, A tem autovalores λ1 = 5 e λ2 = –5. Calculando os respectivos autovetores, 
temos o seguinte.
 � Para λ1 = 5:
(A – 5I) ∙ = 
x1
x2
0
0
∙ = 
x1
x2
0
0
–2 –4
–4 –5
que nos leva a:
1x1 + 2x2 = 0
x2 = x2{
Portanto, o autovetor associado é o vetor v→1 = (–2,1).
 � Para λ2 = –5:
(A + 5I) ∙ = 
x1
x2
0
0
∙ = 
x1
x2
0
0
 8 –4
–4 2
que nos leva a:
x1 = x1
–2x1 + x2 = 0{
Portanto, o autovetor associado é o vetor v→2 = (1,2).
Assim, A contém dois autovalores reais e distintos com autovetores formando uma 
base:
C = {v→1 = (–2,1), v
→
2 = (1,2)}
ortogonal do ℝ2. Lembrando-se de que qualquer múltiplo de um autovetor também 
é um autovetor associado ao mesmo autovalor, podemos normalizar a base B e construir 
uma base ortonormal de autovetores:
G = , ,–2
√5
1
√5
,1
√5
2
√5{ {
5O espaço vetorial ℝn : formas quadráticas
Dessa forma,
P = e D =–2/√5 1/√5
 1/√5 2/√5
5 0
0 –5
P–1AP = Dsão matrizes tal que:
P–1AP = D
Como P é ortogonal, P–1 = PT. Logo:
–2/√5 1/√5
 1/√5 2/√5
–2/√5 1/√5
 1/√5 2/√5
5 0
0 –5
 3 –4
–4 –3
=
Isto é, a matriz simétrica A é diagonalizável por uma matriz ortogonal formada pelos 
seus autovetores.
O resultado do exemplo não é uma coincidência. Inclusive, podemos 
enunciar que: uma matriz A, n × n, é diagonalizável por matriz ortogonal se, 
e somente se, A for matriz simétrica. Outras propriedades de uma matriz A, 
n × n, simétrica são as seguintes.
a) A tem n autovalores reais, contando multiplicidades.
b) A dimensão do subespaço correspondente a cada autovalor λ é igual à 
multiplicidade da raiz λ na equação característica de A.
c) Os subespaços definidos por cada autovalor são ortogonais entre si, 
no sentido que os autovetores correspondentes a autovalores distintos 
são ortogonais.
Em suma, toda matriz simétrica é diagonalizável por uma matriz ortogonal 
composta por autovetores. Mas como proceder quando temos raízes múltiplas 
na equação característica?
O espaço vetorial ℝn : formas quadráticas6
Diagonalize a matriz simétrica:
A =
 2 –2 –4
–2 5 –2
–4 –2 2
Solução:
A equação característica de A é:
– λ³ + 9λ² – 108 = 0
que pode ser fatorada em:
(λ + 3)(λ – 6)² = 0
Isto é, A tem autovalores λ1 = –3, λ2 = 6 e λ3 = 6. Calculando os respectivos autovetores, 
temos o seguinte.
 � Para λ1 = –3:
(A + 3I) ∙ = 
x1
x2
x3
0
0
0
∙ = 
x1
x2
x3
0
0
0
 5 –2 –4
–2 8 –2
–4 –2 5
que nos leva a:1x1 – 2x2 = 0
x2 = x2
–2x2 + x3 = 0
{
Portanto, o autovetor associado é o vetor v→1 = (2,1,2).
7O espaço vetorial ℝn : formas quadráticas
 � Para λ2, λ3 = 6:
(A – 6I) ∙ = 
x1
x2
x3
0
0
0
∙ = 
x1
x2
x3
0
0
0
–4 –2 –4
–2 –1 –2
–4 –2 –4
que nos leva a:
x1 = x1
2x1 + 1x2 + 2x3 = 0
x3 = x3
{
ou, na forma vetorial:
x1
x2
x3
= x1 + x3
1
–2
0
0
–2
1
Portanto, os autovetores associados são os vetores v→2 = (1,–2,0), v
→
3 = (0,–2,1).
Isso nos mostra que o subespaço associado ao autovalor λ2, λ3 = 6 tem dimensão 2 
e é ortogonal ao subespaço determinado pelo autovalor λ1 = –3. Contudo, a base 
associada a λ2, λ3 = 6 não é ortogonal. O que faremos é ortogonalizar o conjunto 
{v→2, v
→
3} a fim de encontrar uma base ortogonal do subespaço definido pelo autovalor 
λ2, λ3 = 6. Podemos fazer essa ortogonalização devido ao fato de que uma combinação 
linear de autovetores do mesmo autovalor também é um autovetor associado ao 
mesmo autovalor. 
Aplicando o método de Gram-Schmidt à base {v→2, v
→
3}, obtemos a base ortogonal:
(1,–2,0), (–4,–2,5)
1
5{ }
Assim, A contém três autovalores reais (contando multiplicidade) com autovetores 
formando uma base ortogonal do ℝ2:
C = (2,1,2), (1,–2,0), (–4,–2,5)
1
5{ }
O espaço vetorial ℝn : formas quadráticas8
Lembrando-se de que qualquer múltiplo de um autovetor também é um autovetor 
associado ao mesmo autovalor, podemos normalizar a base B e construir uma base 
ortonormal de autovetores:
G = ,
2
3
, ,1
3
2
3
, , 01
√5
, ,–2
√5
–4
√45
,–2
√45
5
√45{ }
Dessa forma:
2/3 1/√5 –4/√45
1/3 –2/√5 –2/√45
2/3 0 5/√45
P = e D =
–3 0 0
 0 6 0
 0 0 6
são matrizes tal que:
P–1AP = D
Como P é ortogonal, P–1 = PT. Logo:
–3 0 0
 0 6 0
 0 0 6
 2/3 1/3 2/3
 1/√5 –2/√5 0
–4/√45 –2/√45 5/√45
2/3 1/√5 –4/√45
1/3 –2/√5 –2/√45
2/3 0 5/√45
 2 –2 –4
–2 5 –2
–4 –2 2
=
Isto é, a matriz simétrica A é diagonalizável por uma matriz ortogonal formada pelos 
seus autovetores.
Como esse exemplo ilustra, o processo de diagonalizar ortogonalmente 
uma matriz simétrica A, n × n, pode ser descrito pelo algoritmo a seguir.
a) Calcule as raízes reais (contando multiplicidade) da equação caracte-
rística de A.
b) Encontre a base de autovetores associada a cada autovalor.
c) Use o método de Gram-Schmidt em cada uma das bases encontradas para 
obter uma base ortonormal do subespaço associado a cada autovalor.
d) Escreva as matrizes a seguir, respeitando a ordem que o autovalor 
λi está associado ao autovetor coluna v
→
i. P = [v
→
1 v
→
2 ... v
→
n] e 
 
9O espaço vetorial ℝn : formas quadráticas
 
D =
λ1 ... 0 0
⋮ λ1 ... 0
0 ⋮ ⋱ ⋮
0 0 ... λn
.
e) Escreva a diagonalização ortogonal de A, de forma que:
PTAP = D
D =
λ1 ... 0 0
⋮ λ1 ... 0
0 ⋮ ⋱ ⋮
0 0 ... λn
Note que, no algoritmo de diagonalização ortogonal, a matriz P é ortogonal, e a 
matriz D é diagonal.
Uma consequência da decomposição descrita anteriormente é que, respei-
tando a notação anterior, podemos escrever a matriz A como:
A = PDPT
Isto é,
λ1 ... 0 0
⋮ λ2 ... 0
0 ⋮ ⋱ ⋮
0 0 ... λn
A = [v→1 v
→
2 ... v
→
n]
v→1
v→2
⋮
v→n
T
T
T
o que é equivalente a escrever:
A = λ1v
→
1v
→
1 + λ2v
→
2v
→
2 + ... + λnv
→
nv
→
n
T T T
O espaço vetorial ℝn : formas quadráticas10
que é denominada decomposição espectral da matriz A. Para fins de 
cálculo, vale ressaltar que v→iv
→
i
T é o produto matricial da matriz v→i, n × 1, pela 
matriz v→iT, 1 × n, resultando numa matriz n × n.
Pelo cálculo do exemplo anterior, podemos afirmar que a diagonalização de:
A =
 2 –2 –4
–2 5 –2
–4 –2 2
nos dá que:
–3 0 0
 0 6 0
 0 0 6
 2/3 1/3 2/3
 1/√5 –2/√5 0
–4/√45 –2/√45 5/√45
2/3 1/√5 –4/√45
1/3 –2/√5 –2/√45
2/3 0 5/√45
A =
Assim, a decomposição espectral de A é:
A = –3 [2/3 1/3 2/3] + 6 [1/√5 –2/√5 0] 
2/3
1/3
2/3
1/√5
–2/√5
0
–4/√45
–2/√45
5/√45
+ 6 [–4/√45 – 2/√45 5/√45]
Formas quadráticas
Uma forma quadrática é uma função Q: ℝn → ℝ que transforma o vetor 
x→ = (x1, x2, ..., xn) no número real dado pela expressão:
Q(x→) = x→ Ax→ = [x1 x2 ... xn] A
T
x1
x2
⋮
xn
onde A é uma matriz simétrica n × n associada à forma quadrática Q.
11O espaço vetorial ℝn : formas quadráticas
No ℝ2, escreva a expressão que calcula Q se:
A = 3 –4
–4 –3
Pela definição:
Q(x1, x2) = [x1 x2]
 3 –4
–4 –3
x1
x2
Logo:
Q(x1, x2) = 3x1 – 3x2 – 8x1x2
2 2
É um pouco complicado representar por fórmulas, mas, fixado n ∈ ℕ, dada 
uma expressão quadrática:
Q(x1, x2, ..., xn) = α1x1 + α2x2 + ... + αnxn + β1,2x1x2 + ... + βn–1,nxn–1xn2 2 2
Com α1, ..., αn, β1,2, ..., βn–1,n ∈ ℝ, sempre conseguiremos encontrar uma 
matriz simétrica A, n × n, que reduz a expressão acima a uma forma quadrá-
tica. Para tanto, basta ocupar a diagonal principal de A com os coeficientes 
dos termos xi2 e dividir igualmente, entre as posições (i,j) e ( j,i) de A, i ≠ j, os 
coeficientes dos termos cruzados xixj.
O espaço vetorial ℝn : formas quadráticas12
Escreva a matriz simétrica associada à expressão quadrática:
Q(x1, x2, x3) = 1x1 – 3x2 – 2x3 – 7x1x2 – 5x1x3 – 4x2x3
2 2 2
Pelo que observamos, a matriz simétrica A = [aij] contém, na diagonal principal, os 
elementos:
a11 = 1, a22 = –3, a33 = 2
e, nas posições anteriores da diagonal principal (i < j), os elementos:
a12 = –7/2, a13 = 5/2, a23 = –4/2
De forma simétrica, preenchemos as demais posições, e a matriz A é:
A =
 1 –7/2 5/2
–7/2 – 3 –2
 5/2 –2 2
Mudança de variáveis nas formas quadráticas
É fato que os termos cruzados xixj estão ligados aos termos fora da diagonal 
principal da matriz A. A dúvida que nos resta é: será que existe uma mudança 
de coordenadas de x→ = (x1, x2, ..., xn) para y
→ = (y1, y2, ..., yn) , de maneira que a 
forma quadrática nas novas coordenadas não contenha termos cruzados yiyj?
A resposta é praticamente imediata, agora que compreendemos o processo 
de diagonalização de uma matriz simétrica por matrizes ortogonais. Dada uma 
matriz simétrica A, n × n, existem P e D matrizes n × n , tal que P é ortogonal 
e formada por uma base de autovetores de A, e D é uma matriz diagonal 
formada pelos autovalores de A. Se considerarmos a mudança de coordenadas:
x→ = Py→
ou reciprocamente P–1x→ = y→, temos:
Q(x→) = (Py→)T A(Py→) = y→T (PT AP)y→ = y→TDy→
13O espaço vetorial ℝn : formas quadráticas
Sendo essa última forma livre dos termos cruzados yiyj.
Vamos aproveitar os exemplos anteriores para mostrar como a mudança 
de coordenadas funciona para uma forma quadrática do ℝ2.
A forma quadrática Q(x1, x2) = 3x1 – 3x2 –8x1x2
2 2 tem matriz simétrica associada:
A = 3 –4
–4 –3
que pode ser ortogonalmente diagonalizável por:
P = e D =–2/√5 1/√5
 1/√5 2/√5
5 0
0 –5
Se tomarmos a mudança de coordenadas:
x1 = y1 + y2
–2
√5
1
√5
x2 = y1 + y2
1
√5
2
√5
ou reciprocamente:
y1 = x1 + x2
–2
√5
1
√5
y2 = x1 + x2
1
√5
2
√5
podemos reescrever Q como:
Q~(y1, y2) = 5y1 –5y2
2 2
O espaço vetorial ℝn : formas quadráticas14
Para o cálculo de P–1x→ = y→, lembre-se de que P–1 = PT, já que P é ortogonal.
Nessas condições, as colunas de P são chamadas de eixos principais da 
forma quadrática Q(x→), enquanto que y→ é o vetor formado pelas coordenadas 
de x→ relativas à base ortonormal do ℝn, formada pelos eixos principais (que 
são autovetores de A). Repare também que, em relação a y→, a forma quadrática 
é dada pela soma dos termos yi2, e seus coeficientes são os autovalores de A.
Uma forma quadrática tem por imagem o conjunto de todos os valores possíveis de 
Q(x→) com x→ variando em ℝn. A mudança de coordenadas x→ = Py→ não altera a imagem 
da forma quadrática, ou seja, a imagem de Q(x→) com x→, variando em ℝn, é igual à 
imagem de y→ TDy→ com y
→, variando em ℝn.
Matriz positiva definida
Dada uma forma quadrática, existe uma mudança de coordenadasx→ = Py→, 
tal que:
Q(x→) = λ1y1 + λ2y2 + ... + λnyn
2 2 2
onde λ1, λ2, ..., λn ∈ ℝ são os autovalores da matriz simétrica associada 
a Q(x→). Essa conclusão nos permite classificar a forma Q(x→) por meio dos 
autovalores λ1, λ2, ..., λn.
Dada A matriz simétrica, n × n, e Q(x→) forma quadrática definida por A, 
dizemos que a forma Q é:
15O espaço vetorial ℝn : formas quadráticas
 � positiva definida se, e somente se, todos os autovalores de A forem 
positivos e, nesse caso, Q(x→) > 0 se x→ ≠ 0→;
 � negativa definida se, e somente se, todos os autovalores de A forem 
negativos e, nesse caso, Q(x→) < 0 se x→ ≠ 0→;
 � indefinida se, e somente se, A tiver, pelo menos, um autovalor positivo 
e um autovalor negativo.
Um cuidado que devemos ter ao tentar classificar a forma Q a partir da 
matriz A é que os sinais das entradas de A não determinam a classificação 
de Q. Veja, a seguir, o caso de uma matriz simétrica A com todas as entradas 
positivas, mas que define uma forma indefinida.
A matriz simétrica A =
2 4
4 3 define a forma quadrática:
Q(x1, x2) = 2x1 + 3x2 + 8x1x2
2 2
Contudo, essa forma não é positiva definida, pois:
Q = + – < 0
1
2
2
4
3
4
8
4
–1
2
,
Podemos verificar que Q é uma forma indefinida por meio do cálculo dos autovalores 
de A, que são:
λ1 = e λ2 =
5 + √65
2
5 – √65
2
Isto é, λ1 > 0 e λ2 < 0.
Identificando matrizes positivas
A classificação da forma quadrática Q por meio dos autovalores da matriz 
simétrica A pode ser estendida para a matriz A, isto é, se todos os autovalores 
de A são positivos, dizemos que A é matriz simétrica positiva definida. Em 
particular, as matrizes positivas definidas são as matrizes simétricas mais 
O espaço vetorial ℝn : formas quadráticas16
importantes nas aplicações da teoria. Então, falaremos um pouco mais sobre 
como identificar se uma matriz simétrica é positiva definida sem calcular os 
seus autovalores.
Dada uma matriz A, n × n, tal que A = [aij], definimos a k-ésima submatriz 
principal de A como sendo, para cada k = 1, ..., n, a matriz:
Ak =
a11 a12 ... a1k
a21 a22 ... a2k
 ⋮ ⋮ ⋱ ⋮
ak1 ak2 ... akk
Assim, uma matriz simétrica A é positiva definida se, e somente se, o 
determinante de cada submatriz principal de A for positivo.
A matriz simétrica do exemplo anterior:
A =
2 4
4 3
tem submatrizes principais:
A1 = [2]
A2 = = A
2 4
4 3
Calculando os determinantes dessas matrizes, percebemos que:
det(A1) = 2 > 0
det(A2) = –10 < 0
Portanto, A não é positiva definida.
O exemplo anterior mostra que esse critério não nos dá os valores dos 
autovalores, mas permite identificar se a matriz simétrica A é positiva definida 
ou não.
17O espaço vetorial ℝn : formas quadráticas
A matriz simétrica:
 1 –1 –1 –1
–1 4 2 0
–1 2 3 1
–1 0 1 2
B =
tem submatrizes principais:
B1 = [1]
B2 =
 1 –1
–1 4
B3 =
 1 –1 –1
–1 4 2
–1 2 3
B4 = B
Calculando os determinantes dessas matrizes, temos que:
det(B1) = 1
det(B2) = 3
det(B3) = 5
det(B4) = 3
Portanto, podemos afirmar que B é positiva definida sem calcular os autovalores de B.
Fatoração de Cholesky
Quando uma matriz simétrica A é positiva definida, podemos aplicar um tipo 
decomposição muito útil para uma importante classe de algoritmos computa-
cionais. Algebricamente, essa decomposição é consequência da fatoração LU. 
Contudo, para calcularmos a fatoração de Cholesky, não precisamos calcular 
as matrizes L e U, poupando, assim, um esforço computacional considerável.
O espaço vetorial ℝn : formas quadráticas18
Dada uma matriz simétrica A = [aij], n × n, A é positiva definida se, e so-
mente se, existir uma única matriz L, n × n, triangular inferior com elementos 
da diagonal estritamente positivos, tal que:
A = L ∙ LT
A fatoração de Cholesky possibilita calcular a matriz L = [lij], entrada por 
entrada, de forma recorrente, de acordo com os seguintes passos.
1. Para as entradas acima da diagonal principal (i < j), lij = 0
2. Para a primeira coluna:
l11 = √a11
li1 = se i = 2, ..., n
ai1
l11
3. Da segunda linha em diante, calculamos entrada por entrada, de acordo 
com:
lij = , se 1 < j < i ≤ n
aij – (li1lj1 + li2lj2 + ... + li(j–1)lj(j–1)
ljj
lii = √aii – (li1 + li2 + ... + li(i–1)), se i = 2, ..., n
2 2 2
Aplique a decomposição de Cholesky à matriz simétrica:
A =
 2 –2 –4
–2 5 –2
–4 –2 21
19O espaço vetorial ℝn : formas quadráticas
Solução:
Explicitamente, L é uma matriz 3 × 3, tal que:
L =
l11 l12 l13
l21 l22 l23
l31 l32 l33
Assim, para as entradas acima da diagonal principal:
l12 = l13 = l23 = 0
Para a primeira coluna, calculamos:
l11 = √a11 = √2
e
l21 =
a21
l11
=
–2
√2
l31 =
a31
l11
=
–4
√2
Para a segunda linha, calculamos:
l22 = √a22 – l21 = √5 – (–2/√2)
2 = √5 – 2 = √32
Para a terceira linha, calculamos:
l32 = = =
a32 – l31l21
l22
–2 – (–4/√2)(–2/√2)
√3
–6
√3
l33 = √a33 – (l31 + l32) = √21 – ((–4/√2)2 + (–6/√3)2) = √21 – (8 + 12) = 12 2
Logo:
L = 
 √2 0 0
–2/√2 √3 0
–4/√2 –6/√3 1
e
A = 
 √2 0 0
–2/√2 √3 0
–4/√2 –6/√3 1
 2 –2 –4
–2 5 –2
–4 –2 21
= .
√2 –2/√2 –4/√2
 0 √3 –6/√3
 0 0 1
O espaço vetorial ℝn : formas quadráticas20
É importante ressaltar que, enquanto A for uma matriz simétrica positiva de-
finida, todas as operações (quocientes e raízes quadradas) estão bem-definidas, 
e podemos calcular a matriz L de acordo com o algoritmo da decomposição 
de Cholesky.
Aplique a decomposição de Cholesky à matriz simétrica:
 1 –1 –1 –1
–1 4 2 0
–1 2 3 1
–1 0 1 2
B =
Solução:
Explicitamente, L é uma matriz 4 × 4, tal que:
L =
l11 l12 l13 l14
l21 l22 l23 l24
l31 l32 l33 l34
l41 l42 l43 l44
Assim, para as entradas acima da diagonal principal:
l12 = l13 = l14 = l23 = l24 = l34 = 0
Para a primeira coluna, calculamos:
l11 = √a11 = √1 =1
e
l21 = = = –1
a21
l11
–1
1
l31 = = = –1
a31
l11
–1
1
l41 = = = –1
a41
l11
–1
1
21O espaço vetorial ℝn : formas quadráticas
Para a segunda linha, calculamos:
l22 = √a22 – l21 = √4 – 1 = √32
Para a terceira linha, calculamos:
l32 = = =
a32 – l32l21
l22
2 – (–1)(–1)
√3
1
√3
l33 = √a33 – (l31 + l32) = √3 – ((–1)2 + (–1)2) = √3 – (1 + 1) = 12 2
Para a quarta linha, calculamos:
l42 = = =
a42 – l41l21
l22
0 – (–1)(–1)
√3
–1
√3
l44 = √a44 – (l41 + l42 + l43) = √2 – ((–1)2 + (–1/√3)2 + (–1/3)2) = 2 2 2
√5
3
l43 =
a43 – (l41l31 + l42l32)
l33
= =
1 – ((–1)(–1) + (–1/√3)(1/√3))
1
1
3
Logo:
L =
 1 0 0 0
–1 √3 0 0
–1 1/√3 1 0
–1 –1/√3 1/3 √5/3
e
B =
 1 –1 –1 –1
–1 4 2 0
–1 2 3 1
–1 0 1 2
= .
 1 0 0 0
–1 √3 0 0
–1 1/√3 1 0
–1 –1/√3 1/3 √5/3
1 –1 –1 –1
0 √3 1/√3 –1/√3
0 0 1 1/3
0 0 0 √5/3
É curioso observar, nos últimos dois exemplos, que o trabalho computa-
cional necessário para decomposição de B não é tão maior que o feito para a 
matriz A. Nesse sentido, é possível concluir que a decomposição de Cholesky 
é computacionalmente viável mesmo para matrizes de tamanho considerável.
O espaço vetorial ℝn : formas quadráticas22
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.
CHAPRA, S. C.; CANALE, R. P. Métodos numéricos para engenharia. 7. ed. Porto Alegre: 
AMGH, 2016.
LAY, D. C.; LAY, S. R.; MACDONALD, J. J. Álgebra linear e suas aplicações. 5. ed. Rio de 
Janeiro: LTC, 2018.
Leituras recomendadas
23O espaço vetorial ℝn : formas quadráticas
ÁLGEBRA LINEAR
Marcelo Maximiliano Danesi
Espaços vetoriais: base
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
 � Reconhecer os conceitos de base e dimensão de espaços vetoriais 
gerais.
 � Avaliar se um conjunto é base de um espaço vetorial dado.
 � Encontrar uma base para um espaço vetorial dado.
Introdução
Neste capítulo, você definirá o conceitogeral de base e dimensão de 
espaços vetoriais, verá exemplos de conjuntos e suas bases e como 
podemos usar o conceito de dimensão junto com as transformações 
lineares a fim de melhor perceber os subespaços associados a ela. Além 
disso, saberá como construir a base de espaço vetorial usando as técnicas 
desenvolvidas em ℝn.
A definição de base e dimensão num espaço vetorial qualquer permite 
uma aproximação do ℝn, por meio das coordenadas de um vetor, e for-
nece as ferramentas que faltavam para entendermos as transformações 
lineares, mediante aplicação do teorema do núcleo e da imagem.
Base e dimensão de espaços vetoriais
Dentro da noção geral de espaço vetorial, uma base de um espaço vetorial 
E é um conjunto B ⊂ E, linearmente independente e gerador de E. Isto é, se 
v ∈ E e B é uma base de E, então podemos escrever, de forma única, v como 
uma combinação linear de elementos em B. A saber, existem v1, …, vn ∈ B e 
α1, ⋯, αn ∈ ℝ tal que:
v = α1 ⋅ v1 + ⋯ + αn ⋅ vn.
Adicionalmente, se B = {v1, … , vn}, então os números α1, … , αn são cha-
mados de coordenadas do vetor v na base B, e escrevemos (v)B = (α1, … , αn).
Em P3, o espaço vetorial dos polinômios de grau menor ou igual a 3 e de coeficientes 
reais, considere o conjunto formado pelos vetores:
v1 = x
3 + 2x – 4
v2 = x
2 + 3x – 2
v3 = x
3 + 2x2 + 3x – 3
v4 = 4x
3 – x2 + 2x + 7
a) B = {v1, v2, v3, v4} é um conjunto linearmente independente?
b) Como podemos escrever o vetor v = 11x3 – 3x2 + 7x + 4 como uma combinação 
linear dessa base? Isto é, quais são as coordenadas de v na base B?
Solução: 
a) B é um conjunto linearmente independente porque a combinação linear α1 ⋅ v1 
+ α2 ⋅ v2 + α3 ⋅ v3 + α4 ⋅ v4 = 0 admite apenas a solução trivial α1 = α2 = α3 = α4 = 0. 
Verificamos isso por meio da substituição dos vetores na igualdade α1 ⋅ (x3 + 2x – 4) 
+ α2 ⋅ (x2 + 3x – 2) + α3 ⋅ (x3 + 2x2 + 3x – 3) + α4⋅(4x3 – x2 + 2 + 7) = 0, distribuindo e 
arranjando os termos de acordo com as potências de x: 
(α1 + α3 + 4α4) x
3 + (α2 + 2α3 – α4 ) x
2 + (2α1 + 3α2 + 3α3 + 2α4 )x + 
(– 4α1 – 2α2 – 3α3 + 7α4) = 0.
Dessa forma, podemos afirmar que, em cada coeficiente: 
α1 + α3 + 4α4 = 0
α2 + 2α3 + α4 = 0
2α1 + 3α2 + 3α3 + 2α4 = 0
–4α1 – 2α2 – 3α3 + 7α4 = 0
o que é equivalente à equação matricial: 
 1 0 1 4
 0 1 2 –1
 2 3 3 2
–4 –2 –3 7
α1
α2
α3
α4
. =
0
0
0
0
que admite apenas a solução trivial. Podemos calcular isso por meio do método 
de Gauss.
Espaços vetoriais: base2
b) Pela definição, precisamos calcular α1, α2, α3, α4 de forma que:
v = α1 ⋅ v1 + ⋯ + αn ⋅ vn.
Para isso, substituindo os vetores 11x3 – 3x2 + 7x + 4 = α1 ⋅ (x3 + 2x – 4) + α2 ⋅ 
(x2 + 3x – 2) + α3 ⋅ (x3 + 2x2 + 3x – 3) + α4 ⋅ (4x3 – x2 + 2x + 7) e distribuindo e arranjando 
os termos de acordo com as potências de x, temos:
11x3 – 3x2 + 7x + 4 = (α1 + α3 + 4α4) x
3 + (α2 + 2α3 – α4)x
2 + (2α1 + 3α2 + 3α3 + 2α4)x 
+ (– 4α1 – 2α2 – 3α3 + 7α4).
Dessa forma, podemos afirmar que, em cada coeficiente:
α1 + α3 + 4α4 = 11
α2 + 2α3 – α4 = –3
2α1 + 3α2 + 3α3 + 2α4 = 7
–4α1 – 2α2 – 3α3 + 7α4 = 4
o que é equivalente à equação matricial: 
 1 0 1 4
 0 1 2 –1
 2 3 3 2
–4 –2 –3 7
α1
α2
α3
α4
. =
11
–3
7
4
que podemos resolver usando o método de Gauss. Desse modo, podemos calcular 
que existe uma única solução dada por (v)B = (α1, α2, α3, α4 ) = (3, –1, 0, 2).
Uma observação relevante nesse momento é que estamos trabalhando de 
forma análoga à feita em ℝ𝑛 e aproveitando disso para usarmos os conceitos 
de ℝ𝑛 para a solução do problema geral.
Com a noção de base estabelecida, podemos afirmar que, se E admite 
uma base com n vetores, então todas as bases de E têm o mesmo número n de 
vetores. Dizemos, então, que a dimensão de E é n e escrevemos dim(E) = n.
Reunindo todos esses resultados, podemos estabelecer, para alguns espaços 
vetoriais, a noção de base canônica e calcular sua dimensão.
3Espaços vetoriais: base
1. Em Pn, o espaço vetorial dos polinômios de grau menor ou igual a n e 
de coeficientes reais, esse espaço é gerado pela base (canônica):
B = {1, x, x2, … , xn } e dim(Pn) = n + 1.
2. Em P∞, o espaço vetorial de todos os polinômios de coeficientes reais, 
esse espaço é gerado pela base (canônica):
B = {1, x, x2, … , xn,…} e dim(P∞) = ∞.
3. Em M(m × n), o espaço vetorial das matrizes, m × n, de coeficientes reais, 
esse espaço é gerado pela base (canônica) composta pelas matrizes:
e dim(M(m×n)) = mn.
Repare que P∞ é um subespaço do espaço vetorial das funções reais con-
tínuas, logo dim(C0(ℝ)) = ∞. O próximo exemplo ajuda na visualização das 
bases e no cálculo da dimensão dos espaços listados anteriormente.
Em P4, o espaço vetorial dos polinômios de grau menor ou igual a 4 e de coeficientes 
reais, gerado pela base (canônica):
B = {1, x, x2, x3, x4} e dim(P4) = 5.
Em M(2 × 3), o espaço vetorial das matrizes, 2 × 3, de coeficientes reais, gerado pela 
base (canônica):
B = {A1,1 = , A1,2 = , A1,3 = , A2,1 = , 
A2,2 = , A2,3 = }
1 0 0
0 0 0
0 0 0
0 1 0
0 0 0
0 0 1
0 1 0
0 0 0
0 0 1
0 0 0
0 0 0
1 0 0
e dim(M(2 × 3)) = 6.
Espaços vetoriais: base4
Admitimos, como convenção, que:
 � se E = {0}, então dim(E) = 0;
 � se B é a base canônica e α1, ⋯, αn ∈ ℝ são as coordenadas de v na base 
B, escrevemos (v) = (α1, … , αn ) por simplicidade.
Dado E espaço vetorial, tal que dim(E) = n, destacamos as seguintes 
propriedades:
 � se {u1, … , um} ⊂ E é linearmente independente, então m ≤ n;
 � se E = ger{u1, … , un}, então {u1, … ,un} é linearmente independente;
 � se F é subespaço de E, então dim(F) ≤ n e dim(F) = n, somente se F = E.
Essas propriedades abrem caminho para o Teorema do Núcleo e da Ima-
gem (paralelo ao Teorema do Posto): dados E1, E2 espaços vetoriais, T: E1 → E2 
transformação linear, então:
N(T) = {u ∈ E1; T(u) = 0}
Im(T) = {w = T(u);u ∈ E1}
são respectivamente subespaços de E1 e E2, que satisfazem:
dim(N(T)) + dim(Im(T)) = dim(E1).
Considere a transformação linear A: P4 → P5, tal que:
A(ax4 + bx3 + cx2 + dx + e) = (2a + b – c – d)x5 + (a + 2c + d + e) x4+ (b – d + e) x3 + (2a 
+ 2b – c – 2d + e)x2 + (– 2a + c + e)x + (2a + b – 6c – 3d –3e).
De imediato, podemos afirmar que essa transformação não é sobrejetora, pois Im(T) 
≤ dim(P4) = 5, enquanto que dim(P5) = 6.
Investigando o núcleo de T, dado u = ax4 + bx3 + cx2 + dx + e ∈ P4, temos que u∈N(A) 
se A(u) = 0. Isto é, se:
(2a + b – c – d)x5 + (a + 2c + d + e)x4 + (b – d + e)x3 + (2a + 2b – c – 2d + e)x2 + 
(– 2a + c + e)x + (2a + b – 6c – 3d – 3e) = 0.
5Espaços vetoriais: base
A igualdade anterior ocorre se:
2a + b – c – d = 0
a + 2c + d + e = 0
b – d + e = 0
2a + 2b – c – 2d + e = 0
–2a + c + e = 0
2a + b – 6c – 3d – 3e = 0
o que é equivalente ao sistema matricial:
 2 1 –1 –1 0
 1 0 2 1 1
 0 1 0 –1 1
 2 2 –1 –2 1
–2 0 1 0 1
 2 1 –6 –3 –3
TA
.
a
b
c
d
e
=
0
0
0
0
0
0
Aplicando o método de Gauss na matriz TA, calculamos suas equivalências de forma 
que: 
TA~
1 0 2 1 1
0 1 –5 –3 –2
0 1 0 –1 1
0 2 –5 –4 –1
0 0 5 2 3
0 1 –10 –5 –5
~ ~
1 0 2 1 1
0 1 –5 –3 –2
0 0 5 2 3
0 0 5 2 3
0 0 5 2 3
0 0 –5 –2 –3
5 0 0 1 –1
0 1 0 –1 1
0 0 5 2 3
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
que equivale ao sistema:
5a + d – e = 0
b – d + e = 0
5c + 2d + 3e = 0
d = d
e = e
Espaços vetoriais: base6
ou:
a = – d + e1
5
1
5
c = – d – e2
5
3
5
b = d – e
d = d
e = e
Isto é, (a, b, c, d, e) = d(–1/5,1, – 2/5,1,0) + e(1/5, – 1, – 3/5,0,1), com d, e ∈ ℝ.
Dessa forma:
�(A) = ger{– x4 + x3 – x2 + x, x4 – x3 – x2 + 1}1
5
1
5
3
5
2
5
O que significa que 𝒩(A) é um subespaço vetorial de P4 de dimensão 2, e Im(A) é 
um subespaço vetorial de P5 de dimensão 3. 
Interessante é que podemos determinar a dimensão de Im(A) sem calcularmos uma 
base desse subespaço.
Conjunto como base de espaço vetorial
Dados E espaço vetorial e B ⊂ E, B é base de Ese:
 � B for linearmente independente;
 � E = ger(B).
Observe que essa última condição pode ser substituída pela dim(E) = 
dim(ger(B)). Assim, podemos afirmar que um conjunto B é base de E se B 
tiver dim(E) vetores e for linearmente independente.
7Espaços vetoriais: base
Em P2, considere B = {v1, v2, v3}, tal que:
v1 = x
2 + 2x – 4
v2 = x
2 + 3x – 2
v3 = – x
2 + 2x + 7,
Como B tem dim(P2) = 3 vetores, só precisamos verificar que B é linearmente inde-
pendente, para afirmarmos que B é base de P2.
Calculando o wronskiano de B:
W(x) = det = det = 10
 v1 v2 v3
v´1 v´2 v´3
v´1́ v´2́ v´3́
(x2 + 2x – 4) (x2 + 3x – 2) (–x2 + 2x + 7)
 (2x + 2) (2x + 3) (–2x + 2)
 (2) (2) (–2)
Assim, W(x) ≠ 0 e B é linearmente independente. Logo, podemos afirmar que B é 
base de P2.
É importante também vermos alguns exemplos de quando um conjunto 
não é base do espaço vetorial que o contém.
Em P2, considere as seguintes afirmações. 
 � B1 = {v1 = x + 1, v2 = x
2 – 1} é um conjunto linearmente independente, pois v1 e v2 
não são múltiplos. Contudo, dim(ger(B1)) = 2, logo B1 não é base de P2 (que tem 
dimensão 3).
 � B2 = {v1,v2,v3 = v1 – v2 } possui três vetores, mas é linearmente dependente porque 
v3 é combinação dos demais. Logo, dim(ger(B2 )) < dim(P2), e B2 não é base de P2.
Construção de uma base para espaço vetorial
Usando as propriedades que vimos até agora, podemos afirmar que, dados E 
espaço vetorial C = {v1, … , vn } ⊂ E, se C é linearmente dependente, então 
existe B ⊂ C, tal que B é linearmente independente e ger(B) = ger(C).
Espaços vetoriais: base8
Em P2, considere C = {v1, v2, v3}, tal que:
v1 = x
2 + 2x – 1
v2 = – x2 + x – 2
v3 = – x
2 + 4x – 5.
Podemos verificar que esse conjunto é linearmente dependente, pois a igualdade
α1v1 + α2v2 + α3v3 = 0 admite solução não trivial. Substituindo os vetores
α1(x
2 + 2x – 1) + α2 (– x
2 + x – 2) + α3 (– x
2 + 4x – 5) = 0 e distribuindo e associando 
os termos de acordo com a potência de x, obtemos (α1 – α2 – α3)x
2 + (2α1 + α2 + 4α3 )
x + (– α1 – 2α2 – 5α3) = 0.
Assim, a igualdade é válida se, e somente se, em cada coeficiente, temos:
α1 – α2 – α3 = 0
2α1 + α2 + 4α3 = 0
–α1 – 2α2 – 5α3 = 0
que é equivalente à equação matricial:
 1 –1 –1
 2 1 4
–1 –2 –5
.
α1
α2
α3
=
0
0
0
Aplicando o método de Gauss à matriz dos coeficientes, calculamos suas equiva-
lências de forma que:
 1 –1 –1
 2 1 4
–1 –2 –5
~ ~ ~
1 –1 –1
0 3 6
0 –3 –6
1 –1 –1
0 1 2
0 0 0
1 0 1
0 1 2
0 0 0
que equivale ao sistema:
α1 + α3 = 0
α2 + 2α3 = 0
α3 = α3
ou:
α1 = –α3
α2 = – 2α3
α3 = α3
9Espaços vetoriais: base
Isto é, (α1, α2, α3) = α3 (– 1, – 2, 1), com α3 ∈ ℝ e uma solução não trivial, seria:
– 1v1 – 2v2 + 1v3 = 0
ou:
v3 = v1 + 2v2
mostrando que v3 é combinação linear de v1 e v2. Dessa maneira, {v1, v2} é um conjunto 
linearmente independente, e ger{v1, v2 } = ger(C).
No exemplo anterior, o isomorfismo entre Pn e ℝn+1 poderia ser usado para justificar 
que, quando escalonamos a matriz de coeficientes na forma triangular superior: 
1 –1 –1
0 1 2
0 0 0
essa matriz indica, através dos seus pivôs, que os vetores nas colunas 1 e 2 da matriz 
original eram linearmente independentes e o vetor na coluna 3 da matriz original era 
uma combinação deles, onde:
1
2
–1
↔ x2 + 2x –1
–1
1
–2
↔ –x2 + x – 2
Segue daí a afirmação que {v1, v2} é um conjunto linearmente independente e 
ger{v1, v2} = ger(C).
Isso significa que, dado um conjunto C de vetores de E, é possível (por 
meio do Teorema do Posto) reduzir esse conjunto, obtendo um B linearmente 
independente, tal que ger(B) = ger(C). Além disso, existe uma dualidade entre 
os métodos de ℝn+1 e Pn que podem ser usados a nosso favor.
Espaços vetoriais: base10
Vamos aproveitar essa ideia da dualidade e descrever um algoritmo que 
permite calcular o complemento da base de um subespaço de E para obtermos 
uma base do próprio E, quando E = Pn ou E = Mm×n(ℝ).
Sejam E espaço vetorial e B = {u1, u2, … ,ur } à base de um subespaço de 
E, então:
 � considere as coordenadas (u1),(u2), … , (ur ) dos vetores de B na base 
canônica de E;
 � escreva a matriz ;
 � encontre os l = (dim(E) – r) vetores em ℝdim(E) que geram a solução da 
equação matricial ;
 � escreva a base de E como a união de B e os l vetores em E calculados 
pelas coordenadas do passo anterior.
Vamos a alguns exemplos, comentando cada passo até obtermos esse 
complemento da base dada.
Em P2, sabemos que B = {v1, v2}, tal que:
v1 = x
2 + 2x – 1
v2 = – x
2 + x – 2
são linearmente independentes e que ger(B) ≠ P2. Isso significa que deve existir 
v ∈ P2, tal que {v} ∪ B é base de P2.
Aplicando o algoritmo que descrevemos, procedemos da seguinte forma. 
 � Na base canônica {x2, x, 1} de P2, escrevemos os vetores em coordenadas:
(v1) = (1, 2, – 1)
(v2) = (– 1, 1, – 2)
 � Assim, a matriz A fica definida por:
A = 1 2 –1
–1 1 –2 2×3
11Espaços vetoriais: base
 � Calculando a solução da equação matricial:
 1 2 –1
–1 1 –2
.
a
b
c
= 0
0
aplicamos o método de Gauss à matriz A, calculando suas equivalências de forma que:
 1 2 –1
–1 1 –2 ~ ~
1 2 –1
0 3 –3
1 0 1
0 1 –1
que equivale ao sistema:
a + c = 0
b – c = 0
c = c
ou:
a = –c
b = c
c = c
Isto é, (a, b, c) = c(– 1, 1, 1), com c ∈ ℝ e �(A) = ger{(–1,1,1)} ⊂ ℝ3 .
Esse resultado está de acordo com o que era esperando, já que dim(P2) = 3, r = 2 
implica que precisamos de l = 3 – 2 = 1 vetores para complementar a base B.
 � Escrevemos o vetor v ∈ P2 usando as coordenadas na base canônica:
v = – 1x2 + 1x + 1
{v} ∪B = {v1, v2, v} é uma base de P2.
W(x) = det = det = –18
 v1 v2 v
v´1 v´2 v´
v´1́ v´2́ v´´
(x2 + 2x – 1) (–x2 + x – 2) (–x2 + x + 1)
 (2x + 2) (–2x + 1) (–2x + 1)
 (2) (–2) (–2)
Logo, W(x) ≠ 0 e {v1, v2, v} é linearmente independente.
Uma base é sempre um conjunto ordenado. Estamos escrevendo a base canônica de 
Pn como {x
n, … , x, 1} por uma questão de conveniência. Os cálculos são totalmente 
análogos, se usarmos essa base como {1, x, … ,xn}.
Espaços vetoriais: base12
Vamos a mais um exemplo, agora no espaço das matrizes.
Em M3×2(ℝ), considere o conjunto:
 
B = v1 = , v2 = , v3 = , v4 =
 1 –2
–1 0
 2 3
–2 1
 0 2
 1 –1
 1 0
 1 –1
–2 1
–2 3
 0 –2
 0 1
Esse conjunto é linearmente independente, e ger(B) ≠ M3×2(ℝ). Isso significa que 
deve existir v5, v6∈ M3×2(ℝ) , tal que {v5, v6} ∪ B é base de M3×2(ℝ) u, uma vez que 
dim(M3×2(ℝ)) = 6 . 
Aplicando o algoritmo que descrevemos, temos o seguinte.
 � Na base canônica:
 
A1,1 = , A1,2 = , A2,1 = , A2,2 = , A3,1 = , A2,3 =
1 0
0 0
0 0
0 1
0 0
0 0
0 0
1 0
0 0
0 0
0 1
0 0
0 0
0 0
1 0
0 0
0 0
0 1
de M3×2(ℝ), escrevemos os vetores em coordenadas, (v1) = (1, – 2, – 1, 0, 2, 3); (v2) = 
(– 2, 1, 0, 2, 1, – 1); (v3) = (1, 0, 1, – 1, – 2, 1); (v4) = (– 2, 3, 0, – 2, 0, 1).
 � Assim, a matriz A fica definida por:
 1 –2 –1 0 2 3
–2 1 0 2 1 –1
 1 0 1 –1 –2 1
–2 3 0 –2 0 1
A =
4×6
 � Calculando a solução da equação matricial:
 1 –2 –1 0 2 3
–2 1 0 2 1 –1
 1 0 1 –1 –2 1
–2 3 0 –2 0 1
.
a
b
c
d
e
f
=
0
0
0
0
13Espaços vetoriais: base
aplicamos o método de Gauss à matriz A, calculando suas equivalências de forma que:
 1 –2 –1 0 2 3
–2 1 0 2 1 –1
 1 0 1 –1 –2 1
–2 3 0 –2 0 1
~ ~
1 –2 –1 0 2 3
0 –3 –2 2 5 5
0 2 2 –1 –4 –2
0 –1 –2 –2 4 7
~ ~
1 –2 –1 0 2 3
0 –3 –2 2 5 5
0 0 2 1 –2 4
0 0 –4 –8 7 16
1 –2 –1 0 2 3
0 –3 –2 2 5 5
0 0 2 1 –2 4
0 0 0 –2 1 8
~ ~
1 –2 –1 0 2 3
0 –3 –2 0 6 13
0 0 4 0 –3 16
0 0 0 –2 1 8
4 –8 0 0 5 28
0 2 0 0 –3 –14
0 0 4 0 –3 16
0 0 0 –2 1 8
4 0 0 0 –7 –28
0 2 0 0 –3 –14
0 0 4 0 –3 16
0 0 0 –2 1 8
que equivale ao sistema:
4a – 7e – 28f = 0
2b – 3e –14f = 0
4c – 3e – 16f = 0
–2d + e + 8f = 0
e = e
f =f
ou:
a = e + 7f7
4
b = e + 7f3
2
c = e + 4f3
4
d = e + 4f1
2
e = e
f = f
Espaços vetoriais: base14
Isto é, (a, b, c, d, e, f) = e , , , , 1, 0 + f (7,7,–4,4,0,1)7
4
3
2
3
4
1
2
, com e, f ∈ ℝ e 
�(A) = ger ⊂ ℝ6, , , , 1, 0 , (7,7,–4,4,0,1)74
3
2
3
4
1
2
.
Esse resultado está de acordo com o que esperávamos de l = 2 vetores para com-
plementar a base B.
 � Escrevemos os vetores v5, v6 ∈ M3×2(ℝ), usando as coordenadas na base canônica:
v5 = + + + + 1 + 0 =
7
4
3
2
1 0
0 0
0 0
0 1
0 0
0 0
3
4
0 0
1 0
0 0
1
2
0 0
0 1
0 0
0 0
0 0
1 0
0 0
0 0
0 1
7/4 3/2
3/4 1/2
 1 0
v6 = 7 + 7 – 4 + 4 + 0 + 1 =
1 0
0 0
0 0
0 1
0 0
0 0
0 0
1 0
0 0
0 0
0 1
0 0
0 0
0 0
1 0
0 0
0 0
0 1
 7 7
–4 4
 0 1
{v5, v6} ∪ B = {v1, v2, v3, v4, v5, v6} é uma base de M3×2(ℝ).
Não será demonstrado neste material, mas vale lembrar-se de que {v1, v2, v3, v4, v5, v6} 
é linearmente independente.
ANTON, H.; BIVENS, I. C.; DAVIS, S. L. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. 2 v.
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.
LAY, D.; LAY, S.; MACDONALD, J. Álgebra linear e suas aplicações. 5. ed. Rio de Janeiro: 
LTC, 2018.
LIMA, E. Álgebra linear. 9. ed. Rio de Janeiro: IMPA, 2016.
15Espaços vetoriais: base
ÁLGEBRA LINEAR
Marcelo Maximiliano Danesi
Espaços vetoriais: 
produtos internos gerais
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
 � Explicar a importância de produto interno e norma para um espaço 
vetorial.
 � Usar o produto interno em espaços vetoriais arbitrários.
 � Reconhecer o conceito de ortogonalidade.
Introdução
Neste capítulo, você definirá o conceito de produto interno e norma para 
um espaço vetorial qualquer, com exemplos no espaço vetorial das n-uplas 
reais, das matrizes e das funções contínuas; verá como a ortogonalidade 
fica definida de acordo com o produto interno do espaço vetorial e alguns 
exemplos de conjuntos ortogonais no espaço das funções.
O conceito de produto interno generaliza, para um espaço vetorial 
qualquer, a noção de medida de vetores, ângulos, distâncias e ortogona-
lidade definida pelo produto escalar no ℝn. Inclusive, essa generalização 
permite que, no ℝn, seja definida uma medida diferente da proposta 
pelo produto escalar, criando uma geometria diferente entre os vetores.
Produto interno e norma
Um produto interno num espaço vetorial E é uma função ⟨,⟩: E × E → ℝ que 
associa, a cada par de vetores u, v ∈ E, um número real ⟨u, v⟩ chamado de 
produto interno de u por v, de modo que, dados u, v, w ∈ E e α ∈ ℝ, sejam 
válidas as propriedades:
1. ⟨u, v⟩ ≥ 0 e ⟨u, u⟩ = 0 somente se u = 0 (positividade);
2. ⟨u, v⟩ = ⟨v, u⟩ (comutatividade);
3. ⟨u, v + w⟩ = ⟨u, v⟩ + ⟨u, w⟩ (distributividade em relação à soma vetorial);
4. ⟨u, α ⋅ v⟩ = α ⋅ ⟨u, v⟩ (associatividade).
Todo produto interno define o número real não negativo , dito 
norma ou comprimento de u com respeito a ⟨,⟩.
O produto interno permite a extensão de noções de ângulo, ortogonalidade, 
comprimento e distância a espaços vetoriais que não necessariamente o ℝn. 
Assim, a geometria do espaço vetorial é definida pela associação do espaço 
com um produto interno, a qual chamamos de espaço vetorial com produto 
interno.
No ℝn, o produto interno canônico é o produto escalar, e a norma canônica corresponde 
ao módulo do vetor (||u
→|| = √u→ · u→ = |u→|). Contudo, o produto interno canônico não é 
o único no ℝn nem a única forma de medir comprimentos.
Em ℝ2, um produto interno (não canônico) é dado por:
⟨ , ⟩D: ℝ
2 × ℝ2 → ℝ
⟨(u1, u2), (v1, v2)⟩D = 3u1v1 + 5u2v2
Mostramos, a seguir, que essa função, de fato, satisfaz as propriedades necessárias, 
pois, dados u→ = (u1, u2), v
→ = (v1, v2), w
→ = (w1, w2) ∈ ℝ2 e α ∈ ℝ:
1. ⟨u→, u→⟩D = ⟨(u1, u2), (u1, u2)⟩D = 3u1u1 + 5u2u2 = 3u1
2 + 5u2
2 ≥ 0 . Vale a igualdade se, e 
somente se, u1 = u2 = 0, isto é, se u
→ = (0, 0).
2. ⟨u→, v→⟩D = ⟨(u1, u2), (v1, v2)⟩D = 3u1v1 + 5u2v2 = 3v1u1 + 5v2v2 = ⟨(v1, v2), (u1, u2)⟩D = ⟨v
→, u→⟩D;
3. ⟨u→, v→ + w→⟩D = ⟨(u1, u2), (v1, v2) + (w1, w2)⟩D = ⟨(u1, u2), (v1 + w1, v2 + w2)⟩D =
 3u1(v1 + w1) + 5u2(v2 + w2) = 3u1v1 + 5u2v2 + 3u1w1 + 5u2w2 = ⟨u
→, v→⟩D + ⟨u
→, w→ ⟩D ;
Espaços vetoriais: produtos internos gerais2
4. ⟨u→, α · v→⟩D = ⟨(u1, u2), α · (v1, v2)⟩D = ⟨(u1, u2), (αv1, αv2)⟩D = 3u1αv1 + 5u2αv2 = 
α · (3u1v1 + 5u2v2) = α · ⟨u
→, v→⟩D.
.
Portanto, de fato, ⟨,⟩D é um produto interno no ℝ2, e a norma de acordo com ⟨,⟩D 
é dada por:
||u→||D = √⟨u
→, u→⟩D = √3u1
2 + 5u2
2
Nessa norma, dados u→ = (1, 1), v→ = (–1, 1), podemos calcular que o comprimento 
de u→ e v→ é:
||u→||D = √3 · 1
2 + 5 · 12 = √8
||v→||D = √3 · (–1
2) + 5 · 12 = √8
ao mesmo tempo que:
⟨(1, 1),(–1, 1)⟩D = 3 ⋅ 1 ⋅ (–1) + 5 ⋅ 1 ⋅ 1 = –3 + 5 = 2
Enquanto que, pelo produto escalar, u, v são ortogonais, já que:
u→ ∙ v→ = (1, 1) ∙ (–1, 1) = 1 ∙ (–1) + 1 ∙ 1 = 0 
Isto é, além de a norma ⟨,⟩D medir o comprimento dos vetores de maneira distinta 
da canônica, ela também altera a relação de ortogonalidade entre vetores do ℝ2.
No exemplo anterior, usamos a notação ⟨,⟩D com intenção de distinguir ⟨,⟩D 
do produto interno definido pelo produto escalar e generalizar 
o produto interno ⟨,⟩D numa classe maior no ℝn denominada produto interno 
ponderado.
Produto interno em espaços vetoriais 
arbitrários
Produto interno ponderado em ℝn 
Em ℝn, dada uma matriz diagonal:
3Espaços vetoriais: produtos internos gerais
n × n, podemos generalizar o exemplo anterior definindo o funcional:
Esse funcional define um produto interno no ℝn, se λi > 0 para todo 
i = 1, ..., n.
Mostramos, a seguir, que esse produto interno, de fato, satisfaz as proprie-
dades necessárias, pois, dados u→ = (u1, ..., un), v
→ = (v1, ..., vn), w
→ = (w1, ..., wn) 
∈ ℝn e α ∈ ℝ:
1. , pois cada 
parcela é positiva, e a igualdade vale se, e somente se, u1 = ... = un = 
0, logo ;
2. ;
3. 
4. 
Portanto, de fato, ⟨,⟩D é um produto interno em ℝn, e a norma de acordo 
com ⟨,⟩D é dada por:
Espaços vetoriais: produtos internos gerais4
O produto interno ponderado recebe esse nome por admitir um peso λi > 0 em cada 
direção xi. Esse peso pode ser interpretado como uma importância maior ou menor 
dos dados naquela direção ou, ainda, como uma mudança de escala naquela direção.
Produto interno em Mm×n(ℝ)
Em Mm×n(ℝ), com o espaço das matrizes, m×n, de coeficientes reais, um produto 
interno pode ser definido por:
onde BTA é uma matriz n×n e tr(BTA) é a soma do produto de todos os 
elementos de A e B de mesmos índices.
Essa definição não é intuitiva. Então, mostraremos como ela funciona em M2×3(ℝ), 
dadas as matrizes:
A =
a11 a12 a13
a21 a22 a23
B =
b11 b12 b13
b21 b22 b23
Temos:
BT · A = · =
b11 b21
b12 b22
b13 b23
a11 a12 a13
a21 a22 a23
a11b11 + a21b21 * *
 * a12b12 + a22b22 *
 * * a13b13 + a23b23
Observe que não calculamos as entradas fora da diagonal principal porque elas não 
serão necessárias para o cálculo do traço (que calcula somente a soma dos elementos 
da diagonal principal). Assim:
tr(BTA) = (a11b11 + a21b21) + (a12b12 + a22 + b22) + (a13b13 + a23b23)
5Espaços vetoriais: produtos internos gerais
Uma forma alternativa de definir esse funcional é escrevendo que, se A = 
[aij]m×n e B = [bij]m×n, então:
⟨A, B⟩ = a11b11 + a12b12 + a21b21 + ... + amnbmn
sendo a última forma, dada pelo somatório do produto de todos os termos 
de mesmo índice, mais prática para a verificação das propriedades de produto 
interno. Assim, dados U = [uij], V = [vij], W = [wij] ∈ Mm×n(ℝ) e α ∈ ℝ:
1. 
e a igualdade vale se, e somente se, uij = 0 para todo i, j e, portanto U = 0;
2.3. ; 
 
 
;
4. .
De fato, ⟨,⟩ é um produto interno em Mm×n(ℝ), e a norma de acordo com 
⟨,⟩ é dada por:
;
Em M2×3(ℝ), calcularemos o produto interno e a norma de algumas matrizes, dadas:
U = 1 0 2
–2 1 –1
V = 0 3 –1
–2 0 1
W = 6 2 –1
 2 1 1
Espaços vetoriais: produtos internos gerais6
Produto interno em C0([a, b])
Usando a teoria do cálculo, em C0([a, b]), com o espaço das funções contínuas 
reais definidas no intervalo [a, b], um produto interno pode ser definido por:
Mostramos, a seguir, que essa função, de fato, satisfaz as propriedades 
necessárias, pois, dados u = u(x), v = v(x), w = w(x) ∈ C0([a, b]) e α ∈ ℝ:
1. , pois a integral de uma 
função positiva é positiva, e a igualdade vale se, e somente se, u(x) = 0, 
pois u é função contínua;
2. ;
3. 
Calculamos:
⟨U, U⟩ = 1 · 1 + 0 · 0 + 2 · 2 + (–2) · (–2) + 1 · 1 + (–1) · (–1) = 11
⟨U, V⟩ = 1 · 0 + 0 · 3 + 2 · (–1) + (–2) · (–2) + 1 · 0 + (–1) · 1 = 1
⟨U, W⟩ = 1 · 6 + 0 · 2 + 2 · (–1) + (–2) · 4 + 1 · 5 + (–1) · 1 = 0
⟨V, V⟩ = 0 · 0 + 3 · 3 + (–1) · (–1) + (–2) · (–2) + 0 · 0 + 1 · 1 = 15
⟨V, W⟩ = 0 · 6 + 3 · 2 + (–1) · (–1) + (–2) · 4 + 0 · 5 + 1 · 1 = 0
⟨W, W⟩ = 6 · 6 + 2 · 2 + (–1) · (–1) + 4 · 4 + 5 · 5 + 1 · 1 = 0 = 73
De acordo com esse produto interno, a norma dessas matrizes é:
||U|| = √⟨U, U⟩ = √11
||V|| = √⟨V, V⟩ = √15
||W|| = √⟨W, W⟩ = √73
7Espaços vetoriais: produtos internos gerais
4. 
Portanto, de fato, ⟨,⟩ é um produto interno no C0([a, b]), e a norma de 
acordo com ⟨,⟩ é dada por:
Para mostrarmos como esse produto interno funciona, no que segue, fixamos a = –1 
e b = 1 de modo que [a, b] = [–1, 1] é um intervalo simétrico em torno de x = 0.
Assim, dados u = x, v = x2, w = x3, podemos calcular que:
⟨x, x⟩ = ∫ 1–1 x · x dx = ∫
1
–1
 x2 dx = = – =x
3
3
1
–1
13
3
(–1)3
3
2
3
⟨x, x2⟩ = ∫ 1–1 x · x
2 dx = ∫ 1–1 x
3 dx = = – = 0x
4
4
1
–1
14
4
(–1)4
4
⟨x2, x3⟩ = ∫ 1–1 x
2 · x3 dx = ∫ 1–1 x
5 dx = = – = 0x
6
6
1
–1
16
6
(–1)6
6
⟨x, x3⟩ = ∫ 1–1 x · x
3 dx = ∫ 1–1 x
4 dx = = – =x
5
5
1
–1
15
5
(–1)5
5
2
5
⟨x3, x3⟩ = ∫ 1–1 x
3 · x3 dx = ∫ 1–1 x
6 dx = = – =x
7
7
1
–1
17
7
(–1)7
7
2
7
⟨x2, x2⟩ = ∫ 1–1 x
2 · x2 dx = ∫ 1–1 x
4 dx = 2
5
Espaços vetoriais: produtos internos gerais8
De acordo com esse produto interno, a norma dessas funções é:
||x|| = √⟨x, x⟩ = 2
3
||x2|| = √⟨x2, x2⟩ = 2
5
||x3|| = √⟨x3, x3⟩ = 2
7
Ortogonalidade
Seja E um espaço vetorial munido do produto interno ⟨,⟩. Dados u, v ∈ E, 
dizemos que u, v são ortogonais (com respeito ao produto interno ⟨,⟩) se, e 
somente se, ⟨u, v⟩ = 0, e denotamos por u ⊥ v.
Assim como na definição de produto interno, é importante ressaltar que 
ortogonalidade não é uma propriedade intrínseca ou fora de qualquer con-
venção, mas que depende do produto interno definido em E. Se E aceita dois 
produtos internos distintos, então, por uma medida, dois vetores podem ser 
ortogonais e, por outra medida, não.
Em ℝ2, dados os vetores u→ = (2, –3), v→ = (3, 2), w→ = (5, 2) e os produtos internos:
⟨(u1, u2), (v1, v2)⟩ = (u1, u2) · (v1, v2) = u1v1 + u2v2
⟨(u1, u2), (v1, v2)⟩D = 3u1v1 + 5u2v2
repare que:
1. com respeito ao produto escalar, os vetores u→ e v→ são ortogonais, pois
u→ · v→ = (2, –3) · (3, 2) = 2 · 3 + (–3) · 2 = 0
9Espaços vetoriais: produtos internos gerais
2. com respeito ao produto interno ⟨,⟩D, os vetores u
→ e v→ não são ortogonais, pois:
⟨u→, v→⟩D = 3 · 2 · 3 + 5 · (–3) · 2 = –12
Contudo, em relação a ⟨,⟩D, os vetores u
→ e w→ são ortogonais, uma vez que:
⟨u→, w→⟩D = 3 · 2 · 5 + 5 · (–3) · 2 = 0
Nas condições da definição de ortogonalidade, podemos afirmar as se-
guintes propriedades:
1. 0 ⊥ v para todo v ∈ E;
2. u ⊥ v se, e somente se, v ⊥ u;
3. se u ⊥ v para todo v ∈ E, então u = 0;
4. se u ⊥ v e α ∈ ℝ, então (α ∙ u) ⊥ v.
Além disso, dado C = {u1, u2, ..., un} ⊂ E, dizemos que C é um conjunto 
ortogonal, se os vetores de C são dois a dois ortogonais, isto é, se ⟨ui, uj⟩ = 0 
se i ≠ j.
Citando o exemplo anterior em M2×3(ℝ) com o produto interno ⟨A, B⟩ = tr(BTA), podemos 
afirmar que, para as seguintes matrizes:
U =
 1 0 2
–2 1 –1
V =
 0 3 –1
–2 0 1
W =
 6 2 –1
 4 5 1
Espaços vetoriais: produtos internos gerais10
calculamos que:
⟨U, V⟩ = 1
⟨U, W⟩ = 0
⟨V, W⟩ = 0
Dessa forma, U e V não são ortogonais, enquanto que U ⊥ W e V ⊥ W. Adicionalmente, 
pelas propriedades, podemos afirmar que qualquer múltiplo de U é ortogonal a 
qualquer múltiplo de W.
Conjuntos ortogonais em C0([–L, L])
Usando a teoria do cálculo, seja L > 0 e I = [–L, L] um intervalo simétrico em 
torno de x = 0. Em C0(I), retomamos o produto interno definido por:
e analisamos a ortogonalidade entre funções contínuas usando a propriedade 
da integral, que afirma o seguinte.
1. Se f(x) é função par (uma função f: I → ℝ é dita par se f(x) = f(–x) para 
todo x ∈ I), então, para todo a > 0:
2. Se g(x) é função ímpar (uma função g: I → ℝ é dita ímpar se g(x) = 
–g(–x) para todo x ∈ I), então, para todo a > 0:
11Espaços vetoriais: produtos internos gerais
3. Se f(x) e g(x) são funções respectivamente par e ímpar, então ( f(x) ∙ 
g(x)) é ímpar e:
Por essa propriedade, podemos afirmar que, em C0([–L, L]), de acordo 
com esse produto interno, toda função par é ortogonal à toda função ímpar.
Isto é, o conjunto das funções pares e o das funções ímpares são ambos 
os subespaços de C0([–L, L]).
Exemplos de funções pares são:
 � qualquer função constante f(x) = k, k ∈ ℝ;
 � qualquer monômio de grau par x2, x4, x6, ...;
 � qualquer função cosseno da forma f(x) = cos(kx), k ∈ ℝ;
 � a soma de funções pares é uma função par;
 � o produto de uma função par por um número real é uma função par.
Exemplos de funções ímpares são:
 � qualquer monômio de grau ímpar x, x3, x5, x7, ...;
 � qualquer função seno da forma f(x) = sen(kx), k ∈ ℝ;
 � a soma de funções ímpares é uma função ímpar;
 � o produto de uma função ímpar por um número real é uma função ímpar.
Podemos citar o exemplo anterior, em C0([–1, 1]), que calculamos para u = x, v = x2, 
w = x3, que:
⟨x, x2⟩ = 0
⟨x 2, x 3⟩ = 0
⟨x, x3⟩ = 2
5
O conjunto B = {x, x3} é linearmente independente, e todos os seus elementos são 
ortogonais em relação a x2. Contudo, B não é um conjunto ortogonal.
Espaços vetoriais: produtos internos gerais12
Estendendo o exemplo anterior, podemos afirmar que um conjunto line-
armente independente do subespaço das funções ímpares em C0([–L, L]) é o 
conjunto B = {x, x3, x5, x7, x9, ...}. Contudo, esse conjunto não é ortogonal. Um 
conjunto ortogonal desse subespaço é fornecido pelos polinômios de Legendre 
C = {P1, P3, P5, ...}, dados por:
Em C0([–1, 1]), podemos verificar explicitamente que os polinômios de Legendre P1, P3, 
P5 são dois a dois ortogonais. Para isso, calculamos:
⟨P1, P3⟩ = ∫
1
–1
 (x) · (5x3 – 3x) dx = ∫ 1–1 x
4 dx – ∫ 1–1 x
2 dx = – = 01
2
5
2
5
2
2
5
3
2
3
2
2
3
⟨P1, P3⟩ = ∫
1
–1
 (x) · (63x5 – 70x3 – 15x) dx = ∫ 1–1 x
6 dx – ∫ 1–1 x
4 dx + ∫ 1–1 x
2 dx1
8
63
8
70
8
15
8
= – + = 0
63
8
2
7
70
8
2
5
15
8
2
3
⟨P3, P5⟩ = ∫
1
–1
 (5x3 – 3x) · (63x5 – 70x3 – 15x) dx 
= ∫ 1–1 x
8 dx – ∫ 1–1 x
6 dx + ∫ 1–1 x
4 dx – ∫ 1–1 x
2 dx
1
5
1
5
45
16
315
16
539
16
285
16
2
9
= – + – = 0
315
2
2
7
539
16
2
5
285
16
2
3
45
16
Para o cálculo daws integrais, vale lembrar-se de que as integrais de x6, x4 e x2 foram 
calculadas anteriormente e que ∫1–1 x
8 dx = 2/9.
13Espaços vetoriais: produtos internos gerais
Os polinômios de Legendre surgem das soluções da equação de Legendre (uma 
equação diferencial ordinária linear de 2ª ordem) e podem ser descritos diretamente 
de várias maneiras. Uma delas é por meio da fórmula de Rodrigues, que calcula, para 
cada n ∈ ℕ, o polinômio de Legendre degrau n:
Pn(x) = [(x
2 – 1)n]1
n! 2n
dn
dxn
É um resultado bastante importante, que tanto B quanto C são bases do 
subespaço das funções ímpares de C∞([–L, L]), o subespaço de C0([–L, L]) das 
funções que possuem derivadas de todas as ordens (ANTON; RORRES, 2012).
Por outro lado, um conjunto ortogonal no subespaço das funções pares é 
o conjunto . Para mostrarmos que essas 
funções são duas a duas ortogonais, precisamos de algumas propriedades do 
cálculo:
1. Dados p, q ∈ ℝ:
2. Se k ∈ ℤ e k ≠ 0, então:
Espaços vetoriais: produtos internos gerais14
Assim, dadas as funções , , n1, n2 ∈ ℕ, n1 ≠ n2, temos 
que n1 – n2 ≠ 0 e:
Esse paralelo que fizemos serve para mostrar dois conjuntos ortogonais 
diferentes em C0([–L, L]), que requerem diferentes abordagens para que essa 
ortogonalidade seja verificada. Em termos de aplicações, toda função em 
C∞([–L, L]) pode ser escrita como uma combinação linear de polinômios, 
via série de Taylor e Maclaurin ou via série de Legendre, sendo esta última 
especialmente importante no eletromagnetismo e na solução do potencial 
elétrico com simetria axial.
De forma alternativa, toda função em C∞([–L, L]) pode ser escrita como 
uma combinação linear das funções via série de 
Fourier, sendo essa decomposição importante no estudo de ondas eletromag-
néticas, ondas mecânicas, mecânica de fluidos, termodinâmica e inúmeros 
outros problemas e uma das principais ferramentas das ciências aplicadas 
(ANTON, 2012).
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.
Leituras recomendadas
ANTON, H.; BIVENS, I. C.; DAVIS, S. L. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. 2 v.
LAY, D.; LAY, S.; MACDONALD, J. Álgebra linear e suas aplicações. 5. ed. Rio de Janeiro: 
LTC, 2018.
LIMA, E. Álgebra linear. 9. ed. Rio de Janeiro: IMPA, 2016.
Referência
15Espaços vetoriais: produtos internos gerais
Visite nosso site:
www.mcgraw-hill.com.br
Álgebra Linear apresenta uma breve introdução à adição de matrizes, multiplicação
por escalar e transposição, para em seguida abordar, de forma bastante didática, o
algoritmo de Gauss para a resolução de sistemas de equações lineares, multiplicação
de matrizes, determinantes, geometria vetorial, espaço vetorial Rn e espaços vetoriais
gerais, entre outros. 
O livro, estruturado em cinco capítulos, contém apêndices sobre trigonometria
básica, indução e polinômios, assim como Respostas e Soluções Selecionadas.
Aplicações
Livro-texto para a disciplina Introdução à Álgebra Linear dos cursos de Matemática,
Física, Estatística, Ciência da Computação e Engenharia, bem como dos cursos de
Economia e Administração, Ciências Sociais e Química.
Capa_Nicholson.qxd 27.08.56 9:16 AM Page 1
2a Edição
ISBN 85-86804-92-4
Nenhuma parte desta publicação poderá ser reproduzida ou distribuída de qualquer forma ou por qualquer meio, ou
armazenada em um banco de dados ou sistema de recuperação, sem o consentimento, por escrito, da Editora, incluindo,
mas não limitado a, qualquer rede ou outro dispositivo eletrônico de armazenamento ou transmissão ou difusão para
ensino a distância.
Todos os direitos reservados. © 2006 de McGraw-Hill Interamericana do Brasil Ltda.
Av. Engenheiro Luís Carlos Berrini, 1.253 – 10o andar
04571-010 – São Paulo – SP
Tradução do original em inglês Elementary Linear Algebra
Copyright © 2004, 2001 de McGraw-Hill Ryerson Limited, uma subsidiária da The McGraw-Hill Companies, Inc.
ISBN da obra original: 0-07-091142-8
Diretor-geral: Adilson Pereira
Editora de Desenvolvimento: Ada Santos Seles
Preparação de Texto: Jorge Avelino
Imagem de Capa: © Hideki Kuwajima/Photonica
Editoração Eletrônica: Printfit Soluções
Se você tem dúvidas, críticas ou sugestões, entre em contato pelo endereço eletrônico: sac@grupoa.com.br
LinearAlgebra_FM_Portugues.qxd 29.08.56 10:16 AM Page ii
N624a Nicholson, W. Keith.
 Álgebra linear [recurso eletrônico] / W. Keith Nicholson ; 
tradução técnica: Célia Mendes Carvalho Lopes, Leila Maria 
Vasconcellos Figueiredo, Martha Salerno Monteiro. – 2. ed. – 
Porto Alegre : AMGH, 2014.
Editado como livro impresso em 2006.
ISBN 978-85-8055-477-9
1. Álgebra linear. I. Título.
CDU 517.986.3
Catalogação na publicação: Poliana Sanchez de Araujo – CRB 10/2094
1.2 Equações Lineares 11
Um conjunto finito de equações lineares é chamado sistema de equações lineares, ou
simplesmente sistema linear. Uma solução que satisfaz todas as equações do sistema é
chamada solução do sistema.
A essência da álgebra linear é um procedimento rotineiro de encontrar todas as soluções
de qualquer sistema de equações lineares. Primeiro vejamos alguns exemplos.
No Exemplo 1, o sistema de duas equações lineares
x + y = 480 000
10
100 x +
11
100 y = 50 000
tem solução X =
[
x
y
]
=
[
280 000
200 000
]
.
Observe que esse sistema tem uma única solução.
Um sistema de equações pode não ter solução. Por exemplo, o sistema
x + y = 1
x − z = 2
y + z = 1
não tem solução. Na verdade, a soma das últimas duas equações dá x + y = 3, contrariando a
primeira equação.
Um sistema de equações lineares é chamado inconsistente* se ele não tiver nenhuma
solução, e o sistema é chamado consistente quando ele admitir uma ou mais soluções.
Verifique que X = [1 + t − s 2 + t + s s t]T é uma solução para o sistema
x1 − 2x2 + 3x3 + x4 = −3
2x1 − x2 + 3x3 − x4 = 0
para todos os valores dos números s e t, nesse contexto chamados parâmetros.
Simplesmente substitua x1 = 1 + t − s, x2 = 2 + t + s, x3 = s e x4 = t em cada equação:
x1 − 2x2 + 3x3 + x4 = (1 + t − s) − 2(2 + t + s) + 3s + t = −3
2x1 − x2 + 3x3 − x4 = 2(1 + t − s) − (2 + t + s) + 3s − t = 0
Como ambas as equações são satisfeitas, X é solução para todo s e todo t. Observe que esse
sistema tem infinitas soluções, pois há infinitas escolhas para os parâmetros s e t.
De fato, toda solução do sistema no Exemplo 5 é da forma mostrada, para alguma
escolha de parâmetros s e t. Para entender por que isso acontece, e para ver como se chega
a conjuntos de soluções como aqueles do Exemplo 5, desenvolvemos um procedimento geral
para encontrar soluções dessa forma. Para simplificar os cálculos, introduzimos a notação
matricial para descrever sistemas de equações lineares. Dado o sistema
x1 − 2x2 + 3x3 + x4 = −3
2x1 − x2 + 3x3 − x4 = 0
de duas equações e quatro incógnitas, os coeficientes das incógnitas formam uma
matriz 2 × 4
[
1 −2 3 1
2 −1 3 −1
]
chamada matriz dos coeficientes do sistema. A matriz 2 × 5
[
1 −2 3 1 −3
2 −1 3 −1 0
]
S O L U Ç Ã O
Exemplo 5
Exemplo 4
Exemplo 3
1.2.2 Sistemas de Equações Lineares
* NTT: Os termos impossível e incompatível também são usados para denominar um sistema de equações lineares inconsistente,
assim como os termos possível ou compatível são também empregados para designar um sistema de equações consistente.
480.000
450.000
280.000
200.000
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 11
é chamada matriz completa ou também matriz aumentada do sistema (é a matriz dos
coeficientes acrescida da coluna formada pelos termos constantes). É evidente que o sistema
fica totalmente descrito pela matriz completa,7 portanto, não é surpresa que possamos
encontrar todas as soluções do sistema com a manipulação dessa matriz.
Para ver como isso é feito, convém chamar dois sistemas de equivalentes se eles
possuírem as mesmas soluções. Começando com um dado sistema de equações lineares,
nós o resolvemos escrevendo uma série de sistemas, um depois do outro, cada um deles
equivalente ao anterior. Como todos os sistemas têm as mesmas soluções, a finalidade é
encontrar um que seja fácil de resolver. Existe um método simples e rotineiro de realizar isso.
O exemplo a seguir proporciona uma ilustração.
Encontre todas as soluções para o sistema do Exemplo 5:
⎧
⎨
⎩
x1 − 2x2 + 3x3 + x4 = −3
2x1 − x2 + 3x3 − x4 = 0
O sistema está escrito a seguir junto com sua matriz completa;
x1 − 2x2 + 3x3 + x4 = −3
2x1 − x2 + 3x3 − x4 = 0
[
1 −2 3 1 −3
2 −1 3 −1 0
]
Primeiroeliminamos x1 da equação 2 por meio da subtração de duas vezes a primeira
equação da segunda. O resultado é o seguinte sistema (acompanhado de sua matriz
completa).
x1 − 2x2 + 3x3 + x4 = −3
3x2 − 3x3 − 3x4 = 6
[
1 −2 3 1 −3
0 3 −3 −3 6
]
Esse novo sistema é equivalente ao original (ver Teorema 1 a seguir). Observe que a nova
matriz completa pode ser obtida diretamente da original se subtrairmos duas vezes a
primeira linha da segunda.
Agora multiplicamos a segunda equação por 13 para obter outro sistema equivalente
x1 − 2x2 + 3x3 + x4 = −3
x2 − x3 − x4 = 2
[
1 −2 3 1 −3
0 1 −1 −1 2
]
Mais uma vez, a nova matriz completa é resultado da multiplicação da segunda linha por 13 .
Finalmente, eliminamos x2 da equação 1 pela adição de duas vezes a segunda equação à
primeira. O resultado é o sistema (equivalente)
x1 + x3 − x4 = 1
x2 − x3 − x4 = 2
[
1 0 1 −1 1
0 1 −1 −1 2
]
Esse sistema é fácil de resolver. De fato, escolhendo-se arbitrariamente números x3 e x4, então
x1 e x2 podem ser encontrados de maneira que as equações sejam satisfeitas. Mais
precisamente, se estabelecermos que x3 = s e que x4 = t onde s e t são parâmetros
arbitrários, as equações passam a ser x1 + s − t = 1 e x2 − s − t = 2, portanto,
x1 = 1 + t − s e x2 = 2 + t + s
Isso nos dá a solução exibida no Exemplo 5 e, como todos os sistemas na série são
equivalentes (como será provado no Teorema 1), obtivemos todas as soluções para o
problema original.
Observe que, a cada estágio do procedimento acima, uma certa operação é executada no
sistema (e, portanto, na matriz completa) para produzir um sistema equivalente.
As operações a seguir, chamadas operações elementares, podem ser efetuadas
rotineiramente em sistemas para produzir sistemas equivalentes:
I Trocar a ordem das equações.
II Multiplicar uma equação por um número diferente de zero.
III Somar um múltiplo de uma equação com outra equação.
S O L U Ç Ã O
Exemplo 6
C A P Í T U L O 1 Equações Lineares e Matrizes12
7 Quando um sistema é resolvido por um computador, é utilizada a matriz completa.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 12
1.2 Equações Lineares 13
Valemo-nos apenas dos procedimentos II e III para o cálculo no Exemplo 6, mas a operação
do tipo I às vezes também tem sua utilidade. O teorema a seguir é crucial para o método que
estamos desenvolvendo.
Se uma operação elementar é executada em um sistema linear de equações, o sistema
resultante é equivalente ao original.
Demonstraremos o teorema para operações do tipo III; argumentos semelhantes funcionam
para operações dos tipos I e II.
Suponha que modificamos o sistema original mediante a substituição da equação p por
uma nova equação, formada pela adição de um múltiplo de outra equação q à equação p.
Então qualquer solução do sistema original irá satisfazer a nova equação (pois satisfaz ambas
as equações p e q) e, portanto, será a solução do novo sistema. Em contrapartida, o novo
sistema contém a equação q (porque p e q são equações diferentes). Isso significa que o novo
sistema pode ser transformado de volta ao sistema original mediante a subtração da nova
equação pelo mesmo múltiplo da equação q. Logo, o mesmo argumento mostra que toda
solução para o novo sistema é uma solução do sistema original. Conseqüentemente, os dois
sistemas têm o mesmo conjunto de soluções; portanto, operações do tipo III produzem
sistemas equivalentes.
O Teorema 1 tem conseqüências profundas na álgebra linear. Particularmente, ele
possibilita o uso do procedimento do Exemplo 6 em qualquer sistema de equações lineares.
A idéia é aplicar ao sistema uma série de operações elementares com o objetivo de encontrar
um sistema de fácil resolução. Como todos os sistemas criados dessa maneira são
equivalentes (pelo Teorema 1), as soluções do sistema fácil de resolver são também as
soluções do sistema original.
Como no Exemplo 6, as operações elementares efetuadas em um sistema de equações
lineares produzem manipulações correspondentes nas linhas da matriz completa (vistas
como matrizes-linha). Em cálculos feitos a mão (e em programas de computador) linhas são
mais fáceis de manipular do que equações. Por esse motivo, reenunciamos as três operações
elementares para as linhas:
I Trocar a ordem das linhas.
II Multiplicar uma linha por um número diferente de zero.
III Somar um múltiplo de uma linha com outra linha.
Essas são as chamadas operações elementares com as linhas. Temos aqui outro exemplo do
nosso método no qual todo o cálculo é efetuado por meio da manipulação da matriz completa.
Encontre todas as soluções para o seguinte sistema de equações lineares:
x1 + x2 − 3x3 = 3
−2x1 − x2 = −4
4x1 + 2x2 + 3x3 = 7
A matriz completa do sistema original é
⎡
⎢
⎢
⎣
1 1 −3 3
−2 −1 0 −4
4 2 3 7
⎤
⎥
⎥
⎦
.
Começamos utilizando o 1 no canto superior esquerdo para “limpar” a coluna 1; ou seja,
para obter zeros nas outras posições (isso corresponde a eliminar x1 das equações 2 e 3).
Mais precisamente, adicionamos duas vezes a linha 1 à linha 2 e subtraímos quatro vezes a
linha 3 da linha 1. O resultado é
⎡
⎢
⎢
⎣
1 1 −3 3
0 1 −6 2
0 −2 15 −5
⎤
⎥
⎥
⎦
.
Isso completa o trabalho na coluna 1.
S O L U Ç Ã O
Exemplo 7
D E M O N S T R A Ç Ã O
TEOREMA 1
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 13
C A P Í T U L O 1 Equações Lineares e Matrizes14
Agora, usamos o 1 na segunda posição da linha 2 para limpar a coluna 2; isto é, para
obter zeros nas posições acima e abaixo (isso corresponde a eliminar x2 das equações 1 e 3).
Conseguimos isso subtraindo a linha 1 da 2, e adicionando duas vezes a linha 2 à linha 3.
Assim, temos
⎡
⎢
⎢
⎣
1 0 3 1
0 1 −6 2
0 0 3 −1
⎤
⎥
⎥
⎦
.
Observe que essas duas operações não afetaram a coluna 1 porque o primeiro elemento da
linha 2 é zero.
A seguir, dividimos a linha 3 por 3 para obter o número 1 na terceira posição:
⎡
⎢
⎢
⎣
1 0 3 1
0 1 −6 2
0 0 1 − 13
⎤
⎥
⎥
⎦
.
Finalmente, limpamos a coluna 3 por meio da subtração da linha 1 por três vezes a linha 3, e
pela adição de seis vezes a linha 3 à linha 2:
⎡
⎢
⎢
⎣
1 0 0 2
0 1 0 0
0 0 1 − 13
⎤
⎥
⎥
⎦
.
O sistema de equações lineares correspondente é
x1 = 2
x2 = 0
x3 = − 13
e a solução (única) X =
[
2 0 − 13
]T
está aparente. Como esse sistema de equações é
equivalente ao sistema original, essa é a solução para o sistema original.
Nos cálculos dos Exemplos 6 e 7, operações elementares com as linhas (na matriz completa)
conduziram a matrizes da forma
[
1 0 ∗ ∗ ∗
0 1 ∗ ∗ ∗
]
and
⎡
⎢
⎢
⎣
1 0 0 ∗
0 1 0 ∗
0 0 1 ∗
⎤
⎥
⎥
⎦
respectivamente, onde cada ∗ indica um número. Em ambos os casos, a solução foi facilmente
obtida pelos sistemas de equações correspondentes. As matrizes que aparecem são geralmente
descritas da maneira a seguir.
Dizemos que uma matriz está na forma escalonada por linha (e será chamada matriz
escalonada por linhas*) se as seguintes condições forem satisfeitas:
1. Todas as linhas nulas estão abaixo de todas as linhas não nulas.
2. O primeiro elemento não nulo em cada linha não nula é igual a 1 e é chamado pivô.**
3. Cada pivô se localiza à direita de todos os pivôs das linhas acima dele.
Uma matriz está na forma escalonada reduzida se, além disso, satisfizer
4. Cada pivô é o único elemento não nulo em sua coluna.
1.2.3 Método de Eliminação de Gauss8 
e
18 Carl Friedrich Gauss (1777–1855) foi um dos maiores matemáticos de todos os tempos. Ele realizou descobertas fundamentais
em todos os tópicos da matemática, e fez importantes contribuições à astronomia e à física.
** NTT: Ou simplesmente denominada matriz escalonada.
** NTT: Alguns autores chamam-no 1-líder.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 14
Assim, as matrizes escalonadas possuem uma forma de “escada” como indicado a seguir
(novamente, os asteriscos indicam números arbitrários):
⎡
⎢
⎢
⎢
⎢
⎢
⎢
⎢
⎣
0 1 ∗ ∗ ∗ ∗ ∗
0 0 0 1 ∗ ∗ ∗
0 0 0 0 1 ∗ ∗
0 0 0 0 0 0 1
0 0 0 0 0 0 0
⎤
⎥
⎥
⎥
⎥
⎥
⎥
⎥
⎦
.
Os pivôs se localizam à direita e abaixo uns dos outros, ao longo da matriz, e todo elementoà esquerda e abaixo de um pivô é nulo. Em uma matriz escalonada reduzida, a condição
adicional é que todos os elementos acima de cada pivô também sejam nulos. Qualquer
matriz escalonada pode ser colocada na forma reduzida por meio de mais algumas
operações elementares por linhas (zerando um por um os elementos acima dos pivôs).
A primeira matriz abaixo está na forma escalonada, e a segunda, na forma escalonada
reduzida, para qual pode ser transformada por meio de operações por linhas:
⎡
⎢
⎢
⎣
1 ∗ ∗ ∗ ∗
0 0 1 ∗ ∗
0 0 0 0 1
⎤
⎥
⎥
⎦
→
⎡
⎢
⎢
⎣
1 ∗ 0 ∗ 0
0 0 1 ∗ 0
0 0 0 0 1
⎤
⎥
⎥
⎦
Em geral usamos uma seta → para indicar que foram efetuadas operações com as linhas.
Aqui temos um procedimento pelo qual qualquer matriz pode ser levada à forma
escalonada (e depois, à forma escalonada reduzida, se desejado) utilizando nada além de
operações elementares de linhas.
Qualquer matriz pode ser levada à forma escalonada pelo método a seguir:
Passo 1. Se a matriz consiste inteiramente de zeros, pare: ela já se encontra na forma
escalonada.
Passo 2. Caso contrário, encontre a primeira coluna, vindo da esquerda, que contém um
elemento k não nulo, e mova a linha contendo esse elemento ao topo da matriz.
Passo 3. Multiplique a linha no topo por 1k para obter o primeiro pivô.
Passo 4. Anule cada elemento abaixo do pivô, subtraindo múltiplos de suas linhas das linhas
inferiores.
Isso completa a primeira linha; todas as demais operações por linha são efetuadas nas
demais linhas.
Passo 5. Repita os passos 1–4 na matriz formada pelas linhas remanescentes.
Observe que o algoritmo de Gauss* é recursivo no seguinte sentido: depois de se obter o
primeiro pivô, todo o processo é repetido nas demais linhas. Isso torna fácil de se usar o
método no computador. Observe ainda que, no passo 4, podemos também anular cada
elemento acima do pivô. Nesse caso, o algoritmo leva a matriz à forma escalonada reduzida
(como nos exemplos 6 e 7). A razão para a distinção entre as duas formas de escalonamento
será discutida posteriormente.
O algoritmo de Gauss certamente demonstra o teorema a seguir.
Toda matriz pode ser colocada na forma escalonada (reduzida, se desejado) mediante uma
seqüência de operações elementares por linhas.
TEOREMA 2
ALGORITMO DE GAUSS 9
Exemplo 8
1.2 Equações Lineares 15
* NTT: Também conhecido como escalonamento da matriz.
9 Embora Gauss tenha de fato usado esse procedimento, o método é atribuído aos chineses, que o utilizaram vários séculos antes.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 15
Encontre todas as soluções do seguinte sistema de equações lineares:
x1 − 2x2 − x3 + 3x4 = 1
2x1 − 4x2 + x3 = 5
x1 − 2x2 + 2x3 − 3x4 = 4
A matriz completa é dada a seguir. Como o primeiro pivô está no lugar, passamos a anular
os demais elementos da coluna 1:
⎡
⎢
⎢
⎣
1 −2 −1 3 1
2 −4 1 0 5
1 −2 2 −3 4
⎤
⎥
⎥
⎦
→
⎡
⎢
⎢
⎣
1 −2 −1 3 1
0 0 3 −6 3
0 0 3 −6 3
⎤
⎥
⎥
⎦
Agora subtraímos a segunda linha da terceira e então10 multiplicamos a segunda linha por 13 ,
para conseguir a matriz abaixo (agora na forma escalonada por linhas):
→
⎡
⎢
⎢
⎣
1 −2 −1 3 1
0 0 1 −2 1
0 0 0 0 0
⎤
⎥
⎥
⎦
Agora use o segundo pivô (na coluna 3) para anular os demais elementos da coluna 3 e,
portanto, conseguir a forma escalonada:
→
⎡
⎢
⎢
⎣
1 −2 0 1 2
0 0 1 −2 1
0 0 0 0 0
⎤
⎥
⎥
⎦
Essa forma é até onde o algoritmo de Gauss pode nos levar. O sistema de equações
correspondente é
x1 − 2x2 + x4 = 2
x3 − 2x4 = 1
0 = 0
Os pivôs estão nas colunas 1 e 3 e as incógnitas correspondentes, x1 e x3, são chamadas
variáveis dependentes. Para resolver o sistema, atribuímos valores arbitrários às variáveis
independentes* (chamados parâmetros), e então as duas equações são usadas para
determinar as variáveis dependentes em termos dos parâmetros. Mais precisamente,
escrevemos x2 = s, e x4 = t onde s e t são parâmetros arbitrários, de modo que as equações se
tornam x1 − 2s + t = 2 e x3 − 2t = 1. Resolvendo, obtemos x1 = 2 + 2s − t e x3 = 1 + 2t.
Logo, as soluções são dadas por
X = [2 + 2s − t s 1 + 2t t]T =
⎡
⎢
⎢
⎢
⎢
⎢
⎣
2 + 2s − t
s
1 + 2t
t
⎤
⎥
⎥
⎥
⎥
⎥
⎦
.
A solução X = [2 + 2s − t s 1 + 2t t]T no Exemplo 9 é chamada solução geral do sistema
porque toda solução tem essa forma para alguma escolha de valores para os parâmetros s e t.
Quando a matriz completa de um sistema linear é transformada na forma escalonada
reduzida, as variáveis correspondentes aos pivôs são chamadas variáveis dependentes.
Assim, o método de resolução no Exemplo 9 fornece uma maneira de escrever as soluções de
qualquer sistema linear (desde que existam soluções).
Assuma que um sistema de equações lineares tem pelo menos uma solução. Então a solução
geral pode ser encontrada na forma paramétrica da seguinte maneira:
Passo 1. Reduza a matriz completa do sistema à forma escalonada reduzida por linhas.
Passo 2. Atribua parâmetros às variáveis livres.
Método de Eliminação
de Gauss
S O L U Ç Ã O
Exemplo 9
C A P Í T U L O 1 Equações Lineares e Matrizes16
10 Esses passos não estão na ordem especificada pelo algoritmo. Entretanto, o objetivo é levar a matriz à forma escalonada usando
alguma seqüência de operações por linhas. A seqüência estabelecida no algoritmo sempre irá funcionar, mas pode não ser a mais
eficiente.
1* NTT: Também chamadas variáveis livres.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 16
Passo 3. Use as equações correspondentes à forma escalonada reduzida para escrever as
variáveis dependentes em termos dos parâmetros.
Esse procedimento resolve qualquer sistema de equações que tem uma solução. O exemplo a
seguir mostra como o método revela que um sistema não tem solução.
No Exemplo 4 foi mostrado diretamente que o sistema
x + y = 1
x − z = 2
y + z = 1
não tem solução. A redução da matriz completa à forma escalonada é a seguinte:
⎡
⎢
⎢
⎣
1 1 0 1
1 0 −1 2
0 1 1 1
⎤
⎥
⎥
⎦
→
⎡
⎢
⎢
⎣
1 1 0 1
0 −1 −1 1
0 1 1 1
⎤
⎥
⎥
⎦
→
⎡
⎢
⎢
⎣
1 1 0 1
0 1 1 −1
0 0 0 2
⎤
⎥
⎥
⎦
→
⎡
⎢
⎢
⎣
1 1 0 1
0 1 1 −1
0 0 0 1
⎤
⎥
⎥
⎦
Esta última matriz corresponde a um sistema no qual a última equação é
0x + 0y + 0z = 1.
É claro que nenhuma escolha de x, y e z irá satisfazer essa equação, logo esse último sistema
(e, portanto, o sistema original) não tem solução. Tipicamente é isso o que acontece quando
o sistema não tem solução.
Quando se usa o método de eliminação de Gauss para resolver um sistema grande é mais
eficiente reduzir a matriz completa apenas até a forma escalonada,11 atribuir parâmetros às
variáveis livres, e então calcular as variáveis dependentes fazendo substituição de trás para
frente. Use a última equação para encontrar a última variável dependente em termos dos
parâmetros, substitua esse valor na penúltima equação para calcular a penúltima variável
dependente e assim por diante. Esse método é mais eficiente do que transformar a matriz até
a forma escalonada reduzida, como pode ser confirmado por uma contagem do número de
operações envolvidas (ver na maioria dos livros de análise numérica).
Será demonstrado na Seção 1.6 (Teorema 4) que:
A forma escalonada reduzida de uma matriz A é unicamente determinada por A.
Isto é, independentemente de qual série de operações por linha é usada para levar A à
matriz na forma escalonada reduzida, o resultado será sempre o mesmo. Entretanto, a
mesma matriz pode ser levada a diferentes matrizes na forma escalonada. Por exemplo,
se A =
[
1 3 4
2 7 9
]
, então
A →
[
1 3 4
0 1 1
]
and A →
[
1 3 4
0 1 1
]
→
[
1 2 3
0 1 1
]
.
Portanto A pode ser levada a duas matrizes escalonadas diferentes
[
1 3 4
0 1 1
]
and 
[
1 2 3
0 1 1
]
.
Entretanto mostraremos na Seção 4.4 que:
O número de pivôs deve ser o mesmo, independentemente de como é feito o
escalonamento de A.
Esse número de pivôs é chamado posto da matriz A e é denotado por posto(A).
1.2.4 Posto de uma Matriz
Exemplo 10
1.2 Equações Lineares 17
e A
e
11 Isso é com freqüência conhecido como algoritmo de Gauss, particularmente em análise numérica.
Algebra_Chap01_PORTUGUES.qxd31.08.56 11:20 AM Page 17
caraujo
Retângulo
Calcule o posto de A =
⎡
⎢
⎢
⎣
1 2 −1 3
2 1 1 5
−1 4 −5 −1
⎤
⎥
⎥
⎦
.
A matriz A é levada à forma escalonada da seguinte maneira:
A =
⎡
⎢
⎢
⎣
1 2 −1 3
2 1 1 5
−1 4 −5 −1
⎤
⎥
⎥
⎦
→
⎡
⎢
⎢
⎣
1 2 −1 3
0 −3 3 −1
0 6 −6 2
⎤
⎥
⎥
⎦
→
⎡
⎢
⎢
⎣
1 2 −1 3
0 1 −1 13
0 0 0 0
⎤
⎥
⎥
⎦
Como há dois pivôs, temos que posto (A) = 2.
A relação entre posto e sistemas de equações lineares é dada no seguinte teorema.
Suponha que um sistema de m equações em n indeterminadas tem pelo menos uma solução.
Se o posto da matriz completa é r, o conjunto de soluções tem exatamente (n − r) parâmetros.
Reduza a matriz completa do sistema a uma forma escalonada R. Então R tem r pivôs (já que
o posto é r), logo há exatamente r variáveis dependentes. Conseqüentemente, há (n − r)
variáveis livres e a cada uma delas associamos um parâmetro.
O Teorema 3 tem um número surpreendente de conseqüências e será usado várias vezes
no que segue. Vimos exemplos de sistemas sem solução, com uma solução, ou com infinitas
soluções; a primeira aplicação do Teorema 3 é mostrar que essas são as únicas possibilidades.
Para qualquer sistema de equações lineares há exatamente três possibilidades:
(1) Não há solução.
(2) Há uma única solução.
(3) Há infinitas soluções.
Se existir uma solução, então ou toda variável é uma variável dependente (solução única) ou
há pelo menos uma variável livre (infinitas soluções porque há um parâmetro envolvido).
Como salientado anteriormente, um sistema de equações lineares é chamado consistente
se ele tem pelo menos uma solução. O sistema é dito inconsistente se ele não tiver nenhuma
solução. Assim, um sistema consistente tem ou uma única solução ou infinitas soluções.
Ele não pode ter, digamos, exatamente duas soluções.
A veracidade do Teorema 4 pode ser vista graficamente para um sistema de duas equações
em duas incógnitas x e y. Lembre-se que o gráfico de uma equação da forma ax + by = c é
uma reta, se a e b forem não ambos nulos, e que
[
s
t
]
é uma solução da equação exatamente
quando o ponto P(s, t) com coordenadas (s, t) está sobre a reta.
Considere agora um sistema
a1x + b1y = c1
a2x + b2y = c2
(∗∗)
Os gráficos dessas equações são duas retas, L1 e L2 desde que a1 e b1 sejam não ambos nulos,
e que a2 e b2 sejam não ambos nulos. Geometricamente, aqui estão três possibilidades para
essas duas retas (ilustradas na Figura 1.1):
(1) As retas são paralelas e distintas O sistema (∗∗) não tem solução porque não há ponto
comum às duas retas
(2) As retas não são paralelas O sistema (∗∗) tem uma única solução que
corresponde ao ponto de intersecção das retas
(3) As retas são coincidentes O sistema (∗∗) tem infinitas soluções, uma para
cada ponto sobre a reta comum.
D E M O N S T R A Ç Ã O
TEOREMA 4
D E M O N S T R A Ç Ã O
TEOREMA 3
S O L U Ç Ã O
Exemplo 11
C A P Í T U L O 1 Equações Lineares e Matrizes18
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 18
1.2 Equações Lineares 19
Claramente essas três possibilidades correspondem àquelas no Teorema 4.
Figura 1.1
O gráfico de uma equação ax + by + cz = d é um plano no espaço se a, b e c forem não
todos nulos (isso será discutido com detalhes na Seção 3.3). Logo, um sistema com 2
equações e 3 incógnitas pode ou não ter soluções (os planos são paralelos) ou ter infinitas
soluções (os planos coincidem ou se interceptam em uma reta). Uma solução única não é
possível nesse caso. Isso ilustra o Teorema 3 já que há n = 3 indeterminadas e a matriz
completa tem posto r ≤ 2 (porque há duas equações), logo n − r ≥ 3 − 2 = 1, que
corresponde ao número de parâmetros.
Um argumento gráfico similar pode ser dado para ver que um sistema com três equações
em três indeterminadas tem que ter ou nenhuma, ou uma, ou infinitas soluções, como no
Teorema 4. Entretanto, o argumento geométrico falha para sistemas com mais que três
incógnitas, e temos que confiar no Teorema 4.
Y
X0
L1 = L2
Infinitas
Soluções
(3)
Y
X0
L1 L2
Uma Única
Solução
(2)
Y
X0
L1
L2
Sem 
Solução
(1)
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 19
1.3 Sistemas Homogêneos 21
Nesta seção, vamos nos concentrar em uma classe particular de sistemas de equações
lineares, a saber, os sistemas em que o termo constante de cada equação é igual a 0.
Um sistema de equações lineares é denominado homogêneo se todos os termos
constantes forem nulos. Assim, uma equação linear homogênea típica, em n indeterminadas
x1, x2, · · · , xn tem a forma
a1x1 + a2x2 + · · · + anxn = 0.
Como os termos constantes são todos nulos, qualquer sistema homogêneo admite sempre a
solução trivial
x1 = 0, x2 = 0, · · · , xn = 0
em que toda variável é igual a zero. Muitos problemas práticos se resumem em descobrir se
um sistema homogêneo tem alguma solução não-trivial, ou seja, uma solução em que pelo
menos uma das variáveis é diferente de zero. O teorema a seguir apresenta uma situação
importante em que isso certamente ocorre.
Se um sistema de equações lineares homogêneo tem mais incógnitas que equações, então ele
admite uma solução não-trivial.
Suponha que existam m equações em n incógnitas, de forma que nossa hipótese é que
n > m. Se r é o posto da matriz completa, então r ≤ m porque o número r de pivôs não
pode exceder o número m de equações. Portanto, r ≤ m < n, donde r < n. Pelo Teorema 3
da Seção 1.2, isso significa que o número n − r de parâmetros é não-nulo. Então existem
(infinitas) soluções não-triviais.
A existência de uma solução não-trivial é freqüentemente o resultado desejado para um
sistema homogêneo. O exemplo a seguir fornece uma ilustração de como o Teorema 1 pode
ser usado em geometria.
O gráfico de uma equação ax2 + bxy + cy2 + dx + ey + f = 0 é chamada cônica se a, b e c
forem não todos nulos. (Circunferências, elipses, hipérboles e parábolas são exemplos de
cônicas.) Mostre que há pelo menos uma cônica que passa por quaisquer cinco pontos
fixados no plano que não estejam alinhados.
Suponha que as coordenadas dos cinco pontos sejam (p1, q1), (p2, q2), (p3, q3), (p4, q4),e
(p5, q5). O gráfico da equação ax2 + bxy + cy2 + dx + ey + f = 0 passa pelo ponto (pi, qi) se 
ap2i + bpiqi + cq
2
i + dpi + eqi + f = 0
Como há cinco pontos, temos cinco equações lineares homogêneas nas seis incógnitas 
a, b, c, d, e e f. Conseqüentemente, há uma solução não-trivial, pelo Teorema 1. Se nessa
solução ocorrer a = b = c = 0, então todos os cinco pontos estão sobre a reta de equação
dx + ey + f = 0, contrário às nossas suposições. Por essa razão, a, b ou c é não-nulo e temos
uma cônica.
S O L U Ç Ã O
Exemplo 1
D E M O N S T R A Ç Ã O
TEOREMA 1
1.3.1 Sistemas Homogêneos
1.3 SISTEMAS HOMOGÊNEOS
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 21
caraujo
Retângulo
Claramente, o método de eliminação de Gauss também funciona para sistemas homogêneos.
Na verdade, ele fornece um modo de escrever as soluções de modo conveniente, que será
necessário mais adiante.
Resolva o seguinte sistema homogêneo:
x1 − 2x2 + x3 + x4 = 0
−x1 + 2x2 + x4 = 0
2x1 − 4x2 + x3 = 0
e expresse as soluções como somas de múltiplos escalares de soluções específicas.
A matriz completa é reduzida da seguinte maneira:
⎡
⎢
⎢
⎣
1 −2 1 1 0
−1 2 0 1 0
2 −4 1 0 0
⎤
⎥
⎥
⎦
→
⎡
⎢
⎢
⎣
1 −2 1 1 0
0 0 1 2 0
0 0 −1 −2 0
⎤
⎥
⎥
⎦
→
⎡
⎢
⎢
⎣
1 −2 0 −1 0
0 0 1 2 0
0 0 0 0 0
⎤
⎥
⎥
⎦
Por essa razão, as variáveis dependentes são x1 e x3, e as variáveis livres x2 e x4 tornam-se
parâmetros: x2 = s e x4 = t. Assim, as equações no sistema final determinam as variáveis
dependentes em termos dos parâmetros:
x1 = 2s + t and x3 = −2t
Isso significa que a solução geral é X = [2s + t s − 2t t]T. A nova idéia agora é separar
esse resultado em parcelas, de modo que em cada uma apareça apenas um dos parâmetros
s ou t:
X =
⎡
⎢
⎢
⎢
⎢
⎢
⎣
2s + t
s
−2t
t
⎤
⎥
⎥
⎥
⎥
⎥
⎦
=
⎡
⎢
⎢
⎢
⎢
⎢
⎣
2s
s
0
0
⎤
⎥
⎥
⎥
⎥
⎥
⎦
+
⎡
⎢
⎢
⎢
⎢
⎢
⎣
t
0
−2t
t
⎤
⎥
⎥
⎥
⎥
⎥
⎦
= s
⎡
⎢
⎢
⎢
⎢
⎢
⎣
2
1
0
0
⎤
⎥
⎥
⎥
⎥
⎥
⎦
+ t
⎡
⎢
⎢
⎢
⎢
⎢
⎣1
0
−2
1
⎤
⎥
⎥
⎥
⎥
⎥
⎦
Assim, X1 =
⎡
⎢
⎢
⎢
⎢
⎢
⎣
2
1
0
0
⎤
⎥
⎥
⎥
⎥
⎥
⎦
e X2 =
⎡
⎢
⎢
⎢
⎢
⎢
⎣
1
0
−2
1
⎤
⎥
⎥
⎥
⎥
⎥
⎦
são soluções particulares, e a solução geral X tem
a forma X = sX1 + tX2.
As soluções particulares X1 e X2 no Exemplo 2 são chamadas soluções básicas do sistema
homogêneo. Elas têm a propriedade que toda solução X é da forma
X = sX1 + tX2 onde s e t são números arbitrários.
Esse fato acontece em todo sistema homogêneo.
Para descrever a situação geral, a seguinte terminologia será útil: se X1, X2, · · · , Xk são
colunas, uma expressão da forma 
s1X1 + s2X2 + . . . + skXk onde s1, s2, · · · , sk são números arbitários 
é chamada combinação linear das colunas X1, X2, · · · , Xk. Dado qualquer sistema de
equações lineares homogêneo, um cálculo como o feito no Exemplo 2 resulta na expressão
de toda solução do sistema como uma combinação linear de certas soluções particulares.
Essas soluções particulares são chamadas soluções básicas produzidas pelo algoritmo de
Gauss. (É claro que o sistema pode ter apenas a solução trivial; nesse caso, dizemos que o
sistema não tem soluções básicas.)
S O L U Ç Ã O
Exemplo 2
1.3.2 Soluções Básicas
C A P Í T U L O 1 Equações Lineares e Matrizes22
e
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 22
Encerra aqui o trecho do livro disponibilizado para 
esta Unidade de Aprendizagem. Na Biblioteca Virtual 
da Instituição, você encontra a obra na íntegra.
ÁLGEBRA LINEAR
Marcelo Maximiliano Danesi
Espaços vetoriais: exemplos 
e propriedades básicas
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
 � Definir espaço e subespaço vetoriais.
 � Demonstrar que um conjunto dado é um espaço vetorial.
 � Avaliar se um subconjunto de um espaço vetorial dado é um subes-
paço vetorial.
Introdução
Neste capítulo, você aprenderá a identificar espaços vetoriais não ne-
cessariamente n-dimensionais (como ℝn), seus subespaços vetoriais, 
as condições necessárias às operações que definem o espaço e seus 
subespaços, as propriedades básicas dos espaços e subespaços, assim 
como verá exemplos principais de espaços e subespaços vetoriais.
É natural que o primeiro contato do aluno com a álgebra linear seja 
por meio de matrizes e vetores do ℝn. Nesse ambiente, é mais fácil visuali-
zarmos os resultados e as propriedades desses espaços, as operações e as 
relações de ângulo e medida. Agora que temos uma visão mais aguçada 
do assunto, podemos generalizar esses conceitos a fim de percebermos 
essa estrutura (linear) em outros sistemas, conjuntos ou aplicações. 
Os espaços vetoriais
Um espaço vetorial E é um conjunto de vetores, no qual estão definidas ope-
rações de soma e de multiplicação por um número real, de modo que dados 
vetores u, v ∈ E e α ∈ ℝ:
1. u + v E, isto é, a soma de u e v também é um vetor em E;
2. αu ∈ E, isto é, o produto de u por um número real α também é um 
vetor em E.
Quando as condições anteriores são satisfeitas, podemos dizer que o con-
junto E é fechado em relação às operações de soma e multiplicação por nú-
mero real. Adicionalmente, essas operações devem satisfazer, para quaisquer 
α, β ∈ ℝ e u, v, w ∈ E, as seguintes condições, ditas axiomas do espaço vetorial.
a) Comutatividade: u + v = v + u.
b) Associatividade: (u + v) + w = u + (v + w) e (αβ) u = α(βu).
c) Vetor nulo: existe 0 ∈ E, dito vetor nulo, tal que, para todo v ∈ E: 
v + 0 = 0 + v = v;
d) Inverso aditivo: para cada u ∈ E, existe –u ∈ E dito inverso aditivo 
de u, tal que:
– u + u = u + (–u) = 0;
e) Distributividade: (α + β) u = αu + βu e α(u + v) = αu + αv;
f) Identidade por 1: para todo u ∈ E, 1 ⋅ u = u.
Uma curiosidade é reparar que usamos o símbolo “0” tanto para o nú-
mero real zero quanto para o vetor nulo. Isso não será problema, pois uma 
consequência desses axiomas é que 0 ⋅ u = 0.
Espaços vetoriais: exemplos e propriedades básicas2
Num espaço vetorial qualquer, os elementos que compõem E não são necessariamente 
n-uplas de números reais representando um segmento orientado. Logo, não usamos 
a notação u→ para os elementos d e E como fazíamos no espaço vetorial ℝn.
O exemplo trivial que poderíamos citar é o caso que E = ℝn e os vetores 
u são as n-uplas de números reais. Ao invés dele, falaremos de um espaço 
vetorial muito similar, mas que mostra uma flexibilidade da definição para 
outros tipos de conjuntos.
Fixado n ∈ ℕ, seja Pn o conjunto formado por todos os polinômios de grau menor 
ou igual a n, de coeficientes reais e definidos em ℝ. Ou seja, os elementos de Pn são:
u = an x
n + ⋯ + a1x + a0
v = bn x
n + ⋯ + b1x + b0,
onde an, … , a1, a0, bn, … , b1, b0 ∈ ℝ. Nesse espaço, definimos as operações de 
modo que:
u + v = (an + bn)x
n + ⋯ +(a1 + b1)x + (a0 + b0),
αu = (αan )x
n + ⋯ + (αa1 ) x + (αa0 ).
Assim, o vetor nulo é:
0 = 0xn + ⋯ + 0x + 0
E o inverso aditivo de u é:
– u = – an x
n – … – a1x – a0.
3Espaços vetoriais: exemplos e propriedades básicas
Esse exemplo não é muito diferente do ℝn, porque existe uma identificação 
entre os polinômios de grau n, de coeficientes reais, definidos em ℝ, e as 
n-uplas de números reais na medida em que:
Contudo, é válido imaginar o significado de um produto interno nesse 
espaço vetorial, o que seriam polinômios ortogonais e as transformações 
lineares sobre esses elementos. Antes de prosseguir com essas questões, vamos 
explorar um exemplo distante do ℝn.
Usando a teoria do cálculo, seja I ⊂ ℝ um intervalo aberto, e C0 (I) o conjunto formado 
por todas as funções contínuas reais definidas em I. Ou seja, os elementos de C0 (I) são:
u = u(x)
v = v(x).
Nesse espaço, definimos as operações de modo que:
u + v = u(x) + v(x),
αu = α ⋅ u(x).
Essas operações resultam em funções contínuas — porque a soma de funções 
contínuas é contínua, e a multiplicação de uma função contínua por um número real 
é uma função contínua (ANTON, 2012). Assim, o vetor nulo é, para todo x ∈ I:
0 = 0(x) = 0
E o inverso aditivo de u é:
– u = – u(x).
Espaços vetoriais: exemplos e propriedades básicas4
Esse exemplo é mais distante do ℝn porque uma função é definida pelas 
imagens dos infinitos x ∈ I. Isso nos dá abertura para imaginarmos o conceito 
de dimensão aplicado a esse conjunto. Como será que podemos definir uma 
base? Novamente, antes de falarmos dessas questões mais avançadas, segui-
remos com a próxima definição natural.
Subespaços vetoriais
Seja E um espaço vetorial. Um subespaço vetorial (ou apenas subespaço) 
de E é um subconjunto F ⊂ E que ainda é um espaço vetorial em relação às 
operações de E. Isto é, F apresenta as seguintes propriedades.
i. Se u, v ∈ F, então u + v ∈ F.
ii. Se u ∈ F, então, para todo α ∈ ℝ, αu ∈ F.
São considerados subespaços triviais de E o conjunto {0} que contém apenas 
o vetor nulo e o próprio E. Aproveitando os exemplos anteriores, podemos dar 
os seguintes subespaços não triviais.
Fixados m, n ∈ ℕ, m < n, sejam Pn o conjunto formado por todos os polinômios de grau 
menor ou igual a n, de coeficientes reais, definidos em ℝ, e Pm o conjunto formado 
por todos os polinômios de grau menor ou igual a m, de coeficientes reais, definidos 
em ℝ. Dessa maneira:
 � dado u ∈ Pm, o grau de u é menor que n, logo u ∈ Pn, e Pm ⊂ Pn;
 � a soma de polinômios de grau menor ou igual a m tem grau menor ou igual a 
m, assim como a multiplicação por número real, logo Pm é fechado em relação às 
operações de Pn.
O espaço vetorial definido pelas funções contínuas em I também nos dá 
um exemplo de subespaço.
5Espaços vetoriais: exemplos e propriedades básicas
 � Usando a teoria do cálculo, sejam I ⊂ ℝ um intervalo aberto, C0 (I) o conjunto 
formado por todas as funções reais contínuas definidas em I, e C1 (I) o conjunto de 
todas as funções reais deriváveis em I. Dessa maneira: 
 � dado u ∈ C1 (I), u é função derivável e, portanto, contínua (ANTON, 2014), logo u ∈ 
C1 (I), o que implica que C1 (I) ⊂ C0 (I);
 � a soma de funções deriváveis é derivável, assim como a multiplicação por número 
real(ANTON, 2014), logo C1 (I) é fechado em relação às operações de C0 (I).
Portanto, C1 (I) é um subespaço de C0 (I).
Subespaços gerados
Dado um conjunto de vetores B = {u1, u2, … , un } contido no espaço vetorial 
E, dizemos que u ∈ E é combinação linear de u1, u2, … , un, se existem α1, α2, 
…, αn ∈ ℝ:
u = α1u1 + α2u2 + ⋯ αnun.
O conjunto de todas as combinações lineares dos vetores de B é dito gerado 
de B:
ger(B) = ger {u1, u2, … , un } = 
{u;u “é combinação linear de” u1, u2, … , un }. 
Esse conjunto é subespaço vetorial de E , pois:
1. B ⊂ E implica que ui ∈ E, para todo i = 1, …, n — como E é fechado, 
as combinações lineares de B pertencem a E, logo ger(B) ⊂ E;
2. escolhendo α1 = α2 = ⋯ = αn = 0, temos u = 0 ∈ ger(B);
3. dados u, v ∈ ger(B), existem coeficientes α1, α2, … , αn, β1, β2, …, βn ∈ ℝ, 
tal que:
u = α1u1 + α2u2 + ⋯ + αnun;
v = β1u1 + β2u2 + ⋯ + βnun.
Espaços vetoriais: exemplos e propriedades básicas6
Dessa maneira, os vetores u + v e αu também são combinações lineares 
de B , pois, para todo α ∈ ℝ:
u + v = (α1 + β1) u1 + (α2 + β2) u2 + ⋯ (αn + βn) un
αu = (αα1) u1 + (αα2) u2 + ⋯ + (ααn) un.
Isso quer dizer que ger(B) é fechado em relação às operações de E.
 � Usando a teoria do cálculo, sejam I = [0,1] ⊂ ℝ intervalo fechado, C0 (I) o conjunto 
formado por todas as funções reais contínuas definidas em I, e B o conjunto de 
todas as funções reais definidas em I, da forma:
un (x) = sen (nπx)
onde n = 1, …, + ∞.
Assim, podemos afirmar que o gerado de B é um subespaço de C0 (I) no qual, para 
todo u ∈ ger (B), existem α1, α2, … ∈ ℝ, tal que:
u(x) = α1 sen (nπx) + α2 sen (nπx) + …;
u(0) = u(1) = 0.
Podemos entender esse conjunto como sendo o das cordas tensionadas e vibrantes 
entre os pontos fixos (0,0) e (1,0), onde cada ui representa uma frequência de u.
Veja, a seguir, a Figura 1.
Figura 1. O gráfico à esquerda mostra, em verde, u1 (x) = sem(πx), em vermelho, u2 (x) = 
sem(2πx) e, em azul, u3 (x) = sem(3πx). O gráfico à direita mostra u(x) = u1 – u2 – u3
1
2
1
4
1
4
 .
7Espaços vetoriais: exemplos e propriedades básicas
Um conjunto como espaço vetorial
Pelo que foi definido anteriormente, um conjunto E dotado de uma operação 
de soma e uma operação de multiplicação por um número real é um espaço 
vetorial, se E satisfaz as condições (i) e (ii) de fechamento das operações e as 
condições de (a) até (f) das propriedades necessárias às operações.
Podemos reescrever essa definição como um algoritmo, a fim de verificar 
se um determinado conjunto E com duas operações é espaço vetorial.
1. Identificar o conjunto E de elementos que serão os vetores.
2. Identificar as operações de soma e multiplicação por escalar.
3. Verificar as condições (i) e (ii), isto é, se as operações de soma e mul-
tiplicação por escalar são fechadas em E.
4. Verificar as propriedades (a) até (f).
Considere o conjunto F das matrizes 2 × 2 da forma u =
a11 a12
a21 a22
, onde aij ∈ ℝ para 
todo i,j = 1,2.
Dados u = , v = e α є ℝ
a11 a12
a21 a22
b11 b12
b21 b22
, definimos a soma e a multiplicação 
por escalar em F como:
u + v =
a11 + b11 a12 + b12
a21 + b21 a22 + b22
αu =
αa11 αa12
αa21 αa22
Assim, verificamos as seguintes condições.
i. u + v é uma matriz 2 × 2, e cada entrada de u + v é um número real, logo u + v ∈ F.
ii. αu é uma matriz 2 × 2, e cada entrada de αu é um número real, logo αu ∈ F.
A seguir, verificamos se essas operações satisfazem os axiomas.
Dados u = , v = , w = є E e α, β є ℝ
a11 a12
a21 a22
b11 b12
b21 b22
c11 c12
c21 c22
.
Espaços vetoriais: exemplos e propriedades básicas8
a) u + v = = = v + u;
a11 + b11 a12 + b12
a21 + b21 a22 + b22
b11 + a11 b12 + a12
b21 + a21 b22 + a22
b) (u + v) + w = + =
a11 + b11 a12 + b12
a21 + b21 a22 + b22
c11 c12
c21 c22
a11 + b11 + c11 a12 + b12 + c12
a21 + b21 + C21 a22 + b22 + c22
=
a11 a12
a21 a22
+ = u + (v + w)
b11 + c11 b12 + c12
b21 + c21 b22 + c22
e (αβ)u = = = α(βu);
(αβ)a11 (αβ)a12
(αβ)a21 (αβ)a22
α(βa11) α(βa12)
α(βa21) α(βa22)
c) Tomando 0 =
0 0
0 0 , então, para todo v ∈ E:
 
0 + v = + = = v;0 0
0 0
b11 b12
b21 b22
b11 b12
b21 b22
d) Para cada u ∈ E tomando –u = (–1)u = 
–a11 –a12
–a21 –a22
, temos:
u + (–u) = + = ; 
a11 a12
a21 a22
–a11 –a12
–a21 –a22
0 0
0 0
e) (α + β)u = (α + β) = 
a11 a12
a21 a22
(α + β)a11 (α + β)a12
(α + β)a21 (α + β)a22
= = αu + βu
αa11 + βa11 αa12 + βa12
αa21 + βa21 αa22 + βa22
 e
α(u + v) = = + = αu + αv;
α(a11 + b11) α(a12 + b12)
α(a21 + b21) α(a22 + b22)
αa11 αa12
αa21 αa22
αb11 αb12
αb21 αb22
f) Para todo u ∈ E, temos que:
1 · u = u .
1a11 1a12
1a21 1a22
Portanto, F é espaço vetorial.
Vamos alterar o exemplo acima para mostrar algumas sutilezas do algoritmo.
9Espaços vetoriais: exemplos e propriedades básicas
Fixado λ ∈ ℝ, considere o conjunto Gλ das matrizes 2 × 2 da forma:
u =
a11 a12
a21 λ
onde aij ∈ ℝ para todo i,j = 1,2.
Dados u = , v = e α є ℝ
a11 a12
a21 λ
b11 b12
b21 λ , definimos a soma e a multiplicação por 
escalar em Gλ, como:
u + v = αu = 
a11 + b11 a12 + b12
a21 + b21 λ
αa11 αa12
αa21 λ
Assim, verificamos as seguintes condições.
i. u + v é uma matriz 2 × 2, e cada entrada de u + v é um número real com o elemento 
da posição (2,2) valendo λ, logo u + v ∈ Gλ.
ii. αu é uma matriz 2 × 2, e cada entrada de αu é um número real com o elemento 
da posição (2,2) valendo λ, logo αu ∈ Gλ.
A seguir, verificamos se essas operações satisfazem os axiomas.
Dados u = , v = , w = є Gλ e α, β є ℝ
a11 a12
a21 λ
b11 b12
b21 λ
c11 c12
c21 λ
a) u + v = = = v + u;
a11 + b11 a12 + b12
a21 + b21 λ
b11 + a11 b12 + a12
b21 + a21 λ
b) (u + v) + w = + =
a11 + b11 a12 + b12
a21 + b21 λ
a11 + b11 + c11 a12 + b12 + c12
a21 + b21 + c21 λ
c11 c12
c21 λ
b11 + c11 b12 + c12
b21 + c21 λ
a11 a12
a21 λ
= + = u + (v + w)
(αβ)u = = = α(βu)
(αβ)a11 (αβ)a12
(αβ)a21 λ
α(βa11) α(β)a12)
α(βa21) λ
c) Tomando 0 =
0 0
0 λ , então, para todo v ∈ E:
0 0
0 λ
0 + v = + = = v;
b11 b12
b21 λ
b11 b12
b21 λ
Espaços vetoriais: exemplos e propriedades básicas10
d) Para cada u ∈ E tomando –u = (–1)u =
–a11 –a12
–a21 λ , temos:
u + (–u) = + = ;
a11 a12
a21 λ
–a11 –a12
–a21 λ
0 0
0 λ
e) 
(α + β)u = (α + β) = =
a11 a12
a21 λ
(α + β)a11 (α + β)a12
(α + β)a21 λ
αa11 + βa11 αa12 + βa12
αa21 + βa21 λ
= αu + βu
 
e
α(u + v) = = + = αu + αv; 
α(a11 + b11) α(a12 + b12)
α(a21 + b21) λ
αa11 αa12
αa21 λ
αb11 αb12
αb21 λ
f) Para todo u ∈ E, temos que:
u + (–u) = + = ;
a11 a12
a11 λ
–a11 –a12
–a11 λ
0 0
0 λ
Portanto, Gλ é espaço vetorial.
O paralelo que precisamos fazer entre os dois exemplos anteriores é: Gλ 
é um subconjunto de F , mas F e Gλ são espaços vetoriais com operações 
distintas e incompatíveis, se λ ≠ 0. De forma mais precisa, se compararmos 
a soma de u, v ∈ Gλ pela soma definida em F com a soma definida em Gλ:
Podemos reparar que, se λ ≠ 0, então (u + v)F ≠ (u + v)G. Isso significa 
que, dado um conjunto, existem diferentes maneiras de definirmos as suas 
operações, a fim de obtermos um espaço vetorial. O próximo exemplo mostra 
que nem toda operação define um espaço vetorial.
11Espaços vetoriais: exemplos e propriedades básicas
Considere o conjunto H das matrizes 2 × 2 da forma:
u =
a11 a12
a21 a22
onde aij ∈ ℝ para todo i,j = 1,2.
Dados u = , v = e α є ℝ
a11 a12
a21 a22
b11 b12
b21 b22
 definimos a soma e a multiplicação por 
escalar emH, como:
u + v =
a11 + b11 a12 + b12
a21 + b21 a22 + b22
αu =
αa11 αa12
αa21 αa22
2 2 2 2
2 2 2 2
Dessa forma, as condições (i) e (ii) funcionam igual aos demais exemplos, assim como 
a condição (a). Contudo, a condição (b) não é verificada, pois:
(u + v) + w = + =
a11 + b11 a12 + b12
a21 + b21 a22 + b22
c11 c12
c21 c22
(a11 + b11) + c11 (a12 + b12) + c12
(a21 + b21) + C21 (a22 + b22) + c22
2 2 2 2 2
2 22 2
2 2 2 22 22 2
2 2 2
2 2 2 2
Enquanto que:
u + (v + w) = + =
a11 a12
a21 a22
b11 + c11 b12 + c12
b21 + c21 b22 + c22
2
2 2 2 2
2 2 2 a11 + (b11 + c11) a12 + (b12 + c12)
a21 + (b21 + c21) a22 + (b22 + c22)
2 22 2 2 2
2
2 2 2
2
2
2 2 2
2
Logo, com as operações definidas anteriormente, H não é espaço vetorial. É impor-
tante ressaltar, também, a necessidade de verificarmos todas as condições e proprie-
dades da definição, a fim de concluirmos se o conjunto e as operações definem um 
espaço vetorial.
Exemplos de espaços vetoriais
Antes de prosseguir, vamos a outros exemplos de espaços vetoriais que não 
foram mencionados neste capítulo, mas que são comuns nas aplicações.
Espaços vetoriais: exemplos e propriedades básicas12
Generalizando um dos exemplos anteriores, fixados m, n ∈ ℕ, seja Mm × n(ℝ) o conjunto 
formado por todas as matrizes m × n, de coeficientes reais, isto é, o conjunto formado 
pelos elementos da forma:
u = [aij],
v = [bij]
onde aij, bij∈ ℝ para i = 1, …, m e j = 1, …, n. Nesse conjunto, definimos as operações 
de modo que:
u + v = [cij ],
onde cij = aij + bij para i = 1, …, m e j = 1, …, n, e αu = [αaij].
Assim, o vetor nulo é a matriz formada por zero em todas as posições: 
0 = [0]
E o inverso aditivo de u é:
– u = [– aij].
Outro exemplo são as sequências ordenadas de infinitos números reais, o ℝ∞. Nesse 
conjunto, os elementos de ℝ∞ são:
u = (a1, a2, a3,…)
v = (b1, b2, b3,…),
onde a1, b1, a2, b2, a3, b3, …∈ ℝ. Nesse espaço, definimos as operações de modo que:
u + v = (a1 + b1, a2 + b2, a3 + b3,…),
αu = (αa1, αa2, αa3,…).
13Espaços vetoriais: exemplos e propriedades básicas
Assim, o vetor nulo é:
0 = (0, 0, 0,…)
E o inverso aditivo de u é:
– u = (– a1, – a2, – a3,…).
Um subconjunto como subespaço vetorial
Como foi definido, dado E espaço vetorial, um subespaço vetorial (ou subes-
paço) de E é um subconjunto F ⊂ E que ainda é um espaço vetorial em relação 
às operações de E. Isto é, F precisa ser fechado em relação às operações de 
E. Confirmamos isso se verificarmos o seguinte. 
 � Se u, v ∈ F, então u + v ∈ F.
 � Se u ∈ F , então, para todo α ∈ ℝ, α u ∈ F.
A tarefa de determinar se um subconjunto é subespaço depende de um número 
menor de condições por F herdar as operações do espaço E. Essas operações 
trazem, de forma implícita, as propriedades (a) até (f), necessitando apenas 
mostrar que F é fechado em respeito a essas operações. Vamos a alguns 
exemplos de subespaço.
No espaço vetorial Mn × n(ℝ) das matrizes n × n de coeficientes reais com as operações 
naturais de soma matricial e multiplicação por número real, definimos o subconjunto:
Sn = {A ∈ Mn × n(ℝ); A é matriz simétrica}.
Lembrando que uma matriz A = [aij], n × n é dita simétrica se, para todo i,j = 1, …, n,
aij = aji, isto é, se A coincide com a sua transposta (A = A
T).
Nessas condições, verificamos que Sn é um subespaço de Mn × n(ℝ), pois:
Espaços vetoriais: exemplos e propriedades básicas14
i. dadas as matrizes A = [aij ], B = [bij ] ∈ Sn, então A + B = [cij ], onde: 
cij = aij + bij = aji + bji = cji, 
logo, A + B é matriz simétrica, e A + B ∈ Sn;
ii. dadas as matrizes A = [aij] ∈ Sn e α ∈ ℝ, então αA = [αaij ], onde:
αaij = αaji
logo αA é matriz simétrica, e αA ∈ Sn.
Isso mostra que Sn é um subespaço de Mn × n(ℝ).
Em relação ao exemplo anterior, poderíamos trocar o conjunto das matrizes 
simétricas pelo das matrizes triangulares superiores (A = [aij ] tal que aij = 0 
se i > j), pelo conjunto das matrizes triangulares inferiores (A = [aij] tal que 
aij = 0 se i < j) ou, ainda, pelo conjunto das matrizes diagonais (A = [aij ], tal 
que aij = 0 se i ≠ j). Todos esses definem diferentes subespaços de Mn × n(ℝ).
É importante não diminuirmos a importância das condições (i) e (ii) para 
podermos afirmar que um subconjunto é, de fato, subespaço do espaço que o 
contém. Vejamos alguns exemplos de como essa relação é delicada.
Retomando exemplos anteriores, falamos do conjunto:
F = M2×2(ℝ).
Com as operações naturais de soma matricial e multiplicação por número real, e 
fixado λ ∈ ℝ, falamos do conjunto:
Gλ = ; a11, a12, a21 є ℝ
a11 a12
a21 λ{ {
Com as operações de soma e multiplicação por número real, de forma que: 
u = , v = є Gλ e α є ℝ
a11 a12
a21 λ
b11 b12
b21 λ
15Espaços vetoriais: exemplos e propriedades básicas
u + v =
a11 + b11 a12 + b12
a21 + b21 λ
αu =
αa11 αa12
αa21 λ
Mostramos anteriormente que, fixado λ ∈ ℝ, F e Gλ são espaços vetoriais com essas 
operações, e Gλ ⊂ F. Contudo, Gλ só é subespaço de F se λ = 0, pois as operações de F 
e Gλ funcionam de maneira diferente quando λ ≠ 0. A saber:
(u + v)F = , (u + v)Gλ = .
a11 + b11 a12 + b12
a21 + b21 λ + λ
a11 + b11 a12 + b12
a21 + b21 λ
Essa comparação ilustra o fato que os espaços e subespaços são formados por 
uma terna de um conjunto e duas operações, e que um subconjunto só é subespaço 
quando usa as mesmas operações do espaço que o contém.
No exemplo acima, podemos dizer que o subconjunto Gλ surge da fixação 
de uma das coordenadas dos elementos u ∈ M2×2(ℝ). Essa dinâmica pode ser 
revista por meio de um exemplo similar.
Usando a teoria do cálculo, sejam I = [0,1] ⊂ ℝ intervalo fechado, e C0 (I) o conjunto 
formado por todas as funções reais contínuas definidas em I. Fixando x0 ∈ I , definimos 
o subconjunto de C0 (I):
Gx0 = {u ∈ E; u(x0) = 0}
das funções contínuas em I e que contém um ponto fixo em (x0,0). Tomando as opera-
ções naturais de soma de funções e multiplicação por número escalar, verificamos que:
1. dadas as funções u, v ∈ Gx0, então u + v = u(x) + v(x) é uma função contínua, de 
forma que (u + v)(x0 ) = u(x0 ) + v(x0 ) = 0 + 0 = 0, logo u + v ∈ Gx0;
2. dada a função u ∈ Gx0 e α ∈ ℝ, então αu = αu(x) é uma função contínua, de forma 
que (αu)(x0 ) = αu(x0 ) = α0 = 0, logo αu ∈ Gx0.
Isso mostra que Gx0 é um subespaço de C
0 (I).
Espaços vetoriais: exemplos e propriedades básicas16
O exemplo anterior também define um subespaço vetorial, se fixássemos 
como zero a imagem de uma quantidade infinita de elementos em I. O que 
não definiria um subespaço é se fixássemos um valor diferente de zero para 
essas imagens.
Usando a teoria do cálculo, sejam I = [0,1] ⊂ ℝ intervalo fechado, e C0 (I) o conjunto 
formado por todas as funções reais contínuas definidas em I. Fixando x0 ∈ I e λ ∈ ℝ, tal 
que λ ≠ 0, definimos o subconjunto de C0 (I):
Hx0 = {u ∈ E; ux0 =λ}
das funções contínuas em I e que contém um ponto fixo em (x0,λ). Esse não é subes-
paço vetorial de C0 (I) porque a soma de funções em Hx0 não é fechada Hx0. 
 � Dadas as funções u, v ∈ Hx0, então u + v = u(x) + v(x) é uma função contínua, de 
forma que (u + v)(x0 ) = u(x0) + v(x0 ) = λ + λ = 2λ ≠ λ, logo u + v ∉ Hx0.
Isso mostra que Hx0 não é um subespaço de C
0 (I).
Na definição de subespaço vetorial, temos implicitamente a seguinte propriedade 
 � Se F é subespaço de E, então o vetor nulo de E é o vetor nulo de F. 
Podemos, inclusive, esboçar a prova dessa propriedade, afirmando que, para qualquer 
u ∈ F, os elementos + 1u e –1u também pertencem a F, pois F é fechado em relação à 
multiplicação por número real. Como F também é fechado em relação à soma, então 
+ 1u + (–1u) = 0u = 0, logo o vetor nulo pertence a F.
Essa propriedade seria suficiente para afirmar que Hx0 não é um subespaço de C
0 
(I) no exemplo anterior, já que o vetor nulo de C0 (I) é a função identicamente nula, a 
qual não é elemento de Hx0.
Vejamos outros exemplos de subconjuntos de espaços vetoriais quenão 
definem subespaços.
17Espaços vetoriais: exemplos e propriedades básicas
Seja M3×2(ℝ) o espaço vetorial das matrizes 3 × 2 de coeficientes reais com as operações 
naturais de soma de matrizes e multiplicação por número real. Definindo subconjunto:
G = u = є M3×2 (ℝ); a11 ≥ 0
a11 a12
a21 a22
a31 a32
Verificamos o seguinte.
1. Dadas as matrizes: 
u = , v = є G
a11 a12
a21 a22
a31 a32
b11 b12
b21 b22
b31 b32
então:
u + v =
a11 + b11 a12 + b12
a21 + b21 a22 + b22
a31 + b31 a32 + b32
é uma matriz 3 × 2 de coeficientes reais, de forma que a11 + b11 ≥ 0 + 0 = 0, logo u 
+ v ∈ G.
2. Dados α = – 1 e u =
2 3
3 4
4 5
 então α ∈ ℝ, u ∈ G , enquanto que: αu = є G
–2 –3
–3 –4
–4 –5
. 
 
Logo G não é fechado para a multiplicação por número real.
Portanto, G não é subespaço de M3×2(ℝ).
Seja M2×2(ℝ) o espaço vetorial das matrizes 2 × 2 de coeficientes reais com as operações 
naturais de soma de matrizes e multiplicação por número real. Definindo subconjunto: 
G = {A ∈ M2×2(ℝ); A não possui inversa}
Espaços vetoriais: exemplos e propriedades básicas18
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.
Leituras recomendadas
ANTON, H.; BIVENS, I.; DAVIS, S. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. v. 1.
LAY, D.; LAY, S.; MACDONALD, J. Álgebra linear e suas aplicações. 5. ed. Rio de Janeiro: 
LTC, 2018.
Referência
Verificamos que G não é fechado para a soma, pois, dados u = 2 3
0 0
 e v =
0 0
1 0 , 
temos que u, v ∈ G . Os determinantes de u e v são nulos (logo, não contêm inversa), 
enquanto que u + v =
2 3
1 0 , cujo determinante é diferente de zero (logo, contém 
inversa). Portanto, u + v ∉ G e G não é subespaço de M2×2(ℝ).
19Espaços vetoriais: exemplos e propriedades básicas
ÁLGEBRA LINEAR
Silvano Antonio Alves Pereira Junior
O espaço ℝn: subespaços 
e geradores
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
 � Aplicar as propriedades da geometria tridimensional para o espaço 
de dimensão n, com n > 3.
 � Explicar subespaços vetoriais, a fim de reconhecer quando um con-
junto munido de adição e multiplicação por escalar é um subespaço 
de um dado espaço vetorial.
 � Definir conjuntos geradores, a fim de reconhecer quando um conjunto 
pode ser denominado conjunto gerador de um dado espaço vetorial.
Introdução
Neste capítulo, você estudará um pouco mais sobre álgebra linear, sendo 
apresentado ao espaço ℝn, uma generalização natural dos conceitos 
que aprendemos em ℝ2 e ℝ3. Verá, também, o que são subespaços e 
conjuntos de geradores, além de entender como alguns subespaços 
especiais se relacionam com transformações matriciais.
Espaços ℝn
O espaço ℝn é uma generalização natural dos espaços ℝ2 e ℝ3, para dimen-
sões maiores. No espaço ℝn, para n ≥ 4, perdemos a capacidade de desenhar, 
ficando sem o apelo da visualização. Contudo, como será visto, as propriedades 
algébricas dos espaços e das transformações matriciais continuam válidas e 
passam a ter um papel ainda mais importante. Seguiremos uma linha seme-
lhante à apresentada em Nicholson (2006).
Começamos de maneira muito semelhante ao que fizemos para o plano ℝ2, 
onde identificamos os seus pontos com os vetores que representam o transporte 
da origem até esses pontos. Seguindo por esse caminho, lembramo-nos de 
que os pontos do espaço ℝn são n-úplas de números reais:
P(x1, x2, ..., xn)
onde os xi são, também, números reais. 
Assim sendo, não faremos distinção entre o ponto P(x1, x2, ..., xn) e o vetor 
 associado ele, que representa o transporte da origem a esse ponto. 
Esses vetores são chamados de n-vetores, e o espaço ℝn é o que contém todos 
os n-vetores assim definidos.
Veja, a seguir, alguns exemplos de espaços do tipo ℝn.
Um exemplo é o plano espaço euclidiano ℝ2, estudado anteriormente, onde os pontos 
P(x1, x2) são identificados com os vetores correspondentes v
→ =
x1
x2
. Veja a Figura 1.
–3 –2 –1 0 1 2 3
1
2
3
P(x,y)
v
B
Figura 1. Ponto e vetor no plano euclidiano.
No plano ℝ2 você já estudou transformações como reflexões, rotações e projeções, 
onde a representação gráfica foi de grande auxílio.
O espaço ℝn: subespaços e geradores2
No próximo exemplo, adaptado de Nicholson (2006), você verá um pri-
meiro exemplo de um espaço onde os vetores apresentam mais do que três 
coordenadas.
Paulo, um economista que trabalha para uma rede de pizzarias, tem em mãos dados 
sobre as vendas das unidades e a quantidade de estudantes que moram nas redondezas 
dessas lojas. 
Quantidade de Estudantes (mil) Vendas (mil R$)
3 30
1 27
1 26
0,5 23
3,5 32
Paulo deseja encontrar a reta de regressão desses valores, isto é, uma reta que tente 
explicar como as vendas variam à medida que o número de estudantes aumenta. 
Veja a Figura 2.
Figura 2. Gráfico de desempenho de vendas.
Paulo precisa encontrar uma reta da forma y = mx + b, que melhor aproxime os 
pontos desse gráfico. A ideia central é encontrar valores y’i = mx + b que cheguem 
aos valores das vendas. 
3O espaço ℝn: subespaços e geradores
Essa noção de distância será semelhante à de distância no plano. Considere seguintes 
vetores:
Y = e Y’ =
y1
y2
y3
y4
y5
y’1
y’2
y’3
y’4
y’5
que são vetores de ℝ5. O problema consiste, então, em encontrar valores de m e b, 
de maneira que o valor:
d(Y,Y’) = √(y1 – y’1)
2 + (y2 – y’2)
2 + (y3 – y’3)
2 + (y4 – y’4)
2 + (y5 – y’5)
2
O método de minimizar a distância é conhecido como “mínimos quadrados”. 
Paulo, por exemplo, utilizando esse método e com o auxílio de uma planilha ele-
trônica, encontrou a seguinte equação para a reta:
y = 2,47x + 23,13
Você pode encontrar mais sobre o método dos mínimos quadrados em Nicholson 
(2006), na seção 4.6.
É importante observar que as operações de soma e produto por escalar, 
definidas em ℝn, são análogas às definidas em ℝ2 e ℝ3. Isto é, dados 
e em ℝn e α ∈ ℝ, temos:
1. 
2. 
O espaço ℝn: subespaços e geradores4
Portanto, assim como nos casos já estudados, operações de soma e produto 
por escalar ocorrem coordenada à coordenada.
Você verá que, na medida em que perdemos as representações gráficas, 
mais importante serão as propriedades algébricas dos objetos estudados. 
Subespaços vetoriais
Na seção anterior, apresentamos os espaços ℝn, como são definidos e alguns 
exemplos deles. Agora, você estudará os subespaços do espaço ℝn.
Começamos em moldes semelhantes ao apresentado em Nicholson (2006) 
e Anton e Busby (2006), apresentando a definição de subespaço.
Considere um espaço ℝn. Diremos que um subconjunto de vetores E ⊆ ℝn 
é um subespaço de ℝn, se, com as operações de soma e produto por escalar 
definidas em ℝn, ele atender às seguintes condições:
1. 0
→
 ∈ E;
2. se u→, v→ ∈ E, então u→ + v→ ∈ E;
3. dados α ∈ ℝ e v→ ∈ E, tem-se que α v→ ∈ E.
A primeira propriedade exprime a necessidade de que o elemento nulo 
seja de um subespaço. A segunda e a terceira propriedades exigem que o 
subespaço seja fechado quando as operações do espaço ℝn, isto é, ao operar 
dois elementos do subespaço, o resultado deve ainda ser um elemento dele.
Veja um primeiro exemplo envolvendo subespaços.
Vamos verificar que o E = {v
→ є R5|u→ = }
x1
x2
0
0
0
 é um subespaço de ℝ5. Com efeito, tomando 
x1 = x2 = 0, concluímos que a primeira condição é satisfeita. Agora, para verificar-
mos as demais, vamos tomar um par de vetores u→, v→ ∈ E e α ∈ ℝ, digamos com 
5O espaço ℝn: subespaços e geradores
u→ =
x1
x2
0
0
0
 e v→ =
y1
y2
0
0
0
. Temos, portanto:
1. u→ + v→ = + = = є E
x1
x2
0
0
0
y1
y2
0
0
0
x1 + y1
x2 + y2
0 + 0
0 + 0
0 + 0
x1 + y1
x2 + y2
0
0
0
2. αu→ = α = = є E
x1
x2
0
0
0
αx1
αx2
α0
α0
α0
αx1
αx2
0
0
0
.
Logo, E é, de fato, um subespaço de ℝ5. Na verdade, o leitor mais ávido percebeu 
que se trata, em algum sentido, de uma cópia do espaço ℝ2 imersa em ℝ5.
Existem dois subespaços que costumam ser chamados de subespaços 
triviais:o próprio ℝn e o subespaço nulo (o subespaço formado apenas pelo 
vetor nulo). 
Será que todos os subconjuntos de um espaço ℝn são também subespaços? 
Se assim fosse, não teríamos por que criar uma nova nomenclatura. Veja, a 
seguir, um exemplo de um subconjunto que não é um subespaço. 
Considere o subconjunto E do plano formado pelos vetores da forma v
→ = 1 + t
–1 + t
| t є R . 
Observe que ele não inclui o vetor nulo. De fato, se 1 + t = 0 → t = –1, temos a primeira 
coordenada nula. Mas, para esse mesmo valor, a segunda será igual a –2.
Esse conjunto coincide com a reta de equação:
y = x – 2 
que não passa pela origem do plano euclidiano. 
O espaço ℝn: subespaços e geradores6
Vejamos, ainda, mais um exemplo de subespaço de ℝn.
Considere o seguinte subconjunto de ℝn:
E = v→ є R4 | v→ = , onde x, y, є R
x + y
y
x – y
y
Vamos verificar que esse, de fato, é um subconjunto de ℝn. A primeira condição pode 
ser verificada tomando x = y = 0. Obtemos que o vetor nulo está nesse subconjunto. 
Para verificar as outras condições, vamos tomar vetores u→, v→ ∈ E e α ∈ ℝ com:
v→ =
v1 + v2
v2
v1 – v2
v2
u→ =
u1 + u2
u2
u1 – u2
u2
e
Obtemos:
u→ + v→ = + =
v1 + v2
v2
v1 – v2
v2
u1 + u2
u2
u1 – u2
u2
x + y
y
x – y
y
onde x = v1 + u2 e y = v2 + u2. Portanto, u
→ + v→ ∈ E
Temos, também, que:
αu→ = α + =
u1 + u2
u2
u1 – u2
u2
αu1 + αu2
αu2
αu1 – αu2
αu2
x + y
y
x – y
y
onde x = αu1 e y = αu2. Portanto, α u
→ ∈ E.
Concluímos que E é, de fato, um subespaço de ℝn.
Precisamos, ainda, definir dois subespaços de ℝn que aparecem em diversas 
aplicações da álgebra linear: o espaço anulado e o espaço imagem. Para tal, 
consideremos uma matriz An×n que induz uma transformação linear em ℝn. 
Definimos, então:
7O espaço ℝn: subespaços e geradores
Em palavras, o espaço anulado, aNul(A), é um subespaço do domínio 
da transformação A, enquanto o espaço imagem, Im(A), é um subespaço do 
contradomínio da transformação A.
Aqui, é oportuno relembrar um importante resultado sobre determinantes. 
Teorema: seja An×n uma matriz, são equivalentes as seguintes afirmações:
1. aNul(A) = {0→};
2. det(A) ≠ 0;
3. Im(A) = ℝn.
No exemplo a seguir, você verá o cálculo desses subespaços para uma 
transformação matricial.
Considere a matriz a seguir, que induz uma transformação no espaço ℝ3.
A =
1 1 1
0 2 1
0 0 1
Vamos determinar seu espaço anulado e seu espaço imagem.
Para encontrar o espaço anulado, precisamos buscar por todos os vetores que têm 
o vetor nulo como imagem. Temos:
1 1 1
0 2 1
0 0 1
x1
x2
x3
=
0
0
0
x1 + x2 + x3 = 0
2x2 + x3 = 0
x3 = 0
O espaço ℝn: subespaços e geradores8
Considere a seguinte matriz, que induz uma transformação no espaço ℝ4.
A =
1 1 1 1
0 0 2 1
0 2 1 0
0 0 1 0
Vamos determinar seu espaço anulado e seu espaço imagem.
Para encontrar o espaço anulado, precisamos buscar todos os vetores que têm o 
vetor nulo como imagem. Observe que o determinante dessa matriz é igual a 0, logo 
não podemos aplicar o resultado anterior. Temos:
1 1 1 1
0 0 2 0
0 2 1 0
0 0 1 0
x1
x2
x3
x4
=
0
0
0
0
x1 + x2 + x3 + x4 = 0
2x3 = 0
2x2 + x3 = 0
x3 = 0
x1 + x4 = 0
x3 = 0
x2 = 0
x3 = 0
Resolvendo o sistema por substituição, obtemos que a única solução é o vetor nulo 
x1 = x2 = x3 = 0. Segue, do resultado enunciado acima, que aNul(A) = {0
→
} e Im(A) = ℝ3.
Observe que poderíamos ter calculado o determinante de A para chegarmos à 
mesma conclusão.
Veja mais um exemplo do cálculo de espaço anulado e espaço imagem.
9O espaço ℝn: subespaços e geradores
Obtemos, portanto, que os vetores no espaço anulado de A são da forma 
x1
0
0
–x1
, ou 
ainda:
aNul(A) = {x1 | x1 є R}
1
0
0
–1
Para o espaço imagem, temos:
1 1 1 1
0 0 2 0
0 2 1 0
0 0 1 0
x1
x2
x3
x4
= = x1 + x2 + x3 + x4
x1 + x2 + x3 + x4
2x3
2x2 + x3
x3
1
0
0
0
1
0
2
0
1
2
1
1
1
0
0
0
1
0
0
0
1
0
2
0
1
2
1
1
= (x1 + x4) + x2 + x3
Assim, o espaço imagem é dado por:
Im(A) = v→ = (x1 + x4) + x2 + x3 ; x1, x2, x3, x4 є R
1
0
0
0
1
0
2
0
1
2
1
1
Sempre que possível, inicie problemas envolvendo o espaço anulado e o espaço 
imagem de uma transformação matricial por meio do cálculo do determinante. Utilizar 
o teorema anterior poderá ajudar a economizar algumas linhas de contas.
Conjuntos geradores Nesta seção, ainda em continuidade ao estudo do 
espaço ℝn, você aprenderá sobre geradores. Você deve ter reparado, no último 
exemplo da seção anterior, que o espaço imagem era essencialmente uma 
combinação de algumas das colunas da matriz A. Isso não ocorre por acaso.
O espaço ℝn: subespaços e geradores10
Seguindo o apresentado em Nicholson (2006), começamos apresentado a 
definição de geradores. Para isso, precisamos introduzir o conceito de com-
binação linear.
Dados os vetores em ℝn, diremos que o vetor:
é uma combinação linear dos vetores com coeficiente a1, 
a2, ..., an. Assim, a imagem da transformação do exemplo anterior era uma 
combinação linear de algumas das colunas daquela matriz.
Dados vetores em ℝn, o conjunto de todas as possíveis combi-
nações lineares desse constitui o conjunto gerado por eles. Mais precisamente:
Veja, a seguir, um primeiro exemplo.
Considere os vetores e1 =
1
0 e 
e2 =
0
1
. Vamos verificar que o conjunto gerado por 
eles é o próprio plano euclidiano. De fato, dado um vetor v
→ =
v1
v2
, podemos escrever:
v→ = = v1 + v2 = v1e1 + v2e2
v1
v2
1
0
0
1
Portanto, o vetor v→ pertence ao ger{e1, e2}. A outra inclusão — de que os vetores 
desse conjunto gerado pertencem ao plano — segue de forma natural. 
Uma importante interpretação dos espaços gerados está associada ao estudo 
de retas no plano euclidiano, no espaço euclidiano e nos espaços de dimensões 
maiores. Temos que, dado um vetor v→ ∈ ℝn, a reta r que passa pela origem e 
tem como vetor direto o vetor v→ é dada por:
11O espaço ℝn: subespaços e geradores
Essa representação fornece uma maneira compacta e inteligente de represen-
tar retas, mesmo em espaços onde a representação gráfica não é mais possível.
Um importante resultado apresentado em Nicholson (2015) relaciona su-
bespaços com conjuntos gerados. Tem-se o seguinte.
Teorema: sejam vetores quaisquer em ℝn, então:
1. ger{ } é um subespaço de ℝn que contém os vetores 
;
2. se um subespaço V contém os vetores , então ger{ } 
⊆ V.
Em outras palavras, o conjunto gerado é sempre um subespaço e, além 
disso, se um subespaço contém determinados vetores, ele também conterá o 
espaço gerado por esses. 
Um corolário natural desse resultado é o de que ger{ } é o menor 
subespaço que contém os vetores . Os vetores são 
chamados de geradores do subespaço ger{ }.
Veja o exemplo a seguir.
Os vetores v1 = , v2 = e v3 =
1
0
1
0
0
1
0
3
0
 formam um conjunto de geradores para o espaço 
euclidiano? Esse tipo de verificação costuma ser feito por meio de duas inclusões. 
A primeira ger{v1, v2, ..., vn } ⊆ ℝ3 é natural, restando a necessidade de verificar 
que ℝ3 ⊆ ger{v1, v2, v3}. Com efeito, dado um vetor v
→ ∈ ℝn, digamos v→ =
v1
v2
v3
, observe 
inicialmente que:
v→ =
v1
v2
v3
= v1 + v2 + v3
1
0
0
0
1
0
0
0
1
O espaço ℝn: subespaços e geradores12
Temos, ainda, que:
e1 = v1 – v2
e2 = v3
e3 = v2
1
3
Segue daí que:
v→ = = v1(v1 – v2) + v2 v3 + v3v2
v1
v2
v3
1
3
v→ = v1v1 + (v3 – v1) v2 + v3 є ger {v1, v2, v3 }
v2
3
De fato, o conjunto apresentado é de geradores para o espaço.
É importante apresentar, ainda, um exemplo em que o conjunto de geradores 
não consegue gerar o espaço que o contém. 
O vetor v1 =
2
0
, sozinho, não pode gerar o plano euclidiano. De fato, se isso fosse 
possível, existiriam números reais a e b, tais que:
av1 + bv1 =
1
1
Mas isso é o mesmo que:
(a + b)v1 =
1
1
(a + b)1
(a + b)0
1
1
=
implicando, portanto, que 0 = 1, o que é um absurdo. Dessa maneira, esse vetor 
sozinho não pode gerartodo o plano euclidiano.
13O espaço ℝn: subespaços e geradores
Em álgebra linear, é essencial praticar a resolução de problemas. Você poderá encontrar 
alguns problemas adicionais no livro de Nicholson (2006, p. 177).
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2007.
NICHOLSON, W. K. Álgebra linear. 2. ed. São Paulo: McGraw-Hill, 2006.
Leitura recomendada
LIPSCHUTZ, S.; LIPSON, M. Álgebra linear. 4. ed. Porto Alegre: Bookman, 2011. (Coleção 
Schaum).
O espaço ℝn: subespaços e geradores14
ÁLGEBRA LINEAR
Marcelo Maximiliano Danesi
Espaços vetoriais: 
transformações lineares
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
 � Usar o conceito de transformação linear para espaços vetoriais gerais.
 � Identificar espaços vetoriais das transformações lineares.
 � Definir núcleo e imagem de uma transformação linear.
Introdução
Neste capítulo, você definirá o conceito de transformação linear entre 
espaços vetoriais dentro da definição generalizada desses. Você também 
verá exemplos de transformações lineares nos espaços das matrizes, 
dos polinômios, das funções e, principalmente, como elas identificam 
propriedades entre espaços vetoriais ditos isomorfos. Adicionalmente, 
em cada exemplo, você verá como identificar se uma função é uma 
transformação linear e argumentar a validade de cada afirmação.
A definição de transformação linear entre espaços vetoriais quaisquer 
expande enormemente o conceito de transformações lineares no ℝn 
estabelece uma forma de compararmos famílias de espaços vetoriais 
bastante diferentes e permite definir um conjunto de vetores canônicos 
no espaço dos polinômios e no espaço das matrizes.
Transformações lineares
Sejam E, F espaços vetoriais, uma transformação linear A: E → F é uma lei 
que associa a cada vetor u ∈ E um vetor A(u) ∈ F, de modo que, para quaisquer 
u, v ∈ E e α ∈ ℝ, A satisfaz que:
A(u + v) = A(u) + A(v)
A(α ∙ u) = α ∙ A(u)
Dizemos que A(u) é a imagem de u pela transformação A. 
A transformação linear é um caso particular de função, no mesmo sen-
tido definido pelo cálculo (ANTON; BIVENS; DAVIS, 2014). O diferencial 
da definição acima é que essa função ocorre entre espaços vetoriais não 
necessariamente iguais e que ela obedece a duas condições (ditas condições 
de linearidade).
Já trabalhamos com as transformações lineares de ℝn em ℝm, já que qualquer 
transformação linear entre esses espaços vetoriais pode ser representada por 
uma matriz n × m. Vejamos, a seguir, alguns exemplos nos espaços vetoriais 
mais gerais.
Lembrando-se de que Mn×m(ℝ) é o espaço vetorial das matrizes n×m, fixamos TA uma 
matriz 3x2 e definimos a transformação A: M2×m(ℝ) → M3×m(ℝ), tal que, dado u ∈ M2×m(ℝ):
A(u) = TA ∙ u
Ou seja, essa transformação calcula a imagem A(u) ∈ M3×m(ℝ) por meio da multi-
plicação matricial da matriz TA com a matriz u. Veja que essa transformação é, de fato, 
linear, já que, dados α ∈ ℝ e u ∈ M2×m(ℝ), temos:
1. A(u + v) = TA ∙ (u + v) = TA ∙ u + TA ∙ v = A(u) + A(v)
2. A(α ∙ u) = TA ∙ (α ∙ u) = α ∙ TA ∙ u = α ∙ A(u)
Portanto, A é uma transformação linear de M2×m(ℝ) em M3×m(ℝ).
Espaços vetoriais: transformações lineares2
O exemplo a seguir mostra duas transformações não lineares entre espaços 
vetoriais.
Considere B: M2×2(ℝ) → M2×2(ℝ) e C: M2×2(ℝ) → ℝ, tal que, dado u ∈ M2×2(ℝ):
B(u) = u ∙ u
C(u) = det(u)
Observe que essas transformações não são lineares, pois, tomando:
u = , u1 = , u2 =
1 0
0 1
1 0
0 0
0 0
0 1
temos u = u1 + u2 e:
1. B 2 = B = · =
1 0
0 1
2 0
0 2
2 0
0 2
2 0
0 2
4 0
0 4
Enquanto que:
2B = 2 · = 2 =1 0
0 1
1 0
0 1
1 0
0 1
1 0
0 1
2 0
0 2
Logo:
B 2 ≠ 2B
1 0
0 1
1 0
0 1
2. C(u) = C = det = 1
1 0
0 1
1 0
0 1
Enquanto que:
C(u1) = C = det = 0
1 0
0 0
1 0
0 0
C(u2) = C = det = 0
0 0
0 1
0 0
0 1
Logo:
C(u) = C(u1 + u2) ≠ C(u1) C(u2)
Portanto, B e C são transformações não lineares.
3Espaços vetoriais: transformações lineares
Uma consequência da definição de transformação linear é que, nas condições da 
definição, a imagem do vetor nulo em E sempre é o vetor nulo em F, pois, dado 
u ∈ E, –u também pertence a E:
A(0) = A(u + (–u)) = A(u) – A(u) = 0
Repare que a recíproca dessa consequência não é verdadeira, visto o exemplo 
anterior, no qual B(0) = 0 ∙ 0 = 0 e B não é uma transformação linear.
Voltando aos exemplos, o próximo mostra uma transformação linear no 
espaço vetorial Pn dos polinômios de grau menor ou igual a n.
Considere a transformação A: P3 → P4, tal que, dado u = u(x) ∈ P3:
A(u) = (x + 1) ∙ u
Ou seja, essa transformação calcula a imagem de grau 4 do produto de (x + 1) com 
um polinômio de grau 3. Veja que essa transformação é, de fato, linear, já que, dados 
α ∈ (ℝ) e u, v ∈ P3, temos:
1. A(u + v) = (x + 1) ∙ (u + v) = (x + 1) ∙ u + (x + 1) ∙ v = A(u) + A(v)
2. A(α ∙ u) = (x + 1) ∙ (α ∙ u) = α ∙ (x + 1) ∙ u = α ∙ A(u)
Portanto, A é uma transformação linear de P3 em P4.
Nas condições da definição de transformação linear:
 � se E = F, dizemos que A: E → E é um operador linear em E;
 � se F = ℝ, dizemos que A: E → ℝ é um funcional linear.
Espaços vetoriais: transformações lineares4
Considere a transformação A: P2 → R, tal que:
A(α2x
2 + a1x + a0) = a2 + a1 + a0
Essa é uma função que, dado qualquer v ∈ P2 (o espaço vetorial dos polinômios 
de grau menor ou igual a dois) calcula um valor associado em ℝ (que também é um 
espaço vetorial). Veja que essa transformação é, de fato, linear, já que, dados α ∈ ℝ e 
u, v ∈ P2, tal que:
u = a2x
2 + a1x + a0
v = b2x
2 + b1x + b0
temos:
1. A(u + v) = A((a2 + b2)x
2 + (a1 + b1)x + (a0 + b0)) = (a2 + b2) + (a1 + b1) + (a0 + b0) = 
(a2 + a1 + a0) + (b2 + b1 + b0) = A(u) + A(v)
2. A(α ∙ u) = A(αa2x
2 + αa1x + αa0) = αa2 + αa1 + αa0 = α(a2 + a1 + a0) = α ∙ A(u)
Portanto, A é um funcional linear de P2 em ℝ.
Uma consequência da definição de transformação linear é que, nas con-
dições da definição, dados B = {u1, u2, ..., un} ⊂ E e u ∈ ger(B), existem 
α1, α2, ..., αn ∈ ℝ, tal que:
u = α1u1 + α2u2 + ... + αnun
A(u) = α1A(u1) + α2A(u2) + ... + αnA(un)
Isto é, o cálculo da transformação de u por A depende apenas do cálculo 
de cada ui por A, onde i = 1, ..., n.
Usando a teoria do cálculo, considere a transformação A que calcula a derivada de 
primeira ordem de uma função u ∈ C∞(ℝ) — o espaço vetorial das funções que apre-
sentam derivadas de todas as ordens.
5Espaços vetoriais: transformações lineares
Descrevendo A como a transformação A: C∞(ℝ) → C∞(ℝ), tal que:
A(u) = u’
Veja que essa transformação é, de fato, linear, já que, dados α ∈ ℝ e u, v ∈ C∞(ℝ), temos:
1. A(u + v) = (u + v)’ = u’ + v’ = A(u) + A(v)
2. A(α ∙ u) = (α ∙ u)’ = α ∙ u’ = α ∙ A(u)
Logo, A é um operador linear em C∞(ℝ) e, dado u polinômio de grau n, então 
u ∈ ger(xn, ..., x2, x, 1) de forma que existem α0, α1, ..., αn ∈ ℝ, tal que:
u = αnx
n + ... + α1x
1 + α0
e definindo:
A(xi) = ixi–1
A(1) = 0 
para todo i = 1, ..., n, podemos calcular a derivada de u pelas regras (de derivação) 
anteriores, de maneira que:
A(αnx
n + ... + α1x
1 + α0) = αnnx
n–1 + ... + α11x
0 + α00 
Esse exemplo ilustra o método usado no ensino das técnicas de derivação 
numa primeira disciplina de cálculo. Cada função elementar é a combinação 
(não necessariamente linear) de monômios, funções trigonométricas, expo-
nenciais ou logarítmicas. Definindo a derivada de cada um desses elementos 
básicos, é possível calcular a derivada de suas combinações.
Usando a teoria de integração do cálculo, podemos falar de outro operador que trabalha 
no espaço das funções contínuas. Dados a, b ∈ ℝ, a < b, fixamos uma função contínua 
𝛿: [a, b] × [a, b] → ℝ e definimos a transformação A:C0(ℝ) → C0(ℝ) por:
A(u) = ∫a
b
 δ(x, y)u(y) dy
Espaços vetoriais: transformações lineares6
Essa transformação é, de fato, linear, já que, dados α ∈ ℝ e u, v ∈ C0(ℝ), temos:1. A(u + v) = ∫a
b
 δ(x, y)(u + v)(y) dy = ∫a
b
 δ(x, y)(u(y) + u(y)) dy
= ∫a
b
 δ(x, y)u(y) dy + ∫a
b
 δ(x, y)v(y) dy = A(u) + A(v)
2. A(α · u) = ∫a
b
 δ(x, y)(αu)(y) dy = ∫a
b
 αδ(x, y)u(y) dy = α ∫a
b
 δ(x, y)u(y) dy = α · A(u)
Logo, A é um operador linear em C0(ℝ).
Esse exemplo de operador integral é muito usado nas ciências aplicadas, 
quando 𝛿 é uma função densidade (ANTON; BIVENS; DAVIS, 2014). Outros 
usos incluem a transformada de Laplace, a transforma de Fourier, a esperança 
e a variância de variáveis aleatórias contínuas na probabilidade, etc.
Núcleo e imagem de uma transformação linear
Dada uma transformação linear A: E → F, definimos dois subespaços vetoriais 
importantíssimos para determinarmos se A admite ou não uma inversa. 
A imagem de A é o subconjunto de F:
Im(A) = {w = A(u); u ∈ E}
de todos os elementos que são imagem, por A, de algum vetor em E. Essa 
definição é válida para qualquer função. A diferença aqui é que, quando A é 
uma transformação linear, Im(A) é um subespaço vetorial de F.
Considere o funcional linear A: P2 → ℝ, tal que:
A(a2x
2 + a1x + a0) = a2 + a1 + a0
7Espaços vetoriais: transformações lineares
Essa transformação tem como imagem:
Im(A) = ℝ
Pois, para todo w ∈ ℝ, se tomarmos o polinômio u ∈ P2, tal que u(x) = x
2 + x +
w
3
w
3
w
3 , 
então:
A(u) = + + = w
w
3
w
3
w
3
Numa transformação linear A: E → F, tal que Im(A) = F, dizemos que A é 
uma transformação linear sobrejetora. É o caso do exemplo anterior.
No que já estudamos sobre os espaços vetoriais ℝn, dada a transformação linear A: 
ℝn → ℝm, existe matriz T, m × n, tal que:
A(u) = T ∙ u
E o conjunto imagem de A corresponde ao espaço das colunas da matriz T. Esse 
espaço das colunas é o gerado da base determinada no teorema do Posto.
Considere a transformação linear A: P2 → ℝ, tal que:
A(a2x
2 + a1x + a0) = (a2 + 2a1 – a0, 3a2 – 2a1 + a0)
Dado w = (x1, x2) ∈ ℝ2, temos que w ∈ Im(A) se existe u = ax2 + bx + c, tal que 
A(u) = w, isto é, se:
(a2 + 2a1 – a0, 3a2 – 2a1 + a0) = (x1, x2)
Espaços vetoriais: transformações lineares8
Ou melhor, se, e somente se:
a2 + 2a1 – a0 = x1
3a2 – 2a1 + a0 = x2
o que é equivalente ao sistema matricial:
1 2 –1
3 –2 1
.
a2
a1
a0
= w
TA
Esse sistema também significa que w pertence ao gerado das colunas de TA, pois 
essa igualdade pode ser reescrita como:
a2 + a1 + a0 = w
1
3
2
–2
–1
1
Como o primeiro e o segundo vetor coluna de TA são linearmente independentes, 
o gerado deles é o próprio ℝ2. Logo, Im(A) = ℝ2.
O núcleo de A é o subconjunto de E:
𝒩(A) = {u; A(u) = 0}
de todos os elementos que tem por imagem o vetor nulo de F. Novamente, 
essa definição é válida para qualquer função. A diferença aqui é que, quando 
A é uma transformação linear, 𝒩(A) é um subespaço vetorial de E.
Considere o funcional linear A: P2 → ℝ, tal que:
A(a2x
2 + a1x + a0) = a2 + a1 + a0
Essa transformação tem como núcleo:
𝒩(A) = {u(x) = a2x2 + a1x + a0; a2 + a1 + a0 = 0}
9Espaços vetoriais: transformações lineares
Pela teoria dos polinômios, a2 + a1 + a0 = 0 é equivalente a afirmar que x = 1 é raiz 
de u(x). Dessa forma, podemos reescrever que:
𝒩(A) = {u(x); x = 1 é raiz de u}
Numa transformação linear A: E → F, tal que (A) = {0}, dizemos que A é 
uma transformação linear injetora. Não é o caso do exemplo anterior, mas é 
o do próximo exemplo.
Considere a transformação linear A: P3 → P4, tal que, dado u = u(x) ∈ P3:
A(u) = (x + 1) ∙ u
Vimos anteriormente que essa transformação calcula a imagem de grau 4 da mul-
tiplicação por (x + 1) de um polinômio de grau 3. Assim, para essa transformação:
(x + 1) ∙ u = 0 ⇔ u = 0
Logo, o único vetor em P3 que tem como imagem o vetor nulo é u(x) = 0. Portanto, 
𝒩(A) = 0, e essa transformação é injetora.
Por outro lado, essa transformação não é sobrejetora, pois, dada qualquer constante 
real k ≠ 0, ela não é imagem de algum u(x) ∈ P3, isto é:
(x + 1)u(x) ≠ k
para todo u ∈ P3. Isso porque o lado esquerdo da desigualdade é um polinômio de 
grau um, no mínimo, e o lado direito é uma constante.
Espaços vetoriais: transformações lineares10
No que já estudamos sobre os espaços vetoriais ℝn, dada a transformação linear 
A: ℝn → ℝm, existe matriz T, m × n, tal que:
A(u) = T ∙ u
E o conjunto núcleo de A corresponde ao espaço nulo de A calculado pela solução 
homogênea da igualdade T ∙ u = 0.
Considere a transformação linear A: P2 → ℝ2, tal que:
A(a2x
2 + a1x + a0) = (a2 + 2a1 – a0, 3a2 – 2a1 + a0)
Dado u = ax2 + bx + c ∈ P2, temos que u ∈ 𝒩(A), se A(u) = 0, isto é, se:
(a2 + 2a1 – a0, 3a2 – 2a1 + a0) = (0, 0)
Ou melhor, se, e somente se:
a2 + 2a1 – a0 = 0
3a2 – 2a1 + a0 = 0
o que é equivalente ao sistema matricial:
1 2 –1
3 –2 1
.
a2
a1
a0
= 
TA
0
0
Aplicando o método de Gauss na matriz TA, calculamos suas equivalências, tal que:
1 2 –1
3 –2 1
1 2 –1
0 –8 4~
1 2 –1
0 2 –1~
1 0 0
0 2 –1~
11Espaços vetoriais: transformações lineares
que equivale ao sistema:
a2 = 0
2a1 – a0 = 0
a0 = a0
ou:
a2 = 0
a1 = a0
a0 = a0
1
2
Dessa forma:
�(A) = u = a0 0x
2 + x + 1 , a0 є ℝ
1
2
Isso significa que 𝒩(A) é um subespaço vetorial de P2 dos vetores múltiplos de x + 1
1
2
.
Com respeito à injetividade de transformações lineares, uma propriedade 
importante é que uma transformação linear e injetiva A: E → F leva conjuntos 
linearmente independentes de E em conjuntos linearmente independentes de F.
Já vimos que a transformação A: P3 → P4,
A(u) = (x + 1) ∙ u
é linear e injetora. Sabemos que o conjunto {1, x, x2, x3} é linearmente independente 
em P3 Agora, se tomamos a imagem por A de cada um desses vetores:
A(1) = x + 1
A(x) = x2 + x
A(x2) = x3 + x2
A(x3) = x4 + x3
Espaços vetoriais: transformações lineares12
então, o conjunto {A(1), A(x), A(x2), A(x3)} = {x + 1, x2 + x, x3 + x2, x4 + x3} é linearmente 
independente sobre P4. Uma maneira de calcularmos isso é por meio do Wronskiano 
dessas funções:
W(x) = det =
(x + 1) (x2 + x) (x3 + x2) (x4 + x3)
(x + 1)’ (x2 + x)’ (x3 + x2)’ (x4 + x3)’
(x + 1)” (x2 + x)” (x3 + x2)” (x4 + x3)”
(x + 1)”’ (x2 + x)”’ (x3 + x2)”’ (x4 + x3)”’
= det = –12(9x4 + 6x3 – 9x2 – 7x –1)
x + 1 x2 + x x3 + x2 x4 + x3
 1 2x + 1 3x2 + 2x 4x3 + 3x2
 0 2 6x + 2 12x2 + 6x
 0 0 6 24x + 6
Isto é, W(x) ≠ 0 para todo x ∈ ℝ. E podemos afirmar que {A(1), A(x), A(x2), A(x3)} é 
linearmente independente sobre P4.
Um caso particular de transformação linear injetora e sobrejetora é o 
operador linear I: E → E, tal que, para todo u ∈ E:
I(u) = u
Dizemos que esse é o operador identidade em E e, em geral, usamos a 
notação IE ao invés de I.
No caso mais geral, uma transformação linear A: E → F é invertível se 
A é simultaneamente injetora e sobrejetora, isto é, existe B: F → E, tal que, 
para cada u ∈ E e w ∈ F:
B(A(u)) = u
A(B(w)) = w
Isso quer dizer que BA = IE, AB = IF e B é transformação linear injetora 
e sobrejetora.
Na teoria das funções, uma função injetora e sobrejetora é dita bijetora. 
No caso das transformações lineares, existe um termo mais significativo: se 
A: E → F é uma transformação linear bijetora, dizemos que A é um isomorfismo 
entre E e F, e E e F são espaços isomorfos. Na prática, isso significa que os 
espaços E e F são conjuntos similares que apresentam estrutura algébrica 
similar (não significa que sejam os mesmos conjuntos ou as mesmas operações).
13Espaços vetoriais: transformações lineares
Existe um isomorfismo entre ℝ3 e P2 dado pela transformação A: ℝ3 → P2, tal que:
A(a0, a1, a2) = a0 + a1x + a2x
2
Mostramos isso tomando α ∈ ℝ, u v ∈ ℝ3, tal que:
u = (a0, a1, a2)
v = (b0, b1, b2)
Assim, A é linear, pois:
1. A(u + v) = A(a0 + b0, a1 + b1, a2 + b2) = (a0 + b0) + (a1 + b1)x + (a2 + b2)x
2 = (a0 + a1x + 
a2x
2) + (b0 + b1x + b2x
2) = A(u) + A(v)
2. A(αu) = A(αa0, αa1, αa2) = (αa0) + (αa1)x + (αa2)x
2 = α(a0 + a1x + a2x
2) = αA(u)
A é injetora, pois:
1. A(u) = 0implica que a0 + a1x + a2x
2 = 0, isto é, o vetor nulo de P2 que é o polinômio 
identicamente nulo, portanto, a0 = a1 = a2 = 0, o que significa que 𝒩(A) = {0}.
A é sobrejetora, pois:
2. para todo w(x) ∈ P2 , existem w0, w1, w2 ∈ ℝ, tal que A(w0, w1, w2) = w0 + w1x + w2x2 
= w(x).
Uma consequência importante desse isomorfismo é que todo conjunto linearmente 
independente de ℝ3 é transformado num conjunto linearmente independente de 
P2. Em particular, se tomarmos o conjunto dos vetores canônicos de ℝ3, eles serão 
transformados no conjunto linearmente independente de P2{A(e1), A(e2), A(e3)} = {1, x, x
2}.
O exemplo anterior pode ser estendido ao caso geral que afirma que, dado 
n ∈ ℕ, existe um isomorfismo entre ℝn+1 e Pn , de forma que {1, x, x2, ..., xn} 
é um conjunto linearmente independente dos vetores ditos canônicos em Pn.
Outro isomorfismo entre os espaços vetoriais que estudamos é ilustrado 
no exemplo a seguir.
Espaços vetoriais: transformações lineares14
Existe um isomorfismo entre ℝ6 e M2×3(ℝ), dado pela transformação B: ℝ6 → M2×3(ℝ), 
tal que:
B(a1, a2, a3, a4, a5, a6) =
a1 a2 a3
a4 a5 a6
Mostramos isso tomando α ∈ ℝ, u, v ∈ ℝ3, tal que:
u = (a1, a2, a3, a4, a5, a6)
v = (b1, b2, b3, b4, b5, b6)
Assim, B é linear, pois:
1. B(u + v) = B(a1 + b1, a2 + b2, a3 + b3, a4 + b4, a5 + b5, a6 + b6) =
a1 + b1 a2 + b2 a3 + b3
a4 + b4 a5 + b5 a6 + b6
= + = B(u) + B(v)
a1 a2 a3
a4 a5 a6
b1 b2 b3
b4 b5 b6
2. B(αu) = B(αa1, αa2, αa3, αa4, αa5, αa6) = = α = αB(u)
αa1 αa2 αa3
αa4 αa5 αa6
a1 a2 a3
a4 a5 a6
B é injetora, pois:
1. B(u) = 0 implica que 
a1 a2 a3
a4 a5 a6
= 0 , isto é, o vetor nulo de M2×3(ℝ), portanto 
a1 = a2 = a3 = a4 = a5 = a6 = 0, o que significa que 𝒩(A) = {0}.
B é sobrejetora, pois:
2. para todo w ∈ M2×3(ℝ), existem w1, w2, w3, w4, w5, w6 ∈ ℝ, tal que B(w1, w2, w3, w4, 
w5, w6) = w.
Uma consequência importante desse isomorfismo é que todo conjunto linearmente 
independente de ℝ6 é transformado num conjunto linearmente independente de 
M2×3(ℝ). Em particular, se tomarmos o conjunto dos vetores canônicos de ℝ6, eles 
serão transformados no conjunto linearmente independente de M2×3(ℝ).
{B(e1), B(e2), B(e3), B(e4), B(e5), B(e6)} =
1 0 0
0 0 0
, 0 1 0
0 0 0
, 0 0 1
0 0 0
0 0 0
1 0 0
, 0 0 0
0 1 0
, 0 0 0
0 0 1
15Espaços vetoriais: transformações lineares
O exemplo anterior pode ser estendido ao caso geral, que afirma que, 
dados, existe um isomorfismo entre ℝmn e Mm×n(ℝ), de forma que o conjunto 
de todas as matrizes Er,s = [aij] ∈ Mm×n(ℝ) com r = 1, ..., m, s = 1, ..., n, tal que:
é um conjunto linearmente independente dos vetores ditos canônicos em 
Mm×n(ℝ). Além disso, como esses isomorfismos admitem transformação inversa 
que também é um isomorfismo, temos uma relação direta entre o espaço 
vetorial das matrizes de coeficientes reais, dos polinômios de coeficientes 
reais e dos vetores n-dimensionais.
Um último detalhe importante é que não existe transformação linear bijetora 
do ℝn em C0 ℝ). Uma forma de justificar essa afirmação é lembrar-se de que, 
para todo l ∈ ℕ, o conjunto:
{1, x, x2, ..., xl–1}
é linearmente independente em C0 ℝ). Como em ℝn, qualquer conjunto 
com mais de n vetores é linearmente dependente, não tem como levar um 
conjunto linearmente independente de C0 ℝ), arbitrariamente grande, para o 
ℝn e manter a propriedade de independência linear.
Espaços vetoriais das transformações lineares
Mais adiante, voltaremos a falar de funcionais lineares e como alguns tipos 
deles definem uma medida no espaço vetorial. Nesse sentido, enunciamos 
algumas propriedades dos espaços vetoriais definidos por transformações 
lineares.
Sejam E, F espaços vetoriais. O conjunto ℒ(E, F) de todas as transforma-
ções lineares A: E → F é um espaço vetorial se, dados A, B ∈ ℒ (E, F) e α ∈ 
ℝ, definimos as operações:
(A + B)(u) = A(u) + B(u)
(αA)(u) = α ∙ A(u)
Espaços vetoriais: transformações lineares16
Nesse espaço, o vetor nulo é a transformação trivial 0(u) = 0 para todo u 
∈ E , e o inverso aditivo de A ∈ ℒ (E, F) é a transformação –A: E → F, tal que 
(–A)(u) = –1 ∙ A(u).
Nessas condições:
1. se E = F, dizemos que ℒ (E) = ℒ (E, E) é o espaço vetorial dos opera-
dores lineares de E;
2. se E = ℝ, dizemos que E* = ℒ (E, ℝ) é o espaço vetorial dual de E.
Adicionalmente, um funcional linear f ∈ E* ou é sobrejetivo ou é identi-
camente nulo, pois os únicos subespaços de ℝ são ℝ e {0}.
ANTON, H.; BIVENS, I. C.; DAVIS, S. L. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. v. 1 e 2.
Leituras recomendadas
ANTON, H.; RORRES, C. Álgebra Linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.
LAY, D. C.; LAY, S. R.; MACDONALD, J. J. Álgebra linear e suas aplicações. 5. ed. Rio de 
Janeiro: LTC, 2018.
LIMA, E. L. Álgebra linear. 9. ed. Rio de Janeiro: SBM, 2016.
Referência
17Espaços vetoriais: transformações lineares
ÁLGEBRA 
LINEAR 
Marcelo Maximiliano Danesi 
Espaço vetorial ℝn: 
base e dimensão
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
 � Definir bases de um subespaço.
 � Generalizar o conceito de dimensão.
 � Identificar se um conjunto dado é uma base para um subespaço e 
determinar sua dimensão.
Introdução
Neste capítulo, você identificará quando um conjunto de vetores é uma 
base, saberá como decompor vetores sobre uma base qualquer de seu 
subespaço por meio de matrizes especiais, como definir dimensão de 
um subespaço e identificar a base de um subespaço. Esse caminho levará 
a uma decomposição do espaço vetorial ℝn em dois subespaços que 
veremos a seguir.
Bases do ℝn 
Uma base do ℝn é um conjunto:
B = {v→1, ..., v
→
n}
de vetores linearmente independentes, tal que B⊂ℝn, e B é gerador de ℝn. 
Isto é, se v→ ∈ ℝn, e B é uma base de ℝn, então podemos escrever, de forma 
única, v→ como uma combinação linear dos vetores em B, a saber:
v→ = α1 ∙ v
→
1 + ... + αn ∙ v
→
n
onde α1, ..., αn ∈ ℝ. Adicionalmente, os números α1, ..., αn são chamados 
de coordenadas do vetor v→ na base B.
A base mais simples que podemos definir no ℝn é o que chamamos de base 
canônica do ℝn. Essa base é formada pelos n vetores e→i, que têm 1 na i-ésima 
componente e 0 nas demais.
Em ℝ5, a base canônica é o conjunto B formado pelos vetores:
e→1 = (1,0,0,0,0)
e→2 = (0,1,0,0,0)
e→3 = (0,0,1,0,0)
e→4 = (0,0,0,1,0)
e→5 = (0,0,0,0,1)
Repare que esses vetores são linearmente independentes, e a matriz 5x5 da forma 
demonstrada a seguir é a matriz identidade 5x5.
[e→1 ... e
→
5] =
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
Genericamente falando, usamos bases não canônicas em ℝn, quando que-
remos estudar aspectos do problema que não ocorrem nas direções canônicas 
desse espaço. Pode parecer difícil, mas, de certa forma, já estávamos estudando 
alguns aspectos desse assunto quando trabalhamos a definição de autovetores.
Espaço vetorial ℝn: base e dimensão2
Em ℝ4, se considerarmos o conjunto formado pelos vetores:
v→1 = (1,0,2,–4)
v→2 = (0,1,3,–2)
v→3 = (1,2,3,–3)
v→4 = (4,–1,2,7)
a) B = { v→1, v
→
2, v
→
3, v
→
4} é um conjunto linearmente independente?
b) Como podemos escrever o vetor v→1 = (11,–3,7,4) como uma combinação linear 
dessa base? Isto é, quais são as coordenadas de v→ na base B?
Solução: 
a) B é um conjunto linearmente independente porque a a seguinte equação matricial 
admite apenas a solução trivial (0,0,0,0). Podemos calcular isso pelo método de Gauss.
 1 0 1 4
 0 1 2 –1
 2 3 3 2
–4 –2 –3 7
∙ =
x1
x2
x3
x4
( ( 0000( (
b) Pela definição, precisamos calcular α1, α2, α3, α4 de forma que:
v→ = α1 ∙ v
→
1 + α2 ∙ v
→
2 + α3 ∙ v
→
3 + α4 ∙ v
→
4
Substituindo os vetores, temos:
11
–3
7
4 (( = α1 ∙
1
0
2
–4 (( = α2 ∙
0
1
3
–2 (( = α3 ∙
1
2
3
–3 (( = α4 ∙
4
–1
2
7 ((
Isso equivale a solucionar a seguinte equação matricial, que pode ser resolvida 
usando o método de Gauss. 
 1 0 1 4
 0 1 2 –1
 2 3 3 2
–4 –2 –3 7
∙ =
a1
a2
a3
a4
( ( 11–374( (
Dessa forma, podemoscalcular que existe uma única solução dada por (α1, α2, α3, α4) = 
(3,–1,0,2).
3Espaço vetorial ℝn: base e dimensão
Uma observação que podemos fazer em relação ao exemplo anterior é 
que a solução calculada (3,–1,0,2) realmente descreve coordenadas do vetor 
v→ = (11,–3,7,4) na base B. Isto é, estamos considerando um sistema de referência 
diferente do sistema de coordenadas definido pela base canônica, e isso está 
definindo outra maneira de nos referirmos a esse vetor.
Aproveitando, definimos a notação:
(v→)B = (α1, ..., αn)
se esse é o vetor formado pelos coeficientes de v→ na base B de ℝn. O caso 
particular, onde B é a base canônica, temos que (v→)B = v
→.
Quando fixamos um vetor v→ em ℝn, ele existe independente de uma base. Quando 
fixamos uma base B e escrevemos a representação de v→ na base B, essa representação 
( v→)B é única em relação a B, e para cada base teremos uma representação diferente. 
Matriz de mudança de base em ℝn
Com base no que vimos anteriormente, podemos nos perguntar: como calcular 
uma matriz de mudança de coordenadas de uma base para outra do ℝn?
Considere B = {v→1, ... , v
→
n} uma base ℝn e ℰ a sua base canônica. Se tomar-
mos a matriz n × n da forma:
MB→ℰ = [v
→
1 ... v
→
n]
essa matriz transforma um vetor (v→)B, na sua forma canônica v
→. Desse modo, 
se quisermos calcular uma matriz que faça o caminho contrário, isto é, que 
calcule (v→)B a partir do vetor v
→, precisamos calcular a matriz inversa de MB→E.
Espaço vetorial ℝn: base e dimensão4
Em ℝ2 a base B = {(3,1), (–2,–1)} define a matriz:
MB→ℰ =
3 –2
1 –1
Assim,
a) como podemos calcular a inversa dessa matriz?
b) dado v→ = (–3,4), como calcular a sua forma na base B?
Solução:
a) Como essa é uma matriz 2 × 2 e seu determinante é não nulo, podemos usar a 
fórmula:
a b
c d
–1
= ∙1
ad – bc
 d –b
–c a
que resulta em:
MB→ℰ =
–1 1
3 ∙ (–1) – (1) ∙ (–2)
–1 +2
–1 3
–1 2
–1 3
1 –2
1 –3
∙ ∙= =1
–1
b) Assim, podemos calcular diretamente que:
( v→)B = MB→ℰ ∙ v
→ = –1 1 –21 –3
∙ = =–3
4( ( –11–15( (–3 –8 –3 –12( (
Isto é, ( v→)B = (–11,–15). Isso significa que v
→ = –11 ∙ (3,1) – 15 ∙ (–2,–1) = (–3,4), onde 
essa última igualdade mostra como ( v→)B é o vetor v
→, só que escrito de uma forma 
alternativa (não canônica).
A fim de simplificar um pouco a notação, vamos nos aproveitar da sime-
tria do problema acima e escrever que Mℰ→B = MB→ℰ. Essa matriz é a matriz 
mudança de coordenadas da base canônica ℰ para a base B pela igualdade 
(v→)B = Mℰ→B . v
→.
–1
5Espaço vetorial ℝn: base e dimensão
Em ℝ3 a base B = {(–1,2,1), (–2,–1,0), (1,4,1)} define a matriz:
MB→ℰ = 
–1 –2 1
 2 –1 4
 1 0 1
Assim,
a) como podemos calcular a inversa dessa matriz?
b) dado v→ (–5,2,1), como calcular a sua forma na base B?
Solução:
a) Como essa é uma matriz 3 × 3, usamos o método de redução linear (ANTON; ROR-
RES, 2012, p. 55), onde juntamos a matriz identidade I à direita de MB→ℰ, da forma:
[MB→ℰ | I]
e efetuamos operações com as linhas dessa matriz até que o lado esquerdo esteja 
reduzido a I. Desse modo, a matriz final terá a forma:
[I | Mℰ→B]
Fazendo as contas, temos:
–1 –2 1
 2 –1 4
 1 0 1
1 0 0
0 1 0
0 0 1
Trocamos a primeira e a terceira linhas e multiplicamos a segunda por –1:
 1 0 1
 –2 1 –4
 –1 –2 1
0 0 1
0 –1 0
1 0 0
Somamos duas vezes a primeira linha à segunda e a primeira linha à terceira:
1 0 1
0 1 –2
0 –2 2
0 0 1
0 –1 2
1 0 1
Espaço vetorial ℝn: base e dimensão6
Somamos duas vezes a segunda linha à terceira:
1 0 1
0 1 –2
0 0 –2
0 0 1
0 –1 2
1 –2 5
Multiplicamos a terceira linha por –1/2:
1 0 1
0 1 –2
0 0 1
 0 0 1
 0 –1 2
–1/2 1 –5/2
Somamos –1 vez a terceira linha à primeira e duas vezes a terceira linha à segunda:
1 0 0
0 1 0
0 0 1
–1 –31
1–1/2 –5/2
–11/2 7/2
Portanto:
Mℰ→B = 
1
2
7
2
–1
–1
–31
1
1
2
– 5
2
–
b) Com a matriz Mℰ→B calculada, podemos calcular diretamente que:
( v→)B = Mℰ→B ∙ v
→ = –1 –31
–5
2
1( (
–1
4
2( (((∙ = =–5/2 –2 + 7/25 + 2 – 3+5/2 + 2 – 5/2–11/2 7/21–1/2 –5/2
Isto é, ( v→)B = (–1,4,2). Isso significa que v
→ = –1 ∙ (–1,2,1) + 4 ∙ (–2,–1,0) + 2 ∙ (1,4,1) = (–5,2,1), 
onde esta última igualdade mostra como ( v→)B é o vetor v
→, só que escrito de uma forma 
alternativa (não canônica).
7Espaço vetorial ℝn: base e dimensão
Bases de um subespaço do ℝn
De forma similar ao que definimos anteriormente, dado um subespaço vetorial 
E do ℝn, uma base de E é um conjunto B de vetores linearmente independentes, 
tal que B⊂E e B é gerador de E. Isto é, se v→∈E e B é uma base de E, então 
existem v→1, ... , v
→
m e α1, ..., αm ∈ ℝ, tal que:
v→ = α1 . v
→
1 + ... + αm . v
→
m
Essa combinação é única em E. Adicionalmente, os números α1, ..., αm são 
chamados de coordenadas do vetor v→ na base B.
É importante observar que o número de vetores m na base de um subespaço de ℝn 
é tal que m ≤ n. 
Quais dos conjuntos de vetores dados são bases de subespaços do ℝ3?
a) B1 = {(1,4,–3), (0,2,5)}
b) B2 = {(2,1,–2), (1,–2,3), (3,4,–7)}
c) B3 = {(1,4,–3), (0,2,5), (1,1,1)}
d) Dos conjuntos B1, B2 e B3 anteriores, considere apenas os que definem uma base 
e, para cada um, determine se o vetor v→ = (1,2,0) pertence ao subespaço gerado.
Solução:
a) B1 é linearmente independente, pois seus vetores não são múltiplos. Isso significa 
que o espaço gerado por B1 é um subespaço de ℝ3.
b) B2 é linearmente dependente, pois a equação matricial:
 2 1 3
 1 –2 4
–2 3 –7
. =
x1
x2
x3
( ( 000( (
admite outras soluções diferentes da solução trivial (0,0,0). Podemos observar isso 
por meio do método de Gauss e da falta de pivôs na forma escalonada. Logo, B2 não 
é uma base de um subespaço do ℝ3.
Espaço vetorial ℝn: base e dimensão8
a) B3 é linearmente independente, pois a equação matricial:
 1 0 1
 4 2 1
–3 5 1
. =
x1
x2
x3
( ( 000( (
admite apenas a solução trivial (0,0,0), calculada, por exemplo, pelo método de 
Gauss. Logo, B3 é uma base de um subespaço do ℝ3 (base do próprio ℝ3, na verdade).
b) Em B1, v
→ pertence ao subespaço gerado, se existe solução para a equação vetorial:
1
2
0( (
1
4
–3( (
0
2
5( (= α1 ∙ + α2 ∙
No caso, essa igualdade não tem solução, pois as soluções na primeira (α1 = 1) e 
segunda coordenadas (α2 = –1) não são soluções na terceira coordenada. Portanto, v
→ 
não pertence ao gerado de B1.
Em B3, a equação vetorial:
1
2
0( (
1
1
1( (
1
4
–3( (
0
2
5( (= α1 ∙ + α2 ∙ + α3 ∙ 
é equivalente à equação matricial:
 1 0 1
 4 2 1
–3 5 1
. =
a1
a2
a3
( ( 120( (
Usando o método de Gauss, temos que ( v→)B3 = (7/23, 1/23, 16/23), e v
→ pertence ao 
gerado de B3.
Qualquer conjunto de vetores de ℝn gera um subespaço de ℝn. Para um conjunto 
ser base desse subespaço, ele precisa ser formado (apenas) por vetores linearmente 
independentes. Isto é, a base de um subespaço é o menor conjunto de vetores que 
gera esse subespaço. Vamos falar mais sobre essa diferença ainda neste capítulo. 
9Espaço vetorial ℝn: base e dimensão
Dimensão de um subespaço vetorial do ℝn
Para ℝn, o conceito de dimensão é quase imediato: se qualquer base de ℝn 
possui n vetores, então dizemos que a dimensão de ℝn é n. Para definirmos 
a dimensão de um subespaço vetorial (próprio) E ⊂ ℝn, precisamos observar 
que, se E admite uma base de m vetores (m < n), então qualquer base de E tem 
o mesmo número m de vetores. Esse número é chamado de dimensão de E.
Subespaços vetoriais de ℝ2 e ℝ3
Se considerarmos apenas os subespaços vetoriais próprios de ℝ2 e ℝ3, conforme 
Figura 1, observamos o seguinte.
 � Os únicos subespaços vetoriais de ℝ2 são as retas passando pela origem.
 � Os subespaços vetoriais de ℝ3 são:
 ■ as retas passando pela origem, definidas por uma direção e, portanto, 
de dimensão 1;
 ■ os planos passando pela origem, definidos por duas direções line-
armente independentes e, portanto, de dimensão 2.
Figura 1. Subespaços vetoriais próprios de ℝ2 e do ℝ3.
Em ℝ3, uma reta
pela origem
Em ℝ3, um plano
pela origemEm ℝ3, uma reta
pela origem
Espaço vetorial ℝn: base e dimensão10
Seja E o subespaço vetorial de ℝ3 formado pelos vetores v→ = (x, y, z) que satisfazem:
x + 2y – 4z = 0
Como podemos obter uma base { v→1, v
→
2} ⊂ ℝ3 de forma que v
→
1, v
→
2 ∈ E?
Solução:
A equação x + 2y – 4z = 0 admite infinitas soluções (x,y,z). Uma maneira de expres-
sarmos essas soluções é escrevendo a equação como:
x = –2y + 4z
e atribuirmos valores arbitrários para y e z, a fim de calcularmos x. É importante 
lembrar-se da noção de variável livre e variável dependente. Nesse caso, x é variável 
dependente, enquanto que y e z são variáveis independentes.
Se escolhermos y = 2 e z = –3, calculamos x = –2 ∙ 2 + 4 ∙ (–3) = –16. Assim, o vetor 
v→1 = (–16,2,–3) satisfaz a equação dada, e podemos afirmar que v
→
1 ∈ E.
Para calcularmos v→2, é conveniente lembrar-se de que desejamos descrever uma 
base de E. Isso implica que os vetores precisam ser linearmente independentes, no 
caso da dimensão 2, e não podem ser múltiplos. Isto é, se escolhermos y = 4 e z = 
–6, então o vetor (–32,4,–6) não seria uma boa alternativa, pois ele é múltiplo de v→1.
Se escolhermos y = 0 e z = 1, calculamos x = –2 ∙ 0 + 4 ∙ (1) = 4. Assim, o vetor 
v→2 = (4,0,1) satisfaz a equação dada, o conjunto { v
→
1, v
→
2} é linearmente independente, 
e seu plano gerado é descrito pela equação.
No exemplo anterior, a equação x = –2y + 4z apresenta infinitas soluções. Isso significa 
que existem infinitas bases que podemos escolher para E. O importante é observar 
que todas essas bases descrevem exatamente o mesmo subespaço E.
11Espaço vetorial ℝn: base e dimensão
Subespaços vetoriais de ℝn, n > 3
Em geral, para n > 3 não nos preocupamos em dar nome aos subespaços que 
surgem do ℝn, pois eles podem ser descritos por meio de bases ou condições 
algébricas a respeito dos vetores que compõem esse subespaço. Veja os exem-
plos a seguir.
Seja F o subespaço vetorial de ℝ4 formado pelos vetores v→ = (x,y,z,w) que satisfazem:
3x – y + z = 0
2x + 3y + w = 0
Como podemos obter uma base de F? Qual é a dimensão desse subespaço?
Solução:
Esse exemplo, apesar de mais complexo, não é tão diferente do anterior, no qual 
identificamos algumas variáveis livres na equação e escrevemos as variáveis depen-
dentes a partir dessas. Neste exemplo, faremos o mesmo no sistema de equações 
dado. Considerando:
3x – y + z = 0
2x + 3y + w = 0
Escrevemos z e w em função de x e y:
z = –3x + y
w = –2x – 3y
Substituindo as variáveis z e w em v→, podemos reescrever v→ como:
v→ = (x,y, –3x + y, –2x – 3y)
que, por sua vez, por ser reescrito como a soma de um vetor que depende de x e 
um vetor que depende de y:
v→ = (x,y, –3x + y, –2x – 3y) = (x,0,–3x,–2y) + (0,y,+y,–3y)
Espaço vetorial ℝn: base e dimensão12
que, por sua vez, pode ser reescrito como a combinação (linear) de dois vetores:
v→ = x ∙ (1,0,–3,–2) + y ∙ (0,1,1,–3)
Portanto, qualquer v→∈F é uma combinação linear de:
v1 = (1,0,–3,–2)
v2 = (0,1,1,–3)
E { v→1, v
→
2} é uma base do subespaço vetorial F de dimensão 2 em ℝ4.
Seja G o subespaço vetorial de ℝ5 formado pelos vetores v→ = (x1,x2,x3,x4,x5) que satisfazem:
3x1 – 2x2 + 2x3 + x4 = 0
–x1 + 2x3 + 3x4 – 2x5 = 0
Como podemos obter uma base de G? Qual é a dimensão desse subespaço?
Solução:
Vamos tentar generalizar os exemplos anteriores por meio deste. O sistema de 
equações lineares:
3x1 – 2x2 + 2x3 + x4 = 0
–x1 + 2x3 + 3x4 – 2x5 = 0
apresenta 5 variáveis e 2 equações. Isto é, podemos escolher 3 variáveis livres e 
escrever as demais em função dessas (apenas). Para isso, somamos 3 vezes a segunda 
equação à primeira:
–2x2 + 8x3 + 10x4 – 6x5 = 0
–x1 + 2x3 + 3x4 – 2x5 = 0
Multiplicamos a primeira linha por –1/2 e a segunda linha por –1:
x2 – 4x3 – 5x4 + 3x5 = 0
x1 – 2x3 – 3x4 + 2x5 = 0
13Espaço vetorial ℝn: base e dimensão
Logo, podemos escrever x1 e x2 em função das demais variáveis:
x2 = 4x3 + 5x4 – 3x5
x1 = 2x3 + 3x4 – 2x5
e v→ como a soma de 3 vetores, cada um dependendo de apenas uma das variáveis 
livres:
v→ = (2x3 + 3x4 – 2x5,4x3 + 5x4 – 3x5,x3,x4,x5) =
= (2x3,4x3,x3,0,0) + (3x4,5x4,0,x4,0) + (–2x5,–3x5,0,0,x5)
= x3 ∙ (2,4,1,0,0) + x4 ∙ (3,5,0,1,0) + x5 ∙ (–2,–3,0,0,1)
Portanto, qualquer v→∈G é uma combinação linear de:
v1 = (2,4,1,0,0)
v2 = (3,5,0,1,0)
v3 = (–2,–3,0,0,1)
E { v→1, v
→
2, v
→
3} é uma base do subespaço vetorial G de dimensão 3 em ℝ5.
Bases em conjuntos e sua dimensão
Vamos retomar alguns conceitos e analisar com cuidado como identificar se 
um conjunto dado é uma base para um subespaço. Existem vários conceitos 
implícitos nesse objetivo.
Mencionamos anteriormente que nem todo conjunto de vetores é uma base. 
Por definição, isso ocorre sempre que um conjunto de vetores é linearmente 
dependente. Num conjunto de vetores linearmente dependente, não consegui-
mos determinar a dimensão do gerado desse conjunto ou uma representação 
única levando em consideração esse conjunto de vetores.
Espaço vetorial ℝn: base e dimensão14
Em ℝ5, considere o conjunto de vetores:
C = {(2,0,–3,1,–4), (0,1,1,–2,2), (2,2,–1,–3,0),(2,3,0,–5,2)}
e veja que:
a) C é linearmente dependente;
b) podemos determinar um subconjunto de C que é linearmente independente e 
que gera o mesmo subespaço que C.
Solução:
a) Por definição, { v→1, v
→
2, v
→
3, v
→
4} é linearmente independente, se:
α1 . v
→
1 + ... + αn . v
→
n = 0
→
admite apenas a solução trivial (α1,α2,α3,α4) = (0,0,0,0). Quando aplicamos esse critério 
aos vetores dados, temos:
2
0
–3
1
–4
((
0
1
1
–2
2
((
2
2
–1
–3
0
((
2
3
0
–5
2
((
0
0
0
0
0
((α1 ∙ + α2 ∙ + α3 ∙ + α4 ∙ = 
Essa igualdade pode ser escrita na forma matricial:
 2 0 2 2
 0 1 2 3
–3 1 –1 0
 1 –2 –3 –5
–4 2 0 2
∙ =
a1
a2
a3
a4
( (
0
0
0
0
0
( (
que resolveremos usando a matriz aumentada e eliminação gaussiana (ANTON; 
RORRES, 2012, p. 11). Assim, em:
 2 0 2 2 0
 0 1 2 3 0
–3 1 –1 0 0
 1 –2 –3 –5 0
–4 2 0 2 0
15Espaço vetorial ℝn: base e dimensão
Multiplicamos a primeira linha por 1/2 e a quinta linha por –1/2:
 1 0 1 1 0
 0 1 2 3 0
–3 1 –1 0 0
 1 –2 –3 –5 0
 2 –1 0 –1 0
Somamos 3 vezes a primeira linha à terceira,–1 vez a primeira linha à quarta e–2 
vezes a primeira linha à quinta:
1 0 1 1 0
0 1 2 3 0
0 1 2 3 0
0 –2 –4 –6 0
0 –1 –2 –3 0
Somamos -1 vez a segunda linha à terceira, 2 vezes a segunda linha à quarta e a 
primeira linha à quinta:
1 0 1 1 0
0 1 2 3 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
Nesse momento, podemos analisar que α3 e α4 são variáveis livres do sistema. Isso 
significa que existem infinitas combinações (α1,α2,α3,α4) que resultam no vetor nulo. 
Portanto, C é linearmente dependente.
b) Podemos verificar que, se:
v→1 = (2,0,–3,1,–4)
v→2 = (0,1,1,–2,2)
v→3 = (2,2,–1,–3,0)
v→4 = (2,3,0,–5,2)
então v→4 = v
→
1 + 3v
→
2 e v
→
3 = v
→
1 + 2v
→
2. Isso nos permite afirmar que B = { v
→
1, v
→
2} é uma 
base do gerado de C. Isso ocorre por percebermos que todos os vetores de C são 
obtidos por combinações de apenas dois vetores não múltiplos e, portanto, linearmente 
independentes. Assim, quaisquer dois vetores não múltiplos no gerado de C formam 
uma base do gerado de C.
Espaço vetorial ℝn: base e dimensão16
No exemplo anterior, vimos que o vetor v→3 pode ser escrito em relação ao conjunto C 
como:
v→3 = 1v
→
1 + 2v
→
2 + 0v
→
3 + 0v
→
4
ou como:
v→3 = 0v
→
1 + 0v
→
2 + 1v
→
3 + 0v
→
4
Isso ilustra nossa afirmação de que os vetores de um subespaço apresentam de-
composição única apenas sobre uma base daquele subespaço.
Ainda observando o exemplo anterior, vemos que não é imediato perceber 
que a dimensão do conjunto gerado por C é 2. Vejamos agora uma versão 
simplificada do teorema do posto para matrizes (ANTON; RORRES, 2012, 
p. 238) que nos dará a solução para esse problema.
Em ℝn dado o conjunto de vetores C = {v→1, ... , v
→
m}, o subespaço vetorial 
gerado por C terá dimensão igual ao númerode pivôs da forma escalonada 
da matriz:
M = [v→1 ... v
→
m]
Adicionalmente, as colunas que tiverem pivôs na forma escalonada são as 
dos vetores em M que compõem uma base do gerado de C.
Retomando o exemplo anterior, em ℝ5, o conjunto de vetores:
C = {(2,0,–3,1,–4), (0,1,1,–2,2), (2,2,–1,–3,0), (2,3,0,–5,2)}
17Espaço vetorial ℝn: base e dimensão
tem uma matriz associada:
 2 0 2 2
 0 1 2 3
–3 1 –1 0
 1 –2 –3 –5
–4 2 0 2
Como essa matriz tem uma forma escalonada:
1 0 1 1
0 1 2 3
0 0 0 0
0 0 0 0
0 0 0 0
podemos afirmar que o subespaço gerado por C tem dimensão 2, e precisamos de 
apenas dois vetores para formar uma base desse gerado. No caso, v→1 e v
→
2, pois, nessas 
colunas, temos a presença de pivôs.
Em ℝ4, dado o conjunto de vetores: 
C = {(1,–1,2,1), (2,1,0,–2), (1,2,–2–3), (3,–3,5,2)},
como determinar a dimensão do gerado de C e uma base desse subespaço? 
Solução: 
Como esse conjunto de vetores tem uma matriz associada:
 1 2 1 3
–1 1 2 –3
 2 0 –2 5
 1 –2 –3 2
para calcular a sua forma escalonada, somamos a primeira linha à segunda,–2 vezes 
a primeira linha à terceira e–1 vez a primeira linha à quarta:
1 2 1 3
0 3 3 0
0 –4 –4 –1
0 –4 –4 –1
Espaço vetorial ℝn: base e dimensão18
Multiplicamos a segunda linha por 1/3, somamos –1 vez a terceira linha à quarta:
1 2 1 3
0 1 1 0
0 –4 –4 –1
0 0 0 0
Somamos quatro vezes a segunda linha à terceira:
1 2 1 3
0 1 1 0
0 0 0 –1
0 0 0 0
E chegamos à forma escalonada que nos permite contar 3 pivôs. Logo, o subespaço 
gerado por C tem dimensão 3, e uma base para esse subespaço é { v→1, v
→
2, v
→
4} pela forma 
escalonada ter pivôs nas colunas 1, 2 e 4.
Acessando o link a seguir, você pode visualizar exercícios de bases e sistemas de 
coordenadas disponibilizados pela Unicamp, classificados quanto à sua dificuldade, 
categoria e solução.
https://goo.gl/sYUrHS
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman, 
2012. 786 p.
LAY, D. C.; LAY, S. R.; MCDONALD, J. J. Álgebra linear e suas aplicações. 5. ed. Rio de 
Janeiro: LTC, 2018. 480 p.
19Espaço vetorial ℝn: base e dimensão
ÁLGEBRA LINEAR
André Ricardo Rocha da Silva
Matrizes elementares 
e fatoração LU
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
 � Definir matrizes elementares e suas propriedades.
 � Relacionar matrizes elementares com a inversão de matrizes.
 � Resolver um sistema linear a partir da fatoração LU.
Introdução
Os sistemas de equações lineares são conjuntos de equações lineares 
que envolvem muitas variáveis. A representação matricial desses sistemas 
possibilita encontrar uma única solução por meio da matriz inversa dos 
coeficientes do sistema.
Por outro lado, quando o sistema de equações lineares em questão é 
grande, o método de obtenção da solução para ele pode ser por meio da 
fatoração de matrizes, recomenda para situações que envolvem muitos 
cálculos, por ser um método direto e rápido. 
Neste capítulo, você aprenderá a obter a matriz inversa e relacioná-la 
a um sistema de equações lineares, bem como desenvolver e aplicar a 
fatoração LU para a solução de um sistema de equações lineares.
Matrizes elementares
Um importante método para resolver um sistema de equações lineares é en-
contrar um sistema equivalente mais simples que se possa resolver e contenha 
o mesmo conjunto de soluções do sistema original. Felizmente, isso não é 
apenas possível para muitos casos como é facilitado pelo uso das matrizes. 
Isso porque os sistemas de equações lineares podem ser representados pelas 
matrizes — cada equação é uma linha de uma matriz —, de modo que qualquer 
operação algébrica envolvendo as equações do sistema também pode ser feita 
sobre as linhas da matriz.
Com isso em mente, as operações elementares sobre linhas que podem 
ser realizadas em uma matriz são:
 � multiplicar uma linha inteira por uma constante qualquer que seja 
diferente de zero;
 � fazer a troca de posições entre duas linhas;
 � somar um múltiplo de uma linha com outra linha.
Para exemplificar como essas operações são feitas, considere a seguinte 
matriz:
Para o primeiro tipo de operação, a multiplicação de uma linha inteira 
por uma constante significa multiplicar todos os elementos da linha por um 
número. Por exemplo, multiplique a segunda linha por 3: 
3 ∙ [1 –1] = [3 –3]
Então, a nova segunda linha ficaria:
Para o segundo tipo de operação, o processo de troca de posição entre duas 
linhas significa colocar a segunda linha no lugar da primeira, e a primeira 
linha no lugar da segunda:
Primeira linha = [2 3] → segunda linha
Segunda linha = [1 –1] → primeira linha
Logo:
Matrizes elementares e fatoração LU2
Para o terceiro tipo de operação, a soma de um múltiplo de uma linha com 
outra significa multiplicar todos os elementos de uma linha por um número e, 
depois, somar esse resultado à outra linha. Por exemplo, depois de multiplicar 
a segunda linha por 3, você pode somar esse resultado com a primeira:
Observe que essa operação produziu um elemento nulo na segunda coluna 
da primeira linha. 
Com efeito, uma matriz elementar é uma matriz quadrada que pode ser 
obtida a partir da matriz identidade de mesmo tamanho, por meio de uma 
única operação elementar sobre linhas.
Veja, a seguir, alguns exemplos.
1. A seguinte matriz é elementar, pois foi obtida da matriz identidade, por meio da 
multiplicação por 5 da primeira linha.
5 0
0 1
2. Esta matriz é elementar, pois foi obtida da matriz identidade, por meio da troca 
entre a primeira e a segunda linha.
0 1 0
1 0 0
0 0 1
3. A matriz, a seguir, é elementar, pois foi obtida da matriz identidade, por meio da 
multiplicação da última linha por 2, somada com a primeira linha.
1 2
0 1
3Matrizes elementares e fatoração LU
Uma propriedade fundamental das matrizes elementares diz respeito ao 
efeito que elas causam sobre outras matrizes. 
Se, por exemplo, uma matriz elementar E1 é resultado da multiplicação da 
primeira linha da matriz unidade por 2, então, a multiplicação dessa matriz 
elementar à esquerda de outra qualquer de mesmo tamanho, A, produzirá como 
único efeito a multiplicação da primeira linha de A por 2. 
Por exemplo, se E1 for dada por:
e a matriz A for:
A =
2 3
1 –1
então o produto E1A fica:
cujo resultado é igual a multiplicar por 2 a primeira linha da matriz A.
É possível realizar uma segunda operação elementar sobre linhas na ma-
triz A, multiplicando o produto E1A por uma segunda matriz elementar. Por 
exemplo, para a matriz elementar E2 dada por:
que é uma matriz elementar produzida pela multiplicação da primeira 
linha da matriz identidade por –3, somada com a segunda linha. Então, o 
resultado de E2E1A é:
que representa simplesmente a multiplicação da primeira linha da matriz 
E1A por –3 e, depois, somada com a segunda linha. Veja:
multiplicando a primeira linha de E1A por –3 e, depois, somando a segunda 
linha:
–3 ∙ [4 6] = [–12 –18]
[–12 –18] + [1 –1] = [–11 –19]
Matrizes elementares e fatoração LU4
o resultado é:
que é exatamente o mesmo de E2E1A. 
Desse modo, duas ou mais operações elementares realizadas sobre uma 
matriz A qualquer podem ser obtidas pela multiplicação sucessiva das matrizes 
elementares que produzem tais operações sobre linhas.
A aplicação sucessiva de duas operações elementares a e b, respectivamente, sobre 
uma matriz A, implica uma mesma ordem de aplicação das matrizes elementares 
representativas dessas operações: EbEaA.
Portanto, o conceito de matrizes elementares é fundamental para a resolu-
ção de sistemas de equações lineares, pois permite o desenvolvimento de um 
algoritmo-padrão para a realização de operações elementares sobre as linhas 
da matriz dos coeficientes do sistema, a fim de solucioná-lo. 
Inversão de matrizes
Um aspecto importante sobre as operações elementares é que a mudança gerada 
por uma operação pode ser desfeita por meio de outra operação elementar.Considere a matriz elementar:
obtida da matriz identidade, multiplicando a primeira linha por 5. Essa 
operação pode ser desfeita por meio da multiplicação da primeira linha por 
1/5; ou seja, multiplicando E1 pela matriz elementar:
5Matrizes elementares e fatoração LU
Observe com atenção: como a primeira matriz elementar E1 tem origem na 
matriz identidade I por meio de uma operação elementar, então, desfazer essa 
operação elementar implica retornar à matriz identidade. E, por isso, a matriz 
elementar que desfez a operação dada por E1 foi propositalmente denotada por 
, pois ela representa a matriz inversa de E1. De fato, observe que:
Outro exemplo que você viu foi o da matriz elementar:
obtida da matriz identidade por meio da troca entre a primeira e a segunda 
linha. Essa operação pode ser desfeita mediante a realização de uma nova troca 
entre a primeira e a segunda linha. Logo, nesse caso, = E2, e, por isso:
De fato, o cálculo do quadrado da matriz E2 resulta na matriz identidade:
Nesse caso, vale a pena notar que essa matriz elementar é ortogonal, pois 
 = E2
T, ou seja, a matriz inversa é igual à matriz transposta e, também, 
uma matriz simétrica, já que = E2 implica que E2
T = E2.
A matriz elementar do tipo 3 × 3, que faz a troca da primeira linha com a terceira, 
também é uma matriz ortogonal e simétrica. 
Matrizes elementares e fatoração LU6
Um outro exemplo importante envolve a seguinte matriz complementar:
obtida da matriz identidade por meio da multiplicação da última linha por 
2, somada com a primeira linha. Essa mudança pode ser desfeita pela multi-
plicação da última linha da matriz identidade por –2 e da soma do resultado 
com a primeira linha. Isto é, a matriz elementar que representa a matriz 
inversa de E3 é:
De fato, você pode verificar que:
Portanto, para uma dada matriz elementar, que representa uma operação 
elementar sobre a matriz identidade, sua matriz inversa é simplesmente a 
operação elementar inversa, ou seja, retorna-se novamente à matriz identidade. 
Toda matriz elementar contém uma matriz inversa que, por sua vez, também é uma 
matriz elementar.
O conceito de matriz elementar desempenha um papel fundamental na 
construção de uma matriz. Para uma dada matriz quadrada A, que possui 
uma inversa, A–1, as seguintes proposições são válidas.
1. É sempre possível transformar A, por meio de sucessivas aplicações de 
matrizes elementares, em uma matriz identidade I:
En ... E2E1A = I
2. Pode-se representar A como um produto de matrizes elementares sobre I.
7Matrizes elementares e fatoração LU
Isso pode ser visto da seguinte maneira, desde que A–1A = I, então, pela 
proposição 1, você pode identificar diretamente que A–1 = En ... E2E1.
Agora, a inversa de A–1 é a própria matriz A:
(A–1)–1 = A 
Então:
(A–1)–1 = (En ... E2E1)
–1 = A
Como as matrizes elementares contêm inversas, vale a seguinte igualdade 
que se aplica ao cálculo da inversa de uma matriz resultante do produto entre 
outras matrizes:
Portanto:
Ou seja, como a matriz inversa de uma matriz elementar também é uma 
matriz elementar, esse resultado está de acordo com a proposição 2, vista 
anteriormente. Além disso, como a matriz A contém uma inversa, o produto 
da inversa de matrizes elementares também possui uma inversa. 
Os resultados fornecem duas importantes aplicações. A primeira aplicação 
possibilita resolver sistemas de equações lineares. Com efeito, pode-se aplicar 
as matrizes elementares para resolver sistemas de equações lineares. Isso 
pode ser feito utilizando a representação matricial de um sistema, dada pela 
equação matricial:
AX = B
Matrizes elementares e fatoração LU8
em que A é a matriz quadrada dos coeficientes, X é a matriz coluna das 
variáveis, e B é a matriz coluna das constantes. Você viu que En ... E2E1A = 1. 
Por isso, a aplicação sucessiva de matrizes elementares no lado esquerdo dessa 
equação matricial, e em ambos os lados dessa relação de igualdade, resulta em:
que é a solução do sistema de equações lineares. Como você pode notar, essa 
solução depende da existência da matriz inversa dos coeficientes do sistema. 
Agora, a segunda aplicação importante é fornecer um método para deter-
minar — quando existir — a inversa de uma matriz que, por tabela, também 
auxilia na solução de um sistema linear (que é a primeira aplicação). Se você 
multiplicar pela direita a equação matricial En ... E2E1A = I por A
–1, você obtém:
Ou seja, é possível obter a matriz inversa de A por meio de sucessivas 
multiplicações de matrizes elementares à esquerda da matriz identidade I. 
Dessa forma, comparando os seguintes resultados:
En ... E2E1A = I
A–1 = En ... E2E1I
você pode observar um conceito fundamental: as mesmas operações ele-
mentares sobre linhas (geradas pelo produto das várias matrizes elementares) 
que transformam a matriz A em uma matriz identidade I, também transformam 
a matriz identidade I na matriz inversa de A, que é dada por A–1.
9Matrizes elementares e fatoração LU
Com efeito, para que você possa encontrar a inversa de uma matriz A, basta 
executar uma sequência de operações elementares sobre linhas, que transforma 
A em uma matriz identidade; e, simultaneamente, essa mesma sequência de 
operações elementares sobre linhas para transformar I na matriz inversa de A. 
Para que você possa executar simultaneamente a mesma sequência de 
operações elementares sobre as matrizes A e I, é recomendável que você 
perfile as matrizes A e I, lado a lado, da seguinte maneira:
[A|I]
Veja que, embora as duas matrizes estejam uma do lado da outra, há uma 
divisória (simbolizada por |) que permite separá-las de forma individual.
A partir dessa configuração, a execução de operações elementares sobre 
A (lado esquerdo), que resultará na matriz I, ocorre simultaneamente sobre I 
(lado direito), cujo resultado é a matriz A–1:
Para exemplificar esse processo, considere a seguinte matriz:
Então, perfile-a junto à matriz I:
Agora, a ideia é realizar operações simultâneas sobre as linhas das ma-
trizes A e I perfiladas, que formam um tipo de “matriz 2 × 4”, de modo a 
transformar a matriz A, no lado esquerdo, em I. O que resultar no lado direito 
será identificado como sendo A–1. 
Matrizes elementares e fatoração LU10
Nesse exemplo, se você multiplicar a segunda linha por –2 e somar com 
a primeira linha:
–2 ∙ [0 1|0 1] + [1 2|1 0] = [1 0|1 –2]
o resultado será uma nova primeira linha:
Veja que, do lado esquerdo, já apareceu a matriz identidade, e, por con-
seguinte, a matriz do lado direito é necessariamente a matriz inversa de A:
É fácil você comprovar isso, mostrando que AA–1 = A–1A = I.
Fatoração LU
Em diversas situações evolvendo cálculos, torna-se útil a fatoração de um 
número, ou mesmo a fatoração de uma expressão matemática, para simplificar 
um cálculo. Veja os dois exemplos de fatoração a seguir:
a) 
b) 
A mesma ideia vale para as matrizes. O processo de fatoração de uma 
matriz implica escrever uma dada matriz como sendo o resultado do produto 
de duas ou mais matrizes. 
A aplicação dessa técnica é especialmente útil para a resolução de sistemas 
de equações lineares, pois fornece uma alternativa operacional direta e simples 
de ser executada. Por isso, ela também é bastante empregada em computadores 
para a execução de processos que envolvam muitos cálculos. 
Um caso particular da fatoração de matrizes é a denominada fatoração 
LU, que consiste em escrever uma dada matriz A, que possui inversa, como 
sendo o produto de outras duas matrizes, L e U, de modo que:
A = LU
11Matrizes elementares e fatoração LU
A matriz U é obtida a partir da aplicação do método de eliminação de 
Gauss sobre A. Ou seja, a partir da operação elementar sobre linhas aplicadas 
à matriz A, é possível transformá-la em uma matriz triangular superior U:
En ... E2E1A = U
Multiplicando, pela esquerda, os dois lados dessa relação por (En ... E2E1)
–1, 
você obtém:
Desde que:
chega-se finalmente à relação:
Aqui, a matriz é uma matriztriangular inferior, desde 
que não se tenha feito trocas de linhas na aplicação do método de eliminação 
Gauss para obter a matriz U.
Se uma matriz quadrada A pode ser reduzida à forma escalonada, U, por meio do 
método de eliminação de Gauss sem troca de linhas, então, essa matriz pode ser 
fatorada como A = LU, em que a matriz L é uma matriz triangular inferior.
Matrizes elementares e fatoração LU12
Para você entender o procedimento de como realizar a fatoração LU para 
uma dada matriz, considere a seguinte matriz do tipo 2 × 2:
Aplicando-se o método de eliminação de Gauss, você pode multiplicar 
a primeira linha de A por 3 e somar com a segunda linha, obtendo, assim, a 
matriz U:
Essa operação elementar realizada sobre A também corresponde à aplicação 
da matriz elementar obtida pela multiplicação da primeira linha da matriz 
identidade por 3, depois, somada com a segunda linha:
Veja:
Com efeito, a matriz L é obtida simplesmente por calcular a matriz inversa 
de E:
Nesse caso, se você multiplicar a primeira linha por –3 e, depois, somar 
com a segunda linha:
você já tem, do lado esquerdo, a matriz identidade e, portanto:
13Matrizes elementares e fatoração LU
Logo, a matriz L fica:
Claro que você poderia ter obtido esse mesmo resultado observando que a 
operação elementar sobre linhas contrárias à realizada para obter a matriz U 
é de multiplicar a primeira linha da matriz identidade por –3 e, depois, somar 
com a segunda linha (que tem o mesmo efeito de multiplicar a primeira linha 
da matriz identidade por 3 e, depois, fazer a subtração com a segunda linha):
Assim, onde aparece o fator 3 na matriz elementar E, aparecerá o fator –3 
na matriz L. Desse modo, a fatoração LU para a matriz A é dada por:
De modo geral, para se fazer a fatoração LU de uma dada matriz A, basta 
registrar as matrizes elementares que conduziram à forma escalonada U da 
matriz A e, então, calcular a matriz inversa dessas matrizes elementares, cujo 
produto em ordem invertida delas resulta na matriz L.
Como você já deve ter percebido, a maior parte do trabalho para fazer 
a fatoração LU consiste em encontrar L. No entanto, você pode construir a 
matriz L mais facilmente, notando que:
Observe que, no caso de E1, obtida pela multiplicação do primeiro ele-
mento da matriz identidade por 5 (e cuja ação sobre outra matriz consiste em 
multiplicar o elemento correspondente por 5), a sua matriz inversa, , é 
obtida simplesmente dividindo por 5 o primeiro elemento. Já para a matriz 
elementar E2, obtida pela multiplicação da primeira linha da matriz identidade 
por 3, que, depois, foi somada com a segunda linha, a sua matriz inversa, 
, é obtida pela multiplicação da primeira linha da matriz identidade por 3, 
depois subtraída da segunda linha. Em outras palavras, a matriz inversa de 
Matrizes elementares e fatoração LU14
uma matriz elementar corresponde exatamente à operação algébrica inversa 
da matriz elementar. Se a ação da matriz elementar é multiplicar, a matriz 
inversa dividirá; se a ação da matriz elementar é somar uma linha, a matriz 
inversa subtrairá uma linha.
Veja, agora, como a fatoração LU é empregada para se obter a solução de 
um sistema de equações lineares. A representação matricial do sistema é do 
tipo AX = B. Como a matriz dos coeficientes pode ser posta na forma A = LU, 
então, a equação matricial do sistema fica:
LUX = B
Agora, essa equação matricial pode ser separada em outras duas:
LY = B e UX = Y
Desse modo, primeiro você resolve a equação matricial auxiliar LY = B, 
determinando, assim, a matriz Y. Depois, você substitui esse resultado na 
equação matricial UX = Y, determinando a matriz X, e, portanto, resolvendo 
o problema. A vantagem desse processo é que o formato escalonado das 
matrizes L e U permite uma solução direta e rápida para as matrizes Y e X, 
respectivamente. 
Como exemplo de resolução de um sistema de equações lineares pelo mé-
todo da fatoração LU, considere o seguinte sistema de duas equações lineares:
A matriz dos coeficientes é dada por:
cuja fatoração LU está dada logo acima:
U = –1 1 0 5 L = 
 1 0
–3 1
,
15Matrizes elementares e fatoração LU
Além disso, a matriz das variáveis é:
e a matriz das constantes é:
Sendo:
a primeira equação matricial LY = B fica:
Logo, y1 = 6 e y2 = 7 + 3(6) = 25. Assim:
Agora, usando a equação matricial UX = Y:
Logo, x2 = 5 e x1 = x2 – 6 = –1. 
Portanto:
é a solução do sistema de equações lineares proposto. 
Talvez, para um sistema do tipo 2 × 2, a fatoração LU possa não parecer 
tão fácil de ser usada. Afinal, nesse caso, até mesmo uma tentativa direta 
pode ser bem-sucedida. Mas o valor da fatoração LU prova-se para situações 
envolvendo conjuntos de sistemas e equações lineares de tamanho maior.
Matrizes elementares e fatoração LU16
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006. 
612 p.
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre: Bookman, 
2012. 786 p.
Leitura recomendada
CRISPINO, M. L. 320 questões resolvidas de álgebra linear. Rio de Janeiro: Ciência Moderna, 
2012. 352 p.
17Matrizes elementares e fatoração LU
ÁLGEBRA LINEAR
Silvano Antonio Alves Pereira Junior
Determinantes e 
autovalores
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:
 � Definir determinantes e algumas de suas propriedades.
 � Encontrar a matriz inversa com o uso de determinantes.
 � Relacionar autovalores com o processo de diagonalização de matrizes.
Introdução
Neste capítulo, você estudará um pouco mais sobre matrizes, que têm 
aplicações nos mais variados locais — desde a planilha de Excel ao pro-
cesso de gerenciamento de estoques, ou mesmo o controle de complexos 
sistemas de produção.
Nesse contexto, o determinante é uma poderosa ferramenta, um 
invariante numérico de uma matriz que pode auxiliar a obter preciosas 
informações sobre a matriz e, até mesmo, o sistema associado a ela.
Você também será apresentado às ferramentas utilizadas no processo 
de diagonalização de uma matriz, como autovetores, autovalores e po-
linômios característicos.
Determinantes e suas propriedades
O determinante é um número associado a uma matriz quadrada. Antes de 
introduzir sua definição precisa, apresentaremos alguns exemplos de casos 
particulares, que podem ajudar na compreensão do caso geral. Seguiremos 
uma linha semelhante à apresentada em Nicholson (2006).
Caso 2 × 2
Consideremos a seguinte matriz:
O determinante da matriz A será denotado por det(A) e pode ser calculado 
da seguinte maneira:
det(A) = (2 × 1) – (3 × 1) = 2 – 3 = –1 
como, em resumo, o produto dos elementos da diagonal principal (a da 
esquerda para a direita) menos o produto dos elementos da diagonal secundária 
(a da direita para a esquerda). Essa propriedade é válida para matrizes dois 
por dois em geral, isto é, você poderá utilizar a seguinte fórmula:
Se , então det(A) = (a × d) – (c × b)
Para calcular o determinante da matriz B = 1 1
2 2
. Você deverá proceder da seguinte 
maneira:
det(B) = (1 × 2) – (2 × 1) = 2 – 2 = 0
Um fato importante para se considerar em matrizes, de maneira geral, é 
que uma matriz quadrada An×n é invertível se, e somente se, seu determinante 
for diferente de zero. Assim, os exemplos anteriormente apresentados são de 
uma matriz invertível — a matriz A — e da matriz B , que não possui inversa. 
Para matrizes 2 × 2, cujo determinante seja não nulo, podemos ainda trabalhar 
com a seguinte fórmula:
 tem como inversar a matriz 
Determinantes e autovalores2
Caso 3 × 3
Para matrizes de tamanho 3 × 3, você poderá calcular o determinante utilizando 
determinantes menores e cofatores. 
Definição: se A é uma matriz quadrada, então, o menor relacionado à entrada aij 
(também denominado ij-ésimo menor de A) é denotado por Mij e definido como o 
determinante da submatriz que sobra quando suprimimos a i-ésima linha e a j-ésima 
coluna de A. O número Cij = (–1)
i+jMij é denominado cofatorda entrada aij (ou o ij-ésimo 
cofator).
Considere a matriz A =
1 0 2
1 1 1
3 0 2
. O cálculo para C31 pode ser realizado da seguinte 
maneira.
Sabe-se que C31 = (–1)
3+1M31 e que o menor M31 é o determinante da matriz que 
obtemos após eliminar a linha 3 e a coluna 1 da matriz A. Ou seja:
M = = 0 × 1 – 1 × 2 = –2
0 2
1 1
Portanto:
C31 = (–1)
3+1M31
C31 = (–1)
4(–2)
C31 = 1(–2)
C31 = –2
A partir dos cofatores, podemos calcular o determinante de uma matriz 
quadrada An×n , utilizando a expansão do determinante em cofatores.
3Determinantes e autovalores
Expansão em cofatores
Seja An×n uma matriz quadrada de números reais, a expansão em cofatores do 
determinante da matriz An×n a partir da k-ésima linha é dada por:
det(A) = ak1Ck1 + ak2Ck2 + ak3Ck3 + … + aknCkn 
É muito importante estar alerta ao termo (–1)i+j, pois um erro de sinal nessa parte do 
cálculo é muito comum. Para evitar que isso aconteça, lembre-se de que o resultado 
dessa conta depende da paridade de i + j. Se i + j for par, o resultado será igual a 1; se 
i + j for ímpar, o resultado será igual a –1.
Essa fórmula permite calcular o determinante de matrizes de qualquer 
tamanho, mas observe que o número de operações cresce de maneira muito 
rápida. O determinante de uma matriz 3 × 3 implica três determinantes de 
matrizes 2 × 2 na sua expansão em cofatores. Já o determinante de uma matriz 
4 × 4 implica quatro determinantes de matrizes 3 × 3, sendo que cada um 
desses implica três determinantes de matrizes 2 × 2, gerando um total de 12 
determinantes 2 × 2. 
Vejamos um exemplo do cálculo de determinantes utilizando a expansão em cofatores.
Considere novamente a matriz A =
1 0 2
1 1 1
3 0 2
. Vamos calcular o seu determinante, 
fazendo a expansão em cofatores a partir da linha 1. Temos:
det(A) = a11C11 + a12C12 + a13C13
det(A) = 1C11 + 0C12 + 2C13
det(A) = C11 + 2C13
Determinantes e autovalores4
Agora, calculamos os cofatores:
1 1
0 2
C11 = (–1)
1+1 M11
C11 = 1 
C11 = 1 × [2]
C11 = 2
e
1 1
3 0
C31 = (–1)
1+3 M13
C31 = 1 
C31 = 1 × [–3]
C31 = –3
Segue que:
det(A) = 2 + 2 × (–3) = –4
Um ponto a ser destacado é que a expansão pode ser feita a partir de 
qualquer uma das linhas. Não existe nenhuma restrição, mas, a fim de reduzir 
o número de cálculos, é comum escolher a linha com a maior quantidade de
zeros. Veja o seguinte exemplo.
Considere a matriz H =
1 0 0
3 2 1
3 1 1
. Pode-se calcular o seu determinante fazendo a 
expansão em cofatores a partir da linha 1, tendo em mente que essa é a linha que tem 
a maior quantidade de elementos nulos.
Utilizando a fórmula de expansão, obtemos:
det(H) = a11C11 + a12C12 + a13C13
det(H) = 1C11 + 0C12 + 0C13
det(H) = C11
Perceba que, como a linha tem dois elementos nulos, o cálculo do determinante 
reduziu-se ao de um determinante de ordem 2 × 2.
5Determinantes e autovalores
2 1
1 1
C11 = (–1)
1+1 M11
C11 = 1 
C11 = 1 × [2 – 1]
C11 = 1
Portanto, det(H) = C11 = 1.
A seguir, apresentamos algumas das propriedades mais importantes do 
determinante de uma matriz, que podem ser de muita utilidade no cálculo de 
determinantes.
 � P1: o determinante da matriz nula é igual a zero.
 � P2: o determinante da matriz identidade In×n é igual a um.
 � P3: o determinante é uma função linear de cada linha — isto é, se
multiplicarmos uma linha por k, o determinante da matriz é multipli-
cado por k. 
� P4: se duas linhas (ou colunas) da matriz são iguais, ou múltiplo 
não nula uma da outra, o determinante da matriz é igual a zero.
� P5: se uma das linhas (ou colunas) for formada apenas por elementos 
nulos, o determinante da matriz é igual a zero.
� P6: se a matriz for triangular ou diagonal, o determinante é igual ao 
produto dos elementos da diagonal da matriz.
� P7: Se B = Bnxn, então det ( B) = n.det(B)
Considere a matriz A =
1 2 3
2 4 6
3 0 2
. Pode-se calcular o seu determinante fazendo uso 
das propriedades do determinante. Observe que a linha 2 é múltipla da linha 1. De 
forma mais precisa, L2 = 2L1. Portanto, o determinante da matriz é igual a zero.
Veja, agora, um exemplo sobre matrizes triangulares.
Determinantes e autovalores6
Considere a matriz A =
7 0 0
2 –1 0
1 1 –4
. Pode-se calcular o seu determinante fazendo uso 
das propriedades do determinante. Observe que a matriz é do tipo triangular superior. 
Logo, seu determinante é igual ao produto dos elementos em sua diagonal. Portanto:
det(A) = 7 × (–1) × (–4) = 28 
Como dito anteriormente, a expansão em cofatores pode ser utilizada para 
matrizes de qualquer dimensão, não apenas 2 × 2 ou 3 × 3. Veja um exemplo 
disso a seguir.
Considere a matriz A =
1 0 0 5
1 2 4 1
3 0 0 0
1 1 0 0
. Pode-se calcular o seu determinante fazendo 
uso da fórmula de expansão em cofatores. Para tal, a escolha da terceira linha da 
matriz pode ser uma boa opção, tendo em vista que é a que contém mais elementos 
nulos. Obtém-se:
det(A) = a31C31 + a32C32 + a33C33 + a34C34
det(A) = a31C31 + 0C32 + 0C33 + 0C34
det(A) = a31C31
det(A) = 3C31
Resta calcular o cofator C31. Nesse caso:
C31 = –20
C31 = (–1)
3+1 ×
0 0 5
2 4 1
1 0 0
C31 = 1 × 1 (–1)
3+1 × 0 5
4 1
Segue que det(A) = 3 × (–20) = –60.
7Determinantes e autovalores
Matriz inversa
Na seção anterior, você aprendeu que uma matriz possui inversa se, e somente 
se, seu determinante é diferente de zero. Além disso, você também aprendeu 
a calcular a matriz inversa de uma matriz 2 × 2, utilizando o determinante. 
Agora, verá como utilizar a fórmula de expansão em cofatores para encon-
trar a inversa de uma matriz quadrada de qualquer dimensão. Para tal, você 
precisará do seguinte resultado.
Teorema: seja A3×3 uma matriz cujo determinante é diferente de zero, e então 
sua matriz inversa A–1 pode ser calculada desta forma:
Em palavras, a matriz inversa de A é igual ao inverso do determinante de 
A multiplicado à transposta da matriz de cofatores de A.
O resultado foi enunciado no caso 3 × 3, para facilitar a compreensão, mas 
pode ser utilizado para matrizes de qualquer dimensão. Veja um exemplo da 
aplicação desse resultado.
Considere a matriz A =
1 0 3
0 1 0
0 0 2
 , do tipo triangular inferior. Portanto, seu determinante 
é igual ao produto dos elementos em sua diagonal. Segue que det(A) = 1 × (1) × (2) = 2. 
Portanto, pode-se aplicar o resultado anterior a essa matriz. Agora, basta montar a 
transposta da matriz de cofatores para encontrar a inversa:
C11 C21 C31
C12 C22 C32
C13 C23 C33
=
2 0 –3
0 2 0
0 0 1
Determinantes e autovalores8
A matriz inversa de A tem a seguinte forma:
A–1 = 1
2
2 0 –3
0 2 0
0 0 1
A–1 =
1 0 –3/2
0 1 0
0 0 1/2
Uma simples multiplicação das matrizes é suficiente para verificar que A × A–1 = I3×3.
Um importante resultado sobre matrizes inversas é enunciado a seguir.
Teorema: dada uma matriz An×n, as afirmações listadas a seguir são equivalentes.
1. An×n é invertível.
2. det(A) ≠ 0.
3. As n linhas de An×n são linearmente independentes.
Veja um exemplo da aplicação desse resultado.
Considere a matriz A =
1 1 0
0 1 0
1 0 2
. Como decidir se ela é invertível ou não? Podemos 
utilizar qualquer um dos itens da equivalência apresentada. Escolhemos, então, a mais 
comum: o valor do determinante. 
Usaremos a expansão em cofatores a partir da segunda linha. Por que? Porque essa 
é a linha com a maior quantidade de elementos nulos. Obtemos:
det(A) = a21C21 + a22C22 + a23C23
det(A) = 0C21 + 1C22 + 0C23
det(A) = C22
9Determinantes e autovalores
O cálculo do cofator C22 pode ser feito da seguinte maneira:
C22 = (–1)
2+2 ×
1 0
1 2
1 0
1 2
C22 = 1 ×
C22 = 1
Logo:
det(A) = 1 ≠ 0
Portanto, a matriz A é invertível.
Outro fato importante sobre matrizes inversas é que elas são fortemente 
relacionadas aos sistemas lineares. Considere um sistema de equações lineares 
homogêneo, cuja forma matricial seja:
Ax = 0
Fato: o sistema linear homogêneo anterior tem apenas a solução trivial se, e 
somente se, a matriz A é invertível.
Esse fato nos forneceuma maneira simples e prática de verificar se a solução 
trivial (vetor nulo) é a única de um sistema linear homogêneo. 
É comum o erro de, em vez de se utilizar a matriz transposta da matriz de cofatores, 
se tomar a própria matriz de cofatores.
Concluímos esta seção com uma importante relação entre o determinante 
de uma matriz e o determinante de sua inversa. 
Determinantes e autovalores10
Teorema: seja An×n uma matriz invertível, então:
Veja, a seguir, um exemplo de aplicação desse resultado.
Considere a matriz A =
23 0 0
 2 1 0
 1 1 1
. Qual é o determinante de A–1? 
Sabemos que A é uma matriz triangular inferior. Logo, segundo as propriedades 
do determinante, ele é igual ao produto dos elementos em sua diagonal. Ou seja:
det(A) = 23
Portanto, aplicando o teorema anterior, obtém-se:
det(A–1) =
1
23
Observe que a exigência de o determinante ser diferente de zero, A invertível 
é necessária, uma vez que não se pode ter divisão por zero.
Autovalores e diagonalização de matrizes
Nesta seção, você verá como calcular os autovalores de uma matriz e como 
utilizá-los no processo de diagonalização de matrizes, essencial na resolução 
de sistemas lineares. 
Um número λ ≠ 0 é um autovalor de uma matriz An×n, se existe algum 
vetor v, tal que:
Av = λv
11Determinantes e autovalores
Em palavras, λ é um autovalor de An×n, se existir um vetor v , tal que, ao 
aplicarmos An×n sobre v obtemos λv. Nesse caso, a operação de aplicar uma 
transformação linear foi capsulada no produto por um número. Diremos, 
também, que v é um autovetor de An×n associado ao autovalor λ.
Isso é equivalente a dizer que λ é um autovalor de An×n, se existir solução 
para o sistema linear homogêneo (A – λI)v = 0.
Outra maneira de procurar pelos autovalores de uma matriz é por meio do 
polinômio característico. Dada uma matriz An×n, seu polinômio característico 
é definido por:
p(λ) = det(A – Iλ)
Dada a matriz A =
2 0 0
3 1 0
1 –2 2
 , que é do tipo triangular superior, pode-se encontrar 
o polinômio característico da seguinte maneira:
p(λ) = det(A – Iλ)
p(λ) = (2 – λ)2(1 – λ)
p(λ) =
2 – λ 0 0
 3 1 – λ 0
 1 –2 2 – λ
Segue que os autovalores de A são λ1 = 1 e λ2 = 2, este último com multiplicidade 
2, isto é, λ2 = 2 é uma raiz dupla do polinômio característico.
Observe, ainda, que, conhecidos os autovalores, se pode resolver os sistemas lineares 
associados e encontrar os autovetores.
Agora, você verá um resultado apresentado por Nicholson (2006), que nos 
permite relacionar autovalores e autovetores com o processo de diagonalização 
de matrizes. 
Determinantes e autovalores12
Teorema: seja An×n uma matriz, então:
1. a é diagonalizável se, e somente se, ela possui autovetores x1, x2, ..., xn, 
tais que a matriz P = [x1, x2, ..., xn] é invertível;
2. quando esse for o caso, temos PAP–1 = diag(λ1, λ2, ..., λn), onde λi é o 
autovalor associado ao autovetor xi.
Como aplicação desse resultado, veja o seguinte exemplo.
O problema consiste em procurar, caso exista, a forma diagonalizada da matriz:
A =
 2 0 0
–3 0 0
 0 1 0
O polinômio característico dessa matriz tem a seguinte forma:
p(λ) = (2 – λ)(λ – 1)(1 + λ)
Existem, portanto, três autovalores diferentes, como requer o teorema. A saber 
λ1 = 2, λ2 = 1 e λ3 = –1 associados, respectivamente, aos seguintes autovetores:
v1 =
–1
2
1
v2 =
0
1
1
v3 =
0
1
–1
Segue que a matriz P tem a seguinte forma:
P =
–1 0 0
 2 1 1
 1 1 –1
Para verificar o resultado, basta realizar:
–1 0 0
 2 1 1
 1 1 –1
 2 0 0
–3 0 0
 0 1 0
–1 0 0
 2 1 1
 1 1 –1
=
2 0 0
0 1 0
0 0 –1
O fato de termos P = P–1 foi apenas uma coincidência, não é uma regra.
13Determinantes e autovalores
Você encontrará exercícios e vídeos de boa qualidade com excelente conteúdo na 
Khan Academy, disponível no link a seguir.
https://qrgo.page.link/htszk
Veja um último exemplo sobre a diagonalização de matrizes.
Dada a matriz:
H =
 3 0 0
 0 2 0
–1 0 7
Deve-se encontrar sua forma diagonal D. Para tal, começa-se encontrando o poli-
nômio característico da matriz. Observe, ainda, que essa matriz é do tipo triangular 
superior. Portanto:
p(λ) = (3 – λ)(2 – λ)(7 – λ)
Pode-se concluir que D tem a seguinte representação:
D =
3 0 0
0 2 0
0 0 7
Um último resultado, extremamente interessante e relacionado ao polinômio 
característico de uma matriz, é o Teorema de Cayley-Hamilton. Esse resultado, 
atribuído aos matemáticos Arthur Cayley e William Hamilton, diz que uma 
matriz An×n é um zero de seu próprio polinômio característico. De maneira 
mais precisa, quer dizer o seguinte.
Determinantes e autovalores14
Teorema (Cayley-Hamilton): considere a matriz An×n. Se p(λ) é o polinômio 
característico da matriz An×n, então:
p(A) = 0
Esse teorema fornece um excelente teste para verificar se o cálculo do 
polinômio característico foi efetuado de maneira correta. 
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006. 
612 p.
NICHOLSON, W. K. Álgebra linear. 2. ed. São Paulo: McGraw-Hill, 2006. 394 p.
Leitura recomendada
LIPSCHUTZ, S.; LIPSON, M. Álgebra linear: mais de 600 exercícios resolvidos. 4. ed. Porto 
Alegre: Bookman, 2011. 434 p. (Coleção Schaum).
15Determinantes e autovalores

Mais conteúdos dessa disciplina