Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

Álgebra Linear II
Licio H. Bezerra
Fermín S. V. Bazán
Florianópolis, 2008
Universidade Federal de Santa Catarina
Consórcio ReDiSul
Campus Universitário – Trindade 
Caixa Postal 476 
CEP 88040-900 – Florianópolis – SC
Reitor: Alvaro Toubes Prata
Vice-Reitor: Carlos Alberto Justo da Silva
 Secretário de Educação a Distância: Cícero Barbosa
Pró-Reitora de Ensino de Graduação: Yara Maria Rauh Muller
 Departamento de Educação à Distância: Araci Hack Catapan
Pró-Reitora de Pesquisa e Extensão: Débora Peres Menezes
Pró-Reitor de Pós-Graduação: José Roberto O’Shea
Pró-Reitor de Desenvolvimento Humano e Social: Luiz Henrique Vieira Silva
Pró-Reitor de Infra-Estrutura: João Batista Furtuoso
Pró-Reitor de Assuntos Estudantis: Cláudio José Amante
Centro de Ciências da Educação: Carlos Alberto Marques
Centro de Ciências Físicas e Matemáticas: Méricles Thadeu Moretti
Centro de Filosofia e Ciências Humanas: Maria Juracy Filgueiras Toneli
Cursos de Licenciaturas na Modalidade à Distância
Coordenação Acadêmica Matemática: Neri Terezinha Both Carvalho
Coordenação de Ambientes Virtuais: Nereu Estanislau Burin
Coordenação de Infra-Estrutura e Pólos: Vladimir Arthur Fey
Comissão Editorial
Antônio Carlos Gardel Leitão 
Albertina Zatelli
Elisa Zunko Toma 
Igor Mozolevski 
Luiz Augusto Saeger 
Roberto Corrêa da Silva 
Ruy Coimbra Charão
Coordenação Pedagógica das Licenciaturas à Distância UFSC/CED/CFM
Coordenação: Roseli Zen Cerny
Núcleo de Formação
Responsável: Nilza Godoy Gomes
Núcleo de Criação e Desenvolvimento de Material
Responsável: Isabella Benfica Barbosa
Design Gráfico e Editorial: Carlos A. Ramirez Righi, Diogo Henrique Ropelato, 
Mariana da Silva.
Adaptação Design Gráfico: Diogo Henrique Ropelato, 
Marta Cristina Goulart Braga, Natal Anacleto Chicca Junior.
Produção Gráfica e Hipermídia: Thiago Rocha Oliveira
Design Instrucional: Hellen da Silva Zago
Revisão Ortográfica: Tony Roberson de Mello Rodrigues
Preparação de Gráficos: Laura Martins Rodrigues
Editoração Eletrônica: Laura Martins Rodrigues
Núcleo de Pesquisa e Avaliação
Responsável: Claudia Regina Flores
Copyright © 2008, Universidade Federal de Santa Catarina / Consórcio RediSul
Nenhuma parte deste material poderá ser reproduzida, transmitida e gravada, por qualquer 
meio eletrônico, por fotocópia e outros, sem a prévia autorização, por escrito, da Coordenação 
Acadêmica do Curso de Licenciatura em Matemática na Modalidade à Distância.
 
Ficha Catalográfica
 
B574a 
 Bezerra, Licio Hernanes 
 Álgebra Linear II / Licio Hernanes Bezerra, Fermín S. Viloche 
Bazán . - Florianópolis : UFSC/EAD/CED/CFM, 2005. 
 
 91p. 
 ISBN 978-85-99379-54-7 
 
 1.Álgebra linear I. Bazán, Fermín S. Viloche. II. Título. 
 
 CDU 681.31:51
Elaborada pela Bibliotecária Eleonora M. F. Vieira – CRB – 14/786
Sumário
1 Produto Interno ..................................................................... 9
1.1 Definição e exemplos ................................................................. 11
1.2 Norma definida a partir de um produto interno ....................14
1.3 Ângulo entre vetores ................................................................. 15
1.4 Ortogonalidade ........................................................................... 16
1.4.1 Método de Gram-Schmidt ................................................ 17
1.5 Projeção ortogonal de um vetor sobre 
um subespaço vetorial .............................................................. 20
1.6 Matrizes ortogonais ................................................................... 22
1.7 Reflexões de Householder ......................................................... 24
1.8 Matriz de um produto interno em relação a uma base......... 28
2 Autovalores e Autovetores de um Operador Linear ..... 33
2.1 Autovalores e autovetores ......................................................... 35
2.2 Polinômio característico e Polinômio minimal ...................... 45
2.3 Operadores diagonalizáveis ..................................................... 53
2.4 Matrizes hermitianas ................................................................. 58
2.5 Transformações unitárias e forma canônica de Schur ...........61
3 Formas Multilineares ......................................................... 71
3.1 Formas bilineares ....................................................................... 73
3.1.1 Forma bilinear simétrica: forma 
quadrática associada ........................................................ 76
3.2 Diagonalização de formas quadráticas ................................... 77
3.3 A função determinante ............................................................. 79
Apresentação
Caro aluno,
A Álgebra Linear desenvolve-se dentro de espaços vetoriais, os quais 
são estruturas muito simples, que contêm apenas soma e produto por 
escalar, e é impressionante como a teoria desenvolve-se com tão pou-
co. É instigante descobrir como problemas associados ao cotidiano das 
pessoas são descritos elegantemente pela Álgebra Linear. Problemas 
como distribuição de energia elétrica, ou de logística para instalação 
de telefones em grandes cidades, envolvem resolução de sistemas line-
ares cujas matrizes são enormes; problemas de compressão de dados, 
derivados tanto de áudio como de imagem, têm o cálculo de autova-
lores como ferramenta básica para sua resolução. A substituição do 
analógico pelo digital embute a real substituição da realidade físico-
química pela simulação matemática.
Pode-se perguntar por que um licenciado aprende Álgebra Linear se 
ele pretende principalmente atuar em escolas de ensino fundamental 
e médio. Respondemos a essa questão assim: com a Álgebra Linear, 
você, licenciando, deixa as portas abertas para o futuro do conheci-
mento tecnológico, ao mesmo tempo em que solidifica seu conheci-
mento do presente para atender às demandas dos vários alunos que 
lhe encontram, que estão a cada dia mais imersos nesse mundo veloz. 
Cremos ser possível viver em um mundo natural, com florestas, ani-
mais e pessoas tentando viver em harmonia, lendo livros (estes nun-
ca serão substituídos por imagens digitais, assim como cinema não 
é incompatível com teatro), com tempo para o ócio e o prazer, com a 
Álgebra Linear resolvendo problemas de poluição ambiental, logística 
de policulturas agrícolas etc.
A disciplina Álgebra Linear II é a continuação natural da disciplina 
Álgebra Linear I, que lhe introduziu na teoria de matrizes e no de-
senvolvimento da estrutura algébrica dos espaços vetoriais sobre um 
corpo. Desta vez, munimos os espaços vetoriais de um produto in-
terno para que se configure neles uma geometria e possamos, dessa 
maneira, falar de ângulo entre vetores, de tamanho de vetor etc. Na 
seqüência, apresentamos mais um problema que a Álgebra Linear ti-
picamente estuda: o problema dos autovalores de operadores lineares. 
Finalmente, definimos a noção de formas multilineares para formali-
zar rigorosamente o estudo de determinantes.
Dividimos, assim, este livro em três Capítulos: produto interno, auto-
valores e formas multilineares. Esperamos que você utilize este livro 
como um mapa para descobrir um pouco da Álgebra Linear.
Licio H. Bezerra
Fermín S. V. Bazán
1 Produto Interno
11
1 Produto Interno
Neste capítulo, iremos munir um espaço vetorial, que é 
uma estrutura puramente algébrica, de uma geometria, 
que nos permite falar de ângulo entre vetores, projetar um 
vetor ortogonalmente sobre outro, comparar vetores por 
tamanho etc. 
1.1 Definição e exemplos
Quando estudamos vetores no espaço, em Geometria Analítica, 
somos apresentados ao produto interno de dois vetores u e v ,denotado por ,u v , o qual é definido por , || || || || cosu v u v = , 
em que  é o menor ângulo entre os vetores, 0  ≤ ≤ . A partir 
dessa definição, demonstram-se algumas propriedades do pro-
duto interno: simetria ( , ,u v v u= ), positividade ( , 0u u ≥ e 
, 0 0u u u= ⇔ =

) e bilinearidade ( ', , ',ku u v k u v u v+ = + e 
, ' , , 'u kv v k u v u v+ = + ). Uma conseqüência dessas proprieda-
des é que, dada , ,{ }i j k

 
 uma base ortonormal do espaço, se os 
vetores u e v escrevem-se, nessa base, como 1 1 1u x i y j z k
→ → →
= + + e 
2 2 2v x i y j z k
→ → →
= + + , temos que
1 2 1 2 1 2,u v x x y y z z= + + .
Por conseguinte, se w x i y j z k
→ → →
= + + , 2 2 2|| ||w x y z= + + .
O conceito de produto interno é generalizado para um espaço ve-
torial qualquer de um modo usual em Matemática: a partir da 
abstração de algumas propriedades de um modelo (no caso, o 
produto interno de vetores do espaço euclidiano).
Definição: Seja V um espaço vetorial real. Se , :V V× →ℜ é 
uma função tal que 
( ) , 0v V v v∀ ∈ ≥1) e , 0 0v v v= ⇔ = ;
( , ) , ,v w V v w w v∀ ∈ =2) ;
12
( , , ' )( ) , ' , , 'v w w V k v kw w k v w v w∀ ∈ ∀ ∈ℜ + = +3) 
então , é dito um produto interno em V .
Observe que uma conseqüência direta do item 3 dessa definição 
é que o produto interno de um vetor v qualquer com o vetor nulo 
resulta em zero, pois ,0 ,0. 0. , 0v v v v v= = =

. 
Exemplo 1: Seja 1nV ×= ℜ . Sejam 1, nu v ×∈ℜ , 
1
n
u
u
u
 
 =    
 , 
1
n
v
v
v
 
 =    
 . Va-
mos definir 1 1, n nu v u v u v= + + . 
É fácil ver que essa função é um produto interno em V , chamado 
de produto interno usual. Note que 1 1 n vu v u v+ + é a única entra-
da da matriz Tv u , que é uma matriz 1 1× . Usando o fato de que os 
espaços vetoriais 1 1×ℜ e ℜ são isomorfos, assim como 1n×ℜ e nℜ , 
podemos escrever que Tv u é o produto interno usual dos vetores 
u e v , em nℜ .
Exemplo 2: Sejam 1 2( , )u u u= e 1 2( , )v v v= dois vetores do 
2ℜ . Seja 
1 1 2 1 1 2 2 2, 4u v u v u v u v u v= + + + . Afirmamos que essa função é um 
produto interno em 2ℜ . Para provar isso, temos que verificar se 
essa função satisfaz os três itens da definição:
2 2 2 2 2
1 1 2 1 1 2 2 2 1 1 2 2 1 1 2 2 2, 4 2 4 2 3u u u u u u u u u u u u u u u u u u u= + + + = + + = + + + =i) 
2 2 2 2 2
1 1 2 1 1 2 2 2 1 1 2 2 1 1 2 2 2, 4 2 4 2 3u u u u u u u u u u u u u u u u u u u= + + + = + + = + + + =
2 2
1 2 2( ) 3 0u u u= + + ≥ . Além disso, temos que
2 2
1 2 2 1 2 2 1 2, 0 ( ) 3 0 0, 0 0, 0 0u u u u u u u u u u u= ⇔ + + = ⇔ + = = ⇔ = = ⇔ =
2 2
1 2 2 1 2 2 1 2, 0 ( ) 3 0 0, 0 0, 0 0u u u u u u u u u u u= ⇔ + + = ⇔ + = = ⇔ = = ⇔ =
1 1 2 1 1 2 2 2 1 1 2 1 1 2 2 2, 4 4 ,u v u v u v u v u v v u v u v u v u v u= + + + = + + + =ii) 
1 1 1 2 1 1 1 2 2 2 2 2, ' ( ' ) ( ' ) ( ' ) 4 ( ' )u kv v u kv v u kv v u kv v u kv v+ = + + + + + + + =iii) 
1 1 1 1 2 1 2 1 1 2 1 2 2 2 2 2' ' ' 4 4 'ku v u v ku v u v ku v u v k u v u v= + + + + + + + =
1 1 2 1 1 2 2 2 1 1 2 1 1 2 2 2( 4 ) ' ' ' 4 'k u v u v u v u v u v u v u v u v= + + + + + + + =
, , 'k u v u v= +
Logo, a função definida anteriormente é um produto interno em 
2ℜ . 
13
Exemplo 3: Sejam 1 2( , )u u u= e 1 2( , )v v v= dois vetores do 
2ℜ . Seja 
1 2 2 1,u v u v u v= + . Afirmamos que essa função não é um produto 
interno em 2ℜ , pois, apesar de satisfazer os itens ii e iii da defi-
nição, a função não é positiva. Como contra-exemplo, tomemos o 
vetor (1, 1)u = − : , 1.( 1) ( 1).1 2 0u u = − + − = − < .
Exemplo 4: Seja [ , ]V C a b= o espaço vetorial das funções reais 
contínuas em [ , ]a b , a b< . Sejam f e g duas funções de V . Va-
mos definir a seguinte função de V V× em ℜ :
, ( ) ( )
b
a
f g f x g x dx= ∫ .
Note que, como f e g são funções contínuas em [ , ]a b , o seu 
produto também é contínuo em [ , ]a b e, logo, integrável nesse in-
tervalo. Verificamos, facilmente, que as propriedades (ii) e (iii) são 
satisfeitas por essa função. Para mostrar que (i) é verdadeira, pre-
cisamos de um pouco de Análise. A primeira parte de (i) é satis-
feita porque, para toda função contínua f , 2( ( )) ( )
b
a
f x dx m b a≥ −∫ , 
em que m é o valor mínimo de 2f no intervalo [ , ]a b . Para mos-
trar que , 0 0f f f= ⇒ = (a recíproca é óbvia), vamos supor 
que 0f ≠ . Assim, como f é contínua, existe um intervalo [ , ]c d , 
c d< , contido em [ , ]a b , tal que ( ) 0f x ≠ para todo [ , ]x c d∈ . 
Logo, 2 ( ) 0f x > para todo [ , ]x c d∈ e, como 2f também é contí-
nua, pelo Teorema do Valor Intermediário, existem , 0m M > tais 
que 2 ( )m f x M≤ ≤ para todo [ , ]x c d∈ . Assim,
2 2 2 2 2( ( )) ( ( )) ( ( )) ( ( )) ( ( )) ( ) 0
b c d b d
a a c d c
f x dx f x dx f x dx f x dx f x dx m d c= + + ≥ ≥ − >∫ ∫ ∫ ∫ ∫
2 2 2 2 2( ( )) ( ( )) ( ( )) ( ( )) ( ( )) ( ) 0
b c d b d
a a c d c
f x dx f x dx f x dx f x dx f x dx m d c= + + ≥ ≥ − >∫ ∫ ∫ ∫ ∫ .
Ou seja, , 0f f ≠ . Esse produto interno é chamado de produto 
interno usual em [ , ]C a b .
Exercício 1: Verifique se as seguintes funções definidas em 2ℜ 
são produto interno ou não.
1 1 2 1 1 2 2 2,u v u v u v u v u v= + + +a) ;
1 1 2 1 1 2 2 2, 4u v u v u v u v u v= − − +b) ;
1 1 2 1 2 2, 4u v u v u v u v= + +c) ;
14
1 2 2 1,u v u v u v= −d) ;
1 1 2 1 1 2 2 2
1, mu v u v u v u v u v
m
+= + + +e) , em que m é um inteiro 
positivo;
1 1 2 1 1 2 2 2
1, mu v u v u v u v u v
m
+= − − +f) , em que m é um inteiro 
positivo;
1 1 2 2, 2 4u v u v u v= +g) ;
1 1, 2u v u v=h) .
1.2 Norma definida a partir de um 
produto interno
No produto interno definido no espaço euclidiano, vimos que a 
norma de um vetor u satisfaz à equação ,u u u= . Na genera-
lização do conceito de produto interno, definiremos norma, dado 
um produto interno, utilizando essa equação.
Definição: Seja V um espaço vetorial real. Seja , :V V× →ℜ
um produto interno. A norma induzida por esse produto interno 
é definida pela equação seguinte:
,u u u=
Exemplo 5: Seja 2V =ℜ . Considere o produto inter-
no entre dois vetores 1 2( , )u u u= e 1 2( , )v v v= definido por 
1 1 2 1 1 2 2 2, 4u v u v u v u v u v= + + + . A norma induzida por esse produ-
to interno é 2 21 1 2 22 4u u u u u= + + .
Exemplo 6: Seja [ , ]V C a b= o espaço das funções reais contínu-
as em [ , ]a b , a b< . Considere o produto interno usual de duas 
funções de V , f e g (que é dado por , ( ) ( )
b
a
f g f x g x dx= ∫ ). A 
norma induzida por esse produto interno é 
2( ( ))
b
a
f f x dx= ∫
15
1.3 Ângulo entre vetores
Para definir ângulo entre vetores de um espaço vetorial real V , va-
mos demonstrar primeiro a Desigualdade de Cauchy-Schwarz.
Proposição (Desigualdade de Cauchy-Schwarz): Seja V um es-
paço vetorial real munido de um produto interno , :V V× →ℜ . 
Assim, para todos os vetores u e v de V , temos
,u v u v≤
Prova: A desigualdade é verdadeira se um dos vetores é o vetor 
nulo. Vamos supor, então, que 0u ≠ e 0v ≠ . Seja 2
,u v
w v u
u
= − , 
logo:
2 2 2 2 2
, , , , ,
, , , , , , ,
u v u v u v u v u v
w w w v w u v v u v v u u u
u u u u u
= − = − − + =
2 2 2 2 2
, , , , ,
, , , , , , ,
u v u v u v u v u v
w w w v w u v v u v v u u u
u u u u u
= − = − − + =
2 2 2
2 2
2 2 2
, , ,
2
u v u v u v
v v
u u u
= − + = − . Como 2, 0w w w= ≥ , 
temos que:
2
2
2
,
0
u v
v
u
− ≥
Ou seja, ,u v u v≤ .
Vamos definir, agora, ângulo entre dois vetores.
Definição: Seja V um espaço vetorial real munido de um pro-
duto interno , :V V× →ℜ . Assim, dados vetores u e v de V , 
ambos não-nulos, o ângulo  entre esses vetores é o que satisfaz 
as seguintes condições:
,
cos
u v
u v
 = , 0  ≤ ≤ .
Se um dos vetores fornulo, dizemos que o ângulo entre eles é 
zero.
16
Note que, por Cauchy-Schwarz, essa definição faz sentido, uma 
vez que
,
1 1
u v
u v
− ≤ ≤ .
1.4 Ortogonalidade 
A definição de ângulo entre vetores permite-nos falar em con-
juntos de vetores ortogonais, em que o ângulo entre cada dois 
vetores é igual a 2 .
Definição: Seja V um espaço vetorial real munido de um produ-
to interno , :V V× →ℜ . Sejam 1,..., nv v vetores de V . Dizemos 
que 1,..., nv v são ortogonais se, para todos i e j tais que i j≠ , 
, 0i jv v = .
É importante notar que a ortogonalidade depende do produto in-
terno: dois vetores não-nulos podem ser ortogonais em relação a 
um produto interno, mas o ângulo entre eles pode ser diferente 
de 2 em relação a outro produto interno. Uma observação in-
teressante é que o vetor nulo é o único vetor ortogonal a todos os 
vetores de um espaço vetorial com produto interno. Um resultado 
interessante é o seguinte:
Proposição: Sejam 1,..., nv v vetores não-nulos de V , um espaço 
vetorial real munido de um produto interno , :V V× →ℜ . Se 
1,..., nv v são ortogonais (em relação a esse produto interno) então 
são linearmente independentes.
Prova: Suponha que existam 1,..., na a ∈ℜ tais 
que 1 1 0n na v a v+ + = . Logo, para todo índice i , 
1 1 , 0, 0n n i ia v a v v v+ + = = . No entanto,
2
1 1 1 1, , ... , ,n n i i n n i i i i i ia v a v v a v v a v v a v v a v+ + = + + = = 
pois os vetores são ortogonais dois a dois. Assim, como os veto-
res são não-nulos, para todo índice i , 0ia = , isto é, escreve-se o 
vetor zero de uma única maneira como combinação linear dos ve-
tores 1,..., nv v , que é a combinação trivial. Dessa maneira, 1,..., nv v 
são linearmente independentes.
,
17
Corolário (Teorema de Pitágoras Generalizado): Sejam u e v 
dois vetores ortogonais em um espaço vetorial real V munido de 
um produto interno. Assim: 2 2 2u v u v+ = + .
Prova: É deixada para você, leitor, como exercício. 
Em geral, falamos em conjunto ortogonal de vetores para dizer 
que os vetores do conjunto são ortogonais. Por exemplo: dizemos 
que uma base de um espaço vetorial é ortogonal, significando que 
os vetores da base são ortogonais. Uma pergunta que emerge na-
turalmente é se sempre existem bases ortogonais para qualquer 
espaço vetorial real. Vamos responder a essa pergunta feita no 
caso do espaço ser finitamente gerado de uma forma concreta: 
vamos construir uma base ortogonal a partir de uma base qual-
quer. Um método prático para isso é o método de Gram-Schmidt, 
descrito a seguir.
1.4.1 Método de Gram-Schmidt
Sejam 1,..., nv v de V , um espaço vetorial real munido de um 
produto interno , :V V× →ℜ . Vamos definir, a partir des-
ses vetores, um conjunto ortogonal de vetores 1,..., nw w tais que 
1 1[ ,..., ] [ ,..., ]n nv v w w= .
1 1w v=i) 
2 1
2 2 12
1
,v w
w v w
w
= −ii) 
3 1 3 2
3 3 1 22 2
1 2
, ,v w v w
w v w w
w w
= − −iii) 
...
n) 1 2 11 2 12 2 2
1 2 1
, , ,n n n n
n n n
n
v w v w v w
w v w w w
w w w
−
−
−
= − − − −
Note que, para todo i , 0iw ≠ , pois os vetores 1,..., nv v são linear-
mente independentes. A prova de que esses vetores são ortogo-
nais é feita por indução:
18
I) 2 1 2 12 1 2 1 1 2 1 1 12 2
1 1
, ,
, , , , 0
v w v w
w w v w w v w w w
w w
= − = − =
II) Seja 2k > . Suponha que para todos os índices i e j , i j≠ , 
tais que 1 ,i j k≤ < , temos , 0i jw w = . Assim, para todo i , 
percebe-se que:
1 2 1
1 2 12 2 2
1 2 1
, , ,
, ,k k k kk i k k i
k
v w v w v w
w w v w w w w
w w w
−
−
−
= − − − − =
1 2 1
1 2 12 2 2
1 2 1
, , ,
, , , ,k k k kk i i i k i
k
v w v w v w
v w w w w w w w
w w w
−
−
−
= − − − − =
2
,
, , 0k ik i i i
i
v w
v w w w
w
= − =
Observe que, por construção, 1 1[ ,..., ] [ ,..., ]i iv v w w= para todo i 
(mostre isso, por indução). Assim, no enésimo passo, chegamos a 
uma base ortogonal.
Corolário: Todo espaço vetorial de dimensão finita com produto 
interno admite uma base ortogonal. 
Exemplo 7: Considere 3V =ℜ , munido do produto interno usual, 
1 (1,1,0)v = , 2 (1,0,1)v = , 3 (0,1,1)v = . Aplicando o método de Gram-
Schmidt a esses vetores, temos:
1 (1,1,0);w =
1 1
2 22 2 2 2
1.1 0.1 1.0(1,0,1) (1,1,0) ( , ,1)
1 1 0
w + += − = −
+ +
;
1 1
2 2 1 1 2 2 2
2 2 3 3 33 2 2 2 2 2 21 1
2 2
0.1 1.1 1.0 0. 1.( ) 1.1(0,1,1) (1,1,0) ( , ,1) ( , , )
1 1 0 ( ) ( ) 1
w + + + − += − − − = −
+ + + − +
1 1
2 2 1 1 2 2 2
2 2 3 3 33 2 2 2 2 2 21 1
2 2
0.1 1.1 1.0 0. 1.( ) 1.1(0,1,1) (1,1,0) ( , ,1) ( , , )
1 1 0 ( ) ( ) 1
w + + + − += − − − = −
+ + + − +
.
Você pode verificar, calculando os produtos internos , que o con-
junto 1 2 3{ , , }w w w é ortogonal.
Exercício 2: Ache, pelo método de Gram-Schmidt, uma base or-
togonal para V , munido do produto interno explicitado, a partir 
das bases dadas a seguir: 
19
2V =ℜa) , munido do produto interno usual, 1 (1,1)v = , 
2 (1, 2)v = ;
3V =ℜb) , munido do produto interno usual, 1 (1,1,1)v = , 
2 (1, 2,1)v = , 3 (1, 2, 2)v = ;
4V =ℜc) , munido do produto interno usual, 1 (1,1,1,1)v = , 
2 (1,0,0,1)v = , 3 (1, 2,0, 2)v = , 4 (3, 2,0, 2)v = ;
[ 1,1]V C= −d) , munido do produto interno usual, 1( ) 1f x = , 
2 ( )f x x= , 
2
3 ( )f x x= .
A seguir, apresentamos algumas definições.
Definição: Seja V um espaço vetorial real munido de um pro-
duto interno , :V V× →ℜ . Seja W um subespaço vetorial de V . 
Seja v um vetor de V tal que v W∉ . Dizemos que v é ortogonal 
a W se v é ortogonal a todo vetor de W .
Exercício 3: Sejam 1,..., nv v vetores de V , um espaço vetorial real 
munido de um produto interno , :V V× →ℜ . Seja 1[ ,..., ]nW v v= . 
Seja v um vetor de V tal que v W∉ . Mostre que v é ortogonal a
W se, e somente se, para todo i , v é ortogonal a iv .
Definição: Seja V um espaço vetorial real munido de um produ-
to interno , :V V× →ℜ . Sejam 1W e 2W subespaços vetoriais de 
V . Dizemos que 1W é ortogonal a 2W se, para todo vetor 1w de 
1W e todo vetor 2w de 2W , 1 2, 0w w = . Se, além disso, 1 2W W V+ = , 
então dizemos que 2W é o complemento ortogonal de 1W e 
denotamo-lo por 1W
⊥ . Observe que, como 1W é ortogonal a 2W , 
1 2 {0}W W∩ = e, logo, 1 2W W V⊕ = .
Definição: Dizemos que um conjunto de vetores é ortonormal 
se os vetores do conjunto são ortogonais (dois a dois) e unitários 
(isto é, de norma igual a 1).
Exercício 4: Transforme as bases encontradas nos exercícios ante-
riores em bases ortonormais.
20
1.5 Projeção ortogonal de um vetor 
sobre um subespaço vetorial
Definição: Seja V um espaço vetorial real não-nulo munido de 
um produto interno. Seja W um subespaço vetorial de V , W V≠ . 
Seja v V∈ . Um vetorw W∈ é dito uma projeção ortogonal de v 
sobre W se ( )v w− for ortogonal a todo vetor de W .
Proposição: Se existe uma projeção ortogonal de v sobre W , 
então ela é única.
Prova: Sejam w e w dois vetores de W tais que ( )v w− e 
( )v w− são ortogonais a todo vetor de W . Em particular, como 
( )w w W− ∈ , 0 , ,v w w w v w w w= − − = − − . Desenvolven-
do os cálculos, concluímos que , ,w w w w w w− = − e, logo, 
, 0w w w w− − = . Ou seja, w w= .
Vamos mostrar que, se W é um subespaço de dimensão finita de 
um espaço vetorial real V com produto interno, então a projeção 
ortogonal de qualquer vetor de V sobre W existe e, logo, é única.
Seja 1{ ,..., }nv v uma base de um subespaço W de um espaço veto-
rial real V , com produto interno , . Seja v V∈ . A projeção orto-
gonal de v sobre 1[ ,..., ]nv v é um vetor 1[ ,..., ]nv v v∈ tal que v v−
é ortogonal a 1[ ,..., ]nv v . Vamos mostrar que esse vetor v existe. 
Para isso, seja 1{ ,..., }nw w uma base ortonormal de 1[ ,..., ]nv v , ob-
tidaa partir do método de Gram-Schmidt. Procuramos por um 
vetor 1 1 n nv a w a w= + + tal que v v− seja ortogonal a 1[ ,..., ]nw w , 
que é igual a 1[ ,..., ]nv v , isto é, tal que v v− seja ortogonal a todo 
vetor da base 1{ ,..., }nw w . Assim, para todo i , temos:
1 10 , , , , ,i n n i i i i i i iv v w v a w a w w v w a w w v w a= − = − + = − = −
ou seja, ,i ia v w= . Assim, a projeção ortogonal de v sobre 
1[ ,..., ]nv v existe e é o vetor 
1 1, , n nv v w w v w w= + + .
,
o
v
v
Figura 1.1 - Projeção ortogonal de um vetor sobre um subespaço.
21
Operar com uma base ortonormal é muito conveniente. Para 
justificar esse adjetivo, vamos ver como ficaria o cálculo com a 
base 1{ ,..., }nv v , que é qualquer. Uma vez que sabemos que o ve-
tor v existe e é único, como 1[ ,..., ]nv v v∈ , existe um único vetor 
1( , , )
n
nb b ∈ℜ tal que 1 1 n nv b v b v= + . Como v v− é ortogonal a 
1[ ,..., ]nv v , , 0iv v v− = , 1:i n= . Assim, obtemos:
1 1 1 1 1
1 1
, , , 0
, , , 0
n n
n n n n n
v v b v v b v v
v v b v v b v v
 − + + =


 − + + =

  

 
, ou seja, na forma matricial, 
1 1 1 1 1
1
, , ,
, , ,
n
n n n n n
v v v v b v v
v v v v b v v
    
    
     =    
           
 
    
    
 
.
Como esse sistema tem única solução (pois a projeção ortogo-
nal existe e é única), essa matriz é inversível para qualquer base
1{ ,..., }nv v = (lembre-se que um sistema de n equações lineares 
a n variáveis é possível e determinado se, e somente se, a matriz 
de coeficientes é inversível). Essa matriz é dita matriz de Gram 
(note que a matriz de Gram definida em espaços vetoriais reais é 
uma matriz real e simétrica). Para achar v utilizando-se de uma 
base não-ortonormal, temos que resolver o sistema apresentado, 
o que é muito trabalhoso se a matriz não for diagonal (note que a 
matriz do sistema em questão é diagonal se a base é ortogonal). 
En passant, demonstramos a seguinte proposição:
Proposição: Uma matriz de Gram é uma matriz inversível.
Outro modo de se provar essa proposição é verificar que o siste-
ma homogêneo associado à matriz G apresentada anteriormente 
só admite a solução zero. Realmente, 0 0TGx x Gx= ⇒ = . Note que 
2Tx Gx w= , em que 1 1 n nw b v b v= + + e ( )x w = . Logo, 0w = , ou 
seja, 1 1 0n nb v b v+ + = . No entanto, 1{ ,..., }nv v é uma base. Assim, 
a única solução possível é 1 0nb b= = = , isto é, a única solução 
possível da equação matricial 0Gx = é a solução trivial 0x = . Por 
conseguinte, G é inversível.
En passant — locução adverbial; ligeira e 
circunstancialmente. Ex: 
Mencionou-lhe o nome en 
passant.
22
Observe que, se estamos trabalhando em mℜ com o produto in-
terno usual, o referido sistema não-homogêneo pode ser reescri-
to como T TA Ax A v= , em que A é a matriz cujas colunas são as 
coordenadas canônicas dos vetores da base 1{ ,..., }nv v e x é a co-
luna formada por 1, , nb b . A solução desse sistema é dada por 
1( )T Tx A A A v−= . Logo, a projeção ortogonal de um vetor v sobre 
um subespaço 1[ ,..., ]nv v é dada por:
1( )T Tv A A A A v−= .
Observe que, se 1[ , , ]nv v v∈  , v v= .
Exercício 5: Em cada item a seguir são dados 1,..., nv v e v , vetores 
de V , um espaço vetorial real munido de um produto interno 
, :V V× →ℜ . Seja 1[ ,..., ]nW v v= . Ache a projeção ortogonal de 
v sobre W .
i) 2V =ℜ , munido do produto interno usual, 1 (1,1)v = ; (1, 2)v = ;
ii) 3V =ℜ , munido do produto interno usual, 1 (1,1,1)v = ; 
(1, 2, 2)v = ;
iii) 3V =ℜ , munido do produto interno usual, 1 (1,1,1)v = , 
2 (1, 2,1)v = ; (1, 2, 2)v = ;
iv) 4V =ℜ , munido do produto interno usual; 1 (1,1,1,1)v = , 
2 (1,0,0,1)v = ; (3, 2,0, 2)v = ;
v) 4V =ℜ , munido do produto interno usual; 1 (1,1,1,1)v = , 
2 (1,0,0,1)v = , 3 (1, 2,0, 2)v = ; (3, 2,0,2)v = ;
vi) [ 1,1]V C= − , munido do produto interno usual, 1( ) 1v x = , 
2 ( )v x x= ; 
2( )v x x= ;
vii) [ 1,1]V C= − , munido do produto interno usual, 1( ) 1v x = , 
2 ( )v x x= , 
2
3 ( )v x x= ; 
3( )v x x= .
1.6 Matrizes ortogonais
Seja mV =ℜ . Vimos que a projeção ortogonal de um vetor v sobre 
o subespaço gerado por uma base 1{ ,..., }nv v é dada pela fórmula 
1( )T Tv A A A A v−= . Se os vetores da base forem ortonormais, essa 
fórmula se reduz a Tv A A v= , pois TA A I= , a matriz identidade 
23
(verifique). Matrizes, cujas colunas são vetores ortonormais, par-
tilham dessa propriedade. Note que, se A for uma matriz qua-
drada, TA é a inversa de A . Essas matrizes são ditas ortogonais 
(cuidado para não fazer confusão: matrizes ortogonais têm colu-
nas ortonormais).
Definição: Uma matriz n nA ×∈ℜ é ortogonal se .TA A I= . 
Proposição: As seguintes sentenças são equivalentes:
n nA ×∈ℜa) é ortogonal;
As colunas de b) n nA ×∈ℜ são ortonormais;
As linhas de c) n nA ×∈ℜ são ortonormais;
n nA ×∈ℜd) e ( )nx Ax x∀ ∈ℜ = ;
n nA ×∈ℜe) e ( , )n T T Tx y y A Ax y x∀ ∈ℜ = . 
A prova dessa proposição pode ser vista, por exemplo, em 
Hoffman e Kunze (1970). Note que a sentença (d) caracteriza uma 
matriz ortogonal como sendo uma matriz que preserva a norma 
de um vetor quando multiplicada por ele; a sentença (e) descreve 
uma matriz ortogonal como uma matriz que preserva o produ-
to interno de dois vetores (e, de quebra, preserva o ângulo entre 
cada dois vetores).
Exercício 6: Mostre que o produto de matrizes ortogonais é uma 
matriz ortogonal. 
Exercício 7: Mostre que a inversa de uma matriz ortogonal é, tam-
bém, ortogonal.
Exercício 8: Mostre que, se n nQ ×∈ℜ é uma matriz ortogonal, a 
matriz 11 1
1
1 0 0
0
0
n
n nn
q q
q q
 
 
 
 
 
 


   

, pertencente a ( 1) ( 1)n n+ × +ℜ , é uma matriz 
ortogonal.
24
1.7 Reflexões de Householder 
As matrizes de reflexão em relação a um subespaço de nℜ são 
exemplos de matrizes ortogonais. As reflexões de Householder 
são as reflexões em relação a um subespaço de co-dimensão 1 (ou 
seja, de dimensão 1n − ). Elas surgiram na construção de um novo 
processo de ortonormalização de vetores, diferente do método de 
Gram-Schmidt: o método de Householder. Nesse processo, bus-
ca-se uma reflexão H que leva um vetor v dado a um vetor na 
direção do vetor canônico 1 (1,0, ,0)e =  . É claro que, como uma 
reflexão preserva a norma dos vetores (ver o item d da proposi-
ção anterior), há duas possibilidades para Hv : ou 1Hv v e= ou 
1Hv v e= − . H é dito uma reflexão de Householder se o subes-
paço em relação ao qual a reflexão age é o hiperplano bissetor de 
um dos dois ângulos que v faz com a reta gerada por 1e , isto é: 
ou é o hiperplano 1 cuja normal é o vetor 1 1n v v e= − , ou é o 
hiperplano 2 cuja normal é 2 1n v v e= + .
o
v
π1
n1
n2
||v||2 .e1
−||v||2 .e1
π2
v1
v2
Figura 1.2 - Reflexões de Householder 
Vamos achar uma fórmula para essas reflexões. Seja n uma das 
normais descritas anteriormente, associada ao hiperplano  . 
Note que [ ]n⊥ = . Logo, [ ]n nℜ = ⊕ . Assim, dado um vetor u 
qualquer, u pode ser escrito de uma única forma como soma de 
um vetor de  com um vetor de [ ]n : [ ]nu u u= + . Dessa maneira, 
[ ] [ ]2n nHu u u u u= − = − , entretanto [ ]nu é a projeção ortogonal de 
u sobre [ ]n . Ou seja, 
1
[ ] 2.( . )
T
T T
n
nnu n n n n u u
n
−= = .
25
Logo, 2 2
. .2 ( 2 )
T Tn n n nHu u u I u
n n
= − = − , e assim concluímos que: 
2
.2
Tn nH I
n
= − .
Note que, por essa fórmula, obtemos as duas reflexões de 
Householder que transformam o vetor dado em um vetor 
na direção do vetor canônico 1e . Por exemplo: suponha que 
3V =ℜ , com o produto interno usual. Seja (1, 2, 2)v = , então 
1 1(1.2.2) 3(1,0,0) ( 2,2,2)n v v e= − = − = − corresponde à reflexão:
1 2 2
3 3 3
1 1 1 1 1 1 2 1 2
3 3 31 2
1 2 2 1
3 3 3
. . .2 2
12 6
T T Tn n n n n nH I I I
n
 
 = − = − = − = −  − 
;
enquanto 2 1 (1, 2, 2) 3 (1,0,0) (4,2,2)n v v e= + = + = está associado 
à reflexão:
1 2 2
3 3 3
2 2 2 2 2 2 2 2 1
3 3 32 2
2 2 1 2
3 3 3
. . .2 2
24 12
T T Tn n n n n nH I I I
n
− − − 
 = − = − = − = − −  − − 
.
Note que essas matrizes são ortogonais (verifique) e simétricas, 
características das reflexões de Householder. Assim, se H é uma 
reflexão de Householder, 
1TH H H −= = .
Como já dissemos antes, uma aplicação das reflexões de Hou-
seholder é ortonormalizar bases. Por exemplo, vamos achar uma 
base ortonormal para o subespaço [ (1,1,1,1) , (0,0,1,1) , (0,0,0,1) ] 
do 4ℜ . Para isso, primeiro construímos a matriz A , cujas co-
lunas são os vetores da base dada: 
1 0 0
1 0 0
1 1 0
1 1 1
A
 
 
 =  
 
 
. Agora, va-
mos achar uma reflexão de Householder que reflita o primeiro 
vetor da base dada na direção do primeiro vetor canônico do 
4ℜ . Vamos escolher, entre as duas normais possíveis, a normal 
(1,1,1,1) (1,1,1,1) (1,0,0,0) (3,1,1,1)n = + = . A reflexão de Househol-
der correspondente a essa normal é a seguinte:
26
1 1 1 1
2 2 2 2
51 1 1
2 6 6 6
2 51 1 1
2 6 6 6
51 1 1
2 6 6 6
2 2
12 6
T T Tn n nn nnH I I I
n
− − − − 
 − − − = − = − = − =  − − −
 − − − 
.
Logo, 
1
2
1 1
3 6
2 1
3 6
52
3 6
2 1
0
0
0
HA
− − − 
 − − =  −
 
 
. Agora, vamos achar uma re-
flexão de Householder que reflita o vetor 1 2 23 3 3( , , )− na di-
reção do primeiro vetor canônico do 3ℜ . Vamos escolher 
1 2 2 1 2 2 2 2 2
3 3 3 3 3 3 3 3 31 ( , , ) ( , , ) (1,0,0) ( , , )n = − + − = . A reflexão de 
Householder correspondente a essa normal é dada por:
1 2 2
3 3 3
1 1 1 1 1 1 2 1 2
3 3 31 2 4
31 2 2 1
3 3 3
2 2 3
2
T T Tn n n n n nH I I I
n
− − 
 = − = − = − = − −  − − 
     


.
Considere a matriz 
1 2 2
3 3 3
1 2 1 2
3 3 3
2 2 1
3 3 3
1 0 0 0
0
0
0
H
 
 − − =  − −
 − − 
, então 
1
2
1 2 2 1 1
3 3 3 3 6
1 2 1 2 2 1
3 3 3 3 6
52 2 1 2
3 3 3 3 6
1 0 0 0 2 1
0 0
0 0
0 0
H HA
− − −   
   − − − −   =    − − −
   − −   
, ou seja,
1
2
1
2
1 1
2
1
2
2 1
0 1
0 0
0 0
H HA
− − − 
 − − =  −
 
 
. Finalmente, vamos achar uma re-
flexão de Householder que reflita o vetor 1 12 2( , )− na di-
reção do primeiro vetor canônico do 2ℜ . Vamos tomar 
21 1 1 1 1 1
2 2 2 2 2 2 22 ( , ) ( , ) (1,0) ( , )n = − + − = − . A reflexão de Hou-
seholder correspondente a essa normal é dada por:
2 2
2 22 2 2 2
2 2 2 2
2 22
2 4
2 2
T Tn n n nH I I
n
 −= − = − =  − −−  
   


.
27
Considere a matriz 2 2 2
2 2
2 2
2 2
1 0 0 0
0 1 0 0
0 0
0 0
H
 
 
 =  −
 − − 
. Assim, 
11 22
11 22
2 1 2 2 1
2 2 2
2 2 1
2 2 2
2 11 0 0 0 2 1
0 10 1 0 0 0 1
0 0 0 0 0 0 2
0 0 0 0 0 0 0
H H HA
− − − − − −   
     − −− −     = =     − − −      − −     
Logo, 
1 121 12 22 2 2
1 121 12 22 2 2
1 2 21 1
2 2 2
21 1
2 2 2
2 1 2 10
0 1 0 10
00 0 2 0 0 2
00 0 0 0 0 0
A HH H
− − − − − −    − −
    − − − −−    = = =    − −− −       − − −    
1 1
2 2 1
21 1
2 2 1
221 1
2 2 2
21 1
2 2 2
0
2 1
0
0 1
0 0 2
QR
−   − − − −   = − − =  − −    − − − − 
,
e, assim, as colunas de Q , que são ortonormais e geram o mesmo 
espaço que as colunas de A , formam uma base ortonormal para 
[ (1,1,1,1), (0,0,1,1), (0,0,0,1) ] . 
Esse método — método de Householder — é muito eficiente para calcular, computa-
cionalmente, uma base ortonormal para um 
subespaço vetorial do , no sentido em que 
o método gera vetores quase ortogonais em 
aritmética de ponto flutuante, ao contrário do 
método de Gram-Schmidt, cujo resultado é 
um conjunto de vetores não ortogonais. Quem 
conhece sistemas interativos como OCTAVE, 
SCILAB e MATLAB (os dois primeiros são de 
domínio público) pode verificar isso fazendo 
testes com matrizes, por exemplo, da galeria de 
matrizes incorporadas a esses sistemas.
28
Exercício 9: Ache as duas reflexões de Householder que satisfa-
zem o que é pedido em cada item a seguir:
Que transformem o vetor i) (2,1, 2) em um vetor na direção do 
vetor (1,0,0) ;
Que transformem o vetor ii) (2,1, 2) em um vetor na direção do 
vetor (1,1,1) ;
iii) Que transformem o vetor (2,1, 2) em um vetor na direção 
do vetor (1, 2, 2) ;
iv) Que transformem o vetor (2,1, 2) em um vetor na direção 
do vetor (0,0,1) .
1.8 Matriz de um produto interno 
em relação a uma base
Seja V um espaço vetorial real de dimensão finita n , munido de 
um produto interno , :V V× →ℜ . Seja 1{ ,..., }nv v = uma base 
de V . Considere v e w , dois vetores de V : 1 1 n nv a v a v= + + , 
1 1 n nw b v b v= + + . Assim, 
, 1
, ,
n
T
i j i j
i j
v w a b v v b G a
=
= =∑ , em 
que G é a matriz de Gram, definida por , ,ij i j j iG v v v v= = , 
1( ) ( )
T
nb b b w = = e 1( ) ( )
T
na a a v = = . 
Definição: A matriz G é a matriz do produto interno em relação 
à base  .
Exercício 10: Achar a matriz de cada produto interno listado a 
seguir, em relação à base dada:
2V =ℜi) , munido do produto interno usual, 1 2{ , }v v = , em 
que 1 (1,1)v = , 2 (1, 2)v = ;
2V =ℜii) , munido do produto interno 
1 1 2 1 1 2 2 2, 4u v x y x y x y x y= + + + , em que 1 2( , )u x x= , 
1 2( , )v y y= , 1 2{ , }v v = , onde 1 (1,1)v = , 2 (1, 2)v = ;
iii) 3V =ℜ , munido do produto interno usual, 1 2 3{ , , }v v v = , 
em que 1 (1,1,1)v = , 2 (1, 2,1)v = , 3 (1, 2, 2)v = ;
iv) 
4V =ℜ , munido do produto interno usual, 1 2 3 4{ , , , }v v v v = , 
em que 1 (1,1,1,1)v = , 2 (1,0,0,1)v = , 3 (1, 2,0, 2)v = , 4 (3, 2,0, 2)v = ;
29
v) V é o espaço das funções polinomiais de grau menor ou igual 
a três, munido do produto interno usual, 1 2 3 4{ , , , }v v v v = , 
em que 1( ) 1v x = , 2 ( )v x x= , 
2
3 ( )v x x= , 
3
4 ( )v x x= .
Fechamos este capítulo fazendo-nos a seguinte pergunta: se, 
dada uma base, um produto interno fica determinado a partir de 
uma matriz, que propriedades essa matriz deve satisfazer? Uma 
resposta parcial é: a matriz deve ser simétrica e inversível. No en-
tanto só isso não basta, porque a matriz 
1
2
1
2
1
1
A  =  
 
 é simétrica, é 
inversível e não é matriz de nenhum produto interno, não importa 
que base nós tomamos. Por exemplo: digamos que 2V =ℜ e que 
tomamos uma base 1 2{ , }v v = . Seja 1 2v v v= − . Assim, 
1
( )
1
v 
 =  − 
 
e, logo, 
1
2
1
2
1 1
, (1 1) 1
1 1
v v    = − = −   −   
. Pela definição de pro-
duto interno, porém, , 0v v ≥ . Dessa maneira, a resposta com-
pleta é: uma matriz A é matriz de um produto interno em relação 
a uma base se, e somente se, a matriz A é simétrica e satisfaz a 
desigualdade 0Tx Ax > para todo vetor coluna x , 0x ≠ . 
Se A é uma matriz simétrica tal que, para todo vetor coluna x , 0x ≠ , 
0Tx Ax > , então A é dita uma matriz simétrica definida positiva.
Note que, pela definição, uma matriz A simétrica definida positi-
va tem as seguintes propriedades:
As entradas diagonais de •	 A são estritamente positivas pois, 
se o vetor coluna (0 0 1 0 0)Tke =   é tal que a k-
ésima entrada é 1, 0Tkk k ka e Ae= > ;
As submatrizes principais •	 (1: ,1: )A k k , formadas pelas en-
tradas pertencentes simultaneamenteàs k primeiras linhas 
e colunas de A , são também matrizes simétricas definidas 
positivas (demonstre);
A•	 é inversível (demonstre).
Exercício 11: Verifique se as matrizes abaixo são simétricas defi-
nidas positivas.
a)
 
1 1
1 1
A  =  
 
; b) 
5 1
1 1
A
− =  − − 
; c) 
2 1
1 1
A  =  
 
;
30
d) 
2 1
1 1
A
− =  − 
; e) 
2 2
2 1
A  =  
 
; f) 
4 2
2 1
A  =  
 
;
g) 
4 1
1 0
A  =  
 
; h) 
1 0
0 1
A  =  
 
.
Resumo
Neste capítulo vimos a definição de produto interno em um espaço 
vetorial real V. Concluímos que, dados um produto interno , em 
V e uma base  , existe uma única matriz simétrica real A tal que, 
quaisquer que sejam os vetores v e w de V, , ( ) ( )Tv w w A v = . 
Essa matriz é inversível e é dita uma matriz de Gram. Definimos, 
ainda, o ângulo entre dois vetores e vimos que dois vetores são 
ortogonais em relação a um produto interno se o produto interno 
entre eles é zero.
Em seguida, apresentamos um procedimento que ortogonaliza 
uma base de um espaço vetorial real de dimensão finita, ou seja, 
que resulta em um conjunto l. i. de geradores do espaço que se-
jam ortogonais dois a dois. Definimos, depois, um conjunto de 
matrizes ditas ortogonais, que são matrizes associadas a opera-
dores lineares, definidos em espaços vetoriais reais com produto 
interno, que preservam ângulos entre vetores (ex.: as reflexões de 
Householder).
Por fim, terminamos o capítulo dando uma caracterização às ma-
trizes de um produto interno em relação a uma base — matrizes 
simétricas definidas positivas.
31
Bibliografia Comentada
HOFFMAN, Kenneth; KUNZE, Ray. Álgebra Linear. São Paulo: 
Polígono, 1970.
Lício H. Bezerra: esse livro é um dos meus livros prediletos de 
Álgebra Linear. Infelizmente, ele está esgotado. Foi lançada uma 
segunda edição desse livro no Brasil, com muitas alterações, mas 
prefiro a primeira edição. Procure-no em sebos e compre-o. O 
tratamento é rigoroso e as provas são elaboradas. Contém muitos 
exercícios, alguns não muito fáceis de resolver.
LIMA, Elon L. Álgebra Linear. 3ª ed. Rio de Janeiro: SBM, 1998.
Há edições mais recentes desse livro, que apresenta a Álgebra 
Linear de forma clássica, como o livro de Hoffman e Kunze (1970). 
Recomendo esse livro para uma biblioteca de Matemática. Tem 
muitos exercícios.
ANTON, Howard; RORRES, Chris. Álgebra Linear com Aplicações. 8ª 
ed. Porto Alegre: Bookman, 2001.
Esse é um livro moderno com tratamento clássico. É um livro 
muito bom para você, leitor que deseja se inserir no mundo 
tecnológico, pois apresenta várias aplicações interessantes da 
Álgebra Linear: digitalização de imagens, programação linear etc.
2 Autovalores e Autovetores 
de um Operador Linear 
35
2 Autovalores e Autovetores de 
um Operador Linear 
Lembramos que um operador linear é uma transformação 
linear :T V V→ , em que V é um espaço vetorial sobre 
um corpo K . Se V é de dimensão n e  é uma base de 
V , então existe uma matriz [ ]T  associada a T com a 
propriedade de que todas as informações sobre T podem 
ser obtidas a partir de cálculos sobre [ ]T  . Neste capítulo 
introduziremos o conceito de autovalores e autovetores de 
operadores lineares, mostrando que a extração de infor-
mações de T pode ser simplificada significativamente des-
de que T admita uma base de autovetores, em cujo caso a 
matriz associada [ ]T  é diagonal. No decorrer do capítulo 
assumiremos que V é um espaço vetorial real, a menos 
quando explicitamente dito em contrário.
2.1 Autovalores e autovetores
Em muitas situações práticas de ciências puras e aplicadas, dado 
um operador linear :T V V→ , deparamo-nos com o problema de 
encontrar vetores não-nulos v tais que o vetor transformado ( )T v 
seja múltiplo de v . Esse é o problema de autovalores, um tópico mui-
to importante da Álgebra Linear. O termo autovalor provém do 
adjetivo germânico eigen, que significa “próprio” ou “característico 
de”. Do ponto de vista teórico, autovalores e autovetores concen-
tram informações sobre a natureza do operador e tornam-se im-
portantes porque nos mostram como o operador funciona.
Definição: Um número real  é um autovalor ou valor próprio do 
operador linear :T V V→ se existe um vetor não-nulo v V∈ tal 
que ( )T v v= . O vetor v é chamado de autovetor ou vetor próprio 
de T associado a  . O conjunto V formado por todos os autove-
tores de T associados a um autovalor  e pelo vetor nulo é um 
subespaço vetorial de V chamado subespaço próprio ou autoespaço 
associado a  .
36
A partir daí, algumas perguntas que surgem de maneira natu-
ral são: quantos autovetores podemos associar a um autovalor? 
Quantos autovalores podemos encontrar? O que podemos fazer 
para encontrar autovalores e autovetores? Com o intuito de res-
ponder a essas e outras perguntas que aparecerão no decorrer do 
capítulo, começamos com a observação de que se v é um auto-
vetor de T associado a  , então o mesmo acontece com v para 
qualquer escalar arbitrário não-nulo  , já que 
( ) ( ) ( ).T v v T v v   = ⇔ =
Ou seja, qualquer múltiplo escalar de v também V é um autove-
tor de T associado a  . 
Para ilustrarmos como achar autovalores e autovetores correspon-
dentes apresentamos alguns exemplos a seguir. 
Exemplo 1: Seja 2 2:T ℜ →ℜ , ( , ) (2 , 3 )T x y x x y= + . Para pro-
curar autovalores e autovetores de T resolvemos a equação 
( , ) ( , )T x y x y= ou (pela definição de T ) (2 , 3 ) ( , )x x y x y+ = . 
Igualando componentes obtemos o sistema de equações:
2
3
x x
x y y


=
 + =
Note que y não pode ser zero, caso contrário obteríamos 0x = e 
daí (x,y) = (0,0) (ou seja, o vetor nulo (0,0)v = ), o que não pode 
acontecer pela definição de autovetor. Agora podemos considerar 
dois casos: 0x ≠ e 0x = . Se 0x ≠ , da primeira equação obtemos 
2 = , e, com esse valor na segunda equação, x y= - . Assim, 2 = 
é um autovalor de T e ( , ) (1, 1)v x x x= - = - , 0x ≠ , é um autove-
tor correspondente. Nesse caso, o subespaço próprio associado a 
2 = é =2V { (1, 1) / } [(1, 1)]x x = - ∈ℜ = - ou, em palavras, =2V é o 
subespaço de 2ℜ gerado pelo autovetor (1, 1)v = - que é a reta no 
plano que contém v .
Se 0x = , da segunda equação segue que 3 = e y pode ser 
arbitrário (não-nulo). Portanto, 3 = é outro autovalor de T , 
(0, ) (0,1)v y y= = é um autovetor associado, e 3 [(0,1)]V= = , que 
é a reta que passa pela origem e é perpendicular ao eixo Y , é o 
subespaço próprio associado.
37
O efeito de um operador linear é determinado facilmente e sim-
ples de se interpretar geometricamente em 2ℜ . Como ilustração, 
considere o operador T do exemplo 1 e os vetores ( 1,1)v = - , e 
(1,0)u = . Dessa forma, ( ) ( 2, 2) 2( 1,1)T v = - = - , isto é, v é trans-
formado em um múltiplo de si mesmo, pois v é um autovetor de 
T associado ao autovalor 2 = (ver figura 3 a seguir). O efeito do 
operador sobre u é ( ) (2,1)T u = . Obviamente, u não é autovetor 
do operador, pois ( )T u não é múltiplo de u . 
y
xx
v
u
xx
yT (v) = 2v
T (u)
T
Figura 2.1 - Efeito de um operador linear
Observação: Embora o efeito de um operador em 2ℜ seja simples 
de se calcular, a situação pode ser bem diferente quando a di-
mensão do espaço é elevada. No entanto, se v é uma combinação 
de autovetores 1, , pv v de T , por exemplo, 1 1 p pv v v = + + , e 
se ambos j e jv são disponíveis, o efeito de T sobre v pode 
ser calculado facilmente. De fato, como T é linear, segue que 
1 1( ) ( ) ( )p pT v T v T v = + + e, assim, o efeito do operador pode 
ser calculado como 1 1 1( ) p p pT v v v   = + + , um fato muito 
explorado em aplicações da álgebra linearna resolução de proble-
mas práticos.
Um ponto importante a ser enfatizado é que não é raro encontrar 
operadores lineares que não possuam autovalores. Ilustramos 
isso com o exemplo 2 a seguir:
38
Exemplo 2: Seja 2 2:T ℜ →ℜ , ( , ) ( , )T x y y x= - . Se  é um au-
tovalor de T e ( , )v a b= é um autovetor correspondente, então 
( )T v v= ( , ) ( , )b a a b⇔ - = . Daí segue que 2 1 0 + = , o que é im-
possível em ℜ . Ou seja, como não existe  real tal que ( )T v v= , 
concluímos que o operador T não tem nem autovalores nem auto-
vetores. Outro operador 2 2:T ℜ →ℜ que não possui autovalores é 
aquele que produz rotações no plano, veja a lista de exercícios ao 
final deste capítulo. 
A existência de autovalores de um operador linear não depende 
da dimensão do espaço. Veja o exemplo a seguir.
Exemplo 3: Seja ( )V C= ℜ o espaço das funções contínuas em ℜ . 
Sabemos que V é um espaço vetorial real de dimensão infinita. 
Seja :T V V→ o operador linear definido por | 0( ) ( )
t
tT f f x dx= ∫ . 
Afirmamos que o operador T não possui nenhum autovalor. De 
fato, vamos supor que ∈ℜ é um autovalor de T . Então exis-
te 0f ≠ tal que Tf f= . Isto é, 
0
( ) ( )
t
f t f x dx = ∫ . Agora, já que 
pelo primeiro teorema fundamental do cálculo temos 'f f = , 
segue que 0 ≠ , pois 0f ≠ . Por outro lado, note que a equação 
diferencial 1'f f= tem solução ( )
ctf t e= com 1/c = . Substi-
tuindo essa solução na equação autovalor-autovetor segue que 
0
tct cx cte e dx e  = = -∫ , e assim 0 = , o que contradiz o fato de 
ser 0 ≠ . Logo, fica demonstrado que o operador T não tem au-
tovalores.
Sabemos que toda matriz real A n n× define um operador linear 
1 1: nx nxAT ℜ →ℜ dado por ( )AT v Av= . Note que aqui v denota um 
vetor coluna em 1nxℜ e que a imagem do operador é calculada via 
produto matriz vetor. Assim, os autovalores e autovetores de A 
são, por definição, os autovalores e autovetores do operador AT . 
Logo,  é um autovalor de A se existe um vetor não-nulo v em 
1nxℜ tal que Av v= . Portanto, podemos concluir que:
 é um autovalor de A ⇔ a equação (A - I) x = 0 
em solução não-trivial.
39
Observe que, nessa equação, I denota a matriz identidade n n× .
No entanto, já que o sistema homogêneo ( ) 0A I x- = tem solu-
ção não-trivial se e somente se A I- é uma matriz singular, ou 
equivalentemente, se e somente se det ( ) 0A I- = , temos que:
Os autovalores da matriz são as raízes da equação a) 
det ( ) 0A I- =
chamada equação característica, e ( ) det ( )p A I = - é um po-
linômio em  de grau n chamado polinômio característico de 
A . Para ver que ( )p  é um polinômio de grau n , basta ob-
servar que avaliando o determinante 
11 1
1
( ) det ( ) det
n
n nn
a a
p A I
a a

 

- 
 = - =   - 

 

obtemos 11( ) ( ) ( )nnp a a  = - - + termos de grau menor 
que n. Isso mostra que o polinômio característico de A é 
de grau n . 
É importante observar que, se A é uma matriz real n n× , 
então ( )p  tem coeficientes reais e, portanto, todas as suas 
raízes complexas vêm em pares conjugados. Assim, se 
a ib = + é raiz de ( )p  , seu complexo conjugado a ib = - 
( 1i = - ) também é raiz de ( )p  . Formalmente, as raízes 
complexas de ( )p  são autovalores complexos da matriz 
A interpretada como operador 1 1: ,n nAT
× ×→  dado por 
( )AT x Ax= , 
1nx ×∈ . Dessa forma, se 1 2, , , n   são os au-
tovalores de A (reais ou complexos), então o polinômio ca-
racterístico ( )p  pode ser escrito como
1 2( ) ( ) ( ) ( )np       = - - - .
Considerando agora que ( ) det ( )p A I = - e tomando 0 = 
nessa equação, segue que
1 2 (0) det ( )n p A   = = .
Outra conclusão imediata, que provém de comparar o coefi-
ciente de ( 1n -- ) da expressão, que resulta de avaliar o deter-
minante det ( )A I- , com o coeficiente de ( 1n -- ) que aparece 
após desenvolver os produtos 1 2( ) ( ) ( )n     - - - , é que
40
1 1
n n
j jj
j j
a
= =
=∑ ∑ .
A soma dos elementos da diagonal principal de uma ma-
triz quadrada A é chamada de traço de A e é denotada por 
( )tr A .
Para cada autovalor b)  , os autovetores associados são solu-
ções não-triviais do sistema homogêneo
( ) 0.A I x- =
Observação: Uma dificuldade de ordem prática no cálculo de au-
tovalores para matrizes n n× , 4n > , é que equações polinomiais 
de grau maior que 4 não são solúveis por radicais, ou seja, essas 
equações não podem ser solucionadas usando fórmulas análogas 
àquelas usadas para equações de segundo ou terceiro graus. Por 
isso, na prática, o cálculo de autovalores é feito computacional-
mente através de métodos iterativos. Métodos iterativos que usam 
transformações ortogonais são implementados em muitos siste-
mas interativos como MATLAB, SCILAB, OCTAVE, MAPLE etc. 
Os exemplos a seguir ilustram o procedimento para encontrar au-
tovalores e autovetores associados.
Exemplo 4: Considerando a matriz 
3 2
1 0
A
- =  
 
, a equação carac-
terística é:
3 2
det ( ) 0 (3 ) (0 ) 1( 2) 0.
1 0
A I

  

- -
- = = ⇔ - - - - =
-
Daí vemos que os autovalores da matriz A são raízes da equa-
ção 2 3 2 0 - + = : 1 2 = , e 2 1. = Para encontrar os autovetores 
associados a 1 2 = , devemos encontrar soluções não-triviais do 
sistema homogêneo 1( ) 0A I x- = :
1 1
1 2
3 2 0
1 0 0
x
x


 - -   =    -    
.
Esse sistema reduz-se à expressão 1 22 0x x- = , da qual vemos que 
todas as soluções não-triviais desse sistema, ou seus autovetores 
associados a 1 2 = , são da forma 
2
1
x 
 =  

, em que  é qualquer 
41
escalar não-nulo. Procedendo analogamente, podemos verificar 
que os autovetores associados com 2 1 = são da forma 
1
0
x 
 =  

, 
 sendo qualquer escalar não-nulo.
Exemplo 5: Neste exemplo consideramos a matriz
3 1 0
1 2 1
0 1 3
A
 - 
 = - - 
 - 
.
Para esta matriz, a equação característica é:
3 2
3 1 0
det ( ) 1 2 1 0 8 19 12 0
0 1 3
A I

    

- -
- = - - - = ⇔ - + - + =
- -
.
As raízes da equação característica fornecem os autovalores 1 1 = , 
2 3 = , 3 4 = . Para encontrar o autovetor associado a 1 1 = , re-
solvemos o sistema homogêneo 1( ) 0A I x- = , que nesse caso tem 
a forma
1 1 2
1 1 2 3
2 1 3
(3 ) 0
(2 ) 0
(3 ) 0
x x
x x x
x x



- - =
- + - - =
 - + - =
Escalonando, obtemos o sistema equivalente
1 2 3
2 3
0
2 0
x x x
x x
- + =
 - =
que possui grau de liberdade 1 (ou seja, há uma variável livre). 
Tomando x 3 como variável livre, o autovetor associado a 1 1 = 
tem a forma 
3
3 3
3
1
2 2
3
x
x x x
x
  
  = =  
   
, para x 3 não-nulo e arbitrário. Pro-
cedendo analogamente, para 2 3 = temos que o autovetor asso-
ciado é 
1
0
1
x 
 
 =  
 - 
, sendo  não-nulo, enquanto que para 3 4 = 
o autovetor é 
1
1
1
x 
 
 = - 
  
, para  não-nulo arbitrário.
42
Para cada matriz A n n× , as seguintes propriedades podem ser 
provadas (consulte Noble e Daniel (1998)):
Existe pelo menos um autovetor associado com cada auto-1) 
valor de A .
Se 2) 1{ , , }s  é um conjunto de autovalores distintos e se 
1{ , , }sp p é um conjunto de autovetores associados, então 
1{ , , }sp p é linearmente independente. Conseqüentemente, 
se A tem n autovalores distintos, então existe um conjunto 
linearmente independente de n autovetores e a matriz A 
pode ser decomposta como
1A P P-= Λ ,
em que 1[ , , ]nP p p=  é uma matriz n n× cujas colunas ip 
são autovetoresde A associados aos autovalores i , e Λ
é uma matriz diagonal com os autovalores i na diagonal 
principal. Diferentes maneiras de ordenar os autovetores na 
matriz P levam a diferentes decomposições da matriz A 
e, assim, a decomposição acima não pode ser única. Reci-
procamente, se existe alguma matriz P , não-singular, e a 
decomposição acima vale com Λ diagonal, então as colunas 
de P são autovetores de A associados respectivamente aos 
autovalores i , em que i é a i-ésima entrada da diagonal 
principal de Λ .
Se existe uma matriz P não-singular tal que 1B P AP-= , então 
2 1 1 1 2B P APP AP P A P- - -= = ,
3 2 1 1 2 1 3B BB P APP A P P A P- - -= = = ,

1 1k k kB BB P A P- -= = , 1k ≥ .
Quando A é não-singular, o mesmo ocorre com B , e a proprieda-
de acima vale para qualquer inteiro negativo k . Se, em particu-
lar, B é diagonal (ex.: B = Λ ), então 1k kA P P-= Λ , e o cálculo da 
k -ésima potência de A requer apenas o cálculo das k -ésimas 
potências dos elementos diagonais de Λ . 
43
Definição: Uma matriz quadrada B é dita semelhante a uma ma-
triz A se existe uma matriz não-singular P tal que 1B P AP-= . 
Se B é semelhante a A , é dito que B é obtida de A por meio de 
uma transformação de semelhança.
É imediato observar que matrizes semelhantes têm o mesmo po-
linômio característico, e que a noção de semelhança define uma 
relação de equivalência no conjunto das matrizes quadradas no sen-
tido em que: 
Aa) é semelhante consigo mesma;
Se b) B é semelhante a A , então A é semelhante a B ; e
Se c) C é semelhante a B e B é semelhante a A , então C é se-
melhante a A .
A primeira parte da afirmação será vista no contexto geral de 
operadores lineares; a segunda parte é simples de se demonstrar 
e fica como um exercício para você, leitor.
Se observarmos os autovalores e autovetores correspondentes do 
exemplo 5, na notação do item 2, a matriz A pode ser decompos-
ta como 1A P P-= Λ , com:
1
2
3
0 0 1 0 0
0 0 0 3 0
0 0 0 0 4



   
   Λ = =          
, 1 2 3
1 1 1
[ , , ] 2 0 1
3 1 1
P p p p
 
 = = -  - 
.
Também, como 2 2 1,A P P-= Λ 3 3 1A P P-= Λ etc, obviamente a ma-
triz kA é semelhante a kΛ .
O exemplo 6 a seguir mostra que, no caso de aparecerem autova-
lores repetidos, podem existir autovetores linearmente indepen-
dentes associados ao mesmo autovalor. 
Exemplo 6: Considere agora a matriz 
4 1 6
2 1 6
2 1 8
A
- 
 =  
 - 
.
44
Procedendo como antes podemos ver que a equação característica 
para essa matriz é
3 213 40 36 0  - + - = 
e que os autovalores são 1 2 2 = = e 3 9 = . Agora procuraremos 
o(s) autovetor(es) associados ao autovalor repetido. A equação ho-
mogênea tem a forma
1 1 2 3
1 1 2 3
1 2 1 3
(4 ) 6 0
2 (1 ) 6 0
2 (8 ) 0
x x x
x x x
x x x



- - + =
 + - + =
 - + - = 
.
Após escalonamento, o sistema reduz-se à expressão
1 2 32 6 0x x x- + = .
Daí decorre que o sistema tem dois graus de liberdade (duas va-
riáveis livres). Sendo assim, o conjunto de soluções não-triviais 
pode ser escrito como
1
2 2 3
3
1/ 2 3
1 0
0 1
x
x x x x
x
-     
     = = +     
          
 , 
sendo 2x e 3x arbitrários, e ao menos um deles não-nulo. Assim, 
para o autovalor repetido (duas vezes) 2 = podemos associar 
um autovetor x que resulta de uma combinação linear de dois 
vetores linearmente independentes:
1 [1/ 2 1 0 ]
Tv = , 2 [ 3 0 1]
Tv = - .
Esses por sua vez também são autovetores associados ao mesmo 
autovalor. É possível explicar tal afirmação devido ao fato de que, 
para o autovalor repetido 2 = , podemos associar dois autoveto-
res linearmente independentes. 
Como já sabemos achar os autovalores e autovetores de uma ma-
triz, vamos estudar agora como encontrar os autovalores de um 
operador linear qualquer definido num espaço vetorial real de 
dimensão finita. A chave do assunto vem na proposição a seguir.
Proposição: Seja 1{ , , }nv v =  uma base de um espaço vetorial 
real V e :T V V→ um operador linear, então T e a matriz de T 
na base  , [ ]T  , têm os mesmos autovalores.
45
Prova: Sabemos que para cada v V∈ existem números reais jx tais 
que 1 1 n nv x v x v= + + . Sabemos também que, se 1[ ]
T
v nx x x=  , 
então existe um isomorfismo 1: nxV →ℜ definido por ( ) vv x = 
e que ( ( )) [ ] vT v T x = . Logo, se  é um autovalor de T e v 
um autovetor associado, usando a notação acima e o isomorfis-
mo  segue que [ ] ( ( )) ( )v vT x T v v x    = = = . Daí vemos 
que  é autovalor de [ ]T  e vx um autovetor corresponden-
te, pois vx é não-nulo. Reciprocamente, se  é um autovalor 
de [ ]T  e 
1nxx∈ℜ um autovetor associado, via isomorfismo  
podemos encontrar um único v V∈ tal que ( )v x = . Logo, 
( ( )) [ ] ( ) ( )T v T x x v v     = = = = . Isto é, ( ( )) ( )T v v  = , 
e assim ( )T v v= , pois  é um isomorfismo. 
2.2 Polinômio característico e 
Polinômio minimal
Embora da proposição anterior fique claro que  é autovalor de 
T ⇔  é uma raiz do polinômio característico ( )p  da matriz 
[ ]T  , poderíamos nos perguntar se ( )p  depende da base  es-
colhida. O aspecto fundamental em relação a esse ponto é que o 
polinômio em questão independe da escolha da base. Para ver 
isto, vamos considerar duas bases  e ' e lembrar que existe 
uma matriz inversível P tal que 1 '[ ] [ ]T P T P 
-= (ou seja, [ ]T  é 
semelhante a '[ ]T  ). Logo, usando o fato de que 
1det ( ) det ( ) 1P P- = 
(esse resultado será mostrado no capítulo seguinte), obtemos
1 1
'det ([ ] ) det ( ) det ([ ] ) det ( ) det ( [ ] ) det ([ ] )T I P T I P P T P I T I      - -- = - = - = -
1 1
'det ([ ] ) det ( ) det ([ ] ) det ( ) det ( [ ] ) det ([ ] )T I P T I P P T P I T I      - -- = - = - = - .
Isso mostra que as matrizes [ ]T  e 'T têm o mesmo polinômio 
característico. No que diz respeito aos autovetores, temos a equi-
valência
[ ] v vTv v T x x = ⇔ = ,
em que 1nxvx ∈ℜ é o vetor de coordenadas do autovetor v de T na 
base  . A discussão acima justifica a definição a seguir.
Definição: Seja  uma base de um espaço vetorial V de dimen-
são finita. O polinômio característico de um operador linear 
:T V V→ é o polinômio característico da matriz [ ]T  . 
46
Vejamos agora alguns exemplos que ilustram características as-
sociadas a autovalores e autovetores de operadores lineares ainda 
não observadas nos exemplos anteriores.
Exemplo 7: Seja V o espaço das funções polinomiais de grau me-
nor ou igual a 1 e considere a base 1 2{ , } {1 ,4 }v v x x = = + + . Seja 
o operador linear definido por 1( ) 5 2T v x= + , e 2( ) 2(4 )T v x= - + . 
Assim, já que 1 1 2( )T v v v= + e 2 2( ) 2T v v= - (verifique!), segue que 
a matriz de T na base  é 
1 0
[ ]
1 2
T 
 =  - 
, portanto o polinômio 
característico de T é ( ) det ([ ] ) (1 ) ( 2 )p T I   = - = - - - e os au-
tovalores são 1 1 = e 2 2 = - . A partir daí observamos facilmente 
que o autovetor de [ ]T  associado a 1 1 = é [3 ]Tx b b= , com b 
real não-nulo e arbitrário. Usando o fato de que as componentes 
do autovetor x são os coeficientes do autovetor de T expresso 
como combinação linear dos vetores da base  , o autovetor de T 
associado a 1 1 = é 1 23 (3(1 ) (4 )) (7 4 )v bv bv b x x b x= + = + + + = + , 
com b não-nulo e arbitrário. Procedendo analogamente verifica-
se que o autovetor de [ ]T  associado a 2 2 = - é [0 ] tAx b= , com 
b real não-nulo e arbitrário. Assim, o autovetor de T associado a 
2 2 = - é 1 2 20x v bv bv= + = , b não-nulo, ou seja, o vetor 2v é um 
autovetor do operador associado ao autovalor2 2 = - .
Exemplo 8: Suponha no exemplo anterior que, em lugar de 
2( ) 2(4 )T v x= - + , o operador T satisfaz 2( ) (4 )T v x= + . Proceden-
do da maneira usual, a matriz de T na base  é 
1 0
[ ]
1 1
T 
 =  
 
. 
Logo, o polinômio característico é 2( ) ( 1)p  = - e os autovalores 
são 1 2 1 = = . Ou seja, o operador tem dois autovalores repeti-
dos. Busquemos agora os autovetores associados. Seja [ ]Tx a b= 
o autovetor procurado. Logo,
1
1
1
(1 ) 0 0
([ ] ) 0
1 (1 ) 0
a b
T x
a b



- + =- = ⇔  + - =
e esse sistema se reduz à expressão 0a = . Dessa forma, o au-
tovetor associado a 1 2 1 = = é [0 ]Tx b= , em que b é real e 
não-nulo, e assim o autovetor de T associado a 1 2 1 = = é 
1 20 (4 )v v bv b x= + = + . Note que, diferentemente do exemplo an-
47
terior, aqui vemos que o operador T não possui mais que um 
autovetor linearmente independente. 
A conclusão que podemos tirar do exemplo acima é que o nú-
mero de autovetores linearmente independentes associados a um 
autovalor repetido nem sempre coincide com a multiplicidade do 
autovalor como raiz da equação característica. Esses fatos moti-
vam as definições a seguir.
Definição: A multiplicidade algébrica de um autovalor  é o 
número de vezes que ele aparece como raiz do polinômio carac-
terístico; se  aparece somente uma vez, ou seja, se sua multipli-
cidade algébrica for um, então dizemos que  é um autovalor 
simples. A multiplicidade geométrica de  é a dimensão de V , 
o subespaço próprio associado.
Baseados nessa definição podemos concluir que a multiplicidade 
algébrica e a multiplicidade geométrica de 1 = no exemplo 7 são 
iguais a 1. No entanto, se considerarmos o exemplo 8, enquanto a 
multiplicidade algébrica de 1 = é 2, a sua multiplicidade geométri-
ca é 1, pois a dimensão do subespaço próprio 1V= associado é 1.
Como uma constatação do que foi visto no exemplo anterior, é im-
portante observar que a multiplicidade geométrica de um autova-
lor não pode exceder sua multiplicidade algébrica (ver Boldrini et 
al, 1996). 
Seja V um espaço vetorial real de dimensão n e ( , )T L V V∈ . 
Sabemos que ( , )L V V é um espaço vetorial de dimensão 2m n= . 
Uma conseqüência desse fato é que o conjunto de 1m + vetores 
( 2, , , , mI T T T ) é linearmente dependente em ( , )L V V porque 
nesse espaço não podem existir mais que m vetores linearmente 
independentes (lembrar que 2T T T=  , 3 2T T T=  etc). Assim, 
existem constantes reais 0 1, , , ma a a não todas nulas tais que 
1 0 0
m
ma T a T a I+ + + = , 0 ( , )L V V∈ .
Isto é, o operador T satisfaz ( ) 0p T = , em que 
1 0( )
m
mp x a x a x a= + + + , e nesse caso dizemos que o polinômio 
p anula o operador. Lembramos que um polinômio ( )p x , cujo 
coeficiente da maior potência em x é 1, é chamado de polinômio 
48
mônico. Dentre vários polinômios que anulam o operador T , um 
deles recebe um nome especial, conforme veremos a seguir. 
Definição: Seja V um espaço vetorial real de dimensão finita. O 
polinômio minimal de um operador ( , )T L V V∈ , denotado por 
( )pm  , é o polinômio mônico de menor grau que anula T .
Exemplo 9: Vamos considerar a matriz 
1 1
0 1
A  =  
 
 e achar o polinô-
mio minimal associado. Com efeito, o polinômio característico de 
A é 2 2det ( ) 2 1 ( 1)A I   - = - + = - . Após algumas operações al-
gébricas, observamos que o polinômio característico de A anula a 
matriz A , isto é, a matriz A satisfaz 2 2 ( ) ( ) 0A A I A I A I- + = - - = 
(verifique!). Como 
0 1
0
0 0
A I  - = ≠ 
 
, porém, concluímos que o 
polinômio minimal é 2( ) 2 1pm   = - + .
Exemplo 10: Considere agora a matriz 
48 10 10
90 17 20
135 30 27
B
- - 
 = - -  - - 
. 
Nesse caso, pode-se ver que o polinômio característi-
co é 2( ) ( 2) ( 3)p   = - + - . Pode-se ver também que 
( 2 ) ( 3 ) 0B I B I+ - = , e que ( 2 ) 0B I+ ≠ , e ( 3 ) 0B I- ≠ (ve-
rifique!), portanto o polinômio minimal da matriz B é 
( ) ( 2) ( 3)pm   = + - .
Os exemplos acima sugerem dois fatos:
em geral, 1) ( ) ( )p pm ≠ ;
ambos os polinômios têm as mesmas raízes.2) 
Uma prova formal do item 2 é dada na proposição a seguir.
Proposição: Seja V um espaço vetorial de dimensão 1n ≥ e 
( , )T L V V∈ , então ( )p  e ( )pm  têm as mesmas raízes a menos 
de multiplicidades.
Prova: Sem perda de generalidade, vamos supor que todas as 
raízes do polinômio característico ( )p  são reais. Logo, se  é 
49
raiz de ( )p  , precisamos provar que ( ) 0 ( ) 0p pm = ⇔ = . 
Com efeito, se  é raiz de ( )p  , então  é um autovalor de 
T e, para algum vetor não-nulo v V∈ , temos ( )T v v= . Daí 
decorre que ( )k kT v v= para cada 1k ≥ . Agora, assuma que 
0 1( )
spm x b b x x= + + + . Como ( ) 0pm T = (lembrar a definição 
de polinômio minimal), segue que
0 10 ( ) ( )
spm T v b I bT T v= = + + +
0 1
sb v b v v = + + +
0 1( ) ( )
sb b v pm v  = + + + =
e por conseguinte ( ) 0pm  = , pois 0v ≠ . Logo,  é uma raiz 
de ( )pm  . Reciprocamente, se  é raiz de ( )pm x , pela con-
dição de minimalidade no grau do polinômio ( )pm x segue que 
( ) ( ) ( )pm x x q x= - com ( ) 0q T ≠ e, portanto, existe u V∈ tal 
que ( ) 0v q T u= ≠ . Usando novamente o fato de que ( ) 0pm T = , 
temos
0 ( ) ( ) ( ) ( )pm T v T I q T u T I v = = - = - ,
e, portanto, Tv v= . Isto é,  é um autovalor de T e, assim, 
( ) 0p  = , como queríamos provar.
Análogo ao exemplo 8, em que o polinômio característico da ma-
triz A anula a matriz A , pode-se verificar no exemplo 9 que o 
polinômio característico de B anula B . Esses não são resultados 
devido ao acaso. Eles são conseqüências de um resultado geral 
conhecido como teorema de Cayley-Hamilton. 
Proposição (Teorema de Cayley-Hamilton): Seja V um espaço 
vetorial de dimensão finita e ( , )T L V V∈ . Se ( )p  é o polinômio 
característico de T , então ( ) 0p T = .
Prova: Seja  uma base de V de dimensão n . Para simplificar 
a notação, escrevemos [ ]A T = . A prova está baseada na pro-
priedade
( ) det ( )Adj A A A I=
em que ( )Adj A é a adjunta clássica da matriz A . O conceito em 
questão será apresentado mais adiante. No momento, basta saber 
50
que os elementos de ( )Adj A são obtidos via cálculo do determi-
nante de certas submatrizes de A de ordem 1n - . Continuando a 
prova, seja ( )B Adj A I= - . Da observação acima, segue que os 
elementos ijb de B são polinômios em  de grau no máximo 1n - , 
isto é, para cada par ,i j , temos
(0) (1) ( 1) 1n n
ij ij ij ijb b b b - -= + + + .
Com essa notação a matriz B pode ser escrita como
1
0 1 1
n
nB B B B  --= + + + ,
em que ( ),( )
k
k i j ijB b= , 0 1k n≤ ≤ - . Usando a propriedade da ad-
junta clássica descrita acima, obtemos que
( ) det ( )B A I A I I - = - .
Agora, note que, enquanto o lado esquerdo dessa igualdade pode 
ser escrito como
1
0 1 0 1 2 1( ) ( )
n n
n n nB A B A B B A B B  -- - -+ - + + - - ,
o lado direito é o polinômio característico do operador T vezes 
a matriz identidade: 10 1 1( )
n n
n np I a I a I a I a I   --= + + + + . 
Comparando os coeficientes de ambos os polinômios obtemos o 
seguinte conjunto de igualdades:
0 0
1 1 0
2 2 1
1 1 2
1
( )
( )
( )n n n
n n
a I B A
a I B A B
a I B A B
a I B A B
a I B
- - -
-
=
 = -
 = -


 = -

= -

Multiplicando essas equações por 2, , , , nI A A A , respectivamen-
te, e somando, obtemos 
1
0 1 1( ) 0
n n
n np A a I a A a A a A
-
-= + + + + = ,
como queríamos provar.
Note que, devido ao teorema de Cayley-Hamilton, o polinômio 
característico é um candidato ao polinômio minimal.Mais adian-
te veremos que o polinômio minimal é importante, pois a partir 
da multiplicidade das raízes dele pode-se determinar se o opera-
dor linear possui uma base de autovetores. 
51
Exercícios
1) Mostre que o conjunto formado pelos autovetores de um ope-
rador linear :T V V→ associados a um autovalor  e o vetor nulo 
é um subespaço vetorial de V .
2) Para cada  , seja 2 2:R ℜ →ℜ o operador definido por 
( , ) ( cos , cos )R x y x y sen y x sen   = - + . Mostre que o opera-
dor R não tem nem autovalores nem autovetores.
3) Mostre que a matriz 1 2
3 2
A  =  
 
 é semelhante a 
4 0
0 1
 
 - 
.
4) Sejam 1 1
1 1
A  =  
 
 e 
1
1
a
B
a
 =  
 
. Ache uma matriz não-singu-
lar P tal que 1P AP- e 1P BP- são diagonais.
5) Seja 5 3
3 5
A  =  - 
. Mostre que A e TA têm um autovetor co-
mum.
6) Seja A uma matriz inversível e seja  um autovalor de A . 
Mostre que 1/  é um autovalor de 1A- .
7) No exemplo 7 vimos que os autovalores de uma matriz trian-
gular inferior 2 2× eram os elementos da diagonal principal. Ge-
neralize esse resultado para uma matriz triangular inferior L 
n n× , isto é, prove que os autovalores da matriz L são os elemen-
tos jjL da diagonal principal. Idem para matrizes triangulares 
superiores.
8) Uma matriz A n n× é dita idempotente se 2A A= . 
Mostre que, se a)  é um autovalor de uma matriz idempoten-
te, então  tem que ser igual a 0 ou 1.
Seja b) v um vetor unitário em 1n×ℜ (usando a norma eucli-
deana) e TA vv= . Mostre que A é idempotente e que v é 
52
um autovetor de A . Qual é o autovalor associado? Quantos 
autovalores nulos podemos encontrar?
Seja c) 
3 [1 1 1]
3
Tv = - . Ache os autovalores da matriz 
TA vv= e os autovetores correspondentes.
9) Seja A uma matriz quadrada e seja B A I= + , em que I é a 
matriz identidade e  um escalar. Qual a relação entre os autova-
lores de A e de B ? Explique.
10) Seja A uma matriz quadrada. Mostre que A e TA têm o 
mesmo polinômio característico e, logo, os mesmos autovalores. 
Podemos concluir que A e TA têm os mesmos subespaços pró-
prios?
11) Seja 2 2:T ℜ →ℜ , ( , ) ( 12 19 ,7 11 )T x y x y x y= - - + . Mostre que 
T não tem autovalores em ℜ . Determine os autovalores comple-
xos de T e autovetores correspondentes.
12) Ache a transformação linear 2 2:T ℜ →ℜ , tal que T tenha 
autovalores -2 e 3 respectivamente associados aos autovetores 
(3 , )y y e ( 2 , )y y- .
13) Seja :T V V→ um operador linear. Assim: a) Se 0 = é au-
tovalor de T , mostre que T não é injetora; b) A recíproca é ver-
dadeira?
14) Seja S o subespaço das funções reais gerado pelas funções 
2 ( )xe sen x , 2 cos ( )xe x , 2xe , e considere o operador linear :D S S→ 
definido por ( )D f f ′= . Determine:
A matriz de a) D em relação à base 
2 2 2{ ( ) , cos ( ) , }x x xe sen x e x e = de S .
Os autovalores de b) D e as funções de S que são autovetores 
de D .
53
2.3 Operadores diagonalizáveis
O objetivo desta Seção é procurar condições sob as quais a matriz 
de um operador linear é uma matriz diagonal. Mais especifica-
mente, se :T V V→ é um operador linear, procuramos condições 
sobre T para que exista uma base  de V tal que a matriz [ ]T  
seja diagonal. 
Definição: Seja V um espaço vetorial real de dimensão finita e 
:T V V→ um operador linear. Dizemos que T é um operador 
diagonalizável se existe uma base  de V tal que a matriz [ ]T  é 
diagonal.
Observe que, se conseguirmos uma base de autovetores de T , 
1{ , , }nv v =  , então a partir do conjunto de equações
1 1 1 2
2 1 2 2
1 2
( ) 0 0
( ) 0 0
( ) 0 0
n
n
n n n
T v v v v
T v v v v
T v v v v



= + + +
= + + +
= + + +




temos que a matriz [ ]T  é uma matriz diagonal com os autovalo-
res j na diagonal principal:
1
2
0 0
0 0
[ ]
0 0 n
T 



 
 
 =  
 
 


   

.
Note que, independentemente dos autovalores serem distintos 
ou não, a única exigência imposta para que [ ]T  seja diagonal 
é a de que os autovetores do operador formem um base de V . 
Dito de outra forma, para cada autovalor  com multiplicidade 
algébrica s (ou seja, ( )sx - é um fator do polinômio característi-
co ( )p x ), deve existir um conjunto de s autovetores linearmente 
independentes a ele associados. Reciprocamente, se a matriz [ ]T  
é diagonal e  é uma base formada por vetores 1, , nu u , então 
é fácil ver que esses vetores são necessariamente autovetores de 
T . Deixamos os detalhes da prova dessa afirmação como um 
exercício para você, leitor. 
54
Outro resultado importante que descreve condições sob as quais 
um operador linear é diagonalizável ocorre através do polinômio 
minimal. 
Proposição: Seja  uma base de um espaço vetorial de V de 
dimensão finita e ( , )T L V V∈ . Dessa maneira T será diagonalizá-
vel se e somente se o polinômio minimal ( )pm  não tiver raízes 
repetidas.
A prova dessa proposição precisa da decomposição de um espa-
ço vetorial em soma direta de subespaços. Detalhes dessa prova 
podem ser vistos em Hoffman e Kunze (1970). Outro resultado 
que caracteriza um operador linear diagonalizável é a proposi-
ção a seguir.
Proposição: Considerando 1 2,, , r   os autovalores distintos 
de um operador linear ( , )T L V V∈ , e 
1 2
, ,
r
V V V   os espaços pró-
prios correspondentes, as seguintes sentenças são equivalentes:
Ta) é diagonalizável;
Se o polinômio característico de b) T , ( )p x , satisfaz 
( ) ( ) ( )jmjp x x q x= - , com ( ) 0jq  ≠ , então dim ( )j jV m = ;
1 2 r
V V V V  = ⊕ ⊕ ⊕c) ;
1
dim ( ) dim ( )
r
V V + +d) .
Uma conseqüência importante do item b é que se a multiplicida-
de algébrica de um autovalor difere da dimensão do subespaço 
próprio correspondente, então o operador linear é não diagonali-
zável. Para ilustrarmos esse ponto, assuma que a matriz na base 
canônica de um operador linear T em 3ℜ é: 
1 3 4
4 0 4
3 4 0
A
- - 
 = -  - 
, 
então o polinômio característico de A é 2( ) ( 3) ( 2)p x x x= - - + e, 
assim, os autovalores da matriz são 1 3 = com multiplicidade 1, e 
2 2 = - com multiplicidade 2 (verifique!). Para aplicarmos o item 
b, devemos calcular as dimensões dos espaços próprios 
1
V e 2V . 
Para tanto, vale a pena observar que se  é um autovalor de A , 
então V é o subespaço gerado pelas soluções do sistema homogê-
55
neo de equações lineares ( ) 0A I x- = , ou equivalentemente, V 
é o subespaço nulo de A I- . Isto é:
( ) { / ( ) 0}nV N A I x A I x  = - = ∈ℜ - = .
Feita essa observação, temos:
1
( 3 )V N A I = -1) e 1dim ( ) dim ( ( 3 )) 1V N A I = - = , pois 1 tem 
multiplicidade 1.
2
( 2 )V N A I = +2) com 
1 3 4
2 4 2 4
3 4 2
A I
- 
 + = -  - 
. Como 2A I+
tem posto 2 (existem duas colunas LI), segue que 
2
dim ( ) dim ( ( 2 )) 3 2 1V N A I = + = - = . Logo, como a multipli-
cidade do autovalor 2 é 2 e a dimensão do subespaço pró-
prio 
2
V é 1, baseado no item b concluímos que o operador 
linear não é diagonalizável (observe que a mesma conclusão 
pode ser feita a partir do item (d)). 
Exemplo 11: Seja 3 3:T ℜ →ℜ o operador linear cuja matriz em re-
lação à base canônica é 
14 72 60
9 40 30
6 24 16
A
- - 
 = - -  - - 
. Procedendo na ma-
neira usual podemos ver que o polinômio característico da matriz 
A é 2( ) ( 2) ( 4)p x x x= - - - (verifique!), e que os autovalores dis-
tintos são 1 2 = com multiplicidade 1, e 2 4 = com multiplicida-
de 2. Com relação a 
1
V não há nada a ser analisado, pois 1 é um 
autovalor simples. Analisemosentão 
2
V . Com efeito, nesse caso 
temos que 2
18 72 60
9 36 30
6 24 20
A I
- - 
 - = - -  - - 
. Como a segunda linha des-
sa matriz é 1/2 vezes a primeira e a terceira linha é 1/3 vezes a 
primeira, o posto de 2A I- é 1, portanto 2( ) 3 1 2N A I- = - = e 
2
V , o espaço próprio associado a 2 , tem dimensão 2. Resolven-
do o sistema homogêneo 2( ) 0A I x- = , se [ , , ]Tx a b c= , verifica-
se facilmente que 
2
3 1
2 3{ / }
xV x x bv cv = ∈ℜ = + , em que b e c são 
reais arbitrários, com pelo menos um deles não-nulo, 2 [4,1,0]
Tv = , 
e 3 [ 10 / 3,0,1]
Tv = - . Isto é, 
2
V é gerado pelos vetores 2v e 3v . As-
Você saberia 
responder por que esta 
afirmação é válida?
56
sim, como a dimensão do subespaço 
2
V é igual à multiplicidade 
algébrica do autovalor 2 , usando o item b da proposição con-
cluímos que o operador T é diagonalizável. Observe que, se 1v 
denota o autovetor associado ao autovalor 1 , então 1 2 3{ , , }v v v = 
é uma base do espaço 3ℜ (verifique!), e a matriz do operador T 
nessa base é a matriz diagonal
 
2 0 0
[ ] 0 4 0
0 0 4
T 
 
 =    
.
Observação: Como os autovalores e autovetores de uma matriz 
real A n n× são, por definição, os autovalores e autovetores do 
operador linear : n nAT ℜ →ℜ , ( )AT x Ax= , dizemos que a matriz 
A é diagonalizável se o operador AT for diagonalizável.
Exercício
15) Decida se as matrizes são ou não diagonalizáveis. Em caso 
afirmativo, calcule uma base de autovetores
a) 
3 1
1 3
A  =  - 
 b) 
2 4
4 2
B  =  
 
 
c) 
4 1
1 2
C
- =  
 
 d) 
0 4
3 7
D
- =  
 
16) Mostre que a matriz 6 3( )
2( ) 6
A
   
   
- + - =  - - 
, , ∈ℜ , é 
diagonalizável. 
17) Seja a bA
c d
 =  
 
, a d≠ . Mostre que A é diagonalizável se e 
somente se 2( ) 4 0a d bc- - ≠ .
18) Em cada uma das seguintes matrizes a seguir, use a fatora-
ção 1A P P-= Λ para calcular 6A :
57
a) 
5 6
2 2
A  =  - 
 b) 
2 2 1
0 1 2
0 0 1
A
 
 =   - 
 c) 
2 8
1 4
A
- =  - 
19) Seja A uma matriz diagonalizável cujos autovalores são 1 
ou 1- . Mostre que 1A A- = .
20) Mostre que qualquer matriz da forma 
1 0
0 1
0 0
a
a
b
 
 
   
 não é 
diagonalizável.
21) Determine todos os valores de a , b , e c para os quais a 
matriz a seguir seja diagonalizável:
1
0 0
0 0 1
a b
A c
 
 =    
.
22) Seja 1{ , , }nu u uma base ortonormal para 1n×ℜ e sejam 
1, , n  escalares. Defina 1 1 1 1T Tn nA u u u u = + + . Mostre que 
A é uma matriz simétrica com autovalores 1, , n  e que ju é 
um autovetor associado a j para cada j . Podemos concluir que 
A é diagonalizável?
23) Seja :T V V→ um operador linear. Assuma que V é de 
dimensão finita e que o operador satisfaz 2T T= . Prove que T é 
diagonalizável.
24) Sejam x e y vetores não-nulos em 1n×ℜ , 2n ≥ , e seja 
TA xy= . Mostre que:
Zero é um autovalor de a) A com 1n - autovetores linearmen-
te independentes e, portanto, tem multiplicidade algébrica 
pelo menos igual a 1n - ;
O outro autovalor de b) A é ( ) Tn tr A x y = = e x é um autove-
tor associado a n ;
Se c) 0n ≠ , então A é diagonalizável.
58
2.4 Matrizes hermitianas 
O objetivo desta seção é estudar matrizes com entradas comple-
xas e considerar os análogos complexos de matrizes simétricas 
e ortogonais. Para tanto, a noção de produto interno dada no 
capítulo anterior deve ser estendida para incluir espaços veto-
riais complexos. Lembramos que, para cada número complexo 
z a ib= + , com a e b reais, e 1i = - (a unidade complexa imagi-
nária), tem-se o conjugado complexo z a ib= - , e que o módulo 
de z é 2 2| |z a b= + . Uma notação análoga pode ser usada para 
matrizes. Se A é uma matriz com entradas complexas, então A 
é a matriz formada tomando-se o complexo conjugado de cada 
elemento de A . Nesse sentido, a propriedade do conjugado do 
produto de dois números complexos, 1 2 1 2z z z z= , estende-se fa-
cilmente para o produto de matrizes complexas. Se A e B são 
matrizes com dimensões apropriadas tais que o produto AB é 
possível, então AB AB= .
Definição: Seja V um espaço vetorial complexo. Um produto in-
terno em V é uma função , :V V× → que satisfaça:
( ) , 0v V v v∀ ∈ ≥a) e , 0 0v v v= ⇔ = ;
( , ) , ,v w V v w w v∀ ∈ =b) ;
( , , ' ) ( ) , ' , , 'v w w V k v kw w k v w v w∀ ∈ ∀ ∈ + = +c) . 
Note que, diferentemente de um produto interno em espaços ve-
toriais reais, o produto interno complexo não é simétrico (itens 
(b) e (c)). Levando em conta essa observação, as propriedades 
descritas no capítulo anterior, válidas para o produto interno em 
espaços vetoriais reais, serão válidas também para produtos in-
ternos complexos. Em particular, se 1nV ×=  , o produto interno 
usual de dois vetores 1[ , , ]
T
nv v v=  , 1[ , , ]
T
nw w w=  em 
1n×
 , é 
definido por
1 1,
H
n nv w v w v w w v= + + =
e a norma induzida é 
2 2
1|| || | | | |
H
nv v v v v= + + = .
Como um exemplo, sejam 
1
2
v
i
 =  - 
 e 
1
i
w  =  
 
. Assim: 
59
, 1 (2 ) 1 (2 ) 2 2v w i i i i i= ⋅ + - ⋅ = - + - = - , , 2 2v w i= +
(veja o item 2 da definição de produto interno),
2 2|| || |1| | 2 | 1 5 6v i= + - = + = , e 
2 2|| || | | |1| 1 1 2w i= + = + = . 
Baseado no conceito de produto interno, as noções de ângulo, or-
togonalidade, base ortogonal etc, podem ser generalizados sem 
dificuldades para o caso complexo. 
Lembramos que, se A é uma matriz complexa, HA , chamada de 
hermitiana de A , é a transposta da conjugada complexa de A , 
isto é, 
THA A= . 
Proposição: A transposta hermitiana de uma matriz tem as se-
guintes propriedades:
( )H HA A=a) ;
( )H H HAB B A=b) ;
( )H H HA B A B   + = +c) ;
, ,Hu Av A u v=d) , em que , é produto interno usual em 1n× .
Prova: A prova dos itens (a), (b) e (c) é análoga à prova das proprie-
dades da transposta de uma matriz real e fica como um exercício 
para você, leitor. Vejamos a prova do item (d). Usando a definição 
do produto interno complexo usual e os itens (a) e (b) temos:
, ( ) ( ) ( ) ,H H H H HAv u u Av u A v A u v v A u= = = = .
Definição: Uma matriz complexa A é dita hermitiana se HA A= .
Para exemplificar, como 
3 5 2
5 2 2
i
A
i
- + =  - 
 satisfaz 
3 (5 2 )
(5 2 ) 2
H iA A
i
 - -
= =  + 
, então A é hermitiana. Note que a 
mesma conclusão vale para 
2 1
1 5
B
- =  - 
, pois B é real e simétri-
ca e, nesse caso, vale trivialmente HB B= . Esse exemplo mostra 
60
que podemos considerar matrizes hermitianas como o análogo 
complexo de matrizes simétricas. 
Proposição: Os autovalores de uma matriz hermitiana são reais e 
os autovetores associados a autovalores distintos são ortogonais.
Prova: Seja  um autovalor de A e v um autovetor associado. 
Multiplicando previamente Av v= por Hv temos H Hv Av v v= . 
Pela proposição anterior e o fato de que v é autovetor de A temos 
( ) ( ) ( )H H H H H Hv Av A v v Av v v v v v = = = = . Logo, H Hv v v v = . 
Como 0Hv v > ,  = e  deve ser real. Isso prova a primeira parte 
da proposição. Se 1v e 2v são autovetores associados a autovalores 
distintos 1 e 2 , respectivamente, então
2 1 2 1 2 1 2 1 2 1 1 2 1 1 2( ) ( ) ( )
H H H H H H Hv v v Av A v v Av v v v v v  = = = = = ,
e, assim, 1 2 1 2( ) 0
Hv v - = . Como 1 e 2 são distintos, temos 
que 1 2 0
Hv v = , como queríamos provar.
Definição: Uma matriz complexa U n n× é dita unitária se 
H HU U UU I= = . Note que, a partir da definição, decorre que as 
colunas de uma matrizunitária formam uma base ortonormal 
para o espaço 1n× . A prova fica como exercício para você, leitor.
Exemplo 12: A matriz 
1 11
1 12
i i
U
i i
+ - + =  + - 
 é unitária. Como exer-
cício, basta verificar a definição.
Exercício: Se U é unitária, mostre que U é inversível e que a in-
versa de U satisfaz 1 HU U- = .
Proposição: As seguintes sentenças são verdadeiras:
Se a) P e Q são unitárias, o mesmo acontece com o produto PQ;
Se b)  é um autovalor de uma matriz unitária U , então | | 1 = ;
Se c) U é unitária, então para todos os vetores u e v em 1n× 
temos , ,Uu Uv u v= , || || || ||Uu u= .
A prova dos itens (a), (b) e (c) decorre imediatamente da definição 
e fica como exercício para você, leitor.
61
2.5 Transformações unitárias e forma 
canônica de Schur 
Vimos que uma matriz quadrada B é obtida de A por meio de 
uma transformação de semelhança, se existe uma matriz não-sin-
gular P tal que 1B P AP-= . Nesta seção consideraremos transfor-
mações de semelhança induzidas por matrizes unitárias. Lembra-
mos que, se P é unitária, então 1 HP P- = . Nesse caso, HB P AP= 
é dita como unitariamente equivalente a A . Procuraremos matri-
zes unitárias que produzam matrizes unitariamente equivalentes 
da forma mais simples possível.
Proposição (Decomposição de Schur): Qualquer matriz quadra-
da A n n× pode ser reduzida por uma transformação unitária 
Q a uma matriz Τ triangular superior com os autovalores de A 
sobre a diagonal de Τ . A matriz Τ é chamada forma canônica de 
Schur e a decomposição HA Q Q= Τ é chamada uma decomposição 
de Schur de A .
Prova: Seja 1 um autovalor de A com autovetor correspondente 
1v normalizado, de modo que 1 1, 1v v〈 〉 = , em que ,〈 〉 é o produto 
interno usual em n . Usando teoremas bem conhecidos, pode-
mos encontrar vetores 2 , , nw w tais que os vetores 1 2, , , nv w w
formem uma base ortonormal em n , ou seja, tais que a matriz 
1 2 1[ , , , ] [ , ]nP v w w v W= = é unitária. Logo, levando em conta 
que 1 0
HW v = , 10 n-∈ℜ , e que 1 1 1Av v= , temos (desenvolvendo 
multiplicação matricial em blocos) que
1 1 1 1 1
1 1 1[ , ] [ , ] 0 0
H H H H
H
HH H
v v v AW b
P AP A v W v AW
W AW CW W
 
       
= = = =       
          
1 1 1 1 1
1 1 1[ , ] [ , ] 0 0
H H H H
H
HH H
v v v AW b
P AP A v W v AW
W AW CW W
 
       
= = = =       
          
.
Se 2n = a proposição é verdadeira, pois, tomando Q P= , HQ AQ 
já está sob a forma exigida. Prosseguiremos a prova por indução. 
Suponha, agora, que a proposição é verdadeira para 1n - . Assim, 
existe uma matriz unitária U de ordem 1n - tal que 1
HU CU = Τ 
é triangular superior. Note agora que a matriz 
1 0
0
V
U
 =  
 
 satis-
faz a propriedade
62
1 0 1 0
0 0
H
HV V IU U
   = =   
   
e, portanto, V também é unitária. Usando essa matriz vemos que 
11 1
1
1 0 1 0
( )
0 0 00 0
HH H
H H
H H
b Ub b U
V P AP V
U UC U CU
         = = = = Τ        Τ        
11 1
1
1 0 1 0
( )
0 0 00 0
HH H
H H
H H
b Ub b U
V P AP V
U UC U CU
         = = = = Τ        Τ        
,
em que Τ é triangular superior. A igualdade acima pode ser es-
crita como HQ AQ T= com Q PV= , e a prova da proposição, 
no que diz respeito à triangularização, decorre do fato de que Q 
é unitária porque P e V são unitárias. Finalmente, como A e Τ 
têm os mesmos autovalores ( A e Τ são semelhantes), e como 
os elementos da diagonal principal de Τ são seus autovalores, a 
proposição está provada.
Na prática, pode ser difícil achar a decomposição de Schur, pois 
ela exige o conhecimento de autovalores e autovetores da matriz. 
Mesmo assim, ela pode ser determinada seguindo o procedimen-
to descrito na prova da proposição.
Exemplo 13: Considere a matriz 
8 2 1
1 7 3
1 1 6
A
 
 =    
. O polinômio carac-
terístico de A é det ( ) ( 6) ( 5) ( 10)A I   - = - - - - . Ao autovalor 
6 = corresponde o autovetor normalizado 2 [1 1 0]
2
Tv = - . 
Usando o vetor v como primeira coluna de uma matriz unitária 
P e considerando as outras colunas na forma mais simples possí-
vel como, por exemplo,
2 2 0
2 2
2 2 0
2 2
0 0 1
P
 
 
 
 
= - 
 
 
   
, temos que 1
6 1 2
0 9 2 2
0 2 6
HA P AP
 -
 
= =  
   
. 
63
Consideremos a seguir a submatriz 2 2× de 1A definida por
1
9 2 2
2 6
B
 
=    
 (veja a prova da proposição). Os autovalores de 
1B são, obviamente, 10 e 5. O autovetor normalizado associado 
ao autovalor 10 = é 1 [ 2 2 1]
3
t . Usando esse vetor como pri-
meira coluna de uma matriz unitária 2 2× como, por exemplo, 
2 2 1
3 3
1 2 2
3 3
 
 
 
 
-  
, podemos formar uma segunda matriz unitária 
3 3× definida por 
1 0 0
2 2 10
3 3
1 2 20
3 3
V
 
 
 
 =  
 
 -  
. Aplicando essa matriz 
a 1A obtemos 
 
, que é a forma de Schur 
desejada.
Note que, se tivéssemos iniciado a construção da forma de Schur 
com um autovetor associado a outro autovalor, teríamos obtido 
outra forma de Schur. Disso conclui-se que não existe uma única 
forma de Schur para uma matriz.
Proposição (Teorema Espectral): Se A é hermitiana, então existe 
uma matriz unitária Q que diagonaliza A .
Prova: Pela decomposição de Schur, existe uma matriz unitária Q 
tal que HQ AQ T= , com T triangular superior. Usando as proprie-
dades da transposição seguida de conjugação complexa e o fato de 
que a matriz A é hermitiana, temos que
( )H H H H H HT Q AQ Q A Q Q AQ T= = = = ,
isto é, T é hermitiana, mas, como T é triangular superior, ela tem 
que ser diagonal (prove este fato: se T é triangular superior e T é 
hermitiana, então T é diagonal).
64
Quando a matriz A é real e simétrica, seus autovalores e autove-
tores são reais. Assim, a matriz diagonalizante deve ser ortogo-
nal.
Corolário: Se A é real e simétrica, então existe uma matriz orto-
gonal Q tal que TQ AQ = Λ .
Pelo teorema espectral , toda matriz hermitiana A pode ser fato-
rada na forma HA Q Q= Λ , com Λ diagonal, os elementos diago-
nais em Λ como os autovalores de A e as colunas de Q como os 
autovetores de A . Por conseguinte, A é diagonalizável e tem um 
conjunto de autovetores que formam uma base ortonormal para 
1n×
 . Existem, entretanto, matrizes não-hermitianas que também 
possuem uma base de autovetores ortonormais. Elas pertencem à 
classe especial de matrizes conhecidas como matrizes normais.
Definição: Uma matriz quadrada é dita normal se H HAA A A= .
É obvio que toda matriz hermitiana é normal, pois, certamente, se 
A é normal, então H HAA AA A A= = . Na verdade, além das ma-
trizes hermitianas, as matrizes normais também incluem as ma-
trizes reais simétricas e as matrizes anti-simétricas, entre outras. 
Proposição: Uma matriz A n n× é normal (por exemplo: real 
simétrica, anti-simétrica, hermitiana, unitária) se e somente se A 
tem um conjunto de n autovetores ortonormais. 
Prova: Suponha que existe uma matriz de autovetores ortonormais 
1[ , , ]nQ q q=  , em que Q diagonaliza A , isto é, 
HA Q Q= Λ , e
( ) ( )H H H H H HA A Q Q Q Q Q Q= Λ Λ = Λ Λ , 
( ) ( )H H H H H HAA Q Q Q Q Q Q= Λ Λ = ΛΛ .
Como H HΛ Λ = ΛΛ , pois matrizes diagonais comutam, segue que 
H HAA A A= e, portanto, A é normal. Reciprocamente, suponha 
que A é normal. Pelo teorema de Schur, existe uma matriz unitária 
Q e uma matriz triangular superior Τ tais que HQ AQΤ = . Vamos 
mostrar que Τ é normal. Com efeito, temos
H H H H H HT T Q AQQ AQ Q A AQ= = , e 
H H H H H HTT Q AQQ A Q Q AA Q= = .
65
Como H HAA A A= , pois A é normal, segue que H HT T TT= . 
Comparando os elementos diagonais de HT T e HTT , vemos que
2 2 2 2 2
11 12 13 1 11
2 2 2 2 2
22 23 2 12 22
2 2 2 2
2 3
| | | | | | | | | |
| | | | | | | | | |
| | | | | | | |
n
n
nn n n nn
t t t t t
t t t t t
t t t t
+ + + + =
+ + + = +
= + + +


 

Daí decorre que 0ijt = sempre que i j≠ e, assim, Τ é diagonal. 
Logo, os elementos diagonais de Τ são autovalores de A e as 
colunas de Q são os autovetores correspondentes. Com isso, a 
proposição está provada.
Antes de encerrar o capítulo, lembremos o parágrafo final do capí-
tulo anterior. Nesse parágrafo vimos que, como condição necessá-
ria e suficiente para que uma matriz A seja matriz de um produto 
interno em relação a uma base, a matriz A deve ser simétrica 
e satisfazer a desigualdade 0Tx Ax > para todo vetor coluna x , 
0x ≠ . Foi antecipado que essas matrizes são ditas definidas po-
sitivas. Encerraremos o capítulo descrevendo a definição formal 
dessas matrizes bem como um resumo das propriedades mais 
importantes sobre o assunto.
Definição: Uma matriz hermitiana A é dita definida positiva se 
e somente se 0Hx Ax > para todo vetor coluna x , 0x ≠ .
Como um exemplo, considere a matriz 
2
3
i
A
i
 =  - 
. Vamos pro-
var que A é definida positiva. De fato, seja 1 2[ ]
Tx x x= um vetor 
coluna em 2 1× , então:
2 21 1 2
1 2 1 2 1 1 2 2 1 2
2 1 2
22
2 3
33
H x x ixix Ax x x x x x ix x ix x x
x ix xi
+       = = = + - +         - +-     
2 21 1 2
1 2 1 2 1 1 2 2 1 2
2 1 2
22
2 3
33
H x x ixix Ax x x x x x ix x ix x x
x ix xi
+       = = = + - +         - +-     
.
Para continuar nossa prova, precisamos lembrar que, para todo 
complexo Re( ) Im ( )z a ib z i z= + = + , vale:
2 Im ( )z z i z- =a) , e
Im ( ) | |z z≤b) .
66
Usando a expressão do item (a) temos que
1 2 2 1 1 2 1 2 1 2( ) 2 Im ( )ix x ix x i x x x x x x- = - = - ,
e, pelo item (b): 
1 2 2 1 1 22 | | | |ix x ix x x x- ≥ - .
Usando essa desigualdade junto à expressão encontrada acima 
para Hx Ax , temos que:
2 2
1 1 2 2 1 2
2 2
1 1 2 2
2 2 2 2
1 1 2 2 1 2
2 22
1 2 1 2
2 3
2 2 3
2 2
( ) 2 0.
Hx Ax x ix x ix x x
x x x x
x x x x x x
x x x x
= + - +
≥ - +
= - + + +
= - + + >
Isso prova que a matriz A é definida positiva.
Obviamente, quando A é simétrica real, na definição de matrizes 
definidas positivas a transposta hermitiana deve ser substituída 
pela transposta usual. 
Exemplo 14: Mostre que a matriz a seguir é definida positiva:
2 1 0
1 2 1
0 1 2
A
- 
 = - -  - 
.
Demonstração: Para todo vetor coluna x em 3 1×ℜ temos:
1
1 2 3 2
3
1 2
1 2 3 1 2 3
2 3
2 2 2
1 1 2 2 3 2 3
2 2 2 2
1 2 2 3 1 3
2 1 0
[ ] 1 2 1
0 1 2
2
[ ] 2
2
2 2 2 2 2
( ) ( ) .
T
x
x Ax x x x x
x
x x
x x x x x x
x x
x x x x x x x
x x x x x x
-   
   = - -      -   
- 
 = - + - 
 - + 
= - - + +
= - + - + +
Como essa expressão nunca é igual a zero se x é não-nulo, con-
cluímos que a matriz A é definida positiva.
67
Matrizes definidas positivas têm as seguintes propriedades:
Os autovalores de uma matriz definida positiva são positivos;a) 
As entradas da diagonal principal de uma matriz definida b) 
positiva são positivas;
Todas as submatrizes principais c) 1, , nA A têm determinante 
positivo (lembre que a submatriz principal kA é a matriz 
k k× obtida tomando-se os elementos da matriz A da linha 
1 até a linha k e da coluna 1 até a coluna k ).
Essas propriedades são simples de se provar. As provas ficam 
como exercício para você, leitor.
Exercícios
25) Seja A uma matriz unitária. Mostre que:
Aa) é normal
Se b)  é um autovalor de A , então | | 1 = .
26) Seja 1 1
3 2
A
i i
 =  + 
. Mostre que A é uma matriz normal e 
encontre uma matriz P tal que HP AP seja diagonal.
27) Quais das matrizes a seguir são hermitianas? Quais são 
normais?
a)
1 2
2 3
i
A
- =  
 
 b) 
1 2
2 1
i
B
i
- =  + - 
 c) 
1 1
2 2
1 1
2 2
C
 - 
 =
 
  
28) Uma matriz hermitiana A é dita definida negativa se 
0Hx Ax < para todo vetor coluna x , 0x ≠ . Se Hx Ax muda de sinal, 
A é dita indefinida. Quais das matrizes a seguir são definidas 
positivas? Quais são definidas negativas? Quais são indefinidas?
a) 
2 0 1
0 1 0
1 0 2
A
- 
 = -  - 
 b) 
1 2 1
2 1 1
1 1 2
A
 
 =    
 c) 
2 0 0
0 5 3
0 3 5
A
 
 =    
68
29) Seja B uma matriz m n× de posto n . Mostre que TA B B= 
é definida positiva.
30) Se A é inversível e simétrica, mostre que 2A é definida 
positiva.
31) Seja A uma matriz definida positiva. Para cada par de ve-
tores coluna x , y , defina , Hx y x Ay= . Mostre que a operação , 
define um produto interno em n .
32) Seja A uma matriz n n× hermitiana com autovalo-
res 1, , n  e autovetores ortonormais 1, . nq q . Mostre que
1 1 1 2 2 2
H H H
n n nA q q q q q q  = + + + . Aplique esse resultado à ma-
triz 
0 5
5 0
 
 
 
.
33) Mostre que os elementos diagonais de uma matriz hermi-
tiana são reais.
34) Mostre que a matriz 1 4
1 1
A
- =  
 
 é normal mas não é si-
métrica, anti-simétrica nem unitária. Ache os autovalores e um 
conjunto ortonormal de dois autovetores de A .
35) Se A , B são matrizes hermitianas, mostre que AB é her-
mitiana se e somente se AB BA= .
36) Uma matriz quadrada complexa A é dita anti-hermitiana 
se HA A= - . Mostre que matrizes anti-hermitianas são normais.
37) Mostre que C A iB= + (com A e B como matrizes reais) é 
anti-hermitiana se e somente A é anti-simétrica e B é simétrica.
38) Seja 
4 0 0
0 1
0 1
A i
i
 
 =   - 
. Ache uma matriz B tal que HB B A= . 
69
Resumo
Neste capítulo, dado um operador linear em um espaço vetorial 
real V , :T V V→ , estudamos o problema de encontrar escalares 
 e vetores não-nulos v em V tais que Tv v= , o problema de 
autovalores. O escalar  em questão, quando existe, é dito auto-
valor de T , e o vetor v é chamado de autovetor de T associado 
a  . Vimos que se V é de dimensão finita e  é uma base de V , 
então o problema de autovalores se reduz a a) achar as raízes de 
uma equação polinomial associada à matriz [ ]T  , e b) resolver 
um sistema homogêneo do tipo ([ ] ) 0T I v - = . Do ponto de 
vista operacional, mostramos que o efeito do operador sobre um 
vetor v é determinado mais facilmente quando v é uma combi-
nação linear de autovetores, e que a matriz [ ]T  torna-se diagonal 
quando o operador admite uma base de autovetores, um caso im-
portante que nos levou ao conceito de diagonalização. Na última 
parte do capítulo estudou-se a forma canônica de Schur e pro-
priedades de autovalores e autovetores de matrizes que aparecem 
em aplicações práticas tais como matrizes hermitianas, normais, 
unitárias, definidas positivas etc.
Bibliografia Comentada
BOLDRINI, José L.; COSTA, Sueli I. Rodrigues; FIGUEIREDO, Vera L.; 
WETZLER, Henry G. Álgebra Linear. 3ª ed. São Paulo: HARBRA, 1996.
Livro bem escrito, com enfoque didático, com muitos exercícios 
resolvidos e uma boa quantidade de exercícios propostos. É um 
livro que serve bem como apoio no estudo da Álgebra Linear.
COELHO, Flávio U.; LOURENÇO, Mary L. Um Curso de Álgebra 
Linear. São Paulo: USP, 2005.
Excelente fonte de consulta, com tratamento clássico. Ele 
apresenta demonstrações rigorosas de quase todos os tópicosabordados. A maioria dos exercícios não é fácil. Esse é um livro 
que pode servir como fonte de consulta permanente e que fica 
bem em uma biblioteca particular de Matemática.
70
NOBLE, Bem; DANIEL, James W. Álgebra Linear Aplicada. 3ª ed. Rio 
de Janeiro: Prentice-Hall do Brasil, 1998.
Esse é um livro que aborda a Álgebra Linear visando aplicações, 
e é interessante para você, leitor que deseja se inserir no mundo 
tecnológico. Muitas aplicações envolvendo autovalores bem como 
a análise das dificuldades de ordem prática encontradas nessas 
aplicações são abordadas aí.
3 Formas Multilineares
73
3 Formas Multilineares
Neste capítulo iremos identificar cônicas, cuja equa-
ção cartesiana geral é 2 2 0ax bxy cy dx ey f+ + + + + = , 
via autovalores da matriz associada à forma quadráti-
ca 2 2( , )q x y ax bxy cy= + + . Também, introduziremos, de 
modo rigoroso, o conceito de determinante de uma matriz 
e o estenderemos a fim de se definir o determinante de um 
operador em um espaço vetorial de dimensão finita.
Apresentaremos o conceito introdutório de formas multi-
lineares, as quais são funções de nV em ℜ (em que V é 
um espaço vetorial real) e possuem a propriedade de ser 
funcionais lineares em relação a qualquer entrada do pro-
duto cartesiano, quando fixadas as outras 1n − entradas. 
As propriedades dessas funções podem ser bem compreen-
didas estudando-se o caso 2n = : as formas bilineares.
3.1 Formas bilineares
Definição: Seja V um espaço vetorial real. Seja 2:f V →ℜ uma 
função que satisfaz as seguintes propriedades:
( , , ) ( ) (( , )) (( , )) (( , ))u v w V f u w v f u v f w v  ∀ ∈ ∀ ∈ℜ + = +a) 
( , , ) ( ) (( , )) (( , )) (( , ))u v w V f u v w f u v f u w  ∀ ∈ ∀ ∈ℜ + = +b) 
Nesse caso, f é dita uma forma bilinear real em V .
Exemplo 1: Seja 2V =ℜ . Seja 2 2:f ℜ ×ℜ →ℜ a função definida por 
1 2 1 2 1 2 2 1(( , ) , ( , ))f x x y y x y x y= − .
Afirmamos que f é uma forma bilinear em 2ℜ , pois:
1 2 1 2 1 2 1 1 2 2 1 2(( ( , ) ( , ) , ( , )) (( , ) , ( , ))f x x z z y y f x z x z y y  + = + + =a) 
1 1 2 2 2 1 1 2 2 1 1 2 2 1( ) ( ) ( )x z y x z y x y x y z y z y  = + − + = − + − =
1 2 1 2 1 2 1 2((( , ) , ( , ))) ((( , ) , ( , )))f x x y y f z z y y= + ;
74
1 2 1 2 1 2 1 2 1 1 2 2((( , ) , ( , ) ( , ))) ((( , ) , ( , )))f x x y y z z f x x y z y z  + = + + =b) 
1 2 2 2 1 1 1 2 2 1 1 2 2 1( ) ( ) ( )x y z x y z x y x y x z x z  = + − + = − + − =
1 2 1 2 1 2 1 2((( , ) , ( , ))) ((( , ) , ( , )))f x x y y f x x z z= + .
Exemplo 2: Seja V um espaço vetorial real. Seja 2, :V →ℜ um 
produto interno. Assim, , é uma forma bilinear real.
Note que, no exemplo 2, a forma bilinear satisfaz a seguinte pro-
priedade: ( , ) , ,v w V v w w v∀ ∈ = . Dizemos que uma forma bili-
near real que satisfaz essa propriedade é dita uma forma bilinear 
simétrica em V .
Exercício 1: Verificar se as funções a seguir são formas bilineares:
2 2:f ℜ ×ℜ →ℜa) dada por 2 21 2 1 2 1 1(( , ) , ( , ))f x x y y x y= + ;
2 2:f ℜ ×ℜ →ℜb) dada por 1 2 1 2 1 1(( , ) , ( , ))f x x y y x y= + ;
2 2:f ℜ ×ℜ →ℜc) dada por 1 2 1 2 1 2 1 2(( , ) , ( , ))f x x y y x x y y= + ;
2 2:f ℜ ×ℜ →ℜd) dada por 1 2 1 2 1 1 2(( , ) , ( , ))f x x y y x x y= + ;
2 2:f ℜ ×ℜ →ℜe) dada por 1 2 1 2 1 1 1 2(( , ) , ( , )) 4f x x y y x y x y= + ;
2 2:f ℜ ×ℜ →ℜf) dada por 
1 2 1 2 1 2 2 1 2 2(( , ) , ( , )) 4 2f x x y y x y x y x y= − + + ;
2 2:f ℜ ×ℜ →ℜg) dada por 
1 2 1 2 1 1 1 2 2 1 2 2(( , ) , ( , )) 3 4 2f x x y y x y x y x y x y= − − + + .
Seja V um espaço vetorial real de dimensão finita. Se-
jam 1{ , , }nv v =  e 1{ , , }nw w =  duas bases de V . Seja 
2:f V →ℜ uma forma bilinear. Considere dois vetores v 
e w de V : 1 1 n nv a v a v= + + e 1 1 n nw b w b w= + + , então 
, 1
( , ) ( , )
n
i j i j
i j
f v w a b f v w
=
= ∑ . Por definição, a matriz da forma bili-
near f em relação às bases  e  , denotada por [ ]f  , é a matriz 
tal que ,([ ] ) ( , )i j j if f v w

 = , para todos , 1,...,i j n= . Assim: 
1
1
, 1
( , ) ( , ) ( )[ ] ( ) [ ] ( )
n
T
i j i j n
i j
n
a
f v w a b f v w b b f w f v
a
 
   
=
 
 = = =   
∑   ,
75
em que ( )v  e ( )w  são respectivamente as coordenadas de v em 
relação à base  e as de w em relação à base  . Quando  = , 
escrevemos simplesmente [ ]f  para representar a matriz de f 
em relação à base  .
Exercício 2: Mostre que [ ] [ ] [ ]f I f   = , em que [ ]I

 é a matriz 
de transformação de base, da base  para a base  . Sugestão: 
suponha que, para todo 1:i n= , 1 1i i in nw a v a v= + + . Substitua 
essas expressões em ( , )j if v w e desenvolva os cálculos.
Exemplo 3: A matriz da forma bilinear f definida no Exem-
plo 1, em relação à base canônica do 2ℜ ( {(1,0) , (0,1)}can = ), é 
a matriz dada por 
0 1
[ ]
1 0can
f
− =  
 
, pois 1 1 2 2( , ) ( , ) 0f e e f e e= = , 
1 2( , ) 1f e e = − e 2 1( , ) 1f e e = . Realmente, você pode observar que 
1
1 2 1 2 2 1
2
0 1
( )
1 0
x
y y x y x y
x
−    = −  
   
. 
Agora, se tomarmos {(1,1) , (1, 1)} = − , temos que a matriz da for-
ma bilinear f em relação às bases can e  , nessa ordem, é a ma-
triz dada por 
1 1
[ ]
1 1
canf 
− =  − − 
. Observe que, nesse caso, temos 
que 1 2 1 21 2[( )] 2 2
y y y yy y 
+ − =   
, 1 1
2 2can
x x
x x
    =    
    
 e que
1 11 2 1 2
1 2 1 2 2 1
2 2
1 1
[( )] [ ]
1 12 2
can x xy y y yy y f x y x y
x x 

  −    + − = = −       − −       
1 11 2 1 2
1 2 1 2 2 1
2 2
1 1
[( )] [ ]
1 12 2
can x xy y y yy y f x y x y
x x 

  −    + − = = −       − −       
.
Exercício 3: Achar a matriz das formas bilineares a seguir em 
relação às bases  e  indicadas.
2 2:f ℜ ×ℜ →ℜa) tal que 1 2 1 2 1 1 1 2(( , ) , ( , )) 4f x x y y x y x y= + , 
canônica = = ;
2 2:f ℜ ×ℜ →ℜb) definida por 
1 2 1 2 1 2 2 1 2 2(( , ) , ( , )) 4 2f x x y y x y x y x y= − + + , 
{(1,1) , (1, 1)} = = − ;
76
2 2:f ℜ ×ℜ →ℜc) definida por 
1 2 1 2 1 1 1 2 2 1 2 2(( , ) , ( , )) 3 4 2f x x y y x y x y x y x y= − − + + , 
{(1,2) , (1, 1)} = = − ;
3 3:f ℜ ×ℜ →ℜd) dada por 
1 2 3 1 2 3 1 1 1 2 2 1 2 3(( , , ) , ( , , )) 2f x x x y y y x y x y x y x y= + − − , 
canônica = = .
3.1.1 Forma bilinear simétrica: forma quadrática associada 
Seja V um espaço vetorial real. Seja 2:f V →ℜ uma forma bili-
near. Já mencionamos que uma forma bilinear é simétrica se, para 
todos os vetores v e w de V , ( , ) ( , )f v w f w v= . Por exemplo: um 
produto interno é uma forma bilinear simétrica (já vimos que a 
recíproca não é verdadeira, observe os comentários feitos no final 
do Capítulo 1).
Exercício 4: Seja V um espaço vetorial real de dimensão finita. 
Seja 1{ , , }nv v =  uma base de V . Seja 2:f V →ℜ uma forma 
bilinear. Mostre que f é simétrica se e somente se [ ]f  é uma 
matriz simétrica.
Consideremos, então, que 2:f V →ℜ é uma forma bilinear simé-
trica. Definimos a forma quadrática associada a f como sendo a 
função :q V →ℜ tal que, para todo vetor v , ( ) ( , )q v f v v= .
Exemplo 4: Seja 2 2:f ℜ ×ℜ →ℜ a forma bilinear simétrica de-
finida por 1 2 1 2 1 1 1 2 2 1 2 2(( , ) , ( , )) 3 2f x x y y x y x y x y x y= − − − + . Dessa 
maneira, a forma quadrática associada a essa forma bilinear é 
2 2( , ) 3 2 2q x y x xy y= − − + .
Note que uma forma bilinear simétrica 2:f V →ℜ é um produto 
interno real se e somente se a forma quadrática associada a f é 
definida positiva, isto é, se, para todo vetor não-nulo v , ( ) 0q v > 
(calcule e mostre).
Exercício 5: Achar as formas quadráticas associadas às seguintes 
formas bilineares:2 2:f ℜ ×ℜ →ℜa) tal que 1 2 1 2 1 1 2 2(( , ) , ( , )) 4f x x y y x y x y= + ;
77
2 2:f ℜ ×ℜ →ℜb) tal que 
1 2 1 2 1 2 2 1 2 2(( , ) , ( , )) 4 4 2f x x y y x y x y x y= − + + ;
2 2:f ℜ ×ℜ →ℜc) tal que 
1 2 1 2 1 1 1 2 2 1 2 2(( , ) , ( , )) 3 3 2f x x y y x y x y x y x y= − − − + ;
3 3:f ℜ ×ℜ →ℜd) , tal que 
1 2 3 1 2 3 1 1 1 2 2 1 2 3 3 2 3 3(( , , ) , ( , , ))f x x x y y y x y x y x y x y x y x y= + + + + −
3 3:f ℜ ×ℜ →ℜe) , tal que 
1 2 3 1 2 3 1 1 1 2 2 1 2 3 3 2(( , , ) , ( , , )) 2 2 3 3f x x x y y y x y x y x y x y x y= − − + + .
3.2 Diagonalização de formas quadráticas
Seja V um espaço vetorial real de dimensão finita. Seja 
1{ , , }nv v =  uma base de V . Seja 2:f V →ℜ uma forma biline-
ar simétrica, e :q V →ℜ a sua forma quadrática associada. Des-
sa forma, dado um vetor v qualquer de V , ( ) ( ) [ ] ( )Tq v v f v  = , 
em que [ ]f  é uma matriz real simétrica. Pelo Teorema Espec-
tral existem, então, uma matriz ortogonal Q e uma matriz dia-
gonal D tais que [ ] Tf QDQ = . Por substituição na descrição 
matricial de q , temos ( ) ( ) ( ) ( ( ) ) ( )T T T T Tq v v QDQ v Q v DQ v   = = . 
Denotando ( )TQ v  por w , 1( )
T
nw w w=  , obtemos que 
2
1
( )
n
T
ii i
i
q v w Dw d w
=
= =∑ . Esta é a forma diagonal de q . Note que 
as colunas de Q formam um conjunto ortonormal de autovetores 
de [ ]f  : para cada 1:i n= , iQe é associado ao autovalor iid .
Exemplo 5: Considere 2 2:f ℜ ×ℜ →ℜ , a forma bilinear simétrica 
definida por 1 2 1 2 1 1 1 2 2 1 2 2(( , ) , ( , )) 3 2 2 2f x x y y x y x y x y x y= − − + . 
A forma quadrática associada é 2 2( , ) 3 2 2 2q x y x xy y= − + . 
Na forma matricial, em relação à base canônica do 2ℜ , 
3 2
( , ) ( )
2 2
x
q x y x y
y
 −  =     −   
. Os autovalores dessa matriz 
são 4 e 1. Um conjunto ortonormal de autovetores associados a 
eles é 6 3 3 63 3 3 3{( , ) , ( , )} = − . Em relação a essa base, a forma 
quadrática se escreve como 
6 3 6 3
3 3 3 3
3 6 3 6
3 3 3 3
3 2 4 0
( , ) ( ) ( )
0 12 2
x x
q x y x y x y
y y
 −    −     = = =            −−          
;
78
6 3 6 3
3 3 3 3
3 6 3 6
3 3 3 3
3 2 4 0
( , ) ( ) ( )
0 12 2
x x
q x y x y x y
y y
 −    −     = = =            −−          
2 24 0( ) 4
0 1
z
z w z w
w
   = = +   
   
,
em que 
6 3
3 3
3 6
3 3
z x x
w y y 
 −     = =      
      
. 
Proposição: Seja V um espaço vetorial real de dimensão finita n . 
Seja 2:f V →ℜ uma forma bilinear simétrica. Seja  uma base 
de V . Assim, f é um produto interno real se e somente se [ ]f  é 
uma matriz simétrica definida positiva. 
Prova: Seja q a forma quadrática associada a f . Suponha que a 
forma diagonal de q escreve-se como 2
1
( )
n
T
ii i
i
q v w Dw d w
=
= =∑ , 
em que ( )Tw Q v = e [ ]
Tf QDQ = . Assim, para todo vetor 
não-nulo v , ( ) 0q v > se e somente se, para toda matriz coluna 
não-nula w , 2
1
0
n
ii i
i
d w
=
>∑ . Isso, porém, é verdadeiro se e somente 
se 0iid > para todo 1, ... ,i n= (como exercício, prove). Ou seja, 
[ ]f  é uma matriz simétrica definida positiva.
Uma aplicação da diagonalização 
de formas quadráticas é a identifica-
ção de cônicas. Por exemplo, a par-
tir dos cálculos anteriores, concluí-
mos que a curva dada pela equação 
2 23 2 2 2 1x xy y− + = é uma elipse, 
cujos eixos de simetria são Oz e Ow , 
eixos orientados definidos a partir dos 
vetores unitários 6 3 3 63 3 3 3( , ) , ( , )− , 
respectivamente (os vetores da base  ). 
O semi-eixo menor da elipse tem ta-
manho 12 e, o semi-eixo maior, 1 (ver 
figura 3.1 ao lado).
y
xx
w
z
4z2 + w2 = 1
23x² − 2 xy + 2y² = 1
Figura 3.1 - A elipse 2 23 2 2 2 1x xy y− + = .
79
Exemplo 6: Considere 3 3:f ℜ ×ℜ →ℜ , a forma bilinear simétrica 
definida por 
1 2 3 1 2 3 1 1 2 2 3 3 1 2 2 1 1 3 3 1 2 3 3 2(( , , ) , ( , , )) 2 2 2f x x x y y y x y x y x y x y x y x y x y x y x y= + + + + + + + +
1 2 3 1 2 3 1 1 2 2 3 3 1 2 2 1 1 3 3 1 2 3 3 2(( , , ) , ( , , )) 2 2 2f x x x y y y x y x y x y x y x y x y x y x y x y= + + + + + + + + .
A forma quadrática associada é 
2 2 2( , , ) 2 2 2 2 2 2q x y z x y z xy xz yz= + + + + + .
Na forma matricial, em relação à base canônica do 2ℜ , 
2 1 1
( , , ) ( ) 1 2 1
1 1 2
x
q x y z x y z y
z
   
   =          
. Os autovalores dessa ma-
triz são 4, 1 e 1. A forma diagonal dessa matriz é:
3 6 3 3 3
3 3 3 3 3
3 62 2 2
3 2 6 2 2
3 6 6 6 62
3 2 6 3 6 6
2 1 1 0 4 0 0
1 2 1 0 1 0 0
1 1 2 0 0 1
   −   
      = −            − −      
.
Note que a base 3 3 3 6 6 62 23 3 3 2 2 3 6 6{( , , ) , (0, , ) , ( , , )} = − − é 
ortonormal e positiva, considerando-se que o terceiro vetor tem 
o sentido do produto vetorial dos dois primeiros. Nessa base, a 
forma quadrática se reduz a 2 2 21 2 3 1 2 3( , , ) 4q w w w w w w= + + . 
Exercício 6: Identifique as seguintes cônicas e quadráticas:
2xy =a) ;
2 23 2 3 4x xy y+ + =b) ;
23 2 2 4 1x xy xz yz+ + + =c) ;
2 2 23 4 3x y z xy+ + + =d) ;
2 2 22 2 2 2 2 2 3x y z xy xz yz+ + + + + =e) .
3.3 A função determinante
Historicamente, a criação formal do determinante surgiu na Euro-
pa no final do século XVII. O conceito de determinante é credita-
do a Leibniz e aparece numa carta dele ao marquês de l’Hospital, 
datada de 1693, na qual se discute a resolução de um sistema de 
80
três equações lineares em duas incógnitas. Foi Cauchy, no século 
XIX, quem atribuiu o nome “determinante” ao conceito. 
Há várias formas de se introduzir o conceito de determinante, 
como, por exemplo, definir primeiro o determinante de uma ma-
triz 1 1× , depois o de uma matriz 2 2× e, então, generalizar para 
matrizes n n× , 2n > , definindo o determinante de uma matriz 
n n× a partir dos menores de ordem 1n − , pela regra de Lapla-
ce; outra forma é mostrar que o determinante é a única forma 
n-linear alternada que resulta em 1 quando calculada na n-upla 
1( , , )ne e , em que 1{ , , }ne e é a base canônica do 
nℜ , que cor-
responde à matriz identidade. Neste livro, vamos optar por esse 
modo, para ilustrar o conceito de forma multilinear apresentado 
neste capítulo.
Definição: Seja V um espaço vetorial real. Uma função : nf V →ℜ 
é uma forma n-linear se, para 1:i n= ,
1( ,..., , ) ( )nv v v V ∀ ∈ ∀ ∈ℜ
1 1 1(( ,..., ,..., )) (( ,..., ,..., )) (( ,..., ,..., ))i n i n nf v v v v f v v v f v v v + = + .
A proposição a seguir diz que basta conhecermos como é uma 
forma n-linear aplicada em n-uplas de vetores de uma base para 
conhecermos a forma em qualquer n-upla de vetores. A sua de-
monstração deixamos para você, leitor.
Proposição: Seja V um espaço vetorial real de dimensão fi-
nita. Seja 1{ , , }nv v =  uma base de V . Uma forma n-linear 
: nf V →ℜ fica bem definida se conhecemos 
1
(( ,..., ))
ni i
f v v qual-
quer que seja a permutação 1{ ,..., }ni i de {1,..., }n .
Definição: Seja V um espaço vetorial real. Seja : nf V →ℜ uma 
forma n-linear. f é dita alternada se, para 1 i j n≤ < ≤ ,
1( ,..., )nv v V∀ ∈
1 1(( ,..., ,..., ,..., )) (( ,..., ,..., ,..., ))i j n j i nf v v v v f v v v v= − .
Exemplo 7: Seja 2V =ℜ . Vamos considerar a função :f V V× →ℜ 
definida por 1 2 1 2 1 2 2 1(( , ) , ( , )) 3 3f x x y y x y x y= − . É fácil verificar que 
f é bilinear alternada (verifique).
81
Lema: Seja V um espaço vetorial real. : nf V →ℜ é uma forma 
n-linear alternada se e somente se, para 1 i j n≤ < ≤ ,
1( ,..., )nv v V∀ ∈
1(( ,..., ,..., ,..., )) 0i j nv v v f v v v v= = ⇒ = .
Prova: Se f é uma forma n-linear alternada,então
1( ,..., )nv v V∀ ∈
1 1(( ,..., ,..., ,..., )) (( ,..., ,..., ,..., ))i j n nv v v f v v v v f v v v v= = ⇒ = − . 
Logo, 1(( ,..., ,..., ,..., )) 0nf v v v v = . 
Para provar a recíproca, observemos que, como f é uma forma 
n-linear, 1( ,..., )nv v V∀ ∈
1 10 (( ,..., ,..., ,..., )) (( ,..., ,..., ,..., ))i j j i n i i nf v v v v v v f v v v v= + + = +
1 1 1(( ,..., ,..., ,..., )) (( ,..., ,..., ,..., )) (( ,..., ,..., ,..., ))j j n i j n j i nf v v v v f v v v v f v v v v+ + =
1 1 1(( ,..., ,..., ,..., )) (( ,..., ,..., ,..., )) (( ,..., ,..., ,..., ))j j n i j n j i nf v v v v f v v v v f v v v v+ + =
1 1(( ,..., ,..., ,..., )) ( ,..., ,..., ,..., ))i j n j i nf v v v v f v v v v= + .
Por conseguinte,
1 1(( ,..., ,..., ,..., )) (( ,..., ,..., ,..., ))i j n j i nf v v v v f v v v v= = − ,
ou seja, f é alternada.
Por esse lema, no caso de formas n-lineares alternadas a proposi-
ção é reescrita da seguinte forma:
Proposição: Seja V um espaço vetorial real de dimensão finita. 
Seja 1{ , , }nv v =  uma base de V . Uma forma n-linear alterna-
da : nf V →ℜ fica bem definida se conhecemos 1(( , , ))nf v v , 
pois, dada uma permutação 1( , , )ni i =  de {1,..., }n , 
1
( )
1(( ,..., )) ( 1) (( ,..., ))n
s
i i nf v v f v v
= − , em que ( )s  é o sinal da per-
mutação  : ( ) 1s  = , se a permutação for par e ( ) 1s  = − se a 
permutação for ímpar.
Observação: Quando trocamos a posição de dois objetos numa 
fila 1( ,..., ,..., ,..., )i j na a a a , por exemplo, 1( ,..., ,..., ,..., )j i na a a a , cha-
mamos essa permutação de transposição. Um teorema interes-
sante de combinatória é o seguinte: se, para permutar uma fila de 
82
n objetos 1F até chegarmos a uma fila 2F precisamos de um nú-
mero par de transposições, então qualquer outra forma, partindo 
de 1F e chegando a 2F , precisará de um número par de transpo-
sições. Assim, classificamos as permutações em pares e ímpares. 
Dessa maneira, como uma forma n-linear alternada troca de sinal 
para cada transposição da n-upla, uma permutação par preserva 
o sinal, enquanto uma permutação ímpar faz trocar o sinal do 
valor da forma.
Exemplo 8: Considere a permutação (1, 4, 2,3) = , isto é,  é a fun-
ção de {1,2,3,4} em {1,2,3,4} tal que (1) 1 = , (2) 4 = , (3) 2 = , 
(4) 3 = . Verifique que  é a composta das transposições 2,3t e 
3,4t , nessa ordem.
Isto é, 2,4 3,4t t =  , em que 3,4t é a transposição que troca o 3 pelo 
4 e 2,4t é a que troca o 2 pelo 4. Logo,  é par. Agora, a permu-
tação (4,1, 2,3) é impar (é só compor a transposição 1,4t com a 
função acima, nessa ordem).
Proposição: Seja V um espaço vetorial real. Seja : nf V →ℜ 
uma forma n-linear alternada. Se 1{ ,..., }nv v é um conjunto l.d. de 
V , então 1(( ,..., )) 0nf v v = .
Prova: Suponha, sem perda de generalidade, que 1
2
n
i i
i
v a v
=
=∑ . As-
sim, 1 1 2
2 2
(( ,..., )) ( ,..., ) ( , ,..., ) 0
n n
n i i n i n
i i
f v v f a v v a f v v v
= =
 = = =  
∑ ∑ , 
pois a n-upla que aparece em cada parcela tem dois vetores 
iguais.
Corolário: Seja V um espaço vetorial real de dimensão r . Seja 
: nf V →ℜ uma forma n-linear alternada. Se r n< então f é 
identicamente nula.
De agora em diante, vamos considerar formas n-lineares 
: nf V →ℜ , em que nV =ℜ . Vamos enunciar, a seguir, o teorema 
que vai resultar na definição de determinante de uma matriz.
Teorema de Representação de uma Forma n-Linear Alterna-
da: Seja nV =ℜ . Para cada número real  existe uma única for-
ma n-linear alternada : nf V →ℜ tal que 1( ,..., )nf e e = , em que 
1{ ,..., }ne e é a base canônica de 
nℜ .
83
Prova: Sejam 1 11 1 1
1
( ,..., )
n
n j j
j
v a a a e
=
= =∑ , ... ,
1
1
( ,..., )
n
n n nn nj j
j
v a a a e
=
= =∑ . Note que, pela multiline-
aridade, 1( ,..., )nf v v é uma soma de parcelas do tipo 
1 11
. . (( ,..., ))
n ni ni i i
a a f e e , em que 1,..., ni i são distintos dois a dois 
(como f é alternada, se dois daqueles índices fossem iguais, o 
valor de f anular-se-ia). Assim, 1( ,..., )ni i é uma permutação dos 
números de 1 a n . Seja nP o conjunto de todas as permutações 
dos números de 1 a n (lembre-se que nP tem !n elementos). Para 
cada elemento  de nP - 1(1) i = , ... , ( ) nn i = - temos que 
1
( )
1(( ,..., )) ( 1) ( ,..., )n
s
i i nf e e f e e
= − , em que ( )s  é o sinal da 
permutação  . Assim, 
( )
1 1 (1) ( ) 1( ,..., ) ( 1) . . (( ,..., ))
n
s
n n n n
P
f v v a a f e e  
∈
= −∑  .
Logo, uma forma n-linear fica completamente determinada a 
partir do valor atribuído a 1( ,..., )nf e e . Ou seja, dado ∈ℜ , a 
forma n-linear ( )1 1 (1) ( )( ,..., ) ( 1) . .
n
s
n n n
P
f v v a a  


∈
= −∑  , em que 
1 11 1( ,..., )nv a a= , ... , 1( ,..., )n n nnv a a= , é a forma n-linear que satisfaz 
1( ,..., )nf e e = .
Definição: Seja nV =ℜ . Seja 1{ ,..., }ne e a base canônica de 
nℜ . 
Considere a forma n-linear alternada det : nV →ℜ definida por 
( )
1 1 (1) ( )det ( ,..., ) ( 1) . .
n
s
n n n
P
v v a a  
∈
= −∑  . Essa forma n-linear alter-
nada, que toma o valor 1 em 1( ,..., )ne e , é chamada de determi-
nante.
Definição: Seja nV =ℜ . Considere a forma n-linear alternada 
det : nV →ℜ definida por ( )1 1 (1) ( )det ( ,..., ) ( 1) . .
n
s
n n n
P
v v a a  
∈
= −∑  . 
Seja A a matriz tal que, para 1:i n= , a linha i é formada pelas 
coordenadas canônicas do vetor iv . A partir daí, o determinante 
da matriz A (a qual é uma matriz quadrada), que denotamos por 
det A ou por A , é igual a 1det ( ,..., )nv v , isto é, 
( )
1 (1) ( )det ( 1) . .
n
s
n n
P
A a a  
∈
= −∑  .
84
Exercício 7: Seja A uma matriz real 2 2× . Calcule det A pela defi-
nição anterior. Idem para uma matriz real A , de tamanho3 3× .
Vamos listar, a seguir, algumas propriedades do determinante de 
uma matriz quadrada A de ordem n .
Propriedades:
det detnkA k A=1) . Isso resulta do fato do determinante ser 
uma forma n-linear. Em particular, det ( ) ( 1) detnA A− = − .
Se 2) B é uma matriz obtida de A , substituindo-se alguma 
linha de A pela soma dessa linha com um múltiplo de outra 
linha, então det detB A= . Isso decorre do fato de o determi-
nante ser uma forma n-linear.
Se 3) A é singular, então det 0A = . É só lembrar que uma ma-
triz quadrada A é singular se e somente se as linhas de A 
são linearmente dependentes.
Se 4) A é uma matriz triangular então 11det . . nnA a a=  . 
Suponha, sem perda de generalidade, que A é uma matriz 
triangular inferior. Basta, então, observar que, se  é uma 
permutação diferente da identidade, existe i tal que ( )i i > 
e, logo, ( ) 0i ia  = . Por conseguinte, 
( )
1 (1) ( ) 11det ( 1) . . . .
n
s
n n nn
P
A a a a a  
∈
= − =∑   .
Definição: Sejam 1 ,i j n≤ ≤ . Denota-se por ( , )i jA a submatriz de 
A , ( 1) ( 1)n n− × − , obtida retirando-se de A a i-ésima linha e a j-
ésima coluna.
Se 5) A é uma matriz do tipo 
11
21 22 2
1 2
0 0
n
n n nn
a
a a a
a a a
 
 
 
 
 
 


   

, então 
22 2
11
2
det det
n
n nn
a a
A a
a a
 
 =    

  

.
85
Note que as únicas permutações que resultariam em parcelas 
não-nulas seriam aquelas que levam 1 em 1, sendo bijetoras de 
{2,..., }n em {2,..., }n . Assim, 
1
( ) ( ) (1,1)
1 (1) ( ) 2 (2) ( ) 11det ( 1) . . ( 1) . . .det
n n
s s
n n n n
P P
A a a a a a A    
  −∈ ∈
= − = − =∑ ∑ 
1
( ) ( ) (1,1)
1 (1) ( ) 2 (2) ( ) 11det ( 1) . . ( 1) . . .det
n n
s s
n n n n
P P
A a a a a a A    
  −∈ ∈
= − = − =∑ ∑ 
Se6) Aé uma matriz inversível, então det 0A ≠ . Se A é uma 
matriz inversível, o método de escalonamento (por linhas) 
reduz A a uma matriz triangular superior, cujas entradas 
diagonais são os pivôs — 11,..., nnu u — os quais são, todos, 
não-nulos. Como esse método envolve apenas transposição 
de linhas e substituição de uma linha por uma soma desta 
com um múltiplo de outra, 11det . . nnA u u= ±  , que é dife-
rente de zero.
det det TA A=7) . Por definição, 
( )
1 (1) ( )det ( 1) . .
n
s
n n
P
A a a  
∈
= −∑  . Notemos que uma permu-
tação nP∈ é uma função bijetora de {1,..., }n em {1,..., }n . 
Logo, a inversa de  , 1− , também é uma permutação que 
pertence a nP . Além disso, 
1( ) ( )s s −= , pois cada transpo-
sição utilizada para se chegar de (1,..., )n a 1 1( (1) ,..., ( ))n − − 
corresponde a uma transposição para se chegar de 
( (1) ,..., ( ))n  a (1,..., )n . Assim,
1 1
( ) ( )
1 (1) ( ) (1),1 ( ),
det ( 1) . . ( 1) . .
n n
s s
n n n n
P P
A a a a a    
 
− −
∈ ∈
= − = − =∑ ∑ 
1 1
( ) ( )
1 (1) ( ) (1),1 ( ),
det ( 1) . . ( 1) . .
n n
s s
n n n n
P P
A a a a a    
 
− −
∈ ∈
= − = − =∑ ∑ 
( )
(1),1 ( ),( 1) . . det
n
s T
n n
P
a a A  
∈
= − =∑ 
Antes de enunciarmos a oitava propriedade, apresentaremos a se-
guir a seguinte definição:
Definição: Sejam 1 ,i j n≤ ≤ . O determinante de ( , )i jA , ( , )i jA , é 
chamado de ( , )i j -menor de A ; ( , )( 1)i j i jA+− é dito o ( , )i j - co-
fator de A .
86
(1,1) (1,2) 1 (1, )
11 12 1det ( 1)
n n
nA a A a A a A
+= − + + −8) . (Teorema 
de Expansão de Laplace). Como o determinante é uma for-
ma n-linear alternada, temos que:
11 12 1 11 12 1
21 22 2 21 22 2 21 22 2 21 22 2
1 2 1 2 1 2 1 2
0 0 0 0 0 0n n
n n n n
n n nn n n nn n n nn n n nn
a a a a a a
a a a a a a a a a a a a
a a a a a a a a a a a a
= + + + =
   
   

               
   
111 12
2 21 2, 121 22 2 22 21 2 1
1 , 11 2 2 1
0 00 0 0 0
( 1)
n
n nn n n
nn n n nn n nn n n nn
aa a
a a aa a a a a a
a a aa a a a a a
−−
−
= − + + −

 

 

   
       

 
Observe que, para obter a última parcela, fizemos ( 1)n − 
transposições. O sinal associado a essa permutação é 
1 1( 1) ( 1)n n− +− = − . Assim, a expressão acima, pela propriedade 
4, é igual a
(1,1) (1,2) 1 (1, )
11 12 1det ( 1)
n n
nA a A a A a A
+= − + + − .
det det .detAB A B=9) . Se A é singular, então AB é singular e, 
logo, a propriedade é válida. Vamos supor, então, que A não 
é singular. Seja B uma matriz cujas linhas são 1,..., nv v , res-
pectivamente. Consideremos a função : ( )n nD ℜ →ℜ dada 
por 1( ,..., ) detnD v v AB= . Essa função é n-linear, pois
1 1 1( ,..., ,..., ) det ( ,..., ( . ) ,..., ) det ( ,..., . ,..., )i n i n i nD v v w v Av A v w Av Av Av Aw Av  + = + = + =
1 1 1( ,..., ,..., ) det ( ,..., ( . ) ,..., ) det ( ,..., . ,..., )i n i n i nD v v w v Av A v w Av Av Av Aw Av  + = + = + = 1 1 1 1det ( ,..., ,..., ) det ( ,..., ,..., ) ( ,..., ,..., ) . ( ,..., ,..., )i n n i n nAv Av Av Av Aw Av D v v v D v w v = + = +
1 1 1 1det ( ,..., ,..., ) det ( ,..., ,..., ) ( ,..., ,..., ) . ( ,..., ,..., )i n n i n nAv Av Av Av Aw Av D v v v D v w v = + = +
1 1 1 1det ( ,..., ,..., ) det ( ,..., ,..., ) ( ,..., ,..., ) . ( ,..., ,..., )i n n i n nAv Av Av Av Aw Av D v v v D v w v = + = + .
É fácil ver que essa função também é alternada. Ou seja, D é 
uma forma linear alternada. Logo, pelo Teorema de Represen-
tação de uma Forma n-Linear Alternada existe um número 
real  tal que, para toda matriz B (cujas linhas são 1,..., nv v ), 
1 1( ,..., ) .det ( ,..., )n nD v v v v= , ou seja, det .detAB B= . Con-
sideremos agora que B I= , então det .detA I = = . Assim, 
para toda matriz B , det det .detAB A B= .
.
87
1
2det ( ) ( ) ( )
n n
nxI A x tr A x p x
−
−− = − +10) , em que 2 ( )np x− é um 
polinômio de grau menor ou igual a ( 2)n − em x , e tr A é 
a função traço de A . Aplicando a definição de determinan-
te, 11 2det ( ) ( ). .( ) ( )nn nxI A x a x a q x−− = − − + , em que 2 ( )nq x− 
é um polinômio de grau menor ou igual a ( 2)n − em x , 
pois qualquer permutação nP∈ , diferente da identidade, 
vai resultar em uma parcela 1 (1) ( )( ) . . ( )n nxI A xI A − − que 
conterá, no máximo, ( 2)n − elementos da diagonal entre 
seus fatores.
1 2
1 1
1 1
det ( ) ( ). . ( ) ( ) ( ) ( 1) . .n n n nn i i j n
i n i j n
xI A x x x x x      − −
≤ ≤ ≤ < ≤
− = − − = − + + + −∑ ∑  11) 
1 2
1 1
1 1
det ( ) ( ). . ( ) ( ) ( ) ( 1) . .n n n nn i i j n
i n i j n
xI A x x x x x      − −
≤ ≤ ≤ < ≤
− = − − = − + + + −∑ ∑   .
A primeira igualdade decorre do Teorema Fundamental da 
Álgebra. A segunda igualdade pode ser demonstrada por 
indução (prove). Note que, atribuindo-se o valor zero à va-
riável x , obtemos que 1det . . nA  =  . Ou seja, o determi-
nante de uma matriz é o produto de seus autovalores com-
plexos, considerando-se suas multiplicidades algébricas.
Vamos definir primeiramente 12) a matriz cofatora de uma 
matriz A , denotada por Cof A : ( , )( ) ( 1)i j i jijCof A A
+= − . 
Dessa forma, a adjunta clássica de uma matriz A , denota-
da por Adj A , é a transposta da matriz cofatora. Deixamos 
para você, leitor, provar que
. (det ).A Adj A A I=
Seja 13) V um espaço vetorial real de dimensão finita. Se-
jam 1{ ,..., }nv v = e 1{ ,..., }nw w = duas bases de V . Seja 
:T V V→ um operador linear. Como ( ) ( ) ( ) ( )T I T I    = e 
1( ) [( ) ]I I  
−= , concluímos que det ( ) det ( )T T = . Assim, 
definimos o determinante do operador T como sendo o de-
terminante de ( )T  , em que  é uma base qualquer de V .
88
Exercícios
8) Vamos representar as permutações de {1,..., }n por n-uplas 
ordenadas. Por exemplo: para 3n = , (2,3,1) representa a permu-
tação  tal que (1) 2 = , (2) 3 = e (3) 1 = .
Nessa notação, liste os elementos de a) 3P , o conjunto de todas 
as permutações de {1,2,3} (ou seja, todas as funções bijeto-
ras de {1,2,3} em {1,2,3} ). Ache o sinal de cada uma das 
permutações, contando quantas transposições são necessá-
rias para ir de (1, 2,3) até a tripla que a representa. Represen-
tando os elementos de uma matriz A por ija ( , 1, 2,3i j = ), 
calcule o determinante de A pela definição.
Idem para b) 4P (são 24 parcelas! Sugerimos utilizar árvores 
para representar as parcelas).
9) Seja A a matriz 4 4× cujos elementos são todos iguais a 1. 
Seja 2B I A= − . Calcule det B de dois modos: pela definição e pela 
Regra de Laplace.
10) Seja A a matriz 4 4× cujos elementos são todos iguais a 1. 
Seja X xI A= − . Calcule det X por Laplace.
Um modo de se calcular determinantes é como os sistemas intera-
tivos (como o MATLAB, o OCTAVE, o SCILAB etc) fazem: escalo-
nando a matriz dada, por operações elementares, até resultar em 
uma matriz triangular superior, cujo determinante é fácil de se 
calcular. Isso é ilustrado a seguir em uma matriz de ordem 3.
1 2 3 1 2 3 1 2 3 1 2 3
4 5 6 0 3 6 ( 1). 0 1 1 ( 1). 0 1 1 ( 1).1.1.( 9) 9
2 5 5 0 1 1 0 3 6 0 0 9
= − − = − − = − − = − − =
− − − −
1 2 3 1 2 3 1 2 3 1 2 3
4 5 6 0 3 6 ( 1). 0 1 1 ( 1). 0 1 1 ( 1).1.1.( 9) 9
2 5 5 0 1 1 0 3 6 0 0 9
= − − = − − = − − = − − =
− − − −
11) Calcule o determinante da matriz B do exercício 2 pelo 
procedimento do exercício 3 acima.
89
12) Idem para a matriz tridiagonal simétrica 5 5× , cujos ele-
mentos da diagonal principal são todos iguais a 2 e os elementos 
das outras diagonais são todos iguais a -1.
13) Calcule os determinantes das seguintes matrizes:
1 2 2 0
2 3 4 1
0 2 5 3
1 2 0 2
− 
 −
 
 − − 
a) b) 
7 7 7 7
1 2 0 1
2 0 1 2
1 1 0 2
 
 
 
 
 
 
c) 
21 22 23
31 32 33
41 42 43
 
 
   
 d) 
2 5 3 2
2 3 2 5
1 3 2 2
1 6 4 3
− − 
 − − − 
 −
 − − 
e) 
1 2 2 3
1 0 2 0
3 1 1 2
4 3 0 2
 
 − 
 − −
 − 
 f) 
6 2 1 0 5
2 1 1 2 1
1 1 2 2 3
3 0 2 3 1
1 1 3 4 2
 
 − 
 −
 − 
 − − − 
14) Ache a cofatora das seguintes matrizes: 
a) 
2 4 3
1 7 2
3 8 2
 
 − −  − 
 b) 
1 1 6
3 2 1
3 2 5
− − 
 − −  − 
c) 
1 4 1
5 3 5
1 2 7
− 
 −  − 
 d) 
2 3 4
0 3 7
0 0 5
 
 −   
15) Ache a adjunta clássica de cada matriz do exercício anterior. 
Verifique, em cada matriz, a propriedade . (det ).A Adj A A I= .
16) Mostre que uma matriz simétrica é definida positiva se e 
somente se, para todo k , os determinantes das submatrizes prin-
90
cipais (1: ,1: )A k k , ditos menores principais, são positivos. Su-
gestão: para mostrar implicação no sentido direto, use o fato de 
que as submatrizes principais de uma matriz simétrica definida 
positiva são também simétricas definidas positivas e que o de-
terminante de uma matriz é o produto de seus autovalores; para 
mostrar a recíproca, use o fato de que uma matriz simétrica tem 
decomposição TLDL se os seus menores principais são não-nulos, 
no caso em que as entradas de D , diferentes de 11d , são razões 
entre menores principais consecutivos.
Resumo
Neste capítulo introduzimos funções multilineares, das quais são 
exemplos notáveis os produtos internos e a função determinan-
te. Aqui, invertemos o processo de definição de determinante em 
relação a alguns livros, como por exemplo o livro de Lima (1998). 
Primeiro, definimos o determinante de uma matriz. Depois, defi-
nimos o determinante de um operador linear em um espaço veto-
rial de dimensão finita, como sendo o determinante da matriz do 
operador em relação a uma base qualquer, pois o determinante 
é invariante em relação a uma mudança de base: ele é o produto 
dos autovalores, com suas multiplicidades algébricas.
Bibliografia Comentada
STRANG, Gilbert. Linear Algebra and its Applications. 3rd ed. Orlando: 
Harcourt Brace Jovanovich, 1988.
Esse livro tem exercícios muito bons sobre determinante de matriz. 
A demonstração das propriedades de determinante é primorosa.
HOFFMAN, Kenneth; KUNZE, Ray. Álgebra Linear. São Paulo: 
Polígono, 1970.
Excelente fonte de estudo de funções multilineares, tudo rigoroso, 
bem apresentado, com exercícios que são proposições sobre 
determinantes.
91
LIMA, Elon L. Álgebra Linear. 3ª ed. Rio de Janeiro: SBM, 1998.
Licio H. Bezerra: Como falei anteriormente, este autor primeiro 
define determinante de um operador para, depois, definir 
determinante de matriz. Acho desnecessariamente complicado, 
mas gosto assim mesmo. Para quem conhece determinante é 
interessante a abordagem; para quem nunca ouviu falar ou 
conhece pouco de determinante pode ser desafiante acompanhar 
a apresentação do assunto.
	Álgebra Linear II - Início SC
	Álgebra Linear II - Cap 01
	Álgebra Linear II - Cap 02
	Álgebra Linear II - Cap 03

Mais conteúdos dessa disciplina