Logo Passei Direto
Buscar
Material
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rÁlgebra Linear com Geometria Analítica
Adriano Moura
Universidade Estadual de Campinas
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rSumário
Introdução iv
1 Estruturas Algébricas 1
1.1 Conjuntos e Funções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Princípio da Indução Finita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Relações Binárias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Operações Binárias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 Famílias, Matrizes e Equações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.6 Grupos, Anéis e Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.7 Os Números Reais e Complexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.8 Polinômios e Funções Polinomiais . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.9 Ações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2 Matrizes e Sistemas Lineares 45
2.1 Multiplicação de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2 Sistemas Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.3 Escalonamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3 Espaços Cartesianos e Euclidianos 74
3.1 Sistema Cartesiano de Coordenadas e Vetores . . . . . . . . . . . . . . . . . . . . . 74
3.2 Retas e Planos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.3 Retas e Planos em Espaços Cartesianos de Dimensão 2 e 3 . . . . . . . . . . . . . . 86
3.4 Comprimentos e Ângulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.5 Complementos Ortogonais e Produto Vetorial . . . . . . . . . . . . . . . . . . . . . 102
3.6 Distâncias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4 Soluções de Equações Quadráticas, Curvas e Superfícies 117
4.1 Circunferências, Radianos, Coordenadas Polares e Rotações . . . . . . . . . . . . . 117
4.2 Elipses, Hipérboles e Parábolas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
4.2.1 Elipses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
4.2.2 Hipérboles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.2.3 Parábolas e Outro Ponto de Vista para Elipses e Hipérboles . . . . . . . . . . 128
i
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r4.3 Equações Quadráticas em Duas Variáveis . . . . . . . . . . . . . . . . . . . . . . . 1334.4 Superfícies Cilíndricas e Cônicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.5 Superfícies de Revolução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.6 Equações Quadráticas em Três Variáveis . . . . . . . . . . . . . . . . . . . . . . . . 151
4.7 Parametrizações de Curvas, Superfícies e Sólidos . . . . . . . . . . . . . . . . . . . 155
5 Espaços Vetoriais 161
5.1 O Conceito Abstrato de Vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
5.2 Subespaços e Geradores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
5.3 Somas de Subespaços e Projeções . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
5.4 Independência Linear, Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . 173
5.5 Existência de Bases Infinitas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
6 Transformações Lineares 185
6.1 Definição e Propriedades Básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
6.2 Representação Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
6.3 Imagem e Núcleo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
6.4 Operadores Lineares Diagonalizáveis . . . . . . . . . . . . . . . . . . . . . . . . . 203
6.5 Matrizes Diagonalizáveis e Aplicações . . . . . . . . . . . . . . . . . . . . . . . . . 212
6.6 Apêndice: Espaços e Transformações Quocientes . . . . . . . . . . . . . . . . . . . 217
7 Espaços Vetoriais com Produto Interno 221
7.1 O Conceito Abstrato de Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . 221
7.2 Comprimentos, Ângulos e Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . 227
7.3 Complementos, Projeções e Reflexões Ortogonais . . . . . . . . . . . . . . . . . . . 232
7.4 Isometrias e Adjunção Hermitiana . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
7.5 Operadores Autoadjuntos e Normais . . . . . . . . . . . . . . . . . . . . . . . . . . 246
8 Teoria Geral de Operadores Lineares 252
8.1 Polinômio Mínimo e Decomposição Primária . . . . . . . . . . . . . . . . . . . . . 252
8.2 Complementos Invariantes e Bases Cíclicas . . . . . . . . . . . . . . . . . . . . . . 265
8.3 Formas Canônicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
9 Multilinearidade, Dualidade e Outras Geometrias 294
9.1 Multilinearidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
ii
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r9.2 Dualidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2989.3 Pareamentos Bilineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
9.4 Bases Hiperbólicas e Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
9.5 Transformações Ortogonais e Simpléticas . . . . . . . . . . . . . . . . . . . . . . . 318
9.6 Adjunção . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
10 Álgebra Tensorial 333
10.1 Propriedades Universais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
10.2 Produto Tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336
10.3 Produto Tensorial de Transformações Lineares . . . . . . . . . . . . . . . . . . . . . 347
10.4 Potências Simétricas e Exteriores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355
Bibliografia 365
iii
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rIntrodução
A motivação para escrever este texto surgiu da ausência de um livro que contivesse toda a ementa do
curso Álgebra Linear Avançada ministrado na Unicamp (MA719 e MM719) escrito em nível apro-
priado para estudantes próximos à metade do curso de bacharelado em matemática ou em início de
mestrado e que também contivesse uma boa lista de exercícios. Apesar de existirem bons livros para
este tipo de estudante cobrindo todo o material quando utilizados em conjunto, é raro encontrar um
texto que contenha a parte de álgebra tensorial, escrita em linguagem mais elementar, juntamente com
as teorias de formas canônicas de operadores lineares e formas bilineares. Alguns destes livros não
contém listas de exercícios suficientemente extensas ou com níveis de dificuldade de exercícios sufi-
cientemente diversificados para dar conta das diferentes velocidades e necessidades de aprendizado.
Como uma revisão do material do primeiro curso é sempre necessária para o segundo, a inclusão do
material do primeiro curso de álgebra linear (MA327) neste texto sempre fez parte dos planos. Por
outro lado, a inclusão do material do curso de geometria analítica (MA141) foi decidida em 2016
devido a uma insatisfação pessoal com a maneira que a parte sobre vetores, em especial os conceitos
de paralelismo e ângulo, são apresentados essencialmente na totalidade dos textos existentes. Assim,
a apresentaçãodo material do Capítulo 3 deste texto é bastante distinta, do ponto de vista filosófico e
pedagógico, daquela tipicamente utilizada na literatura em geral, como explicaremos em breve. Creio
que um texto que faça o aluno do curso Álgebra Linear Avançada olhar frequentemente para trás, até
o curso de geometria analítica, re-examinando constantemente aquele material à luz dos conceitos
mais avançados a que está sendo exposto, trará alguns benefícios aos estudantes e, por isso, resolvi
fazer um texto único, integrado, ao invés de textos separados.
Desde o início, a intenção era escrever o texto com um certo grau de formalidade apropriado
ao nível de maturidade matemática dos alunos do segundo curso de álgebra linear, porém contendo
parágrafos com tom de conversa a fim de expandir as explicações num tom mais próximo do que é
possível se fazer nas aulas presenciais. Por isso, a linguagem do texto está, conscientemente, num
nível um pouco acima do que os alunos dos cursos iniciais em geral estão preparados para “aguenta-
rem”. Todavia, a parte de “conversa” do texto nos capítulos referentes ao curso de geometria analítica
(2 a 4) como do primeiro curso de álgebra linear (5 a 7) é bem maior que nos capítulos finais referen-
tes ao segundo curso. O texto é sempre pensado como apoio e complementação às aulas e tem tido
uma boa receptividade pelos alunos, embora vários deles relatem que não é tão fácil ler o texto sem
as aulas. Assim, creio que o texto está cumprindo o papel a ele planejado. É também bom ressaltar
que a quantidade de informação contida no texto é maior do que o que é factível de se cobrir em aula,
especialmente a parte final.
O primeiro capítulo do texto é de natureza diferente dos demais e não pertence à ementa de
nenhum dos três cursos. Por isso, ele não foi planejado para ser lido sequencialmente, embora isso seja
possível, e nem há necessidade de estudá-lo antes dos demais. De fato, ele funciona melhor quando
lido “por demanda”, isto é, à medida que ele for sendo citado nos demais capítulos. Tipicamente,
o nível de formalidade deste capítulo é inadequado aos alunos do primeiro ano de graduação e cada
docente, ao seu gosto, deve decidir como utilizá-lo com o devido abrandamento da linguagem formal.
Pela minha experiência, uma vez que o docente consiga transmitir as mensagens chaves sobre o
conteúdo utilizando uma linguagem mais branda em conjunto com “pitadas” mais sofisticadas, boa
parte dos alunos passa a ser capaz de entender esta linguagem mais avançada. O conteúdo alvo deste
texto de fato se incia no Capítulo 2, assim como o curso de geometria analítica.
iv
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rGeometria Analítica
O curso de geometria analítica da Unicamp tem o objetivo de solidificar o conhecimento sobre a ge-
ometria euclidiana, vista do ponto de vista de espaços cartesianos, que os estudantes necessitam para
os cursos de cálculo e física básica. Neste sentido, o curso tem duas vertentes: uma mais próxima à
álgebra linear com o estudo de matrizes, sistemas lineares, vetores, retas e planos e outra mais geo-
métrica com o estudo de curvas, superfícies, sólidos e noções de medidas como distâncias, ângulos,
áreas e volumes. Boa parte deste material, se não sua totalidade, deveria ter sido estudada durante o
ensino médio pelos estudantes ingressantes nos cursos de graduação. Porém, dados os objetivos do
ensino médio, os pontos de vistas utilizados para o ensino deste material é necessariamente distinto
daquele adotado em cursos universitários. Com isto em mente, apesar de boa parte do material ser
conhecida pelos alunos, a abordagem com uma maior exigência da capacidade de abstração do aluno
traz um ar de novidade e também de insegurança aos alunos que, via de regra, chegam com nível de
maturidade matemática, assim como de lógica básica e capacidade de leitura e interpretação de texto,
bem abaixo do esperado e desejado para sua idade.
O curso se inicia com uma revisão das operações matriciais, especialmente a multiplicação, como
preparação para o estudo dos conjuntos de soluções dos chamados sistemas lineares1. Todo sistema
formado por uma família finita de equações lineares em finitas variáveis pode ser reinterpretado como
uma única equação matricial do tipo AX = B, sendo A e B matrizes dadas. A principal ferramenta
teórica e prática desenvolvida no Capítulo 2 nesta direção é a técnica de escalonamento de matrizes.
O capítulo é encerrado oferecendo uma primeira visão para o conceito de determinante de matrizes
quadradas, via desenvolvimento de Laplace, e conectando tal conceito com a teoria de resolução de
sistemas lineares recém estudada. O ponto de vista adotado para desenvolver o texto deste capítulo
é essencialmente o mesmo de [21]. As diferenças estão no estilo de escrita e na abordagem mais
abstrata e geral sobre o “conjunto de números” utilizado para as entradas das matrizes. Em particular,
como a noção de determinante será utilizada para dar a primeira definição de polinômio característico
de uma matriz (e única para os alunos que não farão o segundo curso de álgebra linear), necessitando
assim de matrizes cujas entradas são polinômios, nos parece saudável que comentários sejam feitos
a respeito de matrizes com entradas em outros anéis (como os inteiros, os complexos e o anel de
polinômios), além do conjunto dos números reais. Assim, este é um primeiro ponto de diferença
deste texto com respeito à maior parte da literatura existente para um curso deste nível.
Numa época em que as ferramentas computacionais estão facilmente accessíveis, é natural haver
algum questionamento sobre o mérito de se manter o ensino de técnicas de resolução de sistemas
lineares num curso universitário ao invés de substituir pelo ensino de utilização de aplicativos. O autor
deste texto é da opinião que tal substituição não deve ser feita. Embora o aprendizado da utilização
de tais aplicativos seja importante e saudável, ele não deve ocorrer em detrimento da visão fornecida
por uma “pedagogia mais tradicional”. Todavia, a intenção dos cursos para os quais este texto é
desenvolvido não é treinar os alunos para serem máquinas de resoluções de sistemas lineares, mas sim
dar-lhes um embasamento teórico forte sobre o assunto. O ato de resolver exercícios numéricos neste
contexto deve assim ser encarado como oportunidades “concretas” de visualizar a teoria e explorar
1De fato, eu costumo gastar duas aulas explorando os conceitos de operações binárias, “conjuntos numéricos” e suas
possíveis propriedades como comutatividade, associatividade, exitência de elemento neutro e invertibilidade de elementos
antes de começar com as matrizes, já que as entradas das matrizes e as operações matriciais fazem uso destes conceitos.
v
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rseus meandros. De fato, talvez o maior benefício que os alunos terão com os dois primeiros cursos(Capítulos 2 a 7) é o desenvolvimento da capacidade de organizar pensamentos de maneira abstrata,
algo útil não só para sua vida acadêmica, mas para se tornarem cidadãos mais capazes de pensar os
desafios da vida como um todo. Creio que a substituição destes “métodos tradicionais” de ensino
pelos recursos computacionais tenha como efeito um menor desenvolvimento desta capacidade de
abstração, a meu ver, essencial a todos os estudantes das chamadas ciências exatas (e talvez também
para as outras). Com isso em mente, o aluno jamais deve resolver os exercícios pensando apenas e
tão somente em encontrar a resposta numérica. Mais importante é tentar estar consciente de todos os
passos utilizados no desenvolvimento do argumento, inclusive procurando por caminhos alternativos
e comparando as vantagens e desvantagens das alternativas. O texto não contém respostas ou soluções
dos exercícios propostos. Mais eficiente do que ler a solução proposta pelo professor,é discutir com
os demais colegas e com os veteranos que atuam como monitores a maneira que cada um usou para
tentar resolver cada exercício.
O segundo terço do curso de geometria analítica (Capítulo 3) é dedicado ao desenvolvimento
da geometria euclidiana via espaços cartesianos e da utilização da noção do conceito de vetores,
sendo assim o coração do curso e, posteriormente, a principal motivação para o início do curso de
álgebra linear. Tipicamente, especialmente no ensino fundamental e médio, a geometria euclidiana é
ensinada de maneira intuitivo-axiomática (já que desenvolver de maneira completamente axiomática
não é possível nos dois primeiros níveis do sistema de educação). Em particular, as noções de ponto,
reta, paralelismo, ângulo e comprimento (norma e distância) são apresentadas aos alunos de maneira
bastante intuitiva. A noção de vetor é então apresentada como “algo que tem direção, sentido e
magnitude” e desenhos de “setinhas” passam a ser confundidos com a definição de vetor. Enquanto
este tipo de tática didática me parece bastante adequada para o ensino fundamental e médio, a meu ver
ela é totalmente inadequada para cursos universitários, mesmo sendo um curso de primeiro semestre.
Eis então o motivo da insatisfação pessoal mencionada acima com a literatura existente para os cursos
de geometria analítica universitários, já que parte dos conceitos são assumidos como conhecidos do
ensino médio, ficando assim dependente da axiomática clássica da geometria euclidiana. A meu
ver, esta atitude não faz o menor sentido tendo em vista que esta literatura usa, ao mesmo tempo, o
conceito de espaços cartesianos que não é utilizado no tratamento clássico de Euclides. Ora, para se
falar de R2 e R3, já se está assumindo (ainda que apenas intuitivamente) boa parte da axiomática da
teoria de conjuntos para poder se falar da “reta” R e da noção de produto cartesiano: R2 = R × R.
Uma vez que nos permitimos usar a axiomática da teoria de conjuntos, não existe mais motivo
para tratar a geometria euclidiana de maneira axiomática, pois todos os axiomas podem ser transfor-
mados em definições ou “teoremas”. Por exemplo, o conceito de ponto deixa de ser algo que faz
parte dos axiomas e um ponto no plano é simplesmente um elemento do conjunto R2. Elementos
do R2, juntamente com as estruturas algébricas dos números reais (soma e multiplicação), também
dão origem à noção de vetor (que inclui implicitamente a noção de direção) e, com isso, reta, para-
lelismo e ângulo são definíveis também. Outros axiomas como o Postulado das Paralelas se tornam
demonstráveis. Portanto, ensinar geometria analítica via espaços cartesianos ao mesmo tempo que
se usa parte da axiomática da geometria euclidiana clássica é um contrassenso devido à sobreposi-
ção de duas axiomáticas. Pela minha observação em aula, isto acaba causando uma grande confusão
na cabeça dos alunos que ficam sem saber distinguir definição de axioma e teorema... Não é ob-
jetivo deste texto de fato recuperar todos os axiomas da geometria euclidiana clássica formalmente
a partir da axiomática da teoria de conjuntos via a noção de espaço cartesiano, mesmo porque isso
vi
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rrequereria estudo apropriado da teoria de conjuntos (que aqui é deixada no nível intuitivo), algo bemmais complicado que estudar geometria analítica. Porém, faremos vários comentários nesta direção
a título de deixar o leitor consciente desta possibilidade.2 Em particular, as noções de ângulo e de
medida de ângulo que, na literatura existente, são assumidas como entendidas pelo aluno, aqui serão
de fato definidas (existem outras possibilidades de definição além daquela que daremos aqui). Todo
estudante está viciado em pensar sobre ângulo e medida de ângulo como se fossem a mesma coisa e,
assim, falar de ângulo significa falar de graus ou radianos, que são apenas uma maneira de se medir
ângulo via “comprimento de arco” (graus e radianos são de fato duas escalas distintas para o mesmo
tipo de medida). Porém, para de fato definir a noção de comprimento de arco de maneira completa,
é necessário a utilização da noção de limite, algo mais apropriadamente ensinado nos cursos de cál-
culo integral. Todavia, existe maneira de medir ângulo sem medir comprimento de arco e sem usar a
noção de limite, utilizando-se apenas e tão somente as estruturas algébricas dos números reais e esta
será a medida de ângulo “oficial” deste texto (ela é mais popularmente conhecida como o cosseno do
ângulo).
Iniciamos o Capítulo 3 apresentando as noções básicas dos espaços cartesianos de uma maneira
bem geral. Isto é, não falamos apenas de R2 e R3, mas sim de Fn, sendo n um número inteiro positivo
fixado e F um nome genérico para denotar um conjunto numérico mais geral (de fato um corpo) que
pode ser, por exemplo, o conjunto dos números racionais ou complexos, além dos reais, ou muitos
outros3. Definimos então as noções de ponto e vetor em Fn e, utilizando parte das estruturas algébricas
de F (a multiplicação), definimos a noção de coincidência ou não de direção de dois vetores dados.
Assim, a noção de paralelismo fica automaticamente definida também. Uma vez definida a noção de
vetor, passamos às definições das noções de retas e planos em Fn na Seção 3.2 e deduzimos várias
propriedades básicas como, por exemplo, o fato que “dois pontos determinam uma reta” (que é um
axioma na geometria euclidiana clássica). Nesta mesma seção, apresentamos as noções de equações
paramétricas para retas e planos e estudamos um pouco sobre “posição relativa”, isto é, possibilidades
para o conjunto interseção de retas e planos dados. Neste momento, o estudo de sistemas lineares do
Capítulo 2 começa a ser utilizado. As chamadas “equações gerais” de retas e planos em espaços
cartesianos bi e tridimensionais, que nada mais são que sistemas lineares particulares, são estudadas
na Seção 3.3 (a noção de determinante se faz útil pela primeira vez). A Seção 3.4 é dedicada ao início
do estudo de noções de medidas como comprimento de vetores (ou seguimentos de retas) e ângulo.
Neste momento nos restringimos ao caso F = R, deixando a discussão sobre o que pode ser feito
no caso de outros corpos para ser estudado mais adiante (Capítulos 7 e 9). Outra noção importante
estudada nesta seção é a de projeção ortogonal em retas e planos. Na Seção 3.5 estudamos o conceito
de produto vetorial em R3, conceito estreitamente ligado ao de volume e, portanto, importantíssimo
para o segundo curso de cálculo assim como para os cursos de física básica. Finalmente, a última
seção do capítulo é dedicada ao estudo do cálculo de distância entre pontos, retas e planos.
2Aos mais exarcebados, note que não está escrito aqui que existe demonstração para o Postulado das Paralelas. Apenas
que o mesmo é deduzível de outro conjunto de axiomas: o “da” Teoria de Conjuntos (existem várias possibilidades de
conjunto de axiomas para se falar de teoria de conjuntos, com o perdão do trocadilho...)
3Muitos colegas docentes serão contra tal generalidade para um curso de primeiro semestre. Minha observação em sala
indica que isto não causa prejuízos de aprendizado em geral e, de fato, ao forçar os alunos a pensarem de maneira mais
abstrata, a maioria acaba se organizando e vencendo as falácias acumuladas do excesso de utilização de mera intuição
(por vezes equivocada) e outros problemas oriundos do ensino pré-universitário mais rapidamente. Evidentemente, há de
se escolher uma linguagem para transmitir tais idéias que seja acessível aos estudantes desta idade.
vii
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rA última parte do curso de geometria analítica (Capítulo 4) é dedicada ao estudo das chamadascônicas (elipses, hipérboles e parábolas) que são curvas planas cujas interessantes propriedades ge-
ométricas lhes tornam bastante úteis em aplicações no “mundoreal”. Não sendo este um curso de
aplicações, o principal foco é utilizar o exemplo das cônicas para prover ao estudante experiência ini-
cial sobre o assunto de curvas e superfícies. As cônicas serão apresentadas via propriedades métricas,
isto é, utilizando o conceito de distância recém estudado. Porém, veremos também que, do ponto
de vista algébrico, as cônicas completam, junto com pontos e retas, as possibilidades de conjunto
solução em R2 para uma equação polinomial de grau 2 em duas variáveis reais, também chamada
de uma equação quadrática. O problema de identificar o tipo de conjunto solução de uma equação
quadrática leva ao estudo de rotações e também a um primeiro contato com as noções de autovalores
e autovetores, ferramentas quase onipresentes na utilização da álgebra linear nas ciências aplicadas
e que serão sistematicamente estudadas nas Seções 6.4 e 7.5, já pertencentes ao primeiro curso de
álgebra linear. Várias superfícies em R3 relacionadas às cônicas, as chamadas quádricas, também
serão estudadas dando ao aluno a oportunidade de estudar conceitos como superfícies de revolução,
superfícies cilíndricas e superfícies cônicas. Este assunto também provê ambiente interessante para
apresentar os conceitos de coordenadas polares, cilíndricas e esféricas assim como o de parametriza-
ções de curvas, superfícies e sólidos que serão essenciais nos cursos de cálculo e física básica. Em
particular, logo no início do capítulo, comentamos sobre a noção de medida de ângulo em radianos
(deixando o tratamento teórico relativo às questões sobre limites para os cursos de cálculo, já que
nossa medida oficial não requer a utilização da noção de limite).
Álgebra Linear
O conteúdo dos cursos de álgebra linear se inicia no Capítulo 5 introduzindo uma visão mais geral
para o conceito de vetor. Um olhar atento pelo que foi estudado nas três primeiras seções do Capítulo
3 nos mostra que boa parte das noções geométricas foram desenvolvidas utilizando apenas e tão
somente o fato que os espaços cartesianos possuem estruturas algébricas, a saber, a soma de vetores e a
multiplicação de um vetor por um “número” (que no jargão da área é mais usualmente chamado de um
“escalar” em contraposição ao termo “vetor”). Por exemplo, as definições das noções de reta, plano
e paralelismo (coincidência de direção) utilizam apenas as estruturas algébricas para vetores e foram
definidas uniformemente para qualquer corpo F. Assim, a noção de vetor de fato está relacionada a
tais estruturas, sendo este o ponto de partida para definir de forma mais geral e abstrata a noção de
vetor na Seção 5.1, dando origem ao conceito fundamental de “espaço vetorial”. Logo na sequência,
na Seção 5.2, é generalizado o conceito de “geração” utilizado de maneira implícita na Seção 3.2 nas
definições de retas e planos. Em particular, é introduzido o conceito de subespaço vetorial. Com isso,
encerramos o trabalho de generalização dos assuntos estudados nas duas primeiras seções do Capítulo
3.
A seguir, na Seção 5.3, utilizamos a noção de subespaços gerados por subconjuntos de vetores
para definir aquela de “soma de subespaços vetoriais”. Este é um momento importante do curso pois,
por algum motivo relacionado às deficiências do manuseio do raciocínio lógico abstrato oriundas
do ensino pré-universitário, muitos alunos fazem uma confusão insistente entre as noções de união
de subespaços e a de soma de subespaços, apesar da diferença ser tão elementar ao ponto de ser
“desenhável”. Todavia, me parece uma oportunidade para enraizar de maneira mais forte o fato de que
viii
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
ra noção de soma de subespaços está intimamente ligada à de geração (via as estruturas algébricas),enquanto que a união é uma noção muito mais primitiva (utilizando só o fato de termos conjuntos
subjacentes). Ainda na Seção 5.3 definimos o que significa uma soma de subespaços vetoriais ser
“direta”, ligando tal conceito àquele de “projeção”: cada decomposição de um espaço vetorial em
soma direta de subespaços dá origem a projeções nas diversas parcelas da soma. Esta noção aparecia
de maneira implícita no curso de geometria analítica: o espaço cartesiano F3 é a soma direta dos três
eixos coordenados assim como do “plano xy” com o “eixo z”, etc. No primeiro desses exemplos, o
cálculo das projeções nos eixos coordenados se confunde com o próprio conceito de coordenada que
parece intrínseco à noção de espaço cartesiano. Chega-se então o momento de entender que a noção
de coordenadas não é inerente ao modelo dos espaços cartesianos, mas sim mais um dos conceitos
relacionado às estruturas algébricas dos espaços vetoriais e, portanto, pode ser definida de maneira
abstrata. Para tanto, a noção de dependência e independência linear entre vetores, isto é, quando que
vetores podem ou não serem expressos em termos de “outros” vetores via as estruturas algébricas,
é introduzida na Seção 5.4. Em combinação com o conceito de geração, a noção de independência
linear dá origem aos conceitos de base de um espaço vetorial e suas respectivas coordenadas.
Aqui cabe uma pausa para justificar uma escolha de linguagem/notação que fizemos para este texto
que difere da literatura existente: a linguagem de famílias de elementos de um conjunto dado que,
apesar de ter aparecido de maneira leve nos três primeiros capítulos, passa a ser usada de maneira de
fato relevante no Capítulo 5. As noções de dependência linear e coordenadas de fato motivaram nossa
escolha por essa linguagem. O padrão da literatura é falar de “subconjuntos” linear (in)dependentes.
Porém, um olhar nem tão profundo assim revela que, apesar da palavra “conjunto” ser essencialmente
onipresente neste contexto na literatura, o que está sendo usado de fato é a noção de “multiconjunto”,
isto é, permite-se a repetição de elementos. De fato, é bastante comum encontrar argumentos que
consideram certos vetores num espaço vetorial V indexados pelos números naturais, vn ∈ V, n ∈ N,
e a definição de vn se dá via alguma expressão que depende do valor de n. O argumento prossegue
tentando mostrar que tais vetores formam um “conjunto” linearmente (in)dependente. Em particular,
se vn = vm para valores distintos de m e n, conclui-se que se tratava de um “conjunto” linearmente
dependente. Porém, a noção de conjunto não acomoda repetições e, se a noção de dependência linear
estivesse realmente sendo utilizada apenas para conjuntos, a coincidência vn = vm seria irrelevante
para concluir qualquer coisa... Por isso, preferimos aqui desenvolver o texto olhando para (vn)n∈N
como uma família de vetores indexada por N, isto é, uma função N→ V cujo valor em n é o vetor vn.
Evidentemente, N pode ser substituído por qualquer conjunto “de índices” I. Veja que todo conjunto
pode ser re-interpretado como uma família (indexada por si mesmo). Cremos que a linguagem de
família é mais conveniente que a de “multiconjunto”, inclusive do ponto de vista didático, e nos
permite definir, por exemplo, o conceito de matriz sem a enganação usual de dizer que uma matriz é
uma “tabela” (o que é uma tabela?). A linguagem de famílias será ainda mais importante nos capítulos
correspondente ao segundo curso de álgebra linear, quando a presença de famílias infinitas de vetores
nos argumentos passará a ser muito mais frequente.
Outra vantagem da noção de família é que não precisamos falar de base “ordenada” para podermos
falar de coordenadas. Como no primeiro curso de álgebra linear lidamos quase que todo o tempo
com famílias finitas, ordenar bases acaba sendo bastante intuitivo. Porém, não é nada intuitivo o
fato que todo conjunto pode ser totalmente ordenado. Todavia, isso não nos impede de falar de
coordenadas mesmo se a base for infinita: basta falar da família de coordenadas associada à base
dada que, por sua vez, é uma família de vetores indexadas por algum conjunto I. Assim, para cada
ix
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar,Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
ri ∈ I, a “i-ésima” coordenada corresponde ao “i-ésimo” vetor da base, sem necessidade nenhumade pensar se I está ordenado ou não. Apesar de a utilização da linguagem e notação do conceito de
família causar um certo desconforto nos estudantes no início, não demora tanto para este problema
ser sanado e, pelas minhas observações, acaba gerando um ganho de velocidade e profundidade no
aprendizado dos tópicos a serem discutidos a seguir. Além disso, creio ser bastante saudável que
aluno do segundo curso de álgebra linear entenda que o conceito de coordenada não é dependente do
conceito de ordenação e não vejo o valor didático de causar este tipo de mal-entendido no primeiro
curso para depois removê-lo no segundo.
A parte final do Capítulo 5 é dedicada ao conceito de dimensão, isto é, ao fato que quaisquer
duas bases de um espaço vetorial dado têm a mesma cardinalidade, que passa a ser chamada de a
dimensão daquele espaço. Ainda na Seção 5.4, demonstramos que todo espaço vetorial finitamente
gerado possui base e estudamos processos recursivos para retirar vetores de uma família geradora
finita ou adicionar vetores a uma família linearmente independente até obtermos uma base para o es-
paço. A igualdade das cardinalidades que acabamos de mencionar acaba sendo demonstrada no meio
do estudo de tais algoritmos que podem ser refraseados em termos de escalonamento de matrizes,
conectando com o que foi estudado na Seção 2.3. A demonstração geral que qualquer espaço vetorial
possui base e quaisquer duas bases têm a mesma cardinalidade requer argumento mais sofisticado
(axioma mais sofisticado da teoria de conjuntos) e é dada na Seção 5.5 que, apesar de estar no Ca-
pítulo 5 por coesão do texto, é em geral omitida no primeiro curso de álgebra linear, sendo estudada
logo no início do segundo.
No Capítulo 6, iniciamos o estudo das chamadas transformações lineares, isto é, funções entre dois
espaços vetoriais que são “compatíveis” com as estruturas algébricas de ambos. Após a definição e
exemplos básicos, passamos a estudar a relação entre transformações lineares e matrizes via escolha
de bases para o domínio e contradomínio. Em outras palavras, passamos ao estudo de transformações
lineares via escolha de sistemas de coordenadas. Neste contexto, uma vez feitas as escolhas de bases,
cada transformação linear fica “representada” por uma matriz e cada matriz m × n, sendo n e m as
dimensões do domínio e contradomínio, respectivamente, representa uma única transformação linear.
Talvez a revelação mais forte da Seção 6.2 seja a fórmula (6.2.8) que mostra que a fórmula para
multiplicação de matrizes, que até este momento provavelmente permanece misteriosamente artificial
para os estudantes, nada mais é que a manifestação em coordenadas da composição de transformações
lineares. Na Seção 6.3 começamos o estudo da estrutura de uma transformação linear dada, isto é,
procuramos entender os subespaços que sejam “especiais” com respeito à mesma. Dois subespaços
especialmente importantes são a sua imagem e o seu núcleo. Em particular, veremos como núcleo e
imagem se relacionam, via representação matricial, ao estudo de sistemas lineares feito no curso de
geometria analítica.
Quando domínio e contradomínio de uma transformação linear coincidem, é comum usar-se o
termo “operador linear”. Operadores lineares aparecem em várias áreas das ciências aplicadas e o
estudo de sua estrutura é vital para o entendimento dessas aplicações. O principal tipo de subespaço
estruturalmente relevante para operadores lineares são os chamados subespaços invariantes. Dentre
estes destacam-se os chamados autoespaços. Do ponto de vista algébrico, os autoespaços de um ope-
rador linear dado podem ser descritos como os subespaços não nulos que têm a seguinte propriedade:
qualquer um de seus vetores gera um subespaço invariante. Isto quer dizer que os autoespaços são
os subespaços invariantes mais simples que existem, pois qualquer um de seus subespaços é também
invariante. Cada vetor não nulo num autoespaço é dito um autovetor do dado operador linear e a
x
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r“ação” do operador nos vetores de um dado autoespaço é descrita pela multiplicação por um escalarfixo, chamado do autovalor associado àquele autoespaço. Autovetores e autovalores aparecem com
assustadora variedade de interpretações nos mais diversos contextos científicos onde a álgebra linear
se faz relevante. O foco deste nosso primeiro contato com estes conceitos na Seção 6.4 é fornecer
métodos para caracterizar os operadores diagonalizáveis, isto é, aqueles que possuem representação
matricial dada por uma matriz diagonal. Em outras palavras, queremos saber se é possível encontrar
e, neste caso, como encontrar, base para o espaço vetorial formada por autovetores do operador linear
dado. Este problema será então refraseado numa roupagem puramente matricial na Seção 6.5, dando
origem ao conceito de semelhança de matrizes.
Terminamos o Capítulo 6 com um apêndice sobre os conceitos de espaços vetoriais quocientes
e transformações lineares que “fatoram” a espaços quocientes. Apesar de todos os pré-requisitos
necessários para tal estudo já terem sido desenvolvidos até aqui, tipicamente este não é um tópico para
o primeiro curso de álgebra linear pois exige uma capacidade de raciocinar de maneira abstrata ainda
maior. Além disso, ele não terá impacto no desenvolvimento do restante do texto. Espaços quocientes
fornecem ferramentas teóricas que podem ser bastante úteis para desenvolver uma argumentação mais
eficiente. Porém, escolhemos evitar a utilização deste tipo de artifício no texto principal, deixando
sugestões de tais alternativas nas listas de exercícios.
Enquanto os dois capítulos anteriores trataram de aspectos puramente algébricos, generalizando
o que havíamos estudado nas primeiras seções do Capítulo 3, o último capítulo referente ao primeiro
curso de álgebra linear é dedicado ao estudo de aspectos métricos, generalizando o conteúdo da Seção
3.4 e parte da Seção 3.5 (a generalização do conceito de produto vetorial aparecerá só na Seção 10.4).
Iniciamos o Capítulo 7 apresentando a definição geral abstrata do conceito de produto interno para
espaços vetoriais sobre certos subcorpos dos números complexos (incluindo os próprios complexos,
os reais e os racionais) e estudando representações matriciais para produtos internos, isto é, estudando
produtos internos via coordenadas. A seguir, demonstramos o fato crucial sobre produtos internos:
a Desigualdade de Cauchy-Shwarz. A partir daí, a noção de norma de vetor e ortogonalidade, assim
como de ângulo em geral caso o corpo seja subcorpo dos reais, são definidas como no curso de
geometria analítica. Em particular, estudaremos as conveniências de se trabalhar com bases formadas
por vetores mutuamente ortogonais e, no caso de espaços de dimensão finita, veremos que sempre
é possível encontrar bases ortogonais a partir de um processo recursivo conhecido como processo
de ortogonalização de Gram-Schimidt. Na Seção 7.3 exploraremos os conceito de complementos
ortogonais e correspondentes projeções e reflexões.
Voltamos a estudar transformações lineares, desta vez explorando aspectos métricos, nas duas úl-
timas seções do Capítulo 7. Na Seção 7.4 estudamos dois conceitos importantíssimos: isometria4 e
adjunção hermitiana. Estabelecemos critérios para determinar se uma dada transformação linear é
uma isometria assim como para calcular sua adjunta hermitiana. Em particular, veremos primeiros
indícios de que a “inocente” operação de transposição de matrizes esconde significado geométrico
bastante profundo. Na última seção voltamos ao estudo de operadores diagonalizáveis, agora no
contexto de espaços vetoriais munidos de produto interno. Desta vez estamos interessados em carac-
terizar os operadores que podem ser diagonalizados via alguma base ortogonal,isto é, queremos saber
4Os termos transformação linear “ortogonal” (no caso dos reais) e “unitária” (no caso dos complexos) são mais comu-
mente usados ao invés do termo “isometria”.
xi
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rse é possível encontrar base para o espaço vetorial formada por autovetores mutuamente ortogonais.A resposta precisa, que envolve o conceito de adjunção hermitiana de maneira crucial, é fornecida no
caso do corpo de escalares ser ou o corpo do reais ou o dos complexos e é conhecida como Teorema
Espectral. Do ponto de vista operacional, isto é, o método para encontrar tais bases quando existirem
é exatamente o mesmo que foi estudado na Seção 6.4 seguido da utilização do processo de ortogona-
lização de Gram-Schimidt, se necessário. Isto encerra o conteúdo do primeiro curso de álgebra linear
e único para todos os alunos exceto os do bacharelado em matemática. Todavia, creio que muitos
estudantes dos cursos de física e matemática aplicada seriam bastante beneficiados se estudassem,
ainda que por conta própria, o material dos capítulos subsequentes.
Álgebra Linear Avançada
A versão atual da Seção 8.2 não atendeu às expectativas didáticas do autor e será modificada, devendo
causar modificações também na Seção 8.3. Por isso, esta parte da introdução só será escrita após a
implementação de tais modificações.
xii
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r1. Estruturas Algébricas
Este capítulo tem dois objetivos. O primeiro é revisar conceitos e resultados fundamentais sobre con-
juntos, funções e relações binárias (como relações de ordem e de equivalência). O outro é apresentar
as definições das estruturas algébricas fundamentais que levam ao que podemos chamar informal-
mente de “conjuntos de números”, fundamentais para o desenvolvimento da geometria analítica, do
conceito de vetores e da álgebra linear. Em particular, apresentaremos a definição dos números natu-
rais via os Axiomas de Peano na Seção 1.2 e, a partir deles, construiremos os inteiros, os racionais,
reais e complexos em seções subsequentes.
Além disso, na Seção 1.5, introduziremos a linguagem de famílias que será usada por todo o texto.
Em particular, apresentamos a definição de matrizes como um tipo de família. Também aproveitamos
para definir os conceitos de equação e sistemas de equações (que são famílias de equações).
O conceito de polinômios e funções polinomiais também são extremamente importantes para o
desenvolvimento do texto e, por isso, dedicamos a Seção 1.8 para apresentar a formalização destes
conceitos e revisar sua propriedades mais importantes.
Aviso aos usuários das versões preliminares deste texto: Este capítulo será o último a ser comple-
tado e revisado pois o material a ser incluído e o nível da apresentação de cada uma de suas seções
dependerá do desenvolvimento e necessidades dos demais capítulos.
1.1. Conjuntos e Funções
A noção de conjuntos será tratada neste texto como uma noção primitiva, isto é, a existência de con-
juntos e a noção de pertinência de elementos a conjuntos não são definidas, mas axiomatizadas, assim
como algumas propriedades básicas. A discussão da axiomática da teoria de conjuntos é bastante
complicada com muitas vertentes e objeções ao seu uso como noção primitiva. Por isso, não entra-
remos nesta seara. De fato, a noção intuitiva do que é um conjunto é suficiente para o conteúdo que
será desenvolvido neste texto, com exceção da eventual necessidade de utilizar o Axioma da Escolha.
Nesta seção relembraremos de maneira informal um pouco da terminologia da teoria de conjuntos.
Se a for um elemento de um conjunto A, escrevemos a ∈ A. Conjuntos frenquentemente serão
descritos por listagem de seus elementos (por exemplo, A = {1, 2, 3} significa que os elementos de
A são os números 1, 2 e 3) ou por descrição de alguma propriedade (por exemplo, A = {m ∈ Z :
m é par}). Os símbolos ⊆ e ⊇ serão usados para denotar continência de conjuntos. Assim, B ⊆ A
(ou equivalentemente A ⊇ B) significa que todo elemento de B é também um elemento de A. Em
particular,
A = B se e somente se A ⊆ B ⊆ A.
Dados dois conjuntos A e B, definimos
A \ B = {a ∈ A : a < B}.
O conjunto vazio será denotado por ∅. Um subconjunto B do conjunto A é dito um subconjunto
próprio se A \ B , ∅ ou, equivalentemente, B , A. Neste caso escrevemos B $ A (ou A % B). A
união e a interseção dos conjunto A e B são os seguintes conjuntos
A ∪ B = {x : x ∈ A ou x ∈ B} e A ∩ B = {x : x ∈ A e x ∈ B}.
1
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rUm conjunto X é dito unitário se X , ∅ e x = y para todo x, y ∈ X. Escreveremos #X = 1 paradizer que X é um conjunto unitário. O conjunto das partes de X é o conjunto
(1.1.1) P(X) = {A : A ⊆ X}.
Isto é, os elementos de P(X) são os subconjuntos de X. Em particular ∅ ∈P(X) e X ∈P(X). Veja
que, se X = {x} é um conjunto unitário, então P(X) = {∅, X}. Dados x, y ∈ X, considere o conjunto
(1.1.2) (x, y) = {{x}, {x, y}} ∈P(P(X)).
Em outras palavras, (x, y) é o conjunto cujos elementos são os subconjunto {x} e {x, y} de X. Observe
que, se x = y, então (x, y) = (x, x) = {{x}}. O leitor pode verificar que, dados x, x′, y, y′ ∈ X, temos
(1.1.3) (x, y) = (x′, y′) ⇔ x = x′ e y′ = y.
Um conjunto da forma (x, y) é chamado de um par ordenado de elementos de X, sendo que x é
chamado de a primeira entrada do par e y a segunda. O conjunto de todos os pares ordenados de
elementos de X será denotado por X × X:
(1.1.4) X × X = {(x, y) : x, y ∈ X}.
Dados conjuntos A e B, considere X = A ∪ B e defina
(1.1.5) A × B = {(a, b) : a ∈ A, b ∈ B} ⊆ X × X.
Este conjunto é chamado de o produto cartesianos de A por B. A noção de pares ordenados e produto
cartesiano de dois conjuntos é crucial para entender o conceito de função que revisaremos a seguir.
Dados conjuntos A e B, uma função com domínio A e contradomínio B é um subconjunto f de
A × B satisfazendo as seguintes propriedades:
(F1) Para todo a ∈ A, existe b ∈ B tal que (a, b) ∈ f .
(F2) Se (a, b), (a, c) ∈ f , então c = b.
Escreveremos
f (a) = b se (a, b) ∈ f
e usaremos o símbolo f : A → B para dizer que f é uma função tendo o conjunto A como domínio
e o conjunto B como contra-domínio. Também escreveremos a
f
7→ b para dizer que f (a) = b (ou
simplesmente a 7→ b quando estiver claro quem é a função f ).1
1É comum o uso da noção intuitiva de que uma função de A em B é uma “regra” que associa a cada elemento de A
exatamente um elemento de B. Neste contexto, o conjunto {(a, f (a)) : a ∈ A} ⊆ A × B é chamado de o gráfico de f .
Porém, o conceito de função não é visto como uma noção primitiva e, portanto, formalmente ele deve ser definido a partir
das noções primitivas. Escolhendo-se a noção de conjunto como sendo a noção primitiva a ser usada, necessariamente o
conceito de função deve ser definido a partir dela e, portanto, uma função deve ser também um conjunto. Na linguagem
intuitiva de “regra” que acabamos de mencionar, o gráfico da função é de fato a função do ponto de vista formal definida
a partir da noção de conjuntos.
2
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rO conjunto de todas as funções de A em B será denotado por F (A, B). Às vezes usaremos anotação BA para esse mesmo conjunto. Se C ⊆ A, a imagem de C por f é o conjunto
(1.1.6) f (C) = { f (c) : c ∈ C} = {b ∈ B : b = f (c) para algum c ∈ C}.
A imagem de f , frequentemente denotado por Im( f ), é o conjunto f (A). A função f é dita sobrejetora
se f (A) = B. Em outras palavras, f é sobrejetora se satisfizer:
(F3) Para todo b ∈ B, existe a ∈ A tal que f (a) = b.
Por outro lado, f é dita injetora se satisfizer:
(F4) Se a, a′ ∈ A e a , a′, então f (a) , f (a′).
Se D ⊆ B, a pré-imagemde D por f é o conjunto
(1.1.7) f −1(D) = {a ∈ A : f (a) ∈ D}.
Observe que, se D ∩ Im( f ) = ∅, então f −1(D) = ∅ e que f é injetora se, e somente se, # f −1({b}) = 1
para todo b ∈ f (A). Se f for injetora e sobrejetora, diremos que ela é bijetora. Usaremos a notação
End(A) = F (A, A) e Aut(A) = { f ∈ End(A) : f é bijetora}.
Dada uma função f : A → B e C ⊆ A, a restrição de f a C é a função de C em B dada por
c 7→ f (c) para todo c ∈ C. É usual usar-se a notação f |C para a restrição de f a C. Se D ⊇ f (A), a
co-restrição de f a D é a função de A em D dada por a 7→ f (a) para todo a ∈ A. Não adotaremos
nenhuma notação especial para a co-restrição e mais usualmente nos referiremos a ela como a função
de A em D induzida por f . Podemos misturar o processo de restrição com o de co-restrição: se C ⊆ A
e D ⊇ f (C), consideramos a função de C em D dada por c 7→ f (c), ou seja, a co-restrição a D da
restrição de f a C. Suponha agora que B = A. Um subconjunto C de A é dito invariante por f (ou
f -invariante) se f (C) ⊆ C. Neste caso, a função f induz uma função de C em C via restrição e
co-restrição.
Se f ∈ F (A, B),C ⊇ f (A) e g ∈ F (C,D), dizemos que g é componível com f e a função composta
g ◦ f : A→ D é a função dada por
(g ◦ f )(a) = g( f (a)) para todo a ∈ A.
Observe que, se A = B, então f é componível consigo mesma. A função identidade do conjunto A é a
função IdA : A→ A, a 7→ a. Uma função g : B→ A é dita uma inversa à esquerda de f se g◦ f = IdA.
Analogamente, g é dita inversa à direita de f se f ◦ g = IdB. Se g for ao mesmo tempo inversa à
esquerda e à direita de f , diremos que g é uma inversa de f .
Proposição 1.1.1. Seja f ∈ F (A, B).
(a) Existe inversa à esquerda para f se, e somente se, f for injetora.
(b) Existe inversa à direita para f se, e somente se, f for sobrejetora.
3
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(c) Existe inversa para f se, e somente se, f for bijetora. Neste caso, existe uma única inversa àesquerda e uma única inversa à direita para f e elas coincidem.
(d) Se F (A, B) possui alguma função injetora e também alguma função sobrejetora, então existe
função bijetora em F (A, B). �
Por causa da parte (c) da proposição, criamos uma notação especial para a inversa de f (quando ela
existe): f −1. Observe que, para todo b ∈ B, f −1(b) = a com a sendo o único elemento da pré-imagem
de {b}.
Exercícios
1.1.1. Suponha que f , g e h sejam funções tais que f ◦ g e g ◦ h estejam definidas. Mostre que
( f ◦ g) ◦ h = f ◦ (g ◦ h).
1.1.2. Mostre que a composta de funções injetoras é injetora e que a composta de funções sobrejetoras
é sobrejetora.
1.1.3. Dada f ∈ F (A, B), mostre que
(a) Para quaisquer subconjuntos X,Y de A valem f (X ∪ Y) = f (X) ∪ f (Y) e f (X ∩ Y) ⊆
f (X) ∩ f (Y).
(b) Se f é injetora, então f (X ∩ Y) = f (X) ∩ f (Y). Vale a recíproca?
(c) Para quaisquer subconjuntos X,Y de B valem f −1(X ∪Y) = f −1(X)∪ f −1(Y) e f −1(X ∩Y) =
f −1(X) ∩ f −1(Y).
(d) Para todo X ⊆ A, vale X ⊆ f −1( f (X)). Além disso, a igualdade vale se f for injetora.
1.1.4. Mostre que, para todo conjunto A, existe conjunto B tal que A∩ B = ∅ e F (A, B) possui função
bijetora.
1.1.5. Demonstre a Proposição 1.1.1.2
1.1.6. Mostre que existe função injetora em F (A, B) se, e somente se, existe função sobrejetora em
F (B, A).
1.1.7. Mostre que uma função f : A → B é injetora se, e somente se, f (C) , f (A) para todo subcon-
junto próprio C de A.
1.1.8. Sejam A e B conjuntos não vazios e suponha que C seja um conjunto no qual podem ser defini-
das funções α : C → A e β : C → B satisfazendo as seguintes propriedades:
(i) Dados a ∈ A e b ∈ B, existe c ∈ C tal que a = α(c) e b = β(c);
(ii) Dados c, c′ ∈ C, vale c = c′ somente se α(c) = α(c′) e β(c) = β(c′).
2A parte (d) tem demonstração bastante mais complicada e é conhecida como Torema de Schröder-Bernstein.
4
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rMostre que existe função bijetora de C em A × B.31.1.9. Faça os exercícios de 1 a 15 do Capítulo I de [10].
1.2. Princípio da Indução Finita
Dado um conjunto X, o conjunto X ∪ {X} cujos elementos são X e os elementos de X, é chamado de
o sucessor de X e será denotado por s(X). Assim, “podemos considerar a sequência” de sucessores:
X, s(X), s(s(X)), . . .
Por exemplo, se X = ∅, esta “sequência” é
∅, {∅}, {∅, {∅}}, . . .
O motivo do uso das aspas acima é o significado indefinido da noção de “sequência”. A formalização
de tal significado é equivalente a definir o conjunto dos números naturais o que nos leva de volta
à discussão sobre quais noções devem ser vistas como noções primitivas e, portanto, sua existência
deve ser descrita axiomaticamente. Adotaremos esta atitude para descrever os números naturais aqui
axiomatizando sua existência via os chamados Axiomas de Peano. Fica então axiomatizada a existên-
cia de um conjunto não vazio N para o qual existe uma função s ∈ End(N) satisfazendo as seguintes
propriedades
(N1) N \ s(N) , ∅.
(N2) A função s é injetora.
(N3) Se A é um subconjunto de N invariante por s tal que (N \ s(N)) ∩ A , ∅, então A = N.
Os elementos do conjunto N serão chamados de números naturais. Dado n ∈ N, o elemento s(n)
será chamado de o sucessor de n. Neste caso, n é chamado de um antecessor de s(n). Veja que a
injetividade de s garante que cada número natural m possui, no máximo, um antecessor, isto é, o
conjunto {n ∈ N : s(n) = m} é unitário ou vazio.
Os axiomas (N1) e (N3) juntos implicam que N\ s(N) é um conjunto unitário, isto é, existe apenas
um elemento que não é sucessor de ninguém. De fato, suponha que existissem x, y ∈ N \ s(N) com
x , y e considere o conjunto A = N \ {y} , N. Tal A é invariante por s já que y < s(N). Além disso,
como x , y, x ∈ (N \ s(N)) ∩ A. Logo, por (N3), deveríamos ter A = N, que é uma contradição. O
único elemento de N \ s(N) será chamado de zero e denotado por 0. O sucessor de zero é chamado
um e será denotado por 1. O axioma (N3) é conhecido como o Princípio da Indução Finita e garante
que todos os números naturais são “atingidos” por s a partir de 0. Em outras palavras, (N3) é a
formalização da noção de sequência que escrevemos entre aspas acima. Feitas estas considerações,
os axiomas (N1) e (N3) juntos (mas não cada um isoladamente) são equivalentes aos seguintes:
3Isso significa que o conceito de produto cartesiano pode ser axiomatizado via existência de conjunto C com tal
propriedde.
5
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(N1’) N \ s(N) é unitário e seu elemento será denotado por 0.(N3’) Se A é um subconjunto de N tal que 0 ∈ A e s(n) ∈ A para todo n ∈ A, então A = N.
Existem maneiras diferentes de frasear os Axiomas de Peano na literatura. Por exemplo, o pri-
meiro axioma em geral é fraseado como “0 ∈ N”. Porém, tal fraseamento prevê atribuição de signifi-
cado prévio para o símbolo “0”. Outros autores que, por motivos filosóficos preferem não considerar
0 como número natural, usam o fraseamento “1 ∈ N”. A inclusão do zero em N tornará a escrita
da definição de soma e multiplicação em N (que faremos na Seção 1.4) mais simples. De qualquer
maneira, como os números naturais surgiram devido à necessidade de se formalizar processos de
contagem e toda contagem se incia com a ausência de elementos, nos parece que é justo dizer que
0 é natural. Por outro lado, historicamente a humanidade demorou muito para “aceitar” zero como
sendo um “número” e, portanto, talvez ele não seja tão natural assim. Todavia, neste texto 0 ∈ N. Os
números cujos nomes são 2, 3, . . . , 9 são definidos como 2 = s(1), . . . , 9 = s(8), etc.
Apresentemos um primeiro uso do Princípio da Indução Finita para introduzir o conceito de pa-
ridade de um número natural. Mais precisamente, definiremos uma função denominada par de N em
seu subconjunto {0, 1}por par(0) = 0 e, supondo par(k) definido para algum k ∈ N, definimos
(1.2.1) par(s(k)) =
®
1, se par(k) = 0,
0, se par(k) = 1.
Se par(n) = 0, diz-se que n é um número par. Caso contrário, n é dito ímpar. Precisamos justificar por
que de fato par(n) foi definida para todo n ∈ N. Considere o conjunto
A = {n ∈ N : par(n) está definida}.
Então 0 ∈ A e A é s-invariante. Logo, (N3) diz que A = N. O Princípio da Indução Finita utilizado na
maneira que acabamos de usar, isto é, para definir algo a partir do conhecimento de seu antecessor,
também é chamado de processo de definição por recursão ou uma definição recursiva (ou indutiva).
A seguir, usaremos o processo recursivo para introduzir uma notação bastante comum. Suponha
que X seja um conjunto não vazio e que f ∈ End(X). Então f é componível com si mesma e a
composta f ◦ f é frequentemente denotada por f 2. Queremos definir elementos de End(X) cujos
“nomes” serão f n com n ∈ N. Mais precisamente, definiremos uma função
φ : N→ End(X), φ(n) = f n
fazendo
(1.2.2) f 0 = φ(0) = IdX e f s(k) = φ(s(k)) = f ◦ φ(k) = f ◦ f k.
Em particular, f 1 = f ◦ IdX = f , f 2 = f ◦ f e f 3 = f ◦ ( f ◦ f ).
Veja que a discussão do último parágrafo se aplica ao caso X = N e f = s. Como segunda
ilustração de utilização do Princípio da Indução, mostremos que
(1.2.3) sn(0) = n para todo n ∈ N.
6
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rDefinindo A = {n ∈ N : sn(0) = n}, precisamos mostrar que A = N. Veja que, como s0 = IdN, temoss0(0) = 0 e, portanto, 0 ∈ A. Assim, por (N3), basta verificarmos que A é s-invariante. De fato, dado
n ∈ A, temos
ss(n)(0) = s(sn(0)) = s(n),
sendo que a segunda igualdade segue da hipótese n ∈ A. Logo, s(n) ∈ A, mostrando que A é s-
invariante.
A demonstração que acabamos de fazer é o protótipo do que é chamado de uma “demonstração
por indução”. De maneira geral, dada uma “sequência de propriedades” P(n), n ∈ N, demonstrar que
tais propriedades são verdadeiras por indução significa mostrar que A = N utilizando (N3) sendo
A = {n ∈ N : P(n) é verdade}. Em outras palavras, mostra-se que P(0) é verdadeira e, supondo-se que
P(n) seja verdadeira para algum n ∈ N, mostra-se também que P(s(n)) é verdadeira, isto é, que A é
s-invariante.
A seguir, mostremos que
(1.2.4) s(m) , m para todo m ∈ N.
Equivalentemente, definindo
A = {m ∈ N : s(m) , m},
queremos mostrar que
A = N
Por (N3’), basta mostrarmos que 0 ∈ A e s(A) ⊆ A. Como 0 ∈ N \ s(N), isto é, 0 não é sucessor de
ninguém, é claro que s(0) , 0 e, portanto, 0 ∈ A. Se existisse m ∈ A tal que s(m) < A, teríamos uma
contradição. De fato, por definição de A, s(m) < A significa que
s(s(m)) = s(m).
Mas (N2) então implicaria m = s(m), contradizendo m ∈ A. Assim, acabamos de usar indução para
mostrar (1.2.4).
Exercícios
1.2.1. Suponha que N seja um conjunto não vazio e que σ : N → N seja uma função injetora satisfa-
zendo:
(i) N \ σ(N) , ∅;
(ii) Se A é um subconjunto de N invariante por σ tal que (N \ σ(N)) ∩ A , ∅, então A = N.
Mostre que existe única função bijetora f : N → N tal que σ ◦ f = f ◦ s. Isto mostra que o
conjunto dos números naturais é “único”.
1.2.2. Generalize (1.2.4) e mostre que, se n , 0, sn(m) , m para todo m ∈ N.
1.2.3. Suponha que X seja um conjunto não vazio e que f ∈ End(X).
(a) Mostre que f m ◦ f n = f n ◦ f m para todo m, n ∈ N.
(b) Mostre que f m ◦ f n = f s
m(n) para todo m, n ∈ N.
7
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r1.3. Relações Binárias
Uma relação binária em um conjunto A é um subconjunto de A×A. Observe que, dados conjuntos não
vazios A e B, toda função f ∈ F (A, B) é uma relação binária em X = A∪B já que f é um subconjunto
de A × B ⊆ X × X.
Se R ⊆ A × A é uma relação binária em A e (a, b) ∈ R, escrevemos a ∼ b (e lemos “a está relacio-
nado a b”). Em geral, estamos interessados em relações binárias que satisfazem algumas propriedades
interessantes (veja as propriedades (F1) e (F2) que toda função satisfaz assim como as propriedades
(F3) e (F4) satisfeitas por algumas funções). Listamos agora algumas das propriedades mais comuns
que uma relação binária pode satisfazer.
(R1) R é reflexiva se a ∼ a para todo a ∈ A.
(R2) R é simétrica se a ∼ b sempre que b ∼ a.
(R3) R é antissimétrica se a ∼ b e b ∼ a somente se a = b.
(R4) R é transitiva se a ∼ c sempre que a ∼ b e b ∼ c.
(R5) R é total (ou linear) se para todo a, b ∈ A, pelo menos uma das duas possibilidades valer: a ∼ b
ou b ∼ a.
Uma relação binária R é dita uma relação de equivalência se satisfizer as propriedades R1,R2 e
R4. Se R é uma relação de equivalência em um conjunto A, a classe de equivalência de a ∈ A é o
conjunto
R(a) = {b ∈ A : b ∼ a}.
É comum usar-se a notação [a] ou ā para a classe de equivalência de a com respeito a uma relação
de equivalência dada. O conjunto de todas as classes de equivalência, {R(a) : a ∈ A}, é usualmente
denotado por A/∼ ou A/R e é chamado de o conjunto quociente de A pela relação R. Observe que
R(a) ∩ R(b) =
®
R(a), se b ∼ a,
∅, caso contrário.
A função
π : A→ A/R, a 7→ R(a),
é chamada de projeção canônica de A em A/R.
Exemplo 1.3.1. Lembre a definição da função de paridade dada em (1.2.1). A relação binária em N
dada por
a ∼ b ⇔ par(a) = par(b)
é uma relação de equivalência com duas classes de equivalência: o subconjunto dos números pares e
o subconjunto dos números ímpares. �
8
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rUma relação binária é dita uma pré-ordem se satisfizer as propriedades R1 e R4. Se, além disso,satisfizer R3, ela é dita uma ordem parcial. Quando trabalhamos com uma ordem parcial, é mais
comum usarmos o símbolo ≤ ao invés de ∼. Também escrevemos a ≥ b para dizer que a ≤ b e
escrevemos a < b (ou b > a) para dizer que a ≤ b e a , b. Uma ordem parcial é dita uma ordem total
se também satisfizer R5. Um conjunto parcialmente (totalmente) ordenado é um par (A,R) sendo R
uma relação de ordem parcial (total) no conjunto A.
Observação 1.3.2. O conceito de relação binária pode ser estendido ao contexto de classes. A con-
tinência de conjuntos determina uma relação de ordem parcial na classe dos conjuntos: A ≤ B se
A ⊆ B. �
Exemplo 1.3.3. Formalizemos a ordem que conhecemos em N. Dados m, n ∈ N, defina
a ≤ b se b = sn(a) para algum n ∈ N.
Mostremos que esta é de fato uma relação de ordem total em N. Como a = s0(a) para todo a ∈ N,
segue que R1 é satisfeita e, de fato,
(1.3.1) 0 ≤ m para todo m ∈ N.
Para mostrar que R4 é satisfeita, suponha que a ≤ b ≤ c, digamos, b = sm(a) e c = sn(b) com
m, n ∈ N. Então, pela parte (b) do Exercício 1.2.3, temos
c = sn(sm(a)) = ss
n(m)(a),
mostrando que a ≤ c. Para verificar R3, suponha que a ≤ b e b ≤ a, digamos b = sm(a) e a = sn(b)
com m, n ∈ N. Segue da demonstração de R4 que a = ssn(m)(a) e, assim, pelo Exercício 1.2.2,
sn(m) = 0. Como 0 < Im(s), segue que n = 0 e, portanto, a = b.
Finalmente, mostremos que R5 é satisfeita. Precisamos mostrar que todo número natural n é
comparável com qualquer elemento de N. Provaremos isto por indução. Seja
A = {n ∈ N : n é comparável com qualquer elemento de N}.
Segue de (1.3.1) que 0 ∈ A. Assim, para mostrar que A = N, basta mostrar que A é s-invariante.
Tome a ∈ A e b ∈ N. Precisamos mostrar que s(a) é comparável com b. Como a ∈ A, sabemos que
ou b ≤ a ou a < b. Analisemos cada caso separadamente. Se b ≤ a, digamos a = sk(b) para algum
k ∈ N, segue que s(a) = s(sk(b)) = ss(k)(b), mostrando que b ≤ s(a) (de fato, b < s(a), por que?) Se
a < b, então b = sk(a) com k ∈ N \ {0}. Portanto, k = s(m) para algum m ∈ N e segue que
b = ss(m)(a) = s(sm(a)) = sm(s(a)),
mostrando que b ≥ s(a). �
Aproveitando a introdução da ordenação de N, faremos agora uma discussão sobre o conceito de
cardinalidade, formalizando o que significa um conjunto “ter menos elementosque” outro conjunto.
Dados m, n ∈ N com m ≤ n, usaremos a notação
[m, n]N = {k ∈ N : m ≤ k ≤ n}.
9
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rDiz-se que um conjunto A é finito se for vazio ou se existir n ∈ N tal que o conjunto F (A, [1, n]N)possua uma função bijetora. Neste caso, pode-se mostrar que tal n é único (Exercício 1.3.12) e este
número é chamado de a cardinalidade de A. Usaremos a notação #A para a cardinalidade de A. A
cardinalidade do conjunto vazio é definida como 0 e de fato temos #A = 1 se A é unitário (demonstre
isso após lembrar a definição de conjunto unitário na Seção 1.1). Se um conjunto A não for finito,
diz-se que ele é infinito e denota-se este fato por #A = ∞. Convidamos o leitor a mostrar que
#N = ∞.
Segue do Exercício 1.3.13 que, se A e B forem finitos, então
(1.3.2) #A ≤ #B ⇔ ∃ f ∈ F (A, B) injetora.
Por causa disso, utilizaremos o lado direito de (1.3.2) como definição da notação “#A ≤ #B” mesmo
que A ou B não sejam finitos. Alternativamente, escreveremos #B ≥ #A se #A ≤ #B. Segue do
Exercício 1.1.6 que
(1.3.3) #A ≤ #B ⇔ ∃ f ∈ F (B, A) sobrejetora.
Observe que, se A , ∅ e B é um conjunto unitário, toda função f ∈ F (A, B) é sobrejetora e toda
função g ∈ F (B, A) é injetora. Ou seja, #A ≥ 1 para todo conjunto não vazio A. Além disso, segue da
parte (d) da Proposição 1.1.1 que
(1.3.4) #A ≤ #B e #B ≤ #A ⇒ ∃ f ∈ F (B, A) bijetora.
Neste caso, diz-se que os conjuntos A e B têm a mesma cardinalidade, fato que será denotado por
#A = #B.
Caso contrário, isto é, se não existir função bijetora de A em B, escreveremos
#A , #B.
Observe que não definimos em momento algum o que significa #A quando A não é finito. Assim, não
estaremos olhando para “#A = #B” com o significado usual de igualdade, mas sim como uma notação
para dizer que existe função bijetora de A em B. Em particular, segue de (1.3.5) que podemos ter
#A = ∞, #B = ∞, mas #A , #B.
Ou seja, não fizemos nenhuma atribuição de significado ao símbolo ∞. Apenas criamos a notação
“#A = ∞” para dizer que A não é finito. Se #A ≤ #B e #A , #B, escreveremos
#A < #B.
Após apresentarmos o conjunto R dos números reais, mostraremos que
(1.3.5) #N < #R.
Um conjunto A é dito enumerável se A for finito ou #A = #N. Portanto, R não é enumerável.
Encerramos aqui nossa discussão sobre o conceito de cardinalidade.
10
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rDada uma relação de ordem parcial num conjunto A e a, b ∈ A, podemos definir as notações deintervalos fechados e abertos
[a, b] = {c ∈ A : a ≤ c ≤ b}, (a, b) = {c ∈ A : a < c < b},
assim como as de intervalo semi-aberto [a, b) e (a, b]. Além disso, definimos
[a,∞) = {c ∈ A : a ≤ c}, (−∞, b] = {c ∈ A : c ≤ b},
e analogamente definimos (a,∞) e (−∞, b). O motivo de termos usado a notação [a, b]N é para
enfatizar que estamos considerando apenas números naturais, distinguindo-se assim, por exemplo,
do intervalo [a, b] dos números racionais ou reais. Porém, se o contexto estiver claro, a exclusão da
referência a N na notação não causará confusão.
Suponha que R seja uma relação binária em um conjunto A. Dado um subconjunto B de A, a
relação em B induzida por R é RB = {(b1, b2) ∈ R : b1, b2 ∈ B}. Se R é uma ordem parcial em A, então
RB é uma ordem parcial em B. Se RB for uma relação de ordem total em B, diz-se que B é uma cadeia
em A. Em outras palavras, usando a notação ≤ no lugar de R, B é dito uma cadeia em A se quaisquer
dois elementos b1, b2 ∈ B forem comparáveis: ou b1 ≤ b2 ou b2 ≤ b1. Assim, se A for totalmente
ordenado, todo subconjunto de A é uma cadeia em A. Um elemento a ∈ A é dito maximal se a′ ≤ a
para qualquer a′ ∈ A comparável a a. Em outras palavras
(1.3.6) a ∈ A é maximal se a ≤ b ∈ A ⇒ b = a.
Um conjunto parcialmente ordenado não precisa ter nenhum elemento maximal. Um elemento a ∈ A
é dito máximo se a′ ≤ a para qualquer a′ ∈ A. Observe que, se A possuir máximo, ele é o único
elemento maximal de A. Neste caso, escrevemos
a = max A.
De maneira similar, definem-se as noções de elementos minimais e de mínimo de um conjunto que,
quando existir, será denotado por min A.
Um elemento de a ∈ A é dito uma cota superior para um subconjunto B de A se
b ≤ a para qualquer b ∈ B.
O conceito de cota inferior se define trocando ≤ por ≥ acima. B é dito limitado superiormente (infe-
riormente), se existir cota superior (inferior) para B em A. Diz-se que B é limitado se for, ao mesmo
tempo, limitado superior e inferiormente. O seguinte lema, conhecido como Lema de Zorn, é um
resultado extremamente útil em várias demonstrações relacionadas a conjuntos infinitos. Ele está for-
temente relacionado à axiomática da teoria de conjuntos pois pode ser demonstrado, via axiomas de
Zermelo-Fraenkel, ser equivalente ao Axioma da Escolha. Por isso, não faremos sua demonstração
aqui.
Lema 1.3.4. Seja A um conjunto não vazio e parcialmente ordenado e suponha que toda cadeia em A
seja limitada superiormente. Então, existe um elemento maximal em A. �
11
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rÉ interessante mencionar que o Axioma da Escolha também é equivalente ao Teorema da Boa Or-denação. Uma relação de ordem total num conjunto A é dita uma boa ordenação se todo subconjunto
não vazio de A possuir elemento mínimo. Um conjunto equipado com uma boa ordenação é dito um
conjunto bem ordenado. O Teorema da Boa ordenação diz que existe boa ordenação em qualquer
conjunto. Não usaremos este fato no texto, mas na Seção 10.4 usaremos o fato mais fraco que todo
conjunto pode ser totalmente ordenado. A ordem usual nos números reais é uma ordem total, mas
não é uma boa ordenação.
Finalizamos a seção introduzindo as noções de supremo e ínfimo para subconjuntos de um con-
junto parcialmente ordenado que são cruciais para o entendimento dos números reais. Suponha que A
seja parcialmente ordenado e que B seja um subconjunto não vazio limitado superiormente. Assim, o
conjunto
S = {a ∈ A : b ≤ a para todo b ∈ B}
das cotas superiores para B é não vazio. Se existir min S , diz-se que B possui supremo em A e
define-se seu supremo (em A) por
(1.3.7) supAB = min S .
Ou seja, o supremo de B em A é a menor de suas cotas inferiores em A, quando tal menor cota superior
existir. Se não houver dúvida a respeito de quem é o conjunto “ambiente”, diremos apenas o supremo
de B ao invés de o supremo de B em A e escreveremos sup B ao invés de supAB.
Analogamente, se B é limitado inferiormente e o conjunto
I = {a ∈ A : a ≤ b para todo b ∈ B}
das cotas inferiores possui máximo, define-se o ínfimo de B por
(1.3.8) inf B = max I.
Voltaremos a falar destes conceitos na Seção 1.7.
Exercícios
1.3.1. Dada uma função f ∈ F (A, B), mostre que a relação binária em A dada por a ∼ a′ se f (a) =
f (a′) é uma relação de equivalência. Além disso, mostre que as classes de equivalênia são os
subconjuntos f −1({b}), b ∈ Im( f ).
1.3.2. Sejam A um conjunto parcialmente ordenado e a, b, c ∈ A. Mostre que se a < b e b < c, então
a < c.
1.3.3. Dados m, n ∈ N tais que m ≤ n, mostre que
m = min[m, n]N e n = max[m, n].
1.3.4. Mostre que a ordem em N definida no Exemplo 1.3.3 é uma boa ordenação. Este fato é conhe-
cido como o Princípio da Boa Ordenação.
12
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r1.3.5. Dado m ∈ N, mostre que {n ∈ N : m < n < s(m)} = ∅.1.3.6. Seja A um conjunto parcialmente ordenado e B um subconjunto não vazio de A.
(a) Mostre que se existe max B, então sup B = max B. Analogamente, se existe min B, então
inf B = min B.1
(b) Mostre que a = sup B se, e somente se, satisfizer as seguintes propriedades
(i) b ≤ a para todo b ∈ B;
(ii) Se a′ ∈ A satisfaz a′ < a, existe b ∈ B tal que a′ < b.
(c) Mostre que se a = sup Be a ∈ B, então a = max B.
(d) Enuncie e demonstre os análogos do interior anterior para o conceito de ínfimo.
1.3.7. Demonstre a seguinte versão do Princípio da Indução Finita. Se m ∈ A ⊆ N e A é s-invariante,
então {n ∈ N : m ≤ n} ⊆ A.
1.3.8. Demonstre a seguinte versão do Princípio da Indução Finita. Seja A ⊆ N tal que 0 ∈ A. Então
A = N se, e somente se, s(n) ∈ A para todo n ∈ N tal que [0, n]N ⊆ A.
1.3.9. Dado n ∈ N, defina [0, n)N = {m ∈ N : 0 ≤ m < n}. Demonstre a seguinte versão do Princípio
da Indução Finita. Seja A ⊆ N. Então A = N se, e somente se, n ∈ A para todo n ∈ N tal que
[0, n)N ⊆ A.
1.3.10. Seja A = {m ∈ N : m = s(m)}. Por (1.2.4), A = ∅. Encontre o erro no seguinte argumento usado
para “mostrar” que A = N. Pelo exercício anterior, basta mostrar que, se [0, n)N ⊆ A, então
n ∈ A. Mas de fato, já que [0, n)N ⊆ A, segue que n = s(m) para algum m ∈ [0, n)N. Como
m ∈ A, temos m = s(m) e, portanto, m = n. Logo, n = s(m) = s(n), mostrando que n ∈ A como
queríamos concluir.
1.3.11. Demonstre a veracidade do seguinte enunciado conhecido como o Princípio das Casas de Pom-
bos (finito). Se m, n ∈ N e 1 ≤ m < n, não existe função injetora f : [1, n]N → [1,m]N.2
Conclua também que não existe função sobrejetora f : [1,m]N → [1, n]N.
1.3.12. Seja A um conjunto não vazio. Mostre que se m, n ∈ N são tais que os conjuntos F (A, [1,m]N)
e F (A, [1, n]N) contenham funções bijetoras, então m = n. 3
1.3.13. Sejam A e B conjuntos finitos com #A = m e #B = n.
(a) Mostre que m ≤ n se, e somente se, existir função injetora em F (A, B).
(b) Mostre que m ≥ n se, e somente se, existir função sobrejetora em F (A, B).
1.3.14. Mostre que se A é unitário, então #A = 1.
1Veremos mais adiante que o supremo ou o ínfimo podem exstir sem que exista o máximo ou o mínimo.
2Portanto, se houverem m casas para alojar n pombos, necessariamente uma das casas terá pelo menos dois pombos.
Se precisar, inspire-se na demonstração do Teorema 3 do Capítulo 2 de [10].
3Lembre que este fato nos permite a definir #A := m quando existe função bijetora em F (A, [1,m]N). A partir deste
momento, o conceito de cardinalidade para conjuntos finitos pode ser usado para resolver outros exercícios.
13
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r1.3.15. Mostre que #N = ∞.
1.3.16. Mostre que se A é finito e B $ A, então #B < #A, isto é, #B ≤ #A e #B , #A. Dê um exemplo
de um conjunto infinito A e um subconjunto próprio B de A tais que #B = #A.
1.3.17. Mostre que se A e B forem conjuntos finitos com #A = #B e f ∈ F (A, B), então f é injetora se,
e somente se, f for sobrejetora. O mesmo vale se os conjuntos forem infinitos?
1.3.18. Sejam A, B,C conjuntos. Mostre que se #A ≤ #B e #B ≤ #C, então #A ≤ #C.
1.3.19. Mostre que todo subconjunto finito não vazio de N possui máximo e mínimo.
1.3.20. Sejam A e B conjuntos não vazios com #B ≥ 2. Mostre que nenhuma função de A em F (A, B)
é sobrejetora.4
1.3.21. Tente mostrar que #A ≥ #N para todo conjunto infinito A. 5
1.4. Operações Binárias
A área da álgebra pode ser descrita de maneira grosseira como a área da matemática que estuda “ob-
jetos” que, de certa forma, imitam parcialmente propriedades satisfeitas pelos conjuntos de números
que estamos acostumados (inteiros, racionais e reais). Vamos nos referir a tais “objetos” por “estrutu-
ras algébricas”. O ponto fundamental sobre conjuntos de números é que sabemos fazer “operações”
entre os números. Desta maneira, o primeiro passo para começarmos a entender o que é uma estrtura
algébrica, é formalizar o que vem a ser uma “operação”. De fato, as operações que conhecemos nos
conjuntos de números que estamos acostumados a usar são exemplos de operações binárias.
Definição 1.4.1. Uma operação binária em um conjunto A é uma função ∗ : A × A→ A. �
A notação de funções não é a mais conveniente para se trabalhar com operações binárias. De fato,
se ∗ é uma operação binária em A, ao invés de escrevermos ∗(a, b) para o resultado de operar a com
b, escreveremos a ∗ b. O resultado de ∗(∗(a, b), c) será denotado por (a ∗ b) ∗ c e assim por diante.
Em geral, estaremos interessados em operações binárias que satisfaçam propriedades interessantes.
Listamos agora algumas propriedades que uma relação binária ∗ em um conjunto A pode satisfazer.
(O1) A operação ∗ é dita comutativa se a ∗ b = b ∗ a para quaisquer a, b ∈ A.
(O2) A operação ∗ é dita associativa se (a ∗ b) ∗ b = a ∗ (b ∗ c) para quaisquer a, b, c ∈ A.
(O3) Diz-se que ∗ possui elemento neutro se existir n ∈ A tal que n ∗ a = a = a ∗ n para qualquer
a ∈ A.
4O argumento para demonstrar este fato é conhecido como Diagonal de Cantor.
5Portanto, “não existe conjunto infinito menor que N”.
14
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rSe a operação for associativa, simplificamos a escrita para a ∗b ∗ c ao invés de (a ∗b) ∗ c. Observe quese n1 e n2 forem elementos neutros para ∗, então n1 = n2. Em outras palavras, se ∗ possuir elemento
neutro, ele é único. De fato, como n1 é elemento neutro, temos n1 ∗ n2 = n2 e, como n2 é elemento
neutro, temos n1 ∗ n2 = n1. Se ∗ possuir elemento neutro, chamado n, um elemento a ∈ A é dito
invertível se existir b ∈ A tal que
a ∗ b = n = b ∗ a.
Neste caso b é dito um elemento inverso de a (com respeito a ∗). Uma vez observado isso, podemos
listar mais uma propriedade que uma operação binária que possui elemento neutro pode satisfazer.
(O4) Todo a ∈ A é invertível.
Se ∗ for associativa, um elemento a pode ter no máximo um inverso. De fato, se b1 e b2 forem inversos
de a, temos
b1 = b1 ∗ n = b1 ∗ a ∗ b2 = n ∗ b2 = b2.
Exemplo 1.4.2. Vamos definir a soma usual dos números naturais e verificar que as propriedades
(O1) a (O3) são satisfeitas. Para cada m ∈ N, definiremos m + n por recursão em n como segue:
(1.4.1) m + 0 := m e m + s(n) := s(m + n).
Como nas definições recursivas anteriores, (N3) garante que de fato definimos m + n para todo n ∈ N.
Lembrando que 1 = s(0), segue que
(1.4.2) m + 1 = m + s(0) = s(m + 0) = s(m) para todo m ∈ N.
Em particular, como definimos 2 = s(1), segue que 1 + 1 = 2. Mostremos que + é associativa. Para
tanto, dados m, n ∈ N, mostraremos por indução em k que
(1.4.3) m + (n + k) = (m + n) + k.
Para k = 0, o lado esquerdo de (1.4.3) é m + (n + 0) = m + n pela primeira parte de (1.4.1). Pelo
mesmo motivo, (m + n) + 0 = m + n. Agora, suponha que (1.4.3) seja válida e veja que
(m + n) + s(k)
(1.4.1)
= s((m + n) + k)
(1.4.3)
= s(m + (n + k))
(1.4.1)
= m + s(n + k)
(1.4.1)
= m + (n + s(k)),
completando o argumento indutivo. Verifiquemos que 0 é elemento neutro para +. Por (1.4.1), 0
é neutro à direita, isto é, m + 0 = m para todo m ∈ Z. Mostremos que também vale 0 + m = m
por indução. Para m = 0 é verdade como acabamos de comentar. Caso contrário, se m , 0, então
m = s(n) para algum n ∈ N e, por hipótese de indução, temos 0 + n = n + 0 = n. Assim,
0 + m = 0 + s(n)
(1.4.1)
= s(0 + n) = s(n) = m.
Agora, mostremos que + é comutativa, isto é, para quaisquer m, n ∈ N, vale
(1.4.4) m + n = n + m.
Já sabemos que (1.4.4) vale se m = 0 ou n = 0. Antes do caso geral, mostremos que (1.4.4) vale para
n = 1 também. Neste caso, o lado esquerdo é igual a s(m). Mostremos que 1 + m = s(m) por indução
15
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rem m que evidentemente vale para m = 0. Então, suponha que m = s(l) para algum l ∈ N e, porhipótese de indução, que 1 + l = s(l). Segue que
1 + m = 1 + s(l)
(1.4.1)
= s(1 + l) = s(s(l)) = s(m),
como queríamos mostrar. Finalmente, mostremos (1.4.4) por indução em n. Só resta o passo indutivo,
isto é, mostrar que se (1.4.4) vale para n, também vale com s(n) no lugar de n. De fato:
m + s(n) = m + (n + 1)
(1.4.3)
= (m + n) + 1
(1.4.4)
= (n + m) + 1
(1.4.3)
= n + (m + 1)
∗
= n + (1 + m)
(1.4.3)
= (n+ 1) + m = s(n) + m.
No passo marcado por ∗ usamos que já demonstramos (1.4.4) no caso n = 1. Na lista de exercícios, o
leitor será convidado a mostrar que 0 é único elemento de N que possui inverso aditivo em N. Asim,
(O4) não é válida. Lembre que definimos 3 = s(2) e 4 = s(3). Verifiquemos que 2 + 2 = 4. De fato,
2 + 2 = 2 + s(1)
(1.4.1)
= s(2 + 1)
(1.4.2)
= s(3) = 4.
Agora, definamos a multiplicação usual em N. Novamente, definimos m · n por recursão em n.
(1.4.5) m · 0 := 0 e m · s(n) := (m · n) + m.
Em particular, segue que
m · 1 = m · s(0) = (m · 0) + m = m.
Deixamos como exercício para o leitor verificar que a multiplicação é associativa e comutativa. Em
particular, 1 é elemento neutro da multiplicação. É comum escrevermos mn ao invés de m · n quando
isto não criar confusão. Observe que
2 · 2 = 2 · s(1)
(1.4.5)
= (2 · 1) + 2 = 2 + 2 = 4.
Finalmente, verifiquemos a seguinte propriedade, conhecida como distributividade:
(1.4.6) (m + n)k = (mk) + (nk) para quaisquer m, n, k ∈ N.
Faremos isso por indução em k. Para k = 0 temos
(m + n) · 0
(1.4.5)
= 0 = 0 + 0
(1.4.5)
= (m · 0) + (n · 0).
Supondo que (1.4.6) vale para k, completamos o passo indutivo como segue. Temos
(m + n) · s(k)
(1.4.5)
= ((m + n)k) + (m + n)
(1.4.6)
= ((mk) + (nk)) + (m + n).
Agora, usando a associatividade e a comutatividade da soma, segue que
(m + n) · s(k) = ((mk) + m) + ((nk) + n)
(1.4.5)
= (m · s(k)) + (n · s(k)),
como queríamos mostrar. Por convenção de escrita, dados a, b, c ∈ N, escrevemos
a · b + c = (ab) + c e a + b · c = a + (bc).
Assim, podemos economizar na quantidade de parênteses. Por exemplo, eles se tornam desnecessá-
rios no lado direito de (1.4.6) (mas não do lado esquerdo!). �
16
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 1.4.3. Agora, formalizaremos uma maneira de construir os números inteiros e definir suasoperações tendo os os números naturais como ponto de partida. Começamos considerando o conjunto
A = N × N
e a seguinte relação binária
(1.4.7) (a, b) ∼ (c, d) ⇔ a + d = b + c.
O leitor é convidado a verificar que ∼ é uma relação de equivalência em A. A classe equivalência do
elemento (a, b) será denotada por [(a, b)]. Cada classe de equivalência será chamada de um número
inteiro e definimos
Z = {[(a, b)] : a, b ∈ N}.
Observe que
[(a, b)] = [(a + k, b + k)] para todo k ∈ N.
Convidamos o leitor a mostrar que
a ≥ b ⇒ ∃ c ∈ N tal que [(a, b)] = [(c, 0)]
e(1.4.8)
a < b ⇒ ∃ c ∈ N \ {0} tal que [(a, b)] = [(0, c)].
Os inteiros da forma [(n, 0)] com n , 0 são chamados positivos, enquanto que os da forma [(0, n)]
negativos. Definimos também uma função
(1.4.9) ι : N→ Z, n 7→ [(n, 0)],
que é claramente injetora. Asim, identificando N com sua imagem ι(N), podemos considerar N um
subconjunto de Z. De fato, N fica identificado com o conjunto dos inteiros não negativos. É comum
usar a notação −N para o conjunto dos inteiros negativos, de modo que Z = N∪̇(−N).
A seguir, definiremos operações + e · em Z que estendem as suas respectivas homônimas definidas
no Exemplo 1.4.2. Dados a, b, c, d ∈ N, definimos
(1.4.10) [(a, b)] + [(c, d)] = [(a + c, b + d)]
e
(1.4.11) [(a, b)] · [(c, d)] = [(ac + bd, ad + bc)].
O leitor atento deve estar se perguntando se (1.4.10) e (1.4.11) de fato definem funções tendo Z × Z
como domínio. Afinal, o lado direito do sinal de igual contém expressões em a, b, c, d que poderiam
dar origem a elementos de Z diferentes caso usássemos outros naturais a′, b′, c′, d′ tais que
(1.4.12) [(a′, b′)] = [(a, b)] e [(c′, d′)] = [(c, d)].
Ou seja, o mesmo lado esquerdo em (1.4.10) ou (1.4.11) estaria sendo associado a elementos di-
ferentes dependendo destas escolhas de representantes das classes de equivalência, contrariando a
propriedade (F2) da definição de função. Verificaremos aqui que isto não ocorre no caso de (1.4.10)
17
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
re deixamos a correspondente verificação no caso de (1.4.11) como exercício para o leitor. Assim,precisamos verificar que
[(a + c, b + d)] = [(a′ + c′, b′ + d′)].
De fato,
(a + c) + (b′ + d′) = (a + b′) + (c + d′)
(1.4.12)
= (a′ + b) + (c′ + d) = (a′ + c′) + (b + d).
Observemos que a soma definida em Z estende a soma definida em N. Mais precisamente, veja-
mos que
ι(m + n) = ι(m) + ι(n) para quaisquer m, n ∈ N.
De fato,
[(m, 0)] + [(n, 0)] = [(m + m, 0 + 0)] = [(m + n, 0)].
O mesmo ocorre para a multiplicação, isto é,
ι(mn) = ι(m) · ι(n) para quaisquer m, n ∈ N.
De fato,
[(m, 0)] · [(n, 0)] = [(m · n + 0 · 0,m · 0 + 0 · n)] = [(mn, 0)].
A seguir, mostraremos que a soma é associativa e comutativa. O leitor deve fazer o mesmo para a
multiplicação. Dados a, b, c, d, e, f ∈ N, temosÄ
[(a, b)] + [(c, d)]
ä
+ [(e, f )] = [(a + c, b + d)] + [(e, f )] =
îÄ
(a + c) + e, (b + d) + f
äó
Por outro lado,
[(a, b)] +
Ä
[(c, d)] + [(e, f )]
ä
= (a, b) + [(c + e, d + f )] =
îÄ
a + (c + e), b + (d + f )
äó
Como
(a + c) + e = a + (c + e) e (b + d) + f = b + (d + f )
já que a soma dos números naturais é associativa, segue que a soma em Z também é.
Verifiquemos agora a comutatividade da soma:
[(a, b)] + [(c, d)] = [(a + c, b + d)] ∗= [(c + a, d + b)] = [(c, d)] + [(a, b)]
sendo que a comutatividade da soma em N foi usada no passo marcado com ∗. A seguir, veja que 0,
isto é, [(0, 0)], permanece sendo elemento neutro da soma:
[(a, b)] + [(0, 0)] = [(a + 0, b + 0)] = [(a, b)].
Além disso, 1, isto é, [(1, 0)] continua sendo elemento neutro da multiplicação:
[(1, 0)] · [(a, b)] = [(1 · a + 0 · b, 1 · b + 0 · a)] = [(a, b)].
Veja também que
[(a, b)] + [(b, a)] = [(a + b, b + a)] = [(0, 0)].
Logo, a soma em Z satisfaz (O4), algo que não é verdade em N. �
18
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 1.4.4. Seja A , ∅ e F = End(A). A composição de funções define uma operação bináriaem F que é associativa e possui elemento neutro (a função identidade de A). �
Exemplo 1.4.5. Suponha que · seja uma operação binária em um conjunto A e considere o conjunto
F (X, A) onde X é um outro conjunto qualquer. Defina uma operação binária ∗ em F (X, A) da seguinte
maneira. Dadas f , g ∈ F (X, A), defina uma nova função f ∗ g ∈ F (X, A) por
( f ∗ g)(x) = f (x) · g(x) para todo x ∈ X.
Observe que ∗ é comutativa se e somente se · o for e a mesma observação vale para a associatividade.
Se n for elemento neutro para ·, observe que a função η : X → A dada por η(x) = n para todo x ∈ X
é elemento neutro de ∗. Finalmente, se, para todo x ∈ X, f (x) for invertível em A com respeito a ·,
então a função g que leva x no inverso de f (x) é o elemento inverso de f com respeito a ∗. �
Exemplo 1.4.6. No exemplo anterior, suponha que A = Z e que · = + seja a soma em Z. Além disso,
suponha que X = {1, 2, . . . ,m} para algum m ∈ Z positivo. Então F (X, A) = Zm e ∗ se torna
(x1, . . . , xm) ∗ (y1, . . . , ym) = (x1 + y1, . . . , xm + ym).
Em outras palavras, ∗ é a soma usual em Zm. O mesmo se aplica ao substituirmos Z por Q ou R.
transferir para outra seção �
Exemplo 1.4.7. No Exemplo 1.4.5, suponha que X = I × J para conjuntos I e J dados. Então
F (X, A) é o conjunto das matrizes de ordem I × J com entradas em A. Desta maneira, temos definida
uma operação no conjunto de tais matrizes que, na notação via famílias se expressa como segue. Se
M = (mi, j) e N = (ni, j), então
M ∗ N = (ai, j), com ai, j = mi, j · ni, j.
No caso em que A é um dos conjuntos de números que usamos cotidianamente (como Z) e · é a soma
deste conjunto de números, a operação ∗ é exatamente a soma de matrizes usual. �
Seja ∗ uma operação binária associativa num conjunto A. Se ∗ possuir elemennto neutro n e a ∈ A
for invertível, o inverso de a é usualmente denotado por a−1. Ou seja, o símbolo a−1 denota o único
elemento de A satisfazendo a ∗ a−1 =n = a−1 ∗ a. O símbolo a2 indicará o resultado de a ∗ a e,
de maneira similar a (1.2.2), se define o símbolo am para m ∈ N. Em particular, a0 será o elemento
neutro. Para m < 0, definimos am = (a−1)|m|. Observe que, se a e b forem invertíveis, então a ∗ b é
invertível e
(1.4.13) (a ∗ b)−1 = b−1 ∗ a−1.
De fato, (a ∗ b) ∗ (b−1 ∗ a−1) = a ∗ ((b ∗ b−1) ∗ a−1) = a ∗ (n ∗ a−1) = a ∗ a−1 = n e, analogamente,
(b−1 ∗ a−1) ∗ (a ∗ b) = n.
Definição 1.4.8. Sejam A um conjunto e ∗ uma operação binária em A. Um subconjunto B de A é
dito fechado por ∗ se b1 ∗ b2 ∈ B para quaisquer b1, b2 ∈ B. �
Observação 1.4.9. Observe que se B é um subconjunto de A fechado por uma operação binária ∗,
então ∗ induz uma operação binária em B (por restrição e co-restrição). �
19
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 1.4.10. O conjunto dos números naturais é um subconjunto de Z que é fechado tanto pelasoma quanto pela multiplicação. O subconjunto dos números inteiros negativos é fechado pela soma,
mas não pela multiplicação. �
Exemplo 1.4.11. Retorne ao Exemplo 1.4.4 e observe que o subconjunto Aut(A) é um subconjunto de
F fechado pela composição de funções. De fato, se f , g ∈ Aut(A), então g−1 ◦ f −1 é a função inversa
de f ◦ g, mostrando que f ◦ g ∈ Aut(A). �
Definição 1.4.12. Sejam A e B conjuntos, ∗ uma operação binária em A e · uma operação binária
em B. Uma função f : A → B é dita um homomorfismo entre as operações ∗ e · se f (a1 ∗ a2) =
f (a1) · f (a2) para quaisquer a1, a2 ∈ A. Um homomorfismo injetor é chamado de um monomorfismo,
um homomorfismo sobrejetor é chamado de um epimorfismo e um homomorfismo bijetor é chamado
de um isomorfismo. �
Exemplo 1.4.13. Seja ι a inclusão de N em Z dos números racionais. Então ι é um monomorfismo
entre as somas e também entre as multiplicações. �
Exemplo 1.4.14. Seja ∗ uma operação binária associativa em um conjunto A. Considere também o
conjunto Z>0 que é fechado pela soma de Z. Então, dado a ∈ A, a função f : Z>0 → A dada por
f (m) = am é um homomorfismo entre + e ∗ (ver Exercício 1.4.38). Se a for invertível, então a função
Z→ A,m 7→ am, também é um homomorfismo entre a soma de Z e ∗. �
Exemplo 1.4.15. Se ∗ é uma operação binária num conjunto A, defina outra operação binária em A,
chamada ∗op, por
a ∗op b = b ∗ a a, b ∈ A.
Observe que ∗op satisfaz exatamente as mesmas propriedades que ∗ satisfaz. Veja que, se ∗ for asso-
ciativa e a e b forem invertíveis com respeito a ∗, então (a ∗ b)−1 = a−1 ∗op b−1. Em particular, se todo
elemento de A for invertível, a função ι : A→ A dada por ι(a) = a−1 é um isomorfismo entre ∗ e ∗op.�
Exercícios
1.4.1. Relembre a definição da ordenação usual de N dada no Exemplo 1.3.3 e mostre que, dados
a, b ∈ N, a ≤ b se, e somente se, existir c ∈ N tal que b = a + c.1 Além disso, mostre que tal
c é único. Por causa dessa unicidade, o número c recebe o nome de diferença de b por a e é
denotado por b − a.
1.4.2. Sejam a, b, c ∈ N tais que a ≤ b ≤ c. Mostre que b − a ≤ c.
1.4.3. Seja + a soma usual em N. Dados m, n ∈ N, mostre que:
(a) m + n = sn(m). Conclua que, para toda função f : A → A, vale f m ◦ f n = f m+n (ver
Exercício 1.2.3).
(b) (Lei do Cancelamento) Se k ∈ N satisfaz m + k = m + n, então k = n.
1Esta caracterização pode ser usada para estender a relação de ordem em N a uma relação de ordem total em Z.
20
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(c) Se m + n = 0, então m = n = 0. Em particular, 0 é único elemento de N que possui inversoaditivo em N.
1.4.4. Sendo 5 = s(4), mostre que 2 + 3 = 5. Verifique outras somas.
1.4.5. Mostre que a multiplicação usual de N é associativa e comutativa e conclua que 1 é seu elemento
neutro. Além disso, mostre que 1 é o único número natural que possui inverso multiplicativo
em N.
1.4.6. Mostre que 2 · 3 = 6, sendo 6 = s(5).
1.4.7. Mostre que m, n ∈ N satisfazem m · n = 0, então m = 0 ou n = 0.
1.4.8. Lembre a noção de paridade de um número natural dada em (1.2.1).
(a) Mostre que m ∈ N é par se, e somente se, existir k ∈ N tal que m = 2k.
(b) Mostre que m ∈ N é ímpar se, e somente se, existir k ∈ N tal que m = 2k + 1.
Essa caracterização pode ser usada para estender o conceito de paridade para todos os números
inteiros.
1.4.9. Dado n ∈ N, considere f : N→ N dada por f (m) = m+n para todo m ∈ N. Em outras palavras,
f = sn. Mostre que vale mn = f m(0) = (sn)m(0) para todo m ∈ N. Informalmente, isso quer
dizer que
mn = n + n + · · · + n︸ ︷︷ ︸
m parcelas
.
1.4.10. Mostre que se f ∈ End(X) para um conjunto X e m, n ∈ N, vale ( f m)n = f mn.
1.4.11. Dados a, b ∈ N \ {0}, diz-se que b divide a ou que a é múltiplo de b se existir c ∈ N tal bc = a.
Neste caso, escreve-se b|a. Mostre que tal c é único. Por causa dessa unicidade, o número c
recebe o nome de quociente de a por b e é denotado por a/b ou
a
b
.
1.4.12. Sejam a, b, c ∈ N \ {0}. Mostre que:
(a) Se b|a, então a ≥ b e a/b ≤ a. Além disso, se b > 1, então a/b < a.
(b) Se c|a e c|b, então c|(ab) e vale
a
c
· b = a ·
b
c
=
ab
c
.
(c) Se (bc)|a, então b ·
a
bc
=
a
c
.
1.4.13. Mostre que (1.4.7) define uma relação de equivalência.
1.4.14. Demonstre (1.4.8) (compare com o Exercício 1.4.1).
1.4.15. Sejam + e · como definidas no Exemplo 1.4.3. Mostre que vale a distributividade:
(m + n)k = (mk) + (nk) para quaisquer k,m, n ∈ Z.
1.4.16. Mostre que a multiplicação definida no Exemplo 1.4.3 é associativa e comutativa.
21
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r1.4.17. Demonstre as regras de sinais para as operações de Z.1.4.18. Dado m ∈ Z, denotamos por −m seu inverso aditivo. Isto é, −m é o único elemento de Z que
quando somando com m resulta em 0. Mostre que (−1) · m = −m para todo m ∈ Z.
1.4.19. Seja N um conjunto tal que N ∩ N = ∅ para o qual existe função bijetora f : N>0 → N (tal
conjunto existe pelo Exercício 1.1.4). Denote por m o elemento f (m) e considere Z = N ∪ N.
Por conveniência, usaremos a notação 0 = 0.
(a) Mostre que existe única função σ : Z → Z tal que σ(m) = s(m) para todo m ∈ N e
σ(m) = s(n) sendo n ∈ N tal que s(n) = m. Conclua que σ é bijetora.
(b) Mostre que ψ : Z → Z definida por ψ(m) = [(m, 0)] e ψ(m) = [(0,m)] para m ∈ N é bijetora.
(c) Dados x, y ∈ Z, defina
x+y =
®
σy(x), se y ∈ N,
(σ−1)m(x), se y = m para algum m ∈ N.
Mostre que ψ(x+y) = ψ(x) +ψ(y). Em particular, conclua que + é comutativa e associativa,
0 é seu elemento neutro e ψ(m) = −m para todo m ∈ N. Em vista disso, para cada z ∈ Z, se
denotarmos por z o único elemento de Z tal que z + z = 0, temos m = m para todo m ∈ N.
(d) Dado x ∈ Z, considere a função αx : Z → Z, z 7→ x + z. Mostre que αx é bijetora e
α−1x = αx.
(e) Dados x, y ∈ Z, defina
x ∗ y =
®
(αx)y(0), se y ∈ N,
(αx)y(0), se y < N.
Mostre que ψ(x ∗ y) = ψ(x) · ψ(y). Em particular, conclua que ∗ é comutativa e associativa
e 1 é seu elemento neutro. Além disso, vale (x+y) ∗ z = (x ∗ z)+(y ∗ z) para quaisquer
x, y, z ∈ Z.
Assim, este exercício fornece uma definição alternativa para o conjunto dos números inteiros e
suas operações.
1.4.20. Define-se a operação binária chamada de subtração em Z por
m − n := m + (−n).
Determine se a subtração satisfaz alguma das propriedades (O1) a (O4).
1.4.21. Sejam m, n ∈ Z. Mostre que
(a) Se m = n = 1, então m = n = 1 ou m = n = −1.
(b) Se m ≤ n, então m + k ≤ n + k para todo k ∈ Z.
(c) Se m + k ≤ n + k para algum k ∈ Z, então m ≤ n.
(d) Se m ≤ n e k ∈ N, então mk ≤ nk para todo k ∈ N. Além disso, se k é negativo, vale
mk ≥ nk.
22
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(e) Se k > 0 e mk ≤ nk, então m ≤ n. Se k < 0 e mk ≤ nk, então m ≥ n.(f) (Lei do Cancelamento) Se m , 0 e k ∈ Z satisfaz mk = mn, entãok = n.
1.4.22. Faça o exercício anterior supondo que todos os números envolvidos sejam naturais, sem utilizar
a existência do conjunto Z.
1.4.23. (Princípio do Menor Inteiro) Mostre que se A é subconjunto não vazio de Z limitado inferior-
mente, então existe min A.
1.4.24. O valor absoluto de m ∈ Z é definido como
|m| =
®
m, se m ∈ N,
−m, caso contrário.
Assim, temos definida uma função | · | : Z→ N,m 7→ |m|. Mostre que, para quaisquer m, n ∈ Z,
valem:
(a) |m| = | − m|.
(b) −|m| ≤ m ≤ |m|.
(c) |mn| = |m| |n|.
(d) (Desigualdade Triangular) |m + n| ≤ |m| + |n|.
(e) |m| − |n| ≤ |m − n| ≤ |m| + |n|.
1.4.25. Refaça o exercício 1.4.11 trocando N por Z. O que se pode dizer a respeito do Exercício 1.4.12
trocando-se N por Z?
1.4.26. Dado m ∈ Z, defina [m,∞)Z = {n ∈ Z : n ≥ m}. Demonstre a seguinte versão do Princípio da
Indução Finita. Se A ⊆ Z satisfaz m ∈ A e n + 1 ∈ A para todo n ∈ A, então [m,∞)Z ⊆ A.
1.4.27. Sejam m, n ∈ Z com n > 0. Mostre que existe único (q, r) ∈ Z × Z satisfazendo
0 ≤ r < n e m = qn + r.
O número q é chamado de o quociente da divisão de m por n, enquanto r é chamado de resto. Se
r = 0, diz-se que n divide m e denota-se o quociente por m/n (compare com Exercício 1.4.11).
1.4.28. Uma loja vende cartões de presente nos valores de 3 e 5 reais.
(a) Mostre que qualquer valor inteiro maior ou igual a 8 reais pode ser formado utilizado-se
tais cartões.
(b) Encontre a quantidade mínima de cartões de 3 reais que a loja precisa ter para formar
qualquer valor desses valores, supondo que o estoque de cartões de 5 reais seja ilimitado.
1.4.29. Sejam m, n inteiros não nulos. Mostre que existe max{k ∈ N : k|n e k|m}. Este número é
chamado de o máximo divisor comum de m e n e será denotado por mdc(m, n). Os números
m e n são ditos relativamente primos se mdc(m, n) = 1. Mostre também que d =mdc(m, n) se,
e somente se, d dividir m e n e for divisível por qualquer outro divisor comum a m e n. Em
particular, conclua que m e n são relativamente primos se, e somente se, 1 for o único divisor
natural comum a m e n.
23
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r1.4.30. Sejam m, n inteiros não nulos e d =mdc(m, n). Mostre que existem x, y ∈ Z tais que d = xm+yn.1.4.31. Um número p ∈ N>1 é dito primo se seus únicos divisores naturais forem 1 e p. Mostre que
2, 3, 5 e 7 são primos. Mostre que para todo par de números inteiros (m, n) com n , 0 e qualquer
primo p, vale m2 , pn2.
1.4.32. Mostre que #Z = #N.
1.4.33. Inspirado no Exemplo 1.4.3, defina o conjunto Q dos números racionais bem como suas opera-
ções e relação de ordem. Examine a validade das propriedades (O1) a (O4) e da distributividade.
Identifique os elementos que têm inversos multiplicativos. Revisite os Exercícios de 1.4.17 a
1.4.24 com Q no lugar de Z e determine quais permanecem válidos. Além disso, mostre que
#Q = #N e que, para todo p ∈ N primo, não existe x ∈ Q tal que x2 = p.
1.4.34. Mostre que se A e B são conjuntos finitos e disjuntos, então A∪B é finito e #(A∪B) = #A+#B.2
1.4.35. Mostre que se A é finito, então P(A) é finito e #P(A) = 2#A.
1.4.36. Mostre que se A e B são conjuntos finitos, então A × B é finito e #(A × B) = #A · #B.3
1.4.37. Dado um conjunto finito não vazio A com #A = n, considere X = {(a, b) ∈ A × A : a , b}.
Mostre que:
(a) #X = n(n − 1).
(b) A relação binária em X dada por (a, b) ∼ (c, d) se {a, b} = {c, d} é uma relação de equiva-
lência.
(c) Se Y é o conjunto de todas as classes de equivalência da relação do item (b), #Y = n(n−1)2 .
Interprete estes fatos do ponto de vista de combinatória.
1.4.38. Seja ∗ uma operação binária associativa num conjunto A que possui elemento neutro e suponha
que a ∈ A seja invertível. Mostre que am ∗ an = am+n e (am)n = amn para quaisquer m, n ∈ Z.
1.4.39. Considere a seguinte operação binária em Z:
m ∗ n = max{m, n}.
Determine se ∗ satisfaz alguma das propriedades (O1) a (O4).
1.4.40. Mostre que a composição de homomorfismos é um homomorfismo.
1.4.41. Seja ∗ uma operação binária num conjunto A e considere End∗(A) o subconjunto de End(A)
dos homomorfismos de ∗. Mostre que End∗(A) é fechado com respeito à operação binária de
End(A) dada pela composição de funções.
1.4.42. Mostre que o inverso de um homomorfismo (no sentido de função inversa), quando existir, é
também um homomorfismo.
2Em livros de combinatória, este fato é frequentemente chamado de Princípio Aditivo de Contagem.
3Em livros de combinatória, este fato é frequentemente chamado de Princípio Multiplicativo de Contagem.
24
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r1.5. Famílias, Matrizes e Equações
Uma família de elementos de um conjunto A indexada por um conjunto I é uma função α : I → A.
Porém, quando se faz útil pensar numa função do ponto de vista de uma família no conjunto A, é mais
comum utilizar notação com subíndices: troca-se a notação α(i) por algo como ai. Mais precisamente,
define-se
ai = αi para todo i ∈ I.
Quando I = N, uma família indexada por I é mais frequentemente chamada de uma sequência (de
elementos) em A. O leitor possivelmente já se deparou com o conceito de sequências de números
reais, por exemplo. Neste contexto, é comum utilizar a notação a0, a1, a2, . . . ou (ai)i∈N para denotar a
sequência cujo n-ésimo termo é o número an. Inspirando-se nesta notação, frequentemente usaremos
a notação α = (ai)i∈I para uma família α : I → A com α(i) = ai para todo i ∈ I. Neste caso, a imagem
de α é o conjunto {ai : i ∈ I}. Muitas vezes há um abuso de linguagem e refere-se se a Im(α) como
sendo a família. Mas note que se I = {1, 2, 3}, A for o conjunto dos números reais e α for a família
α(1) = 1, α(2) = 1, α(3) = 0, então α(I) = {0, 1}. Assim, é importante lembrar que a família pode
apresentar repetições como neste exemplo. Por outro lado, todo conjunto pode ser visto como uma
família (indexado por si mesmo via função identidade). Assim, sempre que α for uma função injetora,
a identificação de α com sua imagem se torna natural e, muitas vezes, conveniente.
Será comum falarmos da família obtida de uma família α = (ai)i∈I removendo-se um elemento. Se
este elemento corresponder ao índice i0 ∈ I, isso significa que ficamos com a família α′ = (ai)i∈I\{i0}.
Porém, no espírito do abuso de linguagem recém mencionado, será útil criar uma notação que não
faz referência ao índice: se a = ai0 , então α \ {a} denotará qualquer família obtida ao remover algum
membro igual a a da família original (mas não todos!). De maneira similar, usaremos a notação
α ∪ {a} para denotar, com abuso de linguagem, a família obtida de α acrescentando-se um elemento
(que poderá de fato ser uma nova ocorrência de elemento que já aparece em α). Dado um subconjunto
J ⊆ I, diremos que a família β : J → A, j 7→ α( j), obtida por restrição de α a J é uma subfamília de
α e usaremos a notação β = (a j) j∈J. A cardinalidade de uma família é definida como a cardinalidade
do seu domínio: #α = #I. Em geral, #α , #Im(α).
Uma vez entendido o conceito de família, podemos introduzir a notação de somatório e produtório.
De fato, vamos começar de um contexto mais geral. Suponha que ∗ seja uma operação binária definida
num conjunto A. Dada uma sequência a0, a1, . . . de elementos em A, definiremos, para cada m ∈ N,
um elemento de A denotado por
(1.5.1)
m∏
j=0
a j.
Faremos a definição por recursão em m:
(1.5.2)
0∏
j=0
a j = a0 e
m+1∏
j=0
a j =
(
m∏
j=0
a j
)
∗ am+1.
Em particular,
(1.5.3)
1∏
j=0
a j = a0 ∗ a1 e
2∏
j=0
a j = (a0 ∗ a1) ∗ a2.
25
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rDe maneira similar, dados n ≤ m, define-se m∏
j=n
a j
por recursão em m iniciada em n. Em conjuntos onde temos duas operações binárias definidas e
chamadas adição e multiplicação, faz-se necessário distinguir a construção acima paracada uma
delas. Assim, a notação como acima fica reservada para a multiplicação, isto é, ∗ = ·, e o elemento
(1.5.1) é chamado de o produtório dos elementos a0 a am. Já para a soma, troca-se o símbolo
∏
por
∑
com ∗ = + na definição (1.5.2) e o elemento correspondente é chamado de o somatório dos elementos
a0 a am. Assim, produzimos uma nova sequência (sm)m∈N definindo
sm =
m∑
j=0
a j.
Esta nova sequência é chamada de a série associada à sequência original (an)n∈N.
Exemplo 1.5.1. Considere a sequência (an)n∈N>0 de números naturais dada por an = n para todo n ≥ 1.
Então,
m∏
j=1
a j = 1 · 2 · · ·m.
Este número é chamado de o fatorial de m e é denotado por m!.1 Calculemos agora os elementos da
série associada à sequência (an)n∈N>0 . Por definição,
sm =
m∑
n=1
an = 1 + 2 + · · · + m.
O leitor pode demonstrar que temos sm =
m(m+1)
2 para todo m > 0. �
Observação 1.5.2. O conceito de família pode ser estendido para famílias de subconjuntos de um
conjunto fixado de maneira natural. Assim, uma família de subconjuntos de X é uma família em
P(X). Em geral, abusaremos da linguagem e omitiremos o conjunto X dizendo apenas frases do tipo
“considere uma família de conjuntos (Ai)i∈I ...”. Estará sempre subentendido que todos os membros
da família são elementos de P(X) para algum conjunto “universo” X. O leitor mais avançado po-
derá, alternativamente, utilizar o conceito de classe (uma generalização do conceito de conjunto) para
definir o conceito de família de conjuntos sem necessidade de utilizar um “conjunto universo”. �
Os conceitos de união e interseção de conjuntos se estende de maneira natural para famílias de
conjuntos. Se (Ai)i∈I é uma família de conjuntos, definimos⋃
i∈I
Ai = {a : a ∈ A j para algum j ∈ I} e
⋂
i∈I
Ai = {a : a ∈ Ai para todo i ∈ I}.
1Define-se também 0! = 1.
26
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rNo caso de I ser finito, digamos, a família é formada pelos conjuntos A1, A2, . . . , Am, escrevemosA1 ∪ A2 ∪ · · · ∪ Am e A1 ∩ A2 ∩ · · · ∩ Am. A união é dita disjunta se
Ai ∩ A j = ∅ para quaisquer i, j ∈ I, i , j.
O conceito de produto cartesiano também pode ser estendido a famílias arbitrárias de conjuntos. Dada
uma família (Ai)i∈I , seu produto cartesiano é o seguinte conjunto de famílias de elementos de ∪i∈IAi
(1.5.4)
∏
i∈I
Ai = {(ai)i∈I : ai ∈ Ai para todo i ∈ I}.
Em outras palavras, é o conjunto de todas as famílias de elementos de ∪i∈IAi indexadas por I cujo
i-ésimo elemento pertence a Ai para todo i ∈ I. No caso de uma família finita, A1, A2, . . . , Am, usamos
a notação A1 × A2 × · · · × Am para o produto cartesiano e um elemento do mesmo é denotado por
(a1, a2, . . . , am). Se Ai = A para todo i ∈ I, então o produto cartesiano coincide com AI = F (I, A).
Neste caso, quando #I = m é finita, simplificamos a notação para Am. Por exemplo, se A = Z é o
conjunto dos números inteiros, temos
Zm = {(x1, . . . , xm) : xi ∈ Z, i = 1, . . . ,m}.
Também podemos definir o conceito de produto cartesianos de funções. Se (Ai)i∈I e (Bi)i∈I são famílias
de conjuntos e fi ∈ F (Ai, Bi), o produto cartesiano
∏
i∈I fi é a função∏
i∈I
fi :
∏
i∈I
Ai →
∏
i∈I
Bi, (ai)i∈I 7→ ( f (ai))i∈I .
O conceito de matrizes será proeminente no decorrer deste texto e o formalizamos aqui via o
conceito de família. Dados conjuntos I, J e A, uma matriz de ordem I × J com entradas em A é uma
família de elementos de A indexada por I × J. Usamos a notação (ai, j)(i, j)∈I×J para uma dada matriz.
Se I = {1, . . . ,m} e J = {1, . . . , n}, também usamos a conhecida “representação gráfica via tabela”
a1,1 a1,2 · · · a1,n
a2,1 a2,2 · · · a2,n
...
. . .
. . .
...
am,1 am,2 · · · am,n

para a matriz M = (ai, j)(i, j)∈I×J e diremos que ela é uma matriz m × n (m por n). O conjunto das
matrizes m × n com entradas em A será denotado por Mm,n(A). Se m = n, dizemos que a matriz é
quadrada e simplificamos a notação para Mn(A).
Um dos conceitos mais importantes em matemática é o conceito de equação. Dados conjuntos A
e B, podemos definir uma equação (com domínio A e contradomínio B) como sendo um elemento de
F (A, B) × B. Dizer que a ∈ A é solução da equação ( f , b) ∈ F (A, B) × B significa dizer que vale a
igualdade
(1.5.5) f (a) = b.
Isto é, f (a) e b são de fato o mesmo elemento do conjunto B. Por isso utlizamos uma notação mais
sugestiva para equações: representaremos o par ( f , b) por f = b. Veja que isso é de fato apenas uma
27
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rnotação, já que o sinal de igual não faz sentido uma vez que f e b pertencem a conjuntos distintos.Veja que a equação f = b tem solução se, e somemente se, b é um elemento da imagem de f e
que a pré-imagem f −1({b}) é o conjunto de todas as soluções da equação. Duas equações são ditas
equivalentes se tiverem o mesmo conjunto solução.
Exemplo 1.5.3. Considere a função f : N→ N dada por f (x) = 2x + 1. A equação f = 5 tem 2 como
solução pois f (2) = 5. De fato, esta é a única solução já que, para cada número natural m temos
2m + 1 = 5 ⇔ 2m = 4 ⇔ m = 2.
Observe também que, se g : N→ N for a função g(x) = 2x, a equação g = 4 é equivalente à equação
f = 5. Já a equação f = 4 não tem solução pois f (m) é ímpar para todo m, enquanto 4 é par. Em
outras palavras, f −1({4}) = ∅ �
Exemplo 1.5.4. Considere a função f : Z2 → Z dada por f (x, y) = x + y. O conjunto solução da
equação f = 0 é o conjunto
f −1({0}) = {(x,−x) : x ∈ Z},
pois x + y = 0⇔ y = −x. O leitor pode verificar que, para todo m ∈ Z, o conjunto solução da equação
f = m é infinito. �
Um sistema de equações (com domínio A e contradomínio B) indexadas por um conjunto I é uma
família ( fi, bi)i∈I de elementos de F (A, B) × B. Um elemento a ∈ A resolve o sistema se valerem as
igualdades fi(a) = bi para todo i ∈ I. Assim, o conjunto de todas as soluções do sistema é⋂
i∈I
f −1i ({bi}).
Dois sistemas de equações são ditos equivalentes se tiverem o mesmo conjunto solução.
Exemplo 1.5.5. Considere as funções f , g : Z2 → Z dadas por f (x, y) = x + y e g(x, y) = x + 2y. O
conjunto solução de g = 3 é
g−1({3}) = {(3 − 2y, y) : y ∈ Z}.
Encontremos o conjunto solução do sistema formado pelas equações f = 0 e g = 3. Ou seja, queremos
encontrar o conjunto
f −1({0}) ∩ g−1({3}).
Pelo que vimos no Exemplo 1.5.4, este conjunto é
{(x,−x) : x ∈ Z} ∩ {(3 − 2y, y) : y ∈ Z}.
Assim, um elemento (x, y) está nesta interseção se, e somente se
y = −x e x = 3 − 2y.
Usando a primeira informação na segunda, devemos ter x = 3 − 2(−x) e, portanto, x = −3 e y = 3.
Ou seja, o elemento (−3, 3) de Z2 é a única solução do sistema. �
Exercícios
28
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r1.5.1. Considere a sequência (an)n∈N de números racionais dada por an = 1/2n. Calculem∏
n=0
an e
m∑
n=0
an.
1.5.2. Considere a sequência (an)n∈N de números naturais dada por an = 6n2. Mostre que
m∑
n=1
an = n(n + 1)(2n + 1) para todo m ≥ 1.
1.5.3. Suponha que ∗ seja operação binária associativa e comutativa num conjunto A. Uma progressão
em A de razão a ∈ A é uma sequência (an)n∈N de elementos de A satisfazendo an+1 = a ∗ an para
todo n ∈ N. Dados n ≥ m, mostre que
an = an−m ∗ am e
(
n∏
j=m
a j
)2
= (am ∗ an)n−m+1.
Em particular, conclua que2
an = an ∗ a0 e
n∏
j=0
a j = a
n(n+1)
2 ∗ an+10 .
1.5.4. (Teorema Fundamental da Aritmética) Seja m ∈ N≥1. Mostre que existem únicos k ∈ N \ {0} e
sequência p1, p2, . . . , pk de números primos satisfazendo
(i) p1 ≤ p2 ≤ · · · ≤ pk;
(ii) m =
∏k
j=1 p j.
Esta expressão para m como produtório de primos é chamada de a fatoração de m em primos.
1.5.5. Mostre que existem infinitos números primos.
1.5.6. Dados m, n ∈ N>1, encontre a fatoração em números primos para mdc(m, n) e mmc(m, n) em
termos das fatorações de m e n.
1.5.7. Dados m, n ∈ N com n≤ m, mostre que n!(m − n)! divide m! (ver Exercício 1.4.11). O número
natural
m!
n!(m − n)!
é chamado de combinação de m (elementos) n a n e é denotado por
(m
n
)
.3 Já
o número natural
m!
(m − n)!
= n!
(m
n
)
é chamado de arranjo de m (elementos) n a n.
2Compare essas fórmulas com as conhecidas para progressões geométricas e aritméticas vistas no ensino médio.
3As notações Cmn e C(m, n) também são comuns.
29
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r1.5.8. Suponha que m ∈ N e que A1, . . . , Am seja uma família de conjuntos finitos disjuntos, isto é, Aié finito para todo 1 ≤ i ≤ m e Ai ∩ A j = ∅ sempre que i , j. Mostre que
#
Ç m⋃
i=1
Ai
å
=
m∑
i=1
#Ai.
Em particular, se f ∈ F (A, B) e A é finito, então
#A =
∑
b∈Im( f )
# f −1({b}).
1.5.9. Demonstre a seguinte generalização do Princípio das Casas de Pombos (Exercício 1.3.11). Se
#A = m e #B = n com m ≥ nk + 1 para algum k ∈ N, então, para toda função f : A→ B, existe
b ∈ B tal que # f −1({b}) ≥ k + 1. Observe que o Exercício 1.3.11 é o caso especial k = 1.
1.5.10. Suponha que m ∈ N e que A1, . . . , Am seja uma família de conjuntos finitos. Mostre que
#
Ç m∏
i=1
Ai
å
=
m∏
i=1
#Ai.
1.5.11. Suponha que A seja um conjunto finito. Mostre que para quaisquer m, n ∈ N>0, temos #Mm,n(A) =
m · n · #A.
1.5.12. Mostre que se #I = 2, a definição de produto cartesiano definido nesta seção é “equivalente” à
definição dada em (1.1.5). Mais precisamente, mostre que se A1 = A e A2 = B, e chamando de
C o conjunto definido em (1.5.4), então C tem a propriedade do Exercício 1.1.8.
1.5.13. Este exercício generaliza o Exercício 1.4.37 Suponha que m, n ∈ N com 1 ≤ n ≤ m e que #A =
m. Considere o conjunto X = {(a1, . . . , an) ∈ An : ai , a j se i , j} e a função f : An → P(A)
dada por f (a1, . . . , an) = {a1, . . . , an}. Considere também a relação de equivalência em An dada
por a ∼ a′ se f (a) = f (a′) (ver Exercício 1.3.1) e denote por [a] a classe de equivalência de a.
Mostre que:
(a) Im( f ) = {B ∈P(A) : #B ≤ n} e f (X) = {B ∈P(A) : #B = n}.
(b) #X = n!
(m
n
)
.
(c) Se Y = {[a] : a ∈ An} = A/ ∼ e Z = {[a] : a ∈ X} = X/ ∼, então
#Z = # f (X) =
Ç
m
n
å
e #Y = #Im( f ) =
Ç
m + n − 1
n
å
.
Interprete estes fatos do ponto de vista de combinatória.
1.5.14. Suponha que #A = m e #B = n com m, n ∈ N.
(a) Mostre que #Aut(A) = m!.
(b) Calcule #F (A, B).
30
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(c) Se I é o subconjunto de F (A, B) das funções injetoras, calcule #I.1.5.15. Faça os exercícios 16 a 21 do Capítulo I e 15 a 26 do Capítulo II de [10].
1.5.16. Seja (An)n∈N uma sequência de conjuntos infinitos enumeráveis. Mostre que
∏
n∈N An não é
enumerável.
1.5.17. Sejam A e B conjuntos com #B = 2.
(a) Mostre que #P(A) = #F (A, B).
(b) Mostre que #P(A) > #A. (O Exercício 1.3.20 é útil aqui.)
1.5.18. Sejam Ai, i ∈ I, uma família de conjuntos indexadas por I e A =
∏
i∈I Ai. Dado j ∈ I, considere
a função π j : A → A j, (ai)i∈I 7→ a j. Dado a = (ai)i∈I ∈ A, considere também as funções
ι j,a : A j → A e π j,a : A→ A dadas por
(ι j,a(x))i =
®
x, se i = j,
ai, caso contrário
e (π j,a(b))i =
®
b j, se i = j,
ai, caso contrário.
(a) Mostre que π j é sobrejetora e que ι j,a é injetora e uma inversa à direita de π j. Conclua que
o produto cartesiano
∏
i∈I(π j ◦ ι j,a) é a função identidade de A.
(b) Mostre que, se #I > 1, π j não é uma inversa à direita de ι j,a.
(c) Mostre que (π j,a ◦ πi,a)(b) = a para todo i , j. Mostre também que π2j,a = π j,a para todo
j ∈ I e todo a ∈ A. Conclua que π j,a ◦ πi,a = πi,a ◦ π j,a para quaisquer i, j ∈ I.
(d) Mostre que, para todo b ∈ A, temos (πi ◦ π j,a)(b) = b j se i = j e (πi ◦ π j,a)(b) = ai se i , j.
Conclua que ι j,a é inversa à direita de π j ◦ π j,a.
1.6. Grupos, Anéis e Corpos
Apresentamos agora as estruturas algébricas mais usuais.
Definição 1.6.1. Um semigrupo é um par (G, ∗) sendo G um conjunto não vazio e ∗ uma operação
binária associativa em G. Um monóide é um semigrupo cuja operação binária possui elemento neu-
tro. Um monóide é dito um grupo se todo elemento possuir inverso. Caso a operação binária seja
comutativa, diz-se que o semigrupo, monóide ou grupo é abeliano. �
Exemplo 1.6.2. O par (Z,+) é um grupo abeliano. Porém o par (Z, ·) é apenas um monóide abeli-
ano. O par (Z,−) com − sendo a subtração de números inteiros não é um semigrupo pois − não é
associativa. �
Exemplo 1.6.3. Suponha que G seja um conjunto unitário. Então F (G × G,G) também é unitário
e, portanto, existe uma única operação binária em G que é evidentemente associativa, comutativa,
possui elemento neutro e todo elemento de G é invertível. Este grupo é chamado de grupo trivial. �
Exemplo 1.6.4. Seja R a relação de equivalência em Z considerada no Exemplo 1.3.1. Lembre que
Z/R tem dois elementos .... defina soma e multiplicação .... �
31
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 1.6.5. Se A , ∅, o par (End(A), ◦) é um monoíde que é abeliano se, e somente se, #A = 1.Já (Aut(A), ◦) é um grupo que é abeliano se, e somente se, #A ≤ 2. Este grupo é muito importante e
é chamado de o grupo simétrico em A. Quando A = [1,m]N para algum m ∈ Z>0, ele é chamado de o
grupo simétrico em m elementos e o denotaremos por Sm. �
Exemplo 1.6.6. Retorne ao Exemplo 1.4.5 e observe que, se (A, ·) é semigrupo, então (F (X, A), ∗)
também é. Em particular, se (A, ·) é grupo (abeliano) e m > 0, o par (Am, ∗) é grupo (abeliano) e o par
(MI×J(A), ∗), sendo MI×J(A) o conjunto das matrizes de ordem I × J com entradas em A, também é.�
Observação 1.6.7. É costume abusar da linguagem e dizer que G é um grupo ao invés do par (G, ∗).
Sempre que este abuso foir feito, estamos implicitamente supondo que está dada uma operação binária
no conjunto G cujo respectivo par é um grupo. Como o nome da operação não fica evidenciado, é
costume usar a simbologia a ∗ b, a · b ou simplesmente ab para indicar a operação de a com b. O
elemento neutro é usualmente denotado por e. De agora em diante vamos passar a usar esta notação.
No caso de grupos abelianos, é mais costumeiro se usar + para indicar a operação binária e 0 para
indicar o elemento neutro de +. Neste caso, o inverso de a com respeito a + é denotado por −a. Ou
seja, −a é o único elemento de a satisfazendo a + (−a) = 0. Neste caso, a notação am definida na
seção anterior é substituída por ma, a ∈ G,m ∈ Z. Em particular, 0a = 0,ma = |m|(−a) para m < 0 e
(ma) + (na) = (m + n)a para quaisquer m, n ∈ Z, a ∈ G. �
Definição 1.6.8. Seja G um semigrupo. Um subsemigrupo de G é um subconjunto não vazio que
é fechado pela operação de G. Se G é um monóide, um submnóide de G é um subsemigrupo de G
contendo o elemento neutro de G. Um submonóide H de um monóide G é dito um subgrupo de G se
todos os seus elementos possuírem inversos em H. �
Exemplo 1.6.9. Seja G um monóide e denote por G× o subconjunto dos elementos invertíveis de G.
Então G× é o maior subgrupo de G. �
Exemplo 1.6.10. Para cada m ∈ N, o subconjunto Z≥m = {n ∈ Z : n ≥ m} é um subsemigrupo de
(Z,+) que é um submonóide se m = 0. Já o subconjunto mZ = {mn : n ∈ Z} é um subgrupo. �
Definição 1.6.11. Sejam G e H dois monóides. Um homomorfismo f : G → H das correspondentes
operações binárias é dito um homomorfismo de monóides se o elemento neutro de G é levado no de
H. Se G e H forem grupos, um homomorfismo dos correspondentes monóides também será chamado
de um homomorfismo de grupos. �
Observe que se f : G → H é um homomorfismo de monóides e g é um elemento invertível de G,
então f (g) é invertível em H e seu inverso é f (g−1). De fato,
f (g−1) f (g) = f (g−1g) = f (e) = e = f (e) = f (gg−1) = f (g) f (g−1).
Exemplo 1.6.12. Se G é um grupo com operação binária ∗, seja Gop o grupo cujo conjunto adjacente
é G e a operação binária é ∗op(Exemplo 1.4.15). Então, a função inversão ι : G → Gop, g 7→ g−1, é
um isomorfismo de grupos. �
Definição 1.6.13. Um anel é uma trinca (A,+, ·) sendo A um conjunto, + e · operações binárias em A
satisfazendo:
32
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(i) (A,+) é grupo abeliano;(ii) (A, ·) é semigrupo;
(iii) O elemento neutro de + não é elemento neutro de ·;
(iv) A operação · é distributiva sobre a operação +, isto é, a · (b + c) = (a · b) + (a · c) assim como
(b + c) · a = (b · a) + (c · a) para quaisquer a, b, c ∈ A.
Se · possuir elemento neutro, diz-se que o anel possui identidade e, se · for comutativa, diz-se que o
anel é comutativo. �
Observação 1.6.14. Como no caso de grupos, é costume abusar da linguagem e dizer que A é um anel
ao invés da trinca (A,+, ·). Usaremos as notações de grupos abelianos para a operação + (em particular
0 denotará o elemento neutro e −a o inverso de a) e a notação multiplicativa para · (em particular,
1 denotará o elemento neutro e a−1 é o inverso de a quando existirem). Lembre que −(−a) = a e
(a−1)−1 = a. �
Exemplo 1.6.15. Z
Exemplo 1.6.16. Z[i]
Lema 1.6.17. Seja A um anel. Então, para todo a ∈ A, temos
0 · a = 0 e (−1) · a = −a.
Em particular, (−1)2 = 1,
(−a) · b = a · (−b) = −(a · b) e (−a) · (−b) = a · b
para quaisquer a, b ∈ A.
Demonstração. Observe que
0 · a + 0 · a = (0 + 0) · a = 0 · a.
Somando −(0 · a) em ambos os lados, segue que 0 · a = 0. Agora,
a + (−1) · a = 1 · a + (−1) · a = (1 + (−1)) · a = 0 · a = 0,
mostrando que (−1) · a = −a. Em particular, (−1) · (−1) = −(−1) = 1 e
(−a) · b = ((−1) · a) · b = (−1) · (a · b) = −(a · b).
As outras igualdades são demonstradas de maneira similar.
Definição 1.6.18. Um anel com identidade é dito um anel de divisão se todo elemento não nulo
possuir inverso multiplicativo. Um anel de divisão comutativo é dito um corpo. �
Exemplo 1.6.19. F2
33
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 1.6.20. Construir Q.Exemplo 1.6.21. Q[i].
Proposição 1.6.22. Todo corpo de característica 0 contém subcorpo isomorfo a Q.
Demonstração. ...
Segue desta proposição que Q é o “menor” corpo de característca zero e, portanto, qualquer corpo
F com essas propriedade é infinito. Além disso, identificando Q com sua imagem isomorfa em F
dada pela Proposição 1.6.22, podemos considerar uma sequência de inclusões
N ⊆ Z ⊆ Q ⊆ F
com as operações nos conjuntos menores sendo as restrições de suas correspondentes nos conjuntos
maiores.
Exercícios
1.6.1. Seja m ∈ Z,m > 1, e defina operações binárias + e · em Zm usando o método do Exemplo
1.4.5 utilizando a soma e a multiplicação de Z. Mostre que (Zm,+, ·) é um anel comutativo com
identidade. Determine os elementos deste anel que possuem inverso multiplicativo.
1.6.2. Mostre que se (F,+, ·) é um corpo e x, y ∈ F \ {0}, então x · y , 0. Essa propriedade continua
válida se supormos apenas que (F,+, ·) é um anel comutativo com identidade?
1.6.3. Mostre que todo intervalo de números racionais da forma (a, b) com a < b é infinito. De fato,
mostre que #(a, b) = #Q.
1.6.4. Dado um conjunto X, considere o monóide (End(X), ◦) (referência anterior...). Mostre que
Aut(X) é subgrupo de End(X).
1.6.5. Seja ∗ uma operação binária num conjunto A e considere End∗(A) o subconjunto de End(A) dos
homomorfismos de ∗. Mostre que End∗(A) (referência anterior...) é um submonóide de End(A).
Defina Aut∗(A) de maneira similar e mostre que é um subgrupo de Aut(A).
1.7. Os Números Reais e Complexos
A existência dos números naturais está axiomatizada na teoria de conjuntos. A partir deles, todos
os outros conjuntos de números “tradicionais” podem ser construídos como fizemos com Z e Q.
Existem duas maneiras bastante conhecidas de se construir os números reais. A mais elementar delas
(não requer conhecimento da noção de convergência) é via os chamados cortes de Dedekind que são
“intervalos” abertos semi-infinitos limitados superiormente de números racionais. O conjunto de tais
intervalos, que é um subconjunto de P(Q), pode ser equipado com uma estrutura de corpo. Esta
construção pode ser encontrada em [1, 5, 19]. A outra construção, que pode ser encontrada em [1, 8],
é um caso particular de um processo chamado de completamento que pode ser feito em qualquer
34
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r“espaço métrico”. Nela, considera-se a relação de equivalência no conjunto de todas as sequências deCauchy de números racionais que declara duas sequências equivalentes se a sequência das diferenças
termo a termo convergir para zero. O conjunto das correspondentes classes de equivalência pode ser
equipado com uma estrutura de corpo isomorfa àquela feita via cortes de Dedekind.
O corpo obtido via essas construções pode ser equipado de maneira natural com uma relação de
ordem total com respeito à qual ele é completo no sentido topológico. De fato, estas propriedades
caracterizam os números reais pois temos o seguinte teorema.
Teorema 1.7.1. Quaisquer dois corpos ordenados e completos são isomorfos.
Não reproduziremos aqui nenhuma dessas construções nem demonstraremos este teorema (o leitor
interessado numa demonstração pode consultar [1]). Ao contrário, satisfeitos com estas informações
sobre existência e unicidade dos reais, adotaremos a postura de [10] e exploraremos várias proprieda-
des desse corpo que são consequências dele ser ordenado e completo. Assim, começamos estudando
o que significa um corpo ser ordenado e exploramos consequências deste fato. A seguir, fazemos o
mesmo para a propriedade de completude.
Um corpo ordenado é um corpo F no qual foi escolhida uma relação de ordem total compatível
com suas estruturas algébricas no seguinte sentido.1 Dado que a ordem é total, podemos considerar
os subconjuntos
F>0 = {x ∈ F : x > 0} e F<0 = {x ∈ F : x < 0}
de modo que F é a união disjunta F<0 ∪ {0} ∪F>0. A relação de ordem é compatível com as estruturas
algébricas de F se as seguintes propriedades forem satisfeitas:
(CO1) x > y se x − y > 0;
(CO2) F>0 é fechado pela multiplicação de F;
(CO3) F<0 ⊆ {−x : x ∈ F>0}.
Evidentemente, Q é um exemplo de corpo ordenado. Os elementos de F<0 e F>0 são chamados de
negativos e positivos, respectivamente.
Lema 1.7.2. Sejam F um corpo ordenado e x, y ∈ F.
(a) Se x , 0, então x > 0 se, e somente se, −x < 0.
(b) F>0 e F<0 são fechados pela soma de F.
(c) Se x > y, então x − y > 0.
(d) F<0 = {−z : z ∈ F>0}.
1A definição de corpo ordenado que damos aqui não é a mesma de [10] que diz que um corpo ordenado é um corpo F
no qual é destacado um subconjunto F+ satisfazendo as hipóteses do Exercício 1.7.6. Este exercício mostra que as duas
definições são equivalentes.
35
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rDemonstração. Comecemos mostrando que F>0 é fechado pela pela soma. Suponha que x, y > 0 emostremos que x + y > 0. De fato, como (x + y) − y = x > 0, segue de (CO1) que x + y > y. Assim,
como y > 0, a transitividade da relação de ordem (Exercício 1.3.2) nos diz que x + y > 0.
Agora, mostremos (a). Suponha que x > 0 e observe que −x , 0. Se pudesse ser −x > 0, seguiria
que 0 = x + (−x) > 0, uma contradição. Reciprocamente, suponha que −x < 0. Segue então de (CO3)
que −x = −z para algum z > 0. Por sua vez, isso implica −x + z = −z + z = 0, de onde segue que
z = −(−x) = x e, portanto, x > 0.
Segue de (a) que F<0 ⊇ {−x : x ∈ F>0} que, junto com (CO3), implica (d). Vejamos que (a)
também implica (c). De fato, se x > y, como a ordem é total, devemos ter x − y > 0 ou x − y < 0, já
que x , y. Se fosse x − y < 0, isto é, −(y − x) < 0, (a) implicaria y − x > 0 e, então, (CO1) implicaria
y > x, uma contradição. Portanto, deve ser x − y > 0.
Resta mostrar que F<0é fechado pela soma. Então, suponha que x, y < 0. Por (CO3), temos
x = −x′ e y = −y′ com x′, y′ > 0. Então, usando o Lema 1.6.17, segue que
x + y = (−x′) + (−y′) = (−1)x′ + (−1)y′ = (−1)(x′ + y′) = −(x′ + y′).
Como x′ + y′ > 0 pela primeira parte de (b), segue de (a) que x + y < 0, como queríamos mostrar.
Juntando (CO1) com a parte (c) do último lema, concluímos que a relação de ordem num corpo
ordenado pode ser recuperada do conhecimento do conjunto dos números positivos. Mais precisa-
mente:
Proposição 1.7.3. Se F é um corpo odenado e x, y ∈ F, então x > y se, e somente se, existir z ∈ F>0
tal que x = y + z.
Observe que a propriedade (CO2) não foi utilizada até agora. Tendo vista o Lema 1.6.17, a
principal consequência de (CO2) são as chamadas regras de sinais para multiplicação:
(1.7.1) x(−y) ∈ F<0 se x, y ∈ F>0
e
(1.7.2) xy ∈ F>0 se x, y ∈ F<0.
Em particular, como 1 = 12, segue que 1 > 0 e, portanto, −1 < 0. Isso implica que qualquer corpo de
característica não nula não pode ser ordenado pois, se a característica for p > 0, temos
−1 = 1 + 1 + · · · + 1︸ ︷︷ ︸
p−1 parcelas
.
Portanto, todo corpo ordenado tem característica 0 e, consequentemente, contém subcorpo isomorfo
a Q pela Proposição 1.6.22.
O valor absoluto (ou módulo) de x ∈ F é definido como
(1.7.3) |x| = max{x,−x} =
®
x, se x ≥ 0,
−x, se x < 0.
Deixamos como exercício para o leitor demonstrar que as seguintes propriedades valem num corpo
ordenado para quaisquer x, y, z ∈ F.
36
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(CO4) y < x se, e somente se, y + z < x + z.
(CO5) Se z > 0, então y < x se, e somente se, yz < xz.
(CO6) Se z < 0, então y < x se, e somente se, yz > xz.
(CO7) Se x , 0, então x−1 > 0 se, e somente se, x > 0.
(CO8) Se xy > 0, então y < x se, e somente se, y−1 > x−1.
(CO9) Se x, y ≤ 0, então y < x se, e somente se, |y| > |x|.
Passamos agora a discutir o que significa um corpo ordenado ser completo. Para tanto, relembre
a definição de subconjuntos limitados superiormente no parágrafo que antecede o Lema 1.3.4 assim
como as definições (1.3.7) e (1.3.8) de supremo e ínfimo.
Exemplo 1.7.4. Sejam F um corpo ordenado e a, b ∈ F com a < b. Considere o intervalo (a, b) =
{c ∈ F : a < c < b}. Mostremos que b = sup(a, b). Comece observando que (a, b) , ∅ pois
(a + b)/2 ∈ (a, b). De fato, por (CO4) e (CO5) temos
a =
a + a
2
<
a + b
2
<
b + b
2
= b.
Evidentemente, b é cota superior para (a, b). Verifiquemos que, se x < b, então x não é cota superior
e, portanto, b = sup(a, b). De fato, se x ≤ a, então x não é cota superior. Por outro lado, se x > a,
segue que x ∈ (a, b) e uma conta semelhante à feita acima mostra que (x+b)/2 ∈ (a, b) e x < (x+b)/2.
De maneira semelhante, mostra-se que a = inf(a, b). �
Exemplo 1.7.5. Considere os conjuntos A = {x ∈ Q>0 : x2 < 2} e B = {x ∈ Q>0 : x2 > 2}. Observe
que 1 ∈ A e 2 ∈ B. Vejamos que A não possui supremo e B não possui ínfimo em Q. Para chegarmos
nestas conclusões, verificaremos que
(i) A não tem máximo;
(ii) B não tem mínimo;
(iii) x < y para todo x ∈ A e todo y ∈ B.
Vejamos que estes fatos nos levam à conclusão que não existe sup A. Se este supremo existisse,
digamos a = sup A, teríamos a ≥ 1 e, além disso, a2 ≥ 2 pois, se fosse a2 < 2, seguiria que a ∈ A e,
então, pelo Exercício 1.3.6, teríamos a = max A, gerando uma contradição com o item (i). Por outro
lado, (ii) e (iii) implicam a2 ≤ 2. De fato, se fosse a2 > 2, então a ∈ B e, por (ii), existiria b ∈ B
tal que b < a. Mas (iii) implica que x < b < a para todo x ∈ A, contrariando a ser a menor das
cotas superiores para A. Portanto, a2 = 2. Mas, como a ∈ Q, isto gera uma contradição com a última
parte do Exercício 1.4.33. Logo, sup A não existe. Analogamente, o leitor pode verificar que inf B
não existe.
37
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rMostremos a validade de (i). Se o máximo existisse, certamente ele seria maior do que ou igual a1. Assim, mostremos que , para todo a ∈ A com a ≥ 1, existe a′ ∈ A tal que a < a′, mostrando que A
não possui máximo. De fato, dado tal a, escolha x ∈ Q tal que
0 < x <
2 − a2
2a + 1
e observe que, como a ≥ 1, temos
2 − a2
2a + 1
≤ 1.
Mostremos que a′ = a + x ∈ A. As desigualdades 0 < x < 1 junto com (CO5) implicam x2 < x,
enquanto a segunda desigualdade acima pode ser re-escrita como x(2a + 1) < 2 − a2. Assim,
(a + x)2 = a2 + 2ax + x2 < a2 + 2ax + x = a2 + x(2a + 1) < 2,
mostrando que a′ ∈ A, como afirmado. Convidamos o leitor a verificar (ii) usando o mesmo tipo de
ideias.
Finalmente, para mostrar (iii), observe que, se x ∈ A e y ∈ B, então x2 < y2 e, portanto, x2−y2 < 0.
Mas então,
(x − y)(x + y) = x2 − y2 < 0
e, como x, y ∈ Q>0, temos x + y > 0. Logo, (CO5) e (CO6) implicam que x− y < 0 e, portanto, x < y,
completando a demonstração de (iii). �
Definição 1.7.6. Um corpo ordenado é dito completo se todos os seus subconjuntos não vazios limi-
tados superiormente possuírem supremo.
No exercício 1.7.8, convidamos os leitor a mostrar que, substituindo supremo por ínfimo nesta
definição, obtemos definição equivalente. O último exemplo nos diz que Q não é completo. Por
outro lado, se F é corpo ordenado completo, como o conjunto A = {x ∈ F>0 : x2 < 2} é limitado
superiormente, existe a = sup A. O raciocínio utilizado no exemplo nos diz que não podemos ter
nem a2 < 2 e nem a2 > 2. Logo, a2 = 2. A partir daqui, este supremos será denotado por
√
2. Em
particular, F \Q , ∅. Os elementos de F \Q são ditos irracionais.
Devido ao Teorema 1.7.1, usa-se um abuso de linguagem tratando-se todos os corpos ordenados
completos como se fossem o mesmo corpo, que é então chamado de o corpo dos números reais e é
denotado por R. Como este é um texto voltado para aspectos algébricos, não exploraremos várias
outras propriedades importantes dos números reais que são cruciais para a área da Matemática co-
nhecida como Análise à qual os estudantes são tipicamente introduzidos via cursos de Cálculo. O
leitor interessado deve estudar o Capítulo III de [10]. Aqui, deixamos, como último comentário, a
informação que R não é enumerável, isto é, vale #R > #N. Em particular, R \Q não é enumerável.
Introduzir os complexos
Exercícios
1.7.1. Demonstre as propriedades (CO4) a (C09).
38
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r1.7.2. Dados um corpo ordenado F e x, y ∈ F, mostre que as seguintes afirmações são equivalentes.(i) −y ≤ x ≤ y;
(ii) x ≤ y e −x ≤ y;
(iii) |x| ≤ y.
Conclua que, para todo � ∈ F≥0, tem-se |x − y| < � se, e somente se, y − � < x < y + �.
1.7.3. Dados um corpo ordenado F e x, y, z ∈ F, mostre que valem as seguintes propriedades.
(i) |x + y| ≤ |x| + |y|.
(ii) |xy| = |x||y|.
(iii) |x| − |y| ≤ ||x| − |y|| ≤ |x − y|.
(iv) |x − y| ≤ |x − z| + |z − y|.
1.7.4. Mostre que num corpo ordenado F vale (1 + x)n ≥ 1 + nx para todo x ∈ F≥−1 e todo n ∈ N≥1.
1.7.5. Seja F um corpo e suponha que existe a ∈ F satisfazendo a2 = −1. Este corpo pode ser
ordenado?
1.7.6. Sejam F um corpo e F+ ⊆ F \ {0}. Considere F− = {−x : x ∈ F+}. Suponha que F+ seja fechado
pela soma e multiplicação de F e que F = F− ∪ {0} ∪ F+. Mostre que a relação binária em F
dada por y < x se x− y ∈ F+ é uma relação de ordem total, F>0 = F+ e as propriedades (CO1) a
(CO3) são satisfeitas.
1.7.7. Seja F um corpo ordenado e K seu subcorpo isomorfo a Q dado pela Proposição 1.6.22. Mostre
que, para todo x, y ∈ K, vale y < x se, e somente se, existe z ∈ K∩F>0 tal que x = y+z. Isso quer
dizer que a ordem em K induzida pela de F coincide com a ordem usual em Q. Em particular,
só existe uma ordem em Q que o torna um corpo ordenado.
1.7.8. Mostre que um corpo ordenado F é completo se, e somente se, todo subconjunto não vazio
limitado inferiormente possui ínfimo.
1.7.9. Um corpo ordenado F é ditoarquimediano se N não for limitado superiormente em F. Mostre
que Q e R são arquimedianos.
1.7.10. Seja F um corpo ordenado completo. Mostre que, para todo x ∈ F≥0 e n ∈ N>0, existe único
a ∈ F≥0 tal que an = x. Tal a é denotado por n
√
x. Analogamente, mostre que para todo x ∈ F<0
e n ∈ N>0 ímpar, existe único a ∈ F<0 tal que an = x.
1.7.11. Mostre que, para todo x ∈ R, existe único (m, n) ∈ Z2 tal que x − 1 < m ≤ x ≤ n < x + 1. De
fato, mostre que m = max{k ∈ Z : k ≤ x} e n = min{ j ∈ Z : k ≥ x}. O número m é chamado
de a parte inteira de x e será denotado por bxc. Já o número n é denotado por dxe e a diferença
x − bxc é chamada de parte fracionária de x. Mostre que dxe = −b−xc e bx + mc = m + bxc para
todo m ∈ Z. Além disso, mostre que se x ∈ Q, digamos x = a/b com a, b ∈ N e b > 0, então
bxc é o quociente da divisão de a por b.
1.7.12. Faça os exercícios 10,11 e de 14 a 41 do Capítulo III de [10].
39
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r1.8. Polinômios e Funções Polinomiais
Formalizaremos agora a noção de anéis de polinômios e de funções polinomiais que serão de funda-
mental importância para o desenvolvimento do texto. Fixaremos até o fim desta seção um anel com
identidade A.
Seja N = Z≥0 e considere o conjunto S(A) = F (N, A) que é o conjunto das sequências em A.
Utilizando o Exemplo 1.4.5 com X = N e + no lugar de ·, obtemos uma operação binária em S(A)
que denotaremos também por + (ao invés de ∗ como naquele exemplo) fazendo de S(A) um grupo
abeliano. Mais precisamente, dados p = (p j) j∈N, q = (q j) j∈N ∈ S(A), definimos p + q como sendo a
sequência r cujo j-ésimo termo é
r j = p j + q j, j ∈ N.
Podemos também considerar a ação de A em S (a) como no Exemplo 1.9.2 que denotaremos por · ao
invés de ∗. Mais precisamente, dados p ∈ S(A) e a ∈ A, definimos a sequência a · p como sendo a
sequência r cujo j-ésimo termo é
r j = a · p j, j ∈ N.
Observe que esta ação satisfaz as 4 propriedades (A1)–(A4).
Considere agora o subconjunto P(A) de S(A) formado pelas sequências eventualmente nulas, isto
é, a ∈ P(A) se existir k ∈ N tal que a j = 0 para todo j ≥ k. Observe que P(A) é fechado pela soma
que definimos em S(A) e, portanto, a soma de S(A) induz (por restrição e co-restrição) uma operação
binária em P(A). Isto é, P(A) é um subgrupo abeliano de S(A). Além disso, P(A) é invariante pela
ação de A em S(A) e, portanto, também temos uma ação de A em P(A). Dado p ∈ P(A), definimos
seu grau por
gr(p) = max{k ∈ N : pk , 0}.
Finalmente, definimos uma nova operação binária · em P(A) como segue. Dados p = (p j) j∈N, q =
(q j) j∈N ∈ P(A), definimos p · q como sendo a sequência r cujo j-ésimo termo é
r j =
j∑
k=0
pk · q j−k, j ∈ N.
Está claro que esta nova sequência r é um elemento de S(A). Mas, para termos uma operação binária
em P(A), precisamos verificar que, de fato, r é eventualmente nula. De fato, é razoavelmente simples
de mostrar que, não só r é eventualmente nula como
(1.8.1) gr(r) ≤ gr(p) + gr(q).
Além disso, se A for um corpo, então vale a igualdade em (1.8.1).
Proposição 1.8.1. As operações binárias + e · definidas em P(A) equipam P(A) com uma estrutura
de anel com unidade. Se A for comutativo, P(A) também o é.
Demonstração. ...
O anel P(A) é chamado de o anel de polinômios (em uma variável) com coeficientes em A. Para
passarmos a ter a notação de polinômios que o leitor deve estar acostumado fazemos o seguinte. Dado
40
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rn ∈ N, denote por xn a sequência cujo único termo diferente de 0 é o n-ésimo termo que é igual a1: xn = (0, 0, · · · , 0, 1, 0, · · · ). Pela demonstração da Proposição 1.8.1, vemos que x0 é o elemento
neutro da multiplicação de P(A) e, por isso, escrevemos
x0 = 1.
Observe que, por definição da multiplicação em P(A), temos
xn · xm = xm+n.
Assim, dado p = (p j) j∈N ∈ P(A), se n for o seu grau, usando a ação de A em P(A), podemos escrever
(1.8.2) p = p0 · 1 + p1 · x1 + · · · + pn · xn.
Por simplicidade, escreveremos x ao invés de x1. Evidentemente, da maneira que apresentamos o anel
P(A), x é uma sequência de elementos de A e o motivo de chamarmos tal elemento de “variável” vem
do conceito de funções polinomiais que explicamos a seguir. Considere o conjunto F (A) = F (A, A)
o conjunto de todas as funções de A em A. Dado um polinômio p como em (1.8.2), associamos a p
um elementto fp ∈ F (A) definindo
(1.8.3) fp(a) = p0 +
n∑
k=1
pk · ak para todo a ∈ A.
Por causa dessa definição, é comum dizermos que avaliamos o polinômio p no elemento a de A ou
que substituímos a no lugar da variável x de p. Assim, temos definido uma função
ψ : P(A)→ F (A), p 7→ fp
Os elementos da imagem de ψ são chamados de funções polinomiais. Ou seja, uma função polinomial
em A é uma função construída a partir de um polinômio como descrito por (1.8.3). O principal
contexto que trabalharemos em anéis de polinômios é quando A é de fato um corpo. Além disso, algo
muito perto da totalidade dos exercício numéricos sugeridos ao longo do texto serão no caso de corpos
de característica zero. Neste caso, pode ser mostrado que ψ é injetora (de fato um monomorfismo de
anéis). Porém, se a característica não for zero, isto está longe de ser verdade como o próximo exemplo
mostra.
Exemplo 1.8.2. Suponha que A seja o corpo com apenas dois elementos do Exemplo ??. Então a
cardinalidade de F (A) é 4, enquanto o anel de polinômios tem infinitos elementos. É um simples
exercício ver que as funções polinomiais associadas aos polinômios p = 0, p = 1, p = x, p = 1 + x
são distintas e, portanto, todos os elementos de F (A) são funções polinomiais neste caso! �
Divisão e fatoração ....
Lema 1.8.3. Se p ∈ P(R) é irredutível de grau maior que 1, então existem únicos a, b ∈ R, b > 0, tais
que p(t) = t2 − 2at + a2 + b2.
Demonstração. ...
41
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rO conceito de polinômios em uma variável pode ser estendido para mais variáveis como explica-mos a seguir. Dado n ∈ N (que será o número de variáveis), considere o conjunto Sn(A) = F (Nn, A)
(se n = 1, temos S 1(A) = S (A)). Definimos soma em S n(A) de maneira análoga ao caso n = 1 assim
como também definimos uma ação de A em S n(A) de maneira análoga. Dado m = (m1,m2, . . . ,mn) ∈
Nn, defina
|m| = m1 + m2 + · · · + mn.
Dado p = (pm)m∈Nn , dizemos que p é uma família é eventualmente nula se existir k ∈ N tal que
pm = 0 se |m| ≥ k. Então consideramos o subconjunto Pn(A) de Sn(A) que consiste das famílias
eventualmente nulas. Para definir a multiplicação em Pn(A), relembre primeiro que Nn é fechado
pela soma de Zn. Então, dados p = (pm)m∈Nn , q = (qm)m∈Nn ∈ Pn(A), definimos p · q como sendo a
família r = (rm)m∈Nn com
(1.8.4) rm =
∑
(k,k′)
pk · qk′
onde a soma é sobre todos os pares (k, k′) ∈ Nn × Nn satisfazendo k + k′ = m. Deixamos a cargo
do leitor verificar que as operações binárias que definimos equipa Pn(A) com uma estrutura de anel
(comutativo se A o for) com identidade. O grau de p ∈ Pn(A) é definido por
gr(p) = max{|m| : m ∈ Nn, pm , 0}.
Para fazermos aparecer as “variáveis”, para cada 1 ≤ j ≤ n, considere o elemento e j = (0, · · · , 0, 1, 0 · · · , 0) ∈
Nn, onde o 1 aparece na j-ésima posição. Seja x j ∈ Pn(A) a família x j = (am)m∈Nn dada por
am = 0 se m , e j e ae j = 1.
Em particular, gr(x j) = 1 para todo 1 ≤ j ≤ n. Pela definição da multiplicação em Pn(A), temos
x jxi = xix j para quaisquer 1 ≤ i, j ≤ n.
Claramente, dado p = (pm)m∈Nn , temos
p =
∑
m∈Nn:
|m|≤gr(p)
pm · x
m1
1 x
m2
2 · · · x
mn
n .
Cada parcela não nula desta soma é chamada de um monômio do polinômio p. Um polinômio é dito
homogêneo se todos os seus monômios tiverem o mesmo grau. Por vezes será conveniente nomear as
variáveis diferentemente. Por exemplo, será comum usarmos t j ao invés de xj quando o símbolo x j
já estiver sendo usado com outro significado. Como a notação Pn(A) não diz o nome escolhido para
as variáveis, é muito comum substituir essa notação por A[x1, x2, . . . , xn] ou A[t1, . . . , tn]. O conceito
de funções polinomiais em várias variáveis é definido de maneira similar ao caso de uma variável:
Dado um polinômio p em n variáveis, associamos a p a função fp : An → A que leva o elemento
(a1, . . . , an) ∈ An naquele de A obtido substituindo-se a j no lugar da variável x j.
Exercícios
42
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r1.8.1. Mostre a veracidade de (1.8.1) e que, se A for corpo, vale a igualdade. Generalize para polinô-mios em várias variáveis.
1.8.2. Demonstre que Pn(A) é de fato um anel com identidade (comutativo se A o for).
1.8.3. Suponha que A seja um corpo e mostre que para quaisquer polinômios f , g ∈ P(A) com g , 0
existem únicos polinômios q, r ∈ P(A) satisfazendo f = qg + r e gr(r) < gr(g). Diz-se que g
divide f , escrevendo-se g| f , se r = 0.
1.8.4. Suponha que A seja um corpo. Um polinômio f ∈ P(A) não constante é dito irredutível ou
primo1 se seus únicos divisores mônicos forem 1 e f . Mostre que todo polinômio mônico se
fatora de maneira única como produto de polinômios mônicos irredutíveis.
1.8.5. Suponha que A seja um corpo e observe que todo polinômio de grau um é irredutível, mas
podem existir polinômios irredutíveis de grau maior que um. A é dito algebricamente fechado
se os polinômios irredutíveis de P(A) forem exatamente os polinômios de grau um. O Teorema
Fundamental da Álgebra diz que o corpo C é algebricamente fechado. Utilizando este fato,
mostre que, se A = R, os polinômios irredutíveis de grau maior que um são exatamente os da
forma at2 + bt + c com b2 − 4ac < 0.
1.8.6. Defina o conceito de máximo divisor comum entre polinômios e mostre que, para quaisquer
polinômios não nulos f1, . . . , fm ∈ P(A) sendo A um corpo, existem polinômios g1, . . . , gm
satisfazendo
mdc( f1, . . . , fm) =
m∑
j=1
g j f j.
1.8.7. Defina recursivamente Qn(A) como Q1(A) = P(A) e Qn(A) = P(Qn−1(A)). Mostre que os anéis
Qn(A) e Pn(A) são isomorfos.
1.8.8. Generalize o conceito de função polinomial para o caso de várias variáveis.
1.8.9. Mostre que (1.8.4) pode ser usada para definir uma ação de Pn(A) em Sn(A).
1.8.10. Polinômios em infinitas variáveis ...
1.9. Ações
Apresentamos agora uma generalização do conceito de operação binária que também aparece com
muito frequência “no mundo real”:
Definição 1.9.1. Uma ação (à esquerda) de um conjunto B em um conjunto A é uma função ∗ :
B × A→ A. �
1Num anel qualquer os conceitos de primalidade e irredutibilidade são distintos. Porém, como eles coincidem no anel
P(A), enunciamos este exercício os tratando como sinônimos.
43
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rEm particular, uma ação de A em A nada mais é que uma operação binária em A. Como no casode operações binárias, dados a ∈ A, b ∈ B, escreveremos b∗a ao invés de ∗(b, a). Em geral, estaremos
interessados em ações em que os conjuntos A e B possuam alguma estrutura algébrica e que ação
“enxergue” essas estruturas. Listamos algumas dessas possíveis propriedades a seguir.
(A1) Se · é uma operação binária em B, diz-se que a ação ∗ de B em A é associativa com respeito a ·
se b1 ∗ (b2 ∗ a) = (b1 · b2) ∗ a para quaisquer a ∈ A, b1, b2 ∈ B.
(A2) Se + é uma operação binária em B, diz-se que a ação ∗ de B em A é distributiva sobre + se
(b1 + b2) ∗ a = (b1 ∗ a) + (b2 ∗ a) para quaisquer a ∈ A, b1, b2 ∈ B.
(A3) Se + é uma operação binária em A, diz-se que a ação ∗ de B em A é distributiva sobre + se
b ∗ (a1 + a2) = (b ∗ a1) + (b ∗ a2) para quaisquer a1, a2 ∈ A, b ∈ B.
(A4) Se · é uma operação binária em B que possui elemento neutro n, diz-se que a ação ∗ de B em A
é unitária se n ∗ a = a para qualquer a ∈ A.
(A5) Se · é uma operação binária em A diz-se que a ação ∗ de B em A comuta com · se b ∗ (a1 · a2) =
(b ∗ a1) · a2 = a1 · (b ∗ a2) para quaisquer a1, a2 ∈ A, b ∈ B.
Exemplo 1.9.2. Considere o contexto do Exemplo 1.4.5 e definamos uma ação de A em F (X, A)
como segue:
(a ∗ f )(x) = a · f (x) para todo a ∈ A, f ∈ F (X, A), x ∈ X.
Observe que se · for associativa, então ∗ é associativa com respeito a ·. Além diso, ∗ é obviamente
unitária se existir elemento neutro para ·. �
Exemplo 1.9.3. Voltemos ao Exemplo 1.4.6 e denotemos por + a soma usual em Zm. Podemos definir
uma ação de Z em Zm por
x ∗ (x1, . . . , xm) = (x · x1, . . . , x · xm).
Observe que ∗ satisfaz as 4 propriedades (A1)–(A4). O mesmo se aplica ao substituirmos Z por Q ou
R. �
Exemplo 1.9.4. Voltemos ao Exemplo 1.4.7 com A = Z e denote por + a soma usual de matrizes.
De maneira similar ao que fizemos no exemplo anterior, definimos uma ação de Z no conjunto das
matrizes de ordem I × J com entradas em Z que também satisfaz as 4 propriedades (A1)–(A4). O
mesmo se aplica ao substituirmos Z por Q ou R. �
Definição 1.9.5. Suponha que ∗ seja uma ação de B em A. Um subconjunto S de A é dito invariante
(ou fechado) com respeito a ∗ se, para quaisquer b ∈ B e s ∈ S , valer b ∗ s ∈ S . �
Interpretar ações e suas propriedades na linguagem de representações (incluindo subconjuntos
invariantes). Inserir conceito de homomorfismo de reps..
Exercícios
1.9.1. ...
44
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r2. Matrizes e Sistemas Lineares
Matrizes e sistemas lineares estarão presentes como ferramentas fundamentais por trás do estudo de
toda a teoria exposta no decorrer deste texto. Por isso, iniciamos a apresentação justamente com seu
estudo sistemático. Não é necessário que o leitor tenha entendido todos os conceitos expostos no
Capítulo 1. De fato, não é necessário que o leitor tenha lido aquele capítulo para estudar este e, de
fato, talvez esta seja a atitude recomendável para o leitor mais iniciante. Algumas palavras lá definidas
aparecerão aqui em benefício do leitor nem tão iniciante, mas, via de regra, elas virão acompanhadas
de um lembrete de seu significado (num linguajar mais brando que o usado no Capítulo 1) que o
leitor iniciante poderá tomar como definição do termo. Para acompanhar este capítulo, basta que
o leitor tenha um compreendimento razoável, ainda que um tanto quanto intuitivo, do que são os
inteiros e os números reais, das propriedades das operações (soma e multiplicação) num anel em
geral (associatividade, elementos neutros, elementos inversos, etc.), do princípio da indução finita
(muito necessário para demonstrações) e do que seja um polinômio ou uma função polinomial.
Ao longo de todo o capítulo, F denotará um anel comutativo com identidade. Isto é, F é um
conjunto com pelo menos dois elementos, 0 e 1, equipado com duas operações binárias, soma (+)
e multiplicação (·), ambas associativas e comutativas, sendo 0 elemento neutro de + e 1 o de ·, a
multiplicação distribui sobre a soma e todo elemento de F possui inverso aditivo. Os principais
resultados serão no caso em que F é um corpo, isto é, todo elemento de F, exceto 0, possui inverso
multiplicativo.
2.1. Multiplicação de Matrizes
Lembre que, dados m, n ∈ Z>0, Mm,n(F) denota o conjunto de todas as matrizes m × n com entradas
em F. Dada A = (ai, j) ∈ Mm,n(F), a transposta de A é a matriz At ∈ Mn,m(F) cuja entrada ( j, i) é ai j.
Veja que (At)t = A. As seguintes matrizes elementares desempenharão papel importante em alguns
momentos no texto. Dados 1 ≤ k ≤ m, 1 ≤ l ≤ n, a matriz Em,nk,l ∈ Mm,n(F) é a matriz cuja entrada
(i, j) é δi,kδ j,l. Em outras palavras, a única entrada não nula de Em,nk,l é a entrada (k, l) que é igual a 1.
Observe que
(Em,nk,l )
t = En,ml,k .
Quando estiver claro no contexto quais valores estão fixados para m, n, simplificaremos a notação e
escreveremos Ek,l no lugar de Em,nk,l .
Quando m = n,simplificamos a notação e escrevemos Mn(F) ao invés de Mn,n(F). As matrizes em
Mn(F) são ditas quadradas. A matriz identidade de ordem n, denotada por In, é o elemento de Mn(F)
cuja entrada (i, j) é δi, j:
In =

1 0 0 · · · 0
0 1 0 · · · 0
...
. . .
. . .
. . .
...
...
. . .
. . .
. . .
...
0 · · · · · · 0 1

Quando estiver claro no contexto qual o valor de n, simplificaremos a notação e escreveremos I ao
45
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rinvés de In. Uma matriz quadrada A é dita diagonal se ai, j = 0 sempre que i , j, triangular superiorse ai, j = 0 sempre que i > j e triangular inferior se ai, j = 0 sempre que i < j:
a1,1 0 · · · · · · 0
0 . . . . . . . . .
...
...
. . .
. . .
. . .
...
...
. . .
. . . 0
0 · · · · · · 0 an,n


a1,1 a1,2 · · · · · · a1,n
0 . . . . . .
...
...
. . .
. . .
. . .
...
...
. . .
. . . an−1,n
0 · · · · · · 0 an,n


a1,1 0 · · · · · · 0
a2,1
. . .
. . .
...
...
. . .
. . .
. . .
...
...
. . .
. . . 0
an,1 · · · · · · an,n−1 an,n

As entradas ai,i, i = 1, . . . , n, são chamadas de entradas da diagonal principal de A. Uma matriz
triangular cujas entradas da diagonal principal são nulas é dita uma matriz estritamente triangular.
Uma matriz A é dita simétrica se A = At e anti-simétrica se At = −A.
Podemos definir a soma de dois elementos de Mm,n(F) como no Exemplo 1.4.7. Mais precisa-
mente, se A = (ai, j), B = (bi, j) ∈ Mm,n(F), então A + B é a matriz cuja entrada (i, j) é ai, j + bi, j. Esta
operação faz de Mm,n(F) um grupo abeliano, isto é, a soma de matrizes é associativa, comutativa,
possui elemento neutro e toda matriz possui inverso aditivo. O elemento neutro, que é a matriz que
tem todas as entradas iguais a 0, será denotada simplesmente por 0 também. O leitor deve ser capaz
de reconhecer pelo contexto se o símbolo 0 está se referindo ao elemento de F ou a uma matriz do
tamanho apropriado. O inverso aditivo de A, que será denotado por −A, é a matriz cuja entrada (i, j)
é −ai, j. Para quaisquer A, B ∈ Mm,n(F), temos (A + B)t = At + Bt.
O anel F age em Mm,n(F). Mais precisamente, se λ ∈ F e A = (ai, j) ∈ Mm,n(F), então a matriz λA
é a aquela cuja entrada (i, j) é λai, j. Para quaisquer λ, µ ∈ F, A, B ∈ Mm,n(F), temos
λ(A + B) = (λA) + (λB), (λ + µ)A = (λA) + (µA), λ(µA) = (λµ)A, (λA)t = λAt.
Dadas A = (ai, j) ∈ Ml,m(F) e B = (bi, j) ∈ Mm,n(F), define-se a matriz AB ∈ Ml,n(F) como aquela
cuja entrada (i, j) é
(2.1.1)
m∑
k=1
ai,k bk, j.
Exemplo 2.1.1. Suponha que F = Z e considere A =
[
1 1 1
2 1 4
]
e B =
î 2 −1
−1 0
0 1
ó
. Então
AB =
[
1 0
3 2
]
e BA =
î 0 1 −2
−1 −1 −1
2 1 4
ó
.
Além disso, se C =
î 1
2
3
ó
, então AC =
[
6
16
]
, mas CA não está definida. �
A multiplicação de matrizes satisfaz as seguintes propriedades, cujas demonstrações são deixadas
de exercício.
Proposição 2.1.2. (a) λA = (λIm)A = A(λIn) para quaisqer λ ∈ F, A ∈ Mm,n(F).
(b) A(BC) = (AB)C para quaisqer A ∈ Mk,l(F), B ∈ Ml,m(F),C ∈ Mm,n(F).
(c) A(B + C) = (AB) + (AC) para quaisqer A ∈ Ml,m(F), B,C ∈ Mm,n(F).
46
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(d) (A + B)C = (AC) + (BC) para quaisqer A, B ∈ Ml,m(F),C ∈ Mm,n(F).(e) λ(AB) = (λA)B = A(λB) para quaisqer λ ∈ F, A ∈ Ml,m(F), B ∈ Mm,n(F).
(f) (AB)t = BtAt para quaisqer A ∈ Ml,m(F), B ∈ Mm,n(F).
Observe que o conjunto Mn(F) equipado com estas operações se torna um anel tendo In como
seu elemento identidade. Os elementos de Mn(F) que possuírem inverso multiplicativo serão ditos
matrizes invertíveis. Ou seja,
(2.1.2) A é invertível se existir B ∈ Mn(F) satisfazendo AB = In = BA.
Neste caso, tal matriz B é única e chamada de a inversa de A. Denotaremos a inversa de A por A−1.
Evidentemente, (A−1)−1 = A. Observe também que a multiplicação não é comutativa para n ≥ 2. Por
exemplo, se Ei, j, Ek,l ∈ Mn(F) são matrizes elementares, então
Ei, jEk,l = δ j,kEi,l.
Em particular,
E1,2E2,1 = E1,1 , E2,2 = E2,1E1,2.
Exemplo 2.1.3. Considere a matriz A =
[
2 1
1 2
]
∈ M2(Z). Vejamos que A não é um elemento invertível
de M2(Z). Por contradição, suponha que fosse e seja A−1 =
[
a′1,1 a
′
1,2
a′2,1 a
′
2,2
]
sua inversa. Considere a matriz
B =
[
2 −1
−1 2
]
e observe que AB = 3I. Multiplicando por A−1 segue que B = 3A−1 e, em particular,
deveríamos ter 2 = 3a′1,1 o que é impossível já que 2 não é divisível por 3 em Z! Por outro lado, se
considerarmos A, B como elementos de M2(Q), então A passa a ser invertível e A−1 = 13 B. �
Observação 2.1.4. Suponha que V seja um grupo abeliano cuja operação é denotada por + e que F
aja sobre V . Então, dados A ∈ Ml,m(F) e B ∈ Mm,n(V), podemos definir AB ∈ Ml,n(V) através de
(2.1.1). Quase todas as propriedades listadas na última proposição, com modificações óbvias com
relação ao local de pertinência de cada elemento, fazem sentido neste contexto também (quais não
fazem?) e sua validade é consequência de propriedades similares (quando válidas) da ação de F em
V . Em particular, temos definida uma ação de Mm(F) em Mm,n(V). �
Uma matriz A é dita uma matriz-linha se A ∈ M1,n(F) para algum n ∈ N>0. Analogamente, se
A ∈ Mm,1(F), diz-se que A é uma matriz-coluna. Dados A ∈ Mm,n(F), 1 ≤ i ≤ m e 1 ≤ j ≤ n, a i-ésima
linha de A e a j-ésima coluna de A são as seguintes matrizes:
Li(A) =
[
ai,1 ai,2 · · · ai,n
]
∈ M1,n(F) e C j(A) =

a1, j
a2, j
...
am, j
 ∈ Mm,1(F).
Assim, toda matriz pode ser vista com uma família de matrizes-linha ou de matrizes-coluna:
A =

L1(A)
L2(A)
...
Lm(A)
 = [C1(A) C2(A) · · · Cn(A)] .
47
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rObserve que se A ∈ Ml,m(F) e B ∈ Mm,1(F), então AB é uma matriz-coluna (com l linhas). Analoga-mente, se A ∈ M1,m(F) e B ∈ Mm,n(F), então AB é uma matriz-linha (com n colunas). Com isto em
mente, é bastante útil fazer as seguinte interpretações da multiplicação de matrizes como uma sequên-
cia de operações nas linhas ou nas colunas. Mais precisamente, dadas A ∈ Ml,m(F) e B ∈ Mm,n(F),
temos:
(2.1.3) AB =
[
AC1(B) AC2(B) · · · ACn(B)
]
=

L1(A)B
L2(A)B
...
Ll(A)B
 ,
(2.1.4) Li(AB) =
m∑
j=1
ai, jL j(B) e C j(AB) =
m∑
i=1
bi, jCi(A).
Exercícios
2.1.1. Invente exemplos de matrizes multiplicáveis e multiplique-as. Para quais dos seus exemplos é
possível multiplicar em ambas as ordens?
2.1.2. Tente decidir se a matriz
[
2 1
1 1
]
∈ M2(Z) é invertível e, em caso afirmativo, tente encontrar sua
inversa (estudaremos método para resolver este tipo de exercício nas próximas seções).
2.1.3. As matrizes elementares (quadradas) são invertíveis?
2.1.4. Suponha que A, B ∈ Mn(F) sejam matrizes invertíveis e mostre que:
(a) At é invertível e (At)−1 = (A−1)t.
(b) AB é invertível e (AB)−1 = B−1A−1.
2.1.5. Suponha que A, B ∈ Mn(F) \ {0} satisfaçam AB = 0 e mostre que nem A nem B é invertível.
2.1.6. Suponha que A ∈ Mn(F) satisfaça A3 = 0 e mostre que a inversa de B = In−A é B−1 = In+A+A2.
2.1.7. Determine se as seguintes afirmações são verdadeiras ou falsas.
(a) Se A e B são matrizes satisfazendo AB = 0, então A = 0 ou B = 0.
(b) Se A é uma matriz quadrada satisfazendo A3 = A, então A = I ou A = 0.
(c) Se A e B são matrizes n × n, então (A + B)2 = A2 + 2AB + B2.
(d) Se A e B são matrizes que comutam com a matriz M =
[
0 −1
1 0
]
, então AB = BA.
(e) Se A é uma matriz quadrada que comuta com qualquer outra matriz do mesmo tamanho,
então A é diagonal.
(f) Se A e B são matrizes tais que AB está definido e resulta numa matriz invertível, então A
e B são quadradas e invertíveis.
48
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(g) Se A é uma matriz quadrada e existem a0, a1, . . . , am ∈ F,m > 0, tais quea0, am , 0 ea0I + a1A + a2A2 + · · · + amAm = 0, então A é invertível.
(h) Se A é uma matriz invertível e a0, a1, . . . , am ∈ F,m > 0, am , 0, satisfazem a0I + a1A +
a2A2 + · · · + amAm = 0, então a0 , 0.
2.1.8. Use uma das duas igualdades em (2.1.4) como definição da multiplicação de matrizes e, a partir
desta definição, deduza a definição original (2.1.1). Ou seja, qualquer uma das duas igualdades
em (2.1.4) pode ser vista como definição da multiplicação de matrizes. Sob este ponto de
vista, a definição de multiplicação de matrizes advém de uma “combinação natural” da soma
de matrizes com a multiplicação de matrizes por números.
2.1.9. Demonstre a Proposição 2.1.2 (o leitor mais avançado deve também pensar sobre isto no con-
texto da Observação 2.1.4). O ponto de vista do exercício anterior pode tornar algumas contas
mais curtas (ou mais inteligíveis)!
2.1.10. Mostre que toda matriz quadrada se escreve, de maneira única, como soma de uma matriz
simétrica com uma anti-simétrica.
2.1.11. Dada A ∈ Mm,n(C), defina A∗ ∈ Mn,m(C) como sendo a matriz cuja entrada ( j, i) é ai, j. Esta
matriz é chamada de a transposta hermitiana de A. A é dita hermitiana se A∗ = A e anti-
hermitiana se A∗ = −A. Mostre que toda matriz quadrada se escreve, de maneira única, como
soma de uma matriz hermitiana com uma anti-hermitiana.
2.2. Sistemas Lineares
Uma equação linear em n variáveis (sobre o corpo F) é uma equação (ver discussão ao redor de
(1.5.5)) da forma f = b com b ∈ F e f uma função polinomial de grau menor ou igual 1 em n
variáveis. Portanto, uma equação linear é uma equação do tipo
a0 + a1x1 + a2x2 + · · · + anxn = b
com a j ∈ F para todo j. Evidentemente, esta equação é equivalente à equação
(2.2.1) a1x1 + a2x2 + · · · + anxn = b − a0.
Portanto, sempre podemos supor que estamos trabalhando com uma equação linear proveniente de
um polinômio homogêneo. De agora em diante, quando dissermos que f = b é uma equação linear,
estamos implicitamente supondo que f provem de polinômio homogêneo. Nestas condições, se f
tem grau zero, então a equação tem solução somente se b = 0 e, neste caso, todos os elementos de Fn
são soluções. Um sistema de equações lineares em n variáveis é uma família de equações lineares da
forma acima.
O método mais inocente de tentar encontrar o conjunto solução de uma equação é “isolar uma
das variáveis e deixar as outras livres”. Mais precisamente, suponha que em (2.2.1) pelo menos um
dos coeficientes a j, j = 1, . . . , n, possua inverso multiplicativo. Digamos que este elemento seja a j0 .
49
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rNeste caso (2.2.1) é equivalente a
(2.2.2) x j0 = a
−1
j0
(
b − a0 −
∑
j, j0
a jx j
)
.
Se não existir j tal que a j possua inverso multiplicativo, resolver a equação se torna uma tarefa um
pouco mais complicada e não discutiremos este tipo de situação aqui.1 No caso de um sistema de
equações, podemos isolar uma variável em uma das equações e então substituir a expressão obtida
nas demais equações. O sistema formado pelas outras equações após esta substituição é um sistema
com uma equação e uma variável a menos que o original. Iterando o processo, eventualmente teremos
ficado com diversas das variáveis expressas em termos das variáveis livres da última equação na
qual aplicamos o processo de isolamento de uma variável e, portanto, obtivemos uma descrição do
conjunto solução em termos destas variáveis livres.
Exemplo 2.2.1. Uma industria fabrica os produtos �,♦ e ♥ usando as matérias primas A e B (entre
outras). Para fabricar uma unidade de � são utilizados 1g de A e 2g de B, para uma unidade de ♦ são
utilizados 1g de cada enquanto que para cada unidade de ♥ são utilizados 1g de A e 4g de B. Assim,
para fabricar x unidades de �, y unidades de ♦ e z unidades de ♥ são necessários x+y+ z gramas de A
e 2x + y + 4z gramas de B. Suponha que tenha-se disponíve ag de A e bg de B. É possível determinar
quantas unidades de cada produto é possível fabricar de modo a consumir todo o estoque de A e B?
A resposta é obtida estudando-se o conjunto solução do sistema linear®
x + y + z = a
2x + y + 4z = b
sobre o anel dos números inteiros. Isolando x na primeira equação temos x = a − y − z que,
substituindo-se na segunda e isolando y nos dá y = 2a − b + 2z. Substituindo esta última de volta em
x = a − y − z concluímos que a trinca (x, y, z) é solução do sistema só se
x = b − a − 3z e y = 2a − b + 2z.
Assim, podemos escolher quantas unidades de ♥ produzir e então a quantidade de � e ♦ ficam deter-
minadas. Evidentemente, não podemos fabricar quantidade negativa ou não inteira de cada produto, o
que impõe restrições adicionais (quais?). Por outro lado, se ao invés de unidades tivéssemos dito algo
como “para produzir x kg de �”, etc., então soluções não inteiras fariam sentido (mas não negativas).
Qual a quantidade máxima de ♥ podemos produzir com o estoque dado em ambas as circunstâncias
(unidades ou kg)? O problema é solúvel para quaisquer valor de a e b? �
Observamos a seguir que o procedimento de isolamento de uma variável é equivalente a substituir
as demais equações por alguma “combinação das equações” do sistema. De fato, vamos substituir o
isolamento (2.2.2) numa outra equação, digamos
a′1x1 + a
′
2x2 + · · · + a
′
nxn = b
′.
1Quando F = Z, uma equação polinomial é também conhecida como uma equação diofantina. Neste caso, um sistema
de equações lineares é chamdo de sistema de equações diofantinas lineares. Não faremos um estudo completo da resolução
destes sistemas em anéis em geral pois a ausência de inversos multiplicativos trás dificuldades que devem ser tratadas com
mais cuidado. Para os objetivos deste texto, nos basta o caso em que F é um corpo. Todavia, em alguns momentos será
interessante termos nos permitido desenvolver parte da teoria no contexto mais geral de anéis e, por isso, o fazemos.
50
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rPara simplificar a escrita, suponhamos, sem perda de generalidade, que j0 = 1. Feita a substituição,esta segunda equação se tornaÅ
a′2 −
a′1
a1
a2
ã
x2 + · · · +
Å
a′n −
a′1
a1
an
ã
xn = b′ −
a′1
a1
(b − a0).
Esta última equação é exatamente o que se obtém ao se somar a segunda equação original com a
equação (2.2.1) multiplicada por −a
′
1
a1
. O leitor é convidado a revisitar o exemplo anterior e interpretar
todos os isolamentos feitos em termos deste tipo de combinações de equações.
Para desenvolver o algoritmo que utilizaremos em geral para resolver sistemas lineares, será mais
útil pensar em termos deste tipo de operação entre equações do que no processo de isolamento de va-
riável. Estudaremos este algoritmo na próxima seção. Porém, também será mais prático desenvolve-lo
através da versão matricial de sistemas lineares que explicamos a seguir.
Dada A ∈ Mm,n(F), considere a função
fA : Mn,1(F)→ Mm,1(F), X 7→ AX.
Assim, dada B ∈ Mm,1(F), podemos considerar a equação
(2.2.3) fA = B
cujo conjunto solução é {X ∈ Mn,1(F) : AX = B} ⊆ Mn,1(F). Escrito de outra forma, se B =
 b1b2...
bm
,
então X =
[ x1
x2
...
xn
]
é solução de (2.2.3) se, somente, se

a1,1x1 + a1,2x2 + · · · + a1,nxn = b1
a2,1x1 + a2,2x2 + · · · + a2,nxn = b2
· · · · · · · · · · · ·
am,1x1 + am,2x2 + · · · + am,nxn = bm.
Ou seja, resolver a equação matricial (2.2.3) é equivalente a resolver este último sistema linear. Reci-
procamente, todo sistema de equações lineares dá origem a uma equação matricial da forma (2.2.3).
De agora em diante, transitaremos livremente entre estas duas maneiras de pensar em sistemas de
equações lineares. A equação matricial (2.2.3) e o sistema linear correspondente serão representados
por sua matriz aumentada:
[A | B]
A barra entre A e B é apenas um indicativo notacional de que se trata de uma matriz aumentada e não
há necessidade de usá-la se isto já estiver em mente. A matrizA é chamada de a matriz principal do
sistema ou simplesmente a matriz do sistema. Observe que o processo de isolamento de variáveis,
dada a discussão feita acima, é equivalente, em termos matriciais, a substituir uma linha da matriz
aumentada por ela mesma somada com algum múltiplo de outra linha. Este é o passo fundamental do
processo de escalonamento que discutiremos na próxima seção.
Exercícios
51
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r2.2.1. Um sistema linear cuja última coluna da matriz aumentada é nula é chamado de um sistemalinear homogêneo. Dadas A ∈ Mm,n(F) e B ∈ Mm(F), o sistema homogêneo associado à equação
fA = B é o sistema homogêneo que tem A como matriz principal. Mostre que:
(a) Todo sistema homogêneo possui solução.
(b) Se m < n, então o sistema homogêneo possui mais que uma solução.
(c) Se X e Y forem soluções da equação matricial fA = 0, então X + λY também é solução para
qualquer λ ∈ F.
(d) Se X e Y forem soluções de fA = B, então X−Y é solução de fA = 0. Reciprocamente, se X
é solução de fA = B e X0 é solução de fA = 0, então X + X0 é solução de fA = B. Em outras
palavras, para qualquer solução particular X de fA = B, o conjunto solução de fA = B é
{X + X0 : X0 é solução de fA = 0}.
2.2.2. Uma coluna de uma matriz A ∈ Mm,n(F) é dita uma combinação linear das demais colunas de A
se ela for soma de múltiplos das demais colunas. Mais precisamente, a coluna j é combinação
linear das demais colunas de A se existirem λi ∈ F, i = 1, . . . , n, i , j, satisfazendo
C j(A) =
∑
i, j
λiCi(A).
Use (2.1.4) para mostrar que um sistema linear com matriz aumentada [A|B] tem solução se, e
somente se, B for cominação linear das colunas de A.
2.3. Escalonamento
Dada A ∈ Mm,n(F), a primeira entrada não nula de cada linha (não nula) de A é chamada de pivô da-
quela linha. Diz-se que A tem forma escalonada (ou escada) se suas entradas satisfizerem as seguintes
condições:
(E1) Todas as linhas nulas ocorrem abaixo das não nulas.
(E2) O pivô de cada linha não nula ocorre numa coluna à direita daquela que contém o pivô da linha
anterior (quando houver).
Observe que se uma matriz estendida M = [A|B] tiver forma escalonada, então o sistema tem solução
só se nenhum dos pivôs ocorrer na última coluna. Neste caso, se todos os pivôs possuírem inverso
multiplicativo, todas as variáveis correspondentes aos pivôs podem ser “isoladas” e, portanto, expres-
sas em termos das demais variáveis, que são então chamadas de variáveis livres. Logo, o conjunto
solução fica completamente descrito.
Exemplo 2.3.1. Considere as matrizes
M =
2 1 2 −10 0 1 4
0 0 0 0
 e N =
2 1 0 −10 2 6 3
0 1 3 0

52
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rambas vistas como elementos de M3,4(Z). A matriz M tem forma escalonada, mas N não tem. Su-ponhamos que ambas sejam matrizes aumentadas de um sistema linear. Assim, ambas representam
sistemas lineares em três variáveis.
Para o sistema correspondente a M, as variáveis correspondentes aos pivôs são x1 e x3. A segunda
linha diz que x3 = 4. Substituindo na equação correspondente à primeira linha ficamos com 2x1 +
x2 = −9. O pivô não é multiplicativamente invertível em Z, portanto, não podemos proceder como
na discussão geral acima. Porém, esta equação nos dá x2 = −2x1 − 9 o que resolve o sistema,
porém tratando uma variável correspondente a um pivô como variável livre. Se estivéssemos tentando
resolver a equação em Q3 ao invés de Z3, então poderíamos proceder como na discussão geral e
escrever x1 = (−9 − x2)/2. Para enfatizar ainda mais a diferença entre trabalhar em Z ou em Q,
consideremos a equação cuja matriz aumentada é
M′ =
2 3 2 −10 0 1 4
0 0 0 0
 .
Como antes, x3 = 4 e ficamos com 2x2 + 3x2 = −9. Desta vez parece que não conseguimos isolar
nenhuma variável quando estamos tentando resolver o problema em Z3. Porém, existem muitas solu-
ções para esta última equação em Z2! Evidentemente, resolver este tipo de problema em Z3 é algo que
aparece no “mundo real” e, portanto, é algo a ser estudado. Todavia, para os objetivos que queremos
alcançar neste texto, este tipo de discussão está fora de escopo. Já se estivéssemos querendo resolver
o sistema em Q3, bastaria proceder como fizemos para o sistema original associado a M.
Olhemos agora para o sistema que tem a matriz N como matriz aumentada. Isolemos x2 na terceira
equação e substituamos na segunda que é o mesmo, como discutido na seção anterior, a substituir
L2(N) por L2(N) − 2L3(N) resultando na matriz:
N′ =
2 1 0 −10 0 0 3
0 1 3 0
 .
Invertendo-se a segunda e terceira linhas de N′ de posição ganhamos uma matriz escalonada. Porém,
a última linha tem seu pivô na última coluna e, portanto, o sistema não tem solução. �
Na discussão feita até o momento tratamos de dois tipos de operações nas linhas da matriz au-
mentada de um sistema linear que troca o sistema original por um sistema equivalente cuja matriz
aumentada pode estar “mais perto” de ter forma escalonada que a original:
(1) trocar uma linha por ela somada a um múltiplo de outra linha (que é equivalente a isolar uma
variável na equação associada a esta outra linha);
(2) inverter duas linhas de posição.
Estas duas operações, chamadas de operações elementares de escalonamento, podem ser representa-
das em termos de multiplicação de matrizes como segue. Dados λ ∈ F, 1 ≤ i, j ≤ m, considere as
matrizes
(2.3.1) Ii, jm (λ) = Im + λEi, j e I
i, j
m = Im + (Ei, j − Ei,i) + (E j,i − E j, j).
53
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rOu seja, a matriz Ii, jm (λ) tem todas as linhas iguais às da matriz Im exceto a i-ésima que, além do 1 nacoluna i, também tem λ na coluna j. Já a matriz Ii, jm tem todas as linhas iguais às da matriz Im exceto
pela inversão de posicionamento das linhas i e j. Utilizando (2.1.4), segue que
Lk
(
Ii, jm (λ) A
)
=
®
Lk(A), se k , i,
Li(A) + λL j(A), se k = i,
e Lk
(
Ii, jm A
)
=

Lk(A), se k , i, j
L j(A), se k = i,
Li(A), se k = j.
Existe ainda mais um tipo de operação nas linhas de uma matriz que pode nos ser útil (e, de fato, terá
uma relevância teórica em breve):
(3) substituir uma linha por um múltiplo não nulo dela.
Esta terceira operação elementar de escalonamento só pode ser usada se a nova linha corresponda
a uma equação equivalente à original. Evidentemente, se multiplicarmos a linha por um elemento
de λ ∈ F que possua inverso multiplicativo, este será o caso1. Esta operação também pode ser
representada por multiplicação (à esquerda) pela matriz:
(2.3.2) Iim(λ) = Im + (λ − 1)Ei,i.
Observe que as matrizes que representam as operações elementares de escalonamento são invertíveis
(esta última desde que λ seja invertível em F):
(2.3.3) Ii, jm (−λ)I
i, j
m (λ) = Im, I
i
m(λ
−1)Iim(λ) = Im, (I
i, j
m )
2 = Im.
Esta invertibilidade é equivalente ao fato que as operações de escalonamento podem ser desfeitas.
Diremos que uma matriz A é equivalente (por linhas) a uma matriz A′ se A′ for obtida de A por
uma sequência de operações elementares de escalonamento. Pelo que discutimos, se A for a matriz
aumentada de um sistema linear, então A′ será a matriz aumentada de um sistema linear equivalente.
O próximo teorema nos diz que, quando F é um corpo, sempre podemos encontrar uma matriz que
tem forma escalonada equivalente a uma matriz dada.
Teorema 2.3.2. Suponha que F seja um corpo e que A ∈ Mm,n(F). Então, existe matriz com forma
escalonada equivalente a A.
Demonstração. A demonstração descreverá um algoritmo para escolha de operações de escalona-
mento de modo a que, a cada passo, a nova matriz “esteja mais próxima” de ter forma escalonada que
a original. Introduzamos a seguinte terminologia: Diremos que A está escalonada até a linha i se a
matriz
A′ =

L1(A)
L2(A)
...
Li(A)

tiver formaescalonada. Evidentemente, qualquer matriz está escalonada até a linha 1.
1Mais geralmente, basta que este elemento não seja divisor próprio de zero
54
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rSuponha então que A esteja escalonada até a linha i0, mas não esteja escalonada até a linha i0 +1, isto é, A′′ := î A′Li0+1(A) ó não tem forma escalonada sendo A′ definida como acima com i = i0.
Escolheremos uma sequência de passos de escalonamento, cujo produto das matrizes correspondente
resultam numa matriz E, de modo que EA esteja escalonada até a linha i0 + 1. Iterando, segue que o
algoritmo produz uma matriz escalonada em algum momento, demonstrando o teorema.
Seja j0 o índice da coluna onde se encontra o pivô de Li0(A), se Li0(A) , 0. Caso contrário, defina
j0 = n. Seja também j1 ≤ j0 a coluna onde está o pivô de Li0+1(A), que existe já que A
′′ não é
escalonada, e
j2 = max
(
{0} ∪ { j : ai, j é pivô com i ≤ i0, j ≤ j1}
)
.
j2 = j1 se j1 = j0. Seja também i2 ≤ i0 a linha que possui pivô na coluna j2 (i2 = 0 se j2 = 0) e, para
simplificar a escrita, defina i1 = i0 + 1. Assim, temos a seguinte configuração para A′′:
ai2, j2
0 · · · 0
...
... ai0, j0
| ←→ ai1, j1 ←→ |
 se j2 , 0, ou

0 · · · 0
...
...
0 0 · · · ai0, j0
←→ ai1, j1 ←→ |
 .
Caso 1) Suponha j2 < j1. Neste caso i2 < i0 e escolhemos a sequência associada ao produto
E = Ii2+1,i2+2m · · · I
i1−2,i1−1
m I
i1−1,i1
m .
Ou seja, colocamos a linha i1 na posição da i2 + 1 e passamos as linhas desde a i2 + 1 até a i0 uma
posição para baixo. Observe que o pivô da linha i2 + 1 ocorre numa coluna de índice maior que j1
pela maximalidade de j2. Portanto, a matriz EA obtida por esta sequência de operações elementares
está escalonada até a linha i1, que é a nova posição da antiga linha i0.
Caso 2) Suponha j2 = j1. Neste caso, começamos escolhemos a operação associada a
(2.3.4) E′ = Ii1,i2m (λ) com λ = −ai1, j1a
−1
i2, j1
(este é o único momento que usamos que F é um corpo). Evidentemente, E′A está escalonada até a
linha i0 já que esta operação só modifica a linha i1.
Agora, reinicie a análise com E′A no lugar de A. Se estiver escalonada até a linha i1, completamos
o processo de aumentar a quantidade de linhas escalonadas (E = E′). Veja que este é o caso quando
j1 = j0.
Caso contrário, o novo valor para j1 (a coluna onde está o pivô da linha i1 de E′A) continua
satisfazendo j1 ≤ j0 (caso contrário E′A estaria escalonada até a linha i1), mas j0 − j1 é menor
do que o que valia para A já que a operação (2.3.4) produz entrada 0 na posição que estava o pivô
de Li0(A). Assim, repetindo o processo, se em algum momento usarmos o caso (1), completamos
o escalonamento até a linha i1. Se não usarmos mais o caso (1), eventualmente chegamos no caso
j1 = j0 que, como vimos, é resolvido com a operação (2.3.4).
Observação 2.3.3. A hipótese de F ser um corpo no teorema anterior não é necessária. Por exemplo,
o teorema é válido quando F = Z (de fato, basta que F seja um domínio de integridade). Porém,
55
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rsem esta hipótese, a demonstração requereria cuidados adicionais para contornar situações que nãosurgirão nos contextos em que usaremos este teorema.
Veja que jamais usamos o terceiro tipo de operação elementar na demonstração (algo inevitável
quando F não é corpo). Porém, na prática, mesmo quando F é um corpo, pode ser conveniente usar-
mos este terceiro tipo de operação para evitarmos fazer muitas contas com “frações” como ilustramos
no próximo exemplo. De fato, em geral usaremos a operação do terceiro tipo em conjunto com uma
do primeiro:
Ii, jm (λ, µ) = I
i, j
m (µ) I
i
m(λ).
O efeito é o de substituir a linha i por ela multiplicada por λ somada com a linha j multiplicada por µ.
O algoritmo descrito na demonstração é chamado de processo de escalonamento ou processo de
eliminação de Gauss. A escolha do termo “eliminação” vem do fato que a operação mais essencial (a
do primeiro tipo) é usada para “eliminar” o pivô ai1, j1 (na notação da demonstração). Já a atribuição
do algoritmo a Gauss está acompanhada de um pouco de confusão histórica dado que ele já havia
aparecido em textos de Newton (e, de alguma forma, também em textos chineses ainda mais antigos).
Embora a implementação em computadores de algoritmos para resolver sistemas lineares utilizem
versões mais eficientes do algoritmo descrito aqui junto com outros “truques”, este será o método
mais eficiente para resolvermos “na mão” sistemas lineares com “poucas” equações e variáveis que
discutiremos neste texto. �
Nos exemplos que seguem utilizaremos a seguinte notação para indicar qual operação de escalo-
namento foi realizada:
A
λLi+µL j→i
−−−−−−−→ A′, A
i↔ j
−−→ A′ e A
i→ j↓
−−−→ A′
A primeira indica que Li(A′) = λLi(A) + µL j(A), a segunda indica que A′ é obtida de A invertendo-se
as posições das linhas i e j, enquanto que a terceira indica que i > j e A′ é obtida de A fazendo a linha
i se tornar a linha j e “empurrando” as linhas de j a i + 1 uma posição para baixo. Quando j = i − 1,
a terceira notação indica exatamente o mesmo que a segunda.
Exemplo 2.3.4. Considere a matriz A =
î 2 4 1 0 1
0 2 2 −8 6
3 0 2 0 0
ó
∈ M3,5(Q). Seguem os passos do processo de
escalonamento seguindo o algoritmo como descrito na demonstração do teorema.2 4 1 0 10 2 2 −8 6
3 0 2 0 0
 2↔3−−−→
2 4 1 0 13 0 2 0 0
0 2 2 −8 6
 L2− 32 L1→2−−−−−−−−→
2 4 1 0 10 −6 1/2 0 −3/2
0 2 2 −8 6

L3+ 13 L2→3
−−−−−−−−→
2 4 1 0 10 −6 1/2 0 −3/2
0 0 13/6 −8 11/2

Agora, refaçamos o processo nos permitindo usar o terceiro tipo de operação elementar como menci-
56
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
ronado na observação acima.2 4 1 0 10 2 2 −8 6
3 0 2 0 0
 2↔3−−−→
2 4 1 0 13 0 2 0 0
0 2 2 −8 6
 2L2−3L1→2−−−−−−−−→
1
2 L3→3
2 4 1 0 10 −12 1 0 −3
0 1 1 −4 3

12L3+L2→3
−−−−−−−−→
2 4 1 0 10 −12 1 0 −3
0 0 13 −48 33

Veja que esta última sequência pode ser aplicada mesmo que queiramos resolver o problema em Z ao
invés de Q (e o passo que usamos 1/2, apesar de poder ser usado (por que?), é desnecessário).
Suponhamos agora que a matriz dada seja a matriz aumentada de um sistema linear. Então, as
variáveis x1, x2, x3 são as que ficaram associadas a pivôs, enquanto x4 está livre. Porém, ao final do
escalonamento, não temos o sistema resolvido pois a primeira e segunda equações ainda têm uma
dependência da variável x3 que não está livre. Assim, precisamos resolver x3 em termos de x4 usando
a última equação e substituir de volta nas duas primeiras equações para então termos as três variáveis
expressas em termos da variável livre. �
Como visto no final do exemplo anterior, ao completar o escalonamento da matriz aumentada do
sistema, não necessariamente já temos a solução do sistema obtida. Podemos precisar fazer algu-
mas substituições para que as variáveis associadas aos pivôs fiquem então expressas em termos das
variáveis livres completando a resolução do sistema. Como vimos antes, o processo de isolamento
de uma variável e substituição é equivalente as aplicar uma operação elementar de escalonamento
do primeiro tipo. Portanto, começando da última linha não nula da matriz escalonada, ao aplicar os
escalonamentos referentes ao isolamento de cada variável associada a pivô e substituindo em todas as
linhas superiores, acabamos encontrando uma matriz escalonada que satisfaz a seguinte propriedade:
(E3) Se uma coluna contem o pivô de alguma linha, ele é sua única entrada não nula.
Chamaremos matrizes escalonadas satisfazendo esta propriedade de matrizes escalonadas essencial-
mente reduzidas. Se a matriz aumentada do sistema for escalonada essencialmente reduzida, tudo o
que resta fazer para resolver o sistema é multiplicar peloinverso multiplicativo de cada pivô (se existir
tal inverso). Após mais este passo, a matriz passa a ter também a seguinte propriedade:
(E4) Todos os pivôs são iguais a 1.
Matrizes satisfazendo as quatro propriedades (E1)–(E4) são ditas matrizes escalonadas reduzidas. A
discussão deste parágrafo demonstra o seguinte corolário.
Corolário 2.3.5. Suponha que F seja um corpo e que A ∈ Mm,n(F). Então, A é equivalente a uma
matriz escalonada reduzida.
Mais do que a existência garantida pelo corolário anterior, o próximo teorema nos diz que também
temos unicidade. Sua demonstração pode ser vista em [21, Teorema 1.10].
57
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rTeorema 2.3.6. Suponha que F seja um corpo e que A ∈ Mm,n(F). Então, A é equivalente a exatamenteuma matriz escalonada reduzida. �
Por causa deste teorema, a matriz escalonada reduzida equivalente a uma matriz A dada é chamada
de a forma escalonada reduzida de A.
Observação 2.3.7. O processo de escalonamento levado até encontrar uma matriz escalonada redu-
zida também é conhecido como processo de eliminação de Gauss-Jordan. �
Exemplo 2.3.8. Resolvamos a equação matricial fA = B (para matrizes com entradas em Q) cuja
matriz aumentada é
î 2 0 1 2 0
1 2 0 −1 2
4 4 1 0 a
ó
, para algum a ∈ Q, encontrando sua forma escalonada reduzida:2 0 1 2 01 2 0 −1 2
4 4 1 0 a
 L1−2L2→1−−−−−−−→
1↔2
1 2 0 −1 20 −4 1 4 −4
4 4 1 0 a
 L3−4L1→3−−−−−−−→
1 2 0 −1 20 −4 1 4 −4
0 −4 1 4 a − 8

L3−L2→3
−−−−−−→
1 2 0 −1 20 −4 1 4 −4
0 0 0 0 a − 4

Antes de prosseguirmos, vemos que o sistema só tem solução se a = 4. Neste caso, procedemos1 2 0 −1 20 −4 1 4 −4
0 0 0 0 0
 2L1+L2→1−−−−−−−→
2 0 1 2 00 −4 1 4 −4
0 0 0 0 0
 12 L1→1−−−−−−→
− 14 L2→2
1 0 1/2 1 00 1 −1/4 −1 1
0 0 0 0 0

Portanto, o conjunto solução é 
 −
x3
2 −x4
1+ x34 +x4
x3
x4
 : x3, x4 ∈ Q
 .
�
Terminamos esta seção observando algumas consequências do processo de escalonamento no caso
de matrizes quadradas.
Lema 2.3.9. Suponha que A ∈ Mn(F) seja equivalente a uma matriz essencialmente reduzida R.
Então:
(a) Ou R possui linha nula ou R é diagonal.
(b) Se R não possui linha nula e seus pivôs não são divisores próprios de 0, então cada sistema linear
tendo A como matriz principal possui no máximo uma solução.
Demonstração. Observe que se alguma linha de R possuir pivô fora da diagonal principal, então os
pivôs de todas as linhas subsequentes estarão à direita da diagonal principal. Mas não existe posição à
58
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rdireita da diagonal principal na última linha de R já que é uma matriz quadrada! Neste caso, a últimalinha de R deve ser nula.
Para mostrar (b), observe que um sistema linear associado a A é equivalente a ri,ixi = bi para
algum bi ∈ F e ri,i sendo pivô da linha i de R. Se x = (x1, . . . , xn) e y = (y1, . . . , yn) são soluções do
sistema, segue que x − y = (x1 − y1, . . . , xn − yn) é solução do sistema linear homogêneo associado.
Isto é, ri,i(xi − yi) = 0 para todo 1 ≤ i ≤ n. Como ri,i não é divisor próprio de zero, segue que xi = yi
para todo i = 1, . . . , n.
Proposição 2.3.10. Suponha que F seja um corpo e que A ∈ Mn(F). As seguintes afirmações são
equivalentes.
(i) A é invertível.
(ii) Existe B ∈ Mn(F) satisfazendo BA = In.
(iii) A é equivalente a In.
Demonstração. A implicação (i)⇒ (ii) é imediata da definição de matriz invertível. Suponha então
que (ii) seja válida. Segue que o sistema linear homogêneo associado a A (ver exercício 2.2.1) só
possui a solução trivial. De fato, se AX = 0, então X = InX = BAX = 0. Seja R a forma escalonada
reduzida de A. Pela parte (a) do lema anterior, ou R = In, ou R possui linha nula. Mas R possuir
linha nula implica na existência de variável livre e, portanto, haveriam mais soluções do sistema
linear homogêneo associado a A. Logo, devemos ter R = In. Finalmente, suponha que (iii) seja
válida. Assim, existem matrizes E1, . . . , Ek que representam operações elementares de escalonamento
satisfazendo E1E2 · · · EkA = In. Como cada E j é invertível dado que F é corpo, segue que
A = E−1k · · · E
−1
2 E
−1
1 .
Assim, A é um produto de matrizes invertíveis e, portanto, é invertível (ver exercício 2.1.4).
Observação 2.3.11. Observe que a implicação (ii) ⇒ (iii) é válida também supondo-se apenas F é
domínio de integridade. Segue do argumento de (iii)⇒ (i) que o processo de escalonamento pode ser
usado para calcular a inversa de A (quando existir). De fato, se A não for equivalente a In, então A não
é invertível (por que?). Já se A for equivalente a In, então
A−1 = E1E2 · · · Ek
com E j, j = 1, . . . , n, como na demonstração (ver exercício 2.1.4). Assim, a inversa de A é a matriz
que se obtém aplicando-se a In os mesmos passos de escalonamento que aplicamos a A até encontrar
sua forma escalonada reduzida. �
Exemplo 2.3.12. Determinemos se A =
î 1 1 1
2 1 4
2 3 5
ó
é invertível em Mn(Q) e, neste caso, calculemos
A−1. Procedendo como na observação acima. Devemos aplicar a In os passos de escalonamentos
aplicados a A até encontrar sua forma escalonada reduzida. Se por acaso surgir linha nula durante
o processo, então A não é invertível. Consideremos então a matriz [A | In] e apliquemos o processo
de escalonamento até encontrar uma matriz equivalente [R | S ] sendo R a forma escalonada reduzida
59
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rde A que, ou é diagonal (e neste caso S = A−1) ou uma matriz com linha nula (e, portanto, A não éinvertível).1 1 1 | 1 0 02 1 4 | 0 1 0
2 3 5 | 0 0 1
 L3−L2→3−−−−−−−→
L2−2L1→2
1 1 1 | 1 0 00 −1 2 | −2 1 0
0 2 1 | 0 −1 1
 L3+2L2→3−−−−−−−→
1 1 1 | 1 0 00 −1 2 | −2 1 0
0 0 5 | −4 1 1

2L1−L2→1
−−−−−−−−→
5L2−2L3→2
2 3 0 | 4 −1 00 −5 0 | −2 3 −2
0 0 5 | −4 1 1

5L1+3L2→1
−−−−−−−−→
−L2→L2
10 0 0 | 14 4 −60 5 0 | 2 −3 2
0 0 5 | −4 1 1
 L1/2→L1−−−−−−→
5 0 0 | 7 2 −30 5 0 | 2 −3 2
0 0 5 | −4 1 1

Portanto, A é invertível e a inversa é
A−1 =
1
5
 7 2 −32 −3 2
−4 1 1
 .
�
Exercícios
2.3.1. Para F = Q, resolva os sistemas lineares que tem as seguintes matrizes aumentadas:
(a)
[ 0 0 3 −9 | 6
5 15 −10 40 | −45
1 3 −1 5 | −7
]
.
(b)
[ 1 1 2 | 8
−1 −2 3 | 1
3 −7 4 | 10
]
.
(c)
[ 2 2 2 | 0
−2 5 2 | 1
8 1 4 | −1
]
.
(d)
[ 1 −1 −1 1 | 10
2 3 5 −2 | 21
4 −2 −1 1 | 16
]
.
(e)
ñ
0 0 1 −3 | 2
1 3 −2 8 | −9
2 6 −1 7 | −12
1 3 −1 5 | −7
ô
.
(f)
ñ
1 2 0 −3 5 0 | 2
1 2 1 −3 1 2 | 3
1 2 0 −3 2 1 | 4
3 6 1 −9 4 3 | 9
ô
.
2.3.2. Compare as soluções encontradas para o exercício anterior com o conjunto solução dos corres-
pondentes sistemas homogêneos (ver exercício 2.2.1).
2.3.3. Calcule a inversa das matrizes principais dos sistemas lineares do exercício 2.3.1 quando exis-
tirem.
2.3.4. Para cada item do exercício 2.3.1, seja A a matriz principal do sistema. Determine condições
sobre a matriz coluna B para que a correspondente equação AX = B tenha solução.
2.3.5. Dado a ∈ R, considere os sistemas lineares abaixo e determine os valores de a para os quais o
sistema não tem solução, tem solução única, tem mais que uma solução. Encontre as soluções
quando existirem.
60
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(a) ß x + y + az = 1x + ay + z = aax + y + z = a2
(b)
ß
x + y + z = 2
3x + 2y + 2z = 7
2x + 3y + (a2−1)z = a+1
(c)
ß
x + 2y + z = 3
x + y − z = 2
x + y + (a2−5)z = a
(d)
ß
x + y + az = 1
x + (1+a)y + (2+a)z = 1
2x + 2y + (a2+2a−4)z = a
(e)
ñ
1 1 1 1 | 4
1 3 −2 a | 3
2 2a−2 −a−2 3a−1 | 1
3 a+2 −3 2a+1 | 6
ô
(f)
[ 3−a 2 4 | 2
2 −a 2 | 1
4 2 3−a | a+3
]
2.3.6. Suponha que A, B ∈ Mn(F) e que F seja um corpo. Mostre que se AB é invertível, então A e B
também são.
2.3.7. Sejamm, n ∈ Z>0 com m < n, A ∈ Mm,n(F) e B ∈ Mn,m(F). Mostre que BA não é invertível. E
AB?
2.3.8. Determine se as seguintes afirmações são verdadeiras ou falsas.
(a) Se A é uma matriz m × n com m < n, então o correspondente sistema homogêneo possui
múltiplas soluções.
(b) Se A é uma matriz invertível, então ela não é a matriz aumentada de um sistema linear
solúvel.
(c) Se A é uma matriz m × n com m < n e existe matriz B n × m tal que AB = Im, então todo
sistema linear tendo A como matriz principal tem soluções múltiplas.
(d) Se A é uma matriz m×n com m > n, então sua forma escalonada reduzida tem exatamente
m − n linhas nulas.
(e) Se A é uma matriz m×n com m > n e algum sistema linear tendo A como matriz principal
possuir solução única, então sua forma escalonada reduzida tem exatamente m − n linhas
nulas.
2.3.9. Seja A ∈ Mn(F) sendo F um corpo. Mostre que existem m > 0, a0, a1, . . . , am ∈ R com am , 0,
satisfazendo a0I + a1A + a2A2 + · · · + amAm = 0. Além disso, mostre que, se A é invertível,
podemos encontrar tais números com a0 , 0.
2.3.10. Uma linha de uma matriz A ∈ Mm,n(F) é dita uma combinação linear das demais linhas de A se
ela for soma de múltiplos das demais linhas. Mais precisamente, a linha i é combinação linear
das demais linhas de A se existirem λ j ∈ F, j = 1, . . . ,m, j , i, satisfazendo
Li(A) =
∑
j,i
λ jL j(A).
Mostre que a aparição de uma linha nula durante o processo de escalonamento de A é con-
sequência de a corresponde linha de A ser combinação linear das demais linhas de A.2
2.3.11. Se F é um corpo, o posto-linha de uma matriz com entradas em F é a quantidade de linhas
não nulas de sua forma escalonada (reduzida). Mostre que um sistema homogêneo tem solução
não trivial se, e somente se, o posto-linha de sua matriz principal for estritamente menor que a
quantidade de variáveis.
2Quando não aparecem linhas nulas na forma escalonada de A, diz-se que as linhas de A são linearmente independentes
pois nenhuma delas é combinação linear das demais. Os conceitos de combinação linear e dependência linear serão
estudados de maneira mais geral no Capítulo 5.
61
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r2.3.12. (a) Invertendo o papel de linhas e colunas, defina o conceito de matrizes equivalentes porcolunas e operações elementares de escalonamento por colunas.
(b) Mostre que as operações elementares de escalonamento por colunas podem ser representa-
das via multiplicação por uma matriz à direita da original. Mais precisamente, interprete
o que as matrizes das operações elementares de escalonamento por linhas representam se
multiplicadas à direita de uma matriz dada.3
(c) Inspirado pelo exercício anterior, defina posto-coluna de uma matriz.
(d) Explorando o conceito de combinação linear de linhas colunas (vejaos Exercícios 2.2.2 e
2.3.10), mostre que posto-linha de uma matriz é maior ou igual ao seu posto coluna.
(e) Conclua que, de fato, o posto-linha de uma matriz é igual ao seu posto-coluna. Por isso,
passamos a chamar apenas de o posto da matriz e denotá-lo por pt(A). Diz-se que A ∈
Mm,n(F) tem posto máximo se pt(A) = min{m, n}. Quando A não tem posto máximo ela é
dita singular (portanto, uma matriz não singular é uma matriz de posto máximo). Conclua
também que o posto de A é igual ao de At e, portanto, A é singular se, e somente se, At o
for.
(f) Mostre que para duas matrizes multiplicáveis A e B vale pt(AB) ≤ min{pt(A), pt(B)}. Além
disso, mostre que vale a igualdade se A ou B tiver posto máximo.
2.3.13. Mostre que:
(a) Um sistema homogêneo tem solução não trivial se, e somente se, sua matriz principal for
singular.
(b) Se a matriz principal de um sistema linear tiver posto máximo, então o sistema ou não tem
solução, ou tem solução única.
2.3.14. Calcule os postos das matrizes principais dos sistemas lineares do exercício 2.3.1 e determine
quais são singulares. Calcule também os postos de suas matrizes aumentadas.
2.3.15. Suponha que A seja uma matriz quadrada com entradas num corpo. Mostre que:
(a) A equação (2.2.3) tem solução única se, e somente se, A for invertível.
(b) A é singular se, e somente se, A não for invertível.
2.3.16. Uma matriz A ∈ Mm,n(F) é dita ortogonal se AtA = In4. Mostre que se A é ortogonal, então seu
posto é igual a n. Em particular, conclua que n ≤ m e, se m = n, então A é invertível e A−1 = At.
2.3.17. Invente exemplos de matrizes ortogonais.
2.3.18. Uma matriz A ∈ Mm,n(C) é dita unitária se A∗A = In (ver exercício 2.1.11). Mostre que se A é
unitária, então seu posto é igual a n. Em particular, conclua que n ≤ m e, se m = n, então A é
invertível e A−1 = A∗.
3Jamais faremos escalonamento por colunas para resolver sistemas lineares. Aplicar escalonamento por colunas na
matriz aumentada de um sistema linear não tem significado algum. Porém, veremos mais adiante que escalonamento por
colunas da matriz principal do sistema está relacionado a mudanças de variáveis (via mudança de base).
4O motivo da escolha da terminologia “ortogonal” será explicado mais adiante.
62
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r2.3.19. Invente exemplos de matrizes unitárias.2.3.20. Tente demonstrar o Teorema 2.3.6.
2.4. Determinantes
Continuando o estudo de matrizes quadradas, apresentaremos a seguir o conceito de determinante
de uma matriz, um dos conceitos mais importantes de toda a álgebra linear. Neste primeiro mo-
mento, o apresentaremos da maneira que costumeiramente é usada no ensino médio e que fornece
um método bastante eficiente de calculá-los: via desenvolvimento de Laplace por linhas ou colunas.
Após deduzirmos que o determinante é um homomorfismo da multiplicação de matrizes, seguirá que
o método do escalonamento é uma ferramenta ainda mais eficiente para calculá-los. Nos próximos
capítulos, veremos os determinantes aparecerem como ferramenta fundamental em vários momentos
como no cálculo de áreas e volumes (com consequências fortíssimas para o cálculo integral que não
discutiremos aqui), no reconhecimento de cônicas, na determinação de dependência linear de famílias
de vetores e no cálculo de autovalores e autovetores que, por sua vez, têm inúmeras aplicações em
ciências aplicadas. Bem mais adiante no texto, veremos outras duas definições mais conceituais de
determinantes: uma via teoria de operadores lineares (8.1.21) e outra em termos de formas multili-
neares (10.4.9). Além disso, também é possível dar uma definição utilizando o grupo simétrico (ver
Exercício 10.4.21). Por ora, além da definição e das propriedades fundamentais, veremos sua relação
com a determinação da invertibilidade de matrizes e consequências no estudo de sistemas de equações
lineares.
Para cada n ∈ Z>0, definiremos uma função Mn(F) → F chamada de determinante. Apesar de de
fato estarmos definindo infinitas funções (uma para cada n), denotaremos todas elas simplesmente por
det pois sempre ficará claro do contexto de qual delas estamos falando. Mais ainda, a definição será
feita de maneira recursiva em n. Para n = 1, dada A ∈ M1(F), definimos det(A) = a1,1. Em outras
palavras, o determinante de uma matriz 1 × 1 é o valor de sua única entrada. Para A ∈ Mn(F) com
n > 1, o determinante de A será definido em termos de vários determinantes de matrizes em Mn−1(F),
completando a definição recursiva. Comecemos explicando como estes vários determinantes estão
relacionados à matriz dada A. Dados 1 ≤ i, j ≤ n, a submatriz de A associada à entrada (i, j) é a
matriz S i, j(A) ∈ Mn−1(F) obtida de A removendo-se a linha i e a coluna j:
S i, j(A) =

a1,1 a2,2 · · · a1, j · · · a1,n
...
...
...
...
...
...
ai,1 ai,2 · · · ai, j · · · ai,n
...
...
...
...
...
...
an,1 an,2 · · · an, j · · · an,n

Pelo processo recursivo, supomos (por hipótese de indução), que sabemos calcular determinantes de
matrizes (n − 1) × (n − 1). Portanto, podemos considerar os números
(2.4.1)Mi, j(A) = det(S i, j(A)) e Ci, j(A) = (−1)i+ jMi, j(A)
que são chamados, respectivamente, de o menor e o cofator de A associados à entrada (i, j). Final-
63
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rmente, definimos
(2.4.2) det(A) =
n∑
j=1
a1, j C1, j(A).
Observe que podemos definir vários outros números através de expressões semelhantes a esta. A
saber, para cada 1 ≤ k ≤ n, defina
(2.4.3) detk(A) =
n∑
j=1
ak, j Ck, j(A) e detk(A) =
n∑
i=1
ai,k Ci,k(A).
Em particular, det(A) = det1(A). Um dos principais objetivos desta seção é mostrar o seguinte teorema
que diz que todos estes números são iguais e, portanto, podemos usar qualquer um deles para calcular
det(A).
Teorema 2.4.1. Para quaisquer A ∈ Mn(F) e 1 ≤ k ≤ n, temos detk(A) = det(A) = detk(A). �
A expressão para detk(A) é chamada de o desenvolvimento de Laplace do determinante de A pela
k-ésima linha, enquanto detk(A) é chamada de o desenvolvimento de Laplace do determinante de A
pela k-ésima coluna.
Exemplo 2.4.2. Para n = 2 (primeiro passo recursivo), temos:
C1,1(A) = a2,2, C1,2(A) = −a2,1, C2,1(A) = −a1,2, C2,2(A) = a1,1.
Logo,
det1(A) = a1,1a2,2 + a1,2(−a2,1), det2(A) = a2,1(−a1,2) + a2,2a1,1
det1(A) = a1,1a2,2 + a2,1(−a1,2), det2(A) = a1,2(−a2,1) + a2,2a1,1,
verificando a validade do Teorema 2.4.1 para n = 2, além da famosa fórmula
det(A) = a1,1a2,2 − a1,2a2,1.
Observe também que, neste caso, det(A) = 0 se, e somente se, uma das linhas de A é múltipla da outra
ou, equivalentemente(!), uma das colunas de A é múltipla da outra. �
Exemplo 2.4.3. A fórmula para determinantes com n = 3 também é interessante de ser memori-
zada. Aproveitamos para introduzir outra notação para determinantes que pode ser mais conveniente
dependendo da situação: |A|. Assim, no caso n = 3 temos
C1,1(A) =
∣∣∣∣∣∣a2,2 a2,3a3,2 a3,3
∣∣∣∣∣∣ , C1,2(A) = −
∣∣∣∣∣∣a2,1 a2,3a3,1 a3,3
∣∣∣∣∣∣ , e C1,3(A) =
∣∣∣∣∣∣a2,1 a2,2a3,1 a3,2
∣∣∣∣∣∣ .
Logo, usando a definição e o caso n = 2, segue que
det(A) = a1,1(a2,2a3,3 − a2,3a3,2) − a1,2(a2,1a3,3 − a2,3a3,1) + a1,3(a2,1a3,2 − a2,2a3,1)
= a1,1a2,2a3,3 + a1,2a2,3a3,1 + a1,3a2,1a3,2 − a1,3a2,2a3,1 − a1,2a2,1a3,3 − a1,1a2,3a3,2.
Em particular, para A =
î 1 1 1
2 1 4
2 3 5
ó
∈ M3(Z), temos det(A) = 5 + 8 + 6 − 2 − 10 − 12 = −5. �
64
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 2.4.4. Suponha que A seja uma matriz triangular inferior e vejamos quedet(A) = a1,1a2,2 · · · an,n.
Para n = 2, 3, isto segue facilmente dos exemplos anteriores, o que nos permite usar um argumento
indutivo em n. Agora, por definição, det(A) = a1,1 det(S 1,1(A)). Como S 1,1(A) é claramente uma
matriz triangular inferior (n−1)×(n−1), por hipótese de indução temos det(S 1,1(A)) = a2,2a3,3 · · · an,n,
completando a verificação da fórmula acima. Argumento análogo mostra que detn(A) = det(A) e, se
A for triangular superior, então detn(A) = a1,1a2,2 · · · an,n = det1(A). �
A seguir começamos a demonstrar os fatos que nos levarão a uma demonstração do Teorema 2.4.1.
Lema 2.4.5. Sejam A ∈ Mn(F), X,Y ∈M1,n(F), 1 ≤ i ≤ n, e λ ∈ F.
(a) Se Li(A) = λX, então det(A) = λ det(B) sendo B a matriz obtida de A substituindo-se Li(A) por X.
(b) Se Li(A) = X+Y , então det(A) = det(B)+det(C) sendo B e C as matrizes obtidas de A substituindo-
se Li(A) por X e Y , respectivamente.
Demonstração. Escreveremos a demonstração para a parte (b) e deixamos como exercío para o leitor
escrever a da parte (a), que é mais simples. Comece observando que, se X = [x1 x2 · · · xn] e
Y = [y1 y2 · · · yn], temos
ai, j = x j + y j para todo j = 1, . . . , n.
Caso i = 1: Por definição temos
det(A) =
n∑
j=1
a1, j C1, j(A) =
n∑
j=1
(x j + y j) C1, j(A) =
(
n∑
j=1
x j C1, j(A)
)
+
(
n∑
j=1
y j C1, j(A)
)
.
Como claramente
S 1, j(B) = S 1, j(A) = S 1, j(C) pata todo j = 1, . . . , n,
a conclusão desejada segue facilmente neste caso.
Caso i > 1: Em particular, temos n ≥ 2. O argumento será por indução em n. O primeiro passo de
indução (n = 2) segue facilmente da fórmula encontrada no Exemplo 2.4.2. Suponhamos então que
n > 2 e, por hipótese de indução, que o lema valha para matrizes (n − 1) × (n − 1). Assim, podemos
usar o lema para as submatrizes S 1, j(A) que aparecem na definição de det(A). De fato, se X j e Y j
forem as matrizes obtidas de X e Y removendo-se a coluna j, respectivamente, segue que
Li−1(S 1, j(A)) = X j + Y j.
Portanto, por hipótese de indução, se B j e C j são as matrizes obtidas de S 1, j(A) substituindo-se a linha
i − 1 por X j e Y j, respectivamente, temos
M1, j(A) = det(S 1, j(A)) = det(B j) + det(C j).
65
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rPortanto,
det(A) =
n∑
j=1
a1, j(−1)i+ j
(
det(B j) + det(C j)
)
=
(
n∑
j=1
a1, j(−1)i+ j det(B j)
)
+
(
n∑
j=1
a1, j(−1)i+ j det(C j)
)
.
Finalmente, basta observar que S 1, j(B) = B j e S 1, j(C) = C j.
Observe que segue da parte (a) deste lema que, se A possuir alguma linha nula, então det(A) = 0.
O lema pode ser iterado para obter a seguinte generalização. Dados m ∈ Z>0, Xk ∈ M1,n(F), λk ∈
F, k = 1, . . . ,m, se
(2.4.4) Li(A) =
m∑
k=1
λkXk para algum 1 ≤ i ≤ n então det(A) =
m∑
k=1
λk det(Ak)
sendo Ak a matriz obtida de A substituindo-se Li(A) por Xk. O leitor pode facilmente demonstrar este
fato por indução em m a partir do lema.
Para o próximo passo, considere as matrizes-linha elementares:
E(n)j = E
1,n
1, j = [0 · · · 0 1 0 · · · 0].
Assim, para todo 1 ≤ i ≤ n, temos Li(A) =
∑n
j=1 ai, jLi(Ai, j) sendo Ai, j a matriz obtida de A substituindo-
se Li(A) por E
(n)
j :
Ai, j =

L1(A)
...
Li−1(A)
0 · · · 0 1 0 · · · 0
Li+1(A)
...
Ln(A)

.
Segue então de (2.4.4) que
(2.4.5) det(A) =
n∑
j=1
ai, j det(Ai, j) pata todo i = 1, . . . , n.
A igualdade dos desenvolvimentos de Laplace por linhas (o primeiro sinal de igual do Teorema 2.4.1)
segue imediatamente desta expressão juntamente com próximo lema.
Lema 2.4.6. Dados n ≥ 2, A ∈ Mn(F) e 1 ≤ i, j ≤ n, seja Ai, j a matriz obtida de A substituindo-se
Li(A) por E
(n)
j . Então, det(Ai, j) = Ci, j(A).
Demonstração. Procederemos por indução em n ≥ 2 sendo que o caso n = 2 é consequência do
Exemplo 2.4.2. Além disso, se i = 1, a conclusão é imediata da definição de det(A1, j). Portanto,
66
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rsuponhamos que n > 2, i ≥ 2 e, por hipótese de indução, que o lema valha para matrizes (n−1)×(n−1).Observe que
Li−1(S 1,k(Ai, j)) =

E(n−1)j−1 , se k < j,
E(n−1)j , se k > j,
0, se k = j.
Logo, por hipótese de indução, temos
det(S 1,k(Ai, j)) =

Ci−1, j−1(S 1,k(Ai, j)), se k < j,
Ci−1, j(S 1,k(Ai, j)), se k > j,
0, se k = j,
e segue que
det(Ai, j) =
(∑
k< j
a1,k (−1)1+k Ci−1, j−1(S 1,k(Ai, j))
)
+
(∑
k> j
a1,k (−1)1+k Ci−1, j(S 1,k(Ai, j))
)
.
Para cada 1 ≤ k ≤ n, k , j, considere a matriz Bk ∈ Mn−2(F) obtida de A (ou, equivalentemente, de
Ai, j) removendo-se as linhas 1 e i assim como as colunas j e k. Então, por definição de cofator, temos
Ci−1, j−1(S 1,k(Ai, j)) = (−1)i−1+ j−1 det(Bk), se k < j e
Ci−1, j(S 1,k(Ai, j)) = (−1)i−1+ j det(Bk), se k > j.
Substituindo na expressão acima, segue que
det(Ai, j) =
(∑
k< j
a1,k (−1)i+ j+k−1 det(Bk)
)
+
(∑
k> j
a1,k (−1)i+ j+k det(Bk)
)
.
Por outro lado, aplicando a definição de determinante à matriz S i, j(A) temos:
Ci, j(A) = (−1)i+ j det(S i, j(A))
= (−1)i+ j
((∑
k< j
a1,k(−1)1+kM1,k(S i, j(A))
)
+
(∑
k> j
a1,k(−1)kM1,k−1(S i, j(A))
))
=
(∑
k< j
a1,k(−1)i+ j+k+1 det(Bk)
)
+
(∑
k> j
a1,k(−1)i+ j+k det(Bk)
)
.
A última igualdade acima é imediata da definição de menor junto com a definição da matriz Bk.
Finalmente, como (−1)i+ j+k+1 = (−1)i+ j+k−1, segue queas expressões obtidas para Ci, j(A) e det(Ai, j)
coincidem.
O corolário a seguir é a primeira consequência importante da igualdade dos desenvolvimentos de
Laplace por linhas.
67
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rCorolário 2.4.7. Se uma matriz quadrada A possui duas linhas idênticas, então det(A) = 0.
Demonstração. Novamente procedemos por indução em n ≥ 2 sendo que o caso n = 2 é óbvio do
Exemplo 2.4.2. Suponha então que n > 2 e que k , k′ sejam tais que Lk(A) = Lk′(A). Escolha
i , k, k′ e observe que S i, j(A) tem duas linhas idênticas para todo j. Logo, por hipótese de indução,
det(S i, j(A)) = 0 para todo j e, portanto,
det(A) = deti(A) =
n∑
j=1
ai, j(−1)i+ j det(S i, j(A)) = 0.
Corolário 2.4.8. Se A é uma matriz triangular (inferior ou superior), então det(A) = a1,1a2,2 · · · an,n.
Em particular, det(At) = det(A).
Demonstração. A segunda afirmação é imediata da primeira. No Exemplo 2.4.4 vimos o caso de ma-
trizes triangulares inferiores e também que, se A for triangular superior, então detn(A) = a1,1a2,2 · · · an,n.
Como já mostramos que detn(A) = det(A) para qualquer matriz, segue a conclusão.
A seguir veremos como os passos de escalonamento alteram o determinante. Cálculos simples
usando diretamente a definição de determinante (ou escolhendo desenvolvimento por alguma linha
mais conveniente) mostra que
(2.4.6) det(Ii, jn (λ)) = 1, det(I
i, j
n ) = −1 e det(I
i
n(λ)) = λ.
para quaisquer 1 ≤ i, j ≤ n, λ ∈ F. O próximo lema nos diz que o determinante da matriz obtida pelos
respectivos passos de escalonamento é igual ao determinante da matriz original multiplicado pelo da
matriz que o representa.
Lema 2.4.9. Suponha que A ∈ Mn(F) e que B seja obtida de A por uma operação elementar de escalo-
namento, digamos, B = EA, sendo E a matriz que representa o passo. Então det(B) = det(E) det(A).
Demonstração. O caso em que E = Iin(λ) para algum i e algum λ é consequência imediata da parte
(a) do Lema 2.4.5.
Para E = Ii, jn , precisamos mostrar que det(B) = − det(A). Considere a matriz C cujas linhas
coincidem com as de A exceto as linhas i e j que são ambas iguais a Li(A) + L j(A). Em particular,
det(C) = 0. Considere também as matrizes C′ e C′′ cujas linhas coincidem com as de C, exceto a
linha i que são iguais a Li(A) e L j(A), respectivamente. Logo, Li(C) = Li(C′) + Li(C′′) e, pela parte
(b) do Lema 2.4.5, temos
det(C′′) = − det(C′).
Considere agora a matriz D cujas linhas coincidem com as de C′, exceto a linha j que é igual a Li(A).
Assim, L j(C′) = L j(D) + L j(A), Li(D) = L j(D) = Li(A) e todas as linhas de D, exceto a j, coincidem
com as de A. Usando a parte (b) do Lema 2.4.5 mais uma vez vemos que
det(C′) = det(A).
68
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rResta mostrar que det(C′′) = det(B). Mas isso é verificado da mesma maneira notando que, se Fé a matriz cujas linhas são iguais às de C′′, exceto a linha j que é igual L j(A), então L j(C′′) =
L j(F) + L j(B), Li(F) = L j(F) = Li(B) e todas as linhas de F, exceto a j, coincidem com as de B.
Finalmente, para E = Ii, jn (λ), considere a matriz C cujas linhas coincidem com as de A, exceto
a linha j que é igual Li(A). Então, det(C) = 0 e (2.4.4) implica que det(B) = det(A) + λ det(C) =
det(A).
Veja que este último lema nos diz que podemos usar o processo de escalonamento para calcular
determinantes. De fato, iterando este último lema, segue que, se aplicarmos m operações elementares
de escalonamento a A obtendo R, digamos, representadas pelas matrizes E1, . . . , Em, então
(2.4.7) det(R) = det(A)
m∏
k=1
det(Ek).
Como as operações são escolhidas por quem está rodando o algoritmo de escalonamento, todos os
números det(Ek) são conhecidos. Logo, se R tiver forma escalonada, então R é triangular e podemos
facilmente calcular seu determinante e, portanto1, também det(A).
Exemplo 2.4.10. Calculemos det
Äî 1 1 1
2 1 4
2 3 5
óä
usando escalonamento. No Exemplo 2.3.12 fizemos o
processo de escalonamento desta matriz. Observe que após 3 operações (segunda flecha), já obti-
vemos matriz escalonada equivalente a A. De fato, as operações utilizadas até ali são representadas
pelas matrizes
E1 = I3,23 (−1), E2 = I
2,1
3 (−2), E3 = I
3,1
3 (2),
e todas elas têm determinante 1. Logo,
det
Ñ1 1 12 1 4
2 3 5
é = detÑ1 1 10 −1 2
0 0 5
é = −5.
Em geral, operações de escalonamento demandam menos contas do que cálculos de cofatores e,
portanto, é um método mais rápido (e com menos risco de erros de contas) do que utilizando desen-
volvimento de Laplace! �
Evidentemente, tudo o que provamos para det(A) = det1(A) tem seu análogo para det1(A) trocando-
se o papel de linhas e colunas. Em particular, podemos considerar demonstrada a igualdade de todos
os desenvolvimentos de Laplace por colunas. Porém, ainda não podemos considerar demonstrada
a igualdade dos desenvolvimentos por linhas com os desenvovimentos por colunas, o que terminará
a demonstração do Teorema 2.4.1. Para fazer isso, usaremos o análogo do Lema 2.4.9 para esca-
lonamento por colunas. Lembre do exercício 2.3.12 que as matrizes que respresentam operações
elementares de escalonamento por linhas, também representam operações elementares de escalona-
mento por colunas, desde que multiplicadas pela direita da matriz original. Assim, se R = Em · · · E1A
como no parágrafo que precede (2.4.7), segue que
Rt = AtEt1 · · · E
t
m,
1Se houver divisor de zero entre os determinantes calculados, não conseguiremos calcular det(A) desta maneira.
69
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
re, portanto, Rt é obtida de A por operações elementares de escalonamento por colunas. Pelo análogodo Lema 2.4.9 para escalonamento por colunas temos
det(Rt) = det(At)
m∏
k=1
det(Etk).
Observe ainda que, se E é uma matriz que representa operação elementar de escalonamento, então
det(Et) = det(E). De fato, se E não corresponde a inverter duas linhas de posição, então E é triangular
e, portanto det(E) = det(Et) pelo Corolário 2.4.8. Por outro lado, se E = Ii, jn , então Et = I
j,i
n e segue
de (2.4.6) que det(Et) = −1 = det(E). Assim,
det(Rt) = det(At)
m∏
k=1
det(Ek).
Logo, se R tiver forma escalonada, também vale det(Rt) = det(R) (pelo Corolário 2.4.8) e, comparando
esta última expressão com (2.4.7) concluímos que
(2.4.8) det(A) = det(At).
À luz de (2.4.8) e comparando a definição de det(At) = det1(At) com a de det1(A), vê-se imediata-
mente que estes dois números são iguais (como se relacionam os cofatores que aparecem nas duas
definições?), completando assim a demonstração do Teorema 2.4.1.
O próximo corolário estabelece relação do determinante de uma matriz com sua forma escalonada
reduzida.
Corolário 2.4.11. Suponha que F seja um corpo e que R seja a forma escalonada reduzida de A ∈
Mn(F). As seguintes propriedades são equivalentes:
(i) det(A) , 0;
(ii) det(R) , 0;
(iii) R = In.
Em particular, A é invertível se, e somente se, det(A) , 0.
Demonstração. A afirmação final sobre invertibilidade é consequência da equivalência entre (i) e
(iii) junto com a equivalência entre (i) e (iii) da Proposição 2.3.10. A equivalência entre (i) e (ii) é
facilmente deduzida de (2.4.7). Por outro lado, pelo Lemma 2.3.9, ou R = In ou R possui linha nula,
de onde segue a equivalência entre (ii) e (iii).
Observação 2.4.12. Relembre a definição de matriz singular no exercício 2.3.12 e veja que a última
afirmação do corolário é equivalente à seguinte: A é singular se, e somente se, det(A) = 0. Se F for
apenas um domínio de integridade e R for uma matriz escalonada equivalente a A, então a equivalência
entre (i) e (ii) continua sendo válida, mas as demais, incluindo a afirmação sobre invertibilidade,
podem ser falsas como veremos logo abaixo. �
70
A. Moura - Álgebra Linear com Geometria AnalíticaVersão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rA última propriedade muito importante sobre determinantes diz respeito ao determinante de pro-duto de matrizes:
Teorema 2.4.13. Se A, B ∈ Mn(F), então det(BA) = det(A) det(B).
Demonstração. Se B for produto de matrizes que representam operações elementares de escalona-
mento, estamos num caso particular de (2.4.7). No restante desta demonstração suporemos que F é
um corpo. Se B for invertível, pela Proposição 2.3.10, B é produto de matrizes que representam ope-
rações elementares de escalonamento. Caso contrário, BA também não é invertível (Exercício 2.3.6)
e, usando o corolário anterior, temos que det(B) = 0 = det(BA).
Observação 2.4.14. Na realidade, a demonstração dada acima é facilmente completada a uma su-
pondo apenas que F é domínio de integridade. Neste caso, o teorema implica a igualdade det(BA) =
det(A) det(B) quando A, B e BA são vistos como elementos de Mn(K) sendo K o corpo de frações de
F. Mas se a igualdade vale em K, também vale em F. Em particular, podemos usar o Teorema no
caso em que F = Z ou quando F é o anel de polinômios em uma variável com coeficiente ou em Z
ou em algum corpo, que são os casos que precisaremos algumas vezes mais adiante. Observe que se
BA = In, então det(B) det(A) = 1, mostrando que det(A) e det(B) são os inversos multiplicativos um
do outro em F. Em outras palavras, se A é invertível em Mn(F), então det(A) é invertível em F e
det(A−1) = det(A)−1.
Veja que a matriz do Exemplo 2.4.10, quando vista como elemento de M3(Z) , não é invertível pois
seu determinante é −5 que não possui inverso multiplicativo em Z. Mas ela é invertível quando vista
como elemento de M3(Q), como visto no Exemplo 2.3.12 ou pelo critério do Corolário 2.4.11. A
seguir veremos um resultado que terá, como consequência, que vale a recíproca: se det(A) é invertível
em F, então A é invertível em Mn(F). �
Encerramos esta seção com um resultado que fornece uma maneira bastante precisa para calcular
a inversa de uma matriz invertível. A matriz cofatora de uma matriz A ∈ Mn(F) é a matriz Cof(A) ∈
Mn(F) cuja entrada (i, j) é o correspondente cofator de A. A matriz transposta de Cof(A) é chamada
de a adjunta clássica2 de A e será denotada por Adj(A). A importância desta matriz é explicada no
próximo teorema:
Teorema 2.4.15. Para qualquer A ∈ Mn(F) temos A ·Adj(A) = det(A) In = Adj(A) · A. Em particular,
se det(A) possuir inverso multiplicativo em F, então A é invertível e A−1 = 1det(A) Adj(A).
Demonstração. A entrada (i, j) de A · Adj(A) é
(2.4.9)
n∑
k=1
ai,kC j,k(A).
Em particular, para i = j, temos exatamente a definição de deti(A). Logo, todas as entradas da
diagonal principal são iguais a det(A). Assim, para mostrar a primeira igualdade, resta mostrar que a
2Veremos outro conceito de adjunta mais adiante.
71
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rsoma acima se anula quando i , j. Para ver isso, considere a matriz B cujas linhas coincidem comas de A exceto a linha j que é igual a Li(A). Em particular, como Li(B) = L j(B), temos det(B) = 0.
Agora, é só observar que (2.4.9) é exatamente a expressão dada pela definição de det j(B).
A segunda igualdade é demonstrada de maneira similar e deixamos de exercício para o leitor
escrever os detalhes.
Corolário 2.4.16 (Regra de Cramer). Se A ∈ Mn(F) é invertível, então, para qualquer B ∈ Mn,1(F), a
única solução de AX = B é dada por
x j =
det(A j)
det(A)
,
com A j sendo a matriz obtida de A substituindo-se a j-ésima coluna por B.
Demonstração. Temos X = A−1B = 1det(A) Adj(A)B. Mas a j-ésima linha da matriz coluna Adj(A)B é
n∑
k=1
Ck, j(A) bk = det j(A j).
Exercícios
2.4.1. Escreva a demonstração da parte (a) do Lemma 2.4.5.
2.4.2. Faça os cálculos que mostram (2.4.6).
2.4.3. Calcule os determinantes das seguintes matrizes usando desenvolvimento de Laplace por al-
guma linha ou coluna e também via escalonamento (pense sobre a diferença de eficiência entre
os métodos).
(a)
î 0 0 3
5 15 −10
1 3 −1
ó
(b)
î 1 1 2
−1 −2 3
3 −7 4
ó
(c)
ï
1 −1 −1 1
2 3 5 −2
4 −2 −1 1
0 1 2 −1
ò
(d)
ï
0 0 1 −3
1 3 −2 8
2 6 −1 7
1 3 −1 5
ò
(e)
ï
0 −4 1 −3
1 3 −2 8
2 6 −1 7
3 5 −2 12
ò
(f)
ñ 1 −1 2 1 −2
2 1 1 1 4
0 −2 1 1 0
−3 −1 −1 −2 −10
−1 2 0 10 2
ô (g)
ñ 2 0 1 −3 2
1 3 −2 8 −9
2 6 −1 7 −12
1 3 −1 5 −7
0 3 0 −1 1
ô
(h)
ñ 1 2 3 4 5
−1 0 3 4 5
−1 −2 0 4 5
−1 −2 −3 0 5
−1 −2 −3 −4 0
ô
Usando as respostas encontradas, determine quais destas matrizes são elementos invertíveis de
Mn(Z) e quais são elementos invertíveis de Mn(Q).
2.4.4. Calcule a inversa de cada matriz invertível do exercício anterior de duas maneiras: via escalo-
namento e via matriz cofatora (pense sobre a diferença de eficiência entre os métodos).
2.4.5. Calcule o determinante das matrizes principais dos sistemas do Exercício (2.3.5) e use-o para
determinar os valores de a para os quais cada sistema tem solução única. É possível distin-
guir os casos de inexistência de solução daqueles de múltiplas soluções sabendo-se apenas o
determinante da matriz principal?
72
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r2.4.6. Resolva os sistemas lineares do exercício 2.3.1 que tenham matrizes principais quadradas utili-zando a regra de Cramer (e compare com sua resolução anterior).
2.4.7. Determine se as seguintes afirmações são verdadeiras ou falsas.
(a) Se A e B são matrizes quadradas tais que A − B possui alguma linha nula, então det(A) =
det(B).
(b) Se A, B e C são matrizes n × n, então det(A(B + C)) = det(AB) + det(AC).
(c) Se n é ímpar, toda matriz antissimétrica n × n tem determinante nulo.
2.4.8. Dados n ∈ Z>0, considere a matriz A ∈ Mn(Z) cuja entrada (i, j) é min{i, j}. Calcule det(A).
2.4.9. Dados n ∈ Z>0, considere a matriz A ∈ Mn(Z) cuja entrada (i, j) é max{i, j}. Calcule det(A).
2.4.10. Dados n ∈ Z>0 e xi, yi ∈ F, 1 ≤ i ≤ n, considere a matriz A ∈ Mn(F) cuja entrada (i, j) é xiy j + 1.
Mostre que det(A) = 0 se n > 2.
2.4.11. Dados n ∈ Z>0 e x1, x2, . . . , xn ∈ F, a matriz de Vandermonde associada a estes dados é a matriz
A ∈ Mn(F) cuja entrada (i, j) é x j−1i . Mostre que
det(A) =
∏
1≤i< j≤n
(x j − xi).
2.4.12. Dados m, n ∈ Z>0, A ∈ Mm(F), B ∈ Mn(F) e C ∈ Mm,n(F), considere a matriz
M =
ï
A C
0 B
ò
∈ Mm+n(F).
Mostre que det(M) = det(A) det(B).
2.4.13. Mostre que se A ∈ Mn(Z), então A é invertível se, e somente se, det(A) = ±1.
2.4.14. Dada uma matriz A ∈ Mm,n(F), qualquer matriz obtida de A removendo-se linhas e colunas
(não necessariamente a mesma quantidade) é chamada de uma submatriz de A. Mostre que o
posto de uma matriz A é o maior p tal que existe submatriz p × p com determinante não nulo
(o determinante de uma submatriz p × p é dito um menor de ordem p de A).
73
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r3. Espaços Cartesianos e Euclidianos
Neste capítulo iniciaremos o estudo do que se chama de geometria analítica. Isto é, um modelo de
geometria baseado no uso de um sistema de coordenadas (que são elementos de um corpo) o que faz
com que o modelo já venha munido de estruturas algébricas (provenientes daquelas do corpo). Este
tipo de modelagem da geometria ganhou popularidade devido ao trabalho de René Descartes e, por
isso, os espaço são chamados de espaços cartesianas e o sistema de coordenadas também é conhecido
como sistema de coordenadas cartesianas, embora ideias semelhantes já haviam aparecido na Grécia
antiga.
No caso em que o corpo em questão é o dos números reais, pode-se introduzir os conceitos de
comprimentos de segmentos de retas e de ângulos através do conceito de produto interno (que é um
conceito algébrico). Neste caso, é comum se chamar os espaços cartesianos de espaços euclideanos,
pois a geometria via modelagem por sistemas de coordenadas passaa ser equivalente à geometria
euclideana clássica. Além disso, com auxílio de ferramentas de análise (cálculo diferencial integral), o
que nos leva a explorar ao máximo a propriedade de completude dos números reais, pode-se introduzir
mais uma miríade de conceitos como comprimentos de segmentos de curvas (não necessariamente
segmentos de reta) e áreas e volumes de regiões delimitadas por tais curvas. Por exemplo, veremos
neste capítulo que podemos medir ângulos usando-se apenas a noção de comprimentos de segmentos
de reta. Porém, a noção de medição de ângulos em radianos requer a capacidade de sabermos medir
comprimentos de arcos circulares (a noção equivalente à de segmentos de retas para circunferências),
o que discutiremos apenas no capítulo subsequente.
3.1. Sistema Cartesiano de Coordenadas e Vetores
Para esta seção e as duas seguintes, fixamos um corpo F e, para cada n > 0, consideramos o conjunto
Fn. Nos referimos a este conjunto como o espaço cartesiano n-dimensional (sobre o corpo F) e
diremos que seus elementos são pontos no espaço. Quando F = R e n = 2, R2 também é chamado de
plano Cartesiano, enquanto R3 é frequentemente chamado simplesmente de espaço cartesiano (R1 é,
menos frequentemente, chamado de reta cartesiana). É comum representar um ponto genérico de R2
por (x, y) (ao invés de (x1, x2)) e um de R3 por (x, y, z).
qy
x
Dado x = (x1, x2, . . . , xn) ∈ Fn, o número x j será chamado de a j-ésima componente de x. O ponto
0 = (0, 0, . . . , 0) é chamado de origem do espaço cartesiano. Fixado j, o subconjunto {x ∈ Fn :
xi = 0 se i , j} é chamado de j-ésimo eixo coordenado (ou simplesmente eixo-x j). Fixados i , j, o
subconjunto {x ∈ Fn : xk = 0 se k , i, j} é chamado de o plano coordenado (i, j) (ou simplesmente
plano xix j).
74
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rUm vetor livre1 em Fn é um par ordenado (x, y) ∈ Fn × Fn. Diremos que o ponto x é a origem(ou o início) do vetor enquanto y é a ponta (ou o final) do vetor. Se a origem e a ponta de um
vetor livre coincidirem, diremos que ele é um vetor livre nulo. É comum representar um vetor livre
desenhando-se de uma flecha:
q
q
x
y
�
�
�
���
Como visto nos Exemplos 1.4.6 e 1.9.3, podemos equipar o conjunto Fn com uma estrutura de
grupo abeliano e uma ação de de F em Fn. Lembrando:
(x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn)
(3.1.1)
λ(x1, x2 . . . , xn) = (λx1, λx2, . . . , λxn)
Quando equipado com estas estruturas, passamos a chamar os elementos de Fn de vetores ao invés de
pontos e a ação de F em Fn é mais usualmente chamada de multiplicação por escalar (os elementos do
corpo F serão chamados de escalares em contraposição ao termo vetor). Se v = (x1, x2, . . . , xn) for um
vetor, chamaremos o número x j de a j-ésima coordenada de v (ao invés de componente como no caso
de pontos). O vetor com todas as coordenadas nulas será chamado de vetor nulo e será denotado por 0.
Tipicamente, usaremos as letras u, v,w para representar elementos de Fn quando interpretados como
vetores, enquanto x, y, z, p serão tipicamente as letras que usaremos para representar elementos de Fn
quando interpretados como pontos. É útil, do ponto de vista intuitivo, identificar um vetor v com o
vetor livre (0, x) sendo x o ponto cujas componentes coincidem com as correspondentes coordenadas
de v.
�
�
�
���
y
x
v
Por outro lado, a função
ϑ : Fn × Fn → Fn, (x, y) 7→ (y1 − x2, y2 − x2, . . . , yn − xn),
se x = (x1, x2, . . . , xn) e y = (y1, y2, . . . , yn), associa vetores livres a vetores em Fn.
�
�
�
��� q
q
x
y
ϑ(x, y)
�
�
�
���
1Usamos o termo vetor livre seguindo [15].
75
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rObserve que, dados λ ∈ F e v ∈ Fn,(3.1.2) λv = 0⇔ ou λ = 0 ou v = 0.
Dados dois vetores não nulos v e w, dizemos que w tem a mesma direção de v se existir λ ∈ F tal
que w = λv. Segue de (3.1.2) que, se w tem a mesma direção de v, então v tem a mesma direção
de w (pois v = λ−1w) e, portanto, diremos que v e w têm a mesma direção. De maneira similar,
dizemos que dois vetores livres não nulos (x, y) e (x′, y′) têm a mesma direção se existir λ ∈ F tal
que ϑ(x′, y′) = λϑ(x, y). Observe que a soma de vetores em Fn pode ser “visualizada” usando-se
“concatenação” de vetores livres:
r
r
p
q
y
x
y′
x′
H
HHH
HHj
v
w
:
�
�
�
���
HH
HHHHj
y + y′
x + x′
Ou seja, se identificarmos v com o vetor livre (0, p), o vetor v + w fica identificado com (0, q) onde q
é o único ponto tal que ϑ(p, q) = w.
Observação 3.1.1. É comum na literatura usar-se a notação −→xy para indicar o vetor livre com origem
em x e ponta em y. A notação ϑ(x, y) não é comum, mas preferimos usá-la para indicar o vetor
correspondente ao vetor livre (x, y). Será interessante também criar a notação ϑ(x) para identificar o
ponto x com o vetor cujas coordenadas coincidem com as compontentes de x. Mais precisamente,
ϑ(x) = ϑ(0, x). �
Considere a família de vetores e j = (0, 0, . . . , 0, 1, 0, . . . , 0) com o 1 sendo a j-ésima componente,
para 1 ≤ j ≤ n. Observe que, se v = (a1, a2, . . . , an), então
(3.1.3) v = a1e1 + a2e2 + · · · + anen.
Ou seja, usando as estruturas algébricas em Fn (soma de vetores e ação de F), conseguimos gerar
todos os vetores a partir da família e1, e2, . . . , en. Mais ainda, se x1, x2, . . . , xn é uma família em F
satsifazendo v = x1e1 + x2e2 + · · · + xnen, então
x j = a j para todo j = 1, . . . , n.
Em outras palavras, a família e1, e2, . . . , en tem a propriedade de gerar cada vetor de maneira única
através das estruturas algébricas. Uma família de vetores com esta propriedade é chamada de uma
base de Fn. Portanto, e1, e2, . . . , en é uma base de Fn. De fato, esta família é chamada de base canônica
de Fn. Estudaremos bases de maneira mais sistemática na Seção 5.4.
A soma de vetores também dá origem ao conceito de translação de pontos em Fn. Dado um vetor
v = (v1, . . . , vn), a translação por v é a função
(3.1.4) Tv : Fn → Fn dada por Tv(x) = (x1 + v1, x2 + v2, . . . , xn + vn)
76
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rse x = (x1, x2, . . . , xn). Ou seja, Tv(x) é o único ponto y que satisfaz ϑ(x, y) = v. É imediato que
(3.1.5) ϑ(Tv(x),Tv(y)) = ϑ(x, y)
e que, dado um subconjunto S ∈ Fn,
(3.1.6) Tv(S ) = {Tv(x) : x ∈ S } = {y ∈ Fn : ϑ(x, y) = v para algum x ∈ S }.
Ocasionalmente, é mais conveniente falar da translação Tp associada a um ponto p ∈ Fn que é definida
por
Tp = Tϑ(p).
Em outras palavras, Tp é a única translação que leva a origem em p.
3.2. Retas e Planos
Dado um ponto x ∈ Fn e um vetor não nulo v ∈ Fn, define-se a reta contendo x na direção de v como
sendo o cojunto de pontos
(3.2.1) R(x, v) = {y ∈ Fn : ϑ(x, y) = λv para algum λ ∈ F}.
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
��� q
q
x
y
v
O vetor v é frequentemente chamado de um vetor diretor da reta R(x, v). Observe que o j-ésimo eixo
coordenado é a reta R(0, e j).
Lema 3.2.1. Para quaisquer ponto x, vetor não nulo v e escalar µ temos:
(a) Se µ , 0, então R(x, µv) = R(x, v).
(b) Se y ∈ R(x, v), então R(y, v) = R(x, v).
(c) Se y, y′ ∈ R(x, v), então ϑ(y, y′) é múltiplo de v.
Demonstração.
(a) Suponha que y ∈ R(x, v) e mostremos que y ∈ R(x, µv). De fato, temos ϑ(x, y) = λv para algum
λ ∈ F. Mas então ϑ(x, y) = (λ/µ)(µv) mostrando que y ∈ R(x, µv). Reciprocamente, se y ∈ R(x, µv),
temos ϑ(x, y) = λ(µv) para algum λ ∈ F. Mas então ϑ(x, y) = (λµ)v mostrando que y ∈ R(x, v).
77
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(b) Temos que ϑ(x, y) = λv para algum λ ∈ F. Tome z ∈ R(y, v) e mostremos que z ∈ R(x, v) De fato,existe µ ∈ F tal que ϑ(y, z) = µv. Por outro lado,
ϑ(x, y) = ϑ(y) − ϑ(x) e ϑ(y, z) = ϑ(z) − ϑ(y).
Combinando asquatro igualdades, obtemos
ϑ(x, z) = ϑ(z) − ϑ(x) = ϑ(x, y) + ϑ(y, z) = (λ + µ)v,
mostrando que z ∈ R(x, v) como queríamos. Reciprocamente, suponha que z ∈ R(x, v), isto é, existe
µ ∈ F tal que ϑ(x, z) = µv. Procedendo como antes vemos que
ϑ(y, z) = ϑ(x, z) − ϑ(x, y) = (µ − λ)v,
mostrando que z ∈ R(y, v).
(c) Existem λ, λ′ ∈ F satisfazendo ϑ(x, y) = λv e ϑ(x, y′) = λ′v. Procedendo como nos itens anteriores,
vemos que
ϑ(y, y′) = ϑ(x, y′) − ϑ(x, y) = (λ′ − λ)v.
Diz-se que duas retas são paralelas se seus vetores diretores tiverem a mesma direção.
Proposição 3.2.2.
(a) A interseção de duas retas paralelas distintas é vazia.
(b) A interseção de quaisquer duas retas distintas contém no máximo um ponto.
Demonstração.
(a) Suponha que as retas sejam R(x, v) e R(y,w). Pela parte (a) do lema anterior, se w tem a mesma
direção de v, então R(y,w) = R(y, v) e, portanto, podemos supor que w = v. Por contrapositividade,
suponha que z ∈ R(x, v) ∩ R(y, v). Então, pela parte (b) do lema anterior, temos R(z, v) = R(x, v) e
R(z, v) = R(y, v). Logo, R(x, v) = R(y, v) mostrando que as retas não são distintas.
(b) Suponha que as duas retas sejam R(x, v) e R(z,w) e suponha que y, y′ ∈ R(x, v) ∩ R(z,w). Pela
parte (c) do lema, existem λ, µ ∈ F tais que
ϑ(y, y′) = λv e ϑ(y, y′) = µw.
Observe que y = y′ ⇔ λ = µ = 0. Portanto, se y , y′, segue que as retas são paralelas. Mas então o
item (a) diz que elas devem ser iguais, contrariando a hipótese de serem distintas.
Observação 3.2.3. O item (b) da última proposição pode ser refraseado como “dois pontos deter-
minam uma reta”. Duas retas não paralelas que não se intersectam são ditas reversas. Duas retas
distintas que se intersectam são ditas concorrentes. �
78
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rDado x = (x1, . . . , xn) e v = (v1, . . . , vn), podemos descrever a reta R(x, v) comoR(x, v) = {(x1 + tv1, x2 + tv2, . . . , xn + tvn) : t ∈ F}
O leitor pode facilmente verificar a veracidade dessa igualdade. Em outras palavras, y = (y1, . . . , yn)
é um ponto em R(x, v) se, e somente se existir t ∈ F tal que
(3.2.2) y j = x j + tv j para todo j = 1, . . . , n.
A família de expressões dada por (3.2.2) é chamada de equação paramétrica de R(x, v) pois ela des-
creve as componetes dos pontos de R(x, v) a partir do parâmetro (variável) t.
Exemplo 3.2.4. Considere os vetores v = (1, 2),w = (−1, 1) e os pontos x = (1, 1) e y = (−1, 0) de R2.
Encontremos R(x, v)∩R(y,w). Usando as equações paramétricas, temos que (x, y) ∈ R(x, v)∩R(y,w)
se, e somente se, existirem parâmetros t, s tais que®
1 + t = −1 − s
1 + 2t = s
Resolvendo o sistema chega-se que t = −1 = s. Portanto, o ponto (0,−1) é o único ponto em
R(x, v) ∩ R(y,w). �
Dados um ponto x e dois vetores não nulos e com direções distintas v e w, define-se o plano
contendo x gerado por v e w como sendo o conjunto de pontos
(3.2.3) P(x, v,w) = {y ∈ Fn : ∃ λ, µ ∈ F tais que ϑ(x, y) = λv + µw}.
Inserir desenho
Equivalentemente, se x = (x1, . . . , xn), v = (v1, . . . , vn) e w = (w1, . . . ,wn), temos
P(x, v,w) = {(x1 + t1v1 + t2w1, x2 + t1v2 + t2w2, . . . , xn + t1vn + t2wn) : t1, t2 ∈ F}.
Assim deduzimos as equações paramétricas para os pontos y = (y1, . . . , yn) de P(x, v,w):
(3.2.4) y j = x j + t1v j + t2w j para todo j = 1, . . . , n,
desta vez dependendo dos parâmetros t1 e t2. Observe que o plano xix j é o plano P(0, ei, e j). O
conjunto {v,w} é chamado de um conjunto de vetores diretores para o plano P(x, v,w). O próximo
resultado é a versão para planos do Lema 3.2.1. A demonstração é deixada como exercício para o
leitor.
Lema 3.2.5. Para quaisquer ponto x, vetores não nulos com direções distintas v,w e escalares α, β
temos:
(a) P(x, v,w) = P(x,w, v).
79
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(b) Se α , 0, então P(x, αv + βw,w) = P(x, v,w).(c) Se y ∈ P(x, v,w), então P(y, v,w) = P(x, v,w).
(d) Se y, y′ ∈ P(x, v,w), então existem α, β ∈ F tais que ϑ(y, y′) = αv + βw.
Proposição 3.2.6. Todo plano contem a reta determinada por quaisquer dois de seus pontos.
Demonstração. Seja {v,w} um conjunto diretor de um plano P e x, y ∈ P. Queremos mostrar que
R(x, ϑ(x, y)) ⊆ P. Pelo item (d) do lema anterior, existem α, β ∈ F tais que ϑ(x, y) = αv + βw. Assim,
R(x, ϑ(x, y)) = {z ∈ Fn : ϑ(x, z) = λϑ(x, y) para algum λ ∈ F}
= {z ∈ Fn : ϑ(x, z) = (λα)v + (λβ)w para algum λ ∈ F} ⊆ P.
Uma reta R é dita paralela a um plano P se ela for paralela a alguma reta contida em P. Segue
da última proposição que, se u é vetor diretor de R, {v,w} é conjunto diretor de P e R é paralela a P,
então existem α, β ∈ F tais que
u = αv + βw.
Reciprocamente, se u é desta forma e x ∈ P, então R(x, u) ⊆ P e, portanto, R é paralela a P. Isso
mostra:
Corolário 3.2.7. Sejam u um vetor diretor de uma reta R e {v,w} um conjunto diretor de um plano P.
Então R é paralela a P se, e somente se, existirem α, β ∈ F tais que
u = αv + βw.
Em particular, se R é paralela a P, então ou R ⊆ P ou R ∩ P = ∅.
Diz-se que um plano P1 é paralelo a um plano P2 se, para qualquer reta contida em P1, existir reta
paralela a ela contida em P2. A próxima proposição mostrará, em particular, que, se P1 é paralelo a
P2, então P2 é paralelo a P1, o que nos permitirá dizer simplesmente que P1 e P2 são paralelos.
Proposição 3.2.8. Suponha que um plano P1 seja paralelo a um plano P2 e que {v1,w1} e {v2,w2}
sejam conjuntos diretores para P1 e P2, respectivamente. Então existe uma matriz B = (bi, j) ∈ M2(F)
tal que
v2 = b1,1v1 + b1,2w1 e w2 = b2,1v1 + b2,2w1.
Em particular, P2 é paralelo a P1.
Demonstração. Comecemos mostrando a segunda afirmação a partir da primeira. Isto é, supondo que
a matriz B existe, mostremos que qualquer reta contida em P2 é paralela a alguma reta contida em P1.
Seja R uma tal reta e denote por u um vetor diretor de R. Pelo Corolário 3.2.7, existem α, β ∈ F tais
que u = αv2 + βw2. Segue que
u = (αb1,1 + βb2,1)v1 + (αb1,2 + βb2,2)w1.
80
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rUsando novamente o Corolário 3.2.7, segue que, para qualquer x ∈ P1, R(x, u) é uma reta contida emP1.
Mostremos então a existência da matriz B. Dado um ponto x ∈ P1, temos que R(x, v1) e R(x,w1)
são retas contidas em P1. Como P1 é paralelo a P2, existem retas em P2 que têm v1 e w1 como vetores
diretores. Usando o Corolário 3.2.7 mais uma vez, concluímos que existe matriz A = (ai, j) ∈ M2(F)
tal que
(3.2.5) v1 = a1,1v2 + a1,2w2 e w1 = a2,1v2 + a2,2w2.
Além disso, como os vetores {v1,w1} não têm a mesma direção, segue que nenhuma das duas linhas
de A é múltipla da outra e, portanto, det(A) , 0. Logo, A é invertível. Chamando de vi j a j-ésima
coordenada de vi e de wi, j a j-ésima coordenada de wi, i = 1, 2, (3.2.5) pode ser re-escrita como:
A
ï
v2, j
w2, j
ò
=
ï
v1, j
w1, j
ò
para todo j = 1, . . . , n.
Portanto, tomando B = A−1, segueï
v2, j
w2, j
ò
= B
ï
v1, j
w1, j
ò
para todo j = 1, . . . , n,
como queríamos mostrar.
A seguir mostramos a versão para planos da Proposição 3.2.2.
Proposição 3.2.9. (a) Se R é uma reta contida num plano P e x ∈ P, existe reta R′ ⊆ P que é paralela
a R e contem x.
(b) A interseção de dois planos paralelos distintos é vazia.
(c) Se x, y, z pertencem a um plano P e ϑ(x, y) e ϑ(x, z) são vetores não nulos com direções distintas,
então P(x, ϑ(x, y), ϑ(x, z)) = P.
(d) A interseção de dois planos distintos ou é vazia, ou é um ponto, ou é uma reta.
Demonstração. (a) Se u é vetor diretor da reta R, segue do corolário anterior que R(x, u) ⊆ P já que
R(x, u) ∩ P , ∅.
(b) Suponha que os planos P1 e P2 sejam paralelos e que x ∈ P1 ∩ P2. Precisamos mostrar que
P1 = P2. Mostremos que todo y ∈ P1 também é um ponto de P2. A continência inversa é demonstrada
invertendo-se os papéis de P1 e P2 no argumento abaixo e deixamos os detalhes acargo do leitor.
Evidentemente, y ∈ P2 se y = x e, portanto, podemos supor que y , x e considerar a reta R1 ⊆ P1
determinada por x e y. Seja R2 uma reta em P2 paralela a R1 (que existe pois P1 e P2 são paralelos).
Pela parte (a), podemos supor que x ∈ R2 já que x ∈ P2. Mas então, segue da parte (a) da Proposição
3.2.2 que R1 = R2 e, portanto, y ∈ P2.
(c) Pelo item anterior, basta mostrar que P é paralelo a P(x, ϑ(x, y), ϑ(x, z)). Sejam R uma reta contida
em P com vetor diretor u e {v,w} um conjunto diretor de P. Sabemos que existem α, β ∈ F tais que
u = αv + βw.
81
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rPrecisamos mostrar que existe reta R′ contida em P(x, ϑ(x, y), ϑ(x, z)) que é paralela a R. Pelo Coro-lário 3.2.7, isso segue se mostrarmos que existem λ, µ ∈ F tais que
(3.2.6) u = λϑ(x, y) + µϑ(x, z).
Pela parte (d) do Lema 3.2.5, sabemos que existem α′, α′′, β′, β′′ ∈ F satisfazendo
ϑ(x, y) = α′v + β′w e ϑ(x, z) = α′′v + β′′w.
Assim, (3.2.6) pode ser re-escrita como
αv + βw = (λα′ + µα′′)v + (λβ′′ + µβ′′)w.
Portanto, é suficiente mostrar que existe solução do sitema linearï
α′ α′′
β′ β′′
ò ï
λ
µ
ò
=
ï
α
β
ò
.
Como o determinante da matriz principal do sistema só é zero se uma coluna for múltipla da outra
e isso equivale a dizer que ϑ(x, y) e ϑ(x, z) têm a mesma direção, segue que o sistema tem solução
(única!).
(d) Suponha que P1 e P2 sejam dois planos cuja interseção contenha os pontos x e y. Se x , y, a
reta R por eles determinada está contida P1 ∩ P2. Se existir z ∈ (P1 ∩ P2) \ R, segue que ϑ(x, y) e
ϑ(x, z) têm direções distintas. Mas então segue do item anterior que P1 = P(x, ϑ(x, y), ϑ(x, z)) = P2,
contradizendo a hipótese que P1 e P2 são distintos.
Observação 3.2.10. Pontos que pertencem a uma mesma reta são ditos colineares. Pela parte (b) da
Proposição 3.2.2, dois pontos distintos são sempre colineares. O item (c) da última proposição pode
ser refraseado como “três pontos não colineares determinam um plano”. Dois planos distintos que se
intersectam são ditos concorrentes. �
Exemplo 3.2.11. Calculemos a interseção dos planos P1 = P(x, v1,w1), P2 = P(y, v2,w2) ⊆ R3 com
x = 0, y = (0,−1, 1), v1 = (1, 0, 1),w1 = (0, 1, 1), v2 = (1, 1, 0) e w2 = (−1, 0, 1). Usando as equações
paramétricas temos que (x, y, z) ∈ P1 ∩ P2 se, e somente se, existirem parâmetros t1, t2, s1, s2 tais que
x = t1, y = t2, z = t1 + t2 e x = s1 − s2, y = −1 + s1, z = 1 + s2.
Assim, temos que achar o conjunto solução do seguinte sistema linear nas variáveis t1, t2, s1 e s2:
t1 = s1 − s2
t2 = −1 + s1
t1 + t2 = 1 + s2
→

t1 = s1 − s2
t2 = −1 + s1
2s1 − s2 − 1 = 1 + s2 ⇔ s1 = s2 + 1
→

t1 = 1
t2 = s2
s1 = s2 + 1
O segundo sistema foi obtido substituindo as duas primeiras equações na terceira e o terceiro foi
obtido substituindo a terceira equação nas duas primeiras. Assim, s2 é a única variável livre. Substi-
tuindo a solução em qualquer uma das duas equações paramétricas vemos que
P1 ∩ P2 = {(1, s2, 1 + s2) : s2 ∈ R} = R(p, v) com p = (1, 0, 1) e v = (0, 1, 1).
�
82
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExercícios
3.2.1. Para F = R, calcule a interseção das R1 = R(p1, v1) e R2 = R(p2, v2) dadas a seguir:
(a) p1 = (1, 2), p2 = (2, 4), v1 = (2, 3), v2 = (3, 2).
(b) p1 = (2, 3), p2 = (3, 2), v1 = (1, 2), v2 = (2, 4).
(c) p1 = (0, 0, 0), p2 = (0, 1, 2), v1 = (1, 1, 0), v2 = (0,−1, 1).
(d) p1 = (1, 2, 2), p2 = (0, 3, 0), v1 = (1, 1, 0), v2 = (0,−1, 1).
(e) p1 = (−1, 1, 0, 0), p2 = (1, 0,−1, 2), v1 = (1, 1, 0, 1), v2 = (0,−1, 1, 0).
(f) p1 = (−1, 1, 0, 0), p2 = (1,−3, 2, 2), v1 = (1, 1, 0, 1), v2 = (0,−1, 1, 0).
3.2.2. Para F = R, encontre, quando existir, os pontos p de modo que as retas R1 = R(p, v) e R2 =
R(q,w) dadas a seguir sejam concorrentes:
(a) q = (1, 2, 3), v = (2, 3, 1),w = (3,−2, 0).
(b) q = (1, 0,−1), v = (−2, 1, 3),w = (6,−3,−9).
3.2.3. Para F = R, determine se o seguintes pontos x, y, z são colineares:
(a) x = (1, 2), y = (2, 3), z = (−1, 1).
(b) x = (1, 2), y = (2, 3), z = (−1, 0).
(c) x = (5, 1,−3), y = (0, 3, 4), z = (0, 3,−5).
(d) x = (−1, 1, 3), y = (4, 2,−3), z = (14, 4,−5).
(e) x = (−1, 0, 1, 3), y = (4, 2,−3, 0), z = (1, 0, 4,−5).
3.2.4. Mostre que F2 contém apenas um plano. (Reformule a pergunta para que ela se pareça com o
exercício 3.2.22.)
3.2.5. Demonstre o Lema 3.2.5.
3.2.6. Mostre que se duas retas não paralelas estão contidas no mesmo plano, elas são concorrentes.
(comece com n = 2)
3.2.7. Para F = R, calcule a interseção da reta R = R(p, v) com o plano P = P(q,w1,w2) dados a
seguir:
(a) p = (0, 0, 0), q = (1, 0,−1), v = (1, 0, 1),w1 = (0,−1, 1),w2 = (−2, 1, 0).
(b) p = (0, 0, 0), q = (1, 0,−1), v = (2,−3, 2),w1 = (0,−1, 1),w2 = (−2, 1, 0).
(c) p = (1,−1, 0), q = (1, 0,−1), v = (2,−3, 2),w1 = (0,−1, 1),w2 = (−2, 1, 0).
(d) p = (1, 0,−2, 0), q = (0, 1, 0,−1), v = (1, 0, 1, 0),w1 = (2, 0,−1, 1),w2 = (−2, 1, 0, 0).
(e) p = (−2, 2, 0,−1), q = (0, 1, 0,−1), v = (1, 0, 1, 0),w1 = (2, 0,−1, 1),w2 = (−2, 1, 0, 0).
3.2.8. Mostre que duas retas reversas estão contidas em planos paralelos.
83
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r3.2.9. Mostre que, se n = 3, a interseção de uma reta e um plano não paralelos contém exatamente umponto. Isto é verdade se n > 3?
3.2.10. Mostre que, se n = 3, dois planos não paralelos são concorrentes e sua interseção é uma reta.
3.2.11. Para F = Q, calcule a interseção dos planos P1 = P(p, v1, v2) com o plano P = P(q,w1,w2)
dados a seguir:
(a) p = (0, 0, 0), q = (1, 0,−1), v1 = (1, 0, 1), v2 = (0,−1, 2),w1 = (0,−1, 1),w2 = (−2, 1, 0).
(b) p = (0, 1, 0), q = (1, 0,−1), v1 = (2,−3, 2), v2 = (0,−1, 2),w1 = (0,−1, 1),w2 = (−2, 1, 0).
(c) p = (1, 0,−2, 0), q = (0, 1, 0,−1), v1 = (1, 0, 1, 0), v2 = (1, 0,−1, 2),w1 = (2, 0,−1, 1),w2 =
(−2, 1, 0, 0).
(d) p = (−2, 2, 0,−1), q = (0, 1, 0,−1), v1 = (1, 0, 1, 0), v2 = (1, 0,−1, 2),w1 = (2, 0,−1, 1),w2 =
(−2, 1, 0, 0).
(e) p = (1, 0,−2, 0), q = (0, 1, 0,−1), v1 = (0, 1,−1, 1), v2 = (4,−1,−1, 1),w1 = (2, 0,−1, 1),w2 =
(−2, 1, 0, 0).
3.2.12. Mostre que uma reta e um ponto fora dela determinam um plano.
3.2.13. Mostre que duas retas paralelas distintas determinam um plano.
3.2.14. Mostre que duas retas concorrentes determinam um plano.
3.2.15. Mostre que uma reta R é paralela a um plano P se, e só se, P contém uma reta paralela a R.
3.2.16. Dados pontos x, y ∈ Rn, o segmento de reta ligando x e y é o conjunto
xy = {x + tϑ(x, y) : 0 ≤ t ≤ 1} ⊆ R(x, ϑ(x, y)).
(a) Mostre que xy = yx. Além disso, se x′, y′ ∈ Fn forem tais que x′y′ = xy, mostre que
{x′, y′} = {x, y}.
(b) Considere p = x + 12 ϑ(x, y). Mostre que p = y +
1
2 ϑ(y, x). Este ponto p é chamado de o
ponto médio do segmento xy.
3.2.17. Suponha que x, y, z ∈ Rn sejam tais que v = ϑ(x, y) e w = ϑ(x, z) sejam vetores não nulos com
direções distintas. O triângulo com vértices x, y, z é a união dos segmentos xy, xz e yz. Sejam
p e q os pontos médios dos segmentos xy e xz, respectivamente.
(a) Mostre que todo triângulo está contido em um único plano.
(b) Mostre que pq é paralelo a yz1. Inserir desenho
(c) O segmento pz é chamado de a mediana associada ao vértice z enquanto que qy é a mediana
associada ao vértice y e, analogamente, define-se a mediana associada ao vértice x. Mostre
que as três medianas se cortam num mesmo ponto (chamado de baricentro do triângulo)
Inserir desenho
1Dois segmentos são paralelos se as retas que os contém são paralelas.
84
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(Resolva primeiro com n = 2 e depois tente formalizar a solução removendo esta hipótese.)3.2.18. Encontre os planos contendo os triângulos cujos vértices x, y e z são dados a seguir:
(a) x = (0, 0, 0), y = (1, 2,−1) ez = (0,−1, 2).
(b) x = (1, 2, 3), y = (2, 4, 2) e z = (1, 1, 5).
(c) x = (−1, 1, 1), y = (0, 3, 1) e z = (−1, 0, 1).
(d) x = (0, 1, 1), y = (0, 1, 0) e z = (−1, 0, 1).
3.2.19. Encontre o baricentro dos triângulos em R2 com os vértices listados a seguir e também daqueles
dados no exercício anterior.
(a) x = (0, 0), y = (1, 2) e z = (0,−1).
(b) x = (−1, 1), y = (0, 3) e z = (−1, 0).
(c) x = (1, 2), y = (2, 0) e z = (−1, 0).
(d) x = (2, 4), y = (3, 2) e z = (0, 2).
(e) x = (1, 4), y = (3, 2) e z = (0, 2).
3.2.20. Para F = R, determine se os seguintes pontos são coplanares
(a) p1 = (1, 0, 1), p2 = (0, 2, 1), p3 = (2, 1, 3), p4 = (1, 1, 1).
(b) p1 = (0, 1, 1), p2 = (1, 0, 2), p3 = (1,−2, 0), p4 = (−2, 2,−2).
(c) p1 = (1, 0, 1), p2 = (2, 1, 3), p3 = (1, 1, 1), p4 = (2, 2, 3), p5 = (2, 0, 3).
(d) p1 = (1, 0, 1), p2 = (2, 1, 3), p3 = (1, 1, 1), p4 = (2, 2, 3), p5 = (3, 1, 4).
(e) p1 = (1, 0, 1, 1), p2 = (1, 0,−1, 2), p3 = (1, 0,−2, 0), p4 = (−2, 2,−2, 0).
3.2.21. Um subconjunto de Rn é dito convexo se contiver todo segmento de reta ligando quaisquer dois
de seus pontos.
(a) Mostre que uma reta em Rn divide qualquer plano que a contem em duas regiões convexas.
Mais precisamente, dada uma reta R contida num plano P, mostre que o conjunto P \
R é união de dois subconjuntos convexos. (Resolva primeiro com n = 2 e depois tente
formalizar a solução removendo esta hipótese.) Inserir desenho
(b) Dada uma reta R = R(x, v), a semi-reta a partir de x no sentido de v é o subconjunto
R+(x, v) = {y ∈ Rn : ϑ(x, y) = λv para algum λ ≥ 0}. A semi-reta a partir de x no sentido
oposto a v é R−(x, v) = R+(x,−v). Considere duas semi-retas distintas S 1 = R+(x, v), S 2 =
R+(x,w) e seja P um plano que as contém. Mostre que P\ (S 1∪S 2) é união disjunta de dois
subconjuntos sendo pelo menos um deles convexo e que ambos são convexos se, e somente
se, v e w têm a mesma direção (neste caso, S 1 ∪ S 2 = R(x, v)). Inserir desenho
(c) Mostre que um triângulo em Rn divide o plano que o contem em duas regiões disjuntas
sendo apenas uma delas convexa (esta região é chamada de o interior do triângulo).
3.2.22. Mostre que se u1, u2, u3 ∈ F3 são vetores com direções distintas sendo que u3 não define reta
paralela a um plano tendo {u1, u2} como conjunto diretor, então, para todo v ∈ F3, existe única
trinca a, b, c ∈ F satisfazendo v = au1 + bu2 + cu3.
85
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r3.3. Retas e Planos em Espaços Cartesianos de Dimensão 2 e 3
Comecemos olhando mais de perto retas em F2. Denotaremos um ponto genérico por (x, y) como
mencionado anteriormente. Dados um ponto p0 = (x0, y0) e um vetor v = (b,−a), consideremos a reta
R = R(p0, v) (o motivo de termos escolhido os nomes das coordenadas de v desta maneira ficará claro
logo adiante). Neste caso (3.2.2) se re-escreve como
(3.3.1) (x, y) ∈ R ⇔
x = x0 + bt
y = y0 − at,
t ∈ F,
de onde segue que
(3.3.2) b(y − y0) = −a(x − x0).
Inserir desenho sobre inclinação
Note que, como v , 0, temos a , 0 ou b , 0. No caso que b , 0, isto é, R não é paralela ao eixo-y,
podemos escrever (3.3.2) como
(3.3.3) y = y0 −
a
b
(x − x0)
Neste caso, o número −a/b é chamado de coeficiente angular da reta R. Se chamarmos de m o
coeficiente angular, a relação passa a ser escrita como
(3.3.4) y = y0 + m(x − x0).
Quando R é paralela ao eixo-y, define-se o coeficiente angular como sendo∞.
Veja que (3.3.2) pode ser vista não só como uma relação entre componentes dos vetores de R, mas
também como uma equação linear nas variáveis x e y. Tomando c = ax0 + by0, podemos re-escrever
(3.3.2) como
(3.3.5) ax + by = c,
mostrando que toda equação linear (de grau 1) em F2 provém de uma reta (o motivo das escolhas
dos nomes das coordenadas de v deve ter ficado claro neste momento). Reciprocamente, o conjunto
solução de qualquer equação linear (de grau 1) em F2 é uma reta. De fato, se b = 0, o conjunto
solução de (3.3.5) é {(c/a, y) : y ∈ F} = R(p0, e2) com p0 = (c/a, y0) para qualquer escolha de y0. Se
b , 0, então, para qualquer escolha de x0, tomamos y0 = 1b (c − ax0) e p0 = (x0, y0), de modo que o
conjunto solução é R(p0, v) com v = (b,−a). Por isso, a equação (3.3.5) é chamada de a equação geral
da reta em F2 (lembrando que temos a , 0 ou b , 0).
A seguir, passamos a estudar retas em F3. Consideremos então uma reta R = R(p0, v) com p0 =
(x0, y0, z0) e v = (a, b, c). Neste caso (3.2.2) se re-escreve como
(3.3.6) (x, y, z) ∈ R ⇔
x = x0 + at
y = y0 + bt,
z = z0 + ct
t ∈ F,
86
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rde onde segue que(3.3.7) a(y − y0) = b(x − x0), c(y − y0) = b(z − z0), a(z − z0) = c(x − x0).
Procedendo como antes, vemos que R é o conjunto solução do sistema linear
(3.3.8)
bx − ay = dcy − bz = ecx − az = g
onde
d = bx0 − ay0, e = cy0 − bz0, g = cx0 − az0.
Além disso, como v , 0, temos que pelo menos um dos números a, b, c é não nulo. Observe então
que uma das equações de (3.3.8) é consequência das outras duas. Por exemplo, se b , 0, temos que
a terceira equação é obtida multiplicando-se a primeira por c/b e dela subtraindo-se o resultado de
multiplicar a segunda por a/b. Assim, vemos que toda reta em F3 é o conjunto solução de um sistema
linear com duas equações (ambas de grau 1). Nos referiremos ao sistema (3.3.8) ou, equivalentemente
a (3.3.7), como a equação geral da reta em F3 (apesar de ser um sistema de posto 2, ou seja, de termos
de fato duas equações relevantes, do ponto de vista vetorial, é uma equação só justificando a escolha
do termo no singular).
Observe que, se a = 0, R é paralela ao plano coordenado yz que é o plano P(0, e2, e3). De fato,
temos v = be2 + ce3. Observe também que, se b , 0, a primeira equação em (3.3.8) se reduz a x = x0
e o mesmo ocorre com a terceira se c , 0, enquanto a segunda não envolve x. Inserir desenho
De maneira similar, vemos que, se b = 0, R é paralela ao plano xz e, se c = 0, ao plano xy. Se R não
for paralela a nenhum dos planos coordenados, podemos re-escrever (3.3.7) como
(3.3.9)
x − x0
a
=
y − y0
b
=
z − z0
c
,
que é por vezes chamada de equação simétrica da reta em F3.
Por outro lado, vejamos que todo sistema linear de posto 2 em 3 variáveis dá oriegem a uma reta.
De fato, a forma escalonada reduzida da matriz principal de um sistema de posto 2 tem uma das
seguintes formas, após eliminar as linhas nulas:
(3.3.10)
ï
1 0 α
0 1 β
ò
ou
ï
1 γ 0
0 0 1
ò
ou
ï
0 1 0
0 0 1
ò
.
Observe que, no terceiro caso, o conjunto solução é uma reta paralela ao eixo-x. Note também que,
se b = c = 0, então esta é a forma ecalonada reduzida de (3.3.8). O segundo caso tem uma reta da
forma R(p0, v) com v = (−γ, 1, 0) como conjunto solução (compare com (3.3.8) pondo c = 0 e b , 0).
Em particular, se γ = 0, temos uma reta paralela ao eixo y. Finalmente, o primeirao caso tem uma
reta da forma R(p0, v) com v = (−α,−β, 1) como conjunto solução (compare com (3.3.8) com c , 0).
Em particular, se α = β = 0, temos uma reta paralela ao eixo z.
87
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 3.3.1. Considere a reta R dada por x = 2(y−2) = −z+1 em R3 e v = (1,−1, 2). Encontremosa equação simétrica da reta obtida de R por translação por v. Observe primeiro que (3.1.5) e (3.1.6)
implicam que Tv(R) é de fato uma reta com a mesma direção de R. Como x = (0, 2, 1) ∈ R, Tv(x) =
(1, 1, 3) ∈ Tv(R). Logo, Tv(R) é a reta dada por x − 1 = 2(y − 1) = −z + 3. �
Passemos agora ao estudo de planos em F3. Consideremos então um plano P = P(p0, v,w) com
p0 = (x0, y0, z0), v = (v1, v2, v3) e w = (w1,w2,w3). Usando a definição (3.2.3), temos que um ponto
p = (x, y, z) ∈ P se, somente, se existirem α, β ∈ F satisfazendo
(3.3.11) ϑ(p0, p) = αv + βw.
Lembre que, por definição, ϑ(p0, p) = (x − x0, y − y0, z − z0), e considere a matriz
A =
 v1 v2v3w1 w2 w3
x − x0 y − y0 z − z0.

A relação (3.3.11) diz que se substituirmos L3(A) por L3(A)−αL1(A)− βL2(A) obteremos uma matriz
cuja terceira linha é nula. Como este passo de escalonamento não altera o determinante, concluímos
que det(A) = 0. Portanto,
ax + by + cz = d
com(3.3.12)
a = v2w3 − v3w2, b = v3w1 − v1w3, c = v1w2 − v2w1, d = ax0 + by0 + cz0.
Observe que, como os vetores v e w não tem a mesma direção, o vetor u = (a, b, c) é não nulo e,
portanto, (3.3.12) é uma equação linear de grau 1. A equação (3.3.12) é chamada de equação geral do
plano em F3. Às vezes será conveniente re-escreve-la na forma
(3.3.13) a(x − x0) + b(y − y0) + c(z − z0) = 0.
Isso mostra que todo plano em F3 é o conjunto solução de uma equação linear (de grau 1). Reciproca-
mente, toda equação linear (de grau 1) em três variáveis tem um plano em F3 como conjunto solução.
De fato, temos duas variáveis livres. Por exemplo, se a , 0, então y e z estão livres e temos
x = −
b
a
y −
c
a
z +
d
a
.
Portanto, (x, y, z) é uma solução de (3.3.12) se, e somente, se
(x, y, z) = y (−b/a, 1, 0) + z (−c/a, 0, 1) + (d/a, 0, 0).
Ou seja, o conjunto solução de (3.3.12) é o plano P(p0, v,w) com p0 = (d/a, 0, 0), v = (−b/a, 1, 0) e
w = (−c/a, 0, 1). Em particular, se b = c = 0, temos um plano paralelo ao plano yz. Deixemos como
exercício para o leitor a verificação de que o conjunto solução de (3.3.12) é de fato um plano também
quando a = 0.
Observação 3.3.2. Uma comparação de (3.3.12) com (3.3.8) mostra que uma reta em F3 é a interseção
de dois planos (não paralelos). �
88
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 3.3.3. Encontremos equação linear que determina o plano P = P(x, v,w) com x = (1,−2, 3),v = (0, 1, 2) e w = (1,−1, 0). Sendo a, b, c, d como em (3.3.12), temos
a = 1 · 0 − 2 · (−1) = 2, b = 2 · 1 − 0 · 0 = 2, c = 0 · (−1) − 1 · 1 = 1,
e d = a · 1 + b · (−2) + c · 3 = 1
Portanto, a equação 2x + 2y + z = 1 tem P como conjunto solução. �
Exemplo 3.3.4. Encontremos um conjunto diretor para o plano P dado pela equação x + 2y − z = 4 e
também um ponto x ∈ P. Como x = z − 2y + 4, temos
P = {(z − 2y + 4, y, z) : y, z ∈ R} = {(4, 0, 0) + y(−2, 1, 0) + z(1, 0, 1) : y, z ∈ R}.
Portanto, x = (4, 0, 0) ∈ P e os vetores v = (−2, 1, 0),w = (1, 0, 1) foram um conjunto diretor. �
Exercícios
3.3.1. Para F = R, determine as equações lineares que determinam a reta R = (p, v) dada como segue:
(a) p = (1, 2), v = (2, 3).
(b) p = (2, 3), v = (1, 2).
(c) p = (0, 0, 0), v = (0,−1, 1).
(d) p = (1, 2, 2), v = (1, 1, 0).
3.3.2. Para F = R, determine se as seguintes retas são paralelas, reversas ou concorrentes.
(a) R1 é dada por x − 2y = 3 e R2 é dada por 2x − y = −1.
(b) R1 é dada por x − 2y = 3 e R2 é dada por 2x − 4y = 1.
(c) R1 é dada por x − 2y = 3 e R2 = R(p, v) com p = (1, 2) e v = (1,−1).
(d) R1 é dada por x − 2y = 3 e R2 = R(p, v) com p = (1, 2) e v = (2, 1).
(e) R1 é dada por x − 2y = 3 e y − 2z = 3 e R2 é dada por 2x − y = −1 e x − z = 0.
(f) R1 é dada por x − 2y = 3 e y − 2z = 3 e R2 = R(p, v) com p = (9, 3, 0) e v = (2, 0, 1).
3.3.3. Considere a reta R em R3 dada por x − 2y = 3 e y − 2z = 3.
(a) Determine as equações lineares de todas as retas paralelas a R.
(b) Determine as equações lineares de todos os planos que contém R.
(c) Determine as equações lineares de todas as retas concorrentes a R.
(d) Determine as equações lineares de todas as retas reversas a R.
3.3.4. Mostre que a solução do sistema (3.3.8) é de fato a reta R dada.
3.3.5. Generalize o raciocínio utilizado na obtenção de (3.3.7), (3.3.8) e (3.3.9) para obter sistemas de
equações lineares que descrevem retas em Fn com n > 3.
89
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r3.3.6. Generalize o raciocínio utilizado na obtenção de (3.3.12) para obter sistemas de equações line-ares que descrevem planos em Fn com n > 3.
3.3.7. Determine a equação linear de cada um dos planos do Exemplo 3.2.11 e use-as para determinar
sua interseção por um novo método.
3.3.8. Determine a equação linear de cada um dos planos listados no exercício 3.2.11.
3.3.9. Para cada um dos planos P dados por uma equação linear abaixo, encontre x ∈ P, v,w ∈ R3 tais
que P = P(x, v,w).
(a) x − y + 3z = −4.
(b) y − 2z = 2.
(c) z − 2x = 5.
3.3.10. Encontre a interseção de cada par de planos na lista do exercício anterior e também de cada um
deles com as retas em R3 do exercício 3.3.2.
3.3.11. Refaça o exercício 3.2.11 trabalhando diretamente com as equações lineares dos respectivos
planos.
3.4. Comprimentos e Ângulos
Nosso próximo objetivo é introduzir uma noção de medida de comprimentos de vetores (e, conse-
quentemente, de segmentos de reta) e também uma maneira de medir a diferença de direção entre
dois vetores (ou retas) dando origem ao conceito de ângulo. Evidentemente, medidas de tamanhos
são tomadas a partir de uma “unidade de medida”, ou seja, escolhe-se um “objeto padrão” contra
o qual todos os outros serão comparados. No contexto do sistema de coordenadas cartesianas, os
vetores e j da base canônica são óbvios candidatos para serem escolhidos para este propósito com re-
ferência ao conceito de comprimento (por causa da nossa intuição de tamanho e da interpretação que
damos para o número 1). Porém, nossa intuição demanda que sejamos capazes de comparar tamanhos
não só em termos de proporcionalidade (o tamanho de um vetor é um múltiplo do tamanho do vetor
padrão), mas também em termos absolutos (um vetor é maior ou menor que outro). Em particular,
nossa intuição demanda que “comprimento” seja uma noção quantitativa e “positiva” (de fato, não
negativa). Em particular, isso deve se aplicar ao espaço unidimensional F1 que nada mais é que o
próprio corpo. Em outras palavras, precisamos que o corpo tenha essas propriedades comparativas
entre seus elementos (um número tem tamanho maior ou menor que outro). Por isso, não é possível
implementar nossas noções intuitivas do conceito de tamanho em Fn se F não tiver propriedades espe-
ciais. Neste primeiro momento, trabalharemos somente com F = R, mas mais adiante veremos o que
pode ser feito para outros corpos (Capítulos 7 e 9). Observe que, quando trabalhamos com números
reais, devido à divisão dos mesmos entre positivos e negativos (além do zero), temos disponível de
imediato a noção de “sentido” de vetores, enquanto que, em geral, só temos a noção de direção. Mais
precisamente, dois vetores não nulos v e w têm o mesmo sentido se existir um número (real) positivo
λ satisfazendo w = λv.
90
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rObserve também que quando desenhamos os eixos coordenados já o fazemos imbutindo de ma-neira implícita a noção de ortogonalidade (os eixos são desenhados ortogonalmente uns aos outros).
Ou seja, não só temos uma noção intuitiva do significado de comprimentos, mas também de ângulos
e, em particular, temos uma capacidade especial de apreciar e identificar “ângulos retos”. Enquanto a
noção de comprimento vem, inicialmente, de uma comparação por proporcionalidade, é menos claro
o que significa ângulo (existe mais de uma definição na literatura) e muito menos o que seria a unidade
de medida. Nossa atitude aqui será a de introduzir uma noção em Rn que já carrega, implicitamente, a
noção quantitativa de comprimento de vetores assim como uma medida quantitativa sobre a diferença
de direção (e sentido) entre vetores. Em particular, o teorema de Pitágoras da geometria plana clássica
já está “incorporado” nessa noção que será chamada de produto interno.
Dados dois vetores v = (x1, x2, . . . , xn) e w = (y1, y2, . . . , yn), o produto interno de v com w é o
número
(3.4.1) 〈v,w〉 = x1y1 + x2y2 + · · · + xnyn.
Ou seja, o produto interno é uma função Rn × Rn → R que associa um número a cada par de vetores
atravésda fórmula (3.4.1). Como o resultado do produto é um número, o produto interno também é
comumente chamado de produto escalar (não confundir com produto por escalar ou entre escalares).
Observe que o produto interno satisfaz as seguintes propriedades:
(PI1) (simetria): 〈v,w〉 = 〈w, v〉 para quaisquer v,w ∈ Rn.
(PI2) (distributividade): 〈u + v,w〉 = 〈u,w〉 + 〈v,w〉 para quaisquer u, v,w ∈ Rn.
(PI3) (associatividade): 〈λv,w〉 = λ〈v,w〉 para quaisquer v,w ∈ Rn, λ ∈ R.
(PI4) (positividade): 〈v, v〉 > 0 para qualquer v ∈ Rn, v , 0.
Como consequência das propriedades (PI1) e (PI2) temos
(PI5) 〈u, v + w〉 = 〈u, v〉 + 〈u,w〉 para quaisquer u, v,w ∈ Rn.
Como consequência das propriedades (PI1) e (PI3) temos
(PI6) 〈v, λw〉 = λ〈v,w〉 para quaisquer v,w ∈ Rn, λ ∈ R.
Além disso, procedendo indutivamente utilizando (PI2) e (PI3), vemos que, se
v = λ1v1 + λ2v2 + · · · + λmvm
para alguma escolha de m ≥ 1, λ j ∈ R, v j ∈ Rn, j = 1, . . . ,m, então
(3.4.2) 〈v,w〉 =
m∑
j=1
λ j 〈v j,w〉.
Expressão similar é obtida no caso em que w se escreve como soma de outros vetores utilizando-se
(PI5) e (PI6).
91
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 3.4.1. Considere os vetores v = (1, 0, 2),w1 = (0, 1,−2),w2 = (1,−1, 1),w3 = w1 + 2w2.Temos
〈v,w1〉 = 1 · 0 + 0 · 1 + 2 · (−2) = −4, 〈v,w2〉 = 1 · 1 + 0 · (−1) + 2 · 1 = 3,
〈v,w3〉 = 〈v,w1〉 + 2〈v,w2〉 = −4 + 6 = 2.
�
A seguir demonstraremos uma propriedade da função produto interno que será fundamental para
mostrar porque as definições de comprimento e de ângulo que daremos satisfazem as propriedades
que conhecemos da geometria plana clássica.
Lema 3.4.2 (Desigualdade de Cauchy-Shwarz). Para quaiquer dois vetores v,w ∈ Rn vale
〈v,w〉2 ≤ 〈v, v〉 〈w,w〉.
Demonstração. A igualdade é obviamente válida se um dos dois vetores for nulo. Então, suponhamos
que sejam ambos não nulos. Considere primeiro o caso que ambos tenham a mesma direção, digamos
w = λv com λ ∈ R. Neste caso temos
〈v,w〉2 = 〈v, λv〉2 = λ2 〈v, v〉2 = 〈v, v〉 〈λv, λv〉 = 〈v, v〉 〈w,w〉.
Suponha agora que os dois vetores tenham direções distintas, isto é, para qualquer λ ∈ R temos
w , λv. Em particular, w − λv , 0 e, portanto,
〈w − λv,w − λv〉 > 0.
Por outro lado,
〈w − λv,w − λv〉 = 〈w,w〉 − 2λ〈v,w〉 + λ2〈v, v〉.
Escolhendo λ = 〈v,w〉
〈v,v〉 a última expressão se torna
〈w − λv,w − λv〉 = 〈w,w〉 −
〈v,w〉2
〈v, v〉
.
Portanto,
〈w,w〉 −
〈v,w〉2
〈v, v〉
> 0
de onde o resultado desejado segue.
O comprimento (ou norma) de um vetor v = (x1, x2, . . . , xn) ∈ Rn é definido como1
(3.4.3) ‖v‖ =
√
〈v, v〉 =
»
x21 + x
2
2 + · · · + x
2
n.
Em particular, ‖e j‖ = 1 para todo j = 1, . . . , n. Vetores de norma igual a 1 são chamados de
vetores unitários. O comprimento de um vetor livre (x, y) é definido por ‖(x, y)‖ = ‖ϑ(x, y)‖ . Esta
também é a definição do comprimeto do segmento de reta xy.
1Lembre que, para a ∈ R≥0,
√
a denota o único número b ∈ R≥0 satisfazendo b2 = a.
92
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rObservação 3.4.3. Apesar de ainda não termos definido nenhuma noção de medida de ângulo, vejaque esta definição de comprimento já incorpora implicitamente o Teorema de Pitágoras. Para ver isto,
considere o caso n = 2. Dado v = (x, y) = xe1 + ye2, consideramos o triângulo cujos vértice são
0 = (0, 0), x = (x, 0) e y = (x, y). Assim, ‖0x‖ = |x|, ‖xy‖ = |y| e ‖0y‖2 = x2 + y2. Inserir desenho �
Temos assim definida uma função (a função norma) que associa um número real não negativo a
cada vetor de Rn. A próxima proposição mostra que esta função satisfaz as propriedades fundamen-
tais2 que esperamos da noção de comprimento.
Proposição 3.4.4. Para quaisquer vetores v,w ∈ Rn e λ ∈ R valem:
(i) ‖λv‖ = |λ| ‖v‖;
(ii) ‖v‖ = 0 só se v = 0;
(iii) ‖v + w‖ ≤ ‖v‖ + ‖w‖.
Demonstração. As propriedades (i) e (ii) são facilmente verificadas. Para mostrar (iii), observe que
‖v + w‖2 = ‖v‖2 + 2 〈v,w〉 + ‖w‖2.
Observe que a Desigualdade de Cauchy-Shwarz pode ser re-escrita como
(3.4.4) |〈v,w〉| ≤ ‖v‖ ‖w‖.
Como 〈v,w〉 ≤ |〈v,w〉|, segue que
‖v + w‖2 ≤ ‖v‖2 + 2 |〈v,w〉| + ‖w‖2 ≤ ‖v‖2 + 2 ‖v‖ ‖w‖ + ‖w‖2 = (‖v‖ + ‖w‖)2.
Tirando raíz quadrada, (iii) segue.
A propriedade (iii) da proposição anterior é chamada de Desigualdade Triangular pois ela diz que
o lado de um triângulo obtido pela soma (vetorial) dos outros dois tem comprimento menor ou igual
à soma dos outros dois comprimentos.
Exemplo 3.4.5. Calculemos as normas dos vetores v = (1, 1) ∈ R2 e w = (3, 0, 4) ∈ R3:
‖v‖ =
√
12 + 12 =
√
2 e ‖w‖ =
√
32 + 02 + 42 =
√
25 = 5.
�
2Veremos no apêndice da Seção 3.6 que estas propriedades são de fato usadas para definir outras noções de tamanho de
maneira abstrata e alguns exemplos “práticos” de noções de tamanho as satisfazendo que não são relacionados ao produto
interno. No Capítulo 7, veremos que as propriedade (PI1) a (PI4) podem ser usadas para definir o conceito de produto
interno de maneira abstrata também e que o produto interno aqui definido é apenas um exemplo particular.
93
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rA seguir, veremos como a Desigualdade de Cauchy-Shwarz está relacionada à noção de ângulo.Considere a função
(3.4.5) ϕ : (Rn \ {0}) × (Rn \ {0})→ R dada por ϕ(v,w) =
〈v,w〉
‖v‖ ‖w‖
.
Assim, ϕ é uma função que associa um número real a cada par de vetores não nulos. Observe que
ϕ(v,w) = ϕ(w, v), ϕ(v,−w) = ϕ(−v,w) = −ϕ(v,w) e que, para quaisquer λ, µ ∈ R>0, temos
(3.4.6) ϕ(λv, µw) = ϕ(v,w).
Ou seja, ϕ depende apenas dos sentidos dos vetores. Isso indica que a função ϕ é uma medição
quantitativa da diferença de sentidos dos vetores v e w. Temos
ϕ(v, v) = 1 e ϕ(v,−v) = −1.
Portanto, o valor 1 indica vetores no mesmo sentido enquanto que o valor −1 indica vetores na mesma
direção, mas com sentidos opostos. Observe ainda que (3.4.4) pode ser re-escrita como
(3.4.7) − 1 ≤ ϕ(v,w) ≤ 1.
Além disso, lembre que vimos na demonstração da Desigualdade de Cauchy-Schwarz que, se v e w
tem direções diferentes, então |ϕ(v,w)| < 1.
Observação 3.4.6. Por ora, ϕ será nossa medição oficial de ângulo3. Além disso, qualitativamente,
podemos definir ângulo como sendo um par de vetores não nulos, ou seja, um elemento do domínio
de ϕ. Para se estabelecer a relação de ϕ com a medida de ângulos em radianos, precisamos introduzir
a noção de comprimento de um “segmento de circunferência” (arco). Discutiremos isso na Seção
4.1. Uma vez feito isso, seguirá que o ângulo entre v e w é determinado por um arco (de raio 1) cujo
comprimeto θ é o único valor do intervalo [0, π] tal que
cos(θ) = ϕ(v,w).
Em particular, θ = π/2 se, e somente se, ϕ(v,w) = 0. Apesar da geometria euclideana clássica não
lançar mão de sistemas de coordenadas, devido à equivalência dela com esta que estamos expondo
aqui, é comum atualmente chamar o espaço Rn de espaço euclideano n-dimensional quando equipado
com o produto interno definido por (3.4.1). �
Exemplo 3.4.7. Calculemos o ângulo entre os vetores v = (1, 0) e w = (1, 1) de R2:
ϕ(v,w) =
〈v,w〉
‖v‖ ‖w‖
=
1
√
2
=
√
2
2
.
�
3Quando usarmos expressões como “calculemos o ângulo entre ...” de fato queremos dizer “calculemos a medida ϕ...”.
94
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rDois vetores v e w serão ditos ortogonais se 〈v,w〉 = 0 (compare com o que foi comentado naObservação 3.4.6). Em particular, o vetor nulo é ortogonal a todos os vetores. Escreveremos v ⊥ w
para indicar que v e w são ortogonais. Observe que ei ⊥ e j para todo i , j. Este é o motivo de o
sistema cartesiano de coordenadas ser também chamado de sistema de coordenadas ortogonais. Diz-
se que o ângulo entre v e w é agudo se ϕ(v,w) > 0, obtuso se ϕ(v,w) < 0 e reto se v ⊥ w. Uma vez que
vimos que o Teorema de Pitágoras está implicitamente incorporado nadefinição do produto interno,
o próximo resultado é bastante esperado:
Proposição 3.4.8 (Teorema de Pitágoras). Dados v,w ∈ Rn, temos
v ⊥ w ⇔ ‖v + w‖2 = ‖v‖2 + ‖w‖2.
Demonstração. Temos
‖v + w‖2 = 〈v + w, v + w〉 = ‖v‖2 + 2〈v,w〉 + ‖w‖2.
Portanto,
‖v + w‖2 = ‖v‖2 + ‖w‖2 ⇔ 〈v,w〉 = 0.
Observação 3.4.9. O Teorema de Pitágoras marcou um dos primeiros encontros da humanidade com
números que não são racionais: o comprimeto do segmento de reta de um triângulo que tem dois
lados de comprimento 1 formando um ângulo reto entre eles. �
Dadas duas retas R1 e R2 com vetores diretores v e w, respectivamente, definimos
(3.4.8) ϕ(R1,R2) = |ϕ(v,w)|.
Observe que (3.4.6) e os comentários que a precedem mostram que a definição de ϕ(R1,R2) de fato
depende só das direções de v e w.4
Observação 3.4.10. Suponha que R1 e R2 sejam concorrentes e observe que, em termos de medição
de ângulos em radianos, definimos o ângulo entre R1 e R2 como o menor dos ângulos “opostos pelo
vértice” determinados por sua interseção. Mais precisamente, dada uma reta R = (x, v), a semi-reta a
partir de x no sentido de v é o subconjunto R+(x, v) = {y ∈ Rn : ϑ(x, y) = λv para algum λ ≥ 0}. A
semi-reta a partir de x no sentido oposto a v é R−(x, v) = R+(x,−v). Dadas duas semi-retas a partir de
x, digamos S 1 = R−(x, v) e S 2 = R−(x,w), define-se
ϕ(S 1, S 2) = ϕ(v,w).
Em particular, se w = −v, i.e., se as duas semi-retas são os dois lados de uma reta separadas por x,
então ϕ(S 1, S 2) = −1. Se v e w tem direções distintas, então as duas retas são concorrentes e o ponto
x determina 4 semi-retas (duas em cada reta) e 4 regiões no plano (compare com o exercício 3.2.21).
Inserir desenho
4Compare com o exercício 3.4.14.
95
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExistem versões da definição de ângulo em termos de regiões. Deste ponto de vista, a interseção deduas retas concorrente define 4 ângulos distintos. Os dois ângulo que ficam do mesmo lado de alguma
das retas são ditos opostos pelo vértice. Porém, em termos de medida, como ϕ(v,w) = ϕ(−v,−w) e
ϕ(−v,w) = ϕ(v,−w), temos de fato no máximo dois ângulos distintos (as 4 medidas serão iguais se
v ⊥ w). Portanto, ao tomarmos o módulo em (3.4.8), estamos de fato definindo o ângulo entre retas,
em termos de ϕ, como o maior número entre os correspondente valores associados às semiretas. Em
termos de medidas em radianos, isso corresponde ao menor comprimento de arco. �
Exemplo 3.4.11. Calculemos o ângulo entre as seguintes retas em R3: R1 = R(0, v) com v = (1, 0,−2)
e R2 dada pela equação simétrica
x − 1
2
=
y + 2
3
= −(z + 1).
Como w = (2, 3,−1) é vetor diretor para R2, temos
ϕ(R1,R2) = |ϕ(v,w)| =
|〈v,w〉|
‖v‖ ‖w‖
=
4
√
5 · 14
.
�
Terminamos essa seção definindo o conceito de projeção ortogonal de um vetor sobre retas e
planos, o que nos permitirá entender a maneira correta de definir ângulo entre uma reta e um plano.
Inserir desenho
Dado um vetor v ∈ Rn e uma reta R, a projeção ortogonal de v em R é o único vetor PrR(v) na direção
de R satisfazendo
(3.4.9) PrR(v) − v ⊥ w para qualquer w na direção de R.
Através dessa definição podemos de fato encontrar uma fórmula para PR(v) em termos de qualquer
vetor diretor w de R. De fato, a condição que PR(v) tem a mesma direção de R significa que
PrR(v) = λw para algum λ ∈ R.
Juntando com (3.4.9), temos
〈λw − v,w〉 = 0
e, portanto,
λ =
〈v,w〉
‖w‖2
.
Em outras palavras, escolhido um vetor diretor w para R, temos, por definição,
(3.4.10) PrR(v) =
〈v,w〉
‖w‖2
w.
96
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 3.4.12. Calculemos a projeção ortogonal de v = (1,−2, 2) na reta dada pela equação simé-trica x = y−12 = z+14 . Como w = (1, 2, 4) é vetor diretor de R, temos
PrR(v) =
〈v,w〉
‖w‖2
w =
5
21
w.
�
Para definirmos a projeção ortogonal de um vetor v sobre um plano P procedemos de maneira
semelhante. A saber, PrP(v) é o único vetor cuja direção define uma reta paralela a P satisfazendo
(3.4.11) PrP(v) − v ⊥ w para qualquer w cuja direção define reta paralela a P.
Escolhendo um conjunto de vetores diretores para P, digamos {w1,w2}, podemos encontrar uma ex-
pressão para PrP(v) como segue. Temos
PrP(v) = λ1w1 + λ2w2 para algum par λ1, λ2 ∈ R
de modo que
〈λ1w1 + λ2w2 − v,w1〉 = 0 = 〈λ1w1 + λ2w2 − v,w2〉.
Estas duas condições de ortogonalidade dão origem ao seguinte sistema linear com duas equações nas
icógnitas λ1, λ2:
(3.4.12)
®
‖w1‖2 λ1 + 〈w1,w2〉 λ2 = 〈v,w1〉
〈w1,w2〉 λ1 + ‖w2‖2 λ2 = 〈v,w2〉
cuja matriz principal é
(3.4.13)
ï
‖w1‖2 〈w1,w2〉
〈w1,w2〉 ‖w2‖2
ò
.
Para vermos que o sistema tem solução única, basta ver que o determinante desta matriz não é zero.
Mas, o determinante é
‖w1‖2 ‖w2‖2 − 〈w1,w2〉2
que é estritamente positivo pela Desigualdade de Cauchy-Shwarz, uma vez que w1 e w2 não têm a
mesma direção. Para de fato encontrar uma fórmula para λ1 e λ2, podemos usar a regra de Cramer, de
onde segue:
λ1 =
〈v,w1〉 ‖w2‖2 − 〈w1,w2〉 〈v,w2〉
‖w1‖2 ‖w2‖2 − 〈w1,w2〉2
e λ2 =
〈v,w2〉 ‖w1‖2 − 〈w1,w2〉 〈v,w1〉
‖w1‖2 ‖w2‖2 − 〈w1,w2〉2
.
Resumindo, fixados vetores diretores w1 e w2 para P, a projeção ortogonal de v em P é, por definição,
(3.4.14) PrP(v) =
〈v,w1〉 ‖w2‖2 − 〈w1,w2〉 〈v,w2〉
‖w1‖2 ‖w2‖2 − 〈w1,w2〉2
w1 +
〈v,w2〉 ‖w1‖2 − 〈w1,w2〉 〈v,w1〉
‖w1‖2 ‖w2‖2 − 〈w1,w2〉2
w2.
Observe que, se conseguirmos escolher vetores diretores para P que sejam ortogonais, esta fórmula
se simplifica bastante. De fato, se w1 ⊥ w2 temos
(3.4.15) PrP(v) =
〈v,w1〉
‖w1‖2
w1 +
〈v,w2〉
‖w2‖2
w2 = PrR1(v) + PrR2(v)
97
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rcom R1 e R2 sendo retas na direção de w1 e w2, respectivamente. Portanto, se quisermos calcularprojeções ortogonais em planos, é sempre melhor escolhermos um conjunto diretor formado por
vetores ortogonais. No exercício 3.4.17 abaixo veremos que sempre é possível encontrarmos um
conjunto diretor com esta propriedade a partir de um conjunto diretor qualquer.
Exemplo 3.4.13. Calculemos a projeção ortogonal de v = (1, 0,−2) no plano P dado pela equação
x + 2y − z = 4. Vimos no Exemplo 3.3.4 que os vetores w1 = (−2, 1, 0) e w2 = (1, 0, 1) formam um
conjunto diretor para P. Assim,
〈v,w1〉 = −2, 〈v,w2〉 = −1, 〈w1,w2〉 = −2, ‖w1‖2 = 5, ‖w2‖2 = 2.
Substituindo em (3.4.14) temos
PrP(v) = −w1 −
3
2
w2 =
1
2
(1,−2,−3).
�
Utilizando o conceito de projeção ortogonal, podemos agora definir o ângulo entre uma reta R e
um plano P. Dado um vetor diretor v para R, considere o número
ϕ(v,PrP(v)).
Deixamos como exercício para o leitor mostrar que este número depende só da direção de v, isto é,
que
(3.4.16) ϕ(λv,PrP(λv)) = ϕ(v,PrP(v)) para qualquer λ ∈ R.
Assim, definimos
(3.4.17) ϕ(R, P) = ϕ(v,PrP(v)) sendo v algum vetor diretor para R.
Inserir desenho
Exemplo 3.4.14. Calculemos o ângulo entre o plano P dado por x + 2y − z = 4 e a reta R dada por
2x + z = −1, y = 2. O vetor v = (1, 0,−2) é um vetor diretor para R e, como visto no exemplo anterior,
PrP(v) = w com w =
1
2
(1,−2,−3).
Portanto,
ϕ(R, P) = ϕ(v,PrP(v)) =
〈v,w〉
‖v‖ ‖w‖
=
7/2
√
5 · 12
√
14
=
√
7/10.
�
98
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExercícios3.4.1. Demonstre as seguintes consequências da Desigualdade Triangular5. Para quaisquer v,w ∈ Rn
valem:
(a) ‖v − w‖ ≤ ‖v‖ + ‖w‖;
(b) ‖v − w‖ ≥ | ‖v‖ − ‖w‖ |.
3.4.2. Detremine se a seguinte afirmação é verdadeira ou falsa: para quaisquer v,w ∈ Rn, ‖v + w‖ ≥
‖v − w‖.
3.4.3. Mostre as Leis de Polarização:
‖v + w‖2 − ‖v‖2 − ‖w‖2 = 2 〈v,w〉 = ‖v‖2 + ‖w‖2 − ‖v − w‖2
para quaisquer v,w ∈ Rn.
3.4.4. Calcule o ângulo entre os seguintes vetores:
(a) v = (1,−2),w = (2 −
√
3, 2 +
√
3).
(b) v = (1, 1, 1),w = (2,−1, 0).
(c) v = (1,−1, 0, 1),w = (1,−1, 1, 1).
3.4.5. Suponha que u1, u2, . . . , um ∈ Rn seja umafamília de vetores unitários e mutuamente ortogonais,
isto é, ‖ui‖ = 1 e ui ⊥ u j para todo i, j com i , j. Suponha também que v e w sejam vetores da
seguinte forma:
v =
m∑
i=1
xiui e w =
m∑
j=1
y ju j com xi, yi ∈ R, i = 1, . . . ,m.
Mostre que 〈v,w〉 =
∑m
i=1 xiyi.
3.4.6. Considere um triângulo com vértice nos pontos x, y, z. O ângulo interno correspondente ao
vértice x é o ângulo formado por v = ϑ(x, y) e w = ϑ(x, z). Suponha que v ⊥ w, defina
u = w − v e mostre que
(3.4.18) ϕ(u,w) =
‖v‖
‖u‖
e ϕ(u,−v) =
‖w‖
‖u‖
.
Em termos de ângulos medidos em radianos, isso pode ser refraseado da seguinte maneira.
Sejam α e β os ângulos internos associados aos vértices z e y, respectivamente. Então, os nú-
meros acima correspondem a cos(α) e cos(β), respectivamente. Em outras palavras, essas são
as famosas fórmulas “cateto adjacente sobre hipotenusa” para calcular cossenos de ângulos em
triângulos retângulos. Inserir desenho
5Não é necessário usar produto interno para resolver este exercício, apenas a Proposição 3.4.4.
99
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r3.4.7. Sejam v,w ∈ Rn \ {0} e suponha que v ⊥ w. Mostre que, se u = λv + µw com λ, µ ∈ R é nãonulo, temos
ϕ(u, v)2 + ϕ(u,w)2 = 1.
3.4.8. Mostre que vale a Lei dos Cossenos: ‖v ± w‖2 = ‖v‖2 + ‖w‖2 ± 2 ‖v‖ ‖w‖ ϕ(v,w) para quaisquer
v,w ∈ Rn \ {0}.
3.4.9. Mostre que o baricentro divide cada mediana de um triângulo em dois segmentos de reta cujos
comprimetos estão na proporção de 2 : 1 (ver exercício 3.2.17).
3.4.10. Suponha que x, y, z, p sejam quatro pontos distintos contidos num mesmo plano de Rn. O
polígono que tem estes pontos como vértices, isto é, a união do segmentos de reta xy, yz, zp, px,
é dito um paralelogramo se os segmentos xy e zp são paralelos assim como são paralelos os
outros dois segmentos. Neste caso, mostre que
(a) ‖xy‖ = ‖zp‖ e ‖yz‖ = ‖xp‖;
(b) ‖xz‖2 + ‖py‖2 = 2(‖xy‖2 + ‖xp‖2) (esta identidade é chamada de Lei dos Paralelogramos).
Inserir desenho
3.4.11. Calcule o ângulo entre as seguintes retas:
(a) R1 = R(0, v) com v = (1,−1) e R2 é dada por y = 2x + 3.
(b) R1 é dada por x − 1 = y + 2 = 2z e R2 é dada por z = 2y − 1, x = 1.
(c) R1 = (x, v) e R2 = (y,w) com v = (1, 0,−1, 2),w = (−1, 1, 2, 0).
3.4.12. Calcule as projeções ortogonais a seguir.
(a) PrR(v) com R sendo cada uma das retas da parte (a) do exercício anterior e v = (1,−2).
(b) PrR(v) com R sendo cada uma das retas da parte (b) do exercício anterior e v = (1,−2, 1).
(c) PrR(v) com R sendo cada uma das retas da parte (c) do exercício anterior e v = (1,−2, 0, 1).
(d) PrP(v) com P = (0,w1,w2) com v = (1,−1, 1),w1 = (1, 2, 0),w2 = (2,−1, 1).
(e) PrP(v) com P sendo um plano paralelo a ambas as retas da parte (b) do exercício anterior e
v = (1,−1, 1).
(f) PrP(v) com P dado por 2x − y + z = 1 e v = (1,−1, 1).
(g) PrP(v) com P sendo um plano paralelo a ambas as retas da parte (c) do exercício anterior e
v = (1, 0,−1, 1).
3.4.13. Calcule o ângulo entre as reta R e os planos P dados a seguir.
(a) R é dada por x − 1 = y + 2 = 2z e P por 2x − y + z = 1 em R3.
100
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(b) R é dada por z = 2y − 1, x = 1 e P por x + 2y = 0 em R3.(c) R = R(p, v) e P = P(q,w1,w2) com v = (1, 0, 2),w1 = (1,−1, 0),w2 = (1,−1, 1).
(d) R = R(p, v) e P = P(q,w1,w2) com v = (1, 0, 0, 2),w1 = (1, 0,−1, 0),w2 = (0, 1,−1, 1).
(e) R = R(p, v) e P = P(q,w1,w2) com v = (1,−1, 2, 0, 2),w1 = (1, 2,−2,−1, 0), w2 =
(0, 0, 1,−1, 1).
3.4.14. Sejam R1 e R2 duas retas em Rn e v um vetor na direção de R1. Mostre que ϕ(R1,R2) =
ϕ(v, PR2(v)).
3.4.15. Encontre a equação de uma reta que passa pelo ponto (1,−2, 3) e que forma ângulos de 45o e
60o com os eixos x e y, respectivamente6.
3.4.16. Encontre a equação de um plano que contém a reta R dada por®
x − 2y + 2z = 0
3x − 5y + 7z = 0
e forma um ângulo de 60o com o plano dado por x + z = 0.
3.4.17. Mostre que, se {w1,w2} é um conjunto diretor para um plano P e R é uma reta na direção de w1,
então {w1,w2 − PrR(w2)} é um conjunto diretor para P formado por vetores ortogonais.
3.4.18. O que se pode concluir juntando-se o exercício anterior com o 3.4.5?
3.4.19. Demonstre a validade de (3.4.16).
3.4.20. Dada uma reta R e um plano P, mostre que ϕ(R, P) ≥ ϕ(R,R′) para qualquer reta R′ paralela a
P. Mais ainda, se v for um vetor diretor para R e R′ tiver a direção de PrP(v), então ϕ(R, P) =
ϕ(R,R′).7
3.4.21. Mostre que, para toda reta R e vetor v temos PrR(PrR(v)) = v. Mostre que o mesmo vale para
projeções ortogonais em planos.
3.4.22. Suponha que S seja uma reta ou um plano.
(a) Mostre que, para cada v ∈ Rn, existe único vetor v′ satisfazendo as seguintes duas proprie-
dades:
(i) PrS (v′) = PrS (v);
(ii) v + v′ ou é nulo ou tem a mesma direção que PrS (v).
Este vetor v′ é chamado de a reflexão ortogonal de v com respeito a S e será denotado por
ReS (v). Justifique a escolha do termo reflexão ortogonal.
(b) Mostre que ReS (v) = 2PrS (v) − v.
6Como não definimos o que significa medir ângulos em graus, escrevemos nesta forma apenas apenas que o enunciado
fique num tom familiar. Porém, a informação “... a reta R que form ângulo de 45o com a reta R′ dada” deve ser lida como
“... a reta R satisfazendo ϕ(R,R′) =
√
2/2 onde R′ é dada”, e assim por diante.
7Em termos de medida de ângulos em radianos, isso significa que o ângulo entre R e P é o mínimo dos ângulos entre
R e qualquer reta contida em P.
101
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r3.5. Complementos Ortogonais e Produto Vetorial
Faremos agora uma re-interpretação das equações gerais de retas e planos nos espaços euclideanos
usando o conceito de ortogonalidade definido na Seção 3.4. Para tanto, introduzimos o seguinte
conceito.
Definição 3.5.1. Dado um subconjunto S de vetores em Rn, o complemento ortogonal de S é o
conjunto S ⊥ = {v ∈ Rn : v ⊥ u ∀ u ∈ S }. �
Em outras palavras, S ⊥ é o subconjunto de Rn formado por todos os vetores ortogonais a todos os
vetores de S . Por exemplo, se S é o conjunto que contém só o vetor nulo, então S ⊥ = Rn.1 Estudemos
o complemento ortogonal no caso de S conter um único vetor não nulo, digamos u = (a1, a2, . . . , an).
Neste caso temos que v = (x1, x2, . . . , xn) ∈ S ⊥ se, e esomente se
(3.5.1) a1x1 + a2x2 + · · · + anxn = 0.
Ou seja, S ⊥ é o conjunto solução de uma única equação linear homogênea. Dado um ponto p ∈ Rn,
considere o conjunto
(3.5.2) H(p, u) = {x ∈ Rn : ϑ(p, x) ⊥ u}.
Em outras palavras, H(p, u) é o conjunto de todos os pontos cujas componentes coincidem com as
de algum vetor da forma v + w com v ⊥ u e w = ϑ(0, p). Assim, se p = (b1, b2, . . . , bn), temos que
x = (x1, x2, . . . , xn) ∈ H(p, u) se, e somente se ϑ(p, x) ⊥ u ou, equivalentemente,
(3.5.3) a1x1 + a2x2 + · · · + anxn = b com b = a1b1 + a2b2 + · · · + anbn = 〈u,w〉.
O conjunto H(p, u) é chamado de o hiperplano ortogonal a u contendo p. Observe que se u′ tem a
mesma direção de u, então H(p, u) = H(p, u′). Um vetor na direção de u é frequentemente chamado
de um vetor normal ao hiperplano H(p, u).
No caso em que n = 3, (3.5.3) se torna a equação geral do plano em R3 dada em (3.3.12) (este é o
motivo da escolha do termo hiperplano). Já no caso n = 2, temos a equação geral de uma reta como
em (3.3.5). Ou seja, o que acabamos de ver é que retas em R2 e planos em R3 podem ser descritos
por um vetor ortogonal ao invés de vetores diretores (além é claro de algum ponto neles contidos).
No caso de retas em R2 isso já apareceu implicitamente em nossa dedução de (3.3.2). Lembre que
fizemos a estranha escolha dos nomes das componentes do vetor diretor como sendo (b,−a) ao invés
da óbvia escolha (a, b). Na ocasião justificamos tal escolha para que (3.3.5) se escreve-se de maneira
mais “elegante”. Porém, o real motivo vem do fato que (3.3.5) fica melhorexplicada usando-se o
conceito de ortogonalidade. De fato, se o vetor diretor é v = (b,−a), tomando u = (a, b) temos v ⊥ u
e
R(p, v) = H(p, u).
Passemos então para o caso n = 3 e tentemos responder a seguinte pergunta. Dado um plano P
com vetores diretores v e w, como encontrar vetor não nulo u que seja ortogonal a v e w (e, conse-
quentemente, a todos os vetores da forma ϑ(x, y) com x, y ∈ P)? Uma vez encontado u2, teremos
P(p, v,w) = H(p, u)
1Se S = ∅, então S ⊥ = Rn. Por que?
2Tal vetor u é frequentemente chamado de um vetor normal ao plano P.
102
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
re podemos escrever a equação geral de P a partir de u facilmente como em (3.5.3). A resposta a estapergunta de fato já foi dada em (3.3.12). Relembrando, se v = (v1, v2, v3) e w = (w1,w2,w3), podemos
tomar u = (a1, a2, a3) com
a1 = v2w3 − v3w2, a2 = v3w1 − v1w3, a3 = v1w2 − v2w1.
Essa fórmula de fato dá origem a uma operção binária em R3 chamada de produto vetorial. Mais
precisamente, o produto vetorial de v com w é o vetor
(3.5.4) v × w = (v2w3 − v3w2, v3w1 − v1w3, v1w2 − v2w1).
Inserir desenho
Segue dos comentários que antecedem (3.3.12) que v × w = 0 se v e w tiverem a mesma direção.
Como a fórmula (3.5.4) é difícil de memorizar, é comum re-escreve-la como um “determinante”3:
(3.5.5) v × w = det
Ñe1 e2 e3v1 v2 v3
w1 w2 w3
é .
Observe que
v × w = −w × v
e que
e1 × e2 = e3, e2 × e3 = e1 e e3 × e1 = e2.
Deixaremos como exercício para o leitor mostrar que o produto vetorial é uma operação binária que
distribui sobre a soma de vetores.
Exemplo 3.5.2. Calculemos v × w para v = (1, 2, 0) e w = (−2, 1, 1). Usando (3.5.4) (ou (3.5.5)),
temos
v × w = ( 2 · 1 − 1 · 0 , 0 · (−2) − 1 · 1 , 1 · 1 − 2 · (−2) ) = (2,−1, 5).
Encontremos agora o plano que passa por p = (1,−2, 3) tendo {v,w} como conjunto diretor. Como
u = (2,−1, 5) é perpendicular a v e w, P é dado pela equação
2(x − 1) − (y + 2) + 5(z − 3) = 0 ou, equivalentemente, 2x − y + 5z = 19.
�
Dados dois hiperplanos H1 = H(p, u1) e H2(p, u2), defina
(3.5.6) ϕ(H1,H2) = |ϕ(u1, u2)|.
3De fato (3.3.12) veio de um determinante (sem aspas). É comum na literatura, especialmente em livros de física,
chamar os vetores e1, e2, e3 de i, j,k, respectivamente.
103
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rIsso dá origem ao conceito de ângulo entre dois hiperplanos. Em particular, se n = 2, temos uma novadefinição de ângulo entre retas. Verifiquemos que ela de fato coincide com a definição original dada
em (3.4.8). Sejam v1 = (a1, b1) e v2 = (a2, b2) vetores diretores das retas R1 e R2. Então, por (3.4.8),
temos
ϕ(R1,R2) = |ϕ(v1, v2)| =
|〈v1, v2〉|
‖v1‖ ‖v2‖
.
Já por (3.5.6) temos
ϕ(R1,R2) = |ϕ(u1, u2)| =
|〈u1, u2〉|
‖u1‖ ‖u2‖
,
sendo u1 ortogonal a v1 e u2 ortogonal a v2. Tomando u1 = (b1,−a1) e u2 = (b2,−a2), segue que
‖v1‖ = ‖u1‖, ‖v2‖ = ‖u2‖ e 〈v1, v2〉 = 〈u1, u2〉, mostrando que as duas contas de fato coincidem.
Exemplo 3.5.3. No caso n = 3, (3.5.6) dá origem ao conceito de ângulo entre planos que não havía-
mos definido anteriormente. Calculemos o ângulo entre os planos dos Exemplos 3.5.2 e 3.4.14: P1 é
dado por x + 2y − z = 4 e P2 por 2x − y + 5z = 19. Podemos usar u1 = (1, 2,−1) e u2 = (2,−1, 5).
Assim,
ϕ(P1, P2) = |ϕ(u1, u2)| =
|〈u1, u2〉|
‖u1‖ ‖u2‖
=
5
√
6
√
30
=
√
5
30
.
Inserir desenho
�
Continuando com n = 3, observe que se v é um vetor diretor para uma reta R e u é um vetor
normal para um plano P, então
(3.5.7) ϕ(R, P) =
√
1 − ϕ(u, v)2.
De fato, por (3.4.17), ϕ(R, P) = ϕ(v,PrP(v)). Como u ⊥ PrP(v) e v − PrP(v) é um vetor normal ao
plano P, segue que existe λ ∈ R tais que v = λu + PrP(v). Então, pelo Exercício 3.4.7, temos
ϕ(R, P)2 + ϕ(v, u)2 = 1.
Exemplo 3.5.4. Revisitemos o Exemplo 3.4.14, desta vez usando (3.5.7). Como o vetor u = (1, 2,−1)
é normal ao plano P, temos
ϕ(u, v) =
〈u, v〉
‖u‖ ‖v‖
=
3
√
6 · 5
.
Logo,
ϕ(R, P) =
…
1 −
3
10
=
√
7/10,
confirmando o que havíamos calculado anteriormente. �
Proposição 3.5.5. Para quaisquer v,w ∈ R3 \ {0}, temos
‖v × w‖ = ‖v‖ ‖w‖
√
1 − ϕ(v,w)2.
104
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rDemonstração. Como v × w = (v2w3 − v3w2, v3w1 − v1w3, v1w2 − v2w1), temos
‖v × w‖2 = (v2w3 − v3w2)2 + (v3w1 − v1w3)2 + (v1w2 − v2w1)2.
Por outro lado,Ä
‖v‖ ‖w‖
√
1 − ϕ(v,w)2
ä2
= ‖v‖2 ‖w‖2
Å
1 −
〈v,w〉2
‖v‖2 ‖w‖2
ã
= ‖v‖2 ‖w‖2 − 〈v,w〉2
= (v21 + v
2
2 + v
2
3) (w
2
1 + w
2
2 + w
2
3) − (v1w1 + v2w2 + v3w3)
2.
Agora, com alguma paciência, mostra-se que ambas as expressões coincidem.
Observação 3.5.6. Como visto na demonstração, a expressão para ‖v × w‖ desta proposição é equi-
valente a
‖v × w‖2 = ‖v‖2 ‖w‖2 − 〈v,w〉2.
Esta última expressão é válida mesmo quando v ou w são nulos. Porém, a versão dada pela proposição
tem a seguinte interpretação em termos do ângulo θ entre v e w medido em radianos. Como vimos na
Observação 3.4.6, temos ϕ(v,w) = cos(θ) e, portanto, a proposição pode ser re-escrita como
(3.5.8) ‖v × w‖ = ‖v‖ ‖w‖ sen(θ).
O lado direito é a expressão dada pela geometria plana clássica para a área de um paralelogramo cujas
arestas são determinadas pelos vetores v e w (ver os exercícios 3.4.10 e 3.5.5). Em particular, a área
de qualquer triângulo com dois lados determinados por v e w é dada por
(3.5.9)
‖v × w‖
2
=
1
2
‖v‖ (‖w‖ sen(θ)).
Veja que o lado direito é a famosa “metadade da base vezes altura” da geometria clássica. Inserir dois
desenhos (2 triângulos)
�
Exemplo 3.5.7. Calculemos a área do triângulo em R3 cujos vértices são x = (1, 1, 0), y = (0, 1, 1), z =
(1, 2, 2). Escolhamos os lados xy e xz para aplicar a discussão da observação anterior. Assim, consi-
deramos v = ϑ(x, y) = (−1, 0, 1) e w = ϑ(x, z) = (0, 1, 2) e temos
1
2
‖v × w‖ =
1
2
‖(−1, 2, 1)‖ =
√
6
2
.
�
Proposição 3.5.8. Dados u = (u1, u2, u3), v = (v1, v2, v3),w = (w1,w2,w3) ∈ R3, temos
〈u, v × w〉 = det
Ñu1 u2 u3v1 v2 v3
w1 w2 w3
é .
105
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rDemonstração. Segue da definição de produto interno e de (3.5.4) que
〈u, v × w〉 = u1(v2w3 − v3w2) + u2(v3w1 − v1w3) + u3(v1w2 − v2w1)
que é exatamanete a definição do determinante da matriz no enunciado (desenvolvimento pela pri-
meira linha).
Observação 3.5.9. Se θ for o ângulo entre u e v×w medido em radianos. Como vimos na Observação
3.4.6, temos ϕ(u, v × w) = cos(θ). Segue então da definição de ϕ que
〈u, v × w〉 = ‖v × w‖ ‖u‖ cos(θ).
Da geometria euclidiana clássica, ‖u‖ | cos(θ)| é a altura do paralelepípedo que tem o paralelogramo
definido por v e w como base e as outras arestas são paralelas a u e tem comprimentos iguais a ‖u‖.
Inserir dois desenhos (um para cada sentido de v ⊗ w)
O volume do paralelepípedo é dado pela área de sua base (que é igual a ‖v×w‖ pela Observação 3.5.6)
multiplicado pela sua altura. Ou seja, o número |〈u, v×w〉| é o volume do paralelepípedo determinado
pelos vetores u, v,w. A fórmula da geometria clássica para o volume do paralelepípedo pode ser
deduzida de maneira semelhante à da área do paralelogramo (ver exercício 3.5.5 abaixo). O número
〈u, v × w〉 é frequentemente chamado de produto misto de u, v,w. �
Exercícios
3.5.1. Encontre S ⊥ nos seguintes casos:
(a) S = {e1, e2} ⊆ R3.
(b) S = P(0, e1, e2) ⊆ R3.
(c) S = {v,w} com v = (1, 0, 2),w = (1,−1, 0).
(d) S é um plano em R3 tendo {v,w} do exemplo anterior como conjunto diretor.
(e) S é o plano dado por 2x − z = 0.
(f) S = {v,w} com v = (1, 0, 2,−1),w = (0, 1,−1, 0). Mostre que S ⊥ é um plano em R4.
3.5.2. Calcule a medida ϕ(H1,H2) do ângulo entre os seguintes hiperplanos de Rn.
(a) H1 = H(p1, u1),H1 = H(p1, u1) com u1 = (2, 1) e u2 = (−3, 2).
(b) H1 = H(p1, u1),H1 = H(p1, u1) com u1 = (−2, 2, 1) e u2 = (0,−3, 2).(c) H1 é o conjunto solução de 2x − y + z = 2 e H2 é o conjunto solução de 3y − 2z = 200 em
R3.
(d) H1 é o conjunto solução de 2x1− x2 + x4 = 2 e H2 é o conjunto solução de 3x2−2x3 = 200
em R4.
106
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(e) H1 é o conjunto solução de 2x2 − x3 + x4 = 2 e H2 = H(p, u) com u = (0,−1, 2,−3).(f) Invente exemplos de H1 e H2.
3.5.3. Calcule o ângulo entre as reta R e os planos P do R3 dados a seguir.
(a) R é dada por x − 1 = y + 2 = 2z e P por 2x − y + z = 1.
(b) R é dada por z = 2y − 1, x = 1 e P por x + 2y = 0.
(c) R = R(p, v) e P = P(q,w1,w2) com v = (1, 0, 2),w1 = (1,−1, 0),w2 = (1,−1, 1).
3.5.4. Mostre que, para qualquer subconjunto S de Rn, o conjunto S ⊥ contém o vetor nulo, é fechado
pela soma de vetores e invariante pela ação de R.
3.5.5. Um retângulo é um paralelogramo cujas arestas formam ângulos retos. Se as arestas de um
retângulo têm comprimentos iguais a a e b, define-se a área da região delimitada por um re-
tângulo por a · b. A partir desta definição, pode-se deduzir o valor das áreas de várias outras
regiões impondo-se o princípio que, se uma região é formada pela união de duas cuja interseção
é ou vazia, ou um ponto ou um segmento de reta, então, a área da região original é a soma das
áreas das regiões menores (é assim que (3.5.9) foi é deduzida a partir de (3.5.8)). A partir deste
princípio, deduza (3.5.8) a partir da definição da área de um retângulo.
3.5.6. Calcule a área do paralelogramo determinado pelos seguintes vetores:
(a) v = (1,−1, 0),w = (1, 1, 2).
(b) v = (1, 2,−1),w = (1, 1, 2).
(c) v = (0, 3,−1),w = (−1, 0, 2).
3.5.7. Calcule as áreas dos triângulos que tem dois de seus lados determinados pelos vetores v e w
dados em cada item do exercício anterior.
3.5.8. Para cada par de vetores {v,w} do exercício 3.5.6, encontre equação para o plano que passa por
p = (1,−2, 3) tendo {v,w} como conjunto diretor.
3.5.9. Calcule os ângulos entre os planos do exercício anterior.
3.5.10. Mostre que o produto vetorial em R3 é uma operação binária que distribui sobre a soma de
vetores. Além disso, verifique que ela não possui elemento neutro nem é associativa.
3.5.11. Mostre que a ação de R em R3 comuta com o produto vetorial, isto é, para todo λ ∈ R, v,w ∈ R3,
valem λ(v × w) = (λv) × w = v × (λw).
3.5.12. Calcule o volume dos paralelepípedos cujas arestas são determinadas pelos vetores:
(a) u = (0, 1,−2), v = (1,−1, 0),w = (1, 1, 2).
(b) u = (1, 2,−1), v = (0,−1, 2),w = (1, 1, 2).
(c) u = (0, 3,−1), v = (−1, 0, 2),w = (1, 2,−1).
3.5.13. A Observação 3.5.9 nos fornece um novo método para determinar a coplanaridade de pontos
em R3. Refaça os quatro primeiros itens do exercício 3.2.20 usando este método.
107
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r3.5.14. Dados u, v,w ∈ R3, mostre que 〈u, v × w〉 = 〈v,w × u〉 = 〈w, u × v〉 = −〈v, u × w〉.3.5.15. Determine se as seguintes afirmações são verdadeiras ou falsas.
(a) Para quaisquer v,w ∈ R3, vale 〈v,∧〉2 + ‖v × w‖2 = ‖v‖2
|w‖2.
(b) Se u, v,w ∈ R3 são não nulos e u × v = u × w = 0, então v × w = 0.
3.5.16. Mostre que, se {w1,w2} é um conjunto diretor para um plano P em R3, existe uma família
u1, u2, u3 de vetores unitários e mutuamente ortogonais de modo que u1 tenha a mesma direção
que w1 e {u1, u2} seja conjunto diretor para P. O que se pode concluir juntando-se este exercício
com os exercícios 3.2.22 e 3.4.5?
3.5.17. Suponha que S seja uma reta ou um plano e relembre a definição de reflexão ortogonal definida
no exercício (3.4.22). Mostre que ReS (v) = 0 ⇔ v ∈ S ⊥.
3.6. Distâncias
Dados dois pontos x, y ∈ Rn, a distância entre x e y é definida por
(3.6.1) d(x, y) = ‖ϑ(x, y)‖ =
√
(x1 − y1)2 + (x2 − y2)2 + · · · + (xn − yn)2.
Em particular, d(x, y) > 0 se y , x e d(x, y) = d(y, x). Além disso, temos a seguinte consequência da
Desigualdade Triangular (parte (iii) da Proposição 3.4.4):
(3.6.2) d(x, z) ≤ d(x, y) + d(y, z) para quaisquer x, y, z ∈ Rn.
De fato,
d(x, z) = ‖ϑ(x, z)‖ = ‖ϑ(x, y) + ϑ(y, z)‖ ≤ ‖ϑ(x, y)‖ + ‖ϑ(y, z)‖ = d(x, y) + d(y, z).
Dados dois subconjuntos não vazios S 1 e S 2 de Rn, considere o conjunto
D = {d(x, y) : x ∈ S 1, y ∈ S 2} ⊆ R≥0.
Uma das propriedades fundamentais do conjunto dos números reais é que qualquer subconjunto não
vazio limitado inferiormente possui uma maior cota inferior, chamada de o ínfimo do conjunto (ver
seção 1.7). Assim, como D é não vazio e limitado inferiormente (pois 0 é uma cota inferior), define-se
d(S 1, S 2) = inf D.
Estaremos interessados nos casos em que S 1 e S 2 consistem de um único ponto, ou de retas ou planos.
Veremos que, nestes casos, existem x ∈ S 1 e y ∈ S 2 tais que d(S 1, S 2) = d(x, y). Ou seja, vale
(3.6.3) d(S 1, S 2) = min {d(x, y) : x ∈ S 1, y ∈ S 2}.
108
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rComecemos com o caso em que S 1 contém apenas um ponto x e S 2 é uma reta ou um plano. Sex ∈ S 2, então d(x, S 2) = 0. Caso contrário, fixe um ponto p ∈ S 2 qualquer e considere o ponto y ∈ S 2
determinado pela equação
ϑ(y, p) = PrS 2(ϑ(x, p))
assim como o vetor
u = ϑ(x, p) − PrS 2(ϑ(x, p)).
Em particular,
ϑ(x, y) = u.
Como vimos no final da Seção 3.4, u é perpendicular a qualquer vetor que define direção paralela a
S 2. Por isso, o ponto y é chamado de a projeção ortogonal de x em S 2. Inserir desenho
Mostremos que
(3.6.4) d(x, S 2) = ‖u‖.
De fato, se q é qualquer ponto de S 2, temos
ϑ(x, q) = u + ϑ(y, q) e u ⊥ ϑ(y, q).
Assim, segue do Teorema de Pitágoras que
‖ϑ(x, q)‖2 = ‖u‖2 + ‖ϑ(q, y)‖2.
Portanto, d(x, y) = ‖u‖ ≤ d(x, q), e (3.6.4) fica demonstrada.
Apesar de (3.6.4) nos dar uma maneira de calcular distâncias entre um ponto e uma reta ou um
plano em Rn, às vezes a situação específica pode nos fornecer um vetor na direção de u sem termos que
calcular u precisamente. Vejamos que saber a direção de u é suficiente para calcularmos a distância
sem termos que de fato calcular u ou, equivalentemente, o ponto y. De fato, suponha que w seja um
vetor com a mesma direção de u e seja R uma reta qualquer tendo w (ou u) como vetor diretor (e,
portanto, paralela à reta determinada por x e y). Observe que
PrR(ϑ(x, p)) =
〈ϑ(x, p) , w〉
‖w‖2
w =
〈ϑ(x, p) , u〉
‖u‖2
u =
〈u + ϑ(y, p) , u〉
‖u‖2
u = u.
Logo, concluímos que
(3.6.5) d(x, S 2) = ‖PrR(ϑ(x, p))‖.
Vejamos duas situações em que a direção de u é fácil de ser inferida sem calcular u. Suponha primeiro
que n = 2, x = (x0, y0) e S 2 é a reta dada pela equação a(x − x1) + b(y − y1) = 0. Em particular,
p = (x1, y1) ∈ S 2 e o vetor w = (a, b) é perpendicular à direção de S 2. Portanto,
PrR(ϑ(x, p)) =
〈ϑ(x, p),w〉
‖w‖2
w =
a(x1 − x0) + b(y1 − y0)
a2 + b2
w.
109
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rEm combinação com (3.6.5) isso mostra que
(3.6.6) d(x, S 2) =
|a(x1 − x0) + b(y1 − y0)|
√
a2 + b2
.
Analogamente, se n = 3, x = (x0, y0, z0) e S 2 é o plano dado pela equação
a(x − x1) + b(y − y1) + c(z − z1) = 0,
então p = (x1, y1, z1) ∈ S 2 e w = (a, b, c) determina uma direção ortogonal a S 2. Desta vez chegamos
à conclusão que
(3.6.7) d(x, S 2) =
|a(x1 − x0) + b(y1 − y0) + c(z1 − z0)|
√
a2 + b2 + c2
.
Exemplo 3.6.1. Calculemos a distância do ponto x = (2, 3) à reta S dada por y = −2x + 1. Equiva-
lentemente, S também é dada pela equação 2x + (y − 1) = 0. Substituindo os parâmetros em (3.6.6),
temos
d(x, S ) =
|2(0 − 2) + (1 − 3)|
√
22 + 12
=
6
√
5
.
Apesar de já termos calculado a distância, para ilustrar toda a teoria desenvolvida acima, encontremos
o vetor u e o ponto y. Precisamos calcular PrS (ϑ(x, p)) e, portanto, precisamos de um vetor diretor
para S . Por exemplo, podemos usar v = (1,−2). Assim,
PrS (ϑ(x, p)) =
〈ϑ(x, p), v〉
‖v‖2
v =
〈(−2,−2), (1,−2)〉5
v =
2
5
v
e
u = ϑ(x, p) − PrS 2(ϑ(x, p)) = (−2,−2) −
2
5
(1,−2) = −
6
5
(2, 1).
Utilizando (3.6.4) temos
d(x, S ) = ‖u‖ =
6
√
5
,
como esperado. Além disso, ϑ(y) = ϑ(x) + u e, portanto,
y = (−2/5, 9/5).
Observe que de fato y ∈ S ! �
Exemplo 3.6.2. Calculemos a distância entre x = (1, 0, 1) e o plano P dado pela equação x+2y−z = 4.
Como p = (4, 0, 0) ∈ P, usando (3.6.7) temos
d(x, P) =
|(4 − 1) + 2(0 − 0) − (0 − 1)|√
12 + 22 + (−1)2
=
4
√
6
.
Deixamos de exercício para o leitor encontrar u e y. �
110
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rNo caso em que n = 3 e S 2 é uma reta, digamos S 2 = R(p, v), é possível mostrar que
(3.6.8) d(x, S 2) =
‖ϑ(x, p) × v‖
‖v‖
.
Deixamos a demonstração desta fórmula como exercício para o leitor (compare com a Observação
3.5.6).
Exemplo 3.6.3. Calculemos a distância entre x = (1, 0, 1) e a reta S dada por x − 1 = 2(y + 2), z = 2.
Como p = (1,−2, 2) ∈ S e v = (2, 1, 0) é um vetor diretor para S , temos ϑ(x, p) = (0,−2, 1) e segue
de (3.6.8) que
d(x, S ) =
‖(0,−2, 1) × (2, 1, 0)‖
√
5
=
‖(−1, 2, 4)‖
√
5
=
√
21
√
5
=
√
21/5.
Vamos resolver usando (3.6.4) diretamente também. Temos
PrS (ϑ(x, p)) =
〈ϑ(x, p), v〉
‖v‖2
v =
−2
5
v e, portanto, u = ϑ(x, p) +
2
5
v =
1
5
(4,−8, 5).
Logo,
d(x, S ) = ‖u‖ =
√
21/5.
Além disso, y = (9/5,−8/5, 2). Vamos agora encontrar o vetor u de outra maneira, utilizando equa-
ções paramétricas para S :
S = {p(t) = (1 + 2t,−2 + t, 2) : t ∈ R}.
Para cada t ∈ R, considere o vetor
u(t) = ϑ(x, p(t)) = (2t,−2 + t, 1).
desenho
Então, precisamos encontrar t ∈ R tal que u(t) ⊥ v. Ou seja, queremos resolver a equação 〈u(t), v〉 = 0
que é o mesmo que
4t + (−2 + t) = 0 e, portanto, t = 2/5 e u = u(2/5) =
1
5
(4,−8, 5).
Sugerimos a o leitor encontrar uma maneira diferente de resolver o Exemplo 3.6.2 utilizando este
mesmo tipo de ideia. �
Consideremos agora o caso em que S 1 e S 2 são retas ou planos paralelos (incluindo a situação de
uma reta e um plano). Suponha, sem perda de generalidade, que se pelo menos um dos dois conjuntos
for uma reta, então S 1 é uma reta. Sob esta hipótese, mostraremos que
(3.6.9) d(x, S 2) = d(x′, S 2) para quaisquer x, x′ ∈ S 1,
111
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
re, portanto,(3.6.10) d(S 1, S 2) = d(x, S 2) para qualquer x ∈ S 1,
o que nos permite calcular distâncias nestas situações como nos casos anteriores. Para provar (3.6.9),
fixe p ∈ S 2 e defina y, y′ e u, u′ como antes. Mais precisamente, y, y′ ∈ S 2 são determinados por
ϑ(y, p) = PrS 2(ϑ(x, p)), ϑ(y
′, p) = PrS 2(ϑ(x
′, p)),
enquanto
u = ϑ(x, p) − PrS 2(ϑ(x, p)) e u
′ = ϑ(x′, p) − PrS 2(ϑ(x
′, p)).
Inserir desenho
Assim,
u − u′ = ϑ(x, p) − PrS 2(ϑ(x, p)) − ϑ(x
′, p) + PrS 2(ϑ(x
′, p))
= ϑ(x, x′) − PrS 2(ϑ(x, p)) + PrS 2(ϑ(x
′, p)).
Como S 1 é paralelo a S 2, ϑ(x, x′) define direção paralela a S 21. Portanto, ϑ(x, x′) é perpendicular a u
e a u′ e, então,
‖u − u′‖ = 〈u − u′ , ϑ(x, x′) − PrS 2(ϑ(x, p)) + PrS 2(ϑ(x
′, p)) 〉 = 0.
Logo u = u′ e, como d(x, S 2) = ‖u‖ e d(x′, S 2) = ‖u′‖ por (3.6.4), concluímos (3.6.9).
Exemplo 3.6.4. Calculemos a distância entre as retas R1 = R(x, v) e R2 = R(p, v) com x = (0, 1,−1,−1), p =
(2, 1, 0,−1) e v = (2, 0,−1, 2). Temos ϑ(x, p) = (2, 0, 1, 0),
PrR2(ϑ(x, p)) =
〈ϑ(x, p), v〉
‖v‖2
v =
4 − 1
9
v =
1
3
v,
e
u = ϑ(x, p) − PrR2(ϑ(x, p)) =
1
3
(4, 0, 4,−2).
Assim,
d(R1,R2) = ‖u‖ = 2.
�
Exemplo 3.6.5. Calculemos a distância entre a reta S dada por x − z = −3, y = 1, e o plano P dado
pela equação x + 2y − z = 4. Vimos no Exemplo 3.3.4 que os vetores v1 = (−2, 1, 0) e v2 = (1, 0, 1)
formam um conjunto diretor para P. Como v2 também é vetor diretor para S , vemos que S e P são
paralelos. Também temos x = (0, 1, 3) ∈ S e p = (4, 0, 0) ∈ P. Para aplicar (3.6.4), precisaríamos
1Veja que se S 1 fosse um plano e S 2 uma reta isto poderia ser falso! Este é motivo da hipótese feita anteriormente. De
fato, (3.6.9) é falsa neste caso e o leitor está convidado a fornecer um contra-exemplo.
112
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rcalcular PrP(ϑ(x, p)) primeiro. Porém, (3.6.5) pode ser usada de maneira mais rápida neste caso poisa direção da reta R que nela aparece é a direção de um vetor normal a P e tal direção é dada por
w = (1, 2,−1). Assim,
PrR(ϑ(x, p)) =
〈ϑ(x, p),w〉
‖w‖2
w =
5
6
w,
e (3.6.5) nos dá
d(S , P) = ‖PrR(ϑ(x, p))‖ =
5
√
6
.
�
Exemplo 3.6.6. Calculemos a distância entre os planos P1 dado pela equação x + 2y − z = 4 e
P2 = (x, v,w) com x = (0, 1, 1), v = (−2, 1, 0),w = (1, 0, 1). Como visto no exemplo anterior, v e w
formam um conjunto diretor para P1, mostrando que P1 e P2 são paralelos. Como p = (4, 0, 0) ∈ P1 e
P2 é dado por x + 2y − z = 1 (pois tem o mesmo vetor normal de P1 e x ∈ P2), basta aplicar (3.6.7):
d(p, P2) =
|(0 − 4) + 2(1 − 0) − (1 − 0)|√
12 + 22 + (−1)2
=
3
√
6
=
√
6
2
.
�
Finalmente, consideremos o caso em que S 1 e S 2 são retas não paralelas. Como visto no exercício
3.2.8, existem planos paralelos P1 e P2 com S 1 ⊆ P1 e S 2 ⊆ P2. Em particular, d(S 1, S 2) ≥ d(P1, P2).
Se S 1 e S 2 forem concorrentes, a distância é zero e P1 = P2. De qualquer maneira, mesmo que S 1 e
S 2 sejam reversas, mostraremos que
(3.6.11) d(S 1, S 2) = d(P1, P2).
Antes de demonstrar a veracidade deste fato, vejamos um exemplo.
Exemplo 3.6.7. Calculemos a distância entre as retas S 1 = R(p, v) e S 2 = R(x,w) com x, p, v,w
como no Exemplo anterior. Neste caso, os planos P1 e P2 do exemplo anterior são planos paralelos
contendo S 1 e S 2, que, portanto, são retas reversas. Segue de (3.6.11) e do exemplo anterior que
d(S 1, S 2) =
√
6/2. �
Para mostrar a validade de (3.6.11), já que d(S 1, S 2) ≥ d(P1, P2), basta mostrar que existem
p1 ∈ S 1, p2 ∈ S 2 tais que
d(p1, p2) = d(P1, P2).
Para encontrar estes pontos, considere a reta R ⊆ P2 obtida por projeção ortogonal de cada ponto
de S 1 em P2. Segue que R é concorrente a S 2 (pois duas retas não paralelas contidas num plano se
intersectam, como visto no exercício 3.2.6). Seja p2 o ponto de interseção de R com S 2. Por definição
de R, o ponto p1 que é a projeção ortogonal de p2 em P1 está em S 1.
r
p2
r
p1
��
�
��
�� S 2
S 1
R
Por construção, se u = ϑ(p1, p2), então u é perpendicular a P1 e P2 e d(P1, P2) = ‖u‖ = d(p1, p2),
como queríamos. A reta determinada por p1 e p2 é chamada de o eixo de S 1 e S 2.
113
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 3.6.8. Encontremos os pontos p1 e p2 no caso do exemplo anterior. Observe que a direçãodo eixo é a direção normal aos planos P1 eP2 e, portanto, é a mesma direção do vetor u′ = (1, 2,−1).
Comecemos encontrando a projeção ortogonal de p em P2 que é dado pela interseção R(p, u′) ∩ P2.
Um conjunto de equações lineares para R(p, u′) é
x − 4 =
y
2
= −z.
Como vimos no Exemplo 3.6.6, P2 é dado por x + 2y − z = 1. Substituindo y = 2(x − 4), z = −(x − 4)
na equação de P2 concluímos que
q = (7/2,−1, 1/2) ∈ R(p, u′) ∩ P2.
Assim, a reta R do argumento acima é R = R(q, v) que é determinada pelas seguintes equações lineares
x − 7/2
−2
= y + 1, z = 1/2.
Já S 2 é dada por
x = z − 1, y = 1.
Portanto, como p2 é o ponto da interseção R∩ S 2, temos p2 = (−1/2, 1, 1/2). Logo, o eixo de S 1 e S 2
é a reta R(p2, u′) que é determinada por
2x + 1 = y − 1 = −(2z − 1).
Finalmente, p1 é a interseção desta reta com P1: p1 = (0, 2, 0). Veja que u = ϑ(p1, p2) = 12 (−1,−2, 1)
e, assim,
d(S 1, S 2) = ‖u‖ =
√
6/2,
confirmando o que calculamos no exemplo anterior.
Resolvamos este exemplo de mais uma maneira. Utilizando equações paramétricas para S 1 e S 2:
p1(t) = (4 − 2t, t, 0), t ∈ R, p2(s) = (s, 1, 1 + s), s ∈ R.
Considere o vetor
ϑ(s, t) = ϑ(p1(t), p2(s)) = (s+ 2t − 4, 1 − t, 1 + s).
Pela teoria que vimos, sabemos que existe único valor para o par (s, t) de modo que ϑ(s, t) = u. Isso
nos dá o sistema linear: 
s + 2t − 4 = −1/2,
1 − t = −1,
1 + s = 1/2.
Portanto, s = −1/2, t = 2 o que nos dá p1 = p1(2) = (0, 2, 0) e p2 = p2(−1/2) = (−1/2, 1, 1/2). O
leitor atento deve estar reclamando pois, para montarmos o sistema acima utilizamos que já sabemos
o vetor u que foi calculado encontrando p1 e p2, tornando o argumento circular. Ou seja, não fizemos
uma solução realmente alternativa. Para corrigir isso e utilizar o mesmo tipo de racicínio sem calcular
u, basta consultar a teoria acima novamente e ver que u = ϑ(s, t) para o único valor do par (s, t) tal
que
ϑ(s, t) ⊥ v e ϑ(s, t) ⊥ w
114
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rOu seja, temos que considerar o sistema:®
−2(s + 2t − 4) + (1 − t) + 0(1 + s) = 0,
(s + 2t − 4) + 0(1 − t) + (1 + s) = 0.
Novamente encontramos s = −1/2, t = 2 e, desta vez, os usamos para primeiro calcular u (de onde
podemos calcular a distância), e depois encontrar p1 e p2. �
Apêndice: Outras Noções de Distância
Exercícios
3.6.1. Encontre os pontos da reta R = R(p, v) com p = (0, 2,−2) e v = (1,−1, 2) que distam
√
3 de
x = (0, 2, 1). Calcule também d(x,R).
3.6.2. Encontre o ponto da reta R = R(p, v) com p = (1, 0, 0) e v = (1, 1, 1) que é equidistante dos
pontos x = (1, 1, 1) e y = (0, 0, 1). Calcule também d(x,R), d(y,R) e as projeções ortogonais de
x e y em R.
3.6.3. Encontre todos os pontos de R3 que são equidistantes dos pontos x = (1,−1, 2) e y = (4, 3, 1) e
mostre que este conjunto é um plano P. Calcule também d(x, P), d(y, P) e as projeções ortogo-
nais de x e y em P.
3.6.4. Encontre os planos em R3 que têm u = (1, 1, 1) como vetor normal e que distam 1 do ponto
(1, 0,−1). Encontre a projeção ortogonal do ponto (1, 2, 0) nestes planos.
3.6.5. Encontre a distância da origem ao plano que contém os pontos (0, 0, 1), (1, 0, 1), (1, 1, 0).
3.6.6. Demonstre (3.6.8).
3.6.7. Encontre a distância entre as seguintes retas e planos:
(a) P é dado por x + y + z = 0 e R = R(x, v) com x = (1, 0, 1) e v = (1,−1, 0).
(b) P = P(x,w1,w2) e R = R(y, v) com x = (1, 1, 0,−1), y = (2, 0,−1, 0), v = (3, 1,−1, 1),w1 =
(1, 2,−1, 0),w2 = (2,−1, 0, 1).
(c) P1 e P2 dados por x + 2y − 2z = 3 e 2x + 4y − 4z = 7, respectivamente.
(d) R1 é dada por x−14 = −
y+1
2 = −
z−2
6 e R2 = R(x, v) com x = (1, 0, 2) e v = (2,−1,−3).
(e) R1 é dada por x+13 =
y−1
2 = z e R2 = R(x, v) com x = (0, 0, 1) e v = (1, 2,−1).
(f) R1 é dada por
{
x = 3+2t
y = −1−t
z = 3+t
, t ∈ R, e R2 é dada por x − 1 = y−4−3 =
z−3
−2 .
(g) R1 é dada por
{
x = 1+t
y = 2+t
z = −t
e R2 por x − 2 =
y−5
3 =
1−z
2 .
3.6.8. Para os 4 últimos itens do exercício anterior, encontre o eixo das retas reversas dadas e os pontos
de interseção do eixo com ambas as retas.
115
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r3.6.9. Para cada item do exercício anterior, encontre as equações das translações dos correspondentesconjuntos por p = (1,−2, 1). Calcule também as distâncias dos dois novos conjuntos a ambos
os conjuntos originais de cada item.
3.6.10. Mostre que a distância entre os planos P1 e P2 dados por ax + by + cz = d e ax + by + cz = e,
respectivamente, é
d(P1, P2) =
|d − e|
√
a2 + b2 + c2
.
3.6.11. Dadas retas reversas R1 e R2 em Rn, mostre que, para quaisquer p1 ∈ R1, p2 ∈ R2, valem:
(a) d(R1,R2) = ‖PrR(ϑ(p1, p2))‖ sendo R uma reta paralela ao eixo de R1 e R2.
(b) Se n = 3, v1 é vetor diretor de R1 e v2 é vetor diretor de R2, então
d(R1,R2) =
|〈ϑ(p1, p2), v1 × v2〉|
‖v1 × v2‖
.
(c) Refaça os itens do exercício 3.6.7 referentes a retas reversas utilizando algum ou ambos os
itens anteriores.
116
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r4. Soluções de Equações Quadráticas,Curvas e Superfícies
No Capítulo anterior estudamos subconjuntos dos espaços cartesianos que são o conjunto solução de
sistemas de equações lineares, i.e., equações polinomiais de grau 1. Em particular, caracterizamos
todos estes conjuntos no plano e no espaço euclideano. Estudaremos agora conjuntos soluções de
equações polinomiais de grau 2 em duas e três variáveis.
Veremos que toda equação polinomial de grau 2 em duas variáveis tem um dos seguintes tipos de
conjunto solução quando não é vazio: circunferência, elipse, hipérbole, parábola, par de retas para-
lelas, par de retas concorrentes, uma reta, um ponto. Os quatro tipos de curvas que iniciaram a lista
são muito importantes em áreas da física e engenharia. Por exemplo, órbitas de planetas são elipses,
hipérboles são usadas para fabricar espelhos para telescópios e máquinas fotográficas, parábolas são
usadas para fabricar antenas receptoras e circunferências dispensam apresentação! Todas essas curvas
podem ser caracterizadas por uma propriedade sobre as distâncias de seus pontos a um certo conjunto
de pontos fixado. Por exemplo, circunferências são conjuntos de pontos equidistantes de um ponto
dado.
A partir do estudo de circunferências, introduziremos a medida de ângulos em radianos e o con-
ceito de coordenadas polares que, por sua vez, dá origem ao conceito de coordenadas cilíndricas no
espaço euclideano. Depois de classificar os conjuntos soluções das equações quadráticas em duas
variáveis como mencionado acima, passaremos a estudar exemplos de superfícies que podem ser
construídas a partir destas curvas tais como cilindros, cones, elipsoides (incluindo esferas), hiperbo-
loides e paraboloides. São estas superfícies que são usadas para fabricar espelhos para telescópios
ou antenas e não as hipérboles e parábolas como dito no parágrafo anterior. O estudo destes exem-
plos culminará na classificação os conjuntos soluções das equações quadráticas em três variáveis. Os
conceitos de rotações e translações em R2 e R3 serão ferramentas fundamentais para atingir estes
objetivos. Finalizaremos o capítulo discutindo o conceito de parametrização de curvas, superfícies e
sólidos via vários exemplos que são fundamentais para o estudo do cálculo diferencial integral relaci-
onado a estas curvas e superfícies que estudamos aqui. Em particular, além das coordenadas polares e
cilíndricas já mencionadas, as chamadas coordenadas esféricas também serão importantes no estudo
de parametrizações.
4.1. Circunferências, Radianos, Coordenadas Polares e Rotações
Dados um ponto p = (x0, y0) ∈ R2 e r ∈ R>0, a circunferência de raio r centrada em p é o subconjunto
C(p, r) = {x ∈ R2 : d(x, p) = r}.
Duas circunferências são ditas concêntricas se possuírem o mesmo centro. Segue imediatamente da
definição de distância entre pontos que
(4.1.1) (x, y) ∈ C(p, r) ⇔ (x − x0)2 + (y − y0)2 = r2.
Esta equação pode ser re-escrita como
x2 + y2 + ax + by + c = 0 com a = −2x0, b = −2y0, c = x20 + y
2
0 − r
2.
117
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rA partir dessa forma, a seguinte proposição é facilmente deduzida.
Proposição 4.1.1. Dados a, b, c ∈ R, o conjunto solução da equação x2 + y2 + ax + by + c = 0 é
uma circunferência se, e somente se, a2 + b2 > 4c. Neste caso, o conjunto solução é C(p, r) com
p = (−a/2,−b/2) e r =
»
a2+b2
4 − c. Se a
2 + b2 = 4c, p é o único ponto do conjunto solução e, se
a2 + b2 < 4c, a equação não possui solução.
Daremos agora a definição da noção de arco circular. Dadas uma circunferência, digamos C =
C(p, r), e duas semi-retas distintas a partir de p, sejam x e y os pontos de interseção de C com cada
uma das semi-retas. Suponha primeiro que tais semi-retas tenham direções distintas. Neste caso, o
arco-circular por elas determinado na circunferência C é a interseção de C com a região convexa por
elas determinada, isto é, a região do planoque intersecta o seguimento de reta xy (compare com o
Exercício 3.2.21 e a Observação 3.4.10).
p x
y
Denotaremos tal arco por Ùxy o correspondente arco. Se as semi-retas têm mesma direção, sua união
forma uma reta que divide o plano em duas regiões convexas. Neste caso, denotaremos por Ùxy a
interseção de C com qualquer uma das duas regiões. Inserir desenho
O comprimento de um arco circular pode ser definido por um processo de aproximação (limite)
por união de segmentos de retas cujas extremidades são pontos do arco dado. Inserir desenho
A existência deste limite, que será denotado aqui por ‖Ùxy‖ é mostrada em textos sobre cálculo di-
ferencial e integral e pode então ser calculado utilizado-se uma integral1. Não precisaremos fazer
contas com integrais aqui. Apenas de algumas consequências desse tipo de cálculo. Por exemplo,
pode-se mostrar que, se o arco A1 está definido pela interseção de uma circunferência de raio r1 com
semi-retas S 1 e S ′1 enquanto o arco A2 está definido pela interseção de uma circunferência de raio r2
1Essa conta é feita com uma parametrização da circunferência, tipicamente a dada por (4.1.11) abaixo. Porém, como
estamos definindo ângulo, ainda não podemos usar parametrizações em termos de ângulo! Em particular, não podemos
usar (4.1.11) para mostrar (4.1.2) e (4.1.4) pois isso daria origem a um argumento circular. Pode-se usar parametrizações
com raízes quadradas a partir de (4.1.1). Uma vez demonstrado (4.1.2) e (4.1.4), estamos livres para fazer contas usando
(4.1.11).
118
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rcom semi-retas S 2 e S ′2 e ϕ(S 1, S ′1) = ϕ(S 2, S ′2), então
(4.1.2)
‖A1‖
r1
=
‖A2‖
r2
.
Estamos prontos para definir a medida de ângulo em radianos, i.e., em termos de comprimentos de
arcos circulares. Dados os vetores não nulos v,w ∈ R2, sejam S e S ′ semi-retas a partir da origem no
sentido de v e w, respectivamente, e seja A o arco circular por elas determinado em uma circunferência
de raio 1 centrada na origem2. Então, definimos
(4.1.3) θ(v,w) = ‖A‖.
Este número é chamado de a medida do ângulo entre v e w em radianos. Em particular, θ(v, v) = 0.
Usando-se a definição de comprimento de arco por integrais, pode-se mostrar que, se v,w, v′,w′ forem
não nulos, então
(4.1.4) θ(v,w) = θ(v′,w′) ⇔ ϕ(v,w) = ϕ(v′,w′).
Portanto, o número θ(v,−v) independe do vetor (não nulo) v e seu valor foi nomeado π3. Note que
θ(v,−v) é o máximo valor que θ pode ter pois as duas semi-retas dividem a circunferência em dois
arcos idênticos. Logo,
0 ≤ θ(v,w) ≤ π
e
(4.1.5) ϕ(v,w) = 0 ⇔ θ(v,w) =
π
2
,
já que θ(v,w) = θ(w,−v) por (4.1.4) e θ(v,w) + θ(w,−v) = θ(v,−v) (esta segunda igualdade segue das
propriedades aditivas de integrais).Inserir desenho
Além disso, (4.1.4) também nos diz que temos uma função bem definida
[0, π]→ [−1, 1], θ 7→ cos(θ)
determinada por cos(θ) = ϕ(v,w) se θ = θ(v,w). Substituindo em (3.4.5), temos
(4.1.6) 〈v,w〉 = ‖v‖ ‖w‖ cos(θ(v,w)).
Além disso, se R = R(0,w), então (3.4.10) pode ser re-escrita como
PrR(v) = ‖v‖ cos(θ(v,w))
w
‖w‖
,
2Se v = w, o arco consiste de um ponto só.
3O número πmarcou um dos primeiros encontros da humanidade com os chamados números transcendentes e continua
sendo objeto de fascínio.
119
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
re, portanto,(4.1.7) ‖PrR(v)‖ = ‖v‖ | cos(θ(v,w))|.
Inserir 2 desenhos
Defina
sen(θ) =
√
1 − cos(θ)2, θ ∈ [0, π].
Então, se u é não nulo e u ⊥ w, temos
(4.1.8) v = PrR(v) + PrR⊥(v)
e segue do Teorema de Pitágoras que4
sen(θ(v,w)) = | cos(θ(v, u))|.
Portanto,
(4.1.9) PrR⊥(v) = ±‖v‖ sen(θ(v,w))
u
‖u‖
e ‖PrR⊥(v)‖ = ‖v‖ sen(θ(v,w)),
com o sinal sendo o mesmo de cos(θ(v, u)).
v
w
u
Prw(v)
Pru(v)
Observação 4.1.2. Podemos estender a função cosseno a uma função definida em R por cos(θ±mπ) =
(−1)m cos(θ), θ ∈ [0, π] (Por que isso é a definição “mais razoável” para a extensão? Qual é a definição
“mais razoável” para a extensão da função seno?). �
Introduziremos agora o conceito de coordenadas polares. Dado p = (x, y) ∈ R2 \ {0}, defina
(4.1.10) r(p) = d(0, p) =
√
x2 + y2 e θ(p) = ε(p) θ(ϑ(p), e1) com ε(p) =
®
1, se y ≥ 0,
−1, se y < 0.
Assim, p fica unicamente determinado por um par de números (r, θ) ∈ R>0 × (−π, π] chamado de suas
coordenadas polares. A origem será representada pelos pares (0, θ) com θ ∈ (−π, π].
p
x
y
r
θ
4Ver, por exemplo, exercício 4.1.8
120
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rSegue de (4.1.8), usando a extensão das definições das funções seno e cosseno discutidas naObservação 4.1.2, que as componentes cartesianas do ponto x cujas coordenadas polares são (r, θ) são
dadas por
(4.1.11) x = (r cos(θ), r sen(θ)).
Em particular, a equação da circunferência centrada na origem com raio r0 ∈ R>0 pode ser re-escrita,
em coordenadas polares, como
(4.1.12) r = r0.
De maneira mais geral, a equação de C(p, r0) dada por (4.1.1) pode ser rescrita, em coordenadas
polares, como
(r cos(θ) − x0)2 + (r sen(θ) − y0)2 = r20
ou ainda,
(4.1.13) r2 + a r cos(θ) + b r sen(θ) = c
com a = −2x0, b = −2y0, c = r20 − x
2
0 − y
2
0.
Note que uma reta passando pela origem também pode ser descrita por uma equação bastante
simples em coordenadas polares. De fato, se p é um ponto desta reta (que não a prória origem), a
equação descrevendo todos os pontos da reta é
(4.1.14) θ = θ(p).
Se não insistirmos em termos representação única em coordenadas polares para cada ponto, pode-
mos representar cada ponto do plano por um par (r, θ) ∈ R≥0 ×R. Neste caso, no espírito da extensão
das funções seno e cosseno a funções definidas em R, temos
(4.1.15) (r, θ) = (r′, θ′) ⇔ r = r′ = 0 ou r = r′ e θ − θ′ = 2mπ para algum m ∈ Z.
As extensões da função seno e cosseno são definidas de modo que (4.1.11) continue válida para pontos
representados em coordenadas polares por ângulos fora do intervalo (−π, π].
Finalizamos essa seção estudando o conceito de rotação ao redor da origem no plano. Dado θ ∈ R,
a rotação por θ ao redor da origem é a função Rotθ : R2 → R2 definida, em coordenadas polares, por
(4.1.16) (r, α) 7→ (r, α + θ).
Em coordenadas cartesianas, segue de (4.1.11) que temos
(4.1.17) Rotθ(x, y) =
Ä √
x2 + y2 cos(α + θ),
√
x2 + y2 sen(α + θ)
ä
.
Usando as fórmulas para o cosseno e o seno da soma de ângulos do exercício 4.1.8 abaixo, podemos
re-escrever (4.1.17) em “forma matricial” como segue. Considere a bijeção
(4.1.18) ψ : R2 → M2,1(R), (x, y) 7→
ï
x
y
ò
.
Dessa maneira, pontos de R2 ficam identificados com matrizes 2 × 1 e temos:
(4.1.19) ψ (Rotθ(x, y)) =
ï
cos(θ) −sen(θ)
sen(θ) cos(θ)
ò ï
x
y
ò
.
121
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 4.1.3. Considere a reta R dada por x − 2y = 2 e estudemos sua imagem por Rotθ. Emequações paramétricas R é dada por
x = 2t, y = −1 + t, t ∈ R.
Assim,
ψ (Rotθ(x, y)) =
ï
cos(θ) −sen(θ)
sen(θ) cos(θ)
ò ï
2t
t − 1
ò
= t
ï
2 cos(θ) − sen(θ)
2sen(θ) + cos(θ)
ò
+
ï
sen(θ)
− cos(θ)
ò
.
Tomando
a = 2sen(θ) + cos(θ), b = sen(θ) − 2 cos(θ), v = (−b, a), p = (sen(θ),− cos(θ)),
segue que Rotθ(R) = R(p, v) que é a reta dada por ax + by = c com c = a sen(θ) − b cos(θ). Observe
que v é obtido do vetor w = (2, 1), que é um vetor diretor de R, aplicando-se a mesma rotação (as
rotações podem ser interpretadas como rotações de vetores também e não apenas de pontos). �
Observação 4.1.4. Uma circunferência em Rn é o conjunto de pontos de algum plano que são equi-
distantes de um certo ponto deste mesmo plano. Como quaisquer dois vetores em Rn determinam um
plano (pela origem) em Rn, todos os fatos sobre ângulos que obtivemos em R2 podem ser re-obtidos
de maneira mais geral para vetores de Rn. �
Exercícios
4.1.1. Demonstre (4.1.9)e (4.1.8).
4.1.2. Mostre que, se ϕ(v,w) =
√
2/2, então θ(v,w) = π/4.
4.1.3. Mostre que a soma dos ângulos internos de um triângulo é π e conclua que os outros dois
ângulos de um triângulo retângulo são agudos. Mostre também que o cosseno de um desses
ângulos é o seno do outro e vice-versa (dois ângulos cuja soma de suas medidas em radianos é
π/2 são ditos complementares).
4.1.4. Prove fórmulas correspondentes às do exercício 3.4.6 para senos de ângulos em triângulos re-
tângulo. 5
4.1.5. Defina tangente de ângulos e deduza as correspondentes fórmulas para ângulos em triângulos
retângulo.
5Essas fórmula são em geral usadas para definir ângulo, ou melhor, cossenos e senos de ângulos, no ensino funda-
mental, sem se falar em radianos. Inicia-se definindo de alguma maneira (!) o conceito de ângulo reto: o ângulo formado
quando duas retas concorrentes formam 4 ângulos iguais (como definir “iguais”?). A este ângulo é atribuído a quantidade
chamada 90o. A partir daí se define os demais ângulos notáveis como múltiplos de “subdivisões iguais” deste. Por exem-
plo, 45o é associado ao ângulo que divide o ângulo reto em dois iguais, enquato que 30o é um terço do ângulo reto, 120o
é quatro vezes este último, etc. Só falta um porém nessa história. Como os outros ângulos de um triângulo retângulo são
agudos, ângulos entre 90o e 180o não são realizáveis dentro de um triângulo retângulo. Como solucionar isto para dar
significado ao cosseno e ao seno de tais ângulos utilizado-se apenas triângulos retângulos e as fórmulas aqui encontradas?
122
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r4.1.6. Para uma reta dada por y = mx + b, interprete m em termos de algum ângulo (isso justifica mser chamado de coeficiente angular).
4.1.7. Considere a circunferência C = C(0, 1) e os pontos p1 e p2 que são as interseções da parte C
no primeiro quadrante com as retas y = 1/2 e x = 1/2, respectivamente. Considere também o
ponto e = (1, 0). Mostre que:
(a) ‖Ùep2‖ = 2‖Ùep1‖ = π/3.
(b) cos(π/3) = 1/2 e cos(π/6) =
√
3/2.
4.1.8. Demonstre as fórmulas:
cos(α + β) = cos(α) cos(β) − sen(α)sen(β) e sen(α + β) = cos(α)sen(β) + sen(α) cos(β).
4.1.9. Mostre que Rotθ ◦ Tp = TRotθ(p) ◦ Rotθ para quaiquer θ ∈ R e p ∈ R2.
4.1.10. Um movimento rígido em Rn é uma função f : Rn → Rn que preserva distâncias
(a) Mostre que translações são movimentos rígidos.
(b) Mostre que todo movimento rígido preserva ângulos, isto é, para quaisquer três pontos não
colineares x, y, z, temos
θ( ϑ( f (x), f (y)) , ϑ( f (x), f (z)) ) = θ( ϑ(x, y), ϑ(x, z) ).
Inserir desenho
(c) Conclua que a imagem de uma reta por um movimento rígido é uma reta e que a imagem
de uma circunferência é uma circunferência de mesmo raio que a original (o mesmo vale
para triângulos, etc.).
(d) Mostre que as rotações em R2 são movimentos rígidos.
4.1.11. Para cada uma das circunferências C dadas a seguir, determine a equação em coordenadas
cartesianas das circunferências Rotθ ◦ Tv(C) e Tv ◦ Rotθ(C) para θ = π/3 e v = (1,−2).
(a) C = C(0, 2).
(b) C = C(x, 1) com x = (−1, 3).
4.1.12. Para cada uma das retas R dadas a seguir, determine a equação em coordenadas cartesianas das
retas Rotθ ◦ Tv(R) e Tv ◦ Rotθ(R) para θ = π/4 e v = (1,−2).
(a) R é dada por x = 1.
(b) R = R(x, v) com x = (−1, 3) e v = (1, 2).
(c) R é determinada por 2x + 3y = 4.
123
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r4.1.13. Defina rotação ao redor de um ponto p ∈ R2 e encontre sua expressão em coordenadas cartesi-anas (compare com (4.1.17)).
4.1.14. Sejam R uma reta em R3 passando pela origem, P = R⊥ e u1, u2, u3 uma família de vetores uni-
tários e mutuamente ortogonais com {u1, u2} sendo um conjunto diretor para P (veja o exercício
3.5.16). A rotação de um ângulo θ ao redor de R é a função RotRθ : R3 → R3 dada por
RotRθ (v) = (x cos(θ) − y sen(θ))u1 + (y cos(θ) + x sen(θ))u2 + zu3 se v = xu1 + yu2 + zu3
(veja o exercício 3.2.22). Justifique por que esta função merece ser chamada de rotação ao redor
de R (R é então chamada de o eixo da rotação) e mostre que ela é um movimento rígido. Tente
definir rotação ao redor de uma reta que não passa pela origem.
4.2. Elipses, Hipérboles e Parábolas
4.2.1. Elipses
Dados dois pontos f1 e f2 em R2, seja
c =
1
2
d(f1, f2)
e, para cada e > 0, considere o conjunto
(4.2.1) E(f1, f2, e) = {p ∈ R2 : d(p, f1) + d(p, f2) = 2a} com a = c/e.
Observe que este conjunto é vazio se a < c (isto é, se c > 0 e e > 1) enquanto que, se a = c (isto
é, c = 0 ou e = 1), o conjunto coincide com o segmento f1f2 (como consequência da desigualdade
triangular). Logo, o conjunto só é interessante quando a > c (e portanto c , 0 e e < 1). Neste caso,
ele é chamado de a elipse com focos f1 e f2 e excentricidade e.
p
f1 f22c
Observação 4.2.1. Uma circunferência pode ser interpretada como uma elipse “degenerada” da se-
guinte maneira. Suponha que, ao invés de fornecermos o dado e, fornecemos o dado a e definimos
e = c/a. Assim, se f1 = f2 (e portanto e = c = 0), a definição de E(f1, f2, e) coincide com a da
circunferência de raio a. Por isso, podemos pensar que circunferências são elipses de excentricidade
zero. �
Proposição 4.2.2. Suponha que os focos de uma elipse de excentricidade e sejam os pontos p1 = (c, 0)
e p2 = (−c, 0). Então, definindo b =
√
a2 − c2, E(p1, p2, e) é o conjunto solução da equação:
x2
a2
+
y2
b2
= 1.
124
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rDemonstração. Dado p = (x, y) ∈ R2, temosd(p, p1) + d(p, p2) = √(x − c)2 + y2 + √(x + c)2 + y2.
Assim, se p ∈ E(p1, p2, e) temos√
(x + c)2 + y2 +
√
(x − c)2 + y2 = 2a
⇒
√
(x + c)2 + y2 = 2a −
√
(x − c)2 + y2
⇒ (x + c)2 + y2 = (2a −
√
(x − c)2 + y2)2 = 4a2 − 4a
√
(x − c)2 + y2 + (x − c)2 + y2
⇒ a
√
(x − c)2 + y2 = a2 − cx
⇒ a2(x2 − 2cx + c2 + y2) = a4 − 2acx + c2x2
⇒ x2(a2 − c2) + a2y2 = a2(a2 − c2)
⇔ b2x2 + a2y2 = a2b2.
Como a > c, temos b , 0 e segue que p está no conjunto solução de x
2
a2 +
y2
b2 = 1.
Reciprocamente, se p está no conjunto solução de x
2
a2 +
y2
b2 = 1, temos
y2 = b2
Å
1 −
x2
a2
ã
= a2 − c2 −
a2 − c2
a2
x2 = (1 − e2)(a2 − x2).
Assim,
d(p, p1) + d(p, p2) =
√
(x − c)2 + (1 − e2)(a2 − x2) +
√
(x + c)2 + (1 − e2)(a2 − x2)
=
√
(a − ex)2 +
√
(a + ex)2 = |a − ex| + |a + ex|.
Para ver que isto resulta em 2a, resta observar que |a − ex| = a − ex e |a + ex| = a + ex. De fato,
x2 = a2
Å
1 −
y2
b2
ã
≤ a2 ⇒ −a ≤ x ≤ a
e, portanto,
a − ex ≥ a(1 + e) > 0 e a + ex ≥ a(1 − e) > 0.
Se E for uma elipse como na proposição anterior, então os pontos (±a, 0) e (0,±b) estão em E
e são chamados de vértices. Os correspondente segmentos de retas ligando os vértices que estão
no mesmo eixo coordenado são chamados de eixo principal (ou maior) e secundário (ou menor) de
E1. O número 2a é chamado de diâmetro da elipse. O número 2b é às vezes chamado de diâmetro
secundário (ou menor).
Todas as elipses podem ser obtidas a partir de uma como nesta proposição via rotação e translação.
Mais precisamente, se quisermos a elipse de excentricidade e cujos focos sejam os pontos f1 e f2,
1As retas contendo tais seguimentos também são frequentemente chamadas de eixos principal e secundário, respecti-
vamente.
125
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rconsidere a elipse E da proposição com c = 12 d(f1, f2), f0 o ponto médio de f1f2, v = ϑ(f0, f1) e x oúnico ponto satisfazendo ϑ(x) = v. Inserir desenho
Suponha que (r, θ) sejam as coordenadas polares de x e observe que x = Rotθ(p1). Então, usando o
exercício 4.1.10, concluímos que
E(f1, f2, e) = M(E) com M = Tf0 ◦ Rotθ.
Inserir desenho
Veja que, se f0 = (x0, y0), então
f1 = M(p1) = (c cos(θ) + x0, c sen(θ) + y0) e f2 = M(p2) = (−c cos(θ) + x0,−c sen(θ)+ y0).
Agora, pondo p = (x, y), temos que p ∈ E(f1, f2, e) se, e somente se, existir p′ = (x′, y′) ∈ E tal que
p = M(p′). Equivalentemente, p′ = M−1(p) = (Rot−θ ◦ T−f0)(p), o que nos leva a
(4.2.2)
ï
x′
y′
ò
=
ï
cos(θ) sen(θ)
−sen(θ) cos(θ)
ò ï
x − x0
y − y0
ò
=
ï
cos(θ)(x − x0) − sen(θ)(y − y0)
sen(θ)(x − x0) + cos(θ)(y − y0)
ò
.
Como p′ ∈ E, temos x
′2
a2 +
y′2
b2 = 1. Usando a expressão para (x
′, y′) dada por (4.2.2) e fazendo um pouco
de manipulação algébrica, chegamos à conclusão que E(f1, f2, e) é o conjunto solução da equação:
A(x − x0)2 + B(y − y0)2 + C(x − x0)(y − y0) = 1
com(4.2.3)
A =
a2 − c2 cos(θ)2
a2b2
, B =
a2 − c2 sen(θ)2
a2b2
, C =
2c2 cos(θ) sen(θ)
a2b2
.
Isto nos mostra que qualquer elipse é solução de uma equação polinomial de grau 2 em duas variáveis.
O ponto f0 é chamado de centro da elipse. Em particular, se θ = mπ para algum m ∈ Z, isto é, se f′1f′2
é paralelo ao eixo x, (4.2.3) se torna
(x − x0)2
a2
+
(y − y0)2
b2
= 1.
Por outro lado, se f1f2 é paralelo ao eixo y, (4.2.3) se torna
(x − x0)2
b2
+
(y − y0)2
a2
= 1.
Exemplo 4.2.3. Considere E = E(f1, f2, e) com f1 = (−4, 5), f2 = (2,−3) e e = 5/6. Encontremos a
equação de E. Seja v = ϑ(f2, f1) = (−6, 8). Então,
c =
1
2
‖v‖ = 5, a = c/e = 6, b =
√
a2 − c2 =
√
11.
126
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rO ponto médio do segmento f1f2 é o ponto com componentes iguais à do vetor ϑ(f2) + 12v. Portanto,
f0 = (−1, 1), cos(θ) = ϕ(v, e1) = −
3
5
e sen(θ) =
4
5
.
Assim, calculamos tudo que precisamos para substituir em (4.2.3):
A =
36 − 25(−3/5)2
36 · 11
=
3
44
, B =
362 − 252(4/5)2
36 · 11
=
5
99
, C = −
2 · 25 · (−3/5) · (4/5)
36 · 11
=
2
33
.
Ou seja, a equação é
3(x + 1)2
44
+
5(y − 1)2
99
+
2(x + 1)(y − 1)
33
= 1.
Veja que também podemos encontrar os vértices de E sem utilizar a equação. Eles são os pontos cujas
componentes coincidem com as coordenadas dos vetores
ϑ(f0) ±
a
‖v‖
v e ϑ(f0) ±
b
‖u‖
u
sendo os dois primeiros os vértices no eixo principal e os dois últimos os que se encontram no eixo
secundário, tomando u um vetor não nulo perpendicular a v. �
4.2.2. Hipérboles
Dados dois ponto f1 e f2 em R2, seja
c =
1
2
d(f1, f2)
e, para cada e > 0, considere o conjunto
(4.2.4) H(f1, f2, e) = {p ∈ R2 : | d(p, f1) − d(p, f2) | = 2a} com a = c/e.
Observe que, se c = 0, este conjunto é todo o plano! Portanto, suporemos sempre que f1 , f2. Neste
casso, segue do exercício 3.4.1 (Desigualdade Triangular!) que, para qualquer p ∈ R2, vale
| d(p, f1) − d(p, f2) | ≤ d(f1, f2).
Ou seja, H(f1, f2, e) , ∅ só se a ≤ c ou, equivalentemente, e ≥ 1. Se e = 1, o conjunto é a união
da semi-reta a partir de f1 no sentido de −v com a semi-reta a partir de f2 no sentido de v, onde
v = ϑ(f1, f2).
f1 f2
Logo, o conjunto só é interessante quando e > 1. Neste caso, ele é chamado de a hipérbole com focos
f1 e f2 e excentricidade e.
f1 f2
p
A proposição a seguir é demonstrada de maneira similar à Proposição 4.2.2.
127
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rProposição 4.2.4. Suponha que os focos de uma hipérbole de excentricidade e sejam os pontos f1 =(c, 0) e f2 = (−c, 0). Então, definindo b = √c2 − a2, E(f1, f2, e) é o conjunto solução da equação:
x2
a2
−
y2
b2
= 1.
A reta que passa por ambos os focos de uma hipérbole é chamada de reta focal ou eixo principal.
Os pontos de interseção de uma hipérbole com sua reta focal são chamados de vértices (no caso de
uma hipérbole como na proposição anterior, os vértices são os pontos (±a, 0)). O ponto médio do
segmento de reta que liga os focos é chamado de centro da hipérbole e a reta que passa pelo centro e
é perpendicular à reta focal é chamada de eixo secundário. As retas determinadas pelas equações
(4.2.5) y = ±
b
a
x
são chamadas de assíntotas de H. O nome assíntota vem da seguinte propriedade. Seja R qualquer
uma das duas assíntotas. Então,
(4.2.6) R ∩ H = ∅ e d(R,H) = 0.
f1 f2
Todas as hipérboles podem ser obtidas a partir de uma como nesta proposição via rotação e trans-
lação de maneira análoga ao explicado no caso de elipses.
4.2.3. Parábolas e Outro Ponto de Vista para Elipses e Hipérboles
Dados uma reta R e um ponto f < R, a parábola com foco f e diretriz R é o conjunto dos pontos
equidistantes de f e R:
(4.2.7) P(R, f) = {p ∈ R2 : d(p, f) = d(p,R)}.
R
f
p
Proposição 4.2.5. Se R = R(f′, e1) e f = (0, a) com f′ = (0,−a), a ∈ R \ {0}, então P(R, f) é o conjunto
solução da equação
y =
1
4a
x2.
128
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rDemonstração. Dado p = (x, y), temos d(p, f) = √x2 + (y − a)2 e d(p,R) = |y + a|. Portanto,p ∈ P(R, f) se, e somente se,
x2 + (y − a)2 = (y + a)2,
que é equivalente à equação dada no enunciado.
Todas as outras parábolas são obtidas de uma como nesta proposição via translação e rotação.
Observe que, se P é uma parábola com diretriz R, então
(4.2.8) d(P,R) =
1
2
d(f,R)
e existe um único ponto em P cuja distância a R é d(P,R). Este ponto é chamado de vértice de P. No
caso da parábola da proposição, a origem é o vértice. Equivalentemente, o vértice é o único ponto de
P ∩ R′, sendo R′ a reta perpendicular a R contendo f.
A seguir, veremos que elipses e hipérboles também podem ser descritas de maneira semelhante às
parábolas, isto é, como o conjunto dos pontos cuja distância a um ponto dado é um múltiplo fixo de
suas distâncias a uma reta dada. Mais ainda, este múltiplo é exatamente a excentricidade. Dados R e
f como antes, defina
d = d(f,R), q a projeção ortogonal de f em R, v =
1
d
ϑ(q, f).
R
f q
v
Proposição 4.2.6. Fixados os dados acima e um número positivo e, considere
C = C(f,R, e) = {p ∈ R2 : d(p, f) = e d(p,R)}.
Então:
(a) Se e = 1, C é uma parábola.
(b) Se e < 1, C é a elipse E(f, f′, e) sendo f′ o único ponto tal que ϑ(f, f′) = 2cv com c = e
2d
1−e2 .
(c) Se e > 1, C é a hipérbole H(f′, f, e) sendo f′ o único ponto tal que ϑ(f′, f) = 2cv com c = e
2d
e2−1 .
f f′q f′ f q
129
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rDemonstração. A parte (a) é verdadeira por definição de parábola. Para as outras, observe que, comoC é um conjunto definido por propriedades de distâncias, aplicando uma rotação e uma translação
teremos um conjunto de pontos que é definido pela mesma relação entre distâncias e que é levado de
volta em C pelas rotação e translação inversas (ver exercício 4.1.10). Portanto, podemos supor, sem
perda de generalidade, que f = (d, 0), R é o eixo-y e, portanto, q é a origem e v = e1. Afirmamos que,
neste caso, C é o conjunto solução da equação
(4.2.9)
(x − a/e)2
a2
±
y2
b2
= 1,
onde o sinal é + se e < 1 e − se e > 1,
a =
ed
1 − e2
e b = a
√
|1 − e2|.
Em particular, as primeiras afirmaçãoes de (b) e (c) ficam demonstradas.
Para mostrar que C é de fato dada por (4.2.9), observe que dado, p = (x, y), temos
d(p, f)2 = (x − d)2 + y2 e d(p,R)2 = x2.
Portanto, p ∈ C se, e somente se
e2x2 = (x − d)2 + y2 ⇔ x2 − 2
d
1 − e2
x +
1
1 − e2
y2 = −
d2
1 − e2
⇔ x2 − 2
a
e
x +
1
1 − e2
y2 = −(1 − e2)
a2
e2
⇔ (x − a/e)2 +
1
1 − e2
y2 =
a2
e2
− (1 − e2)
a2
e2
= a2,
de onde (4.2.9) segue.
Para demonstrar as outras afirmações em (b), observe que o centro da elipse é o ponto f0 = (a/e, 0)
e que a > b e, portanto, o eixo principal é paralelo ao eixo-x (ou seja, na direção de v). Lembre que a
distância entre os focos é 2c com
c =
√
a2 − b2 =
e2d
1 − e2
= ae.
Logo, os focos são
f1 = (a/e − c, 0) e f2 = (a/e + c, 0).
Segue imediatamente que ϑ(f1, f2) = 2cv e, como a/e− c = d, f1 = f, completando a demonstração de
(b).
Na parte (c), novamente a reta focal é o eixo-x (devido à posição do sinal de menos na equação e
de a coordenada y do centro f0 serzero). Além disso, os focos são dados como no caso da elipse, mas
com c =
√
a2 + b2 = e
2d
e2−1 = −ae. Desta vez, a/e + c = d mostrando que f2 = f. Observe também que
f0 está à esquerda de R (pois |a| > d) e, portanto, também f1.
130
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rObserve que, no caso de elipses e hipérboles, o ponto f dado é o foco mais perto da reta diretrizR dada. Essa descrição é chamada de descrição via um par foco-diretriz. Evidentemente, a mesma
cônica pode ser descrita a partir do outro foco com uma outra reta diretriz, simetricamente posicionada
em relação à original.desenhos
Exemplo 4.2.7. Seja f = (2, 3) e R dada por y = −2x + 1. Encontremos o outro foco da elipse
C(f,R, 1/2) e da hipérbole C(f,R, 2). Observe que, como w = (2, 1) é ortogonal à direção de R, a reta
focal é S = R(f,w). Precisamos calcular o número c para encontrar o outro foco. No Exemplo 3.6.1,
vimos que d = d(f,R) = 6/
√
5. Portanto,
c =
e2d
|1 − e2|
=
8
√
5
se e = 2 e c =
e2d
|1 − e2|
=
2
√
5
se e =
1
2
.
O outro foco então é dado por
ϑ(f′) = (2, 3) ±
2c
√
5
w
e precisamos descobrir qual a escolha correta de sinal. Podemos fazer isto de duas maneiras. Uma
delas calculando a projeção ortogonal q de f em R para calcular o vetor v descrito na proposição. Isto
de fato foi feito no Exemplo 3.6.1: q = (−2/5, 9/5). Logo,
v =
1
d
ϑ(q, f) =
1
√
5
w
e, pela proposição anterior, o sinal deve ser + para e = 1/2 e − para e = 2. Ou seja,
f′ =
Ç
2
√
5 − 32
√
5
,
3
√
5 − 16
√
5
å
se e = 2 e f′ =
Ç
2
√
5 + 8
√
5
,
3
√
5 + 4
√
5
å
se e = 1/2.
A outra maneira é usando o fato que, no caso de elipse, ambos os focos estão do mesmo lado de R,
enquanto no caso da hipérbole, os focos estão em lados opostos. Substituindo as duas possibilidades
para f′ na equação de R e comparando com o que obtemos ao substituirmos as coordenadas de f na
equação, chegamos à conclusão que a escolha do sinal de + dá origem a um ponto do mesmo lado
de R que f (verifique!). Observe que agora, podemos encontrar o centro e os vértices facilmente. Por
exemplo, os vértices principais da elipse assim como os da hipérbole estão sobre a reta focal (que já
conhecemos) a uma distância a = c/e do centro. Observe também que o ângulo que as assíntotas
fazem com a reta focal no caso da hipérbole tem tangente igual a
b
a
=
√
e2 − 1 =
√
3.
Ou seja, o ângulo é π/3 e podemos assim encontrar os vetores que formam este ângulo com w que
serão vetores diretores para as assíntotas. �
Exercícios
4.2.1. Faça as contas que demonstram (4.2.3).
131
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r4.2.2. Encontre os vértice da elipse do Exemplo 4.2.3.4.2.3. Encontre tudo o que puder (focos, vértices, excentricidade, equações, diretrizes) das elipses
determinadas pelos seguinte dados:
(a) f1 = (1, 1), f2 = (1, 5) e e = 1/2.
(b) b = 5, c = 12, eixo maior paralelo ao eixo-y e f0 = (1, 1).
(c) b = 12, c = 5, eixo menor paralelo ao eixo-y e f0 = (1, 1).
(d) f1 = (−1, 2), f2 = (2, 5) e e =
√
2/2.
(e) f0 = (2,−1), a = 5, b = 3, com eixo menor paralelo à reta y =
√
3 x.
(f) Os pontos (1, 4) e (1,−2) são vértices e o eixo maior tem comprimento 8.
(g) Os pontos (2, 2) e (5,−2) são vértices e os eixos são paralelos aos eixos coordenados. Existe
única elipse satisfazendo estes dados?
4.2.4. Existem outras elipses que têm os pontos (2, 2) e (5,−2) como vértices em eixos distintos além
das encontradas como resposta para o item (h) do exercício anterior? De fato, mostre que o
conjunto formado por todos os centros das elipses com esta propriedade é a circunferência de
raio 5/2 centrada em (7/2, 0).
4.2.5. Mostre que a excentricidade de uma elipse é cos(θ) sendo θ o ângulo formado por seu eixo
principal com o segmento ligando um dos focos a um dos vértices do eixo secundário.
4.2.6. Seja E a elipse da Proposição 4.2.2.
(a) Obtenha uma equação para as coordenadas polares dos pontos de E.
(b) Mostre que o ponto p = (x, y) está em E se, e somente se, existir t ∈ (−π, π] tal que
x = a cos(t) e y = b sen(t). Isso dá origem a uma equação paramétrica de E.
4.2.7. Demonstre a Proposição 4.2.4.
4.2.8. Demonstre que as assíntotas satisfazem (4.2.6) e qualquer outra reta não satisfaz.
4.2.9. Obtenha a equação análoga a (4.2.3) no caso de hipérboles e parábolas.
4.2.10. Encontre tudo o que puder (focos, vértices, excentricidade, equações, diretrizes) das hipérboles
determinadas pelos seguinte dados:
(a) f1 = (1, 1), f2 = (1, 5) e e = 2.
(b) O eixo é paralelo ao eixo-y, tem comprimento 10 sendo (1, 1) seu ponto médio e a distância
entre os focos é 26.
(c) O eixo é paralelo ao eixo-x, tem comprimento 24 sendo (1, 1) seu ponto médio e a distância
entre os focos é 26.
(d) f1 = (−1, 2), f2 = (2, 5) e e = 3.
(e) O eixo é eixo paralelo à reta y =
√
3 x, seu ponto médio é f0 = (2,−1), os vértices distam 6
um do outro e e = 5/3.
132
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(f) Os pontos (1, 4) e (1,−2) são os vértices e o eixo forma ângulos de π/2 radianos com asassíntotas.
(g) O ponto (2, 2) é o ponto médio do eixo, as assíntotas formam ângulos de π/3 com o eixo-
x e os vértices distam 8 um do outro. Existe apenas uma hipérbole satisfazendo essas
condições?
4.2.11. Mostre que a excentricidade de uma hipérbole é sec(θ) sendo θ o ângulo formado por seu eixo
com as assíntotas.
4.2.12. Encontre tudo o que puder (foco, vértice, diretriz, equação) das parábolas determinadas pelos
seguinte dados:
(a) R é determinada por y = 3 e f = (1, 1).
(b) O vértice é (1, 2) e R é dada por x = −1.
(c) R é dada por x =
√
3 y + 1 e (0, 1) é o vértice.
(d) O foco é (1, 2) e o vértice é (5, 6). Existe solução única para este item?
(e) O eixo é paralelo à reta y = x, o ponto x = (1, 2) pertence à parábola e dista 2 da diretriz, a
reta ligando x ao foco é paralela ao eixo-y. Quantas soluções existem para este item?
4.2.13. Os conjuntos C abaixo são cônicas descritas por um par foco-diretriz. Identifique o tipo da
cônica C e encontre todos os outros dados relevantes (focos, vértices, excentricidade, equações).
(a) R é o eixo-y, f = (4, 0) e (16/3, 4
√
3/3) ∈ C.
(b) R é a reta x = −1, f = (2, 1) e (8, 1) ∈ C.
(c) R é a reta y = x, f = (2, 1) e (1 +
√
6, 3) ∈ C.
(d) R é a reta x = 4, e = 1/2 e f = (6, 1).
(e) R é a reta x = 4, e = 1/2 e o foco não associado a R é (6, 1).
4.2.14. Seja H a hipérbole da Proposição 4.2.4.
(a) Obtenha uma equação para as coordenadas polares dos pontos de H.
(b) Mostre que o ponto p = (x, y) está em E se, e somente se, existir t ∈ R tal que |x| = a cosh(t)
e y = b senh(t), onde cosh(t) = e
t+e−t
2 e senh(t) =
et−e−t
2 . Isso dá origem a uma equação
paramétrica de H. desenho ...
4.2.15. Faça os exercícios 5.2.1 a 5.2.5 de [21].
4.3. Equações Quadráticas em Duas Variáveis
Faremos agora o estudo sistemático equações polinomiais de grau 2, também chamadas de equações
quadráticas, em duas variáveis:
(4.3.1) ax2 + bxy + cy2 + dx + ey + f = 0, a, b, c, d, e, f ∈ R.
133
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rComo estamos supondo que o grau do polinômio é 2, pelo menos um dos três coeficientes dos monô-mios de grau 2 (a,b,c) é não nulo. Já vimos que o conjunto solução podem ser circunferências,
elipses, hipérboles e parábolas. Também temos casos “degenerados” óbvios. Por exemplo, a equação
x2 + y2 = 0 tem a origem como única solução (circunferência de raio zero!). Já a equação xy = 0
tem a união dos eixos coordenados como solução enquanto a união das retas paralelas x = ±1 é o
conjunto solução de x2 = 1. Veremos que estes tipos de conjuntos são todos os possíveis conjuntos
soluções. Mais precisamente, ao longo desta seção provaremos:
Teorema 4.3.1.Sejam C ⊆ R2 o conjunto solução de (4.3.1) e ∆ = b2 − 4ac.
(a) Se ∆ > 0, C é uma hipérbole ou um par de retas concorrentes.
(b) Se ∆ < 0, C é uma elipse, uma circunferência, um ponto ou o conjunto vazio.
(c) Se ∆ = 0, C é uma parábola, um par de retas paralelas, uma reta ou o conjunto vazio. �
Começaremos estudando o caso em que b = 0 e depois veremos que o caso geral pode ser dedu-
zido deste aplicando-se uma rotação. Usaremos diversas vezes a técnica de completar quadrados, isto
é, a igualdade
(4.3.2) t2 + st =
(
t +
s
2
)2
−
s2
4
para quaisquer s, t ∈ R.
Caso ∆ > 0: Como b = 0, temos que ac < 0, isto é, a e c são não nulos e têm sinais opostos. Suponha
a > 0 (caso contrário, multiplque (4.3.1) por −1). Completando quadrados (4.3.1) se torna
a
Å
x +
d
2a
ã2
− |c|
(
y +
e
2c
)2
= f ′ com f ′ =
d2
4a
+
e2
4c
− f .
Se f ′ , 0, isto é a equação de uma hipérbole, enquanto se f ′ = 0, o conjunto solução são as assíntotas
da mesma hipérbole:
√
a
Å
x +
d
2a
ã
±
√
|c|
(
y +
e
2c
)
= 0.
Caso ∆ < 0: Como b = 0, temos que ac > 0, isto é, a e c são não nulos e têm o mesmo sinal, que
podemos supor ser positivo. Completando quadrados (4.3.1) se torna
a
Å
x +
d
2a
ã2
+ c
(
y +
e
2c
)2
= f ′ com f ′ =
d2
4a
+
e2
4c
− f .
Se f ′ > 0, isto é a equação de uma elipse (ou circunferência se a = c), se f ′ = 0 o ponto (− d2a ,−
e
2c ) é
a única solução e se f ′ < 0 a equação não possui solução.
Caso ∆ = 0: Como b = 0, temos que ac = 0, isto é, apenas um entre a e c é diferente de zero.
Escrevamos o caso a , 0 sendo que o outro pode ser tratado analogamente. Completando quadrados
(4.3.1) se torna
a
Å
x +
d
2a
ã2
+ ey = f ′ com f ′ =
d2
4a
− f .
Se e , 0, temos uma parábola e se e = 0 temos três casos: se a f ′ < 0 não existe solução, se f ′ = 0 o
conjunto solução é a reta 2ax + d = 0 e, se a f ′ > 0, o conjunto solução é a união das retas paralelas
2ax + (d ± 2
√
a f ′) = 0.
134
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 4.3.2. Determinemos de qual tipo é o conjunto solução da equação 2x2 + y2 − x + 2y = 0.Temos b = 0 e ∆ = −4 · 2 · 1 = −8 < 0. Completando quadrados temos
2
Å
x −
1
4
ã2
+ (y + 1)2 =
1
8
+ 1.
que é uma elipse. �
Antes de iniciarmos o desenvolvimento do argumento para tratar o caso geral, examinemos o
seguinte exemplo.
Exemplo 4.3.3. O conjunto solução da equação xy = 0 é a união dos eixos coordenados. Vamos
usar este exemplo simples, para o qual sabemos a resposta, para ilustrar o método que usaremos para
reduzir o estudo do conjunto solução de (4.3.1) ao caso b = 0. Considere a rotação por π/4 que levará
a reta x = 0 na reta y = x e a reta y = 0 na reta y = −x. Portanto, a imagem dos eixos coordenados
por esta rotação é o conjunto solução da equação x2 − y2 = 0. �
Apesar de termos atingido o objetivo de passar a uma equação com b = 0 no último exemplo,
fizemos isso de maneira não muito satisfatória por dois motivos. O primeiro deles é que, ao aplicarmos
a rotação ao conjunto solução, mudamos o conjunto a algo que não mostramos ser conjunto solução
de uma equação quadrática a princípio. A postiori, quando acabarmos de desenvolver este parágrafo,
teremos em particular mostrado que isso é verdade. Para sanar este problema, inverteremos a lógica
e, ao invés de pensarmos que estamos aplicando a rotação ao conjunto solução, que em geral não
conhecemos, pensaremos que estamos rodando os eixos coordenados. Ou seja, passamos a medir as
componentes de todos os pontos de R2 em relação a um novo conjunto de eixos obtidos por rotacionar
os eixos originais. Mais precisamente, queremos encontrar vetores unitários e ortogonais e′1 e e
′
2 de
modo que, para todo p ∈ R2, tenhamos
(4.3.3) ϑ(p) = x′e′1 + y
′e′2 ⇔ Rotθ(p) = (x
′, y′).
Assim, se p = (x, y), teremos
(4.3.4)
ï
x′
y′
ò
=
ï
cos(θ) −sen(θ)
sen(θ) cos(θ)
ò ï
x
y
ò
e
ï
x
y
ò
=
ï
cos(θ) sen(θ)
−sen(θ) cos(θ)
ò ï
x′
y′
ò
.
Em particular, temos
e′1 = (cos(θ),−sen(θ)) e e
′
2 = (sen(θ), cos(θ)).
desenhos
Substituindo a expressão para x e y em termos de x′ e y′ em (4.3.1), obtemos equação em x′, y′ com
mesmo conjunto solução original, porém descrito em termos dessas novas coordenadas. Para facilitar
a escrita, re-escrevamos (4.3.1) em forma matricial:
(4.3.5)
[
x y
] ï a b/2
b/2 c
ò ï
x
y
ò
+
[
d e
] ïx
y
ò
+ [ f ] = [0].
135
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rFazendo a substituição ficamos com[
x′ y′
] ïcos(θ) −sen(θ)
sen(θ) cos(θ)
ò ï
a b/2
b/2 c
ò ï
cos(θ) sen(θ)
−sen(θ) cos(θ)
ò ï
x′
y′
ò
+
[
d e
] ï cos(θ) sen(θ)
−sen(θ) cos(θ)
ò ï
x′
y′
ò
+ [ f ] = [0],
ou, equivalentemente,
a′x′2 + b′x′y′ + c′y′2 + d′x′ + e′y′ + f = 0 com
a′ = a cos2(θ) + c sen2(θ) −
b
2
sen(2θ) d′ = d cos(θ) − e sen(θ)
c′ = a sen2(θ) + c cos2(θ) +
b
2
sen(2θ) e′ = e cos(θ) + d sen(θ)
e
(4.3.6) b′ = (a − c) sen(2θ) + b cos(2θ).
Exemplo 4.3.4. Aplicando o que foi discutido acima ao exemplo anterior obtemos:
x′ =
√
2
2 (x − y)
y′ =
√
2
2 (x + y)
e
x =
√
2
2 (x
′ + y′)
y =
√
2
2 (y
′ − x′)
A equação em termos de x′ e y′ se torna
0 = xy =
Ç √
2
2
(x′ + y′)
åÇ √
2
2
(y′ − x′)
å
=
1
2
(
y′2 − x′2
)
.
Veja que neste caso e′1 =
√
2/2 (1,−1) e e′2 =
√
2/2 (1, 1). �
Observe que (4.3.6) nos diz como escolher θ de modo que b′ = 0. Evidentemente, podemos nos
restringir a escolher θ no intervalo aberto (0, π/2). Em particular, sen(2θ) > 0 e obtemos
(4.3.7) θ =
1
2
arccot
(c − a
b
)
, θ ∈ (0, π/2).
Veja que utilizando-se esta fórmula no exemplo anterior chegamos a θ = π/4! De fato, este será o
ângulo de rotação sempre que a = c! Isso mostra não apenas a existência do ângulo θ com a propri-
edade desejada como também nos fornece maneira de calcular os coeficientes da equação em termos
de x′ e y′ utilizando identidades trigonométricas. Na prática, as contas envolvidas neste processo são
muito trabalhosas. Por isso, descreveremos um outro método que nos dirá como encontrar as direções
de e′1 e e
′
2 sem necessidade de pré-determinação de θ. Este segundo método é mais apropriado para
generalização a equações em mais variáveis como veremos na Seções 4.6 e 9.4.
136
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rSejam u1 = (α, β) um vetor unitário e u2 = (γ, δ) um vetor unitário ortogonal a u1 (pelo exercício4.3.3, qualquer conjunto de vetores unitários e ortogonais em R2 pode ser obtido aplicando-se uma
rotação possivelmente seguida de uma reflexão nos vetores e1 e e2). Considere a matriz R =
[ α γ
β δ
]
e
observe que RtR = I. Ou seja, a condição de u1 e u2 serem unitários e ortogonais é equivalente a
R−1 = Rt.
Dado p = (x, y), existem únicos x′, y′ ∈ R satisfazendo
ϑ(p) = x′u1 + y′u2.
Mais precisamente,
(4.3.8)
ï
x
y
ò
= R
ï
x′
y′
ò
e
ï
x′
y′
ò
= Rt
ï
x
y
ò
.
Substituindo em (4.3.1) ficamos com
(4.3.9)
[
x′ y′
]
M′
ï
x′
y′
ò
+
[
d e
]
R
ï
x′
y′
ò
+ [ f ] = [0],
com
M′ = Rt M R e M =
ï
a b/2
b/2 c
ò
.
Queremos escolher u1 e u2 de modo que M′ seja uma matriz diagonal (já sabemos que podemos: basta
tomar u1 = e′1 e u2 = e
′
2 como discutido acima).
Considere as matrizes M(t),M′(t) ∈ M2(R[t]) definidas por
M(t) = tI − M e M′(t) = tI − M′,
e observe que
det(M′(t)) = det(R−1 M(t) R) = det(M(t)).
O polinômio cM(t) = det(M(t)) ∈ R[t] é chamado de o polinômio característico da matriz M (e
também de M′ dada a igualdade acima). Veja que
cM(t) = det
Åï
t − a −b/2
−b/2 t − c
òã
= t2 − (a + c)t + (ac − b2/4).
Por outro lado, se u1 = e′1 e u2 = e
′
2, temos
cM(t) = cM′(t) = det
Åï
t − a′ 0
0 t − c′
òã
= (t − a′)(t − c′).
Portanto, os números a′ e c′ são as raízes de cM(t) que podemos calcular sem que tenhamos calcu-
lado θ! As raízes de cM(t) são chamadas de autovalores de M. Faremos um estudo sistemático de
autovalores (e autovetores) nas Seções 6.4,6.5 e 7.5. Observe também que
a′ = c′ ⇔ (a + c)2 − 4(ac − b2/4) = 0 ⇔ (a − c)2 + b2 = 0 ⇔ a = c e b = 0.
137
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rLogo, como estamos supondo que b , 0, as duas raízes de cM(t) são distintas.Seja λ uma das raízes de cM(t) (portanto, λ ∈ {a′, c′}) e considere o sistema linear homogêneo nas
variáveis x e y associado à matriz M(λ) obtida avaliando-se a variável t em λ. Como det(M(λ)) =
cM(λ) = 0, existe solução não nula para o sistema. De fato, como b , 0, temos M(λ) , 0 e, portanto,
o conjunto solução é uma reta passando pela origem. Escolha u1 sendo qualquer um dos dois vetores
unitários na direção desta reta. Analogamente, escolha u2 sendo um vetor unitário na direção da reta
que é o conjunto solução de M(µ) com µ sendo a outra raíz de cM(t).
Precisamos verificar que os vetores u1 e u2 escolhidos como no parágrafo anterior satisfazem o
que queríamos:
(1) u1 ⊥ u2
(2) M′ é diagonal.
Uma vez feito isso, teremos completado a demonstração que, fazendo-se a mudança de coordenadas
de x, y para x′, y′ determinada por (4.3.8), a equação (4.3.1) se torna uma equação quadrática em x′ e
y′ sem o termo x′y′.
Para facilitar a escrita, identifiquemos vetores com matrizes através da bijeção dada em (4.1.18).
Com esta identificação, podemos escrever o produto interno em termos de multiplicação de matrizes:
[〈v,w〉] = ψ(w)t ψ(v).
Além disso, por definição de u1, temos M(λ)ψ(u1) = 0. Mas, como M(λ) = λI−M, isso é equivalente
a dizer que Mψ(u1) = λψ(u1). Analogamente, temos Mψ(u2) = µψ(u2). Então, vejamos:
[λ〈u1, u2〉] = [〈λu1, u2〉] = ψ(u2)t ψ(λu1) = ψ(u2)t (λψ(u1)) = ψ(u2)t (M ψ(u1))
(4.3.10)
= (ψ(u2)t M) ψ(u1)
∗
= (M ψ(u2))t ψ(u1) = µψ(u2)t ψ(u1) = [µ〈u1, u2〉].
Na passagem marcada com ∗ acima usamos que M = Mt. Segue desta conta que
(λ − µ)〈u1, u2〉 = 0
e, como λ , µ, verificamos que u1 ⊥ u2. Para verificar que M′ é diagonal, lembre que, por definição
da matriz R, temos
R =
[
ψ(u1) ψ(u2)
]
.
Assim,
M′ = Rt (M R) = Rt
[
Mψ(u1) Mψ(u2)
]
=
ï
ψ(u1)t
ψ(u2)t
ò [
λψ(u1) µψ(u2)
]
=
ï
λ〈u1, u1〉 µ〈u1, u2〉
λ〈u2, u1〉 µ〈u2, u2〉
ò
=
ï
λ 0
0 µ
ò
.
Veja que, com estas escolhas, (4.3.9) se torna:
(4.3.11) λx′2 + µy′2 + �x′ + ζy′ + f = 0 com � = dα + eβ, ζ = dγ + eδ.
138
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 4.3.5. Identifiquemos o conjunto solução da equação 5x2 − 4xy + 8y2 + 10x − 5y + f = 0.Neste caso, M = [ 5 −2−2 8 ] e, portanto,
cM(t) = det
Åï
t − 5 2
2 t − 8
òã
= (t − 5)(t − 8) − 4 = t2 − 13t + 36 = (t − 4)(t − 9).
Assim, precisamos resolver os sistemas homogêneos associados às matrizes
M(4) =
ï
−1 2
2 −4
ò
e M(9) =
ï
4 2
2 1
ò
Para o primeiro sistema, temos que u1 =
√
5
5 (2, 1) é vetor unitário na direção da reta que é o conjunto
solução. Para o segundo sistema podemos escolher u2 =
√
5
5 (1,−2). Dessa maneira, (4.3.11) se torna
4x′2 + 9y′2 + 3
√
5x′ + 4
√
5y′ + f = 0.
Completando quadrados obtemos:
4
Ç
x′ +
3
√
5
8
å2
+ 9
Ç
y′ +
2
√
5
9
å2
=
45
32
+
20
9
− f .
Assim, se f > 4532 +
20
9 , o conjunto solução é vazio, se f =
45
32 +
20
9 o conjunto solução é só um ponto
e, se f < 4532 +
20
9 , temos uma elipse. desenho
�
Exercícios
4.3.1. Faça os exercícios 7.2.1 a 7.2.11 de [21].
4.3.2. Descrever conjunto solução das seguintes equações. No caso em que forem elipses, hipérboles
ou parábolas, determinar todos os dados relevantes (excentricidade, focos, vértices, diretrizes):
(a) x2 − y2 + 3x − y − 5 = 0.
(b) x2 − y2 − x = 4.
(c) 2x2 + y2 − x + y + 20 = 0.
(d) 2x2 + y2 + 3x − 4y − 8 = 0.
(e) x2 + y2 − 2xy + x = 0.
(f) 2(x2 + y2 + xy) = a, a ∈ R.
(g) x2 + y2 + 4xy +
√
2(x + y) = a, a ∈ R.
(h) x2 + 2y2 − 7xy = 3.
(i) x2 + 2y2 − xy = 1.
(j) 2x2 + 3y2 − 2xy = 0.
(k) x2 + 5y2 + 2xy + 1 = 0.
(l) 3x2 − 4xy − 2
√
5x − 4
√
5y + 25 = 0.
(m) 4x2 + y2 − 4xy + 6
√
5x +
√
5y = 0.
(n) 4x2 + y2 − 4xy + x + 2y + a = 0, a ∈ R.
139
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r(o) 5x2 − 4xy + 2y2 − 2√5x − 4√5y + 21 = 0.(p) 4xy − 3y2 + 4√5x + 2√5y + 29 = 0.
(q) 2x2 − 4xy + 5y2 + 4
√
5x + 2
√
5y + 29 = 0.
(r) x2 + 3y2 − 2xy = a, a ∈ R.
(s) x2 + ay2 − 4xy + ax = a, a ∈ R.
4.3.3. Interprete Rotθ como rotação de vetores ao invés de pontos. Sejam u1, u2 vetores unitários
e ortogonais em R2 e suponha que u1 = Rotθ(e1) para algum θ ∈ (−π, π]. Mostre que ou
u2 = Rotθ(e2) ou u2 = ReR(Rotθ(e2)) com R sendo a reta pela origem na direção de u1.
4.3.4. Descrevemos dois métodos para reduzir o estuda da equação (4.3.1) com b , 0 a uma equação
da mesma forma em novas variáveis x′ e y′ que não possui o termo x′y′. No primeiro método,
consideramos vetores e′1 e e
′
2 ao rotacionar os vetores e1 e e2. Já no segundo utilizamos vetores
u1 e u2 obtidos a partir de autovalores da matriz M.
(a) Mostre que u1, u2 ∈ {±e′1,±e
′
2}.
(b) Mostre que u1 = e′1 e u2 = e
′
2 se, e somente se, exatamente três dos seguintes números são
positivos:
ϕ(e1, u1), ϕ(e1, u2), ϕ(e2, u1), ϕ(e2, u2).
Isto nos permite identificar qual dos dois autovalores de M é o número a′ do primeiro
método e qual é c′ e, consequentemente, calcular o ângulo utilizado no primeiro método.
4.3.5. De maneira similar à interpretação de mudanças de eixos coordenados por rotação e reflexão,
interprete translações como mudança da origem do sistema de coordenadas. Interprete também
(4.3.2) sob este ponto de vista.
4.4. Superfícies Cilíndricas e Cônicas
Passaremos agora a estudar superfícies no espaço euclidiano R3 obtidas a partir de uma curva dada,
como elipses (incluindo circunferências), hipérboles e parábolas através de algum processo de “des-
locamento” da curva original. Começamos porém introduzindo o conceito de coordenadas cilíndricas
que é uma genralização imediata das coordenadas polares. A saber, um ponto (x, y, z) passa a ser
representado por (r, θ, z) sendo (r, θ) as coordenadas polares de (x, y).desenho
O motivo do nome coordenadas cilíndricas vem do seguinte fato. Lembre que uma circunferência
de raio r0 centrada na origem (de R2) é descrita, em coordenadas polares, por r = r0. Esta mesma
equação, quando vista como equação para pontos de R3 descreve o conjunto
{x ∈ R3 : d(x,R) = r0}
com R sendo o eixo-z.desenho
Este conjunto de pontos é chamado de um cilindro circular reto de raio r0. Mais geralmente, deixando
140
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rR ser qualquer reta, obtemos a definição geral de cilindros circulares retos. Tais cilindros são exemplosespeciais de uma família mais ampla de conjuntos chamadas de superfícies cilíndricas.
Para definirmos o que vem a ser uma superfície cilíndrica em geral, precisamos primeiro do que
vem a ser uma curva. As retas, elipses, hipérboles e parábolas são exemplos de curvas. A definição
formal do que é uma curva em geral requer o uso da noção de “suavidade por partes”. Como discutir
conceitos relacionados ao cálculo diferencial não faz parte dos nossos objetivos, ficaremos apenas
com uma noção intuitiva do que vem a ser uma curva. Uma das maneiras mais “interessantes” de se
descrever uma curva em Rn é via uma parametrização: uma função γ : I → Rn sendo I um intervalo
de R. A curva em si é a imagem C de γ.
C = {x ∈ Rn : x = γ(t) para algum t ∈ R}.
Já vimos exemplos deste tipo nas equações paramétricas que estudamos nas seções anteriores. Porém,
se não exigirmos propriedades de “suavidade” (diferenciabilidade) para γ, sua imagem poderá ser
algo que não gostaríamos de chamar de “curva”. Por exemplo, existem funções contínuas definidas
no intervalo aberto I = (0, 1) cuja imagem é todo Rn!1
Dados um subconjunto C de um plano P ⊆ Rn e uma direção não paralela a P, digamos, definida
pelo vetor v. O conjunto cilíndrico associadoa estes dados é o conjunto
(4.4.1) Ci(C, v) =
⋃
x∈C
R(x, v).
Estaremos interessados no caso em que C é uma curva. Neste caso, o correspondente conjunto cilín-
drico é chamado de uma superfície cilíndrica. desenho
O conjunto C é chamado de conjunto diretor (ou curva diretriz se C for uma curva) enquanto as retas
R(x, v) são chamadas de retas geratrizes de Ci(C, v). Os cilíndros circulares correspondem ao caso em
que C é uma circunferência. O cilindros circulares de que falamos anteriormente são cilindros retos,
isto é, o vetor v é normal ao plano P que contém C. Mas podemos ter cilindros circulares que não são
retos:desenho
O leitor agora pode facilmente entender o que são cilindros elípticos, hiperbólicos e parabólicos. Note
também que, se C for uma reta, então Ci(C, v) é um plano.
Observe que, se y ∈ Ci(C, v), então
R(y, v) ⊆ Ci(C, v).
Assim, se C′ ⊆ Rn for qualquer subconjunto satisfazendo,
(4.4.2) #
(
C ∩ R(y, v)
)
= 1 para todo y ∈ C′,
1O leitor curioso deve procurar por curvas de Penao na literatura.
141
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rvale ⋃
y∈C′
R(y, v) ⊆ Ci(C, v).
Por exemplo, podemos tomar
C′ = P′ ∩ Ci(C, v)
para algum plano P′. Neste caso, C′ será uma nova curva plana e
Ci(C′, v) ⊆ Ci(C, v).
Em particular, se C′ intersectar todas as geratrizes, vale a igualdade dos conjuntos acima. desenhos
Concentremos agora nossa atenção em superfícies cilíndricas em R3. Como vimos ao longo do
Capítulo 3, podemos escolher um conjunto diretor formado por vetores ortogonais e unitários para o
plano P. O produto vetorial deste dois vetores diretores determinam um vetor unitário perpendicular
a ambos. Ou seja, podemos escolher conjunto α = {u1, u2, u3} formado por três vetores unitários e
mutuamente ortogonais de modo que {u1, u2} seja conjunto diretor para P. Vimos também que todo
vetor de R3 é expresso de maneira única na forma x1u1 + x2u2 + x3u3. Os números x j, j = 1, 2, 3, são
chamados de as coordenadas do vetor com respeito a α. Observe que, se v = x1u1 + x2u2 + x3u3 e
w = y1u1 + y2u2 + y3u3, temos
(4.4.3) 〈v,w〉 = x1y2 + x2y2 + x3y3.
Portanto, podemos medir comprimentos e ângulos utilizando coordenadas com respeito a α da mesma
maneira que fazíamos usando as coordenadas cartesianas originais. Finalmente, escolhendo um ponto
o ∈ P, podemos considerar as retas E j = R(o, u j) como ponto de partida de um sistema de coordenadas
ortogonais. Desta maneira, um ponto x ∈ R3 passa a ser representado pela terna de números (x)α =
(x1, x2, x3) determinada por
ϑ(o, x) = x1u1 + x2u2 + x3u3.
Em outras palavras, podemos fazer uma mudança de sistema de coordenas de modo que, com respeito
as estas novas coordenadas, tudo funciona como se o ponto o fosse a origem e o plano P é o plano-xy.
Assim, para facilitar a escrita, suporemos de agora em diante que o é de fato a origem e P é de fato
plano-xy.
Suporemos também que a curva diretriz C é o conjunto solução (no plano-xy) de uma equação do
tipo
f (x, y) = 0.
Todas as curvas em R2 que estudamos até aqui podem ser descritas por uma equação deste tipo (sendo
f um polinômio de grau menor ou igual a 2). Como o vetor v em (4.4.1) não pode ser paralelo ao
plano P, segue que v = (a, b, c) com c , 0. Como a definição (4.4.1) só depende da direção de v,
podemos supor, sem perda de generalidade, que
v = (a, b, 1).
142
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rNesta condições, mostremos que S = Ci(C, v) é o conjunto solução da equação(4.4.4) F(x, y, z) = 0 com F(x, y, z) = f (x − az, y − bz).
De fato, um ponto x = (x, y, z) ∈ S se, e somente se, existir x′ = (x′, y′, 0) ∈ C tal que ϑ(x′, x) = λv
para algum λ ∈ R. Segue que λ = z e, então, x ∈ S se, e somente se,
x′ = x − az, y′ = y − bz e f (x′, y′) = 0,
completando a demonstração de (4.4.4).
Exemplo 4.4.1. Suponha que C seja a hipérbole dada por (x − 1)2 − 2y2 = 1 e v = (2,−1, 1). Então,
o correspondente cilindro hipérbólico é o conjunto solução da equação
(x − 2z − 1)2 − 2(y + z)2 = 1.
�
Exemplo 4.4.2. Determinemos se o conjunto solução S da equação
2y2 + 8z2 − 8yz − x − 2 = 0
é uma superfície cilíndrica. De fato, veremos que ela é uma superfície cilíndrica com curva diretriz
no plano-xy. Pondo z = 0 na equação, vemos que interseção de S com o plano-xy é a parábola
2y2 − x = 2.
Precisamos agora encontrar a direção v = (a, b, 1) das retas geratrizes. Por (4.4.4), S deve ser o
conjunto solução de
2(y − bz)2 − (x − az) − 2 = 0,
ou, equivalentemente,
2y2 + 2b2z2 − 4byz − x + az − 2 = 0.
Comparando com a equação original, segue que a = 0 e b = 2. �
Passamos agora ao estudo das chamadas superfícies cônicas. Dados um subconjunto C de um
plano P ⊆ Rn e um ponto p < P, o subconjunto cônico associado a C e p é o conjunto
(4.4.5) Co(C, p) =
⋃
x∈C
R(p, ϑ(p, x)).
Estaremos interessados no caso em que C é uma curva. Neste caso, o subconjunto Co(C, p) é chamado
de uma superfície cônica. A curva C é novamente chamada de diretriz e as retas R(p, ϑ(p, x)), x ∈ C,
são chamadas de retas geratrizes. O ponto p é chamado de vértice.desenho
Evidentemente, como p < P, o vetor ϑ(p, x) não é paralelo a P para qualquer x ∈ P. Em particular,
segue que C não é redundante, isto é, intersecta cada geratriz em único ponto:
(4.4.6) #
(
C ∩ R(p, ϑ(p, x))
)
= 1 para todo x ∈ C.
143
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rNo caso em que C é uma circunferência, Co(C, p) é dita um cone circular. Além disso, se x0 é o centroda circunferência C e o vetor ϑ(p, x0) é perpendicular a P, diz-se que Co(C, p) é um cone circular reto.
De maneira similar definimos cones elípticos, hiperbólicos e parabólicos.
Suponha, para simplificar a escrita, que o vértice p seja a origem (todas as outras superfícies cô-
nicas são obtidas de uma com vértice na origem via translação). Denotaremos Co(C, 0) simplesmente
por Co(C). Observe que, neste caso, se y ∈ Co(C) \ {0}, então
R(0, ϑ(y)) ⊆ Co(C).
De fato, y ∈ Co(C) se, e somente se, existir x ∈ C tal que y ∈ R(0, ϑ(x)). Mas então, ϑ(y) tem a
mesma direção de ϑ(x) e, portanto,
R(0, ϑ(y)) = R(0, ϑ(x)) ⊆ Co(C).
Isto nos diz que, se C′ ⊆ Rn \ {0} for qualquer subconjunto satisfazendo,
(4.4.7) #
(
C ∩ R(0, ϑ(y))
)
= 1 para todo y ∈ C′,
vale ⋃
y∈C′
R(0, ϑ(y)) ⊆ Co(C).
O processo mais útil que usaremos para obter tais conjuntos C′ é escolhendo um plano P′ que não
passa pela origem e fazendo
C′ = P′ ∩ Co(C).
Neste caso, C′ será uma nova curva plana e
Co(C′) ⊆ Co(C).
Em particular, se C′ intersectar todas as geratrizes, vale a igualdade dos conjuntos acima. desenhos
Em [21, Exercício 7.3.11] é indicado como mostrar que todas as elipses, hipérboles e parábolas apa-
recem como C′ tomando Co(C) como sendo um cone circular reto! Por este motivo, estas curvas são
chamadas de seções cônicas. Em particular, veremos que cones circulares são cones elípticos.
Concentremos agora nossa atenção em superfícies cônicas em R3. Como fizemos no caso das
superfícies cilíndricas, neste primeiro momento, suporemos que o plano P seja paralelo ao plano-xy,
digamos, determinado pela equação z = c (c , 0), e que
C = {(x, y, c) ∈ R3 : f (x, y) = 0}
para alguma função f : R2 → R. Nesta condições, mostremos que Co(C) \ {0} é o conjunto solução
da equação
(4.4.8) F(x, y, z) = 0 com F(x, y, z) = f
Å
cx
z
,
cy
z
ã
.
144
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rDe fato, um ponto q = (x, y, z) pertence a Co(C) \ {0} se, e somente se, existir x = (x′, y′, c) ∈ C eλ ∈ R tais que
ϑ(q) = λϑ(x).
Ou seja,
x = λx′, y = λy′, z = λc.
Observe que, como q , p, temos z , 0. Assim, λ = z/c, x′ = cx/z, y′ = cy/z e segue que (x, y, z)
satisfaz (4.4.8) uma vez que x ∈ C.
Exemplo 4.4.3. Consideremos a curva C = {(x, y, 1) ∈R3 : x2 + 4y2 = 4} que é uma elipse no plano
P determinado por z = 1. Por (4.4.8), o cone elíptico Co(C) é o conjunto solução da equação
x2 + 4y2 − 4z2 = 0.
De fato, a origem é a única solução desta equação com z = 0. Veja que, se P′ for paralelo a P,
C′ = P′ ∩ Co(C) é uma elipse em P′ e Co(C) = Co(C′).
Por outro lado, se P′ for o plano x = 2, então C′ = P′ ∩ Co(C) = {(2, y, z) ∈ R3 : z2 − y2 = 1} é
uma hipérbole em P′. Em particular, o cone hiperbólico Co(C′) está contido em Co(C).desenhos
Trocando os papéis de x e z na dedução de (4.4.8), segue que Co(C′) \ {0} é o conjunto solução S de
4z2
x2
−
4y2
x2
− 1 = 0.
Veja que
S = Co(C) \ {(0, y, z) ∈ R3 : z = ±y}.
�
Exemplo 4.4.4. Dado a ∈ R>0 considere o conjunto S cujos pontos são aqueles que satisfazem a
seguinte equação em coordenadas cilíndricas
|z| = ar.
Então, um ponto (x, y, z) ∈ S se, e somente se, z2 = a2r2 ou, equivalentemente, S é o conjunto solução
da equação
a2(x2 + y2) − z2 = 0.
Portanto, S = Co(C) com C = {(x, y, a) ∈ R3 : x2 + y2 = 1}. �
Exercícios
4.4.1. Faça os exercícios 6.2.1 a 6.2.4, 6.2.7 e 6.2.8 de [21].
145
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r4.4.2. Considere a hipérbole C determinada por x2 − 3y2 = 5 no plano z = 2. Obtenha a equaçãoquadrática do cilindro reto que tem C como diretriz e também do cone Co(C).
4.4.3. Considere a curva C = {(x, y, 1) ∈ R3 : x2 − 4y2 = 4} que é uma hipérbole no plano z = 1. Por
(4.4.8), o cone hiperbólico Co(C) é igual a S ∪ {0}, sendo S o conjunto solução de
x2
z2
−
4y2
z2
= 4.
Estude a interseção C′ de Co(C) com qualquer plano paralelo ao eixo-z que não passa pela
origem e determine se vale Co(C′) = Co(C).
4.4.4. Considere o cone elíptico Co(C) do Exemplo 4.4.3. Encontre um plano P′ tal que C′ = P′ ∩
Co(C) seja uma circunferência em P′ e mostre que Co(C′) = Co(C).
4.4.5. Seja S uma superfície cônica com vértice na origem e curva diretriz C contida no plano P.
Suponha que P′ seja um plano que não passa pela origem e tal que, para todo x ∈ C, ϑ(x) não
seja paralelo a P′. Mostre que S = Co(C′) com C′ = P∩ S . Em particular, este é o caso se P′ é
paralelo a P.
4.4.6. Considere a curva C = {(x, y, 0) ∈ R3 : x2 + 4y2 = 4} que é uma elipse no plano-xy e o vetor
v = (1, 1, 1). Mostre que a interseção C′ do cilindro Ci(C, v) com qualquer plano não paralelo
a v é uma elipse naquele plano e que Ci(C′, v) = Ci(C, v). Existe algum plano tal que C′ é uma
circunferência?
4.5. Superfícies de Revolução
Na seção anterior, estudamos superfícies formadas por uniões de retas. Podemos pensar, informal-
mente, que aquelas superfícies são geradas por uma das retas geratrizes ao faze-la se “mover” de al-
guma maneira. No caso das superfícies cilíndricas, esse movimento é obtido por translação ao longo
da curva C. Já no caso das curvas cônicas, as direções das geratrizes são distintas e o movimento
rígido que precisamos aplicar em uma geratriz para a levarmos uma outra geratriz parece envolver
algum processo de rotação. Começaremos esta seção formalizando o conceito de rotação no espaço
euclidiano tridimensional e, na sequência, estudaremos superfícies obtidas por rotação (revolução)
de curvas (não necessariamente retas). Em particular, veremos que algumas superfícies cônicas e
cilíndricas também são superfícies de revolução.
Lembre que na Seção 4.1, introduzimos o conceito de rotação de pontos ao redor de um ponto
fixo. Primeiro, utilizamos as coordenadas polares para definir rotação ao redor da origem e, nos
exercícios, foi feita a generalização para rotação ao redor de um ponto qualquer (via translação dos
eixos coordenados). O conceito de rotação de pontos em R3 é definido em relação a uma reta fixa,
chamada de eixo de rotação, ao invés de ao redor de um ponto. Mais precisamente, para definir a
rotação precisamos também escolher uma orientação do eixo ou, equivalentemente, um vetor unitário
naquela direção, fixando assim um sentido. Por exemplo, a definição de rotação de um ângulo θ ao
redor do eixo-z (com a orientação padrão dada pela escolha do vetor e3) é feita através da seguinte
generalização óbvia de (4.1.16) via coordenadas cilíndricas:
(4.5.1) (r, α, z) 7→ (r, α + θ, z).
146
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rEm coordenadas cartesianas,
(4.5.2) Rote3θ (x, y, z) =
Ä √
x2 + y2 cos(α + θ) ,
√
x2 + y2 sen(α + θ) , z
ä
.
Para obtermos o análogo da “forma matricial” (4.1.19), considere a bijeção
(4.5.3) ψ : R3 → M3,1(R), (x, y, z) 7→
xy
z
 .
Dessa maneira, pontos de R3 ficam identificados com matrizes 3 × 1 e temos:
(4.5.4) ψ
(
Rote3θ (x, y, z)
)
=
cos(θ) −sen(θ) 0sen(θ) cos(θ) 0
0 0 1
xy
z
 .
No espírito da discussão ao redor de (4.4.3), a rotação de um ângulo θ ao redor de uma reta R orientada
no sentido de um vetor diretor (unitário) fixado u, denotada por Rotuθ é definida escolhendo um ponto
o ∈ R (que será a origem do novo sistema de coordenadas) e vetores unitários e ortogonais u1, u2 tais
que u = u1 × u2 e R = R(o, u). Todo ponto de R3 pode então ser descrito em coordenadas cilíndricas a
partir dos novos eixos coordenados E j = R(o, u j), j = 1, 2, 3 com u3 = u, e definimos Rotuθ como em
(4.5.1). Deixamos como exercício para o leitor verificar que a definição não depende das escolhas de
o, u1, u2 e, além disso,
(4.5.5) Rot−uθ = Rot
u
−θ.
Dadas uma reta R e uma curva C em R3, a superfície de revolução com geratriz C rotacionada ao
redor de R é o conjunto
Rev(C,R) = {Rotuθ(x) : x ∈ C, θ ∈ [−π, π]} =
⋃
θ∈[−π,π]
Rotuθ(C),
sendo u qualquer vetor diretor (unitário) para R (o conjunto claramente não depende da escolha de u).
desenho inclinado
Para cada θ ∈ [−π, π], o subconjunto Rotuθ(C) é chamado de um meridiano de Rev(C,R). Por outro
lado, para cada x ∈ C, o subconjunto
{Rotuθ(x) : θ ∈ [−π, π]}
é chamado de um paralelo de Rev(C,R). Observe que os paralelos são circunferências no plano orto-
gonal a R passando por x sendo seu centro exatamente a intersecção de R com este plano. Estaremos
particularmente interessados no caso em que C é uma curva plana e R é uma reta no mesmo plano.
Mais ainda, no caso em que C é uma das curvas cônicas.
147
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rComecemos supondo que C é uma curva no plano-yz descrita como conjunto solução de umaequação da forma f (y, z) = 0. Estudemos a superfície de revolução obtida com R sendo o eixo-z.
Observe que, para cada ponto (0, y0, z0) ∈ C, o correspondente paralelo é o conjunto
(4.5.6) {(−y0 sen(θ), y0 cos(θ), z0) : θ ∈ [−π, π]} .
Como cada ponto, (x, y, z) de Rev(C,R) pertence a algum paralelo, segue que ou
(0, r, z) ∈ C ou (0,−r, z) ∈ C
onde r =
√
x2 + y2. Considere os conjuntos
S ± = {(x, y, z) : f (±r, z) = 0} C± = C ∩ {(0, y, z) : ±y ≥ 0}.
Segue que
(4.5.7) S ± = Rev(C±,R) e, portanto, Rev(C,R) = S + ∪ S −.
Analogamente, se trocarmos R pelo eixo-y, segue que Rev(C,R) é a união dos conjuntos soluções das
equações
(4.5.8) f
Ä
y,±
√
x2 + z2
ä
= 0.
Exemplo 4.5.1. Considere a reta dada por x = 0, y = az, e estudemos a superfície S obtida ao
rotacioná-la ao redor do eixo-z. Segue de (4.5.7) que
(x, y, z) ∈ S ⇔ az = ±
√
x2 + y2.
Ou seja, S é o conjunto solução de x2 + y2 − a2z2 = 0 que é o cone circular Co(C) com C = {(x, y, 1) :
x2 + y2 = a2}. Por outro lado, se rotacionarmos a reta dada por x = 0, y = a ao redor do eixo-z,
obtemos o conjunto solução de
x2 + y2 = a2
que é o cilindro circular reto Ci(C, e3) com C como antes. �
Exemplo 4.5.2. Sejam C a elipse no plano-yz dada por y
2
a2 +
z2
b2 = 1 e R o eixo-z. Neste caso, Rev(C,R)
é o conjunto solução da equação
x2
a2
+
y2
a2
+
z2
b2
= 1.
Já se R fosse o eixo-y, Rev(C,R) seria o conjunto solução da equação
x2
b2
+
y2
a2
+
z2
b2
= 1.
Estas superfícies são exemplos de elipsoides. Um elipsoide é uma superfícieobtida ao aplicar-se um
movimento rígido (rotações e translações) ao conjunto solução de uma equação do tipo1
x2
a2
+
y2
b2
+
z2
c2
= 1.
1Os pontos correspondentes às interseções com os eixos coordenados são chamados de vértices do elipsoide.
148
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rVeja que, no caso de C ser uma circunferência, de raio R, isto é, a = b = r, então Rev(C,R) é oconjunto solução da equação
x2 + y2 + z2 = r2
que é uma esfera. Em geral, dado p ∈ R3 e r > 0, a esfera de raio r centrada em p é o conjunto
S (p, r) = {x ∈ R3 : d(p, x) = r}
que é o conjunto solução da equação
(x − x0)2 + (y − y0)2 + (z − z0)2 = r2
se p = (x0, y0, z0). �
Exemplo 4.5.3. Sejam C a hipérbole no plano-yz dada por y
2
a2 −
z2
b2 = 1, R1 o eixo-z e R2 o eixo-y.
Então, Rev(C,R1) e Rev(C,R2) são, respectivamente, os conjuntos soluções das equações
x2
a2
+
y2
a2
−
z2
b2
= 1 e
y2
a2
−
x2
b2
−
z2
b2
= 1.
Estas superfícies são exemplos de hiperboloides. Um hiperboloide de uma folha é uma superfície
obtida ao aplicar-se um movimento rígido ao conjunto solução de uma equação do tipo
x2
a2
+
y2
b2
−
z2
c2
= 1.
Já um hiperboloide de duas folhas é uma superfície obtida ao aplicar-se um movimento rígido ao
conjunto solução de uma equação do tipo
x2
a2
−
y2
b2
−
z2
c2
= 1.
Assim, o primeiro dos hiperboloides de revolução acima é um hiperboloide de uma folha enquanto o
segundo é de duas folhas. �
Exemplo 4.5.4. Sejam C a parábola no plano-yz dada por z = ay2 e R o eixo-z. Então, Rev(C,R) é o
conjunto solução da equação
z = a(x2 + y2)
que é um exemplo de paraboloide elíptico. Um paraboloide é uma superfície obtida ao aplicar-se um
movimento rígido ao conjunto solução de uma equação do tipo
z = ax2 + by2
com a, b ∈ R tais que ab > 0. Já se R fosse o eixo-y, Rev(C,R) seria o conjunto solução da equação
x2 − a2y4 + z2 = 0.
�
149
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rExemplo 4.5.5. Seja C a circunferência no plano-yz dada por (y − a)2 + z2 = r com a, r ≥ 0. Então,se R é o eixo-z, Rev(C,R) é o conjunto solução de
(
√
x2 + y2 − a)2 + z2 = r
ou, equivalentemente, de
(x2 + y2 + z2 + a2 − r2)2 = 4a2(x2 + y2).
Esta superfície é chamada de tóro. desenhos r ≤ a ou r ≥ a... �
Aproveitando que esferas apareceram nos exemplos acima, finalizamos esta seção discutindo o
conceito de coordenadas esféricas em R3. Dado p = (x, y, z) ∈ R3 fora do eixo-z, defina
(4.5.9) r(p) = d(0, p), φ(p) = θ(ϑ(p), e3) e θ(p) = ε(p) θ(PrP(ϑ(p)), e1),
com P sendo o plano-xy e ε(p) definido como em (4.1.10).desenho
Assim, tais pontos ficam determinados unicamente por por uma terna
(r, φ, θ) ∈ R>0 × (0, π) × (−π, π],
chamada de suas coordenadas esféricas. A origem é representada pelas ternas (0, φ, θ) com qual-
quer escolha de φ e θ enquanto os demais pontos do eixo-z ficam representados por ternas do tipo
(r(p), φ(p), θ) com r(p) e φ(p) definidos como antes e θ qualquer. Se R é o eixo-z, temos R = P⊥ e,
para todo v ∈ R3,
v = PrP(v) + PrR(v).
Portanto, as coordenadas cartesianas do ponto com coordenadas esféricas (r, φ, θ) são
(4.5.10) x = r sen(φ) cos(θ), y = r sen(φ) sen(θ), z = r cos(φ).
Reciprocamente, temos
r =
√
x2 + y2 + z2, cos(φ) =
z√
x2 + y2 + z2
, sen(φ) =
√
x2 + y2√
x2 + y2 + z2
,
(4.5.11)
cos(θ) =
x√
x2 + y2
, sen(θ) =
y√
x2 + y2
, se x2 + y2 , 0.
Exercícios
4.5.1. Faça os exercícios 6.2.5 e 6.2.6 de [21].
4.5.2. Mostre que um elipsoide dado por x
2
a2 +
y2
b2 +
z2
c2 = 1 com pelo menos dois dos parâmetros a, b, c
iguais é uma superfície de revolução.
4.5.3. Mostre que um hiperboloide dado por x
2
a2 ±
y2
b2 −
z2
c2 = 1 com os parâmetros correspondentes aos
termos com mesmo sinal iguais é uma superfície de revolução.
4.5.4. Demonstre (4.5.5) e a afirmação que a precede.
150
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r4.6. Equações Quadráticas em Três Variáveis
Vimos nas seções vários exemplos de superfícies que são o conjunto solução de uma equação poli-
nomial de grau dois em três variáveis. Nesta seção faremos o a análogo ao que fizemos na Seção 4.3
no caso de duas variáveis, isto é, veremos quais são todos os possíveis conjuntos soluções de uma
equação do tipo
(4.6.1) ax2 + by2 + cz2 + dxy + exz + f yz + gx + hy + iz + j = 0,
sendo que pelo menos um dos números a, b, c, d, e, f é não nulo. Como no caso de duas variáveis,
veremos que o conjunto solução coincide com o conjunto solução de uma equação da forma
(4.6.2) a′x′2 + b′y′2 + c′z′2 + g′x + h′y + i′z + j′ = 0,
sendo que x′, y′, z′ são coordenadas calculadas utilizando-se vetores unitários e mutuamente ortogo-
nais u1, u2, u3 como em (4.4.3). A existência deste novo sistema de coordenadas pode ser mostrada
utilizando-se rotações como fizemos no caso de duas variáveis. Porém, como já vimos naquele caso,
na prática, é mais eficiente utilizarmos outro método utilizando a versão matricial da equação (4.6.1):
XtMX + T X + [ j] = 0 com X =
î x
y
z
ó
, M =
[ a d/2 e/2
d/2 b f /2
e2 f /2 c
]
, T =
[
d
e
f
]
.
A existência dos vetores u1, u2, u3 é equivalente à existência de uma matriz R com propriedade aná-
loga àquela descrita em (4.3.8). Mais precisamente, queremos mostrar que existe uma matriz R cujas
colunas são formadas pelas coordenadas dos vetores u1, u2 e u3, respectivamente, de modo que, fa-
zendo
(4.6.3)
î x
y
z
ó
= R
[ x′
y′
z′
]
ou, equivalentemente,
[ x′
y′
z′
]
= R−1
î x
y
z
ó
,
e substituindo na versão matricial acima, obtemos a versão matricial de (4.6.2). Como antes, a impo-
sição de u1, u2, u3 serem unitários e mutuamente ortogonais é equivalente a
R−1 = Rt
e, portanto, obter uma equação na forma (4.6.2) utilizando a mudança de variável (4.6.3) é equivalente
a encontrar R com a propriedade da inversa acima e tal que
RtMR
seja diagonal.
Para mostrar a existência de R com essas propriedades, repetimos o argumento que fizemos no
caso de duas variáveis. Sejam R uma matriz cujas colunas são como descritas acima a partir de uma
terna qualquer de vetores unitários e mutuamente ortogonais u1, u2, u3 e M′ = RtMR. Considere as
matrizes M(t),M′(t) ∈ M2(R[t]) definidas por
M(t) = tI − M e M′(t) = tI − M′,
e observe, como antes, que
det(M′(t)) = det(R−1 M(t) R) = det(M(t)).
151
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rO polinômio cM(t) = det(M(t)) ∈ R[t] é chamado de o polinômio característico da matriz M (etambém de M′ dada a igualdade acima). Se encontrarmos R de modo que M′ seja diagonal, digamos
(4.6.4) M′ =
a′ 0 00 b′ 0
0 0 c′
 ,
então
cM(t) = (t − a′)(t − b′)(t − c′).
Ou seja, para que tal R exista, é necessário que cM(t) tenha apenas raízes reais (que serão os 3 primei-
ros coeficientes em (4.6.2)). Veremos no Teorema 7.1.8(a) que este fato (todas as raízes serem reais)
de fato ocorre para toda matriz real simétrica (Mt = M).
Seja então λ uma das raízes de cM(t) (portanto, λ ∈ {a′, b′, c′}) e considere o sistema linear ho-
mogêneo nas variáveis x, y, z associado à matriz M(λ) obtida avaliando-se a variável t em λ. Como
det(M(λ)) = cM(λ) = 0, existe solução não nula para o sistema. Como antes, u ser um vetor cujas
coordenadas pertencem ao conjunto solução do sistema M(λ)X = 0 é equivalente a
Mψ(u) = λψ(u),
com ψ definida em (4.5.3). Veja que R é a matriz cuja j-ésima coluna é
C j(R) = ψ(u j).
Como
RM′ = MR,
utilizando (2.1.3) ao produto MR, segue que
C j(RM′) = C j(MR) = Mψ(u j).
Assim, utilizando (2.1.3) ao produto RM′, vemos que encontrar R de modo que M′ seja da forma
(4.6.4) é equivalente a encontrar vetores u1, u2, u3 unitários e mutuamente ortogonais satisfazendo
(4.6.5) Mψ(u1) = a′ψ(u1), Mψ(u2) = b′ψ(u2), Mψ(u3) = c′ψ(u3),
com a′, b′, c′ sendo as raízes de cM(t)ordenadas de alguma maneira escolhida aleatoriamente! A
existência de vetores satisfazendo estas propriedades será demonstrada no Teorema 7.5.2, conhecido
como Teorema Espectral real.
Exemplo 4.6.1. Estudemos o conjunto solução da equação x2 + 4y2 − 5z2 + 4xy −
√
5 y = 1/5 cuja
matriz M é
M =
1 2 02 4 0
0 0 −5
 e, portanto, M(t) =
t − 1 −2 0−2 t − 4 0
0 0 t + 5
 .
Assim,
cM(t) = (t + 5) ((t − 1)(t − 4) − 4) = (t + 5)(t2 − 5t) = t(t − 5)(t + 5),
152
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rcujas raízes são a′ = 0, b′ = 5, c′ = −5. O vetor u1, com esta escolha de ordem das raízes, é um vetorunitário na direção da reta que é o conjunto solução de MX = 0 (já que M(0) = −M). Resolvendo o
sistema, vemos que podemos tomar
u1 =
1
√
5
(2,−1, 0).
A seguir, observe que o vetor e3 satisfaz Mψ(e3) = −5ψ(e3). Portanto, podemos tomar u3 = (0, 0, 1).
Finalmente, u2 é vetor diretor paralelo à reta que é o conjunto solução de M(5)X = 0. Porém, como
sabemos que ui ⊥ u j, i , j, podemos tomar
u2 = u3 × u1 =
1
√
5
(1, 2, 0).
Portanto,
R =
 2√5 1√5 0− 1√
5
2
√
5
0
0 0 1

Observe que R é a matriz que representa a rotação = Rote3θ com θ = − arccos
Ä
2/
√
5
ä
. Assim, por
(4.6.3), temos
[ x′ y′ z′ ] RtMR
[
x′
y′
x′
]
+ TR
[ x′
y′
z′
]
=
1
5
com T = [ 0 −√5 0 ]. Sabemos que RtMR = M′ que é dada por (4.6.4) e calculamos TR = [ 1 −2 0 ] para
ver que (4.6.2) se torna
5y′2 − 5z′2 + x′ − 2y′ =
1
5
.
Completando quadrados, esta última equação é equivalente a
x′ = 5z′2 − 5(y′ − 1/5)2.
Este é um exemplo de superfície que ainda não havia aparecido nas seções anteriores chamada de
paraboloide hiperbólico1. O nome vem do fato que a interseção com planos da forma z′ = k ou y′ = k
com k ∈ R serem para parábolas nestes planos, enquanto que a interseção com planos da forma x′ = k
com k , 0 serem hipérboles. A interseção com o plano x′ = 0 é o par de retas concorrentes dadas por
z′ = ±(y′ − 1/5).
Lembrando que x′y′
z′
 = Rt
xy
z
 =
 2x√5 − y√5x√
5
+
2y
√
5
z
 ,
estes planos onde encontramos estas parábolas e hipérboles são facilmente descritos em termos das
coordenadas cartesianas originais. �
1Mais geralmene, um paraboloide hiperbólico é uma superfície obtida aplicado-se um movimento rígido ao conjunto
solução de uma equação da forma z = ax2 − by2 sendo a e b números reais com mesmo sinal, isto é, ab > 0.
153
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
rCom a aparição dos paraboloides hiperbólicos em nossa lista de exemplos, completamos as pos-sibilidades para o conjunto solução de (4.6.1) como nos diz o próximo teorema.
Teorema 4.6.2. Sejam a′, b′, c′ as raízes de cM(t) e S o conjunto solução de (4.6.1).
(a) Se a′, b′, c′ forem não nulos e com mesmo sinal, então S é um elipsoide, um ponto ou o conjunto
vazio.
(b) Se a′, b′, c′ forem não nulos e não tiverem todos o mesmo sinal, então S é um hiperboloide ou um
cone elíptico.
(c) Se apenas um entre a′, b′, c′ for zero, então S é um paraboloide (elíptico ou hiperbólico), um
cilindro elíptico ou hiperbólico, a união de dois planos concorrentes, uma reta ou o conjunto
vazio.
(d) Se apenas um entre a′, b′, c′ for não nulo, então S é um cilindro parabólico ou a união de dois
planos paralelos (eventualmente coincidentes). �
A demonstração deste teorema é feita analisando as possibilidades de conjunto solução para uma
equação da forma (4.6.2) de maneira semelhante à demonstração do Teorema 4.3.1. Deixaremos esta
análise como exercício para o leitor.
Exercícios
4.6.1. Faça os exercícios 7.3.1 a 7.3.5 de [21].
4.6.2. Descrever, de acordo com o Teorema 4.6.2, o conjunto solução das seguintes equações quadrá-
ticas.
(a) 4x2 + 4y2 + 4z2 − 4x − 8y = 7.
(b) 3x2 + 8y2 + 4z2 = 2.
(c) y = 3x2.
(d) x2 + y2 + z2 − 3x + 8y − z + 18 = 0.
(e) 2x − y2 + 4z2 = 0.
(f) 2y2 − x + 4z = 3.
(g) x2 + y2 + y − 2z = 5.
(h) 2x2 + y2 − 4x + 4y = 6.
(i) 2x2 − y2 = x + y + z.
(j) z2 − 4xy + x − y = 8.
(k) 3x2 + 5y2 + 3z2 − 2xy + 2xz + 2yz + 2 = 0.
(l) x2 + 4y2 − 3z2 − 4xy − 2xz − 4yz + x = 3.
(m) 7x2 + 6y2 + 5z2 − 4xy − yz − y = 0.
(n) x2 − y2 + 2z2 − 2yz − 2x = 2.
4.6.3. Faça os exercícios das Seção 8.4.5 de [3].
4.6.4. Demonstre o Teorema 4.6.2.
4.6.5. Dados p, k ∈ R, mostre que a superfície cônica cuja geratriz é a parábola dada por y2 = 4px no
plano z = k é um cone elíptico.
4.6.6. Faça os exercícios 7.3.9 a 7.3.11 de [21].
4.6.7. Suponha que os pares de vértices de um elipsoide sejam {(1, 1, 1), (3, 1, 1)}, {(2,−1, 1), (2, 3, 1)}
e {(2, 1,−3), (2, 1, 5)}. Encontre a equação quadrática que o tem como conjunto solução.
154
A. Moura - Álgebra Linear com Geometria Analítica
Versão Preliminar, Parcialmente Revisada
A.
 M
ou
ra 
- V
ers
ão
 Pr
eli
mi
na
r4.7. Parametrizações de Curvas, Superfícies e Sólidos
O conceito de parametrização ou equações paramétricas apareceu de maneira semi-formal nas seções
anteriores. Nesta seção falaremos sobre parametrização de maneira um pouco mais formal, embora
não seja viável ser totalmente formal pois isso requer discussão sobre assuntos do cálculo diferencial
que não queremos incluir neste texto. Por isso, a real utilidade desta seção é como uma coleção de
exemplos e atitudes sobre como obter parametrizações.
Formalmente, dado um conjunto C, uma parametrização de C é uma função sobrejetiva
α : X → C
sendo X um outro conjunto (tipicamente mais “simples” que C). O conjunto X é então chamado
de conjunto de parâmetros da parametrização α de C. Em geral, exigi-se alguma propriedade da
função α de modo que a parametrização seja útil para descrever propriedades de C tais como espaço
tangente o que leva ao conceito formal de dimensão. É neste momento que os conceitos de cálculo
diferencial são necessários.1 Por exemplo, temos uma noção intuitiva bastante forte de que tipo de
conjunto C deveria ser para merecer ser chamado de uma curva ou de uma superfície. Em termos de
parametrizações, esta intuição nos levaria a pensar que uma curva é um conjunto parametrizado por
uma função definida num intervalo dos números reais. Como já mencionamos na Seção 4.4, é possível
parametrizar um quadrado por uma função contínua (porém não injetiva) definida no intervalo [0, 1].
Todavia, um quadrado não é algo que deveria ser chamado de uma curva! Porém, não é possível
parametrizar quadrados por uma função continuamente derivável definida num intervalo! De maneira
geral, exigir que α seja continuamente diferenciável é suficiente para estudar muitas propriedades do
conjunto C (em particular, sua dimensão, que então é usada para definir formalmente o que vem a
ser uma curva e uma superfície). Feitas essas ressalvas sobre fenômenos que não estudaremos aqui,
passaremos a discutir vários exemplos.
Exemplo 4.7.1. Já vimos equações paramétricas para retas em Rn (de fato, vimos para retas em Fn
sendo F um corpo qualquer). Relembrando, a reta R passando pelo ponto x = (x1, . . . , xn) com direção
determinada pelo vetor v = (v1, . . . , vn) pode ser parametrizada pela função
α(t) = (x1 + v1t, x2 + v2t, . . . , xn + vnt), t ∈ R.
Note que esta é uma função continuamente derivável com α(0) = x, α′(t) = v (logo ‖α′(t)‖ = ‖v‖) e
α′′(t) = 0. Como vimos no Lema 3.2.1, se y ∈ R e w tem a mesma direção de v, então R(y,w) = R
e podemos utilizar y e w de maneira semelhante para obter uma parametrização diferente da mesma
reta:
β(t) = (y1 + w1t, y2 + w2t, . . . , yn + wnt), t ∈ R.
Porém, também podemos parametrizar R por funções mais gerais. Por exemplo, considere
γ(t) = (x1 + v1t3, x2 + v2t3, . . . , xn + vnt3), t ∈ R.
1Como explicado em livros de física básica, as parametrizações também podem carregar informação sobre a velocidade
de um objeto se movendo sobre o conjunto C entre outros aspectos úteis dependendo do problema em questão. Novamente
os conceitos de cálculo diferencial são fundamentais. No caso de velocidade, em

Mais conteúdos dessa disciplina