You are on page 1of 292

Notas de Aula de Fundamentos de Matemáti

a -

Programa de Pós-Graduação em Engenharia Me âni a -

UDESC

Eduardo Lenz Cardoso

4 de Novembro de 2016
2
Conteúdo

Parte I: Fundamentos de Análise

Parte II: Cál ulo Numéri o

Parte III: Equações Diferen iais

Parte IV: Material Complementar

I Fundamentos de Análise 9
1 Introdução 11
1.1 Con eitos Bási os . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.1.1 Armações do tipo Se-Então . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.1.2 Armações do tipo Se-e-somente-se . . . . . . . . . . . . . . . . . . . . . 14

1.2 Operadores Lógi os . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.2.1 E Lógi o (AND) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.2.2 Não Lógi o (NOT) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.2.3 Ou lógi o (OR) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.3 Provas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.3.1 Prova Direta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.3.2 Contra-Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2 Teoria de Conjuntos 19
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2.2 Quanti adores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2.2.1 Negação de quanti adores . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2.2.2 União de quanti adores . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.3 Operações om Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Números Reais 25
3.1 Algumas Propriedades dos números reais. . . . . . . . . . . . . . . . . . . . . . 27

4 Funções 29
4.1 Composição de Funções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

5 RN 37
5.1 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

3
4 CONTEÚDO

5.2 Conjuntos abertos e fe hados em RN . . . . . . . . . . . . . . . . . . . . . . . . 42

6 Espaços Vetoriais 47
6.1 Transformações Lineares e Fun ionais . . . . . . . . . . . . . . . . . . . . . . . . 48

6.2 Transformação Linear de Espaços Finito Dimensionais . . . . . . . . . . . . . . 50

6.3 Mudança de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

6.4 Mudança de Base Apli ada a Operadores Lineares . . . . . . . . . . . . . . . . . 59

6.5 Formas lineares, bilineares e quadráti as . . . . . . . . . . . . . . . . . . . . . . 61

7 Produto Interno 67
7.1 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

7.2 Projeção . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

7.3 Ortogonalização de Gramm-S hmidt . . . . . . . . . . . . . . . . . . . . . . . . 73

7.4 Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

8 Autovalores e Autovetores 77
8.1 Autovalores e Autovetores Reais . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

8.2 Multipli idade de Autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

8.3 Subespaços Próprios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

8.4 Problema Generalizado de Autovalores e Autovetores . . . . . . . . . . . . . . . 87

9 Continuidade 91

10 Sequên ias 95
10.1 Sequên ias de Cau hy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

10.2 Espaço Completo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

11 Série de Fourier 101

II Cál ulo Numéri o 107


12 Con eitos Bási os de Cál ulo Numéri o 109
12.1 Representação de números naturais em diferentes bases . . . . . . . . . . . . . . 109

12.2 Representação da parte fra ionária de um número real . . . . . . . . . . . . . . 111

12.3 Representação de Números em Computadores . . . . . . . . . . . . . . . . . . . 111

12.4 Epsilon da Máquina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

12.5 Valores espe iais reservados pela norma . . . . . . . . . . . . . . . . . . . . . . . 114

12.6 Pre isão e A urá ia (Exatidão) . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

12.7 Propagação de Erros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

12.8 Di as Importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

13 Des rição Bási a de um Algoritmo 119


13.1 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
CONTEÚDO 5

14 Raízes de Equações 123


14.1 Método da Bise ção . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

14.2 Método Regula Falsi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

14.3 Método de Newton-Raphson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

14.4 Método da Se ante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

15 Operações Bási as om Matrizes 131


15.1 Multipli ação por um es alar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

15.2 Soma de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

15.3 Transposta de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134

15.4 Multipli ação de Matriz por um vetor . . . . . . . . . . . . . . . . . . . . . . . . 134

15.5 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

15.6 Produto de duas Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

15.7 Norma p de um Vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

15.8 Traço de Uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

15.9 Complexidade de um Algoritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

16 Triangularização de uma Matriz Quadrada 141


16.1 Método de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

16.1.1 Pivotamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

16.2 Cál ulo de Determinante de uma matriz obtida por triangularização . . . . . . . 144

16.3 Solução de um Sistema de Equações Lineares . . . . . . . . . . . . . . . . . . . . 145

16.3.1 Inversa de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

17 De omposição LU 149
17.1 Cal ulo de Determinante por De omposição LU . . . . . . . . . . . . . . . . . . 153

17.2 Inversa de uma Matriz por De omposição LU . . . . . . . . . . . . . . . . . . . 153

18 Método de Cholesky 155


18.1 De omposição LDL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

19 Condi ionamento de uma Matriz 159


19.1 Matrizes de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160

20 Métodos Iterativos para a Solução de Sistemas Lineares 163


20.1 Método de Gauss-Ja obi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163

20.2 Método de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

20.3 Método do Gradiente - Steepest Des ent . . . . . . . . . . . . . . . . . . . . . . 168

20.4 Método dos Gradientes Conjugados . . . . . . . . . . . . . . . . . . . . . . . . . 170

20.4.1 Pré-Condi ionamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173


6 CONTEÚDO

21 Sistemas de Equações Lineares Complexas 177

22 Solução de Sistemas Não-Lineares 181

23 Solução de Problemas de Autovalores e Autovetores 183


23.1 Método da Potên ia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

23.1.1 Método da Potên ia Inversa . . . . . . . . . . . . . . . . . . . . . . . . . 186

23.2 Método de Ja obi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188

23.3 Método QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190

23.3.1 Utilizando a De omposição QR para Solu ionar Sistemas de Equações

Lineares Mal-Condi ionados. . . . . . . . . . . . . . . . . . . . . . . . . . 195

23.4 De omposição Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197

23.5 OPCIONAL - Método de Leverrier-Faddev . . . . . . . . . . . . . . . . . . . . . 201

24 De omposição em Valor Singular 207


24.1 Relação entre SVD, Rank e Espaço Nulo de um Operador . . . . . . . . . . . . 209

24.2 Compressão de Imagens Utilizando o SVD - Low-Rank Matrix Approximation . 210

25 Problema de Mínimos Quadrados 215


25.0.1 Es alonamento das Variáveis . . . . . . . . . . . . . . . . . . . . . . . . . 217

25.1 Problema de Mínimos Quadrados Denido por uma Equação não Linear dos

Coe ientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219

26 Derivada Numéri a 221


26.1 Diferenças Finitas Complexas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223

26.2 Cál ulo do Vetor Gradiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224

27 Integração Numéri a 227


27.1 Regra dos Trapézios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227

27.2 Regra de Simpson de Segunda Ordem (Primeira Regra de Simpson) . . . . . . . 228

27.3 Regra de Simpson de Ter eira Ordem (Segunda Regra de Simpson) . . . . . . . 229

27.4 Integração por Quadratura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229

27.4.1 Quadratura de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229

27.4.2 Integrais duplas e triplas . . . . . . . . . . . . . . . . . . . . . . . . . . . 235

27.4.3 Relação entre os pontos de quadratura e os polinmios de Legendre. . . . 236

28 Transformada Dis reta de Fourier - DFT 239


28.1 Inuên ia da taxa de amostragem - aliasing . . . . . . . . . . . . . . . . . . . . 246

28.2 DFT omo um Filtro Digital - Spe tral Leakage . . . . . . . . . . . . . . . . . . 249

28.2.1 Janelamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251


CONTEÚDO 7

III Equações Diferen iais 253


29 Equações diferen iais 255
29.1 Classi ação e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255

29.2 Equações Diferen iais omo Operadores . . . . . . . . . . . . . . . . . . . . . . . 260

29.3 Equações Diferen iais Par iais Lineares . . . . . . . . . . . . . . . . . . . . . . . 260

30 Método dos Resíduos Ponderados 263

IV Material Complementar 277


31 Exemplos de implementação dos algoritmos no S ilab 279
8 CONTEÚDO
Parte I

Fundamentos de Análise

9
Capítulo 1

Introdução

Os on eitos apresentados aqui servirão para que o leitor seja apaz de ompreender um texto

da área de me âni a omputa ional, bem omo entenda a lógi a por trás das implementações

omputa ionais que serão dis utidas ao longo do urso de mestrado.

O texto é organizado de maneira a introduzir os on eitos fundamentais em uma sequên ia

lógi a. Para isto, iremos ini iar om uma revisão de on eitos e nomen laturas bási as da

matemáti a. Após, será apresentado o on eito de onjunto e todas as propriedades de interesse

neste urso, uma dis ussão sobre os números reais e suas propriedades, on eitos sobre funções

e uma dis ussão sobre o RN e suas propriedades. Com esta revisão de on eitos fundamentais,

iremos estudar em detalhes os espaços de funções para, após, nos on entrarmos na denição

dos problemas a serem estudados na dis iplina e na sua implementação numéri a.

É importante salientar que este material é de apoio e não pretende substituir a bibli-
ograa bási a sobre os assuntos abordados. Para tanto, sugiro fortemente que o leitor

onsulte sempre que possível livros lássi os da área, omo por exemplo os livros: Optimization

by Spa e Methods de David. G. Luemberger, Engineering Mathemati s de Stroud and Booth,

Mathemati al Methods for Physi s and Engineering (3rd edition): A Comprehensive Guide de

K.F. Riley, Advan ed Engineering Mathemati s de Kreyszig e Introdução à Análise Linear-1,

2 e 3 de Donald Kreider.

Os quatro primeiros apítulos são fortemente baseados no livro Matemáti a Dis reta:
uma Introdução de Edward R. S heinerman. Os demais apítulos são um apanhado de um

vasto número de livros e das notas de aula.

11
12 CAPÍTULO 1. INTRODUÇ O

1.1 Con eitos Bási os


Para ini iar, vamos relembrar alguns onjuntos bási os

N = {0, 1, 2, 3, ....}
N∗ = {1, 2, 3, 4, ....}
Z = {0, 1, −1, 2, −2, ...}
Z∗ = {1, −1, 2, −2, ...}
m
Q = { : m, n ∈ Z, n 6= 0}
n
m
Q = { m ∈ Z e , n ∈ Z∗ }
n

onde Né o onjunto dos números naturais, Z dos números inteiros (do alemão Zhalen ) e Q dos
números ra ionais (de Quotient ). Com estes onjuntos bási os, podemos onstruir denições

mais avançadas, omo por exemplo:

Denição: Número par

Um número par é um número natural divisível por 2.

Observem que a denição de par depende de 3 on eitos prévios: número natural, divisível

e 2. Alguns são óbvios, omo o 2 (que já é ne essário para denirmos o onjunto N) mas

alguns que pare em óbvios para nós nem sempre são tão laros omo pare em. Vamos denir

o on eito de divisível:

Denição: Divisível

Sejam a e b inteiros. Dizemos que a é divisivel por b se existe um inteiro c tal

que bc = a. Dizemos também que b divide a, ou que b é um fator de a, ou que b é

um divisor de a. A notação orrespondente é b| a.

Desta forma, sempre partimos de on eitos primitivos (axiomas) para obtermos on eitos

derivados, por meio de inferên ias lógi as. O importante é dominar os on eitos fundamentais e,

om algumas ferramentas da matemáti a, onstruir o onhe imento na nossa área de interesse.

Desta forma, tendo o on eito de divisível e de inteiro, podemos es rever:

Denição: Número par (denição alternativa)

Um número natural a é par se 2| a

onde lemos que 2 é divisor de a ou que 2 divide a.

Com esta idéia bási a sobre omo devemos pro eder para onstruirmos on eitos mais avan-
1.1. CONCEITOS BÁSICOS 13

çados, devemos agora denir algumas ferramentas muito utilizadas na bibliograa té ni a da

nossa área. Uma forma de denirmos on eitos derivados é pelo estabele imento de um Teo-

rema (ou os seus equivalentes). Um teorema nada mais é do que uma armação de larativa

sobre matemáti a, para a qual existe uma PROVA (uma armação de larativa é algo omo

"vai hover"ou "o Interna ional é melhor do que o grêmio"). Assim, podemos dizer que um

teorema é uma armação sobre algo que sabemos ser verdade e sabemos provar. Por sua vez,

uma Conje tura não tem prova, omo por exemplo, "todo o inteiro par maior do que 2 é a soma
de dois primos"( onje tura de Goldba h, 1742). Podemos rodar um programa de omputador

por 500 anos sem que isto se verique falso, mas para um matemáti o isto não é uma prova

(para apli ações de engenharia, pode servir, desde que se mostre que as nossas trabalharemos

na faixa de valores veri ados pelo programa). Atualmente, a armação é verdadeira para a

faixa [4, 4 ∗ 1018 ].


Existem alguns termos utilizados em textos matemáti os, omo por exemplo

• Teorema: quando é importante :0)

• Resultado: mesma oisa, só que é menos importante

• Fato: teorema de importân ia limitada (1+1=2)

• Proposição: Um teorema de importân ia limitada

• Lema: Um teorema ujo objetivo é ajudar a provar um outro teorema

• Corolário: Resultado om uma prova rápida, onde usamos resultados já provados em

outros teoremas

• Alegação: Equivale a um lema.

Como os on eitos mais importantes que devemos utilizar estarão na forma de um teorema

(ou um sinnimo), devemos entender omo eles são apresentados e quais são os on eitos bási os

envolvidos nas provas que deveremos ler. Vamos avaliar dois tipos de apresentação de teoremas:

se-então e se-e-somente-se.

1.1.1 Armações do tipo Se-Então


São armações que apresentam a seguinte estrutura: "Se A, então B ", onde A é uma hipótese

e B uma on lusão. Vamos a um exemplo:

✞ ☎
✝ ✆
Teorema: Se x e y forem pares então x+y é par.

Podemos observar que A seria a parte "Se x e y forem pares"e que B seria "então x+y é par".
Desta forma, temos uma impli ação em somente um sentido, de tal forma que o simbolismo grá-

 o para este tipo de estrutura é A ⇒ B. No entanto, nada é dito sobre, por exemplo, a soma
14 CAPÍTULO 1. INTRODUÇ O

de dois impares também resultar em um par. Por isto, é importante sempre pensarmos na ló-

gi a (booleana mesmo) destas armações. Assim, podemos onstruir a seguinte tabela verdade:

A B A⇒B
V V Possível

V F Impossível

F V Possível

F F Possível

que pode ser veri ada om a seguinte armação: "Se eu ganhar na Mega-Sena, todos

os alunos de FM1 serão aprovados". Neste aso, a hipótese A é "ganhar na Mega-Sena"e a

on lusão B seria a aprovação de todos os alunos de Fundamentos da Matemáti a. Vamos

avaliar a tabela verdade:

1) A mas não B: Isto viola a armação, pois se eu ganhar os alunos tem que passar. Por

isto (lembrem-se que estamos falando de matemáti a, onde não tem enganação !) esta situação

onsta omo impossível;

2) A e B: Situação em que A se veri a e, portanto, B o orre;

3) B mas não A: Pode ser que eu não ganhe, mas os alunos sejam muito bons e, portanto,

serão aprovados de qualquer forma;

4) Nem A nem B: Pode ser que eu não ganhe, mas os alunos reprovem por falta de ompe-

tên ia, sem qualquer relação om o resultado da Mega-Sena.

Observem que a situação IMPOSSÍVEL basta para mostrar que um teorema é falso (veremos

isto mais para frente quando estudarmos os tipos de prova).

É interessante também veri ar que a situação não A mas B , omo no aso da soma de dois
ímpares resultar em um par, é possível e o teorema não arma que isto não possa o orrer.

Este tipo de armação pode ser es rita de formas alternativas, omo por exemplo:

"A impli a em B"


"Sempre que A, temos B"
"A é su iente para B"
"A é ondição su iente para B"

1.1.2 Armações do tipo Se-e-somente-se


São armações que apresentam a seguinte estrutura: "Se A então B e se B então A". Vamos

a um exemplo

✞ ☎
✝ ✆
Teorema: Um inteiro x é par se e somente se x+1 é impar.

que poderia ser lido omo "Se um inteiro x é par, então x + 1 é


x + 1 é impar, então
impar, e se

x é par (observem omo  a redundante..). Neste teorema, temos então que A seria "x é par"e
B seria "x + 1 é impar". Para indi ar este aminho em duas vias, utilizamos a notação A ⇔ B ,
1.2. OPERADORES LÓGICOS 15

om a seguinte tabela verdade:

A B A⇔B
V V Possível

V F Impossível

F V Impossível

F F Possível

E um exemplo bem onhe ido é a frase "Um ponto x de uma função ontínua é um máximo
lo al se e somente se a primeira derivada neste ponto for nula e a segunda derivada for negativa".

Observem que nesta frase temos as seguintes partes: A é "Um ponto x de uma função ontínua
é um máximo lo al"e a parte B é "primeira derivada neste ponto for nula e a segunda derivada
for negativa". Assim, do ál ulo I, sabemos que estas ondições só o orrem juntas e, portanto,

hamamos B de " ondição ne essária e su iente"para A. Outras formas utilizadas são:

"A sse B"


"A i B"
"A é equivalente a B ".

1.2 Operadores Lógi os


1.2.1 E Lógi o (AND)
Observem que no exemplo da seção anterior utilizamos duas ondições para montar o B: "pri-

meira derivada neste ponto for nula e a segunda derivada for negativa". O e que está unindo as
ondições "primeira derivada neste ponto for nula" om "segunda derivada for negativa"é um

operador lógi o (E, AND ou ∧) e tem a seguinte tabela verdade

A B AeB
V V V

V F F

F V F

F F F

um exemplo: "Todo o inteiro ujo algarismo das unidades é zero é divisível por 2 e por 5".

1.2.2 Não Lógi o (NOT)


Simplesmente inverte o signi ado lógi o do operador. Por exemplo "todo número par não é

impar"pode ser visto omo A ⇒ not(B) ou, SE par ENT O N O impar. A tabela verdade é

simplesmente:
16 CAPÍTULO 1. INTRODUÇ O

A não A
V F

F V

e o simbolo alternativo é ¬

1.2.3 Ou lógi o (OR)


É um operador que admite a possibilidade de ao menos uma armação ser verdadeira, ou em

outras palavras, se um elemento for satisfeito então a ondição onjunta é satisfeita. Um exem-

plo seria "se a primeira derivada for nula em um ponto x, então este ponto é de mínimo ou
de máximo ou uma inexão". Observem que nesta armação temos: A vale "se a primeira

derivada for nula em um ponto x"e B vale "este ponto é de mínimo ou de máximo ou uma

inexão". Assim, B será válido se ao menos uma ondição for satisfeita (não pre isamos que

todas sejam satisfeitas ao mesmo tempo). A tabela verdade para este operador é:

A B A ou B
V V V

V F V

F V V

F F F

e o símbolo alternativo é ∨.

1.3 Provas
Uma prova é uma argumentação que mostra, de maneira irrefutável, que uma armação é ver-

dadeira. Para entendermos uma prova, pre isamos ompreender a linguagem utilizada para

es rever um texto matemáti o e as impli ações da lógi a dis utida nas seções anteriores. Exis-

tem várias maneiras de provar ou de refutar uma armação.

1.3.1 Prova Direta


A prova direta é uma forma de mostrar que uma armação é verdadeira ou falsa através de

uma ombinação de axiomas e teoremas (nas suas mais variadas formas) já onhe idos.

Vamos analizar a prova direta de duas proposições do tipo Se-Então (A ⇒ B). :

Proposição 1. A soma de dois inteiros pares é par.


Prova: Sejam x e y inteiros pares: omo x é par, sabemos que 2| x. De forma análoga, 2| y .
Portanto, existem inteiros a e b que satisfazem x = 2a e y = 2b, tal que x+y = 2a+2b = 2(a+b).
Assim, existe um inteiro c tal que x + y = 2c e, portanto, c = a + b, tal que 2|c.
-
1.3. PROVAS 17

Proposição 2. Sejam a, b e c inteiros. Se a| b e b| c, então a| c.


Prova: Como a| b, existe um inteiro x tal que b = ax. Da mesma forma, existe um inteiro
y tal que c = by. Portanto, existe um inteiro z tal que c = az , pois c = (ax)y = axy = az.

Para provarmos uma armação do tipo Se-e-Somente-Se, temos que realizar o ra io ínio nos

dois sentidos, na forma

A ⇒ B
A ⇐ B

Proposição 3. Seja x um inteiro. Então x é par se e somente se x + 1 é impar


Prova:
⇒ supondo que x é par, temos que 2| x. Logo, existe um inteiro a tal que x = 2a e, somando
1 em ambos os lados obtemos x + 1 = 2a + 1, que satisfaz a ondição de um número ímpar.
⇐supondo que x + 1 é ímpar, pela denição temos que existe um inteiro b tal que x + 1 =
2b + 1. Subtraindo 1 de ambos os lados, obtemos x = 2b, que é a ondição para x ser par (por
denição).

1.3.2 Contra-Exemplo
Mais fá il do que onstruir é destruir. Assim, podemos refutar uma armação se mostrarmos

que ela falha em uma determinada situação. Para a lógi a matemáti a, basta um aso inválido

para refutar a validade da armação omo um todo (ao ontrário de mostrar que fun iona em

uma situação espe í a, que não é su iente).

Vamos a um exemplo:

Proposição 4. Sejam a e b inteiros. Se a| b e b| a, então a = b.


Prova por ontra-exemplo: Se es olhermos a = −6 e b = 6, temos que −6| 6 e 6| − 6 mas
obviamente −6 6= 6. Assim, a armação é in orreta.

Refutação Direta: Se a| b então existe um inteiro x tal que b = ax. Da mesma forma, existe
um inteiro y tal que a = by. Assim, substituindo a segunda expressão na primeira, obtemos
b = (by)x e onsiderando que b é diferente de zero, podemos dividir ambos os lados por b, tal
que xy = 1. Este resultados pode ser obtido om x = −1 e y = −1, no entanto, nesta situação
teremos b = −1a e a = −1b, tal que b = −a ou a = −b.

Observem que a refutação direta é mais geral do que simplesmente indi ar um ponto falho

na teoria, mas devemos enfatizar que ambas são sufu ientes para refutar a armação omple-

tamente.
18 CAPÍTULO 1. INTRODUÇ O

Como literatura omplementar, sugiro o material

http://www.i .uni amp.br/ anamaria/ ursos/MC348/2010-2/livro-apost-03.pdf


Capítulo 2

Teoria de Conjuntos

2.1 Introdução
Um onjunto é uma oleção de objetos distintos e bem denidos. O on eito de onjuntos

( sets ) foi introduzido por Georg Cantor, que utilizou a seguinte denição "Um onjunto é um

ajuntamento em um onjunto de objetos denidos e distintos de nossa per epção e do nosso

pensamento - que são hamados de elementos do onjunto". No entanto, esta deniçãoo are e

de uma formalidade matemáti a e pode ser onsiderada um axioma. O mais importante do

axioma é que um onjunto tem elementos e que dois onjuntos são iguais se e somente se ontém

os mesmos objetos.

Assumindo que o on eito de onjunto é primitivo, assim omo o de objeto e o on eito de

"perten er", indi amos que um elemento x perten e (faz parte de) um onjuto A om a notação

x∈A

e um onjunto pode ser denido extensivamente

A = {2, 4, 6, 8, 10}

ou ompreensivamente

A = {x ∈ N, x > 1 e x ≤ 1000}

onde a primeira parte da denição é hamada de domínio, x ∈ N, e a segunda parte é hamada

de ondição (observem o uso do operador lógi o e). Sendo dois onjuntos A e B, dizemos que

A está ontido em B (A ⊆ B ) se e somente se todo elemento de A for elemento de B:

A ⊆ B sse ∀x ∈ U x ∈ A ⇒ x ∈ B

onde se lê: A está ontido em B se e somente se, para todo x (perten ente ao universo),

x perten e a A impli a em x perten er a B. O on eito de universo é um artifí io para

onsiderarmos todos os possíveis elementos existentes (no es opo do problema).

Observem que esta denição é de onhe imento geral, mas novamente utilizamos uma série

19
20 CAPÍTULO 2. TEORIA DE CONJUNTOS

de símbolos e on eitos que devem ser bem denidos. Em espe ial, vamos denir os quanti-

adores.

2.2 Quanti adores


Na denição de ⊆ utilizamos o on eito de para todo,∀, que é um quanti ador universal. Esta

denição impli a em onsiderarmos todos os possíveis valores, na forma

∀x ∈ A, armação sobre x

om as seguintes variações:

• "todo inteiro é par ou ímpar"

• "todos os inteiros são pares ou ímpares"

• " ada inteiro ou é par ou é ímpar"

• "seja x um inteiro qualquer. Então x é par ou é ímpar"

Para provarmos uma armação om "para todo", temos que mostrar que a armação é

sempre válida, para qualquer o orrên ia de x.

Um outro quanti ador é o existe, ∃, que impli a na existên ia de ao menos uma o orrên ia
do elemento, na forma

∃x ∈ A, armação sobre x

Este é um quanti ador existen ial e pode ser es rito nas seguintes variações:

• "Existe um número natural que é primo e é par"

• "Existe um x, membro de N, tal que x é primo e par"

É interessante notar que para provarmos uma armação om Existe, basta mostrar que

uma o orrên ia da armação é verdadeira (neste aso, o número 2 é par e primo e, portanto, a

armação é válida).

2.2.1 Negação de quanti adores


Vamos onsiderar a seguinte armação:

"Não existe inteiro que seja simultaneamente par e ímpar". Podemos representar esta

armação das seguintes formas

1) ¬(∃x ∈ Z, x é par e é ímpar)

2) ∀x ∈ Z, ¬(x é par e é ímpar)


2.3. OPERAÇÕES COM CONJUNTOS 21

onde na primeira versão lemos não ( existe x inteiro que é par e é impar) e na segunda

lemos para todo x inteiro não existe x par e ímpar. As duas armações são equivalentes.

Mais um exemplo: "Nem todos os inteiros são primos":

1)¬(∀x ∈ Z, x é primo)

2) ∃x ∈ Z, ¬(x é primo)

que signi am: não (todo x inteiro é primo) e existe x inteiro não primo.

2.2.2 União de quanti adores


É possível agrupar quanti adores para ns de breviedade de notação. Vamos a alguns exem-

plos:

"Para todo o x, existe um y tal que x+y=0"...∀x, ∃y, x +y =0


"Existe um y, tal que para todo o x, temos x+y=0"...∃y, ∀x, x + y = 0

No entanto, devemos ter muito uidado om a sequên ia dos quanti adores. Vamos provar

a primeira armação:

Proposição 5. ∀x, ∃y, x + y = 0


Prova: Seja um x arbitrário e seja y = −x.Então x + y = x − x = 0.

No entanto, uma pequena alteração pode mudar totalmente o sentido da armação, omo

por exemplo

Proposição 6. ∃y, ∀x, x + y = 0


Contra-Exemplo: dado um y = 2 podemos es olher x = 10, que viola a ondição e, portanto,
invalida a armação.

2.3 Operações om Conjuntos


Com as denições das seções anteriores, podemos fo ar om mais profundidade no on eito de

onjunto e suas operações.

União de Conjuntos:

Sejam dois onjuntos A e B. A união de A e B é o onjunto de todos os elementos que estão

em A ou em B, tal que

A ∪ B = {x : x ∈ A ∨ x ∈ B}
22 CAPÍTULO 2. TEORIA DE CONJUNTOS

Interseção de Conjuntos:

Sejam dois onjuntos A e B. A interseção de A e B é o onjunto de todos os elementos que

estão em A e em B, tal que

A ∩ B = {x : x ∈ A x∧ ∈ B}

Com as seguintes propriedades ( omutativas, asso iativas e distributivas):

1. A∪B =B∪A

2. A∩B =B∩A

3. A ∪ (B ∪ C) = (A ∪ B) ∪ C

4. A ∩ (B ∩ C) = (A ∩ B) ∩ C

5. A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)

e, em relação ao onjunto vazio, observamos que

1. A∪∅ =A

2. A ∩ ∅ = ∅.

Para provarmos estas propriedades, podemos utilizar os on eitos de união e interseção, omo

por exemplo:

Prove que A ∪ (B ∪ C) = (A ∪ B) ∪ C :
Da denição de união entre onjuntos, temos que B∪C pode ser es rita omo

B ∪ C = {x : x ∈ B ∨ x ∈ C}

tal que o lado esquerdo da armação que estamos tentando provar pode ser es rito omo

A ∪ (B ∪ C) = {x : (x ∈ A) ∨ (x ∈ B ∨ x ∈ C)}.

Usando a propriedade asso iativa do operador ou podemos es rever

{x : (x ∈ A) ∨ (x ∈ B) ∨ (x ∈ C)}
2.3. OPERAÇÕES COM CONJUNTOS 23

que equivale a

{x : (x ∈ A ∪ B) ∨ (x ∈ C)}

ou

(A ∪ B) ∪ C.

Observem que om este tipo de onstrução podemos provar várias propriedades de onjuntos.

Diferença de Conjuntos:

A diferença entre dois onjuntos é denotada por A−B e signi a que queremos todos os

elementos que perten em a A mas não perten em a B , tal que

A − B = {x : x ∈ A ∧ x ∈
/ B}.

Diferença Simétri a de Conjuntos:

A diferença simétri a entre dois onjuntos é denotada por A∆B e signi a que queremos todos

os elementos que estão em A e não em B E em B mas não em A, tal que

A∆B = (A − B) ∪ (B − A).

Produto Cartesiano de Conjuntos:

Sejam dois onjuntos A e B. O produto artesiano de A e B, denotado por A×B é o onjunto

de todos os pares ordenados (listas de dois elementos) formados tomando-se um elemento de A


juntamente om um elemento de B de todas as maneiras possíveis, tal que

A × B = {(a, b) : a ∈ A, b ∈ B}
24 CAPÍTULO 2. TEORIA DE CONJUNTOS

Como exemplo, vamos onsiderar A = {1, 2} e B = {3, 4}. Assim, pela denição a ima,

temos que

A × B = {(1, 3), (1, 4), (2, 3), (2, 4)}


B × A = {(3, 1), (3, 2), (4, 1), (4, 2)}

e, om isto, veri amos que o produto artesiano entre dois onjuntos não é uma operação

omutativa (A × B 6= B × A).

Cardinalidade de um Conjunto ( ardinality)

A ardinalidade de um onjunto nada mais é do que o número de membros distintos que ele

ontém.

Assim, um onjunto A = {1, 1, 2, 3, 4} tem ardinalidade |A| = 4, pois ontamos somente os

elementos distintos. Note que as seguintes relações entre ardinalidade e as operações denidas

a ima podem ser obtidas:

A ardinalidade do produto artesiano é igual ao produto das ardinalidades

Sejam dois onjuntos A e B. Então, |A × B| = |A| |B|

e, voltando ao exemplo anterior, temos que |A| = 2 e |B| = 2, tal que |A × B| = 4, pois o

onjunto {(1, 3), (1, 4), (2, 3), (2, 4)} tem quatro elementos (pares).
Capítulo 3

Números Reais

Os números reais, R, são utilizados para representar quantidades ontínuas e são a expansão

do onjunto dos números ra ionais, pela onsideração dos númemeros irra ionais (frações que

não podem ser obtidas pela divisão de dois inteiros). Assim, temos que

N ⊆ Z ⊆ Q ⊆ R...

O onjunto dos números reais é obtido por meio de alguns axiomas, onhe idos omo axiomas

de orpo. Assim, R é um onjunto não vazio onde podemos denir duas operações fe hadas:

• Adição: + :R×R →R ou (x, y) → x + y ;

• Multipli ação: ∗:R×R→R ou (x, y) → x ∗ y ;

om os axiomas asso iados a soma:

• Asso iatividade: (x + y) + z = x + y + z x, y, z ∈ R;

• Comutatividade: x + y = y + x x, y ∈ R;

• Elemento Neutro: x + 0 = x x, 0 ∈ R;

• Simétri o: x + (−x) = 0 x, 0 ∈ R;
e om os axiomas asso iados a multipli ação:

• Asso iatividade: (x ∗ y) ∗ z = x ∗ y ∗ z x, y, z ∈ R;

• Comutatividade: x ∗ y = y ∗ x x, y ∈ R;

• Elemento Neutro: x ∗ 1 = x 1, 0 ∈ R;

• Inverso Multipli ativo: x ∗ x−1 = 1 x, 1 ∈ R x 6= 0;

além do axioma da distributividade, que estabele e que x ∗ (y + z) = x ∗ y + x ∗ z x, y, z ∈ R.


Por m, mas não menos importante, temos um onjunto de axiomas referentes ao on eito

de Conjunto Ordenado (ou Corpo Ordenado), que dá origem ao on eito de inequações. Para

25
26 CAPÍTULO 3. NÚMEROS REAIS

este m, denimos um sub onjunto P ⊆ R, que ontém os elementos positivos de R, atendendo
aos seguintes axiomas:

• A soma e o produto de números positivos são positivos;

• Para x∈P temos três alternativas: x = 0, x ∈ P , −(x) ∈ P ;

ou seja, R = 0 ∪ P ∪ (−P ), onde o onjunto −P é onhe ido omo onjunto dos números (reais)

negativos.

Uma vez que ordenamos os números reais, podemos observar que

• x > 0 se x ∈ P ;

• x < 0 se x ∈ −P ;

• x ≥ 0 se x ∈ P ∪ 0;

• x ≤ 0 se x ∈ −P ∪ 0;

• x > y ⇒ x − y > 0;

• x < y ⇒ x − y < 0;

• x ≥ y ⇒ x − y ≥ 0;

• x ≤ y ⇒ x − y ≤ 0;

dando origem ao on eito de desigualdade, que é fundamental para denirmos intervalos de

números reais.

Um intervalo nada mais é do que um sub onjunto de R, denido entre dois valores (nitos

ou innitos). Desta forma, temos as seguintes possibilidades:

• (a, b) = {x ∈ R : x > a ∧ x < b};

• [a, b] = {x ∈ R : x ≥ a ∧ x ≤ b};

• (a, b] = {x ∈ R : x > a ∧ x ≤ b};

• [a, b) = {x ∈ R : x ≥ a ∧ x < b};

para intervalos nitos e

• (a, +∞) = {x ∈ R : x > a};

• [a, +∞) = {x ∈ R : x ≥ a};

• (−∞, a) = {x ∈ R : x < a};

• (−∞, a] = {x ∈ R : x ≤ a};

para intervalos innitos.


3.1. ALGUMAS PROPRIEDADES DOS NÚMEROS REAIS. 27

3.1 Algumas Propriedades dos números reais.


Vamos apresentar algumas denições importantes ao trabalharmos om números reais:

Cota superior e ota inferior:

Seja um onjunto S ∈ R. Dizemos que u∈R é ota superior de S se ∀s ∈ S, s ≤ u. Analoga-

mente, dizemos que v∈R é ota inferior de S se ∀s ∈ S, v ≤ s.

assim, de uso da denição a ima, podemos também denir

Conjunto Limitado por baixo e Conjunto Limitado por Cima:

Se um onjunto S tem ota inferior, dizemos que ele é limitado por baixo ou limitado inferior-

mente. Analogamente, se o onjunto tem ota superior, dizemos que ele é limitado por ima

ou limitado superiormente.

Como exemplo, podemos itar o onjunto dos números naturais, que tem uma ota inferior, 0,
mas não tem ota superior. Avaliando as denições a ima, podemos veri ar que um onjunto

limitado por ima, por exemplo, pode ter diversas otas superiores. Para veri armos esta

armação, vamos onsiderar o onjunto A = [0, 1]. Qualquer número real maior ou igual a 1
será uma ota superior para o onjunto e qualquer número menor ou igual a 0 será ota inferior,
pois a denição espe i a que as otas devem perten er a R. Com isto em mente, podemos

denir os on eitos de Supremo e de Inmo:

Supremo de um onjunto / Inmo de um onjunto:

Se um onjunto S é limitado por ima, hamamos de supremo de S


sup(S) a menor de suas
ou

otas superiores. Analogamente, se S é limitado por baixo, hamamos de inmo ou inf (S) a

maior de suas otas inferiores.

omo exemplos, podemos itar os seguintes onjuntos:

1) A = {x ∈ R : 0 ≤ x ≤ 1}
Neste aso, temos que o onjunto está denido entre 0 e 1, in lusive. Assim, A ontém

innitas otas superiores, pois qualquer número real na faixa [1, ∞) satisfaz a denição 3.1. No

entanto, 1 é a menor das otas superiores e, portanto, é o supremo do onjunto. O mesmo vale

para o extremo esquerdo do intervalo. Assim: inf (A) = 0 e sup(A) = 1.


2) B = {x ∈ R : 0 ≤ x < 1}
O que muda no segundo exemplo é o fato de o limite superior do intervalo agora ser denido

por um intervalo aberto. Neste aso, as otas superiores estarão na faixa (1, ∞) e o supremo

será o menor valor deste intervalo. Assim, sup(B) = 1, mas om uma diferença que é muito

importante na práti a da me âni a omputa ional:

sup(A) ∈ A
sup(B) ∈
/ B
28 CAPÍTULO 3. NÚMEROS REAIS

ou seja, no segundo aso o supremo não está ontido no onjunto.

Valor Absoluto de um número real:

Seja um número a ∈ R. O valor absoluto (ou em módulo) de a é dado por

(
+a se a > 0
|a| =
−a se a < 0

assim, se a = −1, temos que |a| = −(−1) = 1. Com esta denição, podemos estabele er as

seguintes relações:

1. |−a| = |a| , ∀a ∈ R

2. |ab| = |a| |b| , ∀a, b ∈ R

3. |a| ≤ k ⇔ a ∈ [−k, k], ∀a, k ∈ R

4. − |a| ≤ a ≤ |a| , ∀a ∈ R.

Teorema 1. Desigualdade Triangular

Sejam a, b ∈ R,
|a + b| ≤ |a| + |b|

e este teorema é tão utilizado, que vamos apresentar a prova para que que bem lara a impli a-

ção desta desigualdade: Sabendo que − |a| ≤ a ≤ |a| e que − |b| ≤ b ≤ |b| , podemos somar estas
duas denições, obtendo − |a|−|b| ≤ a+b ≤ |a|+|b| . Da denição de que |a| ≤ k ⇔ a ∈ [−k, k],

veri amos que k , nesta expressão, assume a forma de |a| + |b|, e, portanto, a armação pode

ser es rita omo |a + b| ≤ |a| + |b|.


Como exemplo, vamos utilizar a = 1 e b = −2. Neste aso |1 − 2| = |−1| = 1 e |1| + |−2| =
1 + 2 = 3. Como 1 < 3, veri amos que a desigualdade triangular faz sentido.
Capítulo 4

Funções

De forma bem simplória, podemos defnir uma função omo sendo uma entidade que transforma

uma quantidade em outra.

De maneira mais formal, temos a seguinte denição:

Função:

Uma relação f é hamada de função desde que (a, b) ∈ f e (a, c) ∈ f impliquem em b = c.

Nesta denição utilizamos o on eito de relação. Uma relação nada mais é do que um onjunto

de pares ordenados, na forma

R = {(1, 2), (3, 4), (5, 6)}

onde podemos ver os pares omo sendo (entrada, saida) da função. Assim, o que a denição

de função está dizendo, é que se apli armos as entradas da função e observarmos as saídas, não

poderemos ver um resultado diferente para uma mesma entrada. Assim, a relação

R = {(1, 2), (1, 4), (2, 7)}

não é uma função, pois para uma mesma entrada, 1, tivemos duas respostas diferentes 2 e 4.
Assim, de forma alternativa, poderíamos es rever

Função (denição alternativa):

Uma relação f é hamada de função desde que f (a) = b e f (a) = c impliquem em b = c.

assim, por exemplo, podemos denir uma função omo

f = {(x, y) : x, y ∈ Z, y = x2 }

que, em termos de pares ordenados teria a forma

f = {(1, 1), (2, 4), (3, 9), (4, 16), ...}.

29
30 CAPÍTULO 4. FUNÇÕES

✬ ✩
Funções Multivaloradas (Polídromas):

Algumas "funções" omo por exemplo raiz quadrada ou funções trigonométri as inversas apre-

sentam mais de um valor para o mesmo argumento de entrada. Neste aso, mesmo sendo muito

omuns, não podemos utilizar a nomen latura de função. O orreto seria hamar de relação,

✫ ✪
onforme vimos anteriormente. Contribuição de Barbara Haens h S hneider.

É importante entender o on eito de função e omo ela se rela iona om a teoria de onjun-

tos que revisamos anteriormente. Para isto, vamos estudar as seguintes denições:

Domínio de uma função:

Seja uma função f. O onjunto de todos os primeiros elementos possíveis dos pares ordenados

de f é hamado de domínio de f ou dom f . Em notação matemáti a:

dom f = {a : ∃b, (a, b) ∈ f }

ou, de forma mais direta:

dom f = {a : f (a) def inido}

assim, na denição f = {(x, y) : x, y ∈ Z, y = x2 } o domínio é Z.

Imagem e ontradomínio de uma função:

Seja uma função f. O onjunto de todos os possíveis segundos elementos dos pares ordenados

de f é hamada de imagem de f ou im f . Em notação matemáti a:

im f = {b : ∃a, (a, b) ∈ f }

ou, de forma mais direta:

im f = {b : b = f (a) para algum a ∈ dom f },

ou mais diretamente ainda, a imagem é a própria saída da função. O ontradomínio da função,

por sua vez, é um onjunto mais amplo, que ontém a imagem. Por exemplo, a imagem de

f = {(x, y) : x, y ∈ Z, y = x2 } são os quadrados perfeitos e o ontradomínio é Z.

f :A→B
Seja f uma função e sejam A e B onjuntos. Dizemos que f é uma função de A para B se
dom f = A e se im f ⊆ B , onde B é o ontradomínio. Alternativamente, dizemos que f é uma
apli ação de A em B .

Assim, a função seno é uma função que mapeia o onjunto dos reais no onjunto dos reais, pois

f = {(x, y) : x, y ∈ R, y = sen(x)}, e, portanto, temos que dom f = R e im f = [−1, 1] ⊆ R .


31

a1
a1
f(a1)
f(a1)
a2
a2

f(a2)

f é um-a-um f não é um-a-um

Figura 4.1: Função um-a-um

Funções inversas:

Seja uma função f : A → B= {(a1 , b1 ), (a2 , b2 ), ....}. A inversa da função, denotada por f −1 é

obtida pela inversão dos termos de ada um dos pares que formam a relação, tal que

f −1 = {(b1 , a1 ), (b2 , a2 ), ...}

É importante salientar que a inversa da função f : A → B não é ne essaria-


mente uma função f −1 : B → A. Para entendermos isto, vamos onsiderar os onjuntos
A = {1, 2, 3, 6, 8} e B = {2, 4, 5, 4, 7} e a função f : A → B= {(1, 4), (2, 5), (3, 4), (6, 2), (8, 5)}.
−1
Neste aso, a inversa de f será dada por f = {(4, 1), (5, 2), (4, 3), (2, 6), (5, 8)} que não é
uma função pois temos os pares (4, 1) e (4, 3), bem omo (5, 2) e (5, 8). Ainda, temos que
−1
dom f = {4, 5, 2} =
6 B. No entanto, esta ondição não é geral e podemos ter situações em

que a inversa é uma função e, ainda, mapear os onjuntos na forma esperada.

Função um-a-um (injetiva):

Uma função f é hamada de um-a-um se (x, b), (y, b) ∈ f ⇔ x = y . Em outras palavras,

f (x) = f (y) se e somente se x = y.

Assim, temos que uma função um-a-um é aquela que mapeia ada valor distinto
de A em um valor distindo de B .

Um exemplo bastante simples de uma função um-a-um é um polinmio linear om forma

ax + b. Se a função for injetiva, temos que satisfazer a ondição

ax + b = ay + b

e, se a 6= 0, podemos subtrair b dos dois lados e depois dividir por a. Neste aso, provamos que

x = y. Um exemplo de uma função que não é injetiva é a função f = {(x, y) : x, y ∈ R, y = x2 }.


Neste aso, teriamos que veri ar se igualdade

a2 = b2
32 CAPÍTULO 4. FUNÇÕES

f é sobre f não é sobre

Figura 4.2: Função sobre

impli a em a = b, o que obviamente não o orre para ∀a, b ∈ R (podemos pensar no aso óbvio
onde a = −1 e b = 1). Uma observação interessante, é que se a função fosse denida no
onjunto dos números naturais, então o resultado seria diferente. Porque ?

Com esta denição, podemos então armar que:

Seja f uma função. A relação inversa f −1 é uma função se e somente se f for injetiva. Neste
−1
aso, temos que dom f = im f e im f = dom f −1 .

A seguinte denição também é muito importante para entendermos vários resultados futuros:

Sobre:

Uma função f :A→B é dita sobre B desde que, para todo b ∈ B, exista um a∈A tal que

f (a) = b, ou seja, im f = B . Em linguagem matemáti a:

∀b ∈ B, ∃a ∈ A, f (a) = b

Portanto, para que a função seja sobre, todo elemento de B deve ter um orres-
pondente em A, ou de forma mais direta, temos que a essar todos os elementos de
B.

Assim, dado f : A → B, para que f −1 seja uma função é ne essário que f seja injetiva

(um-a-um). Com isto, se f ainda for sobre B, então podemos armar que f −1 : B → A. Neste

aso:

Bijeção:

Seja f : A → B. f é hamada de uma bijeção se é ao mesmo tempo injetiva e sobre.

Exemplo: Sejam A o onjunto dos números inteiros pares e B o onjunto dos inteiros ím-

pares. Vamos mostrar que f (x) = x + 1 é uma bijeção. Primeiro, vamos mostrar que f é

um-a-um. Para isto, basta mostrarmos que

x+1=y+1
4.1. COMPOSIÇ O DE FUNÇÕES 33

e, des ontando 1 dos dois lados, mostramos que

x = y.

Para veri armos se é sobre, temos que sele ionar um elemento de B, que pode ser es rito na

forma genéri a omo y = 2k + 1. Por denição, um elemento de A pode ser es rito na forma

x = 2k, tal que a função a ser estudada pode ser es rita na forma

f (x) = x + 1 = 2k + 1

que mostra que f é sobre e, portanto f é uma bijeção.

Observem que se os onjuntos A e B forem nitos, podemos estabele er as seguintes rela-

ções:

Prin ípio da Casa do Pombo:

Sejam A e B onjuntos nitos e seja f : A → B.

• Se |A| > |B|, então f não é um-a-um.

• Se |A| < |B|, então f não é sobre.

Isto é fá il de entender, pois se |A| > |B| então os primeiros b elementos de A serão levados

para diferentes elementos de b. Após isto, não há elementos em B aos quais podemos apli ar

os elementos restantes de A.
Da mesma forma, se |A| < |B|, então sabemos que não existem elementos su ientes em A
para obrir todos os elementos em B.

Tarefa:

Domínio Contradomínio f um a um ? sobre ? Bijeção ?

Z Z x → x3
R R x → x3
Z N x → |x|
Z Z x → x2
! Justique ada uma das armações !

4.1 Composição de Funções


Sejam duas funções f : A → B e g : B → C. É possível denirmos uma função que mapeie

diretamente de A para C , om notação

(g ◦ f )(a) = g[f (a)], a ∈ A


34 CAPÍTULO 4. FUNÇÕES

e que hamamos de omposição de g e f. Observem que a notação indi a que apli amos f (a)
(f está mais próximo e a) e depois apli amos g no resultado desta operação. Ainda, temos que

dom (g ◦ f )(a) = dom f

pois não estamos modi ando a entrada do pro esso. O mais importante diz respeito ao a o-

plamento entre f e g, pois a saída de f deve ser uma entrada válida para g. Isto pode ser

garantido om

im f ⊆ dom g

e, muito importante, devemos lembrar que

(g ◦ f ) 6= (f ◦ g).

Vamos a dois exemplos:

1) Sejam f :Z→Z e g : Z → Z, om f (x) = x2 + 1 e g(x) = 2x − 3. Para al ularmos

(g ◦ f )(4), pro edemos da seguinte forma:

f (4) = (4)2 + 1 = 17

g(f (4)) = 2 ∗ 17 − 3 = 31

ou, de modo geral

(g ◦ f ) = 2(x2 + 1) − 3 = 2x2 + 2 − 3 = 2x2 − 1.

2) Com as mesmas funções do exemplo 1, podemos ver que

(f ◦ g) = (2x − 3)2 + 1 = 4x2 − 12x + 10

de modo que a omposição de funções não satisfaz a propriedade omutativa. No entanto,

satisfaz a propriedade asso iativa.

Propriedade Asso iativa:

Sejam f : A → B, g : B → C e h : C → D, então

h ◦ (g ◦ f ) = (h ◦ g) ◦ f

Exemplo: Sejam A = {1, 2, 3, 4, 5}, B = {6, 7, 8, 9} e C = {10, 11, 12, 13, 14}. As funções

f :A→B e g : B → C são denidas por

f : {(1, 6), (2, 6), (3, 9), (4, 7), (5, 7)}

g : {(6, 10), (7, 11), (8, 12), (9, 13)}


4.1. COMPOSIÇ O DE FUNÇÕES 35

f g

a
f(a) g(f(a))

gof

Figura 4.3: Composição de funções.

então

(g ◦ f ) = {(1, 10), (2, 10), (3, 13), (4, 11), (5, 11)}

onde utilizamos o seguinte ra io ínio: (1, 6) é um par de f na forma (a, b) que serve omo

entrada para g que tem a forma (b, c). Assim, a omposição retorna um par na forma (a, (, c))
onde o b deve ser igual. Assim, b = 6 está presente em f nos pares (1, 6) e (2, 6), tal que isto
gera duas saidas em g, pois temos (1, (, 10)) e (2, (, 10)).

Um on eito muito Interessante é o de função identidade:

Função Identidade em um onjunto:

Seja A um onjunto. A função identidade em A é a função idA ujo domínio é A e satisfaz

idA = {(a, a)∀a ∈ A}

os seja, a imagem é sempre igual ao domínio.

sendo que as seguintes propriedades são observadas


Sejam dois onjuntos A e B e uma função f : A → B, então

f ◦ idA = idB ◦ f = f

Sejam dois onjuntos A e B e uma função f :A→B que é um-a-um e sobre, então

f ◦ f −1 = idB

f −1 ◦ f = idA

vamos a um exemplo para deixar estes on eitos mais laros.

Exemplo: Considere os onjuntos A = {1, 2, 3} e B = {2, 4, 6} e a função f = {(1, 2), (2, 4), (3, 6)},
que nada mais é do que f = {(x, y) : x ∈ A, y ∈ B, y = 2x}. Neste aso, temos que

idA = {(1, 1), (2, 2), (3, 3)}


36 CAPÍTULO 4. FUNÇÕES

idB = {(2, 2), (4, 4), (6, 6)}

e a inversa da função é tal que

y
f −1 = {(2, 1), (4, 2), (6, 3)} = {(y, x) : y ∈ B, x ∈ A, x = }.
2

Assim, ao apli armos as denições a ima, observamos que

f −1 ◦ f = {(1, 1), (2, 2), (3, 3)} = idA

f ◦ f −1 = {(2, 2), (4, 4), (6, 6)} = idB

f ◦ idA = {(1, 2), (2, 4), (3, 6)}

idB ◦ f = {(1, 2), (2, 4), (3, 6)}.

Devemos observar que as funções identidade podem ser denidas omo

idA = {(x, x) : x ∈ A, x}

idB = {(y, y) : y ∈ B, y}

tal que

f ◦ idA = f (x) = 2x

idB ◦ f = y ◦ (2x) = 2x

e
1
f −1 ◦ cf = (2x) = idA
2
y
f ◦ f −1 = 2( ) = idB .
2
Capítulo 5

RN

Para ini iarmos os nossos estudos sobre espaços vetoriais, iremos abordar o RN . No RN os

elementos são hamados de vetores e são formados por uma oleção de números reais, omo

por exemplo (2, 1) no R2 ou (1, 2, 3) no R3 (que em duas e três dimensões permitem uma repre-

sentação grá a que já é de onhe imento de qualquer aluno de graduação). É importante que

os on eitos aprendidos aqui sejam bem xados, pois iremos re-utilizar estes on eitos quando

formos estudar os espaços de funções, mais adiante. De maneira mais formal

RN :
RN é o onjunto das n-úplas ordenadas de números reais, na forma

RN = {u = (u1, u2 , u3 , ....., uN ) : ui ∈ R, i = 1, ..., N}

Tendo em mente esta denição, podemos então denir um espaço vetorial sobre os reais, na

forma:

37
38 CAPÍTULO 5. RN

Espaço Vetorial sobre os reais:

Um espaço vetorial V sobre os reais é um onjunto ujos elementos hamamos de vetores, om

duas operações binárias: soma e multipli ação por um es alar, tais que:

• u + v = v + u, ∀u, v ∈ V

• (u + v) + w = u + (v + w), ∀u, v, w ∈ V

• ∃0 ∈ V : 0 + u = u, ∀u ∈ V

• ∀u ∈ V, ∃v, u + v = 0

• ∃1 ∈ V : 1u = u, ∀u ∈ V

• (α + β)u = αu + βu, ∀α, β ∈ R, ∀u ∈ V

• α(βu) = (αβ)u∀α, β ∈ R, ∀u ∈ V

• α(u + v) =αu + αv, ∀α ∈ R, ∀u, v ∈ V

Como exer í io, podemos veri ar todas as armações a ima onsiderando R2 .

De posse destas informações, podemos agora denir algumas operações de interesse no RN :

Produto interno:

Seja V espaço vetorial sobre os reais. Um produto interno é uma função de V × V → R, om

notação u, v → u · v ou < u, v > om as seguintes propriedades

• u · u > 0, ∀u ∈ V, u 6= 0

• u · v = v · u, ∀u, v ∈V

• (αu) · v = α(u · v), ∀α ∈ R, ∀u, v ∈ V

• (u + v) · w = u · w + v · w, ∀u, v, w ∈ V

sendo que no RN o produto interno anni o é de onhe imento geral, na forma

u · v = u1v1 + ... + un vn

mas isto não impli a na existên ia de somente esta implementação de produto interno. De

fato, temos que uAv, onde A é uma matriz positivo-denida (vamos denir formalmente o este
on eito mais para frente) de dimensões N × N, também gera uma operação que atende aos

requisitos listados a ima. Por exemplo,

" # !
5 −1 v1
(u1, u2 ) = 5v1 u1 − u1 v2 − u2 v1 + 5u2v2
−1 5 v2
39

e a primeira propriedade (positividade), teria a forma

u · u = 5u21 − 2u1u2 + 5u22

que é estritamente positiva para u 6= (0, 0). Assim, podemos dizer que no produto interno

anni o, A assume a forma da identidade ( aso parti ular).

Outro on eito importante é o de norma. A norma nada mais é do que uma medida de

um elemento do espaço (vetor), sendo que, assim omo o produto interno, tem uma denição

geral e seus asos parti ulares.

Norma

Dado um espaço vetorial V, uma norma é uma função de V → R, denotada por u → kuk e

que satisfaz as seguintes ondições:

• ku + vk ≤ kuk + kvk , ∀u, v ∈ V (desigualdade triangular)

• kαuk = α kuk ∀u ∈ V, ∀α ∈ R

• kuk > 0, ∀u ∈ V, u 6= 0

e, quando um espaço vetorial tem uma norma asso iada, este é dito espaço normado (veremos

isto em mais detalhes no apítulo sobre espaço de funções). Relembrando o R2 , temos omo

norma usual q
kuk = u21 + u22

que satisfaz os requisitos listados na denição da norma. No entanto, podemos estender o

on eito para
N
! P1
X
kukP = |ui |P , p ∈ N∗ , p par
i=1

que gera a norma usual (também hamada de norma-2 ou kk2 ) quando p = 2 e innitas normas.
Um aso interessante é a norma om p → ∞, também hamada de max, pois

kuk∞ = max |ui |


1≤i≤N

retornando o maior valor (em módulo) do vetor.

É interessante notar que om o on eito de norma podemos denir o on eito de distân ia

entre dois vetores, pois

Distân ia

Seja V um espaço vetorial normado e u,v dois elementos deste espaço. Denimos omo a

distân ia entre u e v o es alar

d(u, v) = ku − vk
40 CAPÍTULO 5. RN

Se um espaço é normado e tem produto interno denido, então a seguinte denição se apli a:

Teorema 2. Seja V ∈ RN um espaço vetorial normado om produto interno. Então



kuk2 = u·u

e veri a-se a desigualdade de Cau hy-S hwartz

|u · v| ≤ kuk2 kvk2

5.1 Bases
Um on eito fundamental quando lidamos om espaços vetoriais é o on eito de Base, que está

rela ionado ao on eito de vetores linearmente independentes. Assim, é interessante ini iarmos

om alguns on eitos bási os:


Combinação Linear:

Sejam V ⊆ RN um espaço vetorial e u um membro deste espaço. Se u puder ser es rito na

forma
N
X
u= αi vi
i=1

onde αi ∈ R e vi ∈ V , então dizemos que u é obtido por meio de uma ombinação linear de

outros membros do espaço.

Vetores Linearmente Dependentes e Linearmente Independentes:

Sejam dois elementos u e v ∈ V ⊆ RN . Se u não puder ser es rito por meio de uma ombinação
linear de v então dizemos que u e v são linearmente independentes. Alternativamente, se u

puder ser es rito por meio de uma ombinação linear de v, dizemos que u e v são linearmente
dependentes.
Conjunto Linearmente Dependente e Linearmente Independente:

Seja V ⊆ RN um espaço vetorial e S um onjunto que ontém m elementos de V. Se nenhum

elemento de S puder ser es rito por meio de uma ombinação linear dos outros elementos de

S, então o onjunto é dito linearmente independente. Neste aso, temos que

α1 u1 + .... + αm um = 0

se e somente se α1 = α2 = ... = αm = 0. Do ontrário, o onjunto é dito linearmente dependente.


Span (Gerador) :
Seja V ⊆ RN um espaço vetorial e seja S = {u1 , u2 , ..., un } um onjunto de elementos de V.
Se ada vetor em V puder ser es rito omo uma ombinação linear dos elementos de S, então
Pn
dizemos que S spans V , ou S gera V. Alternativamente, podemos dizer que v= i=1 αi ui
onde v ∈V .
5.1. BASES 41

Tendo em mente estes on eitos, podemos sele ionar um sub onjunto B de V, que seja line-
2
armente independente. Por exemplo, no R temos omo vetores linearmente independentes o

onjunto B = {(1, 0), (0, 1)}. Estes vetores são L.I, pois não é possível gerar (1, 0) = α(0, 1)
2
para quaisquer valores de α ∈ R. No entanto, outros vetores de R podem ser obtidos a partir

de uma ombinação linear de elementos de B, omo por exemplo:

• (2, 4) = 2(1, 0) + 4(0, 1)

• (33.5, −100) = 33.5(1, 0) − 100(0, 1).

Assim, podemos veri ar que o onjunto B ⊆ R2 ontém os elementos que servem para ons-
2
truir quaisquer outros elementos de R , de tal forma que B é onhe ido omo base do espaço
2
R (nesta aso parti ular, também hamada de base anni a)

Base:

Seja V ⊆ RN um espaço vetorial e B um onjunto de V . B é dito base de V se:

• B é linearmente independente

• B spans V

É importante salientar que:

• um espaço pode ter mais de uma base

• a ardinalidade de B dene a dimensão do espaço

• diferentes bases de um mesmo espaço terão a mesma ardinalidade

Vamos a um exemplo: Utilizando o R2 por uma questão de simpli idade, podemos veri ar que

os onjuntos

B1 = {(1, 0), (0, 1)}


B2 = {(3, 1), (−2, 1)}

são linearmente independentes, pois

(1, 0) 6= α(0, 1), ∀α ∈ R

(3, 1) 6= α(−2, 1), ∀α ∈ R

e podemos gerar um dado elemento de R2 por meio de uma ombinação linear dos elementos

de B1 ou de B2 . Por exemplo, (7, 9) pode ser gerado por

(7, 9) = α1 (1, 0) + α2 (0, 1)


(7, 9) = β1 (3, 1) + β2 (−2, 1)
42 CAPÍTULO 5. RN

tal que, para a primeira base podemos obter os oe ientes diretamente, pois

7 = α1 e 9 = α2

e, para a segunda base temos

7 = 3β1 − 2β2
9 = β1 + β2

uja solução é β1 = 5, β2 = 4.

5.2 Conjuntos abertos e fe hados em RN


Antes de ini iarmos a denição de onjuntos abertos e onjuntos fe hados, pre isamos denir

uma bola em RN . Vamos apresentar três denições distintas:

Bola aberta em RN :
Uma bola aberta de raio r e entro u é denida por

Br (u) = {v ∈ RN : d(u, v) < r}

Bola fe hada em RN :
Uma bola fe hada de raio r e entro u é denida por

Br (u) = {v ∈ RN : d(u, v) ≤ r}

Esfera em RN :
Uma esfera de raio r e entro u é denida por

Br (u) = {v ∈ RN : d(u, v) = r}

sendo que a úni a diferença está na desigualdade/igualdade. Estas denições nada mais são do

que a espe i ação de uma região no entorno de um ponto u, onde iremos onsiderar elemen-

tos vizinhos v, de a ordo om alguma norma pré-denida. No que segue, iremos utilizar o

on eito de bola aberta.

O on eito de onjunto aberto e de fe hado ausa muita onfusão. Não devemos pensar em

uma aixa aberta ou fe hada, mas sim respeitar as denições que serão apresentadas a seguir:

Conjunto Aberto:

Um onjunto G ⊆ RN é aberto em RN se para todo o u ∈ G existe ǫ > 0 real tal que Bǫ (u) ⊆ G

Ou seja, um onjunto é aberto se qualquer ponto deste onjunto pode ser pertur-
5.2. CONJUNTOS ABERTOS E FECHADOS EM RN 43

bado por uma quantidade innitesimal ǫ em qualquer direção e ainda ontinuar no


onjunto (a bola toda deve estar ontida no onjunto).

Como exemplo, vamos onsiderar o onjunto A = {x : x ∈ (0, 1)}. Se denirmos uma


bola de raio ǫ em uma posição genéri a x teremos Bǫ (x) = (x − ǫ, x + ǫ). Agora vamos
imaginar que ǫ tem valores na faixa min{ x2 , 1 − x2 } então, se nos aproximarmos de zero, teremos
Bǫ (x → 0) = (x − x2 , x + 1 − x2 ) → (0, 1) ∈ A.
Outro exemplo: I = {x : x ∈ [0, 1]}. Se denirmos uma bola de raio ǫ em uma posição

genéri a x teremos Bǫ (x) = (x − ǫ, x + ǫ). Agora vamos imaginar que estamos em x=0 e que

perturbamos em ǫ genéri o. Termos um intervalo (−ǫ, ǫ) sendo que o extremo esquerdo deste

intervalo não está ontido em I.


N
O onjunto R é aberto pois omo se extende ao innito, sempre podemos olo ar uma

bola que onterá pontos no RN


Assim, para intervalos unidimensionais é fá il de ver que se o intervalo for
aberto, então é possível hegar arbitrariamente perto do extremo aberto e ainda
denir uma bola innitesimal que esteja ontida no intervalo. Se o intervalo for
fe hado, então podemos nos posi ionar exatamente sobre o extremo e mostrar que
uma bola entrada neste ponto terá pontos fora do intervalo.
É interessante notar que o onjunto vazio ∅ é aberto (por va uidade, pois se não tem pontos,
então não podemos denir a noção de uma bola).

Complemento de um Conjunto:

O omplemento ∁(V ) de um onjunto é denido por

∁(V ) = RN \V = {u ∈ RN : u 6= F }

e, omo exemplo, podemos itar ∁(I) = (−∞, 0) ∪ (1, ∞), para I = [0, 1] e ∁(A) = (−∞, 0] ∪
N
[1, ∞), para A = (0, 1). Dois omplementos interessantes são: ∁(∅) = R e ∁(RN ) = ∅.

Conjunto Fe hado:

Um onjunto F ⊆ RN é fe hado em RN se seu omplemento é aberto

Assim, onsiderando os exemplos om os quais estamos trabalhando, observamos que

1) O omplemento de A não é aberto, pois se posi ionarmos a bola em 0] ou em [1 teremos

um pedaço da bola aberta fora do omplemento (dentro de A). Assim, A não é fe hado;

2) O omplemento de I é aberto, pois é possível posi ionar a bola em qualquer ponto do

omplemento e garantir que a bola estara ontida no omplemento (não possuirá pontos em I ).
Assim, I é fe hado.
44 CAPÍTULO 5. RN

Interessante notar que um onjunto pode ser aberto e fe hado ao mesmo tempo. Por exem-

plo, ∅ é aberto e é fe hado (pois o seu omplemento é aberto). Da mesma forma, RN também

tem omplemento aberto, sendo portanto fe hado.

Um onjunto pode não ser aberto e nem fe hado. Em exemplo seria o onjunto E = {x : x ∈
(0, 1]}. Este onjunto não é aberto, pois podemos posi ionar a bola aberta em 1 e, om isto, ter
pontos da bola fora de E. O interessante é que o omplemento de E , ∁(E) = (−∞, 0] ∪ (1, ∞)
também não é aberto, pois podemos olo ar uma bola em 0 e ela onterá pontos de E. Assim,

E não é aberto e nem fe hado.

Vizinhança, Ponto interior, ponto de fronteira e exterior:

Sejam u ∈ RN e A ⊆ RN :

• Uma vizinhança de u é um onjunto que ontém um sub onjunto aberto que ontenha u

• u é um ponto interior de A se existe uma vizinhança de u ontida em A

• u é um ponto de fronteira de A se toda a vizinhança de uestá ontida em A e em seu

omplemento

• u é um ponto exterior de A se existe uma vizinhança de u ontida em ∁(A)

Tal que podemos estabele er que se um onjunto I é aberto, então:

• todos os seus pontos são interiores

• I é uma vizinhança de todos os seus pontos

• I não ontém pontos de fronteira

e, se F é um onjunto fe hado, então:

• F ontém todos os seus pontos de fronteira.

Ponto de A umulação:

Um ponto u ∈ RN é um ponto de a umulação de S ⊆ RN se toda vizinhança Bǫ (u) ontém

pelo menos um ponto de S diferente de u.

Como exemplo, podemos onsiderar:

• um onjunto S ⊆ R limitado superiormente om u = sup S ∈ / S . Neste aso, ué ponto de

a umulação de S , uma vez que existem ǫ > 0 e v ∈ S tal que v ∈ (u − ǫ, u + ǫ);


5.2. CONJUNTOS ABERTOS E FECHADOS EM RN 45

• um onjunto A denido pelo intervalo (0, 1). Neste aso, qualquer ponto no intervalo

[0, 1] é ponto de a umulação de A (observe que um ponto fora do onjunto pode ser de

a umulação);

• N = {0, 1, 2, 3, 4, 5, ....} não tem ponto de a umulação, pois podemos onsiderar uma bola
om entro em qualquer número e olo ar um raio pequeno o su iente para onter apenas

o entro da bola (lembrem-se que estamos trabalhando om números inteiros positivos e,

portanto, 0.00001 não faz parte de N;

• De modo geral, podemos armar que onjuntos nitos ( om número limitado de elemen-

tos) não possuem ponto de a umulação, pois podemos denir uma vizinhança (real) que

não ontenha pontos do onjunto;

• Z não tem ponto de a umulação (embora seja innito, omo o N);

• O onjunto (2, 3) ∪ {4} tem omo pontos de a umulação [2, 3], pois podemos olo ar uma
vizinhança em torno de {4} que não inter epte pontos do onjunto (além do 4)

Desta forma, podemos denir o on eito de Conjunto Fe hado de uma forma alternativa

Conjunto Fe hado (denição alternativa)

Um onjunto F ⊆ RN é fe hado se e somente se ontém todos os seus pontos de a umulação.

Teorema 3. Bolzano-Weierstrass no RN
Todo sub onjunto ininito e limitado de RN tem pelo menos um ponto de a umulação.

onde devemos observar que o sub onjunto será limitado se for limitado superiormente E inferior-

mente. Este teorema pare e meio óbvio se olharmos o exemplo que foi dis utido anteriormente:

um onjunto S ⊆ R limitado superiormente om u = sup S ∈


/ S. Neste aso, u é ponto de

a umulação de S . O mesmo pode ser dito para o inf S .

Vamos analizar novamente os nossos exemplos:

• Z é innito, mas é ilimitado (não tem limite superior e nem inferior);

• A = (0, 1) ∪ {2, 3, 4, 5, .....} é innito mas não é limitado superiormente. O teorema

não pode armar nada sobre este aso, mas podemos observar que [0, 1] são pontos de

a umulação !!

• A = {1, 2, 3} é nito e, portanto, não tem pontos de a umulação.


46 CAPÍTULO 5. RN
Capítulo 6

Espaços Vetoriais

Todos os on eitos aprendidos om o RN podem ser estendidos para espaços mais gerais, onde

os membros (vetores) são funções. Embora possa pare er algo muito vago em um primeiro

momento (pois estamos a ostumados a pensar em vetores omo e has no R2 ou no R3 este

on eito é muito útil para todas as nossas apli ações em me âni a omputa ional.

Como exemplo, vamos pensar em um onjunto de polinmios, na forma

P = {1 + x2 , 3x + 4x3 , 6 − 3x + 2x2 + x3 }.

O onjunto P ontém elementos, que são polinmios na forma a + bx + cx2 + dx3 e é laro que P
é um sub onjunto de todos os polinmios de ter eiro grau que existem (espaço de polinmios).

A base para P é formada por um onjunto

B = {1, x, x2 , x3 }

e, por exemplo, 1 + x2 = 1(1, 0, 0, 0) + 0(0, x, 0, 0) + 1(0, 0, x2 , 0) + 0(0, 0, 0, x3). Observem que

a base deste espaço tem ardinalidade 4, embora existam inúmeros polinmios dentro deste

espaço.

Um outro exemplo que justi a o estudo de espaços de funções vem da solução de uma

equação diferen ial, na forma


d2 u
2
− k 2 u = 0, k > 0
dx
onde x ∈ [0, 1]. Como sabemos, a solução da equação diferen ial é uma família de funções u(x)
que satisfaz a equação diferen ial para ∀x ∈ [0, 1]. Esta família de funções gera um espaço de

funções, que podem ser es ritas a partir de um onjunto de funções base. Aqui, sabemos que

u(x) deve fazer parte de um espaço V , que ontém funções duas vezes diferen iáveis no intervalo
[0, 1]. Este onjunto é dado por B = {ekx , e−kx } tal que qualquer elemento de V (solução da
eq. diferen ial) terá a forma u(x) = α1 ekx + α2 e−kx .
Da mesma forma que no RN , podemos estender o on eito de norma para espaços de funções,
na forma

47
48 CAPÍTULO 6. ESPAÇOS VETORIAIS

Z  p1
p
kukp = |u|

onde u são funções mensuráveis e p ≥ 1. Estas normas são onhe idas omo Normas de

Lebesgue. Outas normas são possíveis, omo por exemplo a família de normas de Sobolev:

  p1
Z X
kukm,p =  |D α u|p 
Ω |α|≤m

e, omo exemplo, podemos denir a norma kuk1,2 em Ω ∈ [0, 1] × [0, 1]

"Z Z " 2 2 # # 12
1 1 du du
kukm,p = |u|2 + + dxdy
0 0 dx dy

e podemos veri ar que se m=0 a norma de Sobolev se iguala a norma de Lebesgue.

Deve-se enfatizar que estas normas são denidas para apli ações distintas. Assim, normas

de Sobolev são ne essárias para des revermos espaços de funções e derivadas su ientemente

ontínuas para alguma apli ação, omo por exemplo na solução de equações diferen iais par iais.

Como exer í io, imagine o R2 equipado om normas Lp para p igual a 1, 2 e ∞ e desenhe um

 ír ulo de raio 1 em torno da origem (lembrem-se que p=∞ impli a em sele ionar o maior

valor). Lembre-se que o raio é sempre uma distân ia (asso iada a norma) que depende das

oordenadas do ponto em relação a origem ( entro do ír ulo).

Desta forma, onhe endo o espaço vetorial de solução do nosso problema e as propriedades

dos operadores envolvidos, saberemos tudo sobre as suas propriedades (se tem solução, quantas

tem, estrategias de solução, et ...).

6.1 Transformações Lineares e Fun ionais


A relação entre elementos de dois onjuntos foi denida omo uma função. Observem que

desde o iní io da nossa matéria, o on eito de elemento tem sido estendido. Atualmente,

estamos onsiderando onjuntos ujos elementos são funções e iremos agora denir relações

entre funções. Um exemplo seria a seguinte equação diferen ial:

 
d du(x)
− a = f (x)
dx dx

onde a e f (x) são onhe idos e u(x) deve ser en ontrado. Uma outra maneira de es rever esta

equação diferen ial é na forma

T (u) = f
6.1. TRANSFORMAÇÕES LINEARES E FUNCIONAIS 49

ou

T :U →V
d d

que pode ser lida omo: T = − dx a dx é um operador que rela iona o espaço de funções que

ontém u, U, om o espaço de funções que ontém f, V . Assim, se onhe ermos as proprieda-

des do operador, podemos estudar a solução de equações de forma mais geral. Vamos estudar

algumas denições pertinentes:

Transformação Linear:

T é uma transformação linear de um elemento no espaço U em um elemento do espaço V se

ada elemento u ∈ U orresponde a um elemento v ∈ V e se as seguintes propriedades são

observadas:

• T (αu) = αT (u) ∀u ∈ U, ∀α ∈ R, homogêneo

• T (u1 + u2 ) = T (u1 ) + T (u2 ), ∀u1 , u2 ∈ U , aditivo

e, se T1 e T2 são duas transformações lineares, T1 T2 também será uma transformação linear

(pense em omposição de funções).

É interessante notar que podemos re-utilizar todos os on eitos que aprendemos om fun-

ções e estender para o on eito de operador. Por exemplo, os on eitos de domínio e de imagem

são análogos, bem omo a de um-a-um (injetivo). No entanto, ostumamos hamar um opera-

monomorsmo (para ada u temos um v distinto) e "sobre"ou sobrejetivo


dor injetivo de um

assume a onotação de epimorsmo (todo V é utilizado). Neste ontexto, se o operador for

um monomorsmo E um epimorsmo, então ele é dito um isomorsmo (bijeção) e, portanto,

é possível denir um operador inverso.

Vamos apresentar algumas denições adi ionais:

Nú leo de uma transformação (Kernel):

O nú leo de uma transformação (também onhe ido omo espaço nulo) é dado por

ℵ(T ) = {u : u ∈ U, T (u) = 0}

Exemplo: Vamos onsiderar a transformação T :U →V tal que T (u) = u1 + u2 . O nú leo

desta transformação é denido por

ℵ(T ) = {u ∈ U : u1 + u2 = 0}

tal que elementos que tenham a estrutura

(−u2 , u2 )
50 CAPÍTULO 6. ESPAÇOS VETORIAIS

ompõe o nú leo desta transformação. Desta forma, v = (−1, 1) é base do nú leo de T.

Transformação Linear:

Uma transformação Linear T :U →V é um-a-um (monomorsmo) se e somente se o espaço

nulo é trivial, isto é, ℵ(T ) = {0}.

Exemplo: Conforme já dis utido, um operador um-a-um é aquele que gera saídas distintas

para entradas distintas. Desta forma, o operador do exemplo anterior não é um monomorsmo

e uma maneira de testar por isto é veri ar a estrutura do espaço nulo. Conforme visto no

exemplo, o espaço nulo neste aso não é trivial.

Exemplo: Vamos onsiderar a transformação linear T :U →V tal que T (u) = 7u. Neste

aso,

ℵ(T ) = {u ∈ U : u = 0}

A dimensão do subespaço ℜ(T ) = Im (T ) ⊆ V é hamada de Rank da transformação T : U → V

Exemplo: Do segundo exemplo a ima temos que U e V ⊆ RN , O Rank da transformação será

da dimensão N (dimensão de V ).

A dimensão do espaço nulo é hamada de nullity de T. A soma do rank om o nullity é igual

a dimensão de U

Exemplo: Ainda om o mesmo exemplo, temos que o Rank de T é N e o nullity é zero.

Exemplo: Voltando a transformação T :U →V tal que T (u) = u1 + u2 , temos que o rank da

transformação é igual a 1 e que a dimensão do espaço nulo é 1 (um parâmetro a). U orresponde
2
ao R , o que está de a ordo om a denição.

6.2 Transformação Linear de Espaços Finito Dimensionais


Sejam U e V dois espaços nito dimensionais e T : U → V uma transformação linear. Se
{φ1 , φ2 , ...., φn } é base de U e {ϕ1 , ϕ2 , ....., ϕm } é base de V , podemos es rever qualquer mem-
bro de U e V na forma

n
X
u = αi φ i
i=1
Xm
v = βj ϕj
j=1
6.2. TRANSFORMAÇ O LINEAR DE ESPAÇOS FINITO DIMENSIONAIS 51

e, para ada u e v, temos que T (u) = v pode ser es rito na forma

n
X m
X
T (u) = αi T (φi ) = βj ϕj ,
i=1 j=1

e, omo T (φi ) ∈ V, podemos es rever

m
X
T (φi ) = tji ϕj
j=1

tal que !
m
X n
X m
X
βj ϕj − αi tji ϕj =0
j=1 i=1 j=1

ou !
m
X n
X
βj − tji αi ϕj = 0
j=1 i=1

que pode ser es rita na forma matri ial

β = Tα

onde T é uma matriz de dimensões m × n, ontendo os termos tji . Baseados nesta dedução,

podemos veri ar que:

• A transformação entre dois espaços vetoriais nitos pode ser representada pela apli ação

do operador T nas bases de ada espaço;

• A matriz T é a forma nito dimensional (dis reta) do operador T

Estes resultados são utilizados a todo instante na me âni a omputa ional, pois trabalhamos

om espaços nito dimensionais para representar modelos dis retos de problemas ontínuos

(innito dimensionais).

Vamos apresentar dois exemplos bem simples:

Exemplo 1:
Seja U o espaço dos polinmios de ter eiro grau e V o espaço dos polinmios de primeiro grau.

Embora existam innitos polinmios de primeiro e ter eiro graus, as suas bases são nitas,

tendo a forma

φ = {1, x, x2 , x3 }
ϕ = {1, x}
P
tal que um elemento de U tem a forma genéri a u = 4i=1 αi φi = α1 + α2 x + α3 x2 + α4 x3
P2
(n = 4) e um elemento de V tem a forma genéri a v = j=1 βj ϕj = β1 + β2 x (m = 2).
52 CAPÍTULO 6. ESPAÇOS VETORIAIS

Um operador linear que mapeia (transforma) entre U e V é o operador diferen ial

d2
D=
dx2

e, portanto,

D:U →V

signi a que
4
! 2
X X
D αi φ i = βj ϕj
i=1 j=1

e, omo o operador D é linear, podemos passar para dentro do somatório em i, tal que

4
X 2
X
αi D(φi ) = βj ϕj
i=1 j=1

e omo D(φi ) ∈ V, podemos es rever

2
X
D(φi ) = dji ϕj
j=1

signi ando que estamos es revendo este resultado na base de V. Vamos avaliar D(φi ) para

i = 1..4, ou seja, {1, x, x2 , x3 }:

D(φ1 ) = D(1) = 0
D(φ2 ) = D(x) = 0
D(φ3 ) = D(x2 ) = 2
D(φ4 ) = D(x3 ) = 6x

mas omo queremos es rever estes termos na base de V, observamos que

D(φ1) = d11 ∗ 1 + d21 ∗ x = 0 ∗ 1 + 0 ∗ x


D(φ2) = d12 ∗ 1 + d22 ∗ x = 0 ∗ 1 + 0 ∗ x
D(φ3) = d13 ∗ 1 + d23 ∗ x = 2 ∗ 1 + 0 ∗ x
D(φ4) = d14 ∗ 1 + d24 ∗ x = 0 ∗ 1 + 6 ∗ x

tal que
4
X 2
X
αi D(φi ) = βj ϕj
i=1 j=1

pode ser es rito omo

α1 (0 ∗ 1 + 0 ∗ x) + α2 (0 ∗ 1 + 0 ∗ x) + α3 (2 ∗ 1 + 0 ∗ x) + α4 (0 ∗ 1 + 6 ∗ x) = β1 ∗ 1 + β2 ∗ x
6.2. TRANSFORMAÇ O LINEAR DE ESPAÇOS FINITO DIMENSIONAIS 53

de onde observamos que ada termo da base de V pode ser olo ado em evidên ia:

ϕ1 → α1 ∗ 0 + α2 ∗ 0 + α3 2 + α4 0 = β1
ϕ2 → α1 ∗ 0 + α2 ∗ 0 + α3 0 + α4 6 = β2

ou, na forma matri ial  


"

#
 α 1 



  ( )
0 0 2 0 α2  β1
= .
0 0 0 6 
 α 3 

 β2
 α 
 
4

tal que " #


0 0 2 0
D=
0 0 0 6
é a forma dis reta do operador diferen ial que mapeia U em V. De fato, se onsiderarmos o

polinmio

p(x) = 7 + 2x + 15x2 − 0.5x3

e realizarmos a operação D : U → V, obteremos

 
"

#
 7  
 ( )

 
0 0 2 0 2  30
=
0 0 0 6 
 15 

 −3

 −0.5 

ou seja, o polinmio v = 30 − 3x.

Exemplo 2:

Dado um vetor u = (x1 , x2 , x3 ) no R3 , podemos apli ar uma rotação em torno do eixo 3 para
′ ′ ′
obter um novo vetor v = (x1 , x2 , x3 ). Esta transformação, também onhe ida omo rotação, é

do tipo R : R3 → R3 e tem a forma

R(x1 , x2 , x3 ) = (x1 cos(θ) − x2 sin(θ), x1 sin(θ) + x2 cos(θ), x3 ).

Como sabemos que as bases do R3 formam o onjunto {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, se seguirmos

o ra io ínio apresentado no exemplo anterior, veri amos que o operador dis reto asso iado a

esta transformação pode ser obtido om

R(1, 0, 0) = (cos(θ), sin(θ), 0)


R(0, 1, 0) = (− sin(θ), cos(θ), 0)
R(0, 0, 1) = (0, 0, 1)
54 CAPÍTULO 6. ESPAÇOS VETORIAIS

tal que
 
cos(θ) − sin(θ) 0
 
R =  sin(θ) cos(θ) 0 .
0 0 1
De fato,
    
cos(θ) − sin(θ) 0   x1 
  x1 cos(θ) − x2 sin(θ)
 

 
 sin(θ) cos(θ) 0  x2 = x1 sin(θ) + x2 cos(θ) .

 
   

0 0 1 x3 x3

TAREFA: Verique se as transformações dos exemplos a ima tem inversa e, se tiverem,

deduza a forma dis reta do operador.

TAREFA: Seja o operador, já na forma dis reta,

 
1 0 0
 
T= 0 1 0 
0 0 0

tal que T : R3 → R3 . Qual é o kernel deste operador ?

Exemplo: Um polinmio úbi o tem a forma p(x) = a0 + a1 x + a2 x2 + a3 x3 e é membro de


2 3
um espaço de dimensão 4, pois esta é a ardinalidade de sua base U = {1, x, x , x }. Vamos

hamar este espaço de P. Na forma matri ial, temos

 


 a0 


 a 
 
1
p = [1, x, x2 , x3 ] = Ua


 a2 


 a 
 
3

onde diferentes valores de a ara terizam elementos distintos do espaço (pensem nas omponen-
tes de um vetor) e U é formado por olunas que possuem vetores linearmente independentes.

Observem que uma oisa é o vetor (elemento do espaço dos polinmios úbi os) p∈P e outra

oisa é um dado valor que p(x) assume para um valor de x, que é um valor real. Isto  a laro

se es revermos a relação

p(s) = C(s)p

onde C(s) é hamado de operador de avaliação em s e é um fun ional linear em P , pois mapeia
p para um número real. Assim,

 


 a0 


 a 
 
1
p(s) = C(s)Ua = [1, s, s2, s3 ] .


 a2 


 a 
 
3
6.3. MUDANÇA DE BASE 55

É interessante notar que existem problemas práti os onde temos os valores p(s) e queremos

determinar quais são os polinmios p que estão asso iados a estes valores. Assim, vamos

assumir que temos 4 valores distintos de s e seus orrespondentes p(s) onhe idos. Portanto,

 


 a0 



 a 
1
[1, si , s2i , s3i ] = p (si ) , i = 1..4


 a2 



 a 
3

forma um sistema de equações na forma

E(S)a = v

onde S = {s1 , s2 , s3 , s4 } e v = {p (s1 ) , p (s2 ) , p (s3 ) , p (s4 )} são vetores oluna e E é a matriz

onde ada linha ontém os valores das bases avaliadas em um dos pontos onhe idos. Portanto,

ao realizarmos a operação

a = E−1 (S)v

estamos realizando um pro edimento de interpolação (re uperação de uma função a partir de

um onjunto de valores) e o operador E−1 é hamado de Interpolação de Lagrange.

6.3 Mudança de Base


Se um espaço pode ter mais de uma base e se espaços nito dimensionais admitem uma re-

presentação matri ial, então é interessante investigar omo podemos rela ionar as bases de um

determinado espaço. De forma geral, podemos denir uma operação

T : u∆ → uΦ , u∆ , uΦ ∈V

Enfatiza-se
PN PN
onde u∆ = i=1 αi δi é des rito na base ∆ e uΦ = j=1 βj φj é des rito na base Φ.
que o elemento é um só, estando somente des rito em bases diferentes. Assim,

N
! N
X X
T αi δi = βj φj
i=1 j=1

impli a em
N
X N
X
αi T (δi ) = βj φj
i=1 j=1

e, omo T (δi ) mapeia para a base Φ, podemos es rever esta equação na forma

N
X N
X N
X
αi rji φj = βj φj
i=1 j=1 j=1
56 CAPÍTULO 6. ESPAÇOS VETORIAIS

ou, na forma matri ial

 T    
r11 ... r1N 
 α  β1
 
1 


 . .. .
  .   . 
.. .. . .
  . = . (6.1)
 . 
 
 α 
   
rN 1 ... rN N N
 β
N

onde R é um operador que transforma os oe ientes utilizados para representar um elemento

nas duas diferentes bases.

Exemplo 1: Sejam u∆ e u∆ ∈ V , om V ⊆ R2 . Vamos obter o operador R entre a base ∆


e a base Φ, tal que P : u∆ → uΦ , de a ordo om o denido a ima:

u∆ = α1 δ1 + α2 δ2 (6.2)

uΦ = β1 φ1 + β2 φ2

onde deve  ar laro que u∆ = uΦ , pois é o mesmo elemento sendo des rito em duas bases

diferentes.

Como Φ é uma base de V, então gera ∆, tal que

δ1 = r11 φ1 + r12 φ2 (6.3)

δ2 = r21 φ1 + r22 φ2

pode ser substituido na primeira linha da Eq.(6.2), resultando em

u∆ = α1 δ1 + α2 δ2 = α1 (r11 φ1 + r12 φ2 ) + α2 (r21 φ1 + r22 φ2 )

e, omo o elemento sendo des rito é sempre o mesmo, on luímos que

β1 φ1 + β2 φ2 = α1 (r11 φ1 + r12 φ2 ) + α2 (r21 φ1 + r22 φ2 )

ou, separando por termos de φ

φ1 → β1 = r11 α1 + r21 α2
φ2 → β2 = r12 α1 + r22 α2

tal que

" #( ) ( )
r11 r21 α1 β1
=
r12 r22 α2 β2
é o aso parti ular da Eq. (6.1) para N = 2.
6.3. MUDANÇA DE BASE 57

assim, se ∆ = {(1, 0), (0, 1)} e Φ = {(3, 1), (−2, 1)}, temos, de a ordo om a Eq. (6.5), que

(1, 0) = r11 (3, 1) + r12 (−2, 1)


(0, 1) = r21 (3, 1) + r22 (−2, 1)

dão origem a dois sistemas simultâneos de equações (um por linha da equação a ima)

1 = 3r11 − 2r12
0 = 1r11 + 1r12

0 = 3r21 − 2r22
1 = 1r21 + 1r22

resultando em r11 = 0.2, r12 = −0.2, r21 = 0.4 e r22 = 0.6, tal que

" #
0.2 0.4
R=
−0.2 0.6
tal que

" #( ) ( )
0.2 0.4 α1 β1
= .
−0.2 0.6 α2 β2

Conforme ilustrado em exemplos anteriores, um elemento (7, 9) na base ∆ tem representação


(5, 4) na base Φ. De fato,

" #( ) ( )
0.2 0.4 7 5
=
−0.2 0.6 9 4
pois

7(1, 0) + 9(0, 1) = 5(3, 1) + 4(−2, 1).

Exemplo 2 (Operação inversa): Sejam u∆ e u∆ ∈ V , om V ⊆ R2 . Vamos obter o

operador P entre a base Φ e a base ∆, tal que P : uΦ → u∆ :

u∆ = α1 δ1 + α2 δ2 (6.4)

uΦ = β1 φ1 + β2 φ2

onde deve  ar laro que u∆ = uΦ , pois é o mesmo elemento sendo des rito em duas bases

diferentes.
58 CAPÍTULO 6. ESPAÇOS VETORIAIS

Como ∆ é uma base de V, então gera Φ, tal que

φ1 = p11 δ1 + p12 δ2 (6.5)

φ2 = p21 δ1 + p22 δ2

pode ser substituido na segunda linha da Eq.(6.4), resultando em

uΦ = β1 φ1 + β2 φ2 = β1 (p11 δ1 + p12 δ2 ) + β2 (p21 δ1 + p22 δ2 )

e, omo o elemento sendo des rito é sempre o mesmo, on luímos que

α1 δ1 + α2 δ2 = β1 (p11 δ1 + p12 δ2 ) + β2 (p21 δ1 + p22 δ2 )

ou, separando por termos de δ

δ1 →α1 = p11 β1 + p21 β2


δ2 → α2 = p12 β1 + p22 β2

tal que " #( ) ( )


p11 p21 β1 α1
= .
p12 p22 β2 α2
tal que os oe ientes β serão obtidos por

β = P−1α,

demonstrando que R = P−1 . Na práti a, se a base ∆éa anni a, então a matriz do operador

será " # " #


p11 p21 φ11 φ12
= .
p12 p22 φ21 φ22
Assim, se ∆ = {(1, 0), (0, 1)} e Φ = {(3, 1), (−2, 1)}, temos que

(3, 1) = p11 (1, 0) + p12 (0, 1)


(−2, 1) = p21 (1, 0) + p22 (0, 1)

dão origem a dois sistemas simultâneos de equações (um por linha da equação a ima)

3 = p11
1 = p12
6.4. MUDANÇA DE BASE APLICADA A OPERADORES LINEARES 59

−2 = p21
1 = p22

resultando em p11 = 3, p12 = 1, p21 = −2 e p22 = 1. Assim,

" #
3 −2
P= ,
1 1

tal que " #( ) ( )


3 −2 5 7
= .
1 1 4 9

Tarefa:
Proponha dois onjuntos de bases para o R2 e deduza a forma matri ial de P e de R. Após,

valide a solução e, utilizando os on eitos de isomorsmo, verique porque o operador de

mudança de base é isomór o.

6.4 Mudança de Base Apli ada a Operadores Lineares


Importante: Esta dedução estava ausando onfusão om o apítulo de autovalores
e autovetores e foi orrigida nesta versão abril/2016.
Já vimos que a mudança de base faz om que um vetor x, observado em uma base φi e

des rito por uma ombinação linear na forma

n
X
x= αi φ i
i=1

passe a ser des rito por um novo onjunto de oe ientes βj em uma nova base δj , tal que

n
X

x = βj δj .
j=1

Esta operação é realizada, em um espaço nito dimensional, por um produto


x = Rx

onde R é o operador de mudança de base na forma matri ial. A operação inversa é des rita

por

x = R−1 x .

Se o observador que utiliza a base φi apli ar uma operação linear A sobre x, obtendo um
60 CAPÍTULO 6. ESPAÇOS VETORIAIS

vetor s por meio da operação

s = Ax

o observador que utiliza a base δj irá realizar um operação equivalente, tal que

′ ′ ′
s =Ax.

É interessante notar que podemos apli ar a mudança de base no operador A, obtendo



diretamente o operador A, pois

′ ′
s = Ax → R−1 s = AR−1 x

e, multipli ando a equação por R, obtemos

′ ′ ′ ′ ′
s = RAR−1 x → s = A x

tal que

A = RAR−1.

Também é interessante notar que um operador de mudança de base na forma


dis reta é uma matriz quadrada. Desta forma, para que a operação des rita nesta
seção seja possível, é ne essário que o operador linear que está sendo modi ado
também o seja.
Exemplo:

Um operador linear é des rito, utilizando a base anni a do R3 , na forma dis reta pela

matriz  
4 0 1
 
A = −2 1 0 .
−2 0 1
Supondo que o mesmo observador des reva um valor x na base anni a, omo sendo

 
1
 
x= 2

 
3

então a apli ação do operador no vetor forne e omo resultado

 
7
 
s = Ax = 0 .

 
1

Um outro observador, utilizando outra base irá observar x om valores diferentes. Se, por
6.5. FORMAS LINEARES, BILINEARES E QUADRÁTICAS 61

exemplo, o operador de mudança de base for

 
√1 √1 0
2 2
 √1 √1

R= − 2 2
0
0 0 1

então o vetor observado será  


 2.12132 
 

x = Rx = 0.707107 .

 

3.0
O operador nesta nova base é obtido por

 
1.5 −0.5 0.707107

A = RAR−1
 
=  −2.5 3.5 −0.707107
1.414221 1.41421 1.0


e este observador irá obter, omo resultado da apli ação deste operador em x
 
4.94975
 
′ ′ ′
s = A x = 4.94975 .

 

1.0

Finalmente, podemos observar que ada observador obteve um resultado distinto em valores

numéri os, mas que tem o mesmo signi ado físi o. De fato, se deszermos a operação de

mudança de base iremos observar que

 
7.0
 
−1 ′
s = R s = 0.0 .

  
1.0

6.5 Formas lineares, bilineares e quadráti as


Existem diversos asos na área de me âni a em que ne essitamos de relações lineares, bilineares

e quadráti as. Um exemplo de relação quadráti a se dá no ál ulo da energia de deformação, que

é função quadráti a das deformações. De forma esquemáti a: espaço das deformações>forma

quadráti a->energia de deformação. Desta forma, é importante estudarmos os on eitos

envolvidos e suas propriedades.

Fun ional Linear


Vamos onsiderar um espaço vetorial U sob o ampo dos reais e um operador linear l : U → R.
l nada mais é do que uma transformação que mapeia para um espaço em parti ular, no aso,
R (ou seja, um es alar). Neste ontexto, l é hamado de um fun ional linear ou uma forma
62 CAPÍTULO 6. ESPAÇOS VETORIAIS

linear. Na literatura, os fun ionais são muitas vezes hamados de funções de funções.

Exemplo: Funções Lineares em RN


Neste aso mais simples, podemos denir um fun ional na forma

N
X
l : RN → R, l(u) = ai xi
i=1

onde ai são oe ientes.

Exemplo: Integração
O operador de integração pode ser visto omo um fun ional linear, pois

Z b
l : C[a, b] → R, l(f ) = f (x) dx,
a

e sabemos que o operador de integração é homogêneo e aditivo (portanto linear).

Forma Bilinear

Forma Bilinear:

Sejam U e V espaços vetoriais om u, u1 , u2 ∈ U , v, v1 , v2 ∈ V e α ∈ R. Então

B :U ×V →R

que satisfaz:

• B(u1 + u2 , v) = B(u1 , v) + B(u2 , v)

• B(u, v1 + v2 ) = B(u, v1 ) + B(u, v2 )

• B(λu, v) = B(u, λv) = λB(u, v)

é hamada de uma forma bilinear.

É interessante notar que se U e V forem nitos, tais que

X
u = αi φ i
i
X
v = βj ϕj
6.5. FORMAS LINEARES, BILINEARES E QUADRÁTICAS 63

então
XX XX
B(u, v) = αi βj B(φi , ϕj ) = αi βj bij
i j i j

que permite a representação matri ial

B(u, v) = αT Bβ

om os seguintes resultados

Forma bilinear:

Uma forma bilinear B(u, v) : U × V → R é dita:

• simétri a se B(u, v) = B(v, u)

• anti-simétri a (skew) B(u, u) = 0, ∀u ∈ U

de tal forma que

• Se B é simétri a, então bij = bji

• Se B é skew, então bij = −bji

De omposição Polar:

Toda forma bilinear pode ser representada omo a soma de uma forma simétri a om uma

anti-simétri a

1 1
B(u, v) = [B(u, v) + B(v, u)] + [B(u, v) − B(v, u)] = Bs (u, v) + Bss (u, v)
2 2

Nada melhor do que alguns exemplos:

1) B : R × R → R, B(x, y) = xy
2) B : R2 × R2 → R, B((x, y), (z, t)) = xz − 2yt
3) B : U × V → R, om U espaço dos polinmios de ter eiro grau, de base {1, x, x2 , x3 }, e V
espaço dos polinmios de segundo grau, de base {1, x, x2 }. Assim, se denirmos, por exemplo,

a forma bilinear omo

Z 1 Z 1   
B(u, v) = (u ∗ v) dx = a1 + a2 x + a3 x2 + a4 x3 b1 + b2 x + b3 x2 dx
0 0

onde B(u, v) pode ser olo ada na forma matri ial

 
60 30 20
 
B=  30 20
1  15 

60 
 20 15 12 

15 12 10
64 CAPÍTULO 6. ESPAÇOS VETORIAIS

tal que  
60 30 20 
n o 1  30 20 15  
   b1 

B(u, v) = a1 a2 a3 a4 
 b2
 .
60 
 20 15 12  
 

b3
14 12 10
∂ui
Exemplo: O tensor gradiente de deslo amento ∇u = ∂xj
admite uma de omposição polar

na forma ∇u = ε + ς , onde o primeiro termo, parte simétri a, está asso iado a deformação e

o segundo termo, parte anti-simétri a, está asso iado a vorti idade. Esta mesma interpretação

se estende para diversas outras medidas físi as utilizadas ao longo do mestrado.

Formas Quadráti as
Uma forma quadráti a é um fun ional Q(u) tal que

Q(αu) = α2 (u)

e, por esta denição, observamos que se B é uma forma bilinear simétri a

Q(u) = B(u, u) = Bs (u, u)

duas formas bilineares tem a mesma parte simétri a então geram a mesma
tal que se

forma quadráti a. Desta forma, aproveitando os exemplos do item anterior, temos que:
1) B : R × R → R, B(x, y) = xy gera a forma quadráti a Q(x) = x2
2) B : R2 ×R2 → R, B((x, y), (z, t)) = xz −2yt gera a forma quadrátiva Q((x, y)) = x2 −2y 2
3) B : U × V → R, om U e V espaço dos polinmios de ter eiro grau. Vamos denir a

seguinte forma bilinear


Z 1
B(u, v) = (3u ∗ v) dx
0

que gera a forma quadráti a


Z 1
Q(u) = (3u ∗ u) dx
0

ou, na forma dis reta  


420 210 140 105
 
1  210 140 105 84 
140 
 140 105 84 70  
105 84 70 60

Forma Positivo Denida:

Uma forma quadráti a Q:U →R é positivo-denida se

Q(u) > 0, ∀u ∈ U, u ∈ℵ(Q)


/

Um outro exemplo lássi o de forma quadráti a é o fun ional de energia de deformação. Em


6.5. FORMAS LINEARES, BILINEARES E QUADRÁTICAS 65

um ponto de um orpo hiperelásti o bidimensional e isotrópi o, a energia interna por unidade

de volume pode ser es rita omo

1
u(ε) = (C33 ε23 + C22 ε22 + C22 C12 ε1 ε2 + C12 ε1 ε2 + C11 ε21 )
2

onde ε são as deformações e C ontém as propriedades do material.


66 CAPÍTULO 6. ESPAÇOS VETORIAIS
Capítulo 7

Produto Interno

O on eito de norma permite estabele er o "tamanho"de um elemento do espaço e, ainda, de-

nir a distân ia entre dois elementos quaisquer. O on eito de produto interno permite, por sua

vez, obter uma medida de "ângulo"entre 2 elementos do espaço.

Produto Interno (relembrando...):

Seja U um espaço vetorial linear. A forma bilinear U ×U → R que asso ia a ada dois elementos
do espaço um es alar é hamada de produto interno e é denotada por (u1 , u2 ) ou < u1 , u2 >.

O produto interno deve seguir os seguintes axiomas:

• < u1 , u2 >=< u2 , u1 > ∀u1 , u2 ∈ U (simetria)

• < αu1 , u2 >= α < u1 , u2 > ∀u1 , u2 ∈ U e α ∈ R (homogêneo)

• < u1 + u2 , u3 >=< u1 , u3 > + < u2 , u3 > ∀u1 , u2 , u3 ∈ U (aditivo)

• < u, u >> 0 e < u, u >= 0 sse u = 0(positivo denido)

Quando um espaço vetorial tem produto interno denido, hamamos este espaço de Espao de
(pré)- Hilbert (o espaço deve ser ompleto, mas veremos este on eito depois) e, portanto, po-

demos interpretar estes espaços de funções omo generalizações do espaço Eu lidiano ao qual

estamos a ostumados a trabalhar.

Espaço de (pré)-Hilbert:

Um espaço vetorial H é um espaço vetorial equipado om produto interno e uja norma


kvk = < v, v >

é induzida por este produto interno. Desta forma, a distân ia entre dois elementos de um

espaço de pré-Hilbert é dada por


d(v1 , v2 ) = kv1 − v2 k = < v1 − v2 , v1 − v2 >

É interessante notarmos que esta generalização do Espaço Eu lidiano ontempla operação om

67
68 CAPÍTULO 7. PRODUTO INTERNO

funções. Por exemplo, se onsiderarmos o espaço das funções quadrado integráveis L2 , omposto
por funções que satisfazem Z
|f |2 dΩ < ∞

onde a integral é de Lebesgue, temos o produto interno denido omo

Z
< u, v >= uvdΩ.

Outro exemplo é o espaço ponderado L2 , formado por funções quadrado integráveis e funções

ontínuas w tal que Z


|f |2 w dΩ < ∞

om produto interno Z
< u, v >= uvwdΩ.

Exemplo: Sejam as funções f = sin(πx)sin(πy) e g = x em L2 [0, 1] × [0, 1]. O produto

interno é dado por


Z 1 Z 1
2
< f, g >= sin(πx)sin(πy) x dx dy = .
0 0 π2

7.1 Ortogonalidade
De posse da denição de produto interno, podemos avaliar o ângulo entre dois elementos do

espaço. Assim, da mesma forma que em um espaço Eu lidiano tradi ional, podemos avaliar se

dois elementos são ortogonais.

Ortogonalidade

Dois elementos u e v de um espaço vetorial om produto interno V são ditos ortogonais se

< u, v >= 0

e um onjunto de elementos não nulos B = {ui }, i = 1..n é dito ortogonal se ada par i, j for

ortogonal, isto é

< ui , uj >= 0, ∀ui , uj ∈ B e i 6= j

e um onjunto de elementos não nulos B = {ui }, i = 1..n é dito ortonormal se ada par i, j for

ortogonal, isto é

< ui , uj >= δij , ∀ui , uj ∈ B

Assim, om esta denição, podemos estender o on eito do Teorema de Pitágoras, pois se


7.2. PROJEÇ O 69

dois elementos v1 e v2 forem ortogonais, então

kv1 + v2 k2 =< v1 + v2 , v1 + v2 >=< v1 , v1 > +2 < v1 , v2 > + < v2 , v2 >= kv1 k2 + kv2 k2

Exemplo: Seja o onjunto B = {cos(nx)}∞ 2


n=1 ∈ L [−π, π]. Este onjunto é ortogonal, pois

Z π
cos(nx)cos(mx) dx = 0, ∀m, n ∈ [1, ∞), m 6= n
−π

e podemos veri ar o teorema de Pitágoras para dois elementos quaisquer, pois

Z π
2
kv1 + v2 k = [cos(nx) + cos(mx)] [cos(nx) + cos(mx)] dx = 2π
−π

e Z π
2
kv1 k = [cos(nx)] [cos(nx)] dx = π.
−π

Teorema 4. Um onjunto de vetores ortogonais é linearmente independente


Seja {ui } um onjunto ortogonal. Assim, se os elementos deste onjunto forem L.I , então
n
X
αi ui = 0 → αi = 0 ∀i ∈ [1, n].
i=1

Desta forma, da propriedade de ortogonalidade, sabemos que


n
X
0 =< αi ui , uj >= α1 < u1 , uj > +α2 < u2 , uj > +... + αn < un , uj >
i=1

om j ∈ [1, n]. Supondo que j = 1, temos

0 = α1 a + 0 + 0 + 0 + 0... + 0 → α1 = 0, pois a 6= 0

sendo que o mesmo padrão se repete para todos os α.

É interessante notar que dada uma base, podemos gerar um onjunto de vetores ortogonais.

Para isto, utilizamos o pro edimento de ortogonalização de Gram-S hmidt, que é baseado nos

importantes on eitos de Projeção e Projeção Ortogonal.

7.2 Projeção
Projeção:

Uma projeção P é uma transformação linear de um espaço em si mesmo tal que P (P ) = P .

Exemplo ( lássi o) : Considere o operador P tal que

P (x, y, z) = (x, y, 0).


70 CAPÍTULO 7. PRODUTO INTERNO

Este operador é uma projeção do espaço tridimensional no plano xy. Podemos veri ar que
3 3
é uma projeção, mapeia pontos do R no próprio R ,e é linear (Verique !). Ainda, da

propriedade de que P (P ) = P , temos que

P (P (x, y, z)) = P (x, y, 0) = (x, y, 0)

ou, na forma matri ial, podemos es rever que

 
1 0 0
 
P = 0 1 0 
0 0 0

tal que
    
1 0 0 1 0 0 1 0 0
    
P (P ) =  0 1 0   0 1 0  =  0 1 0  = P.
0 0 0 0 0 0 0 0 0

Um aso espe ial de projeção é a hamada Projeção Ortogonal, de fundamental impor-


tân ia para o desenvolvimento do onteúdo deste texto e, também, base teóri a para vários

métodos de aproximação que serão vistos no apítulo de Resíduos Ponderados.

Projeção Ortogonal:

O operador
< φ, u >
proju φ = u
< u, u >
projeta o vetor φ ortogonalmente em u. Isto pode ser fa ilmente visualizado om o uso de

vetores no R2 , pois da álgebra I sabemos que

< u, φ >= kuk kφk cos(θ)

tal que
< u, φ >
kφk cos(θ) =
kuk
é o tamanho da projeção de φ sobre u. A direção de u pode ser representada por um vetor

unitário om a mesma direção de u


u
e=
kuk
tal que
< u, φ > u < φ, u >
proju φ = = u.
kuk kuk < u, u >

Como de ostume, podemos estender o on eito de ortogonalidade para operadores:


7.2. PROJEÇ O 71

Projeção Ortogonal:

A projeção P em um espaço om produto interno V é dita ortogonal se seu al an e (range) é

ortogonal ao seu espaço nulo

ℜ(P ) ⊥ ℵ(P )

ou seja, se u ∈ ℜ(P ) ev ∈ ℵ(P ), então < u, v >= 0.


De fato, sabemos que P (u) ∈ ℜ(P ) e u − P (u) ∈ ℵ(P ), assim

< P (u), u − P (u) >= 0

e onsiderando que em um espaço nito dimensional P (u) = Pu, onde P é uma matriz que

representa o operador, então

< Pu, u − Pu >= (Pu)T (u − Pu) = uT PT u − uPT Pu

que será zero quando P = PT (pois neste aso PT P = PT ), ou seja, quando a matriz do

operador for simétri a (ao ser es rita em uma base ortonormal) o que também equivale ao fato

de o operador ser auto-adjunto.

Exemplo: A projeção do exemplo anterior é uma projeção ortogonal, pois

 T  
1 0 0 1 0 0
   
 0 1 0  =  0 1 0 .
0 0 0 0 0 0

Com as denições a ima, podemos estabele er o importante Teorema da Projeção:

Teorema 5. Teorema da Projeção


Seja V um espaço om produto interno e P uma projeção ortogonal em V. Então,

• ada elemento w∈V pode ser es rito ex lusivamente omo w = u + v, onde u ∈ ℜ(P )
e v ∈ ℵ(P );

• kwk2 = kuk2 + kvk2 ;

• ℜ(P ) e ℵ(P ) são subespaços lineares fe hados de V;

• ℵ(P ) = ℜ(P )⊥ e ℜ(P ) = ℵ(P )⊥

Exemplo:

Ainda onsiderando o operador P dos exemplos anteriores, sabemos que para este operador

ℵ(P ) = (0, 0, a) e ℜ(P) = (u1 , u2, 0). Assim,

< (0, 0, a), (u1, u2 , 0) >= 0.


72 CAPÍTULO 7. PRODUTO INTERNO

w
N(P)

R(P)

Figura 7.1: Vetor obtido pela ombinação linear de elementos do espaço nulo e do range.

Podemos onstruir qualquer elemento de V ∈ R3 , pois

w = (u1 , u2 , 0) + (0, 0, a)

onforme ilustrado na gura 7.1.

Exemplo: Vamos onsiderar a projeção ortogonal de um vetor u ∈ R3 sobre uma direção in-
3
di ada por um vetor a∈R (Figura ). Neste aso, a projeção nada mais é do que o omprimento

de x sobre a, que iremos hamar de c. A forma geral seria

Pu = ca (7.1)

e, sabendo que u − Pu deve ser perpendi ular a a, podemos armar que

0 =< a, u − Pu >= aT u − aT Pu

e, da Eq. (7.1), podemos es rever

aT u − aT ca = 0

e, isolando o omprimento da projeção, obtemos.

aT u
c= .
aT a

Assim, se u = (0, 6) e se onsiderarmos uma linha om direção dada por a = (1, 1), teremos

1∗0+1∗6
c= =3
1∗1+1∗1

tal que

Pu = (3, 3)
7.3. ORTOGONALIZAÇ O DE GRAMM-SCHMIDT 73

Figura 7.2: Projeção ortogonal de um vetor u sobre uma linha a

e, onforme já armamos,

u − Pu = (6, 0) − (3, 3) = (3, −3)

é ortogonal a a, pois < (1, 1), (3 − 3) >= 3 − 3 = 0.

7.3 Ortogonalização de Gramm-S hmidt

A obtenção de um onjunto ortogonal é ne essária para o desenvolvimento de diversos métodos

utilizados na me âni a omputa ional. Desta forma, o pro edimento de Gramm-S hmidt é de

fundamental importân ia.


Pro edimento de Ortogonalização de Gram-S hmidt: Dada uma base {φi }ni=1 ∈ V , podemos

apli ar uma transformação que gera uma nova base ortogonal {uk }nk=1 ∈ V

i−1
X < φi , uk >
ui = φi − uk
k=1
< uk , uk >

Exemplo: Seja o onjunto {1, x, x2 , x3 } denido no L2 [−1, 1]. Este onjunto é sabidamente

L.I , mas não é ortogonal (verique). No entanto, apli ando o pro edimento de ortogonalização
74 CAPÍTULO 7. PRODUTO INTERNO

temos

{u1 } = 1
 
< x, 1 >
{u2 } = {x} − 1 = {x}
< 1, 1 >
   
2 < x2 , 1 > < x2 , x > 2 1
{u3 } = {x } − 1+ x = x −
< 1, 1 > < x, x > 3
  
3 < x3 , 1 > < x3 , x > < x , x2 − 31 >
3
2 1
{u4 } = {x } − 1+ x+ x −
< 1, 1 > < x, x > < x2 − 31 , x2 − 31 > 3
 
3x
= x3 −
5

e podemos veri ar que, por exemplo,

    Z 1  
2 1 3 1 2 1 n 3 xo
x − , x − x = x − x − dx = 0.
3 15 −1 3 15

Verique os demais valores.

É importante salientar que embora tenhamos demostrado o on eito de projeção usando o

RN , apli amos a ortogonalização a uma base polinomial sem problemas. De fato, estes on eitos

se apli am a espaços de funções de maneira absolutamente geral (desde que o espaço seja dotado

de produto interno).

7.4 Complemento Ortogonal


Complemento Ortogonal:

Seja V um espaço om produto interno e M sub onjunto de V. O omplemento ortogonal de

M denotado por M⊥ é denido omo

M ⊥ = {u ∈ V :< u, v >= 0, ∀v ∈ M}

sendo também um sub onjunto de V.

Exemplo: Seja V ⊆ R3 e M = {v} não nulo. O omplemento ortogonal de M é omposto por

todos os vetores que são ortogonais a v e, portanto, forma um plano que passa pela origem e

que é ortogonal a v. Visualize !

Exemplo: Seja V ⊆ R3 e M = {v1 , v2 } não nulos e não paralelos. O omplemento orto-

gonal de M é omposto por todos os vetores que são ortogonais ao mesmo tempo a v1 e a, v2 .
Desta forma, M⊥ é formado pela interseção dos omplementos ortogonais de v1 e v2 . Visualize !

Exemplo: Seja S ⊆ R3 um subspaço gerado por {(1, 0, 1), (0, 2, 3)}. Um elemento típi o de
7.4. COMPLEMENTO ORTOGONAL 75

S pode ser representado por

3
s = α(1, 0, 1) + β(0, 2, 3) = (s1 , s2 , s1 + s2 )
2

pois

s1 = α
s2 = 2β
s3 = α + 3β

Assim, o omplemento ortogonal de S pode ser denido por um vetor genéri o (x1 , x2 , x3 )
tal que

 
3
< x, s > = 0 = x1 s1 + x2 s2 + x3 s1 + s2
2
 
3
0 = (x1 + x3 ) s1 + x2 + x3 s2
2

tal que (
x1 + x3 = 0
x2 + 23 x3 = 0
permite veri ar que   
⊥ 3 3
S = x ∈ R : x = −x3 , − x3 , x3
2

TESTE para diferentes valores e verique a ondição de ortogonalidade.


76 CAPÍTULO 7. PRODUTO INTERNO
Capítulo 8

Autovalores e Autovetores

Se A é um operador es rito em termos de uma base qualquer, então existe uma base no qual a

representação dis reta de A, A, é diagonal. No R2 , por exemplo, isto é fa ilmente visualizado

na operação T :U →V representada pela matriz

!
a b
A=
b c

tal que ( )
au1 + bu2
Au = .
bu1 + cu2
Uma outra forma de apresentar a MESMA operação, porém em outra base, seria realizada

om o operador A diagonal, tal que

!
′ λ1 0
A =
0 λ2

tal que ( )

′ λ1 u 1 ′
Au = ′ .
λ2 u 2

forma anni a

A forma diagonal de A, A é onhe ida omo do operador (neste aso,

no Nesta forma anni a,  a laro que se A for positivo denida, então os


R 2
) .

oe ientes λ1 e λ2 serão positivos.


Como desenvolvido no Capítulo 6.4, sabemos que a mudança de base de um operador é

realizada pela operação



A = RAR−1 ,

onde R é o operador de mudança de base. O problema aqui é que não onhe emos o operador

de mudança de base que permita obter a forma diagonal do operador e nem os valores de λ.
A determinação desta mudança de base espe í a R=Φ e do operador diagonal asso iado,

A é o objetivo de uma lasse de problemas muito útil, hamada de problema de autovalores e

autovetores.

77
78 CAPÍTULO 8. AUTOVALORES E AUTOVETORES

Vamos a uma denição um pou o mais tradi ional:

Autovalores e Autovetores:

Considere a transformação T :U →V, na forma

T (u) = λu.

Como toda a transformação linear nito dimensional pode ser es rita pela multipli ação de

uma matriz por um vetor, então

T (u) : Tu = λu

que pode ser es rita na forma

(T − λI) u = 0.

Assim, des artando a solução trivial u = 0, o problema homogêneo denido pela equação a ima
tem solução se e somente se

det (T − λI) = 0

resultando em um polinmio de grau n (dimensão da forma dis reta do operador). As raízes

λi são hamadas de autovalores (ou valores ara terísti os) do operador e os vetores ui que

satisfazem a igualdade Tui = λi ui são hamados de autovetores.

Nesta denição, utilizamos o on eito de determinante de uma matriz. Vamos formalizar:


79

Determinante de uma matriz: Seja uma matriz M de dimensões n × n, asso iada a um espaço V .
Denimos o determinante de M ou det(M) omo sendo o operador linear det : V → R omo sendo o
uni o operador que satisfaz os seguintes requisitos:

• O determinante da matriz identidade é igual a 1;

• O determinante depende linearmente de ada oluna da matriz;

• O determinante tro a de sinal se tro armos a posição de duas olunas da matriz,

ou, de maneira alternativa, podemos armar que det(M) é uma função multilinear e alternada das
olunas de M. Ainda, temos as seguintes propriedades do determinante:

• O determinante de uma matriz é zero se e somente se a matriz for singular (não admitir inversa);

• O valor do determinante de uma matriz não é alterado se adi ionarmos um multiplo de uma
oluna a outra oluna da matriz;

• O determinante da matriz e de sua transposta são iguais;

• O determinante é multipli ativo, isto é, det(AB) = det(A)det(B)

Sugiro fortemente a leitura do texto www.axler.net/DwD.pdf, que trata sobre a denição de determi-
nantes e sua pertinên ia e também a leitura da página
http://www. lisnotes. om/study_guide/
Denitions-of-the-Determinant.topi Arti leId-20807,arti leId-20797.html
que apresenta duas denições bem didáti as sobre este on eito.
Interpretação geométri a do determinante:

Seja M uma matriz 2 × 2, na forma

" #
u1 u2
M=
v1 v2

onde ada linha ontém os oe ientes de um vetor em uma determinada base. A área om

sinal do paralelogramo denido por estes vetores é igual ao determinante da matriz. De fato,

da álgebra sabemos que a área do paralelogramo é dada por

 
 i j k 
 
 
A = ku × vk =  u1 u2 0  = u1 v2 − v1 u2
v1 v2 0

e que o determinante de uma matriz 2×2 é dado por u1 v2 −v1 u2 . Estendendo este on eito para
3 dimensões, temos que o determinante de uma matriz 3×3 é igual ao volume do paralelepípedo
denido por três vetores u, v e w , ou seja ku · v × wk (produto misto).

Observem que a denição de autovalor e autovetor está de a ordo om as denições das

Eqs. ( ??) e ( ??), pois neste aso, u pode ser visto omo uma das olunas de Φ e λ um dos
80 CAPÍTULO 8. AUTOVALORES E AUTOVETORES

elementos da matriz diagonal Λ. Desta forma, podemos armar que um dado autovalor u é um
dos vetores bases da transformação que diagonaliza A e que o autovalor λ é a posição asso iada
da matriz diagonal Λ. Desta forma, podemos veri ar que a matriz Φ ujas olunas são os

autovetores u tem olunas linearmente independentes. Expandindo estes termos, veri amos

que

TΦ = ΛΦ ⇐⇒ Λ = Φ−1 T Φ

OU SEJA, Φ é um operador de mudança de base entre o observador da base


diagonalizada para a base original.
Exemplo: Seja o operador T : R3 → R3

T (x, y, z) = (3x − y + z, −x + 5y − z, x − y + 3z)

que tem a forma matri ial


 
3 −1 1
 
T =  −1 5 −1  ,
1 −1 3
pois
  
3 −1 1  x
 

 
T (x, y, z) =  −1 5 −1  y .

 

1 −1 3 z

A equação ara terísti a asso iada a este operador é obtida por meio da operação

   
3 −1 1 1 0 0
   
det  −1 5 −1  − λ  0 1 0  = 0
1 −1 3 0 0 1

resultado em

−λ3 + 11λ2 − 36λ + 36 = 0

om raízes λ1 = 2 , λ2 = 3 e λ3 = 6 . Os autovetores asso iados a ada um dos autovalores são

obtidos por
    
3 − 2 −1 1  u1
 
  0 
 
 
λ1 :  −1 5 − 2 −1  u2 = 0

 
 
  
1 −1 3 − 2 u3 1
0
tal que

u1 −u2 +u3 = 0
−u1 +3u2 −u3 = 0
u1 −u2 +u3 = 0
81

tem innitas soluções, na forma

   
 u1 
   −a
 

u2 = 0 , ∀a ∈ R

 
 
 

u3 1 a

e     
3 − 3 −1 1  u1
 
  0 
 
 
λ2 :  −1 5 − 3 −1  u2 = 0

 
 
  
1 −1 3 − 3 u3 2
0
resulta em    
 u1
 
  b
 

u2 = b , ∀b ∈ R

 
 
 

u3 2
b
e nalmente,
    
3−6 −1  u1 
 1  0 
 
 
λ3:  −1 5 − 6 −1  u2 = 0

 
  
 
1 −1 3 − 6 u3 3 0
resulta em    
 u1 
   c 
 
u2 = −2c , ∀c ∈ R.

 
 
 

u3 3 c

Assim,

 
√1 √1 √1
 2 3 6 
Φ= 0 √1 − √26 
 3 
− √12 √1
3
√1
6

tem olunas que satisfazem as soluções obtidas e que são L.I (verique). Os valores de a, b e c
foram es olhidos para que a norma 2 de ada um dos vetores base fosse unitária.

Conforme a teoria de mudança de bases que vimos antes, temos que



2 0 0
Φ−1 TΦ =  0 3 0 
 

0 0 6
é a forma diagonal de T.

Exemplo

Um operador linear é des rito, utilizando a base anni a do R3 , na forma


82 CAPÍTULO 8. AUTOVALORES E AUTOVETORES

 
4 0 1
 
A = −2 1 0
−2 0 1
e tem autovalores λ1 = 1 , λ2 = 3 e λ3 = 2 e autovetores

 √ 
3
0 3√
− 31
 
Φ = 1 − 33 23  .

0 − 33 23

Supondo que o mesmo observador des reva um valor x na base anni a, omo sendo

 
1
 
x= 2

 
3

então a apli ação do operador no vetor forne e omo resultado

 
7
 
s = Ax = 0 .

 
1

Um outro observador, utilizando a base que diagonaliza o operador (autovetores) irá observar

x omo sendo (lembre-se que Φ mapeia de x para x)

 

 −1 

′ −1
x = Φ x = 8, 66

 

12

e este observador irá obter, omo resultado da apli ação do operador diagonalizado em x
    
1 0 0   −1  
  −1 

′ ′ ′  
s = A x = 0 3 0 8, 66 = 25, 98 .

 
 
 

0 0 2 12 24

Finalmente, podemos observar que ada observador obteve um resultado des rito em sua base,

mas omo sabemos que o operador de mudança de base Φ permite des rever um vetor da base

diagonalizada na base anni a, veri amos que

 
7
 

s = Φs = 0 .

 
1
8.1. AUTOVALORES E AUTOVETORES REAIS 83

Tarefas:

1) Comente a frase: Um autovetor u perten e ao kernel do operador (T − λI)


2) Determine os autovalores e autovetores dos operadores:

• T : R2 → R2 , T (x, y) = (3x, 8x − y)

• T : R3 → R3 , T (x, y, z) = (3x, 2y, y + 2z)

8.1 Autovalores e Autovetores Reais


Como os autovalores são raízes do polinmio ara terísti o,  a laro que, sob determinadas

ondições, podemos ter raízes (autovalores) omplexos. Da mesma, forma, ao solu ionarmos o

sistema linear homogêneo om λ omplexo, podemos ter autovetores omplexos. No entanto,

se a matriz for Hermitiana, podemos provar que os autovalores serão reais.

Matriz Hermitiana

Uma matriz A é dita Hermitiana se for auto-adjunta, ou seja, se

A = Ā

onde Ā é o onjugado transposto da matriz (aij = āji ), ou seja, as posições diagonais são reais

e as posições fora da diagonal são tais que aij + bij i = aji − bji i. Se a matriz é real, o omplexo
T
onjugado se reduz ao fato de a matriz ser simétri a, isto é, A = A .

Exemplo:

A matriz  
1 2 + i −1
 
A = 2 − i 3 −3i
−1 3i 2
é Hermitiana e seus autovalores são λ1 = −1, 9359708, λ2 = 1, 8748776 e λ3 = 6, 0610932 om

autovetores

 
0, 4666037 − 0, 3527762i −0, 4221890 + 0, 6140749i −0, 0032597 − 0, 3201372i
 
Φ = −0, 1175921 + 0, 5766664i 0, 2046916 + 0, 1662744i −0, 1067124 − 0, 7567659i ,
0, 5580841 0, 6124726 0, 5598387

que, omo esperado, diagonaliza a matriz.

8.2 Multipli idade de Autovalores


Nos exer í ios propostos na seção anterior, podemos veri ar que é possível obter autovalores

idênti os (múltiplos autovalores). Por exemplo, T : R3 → R3 , T (x, y, z) = (3x, 2y, y + 2z) tem
84 CAPÍTULO 8. AUTOVALORES E AUTOVETORES

autovalores λ1 = λ2 = 2 e λ3 = 3 , de tal forma que o autovalor 2 apare e duas vezes. Neste

aso, dizemos que existe uma multipli idade do autovalor.

Vamos investigar dois exemplos:

1) O operador

 
4 2 2
 
A = 2 4 2
2 2 4
tem omo autovalores λ1 = λ2 = 2 e λ3 = 8 e seus autovetores são

 
1 1 1
 
Φ =  1 −1 1 ,
−2 0 1
que são linearmente independentes. Substituindo o autovalor λ1,2 na expressão A−λI, obtemos
a matriz  
2 2 2
 
2 2 2
2 2 2
que tem Rank igual a 1 e nullity igual a 2. Assim, veri amos que a Multipli idade Geomé-
tri a do autovalor λ1,2 = 2 é dada pela dimensão do espaço nulo, ou seja, 2 (também hamado
de número de parâmetros livres do sistema de equações). Observe que a multipli idade geo-

métri a do autovalor é, neste aso, igual ao número de vezes em que o autovalor apare e (se

repete). Da mesma forma, substituindo o autovalor λ3 = 8 na expressão A − λI, obtemos a

matriz  
−4 2 2
 
 2 −4 2
2 2 −4
que tem Rank igual a 2 e nullity igual a 1. Assim, a multipli idade geométri a deste auto-

valor é igual a 1 que é, neste aso, igual ao número de vezes em que o autovalor se repete

( Multipli idade Algébri a). Devido ao fato de a multipli idade geométri a de todos os

autovalores desta matriz serem iguais ao número de vezes em que o autovalor se repete, veri-

amos que é possível utilizar os autovetores omo um operador de mudança de base, ou seja,

diagonalizar a matriz A por meio da operação Φ−1 AΦ.

2) O operador
 
3 0 0
 
B =  0 2 0
0 1 2
8.3. SUBESPAÇOS PRÓPRIOS 85

tem omo autovalores λ1 = λ2 = 2 e λ3 = 3 . Sua matriz de autovetores é dada por

 
0 0 1
 
Φ = 0 0 0 ,
1 −1 0

que posui duas olunas linearmente dependentes. substituindo o autovalor λ1 = λ2 = 2 na

expressão B − λI, obtemos a matriz


 
1 0 0
 
0 0 0
0 1 0
que tem Rank igual a 2 e nullity igual a 1. Assim, a multipli idade geométri a deste autovalor

é 1 que, neste aso, não é igual ao número de vezes no qual o autovalor apare e, 2. Por sua

vez, a substituição do autovalor λ3 = 3 na expressão B − λI resulta na matriz

 
0 0 0
 
0 −1 0
0 1 −1

que também tem Rank igual a 2 e nullity igual a 1, tal que sua multipli idade geométri a é

1 que, neste aso, é igual ao número de vezes em que o autovalor é repetido. Desta forma,

devido ao fato de não termos a igualdade entre a multipli idade geométri a e o número de

vezes em que o autovalor é repetido para todos os autovalores, veri amos que o operador não
é diagonalizável pela operação Φ−1 AΦ.
Multipli idade Algébri a de um autovalor é
Assim, dos exemplos, podemos notar que a

o número de vezes em que este autovalor é repetido e a Multipli idade Geométri a de um

autovalor é o grau de indeterminação do sistema (A − λi I) X = 0 (o número de parâmetros

livres no sistema de equações, nullity ou dimensão do espaço nulo). Ainda, podemos veri ar

que a multipli idade geométri a é sempre menor ou igual a multipli idade algébri a.

8.3 Subespaços Próprios


O onjunto Uλ dos autovetores asso iados a um autovalor λ é denido por

Uλ = {X : AX = λX}

de onde  a laro que a multipli idade geométri a de λ é o nullity do operador A − λI. Estes

autovetores formam uma base para um subespaço, hamado de Subespaço Próprio do autovalor

λ.
Exemplos:

1) O operador
86 CAPÍTULO 8. AUTOVALORES E AUTOVETORES

 
1 0 0
 
A = 2 0 0
3 0 0
tem autovalores λ1 = λ2 = 0 e λ3 = 1 . Os autovetores asso iados a estes autovalores são

 
0 0 0, 2672
 
Φ = 0 1 0, 5345 .
1 0 0, 8018

Avaliando-se a dimensão do espaço nulo de A − 0I, obtém-se 2, que é igual a multipli idade

algébri a deste autovalor. Com isto, pode-se veri ar que os autovetores (0, 0, 1) e (0, 1, 0)
formam uma base (os vetores são L.I.) para um espaço de dimensão 2, tal que o onjunto de

vetores que formam U0 é dado por

     
 0
   0
  

U0 = a 0 + b 1 , a, b ∈ R

 
  
  

1 0
assim omo o autovetor asso iado ao autovalor λ3 = 1 , que forma o onjunto

   
 
 0, 2672
 

U1 = a 0, 5345 , a ∈ R .

 
 
 

0, 8018

2) O operador
 
5 1 0
 
A = 0 5 1
0 0 5
tem 3 autovalores iguais a 5 om autovetores

 
1 −1 1
 
Φ = 0 0 0 .
0 0 0

A multipli idade geométri a deste autovalor é 1 (verique), tal que o mesmo não é diagonali-

zável. Outra onsequên ia importante é o fato de os autovetores asso iados ao autovalor não

formarem uma base adequada para o subespaço próprio de λ = 5, pois os mesmos são line-

armente dependentes. De fato, podemos veri ar que o subespaço próprio tem apenas uma

dimensão, pois
   
  1
    

U5 = a 0 , a ∈ R ,

 
   

0
8.4. PROBLEMA GENERALIZADO DE AUTOVALORES E AUTOVETORES 87

o que justi a a falta de informações para realizar a diagonalização do operador.

8.4 Problema Generalizado de Autovalores e Autovetores


Um problema generalizado de autovalores e autovetores tem a forma

Ax = λBx (8.1)

tal que a forma padrão é obtida quando B = I. Os valores de λ e x que satisfazem esta equação
são obtidos pelo mesmo pro edimento desenvolvido no omeço desta seção, pois

(A − λB) x = 0

leva a ondição

det (A − λB) = 0.

Se as matrizes A e B forem auto-adjuntas (que no aso de matrizes reais impli a em simetria)


e se B for positivo denida, então as olunas de Φ (autovetores) podem ser es ritas omo um

onjunto ortogonal.

Um aso espe ial o orre quando a matriz B é inversível, pois podemos multipli ar a Eq. 8.1
−1
por B , obtendo

B−1 Ax = λB−1 Bx

ou

Cx = λIx = λx,

om C = B−1 A. A expressão obtida tem a mesma forma que o problema de autovalores e

autovetores tradi ional estudado ao longo deste apítulo, tal que os autovalores e autovetores

de C satisfazem a equação generalizada.

Exemplo:

Seja o problema generalizado de autovalores e autovetores denido por

!
10 5
A=
6 15
e !
4 1
B= .
2 6
Os autovalores deste problema podem ser obtidos por

" ! !#
10 5 4 1
det −λ =0
6 15 2 6

resultando no polinmio ara terísti o p(λ) = 22λ2 − 104λ + 120 om raízes (autovalores)
88 CAPÍTULO 8. AUTOVALORES E AUTOVETORES

λ1 = 2, 7272 e λ2 = 2 . Os autovetores orrespondentes podem ser obtidos pela solução dos

problemas homogêneos

(A − λ1 B) u = 0

(A − λ2 B) v = 0,

resultando em ! !
u1 v1 2, 5 −1, 5
Φ= = .
u2 v2 1 1
Como, neste exemplo, a matriz B é inversível

!
3 1
− 22
B−1 = 11
1 2
− 11 11

podemos obter a matriz C = B−1 A,


!
27 15
11 22
C= 2 25
11 11

tal que o problema de autovalores e autovetores na forma tradi ional,

det (C − λI) x = 0

resulta no polinmio ara terísti o

p(λ) = (2.2727 − 1.0 λ) (2.4545 − 1.0 λ) − 0.1239

om raízes λ1 = 2, 7272 e λ2 = 2 , om os mesmos autovetores obtidos anteriormente. Neste

aso, omo esperado, observamos que

!
2, 72 0
Φ−1 CΦ = .
0 2
8.4. PROBLEMA GENERALIZADO DE AUTOVALORES E AUTOVETORES 89

Tarefas:

1) Veri ar se os vetores dados são autovetores

" #
2 2
(−2, 1) para
1 3

(resp. Sim)
 
1 −1 0
 
(−2, 1, 3) para  2 3 2 
1 2 1
(resp. Não)

2) Os vetores (1, 1) e (2, −1) são autovetores de um operador linear T : R2 → R2 asso iados aos

autovalores 5 e −1, respe tivamente. Determinar T (4, 1). (Resp. T (x, y) = (x + 4y, 2x + 3y) e

T (4, 1) = (8, 11).

3) Determinar o operador linear T : R2 → R2 ujos autovalores são 1 e 3, asso iados aos

autoespaços V1 = {(−y, y), y ∈ R} e V3 = {(0, y), y ∈ R}. (Resp. T (x, y) = (x, 2x + 3y))

4) Determinar os autovalores e autovetores dos seguintes operadores lineares

T (x, y) = (x + 2y, −x + 4y)


T (x, y) = (y, −x)

(Resp. a)2 e 3 , b) não possui autovalores reais. Investigue o motivo e observe a forma

matri ial deste operador.

5) Determinar um onjunto de vetores base que diagonalize o operador

T (x, y) = (−3x − 5y, 2y)

Resp. {(1, −1), (1, 0)}

6) Veri ar se existe uma base de autovetores para

T (x, y, z) = (x + y + z, 2y + z, 2y + 3z)
T (x, y, z) = (x, −2x + 3y − z, −4y + 3z)

Resp. a) Sim e b) Não.

7) Determine os autovalores e autovetores do operador T : R3 → R3 , T (x, y, z) = (4x+z, −2x+


y, −2x + z). O operador é diagonalizável ? Resp: É diagonalizável.
90 CAPÍTULO 8. AUTOVALORES E AUTOVETORES
Capítulo 9

Continuidade

O on eito de ontínuidade é fundamental para estudarmos pro edimentos de solução utilizados

na me âni a omputa ional. Este on eito é intuitivo quando pensamos em função (geralmente

este on eito é dis utido nos ursos de Cál ulo I), e pode ser fa ilmente estendido para o nosso

estudo sobre operadores.

Continuidade de uma Função:

Seja f : X → Y. Esta função é dita contı́nua em x0 ∈ X se para ada ǫ>0 existe δ>0 tal

que

|f (x0 ) − f (x)| < ǫ

onde

|x0 − x| < δ

e f é dita ontínua se for ontínua em T ODOS os pontos de X.

ou seja, se nos deslo armos um valor δ no entorno do ponto x0 , então o valor da função não

terá variação maior do que ǫ. Em se tratando de operadores,

Continuidade de um Operador:

Seja T :U →V um operador entre os espaços normados U e V. T é dito ontínuo em U se

existem um número M >0 tal que

kT u1 − T u2 kV ≤ M ku1 − u2 kU , ∀u1 , u2 ∈ U

onde deve  ar laro que a ontinuidade de um operador depende das normas empregadas.

91
92 CAPÍTULO 9. CONTINUIDADE

Operador Limitado:

Um operador T é dito limitado ( bounded ) se existe M >0 tal que

kT ukV ≤ M kukU , ∀u ∈ U

e, se o operador for linear, então ser ontínuo e ser limitado signi am a mesma oisa.

Como prova, onsideramos dois elementos de um espaço linear, u1 e u2 . Assim, por ser linear,

o operador admite

kT (u1 + u2 )kV ≤ M ku1 + u2 kU

onde u1 + u2 pode ser interpretado omo um outro elemento u qualquer de U.

Exemplo: Seja T : R3 → R3 uma transformação linear denida por T (u) = (u1 + u2 , u2 −


u 3 , u 3 ). Considerando a norma Eu lidiana, temos que

 1
kT uk2 = (u1 + u2 )2 + (u2 − u3 )2 + u23 2

é o lado esquerdo da desigualdade é

 1
kuk2 = u21 + u22 + u23 2 .

tal que
  12  1
(u1 + u2 )2 + (u2 − u3 )2 + u23 ≤ M u21 + u22 + u23 2

Elevando ambos os lados ao quadrado, temos

   
(u1 + u2 )2 + (u2 − u3 )2 + u23 ≤ M 2 u21 + u22 + u23

que pode ser re-es rito omo

 
u21 + 2u22 + 2u23 + 2u1 u2 − 2u2 u3 ≤ M 2 u21 + u22 + u23 .

É interessante notar que para M ≥ 2 a desigualdade é satisfeita ( aso limite quando u2 → ∞


ou quando u3 → ∞), de tal forma que o operador é limitado.
93

Seja V um espaço linear normado e {φk }, k = 1..n um onjunto de bases de V. Então, ada

oe iente αi , i = 1..n na expressão


X
u= αi φ i

é limitado se existe um número M >0 tal que

|αi | ≤ M kuk

ou seja, ada omponente do vetor é menor ou igual a uma onstante multipli ada pela norma

do vetor.

Exemplo: Seja V ∈ RN e seu onjunto de base anni a {êi }. Neste aso, temos que

M = 1, pois a norma é sempre maior ou igual ao valor de suas omponentes.


94 CAPÍTULO 9. CONTINUIDADE
Capítulo 10

Sequên ias

Uma sequên ia no RN nada mais é do que uma função de N em RN , na forma X : N → RN ,


om notação (x1 , x2 , ....) ou, de form mais ompa ta (xk ). Uma sequên ia famosa é a série
de Fibona i, (xk ) = (1, 1, 2, 3, 5, 8, 13, ....) que é denida por (1, 1, xk−1 + xk−2 ). Sequên ias

podem ser somadas termo a termo e até multipli adas termo a termo.

Exemplo: Sejam duas sequên ias de Fibonna i (xk ) e (yk ). Então:

(xk ) + (yk ) = (x1 + y1 , x1 + y2 , ...)

(xk ) ∗ (yk ) = (x1 ∗ y1 , x1 ∗ y2 , ...).

Sequên ias são utilizadas para des rever o omportamento de funções a medida que o índi e k
( ontador) aumenta ( on eito de limite). Assim:

Limite de uma sequên ia:

Seja uma sequên ia S = (xk ). Dizemos que x ∈ RN é limite de S se para todo ǫ > 0 existe
K∈N tal que kx − xK k < ǫ para todo k > K . A notação para este omportamento é xk → x
ou,

x = lim xk
k→∞

Sequên ias Convergentes e Sequên ias Divergentes:

Se uma sequên ia S = (xk ) possui limite, então é dita onvergente. Do ontrário, é dita

divergente.

1

Exemplo: Considere a sequên ia S = k
. Esta sequên ia tem limite em 0 e, portanto, é

onvergente.

Exemplo: A série de Fibona i é divergente.

95
96 CAPÍTULO 10. SEQUÊNCIAS

Uni idade do Limite:

Uma sequên ia S pode ter no máximo um limite.

Sequên ia Limitada:

Seja uma sequên ia S. Esta é dita limitada se existe um número real M tal que

kxk k ≤ M, ∀k ∈ N.

É importante ressaltar que toda a sequên ia onvergente é limitada.

Tivemos o uidado de denir os on eitos a ima para o RN , de modo que quem mais

laros em um primeiro momento. Mas omo temos visto neste texto, todas as denições são

estensíveis para espaços de funções. Vamos generalizar.

Convergên ia de uma função: Uma sequên ia de funções {fn } é dita


unif ormemente convergente para f0 em um domínio Ω se, para ada ǫ > 0 existe N > 0,
dependente de ǫ mas não de u, tal que

|fn (u) − f0 (u)| < ǫ, ∀ n > N e ∀u ∈ Ω

e, neste aso, es revemos

lim fn (u) = f0
n→∞

1
Exemplo: Seja uma sequên ia denida por fn (n) = n
(ou seja, 1/1, 1/2, 1/3....). Vamos mostrar

que a sequên ia é onvergente e tem limite em 0. Para isto,


1
− 0 < ǫ
n

1
e vamos sele ionar um n>M = ǫ
, que hamaremos de ǫ+ . Neste aso, a sua inversa será ǫ− ,
tal que

ǫ < ǫ.

Quando lidamos om operadores, onsideramos


97

Convergên ia de um operador:

Uma sequên ia de Operadores {Tn } é dita unif ormemente convergente para T0 em um domínio
Ω se, para ada ǫ>0 existe N > 0, dependente de ǫ mas não de u, tal que

|Tn (u) − T0 (u)| < ǫ, ∀ n > N e ∀u ∈ Ω

e, neste aso, es revemos

lim Tn (u) = T0
n→∞

Um on eito de fundamental importân ia para a área de me âni a omputa ional é o de

onvergên ia fra a. A onvergên ia de uma sequên ia foi denida de a ordo om uma norma,

que indi a que a distân ia entre o limite da sequên ia e um valor esta ionário de res e até que

kun − uk < ǫ. No entanto, é possível que un não seja mas um fun ional de un o seja. Neste

aso, dizemos que a onvergên ia é fra a (weak convergence).

Convergên ia Fra a (weak convergence):

Seja uma sequên ia {un } em um espaço de(pré) Hilbert H . Esta sequên ia é dita fra amente

onvergente para um ponto u em H se

< un , v >→< u, v >, ∀v ∈ H

e, neste aso, empregamos a notação

un ⇀ u.

Desta forma, observamos que

kuk ≤ lim inf kun k


n→∞

n

Exemplo: A sequên ia un (x) = sin 2
x x ∈ [0, π] em L2 irá apresentar diversas passagens

por zero ao longo do intervalo, a medida que aumentarmos sua frequên ia (n). No entanto, isto

não signi a que ela irá tender para a FUNÇ O zero, que iremos hamar de z(x) = 0, pois

sZ
π  n  2
1
< un (x) − z(x), un (x) − z(x) > 2 = sin x − 0 dx
0 2

não irá apresentar um valor < ǫ, pois

q
sin(π n)
limn→∞ π − n

2
98 CAPÍTULO 10. SEQUÊNCIAS

não irá onvergir om n → ∞. No entanto,

Z π n 
lim < un , v >= lim sin x v(x) dx → 0
n→∞ n→∞ 0 2

independente de v, pois  amos sempre om um n no denominador. Portanto, dizemos que

un ⇀ 0

A onvergên ia fra a é muito importante, pois omo o nome diz, impli a em uma medida

mais "tolerante"do on eito de onvergên ia. É importante ressaltar que se uma sequên ia

onverge fortemente (na norma) então também onverge fra amente.

10.1 Sequên ias de Cau hy


Dada um sequên ia {x}k , dizemos que a mesma é de Cau hy se os elementos desta sequên ia

forem arbitrariamente próximos a medida que k aumenta (a medida que a sequên ia se desen-

volve). Matemati amente, temos que

Sequên ia de Cau hy:

Um sequên ia {x}k é dita de Cau hy se existem ǫ>0 e m, n > N tal que:

|xn − xm | < ǫ.

O interessante sobre a sequên ia de Cau hy vem do fato de que toda a sequên ia onvergente

é de Cau hy. Assim, se provarmos que uma sequên ia tem ao menos uma sub sequên ia de

Cau hy, então  a ongurada a prova de que a mesma é onvergente. Geralmente esta é a

abordagem utilizada na maioria das provas. Outra ara terísti a interessante sobre sequên ias

de Cau hy vem do fato de que utilizamos esta des rição para analizarmos a onvergên ia de

algoritmos.

Exemplo: Dada a sequên ia

3n2 − 2
{xn } =
4n3 + n2 + 3
é fá il veri ar que o limite para n → ∞ é zero. No entanto, a denição da sequên ia de Cau hy

não ne essita do ál ulo do limite. Assim, utilizando a desigualdade triangular


3m2 − 2 3n 2
− 2 3m2 − 2 3n2 − 2
4m3 + m2 + 3 − 4n3 + n2 + 3 6 4m3 + m2 + 3 + 4n3 + n2 + 3 6 ǫ

e, para m e n su ientemente grandes, observamos que

   
3m2 3n2 3 1 1 1 1
+ = + < + 6ǫ
4m3 4n3 4 m n m n
10.2. ESPAÇO COMPLETO 99

3
pois
4
< 1. Assim, se m = n = N, observamos que

1 1 2
+ = 6 ǫ.
N N N

Exemplo: Dada a sequên ia

{xn } = 1 + (−1)n = 0, 2, 0, 2, 0, 2, ...

é fá il veri ar que a mesma não é onvergente. Utilizando a desigualdade triangular

|(1 + (−1)m ) − (1 + (−1)n )| 6 |1 + (−1)m | + |1 + (−1)n | 6 ǫ

e, assumindo m = n = N,
2 + 2(−1)N 6 ǫ.

Assim, isolando N em função de ǫ, obtemos


log 2ǫ − 1
N=
log(−1)

que não é real, tal que a sequên ia não é de Cau hy.

10.2 Espaço Completo


Se todas as sequên ias onvergem para elementos dentro do espaço, então dizemos que o mesmo

é ompleto. Este on eito é muito importante, uma vez que está asso iado a apa idade de
1
obtermos efetivamente o limite de uma seqên ia. Por exemplo: A sequên ia xn = n
pode ser

denida no intervalo (0, K), onde K é um número positivo maior do que 1. Esta sequên ia é

laramente de Cau hy, mas seu limite onverge para um elemento fora do domínio (espaço).

Outro exemplo lássi o será dis utido no apítulo sobre Séries de Fourier, onde será demonstrado

que uma sequên ia de funções ontínuas pode onvergir para uma função ontínua por partes.

Um outro exemplo lássi o é a sequên ia

xn 1
x0 = 1, xn+1 = +
2 xn

que é formada por números ra ionais, mais onverge para 2, que é um número irra ional. Isto

omprova que o onjunto dos ra ionais não é ompleto, ne essitando assim da denição dos

números irra ionais, que ompletam os ra ionais, formando o Espaço dos Números Reais.
100 CAPÍTULO 10. SEQUÊNCIAS
Capítulo 11

Série de Fourier

Já vimos que espaços vetoriais são a extensão dos on eitos asso iados a um espaço que é

bastante onhe ido (e intuitivo), omo o RN . Desta forma, denimos e trabalhamos om

on eitos fundamentais, omo o de função, operadores, norma, produto interno e sequên ias.

De fundamental interesse para os nossos estudos em fundamentos de matemáti a é uma série

de funções espe ialmente importante, onhe ida omo Série de Fourier.

Seja um onjunto C 0 , das funções ontínuas, denidas no intervalo [−L, L]. Se este onjunto

for munido das operações binárias bási as denidas anteriormente, então onstitui um espaço

de dimensão innita ( ardinalidade da base é innita), om produto interno denido por

Z L
< u(x), v(x) >= u(x)v(x) dx
−L

e norma Eu lidiana
1
kuk2 =< u, u > 2 .

Conforme já estudamos, existem diferentes bases para um mesmo espaço. Das diversas normas

dais quais podemos dispor para des rever as funções ontínuas C 0, uma é de interesse espe ial.

Este onjunto base é dado por

  n  nπx o n  nπx o
1
B= ∪ cos ∪ sen , n ∈ N∗
2 L L

e, NESTA BASE ESPECÍFICA, um elemento do espaço C0 é des rito por uma ombinação

linear do tipo
∞  nπx  X ∞  nπx 
1 X
u = a0 + an cos + bn sin
2 n=1 L n=1
L

onde o somatório vai a innito, pois esta é a ardinalidade da base (a ombinação linear impli a

em usar todos os termos da base, pois esta é a dimensão do espaço).

Os oe ientes da série são obtidos por meio das projeções da função nas direções denidas

101
102 CAPÍTULO 11. SÉRIE DE FOURIER

pela base. Desta forma, se hamarmos os termos da base de

B = {c0 } ∪ {cn } ∪ {sn } , n ∈ N∗

então

Z
hu, c0 i 2 L u(x)
a0 = = dx
hc0 , c0 i L −L 2
Z
hu, cn i 1 L
an = = u(x)cn (x) dx
hcn , cn i L −L
Z
hu, sn i 1 L
bn = = u(x)sn (x) dx
hsn , sn i L −L

tal que

n   X n  
1 X kπx kπx
fn (x) = a0 + ak cos + bk sin .
2 k=1 L k=1
L

Teorema 6. Teorema de Fourier


Seja f : [−L, L] → R uma função derivável por partes. Então, em um ponto x ∈ (−L, L) a
+
série de Fourier onverge fortemente para fn (x) = f (x )+f
2
(x− )
. Nos extremos x = −L e x = L,
temos as seguintes situações:

• se f for periódi a om período igual a L, então fn (−L) = fn (L) = f (L) ;

• se f não for periódi a, então fn onverge para a média dos valores laterais, ie,

f (−L+ + L− )
fn =
2

É importante omplementar a denição a ima om as hamadas ondições de Diri hlet.

Estas 3 ondições devem ser observadas para que uma função seja orretamente des rita pela

série de Fourier:
Teorema 7. Condições de Diri hlet
Uma função f (x), para ser des rita por uma série de Fourier, deve satisfazer as seguintes
ondições:
R
• A função deve ser absolutamente integrável, ie, |f (x)|dx < ∞, impli ando que os oe-

ientes serão limitados;

• Não podem existir innitos pontos de máximo e/ou de mínimo. Um exemplo que não
π

atende a este requisito é a função f (x) = sin x
quando x → 0;

• Não podem existir innitas des ontinuidades.


103

Exemplo:

Vamos onsiderar a função f (x) = x2 ,


x ∈ [−1, 1]. Obviamente, a representação desta
para
0
função na base que está sendo dis utida será EXATA para n → ∞, pois f (x) ∈ C . No entanto,

omo exer í io vamos estudar o omportamento da aproximação a medida que aumentamos o

número de termos na ombinação linear.

A) Um termo (n=0):
a0 2
R1
Neste aso, f0 = 2
, om a0 = (1) −1
x2 12 dx = 2
3
. Portanto, f0 = 13 .

B) Termo onstante mais os primeiros trigonométri os (n=1):


1 πx
 πx

Neste aso, f1 = 3
+ a1 cos L
+ b1 sin L
, om

Z
1 1 2  πx  4
a1 = x cos dx = − 2
1 −1 L π
Z 1  
1 πx
b1 = x2 sin dx = 0
1 −1 L

tal que
1 4  πx 
f1 = − 2 cos
3 π 1
C) n=2

cos (2 π x) 4 cos (π x) 1
f2 = − +
π2 π2 3

D) n=3

4 cos (3 π x) cos (2 π x) 4 cos (π x) 1


f3 = − + − +
9 π2 π2 π2 3

E) n = 4

cos (4 π x) 4 cos (3 π x) cos (2 π x) 4 cos (π x) 1


f4 = − + − +
4 π2 9 π2 π2 π2 3

tal que as aproximações podem ser visualizadas na Figura (11.1).

Funções Pares e Funções Ímpares:

Uma função f (x) em x ∈ [−L, L] é dita par se f (−x) = f (x) e é dita ímpar se f (−x) = −f (x),
∀x ∈ [−L, L].
Assim, pelas propriedades trigonométri as do seno e do cosseno, observamos que em funções

pares os oe ientes bn são zero, enquanto em funções ímpares os oe ientes an serão nulos.
104 CAPÍTULO 11. SÉRIE DE FOURIER

Figura 11.1: Aproximações para a função x2 , para n = 0, 1, 2, 3 e 4

Exemplo: A função x2 é par, pois (−x)2 = x2 em todo o intevalo [−1, 1]. Conforme ilustrado

no exemplo anterior, todos os bn se anulam.

Extensão Periódi a:

Caso uma função seja denida em um intervalo x ∈ [0, L], então é ne essário estender o domínio
da função para que seja possível apli ar as equações deduzidas a ima. Neste aso, existem duas

possibilidades:

• Extensão Par: (
f (x) x∈ [0, L]
fpar (x) =
f (−x) x ∈ [−L, 0)

• Extensão Ímpar:

• (
f (x) x ∈ [0, L]
fı́mpar (x) =
−f (x) x ∈ [−L, 0)

Exemplo:

Para f (x) = 4x − 3x2 − 2x3 e x ∈ [0, 1], temos as seguintes estensões periódi as:

(
4x − 3x2 − 2x3 x ∈ [0, 1]
fpar (x) =
−4x − 3x2 + 2x3 x ∈ [−1, 0)
105

Figura 11.2: Função original , extensão par e extensão impar

Figura 11.3: Série de Fourier om 4 termos para aproximar o omportamento de f (x) =


4x − 3x2 − 2x3 para x ∈ [0, 1] e extensão par.

(
4x − 3x2 − 2x3 x ∈ [0, 1]
fı́mpar (x) =
4x + 3x2 − 2x3 x ∈ [−1, 0)
portanto, temos os seguintes omportamentos Ilustrados na Figura (11.2).

Assim, estudando a série de Fourier para esta função, obtemos

Z 0 Z 1 
2 1 1
a0 = fpar (x) dx + f (x) dx
1 −1 2 0 2
Z 0  nπx  Z 1  nπx  
an = fpar (x)cos dx + f (x)cos dx
−1 L 0 L
Z 0  nπx  Z 1  nπx  
bn = fpar (x)sin dx + f (x)sin dx
−1 L 0 L

resultando em f4 (x) =

81 π 2 cos (4 π x) + (32 − 48 π 2) cos (3 π x) + 324 π 2 cos (2 π x) + (2592 − 432 π 2 ) cos (π x) − 27 π 4



54 π 4

ou, gra amente, om o omportamento ilustrado na Figura (11.3).


106 CAPÍTULO 11. SÉRIE DE FOURIER

Exer í ios:

1) Obtenha a série de Fourier para f (x) = x3 e x ∈ [0, 5]. Estude quantos termos são

ne essários para que obtenhamos um erro máximo de 5%.

2) Obtenha a série de Fourier de f (x) = ex , x ∈ [−L, L℄.

3) Considere a função t(x) = x+⌋x⌊


2
para x ∈ [−5, 5]. Obtenha a série de Fourier e verique os

valores da aproximação em x = 0.

4) Repita o exer í io 3 para f (x) = H0 (x), função Heaviside om entro em 0.

5) A relação entre o operador exponen ial e as funções trigonométri as é bem onhe ida (Fór-

mula de Euler). Desta forma, é possível es rever a base que utilizamos para obter a série de

Fourier utilizando uma notação mais ompa ta. Estude esta base e obtenha as expressões dos

oe ientes para este aso.


Parte II

Cál ulo Numéri o

107
Capítulo 12

Con eitos Bási os de Cál ulo Numéri o

Nesta segunda parte da matéria iremos apresentar os on eitos bási os de ál ulo numéri o.

Para isto, o leitor deve primeiro entender omo os números são representados internamente

em um omputador, para então ompreender a natureza dos erros de aproximação que são

inerentes a esta representação. De posse destes on eitos bási os, iremos apresentar de forma

simpli ada uma representação para algoritmos para, depois, estudarmos os métodos numéri os

de interesse.

É importante salientar que na norma brasileira a vírgula é utilizada para separar a parte

inteira de um número real da parte fra ionária (1, 23), sendo que o ponto é o separador de milhar.

No entanto, em países de língua inglesa, é o ponto que deve ser utilizado para separar a parte

inteira da parte fra ionária (1.23). Assim, neste texto iremos seguir a norma brasileira, mas o

implementarmos os ál ulos em qualquer linguagem


leitor deve sempre lembrar que ao

de omputador,deverá seguir a norma inglesa, que é a utilizada.

12.1 Representação de números naturais em diferentes ba-


ses
Um número natural omo 215 é representado por valores que indi am a quantidade de (neste

aso) entenas + dezenas + unidades, sendo que neste aso (base 10) ada uma das posições

pode assumir valores entre [0, 9] (dez possibilidades). Diferentes bases seguem a mesma lógi a,

mas alteram o número valores que podem ser utilizado em ada posição. As bases mais omuns

são

Base (b) a0 a1 a2 a3 a4 a5 a6 a7 a8 a9 a10 a11 a12 a13 a14 a15


2 0 1

8 0 1 2 3 4 5 6 7

10 0 1 2 3 4 5 6 7 8 9

16 0 1 2 3 4 5 6 7 8 9 A B C D E F

109
110 CAPÍTULO 12. CONCEITOS BÁSICOS DE CÁLCULO NUMÉRICO

e, de forma geral, podemos representar um número por uma expansão polinomial na forma

N = an bn + an−1 bn−1 + .... + a1 b + a0 ,

ou na forma ompa ta

(an an−1 an−2 ....a1 a0 )b

omo por exemplo

(215)10 = 2 ∗ 102 + 1 ∗ 10 + 5

ou

(0111)2 = 0 ∗ 23 + 1 ∗ 22 + 1 ∗ 21 + 1 ∗ 20 .

Partindo-se de um número natural (M)10 , podemos obter a representação em qualquer base,


bastando para isto realizarmos uma série de divisões pelo valor da base desejada. Por exemplo:

110 ⌊2
0 55 ⌊2
1 27 ⌊2
1 13 ⌊2
1 6 ⌊2
0 3 ⌊2
1 1

e, portanto, (110)10 = (1101110)2, ou seja, os restos das divisões irão indi ar os oe ientes

a0 , a1 ....an−1 an na sequên ia em que apare erem. O último valor é o divisor nal. O mesmo

número na base 8 seria des rito por

110 ⌊8
6 13 ⌊8
5 1

ou seja, (110)10 = (156)8 . Finalmente, embora seja óbvio,

110 ⌊10
0 11 ⌊10 .

1 1

Deve-se enfatizar que a representação interna de um número em um omputador


é realizada na base 2.
12.2. REPRESENTAÇ O DA PARTE FRACIONÁRIA DE UM NÚMERO REAL 111

12.2 Representação da parte fra ionária de um número


real
Um número real X pode ser visto omo uma parte inteira Xi somado a uma parte fra ionária

Xf , tal que Xf = X − Xi . Desta forma, Xf estará sempre na faixa [0, 1) e poderá ser des rito

omo uma expansão polinomial om a forma

Xf = a1 2−1 + a2 2−2 + ..... + an 2−n

onde deve-se observar que esta série é onvergente para 1 quando o número de termos tender a

innito, pois

X 1 1 1 1
i
= + + + ... → 1, 0
i=1
2 2 4 8

ou seja, quanto maior o número de bits, maior a pre isão da representação. A forma de onverter

uma par ela fra ionária es rita em base de imal para uma representação em base 2 é o inverso

da parte inteira, pois aqui iremos multipli ar a parte fra ionária por 2. Por exemplo 0, 7 é

representado por

0, 7 ∗ 2 = 1, 4
0, 4 ∗ 2 = 0, 8
0, 8 ∗ 2 = 1, 6
0, 6 ∗ 2 = 1, 2
0, 2 ∗ 2 = 0, 4
0, 4 ∗ 2 = 0, 8
0, 8 ∗ 2 = 1, 6
....

ou Observem que a representação não tem m, estando limitada


(1011001.....)2.
pelo número de bits que são utilizados para representar o número. Por exemplo, se
utilizarmos 7 bits, obteremos o número

1 ∗ 2−1 + 1 ∗ 2−3 + 1 ∗ 2−4 + 1 ∗ 2−7 = 0, 6953125.

12.3 Representação de Números em Computadores


Um número inteiro pode ser representado exatamente por uma representação binária utilizada

em omputadores, desde que sejam utilizados o número su iente de bits. Uma questão im-

portante é a representação do sinal, que não é ne essária em um número natural. Para isto,

é reservado o bit (posição) mais a esquerda (ou mais signi ativo) da representação binária.

Se este bit for 0 o número é dito positivo e se for 1 o número é dito negativo, pois −10 = 1 e
112 CAPÍTULO 12. CONCEITOS BÁSICOS DE CÁLCULO NUMÉRICO

−11 = −1. Com isto, restam n−1 bits para a representação do número. Por exemplo

(00001)2 = −10 (0001)2 = +20 = +(1)10

e

(10101)2 = −(0101)2 = −11 22 + 20 = −(5)10 .

Assim, se um inteiro for representado om 8 bits, teremos apenas 7 para representar efetivamente
os valores e um para o sinal. Com isto estaremos trabalhando na faixa ±[127].

Por sua vez, um numero real, também hamado de ponto utuante (oat) , pode ser repre-

sentado de diferentes formas. A mais utilizada é a denida pela norma IEEE 754 (1985, om

revisão em 2008) onde

N = (−1)S ∗ (1 + Mantissa) ∗ 2Expoente−P ESO

onde a Mantissa indi a a parte fra ionária do número 1 (que é subtendido), S indi a o sinal

da Mantissa, Expoente é o expoente da base (neste aso 2) e PESO é um fator que dene o

sinal do expoente. O uso do PESO, embora pareça uma ompli ação desne essária, permite

a e onomia de um bit de sinal para aumentar a pre isão da representação do expoente. Por

exemplo, em pre isão simples, utilizamos 32bits para des rever um número. Neste aso, 1bit
(S) é utilizado para des rever o sinal da Mantissa, x = 8 bits são utilizados para des rever

o Expoente e y = 23 bits são utilizados para des rever a Mantissa. Quando utilizamos 64
bits para representar um número em ponto utuante, então dizemos que a pre isão é dupla

(double) e, neste aso, ontinuamos utilizando 1 bit para o sinal da Mantissa, x = 11 bits para

o expoente e y = 52 bits para a Mantissa.

Como na pre isão simples utilizamos 8 bits para o expoente, então podemos (idealmente)

obter valores na faixa (00000000)2 = (0)10 e (11111111)2 = (255) que são todos positivos. Neste
aso, o valor P ESO denido na norma é 127, pois se Expoente=(00000000)2, então estaremos
trabalhando om 20−127 = 2−127 Expoente = (11111111)2 = (255) então 2255−127 = 2128 .
e se

Da mesma forma, em pre isão dupla, teremos um P ESO = 1023. No entanto, a norma reservou

os valores extremos da faixa para representação de números espe iais e, portanto, temos um

limite real de 1 ≤ Expoente ≤ 254 o que nos leva aos extremos −126 e 127 para o expoente

efetivo.

A Mantissa representa a parte fra ionária a direita do 1 e, portanto, segue a notação apre-

sentada na Seção (12.2). Desta forma, o número

1 01001011 10100101101100011101011

representa o de imal

N = (−1)1 1, (10100101101100011101011)2 ∗ 2(01001011)2 −127


12.4. EPSILON DA MÁQUINA 113

om Expoente

Expoente = 20 + 21 + 23 + 26 = 75

e Mantissa

Mantissa = 2−1 + 2−3 + 2−6 + 2−8 + 2−9 + 2−11 + 2−12 + 2−16 + 2−17 + 2−18 + 2−20 + 2−22 + 2−23

resultando em 0, 6472448110580444. Portanto

N = −1, 6472448110580444 ∗ 2−52 = −3.657618232861913 ∗ 10−16 .

Assim, qualquer número real terá um limite de representação que depende da pre isão utili-

zada. Em pre isão simples observamos que o maior número que pode ser representado (em

módulo) será 1, 99999988 ∗ 2127 = 3.402823466385289 ∗ 1038 , portando, se um número x for


maior do que este valor, será interpretado omo ∞ (overow). Da mesma forma, o menor

número que pode ser representado será 1, 0 ∗ 2−126 = 1.175494350822287 ∗ 10−38 . Assim, se
−1.175494350822287 ∗ 10−38 < x < 1.175494350822287 ∗ 10−38 , então x será onsiderado omo
0, 0 (underow).

Exemplo: O ál ulo da hipotenusa de um triângulo om atetos x e y é dado por h =


sqrt(x ∗ x + y ∗ y). Se x e/ou y forem numeros muito grandes, então existe a possibilidade de

o resultado ser overow. Geralmente isto é evitado om a seguinte estratégia

• m = max(|x| , |y|);

• n = min(|x| , |y|);

• r = n/m;

• h = m ∗ sqrt(1 + r ∗ r).

Por exemplo, seDMAX é o maior número que pode ser representado na base de x e y e
x = y = 0, 5DMAX , então o ál ulo direto resulta em overow, embora o resultado da operação

seja 0, 5DMAX (obtido om o ál ulo alternativo).

12.4 Epsilon da Máquina


Outro on eito importante em ál ulo numéri o é o de epsilon da máquina, que é o menor

número que se for somado a unidade não será per eptivel (não altera o valor da operação). Para

entendermos melhor este omportamento, vamos lembrar que em pre isão simples o número 1, 0
é representado por o por

(1, 0)10 = 1, (00000000000000000000000)2 ∗ 20


114 CAPÍTULO 12. CONCEITOS BÁSICOS DE CÁLCULO NUMÉRICO

e o próximo número será representado por

(1 + 1.1920928955078125 ∗ 10−7 )10 = 1, (00000000000000000000001)2 ∗ 20

ou seja, mudamos o bit menos signi ativo da Mantissa. No entanto, devemos onsiderar um

número menor do que este, para que seja imper eptivel. Desta forma, a denição da norma é

1
ǫm = ∗ 2−y
2

tal que
f l(x) − x
≤ ǫm
x

e f l(x) é a representação em ponto utuante de um dado número real x. Desta forma, em


−23 −8
pre isão simples teremos ǫm = 0.5 ∗ 2 = 5.96 ∗ 10 e em pre isão dupla aproximadamente

1.1 ∗ 10−16 . Este on eito é de fundamental importân ia, devendo ser sempre uidadosamente

veri ado. Por exemplo, ao aproximarmos a derivada de uma função em torno de um ponto x,
podemos utilizar
df (x) f (x + δ) − f (x)

dx δ
e esta derivada irá retornar zero se δ < ǫm , pois a subtração não fará sentido (x + ǫ = x).

12.5 Valores espe iais reservados pela norma


Conforme omentado anteriormente, alguns valores são reservados pela norma. Estes valores

são +∞, −∞, NaN (not a number) e ±0, pois se isto ainda não  ou laro, a mantissa dene

somente a parte fra ionária, sendo que o número 0,0 não pode ser obtido diretamente na repre-

sentação denida pela norma.

∞ 0 1111 1111 1 . 0000 0000 0000 0000 0000 000

−∞ 1 1111 1111 1 . 0000 0000 0000 0000 0000 000

NaN 1 1111 1111 1 . 1000 0000 0000 0000 0000 000

+0 0 0000 0000 1 . 0000 0000 0000 0000 0000 000

−0 1 0000 0000 1 . 0000 0000 0000 0000 0000 000

1 1
Assim, temos que = ∞, = −∞, log(0) = −∞ e log(x) = NaN, x < 0 (em teoria,
+0 −0
pois isto depende do ompilador). Por denição da norma, as operações que denem NaN
são: 0 ∗ ∞, 0/0, ∞/∞, ∞ + (−∞), resto das operações x/0 e ∞/x e raiz de um número real

negativo. Toda a operação que envolver um NaN irá resultar em NaN .


12.6. PRECIS O E ACURÁCIA (EXATID O) 115

12.6 Pre isão e A urá ia (Exatidão)


Dois on eitos fundamentais em ál ulo numéri o são o de pre isão e o de a urá ia (do inglês

a ura y ) ou exatidão.

Pre isão refere-se ao quão próximo um número representado pelo omputador representa
o número que ele ambi iona representar. A pre isão de um número é governada pelo número

de dígitos empregados na representação. Assim, a onstante π será representada om maior

pre isão utilizando double do que oat.

A urá ia ou Exatidão refere-se a quão próximo um número representado pelo omputa-


dor ( omo resultado de uma série de operações) está do valor orreto do número que ele almeja

representar. A a urá ia é governada pelos erros (de trun amento e arredondamento) do método

numéri o empregado. Assim,se os números π1 = 3, 141604958 e π2 = 3, 1415809485 almejam


ambos a representar o número π = 3, 141592654...... . Neste aso, o número π2 possui maior
a urá ia do que π1 , embora ambos possuam a mesma pre isão (pois estão sendo representados

em oat ou em double).

!! Assim, quando oloquialmente falamos em pre isão, estamos nos referindo a


a urá ia, ou exatidão !!

Da mesma forma, um on eito importante é o de quantos dígitos são realmente signi ativos

na representação de imal que desejamos obter. Este número é dado pela equação

p = 1 + (y − 1) × log(2)

ou seja, se estivermos trabalhando em pre isão simples (y = 23) então

p = 1 + (22) ∗ 0, 3010 = 7, 622

ou seja, 7 dígitos, e, para pre isão dupla (y = 52)

p = 1 + (51) ∗ 0, 3010 = 16, 351

ou 16 dígitos.

Da mesma forma, se tivermos um número x e sua representação por ponto utuante f l(x),
podemos veri ar o número de dígitos signi ativos da representação na base 10, utilizando a

relação
x − f l(x) 1 1−n
≤ 10
x 2
1
onde n é o maior valor que satisfaz esta equação. Por exemplo,
3
= 0, 333333333...... será
116 CAPÍTULO 12. CONCEITOS BÁSICOS DE CÁLCULO NUMÉRICO

invariavelmente representado por 0, 33334, de tal forma que

1
− 0, 33334 1
3
1 ≤ 101−n
3
2

é satisfeita para n = 5.

12.7 Propagação de Erros


Ao realizarmos uma ou mais operações matemáti as om números reais em um omputador,

iremos sempre ter um erro de representação em ada um dos números, ausado pela impre isão

na representação binária. Outra fonte de erros está na própria natureza dos algoritmos numé-

ri os iterativos ou até mesmo na entrada dos dados de um problema. De forma geral, podemos

denir os valores exatos de uma dada sequên ia de operações matemáti as omo x e y e seus

valores numéri os omo x̃ e ỹ. Assim, podemos denir os erros absolutos nestes valores omo:

Ex = x − x̃
Ey = y − ỹ

onde para simpli ar a notação assumimos que x e y são maiores do que os valores aproximados.
Assim, teremos que x = Ex + x̃ e y = Ey + ỹ e, se estes valores forem utilizados para realizarmos
outros ál ulos, podemos agora estimar a propagação destes erros absolutos pois:

• Erro absoluto na soma Ex+y = Ex +Ey pois x+y = (Ex + x̃)+(Ey + ỹ) = (x̃+ ỹ)+(Ex +Ey )

• Erro absoluto na diferença Ex−y = Ex − Ey , pois x − y = (Ex + x̃) − (Ey + ỹ) =


(x̃ − ỹ) + (Ex − Ey )

• Erro absoluto na multipli ação Ex∗y = x̃Ey + ỹEx , pois x ∗ y = (Ex + x̃) ∗ (Ey + ỹ) =
Ex Ey + Ex ỹ + Ey x̃ (o primeiro termo é de segunda ordem)

Ex x̃Ey
• Erro absoluto na divisão Ex/y = ỹ
− ỹ
2 pois

x (Ex + x̃) (Ex + x̃)


= =  
y (Ey + ỹ) ỹ 1 + Eỹy

e, omo (1 + z)−1 = 1 − z + z 2 − z 3 + z 4 − ..., podemos es rever

 
x (Ex + x̃) (Ex + x̃) (E + x̃) Ey Ey2 Ey3
= =  = x 1− + 2 − 3 + ....
y (Ey + ỹ) E
ỹ 1 + ỹy ỹ ỹ ỹ ỹ

e, omo Ey é pequeno, podemos abandonar os termos de alta ordem (potèn ias de Ey ) tal
12.7. PROPAGAÇ O DE ERROS 117

que

 
x (Ex + x̃) Ey (Ex + x̃) (Ex + x̃)Ey Ex x̃ Ex Ey x̃Ey
= 1− = − 2
= + − − 2
y ỹ ỹ ỹ ỹ ỹ ỹ ỹ 2 ỹ

e, novamente, podemos des artar o termo que ontém Ex Ey , obtendo o resultado.

De posse dos erros absolutos e denindo erro relativo omo erro absoluto sobre valor aproximado

obtido no ál ulo, obtemos os seguintes erros relativos:

  
x̃ Ex ỹ Ey
• Erro relativo na soma:
x̃+ỹ x̃
+ x̃+ỹ ỹ

  
x̃ Ex ỹ Ey
• Erro relativo na diferença:
x̃−ỹ x̃
− x̃−ỹ ỹ

  
Ex Ey
• Erro relativo na multipli ação:

+ ỹ

  
Ex Ey
• Erro relativo na divisão:

− ỹ
.

Assim, se em um dado instante de um ál ulo tivermos x = 100, x̃ = 99.999999, y = 50 e

ỹ = 49.9999995, por exemplo, então teremos

Ex = 100 − 99.999999
Ey = 50 − 49.999995

tal que os erros absolutos serão

Ex+y = 5, 999999999062311 ∗ 10−6


Ex−y = −4, 0000000041118255 ∗ 10−6
Ex∗y = 5, 5 ∗ 10−4
Ex/y = −1, 8 ∗ 10−7

que devem ser omparados diretamente aos valores aproximados que seriam obtidos sem a

propagação deste erro

x̃ + ỹ = 149, 999994 ± 5, 999999999062311 ∗ 10−6


x̃ − ỹ = 50, 000004 ± 4, 0000000041118255 ∗ 10−6
x̃ ∗ ỹ = 4999.999450000005 ± 5, 49999990032469 ∗ 10−4

= 2, 000000180000018 ± 1, 800000361139833 ∗ 10−7

118 CAPÍTULO 12. CONCEITOS BÁSICOS DE CÁLCULO NUMÉRICO

sendo que o erro relativo permite uma avaliação mais pre isa da severidade dos erros asso iados

as estas operações matemáti as bási as, pois

Erx+y = 4, 00000015937488 ∗ 10−8


Erx−y = 7, 999999368223701 ∗ 10−8
Erx∗y = 1, 1000001010649478 ∗ 10−7
Erx/y = 9.000000995698993 ∗ 10−8 .

É importante salientar que os omputadores e ompiladores atuais propagam erro de forma

mais lenta do que o visto aqui, pois utilizam um dígito de guarda (denido pela norma),

além do fato de que os erros om sinais ontrários tendem a se ompensar de forma aleatória.

No entanto, devemos sempre lembrar que a medida que o número de operações


matemáti as aumenta em um dado pro edimento numéri o, maior será a diferença
entre o valor exato e o obtido.

12.8 Di as Importantes
Como as operações om ponto utuante estão sujeitas a erros, nun a devemos utilizar a om-

paração direta entre valores (se x = y ), pois para o omputador os números só serão iguais se

todos os bits forem iguais. Desta forma, o orreto é avaliar se a distân ia entre os números

esta abaixo de uma determinada tolerân ia (se |x − y| < tol).


Outra questão importante é a asso iatividade da soma e da multipli ação de números reais.

Em um número real om pre isão innita, a operação (x + y) + z deve ser igual a x + (y +


z). No entanto, devido aos erros de arredondamento da representação de números reais em

omputadores, esta asso iatividade pode não se veri ar. Por exemplo, se x = 1030 , y = −1030
e z = 1, então (x + y) + z = 1 e x + (y + z) = 0. Isto pode ser observado no software Maxima:

Se digitarmos x : 1030 ; y : −1030 ; z : 1; a : (x + y) + z; b : x + (y + z); teremos omo resultados


a = 1 e b = 1, omo de esperado, pois o programa está utilizando uma representação real
ompleta. Ao onvertermos para representação em ponto utuante, por meio dos omandos

x : f loat(x); y : f loat(y); z : f loat(z); iremos observar o resultado esperado.


Capítulo 13

Des rição Bási a de um Algoritmo

Um dos objetivos deste estudo é des rever o omportamento de algoritmos, isto é, uma sequên ia

de operações bem denidas e não ambiguas, ada qual podendo ser exe utada em um tempo

nito. Para isto, iremos denir neste apítulo uma pseudo-linguagem que irá nos ajudar a

des rever os passos ne essários para a implementação da sequên ia de operações asso iada a

ada um dos tópi os a serem estudados aqui.

As operações bási as são des ritas por:

• Variáveis: a, b,

• Atribuição de valor: a ← 10

• Vetores e Matrizes: A(i,j) e B(i)

• Texto: "Texto"

• Entrada de Dados: Ler <variável>

• Saída de Dados: Es rever <variável>

• Desvio in ondi ional: Salte Para <rótulo>

• Estrutura ondi ional:

Se < ondição> então


< omandos 1>

Ou < ondição> então


< omandos 2>

...

Senão então
< omandos n>

Fim (Se)
119
120 CAPÍTULO 13. DESCRIÇ O BÁSICA DE UM ALGORITMO

• Loops (laços de exe ução):

Para variável de a até b [passo <in remento>℄ exe ute


< omandos >

Fim (Para)

• Repetição om teste no iní io:

Enquanto Condição exe ute


< omandos >

Fim (Enquanto)

• Repetição om teste no m:

Repetir
< omandos >

Enquanto < ondição>

• Sub-Rotinas:

Rotina <nome> (argumentos de entrada)

< omandos >

Retorna <variaveis>
Fim da Rotina
13.1. EXEMPLOS 121

13.1 Exemplos

Cal ula o valor de um polinmio em um ponto x:


Rotina Polinomio ( x )

v a l o r <− 2 ∗ x ∗∗ 2 − 2∗ x + 2

Retorna v a l o r
Fim Rotina P o l i n o m i o

Cál ulo de média:


Programa Media
Es rever " I n f o r m e o numero de pontos "

Ler N
SOMA <− 0 . 0

Para i de 1 ate N exe ute


Es rever " I n f o r m e um numero "
Ler V
SOMA <− SOMA + V

i <− i + 1

Fim Para
Es rever " Media = " , SOMA/N

Fim Programa Media

Cál ulo de média (Utilizando repetição om teste no iní io.):


Programa Media
Es rever " I n f o r m e o numero de pontos "

Ler N
SOMA <− 0 . 0

i <− 1

Enquanto i <=N exe ute


Es rever " I n f o r m e um numero "

Ler V
SOMA <− SOMA + V

Fim Para
Es rever " Media = " , SOMA/N

Fim Programa Media

Se es ritos no S ilab, estes algoritmos assumiriam a forma:


122 CAPÍTULO 13. DESCRIÇ O BÁSICA DE UM ALGORITMO

Cal ula o valor de um polinmio em um ponto x:


fun tion [ valor ℄ = Polinomio ( x )

v a l o r = 2 ∗ x ∗∗ 2 − 2∗ x + 2

return valor

endfun tion

Cál ulo de média:


fun tion [ media ℄ = Media ( )
printf ( " \ n I n f o r m e o numero de pontos ")

N = s anf ("%d " )

SOMA = 0

for i =1:N

printf ( " \ n I n f o r m e um numero " )

V = s anf ("% e " )

SOMA = SOMA + V

end
media = SOMA/N

printf ( " \ n Media = %e " , media )

endfun tion
Capítulo 14

Raízes de Equações

Dada uma equação de uma variável f (x) = 0 hamamos de raíz o valor (ou valores) de x
que satisfazem esta equação, onde as funções podem ser algébri as se são denidas em termos

de operações bási as ou fundamentais, tais omo soma, multipli ação, subtração, divisão, raiz

quadrada, et ...) ou trans endentes se são denidas a partir de outras funções, omo por
x
exemplo e . Existem diversos métodos para determinação de raizes, sendo que iremos abordar

os mais utilizados.

14.1 Método da Bise ção


Seja f (x) uma função de uma variável e ontínua entre dois pontos x=a e x = b, om b>a .

Se os valores da função em a e b tiverem sinal diferentes, então om erteza a função passa pelo

zero pelo menos uma vez (ao menos uma raiz no intervalo [a, b] ) e podemos então reduzir o

intervalo, até que obtenhamos uma estimativa a eitável para o ponto x = α, onde f (α) = 0. A
lógi a deste método é extremamente simples e robusta, pois ini iamos om um intervalo [a, b]

de dimensão I0 = b − a e reduzimos o intervalo pela metade a ada nova iteração, de a ordo

om o algoritmo 1.

É interessante notarmos que a ada iteração, o intervalo será dividido por 2. Assm, em uma

iteração n
I0
|In − I1 | ≤
2n

14.2 Método Regula Falsi

Este método é uma modi ação do método da Biseção, onde ao invéz de utilizamos o ponto

médio do intervalo utilizamos a interseção de uma reta que une a e b om o eixo x. A equação

desta reta é
f (b) − f (a)
f (c) = 0 = f (a) + (c − a)
b−a

123
124 CAPÍTULO 14. RAÍZES DE EQUAÇÕES

Algoritmo 1 Algoritmo de Bise ão


1 #
2 # Rotina Bise ao :
3 # Entradas : a,b : extremos do intervalo de bus a
4 # tol : toleran ia de parada ( <1)
5 # nmaxiter : numero maximo de bise oes
6 #
7 # Depende : f (x)
8 #
9 Rotina Bise ao ( a , b , tol , nmaxiter )
10 # Testa para ver se o intervalo e valido
11 Se f ( a ) ∗ f ( b)>=0 entao
12 Es rever " Este intervalo nao ontem uma raiz "
13 Sair
14 Fim Se
15
16 # Exe uta o p r o e s s o ate o numero maximo de itera oes
17 # ou ate a o n v e r g e n i a
18 Para n de 0 ate n m a x i t e r exe ute
19 # Cal ula o ponto medio
20 <− ( a+b ) / 2
21 # Testa pela toleran ia do intervalo . Se
22 # a toleran ia for obtida , entao devolvemos
23 # o ponto entral do intervalo
24 Se b−a < t o l entao
25 Retorna
26 Fim Se
27 # Testa se a raiz esta entre a e
28 Se f ( a )∗ f ( ) < 0 entao
29 b <−
30 Senao
31 a <−
32 Fim Se
33 Fim Para #n
34
35 Es reve "Nao foi possivel obter a raiz om a a ura ia desejada "
36 Retorna ( a+b ) / 2
37
38 Fim Rotina Bise ao
14.3. MÉTODO DE NEWTON-RAPHSON 125

e, isolando o c
(b − a)f (a)
c=a−
f (b) − f (a)
ou, de modo a minimizar error numéri os

 
(b − a) ff (a)
(b)
c=a− h i .
1 − ff (a)
(b)

O resto do método é igual ao da bise ção, onforme ilustrado no algoritmo 2.

14.3 Método de Newton-Raphson

Considere uma função f (x) ontínua e diferen iável. No entorno de um ponto xn , podemos

representar esta função por uma série de Taylor, na forma

f (xn+1 ) = f (xn ) + f ′ (xn ) ∗ (xn+1 − xn ) + O

onde O representa os termos de alta ordem. Se xn+1 for um ponto de passagem por zero, isto

é, f (xn+1 ) = 0, então
f (xn )
xn+1 = xn − (14.1)
f ′ (xn )
que dá uma estimativa para um ponto ada vez mais próximo da raiz verdadeira e próxima de

xn . O interessante sobre este método, é que se a função e suas derivadas satiszerem algumas

ondições, então a onvergên ia (taxa de redução do intervalo) é quadráti a. Para entendermos

isto, voltamos a série de Taylor, mas agora retendo os termos de segunda ordem

1
f (α) = f (xn ) + f ′ (xn ) ∗ (α − xn ) + f ′′ (xn ) ∗ (α − xn )2
2

e, omo α é um ponto de passagem por zero, então

1
0 = f (xn ) + f ′ (xn ) ∗ (α − xn ) + f ′′ (xn ) ∗ (α − xn )2
2

e, se dividirmos por f ′ (xn ), obteremos

f (xn ) f ′′ (xn )(α − xn )2


+ (α − xn ) = −
f ′ (xn ) 2f ′(xn )

e, substituindo xn pela relação obtida na Eq, (14.1), obtemos

f ′′ (xn )
α − xn+1 =− ′ (α − xn )2
2f (xn )
126 CAPÍTULO 14. RAÍZES DE EQUAÇÕES

Algoritmo 2 Algoritmo Regula Falsi


1 #
2 # Rotina Regula_Falsi :
3 # Entradas : a,b : extremos do intervalo de bus a
4 # tol : toleran ia de parada ( <1)
5 # nmaxiter : numero maximo de itera oes
6 #
7 # Depende : f (x)
8 #
9 Rotina Regula_Falsi ( a , b , tol , nmaxiter )
10 # Testa para ver se o intervalo e valido
11 Se f ( a ) ∗ f ( b)>=0 entao
12 Es rever " Este intervalo nao ontem uma raiz "
13 Sair
14 Fim Se
15
16 # Exe uta o p r o e s s o ate o numero maximo de itera oes
17 # ou ate a o n v e r g e n i a
18 Para n de 0 ate n m a x i t e r exe ute
19 # C a l u l a o p o n t o de i n t e r s e a o
20 f s <− f ( a ) / f ( b )
21 n <− a − ( b−a ) ∗ f s / (1 − fs )
22 Se n>0 E a b s ( n− ) < tol entao
23 Retorna n
24 Fim Se
25 <− n
26 # Testa se a raiz esta entre a e
27 Se f ( a )∗ f ( ) < 0 entao
28 b <−
29 Senao
30 a <−
31 Fim Se
32 Fim Para #n
33
34 Es reve "Nao foi possivel obter a raiz om a a ura ia desejada "
35 Retorna
36
37 Fim Rotina Regula_Falsi
14.4. MÉTODO DA SECANTE 127

tal que se onsiderarmos os módulos dos dois lados desta Eq, obteremos

ǫn+1 ≤ Mǫ2n
′′
f (xn )
onde ǫn+1 = |α − xn+1 |, ǫn = |α − xn | M = − 2f
e ′ (x ) . Assim, de a ordo om o que vimos
n

na primeira parte da matéria, o intervalo ǫn+1 é limitado poe um fator M , que será nito se f

for diferente de zero e se f for limitado. Podemos ver ainda que o algoritmos onverge para

a raiz se o ponto xn for próximo de α.

Algoritmo 3 Algoritmo de Newton Raphson


1 #
2 # Rotina Newton_Raphson :
3 # Entradas : x : ponto ini ial
4 # tol : toleran ia de parada ( <1)
5 # nmaxiter : numero maximo de bise oes
6 #
7 # Depende : f (x) e df (x )
8 #
9 Rotina Newton_Raphson ( x , t o l , n m a x i t e r )
10
11 # Exe uta o p r o e s s o ate o numero maximo de itera oes
12 # ou ate a o n v e r g e n i a
13 Para n de 0 ate n m a x i t e r exe ute
14 # Cal ula a proxima estimativa
15 xnm <− x − f ( x )/ df ( x )
16 # Testa pela toleran ia do intervalo . Se
17 # a toleran ia for obtida , entao devolvemos
18 # o ponto entral do intervalo
19 Se a b s ( x−xnm ) < tol entao
20 Retorna xnm
21 Fim Se
22 # Atualiza o ponto
23 x <− xnm
24 Fim Para #n
25
26 Es reve "Nao foi possivel obter a raiz om a a ura ia desejada "
27 Retorna x
28
29 Fim Rotina Newton_Raphson

14.4 Método da Se ante


Um das di uldades na utilização do método de Newton Raphson está justamente no ál ulo

da derivada. Para evitar este ál ulo, podemos utilizar uma aproximação por diferenças nitas,
128 CAPÍTULO 14. RAÍZES DE EQUAÇÕES

na forma
f (xn ) − f (xn−1 )
f ′ (xn ) ≃
xn − xn−1
de tal forma que a Eq. (14.1) pode ser es rita omo

f (xn )(xn − xn−1 )


xn+1 = xn − (14.2)
f (xn ) − f (xn−1 )

e, portanto, devemos ini iar o método om dois pontos, ao invés do método de Newton-Raphson

que ne essita de apenas um ponto. Uma outra interpretação para esta abordagem onsiste em

traçar uma reta entre dois pontos (se ante), na forma

f (xn ) − f (xn−1 )
f (xn+1 ) = f (xn ) + (xn+1 − xn )
xn − xn−1

e, assumindo que xn+1 é uma estimativa de raiz, tal que f (xn+1 ) = 0, obtemos novamente a

Eq. (14.2).

É interessante omentar que o método, por utilizar uma aproximação da derivada, tem taxa

de onvergên ia igual a razão áurea, 1, 618. A prova deste resultado, bem omo uma dis ussão

bem ompleta sobre o pro edimento dis utido na dedução da taxa de onvergên ia de Newton-

Raphson pode ser obtida no artigo "A note on the Convergen e of the Se ant Methods for Sim-

ple and Multiple Roots", de P. Díez (Applied Mathemati s Letters, 16(2003), pp. 1211-1215).

Exemplo: Vamos onsiderar a equação f (x) = x − cos(x) para x ∈ [0, 1] e a solução

pelos diferentes métodos apresentados. Em todos os métodos utilizaremos uma tolerân ia


−6
|xk−1 − xk | < 1 ∗ 10

A) Método da Bise ção om a = 0, 2 b = 1, 0, tol = 1 ∗ 10−6 e nmaxiter = 100

Iteração a b b−a
0 2.000000e-01 1.000000e+00 8.000000e-01

1 6.000000e-01 1.000000e+00 4.000000e-01

2 6.000000e-01 8.000000e-01 2.000000e-01

... .... .... ....

20 7.390846e-01 7.390854e-01 7.629395e-07

B) Método Regula Falsi a = 0, 2 b = 1, 0, tol = 1 ∗ 10−6 e nmaxiter = 100


14.4. MÉTODO DA SECANTE 129

Algoritmo 4 Método da Se ante


1 #
2 # Rotina Se ante :
3 # Entradas : xm , xmm : pontos ini iais
4 # tol : toleran ia de parada ( <1)
5 # nmaxiter : numero maximo de bise oes
6 #
7 # Depende : f (x)
8 #
9 Rotina Se ante ( xm , xmm, t o l , n m a x i t e r )
10
11 # Exe uta o pro esso ate o numero maximo de itera oes
12 # ou ate a o n v e r g e n i a
13 Para n de 0 ate n m a x i t e r exe ute
14 # Cal ula a proxima estimativa
15 x <− xm − ( f (xm) ∗ ( xm−xmm) ) / ( f (xm)− f (xmm) )
16 # Testa pela toleran ia do intervalo . Se
17 # a toleran ia for obtida , entao devolvemos
18 # o ponto entral do intervalo
19 Se a b s (xm−xmm) < tol entao
20 Retorna x
21 Fim Se
22 # Atualiza o ponto
23 xmm <− xm
24 xm <− x
25 Fim Para #n
26
27 Es reve "Nao foi possivel obter a raiz om a a ura ia desejada "
28 Retorna x
29
30 Fim Rotina Se ante
130 CAPÍTULO 14. RAÍZES DE EQUAÇÕES

Iteração a b ck − ck−1
0 2.000000e-01 1.000000e+00 2.966355e-01

1 7.033645e-01 1.000000e+00 3.389621e-02

2 7.372607e-01 1.000000e+00 1.732984e-03

3 7.389936e-01 1.000000e+00 8.690052e-05

4 7.390806e-01 1.000000e+00 4.353298e-06

5 7.390849e-01 1.000000e+00 2.180684e-07

C) Método de Newton-Raphson om x0 = 0, 2 e tol = 1 ∗ 10−6

Iteração x xk − xk−1
0 2.000000e-01 

1 8.507771e-01 6.507771e-01

2 7.415302e-01 1.092469e-01

3 7.390864e-01 2.443744e-03

4 7.390851e-01 1.316662e-06

5 7.390851e-01 3.828049e-13

D) Método da Se ante, om x0 = 0, 2 x1 = 1, 0 e tol = 1 ∗ 10−6

Iteração xn xn−1 xn − xn−1


0 2.000000e-01 1.000000e+00 8.000000e-01

1 7.033645e-01 2.000000e-01 5.033645e-01

2 7.447825e-01 7.033645e-01 4.141808e-02

3 7.390395e-01 7.447825e-01 5.743044e-03

4 7.390851e-01 7.390395e-01 4.559160e-05

5 7.390851e-01 7.390851e-01 5.725747e-08

Tarefas :

1) Obtenha as raízes da função f (x) = sin(πx), x ∈ [−π, π] para uma tolerân ia de 1 ∗ 10−4
e um número máximo de 6 iterações, utilizado Regula-Falsi, Newton-Raphson e Método da

Se ante. Para isto, des reva em detalhes todas as etapas do ál ulo e solu ione passo a passo;

2) A equação x3 − 2x2 − 11x + 12 tem omo raízes −3, 1 e 4. O interessante é que pequenas

diferenças nos pontos ini iais podem fazer om que o método de Newton-Raphson tenda para

uma raiz diferente. Teste o método om x0 = 2, 35287527, x0 = 2, 35284172 e x0 = 2, 352836323.


3
3) A equação x − 2x + 2 om x0 = 0 tem um omportamento muito interessante quando
solu ionada por Newton-Raphson. Verique e explique em detalhes o que está o orrendo. Para

isto, investique o grá o da função e o omportamento da derivada. A melhor maneira é resolver

gra amente, a ompanhando as iterações do método.


Capítulo 15

Operações Bási as om Matrizes

Do ponto de vista de programação, uma matriz é uma estrutura de dados que ontém uma série

de valores. Existem diversas formas de armazenar uma matriz, sendo que nesta primeira parte

do texto iremos tratar de armazenamento denso, onde todas as posições são armazenadas em

uma forma retangular. Uma matriz A om m linhas e n olunas é representada na forma,

 
a11 ... a1n
 . . .

A[m×n] = Aij =  .. .. .. 
 
am1 ... amn

sendo que, dependendo do padrão omo os valores se distribuem no interior da matriz, adotamos

as seguintes nomen laturas:

• Matriz Simétri a: aij = aji

• Matriz Antisimétri a: aij = −aji

• Matriz Identidade: aij = δij

• Matriz Nula: aij = 0

• Matriz Quadrada: m=n

• Matriz Triangular Superior: aij = 0, ∀i > j

• Matriz Triangular Inferior: aij = 0, ∀i < j

• Matriz Tridiagonal: Apenas a diagonal prin ipal e as diagonais a ima e abaixo da prin ipal

ontém elementos não nulos.

• Matriz Pentadiagonal: Apenas a diagonal prin ipal e duas diagonais a ima e abaixo da

prin ipal ontém elementos não nulos.

No que segue, iremos apresentar os algoritmos bási os para operações om matrizes retangulares

sem impor qualquer tipo de parti ularidade quanto ao padrão de armazenamento.

131
132 CAPÍTULO 15. OPERAÇÕES BÁSICAS COM MATRIZES

15.1 Multipli ação por um es alar


Esta é a operação mais simples, onde multipli amos toda uma matriz A[m×n] por um es alar

e ∈ R, na forma  
e ∗ a11 ... e ∗ a1n
 . . .

e∗A[m×n] =  .. .. .. 
 
e ∗ am1 ... e ∗ amn
e o algoritmo referente a esta operação é ilustrado na listagem (5).

Algoritmo 5 Multipli ação de uma matriz por um es alar


1 #
2 # Rotina Es alarXMatriz :
3 # Entradas : e : es alar
4 # A : Matriz
5 # m, n : numero de linhas e numero de olunas da matriz
6 # Saidas : A : Matriz e ∗A
7 #
8 Rotina Es alarXMatriz ( e , A , m, n )
9
10 # Varre as linhas da matriz
11 Para i de 1 ate m exe ute
12 # Varre as olunas desta linha
13 Para j de 1 ate n exe ute
14 # Multipli a pelo es alar
15 A( i , j ) <− e ∗A( i , j )
16 Fim Para #j
17 Fim Para #i
18
19 Retorna A
20
21 Fim Rotina Es alarXMatriz

15.2 Soma de Matrizes


A soma de duas matrizes A[m×n] e B[m×n] só é possível se as matrizes tem exatamente o mesmo

número de linhas e olunas. Neste aso, o resultado é uma matriz de mesmas dimensões das

matrizes de entrada, na forma

 
a11 + b11 ... a1n + b1n
 . . .

C[m×n] = A[m×n] + B[m×n] = .. .. .. 
 
am1 + bm1 ... amn + bmn

e a operação é ilustrada no algoritmo (6)


15.2. SOMA DE MATRIZES 133

Algoritmo 6 Soma de duas matrizes


1 #
2 # Rotina SomaMatrizes :
3 # Entradas : A : Matriz
4 # B : Matriz
5 # m, n : numero de linhas e numero de olunas das matrizes
6 # Saidas : C : M a t r i z A+B
7 #
8 # Depende : zeros ()
9 #
10 Rotina SomaMatrizes (A , B , m, n )
11 # C r i a uma m a t r i z C p a r a re eber a opera ao
12 C = z e r o s (m, n )
13 # Varre as linhas da matriz
14 Para i de 1 ate m exe ute
15 # Varre as olunas desta linha
16 Para j de 1 ate n exe ute
17 # Soma
18 C( i , j ) <− A( i , j ) + B( i , j )
19 Fim Para #j
20 Fim Para #i
21
22 Retorna C
23
24 Fim Rotina SomaMatrizes
134 CAPÍTULO 15. OPERAÇÕES BÁSICAS COM MATRIZES

15.3 Transposta de uma Matriz


Esta operação é denida pela relação

AT = (aij )T = aji

e a rotina que realiza esta operação é ilustrada no algoritmo (7)

Algoritmo 7 Transposta de uma matriz


1 #
2 # Rotina Transposta :
3 # Entradas : A : Matriz
4 # m, n : numero de linhas e numero de olunas da matriz
5 # Saidas : C : M a t r i z A^T , om d i m e n s a o [ n ,m℄
6 #
7 # Depende : zeros ()
8 #
9 Rotina Transposta (Am, n )
10 # C r i a uma m a t r i z C p a r a re eber a opera ao
11 C = z e r o s ( n ,m)
12 # Varre as linhas da matriz
13 Para i de 1 ate m exe ute
14 # Varre as olunas desta linha
15 Para j de 1 ate n exe ute
16 # Armazena tro ando os indi es de linha e de oluna
17 C( j , i ) <− A( i , j )
18 Fim Para #j
19 Fim Para #i
20
21 Retorna C
22
23 Fim Rotina AmaisB

15.4 Multipli ação de Matriz por um vetor


A multipli ação de uma matriz A[m×n] por um vetor oluna vn só é possível se o número de

olunas da matriz for igual ao número de linhas do vetor e resulta em um vetor oluna om m
linhas. A operação é denida por

   P
 
n
a11 ... a1n v1 j=1 a1j vj
 .. .. ..
 .   ..

A[m×n] v[n] =  . . .
  ..  =  .
.
    
Pn
am1 ... amn vn j=1 amj vj

O pro edimento está listado no Algoritmo (8).


15.4. MULTIPLICAÇ O DE MATRIZ POR UM VETOR 135

Algoritmo 8 Produto de uma matriz por um vetor.


1 #
2 # Rotina MatrizXVetor :
3 # Entradas : A : Matriz
4 # v : Vetor
5 # m, n : numero de linhas e numero de olunas da matriz
6 # Saidas : v2 : vetor om m l i n h a s
7 #
8 # Depende : zeros ()
9 #
10 Rotina MatrizXVetor (A , v , m, n )
11 # Cria o vetor v2 para re eber a opera ao
12 v2 = z e r o s (m, 1 )
13 # Varre as linhas da matriz
14 Para i de 1 ate m exe ute
15 # valor que ira re eber o somatorio da linha
16 soma <− 0 . 0
17 # Varre as olunas desta linha e a umula o somatorio
18 Para j de 1 ate n exe ute
19 # soma
20 soma <− soma + A( i , j ) ∗ v ( j )
21 Fim Para #j
22 # Armazena a soma na posi ao i do novo vetor
23 v2 ( i ) = soma
24 Fim Para #i
25 Retorna v2
26
27 Fim Rotina MatrizXVetor
136 CAPÍTULO 15. OPERAÇÕES BÁSICAS COM MATRIZES

15.5 Produto Interno


O produto interno de dois vetores u e v, ambos de dimensão n×1 é obtido por

n
X
< u, v >= ui vi
i=1

resultando em um es alar. O pro edimento é ilustrado no algoritmo

Algoritmo 9 Produto interno entre dois vetores.


1 #
2 # Rotina Produto_Interno :
3 # Entradas : u : Vetor
4 # v : Vetor
5 # n : Dimensao dos vetores
6 # Saidas : p : Es alar
7 #
8 #
9 Rotina Produto_Interno (u , v , n)
10
11 # Ini ializa o termo do somatorio
12 p = 0
13
14 # Somatorio
15 Para i de 1 ate n exe ute
16
17 p <− p + u ( i ) ∗ v ( i )
18
19 Fim Para #i
20
21 Retorna p
22
23 Fim Rotina Produto_Interno

15.6 Produto de duas Matrizes


A multipli ação de uma matriz A[m×n]
B[n×o] só é possível se o número de
por outra matriz

olunas da matriz A for igual ao número de linhas da matriz B. Esta operação resulta em uma

matriz C[m×o] , tal que

    P Pn 
n
a11 ... a1n b11 ... b1o j=1 a1j bj1 ... j=1 a1j bjo
 . . .
 . . .
  . . .

A[m×n] B[n×o] =  .. .. ..  .. .. .. = .. .. .. .
    
Pn Pn
am1 ... amn bn1 ... bno j=1 amj bj1 ... j=1 amj bjo

O pro edimento está listado no Algoritmo (10).


15.6. PRODUTO DE DUAS MATRIZES 137

Algoritmo 10 Produto de matrizes


1 #
2 # Rotina MatrizXMatriz :
3 # Entradas : A : Matriz
4 # B : Matriz
5 # m, n : numero de linhas e numero de olunas da matriz A
6 # o : numero de olunas de B
7 # Saidas : C : M a t r i z = A∗B
8 #
9 # Depende : zeros ()
10 #
11 Rotina MatrizXMatriz (A, B , m, n , o )
12
13 # Cria a matriz C para re eber a opera ao
14 C = z e r o s (m, o )
15 # Varre as linhas da matriz
16 Para i de 1 ate m exe ute
17 Para k de 1 ate o exe ute
18 soma <− 0
19 Para j de 1 ate n exe ute
20 # soma
21 soma <− soma + A( i , j ) ∗ B( j , k )
22 Fim Para #j
23 # Armazena o produto na posi ao de C
24 C( i , k ) = soma
25 Fim Para #k
26 Fim Para #i
27 Retorna C
28
29 Fim Rotina MatrizXMatriz
138 CAPÍTULO 15. OPERAÇÕES BÁSICAS COM MATRIZES

15.7 Norma p de um Vetor


A norma p de um vetor é obtida por

n
! p1
X
kxkp = xpi
i=1

e o pro edimento é ilustrado no Alg. (11) .

Algoritmo 11 Norma p de um vetor


1 #
2 # Rotina Normap :
3 # Entradas : x : vetor
4 # n : dimensao de x
5 # p : expoente da norma
6 # Saidas : norma : norma p do vetor x
7 #
8 #
9 Rotina Normap (x , n , p)
10
11 # Ini ializa a norma
12 norma <− 0 . 0
13
14 # Loop pelos elementos do vetor
15 Para i de 1 ate n exe ute
16 norma <− norma + x ( i ) ∗∗ p
17 Fim Para #i
18 Retorna norma ∗ ∗ ( 1 / p )
19
20 Fim Rotina Normap

15.8 Traço de Uma Matriz


Otraço é a soma dos termos da diagonal de uma matriz quadrada A, na forma

n
X
tr(A) = Aii
i=1

e o pro edimento é ilustrado no Alg. (12) .

15.9 Complexidade de um Algoritmo


Um on eito importante em um algoritmo que opera sobre matrizes é o de omplexidade, ou

seja, o número de operações que são ne essárias para realizar a tarefa, dada as dimensões das
15.9. COMPLEXIDADE DE UM ALGORITMO 139

Algoritmo 12 Traço de uma Matriz


1 #
2 # Rotina Tra o :
3 # Entradas : A : Matriz quadrada
4 # n : dimensao de A
5 # Saidas : tra o : tra o de A
6 #
7 #
8 Rotina Tra o (A, n )
9
10 # Ini ializa o tra o
11 t r a o <− 0 . 0
12
13 # Loop pelos elementos do vetor
14 Para i de 1 ate n exe ute
15 t r a o <− t r a o + A( i , i )
16 Fim Para #i
17
18 Retorna tra o
19
20 Fim Rotina Tra o

matrizes e vetores envolvidos. Desta forma, diz-se que um algoritmo tem omplexidade O(n),
por exemplo, quando depende linearmente do número de dimensões de um vetor. Para os

algoritmos apresentados nestes apítulos, podemos veri ar fa ilmente que:

• Multipli ação de es alar por matriz: O(m ∗ n), operações de multipli ação;

• Soma de matrizes: O(m ∗ n), operações de soma;

• Transposta de uma matriz: O(m ∗ n), somente a esso a memória;

• Multipli ação de uma matriz por um vetor: O(m ∗ n), operações de soma e de multipli-

ação;

• Multipli ação de duas matrizes A[m×n} e B[n×o] :O(m ∗ o ∗ n), operações de soma e de

multipli ação;

Outra informação importante está asso iada ao erro propagado em ada uma destas operações,

sendo que om isto podemos ter uma noção da a urá ia esperada na resposta.
140 CAPÍTULO 15. OPERAÇÕES BÁSICAS COM MATRIZES
Capítulo 16

Triangularização de uma Matriz

Quadrada

Um on eito fundamental para o estudo dos algoritmos bási os de álgebra linear está asso iado

ao on eito de triangularização de uma matriz quadrada. Neste pro edimento, transformamos

uma matriz quadrada A[n×n] , de estrutura geral, em uma matriz triangular superior, isto é,

om termos não nulos armazenados somente da diagonal superior para  ima . Este pro e-

dimento é utilizado em diversos algoritmos que servem de base para a solução de sistemas de

equações lineares e ál ulos de determinantes, além de prover fundamentos para apli ações mais

omplexas. Devido a este fato, iremos abordar a triangularização omo um tópi o separado,

sendo que suas apli ações serão apresentadas em seções posteriores.

16.1 Método de Gauss


No método de Gauss, operamos om uma matriz quadrada A[n×n] , partindo da primeira linha,

i=1 e apli ando duas etapas su essivamente:

• Li = Li /aii ;

• Lk = Lk − aki Li , k = i + 1..n

Exemplo:
 
2 4 1
 
A =  3 1 −1 
1 1 1
i=1:

1
L1 = [ 2 4 1 ] = [ 1 2 0, 5 ]
2
L2 = [ 3 1 −1 ] − 3 ∗ [ 1 2 0, 5 ] = [ 0 −5 −2, 5 ]
L3 = [ 1 1 1 ] − 1 ∗ [ 1 2 0, 5 ] = [ 0 −1 0, 5 ]

141
142 CAPÍTULO 16. TRIANGULARIZAÇ O DE UMA MATRIZ QUADRADA

tal que agora a matriz tem a forma

 
1 2 0, 5
 
A1 =  0 −5 −2, 5 
0 −1 0, 5

e observamos que toda a oluna abaixo da primeira posição diagonal foi zerada. Partindo agora

da segunda linha,

1
L2 = [ 0 −5 −2, 5 ] = [ 0 1 0, 5 ]
−5
L3 = [ 0 −1 0, 5 ] − (−1) ∗ [ 0 1 0, 5 ] = [ 0 0 1 ]

e, ao nal do pro edimento, obtemos

 
1 2 0, 5
 
A2 =  0 1 0, 5 
0 0 1

que é uma matriz na forma triangular superior.

Assim, no pior aso, a triangularização tem uma omplexidade de O(n3 ), sendo


que diversas operações de divisão, multipli ação e soma são utilizadas.

16.1.1 Pivotamento
Pode-se notar que o pro edimento visto a ima não pode ser apli ado se a matriz possui algum

zero em sua diagonal, pois neste aso a etapa 1, onde dividimos a linha pelo valor da diagonal

não será denido. Isto pode ser fa ilmente visualizado no seguinte exemplo:

 
1 2 2
 
A= 3 6 1 
2 6 −1

onde o pro edimento de triangularização da matriz, já na primeira etapa, resulta em um zero

na diagonal, pois

1
L1 = [ 1 2 2 ]=[ 1 2 2 ]
1
L2 = [ 3 6 1 ] − 3 ∗ [ 1 2 2 ] = [ 0 0 −5 ]
L3 = [ 2 6 −1 ] − 2 ∗ [ 1 2 2 ] = [ 0 2 −5 ]

resultando em  
1 2 2
 
A1 =  0 0 −5 
0 2 −5
16.1. MÉTODO DE GAUSS 143

de tal forma que na próxima etapa teremos uma divisão por zero. Uma alternativa onsiste em

tro ar as linhas 2 e 3 (pivotamento) antes de prosseguir, de modo a olo ar o 2 na posição da

diagonal. Com isto, teremos


 
1 2 2
 
A1p =  0 2 −5 
0 0 −5
e, om isto,

1
L2 = [ 0 2 −5 ] = [ 0 1 − 25 ]
2
L3 = [ 0 0 −5 ] − 0 ∗ [ 0 1 − 52 ] = [ 0 0 −5 ]

resultado em  
1 2 2
 
A2 =  0 1 − 25 
0 0 −5
e  
1 2 2
 
A3 =  0 1 − 25 
0 0 1
se dividirmos a ultima linha por −5. (não seria ne essário, mas om isto obtemos uma diagonal

unitária), obtemos uma matriz que é triangular superior. Uma outra maneira de evitarmos estes

problemas de singularidade onsiste em realizar o pivotamento prévio na matriz, garantindo

que as maiores posições de ada oluna quem nas posições diagonais. No exemplo

 
1 2 2
 
A= 3 6 1 
2 6 −1

e veri amos que a21> a31 > a11 , portanto tro amos as posições da linha 1 om a linha 2, obtendo
 
3 6 1
 
A= 1 2 2 
2 6 −1

e por m veri amos que a32 > a22 , portanto tro amos as linhas 2 e 3, obtendo

 
3 6 1
 
A =  2 6 −1 
1 2 2
144 CAPÍTULO 16. TRIANGULARIZAÇ O DE UMA MATRIZ QUADRADA

e agora, podemos veri ar que os maiores valores de ada oluna estão na diagonal prin ipal.

Este pro edimento faz om que a matriz possa ser triangularizada sem problemas. Assim,

1
L1 = [ 3 6 1 ] = [ 1 2 13 ]
3
L2 = [ 2 6 −1 ] − 2 ∗ [ 1 2 13 ] = [ 0 2 − 35 ]
1 5
L3 = [ 1 2 2 ] − 1 ∗ [ 1 2 3
]=[ 0 0 3
]

resultado em  
1 2 13
 
A =  0 2 − 35 
0 0 53
que já é diagonal. Continuando om o algoritmo

1
L2 = [ 0 2 − 53 ] = [ 0 1 − 56 ]
2
L3 = [ 0 0 35 ] − 0 ∗ [ 0 1 − 65 ] = [ 0 0 5
3
]

e, nalmente,
3 5
L3 = [ 0 0 3
]=[ 0 0 1 ]
5
 1

1 2 3
 
A =  0 1 − 65 
0 0 1

Deve-se salientar que o pivotamento global, realizado antes do pro edimento de triangulari-

zação, é desejável numeri amente. Isto se deve ao fato de as vezes podermos ter números muito

pequenos na diagonal prin ipal, que mesmo se não resultarem em divisão por zero poderão

a arretar grandes erros numéri os. Desta forma, o pivotamento deixa a matriz em uma forma

mais apropriada para os ál ulos a serem realizados.

16.2 Cál ulo de Determinante de uma matriz obtida por


triangularização
O ál ulo do determinante pode ser realizado fa ilmente durante a triangularização de uma

matriz. Para isto, apli amos a equação

n
Y
p
det(A) = (−1) Fi
i=1

onde Fi são os fatores utilizados para normalizar ada linha Li no pro edimento de triangu-

larização e p é o número de pivotamentos realizados. Como exemplo, veri amos que, para a
16.3. SOLUÇ O DE UM SISTEMA DE EQUAÇÕES LINEARES 145

matriz  
2 4 1
 
A =  3 1 −1 
1 1 1
não realizamos pivotamento e p = 0, F1 = 2 e F2 = −5 tal que

det(A) = (−1)0 ∗ (2 ∗ −5) = −10

e, para a matriz
 
1 2 2
 
A= 3 6 1 
2 6 −1
5
om pivotamento prévio, p = 2, F1 = 3 , F2 = 2 e F3 = 3
, tal qe

 
2 5
det(A) = (−1) 2∗2∗ = 10.
3

16.3 Solução de um Sistema de Equações Lineares


Um sistema de equações lineares pode ser des rito na forma

A[n×n]x[n] = b[n]

onde A é uma matriz quadrada de oe ientes om determinante não nulo, b é um vetor om

termos onhe idos e x é um vetor de in ógnitas. Embora analiti amente possamos es rever a

solução do sistema de equações omo

x = A−1 b

isto não é viável do ponto de vista numéri o, uma vez que a operação de inversão tem omple-

xidade extremamente alta. Uma abordagem onsiste em triangularizar a matriz de oe ientes

de tal forma que a ultima linha deste sistema de equações tenha a forma ānn ∗ xn = b̄n , uja

solução é xn = b̄n /ān = b̄n (pois normalizamos todos os termos das diagonais). Da mesma
forma, a penultima linha será ān−1,n−1 xn−1 + ān−1,n xn = b̄n−1 , mas omo já temos xn então o

valor de xn−1 será


1 
xn−1 = b̄n−1 − ān−1,n xn
ān−1,n−1
e assum su essivamente. Cabe lembrar que os termos da diagonal são unitários ao nal do pro-

esso de triangularização, o que torna a divisão desne essária na equação anterior. Assim, para

utilizarmos o pro edimento de triangularização na solução de um sistema linear de equações,

devemos modi ar o pro esso para levar em onsideração o vetor b, na forma

• Li = Li /aii e bi = bi /aii ;

• Lk = Lk − aki Li e bk = bk − aki bi , para k = i + 1..n


146 CAPÍTULO 16. TRIANGULARIZAÇ O DE UMA MATRIZ QUADRADA

e, após a triangularização, pro edemos om o pro esso onhe ido omo retrosubstituição, tal

que
i−1
X
xi = b̄i − āik xk , i = n..1
k=n

onde deve-se observar que o ontador i ini ia em n e de rementa até 1 (por isto hamamos de

retrosustituição).

O algoritmo para solução de um sistema de equações e al ulo de determinante é ilustrado

no Algoritmo (13).

16.3.1 Inversa de uma Matriz


Conforme já foi omentado, o ál ulo da inversa de uma matriz é extremamente ustoso do

ponto de vista omputa ional. No entanto, da denição da inversa de uma matriz que

AA−1 = I

que pode ser visto omo a solução simultânea de n sistemas de equações lineares om a forma

Axi = 1i

onde xi orresponde a i − ésima oluna da matriz inversa e 1i é um vetor om n−1 termos

nulos e 1 na posição i. Como a triangularização da matriz independe do vetor do lado direito,

podemos estender o método de Gauss para onsiderarmos a solução simultânea de n sistemas

de equação. No nal, teremos omo resposta a matriz inversa, om um usto omputa ional

mais baixo do que se tivessemos utilizado a abordagem tradi ional. O pro edimento é ilustrado

no Algoritmo (14).
16.3. SOLUÇ O DE UM SISTEMA DE EQUAÇÕES LINEARES 147

Algoritmo 13 Solução de um sistema de equações - Método de Gauss


1 #
2 # Rotina Gauss :
3 # Entradas : A : Matriz
4 # b : Vetor
5 # n : Dimensao do s i s t e m a
6 # Saidas : b : S o l u a o do s i s t e m a de e q u a o e s
7 #
8 #
9 Rotina Gauss (A, b , n )
10
11 # V a r i a v e l que armazena o p r o d u t o r i o dos f a t o r e s
12 d e t e <− 1 . 0
13 # Triangulariza ao
14 Para i de 1 ate n exe ute
15
16 # Armazena o termo da d i a g o n a l p r i n i p a l
17 a i i <− A( i , i )
18
19 # Produtorio
20 d e t e <− d e t e ∗ a i i
21
22 # D i v i d e a l i n h a por e s t e termo
23 b ( i ) <− b ( i ) / a i i
24
25 # v a r r e as o l u n a s da l i n h a i
26 Para j de 1 ate n exe ute
27 A( i , j ) <− A( i , j ) / a i i
28 Fim Para #j
29
30 # Varre as l i n h a s a b a i x o da a t u a l
31 Para k de i +1 ate n exe ute
32 # Termo f i x o
33 a k i <− A( k , i )
34
35 # C o r r i g e o termo do termo i n d e p e n d e n t e
36 b ( k ) <− b ( k ) − a k i ∗ b ( i )
37
38 # Varre as o l u n a s da l i n h a k
39 Para j de i ate n exe ute
40 A( k , j ) <− A( k , j ) − a k i ∗A( i , j )
41 Fim Para #j
42 Fim Para #k
43 Fim Para #i
44 # Retrosubstitui ao
45 Para i de n−1 ate 1 p a s s o −1 exe ute
46 # Armazena o s o m a t o r i o
47 somat <− 0
48 Para k de n ate i +1 p a s s o −1 exe ute
49 somat <− somat + A( i , k ) ∗ b ( k )
50 Fim Para #k
51
52 # Obtem o v a l o r da v a r i a v e l i
53 b ( i ) <− b ( i ) − somat
54 Fim Para #i
55 # Informa o d e t e r m i n a n t e da m a t r i z
56 Es rever " Determinate da Matriz = " , d e t e
57 # Retorna o v e t o r om a r e s p o s t a
58 Retorna b
59 Fim Rotina Gauss
148 CAPÍTULO 16. TRIANGULARIZAÇ O DE UMA MATRIZ QUADRADA

Algoritmo 14 Inversa de uma matriz, utilizando o método de Gauss


1 #
2 # Rotina Gauss :
3 # Entradas : A : Matriz
4 # n : Dimensao do s i s t e m a
5 # Saidas : I : S o l u a o do s i s t e m a de e q u a o e s
6 #
7 # Depende : Rotina I d e n t i d a d e ( n )
8 #
9 Rotina Inversa_Gauss (A, n )
10
11 # Monta uma m a t r i z I d e n t i d a d e de dimensao n
12 I = Identidade (n)
13
14 # Triangulariza ao
15 Para i de 1 ate n exe ute
16
17 # Armazena o termo da d i a g o n a l p r i n i p a l
18 a i i <− A( i , i )
19
20 # D i v i d e as l i n h a s de I por e s t e termo
21 Para j de 1 ate n exe ute
22 I ( i , j ) <− I ( i , j ) / a i i
23 Fim Para #j
24
25 # v a r r e as o l u n a s da l i n h a i
26 Para j de 1 ate n exe ute
27 A( i , j ) <− A( i , j ) / a i i
28 Fim Para #j
29
30 # Varre as l i n h a s a b a i x o da a t u a l
31 Para k de i +1 ate n exe ute
32 # Termo f i x o
33 a k i <− A( k , i )
34
35 # C o r r i g e o termo do termo i n d e p e n d e n t e
36 Para j de 1 ate n exe ute
37 I ( k , j ) <− I ( k , j ) − a k i ∗ I ( i , j )
38 Fim Para #j
39
40 # Varre as o l u n a s da l i n h a k
41 Para j de i ate n exe ute
42 A( k , j ) <− A( k , j ) − a k i ∗A( i , j )
43 Fim Para #j
44 Fim Para #k
45 Fim Para #i
46
47 # Retrosubstitui ao
48 Para i de n−1 ate 1 p a s s o −1 exe ute
49 Para j de 1 ate n exe ute
50 # Armazena o s o m a t o r i o
51 somat <− 0
52 Para k de n ate i +1 p a s s o −1 exe ute
53 somat <− somat + A( i , k ) ∗ I ( k , j )
54 Fim Para #k
55 # Obtem o v a l o r da v a r i a v e l i
56 I ( i , j ) <− I ( i , j ) − somat
57 Fim Para #j
58 Fim Para #i
59 Retorna I
60 Fim Rotina Inversa_Gauss
Capítulo 17

De omposição LU

Na solução do sistema de equações A[n×n]x[n] = b[n] , podemos re-es rever a matriz Ana forma

A = LU (17.1)

onde L é uma matriz triangular inferior e U uma matriz triangular superior om diagonal

unitária (por denição). Os termos de Le de U são fa ilmente obtidos, uma vez que o número

de in ognitas lij i>j e uij i < j é igual ao número de termos da matriz A. Uma vez realizado

este pro edimento, obtemos

j−1
X
lij = aij − lik ukj i > j
k=1
P
aij − i−1
k=1 lik ukj
uij = i<j
lii

para os termos fora da diagonal e

i−1
X
lii = aii − lik uki
k=1
uii = 1

para os termos da diagonal. Uma vez que tenhamos realizado este pro edimento, teremos um

sistema de equações na forma

LUx = b. (17.2)

Denindo um problema auxiliar na forma

Ux = y (17.3)

tal que

x = U−1 y (17.4)

149
150 CAPÍTULO 17. DECOMPOSIÇ O LU

e, inserindo a Eq. (17.4) na Eq. (17.2), obtemos

LUU−1 y = b

tal que

Ly = b. (17.5)

O problema denido na Eq. (17.5) pode ser solu ionado por substituição direta, uma vez que

L é triangular inferior, tal que

Pi−1
bi − k=1 lik yk
yi = , i = 1..n
lii

e, de posse de y e da Eq. (17.3), podemos nalmente obter x por meio de uma retrosubstituição,
na forma
n
X
xi = yi − uik xk , i = n..1.
k=i+1

Este método é mais e iente do que a eliminação de Gauss. De fato, a omplexidade

deste algoritmo é da ordem de O(n2,376 ). Assim, se estamos trabalhando om uma matriz de

dimensão n = 1000, teremos 1000 = 1000 ∗ 106


3
para Gauss e 10002,376 = 13, 42 ∗ 106 . Assim,

se o omputador for apaz de realizar uma operação por mi rosegundo, teremos a solução em

torno de 1000 segundos por Gauss e em torno de 13, 42 segundos por LU. A implementação da

de omposição está ilustrada no Algoritmo (15), e o de solução no Algoritmo (16).

Utilizando o Alg. (15) para de ompor a matriz

 
2 4 1
 
A =  3 1 −1 
1 1 1

obtemos  
2 2 0.5
 
LU =  3 −5 0.5 
1 −1 1
tal que
   
2 0 0 1 2 0.5
   
L =  3 −5 0  U =  0 1 0.5 
1 −1 1 0 0 1
e, omo é de se esperar,

    
2 0 0 1 2 0.5 2 4 1
    
 3 −5 0   0 1 0.5  =  3 1 −1  .
1 −1 1 0 0 1 1 1 1
151

Algoritmo 15 De omposição de uma matriz por LU


1 #
2 # Rotina LU:
3 # Entradas : A : Matriz
4 # n : Dimensao do s i s t e m a
5 # Saidas : A : LU
6 #
7 #
8 Rotina LU (A, n )
9 #
10 # De ompoe a matriz A em LU
11 #
12 Para i de 1 ate n exe ute
13 Para j de 1 ate n exe ute
14 # V e r i f i a s e estamos abaixo ou a ima da
15 # diagonal prin ipal
16 Se j<i entao
17 <− j
18 Senao
19 <− i
20 Fim Se
21 # Cal ula o somatorio
22 soma <− A( i , j )
23 Para k de 1 ate −1 exe ute
24 soma <− soma − A( i , k ) ∗ A( k , j )
25 Fim Para #k
26 # Armazena em A
27 Se j<=i entao
28 # L
29 A( i , j ) <− soma
30 Senao
31 #U
32 A( i , j ) <− soma / A( i , i )
33 Fim Se
34
35 Fim Para #j
36 Fim Para #i
37 # Retorna a de omposi ao LU
38 Retorna A
39 Fim Rotina LU
152 CAPÍTULO 17. DECOMPOSIÇ O LU

Algoritmo 16 Solução de um sistema de equações usando de omposição LU


1 #
2 # Rotina Solu iona_por_LU :
3 # Entradas : A : Matriz
4 # b : vetor
5 # n : Dimensao do s i s t e m a
6 # Saidas : b : s o l u a o do s i s t e m a
7 #
8 # Depende : LU(A, n )
9 # zeros (n)
10 #
11 Rotina Solu iona_por_LU (A, b , n )
12
13 # De ompoe a matriz A em LU
14 A = LU(A, n )
15
16 # S o l u i o n a para y
17 y = zeros (n)
18 Para i de 1 ate n exe ute
19 soma <− 0
20 Para k de 1 ate i −1 exe ute
21 soma <− soma + A( i , k ) ∗ y ( k )
22 Fim Para #k
23 y ( i ) <− ( b ( i ) − soma ) / A( i , i )
24 Fim Para #i
25
26 # S o l u i o n a para x
27 Para i de n ate 1 passo −1 exe ute
28 soma <− 0
29 Para k de i +1 ate n exe ute
30 soma <− soma + A( i , k ) ∗ b ( k )
31 Fim Para #k
32 b ( i ) <− y ( i ) − soma
33 Fim Para #i
34
35 Retorna b
36
37 Fim Rotina Solu iona_por_LU
17.1. CALCULO DE DETERMINANTE POR DECOMPOSIÇ O LU 153

17.1 Cal ulo de Determinante por De omposição LU


O determinante de uma matriz triangular é dado pelo produto de seus termos diagonais. Assim,

n
Y
det(A) = det (LU) = lii
i=1

pois os termos da diagonal de U são unitários. Para veri armos, podemos utilizar o resultado

do exemplo anterior, onde


 
2 0 0
 
L =  3 −5 0 
1 −1 1
e, portanto, det(A) = 2 ∗ −5 ∗ 1 = −10.

17.2 Inversa de uma Matriz por De omposição LU


Da denição de matriz inversa e da de omposição LU, Eq. (17.1),

A−1 A = A−1 (LU) = I

tal que se passarmos o produto LUpara o lado direito da igualdade obteremos

A−1 = U−1 L−1

e, do exemplo anterior,

   
0.5 0 0 1 −2 0.5
L−1 =  0.3 −0.2 0  U−1 =  0
   
1 −0.5 
−0.2 −0.2 1 0 0 1

tal que
     
1 −2 0.5 0.5 0 0 2 4 1 1 0 0
     
 0 1 −0.5   0.3 −0.2 0   3 1 −1  =  0 1 0  .
0 0 1 −0.2 −0.2 1 1 1 1 0 0 1
No entato, não é vantajoso inverter as matrizes L e U e realizar o produto. Para isto, po-

demos solu ionar uma série de sistemas de equações omo zemos om a eliminação de Gauss,

porém usando a de omposição LU, que é mais e iente.

Tarefa : Propor um algoritmo para inverter uma matriz A, utilizando LU .


154 CAPÍTULO 17. DECOMPOSIÇ O LU
Capítulo 18

Método de Cholesky

Quando uma matriz quadrada A[n×n] é simétri a, isto é A = AT , e positivo denida, então é

possível de ompor a matriz na forma

A = UT U (18.1)

onde U é triangular superior. Assim, om o mesmo pro edimento realizado na de omposição

LU , podemos obter os termos de U na forma

v
u i−1
u X
uii = taii − u2ki
k=1

para os elementos na diagonal e

i−1
!
X
uij= 1 aij − uki ukj
uii
k=1

para os elementos da triangular superior (j > i). Assim, se onsiderarmos a Eq. (18.1) em um

sistema de equações

UT Ux = b (18.2)

e se denirmos um problema auxiliar om a forma

Ux = y (18.3)

podemos substituir a Eq. (18.3) na Eq. (18.2), obtendo

UT y = b. (18.4)

Assim, o pro edimento é semelhante ao apresentado na de omposição LU , om a diferença de

que podemos armazenar somente a triangular superior da matriz A, o que propor iona uma

grande e onomia de armazenamento. As soluções dos problemas denidos nas Eqs. (18.4) e

155
156 CAPÍTULO 18. MÉTODO DE CHOLESKY

(18.3) são
i−1
!
1 X
yi = bi − uki yk , i = 1..n
uii k=1
e !
n
1 X
xi = yi − uik xk , i = n..1.
uii k=i+1

A de omposição por Cholesky de uma matriz simétri a, sem preo upação om a e iên ia

em armazenamento é ilustrada no Algoritmo (17). Utilizando este algoritmo para a matriz

 
2 1 1
 
A= 1 8 1 
1 1 10

obtemos  
1.4142 0.7071 0.7171
 
A= 1 2.7386 0.1825 
1 1 3.0767
pois alteramos somente a triangular superior, sem modi ar a triangular inferior.

A solução de um sistema de equações por Cholesky é ilustrada no Algoritmo (18).

18.1 De omposição LDL


De modo a evitar o ál ulo da raiz na de omposição por Cholesky, é possível modi ar a

de omposição da matriz de oe ientes para a forma

A = LDLT

onde D é uma matriz diagonal. Com isto, obtemos

j−1
X
2
djj = ajj − ljk dkk
k=1
j−1
!
1 X
lij = aij − lik ljk dkk , i > j.
djj
k=1

Tarefa: Deduzir o algoritmo de de omposição LDL e o algoritmo de solução do sistema de

equações. Após, implemente no s ilab e apresente a validação.


18.1. DECOMPOSIÇ O LDL 157

Algoritmo 17 De omposição de uma matriz simétri a por Cholesky


1 #
2 # Rotina Cholesky :
3 # Entradas : A : Matriz
4 # n : Dimensao do s i s t e m a
5 # Saidas : A : U
6 #
7 #
8 Rotina Cholesky (A, n )
9 #
10 # De ompoe a matriz A usando Cholesky
11 #
12 Para i de 1 ate n exe ute
13 Para j de i ate n exe ute
14 # R e a l i z a o somatorio
15 soma <− A( i , j )
16 Para k de 1 ate i −1 exe ute
17 soma <− soma − A( k , i ) ∗ A( k , j )
18 Fim Para #k
19
20 # V e r i f i a s e estamos na d i a g o n a l
21 Se j==i entao
22 A( i , j ) <− s q r t ( soma )
23 Senao
24 A( i , j ) <− soma / A( i , i )
25 Fim Se
26 Fim Para #j
27 Fim Para #i
28
29 Retorna A
30
31 Fim Rotina Cholesky
158 CAPÍTULO 18. MÉTODO DE CHOLESKY

Algoritmo 18 Solução de um sistema de equações utilizando Cholesky


1 #
2 # Rotina Solu iona_por_Cholesky :
3 # Entradas : A : Matriz s i m e t r i a e p o s i t i v o d e f i n i d a
4 # b : vetor
5 # n : Dimensao do s i s t e m a
6 # Saidas : b : s o l u a o do s i s t e m a
7 #
8 # Depende : Cholesky (A, n )
9 # zeros (n)
10 #
11 Rotina Solu iona_por_Cholesky (A, b , n )
12
13 # De ompoe a matriz A em U'U
14 A = Cholesky (A, n )
15
16 # S o l u i o n a para y
17 y = zeros (n)
18 Para i de 1 ate n exe ute
19 soma <− 0
20 Para k de 1 ate i −1 exe ute
21 soma <− soma + A( k , i ) ∗ y ( k )
22 Fim Para #k
23 y ( i ) <− ( b ( i ) − soma ) / A( i , i )
24 Fim Para #i
25
26 # S o l u i o n a para x
27 Para i de n ate 1 passo −1 exe ute
28 soma <− 0
29 Para k de i +1 ate n exe ute
30 soma <− soma + A( i , k ) ∗ b ( k )
31 Fim Para #k
32 b ( i ) <− ( y ( i ) − soma ) / A( i , i )
33 Fim Para #i
34
35 Retorna b
36
37 Fim Rotina Solu iona_por_Cholesky
Capítulo 19

Condi ionamento de uma Matriz

Dos algoritmos apresentados nos apítulos anteriores  a laro que para solu ionarmos um

sistema de equações pre isamos realizar uma grande quantidade de operações. Em espe ial,

temos divisões pelos termos da diagonal prin ipal, que não podem ser nulos e nem muito

menores do que os demais termos da matriz, para que isto não o asione erros de trun amento

ina eitáveis. Quando uma matriz tem valores de tal forma que a solução numéri a do sistema

não propague erros ina eitáveis, é dita bem ondi ionada, do ontrário, dizemos que a matriz

é mal ondi ionada.

Se um vetor x̄ ontém a solução de um sistema linear de equações, então sabemos que

idealmente
Ax̄ − b = 0

mas na práti a a igualdade não se veri a e temos um resíduo

Ax̄ − b = R (19.1)

de tal forma que o erro absoluto da solução pode ser es rito por

E = x − x̄ (19.2)

e, se isolarmos x̄ na Eq. (19.2) e substituirmos na Eq. (19.1), otemos

A (x − E) = R + b

tal que

Ax − AE = R + b

ou

AE = −R − b+b.

Desta forma, om a solução do sistema de equações

AE = −R (19.3)

159
160 CAPÍTULO 19. CONDICIONAMENTO DE UMA MATRIZ

podemos obter os valores dos erros absolutos da solução do sistema de equações (é laro que

isto também impli a em erros adi ionais, pois temos que solu ionar o mesmo sistema). O

interessante é que de posse dos erros absolutos, podemos obter uma nova estimativa para a

solução, podendo assim renar a solução de forma iterativa, por meio da Eq. (19.3). No

entanto, devemos lembrar que a própria estimativa do erro irá onter um erro, de forma que o

pro edimento em si não é perfeito.

Um outro on eito importante para monitorarmos a qualidade de uma matriz de oe i-

entes e seu impa to na solução de um sistema de equações está rela ionada ao número de

ondi ionamento. Por denição, o número de ondi ionamento é


C (A) = kAk A−1

onde as normas devem ser onsistentes, isto é, kAk > 1. Como sabemos que o produto

AA−1 = I

então espera-se que C (A) → C (I) = 1. Desta forma, o maior erro relativo existente na solução

do sistema de equações pode ser al ulado por

kRk
max(Er ) = C (A) (19.4)
kbk

Tarefa: Prove a Eq. (19.4).

Outra medida importante asso iada ao número de ondi ionamento é


λmax
C (A) = .
λmin

onde λmax e λmin são os autovalores máximos e mínimos da matriz. No entanto, omo vere-

mos mais a frente, esta denição é ustosa do ponto de vista omputa ional, uma vez que a

omplexidade do ál ulo dos autovalores é elevada.

19.1 Matrizes de Hilbert


As matrizes de Hilbert tem a forma

1
Hij =
i+j−1

e  p 4n 
 1 + (2) 
C (H) = O  √ 
n
19.1. MATRIZES DE HILBERT 161

onde n é a dimensão da matriz. Estas matrizes são extremamente mal ondi ionadas e servem

omo exemplo para estudarmos os erros na solução de sistemas de equações lineares.

Exemplo: Para 4, temos  


1 1 1
1 2 3 4
 1 1 1 1

 2 3 4 5

H=
 1 1 1 1


 3 4 5 6 
1 1 1 1
4 5 6 7

tal que os autovalores extremos desta matriz são λmax = 1, 5 e λmin = 9, 67 ∗ 10−5e, portanto,

1, 5
C (H) = = 15513, 739 >>>> 1
9, 67 ∗ 10−5

indi ando um mal ondi ionamento. Se avaliarmos o ondi ionamento de a ordo om diferentes

normas, então

C (A) = max (H) max H−1 = 1, 0 ∗ 6480 = 6480

ou
p p
C (A) = diag(HT ) ∗ diag(H) ∗ diag(H−T ) ∗ diag(H−1 ) = 7750, 133.

Para omparação, a matriz


 
2 4 1
 
A =  3 1 −1 
1 1 1
tem C (A) = 6, 91.
162 CAPÍTULO 19. CONDICIONAMENTO DE UMA MATRIZ
Capítulo 20

Métodos Iterativos para a Solução de

Sistemas Lineares

Métodos iterativos partem de uma estimativa para x e operam por uma redução sistemáti a do
erro de solução, até um determinado ritério de onvergèn ia. A grande vantagem na utilização

de tais métodos está em sua e iên ia omputa ional. No que segue, serão mostrados dois

métodos muito utilizados, sendo que existe uma innidade de métodos iterativos disponíveis

na literatura.

20.1 Método de Gauss-Ja obi


Seja um sistema de equações na forma A[n×n]x[n×1] = b[n×1] , podemos isolar os termos das

diagonais em função dos demais termos na forma

" n
#
1 X
x(i)k+1 = b(i) − a(i, j)x(j)k , k ∈ N∗
a(i, i) j=1 j6=i

onde ini iamos om um vetor x0 de modo a obter um vetor x1 e assim su essivamente, até que

kxk+1 − xk k ≤ tol. Existem duas ondições su ientes para a onvegên ia:

• O sistema deve ser irredutível, isto é, se x0 = 0, então x(i)1 = b(i)/A(i, i)

• A matriz deve ser diagonal-dominante, isto é,

n
X
|a(i, i)| ≥ |a(i, j)|j6=i , i = 1..n
j=1
Xn
|a(k, k)| > |a(k, j)|j6=k , k = 1..n
j=1

que na práti a impli a em uma ondição onde o módulo dos elementos da diagonal deve

ser maior ou igual ao somatório módulos dos elementos restantes da linha. O método de

Gauss-Ja obi está ilustrado no Alg.(19).

163
164CAPÍTULO 20. MÉTODOS ITERATIVOS PARA A SOLUÇ O DE SISTEMAS LINEARES

Algoritmo 19 Solução de um sistema de equações por Gauss-Ja obi


1 #
2 # Rotina Gauss_Ja obi :
3 # Entradas : A : Matriz s i m e t r i a e p o s i t i v o d e f i n i d a
4 # b : vetor
5 # x : vetor
6 # n : Dimensao do s i s t e m a
7 # tol : t o l e r a n i a de parada
8 # nmaxiter : Numero maximo de i t e r a o e s
9 # Saidas : xp : s o l u a o do s i s t e m a
10 #
11 # Depende : z e r o s ( n )
12 #
13 Rotina Gauss_Ja obi (A, x , b , n , t o l , nmaxiter )
14
15 # Alo a um v e t o r t e m p o r a r i o
16 xp = z e r o s ( n )
17
18 # Iteradores
19 Para k de 0 ate nmaxiter exe ute
20
21 # Norma de x
22 norma <− 0
23
24 # I t e r a p e l a s p o s i o e s de x
25 Para i de 1 ate n exe ute
26
27 # Cal ula o somatorio
28 s o m a t o r i o <− 0
29 Para j de 1 ate i −1 exe ute
30 s o m a t o r i o <− s o m a t o r i o + A( i , j ) ∗ x ( j )
31 Fim Para #j
32 Para j de i +1 ate n exe ute
33 s o m a t o r i o <− s o m a t o r i o + A( i , j ) ∗ x ( j )
34 Fim Para #j
35
36 # Cal ula a estimativa
37 xp ( i ) <− ( 1 /A( i , i ) ) ∗ ( b ( i )− s o m a t o r i o )
38
39 # In rementa a norma
40 norma <− norma + ( x ( i )− xp ( i ) ) ∗ ∗ 2
41
42 Fim Para #i
43
44 # Verifi a a toleran ia
45 Se s q r t ( norma ) <= t o l entao
46 E s r e v e "Norma f o i a t i n g i d a " , norma , " " , k
47 Retorna xp
48 Fim Se
49
50 # Copia xp para x
51 x = xp
52
53 Fim Para #k
54
55 Retorna xp
56
57 Fim Rotina Gauss_Ja obi
20.1. MÉTODO DE GAUSS-JACOBI 165

Uma outra maneira de denir o método de Gauss-Ja obi é rees rever a matriz A em

A = D + (A − D) ,

onde D ontém a diagonal de A, tal que

Dxk+1 = − (A − D) xk + b

ou

xk+1 = −D−1 (A − D) xk + D−1 b,

onde  a laro que

G = −D−1 (A − D)

é um operador que representa o método de Gauss-Ja obi. Para que o método não tenha uma

ampli ação ao longo das iterações (o que iria ausar a instabilidade do método), observamos

que o maior autovalor de G deve ser menor ou igual a 1, fato este que é satisfeito se a ondições
de diagonal dominante for observada.

Exemplo:

Seja

       
10 1 1 10 0 0 10 1 1 10 0 0
       
A =  2 7 0 =  0 7 0 +  2 7 0 −  0 7 0
1 1 8 0 0 8 1 1 8 0 0 8
então o operador que des reve o método de Gauss-Ja obi é

 
0 −0.1 −0.1
−1  
G = −D (A − D) = −0.2857143 0 0 
−0.125 −0.125 0
que tem todos os autovalores menores do que 1. Se b=1 e ini iarmos o método om x0 = 1,
então

 
x1 = −D−1 (A − D) x0 + D−1 b = −0.1 −0.1428571 −0.125 ,

 
x2 = −D−1 (A − D) x1 + D−1 b = 0.1267857 0.1714286 0.1553571 ,

 
−1 −1
x3 = −D (A − D) x2 + D b = 0.0673214 0.1066327 0.0877232 ,

 
x4 = −D−1 (A − D) x3 + D−1 b = 0.0805644 0.1236224 0.1032557 ,
166CAPÍTULO 20. MÉTODOS ITERATIVOS PARA A SOLUÇ O DE SISTEMAS LINEARES

 
x5 = −D−1 (A − D) x4 + D−1 b = 0.0773122 0.1198387 0.0994766

 
x6 = −D−1 (A − D) x5 + D−1 b = 0.0780685 0.1207679 0.1003561

sendo que mais iterações vão levar a uma melhor a urá ia do resultado.

20.2 Método de Gauss-Seidel


O método de Gauss Seidel difere do método de Gauss Ja obi apenas pela fórmula de re orrên ia,

onde os valores de xk+1 que já foram al ulados são utilizados para omputar os xk+1 restantes.

Assim " #
i−1 n
1 X X
x(i)k+1 = b(i) − a(i, j)x(j)k+1 − a(i, j)x(j)k , k ∈ N∗
a(i, i) j=1 j=i+1

e isto torna a onvergên ia mais rápida. O método é ilustrado no Alg. (20).

Uma outra maneira de demonstrar a dedução e implementação deste método onsiste em

rees rever a matriz A na forma

A=D+L+U

onde D ontém a diagonal de A, L ontém a triangular abaixo da diagonal e U ontém a

triangular a ima da diagonal (não onfundir om as matrizes obtidas por LU). Desta forma, o

sistema de equações pode ser es rito omo

(D + L) xk+1 = −Uxk + b,

tal que

xk+1 = Gxk + b̄

onde

G = − (D + L)−1 U

b̄ = − (D + L)−1 b

e, se o operador G tiver seu maior autovalor menor ou igual a um, então não haverá ampli ação
durante o pro esso iterativo.

Exemplo:

Seja a matriz
20.2. MÉTODO DE GAUSS-SEIDEL 167

Algoritmo 20 Solução de um sistema de equações por Gauss-Seidel


1 #
2 # Rotina Gauss_Seidel :
3 # Entradas : A : Matriz s i m e t r i a e p o s i t i v o d e f i n i d a
4 # b : vetor
5 # x : vetor
6 # n : Dimensao do s i s t e m a
7 # tol : t o l e r a n i a de parada
8 # nmaxiter : Numero maximo de i t e r a o e s
9 # Saidas : xp : s o l u a o do s i s t e m a
10 #
11 # Depende : z e r o s ( n )
12 #
13 Rotina Gauss_Seidel (A, x , b , n , t o l , nmaxiter )
14
15 # Alo a um v e t o r t e m p o r a r i o
16 xp = z e r o s ( n )
17
18 # Iteradores
19 Para k de 0 ate nmaxiter exe ute
20
21 # Norma de x
22 norma <− 0
23
24 # I t e r a p e l a s p o s i o e s de x
25 Para i de 1 ate n exe ute
26
27 # Cal ula o somatorio
28 s o m a t o r i o <− 0
29 Para j de 1 ate i −1 exe ute
30 s o m a t o r i o <− s o m a t o r i o + A( i , j ) ∗ xp ( j )
31 Fim Para #j
32 Para j de i +1 ate n exe ute
33 s o m a t o r i o <− s o m a t o r i o + A( i , j ) ∗ x ( j )
34 Fim Para #j
35
36 # Cal ula a estimativa
37 xp ( i ) <− ( 1 /A( i , i ) ) ∗ ( b ( i )− s o m a t o r i o )
38
39 # In rementa a norma
40 norma <− norma + ( x ( i )− xp ( i ) ) ∗ ∗ 2
41
42 Fim Para #i
43
44 # Verifi a a toleran ia
45 Se s q r t ( norma ) <= t o l entao
46 E s r e v e "Norma f o i a t i n g i d a " , norma , " " , k
47 Retorna xp
48 Fim Se
49
50 # Copia xp para x
51 x = xp
52
53 Fim Para #k
54
55 Retorna xp
56
57 Fim Rotina Gauss_Seidel
168CAPÍTULO 20. MÉTODOS ITERATIVOS PARA A SOLUÇ O DE SISTEMAS LINEARES

       
10 1 1 10 0 0 0 0 0 0 1 1
       
A =  2 7 0 =  0 7 0 + 2 0 0 + 0 0 0
1 1 8 0 0 8 1 1 0 0 0 0

Assim, o operador G é

 
0 −0.1 −0.1
 
G = 0 0.0285714 0.0285714
0 0.0089286 0.0089286
om autovalores

λ1 = λ2 = 0 e λ3 = 0.0375,

tal que o método irá onvergir. De fato, se b = 1, então, ini iando o algoritmo om x0 = 1,
teremos

 T
x1 = − (D + L)−1 x0 + (D + L)−1 b = −0.1 0.1714286 0.1160714 ,

 T
−1 −1
x2 = − (D + L) x1 + (D + L) b = 0.07125 0.1225 0.1007813 ,

 T
x3 = − (D + L)−1 x2 + (D + L)−1 b = 0.0776719 0.1206652 0.1002079

 T
−1 −1
x4 = − (D + L) x3 + (D + L) b = 0.0776719 0.1206652 0.1002079 ,

que já apresenta onvergên ia até a quarta asa de imal. É imporatnte salientar que as inversões

não são al uladas, pois o algoritmo a ser utilizado é o ilustrado anteriormente.

20.3 Método do Gradiente - Steepest Des ent


Se denirmos uma função quadráti a om a forma

1
φ(x) = xT Ax − bT x
2
então podemos onstatar que, se a matriz A for simétri a e positivo-denida, então existe

somente um ponto de mínimo para a função e este ponto é igual a solução do sistema de

equações Ax = b. Isto pode ser veri ado utilizando a ondição ne essária para o mínimo de

uma função de várias variáveis, ou seja,

∇φ(x) = Ax − b = 0
20.3. MÉTODO DO GRADIENTE - STEEPEST DESCENT 169

e, da ondição su iente, sabemos que

H=A

deve ser positivo-denida.

Exemplo:

Seja o sistema denido por

!( ) ( )
1 1 x1 1
= .
1 2 x2 1
Neste aso, observamos que a função φ é

φ(x) = 0.5 (x2 (2 x2 + x1 ) + x1 (x2 + x1 )) − x2 − x1

e, do ál ulo, sabemos que o mínimo desta função é obtido quando o gradiente é nulo e a matriz

Hessiana é positivo denida. De fato, al ulando o gradiente, obtemos

( )
x1 + x2 − 1
∇φ(x) = ,
x1 + 2x2 − 1
ou seja, Ax − b.
O método do gradiente é basi amente o método de otimização onhe ido omo steepest
des ent. Neste método, partimos de um ponto arbitrário x0 e, omo este ponto não é a solução

do sistema, observamos que o gradiente da função φ é dado por

∇φ(x0 ) = Ax0 − b = r0 ,

onde r0 é o vetor resíduo ini ial. Do ál ulo, sabemos que o vetor gradiente em um ponto indi a

a direção de maior aumento do valor da função, tal que, para obtermos um valor menor do que

o atual, devemos andar na direção oposta. Desta forma, a estimativa para o próximo ponto

será

x1 = x0 − αr0

onde α é um passo nesta direção. O passo é ne essário, devido ao aráter lo al do gradiente.

Para obtermos o valor de α, devemos inserir a estimativa de x1 na função φ, resultando em

1
φ(x1 ) =(x0 − αr0 )T A (x0 − αr0 ) − bT (x0 − αr0 ) .
2
1
Assim, podemos obter o valor ideal de α que minimiza φ(x ) igualando a derivada de φ(x1 ) em

relação a α a zero

φ(x1 )′ = αrT Ar − rT (A − x − b) = 0 = αrT Ar − rT r

que leva a
170CAPÍTULO 20. MÉTODOS ITERATIVOS PARA A SOLUÇ O DE SISTEMAS LINEARES

rT r
α= .
rT Ar
Se o ponto x1 for a solução do sistema, então o próximo vetor resíduo será nulo. Do on-

trário, devemos repetir o pro edimento até que uma determianda tolerân ia seja obtida. O

pro edimento está ilustrado no algoritmo 21.

Exemplo:

Solu ionando o sistema denido no omeço desta seção, om x0 = 1, obtemos

 T  T
r0 = 11 21 , kr0 k = 23.7, x1 = 0.4356399 −0.0774146
 T  T
r1 = 3.2015702 −1.677013 , kr1 k = 3.6, x2 = 0.1309866 0.0821657
 T  T
r2 = 0.4741977 0.9052865 , kr2 k = 1.1, x3 = 0.1066577 0.0357195
 T  T
r3 = 0.1380161 −0.0722942 , kr3 k = 0.1, x4 = 0.0935244 0.0425989
 T  T
r4 = 0.0204421 0.0390259 , kr4 k = 0.04, x5 = 0.0924757 0.0405966
 T  T
r5 = 0.0059497 −0.0031165 , kr5 k = 0.007, x6 = 0.0919095 0.0408932 ,

om uma a urá ia na ter eira asa de imal.

20.4 Método dos Gradientes Conjugados


O método dos gradientes onjugados é um renamento dos on eitos envolvidos no método

do gradiente. A grande diferença está no fato de utilizarmos uma outra direção diferente do

negativo do gradiente, melhorando assim as ara terísti as de onvergên ia do método.

Um on eito importante é o de direções onjugadas: Seja uma matriz positivo-denida A e

dois vetores u e v. u e v são ditos onjugados se

uT AT v = vT Au = 0.

Assim, a ada iteração do método dos Gradientes Conjugados, utilizamos uma direção que

seja onjugada om a direção anterior de minimização. Isto faz om que o método tenha as

seguintes ara terísti as:

• Os resíduos formam um sistema ortogonal, ie, rTi rj = 0, , i 6= j ;

• A solução é obtida em, no máximo, n iterações (devido a erros numéri os, é possível que

leve algumas iterações a mais).

Como na primeira iteração não temos duas direções para onjugar, observamos que o método

se torna o método dos gradientes. Após a primeira iteração, impomos a ondição de que as
20.4. MÉTODO DOS GRADIENTES CONJUGADOS 171

Algoritmo 21 Solução de um sistema de equações pelo método do gradiente.


1 //
2 // Rotina Metodo_Gradiente :
3 // Entradas : A : Matriz s i m e t r i a e p o s i t i v o d e f i n i d a
4 // b : vetor
5 // x : vetor
6 // n : Dimensao do s i s t e m a
7 // tol : t o l e r a n i a de parada
8 // nmaxiter : Numero maximo de i t e r a o e s
9 // S a i d a s : x : s o l u a o do s i s t e m a
10 //
11 //
12 fun tion [ x ℄ = Metodo_Gradiente (A, x , b , n , t o l , nmaxiter )
13
14 // Alo a o v e t o r r e s i d u o
15 r = zeros (n , 1 )
16
17 // I t e r a o e s
18 for k=1: nmaxiter
19
20 // C a l u l a o r e s i d u o
21 r = A∗ x − b
22
23 // V e r i f i a a norma do r e s i d u o
24 i f ( norm ( r )< t o l )
25 return x
26 end
27
28 // C a l u l a o p a s s o
29 t = r '∗ r
30 tb = r ' ∗ A∗ r
31 a l f a = t / tb
32
33 // A t u a l i z a o p a s s o
34 x = x − alfa∗r
35
36
37 end //k
38
39 m p r i n t f ( " \ n Nao f o i p o s s i v e l o b t e r a s o l u a o om a a u r a i a d e s e j a d a " )
40
41 endfun tion
172CAPÍTULO 20. MÉTODOS ITERATIVOS PARA A SOLUÇ O DE SISTEMAS LINEARES

direções de bus a sejam onjugadas. Para evitar a onfusão entre o vetor resíduo de uma

iteração k , rk , e a direção de bus a do método dos gradientes onjugados, iremos utilizar a

notação dk para simbolizar a direção em ada iteração.

Assim, após a primeira iteração, impomos a ondição

dTk Adk−1 = 0

sendo que a direção de bus a na iteração k é obtida por uma ombinação linear

dk = −dk−1 + βk−1 dk−1

onde βk−1 é um es alar que dene a ombinação linear. Este termo é obtido diretamente da

ondição de onjugação, pois

dTk Adk−1 = 0 → (−dk−1 + βk−1 dk−1 )T Adk−1 = 0

resultando em
rTk−1 Adk−1
βk−1 = .
dTk−1 Adk−1
Assim, o próximo ponto será

xk+1 = xk + αk dk

e, utilizando o mesmo pro edimento do método do gradiente, obtemos

rTk−1dk
αk = − .
dTk Adk

Finalmente, utilizando a regra de atualização de x, veri amos que

rk = Axk − b → rk = A (xk−1 + αk dk ) − b

tal que

rk = rk−1 + αk Adk .

Este método tem omo propriedades as seguintes ondições de ortogonalidade:

• rTk rk−1 = 0;

• rTk dk = 0;

• rTk dk−1 = 0;

que permitem, após um número onsiderável de operações, obter:

rTk−1 dk rTk−1 rk−1


αk = − =
dTk Adk dTk−1 Adk−1
20.4. MÉTODO DOS GRADIENTES CONJUGADOS 173

e
rTk−1 Adk−1 rTk−1 rk−1
βk−1 = T = T .
dk Adk−1 rk−2 rk−2

O pro edimento está ilustrado no algoritmo 22. É importante salientar que este método

é muito utilizado em omputação de alto desempenho, sendo que existem diversas melhorias

e modi ações propostas na literatura. Um exemplo é o artigo Qi Wang, Huaxiang Wang, A


modied onjugate gradient method based on the Tikhonov system for omputerized tomography
(CT), ISA Transa tions, Volume 50, Issue 2, April 2011, Pages 256-261.

20.4.1 Pré-Condi ionamento


Como vimos anteriormente, os métodos iterativos são muito sensíveis o ondi ionamento da

matriz de oe ientes. Uma maneira de melhorar o ondi ionamento onsiste em modi ar o

sistema linear para a forma

DADx̃ = Db (20.1)

onde a solução do problema original é obtida pela transformação inversa

x = D−1 x̃ (20.2)

onde existem diversas possibilidades para a matriz D. A mais simples é utilizar o es alonamento

diagonal, onde a matriz D assume a forma Dii = Aii .
Como exemplo, onsidere a matriz

 
1 10 2000
 
A =  10 25 40  (20.3)

2000 40 9

tal que

 
1 0 0
 
D =  0 5 0 (20.4)

0 0 3

e a matriz de oe ientes modi ada será

 
1 50 6000
 
à = DAD =  50 625 600  . (20.5)

6000 600 81

Se al ularmos o ondi ionamento de ambas as matrizes pela razão espe tral, observamos que

λmax
C(A) = = 81, 56 (20.6)
λmin
174CAPÍTULO 20. MÉTODOS ITERATIVOS PARA A SOLUÇ O DE SISTEMAS LINEARES

Algoritmo 22 Solução de um sistema de equações pelo método dos Gradientes Conjugados.


1 //
2 // Rotina Gradientes_Conjugados :
3 // Entradas : A : Matriz s i m e t r i a e p o s i t i v o d e f i n i d a
4 // b : vetor
5 // x : vetor
6 // n : Dimensao do s i s t e m a
7 // tol : t o l e r a n i a de parada
8 // S a i d a s : x : s o l u a o do s i s t e m a
9 //
10 //
11 fun tion [ x ℄ = Gradientes_Conjugados (A, x , b , n , t o l )
12
13 // P r i m e i r a i t e r a a o = metodo do g r a d i e n t e
14 r 0 = A∗ x − b
15 d1 = − r 0
16 ima = r0 ' ∗ r 0
17 b a i x o = r0 ' ∗ A∗ r 0
18 alpha = ima / b a i x o
19 x = x + d1 ∗ alpha
20
21 // Proxima e s t i m a t i v a de residuo
22 r 1 = r 0 + alpha ∗A∗ d1
23
24 // I t e r a o e s
25 for k =1:2 ∗ n
26
27 // C a l u l a o f a t o r da ombina ao l i n e a r
28 t = r1 ' ∗ r 1
29 tb = r0 ' ∗ r 0
30 b e t = t / tb
31
32 // D i r e a o de minimiza ao
33 d1 = − r 1 + b e t ∗ d1
34
35 // Testa p e l a norma do r e s i d u o
36 i f norm ( r 1)< t o l then
37 return x
38 end
39
40 // C a l u l a o p a s s o
41 t = r1 ' ∗ r 1
42 tb = d1 ' ∗ A∗ d1
43 a l f a = t / tb
44
45 // A t u a l i z a o ponto
46 x = x + a l f a ∗ d1
47
48 // Translada os r e s i d u o s
49 r0 = r1
50 r 1 = r 0 + a l f a ∗A∗ d1
51
52 end //k
53
54 m p r i n t f ( " \ n Nao f o i p o s s i v e l o b t e r a s o l u a o om a a u r a i a d e s e j a d a " )
55
56 endfun tion
20.4. MÉTODO DOS GRADIENTES CONJUGADOS 175

e
λmax
C(Ã) = = 9, 98. (20.7)
λmin

Tarefa: Solu ione um sistema de dimensão n = 10 uja matriz de oe ientes é uma matriz de

Hilbert e o vetor b é um vetor de sua es olha. Utilize todos os métodos de solução do sistema

de equações e verique a sensibilidade do sistema ao número de ondi ionamento da matriz.


176CAPÍTULO 20. MÉTODOS ITERATIVOS PARA A SOLUÇ O DE SISTEMAS LINEARES
Capítulo 21

Sistemas de Equações Lineares Complexas

Os números omplexos, C, são uma extensão dos números reais, tal que R ⊂ C. Se onsiderar-

mos que um polinmio om oe ientes reais pode ter raízes omplexas, podemos entender que

o onjunto de números omplexos ompleta o onjunto dos números reais.

Um número omplexo é representado na forma z = a + ib om a e b perten entes aos reais,

tal que:

• a é a parte real de z e es reve-se Re(z) = a;

• b é a parte imaginária de z e es reve-se Im(z) = b.

• O omplexo z é um número real sse Im(z) = 0;

• O omplexo z é um imaginário puro sse Re(z) = 0 e Im(z) 6= 0;

• O omplexo z é nulo sse Re(z) = Im(z) = 0.

Se as grandezas que estão envolvidas na denição do problema forem omplexas, então o

sistema de equações lineares terá a forma

(A + Ac i) (xr + xc i) = (br + bc i)

de tal forma que, usando a propriedade de distributividade, podemos re-es rever o sistema na

forma

(Axr − Ac xc ) + (Ac xr + Axc ) i = (br + bc i)

pois i2 = −1. Assim, podemos reagrupar o sistema na forma

!( ) ( )
A −Ac xr br
=
Ac A xc bc

e este sistema pode ser solu ionado por qualquer método apaz de solu ionar um sistema om

matriz de oe ientes não simétri a e não positivo denida.

177
178 CAPÍTULO 21. SISTEMAS DE EQUAÇÕES LINEARES COMPLEXAS

Exemplo: Sejam as equações:

(3 + 2i)a + (1 − 4i)b = 7 + 5i
(−1 + 2i)a + (10 + 8i)b = 25.

então podemos identi ar os seguintes elementos:

!
3 1
A= ,
−1 10
!
2 −4
Ac = ,
2 8
( )
7
b=
25
e

( )
5
bc = .
0

As in ógnitas a e b também devem ser omplexas, om expressões a = ar + ac i e b = br + bc i,


de tal forma que

( )
ar
x=
br
e

( )
ac
xc = .
bc

Assim, o sistema omplexo assuma a forma

    
3 1 −2 4
 ar 
 
 7 

 


 
 
 25 
 −1 10 −2 −8  b 
r


 2 −4
 = ,
 3 1 
 ac 



 5 


    

2 8 −1 10 bc   0 
om solução ar = 5, 266, br = 1, 475, ac = 0, 838 e bc = −2, 149. Veri ando a primeira equação:

(3 + 2i)(5, 266 + 0, 838i) + (1 − 4i)(1, 475 − 2, 149i) = 7 + 5i

pois (3 + 2i)(5, 266 + 0, 838i) = 14, 122 + 13, 048i e (1 − 4i)(1, 475 − 2, 149i) = −7, 122 − 8, 048i,
resultando em 7 + 5i. Da mesma forma, a segunda equação resulta em:

(−1 + 2i)(5, 266 + 0, 838i) + (10 + 8i)(1, 475 − 2, 149i) = 25


179

pois (−1+2i)(5, 266+0, 838i) = −6, 944+9, 695i e (10+8i)(1, 475−2, 149i) = 31, 944−9, 695i.
180 CAPÍTULO 21. SISTEMAS DE EQUAÇÕES LINEARES COMPLEXAS
Capítulo 22

Solução de Sistemas Não-Lineares

Os pro edimentos apresentados até agora dizem respeito a solução de problemas lineares, ou

seja, é possível obter uma matriz de oe ientes e um vetor que são independentes dos valores

das variáveis x. No entanto, diversos problemas de engenharia são des ritos por equações não-

lineares, de tal forma que é importante entendermos os pro edimentos de solução para esta

lasse de problemas.

A forma geral de um sistema de equações não-lineares é




 f1 (x1 , x2 , ...., xn ) = 0

 ...


 ...

 f (x , x , ..., x ) = 0
n 1 2 n

onde ada uma das equações pode ser aproximada no entorno de um ponto xk por

n
X ∂fi
fi (x1 , x2 , ..., xn ) ≃ fi (xk1 , xk2 , ..., xkn ) + ∆xj , j = 1..n
j=1
∂xkj

onde ∆xi = xi − xki . Assim, podemos onsiderar que no entorno do ponto

n
X ∂fi
k
∆xj = −fi (xk1 , xk2 , ..., xkn ), j = 1..n
j=1
∂xj

ou, matri ialmente

 ∂f1 ∂f1
   
... ∆x k
 f1 (x )
∂xk1 ∂xkn

 1

 
 

 . .. .
 .  .

. . . .
 .  = − . (22.1)
 . . .
 .
 
∂fn ∂fn  ∆x 
 
 f (xk ) 
∂xk1
... ∂xkn n

n

Na forma ompa ta podemos es rever a Eq. (22.1) omo

JY = B

181
182 CAPÍTULO 22. SOLUÇ O DE SISTEMAS N O-LINEARES

onde a matriz é onhe ida omo matriz Ja obiana do sistema. Assim, de posse de uma estima-

tiva xk , podemos obter a nova estimativa omo

xk+1 = xk + Y k

até que kYk < tol. Esta é a extensão do Método de Newton-Raphson para multiplas variáveis,

tendo portanto as mesmas propriedades.

Exemplo: Dado o sistema de equações




 x1 + 2x2 + x3 + 4x4 − 20, 7 = 0

 x2 + 2x x + x3 − 15, 88 = 0
1 1 2 4
3 3


 x1 + x3 + x4 − 21, 218 = 0

 3x2 + x3 x4 − 21, 11 = 0

temos que  
1 2 1 4
 
 2x2 + 2x1 2x1 0 3x24 
J= 

 3x21 0 3x23 1 
0 3 x4 x3
e, partindo do ponto x0 = 1, temos

 
 
1 2 1 4 

 12.7 


  
 


 4 2 0 3  0
Y = 11.88
 3 0 3 1   18.218 
  
 


 
0 3 1 1 17.11 

tal que      


 1 




 1.23285 




 2.23285 



 1  
   
 5.19175 
4.19175  
x1 = + =


 1 




 5.00045 




 6.00045 



 1  
  
 
 
−0.4819 0.52001 
e, na segunda iteração, teremos

   
1 2 1 4


 2.6645 ∗ 10−15 


  
 −12.44379 

 14.8533 4.4663 0 0.81151 
  Y0 = .
 14.9613 0 107.9802 1   −206.3798 
  
 


 

0 3 0.520099 5.99945 2.39923

Tarefa: Termine de solu ionar o problema, até uma tolerân ia de 1 ∗ 10−6 .


Capítulo 23

Solução de Problemas de Autovalores e

Autovetores

Um problema de autovalores e autovetores tem a forma

Ax = λx (23.1)

onde λ é um autovalor e x é um autovetor. Para obtermos os autovalores, podemos rearranjar

a Eq. (23.1) na forma

[A − λI] x = 0 (23.2)

e a solução não trivial é obtida quando

det (A − λI) = 0

dando origem a um polinmio om a forma

an λn + an−1 λn−1 ... + a1

que terá n raizes (autovalores). De posse dos autovalores, podemos obter o autovalor xi asso-

iado a um autovalor λi por meio da solução do sistema de equações homogêneas e Eq. (23.2).

23.1 Método da Potên ia


Se uma matriz A[n×n] tem um autovalor dominante, isto é, se existe um autovalor que em

módulo é maior do que os demais, então existe um vetor x0 não nulo tal que a sequên ia {x}k
denida por

x1 = Ax0 ; x2 = Ax1 , .....xk = Axk−1

ou

xk = Ak x0

183
184CAPÍTULO 23. SOLUÇ O DE PROBLEMAS DE AUTOVALORES E AUTOVETORES

tende ao autovetor asso iado ao autovalor dominante. Para veri armos este omportamento,

primeiro veri amos que x0 pode ser es rito por meio de uma ombinação linear dos autovetores
de A n
X
x0 = ci vi .
i=1

É possível provar que ( verique)


n
X
k
A x0 = ci λki vi
i=1

ou, olo ando o autovalor dominante λk1 em evidèn ia, podemos re-es rever esta equação omo

n  k
k
X λi
A x0 = λki ci vi
i=1
λ1

λi
onde  a laro que as frações
λ1
om i > 1 são menores do que 1 e que ao in rementarmos

o ontador k, estes valores serão termos de ordem superior. Com isto, para k su ientemente

elevado, veri amos que a sequên ia onverge para

Ak x0 → c1 λk1 v1 .

Outra informação interessante que podemos veri ar é que uma vez que

xk+1 = Axk

e xk+1 tende a um autovetor dominante, entãoo Axk tende a λ1 xk , de tal forma que

kxk+1 k
→ λ1
kxk k

Exemplo: Considerando a matriz

 
10 1 2 3
 
 −1 20 2 1 
A=
 2 3 30 1


 
1 2 3 40
23.1. MÉTODO DA POTÊNCIA 185

e ini iado om x0 = 1, teremos

h i
xT1 = 16 22 36 46
h i
xT1 = 392 542 1224 2008
....
h i
xT19 = ∗ 1029
5.7101 2.9656 7.0122 52.5745
h i
xT20 = 9.4118 4.8743 11.4576 86.7484 ∗ 1032

e, dividindo o último resultado pela norma Eu lidiana do vetor, obtemos

h i
v1T = 0.1067813 0.0553020 0.1299917 0.9841959

que é muito próximo ao autovetor asso iado ao maior autovalor desta matriz. O autovalor pode

ser obtido por


x(1)20
= 40.6171
x(1)19
que tem a urá ia de 2 dígitos de imais. É interessante notarmos também que a operação

vT Av = λ1

o que é esperado, uma vez que o autovetor diagonaliza a matriz (neste aso, somente na posição

orrespondente ao autovalor dominante). Assim, da propriedade de que os autovalores de uma

matriz são transladados por uma magnitude c por meio de uma operação ( shift ) na forma

A − cI

podemos realizar esta operação om a matriz original e om c = λ1 ,obtendo


 
−30.6116 1 2 3
 
 −1 −20.6116 2 1 
A1 = 



 2 3 −10.6116 1 
1 2 3 −0.6116

e, realizando novamente o mesmo pro edimento (até a vigésima iteração), obtemos

h i
v2T = 0.9854277 0.1224214 −0.1143751 −0.0293873

λ2 = −30.8078 + 40.6171 = 9.8082

que é o menor autovalor da matriz A. Assim, podemos restringir o algoritmo de forma su essiva

ao espaço nulo (nú leo) dos autovetores já obtidos, de modo a obter os demais autovalores. Na
186CAPÍTULO 23. SOLUÇ O DE PROBLEMAS DE AUTOVALORES E AUTOVETORES

práti a, esta abordagem não é muito e iente. Este método é ilustrado no Alg.(23).

23.1.1 Método da Potên ia Inversa


Esta é uma variação do Método da Potên ia, onde trabalhamos om o inverso da matriz de

oe ientes. Com isto, iremos obter o autovetor asso iado ao menor autovalor. Assim

xk = A−k x0

e
kxk+1 k 1
→ .
kxk k λn
Deve-se salientar que não invertemos a matriz, mas solu ionamos um sistema de equações

na forma

Axk+1 = xk .

Exemplo: Novamente iremos onsiderar a matriz

 
10 1 2 3
 
 −1 20 2 1 
A=
 2 3 30 1


 
1 2 3 40

Assim, ini iando om x0 = 1 teremos

h i
Ax1 = 1→ xT1 =
0.0849 0.0511 0.0212 0.0187
h i
Ax2 = x1 → xT2 = 0.008179 0.0029702 −0.0001151 0.0001226
......
h i
Ax19 = x18 → xT19 = 1.11866 0.1384 −0.1296799 −0.0333282 ∗ 10−19
h i
Ax20 = x19 → xT20 = 1.412 1.1411 −0.132292 −0.0339997 ∗ 10−20

e, normalizando o ultimo vetor

h i
v1 = 0.9855 0.1219 −0.1142436 −0.0293611 .

A menor autovalor é obtido por

 −1
1.412 ∗ 10−20
λmin = = 9.8024.
1.11866 ∗ 10−19

Tarefa: Modi ar o Alg. (23) para o Método das potên ias Inversas.
23.1. MÉTODO DA POTÊNCIA 187

Algoritmo 23 Método das potên ias para ál ulo do autovetor dominante


1 #
2 # Rotina Metodo_Poten ia :
3 # Entradas : A : Matriz quadrada
4 # n : Dimensao do s i s t e m a
5 # tol : C r i t e r i o de Parada (<<1)
6 # Saidas : x : Autovetor dominante
7 # lambda : Autovalor dominante
8 #
9 # Depende :
10 # MatrizXMatriz (A, B,m, n , o )
11 # Es alarXMatriz ( e ,A,m, n )
12 # Norma ( x , n , p )
13 # Zeros (m, n )
14 # I d e n t i d a d e (m)
15 #
16 Rotina Metodo_Poten ia (A, n )
17
18 # Primeira e s t i m a t i v a de x
19 x <− I d e n t i d a d e ( n , 1 )
20
21 # Primeira e s t i m a t i v a do a u t o v a l o r
22 lambda <− 0 . 0
23
24 # Primeira e s t i m a t i v a do i n t e r v a l o de onvergen ia
25 I <− 1
26
27 # Itera
28 Enquanto I > tol exe ute
29
30 # Cal ula nova e s t i m a t i v a para o x
31 xk <− MatrizXMatriz (A, x , n , n , 1 )
32
33 # Cal ula a e s t i m a t i v a do a u t o v a l o r
34 lambda_k <− xk ( 1 ) / x ( 1 )
35
36 # I n t e r v a l o para a l u l o de t o l e r a n i a
37 I <− abs ( lambda_k − lambda )
38
39 # A t u a l i z a x e lambda
40 x <− xk
41 lambda <− lambda_k
42
43 Fim Enquanto
44
45 # Cal ula a norma de xk
46 nx <− Norma ( x , n , 2 )
47
48 # Normaliza o v e t o r ( para e v i t a r numeros muito grandes )
49 x <− Es alarXMatriz (1/ nx , x , n , 1 )
50
51 Retorna x , lambda
52
53 Fim Rotina Metodo_Poten ia
188CAPÍTULO 23. SOLUÇ O DE PROBLEMAS DE AUTOVALORES E AUTOVETORES

23.2 Método de Ja obi


Sabendo que uma matriz Aé simétri a e real, então existe uma matriz de mudança de base R,
real, que diagonaliza a matriz, na forma

Λ = RT AR,

onde Λ é diagonal e ontém os autovalores de A e as olunas R ontém os autovetores. A

mudança de base pode ser onstruída por uma série de operações de rotação su essivas em

torno de diferentes eixos, om o objetivo de zerar blo os de dimensão 2×2 fora da diagonal.

Desta forma, a ada iteração do método temos uma matriz de rotação na forma

 
1 0
 
0 1 
 
 .. 
 . 
 

 cos(θ) − sin(θ) 

Rk =  .. .
 . 
 
 
 sin(θ) cos(θ) 
 ..

 .

 
1
Se realizarmos a operação

Ak+1 = RTk Ak Rk ,

então as posições i e j da matriz Ak+1 serão

aii = aii cos(θ)2 + 2aij sin(θ) cos(θ) + aij sin(θ)2 ,

aij = aji = (ajj − aii ) sin(θ) cos(θ) + aij (cos(θ)2 − sin(θ)2 ),

sendo que os termos fora da diagonal são iguais a zero quando

 
1 2aij
θ = atan .
2 aii − ajj
Uma es olha omum é sele ionar o termo de maior magnitude fora da diagonal a ada iteração.

Assim, podemos ir zerando os termos fora da diagonal su essivamente, tal que ao nal do

pro esso, termos uma matriz diagonal ontendo os autovalores e uma matriz de autovetores,

tal que

Φ = RK RK−1...R1

onde K é o número de iterações.


23.2. MÉTODO DE JACOBI 189

Exemplo:

Considerando a matriz

 
4 2 1
 
A = 2 6 1
1 1 15
veri amos que o maior número fora da diagonal é 2, na posição i = 1, j = 2. Assim, a matriz

de rotação R1 será

 
cos(θ1 ) −sin(θ1 ) 0
 
R1 =  sin(θ1 ) cos(θ1 ) 0
0 0 1
om

 
1 2∗2
θ1 = atan
2 4−6
tal que θ1 = −0.5535744.
Assim, temos que, ao nal da primeira iteração (k = 1),

 
2.763932 0 0.3249197
A2 = RT1 AR1 = 
 
0 7.236068 1.3763819 .
0.3249197 1.3763819 15

Agora, o maior termo fora da diagonal é 1.3763819, om i=2 e j = 3. Assim, a matriz de

rotação será

 
1 0 0
 
R2 = 0 cos(θ2 ) − sin(θ2 )
0 sin(θ2 ) cos(θ2 )
om

 
1 2 ∗ 1.3763819
θ2 = atan
2 7.236068 − 15
tal que θ2 = −0.1703648 e

 
−0.0550875 0.3202158
2.763932
A3 = RT2 A2 R2 = −0.0550875 6.9992857
 
0 .
0.3202158 0 15.236782
Agora, identi amos que o termo de maior magnitude é 0.3202158 na posição i = 1, j = 3. A

matriz de rotação será


190CAPÍTULO 23. SOLUÇ O DE PROBLEMAS DE AUTOVALORES E AUTOVETORES

 
cos(θ1 ) 0 −sin(θ1 )
 
R3 =  0 1 0 
sin(θ1 ) 0 cos(θ1 )
om θ3 = −0.0256505, tal que

 
2.7557165 −0.0550694 0
A4 = RT3 A3 R3 = −0.0550694 6.9992857 −0.0014129 .
 

0 −0.0014129 15.244998

Finalmente, omo o maior termo (em magnitude) agora é −0.0550694 na posição i = 1,


j = 2, temos que

 
cos(θ4 ) −sin(θ4 ) 0
 
R4 =  sin(θ4 ) cos(θ4 ) 0
0 0 1
om θ4 =, resultando em

 
2.755002 0 −0.0000183
A5 = RT4 A4 R4 = 
 
0 7.0000002 −0.0014127 .
−0.0000183 −0.0014127 15.244998
Neste momento, veri amos que os termos fora da diagonal já se en ontram em uma ordem

de grandeza de aproximadamente 1 × 10−3 dos demais valores da diagonal. De fato, os auto-

valores da matriz A são λ1 = 2.755002, λ2 = 7 e λ3 = 15.244998. Os autovetores são obtidos

pelo produto

 
0.8547356 0.5070736 0.1109213
 
Φ = R1 R2 R3 R4 = −0.5183361 0.8451319 0.1306897 ,
−0.0274739 −0.1691997 0.9851988
que também mostram uma grande a urá ia. Deve-se omentar que este método utiliza um

grande número de multipli ações de matrizes e o ál ulo do ar o tangente, que é propenso a

erros de arredondamento. O algoritmo do método de Ja obi é apresentado no Alg. 25 e o

algoritmo utilizado para a determinação da posição do maior valor em módulo da triangular

superior de uma matriz é apresentado no Alg. 24.

23.3 Método QR
O método QR é um dos métodos mais utilizados para ál ulo de autovalores e autovetores. Isto

se deve a sua e iên ia quando programado om alguns uidados. Neste método, transformamos

a matriz A na forma

A = QR
23.3. MÉTODO QR 191

Algoritmo 24 Rotina que determina a posição do maior valor em módulo da triangular superior
de uma matriz.

1 #
2 # Rotina En ontra_Maior_Valor :
3 # Entradas : A : Matriz quadrada e s i m e t r i a
4 # n : Dimensao do s i s t e m a
5 # Saidas : maxi : Linha om o maior v a l o r
6 # maxj : Coluna om o maior v a l o r
7 #
8 #
9 Rotina En ontra_Maior_Valor (A, n )
10
11 # I n i i a l i z a as p o s i o e s
12 maxi <− 0
13 maxj <− 0
14
15 # Maior v a l o r ate o momento
16 maxval <− 0
17
18 # Loop p e l a t r i a n g u l a r s u p e r i o r sem o n t a r a d i a g o n a l
19 Para i de 1 ate n−1 exe ute
20 Para j de i +1 ate n exe ute
21
22 # Valor a b s o l u t o da p o s i a o
23 v = |A( i , j ) |
24
25 # V e r i f i a s e e s t e e o maior
26 Se v>maxval entao
27 maxval <− v
28 maxi <− i
29 maxj <− j
30 Fim Se
31 Fim Para #j
32 Fim Para #i
33
34 # Retorna os v a l o r e s
35 Retorna maxi , maxj
36
37 Fim Rotina En ontra_Maior_Valor
192CAPÍTULO 23. SOLUÇ O DE PROBLEMAS DE AUTOVALORES E AUTOVETORES

Algoritmo 25 Método de Ja obi


1 #
2 # Rotina Ja obi :
3 # Entradas : A : Matriz quadrada
4 # n : Dimensao do s i s t e m a
5 # nmaxiter : Numero maximo de i t e r a o e s
6 # Saidas : A : Matriz om os a u t o v a l o r e s
7 # X : Matriz om os a u t o v e t o r e s
8 #
9 # Depende :
10 # MatrizXMatriz (A, B,m, n , o )
11 # Transposta (A, n )
12 # Identidade (n)
13 # Zeros ( n ,m)
14 # En ontra_Maior_Valor (A, n )
15 #
16 Rotina Ja obi (A, n , t o l )
17
18 # I n i i a l i z a a matriz dos a u t o v e t o r e s
19 X <− I d e n t i d a d e ( n )
20
21 # Itera oes de Ja obi
22 Para i de 1 ate nmaxiter exe ute
23
24 # Determina a p o s i a o do maior v a l o r
25 mi , mj <− En ontra_Maior_Valor (A, n )
26
27 # Determina o angulo
28 t e t a <− 0 . 5 ∗ atan ( 2 ∗A( mi , mj ) / (A( mi , mi)−A( mj , mj ) ) )
29
30 # Monta a matriz de r o t a a o
31 R <− I d e n t i d a d e ( n )
32 R( mi , mi ) <− os ( t e t a )
33 R( mi , mj ) <− − s i n ( t e t a )
34 R( mj , mi ) <− s i n ( t e t a )
35 R( mj , mj ) <− os ( t e t a )
36
37 # Transposta da R
38 RT <− Transposta (R, n )
39
40 # Rota iona a matriz A
41 A <− MatrizXMatriz (RT, MatrizXMatrix (A,R, n , n , n ) , n , n , n )
42
43 # A umula a matriz dos a u t o v e t o r e s
44 X = MatrizXMatriz (X, R, n , n , n )
45
46 Fim Para
47
48 # Retorna a s o l u a o do problema de autovalores
49 Retorna A,X
50
51 Fim Rotina Ja obi
23.3. MÉTODO QR 193

onde Q é uma matriz ortogonal, ie, Q−1 = QT , e R é uma matriz triangular superior. Este

pro esso pode ser realizado por mais de um método, sendo que aqui iremos utilizar o pro edi-

mento de ortogonalização de Gram-S hmidt. Lembrando, a projeção de um vetor a sobre um

vetor e é dada por


< a, e >
proje a = e
< e, e >
e podemos gerar um onjunto de vetores ortogonais utilizado a Ortogonalização de Gram-

S hmidt, na forma
k−1
X
uk = ak − projej ak (23.3)
j=1

om
uk
ek = .
kuk k
Desta forma, se onsiderarmos ak omo sendo a k − ésima oluna de A, podemos isolar estes

vetores na Eq. (23.3), obtendo


k
X
ak = < ej , ak > ej
j=1

tal que podemos nalmente veri ar que a matriz A pode ser de omposta em uma matriz Q
ujas olunas são os vetores unitários ek ,k = 1..n e a matriz R será uma matriz triangular

superior om termos rij =< ei , aj >, j ≥ i.

Exemplo: Apli ando a ortogonalização de Gram-S hmidt na matriz

 
2 4 1
 
A =  3 1 −1 
1 1 1

temos que

h i
uT1 = 2 3 1
h i h i
eT1 = 2 3 1 /3.7416 = 0.5345 0.8017 0.2672

uT2 = [4 1 1] − h[4 1 1] , [0.5345 0.8017 0.2672]i [0.5345 0.8017 0.2672]

= [2.2857 − 1.5714 0.1428]

eT2 = [0.823 − 0.566 0.051]

h i h i h i h i
uT3 = −1 1 − < 1 −1 1 , 0.5345 0.8017 0.2672 > 0.5345 0.8017 0.2672
1
h i h i h i h i
− < 1 −1 1 , 0.823 −0.566 0.051 > 0.823 −0.566 0.051 = −0.1851 −0.1851 0.926
h i
eT3 = −0.1924 −0.1924 0.9622
194CAPÍTULO 23. SOLUÇ O DE PROBLEMAS DE AUTOVALORES E AUTOVETORES

de tal forma que


 
0.5345 0.8229 −0.1924
 
Q =  0.8017 −0.566 −0.1924 
0.2672 0.0514 0.9622
e  
3.742 3.207 0
R = QT A =  0
 
2.777 1.440 
0 0 0.9622
sendo que a matriz R tem a forma de uma matriz de Heisenberg ( verique). A obtenção da

matriz Q é ilustrada no Alg. (26), em S ilab.

Algoritmo 26 Obtenção da matriz Q utilizando ortogonalização de Gram-S hmidt


1 //
2 // Rotina Gram_S hmidt :
3 // Entradas : A : Matriz quadrada
4 // n : Dimensao do s i s t e m a
5 // S a i d a s : Q : Matriz om o l u n a s o r t o g o n a i s
6 //
7 //
8 fun tion [Q℄ = Gram (A, n )
9
10 U = zeros (n , n)
11 Q = zeros (n , n)
12
13 U( : , 1 ) = A( : , 1 )
14 Q( : , 1 ) = U( : , 1 ) / norm (U( : , 1 ) , 2 )
15
16 for k=2:n
17
18 U( : , k ) = A( : , k )
19
20 for j =1:k−1
21 U( : , k ) = U( : , k ) − (Q( : , j ) ' ∗ A( : , k ) ) ∗Q( : , j )
22 end
23
24 Q( : , k ) = U( : , k )/ norm (U( : , k ) , 2 )
25
26 end
27
28 endfun tion

De posse da matriz Q podemos propor um esquema iterativo, partindo de

Ak+1 = Qk Rk

onde, se multipli armos ambos os lados por Qk a direita e depois por Q−1
k a esquerda obteremos

Q−1 −1 −1
k Ak+1 Qk = Qk Qk Rk Qk = Qk Ak Qk
23.3. MÉTODO QR 195

indi ando que as matrizes Ak+1 e Ak são iguais e portanto devem ter os mesmos autovalores.

Assim, o pro edimento iterativo tem a forma

Ak+1 = Q−1
k Ak Qk

e sendo que após um número su iente de ortogonalizações iremos obter uma matriz A triangu-
lar superior ujos elementos da diagonal serão os autovalores. Caso a matriz A seja simétri a,

então a matriz A será diagonal e a matriz Q onterá os autovetores. Caso A não seja simétri a,
então devemos obter os autovetores de interesse por meio da solução do sistema de equações

da Eq. (23.2), para ada λ de interesse.

O pro edimento para o aso de uma matriz simétri a está ilustrado no Alg. (27), em S ilab.

Algoritmo 27 Obtenção dos autovalores e autovetores de uma matriz simétri a pelo método
QR.

1 //
2 // Rotina QR:
3 // Entradas : A : Matriz quadrada e s i m e t r i a
4 // n : Dimensao do s i s t e m a
5 // S a i d a s : Qt : Matriz om o l u n a s o r t o g o n a i s ( a u t o v e t o r e s )
6 // A : Matriz d i a g o n a l om os a u t o v a l o r e s
7 //
8 //
9 fun tion [ Qt ,A℄ = QR(A, n , n i t e r )
10
11 Qt = eye ( n , n )
12
13 for i =1: n i t e r
14
15 Q = Gram(A, n )
16 A = inv (Q) ∗A∗Q
17 Qt = Qt ∗Q
18
19 end
20
21 endfun tion

Tarefa: Obtenha os autovalores e os autovetores da matriz A do exemplo anterior.

23.3.1 Utilizando a De omposição QR para Solu ionar Sistemas de


Equações Lineares Mal-Condi ionados.
Considerando que A = QR, então

Ax = b

pode ser es rita omo

QRx = b
196CAPÍTULO 23. SOLUÇ O DE PROBLEMAS DE AUTOVALORES E AUTOVETORES

e, omo Q é ortogonal, então podemos multipli ar ambos os lados por QT , tal que

Rx = QT b

e, nalmente, omo R é triangular superior, podemos solu ionar o sistema por meio de uma

retrosubstituição. Esta abordagem é parti ularmente interessante quado a matriz A é mal


3
ondi ionada. A omplexidade desta operação é da ordem de n .

Como exemplo, vamos onsiderar uma matriz de dimensão 8

 
64. −2016 20160 −92400 221760 −288288 192192 −51480
 
 −2016 84672 −952560 4656960 −11642400 15567552 −10594584 2882880 
 
 20160
 −952560 11430720 −58212000 1.497 × 108 −2.043 × 108 1.413 × 108 −38918880  
 
 −92400 4656960 −58212000 3.049 × 108 −8.004 × 108 1.110 × 109 −7.769 × 108 2.162 × 108 
A=
 221760 −11642400 1.497 × 108

 −8.004 × 108 2.134 × 109 −2.997 × 109 2.119 × 109 −5.946 × 108 

 
−288288 15567552 −2.043 × 108 1.110 × 109 −2.997 × 109 4.250 × 109 −3.030 × 109 8 
8.562 × 10 

 192192 −10594584 1.413 × 108 −7.769 × 108 2.119 × 109 −3.030 × 109 2.175 × 109 −6.184 × 108 
 
−51480 2882880 −38918880 2.162 × 108 −5.946 × 108 8.562 × 108 −6.184 × 108 1.767 × 108

om número de ondi ionamento rcond(A) = 1, 526 × 1010 . Utilizando um vetor de termos

independentes, b, om bi = i, obtemos, usando o S ilab

 
0
 

 0 

−0.0031391
 
 
−0.0035287
x1 =  
−0.0028351
 
 
−0.0018490
 
−0.0008703
 
0
obviamente após re ebermos o aviso de que o sistema é mal ondi ionado. Se testarmos esta

solução om

 
−1.1727528
 
−0.9367498
 
−3.4111172
 
 
−4.9773307
Ax1 − b = 
 

−5.8545016
 
−6.3134753
 
−6.5224791
 
−6.5805729
que é diferente de 0. Se utilizarmos a de omposição QR e o pro edimento apresentado aqui,

iremos obter, após a retrosubstituição


23.4. DECOMPOSIÇ O CHOLESKY 197

 
8.0000012
 
6.1710323
 
5.1420638
 
 
4.4403682
x2 = 
3.9204908

 
 
 3.515998 
 
3.1906261
 
2.9223971
que resulta em

 
0.0000014
 
5.588 × 10−08 
 
1.490 × 10−08 
 
 
 0.0000004 
Ax2 − b = 
 −0.0000002 

 
 
 0.0000005 
 
 0.0000017 
 
0.0000004
que é uma solução muito mais próxima do que se espera (lembrando que o sistema é muito mal

ondi ionado).

23.4 De omposição Cholesky


É possível utilizar a de omposição Cholesky para a solução de um problema generalizado de

autovalores e autovetores na forma AX = λBX, onde a matriz B é simétri a, positivo-denida


e real. Neste aso, já vimos que a de omposição Cholesky de B é UT U, tal que

AX = λUT UX.

Denido uma nova variável Y, tal que

Y = UX

X = U−1 Y,

podemos es rever

AU−1 Y = λUT Y,
198CAPÍTULO 23. SOLUÇ O DE PROBLEMAS DE AUTOVALORES E AUTOVETORES

Algoritmo 28 Solução de um sistema de equações lineares mal ondi ionado utilizando a


de omposição QR.

1
2 // Dimensao do problema
3 n = 8
4
5 // Gera uma matriz de H i l b e r t , nxn .
6 A = testmatrix ( ' hilb ' , n)
7
8 // Gera um v e t o r de termos i n d e p e n d e n t e s
9 b = (1:n) '
10
11 // Numero de ondi ionamento de A
12 // quanto mais proximo de 1 melhor !
13 onda = ond (A)
14
15 // Solu ao d i r e t a
16 xd = A\b
17
18 // De omposi ao QR
19 [Q,R℄ = qr (A)
20
21 // Novo v e t o r do lado d i r e i t o
22 bqr = Q' ∗ b
23
24 // Apli a r e t r o s u b s t i t u i a o usando
25 // R e bq
26 xqr = z e r o s ( n , 1 )
27
28 for i=n : − 1:1
29 somatorio = 0
30 for j=i +1:n
31 somatorio = somatorio + R( i , j ) ∗ xqr ( j )
32 end
33 xqr ( i ) = ( bqr ( i ) − somatorio )/R( i , i )
34 end
35
36 // Testa a p r i m e i r a s o l u a o
37 e r r o _ d i r e t o = A∗ xd − b
38
39 // Testa a segunda s o l u a o
40 erro_qr = A∗ xqr − b
23.4. DECOMPOSIÇ O CHOLESKY 199

e, se multipli armos esta equação por U−T , obtemos

U−T AU−1 Y = λU−T UT Y,

onde  a laro que U−T UT = I , tal que

U−T AU−1 Y = λY.

Este problema de autovalores e autovetores pode ser solu ionado pelos demais métodos vistos

neste apítulo, resultando nos mesmos autovalores do problema original. Ainda, de posse dos

vetores Y, é possível obter os autovetores do problema generalizado, pois X = U−1 Y .


Como já vimos, a de omposição Cholesky é bem e iente. Da mesma forma, é possível

deduzir uma expressão para obtermos U−1 que ompartilha da e iên ia do método Cholesky.

Para entendermos a relação, vamos onsiderar um problema de dimensão 3

    
u11 u12 u13 α11 α12 α13 1 0 0
    
 0 u22 u23   0 α22 α23  = 0 1 0 ,
0 0 u33 0 0 α33 0 0 1
onde α ontém a inversa de U. Solu ionando para in ógnitas αij , obtemos

1 1 1
α11 = , α22 = , α33 =
u11 u22 u33
e
u12 α22 u12 α23 + u13 α33 u23 α33
α12 = − , α13 = − , α23 = −
u22 u11 u22
que pode ser generalizado omo

αii = 1/uii
j
!
1 X
αij = − uik αkj i<j
uii k=i+1

αij = 0 i > j

om i e j variando de n até 1.
Exemplo:

Seja o problema generalizado de autovalores e autovetores denidos por

 
6 1 1
 
A = 1 9 1
1 4 1

e
200CAPÍTULO 23. SOLUÇ O DE PROBLEMAS DE AUTOVALORES E AUTOVETORES

 
4 2 1
 
B = 2 6 1 .
1 1 15
A de omposição Cholesky de B é

 
2 1 0.5
 
U = 0 2.236068 0.2236068
0 0 3.8340579
om inversa

 
0.5 −0.2236068 −0.0521641
U−1
 
= 0 0.4472136 −0.0260820 .
0 0 0.2608203
O operador D é denido por

 
1.5 −0.4472136 −0.0391230
D = U−T AU−1
 
= −0.4472136 1.9 0.0058321 
−0.0391230 0.3557592 0.0319728
e, a solução do problema de autovalores e autovetores denido por

DY = λY

resulta em λ1 = 2.1937615, λ2 = 1.2060725, λ3 = 0.0321388 om autovetores

 
0.5418033
 
Y1 = −0.8277240 ,
−0.1460214
 
−0.8334240
 
Y2 = −0.5359830
−0.1346349
e

 
0.0277133
 
Y3 = 0.0035141 .
0.9996097

Assim, utilizando o mapeamento X = U−1 Y , obtemos

 
0.4636034
 
X1 = −0.3663609 ,
−0.0380853
23.5. OPCIONAL - MÉTODO DE LEVERRIER-FADDEV 201

 
−0.2898395
 
X2 = −0.2361873
−0.0351155
e

 
−0.0390728
 
X3 = −0.0245003 ,
0.2607185
que são os autovetores do problema original.

23.5 OPCIONAL - Método de Leverrier-Faddev


O de Leverrier-Faddev é um método direto, onde obtemos os oe ientes do polinmio ara -

terísti o
 
P (λ) = (−1)n λn − P1 λn−1 .... − Pn

onde

P1 = tr(A)

1
Pk = tr (Ak ) , k = 2..n
k
om

Ak = Bk A
Bk = Ak−1 − Pk−1 I

Exemplo: " #
10 2
A=
3 7
Ini iamos om

P1 = tr(A) = 10 + 7 = 17

e, para o segundo oe iente, temos que A1 = A e P1 = 17, tal que

" #
−7 2
B1 = A − 17I =
3 −10

" #" # " #


−7 2 10 2 −64 0
A2 = =
3 −10 3 7 0 −64
om
1
P2 = tr(A2 ) = −64.
2
202CAPÍTULO 23. SOLUÇ O DE PROBLEMAS DE AUTOVALORES E AUTOVETORES

Algoritmo 29 Inverte a matriz U obtida por Cholesky.


1 #
2 # Rotina Inverte_U :
3 # Entradas : U : Matriz quadrada
4 # n : Dimensao do s i s t e m a
5 # Saidas : Ui : Matriz om a i n v e r s a de U
6 #
7 # Depende :
8 # Zeros ( n ,m)
9 #
10 Rotina Inverte_U (U, n )
11
12 # In ializa a inversa
13 Ui <− z e r o s ( n , n )
14
15
16 # Loop p e l a s l i n h a s
17 Para i de n ate 1 passo −1 Exe ute
18
19 # Inverte a diagonal
20 Ui ( i , i ) <− 1/U( i , i )
21
22 # Loop p e l a s o l u n a s
23 Para j de n ate 1 passo −1 Exe ute
24 Se i <j Entao
25
26 # Somatorio
27 somat <− 0
28 Para k de i +1 ate j Exe ute
29 somat <− somat + U( i , k ) ∗ Ui ( k , j )
30 Fim Para #k
31
32 # Armazena o v a l o r
33 Ui ( i , j ) <− −somat/U( i , i )
34
35 Fim Se
36 Fim Para #j
37 Fim Para #i
38
39 # Retorna a inversa de U
40 Retorna Ui
41
42 Fim Rotina Inverte_U
23.5. OPCIONAL - MÉTODO DE LEVERRIER-FADDEV 203

Portanto, o polinmio ara terísti o será

 
P (λ) = (−1)2 λ2 − 17λ + 64

om raizes

λ1 = 11.3723 e λ2 = 5.6277.

É interessante notar que uma vez de posse dos autovalores e das matrizes Bk obtidas ao longo

do pro esso, podemos obter fa ilmente os autovetores asso iados a ada um dos autovalores.

Para isto fazemos,


T T T
Xk = λ Xk−1 + Bk−1

sendo que X0 = I. Para este exemplo

" # " #T " #T



1 T 11.3723 0 −7 2 4.3723 3
X = I+ =
0 5.6277 3 −10 2 −4.3722

onde ada linha onterá um dos autovetores.

Para este pro edimento  ar mais laro, vamos ilustrar om uma matriz de dimensão n = 4.

Exemplo:  
10 1 2 3
 
 −1 20 2 1 
A=
 2 3 30 1


 
1 2 3 40
Os autovalores são obtidos om:

P1 = tr(A) = 100
   
10 1 2 3 −90 1 2 3
   
 −1 20 2 1
 − 100I =  −1 −80 2 1
  
B2 = 
 2 3 30 1   2


   3 −70 1 
1 2 3 40 1 2 3 −60
A2 = B2 A
1
P2 = tr(A2 ) = −3483
2
 
2589 −58 −109 −147
 
 75 1890 −99 −41 
B3 = A2 + 3483I = 
 −122 −146 1396 −21 

 
−46 −70 −84 1091
A3 = B3 A
1
P3 = tr(A3 ) = 49236
3
204CAPÍTULO 23. SOLUÇ O DE PROBLEMAS DE AUTOVALORES E AUTOVETORES

 
23653 808 1351 1720
 
 −1379 −11740 837 376 
B4 = A3 − 49236I = 
 1697


 1104 −7955 44 
533 484 521 −5888
A4 = B4 A
1
P4 = tr(A4 ) = −232916
4
dando origem ao polinmio

 
P (λ) = (−1)4 λ4 − 100λ3 + 3483λ2 − 49236λ + 232916

om raízes

λ1 = 40.612 λ2 = 30.2235 λ3 = 19.351 λ4 = 9.803.


Os autovetores são obtidos om

   T  
40.612 0 0 0 −90 1 2 3 −49.388 −1 2 1

1 T
  0 30.2235 0 0   −1 −80 2 1   1 −49.765 3 2 
X = I+ =
     
   
 0 0 19.351 0   2 3 −70 1   2 2 −50.648 3 
0 0 0 9.803 1 2 3 −60 3 1 1 −50.197

   T  
40.612 0 0 0 2589 −58 −109 −147 583.258 34.388 −40.777 −5.388

2 T
  0 30.2235 0 0 
1 T
  75 1890 −99 −41   −27.765 385.358 −55.295 −9.530 
X =  X + =
     
  
 0 0 19.351 0   −122 −146 1396 −21   −70.297 −60.297 415.889 −25.946 
0 0 0 9.803 −46 −70 −84 1091 −117.592 −31.197 −11.197 598.939

   T  
40.612 0 0 0 23653 808 1351 1720 34.041 17.568 40.998 314.168

3
T  0 30.2235 0 0 
2
T  −1379 −11740 837 376   −31.475 −88.753 −567.849 195.852 
X =  X + =
     
 
 0 0 19.351 0   1697 1104 −7955 44   −9.338 −329.828 92.897 18.901 
0 0 0 9.803 533 484 521 −5888 567.300 70.186 −65.763 −16.901

O pro edimento para obtenção dos oe ientes do polinmio está ilustrada no Alg. (30)

enquanto a obtenção da matriz om os autovetores está ilustrada no Alg. (31).


23.5. OPCIONAL - MÉTODO DE LEVERRIER-FADDEV 205

Algoritmo 30 Obtenção dos oe ientes do polinmio ara terísti o utilizando o método de
Leverrier-Faddev

1 #
2 # Rotina Leverrier_Faddev_Poli :
3 # Entradas : A : Matriz quadrada
4 # n : Dimensao do s i s t e m a
5 # Saidas : P : C o e f i i e n t e s do polinomio a r a t e r i s t i o
6 #
7 # Depende : AmaisB(A, B,m, n )
8 # Es alarXMatriz ( e ,A,m, n )
9 # MatrizXMatriz (A, B,m, n , o )
10 # Tra o (A,m)
11 # Zeros (m, n )
12 # I d e n t i d a d e (m)
13 #
14 Rotina Leverrier_Faddev_Poli (A, n )
15
16 # Faz a o p i a da matriz de entrada
17 Ak <− A
18
19 # Alo a o v e t o r que i r a o n t e r os o e f i i e n t e s
20 P = Zeros ( n , 1 )
21
22 # Cal ula o p r i m e i r o o e f i i e n t e
23 P( 1 ) = Tra o (Ak)
24
25 # I t e r a para o b t e r os demais o e f i i e n t e s
26 Para k de 2 ate n exe ute
27
28 # Cal ula Bk
29 Bk <− AmaisB(Ak , Es alarXMatriz ( −P( k − 1) , I d e n t i d a d e ( n ) ) )
30
31 # Cal ula Ak
32 Ak <− MatrizXMatriz (Bk ,A, n , n , n )
33
34 # Cal ula o o e f i i e n t e k do polinomio
35 P( k ) <− (1/ k ) ∗ Tra o (Ak)
36
37 Fim Para #k
38
39 Retorna P
40
41 Fim Rotina Leverrier_Faddev_Poli
206CAPÍTULO 23. SOLUÇ O DE PROBLEMAS DE AUTOVALORES E AUTOVETORES

Algoritmo 31 Obtenção dos autovetores utilizando o método de Leverier-Faddev


1 #
2 # Rotina Leverrier_Faddev_X :
3 # Entradas : A : Matriz quadrada
4 # n : Dimensao do s i s t e m a
5 # L : Autovalores da matriz A, d i s p o s t o s em
forma de uma matriz d i a g o n a l
6 # Saidas : X : Matriz n x n om a u t o v e t o r e s (em ada l i n h a )
7 #
8 # Depende : AmaisB(A, B,m, n )
9 # Es alarXMatriz ( e ,A,m, n )
10 # MatrizXMatriz (A, B,m, n , o )
11 # Tra o (A,m)
12 # Zeros (m, n )
13 # I d e n t i d a d e (m)
14 #
15 Rotina Leverrier_Faddev_X (A, n , L)
16
17 # Primeira e s t i m a t i v a de X
18 X <− I d e n t i d a d e ( n , n )
19
20 # Copia A para Ak
21 Ak <− A
22
23 # Primeiro P
24 P <− Tra o (Ak)
25
26 # Itera
27 Para k de 2 ate n exe ute
28
29 # Cal ula Bk
30 Bk <− AmaisB(Ak , Es alarXMatriz ( −P , I d e n t i d a d e ( n ) ) )
31
32 # Cal ula Ak
33 Ak <− MatrizXMatriz (Bk ,A, n , n , n )
34
35 # Cal ula o o e f i i e n t e k do polinomio
36 P <− (1/ k ) ∗ Tra o (Ak)
37
38 # Atualiza X
39 X <− AmaisB( MatrizXMatriz ( L , X, n , n , n ) , Transposta (Bk ) )
40
41 Fim Para #k
42
43 # Retorna matriz de a u t o v e t o r e s ( ada l i n h a um a u t o v e t o r )
44 Retorna X
45
46 Fim Rotina Leverrier_Faddev_X
Capítulo 24

De omposição em Valor Singular

Dada uma matriz A[m×n] , hamamos σ de valor singular de A se e somente se existem dois

vetores u[m×1] e v[n×1] que satisfazem

Av = σu

AT u = σv.

Os vetores u e v são hamados, respe tivamente, de vetor singular a esquerda e de vetor singular
a direita. Uma matriz A tem ao mínimo 1 e no máximo min(m, n) valores singulares distintos.

É interessante notar que se onsiderarmos todos os valores e vetores singulares ao mesmo tempo

obteremos

A = USVT (24.1)

onde U[m×m] armazena em suas olunas os m vetores singulares a esquerda, S[m×n] ontém

somente termos não negativos em suas posições diagonais (demais termos são nulos) e V[n×n]
ontém os n vetores singulares a direita. A Eq. (24.1) é hamada de de omposição em valor

singular da matriz A. É importante salientar que as matrizes U e V tem olunas om norma

unitária e não são úni as. Desta forma, as olunas de U e V formam bases ortonormais para
T T
A tal que UU = I e VV = I. Com isto

A−1 = VS−1 UT

o que torna a inversão trivial. Esta inversão é onhe ida omo pseudo-inversa da matriz, sendo

uma generalização do on eito de inversa para matrizes não quadradas.

Desta forma, se tivermos um sistema de equações lineares om um número diferente de

equações e in ógnitas, na forma

A[m×n] x[n×1] = b[m×1]

podemos es rever a solução utilizando a inversa da de omposição em valor singular, tal que

x = VS−1 UT b

207
208 CAPÍTULO 24. DECOMPOSIÇ O EM VALOR SINGULAR

e a solução será a de menor erro de a ordo om a norma 2, ou seja,

kAx − bk2

será mínimo. Esta solução deve ser utilizada quando temos um problema mal ondi ionado

(mesmo no aso de matrizes quadradas).

O pro edimento para obtermos a de omposição singular de uma matriz A é:

• Cal ular AAT ;

• Determinar os autovalores e autovetores de AAT ;

• Apli ar Gramm-S hmidt nas olunas de ΦAAT , gerando U;

• Cal ular AT A;

• Determinar os autovalores e autovetores de AT A;

• Apli ar Gramm-S hmidt nas olunas de ΦAT A , gerando V;



• Gerar S, tal que sii = λi , em ordem de res ente (λi 6= 0);

Como exemplo, podemos onsiderar

!
3 1 1
A= .
−1 3 1

Gerando a forma a esquerda

!
T 11 1
AA =
1 11,
obtemos λ1 = 12, λ2 = 10 e !
1 1
ΦAAT =
1 −1
que uma vez ortogonalizada por Gramm-S hmidt resulta em

!
√1 √1
U= 2 2 .
√1 −1

2 2

Gerando a forma a direita

 
10 0 2
AT A =  0 10 4 ,
 

2 4 2
24.1. RELAÇ O ENTRE SVD, RANK E ESPAÇO NULO DE UM OPERADOR 209

obtemos λ3 = 12, λ4 = 10, λ5 = 0 e

 
√1 √2 √1
 26 −1
5 30 
V= √ √ √2  .
 6 5 30 
√1 0 −5

6 30

e, por m,
√ !
12 0 0
S= √ ,
0 10 0
tal que

 T
! ! √ ! √1 √2 √1
3 1 1 √1 √1 12 0 0  26 5 30 
2 2 −1 √2 
= √ √ √ .
−1 3 1 √1 −1
√ 0 10 0  6 5 30 
2 2 √1 0 −5

6 30

Observem que os autovalores foram olo ados em ordem de res ente.

24.1 Relação entre SVD, Rank e Espaço Nulo de um Ope-


rador
Algumas informações importantes podem ser obtidas a partir das matrizes U, S e V.

• A dimensão do espaço nulo do operador, nullity, pode ser obtida pelo número de olunas
de V orrespondentes as posições onde os valores singulares são nulos, ie, Sii = 0;

• A dimensão do Rank do operador, pode ser obtida pelo número de olunas de U orres-

pondentes as posições não nulas dos valores singulares, ie, Sii 6= 0;

Assim, baseado no Rank do operador, obtido por SVD, é possível avaliar o Rank numéri o

efetivo de um operador, pois erros numéri os podem levar a um Rank diferente do analíti o.

No exemplo anterior, observamos que o espaço nulo tem dimensão 1 e que o Rank é 2.
Exemplo:

 
2 2 2
 
A = 2 2 2
2 2 2
tem omo matriz de valores singulares

 
6 0 0
 
σ = 0 0 0
0 0 0

de tal forma que seu Rank é 1 e a dimensão de seu espaço nulo é 2.


210 CAPÍTULO 24. DECOMPOSIÇ O EM VALOR SINGULAR

Tarefa:

1) Solu ione o problema mal ondi ionado do apítulo anterior utilizando o SVD.

24.2 Compressão de Imagens Utilizando o SVD - Low-


Rank Matrix Approximation

Uma imagem é armazenada no omputador omo uma matriz retangular de dimensão n × m.


Assim, onsiderando que ada posição é o upada por um byte, são ne essários m∗n bytes de

espaç para armazenar esta informação. Se apli armos o SVD em uma matriz que ontém as

informações de uma imagem, teremos n valores singulares ( onsiderando que n 6 m) não nulos,
tal que a imagem pode ser re onstruída por uma ombinação linear da forma

n
X
A= σi ui viT
i=1

onde A é a matriz que ontém a imagem re onstruída. Como ordenamos os valores prin ipais

em ordem de res ente, temos que os primeiros termos do somatório são formados pelos valores

singulares mais signi ativos da imagem. Desta forma, apenas alguns valores singulares são

ne essários para obter uma boa aproximação da imagem original. Neste aso, são ne essários

apenas N <n6m valores prin ipais, om seus respe tivos vetores a direita e a esquerda, tal

que o armazenamento total será de N + N ∗ n + N ∗ m bytes.


Exemplo:

A famosa imagem Lenna (http://en.wikipedia.org/wiki/Lenna) será utilizada para visuali-

zarmos a ompressão de imagem por SVD. A imagem original, em tons de inza e na resolução

de 512 × 512 é mostrada na gura 24.2, enquanto as imagens obtidas om diferentes valores de

N são ilustradas nas guras 24.2, 24.2 e 24.2.

Figura 24.1: Lenna - Imagem original 512 × 512.

A qualidade das imagens obtidas pela ombinação linear pode ser melhor ompreendida

avaliando-se a distribuição dos valores singulares da imagem. A gura 24.2 mostra os valores

dos 512 valores singulares, bem omo um detalhamento para os 100 primeiros valores. Como

pode ser visto, os primeiros valores singulares ontém prati amente todas as informações sobre

a gura, justi ando assim o pequeno aumento de qualidade de N = 100 para N = 200.
24.2. COMPRESS O DE IMAGENS UTILIZANDO O SVD - LOW-RANK MATRIX APPROXIMATION

Figura 24.2: Lenna - Imagens om N = 10, 20, 30.

Figura 24.3: Lenna - Imagens om N = 40, 50, 60.

Figura 24.4: Lenna - Imagens om N = 70, 100, 200.


212 CAPÍTULO 24. DECOMPOSIÇ O EM VALOR SINGULAR

bytes ne essários para armazenar as imagens das guras


A tabela abaixo ilustra o número de

a ima. A referên ia de armazenamento é a gura original, om dimensão 512 ∗ 512 = 262144.

N Espaço N + 2 ∗ N ∗ 512 %

10 10250 3, 91
20 20500 7, 82
30 30750 11, 73
40 41000 15, 64
50 51250 19, 55
60 61500 23, 46
70 71750 27, 37
100 102500 39, 10
200 205000 78, 20

O algoritmo 32 ontém o ódigo SCILAB utizado para gerar estas imagens.

Figura 24.5: Valores singulares para a imagem Lenna, gura 24.2.


24.2. COMPRESS O DE IMAGENS UTILIZANDO O SVD - LOW-RANK MATRIX APPROXIMATION

Algoritmo 32 Programa para omprimir uma imagem utilizando SVD.


1 // Carrega a imagem u t i l i z a n d o
2 // SIVP do S i l a b
3 // Para i n s t a l a r o SIVP , a e s s e o ATOMS no menu de A p l i a t i v o s
4 // e va para Image P r o e s s i n g
5 // I n s t a l e o pa ote " S i l a b Image and Video P r o e s s i n g Toolbox "
6 // Nos vamos u t i l i z a r somente as r o t i n a s de l e i t u r a , onversao
7 // e d i s p l a y de imagens . O tratamento matemati o s e r a f e i t o
8 // v i a De omposi ao em Valor S i n g u l a r (SVD)
9 //
10 //
11 // Carrega uma imagem .
12 imagem = imread (" Lenna . jpg " ) ;
13
14 // Converte a imagem para uma matriz de doubles
15 A = im2double ( imagem ) ;
16
17 // Cal ula o SVD da matriz
18 [U, S ,V℄ = svd (A) ;
19
20 // Agora vamos r e o n s t r u i r a imagem por uma
21 // ombina ao l i n e a r − N e o numero de termos
22 N = 200;
23
24 i f N>min ( s i z e (A) ) then
25 d i s p ("\ n N deve s e r menor do que o numero de v a l o r e s s i n g u l a r e s da matriz \n ")
26 abort
27 end
28
29 // Alo a uma nova matriz om a mesma dimensao de A
30 B = z e r o s (A) ;
31
32 // Monta a matriz u t i l i z a n d o somente os N maiores v a l o r e s s i n g u l a r e s
33 // da imagem .
34 for i =1:N
35 B = B + U( : , i ) ∗ S ( i , i ) ∗ V( : , i ) '
36 end
37
38 // Converte B para o formato de imagem
39 A2 = mat2gray (B)
40
41 // Mostra a imagem s i m p l i f i a d a
42 imshow (A2)
214 CAPÍTULO 24. DECOMPOSIÇ O EM VALOR SINGULAR
Capítulo 25

Problema de Mínimos Quadrados

Seja uma função f (x) de nv variáveis, a ser determinada a partir de uma série de pontos

experimentais, avaliados em um onjunto dis reto de nexp pontos x̄. Se os valores experimentais

nos pontos x̄ forem organizados em um vetor V[nexp ×1] , então podemos denir o erro médio

quadráti o entre os valores da função e os valores experimentais na forma

v
unexp
uX
Φ=t (f (x̄i ) − Vi )2 .
i=1

Supondo agora que a função seja des rita por um polinmio de ordem m, na forma

f (x) = pT (x)a

teremos v
unexp
uX
Φ=t (pT (x̄i )a − Vi )2
i=1

onde a ondição ne essária para mínimo desta função é

∇a Φ = 0

e aé o vetor que ontém os oe ientes do polinmio (a serem determiandos no ajuste da

função). Desenvolvendo esta expressão obteremos um sistema de equações lineares na forma

Aa = f

onde
nexp
X
A= p(x̄i )pT (x̄i )
i=1
e
nexp
X
f= p(x̄i )Vi .
i=1

215
216 CAPÍTULO 25. PROBLEMA DE MÍNIMOS QUADRADOS

Exemplo: Seja a função a aproximar f (x1 , x2 ) = a0 + a1 x1 + a2 x2 + a3 x21 + a4 x22 e os dados

experimentais

x̄1 0 1 1 0 2

x̄2 0 1 0 1 2 ,

V 3 -5 11 -13 -25

obtenha os oe ientes que melhor aproximam a função aos dados experimentais.

O polinmio f pode ser representado por

 
a0
 
 a1 
 
f (x̄1 , x̄2 ) = pT (x̄)a = [ 1 x̄1 x̄2 x̄21 x̄22 ] 
 a2


 
 a3 
a4

tal que

n 2 2
Φ = a0 + a1 0 + a2 0 + a3 02 + a4 02 − 3
+ a0 + a1 1 + a2 1 + a3 12 + a4 12 − (−5) + ...

2 2
2 o 21
+ a0 + a1 2 + a2 2 + a3 2 + a4 2 − (−25)

e, se al ularmos o gradiente em relação aos oe ientes do polinmio obteremos

dΦ   
= a0 + a1 0 + a2 0 + a3 02 + a4 02 − 3 + a0 + a1 1 + a2 1 + a3 12 + a4 12 − (−5) + ...
da0

+ a0 + a1 2 + a2 2 + a3 22 + a4 22 − (−25) = 0

dΦ   
= a0 + a1 0 + a2 0 + a3 02 + a4 02 − 3 ∗ 0 + a0 + a1 1 + a2 1 + a3 12 + a4 12 − (−5) ∗ 1 + ...
da1

+ a0 + a1 2 + a2 2 + a3 22 + a4 22 − (−25) ∗ 2 = 0

......

dΦ   
= a0 + a1 0 + a2 0 + a3 02 + a4 02 − 3 ∗ 02 + a0 + a1 1 + a2 1 + a3 12 + a4 12 − (−5) ∗ 12 + ...
da4

+ a0 + a1 2 + a2 2 + a3 22 + a4 22 − (−25) ∗ 22 = 0
217

e, olo ando os oe ientes em evidên ia, obtemos

5 5 5 5 5 5
dΦ X X X X X X
= a0 1 + a1 x̄1 (i) + a2 x̄2 (i) + a3 x̄21 (i) + a4 x̄22 (i) = V (i)
da0 i=1 i=1 i=1 i=1 i=1 i=1
5 5 5 5 5 5
dΦ X X X X X X
= a0 x̄1 (i) + a1 x̄21 (i) + a2 x̄2 (i)x̄1 (i) + a3 x̄21 (i)x̄1 (i) + a4 x̄22 (i)x̄1 (i) = V (i)x̄1 (i)
da1 i=1 i=1 i=1 i=1 i=1 i=1
...
5 5 5 5 5 5
dΦ X X X X X X
= a0 x̄22 (i) + a1 x̄1 (i)x̄22 (i) + a2 x̄2 (i)x̄22 (i) + a3 x̄21 (i)x̄22 (i) + a4 x̄22 (i)x̄22 (i) = V (i)x̄22 (i)
da4 i=1 i=1 i=1 i=1 i=1 i=1

tal que

 P5 P5 P5 P5 P5    P5 
2 2
i=1 1 i=1 x̄1 (i) i=1 x̄2 (i) i=1 x̄1 (i) i=1 x̄2 (i) a0 V (i)
i=1
 P5 2
P 5 P 5 P 5    P5 
 i=1 x̄1 (i) i=1 x̄1 (i)x̄2 (i) x̄3 (i) i=1 x̄2 (i)x̄1 (i)  a1   V (i)x̄1 (i) 
 P5 2
P5 i=12 1 P5 3
  
= P5i=1 

i=1 2 x̄ (i) x̄
i=1 1 (i)x̄ 2 (i) i=1 x̄2 (i)
 a2 V (i)x̄2 (i) 

 P5 4
P 5 2 2


 
  P5i=1 

 i=1 x̄1 (i) i=1 x̄2 (i)x̄1 (i)  a3   V (i)x̄21 (i) 
P5 4
P5i=1 2
i=1 x̄2 (i) a4 i=1 V (i)x̄2 (i)

onde somente a triangular superior da matriz é mostrada, pois a mesma é simétri a. Assim, om os
dados deste problema, obteremos o sistema
    
5 4 4 6 6 a0 −29
    

 6 5 10 9 

 a1 
 
 −44 
    
 6 9 10   a2  =  −68 
    

 18 17 

 a3 
 
 −94 
18 a4 −118

tal que    
a0 3
   
 a1   6 
   
   
 a2  =  −8 .
   
 a   2 
 3   
a4 −8

A solução deste problema utilizando o s ilab está ilustrada no Alg. (33)

25.0.1 Es alonamento das Variáveis


É omum lidarmos om uma matriz de oe ientes mal ondi ionada, prin ipalmente quando as variá-
veis envolvidas no problema de mínimos quadrados apresentam ordem de grandeza muito diferentes.
Neste aso, a melhor estratégia onsiste em trabalhar om um novo onjunto de variáveis normalizadas.
Se uma variável original x é denida no intervalo [xmin , xmax ] e queremos que a variável passe a
ter valores no intervalo [rmin , rmax ], podemos denir o mapeamento
 
rmax − rmin
r = rmin + (x − xmin ) .
xmax − xmin
Desta forma, podemos fazer om que todas as variáveis apresentem a mesma ordem de grandeza,
reduzindo muito a han e de observarmos o mal ondi ionamento. É importante salientar que as
218 CAPÍTULO 25. PROBLEMA DE MÍNIMOS QUADRADOS

Algoritmo 33 Solução do problema de Mínimos Quadrados usando o S ilab


1
2 // Pontos e x p e r i m e n t a i s
3 xb = [ [ 0 , 1 , 1 , 0 , 2 ℄ ; [ 0 , 1 , 0 , 1 , 2 ℄ ℄ ;
4
5 // Dados e x p e r i m e n t a i s
6 V = [3 , − 5 ,11 , − 13 , − 25℄
7
8 // Numero de pontos e x p e r i m e n t a i s
9 nexp = l e n g t h (V)
10
11 // Numero de termos da base ( 1 , x , y , x ^2 , y ^2)
12 nb = 5
13
14 // D e l a r a A e b
15 A = z e r o s ( nb , nb )
16 b = z e r o s ( nb , 1 )
17
18 // Loop p e l o s pontos e x p e r i m e n t a i s
19 for i =1: nexp
20 // Vari \ ' a v e l x
21 x = xb ( 1 , i )
22 // Vari \ ' a v e l
23 y = xb ( 2 , i )
24 // Base
25 p = [ [ 1 ℄ ; [ x ℄ ; [ y ℄ ; [ x ∗∗2℄;[ y∗∗2℄℄ ;
26 // A umula os s o m a t o r i o s de A e b
27 A = A + p∗p ' ;
28 b = b + p ∗V( i )
29 end
30
31 // Obtem os o e f i i e n t e s ( Cuidado que o problema e ' mal o n d i i o n a d o )
32 o e f = A\b
25.1. PROBLEMA DE MÍNIMOS QUADRADOS DEFINIDO POR UMA EQUAÇ O N O LINEAR DO

equações obtidas serão em função das novas variáveis r, mas que o mapeamento inverso é obtido por
 
xmax − xmin
x = xmin + (r − rmin ) .
rmax − rmin

25.1 Problema de Mínimos Quadrados Denido por uma


Equação não Linear dos Coe ientes
Se o modelo a ser ajustado não puder ser es rito na forma f (x) = pT a, então não é possível solu ionar
o problema através da solução de um sistema de equa ções lineares. Neste aso, a ondição de mínimo

∇a Φ = 0

da origem a um sistema de equações não lineares





 f1 (a0 , a1 , ...., an ) = 0

 ...


 ...


fn (a0 , a1 , ..., an ) = 0
que deve ser solu ionado pelo método de Newton-Raphson.

Exemplo: Seja o modelo des rito pela equação f (x) = a0 + cos(a1 x) e os dados experimentais
f (1) = 0, f (2) = 2, f (3) = 0 e f (4) = 2. Neste aso, a equação de mínimos quadrados se torna

q
Φ= (a0 + cos(a1 1) − 0)2 + (a0 + cos(a1 2) − 2)2 + (a0 + cos(a1 3) − 0)2 + (a0 + cos(a1 4) − 2)2

e, esta equação atinge um mínimo quando


( ) ( )

da0 f1 (a0 , a1 )
∇a Φ = dΦ
= =0
da1 f2 (a0 , a1 )
tal que
dΦ 2 (cos (4 a1) + a0 − 2) + 2 (cos (3 a1) + a0) + 2 (cos (2 a1) + a0 − 2) + 2 (cos (a1) + a0)
f1 = = q
da0
2 (cos (4 a1) + a0 − 2)2 + (cos (3 a1) + a0)2 + (cos (2 a1) + a0 − 2)2 + (cos (a1) + a0)2

e
dΦ −8 (cos (4 a1) + a0 − 2) sin (4 a1) − 6 (cos (3 a1) + a0) sin (3 a1) − 4 (cos (2 a1) + a0 − 2) sin (2 a1) − 2 (cos (a1) + a0) sin (a1)
f2 = = q .
da1 2 (cos (4 a1) + a0 − 2)2 + (cos (3 a1) + a0)2 + (cos (2 a1) + a0 − 2)2 + (cos (a1) + a0)2

Assim, a matriz Ja obiana é des rita por

" # " # " #


df 1 df 1 d2 Φ d2 Φ
J11 J12 da0 da1 da0 da0 da0 da1
= df 2 df 2
= d2 Φ d2 Φ
.
J21 J22 da0 da1 da1 da0 da1 da1
220 CAPÍTULO 25. PROBLEMA DE MÍNIMOS QUADRADOS

om, por exemplo

4
J11 = q
(cos (4 a1) + a0 − 2)2 + (cos (3 a1) + a0)2 + (cos (2 a1) + a0 − 2)2 + (cos (a1) + a0)2

(2 (cos (4 a1) + a0 − 2) + 2 (cos (3 a1) + a0) + 2 (cos (2 a1) + a0 − 2) + 2 (cos (a1) + a0))2
−  3 .
4 (cos (4 a1) + a0 − 2)2 + (cos (3 a1) + a0)2 + (cos (2 a1) + a0 − 2)2 + (cos (a1) + a0)2
2
Capítulo 26

Derivada Numéri a

A derivada de uma função de uma variável, f (x), é denida omo

df (x) f (x) − f (a)


= lim
dx x→a x−a
onde a = x + ∆x e, geométri amente, pode ser interpretada omo a reta tangente a função

em um dado ponto x. Com base nesta interpretação geométri a, podemos observar que uma

aproximação para o ál ulo da derivada em torno de um dado ponto pode ser obtido por uma

simples interpretação geométri a (gura 26), onde a hipotenusa do triângulo formado por um

ateto adja ente de dimensão ∆x e ateto oposto de dimensão ∆f = f (x0 + ∆x) − f (x0 ) tende

a reta tangente denida pela derivada no ponto x0 , quando ∆x → 0, tal que



df (x) ∆f
≃ .
dx ∆x x0

f(x) f(x)

df(x)
dx
f(x0)+f(x0+DX)

df(x)
dx f(x0)

x0 x x0 x0+DX x

Figura 26.1: Diferença nita a frente - interpretação geométri a.

Obviamente, esta denição matemáti a não pode ser apli ada diretamente para obtermos

uma derivada numéri a, pois se ∆x for da ordem do epsilon da máquina, observamos que ∆f
não será orretamente al ulado, levando a erros onsideráveis de ál ulo. Este erro é onhe ido

omo erro de arredondamento, ausado simplesmente pela pre isão utilizada para des rever
os números reais no omputador.

221
222 CAPÍTULO 26. DERIVADA NUMÉRICA

Outro erro que pode apare er está asso iado ao uso de uma perturbação ∆x muito grande.

Neste aso, a intepretação geométri a permite ver que a hipotenusa não oin ide om a reta

tangente no ponto x0 , levando a uma estimativa errada para o ál ulo da derivada.

Se onsiderarmos uma expansão em série de Taylor de primeira ordem da função f (x) em

torno do ponto x0 , observamos que

df
f (x0 + ∆x) = f (x0 ) + ∆x + O
dx
onde O representa todos os termos de alta ordem. Estes termos tendem a zero muito mais rapi-

damente do que o termo de primeira ordem a medida que ∆x → 0, justi ando a interpretação

geométri a e a validade para pequenos valores de perturbação. Com esta expansão, podemos

então avaliar o hamado erro de trun amento, asso iado ao erro o asionado por perturbações
muito grandes.

Assim, isolando a derivada

df f (x0 + ∆x) − f (x0 ) − O


≃ ,
dx ∆x
veri amos a origem do erro de trun amento.

A gura 26.2 ilustra o omportamento da derivada numéri a em relação ao valor da pertur-

bação.

Derivada

Bons valores de perturbacao

Exato

Perturbacao

Erro de arredondamento Erro de truncamento

Figura 26.2: Comportamento da derivada numéri a por diferenças nitas utilizando diferentes
valores de perturbação.

Esta forma de al ularmos a derivada é hamada de Diferenças Finitas a Frente, pois uti-

lizamos o ál ulo da função em um ponto a frente do ponto atual, f (x0 + ∆x). De forma

análoga, é possível denirmos um ál ulo para trás, onhe ido omo Diferenças Finitas para

Trás, al ulado omo

df f (x0 ) − f (x0 − ∆x)


≃ ,
dx ∆x
26.1. DIFERENÇAS FINITAS COMPLEXAS 223

e as Diferenças Finitas Centrais, al uladas om

df f (x0 + ∆x) − f (x0 − ∆x)


≃ .
dx 2∆x

Cada uma destas formas tem vantagens e desvantagens. As diferenças nitas entrais, por

exemplo, por utilizarem um intervalo mais amplo, são menos su etíveis ao erro de arredonda-

mento do que as diferenças nitas para trás e para frente. No entanto, ne essitam do ál ulo

da função nestes dois pontos, o que a arreta um maior usto omputa ional.

26.1 Diferenças Finitas Complexas


Se expandirmos uma função em série de Taylor, om perturbação somente na parte omplexa

de x, tal que ∆x = 0 + δi então

df
f (x0 + ∆x) = f (x0 ) + δi + O.
dx
Des artando os temos de alta ordem e onsiderando somente a parte omplexa de ada uma

das operações a ima, temos que

df Imagf (x0 + ∆x) Imagf (x0 + δi)


≃ =
dx δ δ
pois Imagf (x0 ) = 0, uma vez que tanto o ponto atual quanto a função são originalmente reais.

O interessante é que este pro edimento faz om que não seja ne essário o ál ulo da subtração

presente nos outros tipos de diferenças nitas, eliminando assim o erro de arredondamento.

De fato, tem-se observado o orreto ál ulo da derivada mesmo om perturbação de ordem

menor do que o epsilon da máquina. Assim, o grá o da gura 26.2 não apresenta os erros de

arredondamento, mas ainda apresenta o erro de trun amento.

Exemplo:

Para ilustrar os on eitos vistos nas seções anteriores, vamos onsiderar a função f (x) =
2
3 cos(x2 )3 , om derivada analíti a dfdx
(x)
= −18 x cos (x2 ) sin (x2 ). No ponto x = 2, a derivada
assume o valor analíti o 11, 640379 ( onsiderando 6 asas de imais para ns de ilustração), que

será utilizado omo referên ia para este exemplo.

Utilizando uma perturbação δ = 1 × 10−10 , obtemos

f (2+δ)−f (2)
• Diferenças nitas para frente:
δ
= 11, 640378;
f (2)−f (2−δ)
• Diferenças nitas para trás:
δ
= 11, 640382;
f (2+δ)−f (2−δ)
• Diferenças nitas entrais:

= 11, 64038;
Imag(f (2+δi))
• Diferenças nitas omplexas:
δ
= 11, 640379,
224 CAPÍTULO 26. DERIVADA NUMÉRICA

al ulados om o auxílio do S ilab.

26.2 Cál ulo do Vetor Gradiente


O gradiente de uma função de n variáveis f (x) é denido omo

 
df

 
dx1 

 
 df 
dx2
∇f (x) = ..

 . 


 

 df 
dxn

sendo que ada uma das posições pode ser al ulada utilizando um dos pro edimentos unidi-

mensionais des ritos a ima. O algoritmo 34 ilustra o ál ulo do gradiente de uma função de n
variáveis utilizando as abordagens dis utidas neste apítulo.
26.2. CÁLCULO DO VETOR GRADIENTE 225

Algoritmo 34 Diferenças nitas.


1 //
2 // Rotina D i f e r e n a s _ F i n i t a s :
3 // Entradas : x : v e t o r om o v a l o r das v a r i a v e i s a t u a i s
4 // h : perturba ao
5 // tipo : t i p o de d e r i v a d a
6 // S a i d a s : df : vetor gradiente
7 //
8 //
9 // Depende : f ( x ) : f u n a o de n v a r i a v e i s
10 //
11 fun tion [ d f ℄ = DF ( x , h , t i p o )
12
13 // Des obre o numero de v a r i a v e i s armazenadas no v e t o r x ( o l u n a )
14 n = size (x , ' r ' ) ;
15
16 // Alo a um v e t o r xp para a p l i a r as p e r t u r b a o e s
17 xp = z e r o s ( n , 1 ) ;
18
19 // C a l u l a f ( x ) apenas uma vez
20 i f tipo < 2
21 f0 = f (x ) ;
22 end
23
24 // Alo a e s p a o para o v e t o r de derivadas
25 df = zeros (n , 1 ) ;
26
27 // Faz um l o o p para p e r t u r b a r ada uma das n v a r i a v e i s de p r o j e t o
28 for i =1:n
29 se le t tipo
30 // D i f e r e n a s f i n i t a s a f r e n t e
31 a s e 0 then
32 // Copia e p e r t u r b a na p o s i a o d e s e j a d a
33 xp = x;
34 xp ( i ) = xp ( i )+h ;
35 d f ( i ) = ( f ( xp)− f 0 ) / h ;
36 // D i f e r e n a s f i n i t a s para t r a s
37 a s e 1 then
38 // Copia e p e r t u r b a na p o s i a o d e s e j a d a
39 xp = x;
40 xp ( i ) = xp ( i )− h ;
41 d f ( i ) = ( f0 − f ( xp ) ) / h ;
42 // D i f e r e n a s f i n i t a s omplexas
43 a s e 2 then
44 // Copia e p e r t u r b a a f r e n t e
45 xp = x;
46 xp ( i ) = xp ( i )+h ;
47 ff = f ( xp ) ;
48 // Perturba para t r a s
49 xp ( i ) = xp ( i ) − 2 ∗ h ;
50 fa = f ( xp ) ;
51 d f ( i ) = ( f f −f a ) / ( 2 ∗ h ) ;
52 // D i f e r e n a s f i n i t a s omplexas
53 a s e 3 then
54 // Copia e p e r t u r b a a p a r t e omplexa a f r e n t e
55 xp = x;
56 xp ( i ) = omplex ( xp ( i ) , h ) ;
57 d f ( i ) = imag ( f ( xp ) ) / h ;
58 else
59 d i s p ( " Tipo de d e r i v a d a nao d e f i n i d a " ) ;
60 end // s e l e t
61 end // i
62 endfun tion
226 CAPÍTULO 26. DERIVADA NUMÉRICA
Capítulo 27

Integração Numéri a

Dada uma função f (x), temos que por denição a integral de Cau hy da função no intervalo

[xL , xU ] é dada por


Z XU x=x
XU
f (x) dx = lim f (x)∆x
xL ∆x→0
x=xL

ou seja, o somatório da área de innitos retângulos de base ∆x e altura f (x). Obviamente esta

denição matemáti a não é muito práti a para uma implementação numéri a, uma vez que

deveríamos avaliar o valor da função em um número (idealmente) innito de pontos.

Exemplo: Obtenha a integral de f (x) = 3x2 − 6x3 om x ∈ [0, 1].


Analiti amente esta integral tem omo solução

Z 1
1
3x2 − 6x3 dx = −
0 2

e, se dividirmos o intervalo em 10 retângulos iremos obter omo aproximação para a integral:


3x2 − 6x3 0 0.1 + 3x2 − 6x3 0.1 0.1 + 3x2 − 6x3 0.2 0.1 + ....... + 3x2 − 6x3 1.0 0.1 = −0.66

ou, om 100 retângulos −0.5151 e, om 1000 retângulos, −0.501501. Obviamente, esta estra-

tégia, que podemos hamar de método dos retângulos, é muito pobre e só onsegue integrar

orretamente (isto é, om um número de amostras menor do que ∞) funções onstantes. Este

algoritmo está ilustrano no Alg. (35).

27.1 Regra dos Trapézios


Outra estratégia é a famosa regra dos trapézios. Neste método realizamos uma interpolação

linear entre dois pontos da urva (função) e al ulamos a área abaixo do trapézio. Desta forma,

onsiderando dois pontos xi e xi+1 e seus respe tivos valores f (xi ) e f (xi+1 ) teremos omo área
abaixo do trapézio
1
dAi = f (xi )∆x + (f (xi+1 ) − f (xi )) ∆x
2
227
228 CAPÍTULO 27. INTEGRAÇ O NUMÉRICA

e, omo área total


n−1
X
A= dAi
i=1

Exemplo: Com um ∆x = 0.1 teremos

1 1 1
f (0)0.1+ (f (0.1) − f (0)) 0.1+f (0.1)0.1+ (f (0.2) − f (0.1)) 0.1+....+f (0.9)0.1+ (f (1.0) − f (0.9)) 0.1 = −0.51
2 2 2

ou, om ∆x = 1 ∗ 10−2 obtemos −0.5001 e, om ∆x = 1 ∗ 10−3 obtemos −0.500001, mostrando

omo este método é muito mais pre iso do que o método de ordem zero. No entanto, este

método onsegue integrar orretamente uma função de primeira ordem. Este método está

ilustrado no Alg. (36).

Desta forma,  a laro que se utilizarmos aproximações de alta ordem para ada uma

das áreas diferen iais a serem somadas, iremos obter aproximações ada vez melhores mesmo

om um menor número de intervalos. Esta é a idéia por tras dos métodos de integração por

interpolação.

27.2 Regra de Simpson de Segunda Ordem (Primeira Re-


gra de Simpson)
Se onsiderarmos três pontos xi , xi+1 e xi+2 e seus respe tivos valores podemos realizar uma

aproximação quadráti a para o omportamento da função, na forma

f˜(x) = a + bx + cx2

onde os oe ientes são obtidos por

f˜(xi ) = a + bxi + cx2i = f (xi )


f˜(xi+1 ) = a + bxi+1 + cx2i+1 = f (xi+1 ).
f˜(xi+2 ) = a + bxi+2 + cx2i+2 = f (xi+2 )

Como este pequeno pedaço da função tem área onhe ida e igual a

Z xi+1 Z xi+2
2
dAi = a + bx + cx dx + a + bx + cx2 dx
xi xi+1

podemos realizar a integração analíti a e substituir os oe ientes, obtendo

∆x
dAi = [f (xi ) + 4f (xi+1 ) + f (xi+2 )] .
3

Este método, por sua natureza, é apaz de itegrar orretamente funções onstantes, lineares

e quadráti as.
27.3. REGRA DE SIMPSON DE TERCEIRA ORDEM (SEGUNDA REGRA DE SIMPSON)229

Exemplo: Com ∆x = 0.1 teremos

0.1 0.1 0.1


[f (0) + 4f (0.1) + f (0.2)] + [f (0.2) + 4f (0.3) + f (0.4)] + ... + [f (0.8) + 4f (0.9) + f (1.0)] = −0.5
3 3 3

sendo que este resultado já é obtido om ∆x = 0.5 neste exemplo. O pro edimento está

ilustrado no Alg. (37).

27.3 Regra de Simpson de Ter eira Ordem (Segunda Regra


de Simpson)
Neste aso, aproximamos a função por meio de uma função úbi a, na forma

f˜(x) = a + bx + cx2 + dx3

e, portanto, ne essitamos de 4 pontos para obrir ada um dos intevalos. Realizando um

pro edimento análogo ao da Primeira Regra de Simpson obtemos

3∆x
dAi = [f (xi ) + 3f (xi+1 ) + 3f (xi+2 ) + f (xi+3 )]
8

onseguindo integrar exatamente até funções úbi as, omo é o aso do nosso exemplo. O pro-

edimento está ilustrado no Alg. (38).

27.4 Integração por Quadratura


A integração por quadratura tem omo objetivo aproximar a integral de uma função por uma

soma ponderada da função avaliada em pontos espe í os. Tanto as posições dos pontos quanto

os valores dos pesos são deduzidos de modo a minimizar o erro de integração. Existem diversas

regras de quadratura diferentes, sendo que aqui iremos estudar a mais utilizada na área de

me âni a omputa ional, onhe ida omo Quadratura de Gauss, ou Gauss-Legendre.

27.4.1 Quadratura de Gauss


A quadratura de Gauss integra exatamente um polinmio de ordem 2n − 1, onde né o número

de pontos utilizados para avaliar a integração. Neste método aproximamos a integral por

Z 1 n
X
f (r) dr = Wi f (ri )
−1 i=1

sendo que pro edimento para obtermos os pesos e os pontos de quadratura serão apresentados

a seguir.
230 CAPÍTULO 27. INTEGRAÇ O NUMÉRICA

Algoritmo 35 Integração pelo Método dos Retângulos.


1 //
2 // Rotina Retangulo :
3 // Entradas : x l : Extremo i n f e r i o r do i n t e r v a l o
4 // xu : Extremo s u p e r i o r do i n t e r v a l o
5 // n : Numero de i n t e r v a l o s
6 // S a i d a s : area : I n t e g r a l da fun aoo
7 //
8 //
9 // Depende : f ( x ) : fun ao a s e r i n t e g r a d a
10 //
11 fun tion [ area ℄ = Retangulo ( xl , xu , n )
12
13 // Cal ula o DX
14 h = ( xu− x l ) / n ;
15
16 // I n i i a l i z a a area
17 area = 0 ;
18
19 // Loop p e l o s r e t a n g u l o s
20 for i =0:n
21
22 // A umula a area
23 area = area + f ( x l + i ∗ h ) ∗ h ;
24 end
25
26
27 endfun tion
27.4. INTEGRAÇ O POR QUADRATURA 231

Algoritmo 36 Integração pelo Método dos Trapézios


1 //
2 // Rotina Trapezio :
3 // Entradas : x l : Extremo i n f e r i o r do i n t e r v a l o
4 // xu : Extremo s u p e r i o r do i n t e r v a l o
5 // n : Numero de i n t e r v a l o s
6 // S a i d a s : area : I n t e g r a l da fun ao
7 //
8 //
9 // Depende : f ( x ) : fun ao a s e r i n t e g r a d a
10 //
11
12 fun tion [ area ℄ = Trapezio ( xl , xu , n )
13
14 // Cal ula o DX
15 h = ( xu− x l ) / n ;
16
17 // I n i i a l i z a a area
18 area = 0 ;
19
20 // I n i i a l i z a os pontos dos t r a p e z i o s
21 xat = x l ;
22 xpr = x l + h ;
23
24 // Loop p e l o s t r a p e z i o s
25 for i =1:n
26
27 // A umula a area
28 area = area + f ( xat ) ∗ h + 0 . 5 ∗ ( f ( xpr ) − f ( xat ) ) ∗ h
29
30 // A t u a l i z a os pontos
31 xat = xpr
32 xpr = xat + h
33
34 end
35 endfun tion
232 CAPÍTULO 27. INTEGRAÇ O NUMÉRICA

Algoritmo 37 Integração pela Primeira Regra de Simpson


1 //
2 // Rotina Simpson1
3 // Entradas : x l : Extremo i n f e r i o r do i n t e r v a l o
4 // xu : Extremo s u p e r i o r do i n t e r v a l o
5 // n : Numero de i n t e r v a l o s
6 // S a i d a s : area : I n t e g r a l da fun ao
7 //
8 //
9 // Depende : f ( x ) : fun ao a s e r i n t e g r a d a
10 //
11
12 fun tion [ area ℄ = Simpson1 ( xl , xu , n )
13
14 // Cal ula o DX
15 h = ( xu− x l ) / n ;
16
17 // I n i i a l i z a a area
18 area = 0 ;
19
20 // I n i i a l i z a os pontos das r e g i o e s q u a d r a t i a s
21 x0 = xl ;
22 x1 = x0 + h ;
23 x2 = x1 + h ;
24
25 // Loop p e l a s r e g i o e s q u a d r a t i a s
26 for i =1:2: n
27
28 // A t u a l i z a a area
29 area = area + ( h / 3 ) ∗ ( f ( x0 ) + 4 ∗ f ( x1 ) + f ( x2 ) )
30
31 // A t u a l i z a os pontos
32 x0 = x2
33 x1 = x0 + h
34 x2 = x1 + h
35
36 end
37
38 endfun tion
27.4. INTEGRAÇ O POR QUADRATURA 233

Algoritmo 38 Integração pela Segunda Regra de Simpson


1 //
2 // Rotina Simpson2
3 // Entradas : x l : Extremo i n f e r i o r do i n t e r v a l o
4 // xu : Extremo s u p e r i o r do i n t e r v a l o
5 // n : Numero de i n t e r v a l o s
6 // S a i d a s : area : I n t e g r a l da fun ao
7 //
8 //
9 // Depende : f ( x ) : fun ao a s e r i n t e g r a d a
10 //
11
12 fun tion [ area ℄ = Simpson2 ( xl , xu , n )
13
14 // Cal ula o tamanho do DX
15 h = ( xu− x l ) / n ;
16
17 // I n i i a l i z a a area
18 area = 0 ;
19
20 // I n i i a l i z a os pontos
21 x0 = xl ;
22 x1 = x0 + h ;
23 x2 = x1 + h ;
24 x3 = x2 + h ;
25
26 // Loop por ada uma das r e g i o e s u b i a s
27 for i =1:3: n−2
28
29 // A umula a area
30 area = area + (3 ∗ h / 8 ) ∗ ( f ( x0 ) + 3 ∗ f ( x1 ) + 3 ∗ f ( x2 ) + f ( x3 ) )
31
32 // A t u a l i z a os pontos da r e g i a o
33 x0 = x3
34 x1 = x0 + h
35 x2 = x1 + h
36 x3 = x2 + h
37
38 end
39
40 endfun tion
234 CAPÍTULO 27. INTEGRAÇ O NUMÉRICA

Considere um polinmio úbi o, om a forma p(r) = a0 + a1 r + a2 r 2 + a3 r 3 om r ∈ [−1, 1].


A integral deste polinmio é obtida analiti amente,

Z 1
2
p(r) dr = 2a0 + a2
−1 3

e, om este resultado, podemos utilizar a forma aproximada proposta por Gauss, obtendo

n
2 X
2a0 + a2 = Wi p(ri )
3 i=1

sendo que n=2 impli a na integração exata de um polinõmio de ordem 2 ∗ 2 − 1 = 3. Assim,

2
2a0 + a2 = W1 p(r1 ) + W2 p(r2 )
3

ou, expandindo o polinmio,

2  
2a0 + a2 = W1 a0 + a1 r1 + a2 r12 + a3 r13 + W2 a0 + a1 r2 + a2 r22 + a3 r23
3

de tal forma que podemos agrupar por oe ientes ai em omum, obtendo

2 = W1 + W2
0 = r1 W1 + r2 W2
2
= r12 W1 + r22 W2
3
0 = r13 W1 + r23 W2

uja solução é W1 = W2 = 1 , r1 = − √13 e r2 = √1 .


3
Assim, a integral exata de qualquer

polinmio de ordem igual ou menor a 3 será obtida om duas avaliações da função, na forma

Z 1    
1 1
p(r) dr = 1 ∗ p − √ +1∗p √ .
−1 3 3

Exemplo: A função f (x) = 3x2 − 6x3 om x ∈ [0, 1] não está denida no intervalo [−1, 1].
Para utilizarmos a quadratura de Gauss devemos primeiro realizar uma mudança de variável, de

tal forma que o intervalo seja orrigido para os limites apropriados. Assim, podemos fa ilmente

veri ar que se o intervalo a ser integrado for [xL , xU ], então

x − xL
r = −1 + 2
xU − xL

e
r(xU − xL ) + (xU + xL )
x=
2
que neste aso permite obter
r+1
x=
2
27.4. INTEGRAÇ O POR QUADRATURA 235

de tal forma que o polinmio pode ser es rito omo

 2  3
r+1 r+1
p(r) = 3 −6 .
2 2

É importante salientar que ao mudarmos a variável, estamos mudando também o diferen ial

da integral. Assim, para onvertermos de dr para dx,

dx
dr ∗ = dx
dr
dx xU −xL
onde
dr
= 2
e este fator deve ser SEMPRE onsiderado quando realizamos a mudança de

variável.

Desta fora, nalmente podemos obter a integral

 !2 !3   !2 !3 
1  − √13 + 1 − √13 + 1 √1
3
+1 √1
3
+1 
3 −6  + 3 −6  = −0.5
2 2 2 2 2 

27.4.2 Integrais duplas e triplas


Os on eitos vistos em uma dimensão podem ser estendidos para integrais em múltiplas di-

mensões. Desta forma, para um polimio denido em duas variáveis r e s, podemos al ular a

integral om
Z 1 Z 1 npg npg
X X
p(r, s)drds = p(ri , sj )Wi Wj , (27.1)
−1 −1 i=1 j=1

e, para um polinmio denido em três variáveis r, s e t, , podemos al ular a integral om

Z 1 Z 1 Z 1 npg npg npg


X XX
p(r, s, t)drdsdt = p(ri , sj , tk )Wi Wj Wk . (27.2)
−1 −1 −1 i=1 j=1 j=1

Uma questão que deve ser observada é no ál ulo da orreção entre a área do domínio

original e do domínio normalizado. De forma análoga ao que foi feito no aso 1D, quando

realizamos uma mudança de variável entre um domínio [xl , xu ] × [yl , yu ] para um problema 2D

[−1, 1] × [−1, 1], devemos multipli ar as integrais obtidas pela quadratura pela orreção |J|,
que é a área de domínio original pelo domínio normalizado (2 × 2). Este ál ulo é trivial se o

domínio original é um retângulo (sem distorções), mas deve ser al ulado om uidado no aso

de domínios distor idos.

Exemplo Seja o polinmio p(x, y) = 20x2 + 10xy − 5y 3 no domínio [0, 5] × [0, 6]. A integral

deste polinmio é −850 e, se zermos as mudanças de variáveis

x
r = −1 + 2 (27.3)
5
y
s = −1 + 2 (27.4)
6
236 CAPÍTULO 27. INTEGRAÇ O NUMÉRICA

tal que o polinmio nas oordenadas r e s pode ser es rito omo

p(r, s) = −135s3 − 405s2 + (75r − 330)s + 125r 2 + 325r + 65. (27.5)

A integral por quadratura, ainda sem onsiderarmos a orreção de área, é obtida por

Z 1 Z 1 
p(r, s) dr ds = −135s31 − 405s21 + (75r1 − 330)s1 + 125r12 + 325r1 + 65 W1 W1 +(27.6)
−1 −1

−135s32 − 405s22 + (75r1 − 330)s2 + 125r12 + 325r1 + 65 W1 W2 +

−135s31 − 405s21 + (75r2 − 330)s1 + 125r22 + 325r2 + 65 W2 W1 +

−135s32 − 405s22 + (75r2 − 330)s2 + 125r22 + 325r2 + 65 W2 W2 ,

om


1
r1 , s1 = √ (27.7)
3
 
1
r2 , s2 = − √ (27.8)
3
W1 = W2 = 1.

Esta integral dá − 340


3
e, se multipli armos este valor pela proporção entre as áreas, obtemos o

resultado orreto
340 6 ∗ 5
− = −850. (27.9)
3 2∗2

27.4.3 Relação entre os pontos de quadratura e os polinmios de Le-


gendre.

Os polinmios de Legendre são obtidos omo solução para a EDO

 
d 2 dPn (x)
(1 − x ) + n(n + 1)Pn (x) = 0
dx dx
para n∈N e x ∈ [−1, 1] e tem a forma

1 dn  2 n

Pn (x) = (x − 1) .
2n n! dxn

Estes polinmios são ortogonais

Z 1
2
Pn (x)Pm (x)dx = δmn
−1 2n + 1
e tem omo raízes as oordenadas dos pontos de quadratura de ordem n.
27.4. INTEGRAÇ O POR QUADRATURA 237

Tarefas:

1) Deduza as quadraturas para n=1 (um ponto de Gauss) e para n = 4. Quais são os graus

dos polinmios que podem ser orretamente integrados por estas quadraturas ?

2) Integre a função f (x) = e3x para x = [2, 5] utilizando todos os métodos de interpolação

apresentados e ompare om a solução analíti a.

3) Obtenha a integral da função do exer í io 2 utilizando Quadratura de Gauss para n = 2,


n=3 e n = 4. Explique o que está a onte endo.
238 CAPÍTULO 27. INTEGRAÇ O NUMÉRICA
Capítulo 28

Transformada Dis reta de Fourier - DFT

A Série de Fourier de uma função ontínua periódi a de período τ, isto é, uma função om a

propriedade f (t) = f (t + τ ), é des rita pela projeção ortogonal da função na base

 [
1 [
B= {cos(kωt)} {sin(kωt)} , k ∈ N
2

onde

τ= .
ω
Se a função for denida no intervalo t ∈ [0, Tf ] s, então a série de Fourier é obtida om


1 X
f (t) ∼
= a0 + {ak cos(kωt) + bk sin(kωt)} (28.1)
2 k=1

sendo que os oe ientes a0 , ak e bk são obtidos por meio das projeções ortogonais

Z τ
< f (t), 1/2 > 2
a0 = = f (t) dt,
< 1/2, 1/2 > τ 0

Z τ
< f (t), cos(kωt) > 2
ak = = f (t) cos(kωt) dt
< cos(kωt), cos(kωt) > τ 0
e Z τ
< f (t), sin(kωt) > 2
bk = = f (t) sin(kωt) dt.
< sin(kωt), sin(kωt) > τ 0

Desta forma, a equação 28.1 permite es rever uma função no tempo, f (t), em termos da

ombinação linear de funções trigonométri as om diferentes frequên ias kω , sendo que os

oe ientes ak e bk permitem asso iar uma magnitude (importân ia) para ada uma destas

omponentes de frequên ia. Por isto, tal operação é dita um mapeamento do domínio da

frequên ia para o domínio do tempo.

A equação 28.1 pode ser es rita em formas alternativas, porém diferentes. Uma forma mais

ompa ta de obter estas mesma des rição é utilizando a identidade de Euler,

eikωt = cos(kωt) + sin(kωt)

239
240 CAPÍTULO 28. TRANSFORMADA DISCRETA DE FOURIER - DFT

tal que a série de Fourier pode ser es rita omo


∼ 1 X ikωt
f (t) = a0 + ck e e,
2 k=1

omo a exponen ial de zero é um, podemos in luir o termo onstante no somatório, bastando

para isto modi ar o valor ini ial de k, tal que

K
X
f (t) ∼
= Fk eiωk t , (28.2)
k=0

onde Fk são as amplitudes e, para simpli armos a notação, denimos ωk omo sendo o k-ésimo

múltiplo de ω. Da mesma forma, devido a impossibilidade de trabalharmos om innitos valores

no somatório, estimamos um valor limite K para o número de termos na aproximação.

É interessante notar que a Equação 28.1 também pode ser es rita em outra forma alternativa,

pois

ak cos(kωt) + bk sin(kωt) = Rk cos(kωt − φk )


p
onde Rk = a2k + b2k é o módulo de uma osenoide defasada em um ângulo φk = atan2(bk /ak ).
Assim, onsiderando este resultado, podemos identi ar que a notação da Eq. 28.2 en apsula

a informação de amplitude e fase de várias osenoides de frequên ia ωk .

As equações obtidas a ima dizem respeito a uma função que varia ontinuamente no tempo

t. No entanto, quando adquirimos um sinal, obtemos um onjunto dis reto de valores ao longo

do tempo. Desta forma, se o tempo for dis retizado em N pa otes, tal que

Tf
∆t = ,
N

onde TF é o tempo nal, podemos es rever que o tempo em uma posição dis reta n é dado por

tn = n∆T,

tal que a equação 28.2 se torna


K
X Tf
fn ∼
= Fk eiωk n N (28.3)
k=0

para n ∈ [0, N − 1]. Se ainda onsiderarmos que ada frequên ia ωk pode ser des rita por


ωk =
τk

e que os períodos asso iados a ada ωk são pa otes dis retos do tempo total, na forma

TF
τk =
k
241

então podemos es rever a equação 28.3 omo

K
X
fn ∼
k
= Fk e2πn N i . (28.4)
k=0

A operação inversa, hamada de Dis rete Fourier Transform - DFT - permite obter os Fk
a partir de um sinal no tempo. Para isto, simplesmente invertemos a relação da Eq. 28.4,

resultando em
N
X −1
k
Fk = fn e−2πn N i (28.5)
n=0

om k ∈ [0, K] e n ∈ [0, N − 1]. Nesta equação, podemos ver que ada Fk está asso iado a

uma omponente de frequên ia ωk = Tf
k [rad/s], tal que esta operação é um mapeamento do

domínio do tempo para o domínio da frequên ia.

Se o sinal fn for real, então Fk é simétri o onjugado, e ne essitamos somente dos primeiros

K/2 pontos para ara terizar o sinal, pois a outra parte do vetor é simétri a (espelhada).

É importante salientar que, mesmo no aso de fn reais, temos que os Fk são omplexos. Isto

é interessante, pois as partes reais e omplexas de Fk ontém as informações sobre amplitude e

fase do sinal fn . Assim, se

Fk = Rk + Ik i

temos que q
Mk = Rk2 + Ik2 (28.6)

é o módulo do sinal na freqên ia ωk e

 
Ik
φk = tan2 . (28.7)
Rk

Exemplo.

Seja um sinal om a forma

f (t) = 10cos(2π10t) + 5sin(2π15t)

ou seja, om um oseno de amplitude 10 em 10Hz e um seno de amplitude 5 em 15Hz . Se

gerarmos o sinal em um intervalo de 2s iremos obter o grá o ilustrado na gura 28.1.

Se o sinal for amostrado om N = 128 pa otes no tempo, então teremos uma resolução de

∆T = 2/128 = 0.0155625s e uma taxa de amostragem de 64Hz. Neste aso, se utilizarmos


K = N − 1 = 127, então obteremos a DFT do sinal om o algoritmo 39. Os grá os 28.2 e
28.3 mostram, respe tivamente, a parte real e a parte imaginária de Fk , para k ∈ [0, K]. Nestes

grá os pode-se avaliar que o resultado é realmente simétri o (espelhado) ao longo do eixo k.

Desta forma, ne essitamos somente dos primeiros K/2 valores, sendo que isto está asso iado

ao fato de não termos utilizado uma extensão periódi a para avaliar o sinal em um intervalo

 onsistente de n ∈ [−N/2, N/2], onforme apresentado no apítulo de séries de Fourier.


242 CAPÍTULO 28. TRANSFORMADA DISCRETA DE FOURIER - DFT

Figura 28.1: Sinal obtido om f (t) = 10cos(2π10t) + 5sin(2π15t) t ∈ [0, 2]s e N = 128.

Outro resultado interessante que vemos nos grá os é o fato das amplitudes serem muito

maiores do que as observadas no sinal original (domínio do tempo). Isto se deve ao fato de

estarmos realizando um somatório (Loop) de dimensão N para ada K, somado ao fato de ter-

mos a questão da simetria. Desta forma, observamos que as amplitudes devem ser es alonadas

(divididas) por um fator de N/2.

Algoritmo 39 Algoritmo utilizado para a obtenção da DFT do sinal.


1 // Alo a o v e t o r de s a i d a
2 F = z e r o s (K+1 ,1);
3 for k=0:K
4 for n=0:N−1
5 F( k+1) = F( k+1) + f ( n+1) ∗ exp ( omplex (0, − 2 ∗ % p i ∗ n ∗ k/N) ) ;
6 end //n
7 end //k

Assim, utilizando somente metade do grá o e es alonando os resultados por N/2 obtemos

os grá os ilustrados nas guras 28.4 e 28.5.

Novamente, de posse das par elas reais e imaginárias obtidas por meio da DFT do sinal,

podemos al ular a magnitude a a fase do sinal, utilizando as equações 28.6 e 28.7, resultando

nos grá os das guras 28.6 e 28.7.

O grá o da parte omplexa, juntamente om o grá o da fase, permite avaliar uma ara -

terísti a interessante da DFT quando apli ada a análise modal. Quando temos um modo de

vibração para ima e um para baixo, podemos interpretar a parte para ima omo sendo

uma omponente de um osseno e a para baixo omo a omponente de um seno. Assim, ada
243

Figura 28.2: Parte real da DFT obtida no algoritmo 39. O eixo horizontal ontém as frequên ias
em Hz orrespondente a ada posição k.

Figura 28.3: Parte imaginária da DFT obtida no algoritmo 39. O eixo horizontal ontém as
frequên ias em Hz orrespondente a ada posição k.
244 CAPÍTULO 28. TRANSFORMADA DISCRETA DE FOURIER - DFT

Figura 28.4: Parte real da DFT obtida no algoritmo 39, onsiderando o es alonamento por N/2
e somente a metade do eixo das frequên ias.

Figura 28.5: Parte real da DFT obtida no algoritmo 39, onsiderando o es alonamento por N/2
e somente a metade do eixo das frequên ias.
245

Figura 28.6: Módulo da DFT obtida no algoritmo 39, onsiderando o es alonamento por N/2
e somente a metade do eixo das frequên ias.

Figura 28.7: Fase da DFT obtida no algoritmo 39, onsiderando somente a metade do eixo das
frequên ias.
246 CAPÍTULO 28. TRANSFORMADA DISCRETA DE FOURIER - DFT

pi o terá a parte omplexa om sinais diferentes.

É interessante notar que, de posse do vetor F, que ontém os valores omplexos da DFT

do sinal original, é possível realizar a operação direta, isto é, a Série de Fourier, para obtermos

o sinal original. Para isto, utilizamos o algoritmo 40.

Algoritmo 40 Algoritmo para o mapeamento do domínio das frequên ias para o domínio do
tempo.

1 // Alo a o v e t o r de s a i d a
2 f = z e r o s (N, 1 )
3 for n=0:N−1
4 for k=0:K
5 f ( n+1) = f ( n+1) + F( k+1) ∗ exp ( omplex (0 ,2 ∗ % p i ∗ n ∗ k/N) ) ;
6 end //n
7 end //k

28.1 Inuên ia da taxa de amostragem - aliasing


O sinal do exemplo anterior foi gerado om um osseno de frequên ia 10Hz e um seno de

frequên ia 15Hz. Como o número de pontos utilizados para amostrar o tempo foi de 128
pa otes em 2s, utilizamos uma taxa de amostragem de 64 pa otes por segundo. Esta taxa é

4.26 maior do que a maior frequên ia do sinal.

Para ilustrarmos o quanto a taxa de aquisição do sinal é importante, vamos utilizar uma

taxa de 16 pa otes por segundo, tal que N = 32. Neste aso, o sinal tem a forma ilustrada no

grá o da gura 28.8, que quando omparado om o (mesmo) sinal obtido om N = 128, gura
28.1, ilustra a falta de informações sobre o fenmeno. Se apli armos a DFT neste sinal, iremos

obter, por exemplo, o grá o de magnitudes ilustrado na gura 28.9, que mostra laramente que

a faixa de frequên ias que a DFT onsegue al ular é menor do que as frequên ias existentes

no sinal. O que está sendo al ulado é uma resposta  tí ia, ausada pela falta de informação

sobre o sinal verdadeiro.

a taxa de amos-
Desta forma, podemos denir a famosa Regra de Nyquist, que diz que

tragem do sinal deve ser no mínimo maior do que duas vezes a maior frequên ia
que ser quer obter. Novamente, podemos utilizar esta regra e o onhe imento sobre o nosso
exemplo para denir que omo a maior frequên ia é de 15Hz e estamos amostrando um sinal de

2s, então N = 15 ∗ 2 ∗ 2 deve ser su iente. Utilizando a potên ia de 2 mais próxima, N = 64,
obtemos o sinal dis reto ilustrado na gura. A gura mostra que já é possível identi ar as

ara terísti as de mais alta frequên ia do sinal. No entanto, omo a faixa de frequên ia que

estamos aptos a des rever é de 16Hz , pois 64 pacotes/2 segundos = 32, e omo utilizamos
somente metade do espe tro, fmax = 32/2 = 16Hz , não iremos onseguir des rever as urvas
em todos os detalhes, omo ilustrado na gura 28.11.

A gura 28.12, retirada de http://www.dspguide. om/ h3/2.htm ilustra este omportamento


de forma muito didáti a. Como ilustrado na gura, uma taxa de amostragem equivo ada pode,
28.1. INFLUÊNCIA DA TAXA DE AMOSTRAGEM - ALIASING 247

Figura 28.8: Sinal f (t) = 10cos(2π10t) + 5sin(2π15t) t ∈ [0, 2]s e N = 32.

Figura 28.9: Módulo da DFT obtida utilizando o sinal amostrado om N = 32.


248 CAPÍTULO 28. TRANSFORMADA DISCRETA DE FOURIER - DFT

Figura 28.10: Sinal obtido om f (t) = 10cos(2π10t) + 5sin(2π15t) t ∈ [0, 2]s e N = 64.

Figura 28.11: Módulo da DFT obtida utilizando o sinal amostrado om N = 64.


28.2. DFT COMO UM FILTRO DIGITAL - SPECTRAL LEAKAGE 249

in lusive, des rever um sinal que não tem qualquer relação om o sinal que está sendo medido

(d).

Figura 28.12: Expli ação sobre o aliasing. Retirado de http://www.dspguide. om/ h3/2.htm.

28.2 DFT omo um Filtro Digital - Spe tral Leakage

Da teoria apresentada no omeço deste apítulo,  a laro que a DFT onsegue des rever o

espe tro de frequên ias de um sinal no tempo somente em unidades dis retas de frequên ia

wk = Tf
k. Assim, se analizarmos um ou mais períodos de um sinal periódi o om período

múltiplo de N, iremos obter todas as frequên ias orretamente. No entanto, esta situação é

muito espe í a e esperamos que existam frequên ias ωj diferentes das frequên ias dis retas

ωk em um sinal qualquer.

Para entendermos o que o orre neste aso, podemos interpretar a DFT de forma semelhante

ao que zemos na dedução da série de Fourier, onde uma função no tempo,fn , é projetada em

uma base sele ionada. Neste aso, omo estamos trabalhando no domínio das frequên ias,
250 CAPÍTULO 28. TRANSFORMADA DISCRETA DE FOURIER - DFT

utilizamos a base

Bω = {eiωk nTf }, n ∈ [0, N − 1],

que realmente não tem o expoente negativo, omo veremos logo abaixo.

Assim, o oe iente Fk asso iado a uma dada frequên ia angular ωk do sinal é dado por um

somatório
N −1 N −1
X < fn , eiωk nTf > iωk nTf X
Fk = e = Wk eiωk nTf (28.8)
n=0
< eiωk nTf , eiωk nTf > n=0

onde

fn = eiωj nTf

é um sinal senoidal om amplitude unitária e uma frequên ia angular ωj espe í a (ou seja,

um sinal bem simples para que nós possamos estudar as propriedades desta transformação) e

Wk é a amplitude de ada projeção na direção de ada base. Assim, omo visto anteriormente,
Fk irá onter as amplitudes do sinal em ada frequên ia, que neste aso deveria ser nulo para
toda a frequên ia ωk 6= ωj e 1 (já que a amplitude do sinal onsiderado é unitária) se ωk = ωj .
Desenvolvendo os Wk
PN −1
n=0 fn e−iωk nTf
Wk =
N
onde e−iωk nTf é o omplexo onjugado da base (mantém a parte real igual mas muda o sinal da

parte omplexa). Assim, desenvolvendo ainda mais Wk obtemos, para o termo

N
X −1 N
X −1 N
X −1
−iωk nTf iωj nTf −iωk nTf
fn e = fn e e = fn ei(ωj −ωk )nTf
n=0 n=0 n=0

e esta série tem omo resultado

N −1
X 1 − ei(ωj −ωk )N Tf
fn ei(ωj −ωk )nTf =
n=0
1 − ei(ωj −ωk )Tf

que pode ser desenvolvida em termos de funções trigonométri as, resultando em

 
T
1−e i(ωj −ωk )N Tf T sin (ωj − ωk ) N 2f
i(ωj −ωk )(N −1) 2f
= e   .
1 − ei(ωj −ωk )Tf Tf
sin (ωj − ωk ) 2

Assim,  
T
1 T sin (ωj − ωk ) N 2f
i(ωj −ωk )(N −1) 2f
Wk = e  
N T
sin (ωj − ωk ) 2f

assumindo um valor unitário quando ωj = ωk e zero para multiplos inteiros de ωk . No entanto,

se ωj não for um múltiplo inteiro de ωk , observamos que Wk é diferente de zero, fato este que

faz om que seja obtida uma amplitude Fk não nula para uma frequên ia que não está sendo

amostrada para o sinal !


28.2. DFT COMO UM FILTRO DIGITAL - SPECTRAL LEAKAGE 251

Assim, é omum na literatura apresentar o DFT omo um ltro digital para ada k, pois
a amplitude Wk é propor ional, em módulo, a

 
sin (ω − ω ) N Tf
1 j k 2
|Wk | =  
N sin (ω − ω ) Tf

j k 2

que é a saída do ltro, que pode ser visualizada na gura 28.13. Conforme pode ser visto na

gura, o padrão geométri o da saída do ltro é em lobulos, que são os saltos no grá o. O

maior dos saltos é o lóbulo prin ipal e os demais são os lóbulos laterais.
abs(sin(16*(3.141592653589793-w)))/(32*abs(sin((3.141592653589793-w)/2)))

0.9

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0
0 1 2 3 4 5 6
w

Figura 28.13: Amplitude de saída do ltro digital asso iado a projeção de uma senoide de
frequên ia wj = π [rad/s℄ para ωk ∈ [0, 2π] om ∆ωk ∼
= 0.1963[rad/s℄ (Tempo nal de 1s e
N = 32).

Como pode ser visto na gura, a ampli ação do ltro é zero nos múltiplos inteiros do

intervalo de frequên ia e diferente de zero para outros valores de frequên ia, omo dis utido an-

teriormente. Novamente, omo esperado, observamos que a amplitude é unitária na frequên ia

ωj . Outro fato intressante, é que o aumento do N não modi a este omportamento.

Uma interpretação intressante deste fenmeno é que estamos trun ando os sinais om

frequên ias diferentes das ωk ao adquirirmos o sinal em um tempo diferente de um múlti-

plo inteiro destas frequên ias. Este orte faz om que a resposta seja a observada no grá o

da gura 28.13. O interessante desta observação é que é justamente esta a motivação para

denirmos as janelas, que são tratamentos matemáti os que permitem minimizar este efeito.

28.2.1 Janelamento
Uma janela ( window ) é uma função que zera um sinal que se en ontra fora de uma determinada
faixa de valores de tempo. A janela mais simples que existe é a janela retangular, ujo efeito

é ilustrado na gura 28.14, onde as omponentes do osseno que se en ontram fora da faixa

t ∈ [10, 90]s são zeradas. Isto faz om que seja possível trun ar o sinal em um número xo

de pa otes, N, que seja equivalente a um múltiplo das frequên ias que se quer determinar,
252 CAPÍTULO 28. TRANSFORMADA DISCRETA DE FOURIER - DFT

minimizando assim o efeito do vazamento de frequên ias dis utido anteriormente.

Figura 28.14: Sinal (em verde ) e Janela retangular (em azul) na esquerda e sobreposção do
sinal om a janela (direita).

No aso ilustrado na gura, zemos justamente o ontrário, de modo que a janela tran a

o sinal em um múltiplo não inteiro da frequên ia do osseno. Assim, se zermos uma DFT

do sinal do grá o da direita na gura 28.14, iremos obter o módulo Mk ilustrado no grá o

da gura 28.15, que ilustra laramente o fenmeno de vazamento asso iado ao trun amento do

sinal em um número não inteiro da frequên ia (ω = π [rad/s℄). Todos os pi os para ω 6= π são

arti iais, de orrentes dos lóbulos laterais.

Figura 28.15: DFT do sinal obtido om o osseno e a janela retangular, gura 28.14

Existem diversas opções de janelas, ada uma om suas ara terísti as. Suas apli ações e

deduções saem do es opo deste texo, sendo que o leitor interessado deve pro urar a literatura

espe ializada.
Parte III

Equações Diferen iais

253
Capítulo 29

Equações diferen iais

29.1 Classi ação e Exemplos


Equação diferen ial é uma equação que apresenta derivadas ou diferen iais de uma função

des onhe ida ( hamada de variável dependende). Se a função a determinar depender de apenas

uma variável independente, dizemos que a equação diferen ial é ordinária (EDO), podendo

ser es rita na forma

′ ′
F (x, y(x), y (x), ....., y n (x)) = 0

om x sendo a variável independente e y(x) a variável dependente. Se a função a determinar

depender de mais de uma variável independente a equação diferen ial é dita par ial (EDP),
podendo ser es rita na forma


F (x, y, z, w(x, y, z), w x (x, y, z), .....) = 0

onde x, y e z são variáveis independentes e w(x, y, z) é a variável dependente.

Quanto a lassi ação, dizemos que a ordem de uma equação diferen ial está asso iada a
mais alta ordem de diferen iação que existe na equação diferen ial. Assim, em ordem res ente:

dy(x)
= −a
dx
d2 y(x) dy(x)
+ = y(x)
dx2 dx
temos uma EDO de primeira ordem e uma EDO de segunda ordem.

O grau de uma equação diferen ial é o expoente a qual está elevado a derivada de maior

ordem da equação diferen ial. Assim, na equação

 2
d2 y(x) dy(x)
+ = y(x)
dx2 dx
é de primeiro grau, pois a maior derivada (ordem) está sendo elevada a 1. Desta forma, a

255
256 CAPÍTULO 29. EQUAÇÕES DIFERENCIAIS

equação
 3  2
d2 y(x) dy(x)
+ = y(x)
dx2 dx
é de ter eiro grau.

Uma equação diferen ial é dita linear se tem a forma


dn f (x) dn−1 f (x)
Cn (x) + C n−1 (x) + . . . + C0 (x)f (x) = g(x)
dxn dxn−1
onde os oe ientes são funções lineares de x e a equação diferen ial é de primeiro grau. Se

g(x) for nulo, a equação é dita homogênea linear.


Um exemplo muito simples de equação diferen ial é a ondução de alor unidimensional.

k , perfeitamente isolada ao longo do seu


Seja uma barra de material om ondutividade térmi a

omprimento e submetida a duas temperaturas impostas em suas extremidades: T (x = 0) = T0

e T (x = L) = TL .

Figura 29.1: Condução de alor em uma barra

Se extrairmos um elemento diferen ial dx[m] ao longo do omprimento, podemos realizar

um balanço de uxo de alor. Para isto, iremos onsiderar o uxo de alor que entra no volume

diferen ial, qx [J/m2 ] e o uxo de alor que sai, qx + dqx . O termo dqx é onsiderado para

levarmos em onsideração os a rés imos asso iados ao termo de geração volumétri a de alor,

Q[J/m3 ] que podem estar presentes no interior do orpo. Assim, no volume, teremos

−qx dA + (qx + dqx )dA + QdV = 0

omo ondição para equilíbrio de uxos (aqui foi adotada a notação de sinais usual no teorema

da divergên ia, onde o que "entra" no volume é negativo). Nesta equação temos que dA = dydz
e dV = dxdydz . Simpli ando a equação e dividindo todos os termos restantes por dV obtemos

dqx
+ Q = 0.
dx

Se onsiderarmos, por simpli idade, que o termo de geração de alor é nulo (vamos deixar

isto para a dis iplina de transferên ia de alor), obtemos uma equação diferen ial ordinária
29.1. CLASSIFICAÇ O E EXEMPLOS 257

(variável dependente é x), de primeira ordem e de primeiro grau, om variável dependete qx (x).
Se quisermos obter o ampo de temperaturas, T (x), devemos modi ar esta equação, inserindo

a relação entre o uxo de alor e a temperatura. Utilizando a lei de Fourier,

dT (x)
qx = −k
dx
obtemos

 
d dT (x)
−k =0
dx dx
que é uma EDO de segunda ordem e de primeiro grau. A lei de Fourier, que rela iona um uxo

a outra grandeza, por meio de uma ou mais propriedades do material, é omumente hamada

de relação onstitutiva.
Como k é onstante, podemos solu ionar esta equação por dupla integração, de tal forma

que a solução será dada por

T (x) = C1 x + C2

om C1 e C2 onstantes. Estas onstantes podem assumir valores arbitrários, denindo assim

um número innito de retas que satisfazem a equação diferen ial. Para representarmos um

omportamento espe í o, no aso T (x = 0) = T 0 e T (x = L) = TL , devemos onsiderar estas

informações na obtenção das onstantes, parti ularizando assim a solução. Estas informações

são hamadas de ondições de ontorno, podendo ser:

• De Diri hlet (também onhe idas omo essen iais ou de primeiro tipo), quando tra-
zem informações sobre o valor da função em pontos do ontorno;

• De Neumman (também onhe idas omo naturais ou de segundo tipo), quando tra-
zem informações sobre a derivada da função em pontos do ontorno;

• De Robin (também onhe idas omo de ter eiro tipo) quando são expressas omo uma
ombinação linear de valores da função em pontos de ontorno om valores da derivada

da função nestes mesmos pontos.

No nosso exemplo, dadas as informações sobre as temperaturas no ontorno do domínio 1D

(extremos do intervalo), podemos identi ar duas ondições de ontorno essen iais: T (0) = T0
e T (L) = TL , resultando em

T (0) = T0 = C1 + C2 ∗ 0

T (L) = TL = C1 + C2 ∗ L

tal que C1 = T0 e C2 = TL −T0


L
e, para estas ondições de ontorno T (x) = T0 + TLL−T0 x.
Caso as informações sobre o ontorno fossem diferentes, não iriamos modi ar a resposta da

equação geral de nossa EDO. Supondo, por exemplo, que qx (0) = −q0 (entrando) e T (L) = T1 ,
258 CAPÍTULO 29. EQUAÇÕES DIFERENCIAIS

então teremos uma ondição de ontorno natural em x = 0 e uma ondição essen ial em x = L.
Utilizando a lei de Fourier, temos que

dT (x)
−k = −q0
dx
tal que, utilizando a solução geral T (x) = C1 + C2 x, obtemos

q0
kC2 = q0 → C2 =
k
q0 L
e, om a ondição de ontorno essen ial em x=L obtemos C1 = T1 − k
, tal que a solução

parti ular se torna

q0 L q0
T (x) = T1 − + x.
k k
É interessante notar que uma mesma equação diferen ial pode ser utilizada para modelar

problemas físi os ompletamente diferentes. Caso o problema em questão seja o de obter o

deslo amento axial de uma barra de área A e módulo de elasti idade longitudinal E onstantes,

de a ordo om a gura abaixo. Neste aso, podemos realizar o balanço diferen ial dos uxos

(tensões normais) no ontorno do elemento diferen ial (aqui iremos utilizar a notação artesiana,

om positivo na direção de x e negativo se oposto), tal que o somatório de forças em x resulta

em

Figura 29.2: Barra engastada submetida a tração no ontorno livre.

dσxx
= 0.
dx
A relação onstitutiva é dada pela famosa lei de Hooke

du(x)
σxx = Eεx x = E
dx
permitindo obter uma equação diferen ial de segunda ordem em termos dos deslo amentos

axiais, u(x)
29.1. CLASSIFICAÇ O E EXEMPLOS 259

 
d du(x)
E = 0,
dx dx
om solução geral u(x) = C1 + C2 x ( omparar om a solução da ondução de alor). No

problema foram informadas duas ondições de ontorno: uma essen ial (deslo amento zero em

x = 0) e uma natural (tração imposta em x = L. Com a primeira informação obtemos C1 = 0


e, om a segunda

du(L) q0
E = q0 → C2 =
dx E
tal que a solução será

q0
u(x) = x
E
ou, onsiderando que a tração no ontorno seja apli ada de forma homogênea sobre a área A,
F
então q0 = A
, tal que
F
u(x) = x.
EA
Um fato interessante é que um mesmo fenmeno pode ser modelado por equações diferen iais

ordinárias ou par iais, dependendo do modelo. A ondução de alor 1D, estudada a pou o,

quando estudada em 2 ou 3 dimensões gera uma equação diferen ial par ial.

Seja um elemento diferen ial bidimensional para o problema de ondução de alor

Figura 29.3: Elemento innitesimal 2D para ondução de alor.

então o balanço permite obter

−qx dA + (qx + dqx )dA − qy dA + (qy + dqy )dA + QdV = 0

tal que, uma vez simpli ado e normalizado pelo diferen ial de volume, resulta em

dqx dqy
+ + Q = 0,
dx dy
que é o divergente do vetor uxo (div q + Q = 0). Introduzindo a relação onstitutiva bidi-

mensional para um material isotrópi o

!( )
dT (x,y)
k 0 dx
q = K∇T = dT (x,y)
0 k dy
260 CAPÍTULO 29. EQUAÇÕES DIFERENCIAIS

obtém-se nalmente uma equação diferen ial par ial, na forma

   
d dT (x, y) d dT (x, y)
k + k + Q(x, y) = 0
dx dx dy dy
ou

∇2 T (x, y) = −Q(x, y)

onde ∇2 é onhe ido omo operador de Lapla e (Lapla iano) e a equação re ebe o nome de

equação de Poisson. Caso o termo fonte seja nulo, então hamamos a equação de EDP de

Lapla e.

29.2 Equações Diferen iais omo Operadores


Conforme visto nas seções anteriores, podemos interpretar uma equação diferen ial omo sendo

a apli ação de um operador (Linear ou não), sobre uma função, mapeando esta para um outro

espaço vetorial. Assim, a equação diferen ial

∇2 T (x, y) = −Q(x, y)

pode ser intepretada omo a apli ação do operador ∇2 sobre o ampo es alar T (x, y), mapeando
para o ampo es alar −Q(x, y). Assim, podemos utilizar toda a teoria vista na primeira parte da

matéria para estudar as propriedades de uma equação diferen ial, omo se esta fosse a simples

apli ação de um operador. Em espe ial, aso os espaços vetoriais sejam nito dimensionais,

então o operador poderá ser es rito na forma matri ial.

29.3 Equações Diferen iais Par iais Lineares


Uma EDP linear tem a forma geral

Afxx + 2Bfxy + Cfyy + Dfx + Efy + F f + G = 0

onde fxx denota derivada segunda em relação a x, por exemplo. Os oe ientes A, B, C, D, E, F
e G dependem apenas das variáveis independentes, tendo omo requisito a ondição

A2 + B 2 + C 2 6= 0.

Quanto a lassi ação, as EDP lineares podem ser lassi adas omo:

• Hiperbóli as se ∆>0 (pois a expressão é a mesma de uma hipérbole),

• Elípti as se ∆<0 (pois a expressão é a mesma de uma elipse),

• Parabóli as se ∆=0 (pois a expressão é a mesma de uma parábola),

onde ∆ = B 2 − 4AC é o dis riminante da EDP. Alguns exemplos:


29.3. EQUAÇÕES DIFERENCIAIS PARCIAIS LINEARES 261

• fxx − fyy = 0 é hiperbóli a;

• fxx + fyy = 0 é Elípti a;

• fxx − fy = 0 é parabóli a;

• Equações de Lapla e e de Poisson são elípti as;

• Equação da onda é hiperbóli a;

• Equação de Fourier é parabóli a;

É importante salientar que a lassi ação da EDP permite a avaliação de quais métodos de

solução poderão ser empregados para a sua orreta solução numéri a. Ainda mais interessante,

é a interpretação físi a asso iada a esta lassi ação, pois:

• Hiperbóli a: Está asso iada a leis de onservação, omo no aso do teorema da divergên-

ia. Neste tipo de equação diferen ial, a solução se omporta omo a propagação de uma

onda, ou seja, se apli armos uma perturbação nas ondições de ontorno ou nas ondições

ini iais, ada ponto do domínio demora um erto tempo para sentir o efeito.

• Elípti a: Suas soluções não podem ter des ontinuidades nas derivadas. Diferentemente

das equações hiperbóli as, não existe uma propagação de informação ao longo do domínio,

tal que este tipo de equação é adequado para des rever problemas que não dependam do

tempo.

• Parabóli a: Está asso iada a problemas uja solução se omporta de forma semelhante a

difusão de alor em um sólido, ao longo do tempo.


262 CAPÍTULO 29. EQUAÇÕES DIFERENCIAIS
Capítulo 30

Método dos Resíduos Ponderados

Considere uma equação diferen ial

F (x, y(x), yx (x), ..., y(n) (x)) = 0

om x ∈ [0, L]. Sabemos que a solução desta equação diferen ial é uma função (variável
n
dependente) y(x), que deve ser n-diferen iável, ou seja, perten ente ao onjunto de funções C .

Ainda, y(x) deve satistazer a equação diferen ial em todos os pontos do domínio (∀x ∈ [0, L]).
Supondo, por um momento, que tenhamos uma função ỹ(x) que satisfaça os requisitos de

diferen iabilidade e as ondições de ontorno, mas que não solu ione a EDO em todos os pontos.
Neste aso, a introdução de ỹ(x) na equação diferen ial irá resultar em

F (x, ỹ(x), ỹx (x), ..., ỹ(n) (x)) = r(x)

onde r(x) é onhe ido omo resíduo. Obviamente, se ỹ(x) = y(x) =⇒ r(x) = 0. Assim, uma

boa solução será aquela que minimiza o resíduo, sendo justamente esta estratégia utilizada nos

métodos que serão abordados aqui.

A satisfação da equação diferen ial em todos os pontos, oforme visto a ima, torna o pro e-

dimento de solução bastante ompli ado. Assim, ao invés do requisito forte ou ponto a ponto,
podemos bus ar a solução fra a (no sentido de onvergên ia) por meio de um fun ional linear

< r(x), w(x) >= 0

onde w(x) é onhe ida omo função teste (ou peso). Esta expressão nada mais é, no espaço das

funções, do que

Z 1
r(x)w(x) dx = 0
0

que pode ser interpretada omo uma média ponderada (por w) da função resíduo ao longo

do domínio de solução, dando origem ao nome resíduos ponderados. Certamente, podemos

263
264 CAPÍTULO 30. MÉTODO DOS RESÍDUOS PONDERADOS

realizar uma interpretação mais geométri a, uma vez que sabemos que a ondição

< r(x), w(x) >= 0

impli a em ortogonalidade entre a função resíduo e a função teste. Assim, podemos dizer que

estamos ortogonalizando o resíduo em relação a um espaço, denido pelas funções teste.

Exemplo: Vamos onsiderar a equação diferen ial

d2 T (x)
= 1, x ∈ (0, 1)
dx2
om

T = 0 em x = 0 e em x = 1

om solução exata

x x2
T (x) = − + .
2 2
Supondo que seja es olhida uma função

T̃ (x) = a0 sin(π ∗ x)

para aproximarmos a equação diferen ial, então veri amos que esta satisfaz o grau de diferen-

iabilidade ne essária e satisfaz as ondições de ontorno. O resíduo será

d2 T̃ (x)
r(x) = −1
dx2
tal que sua ortogonalização em relação a uma função peso w(x) resulta em

Z !
1
d2 T̃ (x)
− 1 w(x) dx = 0
0 dx2

ou, desenvolvendo a derivada e agrupando os termos,

Z 1 Z 1
2
−π a0 sin(πx)w(x) dx = w(x) dx.
0 0

Neste ponto  a laro que a es olha de w(x) irá denir a qualidade da aproximação. De

fato, diferentes es olhas para w(x) levam a diferentes métodos de solução. Es olhendo o mesmo

espaço que foi utilizado para a aproximação de T (x) faz om que

w(x) = b0 sin(πx)

tal que

Z 1 Z 1
2
−π a0 sin(πx)b0 sin(πx) dx = b0 sin(πx) dx.
0 0
265

resultando em

π2 2 4
−a0 b0 = b0 =⇒ a0 = − 3
2 π π
tal que a melhor aproximação ( onsiderando estes espaços) será:

4
T̃ (x) = − sin(πx).
π3
A gura 30.1 mostra a solução exata sobreposta a aproximação obtida, bem omo o om-

portamento do resíduo.

Figura 30.1: Aproximação obtida para w(x) = b0 sin(πx) (topo) e função resíduo (embaixo)

É interessante notar que podemos lançar mão de outas funções de ponderação. Por exemplo,

podemos utilizar

w(x) = b0 δ(x − 0.5)

que é um delta de dira entrado em x = 0, 5. A expressão se torna

Z 1 Z 1
2
−π a0 sin(πx)b0 δ(x − 0.5) dx = b0 δ(x − 0.5) dx.
0 0
266 CAPÍTULO 30. MÉTODO DOS RESÍDUOS PONDERADOS

tal que

π  1
2
−a0 b0 π sin = b0 =⇒ a0 = −
2 π2 sin(0.5π)
resultando em

1
T̃δ (x) = − sin(πx),
π2 sin(0.5π)
om o grá o ilustrado na gura 30.2.

Figura 30.2: Aproximação obtida para w(x) = b0 δ(x − 0.5) (topo) e função resíduo (embaixo)

Por m, podemos onsiderar w(x) = H(0) − H(1), orrespondendo a função degrau (Hea-

viside) ativa somente no domínio, tal que

Z 1 Z 1
2
−π a0 sin(πx)b0 dx = b0 dx.
0 0

resultando em

1
−2πa0 b0 = b0 =⇒ a0 = −

267

tal que

1
T̃H (x) = − sin(πx),

om o omportamento ilustrado no grá o da gura 30.3.

Figura 30.3: Aproximação obtida para w(x) = b0 H(0) (topo) e função resíduo (embaixo)

É importante notarmos que os uxos (ou seja, a derivada de T) não apresentam a mesma

qualidade de aproximação. O uxo analíti o é obtido om

dT (x)
qanalitico = = x − 0.5
dx
e os demais uxos são

4 cos (π x)
qT̃ = − ,
π2

cos (π x)
qTδ = − ,
π sin (0.5 π)
268 CAPÍTULO 30. MÉTODO DOS RESÍDUOS PONDERADOS

cos (π x)
qTH = − .
2
A gura 30.4 apresenta o omportamento dos uxos ao longo do omprimento, para todos

os asos estudados aqui.

Figura 30.4: Fluxos obtidos om as diferentes estratégias.

Para ilustrar omo este pro edimento pode ser estendido para bases de maior ardinalidade,

vamos onsiderar uma aproximação na forma

n
X
T̃ (x) = ak sin(kπx)
k=1

onde  a laro que esta ombinação linear satistaz as ondições de ontorno e os requisitos de

ontinuidade. Para n = 3, por exemplo, temos

T̃ (x) = a1 sin(πx) + a2 sin(2πx) + a3 sin(3πx)

e, se utilizarmos omo função peso uma função do mesmo espaço, então

w(x) = b1 sin(πx) + b2 sin(2πx) + b3 sin(3πx)

resultando em

d2 T̃ (x)
r(x) = −1
dx2
tal que sua ortogonalização em relação a uma função peso w(x) resulta em
269

Z !
1
d2 T̃ (x)
− 1 w(x) dx = 0
0 dx2

ou, após alguns ál ulos

9 π 2 a3 b3 + 4 π 2 a2 b2 + π 2 a1 b1 2 b3 + 6 b1
− =
2 3π
tal que, agrupando por bi , obtemos:

π 2 a1 2
− =
2 π
−2 π 2 a2 = 0
9 π 2 a3 2
− =
2 3π
resultando em a1 = − π43 , a2 = 0 e a3 = − 274π3 tal que

4 4
T̃ (x) = − 3
sin(πx) − sin(3πx)
π 27 π 3

om o omportamento ilustrado na gura 30.5

Figura 30.5: Solução om 3 termos

Com esta solução melhorada ou renada, observamos uma melhora signi ativa no ál ulo
de uxos, onforme ilustrado na gura 30.6.
270 CAPÍTULO 30. MÉTODO DOS RESÍDUOS PONDERADOS

Figura 30.6: Fluxo da solução om 3 termos.

Tarefa:

Solu ione o problema dis utido a ima, onsiderando que a função T (x) é aproximada por um

polinmio de segunda ordem, para as seguintes funções peso:

• w(x) no mesmo espaço de T (x) (mesma base);

• w(x) omo uma ombinação linear de 3 funções δs om entros distintos (utilize pontos

no domínio, igualmente espaçados);

• w(x) omo uma ombinação linear de 3 Heavisides. Di a: H =1 em ada um dos três

intervalos, e zero nos demais.

Agora ompare as soluções obtidas om a solução analíti a e faça uma análise dos resultados.

Continuando, podemos veri ar após o extenso exemplo dis utido a ima que o método

depende de duas es olhas importantes:

• Da lasse de funções utilizadas para des rever a variável dependente da equação diferen ial

(aproximação);

• Da lasse de funçãoes utilizadas para a função teste.

Em espe ial, tivemos o uidado de sele ionar uma família de funções T (x) que:

• Satiszesse as ondições de ontorno;

2
• Perten esse ao espaço das funções 2× diferen iáveis (C ).

A primeira ondição é fundamental, embora possamos trabalhar um pou o mais a abordagem

utilizada no primeiro exemplo, de modo a relaxar ainda mais os requisitos de solução.


271

Em espe ial, vamos onsiderar novamente a nossa equação diferen ial

d2 T (x)
= 1, x ∈ (0, 1)
dx2
e a ortogonalização de seu resíduo

Z !
1
d2 T̃ (x)
− 1 w(x) dx = 0.
0 dx2

Reagrupando a equação, obtemos

Z 1 Z 1
d2 T̃ (x)
w(x)dx = w(x)dx
0 dx2 0

e, apli ando integração por partes no lado esquerdo, obtemos


Z 1 Z 1
dT̃ dT̃ (x) dw(x)
w(x)n|10 − = w(x)dx
dx 0 dx dx 0

de onde podemos identi ar os seguintes resultados:

• A integral de domínio agora ontém derivadas de primeira ordem, tanto de T̃ (x) quanto

de w(x);

• Surgiram termos de ontorno ( omo nosso exemplo é 1D , o ontorno onsiste em x=0 e

x= 1), dependentes dos valores do uxo dT̃dx(x) e de w(x) nestas posições.

O primeiro item indi a que graças a este simples pro edimento de integração por partes

podemos pro urar a solução aproximada, T̃ (x) em um espaço menos restrito do que C2 (neste
1
aso, funções da lasse C satisfazem a relação).

O segundo item também é interessante, pois pelo pro edimento de integração por partes

obtivemos naturalmente o uxo no ontorno. Por este motivo, estas ondições de ontorno são

hamadas de "naturais". Ainda, se assumirmos que w(x) tem que satisfazer as ondições de

ontorno essen iais de T̃ (x), então veri amos que sempre saberemos ao menos um dos valores

em x=0 ou em x=1 ( ontorno).

Como exemplo, vamos onsiderar a nossa equação diferen ial om as seguintes ondições de

ontorno:

dT (1)
T (0) = 0 e =2
dx
e vamos pro urar a nossa solução em um espaço de polinmios de segundo grau, ie, om base

B = 1, x, x2 . De modo a satisfazer a ondição de ontorno essen ial em x = 0 podemos trabalhar


om equações do tipo

T̃ (x) = a1 x + a2 x2
272 CAPÍTULO 30. MÉTODO DOS RESÍDUOS PONDERADOS

e, omo função teste, podemos utilizar w(x) des rita no mesmo espaço, ou seja

w(x) = b1 x + b2 x2 .

Assim, inserindo estas informações em

Z 1 Z 1
dT̃ dT̃ (x) dw(x)
w(x)n|10 − = w(x)dx
dx 0 dx dx 0

obtemos, para a integral de domínio no lado esquerdo,

Z 1
dT̃ (x) dw(x) (4 a2 + 3 a1 ) b2 + (3 a2 + 3 a1 ) b1
=
0 dx dx 3
para a integral de domínio no lado direito

Z 1
2 b2 + 3 b1
w(x)dx =
0 6
para o ontorno em x=0

(2a2 x + a1 ) ∗ 0

e, para o ontorno em x = 1,


2 ∗ b1 ∗ 1 + b2 12 .

Assim, agrupando todos os termos, obtemos

   (4 a2 + 3 a1 ) b2 + (3 a2 + 3 a1 ) b1 2 b2 + 3 b1
2 ∗ b1 ∗ 1 + b2 12 − 0 − =
3 6
de tal forma que, agrupando por termos de b em omum, obtemos

3 a2 + 3 a1 1
b1 ) 2 − =
3 2
4 a2 + 3 a1 1
b2 ) 2 − =
3 3
e, organizando na forma Ax = b, obtemos

!( ) ( )
9
3 3 a1 2
=
3 4 a2 5
tal que a1 = 1 e a2 = 0, 5. Com isto, obtemos uma solução aproximada

1
T̃ (x) = x + x2
2
om
dT̃ (x)
= 1 + x.
dx
273

Que é a solução exata para o problema. Poderíamos ter utilizado um espaço mais simples

(graças a integração por partes), de tal forma que

T̃ (x) = a1 ∗ x
3
e, neste aso, a1 = 2
, que é a melhor aproximação possível neste espaço.

O poder da integação por partes  a mais evidente no aso de uma equação de quarta

ordem, omo no aso da famosa equação da linha elásti a de uma viga longa. Esta equação é

dada por

d4 v(x)
= q(x) EI
dx4
onde E é o módulo de elasti idade longitudinal, I é o momento de inér ia da seção transversal,

q(x) é um arregamento distribuído e v(x) é o deslo amento transversal ao longo do ompri-


mento. Outras medidas que estão asso iadas a esta equação diferen ial são a rotação da linha

elásti a

dv(x)
θ(x) =
dx
o esforço ortante
dq(x) d3 v(x)
V (x) = − =−
dx dx3
e o momento etor
dV (x) d2 v(x)
M(x) = − =
dx dx2
Neste aso, podemos denir o resíduo omo

d4 ṽ(x)
r(x) = EI − q(x)
dx4
tal que o pro edimento de ortogonalização do resíduo resulta em

Z L  
d4 ṽ(x)
EI − q(x) w(x)dx = 0
0 dx4
ou Z Z
L L
d4 ṽ(x)
EI w(x)dx = q(x)w(x)dx.
0 dx4 0

Por estas equações  a laro que o espaço de funções que satisfaz esta equação diferen ial é

da lasse C 4, o que é bastante restritvo. Com o objetivo de amenizar este requisito, podemos

realizar uma integração por partes no termo da esquerda, resultando em

Z L
d3 ṽ(x) d3 ṽ(x) dw(x)
EI w(x)|L0 − EI dx
dx3 0 dx3 dx
de onde podemos veri ar que mais uma integração por partes ainda é possível. Efetuando

mais uma integração por partes na integral de domínio, obtemos


274 CAPÍTULO 30. MÉTODO DOS RESÍDUOS PONDERADOS

Z L
d2 ṽ(x) dw(x) L d2 ṽ(x) d2 w(x)
EI | − EI ,
dx2 dx 0 0 dx2 dx2
resultando em

Z L Z L
d3 ṽ(x) L d2 ṽ(x) dw(x) L d2 ṽ(x) d2 w(x)
EI w(x)| 0 − EI | + EI = q(x)w(x)dx.
dx3 dx2 dx 0 0 dx2 dx2 0

Neste ponto, podemos veri ar que após duas integrações por partes obtivemos uma ex-
2
pressão que impoe um requisito de ontinuidade C para ṽ(x) e w(x). Além disto, temos os

termos de ontorno:

d3 ṽ(x)
EI w(x)
| {zdx3 }

om o primeiro termo orrespondendo a −V (x) e o segundo om o mesmo omportamento de

v(x) no ontorno, e

d2 ṽ(x) dw(x)
EI
| {zdx2 } dx

om o primeiro termo orrespondendo a M(x) e o segundo a θ(x) no ontorno.

Considerando o aso de uma viga engastada submetida a um arregamento q(x) = q0 , de

a ordo om a gura 30.7

Figura 30.7: Viga engastada submetida a um arregamento onstante.

e onsiderando um polinmio úbi o da forma ṽ(x) = a0 + a1 x + a2 x2 + a3 ∗ x3 om a0 e a1


nulos para satisfazer a ondição de que ṽ(0) = 0, temos que

ṽ(x) = a2 x2 + a3 x3

w̃(x) = b2 x2 + b3 x3

tal que

Z L
d2 ṽ(x) d2 w(x) 3 2

EI = EI 12 a3 b3 L + (6 a2 b3 + 6 a3 b2 ) L + 4 a2 b2 L ,
0 dx2 dx2
275

Z L
q0 (3 b3 L4 + 4 b2 L3 )
q0 w(x)dx =
0 12
om w(0) = θ(0) = 0, devido ao engaste, e V (L) = M(L) = 0. Assim, os termos de ontorno

resultam em valores nulos ( para este exemplo). Agrupando os termos, obtemos

 q0 (3 b3 L4 + 4 b2 L3 )
EI 12 a3 b3 L3 + (6 a2 b3 + 6 a3 b2 ) L2 + 4 a2 b2 L =
12
tal que, separando por termos omuns em b, obtemos

q0 L3
b2 ) 6EI a3 L2 + 4EI a2 L =
3
q0 L4
b3 ) 12EI a3 L3 + 6EI a2 L2 =
4
dando origem ao sistema linear

!( ) ( )
q 0 L3
4L 6L2 a2 3
EI = q 0 L4
6L2 12L3 a3 4

5q0 L2 q0 L
om solução a2 = 24EI
e a3 = − 12EI , tal que

5q0 L2 2 q0 L 3
ṽ(x) = x − x
24EI 12EI
que pode ser omparada a solução analíti a

q0 x2 
v(x) = 6L2 − 4Lx + x2
24EI

na gura 30.8, para q0 = 1, EI = 1 e L = 1.

Figura 30.8: Comparação entre a solução aproximada om um polinmio de segundo grau (azul)
e a exata (vermelho) para o problema da viga longa.
276 CAPÍTULO 30. MÉTODO DOS RESÍDUOS PONDERADOS

Tarefa:

Solu ione o problema dis utido a ima para um polinmio de quarto grau e ompare om a

solução exata.
Parte IV

Material Complementar

277
Capítulo 31

Exemplos de implementação dos

algoritmos no S ilab

Algoritmo 41 Método da Bise ção.


1
2 fun tion [ ℄ = B i s e a o ( a , b , t o l , nmax_iter )
3
4 // Testa s e temos uma r a i z no i n t e r v a l o
5 i f f ( a ) ∗ f ( b ) >= 0 then
6 d i s p ( "Sem r a i z para e s t e i n t e r v a l o " )
7 pause
8 end
9
10 // I t e r a ate o numero l i m i t e de itera oes
11 for i =0:n_max_iter
12
13 // Ponto medio
14 = ( a+b ) / 2
15
16 // Testa s e temos uma r a i z na t o l e r a n i a d e s e j a d a
17 i f b−a < t o l then
18 return
19 end
20
21 // Muda os l i m i t e s do i n t e r v a l o
22 i f f ( a ) ∗ f ( ) < 0 then
23 b =
24 else
25 a =
26 end
27 end
28
29 // Se saimos do l o o p mas ainda nao a t i n g i m o s a t o l e r a n i a
30 i f b−a >= t o l then
31 d i s p ( " Nao f o i p o s s i v e l o b t e r a r a i z om a a u r a i a d e s e j a d a " )
32 end
33
34 return
35 end

279
280CAPÍTULO 31. EXEMPLOS DE IMPLEMENTAÇ O DOS ALGORITMOS NO SCILAB

Algoritmo 42 Método da Regula Falsi.


1
2 fun tion [ n ℄ = R e g u l a F a l s i ( a , b , t o l , nmax_iter )
3
4 // Testa s e temos uma r a i z no i n t e r v a l o
5 i f f ( a ) ∗ f ( b ) >= 0 then
6 d i s p ( "Sem r a i z para e s t e i n t e r v a l o " )
7 pause
8 end
9
10 // I t e r a ate o numero l i m i t e de itera oes
11 n = 0
12 for i =0:n_max_iter
13
14 // E s t i m a t i v a l i n e a r da r a i z
15 f s = f ( a )/ f (b)
16 n = a − ( b−a ) ∗ f s /(1 − f s )
17
18 // Testa s e a t i n g i m o s a t o l e r a n i a
19 i f i > 0 & abs ( n− ) < t o l then
20 return n
21 end
22
23 // Guarda a u l t i m a p o s i a o
24 = n
25
26 // Muda os l i m i t e s do i n t e r v a l o
27 i f f ( a ) ∗ f ( ) < 0 then
28 b =
29 else
30 a =
31 end
32 end
33
34 // Se saimos do l o o p mas ainda nao a t i n g i m o s a t o l e r a n i a
35 i f b− n >= t o l then
36 d i s p ( " Nao f o i p o s s i v e l o b t e r a r a i z om a a u r a i a d e s e j a d a " )
37 end
38
39 return n
40 end
281

Algoritmo 43 Método de Newton Raphson.


1
2 fun tion [ xnm ℄ = NewtonRaphson ( x , t o l , nmax_iter )
3
4 // I t e r a ate o numero l i m i t e de itera oes
5 xnm = 0
6 for i =0:n_max_iter
7
8 // E s t i m a t i v a da r a i z
9 xnm = x − f ( x ) / d f ( x )
10
11 // Testa s e a t i n g i m o s a t o l e r a n i a
12 i f abs ( x−xnm) < t o l then
13 return xnm
14 end
15
16 // Translada o ponto
17 x = xnm
18
19 end
20
21 // Se saimos do l o o p mas ainda nao a t i n g i m o s a t o l e r a n i a
22 i f abs ( x−xnm)>= t o l then
23 d i s p ( " Nao f o i p o s s i v e l o b t e r a r a i z om a a u r a i a d e s e j a d a " )
24 end
25
26 return xnm
27 end
282CAPÍTULO 31. EXEMPLOS DE IMPLEMENTAÇ O DOS ALGORITMOS NO SCILAB

Algoritmo 44 Método da Se ante.


1
2 fun tion [ xm ℄ = S e a n t e (xm,xmm, t o l , nmax_iter )
3
4 // I t e r a ate o numero l i m i t e de itera oes
5 x = 0
6 for i =0:n_max_iter
7
8 // E s t i m a t i v a da r a i z
9 f s = f (xm) / f (xmm)
10 x = xm − ( f s ∗ (xm−xmm) ) / ( f s − 1)
11
12 // Testa s e a t i n g i m o s a t o l e r a n i a
13 i f abs (xm−xmm) < t o l then
14 return x
15 end
16
17 // Translada o ponto
18 xmm = xm
19 xm = x
20
21 end
22
23 // Se saimos do l o o p mas ainda nao a t i n g i m o s a t o l e r a n i a
24 i f abs ( x−xmm)>= t o l then
25 d i s p ( " Nao f o i p o s s i v e l o b t e r a r a i z om a a u r a i a d e s e j a d a " )
26 end
27
28 return x
29 end
283

Algoritmo 45 Solução de um sistema linear de equações utilizando o método de Gauss.


1
2 fun tion [ b ℄ = Gauss (A, b , n )
3
4 // I n i i a l i z a o a l u l o do d e t e r m i n a n t e
5 dete = 1
6
7 // Loop p e l a s l i n h a s
8 for i =1:n
9
10 // Re upera a p o s i a o da d i a g o n a l
11 a i i = A( i , i )
12
13 // P r o d u t o r i o do d e t e r m i n a n t e
14 dete = dete ∗ a i i
15
16 // Es alonamento da l i n h a
17 b( i ) = b( i )/ a i i
18 for j =1:n
19 A( i , j ) = A( i , j ) / a i i
20 end
21
22 // Zera as p o s i o e s a b a i x o da o l u n a i
23 for k=i +1:n
24 a k i = A( k , i )
25 b ( k ) = b ( k ) − a k i ∗b ( i )
26 for j =1:n
27 A( k , j ) = A( k , j ) − a k i ∗A( i , j )
28 end
29 end
30 end
31
32 // R e t r o s u b s t i t u i a o
33 for i=n − 1: − 1:1
34 somat = 0
35 for k=n : − 1: i +1
36 somat = somat + A( i , k ) ∗ b ( k )
37 end
38 b ( i ) = b ( i ) − somat
39 end
40
41 endfun tion
284CAPÍTULO 31. EXEMPLOS DE IMPLEMENTAÇ O DOS ALGORITMOS NO SCILAB

Algoritmo 46 De omposição LU de uma matriz.


1
2 // De ompoe a m a t r i z A em LU
3 fun tion [A℄ = LU(A, n )
4 for i =1:n
5 for j =1:n
6 i f j < i then
7 = j
8 else
9 = i
10 end
11 soma = A( i , j )
12 for k =1:( −1)
13 soma = soma − A( i , k ) ∗A( k , j )
14 end
15 i f j <= i then
16 A( i , j ) = soma
17 else
18 A( i , j ) = soma/A( i , i )
19 end
20 end
21 end
22 endfun tion

Algoritmo 47 Solução de um sistema linear de equações utilizando a de omposição LU.


1
2 fun tion [ b ℄
= Solu iona_por_LU (A, b , n )
3 A = LU(A, n )
4 y = zeros (n , 1 )
5 for i =1:n
6 soma = 0
7 for k =1:( i −1)
8 soma = soma + A( i , k ) ∗ y ( k )
9 end
10 y ( i ) = ( b ( i )− soma ) /A( i , i )
11 end
12 for i=n : − 1:1
13 soma = 0
14 for k=( i +1):n
15 soma = soma + A( i , k ) ∗ b ( k )
16 end
17 b ( i ) = y ( i ) − soma
18 end
19 endfun tion
285

Algoritmo 48 Inversão de uma matriz utilizando a de omposição LU.


1
2 // I n v e r s a de uma m a t r i z u t i l i z a n d o LU
3 fun tion [ I ℄ = Inversa_por_LU(A, n )
4 A = LU(A, n )
5 I = eye ( n , n )
6 for h=1:n
7 y = zeros (n , 1 )
8 for i =1:n
9 soma = 0
10 for k =1:( i −1)
11 soma = soma + A( i , k ) ∗ y ( k )
12 end
13 y ( i ) = ( I ( i , h)− soma ) /A( i , i )
14 end
15 for i=n : − 1:1
16 soma = 0
17 for k=( i +1):n
18 soma = soma + A( i , k ) ∗ I ( k , h )
19 end
20 I ( i , h ) = y ( i ) − soma
21 end
22 end
23 endfun tion

Algoritmo 49 De omposição de uma matriz pelo método de Cholesky.


1
2 // De ompoe a m a t r i z A em U'U
3 fun tion [A℄ = Cholesky (A, n )
4 for i =1:n
5 for j=i : n
6 soma = A( i , j )
7 for k =1:( i −1)
8 soma = soma − A( k , i ) ∗A( k , j )
9 end
10 i f j == i then
11 A( i , j ) = s q r t ( soma )
12 else
13 A( i , j ) = soma/A( i , i )
14 end
15 end
16 end
17 endfun tion
286CAPÍTULO 31. EXEMPLOS DE IMPLEMENTAÇ O DOS ALGORITMOS NO SCILAB

Algoritmo 50 Solução de um sistema linear de equações utilizando o método de Cholesky.


1
2 fun tion [ b ℄= Solu iona_por_Cholesky (A, b , n )
3 A = Cholesky (A, n )
4 y = zeros (n , 1 )
5 for i =1:n
6 soma = 0
7 for k =1:( i −1)
8 soma = soma + A( k , i ) ∗ y ( k )
9 end
10 y ( i ) = ( b ( i )− soma ) /A( i , i )
11 end
12 for i=n : − 1:1
13 soma = 0
14 for k=( i +1):n
15 soma = soma + A( i , k ) ∗ b ( k )
16 end
17 b ( i ) = ( y ( i )− soma ) /A( i , i )
18 end
19 endfun tion

Algoritmo 51 Inversa de uma matriz utilizando o método de Cholesky.


1
2 // I n v e r s a de uma m a t r i z u t i l i z a n d o Cholesky
3 fun tion [ I ℄ = Inversa_por_Cholesky (A, n )
4 A = Cholesky (A, n )
5 I = eye ( n , n )
6 for h=1:n
7 y = zeros (n , 1 )
8 for i =1:n
9 soma = 0
10 for k =1:( i −1)
11 soma = soma + A( k , i ) ∗ y ( k )
12 end
13 y ( i ) = ( I ( i , h)− soma ) /A( i , i )
14 end
15 for i=n : − 1:1
16 soma = 0
17 for k=( i +1):n
18 soma = soma + A( i , k ) ∗ I ( k , h )
19 end
20 I ( i , h ) = ( y ( i )− soma ) /A( i , i )
21 end
22 end
23 endfun tion
287

Algoritmo 52 De omposição LDL de uma matriz.


1
2 // De ompoe a m a t r i z A em LDL'
3 fun tion [A℄ = LDL(A, n )
4 for j =1:n
5 for i=j : n
6 soma = A( i , j )
7 for k =1:( j −1)
8 soma = soma − A( i , k ) ∗A( j , k ) ∗A( k , k )
9 end
10 i f j == i then
11 A( i , j ) = soma
12 else
13 A( i , j ) = soma/A( j , j )
14 end
15 end
16 end
17 endfun tion

Algoritmo 53 Solução de um sistema linear de equações utilizando a de omposição LDL.


1
2 // S o l u a o de
um s i s t e m a de e q u a o e s usando de omposi ao LDL'
3 fun tion [ b ℄ = Solu iona_por_LDL(A, b , n )
4 A = LDL(A, n )
5 z = zeros (n , 1 )
6 y = zeros (n , 1 )
7 for i =1:n
8 soma = 0
9 for k =1:( i −1)
10 soma = soma + A( i , k ) ∗ z ( k )
11 end
12 z ( i ) = b ( i )− soma
13 y ( i ) = z ( i ) /A( i , i )
14 end
15 for i=n : − 1:1
16 soma = 0
17 for k=( i +1):n
18 soma = soma + A( k , i ) ∗ b ( k )
19 end
20 b ( i ) = z ( i ) /A( i , i )− soma
21 end
22 endfun tion
288CAPÍTULO 31. EXEMPLOS DE IMPLEMENTAÇ O DOS ALGORITMOS NO SCILAB

Algoritmo 54 Inversa de uma matriz utilizando de omposição LDL.


1
2 // I n v e r s a de uma m a t r i z u t i l i z a n d o LDL'
3 fun tion [ I ℄ = Inversa_por_LDL (A, n )
4 A = LDL(A, n )
5 I = eye ( n , n )
6 for h=1:n
7 z = zeros (n , 1 )
8 for i =1:n
9 soma = 0
10 for k =1:( i −1)
11 soma = soma + A( i , k ) ∗ z ( k )
12 end
13 z ( i ) = I ( i , h)− soma
14 y ( i ) = z ( i ) /A( i , i )
15 end
16 for i=n : − 1:1
17 soma = 0
18 for k=( i +1):n
19 soma = soma + A( k , i ) ∗ I ( k , h )
20 end
21 I ( i , h ) = y ( i )− soma
22 end
23 end
24 endfun tion

Algoritmo 55 Solu iona um sistema linear de equações utilizando o método de Gauss-Ja obi.
1
2 fun tion [ xp℄= Gauss_Ja obi (A, x , b , n , t o l , nmaxiter )
3 xp = z e r o s ( n , 1 )
4 for k=0: nmaxiter
5 norma = 0
6 for i =1:n
7 somatorio = 0
8 for j =1: i −1
9 s o m a t o r i o = s o m a t o r i o + A( i , j ) ∗ x ( j )
10 end
11 for j=i +1:n
12 s o m a t o r i o = s o m a t o r i o + A( i , j ) ∗ x ( j )
13 end
14 xp ( i ) = ( 1 /A( i , i ) ) ∗ ( b ( i )− s o m a t o r i o )
15 norma = norma + ( x ( i )− xp ( i ))^2
16 end
17 i f s q r t ( norma ) <= t o l then
18 d i s p ( "Norma f o i a t i n g i d a " , norma , k )
19 break
20 end
21 x = xp
22 end
23 endfun tion
289

Algoritmo 56 Solu iona um sistema linear de equações utilizando o método de Gauss-Seidel.


1
2 fun tion [ xp℄= Gauss_Seidel (A, x , b , n , t o l , nmaxiter )
3 xp = z e r o s ( n , 1 )
4 for k=0: nmaxiter
5 norma = 0
6 for i =1:n
7 somatorio = 0
8 for j =1: i −1
9 s o m a t o r i o = s o m a t o r i o + A( i , j ) ∗ xp ( j )
10 end
11 for j=i +1:n
12 s o m a t o r i o = s o m a t o r i o + A( i , j ) ∗ x ( j )
13 end
14 xp ( i ) = ( 1 /A( i , i ) ) ∗ ( b ( i )− s o m a t o r i o )
15 norma = norma + ( x ( i )− xp ( i ))^2
16 end
17 i f s q r t ( norma ) <= t o l then
18 d i s p ( "Norma f o i a t i n g i d a " , norma , k )
19 break
20 end
21 x = xp
22 end
23 endfun tion

Algoritmo 57 Método da potên ia.


1
2 fun tion [ x , lambda ℄ = Metodo_Poten ia (A, n , t o l )
3 x = eye ( n , 1 )
4 lambda = 0
5 I = 1
6 while I > t o l
7 xk = A∗ x
8 lambda_k = norm ( xk ) / norm ( x )
9 I = abs ( lambda_k − lambda )
10 x = xk
11 nx = norm ( x )
12 x = ( 1 / nx ) ∗ x
13 lambda = lambda_k
14 end
15 endfun tion
290CAPÍTULO 31. EXEMPLOS DE IMPLEMENTAÇ O DOS ALGORITMOS NO SCILAB

Algoritmo 58 Método da potên ia inversa.


1
2 fun tion [ x , lambda ℄ = Metodo_Poten ia_Inversa (A, n , t o l )
3 x = eye ( n , 1 )
4 lambda = 0
5 I = 1
6 while I > t o l
7 xk = A\x
8 lambda_k = norm ( x ) / norm ( xk )
9 I = abs ( lambda_k − lambda )
10 x = xk
11 nx = norm ( x )
12 x = ( 1 / nx ) ∗ x
13 lambda = lambda_k
14 end
15 endfun tion

Algoritmo 59 Método de Gramm-S hmidt.


1
2 fun tion [Q℄ = Gram(A, n )
3 U = zeros (n , n)
4 Q = zeros (n , n)
5 U( : , 1 ) = A( : , 1 )
6 Q( : , 1 ) = U( : , 1 ) / norm (U( : , 1 ) , 2 )
7 for k=2:n
8 U( : , k ) = A( : , k )
9 for j =1:k−1
10 U( : , k ) = U( : , k ) − (Q( : , j ) ' ∗ A ( : , k ) ) ∗ Q( : , j )
11 end
12 Q( : , k ) = U( : , k ) / norm (U ( : , k ) , 2 )
13 end
14 endfun tion

Algoritmo 60 Método QR.


1
2 fun tion [ Qt ,A℄ = QR(A, n , t o l )
3 ontador = 1
4 Qt = eye ( n , n )
5 Q = Gram(A, n )
6 t r = t r a e ( abs (Q) )
7 w h i l e abs ( t r −n ) > t o l
8 Q = Gram(A, n )
9 A = i n v (Q) ∗A∗Q
10 Qt = Qt ∗Q
11 t r = t r a e ( abs (Q) )
12 ontador = ontador + 1
13 i f o n t a d o r == nmax then
14 d i s p ( " T o l e r a n i a nao a l a n a d a " )
15 break
16 end
17 end
18 endfun tion
291

Algoritmo 61 Método dos retângulos.


1
2 fun tion [ a r e a ℄= Retangulo ( xl , xu , n )
3 h = ( xu− x l ) / n
4 area = 0
5 for i =0:n
6 a r e a = a r e a + f ( x l+i ∗ h ) ∗ h
7 end
8 endfun tion

Algoritmo 62 Método dos trapézios.


1
2 fun tion [ a r e a ℄= T r a p e z i o ( xl , xu , n )
3 h = ( xu− x l ) / n
4 area = 0
5 xat = x l
6 xpr = x l + h
7 for i =1:n
8 a r e a = a r e a + f ( xat ) ∗ h + 0 . 5 ∗ ( f ( xpr)− f ( xat ) ) ∗ h
9 xat = xpr
10 xpr = xat + h
11 end
12 endfun tion

Algoritmo 63 Primeira regra de Simpson.


1
2 fun tion [ a r e a ℄= Simpson1 ( xl , xu , n )
3 h = ( xu− x l ) / n
4 area = 0
5 x0 = x l
6 x1 = x0 + h
7 x2 = x1 + h
8 for i = 1 : 2 : n
9 a r e a = a r e a + ( h / 3 ) ∗ ( f ( x0 ) + 4 ∗ f ( x1 ) + f ( x2 ) )
10 x0 = x2
11 x1 = x0 + h
12 x2 = x1 + h
13 end
14 endfun tion
292CAPÍTULO 31. EXEMPLOS DE IMPLEMENTAÇ O DOS ALGORITMOS NO SCILAB

Algoritmo 64 Segunda regra de Simpson.


1
2 fun tion [ a r e a ℄= Simpson2 ( xl , xu , n )
3 h = ( xu− x l ) / n
4 area = 0
5 x0 = x l
6 x1 = x0 + h
7 x2 = x1 + h
8 x3 = x2 + h
9 for i = 1 : 3 : n
10 a r e a = a r e a + ( 3 ∗ h / 8 ) ∗ ( f ( x0 ) + 3 ∗ f ( x1 ) + 3 ∗ f ( x2 ) + f ( x3 ) )
11 x0 = x3
12 x1 = x0 + h
13 x2 = x1 + h
14 x3 = x2 + h
15 end
16 endfun tion

You might also like