O objetivo, desse trabalho, é apresentar alguns dos mais usuais métodos numéricos para resolver sistemas lineares. A forma de apresentação, através de uma linguagem orientada ao uso de hipertexto, tem duplo objetivo: o pimeiro, permitir aos alunos que possam estudar sozinhos e/ou resolver seus problemas de forma independente; o segundo, trabalhar com os atuais alunos da disciplina de Métodos Numéricos de 1996, do curso de Engenharia de Computação da PUC-Rio. Esses alunos receberam o texto já digitado por mim e fizeram, comigo, o restante de todo o trabalho.
A organização do trabalho foi feita em duas partes integradas e complementares: um tutorial sobre a parte conceitual com exemplos e uma parte que contém algumas rotinas que podem ser usadas sem dificuldades para que se resolvam sistemas lineares. Os algorítmos escolhidos para implementação foram: dois métodos diretos: Eliminação de Gauss e Fatoração de Crout; e três métodos iterativos: Jacobi, Gauss-Seidel e Sobre-relaxação.
A escolha da linguagem usada e a forma de implementação dos algoritmos foi feita pelo conjunto de alunos da disciplina.
1. Complementos de Álgebra linear
Uma das mais usadas estruturas algébricas é sem dúvida a matriz. Sua utilização nas mais variadas formulações matemáticas permite a simplificação não só da parte teórica, mas também das próprias aplicações. A resolução de Sistemas Lineares está nesse caso. Na definição e resolução desses sistemas, a forma matricial está sempre presente, seja na esquematização dos métodos diretos, seja no estudo da convergência dos métodos iterativos. Vamos, portanto, rever alguns pontos fundamentais sobre matrizes, necessários neste capítulo.
Vejamos, inicialmente, algumas notações importantes usadas daqui em diante:
X : vetor de n componentes reais;
X : vetor de n componentes complexas;
: matriz real de n linhas e m colunas;
: matriz complexa de n linhas e m colunas;
I : matriz identidade;
: matriz inversa de A;
= I;
0 : matriz nula;
A = (aij), i n, j
m: matriz de n linhas e m colunas, cujos elementos são aij.
Dadas duas matrizes A e B podemos definir operações de adição e multiplicação da seguinte forma: sejam A e B matrizes de , então:
A = B =
C = A + B = isto é: cij = aij + bij, i
n, j
m.
Claro, para se realizar a adição de matrizes, é preciso que ambas tenham a mesma dimensão.
Exemplo 1.1
A = B =
C = A + B =
A multiplicação, ao contrário da adição, não presume as mesmas dimensões para as duas matrizes.
Por definição, temos: C = A x B ; Cij =
isto é, o único que se exige é que o número de colunas da matriz A seja igual ao número de linhas de B, para que todas as parcelas (aik . bkj ) estejam definidas.
Exemplo 1.2
Sejam A e B do exemplo anterior
C = A x B =
Um sistema linear é a reunião de equações algébricas lineares, que devem ser resolvidas simultaneamente, isto é, deve haver uma solução única que satisfaça a todas as equações ao mesmo tempo.
Exemplo 1.3
x + y + z = 3 { y + z = 5 x + y = 3
Esse é um sistema de três equações e três incógnitas, cuja solução é x = -2, y = 5 e z = 0, isto é, esses valores satisfazem as três equações simultaneamente. A solução de um sistema é, portanto, a solução comum a todas as equações.
Há certas operações entre as equações de um sistema que preservam a solução original. Por exemplo, se somarmos duas linhas completas e colocarmos essa nova equação no lugar de uma das que foram somadas, continuamos com a solução original.
Exemplo 1.4
No exemplo anterior somando a 1a equação com a 3a, colocando o resultado no lugar da 3a equação, teremos um sistema cuja solução é a mesma do sistema anterior:
x + y + z = 3 { y + z = 5 2x + 2y + z = 6
Exemplo 2.1
Multiplicando a 2a equação do mesmo sistema teríamos:
x + y + z = 3 { 2y + 2z = 10 x + y = 3que continua tendo a solução anterior.
Essas operações são exemplos das chamadas operações elementares. Cada uma delas pode ser representada pela multiplicação de uma matriz, chamada matriz elementar, pela matriz do sistema. Assim, nos nossos exemplos anteriores o resultado da adição das duas equações seria obtida se multiplicássemos a matriz A do sistema dado, pela matriz elementar
P1 = , pois P1.A =
P2 = , pois P2.A =
e vemos que P1.A representa a matriz do sistema do exemplo 1.4 e P2.A representa a matriz do exemplo 2.1.
De um modo geral as matrizes elementares são obtidas da matriz identidade, mudando-se um dos seus elementos.
As operações definidas com uso de matrizes elementares são a base da definição dos chamados métodos de eliminação, pois permitem transformar um dado sistema em outro mais simples de se resolver.
O estudo da resolução de um sistema linear pode ser grandemente facilitado se lhe aplicarmos os nossos conhecimentos sobre matrizes. Neste parágrafo, faremos exatamente isso. Usaremos os conceitos dados para determinar a resolução de um sistema linear em geral.
Seja o sistema dado:
3x + 2y + z = 6 (1.1) { x + 3y + z = 5 2x + 2y + 3z = 7
Então, sua representação matricial será AX = B, onde:
A = ; X =
; B =
e sua solução, x= y = z = 1 ; X = (1 1 1)t.
De agora em diante, todo estudo feito com sistema linear será com a sua forma matricial. Veremos, adiante um modo muito simples de se determinar a solução de um sistema chamado método de eliminação de Gauss.