INSTITUTO TECNOLÓGICO DE COSTA RICA ESCUELA DE INGENIERÍA ELECTRÓNICA LICENCIATURA EN INGENIERÍA ELECTRÓNICA CM-3201 MÉTODOS NUMÉRICOS Profesor: In! M"r#$n %ern&n'e(
GAUS GAUSS-SEIDEL, S-SEIDEL, JACOBI, RELAJACIÓN Y CONVERGENCIA
I Semestre 2004
Métodos Iterativos para Sistemas de Ecuaciones Algebraicas Algebraicas Lineales
Introducción Los métodos numéricos se dividen en dos d os categorías generales: métodos exactos y aproximados. Los primeros, como su nombre lo indica, buscan b uscan dar resultados exactos. No obstante, como están afectados por errores de redondeo, algunas veces dan resultados imprecisos. La magnitud del error de redondeo varía en cada sistema y depende de d e varios factores, tales como las dimensiones del sistema, su condición y el hecho hech o de sí la matri de coeficientes coe ficientes es dispersa o densa. !demás, la precisión de la computadora afectará el error de redondeo. "e recomienda una estrategia de pivoteo en todo programa de computadora #ue realice métodos de eliminación exactos. $sa estrategia minimia el error de redondeo y evita problemas como como el de la división división entre cero. Los algori algoritm tmos os basados basados en la descompo descomposic sición ión LU LU son los métodos #ue se eligen debido a su eficiencia y flexibilidad. La tabla % ofrece un resumen de las venta&as y desventa&as en la solución de ecuaciones algebraicas lineales simultáneas. 'os métodos (el gráfico y la regla de )ramer* están limitados a pocas ecuaciones(+ *, de modo #ue tienen escasa utilidad para resolver problemas prácticos. "in embargo, dichas técnicas son herramientas didácticas -tiles para entender el comportamiento de los sistemas lineales en general. TABLA No6 78 Com#ara(i.' de %a" (ara(ter9"ti(a" de di,er"o" m&todo" a%ter'ati,o" a%ter'at i,o" #ara e'(o'trar "o%(io'e" de e(a(io'e" e(a(io'e" a%)ebrai(a" %i'ea%e" "im%t!'ea"
MÉTODO GRÁFICO
RANGO DE APLICACIÓN Limi tado
COMPLEJIDAD DE LA PROGRAMACI PROGRAMACIÓN ÓN ---
A* e(tado #or errore" de redo'deo
Limi tado
---
---
A* e( e(tado #or er ro rore" de redo'deo
Ge'era%
Moderada
---
A* e( e(tado #or errore" de redo'deo
Ge'era%
Moderada
Ped Pede e 'o (o',e (o',er) r)er er "i 'o e" dia)o'a%me'te domi'a'te
E5CELE E5CELENTE NTE
A#ro# A#ro#iad iado o "o%o "o%o #ara #ara "i"tema" dia)o'a%me'te domi'a'te"
FÁCIL
ESTABILIDAD ---
PRECISIÓN Pobre
Re)%a de Cramer
---
E%imi'a(i.' de Ga"" /(o' #i,oteo #ar(ia%0 De"(om#o"i(i.' L1
Ga" Ga""4 "4Se Seid ide% e%
COMENTARI COMENTARIOS OS Pede tomar m!" tiem#o $e e% m&todo 'm&ri(o E+(e"i, a (om#%eidad de (!%(%o #ara m!" de tre" e(a(io'e"
M&todo de e%i mi mi 'a 'a(i .' .' #re*erido2 #ermite e% (!%(%o de %a matri3 i',er"a
!un#ue los métodos de eliminación tienen gran utilidad, el uso de toda la matri de los coeficientes puede ser limitante cuando se trate con sistemas dispersos muy grandes. $sto se debe a #ue gran parte de la memoria de la computadora se dedicaría a guardar ceros #ue no tienen significado. ara sistemas bandeados, hay técnicas para realiar métodos de eliminación sin tener #ue guardar todos los coeficientes de la matri. La técnica aproximada por conocer como método de /auss0"eidel, difiere de las técnicas exactas por#ue emplea un es#uema iterativo para obtener, progresivamente, estimaciones más
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
1
cercanas a la solución. $l efecto del error de redondeo es un punto discutible en el método de /auss0"eidel, ya #ue se pueden continuar las iteraciones hasta #ue se obtenga la precisión deseada. !demás, se pueden desarrollar versiones del método de /auss0"eidel para utiliar de manera manera eficiente eficiente los re#uerimie re#uerimientos ntos de almacena&e almacena&e en computadora computadora con sistemas sistemas dispersos. dispersos. $n consecuencia, la técnica de /auss0"eidel es -til para grandes sistemas de ecuaciones, donde los re#uerimientos de almacena&e podrían llevar a problemas significativos con las técnicas exactas
Aplicaciones Las técnicas iterativas se emplean rara ve para resolver sistemas lineales de dimensión pe#ue2a ya #ue el tiempo re#uerido para lograr una precisión suficiente excede al de las técnicas directas como el método de eliminación /aussiana. "in embargo, para sistemas grandes con un gran porcenta&e de ceros, ceros, estas estas técnicas técnicas son suficien suficientes tes en términ términos os de almace almacenam namient iento o en la computadora y del tiempo re#uerido. Los métodos de este tipo surgen frecuentemente en los sistemas con ecuaciones diferenciales, donde encontraríamos aplicaciones en todas las ramas de la ingeniería, así como en las )iencias "ociales y la la $conomía. $stos métodos son -tiles en la predicción del clima, clima, donde el volumen volumen de variables amerita el uso de extensas ex tensas matrices.
Justificación 3na 3na form formaa de ente entende nderr el uso uso de los los méto método doss numé numéri rico coss y su util utilid idad ad es prec precis isam amen ente te comparándolos con los métodos directos, esta comparación se realia en términos de operaciones realiadas, tales como sumas, restas, divisiones y multiplicaciones. or tanto el entendimiento de esto conlleva a su uso práctico. Las siguientes tablas muestran las diferencias en cálculo de los métodos directos de /auss y /auss04ordan. Tabla Tabla 2: Total Total de operaciones en el método de Eliminación de Gauss
5ultiplicaciones6'ivisiones
N
( n + n − n
1
6
"umas 6 restas
( 1n + n 1 − 8n
%9
%%
%
;
98
8
;;%8
;1<98
%
;
<18
)"*o+$, G"ss-Se$'e., Re."/"*$n
67
P"$n" 'e 32
Tabla 3: Total de operaciones en el método de Eliminación de Gauss!ordan
5ultiplicaciones6'ivisiones
n
( n + 1n − n 6 1
1
"umas 6 restas
(n − n
61
1%
%1
%
<=8
;=8
8
7;=98
71;98
%
8==8
;===8
Tabla ": #peraciones por iteración en los métodos Iterativos
5ultiplicaciones0'ivisiones
"umas 6 restas
( 1n − %
( n( n − %) )
>por iteración
>por iteración
%9
%1
%
%==
=
8
;===
1;8
%
%====
==
n
1
'e la ?abla ; podemos notar #ue n ≥ 8 los métodos iterativos empearían a ser más efectivos #ue los métodos directos. Nótese, también #ue los cálculos en esta tabla corresponden a una iteración por tanto para #ue el método sea efectivo, dos aspectos deben ser tomados en consideración %. La precisión re#uerida de los resultados 1. 'e la aproximación inicial #ue se esco&a.
Marco Conceptual )"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
;
!ntes de considerar los métodos iterativos para resolver sistemas lineales, es necesario encontrar un método para medir cuantitativamente la distancia entre vectores, para poder determinar cuando la sucesión de vectores #ue resulta al usar una técnica iterativa converge a la solución. Norma vectorial: esta se define como la suma de las magnitudes de los componentes de un vector columna de dimensión n con componentes reales, esta definición en notación matemática se escribe como:
%$ x% x 1 x, . . . xn
y la norma de $ seria @@ x @@ A
(∑ = x ) n
i %
1 i
%6 1
$sta definición de norma es -til cuando se #uiere saber la magnitud de las componentes de un vector. ero cuando esta se aplica a los métodos numéricos es me&or utiliar el concepto de norma infinita, la cual es -til como criterio de paro para una aproximación. $sta se define como sigue: x
∞ = max%<=i<=n xi
3na técnica iterativa para resolver un sistema lineal Ax = b de n x n empiea con una aproximación inicial x (k) a la solución x , y genera una sucesión de vectores B x (k)CD A hasta #ue se logre la aproximación re#uerida, #ue en términos de vectores se expresa como, B x (k)CD A ∞. La mayoría de estas técnicas iterativas involucran un proceso #ue convierte el sistema Ax = b en un sistema e#uivalente de la forma x = Tx + b. "eleccionado un vector inicial x (0) la sucesión de vectores de solución aproximada se genera calculando.
x (k) = T x (k !) + c
(!) "
*el factor k solamente se utiliza para denotar el conteo de las iteraciones
)abe destacar la similitud de esta ecuación con la x A g(x*, #ue se utiliaba para el método iterativo del punto fi&o. 'ado esta similitud, posteriormente se analiará la convergencia de este método. )omo se mencionó anteriormente estos métodos se aplican en los sistemas con gran cantidad de ceros, a la matri resultante se le conoce como matri& esparcida'
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
8
)onsidere el circuito de la figura % como e&emplo de este tipo de matri.
c
b
a
d
f
e
d
EF/3G! %: )ircuito eléctrico con solución de matri esparcida
%vb − %:vc + :vd + :ve − 7vf = %8 >V 1vb −
v b vc vd ve v f
)"*o+$, G"ss-Se$'e., Re."/"*$n
vb
vc
v d
ve
,%
:
:
1
− %: −<
,
,
:
%
−,
1
:
1
;
−9
%1
:
%8
:
v f
− 7 : : % ;9
P"$n" 'e 32
7
M#todos Iterati$os $stos son métodos para los cuales se da una aproximación al sistema de ecuaciones lineales y se obtiene una solución para este sistema. ! diferencia de los métodos directos, los métodos iterativos podrían no producir una solución satisfactoria, a-n cuando el determinante de los coeficientes de la matri no sea cero. $ntonces, para #ue estas técnicas funcionen se deben tener ciertas condiciones.
$l con&unto de ecuaciones debe tener una diagonal dominante. $sta es una condición necesaria pero no suficiente. 3n sistema de ecuaciones se considera 'iagonal 'ominante cuando se cumple n
ai ,i
> ∑ ai , j
(1*
j =% j ≠i
$s decir, 3na condición suficiente para #ue se tenga una solución es #ue el valor absoluto de los coeficientes de la diagonal en cual#uier ecuación debe ser mayor #ue la suma del valor absoluto de los otros coeficientes en esa ecuación.
M#todo de Jacobi $s un método de sustitución simultáneo, denominado desplaamiento simultáneo, el cual tien su origen en método iterativo de unto Ei&o. $n el método de 4acobi el orden de operación de las ecuaciones es irrelevante dado #ue el método las trata en forma independiente, de allí su nombre como método de desplaamiento simultáneos, no obstante, se debe mantener la diagonal dominante en el sistema. $ste método se puede ilustrar usando las siguientes ecuaciones. a%% ⋅ x% + a%1 ⋅ x1
+ a% ⋅ x = b%
a1% ⋅ x% + a11 ⋅ x1
+ a1 ⋅ x = b1
a% ⋅ x% + a1 ⋅ x1
+ a ⋅ x = b
(*
$l método comiena despe&ando las ecuaciones anteriores (* para x1 , x2 y x3 respectivamente e introduciendo el índice k #ue indicará el n-mero de iteraciones, entonces, x%
( k +%*
x1
)"*o+$, G"ss-Se$'e., Re."/"*$n
( k +%*
=
=
b%
− a%1 ⋅ x1
( k *
− a% ⋅ x
( k *
− a1 ⋅ x
( k *
a%% b1
− a1% ⋅ x%
( k *
a 11
P"$n" 'e 32
9
x
( k +%*
=
b
− a% ⋅ x%
( k *
− a1 ⋅ x1
( k *
(;*
a
!demás se re#uiere de un vector inicial x D % (x% (D*, x1 (D*, x (D** el cual representa la primera aproximación de la solución del sistema, con lo #ue se produce xDH%' $l proceso se contin-a hasta #ue @ xDH% I xD @ +A ea. La generaliación de esta ecuación se escribe de la siguiente forma:
xi
(D +%*
=
n % b i 0 ai , j ⋅ x j ( k * a ii j =%
∑ j ≠ i
(8*
!l método de 4acobi se le conoce también como el método de los desplaamientos simultáneos, dado #ue el orden en #ue las ecuaciones son examinadas es indiferente.
%&e'plo ! (%&ercicio !!. *. ,-!) Gesolver el siguiente sistema de tres ecuaciones por el 5étodo de 4acobi: %9 J%
I 1 J1 I J A 8
08 J%
H 1% J1 I 1 J A 1
08 J%
I 8 J1 H 11 J A
Gesuelva este problema para un
A 8K
a
"i lo pasamos al formato de una matri y su vector de resultados, obtenemos lo siguiente:
%9 − 1 − x% 8:: − 8 1% − 1 x = 1:: 1 − 8 − 8 11 x : Las siguientes fórmulas las utiliamos para encontrar J%, J1 y J en cada una de las iteraciones. x%
=
b%
x 1
=
b1
x
=
b
− a%1 x 1 − a% x a%%
− a 1% x% − a 1 x a 11
− a% x% − a1 x 1 a
ara la primera iteración el valor de J%, J1 y J a sustituir en cada una se asumirá como cero. $ntonces para J%,
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
<
b% − a%1 x1
x%
=
x%
=
x%
=
x%
= 1=,;%%97
− a% x
a%% 8:: − ( − 1 ) ⋅ x1
− ( − ) ⋅ x
%9 8:: − ( − 1 ) ⋅ : − ( − ) ⋅ : %9
para J1, b1
− a 1% x% − a 1 x
x 1
=
x 1
=
x 1
=
x 1
= =,81<%
a 11
1:: − ( − 8) ⋅ x% − ( − 1 ) ⋅ x 1% 1:: − ( − 8) ⋅ : − ( − 1 ) ⋅ : 1%
para J, b
− a% x% − a1 x 1
x
=
x
=
x
= :
x
= %,77;
a : − ( − 8) ⋅ x%
− ( − 8) ⋅ x 1
11
− ( − 8) ⋅ : − ( − 8 ) ⋅ : 11
$ntonces en la primera iteración
= 1=,;%%97 x 1 = =,81<% x = %,77; x%
ara calcular los nuevos valores de la segunda iteración se utiliarán los resultados de J %, J1 y J obtenidos en la primera iteración. $ntonces para J%, b%
− a%1 x 1 − a% x
x%
=
x%
=
x%
=
x%
= :,991<8
a%% 8:: − ( − 1 ) ⋅ x 1
− ( − ) ⋅ x
%9 8:: − ( − 1 ) ⋅ =,81<% − ( − ) ⋅ %,77; %9
para J1,
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
=
− a 1% x% − a1 x
b1
x 1
=
x 1
=
x 1
=
x 1
= %7,787;<
a 11 1:: − ( − 8) ⋅ x%
− ( − 1) ⋅ x
1% 1:: − ( − 8) ⋅ 1=,;%%97 − ( − 1 ) ⋅ %,77; 1%
para J, b
− a % x% − a 1 x 1
x
=
x
=
x
= : − ( − 8) ⋅ 1=,;%%97 − ( − 8) ⋅ =,81<%
x
= %:,1%17
a : − ( − 8 ) ⋅ x% − ( − 8 ) ⋅ x 1 11 11
or tanto en la segunda iteración
= :,991<8 x 1 = %7,787;< x = %:, 1%17 x%
3na ve obtenidos estos resultados se deben calcular el error aproximado porcentual para cada uno, para ello se utiliará la siguiente fórmula:
− x−r x% anterior ⋅ %:: ⋅%:: KK nuevo nuevo
nuevo nuevo
xr x%
ε ax% == ε a
anterior
xr x%
:,991<8 − 1=,;%%97
ε ax%
=
ε ax%
= ;,;1K < 8K
:,991<8
⋅ %::K
ara J1, x 1
nuevo
− x 1 anterior
ε ax 1
=
ε ax 1
=
ε ax 1
= ;1,<11K > 8K
x 1
nuevo
⋅ %::K
%7,787;< − =,81<% %7,787;<
⋅ %::K
ara J,
ε ax
=
ε ax
=
x
nuevo
− x anterior
x
nuevo
⋅ %::K
%:,1%17 − %,77; ⋅ %::K %:,1%17
)"*o+$, G"ss-Se$'e., Re."/"*$n ε ax
= <7,7; 8K
P"$n" 'e 32
%
'ado #ue en dos de las incógnitas el error aproximado porcentual es mayor a un 8K se debe hacer una nueva iteración. "e contin-a realiando el mismo procedimiento con los nuevos valores de J obtenidos hasta #ue los errores aproximados porcentuales en las tres incógnitas sean menores #ue el 8K. $l resultado de estas iteraciones se presenta en la ?abla 8. ?abla 8: Gesultados de las iteraciones por el método de 4acobi del e&emplo % (e&ercicio %%.< pp. 1%*
Itera(i.'
x1
x2
X3
a x1
a x2
a x3
:
:;:::::
:;:::::
:;:::::
7
<=;>77?@
=;<7
7;@@>
<
:;??<
7@;@@>
7:;<7<@
>;><
><;<<
@;@>
;7?
7?;<7
7<;7>:
?;<?
@;>?
7;=?
>
;@77
7;??@
7<;=>
7;><:
>;:@@
@;<=
;>?
7;?@=??
7;<>7
:;@
7;:7
<;77
"e resaltan los datos donde los errores obtenidos son menores #ue 8K, se logra un error aproximado porcentual menor en las tres incógnitas hasta la #uinta iteración. or lo tanto los resultados aproximados #ue cumplen con la condición establecida son: x% =
,<<;9
x 1 = %<,97=99 x = %,1;%8
"i sustituimos estos valores en las ecuaciones originales para verificar los resultados obtenemos #ue: %9 >(,<<;9*
I 1 >(%<,97=99* I >(%,1;%8* A ;=<,999
08 >(,<<;9*
H 1% >(%<,97=99* I 1 >(%,1;%8* A %=<,19=89
08 >(,<<;9*
I 8 >(%<,97=99* H 11 >(%,1;%8* A 19,<<8%
!l calcular los porcenta&es de error de estos resultados se obtiene lo siguiente: $rror $)%
=
8:: 0 ;=<,999:
$rror $)1
=
1:: 0 %=<,19=89
$rror $)
=
: 0 19,<<8%
8:: 1:: :
⋅ %::K = :,:K ⋅ %::K = :,%:K
⋅ %::K = :,<
'e acuerdo con estos datos se puede observar #ue los resultados obtenidos son una aproximación muy buena de los valores verdaderos.
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
%%
M#todo de auss/eidel $ste método en general converge más rápidamente #ue el método de 4acobi, sin embargo presenta las mismas debilidades del método de 4acobi. $l método de /auss0"iedel supone #ue una me&or aproximación a la solución se obtiene sustituyendo los valores parciales obtenidos, lo cual se puede comprobar en la práctica. 3tiliando las ecuaciones vistas en (* a%% ⋅ x% + a%1 ⋅ x1
+ a% ⋅ x = b%
a1% ⋅ x% + a11 ⋅ x1
+ a1 ⋅ x = b1
a% ⋅ x% + a1 ⋅ x1
+ a ⋅ x = b
(*
despe&ando para x%, x 1 y x de las ecuaciones (7* y adicionando los valores ya obtenidos, esta se puede expresar como: x%
x1
x
( k +%*
( k +%*
( k +%*
b%
=
=
=
− a%1 ⋅ x1
− a% ⋅ x
( k *
( k *
a%%
− a1% ⋅ x%
b1
( k +%*
− a1 ⋅ x
( k *
a 11 b
− a% ⋅ x%
( k +%*
− a1 ⋅ x1
( k +%*
(9*
a
)omparando las ecuaciones (;* y (9* se observa #ue el valor de x% no se asume sino se calcula con los valores asumidos de x1 y x. osteriormente el valor de x% obtenido y x asumido, se usan para calcular x1. Einalmente el nuevo valor de x es el resultado de los valores calculados x% y x1.
La ecuación iterativa de este método nos lleva a:
xi
(D*
=
% b i 0 a ii
i −%
∑ j =%
ai , j ⋅ x j
( k *
n
0
∑
ai , j ⋅ x j
j =i +%
( k −%*
(<*
%&e'plo - (%&ercicio !!. *. ,-0)
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
%1
Gesolver el siguiente sistema de tres ecuaciones por el 5étodo de /auss0"eidel: %9 J%
I 1 J1 I J A 8
08 J%
H 1% J1 I 1 J A 1
08 J%
I 8 J1 H 11 J A
Gesuelva este problema para un
A 8K
a
"i lo pasamos al formato de una matri y su vector de resultados, obtenemos lo siguiente:
%9 − 1 − x% 8:: − 8 1% − 1 x = 1:: 1 − 8 − 8 11 x : Las siguientes fórmulas las utiliamos para encontrar J%, J1 y J en cada una de las iteraciones. x%
=
b%
x 1
=
b1
x
=
b
− a%1 x 1 − a% x a%%
− a 1% x% − a 1 x a 11
− a% x% − a1 x 1 a
ara calcular el primer valor de J%, se asumirán J1 y J con valores cero. $ntonces para J%, b% − a%1 x1
x%
=
x%
=
x%
=
x%
= 1=,;%%97
− a% x
a%% 8:: − ( − 1 ) ⋅ x1
− ( − ) ⋅ x
%9 8:: − ( − 1 ) ⋅ : − ( − ) ⋅ : %9
para calcular el valor de J1, se utiliará el valor encontrado de J % y el valor de J se asumirá como cero. b1
− a 1% x% − a 1 x
x 1
=
x 1
=
x 1
=
x 1
= %7,8177%
a 11 1:: − ( − 8 ) ⋅ x%
− ( − 1 ) ⋅ x
1% 1:: − ( − 8 ) ⋅ 1=,;%%97 − ( − 1 ) ⋅ : 1%
para calcular el valor de J, se utiliará el valor encontrado de J% y J1 en los pasos anteriores.
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
%
b
− a% x% − a1 x 1
x
=
x
=
x
=
x
= %%,<:;%<
a
: − ( − 8) ⋅ x%
− ( − 8) ⋅ x 1
11 : − ( − 8) ⋅ 1=,;%%97 − ( − 8) ⋅ %7,8177% 11
$ntonces en la primera iteración x% =
1=,;%%97
x 1 = %7,8177% x = %%,<:;%<
ara la segunda iteración, en el cálculo de J% el valor de J1 y J serán los calculados anteriormente. $ntonces para J%, b%
− a%1 x 1 − a% x
x%
=
x%
=
x%
=
x%
= ,;=%7
a%%
8:: − ( − 1 ) ⋅ x1
− ( − ) ⋅ x
%9 8:: − ( − 1 ) ⋅ %7,8177% − ( − ) ⋅ %%,<:;%< %9
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
%;
para J1 se utilia el valor de J de la primera iteración y el de J% de la segunda iteración, b1
− a 1% x% − a 1 x
x 1
=
x 1
=
x 1
=
x 1
= %<,7:=91
a11
1:: − ( − 8) ⋅ x%
− ( − 1) ⋅ x
1% 1:: − ( − 8) ⋅ ,;=%7 − ( − 1) ⋅ %%,<:;%< 1%
para J se utilia el valor de J % y J1 calculados en la segunda iteración,
− a% x% − a1 x1
b
x
=
x
=
x
=
x
= %,%=1=
a
: − ( − 8) ⋅ x%
− ( − 8) ⋅ x1
11 : − ( − 8) ⋅ ,;=%7 − ( − 8) ⋅ %<,7:=91 11
$ntonces en la segunda iteración x% =
,;=%7
x 1 = %<,7:=91 x = %,%=1=
3na ve obtenidos estos resultados, se debe calcular el error aproximado porcentual para cada uno de los resultados, para ello utiliamos la siguiente fórmula:
ε a
=
xr
nuevo
− xr
xr
anterior
nuevo
⋅%::K
ara J%, x%
nuevo
− x% anterior
ε ax%
=
ε ax%
=
ε ax%
= %1,:;K > 8K
x%
nuevo
⋅ %::K
,;=%7 − 1=,;%%97 ,;=%7
)"*o+$, G"ss-Se$'e., Re."/"*$n
⋅ %::K
P"$n" 'e 32
%8
ara J1, x 1
nuevo
− x 1 anterior
ε ax 1
=
ε ax 1
=
ε ax 1
= %%,%=;K > 8K
x1
nuevo
⋅ %::K
%<,7:=91 − %7,8177% %<,7:=91
⋅ %::K
ara J,
x
nuevo
− x anterior
ε ax
=
ε ax
=
ε ax
= %:,817 K > 8K
x
nuevo
⋅ %:: K
%,%=1= − %%,<:;%< ⋅ %:: K %,%=1=
'ado #ue en las tres incógnitas el error aproximado porcentual es mayor a un 8K se debe hacer una nueva iteración. "e contin-a realiando el mismo procedimiento con los nuevos valores de J obtenidos hasta #ue los errores aproximados porcentuales en las tres incógnitas sean menores #ue el 8K. $l resultado de estas iteraciones siguiendo el mismo procedimiento, se presenta en la tabla 7 ?abla 7: Gesultados de las iteraciones por el método de /aussM"eidel del e&emplo 1 (e&ercicio %%.9 pp. 1*
Itera(i.'
x1
x2
x3
a x1
a x2
a x3
:
:;:::::
7
<=;>77?@
7@;<@@7
77;:>7
<
;>=7@
7;@:=?<
7;7=<=
7<;:>>
77;7=>
7:;<@
;=<=7
7;@=
7;@:=7
7;>>
7;<:
7;<?
"e resaltan los datos donde los errores obtenidos son menores #ue 8K, se logra un error aproximado porcentual menor en las tres incógnitas en la tercera iteración. or lo tanto los resultados aproximados #ue cumplen con la condición establecida son: x% =
,=1=%
x 1 = %<,<8<7= x = %,7:=%
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
%7
"i sustituimos estos valores en las ecuaciones originales para verificar los resultados obtenemos #ue: %9 >(,=1=%*
I 1 >(%<,<8<7=* I >(%,7=%* A ;=<,==<%
08 >(,=1=%*
H 1% >(%<,<8<7=* I 1 >(%,7=%* A %==,77;;
08 >(,=1=%*
I 8 >(%<,<8<7=* H 11 >(%,7=%* A ,
!l calcular los porcenta&es de error de estos resultados se obtiene lo siguiente: $rror $)%
=
8:: 0 ;=<,==<%
$rror $)1
=
1:: 0 %==,77;:;
$rror $)
=
: 0 :
8:: 1:: :
⋅ %::K = :,1:K ⋅ %::K = :,%9K
⋅ %::K = :,::K
'e acuerdo con estos datos se puede observar #ue los resultados obtenidos son una aproximación muy buena de los valores verdaderos.
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
%9
Con$erencia $l método /auss0"eidel, al igual #ue la técnica de iteración de punto fi&o, puede también presentar dos problemas fundamentales: %. en algunas ocasiones no es convergente. 1. )uando converge, con frecuencia lo hace en forma muy lenta. $l criterio de convergencia se puede desarrollar al recordar #ue las condiciones suficientes para la convergencia de dos ecuaciones no lineales u(x, y* y v(x, y*, son: ∂u ∂ x
+
∂v ∂ x
< % ,
y consecuentemente
∂u ∂ y
+
∂v
<%
∂ y
$n consecuencia, si el valor absoluto de g(x* +%, entonces los errores disminuyen con cada iteración. "i el valor absoluto de g(x* O %, los errores crecen. ?ambién se debe tener en cuenta #ue si la derivada es positiva, los errores serán positivosP por otra parte si la derivada es negativa, entonces los errores oscilaran. $ste criterio de convergencia se aplica también a las ecuaciones lineales #ue se resuelven con el método de /auss0"eidel. or tanto, al aplicar este criterio sobre las ecuaciones de /auss0"eidel y evaluando con respecto a cada una de las incógnitas, obtenemos la expresión siguiente: a 1% a 11
< % , e igualmente
a%1 a%%
<%
$n otras palabras, el valor absoluto de las pendientes en la ecuación, deben ser menor #ue la unidad para asegurar la convergencia. !dicionalmente podemos reformular la ecuación anterior de la siguiente forma: a 11 > a 1%
, e igualmente
a%% > a%1
$sto es, el elemento diagonal debe ser mayor #ue el elemento fuera de la diagonal para cada reglón de ecuaciones. La generaliación del criterio anterior para un sistema de n ecuaciones, es directa y puede ser expresada como: n
a ii
)"*o+$, G"ss-Se$'e., Re."/"*$n
> ∑ a i , j j =%
P"$n" 'e 32
%<
M#todo auss 1 /eidel con rela&ación $l método de /auss0"eidel con rela&ación es muy similar al método de /auss0"iedel excepto #ue este usa un factor de escala para reducir el error de aproximación. )onsidérese el siguiente con&unto de ecuaciones n
∑ a x & A bi ,i A %, 1, …, n ij
j =%
or el método de /auss0"eidel, de (<*.
xi
(D*
=
n i −% b i 0 ∑ ai , j ⋅ x j ( k * 0 ∑ ai , j ⋅ x j ( k −%* j =i +% j =%
% a ii
'ebe notarse #ue para cada cálculo de xi, de las variables con índice menor #ue i tienen el índice k, mientras #ue las variables con índice mayor #ue i tienen el índice k!1"# La ecuación para el método de rela&ación se basa en la siguiente relación: ( *
xi k
x
( k * i
A
( k −%*
xi
$l término entre llaves
A
( k −%*
xi
( k * i
Hλ x 0 x
( k −%* i
*
i −% n % (k −%* ( k * ( k −%* − − b a x a x H λ a i ∑ ij j ∑ ij j − xi j =% j = i +% ii
i −% n % ( k −%* ( k * ( k −%* − − b a x a x a i ∑ ij j ∑ ij j − xi es &usto la diferencia entre ii j =% j =i +%
las variables de la previa y presente iteración seg-n el método de /auss0"iedel i −% n % ( k −%* ( k * ( k −%* a bi − ∑ aij x j − ∑ aij x j − xi A Q xi( k * − ii j =% j =i +%
( k −%*
xi
R/auss0"eidel
$sta diferencia es esencialmente el error #ue se ap roxima a cero para esta iteración. $l método de rela&ación obtiene un nuevo valor estimado multiplicando esta diferencia por un factor de escala λ y sumándolo al valor previo. La ecuación puede ser escrita de la siguiente forma: x
( k * i
( k −%*
A (% − λ * xi
)"*o+$, G"ss-Se$'e., Re."/"*$n
λ
H
a ii
i −% n ( k * ( k −%* − − b a x a x i ∑ ij j ∑ ij j j =% j = i +%
P"$n" 'e 32
%=
$ste método permite me&orar la convergencia ya #ue después de #ue se calcula cada nuevo valor de x, este se modifica mediante un promedio ponderado de los resultados anterior y actual. xi
nuevo
= λ ⋅ xi
nuevo
+ (% − λ * ⋅ xi
anterior
donde λ es un factor ponderado #ue tiene un valor entre y 1. "i λ A% el resultado no se modifica y la ecuación se transforma en la ecuación para /auss0"iedel, cuando λ + % el método es conocido como subrela(ación el cual se emplea para hacer #ue un sistema no convergente conver&a o apresure la convergencia a l amortiguar las oscilaciones. )uando λ O % es conocido como sobrerela(ación, se utilia cuando la convergencia se mueve en la dirección correcta hacia la solución verdadera, pero con una velocidad demasiado lenta. or lo tanto se pretende #ue con la ponderación me&ore la aproximación al llevarla más cerca de la verdadera. La elección de λ se especifica de forma empírica, generalmente este método no se utilia para la solución de un solo sistema de ecuaciones. $s más usual cuando un sistema en estudio se debe resolver de manera repetitiva, una buena selección de λ ayudará a me&orar significativamente la eficiencia del método.
%&e'plo , (%&ercicio !!.2 *. ,-!) $mplee el método de /auss0"eidel con rela&ación para resolver (λA.= y 08 J%
H %1 J A <
; J%
I % J1 I % J A 0 1
7 J%
H < J1
a
A 8K*:
A ;8
"i es necesario reordene las ecuaciones para #ue el sistema conver&a: "i lo pasamos al formato de una matri y su vector de resultados, obtenemos lo siguiente: %1 x% <: − 8 ; − % − % x = − 1 1 7 < x ;8
Serificando el criterio de convergencia mediante la siguiente ecuación: n
ai ,i
> ∑ ai , j j =% j ≠i
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
1
Gesolviendo esta ecuación para un sistema de x obtenemos lo siguiente: a%% > a%1 + a% a 11
> a 1% + a 1
a
> a % + a 1
)onvergencia: $sto #uiere decir #ue el elemento diagonal debe ser mayor al elemento fuera de la diagonal para cada fila. or tanto reorganiamos el sistema de la siguiente forma ; > −% + −%
; − % − % x% − 1 7 < x = ;8 1 − 8 %1 x <:
< > 7
⇒
%1 > − 8
or lo tanto se puede asegurar la convergencia con este arreglo. Las siguientes fórmulas las utiliamos para encontrar J%, J1 y J en cada una de las iteraciones.
− a%1 x 1 − a% x
x%
=
b%
x 1
=
b1
x
=
b
xi
a%%
− a 1% x% − a 1 x a 11
− a% x% − a1 x 1 a
nuevo
= λ ⋅ xi
nuevo
+ (% − λ * ⋅ xi
anterior
ara calcular el primer valor de J%, se asumirán J1 y J con valores cero. $ntonces para J%, b%
− a%1 x 1 − a% x
x%
=
x%
=
x%
=
x%
= −:,8::::
a%%
− 1 − ( − %) ⋅ x 1 − ( − %) ⋅ x ; − 1 − ( − %) ⋅ : − ( − %) ⋅ : ;
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
1%
para calcular el valor de J1, se utiliará solamente el valor encontrado de J%, dado #ue a1 es cero. b1
− a 1% x% − a 1 x
x 1
=
x 1
=
x 1
=
x 1
= 7,:::::
a 11 ;8 − ( 7) ⋅ x% < ;8 − ( 7) ⋅ (−:,8::::* <
para calcular el valor de J, se utiliará solamente el valor encontrado de J%, dado #ue a1 es cero. b
− a% x% − a 1 x 1
x
=
x
=
x
=
x
= 7,;8<
a <: − ( − 8) ⋅ x% %1 <: − ( − 8) ⋅ ( −:,8::::* %1
$ntonces en la primera iteración
= −:,8:::: x 1 = 7,::::: x = 7,;8< x%
ara la segunda iteración, en el cálculo de J% el valor de J1 y J serán los calculados en la primera iteración, seguidamente se le aplicará la ponderación con el factor λ. $ntonces para J%, b%
− a%1 x 1 − a% x
x%
=
x%
=
x%
=
x%
= 1,7%;8<
a%%
− 1 − ( − %) ⋅ x 1 − ( − %) ⋅ x ; − 1 − ( − %) ⋅ 7,:::: − ( − %) ⋅ 7,;8< ;
aplicando la ponderación
x%
nuevo
x%
nuevo
x%
nuevo
= λ ⋅ x% nuevo + (% − λ * ⋅ x%anterior = :,= ⋅ 1,7%;8< + (% − :,=* ⋅ (−:,8::::* = 1,:%
para J1 se utilia solamente el valor de J % de la segunda iteración, dado #ue a1 es cero.
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
11
b1
− a 1% x% − a 1 x
x 1
=
x 1
=
x 1
=
x 1
= ,<=977
a 11 ;8 − ( 7) ⋅ x% < ;8 − ( 7) ⋅ ( 1,:%* <
aplicando la ponderación x1
nuevo
x%
nuevo
x%
nuevo
= λ ⋅ x1 nuevo + (% − λ * ⋅ x1 anterior = :,= ⋅ ,<=977 + (% − :,=* ⋅ (7,:::::* = ;,%:9<=
para J se utilia solamente el valor de J% calculado en la segunda iteración, dado #ue a1 es cero. b
− a% x% − a1 x 1
x
=
x
=
x
=
x
= 9,717:
a <: − ( − 8) ⋅ x% %1 <: − ( − 8) ⋅ ( 1,:%* %1
aplicando la ponderación x x x
nuevo
= λ ⋅ x
nuevo
= :,= ⋅ 9,717: + (% − :,=* ⋅ (7,;8<*
nuevo
= 9,8:=8%
nuevo
+ (% − λ * ⋅ x
anterior
$ntonces en la segunda iteración
= 1,:% x 1 = ;,%:9<= x = 9,8:=8% x%
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
1
3na ve obtenidos estos resultados, se debe calcular el error aproximado porcentual para cada uno de los resultados, para ello utiliamos la siguiente fórmula: ε a
=
xr
nuevo
− xr
xr
anterior
nuevo
⋅%::K
ara J%, x%
nuevo
− x% anterior
ε ax%
=
ε ax%
=
ε ax%
= %1%,9%K > 8K
nuevo
x%
⋅ %::K
1,:% − ( −:,8::::* 1,:%
⋅ %::K
ara J1, x 1
nuevo
− x1 anterior
ε ax 1
=
ε ax 1
=
ε ax 1
= ;7,:7K > 8K
x 1
nuevo
⋅ %::K
;,%:9<= − 7,::::: ;,%:9<=
⋅ %::K
ara J, x
nuevo
− x anterior
ε ax
=
ε ax
=
ε ax
= %;,::K > 8K
x
nuevo
⋅ %::K
9,8:=8% − 7,;8< 9,8:=8%
⋅ %::K
'ado #ue en las tres incógnitas el error aproximado porcentual es mayor a un 8K se debe hacer una nueva iteración. "e contin-a realiando el mismo procedimiento con los nuevos valores de J obtenidos hasta #ue los errores aproximados porcentuales en las tres incógnitas sean menores #ue el 8K.
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
1;
$l resultado de estas iteraciones siguiendo el mismo procedimiento, se presenta en la ?abla 9. ?abla 9: Gesultados de las iteraciones por el método de /aussM"eidel con Gela&ación con un λA.= del e&emplo (e&ercicio %%.= pp. 1%*
Itera(i.'
x1
x2
x3
a x1
a x2
a x3
:
:;:::::
:;:::::
:;:::::
7
-:;::::
@;:::::
@;>
<
<;:7
>;7:?=
?;:=7
7<7;?7
>@;:@
7>;::
<;=><
;?7=
?;@>?=
;7
@;:
7;<
>
<;?
;><=
?;@@?
:;@?
:;?
:;7:
"e resaltan los datos donde los errores obtenidos son menores #ue 8K, se logra un error aproximado porcentual menor en las tres incógnitas en la cuarta iteración. or lo tanto los resultados aproximados #ue cumplen con la condición establecida son:
= 1,9<19 x 1 = ,<;1<= x = 9,7879 x%
"i sustituimos estos valores en las ecuaciones originales para verificar los resultados obtenemos #ue: %9 >(1,9<19*
I 1 >(,<;1<=* I >(9,7879* A 0%,=<788
08 >(1,9<19*
H 1% >(,<;1<=* I 1 >(9,7879* A ;8,%19%
08 >(1,9<19*
I 8 >(,<;1<=* H 11 >(9,7879* A 9=,=<=;%
!l calcular los porcenta&es de error de estos resultados se obtiene lo siguiente: $rror $)%
=
$rror $)1
=
$rror $)
=
0 1 0 (0%,=<788* 01 ;8 0 ;8,:%19% ;8 <: 0 9=,=<=;% <:
⋅ %::K = :,79K
⋅ %::K = −:,:K ⋅ %::K = :,:%K
'e acuerdo con estos datos se puede observar #ue los resultados obtenidos son una aproximación muy buena de los valores verdaderos.
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
18
"i graficamos la convergencia de los datos por el método de /auss0"eidel sencillo y el #ue posee rela&ación se puede observar lo siguiente:
)omo se puede ver el método con rela&ación amortigua las oscilaciones en los resultados hacia la convergencia.
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
17
%&ercicios adicionales "iguiendo los mismos procedimientos se resolvieron las ecuaciones del e&ercicio %%.% de la página 1 por el método de 4acobi, el de /auss0"eidel y el de /auss0"eidel con rela&ación, con el fin de poder comparar los tres métodos. "e busca un error aproximado menor o igual al 8K. "istema tridiagonal del e&ercicio %%.% 1 J%
I % J1
A %1;
0% J%
H 1 J1 I % J A ; I % J1 H 1 J A %;
"i lo pasamos al formato de una matri y su vector de resultados, obtenemos lo siguiente:
1 −% x% %1; − % 1 − % x = ; 1 − % 1 x %; ! continuación se presentan los resultados obtenidos utiliando $xcel.
%&e'plo 3 or el M#todo de Jacobi Eórmulas:
x%
=
b% − a%1 x1 − a% x a%%
x1
=
− a1% x% − a1 x
b1
a11 nuevo
ε a =
x
xr
=
b − a% x% − a1 x1 a
anterior
− xr
nuevo
xr
⋅%K
Gesultados obtenidos:
Itera(i.'
X1
x2
x3
a x1
a x2
a x3
:
:;:::::
:;:::::
:;:::::
7
@<;:::::
<;:::::
?;:::::
<
@;:::::
@;::::
;:::::
7;?
=>;<7
7<;::
:;<:::
?;::::
<;<:::
<7;>=
<;@@?
@;7?
>
:;?:::
>;?:::
<;?:::
:;@7=
7;:?
7;=><
=;?::
;<:::
>;?::
=;@:
:;=:
<;:=7
@
=;@<::
@;?::
>;@<::
:;=
7;:
:;?<<
?
=;=?:
@>;7<::
;=?:
>;=7
:;=:
77;:?
=>;:@<: =@;<7?
@;>?: @;@<:
=;:@<: >7;<7?
:;7
@;:7
:;<:
<;<>7
:;7<
;<7
=
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
19
7:
=@;<7<
?:;?7?
>7;<7<
:;:@
;:>=
:;77
$n amarillo se resaltan los resultados #ue indican un error aproximado menor o igual al 8K, esto es oscilante, hasta la décima iteración se consigue un error aproximado en las tres incógnitas #ue satisfaga el criterio de paro planteado. or lo tanto los resultados aproximados #ue cumplen con la condición establecida son:
= =7,1<%18 x 1 = 9:,9%<98 x = ;%,1<%18 x%
%&e'plo 4 or el M#todo de auss/eidel Eórmulas:
x%
=
b% − a%1 x1 − a% x a%%
x1
=
− a1% x% − a1 x
b1
a11 nuevo
ε a =
x
xr
=
b − a% x% − a1 x1 a
anterior
− xr
nuevo
xr
⋅%K
Gesultados obtenidos:
Itera(i.'
x1
x2
x3
a x1
a x2
a x3
:
:;:::::
7
@<;:::::
;:::::
<;::::
<
?;::::
;:::::
;::::
<7;:7=
?;?@
<=;7
;::::
@;:::::
;::::
77;<==
7;?
7<;=?
>
=;::::
@;:::::
>7;:::::
;>
?;
@;:=
=@;:::::
?:;::::
><;<:::
<;@:>
;>@
<;==
$n amarillo se resaltan los resultados #ue indican un error aproximado menor o igual al 8K, se consigue en la #uinta iteración un error aproximado en las tres incógnitas #ue satisfaga el criterio de paro planteado. or lo tanto los resultados aproximados #ue cumplen con la condición establecida son:
= =7,::::: x 1 = 9:,8:::: x = ;1,18::: x%
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
1<
)omo se puede observar el resultado se obtuvo en la mitad de las iteraciones #ue se re#uirieron con el método de 4acobi.
%&e'plo 5 or el M#todo de auss/eidel con rela&ación )on λ A %,1 Eórmulas:
x%
=
b% − a%1 x1 − a% x
x1
a%% xi
nuevo
=
b1
− a1% x% − a1 x a11
=
b − a% x% − a1 x1 a
= λ ⋅ xi nuevo + (% − λ * ⋅ xi anterior nuevo
ε a =
x
xr
anterior
− xr
⋅%K
nuevo
xr
Gesultados obtenidos:
Itera(i.'
x1
x2
x3
a x1
a x2
a x3
:
:;:::::
:;:::::
:;:::::
7
@<;:::::
;:::::
<;::::
<
7;::::
;=:::
=;:::
<>;<:
>>;:>=
=;?=
=;><::
?:;77@:
><;@:@
7<;>>@
7;?=
;
>
=?;?<@
?<;@?7
>;><7
>;>
;>?>
7;>
$n amarillo se resaltan los resultados #ue indican un error aproximado menor o igual al 8K, se consigue en la cuarta iteración un error aproximado en las tres incógnitas #ue satisfaga el criterio de paro planteado. or lo tanto los resultados aproximados #ue cumplen con la condición establecida son:
= =9,9<187 x 1 = 91,79%8 x = ;,;81%< x%
)omo se observa el resultado se obtuvo en una iteración menos #ue cuando se utilió el método sin rela&ación.
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
1=
Taciendo un resumen de los resultados obtenidos en la siguiente tabla:
57
=;
7:
a%ore" a#ro+imado" Ja(obi Seide% CRe%a =@;<7 =@;::: =?;?
5<
?;:
?:;?7=
?:;::
?<;@?
;7
;><
:;:
5
>;
>
>7;<7
><;<:
>;><
;7:
<;?
:;77
I'(.)'ita
a%ore" Itera(io'e" ,erdadero"
Errore" ,erdadero" Ja(obi Seide% CRe%a <;< <;> :;?
"e puede observar entonces #ue el método de 4acobi es el #ue utilia una mayor cantidad de iteraciones y #ue además tiene errores mayores con respecto al valor verdadero. $n el caso de "eidel los errores son medianos, pero la cantidad de las iteraciones en mucho menor #ue en el caso de 4acobi. ara el caso en el #ue se utilia /auss0"eidel con rela&ación se obtienen valores más cercanos a los verdaderos con una cantidad de iteraciones menor. "in embargo el inconveniente radica en la elección del valor de λ para lo cual no hay un criterio establecido, más #ue la experiencia. Ubservando esto gráficamente en cada una de las variables:
)"*o+$, G"ss-Se$'e., Re."/"*$n
P"$n" 'e 32
$n modo gráfico se observa #ue para las tres incógnitas con método de 4acobi los resultados son más oscilantes y convergen de forma más lenta.
or el 5étodo de /auss0"eidel se da una convergencia relativamente rápida.
"i al 5étodo de /auss0"eidel le aplicamos rela&ación la convergencia es mucho más rápida hacia los valores verdaderos.
/6ntesis La técnica aproximada por conocer como método de /auss0"eidel, difiere de las técnicas exactas por#ue emplea un es#uema iterativo para obtener, progresivamente, estimaciones más cercanas a la solución. $l efecto del error de redondeo es un punto discutible en el método de /auss0"eidel, ya #ue se pueden continuar las iteraciones hasta #ue se obtenga la precisión deseada. !demás, se pueden desarrollar versiones del método de /auss0"eidel para utiliar de manera eficiente los re#uerimientos de almacena&e en computadora con sistemas dispersos. $n consecuencia, la técnica de /auss0"eidel es -til para grandes sistemas de ecuaciones, donde los re#uerimientos de almacena&e podrían llevar a problemas significativos con las técnicas exactas. La desventa&a del método de /auss0"eidel es #ue no siempre converge o algunas veces converge de manera lenta a la solución verdadera. $s confiable sólo para a#uellos sistemas #ue son diagonalmente dominantes. "in embargo, los métodos de rela&ación contrarrestan tales desventa&as. !demás, como muchos sistemas de ecuaciones algebraicas lineales surgen de sistemas físicos #ue presentan dominancia diagonal, el método de /auss0"eidel tiene gran utilidad para resolver problemas de ingeniería. $n resumen, varios factores serán relevantes en la elección de una técnica para un problema en particular #ue involucre ecuaciones algebraicas lineales. No obstante, como se mencionó antes, el tama2o y la densidad del sistema son factores particularmente importantes en la determinación de su elección. La figura 1 se emplea para resumir los algoritmos para solucionar ecuaciones algebraicas lineales y proporciona una visión general, #ue será de gran ayuda para revisar y aclarar las principales diferencias entre los métodos.
'esplaamiento succesivo
'esplaamiento simultáneo
rimera iteración
"egunda iteración
/auss0"eidel
/auss0"eidel con rela&ación
)"*o+$, G"ss-Se$'e., Re."/"*$n
Fterativo de 4acobi
xinuevo
= λ xinuevo + (% − λ * xianterior
P"$n" 'e 32
%