Método iterativo

Algoritmo en el que cada aproximación de la solución se deriva de aproximaciones anteriores.

En matemáticas computacionales , un método iterativo es un procedimiento matemático que utiliza un valor inicial para generar una secuencia de soluciones aproximadas mejoradas para una clase de problemas, en el que la i -ésima aproximación (llamada "iterar") se deriva de las anteriores.

Una implementación específica con criterios de terminación para un método iterativo dado como descenso de gradiente , escalada de colinas , método de Newton o métodos cuasi-Newton como BFGS , es un algoritmo de un método iterativo o un método de aproximación sucesiva . Un método iterativo se denomina convergente si la secuencia correspondiente converge para aproximaciones iniciales dadas. Generalmente se realiza un análisis de convergencia matemáticamente riguroso de un método iterativo; sin embargo, los métodos iterativos basados ​​en heurísticas también son comunes.

Por el contrario, los métodos directos intentan resolver el problema mediante una secuencia finita de operaciones. En ausencia de errores de redondeo , los métodos directos proporcionarían una solución exacta (por ejemplo, resolver un sistema lineal de ecuaciones mediante eliminación gaussiana ). Los métodos iterativos suelen ser la única opción para ecuaciones no lineales . Sin embargo, los métodos iterativos suelen ser útiles incluso para problemas lineales que involucran muchas variables (a veces del orden de millones), donde los métodos directos serían prohibitivamente costosos (y en algunos casos imposibles) incluso con la mejor potencia de cálculo disponible. [1] A incógnita = b {\displaystyle A\mathbf {x} =\mathbf {b} }

Puntos fijos atractivos

Si una ecuación puede expresarse en la forma f ( x ) = x , y una solución x es un punto fijo atractivo de la función f , entonces se puede empezar con un punto x 1 en la cuenca de atracción de x , y sea x n + 1 = f ( x n ) para n  ≥ 1, y la secuencia { x n } n  ≥ 1 convergerá a la solución x . Aquí x n es la n ésima aproximación o iteración de x y x n + 1 es la siguiente o n + 1 iteración de x . Alternativamente, los superíndices entre paréntesis se utilizan a menudo en métodos numéricos, para no interferir con subíndices con otros significados. (Por ejemplo, x ( n + 1) = f ( x ( n ) ).) Si la función f es continuamente diferenciable , una condición suficiente para la convergencia es que el radio espectral de la derivada esté estrictamente acotado por uno en una vecindad del punto fijo. Si esta condición se cumple en el punto fijo, entonces debe existir un vecindario suficientemente pequeño (cuenca de atracción).

Sistemas lineales

En el caso de un sistema de ecuaciones lineales , las dos clases principales de métodos iterativos son los métodos iterativos estacionarios y los métodos del subespacio de Krylov más generales .

Métodos iterativos estacionarios

Introducción

Los métodos iterativos estacionarios resuelven un sistema lineal con un operador que se aproxima al original y, basándose en una medición del error en el resultado ( el residuo ), forman una "ecuación de corrección" para la que se repite este proceso. Si bien estos métodos son simples de derivar, implementar y analizar, la convergencia solo está garantizada para una clase limitada de matrices.

Definición

Un método iterativo se define por

incógnita a + 1 := O ( incógnita a ) , a 0 {\displaystyle \mathbf {x} ^{k+1}:=\Psi (\mathbf {x} ^{k})\,,\quad k\geq 0}

y para un sistema lineal dado con solución exacta el error por A incógnita = b {\displaystyle A\mathbf {x} =\mathbf {b} } incógnita {\displaystyle \mathbf {x} ^{*}}

mi a := incógnita a incógnita , a 0 . {\displaystyle \mathbf {e} ^{k}:=\mathbf {x} ^{k}-\mathbf {x} ^{*}\,,\quad k\geq 0\,.}

Un método iterativo se denomina lineal si existe una matriz tal que do R norte × norte {\displaystyle C\in \mathbb {R} ^{n\times n}}

mi a + 1 = do mi a a 0 {\displaystyle \mathbf {e} ^{k+1}=C\mathbf {e} ^{k}\quad \forall \,k\geq 0}

y esta matriz se llama matriz de iteración . Un método iterativo con una matriz de iteración dada se llama convergente si se cumple lo siguiente do {\estilo de visualización C}

límite a do a = 0 . {\displaystyle \lim _{k\rightarrow \infty }C^{k}=0\,.}

Un teorema importante establece que para un método iterativo dado y su matriz de iteración es convergente si y solo si su radio espectral es menor que la unidad, es decir, do {\estilo de visualización C} ρ ( do ) {\displaystyle \rho (C)}

ρ ( do ) < 1 . {\displaystyle \rho(C)<1\,.}

Los métodos iterativos básicos funcionan dividiendo la matriz en A {\estilo de visualización A}

A = METRO norte {\displaystyle A=MN}

y aquí la matriz debería ser fácilmente invertible . Los métodos iterativos ahora se definen como METRO {\estilo de visualización M}

METRO incógnita a + 1 = norte incógnita a + b , a 0 . {\displaystyle M\mathbf {x} ^{k+1}=N\mathbf {x} ^{k}+b\,,\quad k\geq 0\,.}

De esto se deduce que la matriz de iteración está dada por

do = I METRO 1 A = METRO 1 norte . {\displaystyle C=IM^{-1}A=M^{-1}N\,.}

Ejemplos

Los ejemplos básicos de métodos iterativos estacionarios utilizan una división de la matriz como A {\estilo de visualización A}

A = D + yo + , D := diagnóstico ( ( a i i ) i ) {\displaystyle A=D+L+U\,,\quad D:={\text{diag}}((a_{ii})_{i})}

donde es solo la parte diagonal de , y es la parte triangular inferior estricta de . Respectivamente, es la parte triangular superior estricta de . D {\estilo de visualización D} A {\estilo de visualización A} yo {\estilo de visualización L} A {\estilo de visualización A} {\estilo de visualización U} A {\estilo de visualización A}

Los métodos iterativos estacionarios lineales también se denominan métodos de relajación .

Métodos del subespacio de Krylov

Los métodos de subespacio de Krylov funcionan formando una base de la secuencia de potencias de matriz sucesivas multiplicadas por el residuo inicial (la secuencia de Krylov ). Las aproximaciones a la solución se forman luego minimizando el residuo sobre el subespacio formado. El método prototípico en esta clase es el método del gradiente conjugado (CG) que supone que la matriz del sistema es simétrica positiva-definida . Para matrices simétricas (y posiblemente indefinidas) se trabaja con el método del residuo mínimo (MINRES). En el caso de matrices no simétricas, se han derivado métodos como el método del residuo mínimo generalizado (GMRES) y el método del gradiente biconjugado (BiCG). A {\displaystyle A} A {\displaystyle A}

Convergencia de los métodos del subespacio de Krylov

Dado que estos métodos forman una base, es evidente que el método converge en N iteraciones, donde N es el tamaño del sistema. Sin embargo, en presencia de errores de redondeo, esta afirmación no se cumple; además, en la práctica, N puede ser muy grande y el proceso iterativo alcanza una precisión suficiente mucho antes. El análisis de estos métodos es difícil, ya que depende de una función compleja del espectro del operador.

Preacondicionadores

El operador de aproximación que aparece en los métodos iterativos estacionarios también se puede incorporar en métodos de subespacios de Krylov como GMRES (alternativamente, los métodos de Krylov preacondicionados se pueden considerar como aceleraciones de métodos iterativos estacionarios), donde se convierten en transformaciones del operador original en uno presumiblemente mejor condicionado. La construcción de preacondicionadores es un área de investigación amplia.

Métodos de aproximación sucesiva

Los métodos matemáticos relacionados con la aproximación sucesiva incluyen:

Historia

Jamshīd al-Kāshī utilizó métodos iterativos para calcular el seno de 1° y π en el Tratado de la cuerda y el seno con gran precisión. Un método iterativo temprano para resolver un sistema lineal apareció en una carta de Gauss a un estudiante suyo. Propuso resolver un sistema de ecuaciones de 4 por 4 resolviendo repetidamente el componente en el que el residuo era el más grande [ cita requerida ] .

La teoría de los métodos iterativos estacionarios se estableció sólidamente con el trabajo de DM Young a partir de la década de 1950. El método del gradiente conjugado también se inventó en la década de 1950, con desarrollos independientes de Cornelius Lanczos , Magnus Hestenes y Eduard Stiefel , pero su naturaleza y aplicabilidad fueron mal entendidas en ese momento. Solo en la década de 1970 se comprendió que los métodos basados ​​en la conjugación funcionan muy bien para ecuaciones diferenciales parciales , especialmente el tipo elíptico.

Véase también

Referencias

  1. ^ Amritkar, Amit; de Sturler, Eric; Świrydowicz, Katarzyna; Tafti, Danesh; Ahuja, Kapil (2015). "Reciclaje de subespacios de Krylov para aplicaciones de CFD y un nuevo solucionador de reciclaje híbrido". Journal of Computational Physics . 303 : 222. arXiv : 1501.03358 . Código Bibliográfico :2015JCoPh.303..222A. doi :10.1016/j.jcp.2015.09.040.
  2. ^ "Matemáticas babilónicas". Matemáticas babilónicas . 1 de diciembre de 2000.
  3. ^ Day, Mahlon (2 de noviembre de 1960). Teoremas de punto fijo para conjuntos convexos compactos . Mahlon M Day.
  • Plantillas para la solución de sistemas lineales
  • Y. Saad: Métodos iterativos para sistemas lineales dispersos, 1.ª edición, PWS 1996
Retrieved from "https://en.wikipedia.org/w/index.php?title=Iterative_method&oldid=1251703760"