Proyección (álgebra lineal)

Transformación lineal idempotente de un espacio vectorial a sí mismo
La transformación P es la proyección ortogonal sobre la recta m .

En álgebra lineal y análisis funcional , una proyección es una transformación lineal de un espacio vectorial a sí mismo (un endomorfismo ) tal que . Es decir, siempre que se aplica dos veces a cualquier vector, da el mismo resultado que si se aplicara una vez (es decir, es idempotente ). Deja su imagen sin cambios. [1] Esta definición de "proyección" formaliza y generaliza la idea de proyección gráfica . También se puede considerar el efecto de una proyección sobre un objeto geométrico examinando el efecto de la proyección sobre puntos del objeto. PAG {\estilo de visualización P} PAG PAG = PAG {\displaystyle P\circ P=P} PAG {\estilo de visualización P} PAG {\estilo de visualización P}

Definiciones

Una proyección sobre un espacio vectorial es un operador lineal tal que . V {\estilo de visualización V} PAG : V V {\displaystyle P\dos puntos V\a V} PAG 2 = PAG Estilo de visualización P^{2}=P

Cuando tiene un producto interno y es completo , es decir, cuando es un espacio de Hilbert , se puede utilizar el concepto de ortogonalidad . Una proyección sobre un espacio de Hilbert se denomina proyección ortogonal si satisface para todo . Una proyección sobre un espacio de Hilbert que no es ortogonal se denomina proyección oblicua . V {\estilo de visualización V} V {\estilo de visualización V} PAG {\estilo de visualización P} V {\estilo de visualización V} PAG incógnita , y = incógnita , PAG y {\displaystyle \langle P\mathbf {x} ,\mathbf {y} \rangle =\langle \mathbf {x} ,P\mathbf {y} \rangle } incógnita , y V {\displaystyle \mathbf {x} ,\mathbf {y} \in V}

Matriz de proyección

  • Una matriz cuadrada se denomina matriz de proyección si es igual a su cuadrado, es decir si . [2] : p. 38  P {\displaystyle P} P 2 = P {\displaystyle P^{2}=P}
  • Una matriz cuadrada se denomina matriz de proyección ortogonal si para una matriz real , y respectivamente para una matriz compleja , donde denota la transpuesta de y denota la transpuesta adjunta o hermítica de . [2] : p. 223  P {\displaystyle P} P 2 = P = P T {\displaystyle P^{2}=P=P^{\mathrm {T} }} P 2 = P = P {\displaystyle P^{2}=P=P^{*}} P T {\displaystyle P^{\mathrm {T} }} P {\displaystyle P} P {\displaystyle P^{*}} P {\displaystyle P}
  • Una matriz de proyección que no es una matriz de proyección ortogonal se denomina matriz de proyección oblicua .

Los valores propios de una matriz de proyección deben ser 0 o 1.

Ejemplos

Proyección ortogonal

Por ejemplo, la función que mapea el punto en el espacio tridimensional al punto es una proyección ortogonal sobre el plano xy . Esta función está representada por la matriz ( x , y , z ) {\displaystyle (x,y,z)} R 3 {\displaystyle \mathbb {R} ^{3}} ( x , y , 0 ) {\displaystyle (x,y,0)} P = [ 1 0 0 0 1 0 0 0 0 ] . {\displaystyle P={\begin{bmatrix}1&0&0\\0&1&0\\0&0&0\end{bmatrix}}.}

La acción de esta matriz sobre un vector arbitrario es P [ x y z ] = [ x y 0 ] . {\displaystyle P{\begin{bmatrix}x\\y\\z\end{bmatrix}}={\begin{bmatrix}x\\y\\0\end{bmatrix}}.}

Para ver que efectivamente es una proyección, es decir , calculamos P {\displaystyle P} P = P 2 {\displaystyle P=P^{2}} P 2 [ x y z ] = P [ x y 0 ] = [ x y 0 ] = P [ x y z ] . {\displaystyle P^{2}{\begin{bmatrix}x\\y\\z\end{bmatrix}}=P{\begin{bmatrix}x\\y\\0\end{bmatrix}}={\begin{bmatrix}x\\y\\0\end{bmatrix}}=P{\begin{bmatrix}x\\y\\z\end{bmatrix}}.}

Observando esto se ve que la proyección es una proyección ortogonal. P T = P {\displaystyle P^{\mathrm {T} }=P}

Proyección oblicua

Un ejemplo simple de una proyección no ortogonal (oblicua) es P = [ 0 0 α 1 ] . {\displaystyle P={\begin{bmatrix}0&0\\\alpha &1\end{bmatrix}}.}

Mediante la multiplicación de matrices , se puede ver que efectivamente se trata de una proyección. P 2 = [ 0 0 α 1 ] [ 0 0 α 1 ] = [ 0 0 α 1 ] = P . {\displaystyle P^{2}={\begin{bmatrix}0&0\\\alpha &1\end{bmatrix}}{\begin{bmatrix}0&0\\\alpha &1\end{bmatrix}}={\begin{bmatrix}0&0\\\alpha &1\end{bmatrix}}=P.} P {\displaystyle P}

La proyección es ortogonal si y sólo si porque sólo entonces P {\displaystyle P} α = 0 {\displaystyle \alpha =0} P T = P . {\displaystyle P^{\mathrm {T} }=P.}

Propiedades y clasificación

La transformación T es la proyección a lo largo de k sobre m . El rango de T es m y el núcleo es k .

Idempotencia

Por definición, una proyección es idempotente (es decir, ). P {\displaystyle P} P 2 = P {\displaystyle P^{2}=P}

Abrir mapa

Cada proyección es un mapa abierto , lo que significa que asigna cada conjunto abierto en el dominio a un conjunto abierto en la topología del subespacio de la imagen . [ cita requerida ] Es decir, para cualquier vector y cualquier bola (con radio positivo) centrada en , existe una bola (con radio positivo) centrada en que está completamente contenida en la imagen . x {\displaystyle \mathbf {x} } B x {\displaystyle B_{\mathbf {x} }} x {\displaystyle \mathbf {x} } B P x {\displaystyle B_{P\mathbf {x} }} P x {\displaystyle P\mathbf {x} } P ( B x ) {\displaystyle P(B_{\mathbf {x} })}

Complementariedad de la imagen y el núcleo

Sea un espacio vectorial de dimensión finita y una proyección sobre . Supóngase que los subespacios y son la imagen y el núcleo de respectivamente. Entonces tiene las siguientes propiedades: W {\displaystyle W} P {\displaystyle P} W {\displaystyle W} U {\displaystyle U} V {\displaystyle V} P {\displaystyle P} P {\displaystyle P}

  1. P {\displaystyle P} es el operador de identidad en : I {\displaystyle I} U {\displaystyle U} x U : P x = x . {\displaystyle \forall \mathbf {x} \in U:P\mathbf {x} =\mathbf {x} .}
  2. Tenemos una suma directa . Cada vector puede descomponerse de forma única como con y , y donde W = U V {\displaystyle W=U\oplus V} x W {\displaystyle \mathbf {x} \in W} x = u + v {\displaystyle \mathbf {x} =\mathbf {u} +\mathbf {v} } u = P x {\displaystyle \mathbf {u} =P\mathbf {x} } v = x P x = ( I P ) x {\displaystyle \mathbf {v} =\mathbf {x} -P\mathbf {x} =\left(I-P\right)\mathbf {x} } u U , v V . {\displaystyle \mathbf {u} \in U,\mathbf {v} \in V.}

La imagen y el núcleo de una proyección son complementarios , como lo son y . El operador es también una proyección, ya que la imagen y el núcleo de se convierten en el núcleo y la imagen de y viceversa. Decimos que es una proyección a lo largo de sobre (núcleo/imagen) y es una proyección a lo largo de sobre . P {\displaystyle P} Q = I P {\displaystyle Q=I-P} Q {\displaystyle Q} P {\displaystyle P} Q {\displaystyle Q} P {\displaystyle P} V {\displaystyle V} U {\displaystyle U} Q {\displaystyle Q} U {\displaystyle U} V {\displaystyle V}

Espectro

En espacios vectoriales de dimensión infinita, el espectro de una proyección está contenido en como Solo 0 o 1 pueden ser valores propios de una proyección. Esto implica que una proyección ortogonal es siempre una matriz semidefinida positiva . En general, los espacios propios correspondientes son (respectivamente) el núcleo y el rango de la proyección. La descomposición de un espacio vectorial en sumas directas no es única. Por lo tanto, dado un subespacio , puede haber muchas proyecciones cuyo rango (o núcleo) sea . { 0 , 1 } {\displaystyle \{0,1\}} ( λ I P ) 1 = 1 λ I + 1 λ ( λ 1 ) P . {\displaystyle (\lambda I-P)^{-1}={\frac {1}{\lambda }}I+{\frac {1}{\lambda (\lambda -1)}}P.} P {\displaystyle P} V {\displaystyle V} V {\displaystyle V}

Si una proyección no es trivial tiene un polinomio mínimo , que se factoriza en factores lineales distintos y, por lo tanto, es diagonalizable . x 2 x = x ( x 1 ) {\displaystyle x^{2}-x=x(x-1)} P {\displaystyle P}

Producto de proyecciones

El producto de proyecciones no es en general una proyección, incluso si son ortogonales. Si dos proyecciones conmutan , entonces su producto es una proyección, pero la inversa es falsa: el producto de dos proyecciones no conmutativas puede ser una proyección.

Si dos proyecciones ortogonales conmutan, entonces su producto es una proyección ortogonal. Si el producto de dos proyecciones ortogonales es una proyección ortogonal, entonces las dos proyecciones ortogonales conmutan (de manera más general: dos endomorfismos autoadjuntos conmutan si y solo si su producto es autoadjunto).

Proyecciones ortogonales

Cuando el espacio vectorial tiene un producto interno y es completo (es un espacio de Hilbert ) se puede utilizar el concepto de ortogonalidad . Una proyección ortogonal es una proyección para la cual el rango y el núcleo son subespacios ortogonales . Por lo tanto, para cada y en , . Equivalentemente: W {\displaystyle W} U {\displaystyle U} V {\displaystyle V} x {\displaystyle \mathbf {x} } y {\displaystyle \mathbf {y} } W {\displaystyle W} P x , ( y P y ) = ( x P x ) , P y = 0 {\displaystyle \langle P\mathbf {x} ,(\mathbf {y} -P\mathbf {y} )\rangle =\langle (\mathbf {x} -P\mathbf {x} ),P\mathbf {y} \rangle =0} x , P y = P x , P y = P x , y . {\displaystyle \langle \mathbf {x} ,P\mathbf {y} \rangle =\langle P\mathbf {x} ,P\mathbf {y} \rangle =\langle P\mathbf {x} ,\mathbf {y} \rangle .}

Una proyección es ortogonal si y solo si es autoadjunta . Utilizando las propiedades autoadjuntas e idempotentes de , para cualquier y en tenemos , , y donde es el producto interno asociado con . Por lo tanto, y son proyecciones ortogonales. [3] La otra dirección, a saber, que si es ortogonal entonces es autoadjunta, se sigue de la implicación de a para cada y en ; por lo tanto . P {\displaystyle P} x {\displaystyle \mathbf {x} } y {\displaystyle \mathbf {y} } W {\displaystyle W} P x U {\displaystyle P\mathbf {x} \in U} y P y V {\displaystyle \mathbf {y} -P\mathbf {y} \in V} P x , y P y = x , ( P P 2 ) y = 0 {\displaystyle \langle P\mathbf {x} ,\mathbf {y} -P\mathbf {y} \rangle =\langle \mathbf {x} ,\left(P-P^{2}\right)\mathbf {y} \rangle =0} , {\displaystyle \langle \cdot ,\cdot \rangle } W {\displaystyle W} P {\displaystyle P} I P {\displaystyle I-P} P {\displaystyle P} ( x P x ) , P y = P x , ( y P y ) = 0 {\displaystyle \langle (\mathbf {x} -P\mathbf {x} ),P\mathbf {y} \rangle =\langle P\mathbf {x} ,(\mathbf {y} -P\mathbf {y} )\rangle =0} x , P y = P x , P y = P x , y = x , P y {\displaystyle \langle \mathbf {x} ,P\mathbf {y} \rangle =\langle P\mathbf {x} ,P\mathbf {y} \rangle =\langle P\mathbf {x} ,\mathbf {y} \rangle =\langle \mathbf {x} ,P^{*}\mathbf {y} \rangle } x {\displaystyle x} y {\displaystyle y} W {\displaystyle W} P = P {\displaystyle P=P^{*}}

La existencia de una proyección ortogonal sobre un subespacio cerrado se desprende del teorema de proyección de Hilbert .

Propiedades y casos especiales

Una proyección ortogonal es un operador acotado . Esto se debe a que para cada en el espacio vectorial tenemos, por la desigualdad de Cauchy-Schwarz : Por lo tanto . v {\displaystyle \mathbf {v} } P v 2 = P v , P v = P v , v P v v {\displaystyle \left\|P\mathbf {v} \right\|^{2}=\langle P\mathbf {v} ,P\mathbf {v} \rangle =\langle P\mathbf {v} ,\mathbf {v} \rangle \leq \left\|P\mathbf {v} \right\|\cdot \left\|\mathbf {v} \right\|} P v v {\displaystyle \left\|P\mathbf {v} \right\|\leq \left\|\mathbf {v} \right\|}

Para espacios vectoriales complejos o reales de dimensión finita, el producto interno estándar se puede sustituir por . , {\displaystyle \langle \cdot ,\cdot \rangle }

Fórmulas

Un caso simple ocurre cuando la proyección ortogonal es sobre una línea. Si es un vector unitario sobre la línea, entonces la proyección está dada por el producto externo (Si es de valor complejo, la transpuesta en la ecuación anterior se reemplaza por una transpuesta hermítica). Este operador deja u invariante y aniquila todos los vectores ortogonales a , lo que demuestra que es de hecho la proyección ortogonal sobre la línea que contiene a u . [4] Una forma sencilla de ver esto es considerar un vector arbitrario como la suma de un componente en la línea (es decir, el vector proyectado que buscamos) y otro perpendicular a él, . Aplicando la proyección, obtenemos las propiedades del producto escalar de vectores paralelos y perpendiculares. u {\displaystyle \mathbf {u} } P u = u u T . {\displaystyle P_{\mathbf {u} }=\mathbf {u} \mathbf {u} ^{\mathsf {T}}.} u {\displaystyle \mathbf {u} } u {\displaystyle \mathbf {u} } x {\displaystyle \mathbf {x} } x = x + x {\displaystyle \mathbf {x} =\mathbf {x} _{\parallel }+\mathbf {x} _{\perp }} P u x = u u T x + u u T x = u ( sgn ( u T x ) x ) + u 0 = x {\displaystyle P_{\mathbf {u} }\mathbf {x} =\mathbf {u} \mathbf {u} ^{\mathsf {T}}\mathbf {x} _{\parallel }+\mathbf {u} \mathbf {u} ^{\mathsf {T}}\mathbf {x} _{\perp }=\mathbf {u} \left(\operatorname {sgn} \left(\mathbf {u} ^{\mathsf {T}}\mathbf {x} _{\parallel }\right)\left\|\mathbf {x} _{\parallel }\right\|\right)+\mathbf {u} \cdot \mathbf {0} =\mathbf {x} _{\parallel }}

Esta fórmula se puede generalizar a proyecciones ortogonales sobre un subespacio de dimensión arbitraria . Sea una base ortonormal del subespacio , con el supuesto de que el entero , y sea la matriz cuyas columnas son , es decir, . Entonces la proyección viene dada por: [5] que se puede reescribir como u 1 , , u k {\displaystyle \mathbf {u} _{1},\ldots ,\mathbf {u} _{k}} U {\displaystyle U} k 1 {\displaystyle k\geq 1} A {\displaystyle A} n × k {\displaystyle n\times k} u 1 , , u k {\displaystyle \mathbf {u} _{1},\ldots ,\mathbf {u} _{k}} A = [ u 1 u k ] {\displaystyle A={\begin{bmatrix}\mathbf {u} _{1}&\cdots &\mathbf {u} _{k}\end{bmatrix}}} P A = A A T {\displaystyle P_{A}=AA^{\mathsf {T}}} P A = i u i , u i . {\displaystyle P_{A}=\sum _{i}\langle \mathbf {u} _{i},\cdot \rangle \mathbf {u} _{i}.}

La matriz es la isometría parcial que se desvanece en el complemento ortogonal de , y es la isometría que se incorpora al espacio vectorial subyacente. Por lo tanto, el rango de es el espacio final de . También está claro que es el operador identidad en . A T {\displaystyle A^{\mathsf {T}}} U {\displaystyle U} A {\displaystyle A} U {\displaystyle U} P A {\displaystyle P_{A}} A {\displaystyle A} A A T {\displaystyle AA^{\mathsf {T}}} U {\displaystyle U}

También se puede descartar la condición de ortonormalidad. Si es una base (no necesariamente ortonormal) con , y es la matriz con estos vectores como columnas, entonces la proyección es: [6] [7] u 1 , , u k {\displaystyle \mathbf {u} _{1},\ldots ,\mathbf {u} _{k}} k 1 {\displaystyle k\geq 1} A {\displaystyle A} P A = A ( A T A ) 1 A T . {\displaystyle P_{A}=A\left(A^{\mathsf {T}}A\right)^{-1}A^{\mathsf {T}}.}

La matriz todavía se integra en el espacio vectorial subyacente, pero ya no es una isometría en general. La matriz es un "factor normalizador" que recupera la norma. Por ejemplo, el operador de rango -1 no es una proyección si Después de dividir por obtenemos la proyección sobre el subespacio generado por . A {\displaystyle A} U {\displaystyle U} ( A T A ) 1 {\displaystyle \left(A^{\mathsf {T}}A\right)^{-1}} u u T {\displaystyle \mathbf {u} \mathbf {u} ^{\mathsf {T}}} u 1. {\displaystyle \left\|\mathbf {u} \right\|\neq 1.} u T u = u 2 , {\displaystyle \mathbf {u} ^{\mathsf {T}}\mathbf {u} =\left\|\mathbf {u} \right\|^{2},} u ( u T u ) 1 u T {\displaystyle \mathbf {u} \left(\mathbf {u} ^{\mathsf {T}}\mathbf {u} \right)^{-1}\mathbf {u} ^{\mathsf {T}}} u {\displaystyle u}

En el caso general, podemos tener una matriz definida positiva arbitraria que defina un producto interno y la proyección está dada por . Entonces D {\displaystyle D} x , y D = y D x {\displaystyle \langle x,y\rangle _{D}=y^{\dagger }Dx} P A {\displaystyle P_{A}} P A x = argmin y range ( A ) x y D 2 {\textstyle P_{A}x=\operatorname {argmin} _{y\in \operatorname {range} (A)}\left\|x-y\right\|_{D}^{2}} P A = A ( A T D A ) 1 A T D . {\displaystyle P_{A}=A\left(A^{\mathsf {T}}DA\right)^{-1}A^{\mathsf {T}}D.}

Cuando el espacio de rango de la proyección es generado por un marco (es decir, el número de generadores es mayor que su dimensión), la fórmula para la proyección toma la forma: . Aquí representa la pseudoinversa de Moore-Penrose . Esta es solo una de las muchas formas de construir el operador de proyección. P A = A A + {\displaystyle P_{A}=AA^{+}} A + {\displaystyle A^{+}}

Si es una matriz no singular y (es decir, es la matriz del espacio nulo de ), [8] se cumple lo siguiente: [ A B ] {\displaystyle {\begin{bmatrix}A&B\end{bmatrix}}} A T B = 0 {\displaystyle A^{\mathsf {T}}B=0} B {\displaystyle B} A {\displaystyle A} I = [ A B ] [ A B ] 1 [ A T B T ] 1 [ A T B T ] = [ A B ] ( [ A T B T ] [ A B ] ) 1 [ A T B T ] = [ A B ] [ A T A O O B T B ] 1 [ A T B T ] = A ( A T A ) 1 A T + B ( B T B ) 1 B T {\displaystyle {\begin{aligned}I&={\begin{bmatrix}A&B\end{bmatrix}}{\begin{bmatrix}A&B\end{bmatrix}}^{-1}{\begin{bmatrix}A^{\mathsf {T}}\\B^{\mathsf {T}}\end{bmatrix}}^{-1}{\begin{bmatrix}A^{\mathsf {T}}\\B^{\mathsf {T}}\end{bmatrix}}\\&={\begin{bmatrix}A&B\end{bmatrix}}\left({\begin{bmatrix}A^{\mathsf {T}}\\B^{\mathsf {T}}\end{bmatrix}}{\begin{bmatrix}A&B\end{bmatrix}}\right)^{-1}{\begin{bmatrix}A^{\mathsf {T}}\\B^{\mathsf {T}}\end{bmatrix}}\\&={\begin{bmatrix}A&B\end{bmatrix}}{\begin{bmatrix}A^{\mathsf {T}}A&O\\O&B^{\mathsf {T}}B\end{bmatrix}}^{-1}{\begin{bmatrix}A^{\mathsf {T}}\\B^{\mathsf {T}}\end{bmatrix}}\\[4pt]&=A\left(A^{\mathsf {T}}A\right)^{-1}A^{\mathsf {T}}+B\left(B^{\mathsf {T}}B\right)^{-1}B^{\mathsf {T}}\end{aligned}}}

Si la condición ortogonal se mejora a no singular, se cumple lo siguiente: A T W B = A T W T B = 0 {\displaystyle A^{\mathsf {T}}WB=A^{\mathsf {T}}W^{\mathsf {T}}B=0} W {\displaystyle W} I = [ A B ] [ ( A T W A ) 1 A T ( B T W B ) 1 B T ] W . {\displaystyle I={\begin{bmatrix}A&B\end{bmatrix}}{\begin{bmatrix}\left(A^{\mathsf {T}}WA\right)^{-1}A^{\mathsf {T}}\\\left(B^{\mathsf {T}}WB\right)^{-1}B^{\mathsf {T}}\end{bmatrix}}W.}

Todas estas fórmulas también son válidas para espacios de producto interno complejos, siempre que se utilice la transpuesta conjugada en lugar de la transpuesta. Se pueden encontrar más detalles sobre las sumas de proyectores en Banerjee y Roy (2014). [9] Véase también Banerjee (2004) [10] para la aplicación de las sumas de proyectores en trigonometría esférica básica .

Proyecciones oblicuas

El término proyecciones oblicuas se utiliza a veces para referirse a proyecciones no ortogonales. Estas proyecciones también se utilizan para representar figuras espaciales en dibujos bidimensionales (véase proyección oblicua ), aunque no con tanta frecuencia como las proyecciones ortogonales. Mientras que el cálculo del valor ajustado de una regresión de mínimos cuadrados ordinarios requiere una proyección ortogonal, el cálculo del valor ajustado de una regresión de variables instrumentales requiere una proyección oblicua.

Una proyección se define por su núcleo y los vectores base utilizados para caracterizar su rango (que es un complemento del núcleo). Cuando estos vectores base son ortogonales al núcleo, entonces la proyección es una proyección ortogonal. Cuando estos vectores base no son ortogonales al núcleo, la proyección es una proyección oblicua o simplemente una proyección.

Una fórmula de representación matricial para un operador de proyección distinto de cero

Sea un operador lineal tal que y supongamos que no es el operador cero. Sean los vectores una base para el rango de , y ensamblemos estos vectores en la matriz . Entonces , en caso contrario y es el operador cero. El rango y el núcleo son espacios complementarios, por lo que el núcleo tiene dimensión . Se deduce que el complemento ortogonal del núcleo tiene dimensión . Sean una base para el complemento ortogonal del núcleo de la proyección, y ensamblemos estos vectores en la matriz . Entonces la proyección (con la condición ) está dada por P : V V {\displaystyle P\colon V\to V} P 2 = P {\displaystyle P^{2}=P} P {\displaystyle P} u 1 , , u k {\displaystyle \mathbf {u} _{1},\ldots ,\mathbf {u} _{k}} P {\displaystyle P} n × k {\displaystyle n\times k} A {\displaystyle A} k 1 {\displaystyle k\geq 1} k = 0 {\displaystyle k=0} P {\displaystyle P} n k {\displaystyle n-k} k {\displaystyle k} v 1 , , v k {\displaystyle \mathbf {v} _{1},\ldots ,\mathbf {v} _{k}} B {\displaystyle B} P {\displaystyle P} k 1 {\displaystyle k\geq 1} P = A ( B T A ) 1 B T . {\displaystyle P=A\left(B^{\mathsf {T}}A\right)^{-1}B^{\mathsf {T}}.}

Esta expresión generaliza la fórmula para proyecciones ortogonales dada anteriormente. [11] [12] Una prueba estándar de esta expresión es la siguiente. Para cualquier vector en el espacio vectorial , podemos descomponer , donde vector está en la imagen de , y vector Entonces , y entonces está en el núcleo de , que es el espacio nulo de En otras palabras, el vector está en el espacio columna de entonces para alguna dimensión vector y el vector satisface por la construcción de . Juntemos estas condiciones y encontramos un vector tal que . Dado que las matrices y son de rango completo por su construcción, la -matriz es invertible. Entonces la ecuación da el vector De esta manera, para cualquier vector y por lo tanto . x {\displaystyle \mathbf {x} } V {\displaystyle V} x = x 1 + x 2 {\displaystyle \mathbf {x} =\mathbf {x} _{1}+\mathbf {x} _{2}} x 1 = P ( x ) {\displaystyle \mathbf {x} _{1}=P(\mathbf {x} )} P {\displaystyle P} x 2 = x P ( x ) . {\displaystyle \mathbf {x} _{2}=\mathbf {x} -P(\mathbf {x} ).} P ( x 2 ) = P ( x ) P 2 ( x ) = 0 {\displaystyle P(\mathbf {x} _{2})=P(\mathbf {x} )-P^{2}(\mathbf {x} )=\mathbf {0} } x 2 {\displaystyle \mathbf {x} _{2}} P {\displaystyle P} A . {\displaystyle A.} x 1 {\displaystyle \mathbf {x} _{1}} A , {\displaystyle A,} x 1 = A w {\displaystyle \mathbf {x} _{1}=A\mathbf {w} } k {\displaystyle k} w {\displaystyle \mathbf {w} } x 2 {\displaystyle \mathbf {x} _{2}} B T x 2 = 0 {\displaystyle B^{\mathsf {T}}\mathbf {x} _{2}=\mathbf {0} } B {\displaystyle B} w {\displaystyle \mathbf {w} } B T ( x A w ) = 0 {\displaystyle B^{\mathsf {T}}(\mathbf {x} -A\mathbf {w} )=\mathbf {0} } A {\displaystyle A} B {\displaystyle B} k {\displaystyle k} k × k {\displaystyle k\times k} B T A {\displaystyle B^{\mathsf {T}}A} B T ( x A w ) = 0 {\displaystyle B^{\mathsf {T}}(\mathbf {x} -A\mathbf {w} )=\mathbf {0} } w = ( B T A ) 1 B T x . {\displaystyle \mathbf {w} =(B^{\mathsf {T}}A)^{-1}B^{\mathsf {T}}\mathbf {x} .} P x = x 1 = A w = A ( B T A ) 1 B T x {\displaystyle P\mathbf {x} =\mathbf {x} _{1}=A\mathbf {w} =A(B^{\mathsf {T}}A)^{-1}B^{\mathsf {T}}\mathbf {x} } x V {\displaystyle \mathbf {x} \in V} P = A ( B T A ) 1 B T {\displaystyle P=A(B^{\mathsf {T}}A)^{-1}B^{\mathsf {T}}}

En el caso de que sea una proyección ortogonal, podemos tomar , y se sigue que . Al usar esta fórmula, se puede verificar fácilmente que . En general, si el espacio vectorial está sobre un cuerpo de números complejos, se usa la transpuesta hermítica y se tiene la fórmula . Recordemos que se puede expresar la inversa de Moore-Penrose de la matriz por ya que tiene rango de columna completo, por lo que . P {\displaystyle P} A = B {\displaystyle A=B} P = A ( A T A ) 1 A T {\displaystyle P=A\left(A^{\mathsf {T}}A\right)^{-1}A^{\mathsf {T}}} P = P T {\displaystyle P=P^{\mathsf {T}}} A {\displaystyle A^{*}} P = A ( A A ) 1 A {\displaystyle P=A\left(A^{*}A\right)^{-1}A^{*}} A {\displaystyle A} A + = ( A A ) 1 A {\displaystyle A^{+}=(A^{*}A)^{-1}A^{*}} A {\displaystyle A} P = A A + {\displaystyle P=AA^{+}}

Valores singulares

I P {\displaystyle I-P} es también una proyección oblicua. Los valores singulares de y pueden calcularse mediante una base ortonormal de . Sea una base ortonormal de y sea el complemento ortogonal de . Denotemos los valores singulares de la matriz por los valores positivos . Con esto, los valores singulares para son: [13] y los valores singulares para son Esto implica que los valores singulares más grandes de y son iguales y, por lo tanto, que la norma matricial de las proyecciones oblicuas es la misma. Sin embargo, el número de condición satisface la relación y, por lo tanto, no es necesariamente igual. P {\displaystyle P} I P {\displaystyle I-P} A {\displaystyle A} Q A {\displaystyle Q_{A}} A {\displaystyle A} Q A {\displaystyle Q_{A}^{\perp }} Q A {\displaystyle Q_{A}} Q A T A ( B T A ) 1 B T Q A {\displaystyle Q_{A}^{T}A(B^{T}A)^{-1}B^{T}Q_{A}^{\perp }} γ 1 γ 2 γ k {\displaystyle \gamma _{1}\geq \gamma _{2}\geq \ldots \geq \gamma _{k}} P {\displaystyle P} σ i = { 1 + γ i 2 1 i k 0 otherwise {\displaystyle \sigma _{i}={\begin{cases}{\sqrt {1+\gamma _{i}^{2}}}&1\leq i\leq k\\0&{\text{otherwise}}\end{cases}}} I P {\displaystyle I-P} σ i = { 1 + γ i 2 1 i k 1 k + 1 i n k 0 otherwise {\displaystyle \sigma _{i}={\begin{cases}{\sqrt {1+\gamma _{i}^{2}}}&1\leq i\leq k\\1&k+1\leq i\leq n-k\\0&{\text{otherwise}}\end{cases}}} P {\displaystyle P} I P {\displaystyle I-P} κ ( I P ) = σ 1 1 σ 1 σ k = κ ( P ) {\displaystyle \kappa (I-P)={\frac {\sigma _{1}}{1}}\geq {\frac {\sigma _{1}}{\sigma _{k}}}=\kappa (P)}

Encontrar la proyección con un producto interno

Sea un espacio vectorial (en este caso un plano) abarcado por vectores ortogonales . Sea un vector. Se puede definir una proyección de sobre como donde los índices repetidos se suman sobre ( notación de suma de Einstein ). El vector se puede escribir como una suma ortogonal tal que . a veces se denota como . Hay un teorema en álgebra lineal que establece que esta es la distancia más pequeña (la distancia ortogonal ) de a y se usa comúnmente en áreas como el aprendizaje automático . V {\displaystyle V} u 1 , u 2 , , u p {\displaystyle \mathbf {u} _{1},\mathbf {u} _{2},\dots ,\mathbf {u} _{p}} y {\displaystyle y} y {\displaystyle \mathbf {y} } V {\displaystyle V} proj V y = y u i u i u i u i {\displaystyle \operatorname {proj} _{V}\mathbf {y} ={\frac {\mathbf {y} \cdot \mathbf {u} ^{i}}{\mathbf {u} ^{i}\cdot \mathbf {u} ^{i}}}\mathbf {u} ^{i}} y {\displaystyle \mathbf {y} } y = proj V y + z {\displaystyle \mathbf {y} =\operatorname {proj} _{V}\mathbf {y} +\mathbf {z} } proj V y {\displaystyle \operatorname {proj} _{V}\mathbf {y} } y ^ {\displaystyle {\hat {\mathbf {y} }}} z {\displaystyle \mathbf {z} } y {\displaystyle \mathbf {y} } V {\displaystyle V}

y se proyecta sobre el espacio vectorial V.

Formas canónicas

Toda proyección sobre un espacio vectorial de dimensión sobre un cuerpo es una matriz diagonalizable , ya que su polinomio mínimo divide a , que se descompone en factores lineales distintos. Por lo tanto, existe una base en la que tiene la forma P = P 2 {\displaystyle P=P^{2}} d {\displaystyle d} x 2 x {\displaystyle x^{2}-x} P {\displaystyle P}

P = I r 0 d r {\displaystyle P=I_{r}\oplus 0_{d-r}}

donde es el rango de . Aquí está la matriz identidad de tamaño , es la matriz cero de tamaño , y es el operador de suma directa . Si el espacio vectorial es complejo y está equipado con un producto interno , entonces existe una base ortonormal en la que la matriz de P es [14] r {\displaystyle r} P {\displaystyle P} I r {\displaystyle I_{r}} r {\displaystyle r} 0 d r {\displaystyle 0_{d-r}} d r {\displaystyle d-r} {\displaystyle \oplus }

P = [ 1 σ 1 0 0 ] [ 1 σ k 0 0 ] I m 0 s . {\displaystyle P={\begin{bmatrix}1&\sigma _{1}\\0&0\end{bmatrix}}\oplus \cdots \oplus {\begin{bmatrix}1&\sigma _{k}\\0&0\end{bmatrix}}\oplus I_{m}\oplus 0_{s}.}

donde . Los números enteros y reales están determinados de forma única. . El factor corresponde al subespacio invariante máximo sobre el que actúa como proyección ortogonal (de modo que P en sí mismo es ortogonal si y sólo si ) y los -bloques corresponden a los componentes oblicuos . σ 1 σ 2 σ k > 0 {\displaystyle \sigma _{1}\geq \sigma _{2}\geq \dots \geq \sigma _{k}>0} k , s , m {\displaystyle k,s,m} σ i {\displaystyle \sigma _{i}} 2 k + s + m = d {\displaystyle 2k+s+m=d} I m 0 s {\displaystyle I_{m}\oplus 0_{s}} P {\displaystyle P} k = 0 {\displaystyle k=0} σ i {\displaystyle \sigma _{i}}

Proyecciones sobre espacios vectoriales normados

Cuando el espacio vectorial subyacente es un espacio vectorial normado (no necesariamente de dimensión finita) , es necesario considerar cuestiones analíticas, irrelevantes en el caso de dimensión finita. Supongamos ahora que es un espacio de Banach . X {\displaystyle X} X {\displaystyle X}

Muchos de los resultados algebraicos discutidos anteriormente sobreviven al pasaje a este contexto. Una descomposición de suma directa dada de en subespacios complementarios aún especifica una proyección, y viceversa. Si es la suma directa , entonces el operador definido por sigue siendo una proyección con rango y núcleo . También está claro que . Por el contrario, si es una proyección sobre , es decir , entonces se verifica fácilmente que . En otras palabras, también es una proyección. La relación implica y es la suma directa . X {\displaystyle X} X {\displaystyle X} X = U V {\displaystyle X=U\oplus V} P ( u + v ) = u {\displaystyle P(u+v)=u} U {\displaystyle U} V {\displaystyle V} P 2 = P {\displaystyle P^{2}=P} P {\displaystyle P} X {\displaystyle X} P 2 = P {\displaystyle P^{2}=P} ( 1 P ) 2 = ( 1 P ) {\displaystyle (1-P)^{2}=(1-P)} 1 P {\displaystyle 1-P} P 2 = P {\displaystyle P^{2}=P} 1 = P + ( 1 P ) {\displaystyle 1=P+(1-P)} X {\displaystyle X} rg ( P ) rg ( 1 P ) {\displaystyle \operatorname {rg} (P)\oplus \operatorname {rg} (1-P)}

Sin embargo, a diferencia del caso de dimensión finita, las proyecciones no necesitan ser continuas en general. Si un subespacio de no es cerrado en la topología de la norma, entonces la proyección sobre no es continua. En otras palabras, el rango de una proyección continua debe ser un subespacio cerrado. Además, el núcleo de una proyección continua (de hecho, un operador lineal continuo en general) es cerrado. Por lo tanto, una proyección continua da una descomposición de en dos subespacios complementarios cerrados : . U {\displaystyle U} X {\displaystyle X} U {\displaystyle U} P {\displaystyle P} P {\displaystyle P} X {\displaystyle X} X = rg ( P ) ker ( P ) = ker ( 1 P ) ker ( P ) {\displaystyle X=\operatorname {rg} (P)\oplus \ker(P)=\ker(1-P)\oplus \ker(P)}

La inversa también se cumple, con un supuesto adicional. Supóngase que es un subespacio cerrado de . Si existe un subespacio cerrado tal que X = UV , entonces la proyección con rango y núcleo es continua. Esto se deduce del teorema del grafo cerrado . Supóngase x nx y Px ny . Es necesario demostrar que . Como es cerrado y { Px n } ⊂ U , y se encuentra en , es decir, Py = y . Además, x nPx n = ( IP ) x nxy . Como es cerrado y {( IP ) x n } ⊂ V , tenemos , es decir , , lo que prueba la afirmación. U {\displaystyle U} X {\displaystyle X} V {\displaystyle V} P {\displaystyle P} U {\displaystyle U} V {\displaystyle V} P x = y {\displaystyle Px=y} U {\displaystyle U} U {\displaystyle U} V {\displaystyle V} x y V {\displaystyle x-y\in V} P ( x y ) = P x P y = P x y = 0 {\displaystyle P(x-y)=Px-Py=Px-y=0}

El argumento anterior hace uso de la suposición de que tanto y son cerrados. En general, dado un subespacio cerrado , no es necesario que exista un subespacio cerrado complementario , aunque para los espacios de Hilbert esto siempre se puede hacer tomando el complemento ortogonal . Para los espacios de Banach, un subespacio unidimensional siempre tiene un subespacio complementario cerrado. Esta es una consecuencia inmediata del teorema de Hahn-Banach . Sea el espacio lineal de . Por Hahn-Banach, existe un funcional lineal acotado tal que φ ( u ) = 1 . El operador satisface , es decir, es una proyección. La acotación de implica continuidad de y, por lo tanto, es un subespacio complementario cerrado de . U {\displaystyle U} V {\displaystyle V} U {\displaystyle U} V {\displaystyle V} U {\displaystyle U} u {\displaystyle u} φ {\displaystyle \varphi } P ( x ) = φ ( x ) u {\displaystyle P(x)=\varphi (x)u} P 2 = P {\displaystyle P^{2}=P} φ {\displaystyle \varphi } P {\displaystyle P} ker ( P ) = rg ( I P ) {\displaystyle \ker(P)=\operatorname {rg} (I-P)} U {\displaystyle U}

Aplicaciones y consideraciones adicionales

Las proyecciones (ortogonales y otras) juegan un papel importante en los algoritmos para ciertos problemas de álgebra lineal:

Como se indicó anteriormente, las proyecciones son un caso especial de idempotentes. Analíticamente, las proyecciones ortogonales son generalizaciones no conmutativas de funciones características . Los idempotentes se utilizan para clasificar, por ejemplo, álgebras semisimples , mientras que la teoría de la medida comienza considerando funciones características de conjuntos mensurables . Por lo tanto, como se puede imaginar, las proyecciones se encuentran muy a menudo en el contexto de las álgebras de operadores . En particular, un álgebra de von Neumann se genera por su red completa de proyecciones.

Generalizaciones

En términos más generales, dado un mapa entre espacios vectoriales normados, se puede pedir análogamente que este mapa sea una isometría sobre el complemento ortogonal del núcleo: que sea una isometría (compárese con Isometría parcial ); en particular, debe ser sobre . El caso de una proyección ortogonal es cuando W es un subespacio de V. En geometría de Riemann , esto se utiliza en la definición de una inmersión de Riemann . T : V W , {\displaystyle T\colon V\to W,} ( ker T ) W {\displaystyle (\ker T)^{\perp }\to W}

Véase también

Notas

  1. ^ Meyer, págs. 386+387
  2. ^ ab Horn, Roger A.; Johnson, Charles R. (2013). Análisis de matrices, segunda edición . Cambridge University Press. ISBN 9780521839402.
  3. ^ Meyer, pág. 433
  4. ^ Meyer, pág. 431
  5. ^ Meyer, ecuación (5.13.4)
  6. ^ Banerjee, Sudipto; Roy, Anindya (2014), Álgebra lineal y análisis matricial para estadística, Textos en ciencia estadística (1.ª ed.), Chapman y Hall/CRC, ISBN 978-1420095388
  7. ^ Meyer, ecuación (5.13.3)
  8. ^ Véase también Mínimos cuadrados lineales (matemáticas) § Propiedades de los estimadores de mínimos cuadrados .
  9. ^ Banerjee, Sudipto; Roy, Anindya (2014), Álgebra lineal y análisis matricial para estadística, Textos en ciencia estadística (1.ª ed.), Chapman y Hall/CRC, ISBN 978-1420095388
  10. ^ Banerjee, Sudipto (2004), "Revisitando la trigonometría esférica con proyectores ortogonales", The College Mathematics Journal , 35 (5): 375–381, doi :10.1080/07468342.2004.11922099, S2CID  122277398
  11. ^ Banerjee, Sudipto; Roy, Anindya (2014), Álgebra lineal y análisis matricial para estadística, Textos en ciencia estadística (1.ª ed.), Chapman y Hall/CRC, ISBN 978-1420095388
  12. ^ Meyer, ecuación (7.10.39)
  13. ^ Brust, JJ; Marcia, RF; Petra, CG (2020), "Descomposiciones computacionalmente eficientes de matrices de proyección oblicua", Revista SIAM sobre análisis de matrices y aplicaciones , 41 (2): 852–870, doi :10.1137/19M1288115, OSTI  1680061, S2CID  219921214
  14. ^ Doković, D. Ž. (Agosto de 1991). "Similitud unitaria de proyectores". Aecuaciones Mathematicae . 42 (1): 220–224. doi :10.1007/BF01818492. S2CID  122704926.

Referencias

  • Banerjee, Sudipto; Roy, Anindya (2014), Álgebra lineal y análisis matricial para estadística , Textos en ciencia estadística (1.ª ed.), Chapman y Hall/CRC, ISBN 978-1420095388
  • Dunford, N.; Schwartz, JT (1958). Operadores lineales, parte I: teoría general . Interscience.
  • Meyer, Carl D. (2000). Análisis matricial y álgebra lineal aplicada. Sociedad de Matemáticas Industriales y Aplicadas. ISBN 978-0-89871-454-8.
  • Conferencia sobre Álgebra Lineal del MIT sobre Matrices de Proyección en YouTube , de MIT OpenCourseWare
  • Álgebra lineal 15d: La transformación de proyección en YouTube , por Pavel Grinfeld .
  • Tutorial de proyecciones geométricas planas: un tutorial fácil de seguir que explica los diferentes tipos de proyecciones geométricas planas.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Projection_(linear_algebra)&oldid=1245799592"