Las matrices semidefinidas positivas se definen de manera similar, excepto que se requiere que los escalares y sean positivos o cero (es decir, no negativos). Las matrices definidas negativas y semidefinidas negativas se definen de manera análoga. Una matriz que no es semidefinida positiva ni semidefinida negativa a veces se denomina indefinida .
Las matrices definidas positivas y semidefinidas positivas se pueden caracterizar de muchas maneras, lo que puede explicar la importancia del concepto en varias partes de las matemáticas. Una matriz M es definida positiva si y solo si satisface cualquiera de las siguientes condiciones equivalentes.
Una matriz es semidefinida positiva si satisface condiciones equivalentes similares donde "positivo" se reemplaza por "no negativo", "matriz invertible" se reemplaza por "matriz" y se elimina la palabra "principal".
Las matrices reales definidas positivas y semidefinidas positivas son la base de la optimización convexa , ya que, dada una función de varias variables reales que es dos veces diferenciable , entonces si su matriz hessiana (matriz de sus segundas derivadas parciales) es definida positiva en un punto , entonces la función es convexa cerca de p , y, a la inversa, si la función es convexa cerca de p, entonces la matriz hessiana es semidefinida positiva en
El conjunto de matrices definidas positivas es un cono convexo abierto , mientras que el conjunto de matrices semidefinidas positivas es un cono convexo cerrado . [2]
Algunos autores utilizan definiciones más generales de definición, incluidas algunas matrices reales no simétricas o complejas no hermíticas.
Definiciones
En las siguientes definiciones, es la transpuesta de es la transpuesta conjugada de y denota el vector cero de n dimensiones .
Definiciones para matrices reales
Se dice que una matriz real simétrica es definida positiva si para todo valor distinto de cero en Formalmente,
Se dice que una matriz real simétrica es positiva-semidefinida o no negativa-definida si para todo en Formalmente,
Se dice que una matriz real simétrica es definida negativamente si para todo valor distinto de cero en Formalmente,
Se dice que una matriz real simétrica es semidefinida negativa o no definida positiva si para todo en Formalmente,
Una matriz real simétrica que no es ni semidefinida positiva ni semidefinida negativa se llama indefinida .
Definiciones para matrices complejas
Las siguientes definiciones implican el término. Nótese que este siempre es un número real para cualquier matriz cuadrada hermítica.
Se dice que una matriz compleja hermítica es definida positiva si para todos los valores distintos de cero en Formalmente,
Se dice que una matriz compleja hermítica es semidefinida positiva o no definida negativamente si para todo en Formalmente,
Se dice que una matriz compleja hermítica es definida negativamente si para todos los valores distintos de cero en Formalmente,
Se dice que una matriz compleja hermítica es semidefinida negativa o no definida positiva si para todo en Formalmente,
Una matriz compleja hermítica que no es ni semidefinida positiva ni semidefinida negativa se denomina indefinida .
Coherencia entre definiciones reales y complejas
Dado que toda matriz real es también una matriz compleja, las definiciones de "definición" para las dos clases deben coincidir.
Para matrices complejas, la definición más común dice que es definida positiva si y solo si es real y positiva para todo vector columna complejo distinto de cero. Esta condición implica que es hermítica (es decir, su transpuesta es igual a su conjugado), ya que al ser real, es igual a su transpuesta conjugada para todo lo que implica
Según esta definición, una matriz real definida positiva es hermítica, por lo tanto simétrica; y es positiva para todos los vectores columna reales distintos de cero . Sin embargo, la última condición por sí sola no es suficiente para que sea definida positiva. Por ejemplo, si
Entonces, para cualquier vector real con entradas y tenemos que siempre es positivo si no es cero. Sin embargo, si es el vector complejo con entradas 1 y se obtiene
que no es real. Por lo tanto, no es positiva-definida.
Por otra parte, para una matriz real simétrica la condición " para todos los vectores reales distintos de cero implica que es positiva-definida en el sentido complejo.
Notación
Si una matriz hermítica es semidefinida positiva, a veces se escribe y si es positiva-definida se escribe Para denotar que es semidefinida negativa se escribe y para denotar que es negativa-definida se escribe
Una notación alternativa común es y para matrices semidefinidas positivas y definidas positivas, semidefinidas negativas y definidas negativas, respectivamente. Esto puede resultar confuso, ya que a veces las matrices no negativas (respectivamente, matrices no positivas) también se denotan de esta manera.
Ejemplos
La matriz identidad es definida positiva (y como tal también semidefinida positiva). Es una matriz simétrica real y, para cualquier vector columna z distinto de cero con elementos reales a y b , se tiene
Vista como una matriz compleja, para cualquier vector columna z
distinto de cero con entradas complejas a y b se tiene
De cualquier manera, el resultado es positivo ya que no es el vector cero (es decir, al menos uno de y no es cero).
La matriz simétrica real
es definida positivamente ya que para cualquier vector columna z distinto de cero con entradas a , b y c , tenemos
Este resultado es una suma de cuadrados y, por lo tanto, no negativo; y es cero solo si es así, cuando es el vector cero.
Para cualquier matriz invertible real, el producto es una matriz definida positiva (si las medias de las columnas de A son 0, entonces también se denomina matriz de covarianza ). Una prueba sencilla es que para cualquier vector distinto de cero, la condición , ya que la invertibilidad de la matriz significa que
El ejemplo anterior muestra que una matriz en la que algunos elementos son negativos puede ser positiva definida. Por el contrario, una matriz cuyos elementos son todos positivos no es necesariamente positiva definida, como por ejemplo
para la cual
Teniendo esto en mente, el cambio de variable uno a uno muestra que es real y positivo para cualquier vector complejo si y solo si es real y positivo para cualquier en otras palabras, si es definido positivo. Para una matriz diagonal, esto es cierto solo si cada elemento de la diagonal principal (es decir, cada valor propio de ) es positivo. Dado que el teorema espectral garantiza que todos los valores propios de una matriz hermítica sean reales, la positividad de los valores propios se puede verificar utilizando la regla de signos alternantes de Descartes cuando se dispone del polinomio característico de una matriz real y simétrica .
Cuando es real, también puede ser real y la descomposición se puede escribir como
es positiva definida si y solo si existe tal descomposición con invertible . De manera más general, es positiva semidefinida con rango si y solo si existe una descomposición con una matriz de rango de fila completo (es decir, de rango ). Además, para cualquier descomposición [3]
Prueba
Si entonces así es positiva semidefinida. Si además es invertible entonces la desigualdad es estricta porque así es positiva definida. Si es de rango entonces
En la otra dirección, supongamos que es semidefinida positiva. Como es hermítica, tiene una descomposición propia donde es unitaria y es una matriz diagonal cuyas entradas son los valores propios de
Como es semidefinida positiva, los valores propios son números reales no negativos, por lo que se puede definir como la matriz diagonal cuyas entradas son raíces cuadradas no negativas de valores propios. Entonces, para
Si además es definida positiva, entonces los valores propios son (estrictamente) positivos, por lo que es invertible y, por lo tanto, también es invertible. Si tiene rango , entonces tiene valores propios exactamente positivos y los demás son cero, por lo tanto, en todas las filas excepto en todas se ponen a cero. Cortando las filas cero se obtiene una matriz tal que
Las columnas de pueden verse como vectores en el espacio vectorial complejo o real respectivamente. Entonces las entradas de son productos internos (es decir, productos escalares , en el caso real) de estos vectores.
En otras palabras, una matriz hermítica es semidefinida positiva si y solo si es la matriz de Gram de algunos vectores.
Es definida positiva si y solo si es la matriz de Gram de algunos vectores linealmente independientes . En general, el rango de la matriz de Gram de vectores es igual a la dimensión del espacio abarcado por estos vectores. [4]
Unicidad hasta transformaciones unitarias
La descomposición no es única: si para alguna matriz y si es cualquier matriz unitaria (es decir ), entonces para
Sin embargo, esta es la única forma en que dos descomposiciones pueden diferir: La descomposición es única hasta las transformaciones unitarias . Más formalmente, si es una matriz y es una matriz tal que
entonces hay una matriz con columnas ortonormales (es decir ) tal que [5]
Cuando esto significa es unitaria .
Esta afirmación tiene una interpretación geométrica intuitiva en el caso real: sean las columnas de y los vectores y en
Una matriz unitaria real es una matriz ortogonal , que describe una transformación rígida (una isometría del espacio euclidiano ) que conserva el punto 0 (es decir, rotaciones y reflexiones , sin traslaciones). Por lo tanto, los productos escalares y son iguales si y solo si alguna transformación rígida de transforma los vectores a (y 0 a 0).
Raíz cuadrada
Una matriz hermítica es semidefinida positiva si y solo si hay una matriz semidefinida positiva (en particular es hermítica, por lo que ) que satisface Esta matriz es única, [6] se llama raíz cuadrada no negativa de y se denota con
Cuando es definida positiva, por lo que es por lo tanto también se llama raíz cuadrada positiva de
La raíz cuadrada no negativa no debe confundirse con otras descomposiciones
Algunos autores utilizan el nombre raíz cuadrada y para cualquier descomposición de este tipo, o específicamente para la descomposición de Cholesky , o cualquier descomposición de la forma
otros solo lo utilizan para la raíz cuadrada no negativa.
Si entonces
Descomposición de Cholesky
Una matriz semidefinida positiva hermítica se puede escribir como donde es triangular inferior con diagonal no negativa (equivalentemente donde es triangular superior); esta es la descomposición de Cholesky . Si es definida positiva, entonces la diagonal de es positiva y la descomposición de Cholesky es única. Por el contrario, si es triangular inferior con diagonal no negativa, entonces es semidefinida positiva. La descomposición de Cholesky es especialmente útil para cálculos numéricos eficientes. Una descomposición estrechamente relacionada es la descomposición LDL , donde es diagonal y es unitriangular inferior .
Teorema de Williamson
Cualquier matriz real hermítica definida positiva puede diagonalizarse mediante matrices simplécticas (reales). Más precisamente, el teorema de Williamson asegura la existencia de matrices reales simplécticas y diagonales positivas tales que .
Otras caracterizaciones
Sea una matriz simétrica real , y sea la "bola unidad" definida por Entonces tenemos lo siguiente
es una losa sólida intercalada entre
si y solo si es un elipsoide o un cilindro elipsoidal.
si y solo si está acotado, es decir, es un elipsoide.
Si entonces si y sólo si si y sólo si
Si entonces para todos si y sólo si Entonces, dado que el dual polar de un elipsoide es también un elipsoide con los mismos ejes principales, con longitudes inversas, tenemos Es decir, si es positivo-definido, entonces para todos si y sólo si
Sea una matriz hermítica . Las siguientes propiedades son equivalentes a ser definida positiva:
La forma sesquilínea asociada es un producto interno
La forma sesquilínea definida por es la función de a tal que para todos y en donde es la transpuesta conjugada de Para cualquier matriz compleja esta forma es lineal en y semilineal en Por lo tanto, la forma es un producto interno de si y solo si es real y positivo para todo distinto de cero , es decir si y solo si es definido positivo. (De hecho, cada producto interno de surge de esta manera a partir de una matriz definida positiva hermítica).
Sus principales menores son todos positivos
El k -ésimo menor principal de una matriz es el determinante de su submatriz superior izquierda . Resulta que una matriz es definida positiva si y solo si todos estos determinantes son positivos. Esta condición se conoce como criterio de Sylvester y proporciona una prueba eficiente de la definición positiva de una matriz real simétrica. Es decir, la matriz se reduce a una matriz triangular superior mediante operaciones elementales de fila , como en la primera parte del método de eliminación gaussiana , teniendo cuidado de preservar el signo de su determinante durante el proceso de pivoteo . Dado que el k -ésimo menor principal de una matriz triangular es el producto de sus elementos diagonales hasta la fila, el criterio de Sylvester es equivalente a verificar si sus elementos diagonales son todos positivos. Esta condición se puede verificar cada vez que se obtiene una nueva fila de la matriz triangular.
Una matriz semidefinida positiva es definida positiva si y solo si es invertible . [7]
Una matriz es (semi)definida negativa si y solo si es (semi)definida positiva.
Formas cuadráticas
La forma (puramente) cuadrática asociada con una matriz real es la función tal que para todo se puede asumir que es simétrico reemplazándolo por ya que cualquier parte asimétrica se anulará en el producto de doble cara.
En términos más generales, cualquier función cuadrática de a se puede escribir como donde es una matriz simétrica , es un vector n real y una constante real. En el caso, se trata de una parábola y, al igual que en el caso, tenemos
Teorema: Esta función cuadrática es estrictamente convexa y, por lo tanto, tiene un mínimo global finito único, si y solo si es definida positiva.
Demostración: Si es definida positiva, entonces la función es estrictamente convexa. Su gradiente es cero en el único punto del cual debe ser el mínimo global ya que la función es estrictamente convexa. Si no es definida positiva, entonces existe algún vector tal que la función es una línea o una parábola descendente, por lo tanto no es estrictamente convexa y no tiene un mínimo global.
Por esta razón, las matrices definidas positivas juegan un papel importante en los problemas de optimización .
Diagonalización simultánea
Una matriz simétrica y otra matriz que sea a la vez simétrica y definida positiva pueden diagonalizarse simultáneamente . Esto es así aunque la diagonalización simultánea no se realiza necesariamente con una transformación de semejanza . Este resultado no se extiende al caso de tres o más matrices. En esta sección escribimos para el caso real. La extensión al caso complejo es inmediata.
Sea una matriz simétrica y una matriz simétrica y definida positiva. Escriba la ecuación de valor propio generalizada como donde imponemos que se normalice, es decir Ahora usamos la descomposición de Cholesky para escribir la inversa de como Multiplicando por y dejando que obtenemos que se puede reescribir como donde La manipulación ahora produce donde es una matriz que tiene como columnas los vectores propios generalizados y es una matriz diagonal de los valores propios generalizados. Ahora la premultiplicación con da el resultado final: y pero note que esto ya no es una diagonalización ortogonal con respecto al producto interno donde De hecho, diagonalizamos con respecto al producto interno inducido por [8]
Obsérvese que este resultado no contradice lo que se dice sobre la diagonalización simultánea en el artículo Matriz diagonalizable , que se refiere a la diagonalización simultánea mediante una transformación de similitud. Nuestro resultado aquí es más parecido a una diagonalización simultánea de dos formas cuadráticas y es útil para la optimización de una forma en condiciones de la otra.
Propiedades
Ordenación parcial inducida
Para matrices cuadradas arbitrarias escribimos si ie, es semidefinido positivo. Esto define un ordenamiento parcial en el conjunto de todas las matrices cuadradas. De manera similar, se puede definir un ordenamiento parcial estricto . El ordenamiento se denomina orden de Loewner .
Inversa de matriz definida positiva
Toda matriz definida positiva es invertible y su inversa también es definida positiva. [9] Si entonces [10] Además, por el teorema min-max , el k -ésimo valor propio más grande de es mayor o igual que el k -ésimo valor propio más grande de
Escalada
Si es definido positivo y es un número real, entonces es definido positivo. [11]
Suma
Si y son definidas positivas, entonces la suma también es definida positiva. [11]
Si y son semidefinidas positivas, entonces la suma también es semidefinida positiva.
Si es positiva-definida y es positiva-semidefinida, entonces la suma también es positiva-definida.
Multiplicación
Si y son definidas positivas, entonces los productos y también son definidas positivas. Si entonces también es definida positiva.
Si es semidefinida positiva, entonces es semidefinida positiva para cualquier matriz (posiblemente rectangular). Si es definida positiva y tiene rango de columna completo, entonces es definida positiva. [12]
Rastro
Las entradas diagonales de una matriz semidefinida positiva son reales y no negativas. En consecuencia, la traza , Además, [13] dado que cada submatriz principal (en particular, 2 por 2) es semidefinida positiva,
y así, cuando
Una matriz hermítica es definida positiva si satisface las siguientes desigualdades de trazas: [14]
Otro resultado importante es que para cualquier matriz semidefinida positiva, Esto se deduce escribiendo La matriz es semidefinida positiva y, por lo tanto, tiene valores propios no negativos, cuya suma, la traza, es, por lo tanto, también no negativa.
Si bien no es necesariamente semidefinido positivo, el producto interno de Frobenius (Lancaster–Tismenetsky, The Theory of Matrices , p. 218).
Convexidad
El conjunto de matrices simétricas semidefinidas positivas es convexo . Es decir, si y son semidefinidas positivas, entonces para cualquier número entre 0 y 1 , también es semidefinida positiva. Para cualquier vector :
Esta propiedad garantiza que los problemas de programación semidefinida converjan a una solución globalmente óptima.
Relación con el coseno
La definición positiva de una matriz expresa que el ángulo entre cualquier vector y su imagen es siempre
el ángulo entre y
Otras propiedades
Si es una matriz de Toeplitz simétrica , es decir, las entradas se dan en función de sus diferencias de índices absolutos: y se cumple la desigualdad estricta , entonces es estrictamente definida positiva.
Sea y hermítico. Si (resp., ) entonces (resp., ). [18]
Si es real, entonces existe una tal que donde es la matriz identidad .
Si denota el menor principal, es el k -ésimo pivote durante la descomposición LU .
Una matriz es definida negativa si su matriz principal menor de orden k es negativa cuando es impar, y positiva cuando es par.
Si es una matriz definida positiva real, entonces existe un número real positivo tal que para cada vector
Una matriz hermítica es semidefinida positiva si y solo si todos sus menores principales son no negativos. Sin embargo, no es suficiente considerar solo los menores principales principales, como se comprueba en la matriz diagonal con entradas 0 y −1.
Matrices y submatrices de bloques
Una matriz positiva también puede definirse mediante bloques :
donde cada bloque es Aplicando la condición de positividad, se deduce inmediatamente que y son hermíticos, y
Tenemos eso para todo lo complejo y en particular para Then
Se puede aplicar un argumento similar a y, por lo tanto, concluimos que tanto y deben ser definidas positivas. El argumento se puede ampliar para demostrar que cualquier submatriz principal de es en sí misma definida positiva.
Los resultados inversos se pueden demostrar con condiciones más fuertes en los bloques, por ejemplo, utilizando el complemento de Schur .
Extremos locales
Una forma cuadrática general sobre variables reales siempre se puede escribir como donde es el vector columna con esas variables, y es una matriz real simétrica. Por lo tanto, que la matriz sea definida positiva significa que tiene un mínimo único (cero) cuando es cero, y es estrictamente positiva para cualquier otra
En términos más generales, una función real dos veces diferenciable sobre variables reales tiene un mínimo local en los argumentos si su gradiente es cero y su hessiana (la matriz de todas las derivadas segundas) es semidefinida positiva en ese punto. Se pueden hacer afirmaciones similares para matrices definidas y semidefinidas negativas.
Covarianza
En estadística , la matriz de covarianza de una distribución de probabilidad multivariante es siempre semidefinida positiva, y es positivamente definida a menos que una variable sea una función lineal exacta de las otras. Por el contrario, toda matriz semidefinida positiva es la matriz de covarianza de alguna distribución multivariante.
Extensión para matrices cuadradas no hermíticas
La definición de definida positiva se puede generalizar designando cualquier matriz compleja (por ejemplo, real no simétrica) como definida positiva si para todos los vectores complejos distintos de cero donde denota la parte real de un número complejo [19] Solo la parte hermítica determina si la matriz es definida positiva, y se evalúa en el sentido más estricto mencionado anteriormente. De manera similar, si y son reales, tenemos para todos los vectores reales distintos de cero si y solo si la parte simétrica es definida positiva en el sentido más estricto. Es inmediatamente claro que es insensible a la transposición de
En consecuencia, una matriz real no simétrica con solo valores propios positivos no necesita ser definida positiva. Por ejemplo, la matriz tiene valores propios positivos pero no es definida positiva; en particular, se obtiene un valor negativo de con la elección (que es el vector propio asociado con el valor propio negativo de la parte simétrica de ).
En resumen, la característica distintiva entre el caso real y el complejo es que un operador positivo acotado en un espacio de Hilbert complejo es necesariamente hermítico o autoadjunto. La afirmación general se puede argumentar utilizando la identidad de polarización . Esto ya no es cierto en el caso real.
Aplicaciones
Matriz de conductividad térmica
La ley de Fourier de conducción de calor, que da el flujo de calor en términos del gradiente de temperatura, se escribe para medios anisotrópicos como en donde es la matriz de conductividad térmica simétrica . El negativo se inserta en la ley de Fourier para reflejar la expectativa de que el calor siempre fluirá de caliente a frío. En otras palabras, dado que el gradiente de temperatura siempre apunta de frío a caliente, se espera que el flujo de calor tenga un producto interno negativo con de modo que Sustituyendo la ley de Fourier, se obtiene esta expectativa como lo que implica que la matriz de conductividad debe ser definida positiva.
^ van den Bos, Adriaan (marzo de 2007). "Apéndice C: Matrices positivas semidefinidas y positivas definidas". Estimación de parámetros para científicos e ingenieros (.pdf) (edición en línea). John Wiley & Sons. págs. 259–263. doi :10.1002/9780470173862. ISBN978-047-017386-2.Edición impresa. ISBN 9780470147818
^ Boyd, Stephen; Vandenberghe, Lieven (8 de marzo de 2004). Optimización convexa . Cambridge University Press. doi :10.1017/cbo9780511804441. ISBN978-0-521-83378-3.
^ Horn y Johnson (2013), pág. 440, Teorema 7.2.7
^ Horn y Johnson (2013), pág. 441, Teorema 7.2.10
^ Horn y Johnson (2013), pág. 452, Teorema 7.3.11
^ Horn & Johnson (2013), pág. 439, Teorema 7.2.6 con
^ Horn & Johnson (2013), pág. 431, Corolario 7.1.7
^ Horn y Johnson (2013), pág. 485, Teorema 7.6.1
^ Horn y Johnson (2013), pág. 438, Teorema 7.2.1
^ Horn & Johnson (2013), pág. 495, Corolario 7.7.4(a)
^ ab Horn & Johnson (2013), pág. 430, Observación 7.1.3
^ Horn & Johnson (2013), pág. 431, Observación 7.1.8
^ Horn y Johnson (2013), pág. 430
^ Wolkowicz, Henry; Styan, George PH (1980). "Límites para valores propios utilizando trazas". Álgebra lineal y sus aplicaciones (29). Elsevier: 471–506.
^ Horn y Johnson (2013), pág. 479, Teorema 7.5.3
^ Horn y Johnson (2013), pág. 509, Teorema 7.8.16
^ Styan, GP (1973). "Productos de Hadamard y análisis estadístico multivariante". Álgebra lineal y sus aplicaciones . 6 : 217–240., Corolario 3.6, pág. 227
^ Bhatia, Rajendra (2007). Matrices definidas positivas . Princeton, Nueva Jersey: Princeton University Press. pág. 8. ISBN978-0-691-12918-1.
^ Weisstein, Eric W. "Matriz definida positiva". MathWorld . Wolfram Research . Consultado el 26 de julio de 2012 .
Bernstein, B.; Toupin, RA (1962). "Algunas propiedades de la matriz de Hesse de una función estrictamente convexa". Journal für die reine und angewandte Mathematik . 210 : 67–72. doi :10.1515/crll.1962.210.65.