Matriz hermítica

Matriz igual a su conjugada-transpuesta

En matemáticas , una matriz hermítica (o matriz autoadjunta ) es una matriz cuadrada compleja que es igual a su propia transpuesta conjugada , es decir, el elemento en la i -ésima fila y la j -ésima columna es igual al conjugado complejo del elemento en la j -ésima fila y la i -ésima columna, para todos los índices i y j : A  es hermitiano a i yo = a yo i ¯ {\displaystyle A{\text{ es hermítico}}\quad \iff \quad a_{ij}={\overline {a_{ji}}}}

o en forma matricial: A  es hermitiano A = A yo ¯ . {\displaystyle A{\text{ es hermítico}}\quad \iff \quad A={\overline {A^{\mathsf {T}}}}.}

Las matrices hermíticas pueden entenderse como la extensión compleja de matrices simétricas reales .

Si la transpuesta conjugada de una matriz se denota por entonces la propiedad hermítica se puede escribir de manera concisa como A {\estilo de visualización A} A yo , {\displaystyle A^{\mathsf {H}},}

A  es hermitiano A = A yo {\displaystyle A{\text{ es hermítico}}\quad \iff \quad A=A^{\mathsf {H}}}

Las matrices hermíticas reciben su nombre de Charles Hermite [1] , quien demostró en 1855 que las matrices de esta forma comparten una propiedad con las matrices simétricas reales de tener siempre valores propios reales . Otras notaciones equivalentes de uso común son aunque en mecánica cuántica , normalmente significa solo el conjugado complejo , y no la transpuesta conjugada . A yo = A = A , {\displaystyle A^{\mathsf {H}}=A^{\dagger }=A^{\ast },} A {\displaystyle A^{\ast}}

Caracterizaciones alternativas

Las matrices hermíticas se pueden caracterizar de varias formas equivalentes, algunas de las cuales se enumeran a continuación:

Igualdad con el adjunto

Una matriz cuadrada es hermítica si y sólo si es igual a su transpuesta conjugada , es decir, satisface para cualquier par de vectores donde denota la operación del producto interno. A {\estilo de visualización A} el , A en = A el , en , {\displaystyle \langle \mathbf {w} ,A\mathbf {v} \rangle =\langle A\mathbf {w} ,\mathbf {v} \rangle ,} en , el , {\displaystyle \mathbf {v} ,\mathbf {w} ,} , {\displaystyle \langle \cdot ,\cdot \rangle }

Así es también como se define el concepto más general de operador autoadjunto .

Valor real de las formas cuadráticas

Una matriz es hermítica si y sólo si norte × norte {\displaystyle n\veces {}n} A {\estilo de visualización A} en , A en R , a pesar de  en do norte . {\displaystyle \langle \mathbf {v} ,A\mathbf {v} \rangle \in \mathbb {R} ,\quad {\text{para todos }}\mathbf {v} \in \mathbb {C} ^{n}.}

Propiedades espectrales

Una matriz cuadrada es hermítica si y sólo si es diagonalizable unitariamente con valores propios reales . A {\estilo de visualización A}

Aplicaciones

Las matrices hermíticas son fundamentales para la mecánica cuántica porque describen operadores con valores propios necesariamente reales. Un valor propio de un operador en algún estado cuántico es uno de los posibles resultados de medición del operador, lo que requiere que los operadores tengan valores propios reales. a {\estilo de visualización a} A ^ {\displaystyle {\hat {A}}} | ψ {\displaystyle |\psi \rangle }

En el procesamiento de señales , las matrices hermíticas se utilizan en tareas como el análisis de Fourier y la representación de señales. [2] Los valores propios y los vectores propios de las matrices hermíticas desempeñan un papel crucial en el análisis de señales y la extracción de información significativa.

Las matrices hermíticas se estudian ampliamente en álgebra lineal y análisis numérico . Tienen propiedades espectrales bien definidas y muchos algoritmos numéricos, como el algoritmo de Lanczos , aprovechan estas propiedades para realizar cálculos eficientes. Las matrices hermíticas también aparecen en técnicas como la descomposición en valores singulares (SVD) y la descomposición en valores propios .

En estadística y aprendizaje automático , las matrices hermíticas se utilizan en matrices de covarianza , donde representan las relaciones entre diferentes variables. La precisión positiva de una matriz de covarianza hermítica garantiza la precisión de las distribuciones multivariadas. [3]

Las matrices hermíticas se aplican en el diseño y análisis de sistemas de comunicaciones , especialmente en el campo de los sistemas de múltiples entradas y múltiples salidas (MIMO). Las matrices de canal en sistemas MIMO suelen presentar propiedades hermíticas.

En teoría de grafos , las matrices hermíticas se utilizan para estudiar los espectros de grafos . La matriz hermítica laplaciana es una herramienta clave en este contexto, ya que se utiliza para analizar los espectros de grafos mixtos. [4] La matriz hermítica de adyacencia de un grafo mixto es otro concepto importante, ya que es una matriz hermítica que desempeña un papel en el estudio de las energías de grafos mixtos. [5]

Ejemplos y soluciones

En esta sección, la transpuesta conjugada de la matriz se denota como la transpuesta de la matriz se denota como y el conjugado de la matriz se denota como A {\estilo de visualización A} A yo , {\displaystyle A^{\mathsf {H}},} A {\estilo de visualización A} A yo {\displaystyle A^{\mathsf {T}}} A {\estilo de visualización A} A ¯ . {\displaystyle {\overline {A}}.}

Vea el siguiente ejemplo:

[ 0 a i b do i d a + i b 1 metro i norte do + i d metro + i norte 2 ] {\displaystyle {\begin{bmatrix}0&a-ib&c-id\\a+ib&1&m-in\\c+id&m+in&2\end{bmatrix}}}

Los elementos diagonales deben ser reales , ya que deben ser su propio conjugado complejo.

Las familias más conocidas de matrices hermíticas incluyen las matrices de Pauli , las matrices de Gell-Mann y sus generalizaciones. En física teórica, estas matrices hermíticas suelen multiplicarse por coeficientes imaginarios , [6] [7] lo que da como resultado matrices antihermíticas .

Aquí ofrecemos otra matriz hermítica útil utilizando un ejemplo abstracto. Si una matriz cuadrada es igual al producto de una matriz por su transpuesta conjugada, es decir, entonces es una matriz semidefinida positiva hermítica . Además, si es de rango completo por filas, entonces es definida positiva. A {\estilo de visualización A} A = B B yo , {\displaystyle A=BB^{\mathsf {H}},} A {\estilo de visualización A} B {\estilo de visualización B} A {\estilo de visualización A}

Propiedades

Los valores de la diagonal principal son reales

Las entradas en la diagonal principal (de arriba a la izquierda a abajo a la derecha) de cualquier matriz hermítica son reales .

Prueba

Por definición de la matriz hermítica, para i = j se sigue lo anterior. yo i yo = yo ¯ yo i {\displaystyle H_{ij}={\overline {H}}_{ji}}

Sólo las entradas diagonales principales son necesariamente reales; las matrices hermíticas pueden tener entradas arbitrarias de valores complejos en sus elementos fuera de la diagonal , siempre que las entradas diagonalmente opuestas sean conjugados complejos.

Simétrico

Una matriz que solo tiene valores reales es simétrica si y solo si es una matriz hermítica. Una matriz real y simétrica es simplemente un caso especial de una matriz hermítica.

Prueba

yo i yo = yo ¯ yo i {\displaystyle H_{ij}={\overline {H}}_{ji}} por definición. Por lo tanto, (simetría matricial) si y solo si ( es real). yo i yo = yo yo i {\displaystyle H_{ij}=H_{ji}} yo i yo = yo ¯ i yo {\displaystyle H_{ij}={\overline {H}}_{ij}} yo i yo Estilo de visualización H_{ij}}

Entonces, si una matriz antisimétrica real se multiplica por un múltiplo real de la unidad imaginaria , entonces se vuelve hermítica. i , {\estilo de visualización yo,}

Normal

Toda matriz hermítica es una matriz normal . Es decir, A A yo = A yo A . {\displaystyle AA^{\mathsf {H}}=A^{\mathsf {H}}A.}

Prueba

A = A yo , {\displaystyle A=A^{\mathsf {H}},} entonces A A yo = A A = A yo A . {\displaystyle AA^{\mathsf {H}}=AA=A^{\mathsf {H}}A.}

Diagonalizable

El teorema espectral de dimensión finita dice que cualquier matriz hermítica puede ser diagonalizada por una matriz unitaria , y que la matriz diagonal resultante tiene solo entradas reales. Esto implica que todos los valores propios de una matriz hermítica A con dimensión n son reales, y que A tiene n vectores propios linealmente independientes . Además, una matriz hermítica tiene vectores propios ortogonales para valores propios distintos. Incluso si hay valores propios degenerados, siempre es posible encontrar una base ortogonal de C n que consista en n vectores propios de A .

Suma de matrices hermíticas

La suma de dos matrices hermíticas cualesquiera es hermítica.

Prueba

( A + B ) i yo = A i yo + B i yo = A ¯ yo i + B ¯ yo i = ( A + B ) ¯ yo i , {\displaystyle (A+B)_{ij}=A_{ij}+B_{ij}={\overline {A}}_{ji}+{\overline {B}}_{ji}={\overline {(A+B)}}_{ji},} como se afirma.

La inversa es hermítica

La inversa de una matriz hermítica invertible también es hermítica.

Prueba

Si entonces así se afirma. A 1 A = I , {\displaystyle A^{-1}A=I,} I = I H = ( A 1 A ) H = A H ( A 1 ) H = A ( A 1 ) H , {\displaystyle I=I^{\mathsf {H}}=\left(A^{-1}A\right)^{\mathsf {H}}=A^{\mathsf {H}}\left(A^{-1}\right)^{\mathsf {H}}=A\left(A^{-1}\right)^{\mathsf {H}},} A 1 = ( A 1 ) H {\displaystyle A^{-1}=\left(A^{-1}\right)^{\mathsf {H}}}

Producto asociativo de matrices hermíticas

El producto de dos matrices hermíticas A y B es hermítica si y sólo si AB = BA .

Prueba

( A B ) H = ( A B ) T ¯ = B T A T ¯ = B T ¯   A T ¯ = B H A H = B A . {\displaystyle (AB)^{\mathsf {H}}={\overline {(AB)^{\mathsf {T}}}}={\overline {B^{\mathsf {T}}A^{\mathsf {T}}}}={\overline {B^{\mathsf {T}}}}\ {\overline {A^{\mathsf {T}}}}=B^{\mathsf {H}}A^{\mathsf {H}}=BA.} Así que , si y sólo si ( A B ) H = A B {\displaystyle (AB)^{\mathsf {H}}=AB} A B = B A . {\displaystyle AB=BA.}

Por lo tanto, A n es hermítico si A es hermítico y n es un entero.

AbadíaHermitiano

Si A y B son hermíticos, entonces ABA también es hermítico.

Prueba

( A B A ) H = ( A ( B A ) ) H = ( B A ) H A H = A H B H A H = A B A {\displaystyle (ABA)^{\mathsf {H}}=(A(BA))^{\mathsf {H}}=(BA)^{\mathsf {H}}A^{\mathsf {H}}=A^{\mathsf {H}}B^{\mathsf {H}}A^{\mathsf {H}}=ABA}

v H A vEs real para lo complejoen

Para un vector complejo arbitrario v, el producto es real porque Esto es especialmente importante en física cuántica, donde las matrices hermíticas son operadores que miden propiedades de un sistema, por ejemplo, el espín total , que deben ser reales. v H A v {\displaystyle \mathbf {v} ^{\mathsf {H}}A\mathbf {v} } v H A v = ( v H A v ) H . {\displaystyle \mathbf {v} ^{\mathsf {H}}A\mathbf {v} =\left(\mathbf {v} ^{\mathsf {H}}A\mathbf {v} \right)^{\mathsf {H}}.}

Formas hermíticas complejas del espacio vectorial

Las matrices hermíticas complejas n por n no forman un espacio vectorial sobre los números complejos , , ya que la matriz identidad I n es hermítica, pero i I n no lo es. Sin embargo, las matrices hermíticas complejas forman un espacio vectorial sobre los números reales . En el espacio vectorial bidimensional 2 n de matrices complejas n  ×  n sobre , las matrices hermíticas complejas forman un subespacio de dimensión n 2 . Si E jk denota la matriz n por n con un 1 en la posición j , k y ceros en el resto, una base (ortonormal con respecto al producto interno de Frobenius) se puede describir de la siguiente manera: E j j  for  1 j n ( n  matrices ) {\displaystyle E_{jj}{\text{ for }}1\leq j\leq n\quad (n{\text{ matrices}})}

junto con el conjunto de matrices de la forma 1 2 ( E j k + E k j )  for  1 j < k n ( n 2 n 2  matrices ) {\displaystyle {\frac {1}{\sqrt {2}}}\left(E_{jk}+E_{kj}\right){\text{ for }}1\leq j<k\leq n\quad \left({\frac {n^{2}-n}{2}}{\text{ matrices}}\right)}

y las matrices i 2 ( E j k E k j )  for  1 j < k n ( n 2 n 2  matrices ) {\displaystyle {\frac {i}{\sqrt {2}}}\left(E_{jk}-E_{kj}\right){\text{ for }}1\leq j<k\leq n\quad \left({\frac {n^{2}-n}{2}}{\text{ matrices}}\right)}

donde denota la unidad imaginaria , i {\displaystyle i} i = 1   . {\displaystyle i={\sqrt {-1}}~.}

Un ejemplo es que las cuatro matrices de Pauli forman una base completa para el espacio vectorial de todas las matrices hermíticas complejas de 2 por 2 sobre .

Descomposición propia

Si se eligen n vectores propios ortonormales de una matriz hermítica y se escriben como las columnas de la matriz U , entonces una descomposición propia de A es donde y, por lo tanto, donde están los valores propios en la diagonal de la matriz diagonal. u 1 , , u n {\displaystyle \mathbf {u} _{1},\dots ,\mathbf {u} _{n}} A = U Λ U H {\displaystyle A=U\Lambda U^{\mathsf {H}}} U U H = I = U H U {\displaystyle UU^{\mathsf {H}}=I=U^{\mathsf {H}}U} A = j λ j u j u j H , {\displaystyle A=\sum _{j}\lambda _{j}\mathbf {u} _{j}\mathbf {u} _{j}^{\mathsf {H}},} λ j {\displaystyle \lambda _{j}} Λ . {\displaystyle \Lambda .}

Valores singulares

Los valores singulares de son los valores absolutos de sus valores propios: A {\displaystyle A}

Dado que tiene una descomposición propia , donde es una matriz unitaria (sus columnas son vectores ortonormales; ver arriba), una descomposición en valores singulares de es , donde y son matrices diagonales que contienen los valores absolutos y los signos de los valores propios de , respectivamente. es unitaria, ya que las columnas de solo se multiplican por . contiene los valores singulares de , es decir, los valores absolutos de sus valores propios. [8] A {\displaystyle A} A = U Λ U H {\displaystyle A=U\Lambda U^{H}} U {\displaystyle U} A {\displaystyle A} A = U | Λ | sgn ( Λ ) U H {\displaystyle A=U|\Lambda |{\text{sgn}}(\Lambda )U^{H}} | Λ | {\displaystyle |\Lambda |} sgn ( Λ ) {\displaystyle {\text{sgn}}(\Lambda )} | λ | {\displaystyle |\lambda |} sgn ( λ ) {\displaystyle {\text{sgn}}(\lambda )} A {\displaystyle A} sgn ( Λ ) U H {\displaystyle \operatorname {sgn}(\Lambda )U^{H}} U H {\displaystyle U^{H}} ± 1 {\displaystyle \pm 1} | Λ | {\displaystyle |\Lambda |} A {\displaystyle A}

Determinante real

El determinante de una matriz hermítica es real:

Prueba

det ( A ) = det ( A T ) det ( A H ) = det ( A ) ¯ {\displaystyle \det(A)=\det \left(A^{\mathsf {T}}\right)\quad \Rightarrow \quad \det \left(A^{\mathsf {H}}\right)={\overline {\det(A)}}} Por lo tanto, si A = A H det ( A ) = det ( A ) ¯ . {\displaystyle A=A^{\mathsf {H}}\quad \Rightarrow \quad \det(A)={\overline {\det(A)}}.}

(Alternativamente, el determinante es el producto de los valores propios de la matriz y, como se mencionó anteriormente, los valores propios de una matriz hermítica son reales).

Descomposición en matrices hermíticas y antihermíticas

Otros datos relacionados con las matrices hermíticas incluyen:

  • La suma de una matriz cuadrada y su transpuesta conjugada es hermítica. ( A + A H ) {\displaystyle \left(A+A^{\mathsf {H}}\right)}
  • La diferencia de una matriz cuadrada y su transpuesta conjugada es antihermítica (también llamada antihermítica). Esto implica que el conmutador de dos matrices hermíticas es antihermítico. ( A A H ) {\displaystyle \left(A-A^{\mathsf {H}}\right)}
  • Una matriz cuadrada arbitraria C se puede escribir como la suma de una matriz hermítica A y una matriz antihermítica B. Esto se conoce como descomposición de Toeplitz de C. [ 9] : 227  C = A + B with A = 1 2 ( C + C H ) and B = 1 2 ( C C H ) {\displaystyle C=A+B\quad {\text{with}}\quad A={\frac {1}{2}}\left(C+C^{\mathsf {H}}\right)\quad {\text{and}}\quad B={\frac {1}{2}}\left(C-C^{\mathsf {H}}\right)}

Cociente de Rayleigh

En matemáticas, para una matriz hermítica compleja M dada y un vector x distinto de cero , el cociente de Rayleigh [10] se define como: [9] : p. 234  [11] R ( M , x ) , {\displaystyle R(M,\mathbf {x} ),} R ( M , x ) := x H M x x H x . {\displaystyle R(M,\mathbf {x} ):={\frac {\mathbf {x} ^{\mathsf {H}}M\mathbf {x} }{\mathbf {x} ^{\mathsf {H}}\mathbf {x} }}.}

Para matrices y vectores reales, la condición de ser hermítico se reduce a la de ser simétrico, y la transpuesta conjugada a la transpuesta usual para cualquier escalar real distinto de cero . Además, recuerde que una matriz hermítica (o simétrica real) tiene valores propios reales. x H {\displaystyle \mathbf {x} ^{\mathsf {H}}} x T . {\displaystyle \mathbf {x} ^{\mathsf {T}}.} R ( M , c x ) = R ( M , x ) {\displaystyle R(M,c\mathbf {x} )=R(M,\mathbf {x} )} c . {\displaystyle c.}

Se puede demostrar [9] que, para una matriz dada, el cociente de Rayleigh alcanza su valor mínimo (el valor propio más pequeño de M) cuando es (el vector propio correspondiente). De manera similar, y λ min {\displaystyle \lambda _{\min }} x {\displaystyle \mathbf {x} } v min {\displaystyle \mathbf {v} _{\min }} R ( M , x ) λ max {\displaystyle R(M,\mathbf {x} )\leq \lambda _{\max }} R ( M , v max ) = λ max . {\displaystyle R(M,\mathbf {v} _{\max })=\lambda _{\max }.}

El cociente de Rayleigh se utiliza en el teorema de mínimo-máximo para obtener valores exactos de todos los valores propios. También se utiliza en algoritmos de valores propios para obtener una aproximación de valores propios a partir de una aproximación de vectores propios. En concreto, esta es la base de la iteración del cociente de Rayleigh.

El rango del cociente de Rayleigh (para matrices que no son necesariamente hermíticas) se denomina rango numérico (o espectro en análisis funcional). Cuando la matriz es hermítica, el rango numérico es igual a la norma espectral. También en análisis funcional, se conoce como radio espectral. En el contexto de las C*-álgebras o la mecánica cuántica algebraica, la función que asocia a M el cociente de Rayleigh R ( M , x ) para una x fija y M que varía a lo largo del álgebra se denominaría "estado vectorial" del álgebra. λ max {\displaystyle \lambda _{\max }}

Véase también

Referencias

  1. ^ Archibald, Tom (31 de diciembre de 2010), Gowers, Timothy; Barrow-Green, junio; Leader, Imre (eds.), "VI.47 Charles Hermite", The Princeton Companion to Mathematics , Princeton University Press, pág. 773, doi :10.1515/9781400830398.773a, ISBN 978-1-4008-3039-8, consultado el 15 de noviembre de 2023
  2. ^ Ribeiro, Alejandro. "Procesamiento de señales e información" (PDF) .
  3. ^ "DISTRIBUCIONES NORMALES MULTIVARIARIADAS" (PDF) .
  4. ^ Lau, Ivan. "Teoría espectral hermítica de grafos mixtos" (PDF) .
  5. ^ Liu, Jianxi; Li, Xueliang (febrero de 2015). "Matrices de adyacencia hermitiana y energías hermitianas de gráficos mixtos". Álgebra lineal y sus aplicaciones . 466 : 182-207. doi : 10.1016/j.laa.2014.10.028 .
  6. ^ Frankel, Theodore (2004). La geometría de la física: una introducción. Cambridge University Press . p. 652. ISBN 0-521-53927-7.
  7. ^ Notas del curso de Física 125 Archivado el 7 de marzo de 2022 en Wayback Machine en el Instituto Tecnológico de California
  8. ^ Trefethan, Lloyd N.; Bau, III, David (1997). Álgebra lineal numérica. Filadelfia, Pensilvania, Estados Unidos: SIAM . pag. 34.ISBN 0-89871-361-7.OCLC 1348374386  .
  9. ^ abc Horn, Roger A.; Johnson, Charles R. (2013). Análisis de matrices, segunda edición . Cambridge University Press. ISBN 9780521839402.
  10. ^ También conocida como relación Rayleigh-Ritz ; recibe su nombre de Walther Ritz y Lord Rayleigh .
  11. ^ Parlet BN El problema del valor propio simétrico , SIAM, Classics in Applied Mathematics, 1998
  • "Matriz hermítica", Enciclopedia de matemáticas , EMS Press , 2001 [1994]
  • Visualizando la matriz hermítica como una elipse con el Dr. Geo Archivado el 29 de agosto de 2017 en Wayback Machine , por Chao-Kuei Hung de la Universidad de Chaoyang, ofrece una explicación más geométrica.
  • "Matrices hermíticas". MathPages.com .
Retrieved from "https://en.wikipedia.org/w/index.php?title=Hermitian_matrix&oldid=1238599976"