Teorema espectral

Resultado sobre cuándo se puede diagonalizar una matriz

En matemáticas , particularmente en álgebra lineal y análisis funcional , un teorema espectral es un resultado acerca de cuándo un operador o matriz lineal puede diagonalizarse (es decir, representarse como una matriz diagonal en alguna base). Esto es extremadamente útil porque los cálculos que involucran una matriz diagonalizable a menudo pueden reducirse a cálculos mucho más simples que involucran la matriz diagonal correspondiente. El concepto de diagonalización es relativamente sencillo para operadores en espacios vectoriales de dimensión finita , pero requiere alguna modificación para operadores en espacios de dimensión infinita. En general, el teorema espectral identifica una clase de operadores lineales que pueden modelarse mediante operadores de multiplicación , que son tan simples como se puede esperar encontrar. En un lenguaje más abstracto, el teorema espectral es una declaración acerca de las C*-álgebras conmutativas . Véase también teoría espectral para una perspectiva histórica.

Ejemplos de operadores a los que se aplica el teorema espectral son los operadores autoadjuntos o, más generalmente, los operadores normales en los espacios de Hilbert .

El teorema espectral también proporciona una descomposición canónica , llamada descomposición espectral , del espacio vectorial subyacente sobre el que actúa el operador.

Augustin-Louis Cauchy demostró el teorema espectral para matrices simétricas , es decir, que toda matriz real simétrica es diagonalizable. Además, Cauchy fue el primero en ser sistemático acerca de los determinantes . [1] [2] El teorema espectral generalizado por John von Neumann es hoy quizás el resultado más importante de la teoría de operadores .

Este artículo se centra principalmente en el tipo más simple de teorema espectral, el de un operador autoadjunto en un espacio de Hilbert. Sin embargo, como se señaló anteriormente, el teorema espectral también se cumple para operadores normales en un espacio de Hilbert.

Caso de dimensión finita

Mapas hermíticos y matrices hermíticas

Comenzamos considerando una matriz hermítica en (pero la siguiente discusión será adaptable al caso más restrictivo de matrices simétricas en ). Consideramos una función hermítica A en un espacio de producto interno complejo de dimensión finita V dotado de un producto interno sesquilineal definido positivo La condición hermítica en significa que para todo x , yV , do norte {\displaystyle \mathbb {C} ^{n}} R norte {\displaystyle \mathbb {R} ^{n}}   ,   . {\displaystyle \ \langle \cdot ,\cdot \rangle ~.}   A   {\estilo de visualización \ A\}     A incógnita , y   =   incógnita , A y     . {\displaystyle \ \langle \ Ax,y\ \rangle =\langle \ x,Ay\ \rangle ~.}

Una condición equivalente es que A * = A , donde A * es el conjugado hermítico de A. En el caso de que A se identifique con una matriz hermítica, la matriz de A * es igual a su conjugada transpuesta . (Si A es una matriz real , entonces esto es equivalente a AT = A , es decir, A es una matriz simétrica ).

Esta condición implica que todos los valores propios de una función hermítica son reales: para comprobarlo, basta con aplicarla al caso en el que x = y es un vector propio. (Recordemos que un vector propio de una función lineal A es un vector v distinto de cero tal que A v = λv para algún escalar λ . El valor λ es el valor propio correspondiente . Además, los valores propios son raíces del polinomio característico .)

Teorema  :  Si A es hermítico en V , entonces existe una base ortonormal de V que consiste en vectores propios de A. Cada valor propio de A es real.

Proporcionamos un bosquejo de una prueba para el caso donde el campo subyacente de escalares son los números complejos .

Por el teorema fundamental del álgebra , aplicado al polinomio característico de A , hay al menos un valor propio complejo λ 1 y un vector propio correspondiente v 1 , que por definición debe ser distinto de cero. Entonces, dado que encontramos que λ 1 es real. Ahora considere el espacio el complemento ortogonal de v 1. Por hermiticidad, es un subespacio invariante de A. Para ver eso, considere cualquier de modo que por definición de Para satisfacer la invariancia, necesitamos verificar si Esto es cierto porque Aplicar el mismo argumento a muestra que A tiene al menos un valor propio real y un vector propio correspondiente Esto se puede usar para construir otro subespacio invariante . La inducción finita luego termina la prueba.   la 1     en 1 , en 1   =   A ( en 1 ) , en 1   =   en 1 , A ( en 1 )   = la ¯ 1     en 1 , en 1     , {\displaystyle \ \lambda _ {1}\ \langle \ v_{1},v_{1}\ \rangle =\langle \ A(v_{1}),v_{1}\ \rangle =\langle \ v_ {1},A(v_{1})\ \rangle ={\bar {\lambda }}_{1}\ \langle \ v_{1},v_{1}\ \rangle \ ,}   K norte 1 = durar (   en 1   )   , {\displaystyle \ {\mathcal {K}}^{n-1}={\text{span}}\left(\ v_{1}\ \right)^{\perp }\ ,}   K norte 1   {\displaystyle \ {\mathcal {K}}^{n-1}\ }   a K norte 1 {\displaystyle \ k\in {\mathcal {K}}^{n-1}}     a , en 1   = 0   {\displaystyle \ \langle \ k,v_{1}\ \rangle =0\ } K norte 1   . {\displaystyle {\mathcal {K}}^{n-1}~.}   A ( a ) K norte 1   . {\displaystyle \ A(k)\in {\mathcal {K}}^{n-1}~.}     A ( a ) , en 1   =   a , A ( en 1 )   =   a , la 1   en 1   = 0   . {\displaystyle \ \langle \ A(k),v_{1}\ \rangle =\langle \ k,A(v_{1})\ \rangle =\langle \ k,\lambda _{1}\ v_{ 1}\ \rangle =0~.}   K norte 1   {\displaystyle \ {\mathcal {K}}^{n-1}\ } la 2 {\displaystyle \lambda _{2}}   en 2 K norte 1 en 1   . {\displaystyle \ v_{2}\in {\mathcal {K}}^{n-1}\perp v_{1}~.}   K norte 2 = durar (   { en 1 , en 2 }   )   . {\displaystyle \ {\mathcal {K}}^{n-2}={\text{span}}\left(\ \{v_{1},v_{2}\}\ \right)^{\perp }~.}

La representación matricial de A en una base de vectores propios es diagonal, y por la construcción la prueba da una base de vectores propios mutuamente ortogonales; al elegirlos como vectores unitarios se obtiene una base ortonormal de vectores propios. A puede escribirse como una combinación lineal de proyecciones ortogonales por pares, llamada su descomposición espectral . Sea el espacio propio correspondiente a un valor propio. Nótese que la definición no depende de ninguna elección de vectores propios específicos. En general, V es la suma directa ortogonal de los espacios donde los rangos sobre el espectro de   V la = {   en V   :   A   en = la   en   }   {\displaystyle \ V_{\lambda }=\{\ v\in V\ :\ A\ v=\lambda \ v\ \}\ }   la   . {\displaystyle \\lambda ~.}   V la   {\displaystyle \ V_{\lambda }\ }   la   {\estilo de visualización \\lambda \}   A   . {\displaystyle \ A~.}

Cuando la matriz que se descompone es hermítica, la descomposición espectral es un caso especial de la descomposición de Schur (véase la prueba en el caso de matrices normales a continuación).

Descomposición espectral y descomposición en valores singulares

La descomposición espectral es un caso especial de la descomposición en valores singulares , que establece que cualquier matriz puede expresarse como donde y son matrices unitarias y es una matriz diagonal. Las entradas diagonales de están determinadas de forma única por y se conocen como los valores singulares de Si es hermítico, entonces y lo que implica   A do metro × norte   {\displaystyle \ A\in \mathbb {C} ^{m\times n}\ }   A =   Σ   V   , {\displaystyle \ A=U\ \Sigma \ V^{*}\ ,}   do metro × metro   {\displaystyle \ U\in \mathbb {C} ^{m\times m}\ }   V do norte × norte   {\displaystyle \ V\in \mathbb {C} ^{n\times n}\ }   Σ R metro × norte   {\displaystyle \ \Sigma \en \mathbb {R} ^{m\times n}\ }   Σ   {\displaystyle \ \Sigma \ }   A   {\estilo de visualización \ A\}   A   . {\displaystyle \ A~.}   A   {\estilo de visualización \ A\}   A = A   {\displaystyle \ A^{*}=A\ }   V   Σ   =   Σ   V   {\displaystyle \ V\ \Sigma \ U^{*}=U\ \Sigma \ V^{*}\ }   = V   . {\estilo de visualización \ U=V~.}

Matrices normales

El teorema espectral se extiende a una clase más general de matrices. Sea A un operador en un espacio de producto interno de dimensión finita. Se dice que A es normal si A * A = AA * .

Se puede demostrar que A es normal si y solo si es unitariamente diagonalizable utilizando la descomposición de Schur . Es decir, cualquier matriz puede escribirse como A = UTU * , donde U es unitaria y T es triangular superior . Si A es normal, entonces se ve que TT * = T * T . Por lo tanto, T debe ser diagonal, ya que una matriz triangular superior normal es diagonal (ver matriz normal ). La inversa es obvia.

En otras palabras, A es normal si y solo si existe una matriz unitaria U tal que donde D es una matriz diagonal . Entonces, las entradas de la diagonal de D son los valores propios de A . Los vectores columna de U son los vectores propios de A y son ortonormales. A diferencia del caso hermítico, las entradas de D no necesitan ser reales.   A =   D     , {\displaystyle \ A=U\ D\ U^{*}\ ,}

Operadores autoadjuntos compactos

En el contexto más general de los espacios de Hilbert, que pueden tener una dimensión infinita, el enunciado del teorema espectral para operadores autoadjuntos compactos es prácticamente el mismo que en el caso de dimensión finita.

Teorema  :  Supongamos que A es un operador autoadjunto compacto en un espacio de Hilbert (real o complejo) V. Entonces, existe una base ortonormal de V que consiste en vectores propios de A. Cada valor propio es real.

En cuanto a las matrices hermíticas, el punto clave es demostrar la existencia de al menos un vector propio distinto de cero. No se puede confiar en los determinantes para demostrar la existencia de valores propios, pero se puede utilizar un argumento de maximización análogo a la caracterización variacional de los valores propios.

Si se elimina el supuesto de compacidad, entonces no es cierto que cada operador autoadjunto tenga vectores propios. Por ejemplo, el operador de multiplicación en el que toma cada a es acotado y autoadjunto, pero no tiene vectores propios. Sin embargo, su espectro, adecuadamente definido, sigue siendo igual a , véase espectro del operador acotado . METRO incógnita Estilo de visualización M_{x}} yo 2 ( [ 0 , 1 ] ) Estilo de visualización L^{2}([0,1])} ψ ( incógnita ) yo 2 ( [ 0 , 1 ] ) {\displaystyle \psi(x)\en L^{2}([0,1])} incógnita ψ ( incógnita ) {\displaystyle x\psi (x)} [ 0 , 1 ] {\estilo de visualización [0,1]}

Operadores autoadjuntos acotados

Posible ausencia de vectores propios

La siguiente generalización que consideramos es la de los operadores autoadjuntos acotados en un espacio de Hilbert. Dichos operadores pueden no tener vectores propios: por ejemplo, sea A el operador de multiplicación por t en , es decir, [3] yo 2 ( [ 0 , 1 ] ) Estilo de visualización L^{2}([0,1])} [ A φ ] ( a ) = a φ ( a ) . {\displaystyle [A\varphi ](t)=t\varphi (t).}

Este operador no tiene vectores propios en , aunque sí tiene vectores propios en un espacio mayor. Es decir, la distribución , donde es la función delta de Dirac , es un vector propio cuando se interpreta en un sentido apropiado. Sin embargo, la función delta de Dirac no es una función en el sentido clásico y no se encuentra en el espacio de Hilbert L 2 [0, 1] ni en ningún otro espacio de Banach . Por lo tanto, las funciones delta son "vectores propios generalizados" de pero no vectores propios en el sentido habitual. yo 2 ( [ 0 , 1 ] ) Estilo de visualización L^{2}([0,1])} φ ( a ) = del ( a a 0 ) {\displaystyle \varphi(t)=\delta(t-t_{0})} del {\estilo de visualización \delta} A {\estilo de visualización A}

Subespacios espectrales y medidas con valores de proyección

En ausencia de vectores propios (verdaderos), se puede buscar un "subespacio espectral" que consiste en un casi vector propio , es decir, un subespacio cerrado de asociado con un conjunto de Borel en el espectro de . Este subespacio puede considerarse como el lapso cerrado de vectores propios generalizados para con valores propios en . [4] En el ejemplo anterior, donde podríamos considerar el subespacio de funciones soportadas en un pequeño intervalo dentro de . Este espacio es invariante bajo y para cualquier en este subespacio, es muy cercano a . Cada subespacio, a su vez, está codificado por el operador de proyección asociado, y la colección de todos los subespacios se representa entonces por una medida con valor de proyección . V mi Estilo de visualización V_ {E}} yo {\estilo de visualización H} mi σ ( A ) {\displaystyle E\subconjunto \sigma (A)} A {\estilo de visualización A} A {\estilo de visualización A} mi {\estilo de visualización E} [ A φ ] ( a ) = a φ ( a ) , {\displaystyle [A\varphi ](t)=t\varphi (t),\;} [ a , a + mi ] {\displaystyle [a,a+\varepsilon ]} [ 0 , 1 ] {\estilo de visualización [0,1]} A {\estilo de visualización A} φ {\estilo de visualización \varphi} A φ {\estilo de visualización A\varphi} a φ {\estilo de visualización a\varphi}

Una formulación del teorema espectral expresa al operador A como una integral de la función de coordenadas sobre el espectro del operador con respecto a una medida con valor de proyección. [5] σ ( A ) {\displaystyle \sigma (A)} A = σ ( A ) la d π ( la ) . {\displaystyle A=\int _{\sigma (A)}\lambda \,d\pi (\lambda ).}

Cuando el operador autoadjunto en cuestión es compacto , esta versión del teorema espectral se reduce a algo similar al teorema espectral de dimensión finita anterior, excepto que el operador se expresa como una combinación lineal finita o infinitamente contable de proyecciones, es decir, la medida consiste solo en átomos.

Versión del operador de multiplicación

Una formulación alternativa del teorema espectral dice que todo operador autoadjunto acotado es unitariamente equivalente a un operador de multiplicación. La importancia de este resultado es que los operadores de multiplicación son fáciles de entender en muchos sentidos.

Teorema [6]  —  Sea A un operador autoadjunto acotado en un espacio de Hilbert H . Entonces existe un espacio de medida ( X , Σ, μ ) y unafunción medible f esencialmente acotada y de valor real en X y un operador unitario U : HL 2 ( X , μ ) tal que donde T es el operador de multiplicación : y. U T U = A , {\displaystyle U^{*}TU=A,} [ T φ ] ( x ) = f ( x ) φ ( x ) , {\displaystyle [T\varphi ](x)=f(x)\varphi (x),} T = f {\displaystyle \|T\|=\|f\|_{\infty }}

El teorema espectral es el comienzo de la vasta área de investigación del análisis funcional llamada teoría de operadores ; véase también medida espectral .

También existe un teorema espectral análogo para operadores normales acotados en espacios de Hilbert. La única diferencia en la conclusión es que ahora f puede tener un valor complejo.

Integrales directas

También existe una formulación del teorema espectral en términos de integrales directas . Es similar a la formulación del operador de multiplicación, pero más canónica.

Sea un operador autoadjunto acotado y sea el espectro de . La formulación integral directa del teorema espectral asocia dos cantidades a . Primero, una medida en , y segundo, una familia de espacios de Hilbert Formamos entonces el espacio de Hilbert integral directo Los elementos de este espacio son funciones (o "secciones") tales que para todo . La versión integral directa del teorema espectral puede expresarse de la siguiente manera: [7] A {\displaystyle A} σ ( A ) {\displaystyle \sigma (A)} A {\displaystyle A} A {\displaystyle A} μ {\displaystyle \mu } σ ( A ) {\displaystyle \sigma (A)} { H λ } , λ σ ( A ) . {\displaystyle \{H_{\lambda }\},\,\,\lambda \in \sigma (A).} R H λ d μ ( λ ) . {\displaystyle \int _{\mathbf {R} }^{\oplus }H_{\lambda }\,d\mu (\lambda ).} s ( λ ) , λ σ ( A ) , {\displaystyle s(\lambda ),\,\,\lambda \in \sigma (A),} s ( λ ) H λ {\displaystyle s(\lambda )\in H_{\lambda }} λ {\displaystyle \lambda }

Teorema  —  Si es un operador autoadjunto acotado, entonces es unitariamente equivalente al operador "multiplicación por " en para alguna medida y alguna familia de espacios de Hilbert. La medida está determinada de forma única por hasta la equivalencia teórica de la medida; es decir, cualesquiera dos medidas asociadas a la misma tienen los mismos conjuntos de medida cero. Las dimensiones de los espacios de Hilbert están determinadas de forma única por hasta un conjunto de -medida cero. A {\displaystyle A} A {\displaystyle A} λ {\displaystyle \lambda } R H λ d μ ( λ ) {\displaystyle \int _{\mathbf {R} }^{\oplus }H_{\lambda }\,d\mu (\lambda )} μ {\displaystyle \mu } { H λ } {\displaystyle \{H_{\lambda }\}} μ {\displaystyle \mu } A {\displaystyle A} A {\displaystyle A} H λ {\displaystyle H_{\lambda }} A {\displaystyle A} μ {\displaystyle \mu }

Los espacios pueden considerarse como algo así como "espacios propios" para . Sin embargo, tenga en cuenta que, a menos que el conjunto de un elemento tenga una medida positiva, el espacio no es en realidad un subespacio de la integral directa. Por lo tanto, los s deben considerarse como un "espacio propio generalizado", es decir, los elementos de son "vectores propios" que en realidad no pertenecen al espacio de Hilbert. H λ {\displaystyle H_{\lambda }} A {\displaystyle A} λ {\displaystyle \lambda } H λ {\displaystyle H_{\lambda }} H λ {\displaystyle H_{\lambda }} H λ {\displaystyle H_{\lambda }}

Aunque tanto la formulación del operador de multiplicación como la formulación de la integral directa del teorema espectral expresan un operador autoadjunto como unitariamente equivalente a un operador de multiplicación, el enfoque de la integral directa es más canónico. En primer lugar, el conjunto sobre el que tiene lugar la integral directa (el espectro del operador) es canónico. En segundo lugar, la función por la que estamos multiplicando es canónica en el enfoque de la integral directa: simplemente la función . λ λ {\displaystyle \lambda \mapsto \lambda }

Vectores cíclicos y espectro simple

Un vector se denomina vector cíclico si los vectores abarcan un subespacio denso del espacio de Hilbert. Supongamos que es un operador autoadjunto acotado para el que existe un vector cíclico. En ese caso, no hay distinción entre las formulaciones de operador de multiplicación e integral directa del teorema espectral. De hecho, en ese caso, hay una medida en el espectro de tal que es unitariamente equivalente al operador "multiplicación por " en . [8] Este resultado representa simultáneamente como un operador de multiplicación y como una integral directa, ya que es simplemente una integral directa en la que cada espacio de Hilbert es simplemente . φ {\displaystyle \varphi } A {\displaystyle A} φ , A φ , A 2 φ , {\displaystyle \varphi ,A\varphi ,A^{2}\varphi ,\ldots } A {\displaystyle A} μ {\displaystyle \mu } σ ( A ) {\displaystyle \sigma (A)} A {\displaystyle A} A {\displaystyle A} λ {\displaystyle \lambda } L 2 ( σ ( A ) , μ ) {\displaystyle L^{2}(\sigma (A),\mu )} A {\displaystyle A} L 2 ( σ ( A ) , μ ) {\displaystyle L^{2}(\sigma (A),\mu )} H λ {\displaystyle H_{\lambda }} C {\displaystyle \mathbb {C} }

No todo operador autoadjunto acotado admite un vector cíclico; de hecho, por la unicidad en la descomposición integral directa, esto puede ocurrir solo cuando todos los tienen dimensión uno. Cuando esto sucede, decimos que tiene "espectro simple" en el sentido de la teoría de multiplicidad espectral . Es decir, un operador autoadjunto acotado que admite un vector cíclico debe considerarse como la generalización de dimensión infinita de una matriz autoadjunta con valores propios distintos (es decir, cada valor propio tiene multiplicidad uno). H λ {\displaystyle H_{\lambda }} A {\displaystyle A}

Aunque no todos admiten un vector cíclico, es fácil ver que podemos descomponer el espacio de Hilbert como una suma directa de subespacios invariantes en los que hay un vector cíclico. Esta observación es la clave para las demostraciones de las formas de operador de multiplicación e integral directa del teorema espectral. A {\displaystyle A} A {\displaystyle A}

Cálculo funcional

Una aplicación importante del teorema espectral (en cualquier forma) es la idea de definir un cálculo funcional . Es decir, dada una función definida en el espectro de , deseamos definir un operador . Si es simplemente una potencia positiva, , entonces es simplemente la -ésima potencia de , . Los casos interesantes son donde es una función no polinómica como una raíz cuadrada o una exponencial. Cualquiera de las versiones del teorema espectral proporciona dicho cálculo funcional. [9] En la versión de integral directa, por ejemplo, actúa como el operador "multiplicación por " en la integral directa: Es decir, cada espacio en la integral directa es un espacio propio (generalizado) para con valor propio . f {\displaystyle f} A {\displaystyle A} f ( A ) {\displaystyle f(A)} f {\displaystyle f} f ( x ) = x n {\displaystyle f(x)=x^{n}} f ( A ) {\displaystyle f(A)} n {\displaystyle n} A {\displaystyle A} A n {\displaystyle A^{n}} f {\displaystyle f} f ( A ) {\displaystyle f(A)} f {\displaystyle f} [ f ( A ) s ] ( λ ) = f ( λ ) s ( λ ) . {\displaystyle [f(A)s](\lambda )=f(\lambda )s(\lambda ).} H λ {\displaystyle H_{\lambda }} f ( A ) {\displaystyle f(A)} f ( λ ) {\displaystyle f(\lambda )}

Operadores autoadjuntos ilimitados

Muchos operadores lineales importantes que se dan en el análisis , como los operadores diferenciales , no están acotados . También existe un teorema espectral para operadores autoadjuntos que se aplica en estos casos. Por ejemplo, todo operador diferencial de coeficiente constante es unitariamente equivalente a un operador de multiplicación. De hecho, el operador unitario que implementa esta equivalencia es la transformada de Fourier ; el operador de multiplicación es un tipo de multiplicador de Fourier .

En general, el teorema espectral para operadores autoadjuntos puede adoptar varias formas equivalentes. [10] En particular, todas las formulaciones dadas en la sección anterior para operadores autoadjuntos acotados (la versión de medida con valor de proyección, la versión de operador de multiplicación y la versión de integral directa) siguen siendo válidas para operadores autoadjuntos no acotados, con pequeñas modificaciones técnicas para abordar cuestiones de dominio. Específicamente, la única razón por la que el operador de multiplicación en está acotado se debe a la elección del dominio . El mismo operador en, por ejemplo, sería no acotado. A {\displaystyle A} L 2 ( [ 0 , 1 ] ) {\displaystyle L^{2}([0,1])} [ 0 , 1 ] {\displaystyle [0,1]} L 2 ( R ) {\displaystyle L^{2}(\mathbb {R} )}

La noción de "vectores propios generalizados" se extiende naturalmente a los operadores autoadjuntos no acotados, ya que se caracterizan como vectores propios no normalizables . Sin embargo, a diferencia del caso de los casi vectores propios, los valores propios pueden ser reales o complejos y, aunque sean reales, no necesariamente pertenecen al espectro. Sin embargo, para los operadores autoadjuntos siempre existe un subconjunto real de "valores propios generalizados" tal que el conjunto correspondiente de vectores propios es completo . [11]

Véase también

Notas

  1. ^ Hawkins, Thomas (1975). "Cauchy y la teoría espectral de matrices". Historia Mathematica . 2 : 1–29. doi : 10.1016/0315-0860(75)90032-4 .
  2. ^ Breve historia de la teoría de operadores por Evans M. Harrell II
  3. ^ Hall 2013 Sección 6.1
  4. ^ Hall 2013 Teorema 7.2.1
  5. ^ Hall 2013 Teorema 7.12
  6. ^ Hall 2013 Teorema 7.20
  7. ^ Hall 2013 Teorema 7.19
  8. ^ Hall 2013 Lema 8.11
  9. ^ Por ejemplo, Hall 2013 Definición 7.13
  10. ^ Véase la Sección 10.1 del Hall 2013
  11. ^ de la Madrid Modino 2001, págs.

Referencias

  • Sheldon Axler , Álgebra lineal bien hecha , Springer Verlag, 1997
  • Hall, BC (2013), Teoría cuántica para matemáticos , Textos de posgrado en matemáticas, vol. 267, Springer, Bibcode :2013qtm..book.....H, ISBN 978-1461471158
  • Paul Halmos , "¿Qué dice el teorema espectral?", American Mathematical Monthly , volumen 70, número 3 (1963), páginas 241–247 Otro enlace
  • de la Madrid Modino, R. (2001). Mecánica cuántica en lenguaje espacial de Hilbert amañado (tesis doctoral). Universidad de Valladolid.
  • M. Reed y B. Simon , Métodos de física matemática , vols I–IV, Academic Press 1972.
  • G. Teschl , Métodos matemáticos en mecánica cuántica con aplicaciones a los operadores de Schrödinger , https://www.mat.univie.ac.at/~gerald/ftp/book-schroe/, American Mathematical Society, 2009.
  • Valter Moretti (2017). Teoría espectral y mecánica cuántica; Fundamentos matemáticos de las teorías cuánticas, simetrías e introducción a la formulación algebraica 2.ª edición. Springer. ISBN 978-3-319-70705-1.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Spectral_theorem&oldid=1224388972"