Polinomio característico

Polinomio cuyas raíces son los valores propios de una matriz

En álgebra lineal , el polinomio característico de una matriz cuadrada es un polinomio que es invariante bajo semejanza de matrices y tiene los valores propios como raíces . Tiene el determinante y la traza de la matriz entre sus coeficientes. El polinomio característico de un endomorfismo de un espacio vectorial de dimensión finita es el polinomio característico de la matriz de ese endomorfismo sobre cualquier base (es decir, el polinomio característico no depende de la elección de una base ). La ecuación característica , también conocida como ecuación determinante , [1] [2] [3] es la ecuación que se obtiene al igualar el polinomio característico a cero.

En la teoría de grafos espectrales , el polinomio característico de un grafo es el polinomio característico de su matriz de adyacencia . [4]

Motivación

En álgebra lineal , los valores propios y los vectores propios juegan un papel fundamental, ya que, dada una transformación lineal , un vector propio es un vector cuya dirección no cambia por la transformación, y el valor propio correspondiente es la medida del cambio de magnitud resultante del vector.

Más precisamente, supongamos que la transformación está representada por una matriz cuadrada. Entonces, un vector propio y el valor propio correspondiente deben satisfacer la ecuación o, equivalentemente (ya que ), donde es la matriz identidad , y (aunque el vector cero satisface esta ecuación para cada no se considera un vector propio). A . {\displaystyle A.} en {\displaystyle \mathbf {v}} la {\estilo de visualización \lambda} A en = la en , {\displaystyle A\mathbf {v} =\lambda \mathbf {v},} la en = la I en {\displaystyle \lambda \mathbf {v} =\lambda I\mathbf {v} } ( la I A ) en = 0 {\displaystyle (\lambda IA)\mathbf {v} =\mathbf {0} } I {\displaystyle I} en 0 {\displaystyle \mathbf {v} \neq \mathbf {0} } la , {\estilo de visualización \lambda ,}

De ello se deduce que la matriz debe ser singular y su determinante debe ser cero. ( la I A ) {\estilo de visualización (\lambda IA)} det ( la I A ) = 0 {\displaystyle \det(\lambda IA)=0}

En otras palabras, los valores propios de A son las raíces de cuyo polinomio es un polinomio mónico en x de grado n si A es una matriz n × n . Este polinomio es el polinomio característico de A . det ( incógnita I A ) , {\displaystyle \det(xI-A),}

Definición formal

Considere una matriz El polinomio característico de denotado por es el polinomio definido por [5] donde denota la matriz identidad . norte × norte {\displaystyle n\veces n} A . {\displaystyle A.} A , {\estilo de visualización A,} pag A ( a ) , estilo de visualización p_{A}(t),} pag A ( a ) = det ( a I A ) {\displaystyle p_{A}(t)=\det(tI-A)} I {\displaystyle I} norte × norte {\displaystyle n\veces n}

Algunos autores definen el polinomio característico como Ese polinomio difiere del definido aquí por un signo , por lo que no hay diferencia para propiedades como tener como raíces los valores propios de ; sin embargo, la definición anterior siempre da un polinomio mónico , mientras que la definición alternativa es mónica solo cuando es par. det ( A a I ) . {\displaystyle \det(A-tI).} ( 1 ) norte , {\displaystyle (-1)^{n},} A {\estilo de visualización A} norte {\estilo de visualización n}

Ejemplos

Para calcular el polinomio característico de la matriz se calcula el determinante de lo siguiente: y se encuentra que es el polinomio característico de A = ( 2 1 1 0 ) . {\displaystyle A={\begin{pmatrix}2&1\\-1&0\end{pmatrix}}.} a I A = ( a 2 1 1 a 0 ) {\displaystyle tI-A={\begin{pmatrix}t-2&-1\\1&t-0\end{pmatrix}}} ( a 2 ) a 1 ( 1 ) = a 2 2 a + 1 , {\displaystyle (t-2)t-1(-1)=t^{2}-2t+1\,\!,} A . {\displaystyle A.}

Otro ejemplo utiliza funciones hiperbólicas de un ángulo hiperbólico φ. Para la matriz, tomemos su polinomio característico. A = ( aporrear ( φ ) pecado ( φ ) pecado ( φ ) aporrear ( φ ) ) . {\displaystyle A={\begin{pmatrix}\cosh(\varphi )&\sinh(\varphi )\\\sinh(\varphi )&\cosh(\varphi )\end{pmatrix}}.} det ( a I A ) = ( a aporrear ( φ ) ) 2 pecado 2 ( φ ) = a 2 2 a   aporrear ( φ ) + 1 = ( a mi φ ) ( a mi φ ) . {\displaystyle \det(tI-A)=(t-\cosh(\varphi ))^{2}-\sinh ^{2}(\varphi )=t^{2}-2t\ \cosh(\varphi )+1=(te^{\varphi })(te^{-\varphi }).}

Propiedades

El polinomio característico de una matriz es mónico (su coeficiente principal es ) y su grado es El hecho más importante sobre el polinomio característico ya se mencionó en el párrafo motivacional: los valores propios de son precisamente las raíces de (esto también es válido para el polinomio mínimo de pero su grado puede ser menor que ). Todos los coeficientes del polinomio característico son expresiones polinómicas en las entradas de la matriz. En particular, su coeficiente constante de es el coeficiente de es uno, y el coeficiente de es tr(− A ) = −tr( A ) , donde tr( A ) es la traza de (Los signos dados aquí corresponden a la definición formal dada en la sección anterior; para la definición alternativa, estos serían en cambio y (−1) n – 1 tr( A ) respectivamente. [6] ) pag A ( a ) estilo de visualización p_{A}(t)} norte × norte {\displaystyle n\veces n} 1 {\estilo de visualización 1} norte . {\displaystyle n.} A {\estilo de visualización A} pag A ( a ) estilo de visualización p_{A}(t)} A , {\estilo de visualización A,} norte {\estilo de visualización n} a 0 {\estilo de visualización t^{0}} det ( A ) = ( 1 ) norte det ( A ) , {\displaystyle \det(-A)=(-1)^{n}\det(A),} a norte estilo de visualización t^{n}} a norte 1 {\displaystyle t^{n-1}} A . {\displaystyle A.} det ( A ) {\displaystyle \det(A)}

Para una matriz el polinomio característico viene dado por 2 × 2 {\displaystyle 2\times 2} A , {\displaystyle A,} t 2 tr ( A ) t + det ( A ) . {\displaystyle t^{2}-\operatorname {tr} (A)t+\det(A).}

Usando el lenguaje del álgebra exterior , el polinomio característico de una matriz puede expresarse como donde es la traza de la potencia exterior de la cual tiene dimensión. Esta traza puede calcularse como la suma de todos los menores principales de de tamaño. El algoritmo recursivo de Faddeev-LeVerrier calcula estos coeficientes de manera más eficiente. n × n {\displaystyle n\times n} A {\displaystyle A} p A ( t ) = k = 0 n t n k ( 1 ) k tr ( k A ) {\displaystyle p_{A}(t)=\sum _{k=0}^{n}t^{n-k}(-1)^{k}\operatorname {tr} \left(\textstyle \bigwedge ^{k}A\right)} tr ( k A ) {\textstyle \operatorname {tr} \left(\bigwedge ^{k}A\right)} k {\displaystyle k} A , {\displaystyle A,} ( n k ) . {\textstyle {\binom {n}{k}}.} A {\displaystyle A} k . {\displaystyle k.}

Cuando la característica del campo de los coeficientes es cada uno de dichos rastros puede calcularse alternativamente como un determinante único, el de la matriz, 0 , {\displaystyle 0,} k × k {\displaystyle k\times k} tr ( k A ) = 1 k ! | tr A k 1 0 0 tr A 2 tr A k 2 0 tr A k 1 tr A k 2 1 tr A k tr A k 1 tr A |   . {\displaystyle \operatorname {tr} \left(\textstyle \bigwedge ^{k}A\right)={\frac {1}{k!}}{\begin{vmatrix}\operatorname {tr} A&k-1&0&\cdots &0\\\operatorname {tr} A^{2}&\operatorname {tr} A&k-2&\cdots &0\\\vdots &\vdots &&\ddots &\vdots \\\operatorname {tr} A^{k-1}&\operatorname {tr} A^{k-2}&&\cdots &1\\\operatorname {tr} A^{k}&\operatorname {tr} A^{k-1}&&\cdots &\operatorname {tr} A\end{vmatrix}}~.}

El teorema de Cayley-Hamilton establece que al reemplazar por en el polinomio característico (interpretando las potencias resultantes como potencias matriciales y el término constante como multiplicado por la matriz identidad) se obtiene la matriz cero. En términos informales, cada matriz satisface su propia ecuación característica. Esta afirmación es equivalente a decir que el polinomio mínimo de divide al polinomio característico de t {\displaystyle t} A {\displaystyle A} c {\displaystyle c} c {\displaystyle c} A {\displaystyle A} A . {\displaystyle A.}

Dos matrices semejantes tienen el mismo polinomio característico. Sin embargo, la inversa no es cierta en general: dos matrices con el mismo polinomio característico no necesariamente son semejantes.

La matriz y su transpuesta tienen el mismo polinomio característico. es similar a una matriz triangular si y solo si su polinomio característico puede factorizarse completamente en factores lineales (lo mismo sucede con el polinomio mínimo en lugar del polinomio característico). En este caso es similar a una matriz en forma normal de Jordan . A {\displaystyle A} A {\displaystyle A} K {\displaystyle K} A {\displaystyle A}

Polinomio característico de un producto de dos matrices

Si y son dos matrices cuadradas entonces los polinomios característicos de y coinciden: A {\displaystyle A} B {\displaystyle B} n × n {\displaystyle n\times n} A B {\displaystyle AB} B A {\displaystyle BA} p A B ( t ) = p B A ( t ) . {\displaystyle p_{AB}(t)=p_{BA}(t).\,}

Cuando no es singular este resultado se deduce del hecho de que y son similares : A {\displaystyle A} A B {\displaystyle AB} B A {\displaystyle BA} B A = A 1 ( A B ) A . {\displaystyle BA=A^{-1}(AB)A.}

Para el caso en que tanto y son singulares, la identidad buscada es una igualdad entre los polinomios en y los coeficientes de las matrices. Por lo tanto, para probar esta igualdad, basta probar que se verifica en un subconjunto abierto no vacío (para la topología usual , o, más generalmente, para la topología de Zariski ) del espacio de todos los coeficientes. Como las matrices no singulares forman tal subconjunto abierto del espacio de todas las matrices, esto prueba el resultado. A {\displaystyle A} B {\displaystyle B} t {\displaystyle t}

De manera más general, si es una matriz de orden y es una matriz de orden entonces es y es una matriz, y uno tiene A {\displaystyle A} m × n {\displaystyle m\times n} B {\displaystyle B} n × m , {\displaystyle n\times m,} A B {\displaystyle AB} m × m {\displaystyle m\times m} B A {\displaystyle BA} n × n {\displaystyle n\times n} p B A ( t ) = t n m p A B ( t ) . {\displaystyle p_{BA}(t)=t^{n-m}p_{AB}(t).\,}

Para demostrarlo, se puede suponer que intercambiando, si es necesario, y Luego, delimitando en la parte inferior con filas de ceros y en la derecha con columnas de ceros, se obtienen dos matrices y tales que y es igual a delimitadas por filas y columnas de ceros. El resultado se deduce del caso de matrices cuadradas, comparando los polinomios característicos de y n > m , {\displaystyle n>m,} A {\displaystyle A} B . {\displaystyle B.} A {\displaystyle A} n m {\displaystyle n-m} B {\displaystyle B} n m {\displaystyle n-m} n × n {\displaystyle n\times n} A {\displaystyle A^{\prime }} B {\displaystyle B^{\prime }} B A = B A {\displaystyle B^{\prime }A^{\prime }=BA} A B {\displaystyle A^{\prime }B^{\prime }} A B {\displaystyle AB} n m {\displaystyle n-m} A B {\displaystyle A^{\prime }B^{\prime }} A B . {\displaystyle AB.}

Polinomio característico deAa

Si es un valor propio de una matriz cuadrada con vector propio entonces es un valor propio de porque λ {\displaystyle \lambda } A {\displaystyle A} v , {\displaystyle \mathbf {v} ,} λ k {\displaystyle \lambda ^{k}} A k {\displaystyle A^{k}} A k v = A k 1 A v = λ A k 1 v = = λ k v . {\displaystyle A^{k}{\textbf {v}}=A^{k-1}A{\textbf {v}}=\lambda A^{k-1}{\textbf {v}}=\dots =\lambda ^{k}{\textbf {v}}.}

También se puede demostrar que las multiplicidades concuerdan, y esto se generaliza a cualquier polinomio en lugar de : [7] x k {\displaystyle x^{k}}

Teorema  —  Sea una matriz cuadrada y sea un polinomio. Si el polinomio característico de tiene una factorización , entonces el polinomio característico de la matriz está dado por A {\displaystyle A} n × n {\displaystyle n\times n} f ( t ) {\displaystyle f(t)} A {\displaystyle A} p A ( t ) = ( t λ 1 ) ( t λ 2 ) ( t λ n ) {\displaystyle p_{A}(t)=(t-\lambda _{1})(t-\lambda _{2})\cdots (t-\lambda _{n})} f ( A ) {\displaystyle f(A)} p f ( A ) ( t ) = ( t f ( λ 1 ) ) ( t f ( λ 2 ) ) ( t f ( λ n ) ) . {\displaystyle p_{f(A)}(t)=(t-f(\lambda _{1}))(t-f(\lambda _{2}))\cdots (t-f(\lambda _{n})).}

Es decir, la multiplicidad algebraica de en es igual a la suma de las multiplicidades algebraicas de en sobre tales que En particular, y Aquí un polinomio , por ejemplo, se evalúa en una matriz simplemente como λ {\displaystyle \lambda } f ( A ) {\displaystyle f(A)} λ {\displaystyle \lambda '} A {\displaystyle A} λ {\displaystyle \lambda '} f ( λ ) = λ . {\displaystyle f(\lambda ')=\lambda .} tr ( f ( A ) ) = i = 1 n f ( λ i ) {\displaystyle \operatorname {tr} (f(A))=\textstyle \sum _{i=1}^{n}f(\lambda _{i})} det ( f ( A ) ) = i = 1 n f ( λ i ) . {\displaystyle \operatorname {det} (f(A))=\textstyle \prod _{i=1}^{n}f(\lambda _{i}).} f ( t ) = t 3 + 1 , {\displaystyle f(t)=t^{3}+1,} A {\displaystyle A} f ( A ) = A 3 + I . {\displaystyle f(A)=A^{3}+I.}

El teorema se aplica a matrices y polinomios sobre cualquier cuerpo o anillo conmutativo . [8] Sin embargo, la suposición de que tiene una factorización en factores lineales no siempre es verdadera, a menos que la matriz esté sobre un cuerpo algebraicamente cerrado como los números complejos. p A ( t ) {\displaystyle p_{A}(t)}

Prueba

Esta prueba sólo se aplica a matrices y polinomios sobre números complejos (o cualquier cuerpo algebraicamente cerrado). En ese caso, el polinomio característico de cualquier matriz cuadrada siempre se puede factorizar como donde son los valores propios de posiblemente repetidos. Además, el teorema de descomposición de Jordan garantiza que cualquier matriz cuadrada se puede descomponer como donde es una matriz invertible y es triangular superior con en la diagonal (con cada valor propio repetido de acuerdo con su multiplicidad algebraica). (La forma normal de Jordan tiene propiedades más fuertes, pero estas son suficientes; alternativamente se puede utilizar la descomposición de Schur , que es menos popular pero algo más fácil de demostrar). p A ( t ) = ( t λ 1 ) ( t λ 2 ) ( t λ n ) {\displaystyle p_{A}(t)=\left(t-\lambda _{1}\right)\left(t-\lambda _{2}\right)\cdots \left(t-\lambda _{n}\right)} λ 1 , λ 2 , , λ n {\displaystyle \lambda _{1},\lambda _{2},\ldots ,\lambda _{n}} A , {\displaystyle A,} A {\displaystyle A} A = S 1 U S , {\displaystyle A=S^{-1}US,} S {\displaystyle S} U {\displaystyle U} λ 1 , , λ n {\displaystyle \lambda _{1},\ldots ,\lambda _{n}}

Sea entonces Para una matriz triangular superior con diagonal la matriz es triangular superior con diagonal en y por lo tanto es triangular superior con diagonal Por lo tanto, los valores propios de son Dado que es similar a tiene los mismos valores propios, con las mismas multiplicidades algebraicas. f ( t ) = i α i t i . {\textstyle f(t)=\sum _{i}\alpha _{i}t^{i}.} f ( A ) = α i ( S 1 U S ) i = α i S 1 U S S 1 U S S 1 U S = α i S 1 U i S = S 1 ( α i U i ) S = S 1 f ( U ) S . {\displaystyle f(A)=\textstyle \sum \alpha _{i}(S^{-1}US)^{i}=\textstyle \sum \alpha _{i}S^{-1}USS^{-1}US\cdots S^{-1}US=\textstyle \sum \alpha _{i}S^{-1}U^{i}S=S^{-1}(\textstyle \sum \alpha _{i}U^{i})S=S^{-1}f(U)S.} U {\displaystyle U} λ 1 , , λ n , {\displaystyle \lambda _{1},\dots ,\lambda _{n},} U i {\displaystyle U^{i}} λ 1 i , , λ n i {\displaystyle \lambda _{1}^{i},\dots ,\lambda _{n}^{i}} U i , {\displaystyle U^{i},} f ( U ) {\displaystyle f(U)} f ( λ 1 ) , , f ( λ n ) . {\displaystyle f\left(\lambda _{1}\right),\dots ,f\left(\lambda _{n}\right).} f ( U ) {\displaystyle f(U)} f ( λ 1 ) , , f ( λ n ) . {\displaystyle f(\lambda _{1}),\dots ,f(\lambda _{n}).} f ( A ) = S 1 f ( U ) S {\displaystyle f(A)=S^{-1}f(U)S} f ( U ) , {\displaystyle f(U),}

Función secular y ecuación secular

Función secular

El término función secular se ha utilizado para lo que hoy se denomina polinomio característico (en alguna literatura todavía se utiliza el término función secular). El término proviene del hecho de que el polinomio característico se utilizaba para calcular perturbaciones seculares (en una escala de tiempo de un siglo, es decir, lentas en comparación con el movimiento anual) de las órbitas planetarias, según la teoría de oscilaciones de Lagrange .

Ecuación secular

La ecuación secular puede tener varios significados.

  • En álgebra lineal a veces se utiliza en lugar de la ecuación característica.
  • En astronomía es la expresión algebraica o numérica de la magnitud de las desigualdades en el movimiento de un planeta que permanecen después de que se han tenido en cuenta las desigualdades de un período corto. [9]
  • En los cálculos de orbitales moleculares relacionados con la energía del electrón y su función de onda también se utiliza en lugar de la ecuación característica.

Para álgebras asociativas generales

La definición anterior del polinomio característico de una matriz con entradas en un cuerpo se generaliza sin cambios al caso en el que es simplemente un anillo conmutativo . Garibaldi (2004) define el polinomio característico para elementos de un álgebra de dimensión finita arbitraria ( asociativa , pero no necesariamente conmutativa) sobre un cuerpo y demuestra las propiedades estándar del polinomio característico en esta generalidad. A M n ( F ) {\displaystyle A\in M_{n}(F)} F {\displaystyle F} F {\displaystyle F} F {\displaystyle F}

Véase también

Referencias

  1. ^ Guillemin, Ernst (1953). Introducción a la teoría de circuitos. Wiley. págs.366, 541. ISBN 0471330663.
  2. ^ Forsythe, George E.; Motzkin, Theodore (enero de 1952). "Una extensión de la transformación de Gauss para mejorar la condición de los sistemas de ecuaciones lineales" (PDF) . Matemáticas de la computación . 6 (37): 18–34. doi : 10.1090/S0025-5718-1952-0048162-0 . Consultado el 3 de octubre de 2020 .
  3. ^ Frank, Evelyn (1946). "Sobre los ceros de polinomios con coeficientes complejos". Boletín de la Sociedad Matemática Americana . 52 (2): 144–157. doi : 10.1090/S0002-9904-1946-08526-2 .
  4. ^ "Polinomio característico de un gráfico – Wolfram MathWorld" . Consultado el 26 de agosto de 2011 .
  5. ^ Steven Roman (1992). Álgebra lineal avanzada (2.ª ed.). Springer. pág. 137. ISBN 3540978372.
  6. ^ Teorema 4 en estas notas de clase
  7. ^ Horn, Roger A.; Johnson, Charles R. (2013). Análisis de matrices (2.ª ed.). Cambridge University Press . pp. 108-109, Sección 2.4.2. ISBN 978-0-521-54823-6.
  8. ^ Lang, Serge (1993). Álgebra. Nueva York: Springer. p.567, Teorema 3.10. ISBN 978-1-4613-0041-0.OCLC 852792828  .
  9. ^ "ecuación secular" . Consultado el 21 de enero de 2010 .
Retrieved from "https://en.wikipedia.org/w/index.php?title=Characteristic_polynomial&oldid=1249137690"