Matriz cuadrada

Matriz con el mismo número de filas y columnas
Matriz cuadrada de orden 4. Las entradas forman la diagonal principal de una matriz cuadrada. Por ejemplo, la diagonal principal de la matriz 4×4 anterior contiene los elementos a 11 = 9 , a 22 = 11 , a 33 = 4 , a 44 = 10 . a i i Estilo de visualización a_{ii}}

En matemáticas , una matriz cuadrada es una matriz con el mismo número de filas y columnas. Una matriz n por n se conoce como matriz cuadrada de orden . Se pueden sumar y multiplicar dos matrices cuadradas cualesquiera del mismo orden. norte {\estilo de visualización n}

Las matrices cuadradas se utilizan a menudo para representar transformaciones lineales simples , como la cizalladura o la rotación . Por ejemplo, si es una matriz cuadrada que representa una rotación ( matriz de rotación ) y es un vector columna que describe la posición de un punto en el espacio, el producto da como resultado otro vector columna que describe la posición de ese punto después de esa rotación. Si es un vector fila , se puede obtener la misma transformación utilizando , donde es la transpuesta de . R {\estilo de visualización R} en {\displaystyle \mathbf {v}} R en {\displaystyle R\mathbf {v}} en {\displaystyle \mathbf {v}} en R yo {\displaystyle \mathbf {v} R^{\mathsf {T}}} R yo {\displaystyle R^{\mathsf {T}}} R {\estilo de visualización R}

Diagonal principal

Las entradas ( i = 1, ..., n ) forman la diagonal principal de una matriz cuadrada. Se encuentran en la línea imaginaria que va desde la esquina superior izquierda hasta la esquina inferior derecha de la matriz. Por ejemplo, la diagonal principal de la matriz 4×4 anterior contiene los elementos a 11 = 9 , a 22 = 11 , a 33 = 4 , a 44 = 10 . a i i Estilo de visualización a_{ii}}

La diagonal de una matriz cuadrada desde la esquina superior derecha hasta la esquina inferior izquierda se llama antidiagonal o contradiagonal .

Tipos especiales

NombreEjemplo con n = 3
Matriz diagonal [ a 11 0 0 0 a 22 0 0 0 a 33 ] {\displaystyle {\begin{bmatrix}a_{11}&0&0\\0&a_{22}&0\\0&0&a_{33}\end{bmatrix}}}
Matriz triangular inferior [ a 11 0 0 a 21 a 22 0 a 31 a 32 a 33 ] {\displaystyle {\begin{bmatrix}a_{11}&0&0\\a_{21}&a_{22}&0\\a_{31}&a_{32}&a_{33}\end{bmatrix}}}
Matriz triangular superior [ a 11 a 12 a 13 0 a 22 a 23 0 0 a 33 ] {\displaystyle {\begin{bmatrix}a_{11}&a_{12}&a_{13}\\0&a_{22}&a_{23}\\0&0&a_{33}\end{bmatrix}}}

Matriz diagonal o triangular

Si todas las entradas fuera de la diagonal principal son cero, se denomina matriz diagonal . Si todas las entradas debajo (o por encima) de la diagonal principal son cero, se denomina matriz triangular superior (o por debajo) . A {\estilo de visualización A} A {\estilo de visualización A}

Matriz de identidad

La matriz identidad de tamaño es la matriz en la que todos los elementos de la diagonal principal son iguales a 1 y todos los demás elementos son iguales a 0, por ejemplo, es una matriz cuadrada de orden , y también un tipo especial de matriz diagonal . El término matriz identidad se refiere a la propiedad de la multiplicación de matrices de que para cualquier matriz . I norte {\displaystyle I_{n}} norte {\estilo de visualización n} norte × norte {\displaystyle n\veces n} I 1 = [ 1 ] ,   I 2 = [ 1 0 0 1 ] ,   ,   I norte = [ 1 0 0 0 1 0 0 0 1 ] . {\displaystyle I_{1}={\begin{bmatrix}1\end{bmatrix}},\ I_{2}={\begin{bmatrix}1&0\\0&1\end{bmatrix}},\ \ldots ,\ I_{n}={\begin{bmatrix}1&0&\cdots &0\\0&1&\cdots &0\\\vdots &\vdots &\ddots &\vdots \\0&0&\cdots &1\end{bmatrix}}.} norte {\estilo de visualización n} I metro A = A I norte = A {\displaystyle I_{m}A=AI_{n}=A} metro × norte {\displaystyle m\veces n} A {\estilo de visualización A}

Matriz invertible y su inversa

Una matriz cuadrada se llama invertible o no singular si existe una matriz tal que [1] [2] Si existe, es única y se llama matriz inversa de , denotada . A {\estilo de visualización A} B {\estilo de visualización B} A B = B A = I norte . {\displaystyle AB=BA=I_{n}.} B {\estilo de visualización B} A {\estilo de visualización A} A 1 Estilo de visualización A-1

Matriz simétrica o antisimétrica

Una matriz cuadrada que es igual a su transpuesta, es decir, , es una matriz simétrica . Si en cambio , entonces se llama matriz antisimétrica . A {\estilo de visualización A} A yo = A {\displaystyle A^{\mathsf {T}}=A} A yo = A {\displaystyle A^{\mathsf {T}}=-A} A {\estilo de visualización A}

Para una matriz cuadrada compleja , a menudo el análogo apropiado de la transpuesta es la transpuesta conjugada , definida como la transpuesta de la conjugada compleja de . Una matriz cuadrada compleja que satisface se llama matriz hermítica . Si en cambio , entonces se llama matriz antihermítica . A {\estilo de visualización A} A {\estilo de visualización A^{*}} A {\estilo de visualización A} A {\estilo de visualización A} A = A Estilo de visualización A^{*}=A} A = A Estilo de visualización A^{*}=-A} A {\estilo de visualización A}

Por el teorema espectral , las matrices simétricas reales (o hermíticas complejas) tienen una base propia ortogonal (o unitaria) ; es decir, cada vector se puede expresar como una combinación lineal de vectores propios. En ambos casos, todos los valores propios son reales. [3]

Matriz definida

Definitivo positivoIndefinido
[ 1 / 4 0 0 1 ] {\displaystyle {\begin{bmatrix}1/4&0\\0&1\\\end{bmatrix}}} [ 1 / 4 0 0 1 / 4 ] {\displaystyle {\begin{bmatrix}1/4&0\\0&-1/4\end{bmatrix}}}
Q ( x , y ) = 1 / 4x2 + y2Q ( x , y ) = 1/4 x 2 − 1/4 y 2

Puntos tales que Q ( x , y ) = 1
( Elipse ).

Puntos tales que Q ( x , y ) = 1
( Hipérbola ).

Una matriz simétrica n × n se denomina positiva-definida (respectivamente negativa-definida; indefinida), si para todos los vectores distintos de cero la forma cuadrática asociada dada por toma solo valores positivos (respectivamente solo valores negativos; tanto algunos valores negativos como algunos positivos). [4] Si la forma cuadrática toma solo valores no negativos (respectivamente solo valores no positivos), la matriz simétrica se denomina positiva-semidefinida (respectivamente negativa-semidefinida); por lo tanto, la matriz es indefinida precisamente cuando no es ni positiva-semidefinida ni negativa-semidefinida. incógnita R norte {\displaystyle x\in \mathbb {R} ^{n}} Q ( incógnita ) = incógnita yo A incógnita {\displaystyle Q(x)=x ^{T}}Ax

Una matriz simétrica es definida positiva si y solo si todos sus valores propios son positivos. [5] La tabla de la derecha muestra dos posibilidades para matrices 2×2.

Al permitir como entrada dos vectores diferentes se obtiene la forma bilineal asociada a A : [6] B A ( incógnita , y ) = incógnita yo A y . {\displaystyle B_{A}(\mathbf {x} ,\mathbf {y} )=\mathbf {x} ^{\mathsf {T}}A\mathbf {y} .}

Matriz ortogonal

Una matriz ortogonal es una matriz cuadrada con elementos reales cuyas columnas y filas son vectores unitarios ortogonales (es decir, vectores ortonormales ). De manera equivalente, una matriz A es ortogonal si su transpuesta es igual a su inversa : lo que implica donde I es la matriz identidad . A yo = A 1 , {\displaystyle A^{\textsf {T}}=A^{-1},} A yo A = A A yo = I , {\displaystyle A^{\textsf {T}}A=AA^{\textsf {T}}=I,}

Una matriz ortogonal A es necesariamente invertible (con inversa A −1 = A T ), unitaria ( A −1 = A * ) y normal ( A * A = AA * ). El determinante de cualquier matriz ortogonal es +1 o −1. El grupo ortogonal especial consta de las matrices ortogonales n × n con determinante +1. SO ( n ) {\displaystyle \operatorname {SO} (n)}

El análogo complejo de una matriz ortogonal es una matriz unitaria .

Matriz normal

Una matriz cuadrada real o compleja se denomina normal si . Si una matriz cuadrada real es simétrica, antisimétrica u ortogonal, entonces es normal. Si una matriz cuadrada compleja es hermítica, antihermítica o unitaria, entonces es normal. Las matrices normales son de interés principalmente porque incluyen los tipos de matrices que acabamos de enumerar y forman la clase más amplia de matrices para las que se cumple el teorema espectral . [7] A {\displaystyle A} A A = A A {\displaystyle A^{*}A=AA^{*}}

Operaciones

Rastro

La traza , tr( A ) de una matriz cuadrada A es la suma de sus elementos diagonales. Si bien la multiplicación de matrices no es conmutativa, la traza del producto de dos matrices es independiente del orden de los factores: Esto es inmediato a partir de la definición de multiplicación de matrices: Además, la traza de una matriz es igual a la de su transpuesta, es decir, tr ( A B ) = tr ( B A ) . {\displaystyle \operatorname {tr} (AB)=\operatorname {tr} (BA).} tr ( A B ) = i = 1 m j = 1 n A i j B j i = tr ( B A ) . {\displaystyle \operatorname {tr} (AB)=\sum _{i=1}^{m}\sum _{j=1}^{n}A_{ij}B_{ji}=\operatorname {tr} (BA).} tr ( A ) = tr ( A T ) . {\displaystyle \operatorname {tr} (A)=\operatorname {tr} (A^{\mathrm {T} }).}

Determinante

Una transformación lineal sobre la dada por la matriz indicada. El determinante de esta matriz es −1, ya que el área del paralelogramo verde de la derecha es 1, pero la función invierte la orientación , ya que cambia la orientación de los vectores en sentido antihorario por una en el sentido horario. R 2 {\displaystyle \mathbb {R} ^{2}}

El determinante de una matriz cuadrada es un número que codifica ciertas propiedades de la matriz. Una matriz es invertible si y solo si su determinante es distinto de cero. Su valor absoluto es igual al área (en ) o al volumen (en ) de la imagen del cuadrado (o cubo) unitario, mientras que su signo corresponde a la orientación de la función lineal correspondiente: el determinante es positivo si y solo si se conserva la orientación. det ( A ) {\displaystyle \det(A)} | A | {\displaystyle |A|} A {\displaystyle A} R 2 {\displaystyle \mathbb {R} ^{2}} R 3 {\displaystyle \mathbb {R} ^{3}}

El determinante de matrices 2×2 viene dado por El determinante de matrices 3×3 implica 6 términos ( regla de Sarrus ). La fórmula de Leibniz, más extensa, generaliza estas dos fórmulas a todas las dimensiones. [8] det [ a b c d ] = a d b c . {\displaystyle \det {\begin{bmatrix}a&b\\c&d\end{bmatrix}}=ad-bc.}

El determinante de un producto de matrices cuadradas es igual al producto de sus determinantes: [9] Sumar un múltiplo de cualquier fila a otra fila, o un múltiplo de cualquier columna a otra columna, no cambia el determinante. Intercambiar dos filas o dos columnas afecta al determinante multiplicándolo por −1. [10] Usando estas operaciones, cualquier matriz puede transformarse en una matriz triangular inferior (o superior), y para tales matrices el determinante es igual al producto de las entradas en la diagonal principal; esto proporciona un método para calcular el determinante de cualquier matriz. Finalmente, la expansión de Laplace expresa el determinante en términos de menores , es decir, determinantes de matrices más pequeñas. [11] Esta expansión puede usarse para una definición recursiva de determinantes (tomando como caso inicial el determinante de una matriz 1×1, que es su única entrada, o incluso el determinante de una matriz 0×0, que es 1), que puede verse como equivalente a la fórmula de Leibniz. Los determinantes se pueden utilizar para resolver sistemas lineales utilizando la regla de Cramer , donde la división de los determinantes de dos matrices cuadradas relacionadas equivale al valor de cada una de las variables del sistema. [12] det ( A B ) = det ( A ) det ( B ) {\displaystyle \det(AB)=\det(A)\cdot \det(B)}

Valores propios y vectores propios

Un número λ y un vector distinto de cero que satisface se denominan valor propio y vector propio de , respectivamente. [13] [14] El número λ es un valor propio de una matriz A de n × n si y solo si A − λ I n no es invertible, lo que es equivalente a [15] El polinomio p A en una indeterminada X dada por la evaluación del determinante det( XI nA ) se denomina polinomio característico de A . Es un polinomio mónico de grado n . Por lo tanto, la ecuación polinómica p A (λ) = 0 tiene como máximo n soluciones diferentes, es decir, valores propios de la matriz. [16] Pueden ser complejos incluso si las entradas de A son reales. Según el teorema de Cayley-Hamilton , p A ( A ) = 0 , es decir, el resultado de sustituir la propia matriz en su propio polinomio característico da como resultado la matriz cero . v {\displaystyle \mathbf {v} } A v = λ v {\displaystyle A\mathbf {v} =\lambda \mathbf {v} } A {\displaystyle A} det ( A λ I ) = 0. {\displaystyle \det(A-\lambda I)=0.}

Véase también

Notas

  1. ^ Brown 1991, Definición I.2.28
  2. ^ Brown 1991, Definición I.5.13
  3. ^ Horn y Johnson 1985, Teorema 2.5.6
  4. ^ Horn y Johnson 1985, Capítulo 7
  5. ^ Horn y Johnson 1985, Teorema 7.2.1
  6. ^ Horn & Johnson 1985, Ejemplo 4.0.6, pág. 169
  7. ^ Artin, Álgebra , 2.a edición, Pearson, 2018, sección 8.6.
  8. ^ Brown 1991, Definición III.2.1
  9. ^ Brown 1991, Teorema III.2.12
  10. ^ Brown 1991, Corolario III.2.16
  11. ^ Mirsky 1990, Teorema 1.4.1
  12. ^ Brown 1991, Teorema III.3.18
  13. ^ Eigen significa "propio" en alemán y en holandés .
  14. ^ Brown 1991, Definición III.4.1
  15. ^ Brown 1991, Definición III.4.9
  16. ^ Brown 1991, Corolario III.4.10

Referencias

  • Medios relacionados con Matrices cuadradas en Wikimedia Commons
Retrieved from "https://en.wikipedia.org/w/index.php?title=Square_matrix&oldid=1247365426"