Matriz jacobiana y determinante

Matriz de todas las derivadas parciales de primer orden de una función con valores vectoriales

En cálculo vectorial , la matriz jacobiana ( / ə ˈ k b i ə n / , [ 1] [2] [3] / ɪ -, j ɪ -/ ) de una función vectorial de varias variables es la matriz de todas sus derivadas parciales de primer orden . Cuando esta matriz es cuadrada , es decir, cuando la función toma como entrada el mismo número de variables que el número de componentes vectoriales de su salida, su determinante se denomina determinante jacobiano . Tanto la matriz como (si corresponde) el determinante se denominan a menudo simplemente jacobiano en la literatura. [4] Se denominan así en honor a Carl Gustav Jacob Jacobi .

Definición

Supóngase que f  : R nR m es una función tal que cada una de sus derivadas parciales de primer orden existe en R n . Esta función toma un punto xR n como entrada y produce el vector f ( x ) ∈ R m como salida. Entonces la matriz jacobiana de f , denotada J fR m × n , se define de manera que su ( i , j ) ésima entrada es , o explícitamente donde es la transpuesta (vector fila) del gradiente del -ésimo componente. f i x j {\textstyle {\frac {\partial f_{i}}{\partial x_{j}}}} J f = [ f x 1 f x n ] = [ T f 1 T f m ] = [ f 1 x 1 f 1 x n f m x 1 f m x n ] {\displaystyle \mathbf {J_{f}} ={\begin{bmatrix}{\dfrac {\partial \mathbf {f} }{\partial x_{1}}}&\cdots &{\dfrac {\partial \mathbf {f} }{\partial x_{n}}}\end{bmatrix}}={\begin{bmatrix}\nabla ^{\mathrm {T} }f_{1}\\\vdots \\\nabla ^{\mathrm {T} }f_{m}\end{bmatrix}}={\begin{bmatrix}{\dfrac {\partial f_{1}}{\partial x_{1}}}&\cdots &{\dfrac {\partial f_{1}}{\partial x_{n}}}\\\vdots &\ddots &\vdots \\{\dfrac {\partial f_{m}}{\partial x_{1}}}&\cdots &{\dfrac {\partial f_{m}}{\partial x_{n}}}\end{bmatrix}}} T f i {\displaystyle \nabla ^{\mathrm {T} }f_{i}} i {\displaystyle i}

La matriz jacobiana, cuyas entradas son funciones de x , se denota de varias maneras; otras notaciones comunes incluyen D f , , y . [5] [6] Algunos autores definen la jacobiana como la transpuesta de la forma dada anteriormente. f {\displaystyle \nabla \mathbf {f} } ( f 1 , , f m ) ( x 1 , , x n ) {\displaystyle {\frac {\partial (f_{1},\ldots ,f_{m})}{\partial (x_{1},\ldots ,x_{n})}}}

La matriz jacobiana representa la diferencial de f en cada punto donde f es diferenciable. En detalle, si h es un vector de desplazamiento representado por una matriz columna , el producto matricial J ( x ) ⋅ h es otro vector de desplazamiento, que es la mejor aproximación lineal del cambio de f en un entorno de x , si f ( x ) es diferenciable en x . [a] Esto significa que la función que asigna y a f ( x ) + J ( x ) ⋅ ( yx ) es la mejor aproximación lineal de f ( y ) para todos los puntos y cercanos a x . La función lineal hJ ( x ) ⋅ h se conoce como la derivada o la diferencial de f en x .

Cuando m = n , la matriz jacobiana es cuadrada, por lo que su determinante es una función bien definida de x , conocida como determinante jacobiano de f . Contiene información importante sobre el comportamiento local de f . En particular, la función f tiene una función inversa diferenciable en un entorno de un punto x si y solo si el determinante jacobiano es distinto de cero en x (véase la conjetura jacobiana para un problema relacionado de invertibilidad global ). El determinante jacobiano también aparece cuando se cambian las variables en integrales múltiples (véase la regla de sustitución para variables múltiples ).

Cuando m = 1 , es decir, cuando f  : R nR es una función escalar , la matriz jacobiana se reduce al vector fila ; este vector fila de todas las derivadas parciales de primer orden de f es la transpuesta del gradiente de f , es decir . Especializándonos aún más, cuando m = n = 1 , es decir, cuando f  : RR es una función escalar de una sola variable, la matriz jacobiana tiene una sola entrada; esta entrada es la derivada de la función f . T f {\displaystyle \nabla ^{\mathrm {T} }f} J f = T f {\displaystyle \mathbf {J} _{f}=\nabla ^{T}f}

Estos conceptos llevan el nombre del matemático Carl Gustav Jacob Jacobi (1804-1851).

Matriz jacobiana

La matriz jacobiana de una función vectorial de varias variables generaliza el gradiente de una función escalar de varias variables, que a su vez generaliza la derivada de una función escalar de una sola variable. En otras palabras, la matriz jacobiana de una función escalar de varias variables es (la transpuesta de) su gradiente y el gradiente de una función escalar de una sola variable es su derivada.

En cada punto en el que una función es diferenciable, su matriz jacobiana también puede considerarse como la descripción de la cantidad de "estiramiento", "rotación" o "transformación" que la función impone localmente cerca de ese punto. Por ejemplo, si ( x ′, y ′) = f ( x , y ) se utiliza para transformar suavemente una imagen, la matriz jacobiana J f ( x , y ) , describe cómo se transforma la imagen en la vecindad de ( x , y ) .

Si una función es diferenciable en un punto, su diferencial está dada en coordenadas por la matriz jacobiana. Sin embargo, una función no necesita ser diferenciable para que su matriz jacobiana esté definida, ya que solo se requiere que existan sus derivadas parciales de primer orden .

Si f es diferenciable en un punto p en R n , entonces su diferencial está representada por J f ( p ) . En este caso, la transformación lineal representada por J f ( p ) es la mejor aproximación lineal de f cerca del punto p , en el sentido de que

f ( x ) f ( p ) = J f ( p ) ( x p ) + o ( x p ) ( as  x p ) , {\displaystyle \mathbf {f} (\mathbf {x} )-\mathbf {f} (\mathbf {p} )=\mathbf {J} _{\mathbf {f} }(\mathbf {p} )(\mathbf {x} -\mathbf {p} )+o(\|\mathbf {x} -\mathbf {p} \|)\quad ({\text{as }}\mathbf {x} \to \mathbf {p} ),}

donde o (‖ xp ‖) es una cantidad que se acerca a cero mucho más rápido que la distancia entre x y p a medida que x se acerca a p . Esta aproximación se especializa en la aproximación de una función escalar de una sola variable por su polinomio de Taylor de grado uno, es decir

f ( x ) f ( p ) = f ( p ) ( x p ) + o ( x p ) ( as  x p ) . {\displaystyle f(x)-f(p)=f'(p)(x-p)+o(x-p)\quad ({\text{as }}x\to p).}

En este sentido, el jacobiano puede considerarse como una especie de " derivada de primer orden " de una función vectorial de varias variables. En particular, esto significa que el gradiente de una función escalar de varias variables también puede considerarse como su "derivada de primer orden".

Las funciones diferenciables componibles f  : R nR m y g  : R mR k satisfacen la regla de la cadena , es decir, para x en R n . J g f ( x ) = J g ( f ( x ) ) J f ( x ) {\displaystyle \mathbf {J} _{\mathbf {g} \circ \mathbf {f} }(\mathbf {x} )=\mathbf {J} _{\mathbf {g} }(\mathbf {f} (\mathbf {x} ))\mathbf {J} _{\mathbf {f} }(\mathbf {x} )}

El jacobiano del gradiente de una función escalar de varias variables tiene un nombre especial: la matriz hessiana , que en cierto sentido es la " segunda derivada " de la función en cuestión.

Determinante jacobiano

Una función no lineal envía un cuadrado pequeño (izquierda, en rojo) a un paralelogramo distorsionado (derecha, en rojo). El jacobiano en un punto proporciona la mejor aproximación lineal del paralelogramo distorsionado cerca de ese punto (derecha, en blanco translúcido), y el determinante jacobiano proporciona la relación entre el área del paralelogramo que se aproxima y la del cuadrado original. f : R 2 R 2 {\displaystyle f\colon \mathbb {R} ^{2}\to \mathbb {R} ^{2}}

Si m = n , entonces f es una función de R n sobre sí misma y la matriz jacobiana es una matriz cuadrada . Podemos entonces formar su determinante , conocido como determinante jacobiano . El determinante jacobiano a veces se denomina simplemente "el jacobiano".

El determinante jacobiano en un punto dado proporciona información importante sobre el comportamiento de f cerca de ese punto. Por ejemplo, la función continuamente diferenciable f es invertible cerca de un punto pR n si el determinante jacobiano en p no es cero. Este es el teorema de la función inversa . Además, si el determinante jacobiano en p es positivo , entonces f conserva la orientación cerca de p ; si es negativo , f invierte la orientación. El valor absoluto del determinante jacobiano en p nos da el factor por el cual la función f expande o contrae volúmenes cerca de p ; por eso aparece en la regla general de sustitución .

El determinante jacobiano se utiliza cuando se realiza un cambio de variables al evaluar una integral múltiple de una función sobre una región dentro de su dominio. Para tener en cuenta el cambio de coordenadas, la magnitud del determinante jacobiano surge como un factor multiplicativo dentro de la integral. Esto se debe a que el elemento dV de n dimensiones es, en general, un paralelepípedo en el nuevo sistema de coordenadas, y el volumen n de un paralelepípedo es el determinante de sus vectores de arista.

El jacobiano también se puede utilizar para determinar la estabilidad de los equilibrios de sistemas de ecuaciones diferenciales aproximando el comportamiento cerca de un punto de equilibrio.

Inverso

De acuerdo con el teorema de la función inversa , la matriz inversa de la matriz jacobiana de una función invertible f  : R nR n es la matriz jacobiana de la función inversa . Es decir, la matriz jacobiana de la función inversa en un punto p es y el determinante jacobiano es J f 1 ( p ) = J f 1 ( f 1 ( p ) ) , {\displaystyle \mathbf {J} _{\mathbf {f} ^{-1}}(\mathbf {p} )={\mathbf {J} _{\mathbf {f} }^{-1}(\mathbf {f} ^{-1}(\mathbf {p} ))},}

det ( J f 1 ( p ) ) = 1 det ( J f ( f 1 ( p ) ) ) {\displaystyle \det(\mathbf {J} _{\mathbf {f} ^{-1}}(\mathbf {p} ))={\frac {1}{\det(\mathbf {J} _{\mathbf {f} }(\mathbf {f} ^{-1}(\mathbf {p} )))}}} .

Si el jacobiano es continuo y no singular en el punto p en R n , entonces f es invertible cuando se restringe a algún entorno de p . En otras palabras, si el determinante jacobiano no es cero en un punto, entonces la función es localmente invertible cerca de este punto.

La conjetura jacobiana (no demostrada) está relacionada con la invertibilidad global en el caso de una función polinómica, es decir, una función definida por n polinomios en n variables. Afirma que, si el determinante jacobiano es una constante distinta de cero (o, equivalentemente, que no tiene ningún cero complejo), entonces la función es invertible y su inversa es una función polinómica.

Puntos críticos

Si f  : R nR m es una función diferenciable , un punto crítico de f es un punto donde el rango de la matriz jacobiana no es máximo. Esto significa que el rango en el punto crítico es menor que el rango en algún punto vecino. En otras palabras, sea k la dimensión máxima de las bolas abiertas contenidas en la imagen de f ; entonces un punto es crítico si todos los menores de rango k de f son cero.

En el caso donde m = n = k , un punto es crítico si el determinante jacobiano es cero.

Ejemplos

Ejemplo 1

Consideremos una función f  : R 2R 2 , con ( x , y ) ↦ ( f 1 ( x , y ), f 2 ( x , y )), dada por f ( [ x y ] ) = [ f 1 ( x , y ) f 2 ( x , y ) ] = [ x 2 y 5 x + sin y ] . {\displaystyle \mathbf {f} \left({\begin{bmatrix}x\\y\end{bmatrix}}\right)={\begin{bmatrix}f_{1}(x,y)\\f_{2}(x,y)\end{bmatrix}}={\begin{bmatrix}x^{2}y\\5x+\sin y\end{bmatrix}}.}

Entonces tenemos y y la matriz jacobiana de f es y el determinante jacobiano es f 1 ( x , y ) = x 2 y {\displaystyle f_{1}(x,y)=x^{2}y} f 2 ( x , y ) = 5 x + sin y {\displaystyle f_{2}(x,y)=5x+\sin y} J f ( x , y ) = [ f 1 x f 1 y f 2 x f 2 y ] = [ 2 x y x 2 5 cos y ] {\displaystyle \mathbf {J} _{\mathbf {f} }(x,y)={\begin{bmatrix}{\dfrac {\partial f_{1}}{\partial x}}&{\dfrac {\partial f_{1}}{\partial y}}\\[1em]{\dfrac {\partial f_{2}}{\partial x}}&{\dfrac {\partial f_{2}}{\partial y}}\end{bmatrix}}={\begin{bmatrix}2xy&x^{2}\\5&\cos y\end{bmatrix}}} det ( J f ( x , y ) ) = 2 x y cos y 5 x 2 . {\displaystyle \det(\mathbf {J} _{\mathbf {f} }(x,y))=2xy\cos y-5x^{2}.}

Ejemplo 2: transformación polar-cartesiana

La transformación de coordenadas polares ( r , φ ) a coordenadas cartesianas ( x , y ), viene dada por la función F : R + × [0, 2 π ) → R 2 con componentes: x = r cos φ ; y = r sin φ . {\displaystyle {\begin{aligned}x&=r\cos \varphi ;\\y&=r\sin \varphi .\end{aligned}}} J F ( r , φ ) = [ x r x φ y r y φ ] = [ cos φ r sin φ sin φ r cos φ ] {\displaystyle \mathbf {J} _{\mathbf {F} }(r,\varphi )={\begin{bmatrix}{\frac {\partial x}{\partial r}}&{\frac {\partial x}{\partial \varphi }}\\[0.5ex]{\frac {\partial y}{\partial r}}&{\frac {\partial y}{\partial \varphi }}\end{bmatrix}}={\begin{bmatrix}\cos \varphi &-r\sin \varphi \\\sin \varphi &r\cos \varphi \end{bmatrix}}}

El determinante jacobiano es igual a r . Esto se puede utilizar para transformar integrales entre los dos sistemas de coordenadas: F ( A ) f ( x , y ) d x d y = A f ( r cos φ , r sin φ ) r d r d φ . {\displaystyle \iint _{\mathbf {F} (A)}f(x,y)\,dx\,dy=\iint _{A}f(r\cos \varphi ,r\sin \varphi )\,r\,dr\,d\varphi .}

Ejemplo 3: transformación esférica-cartesiana

La transformación de coordenadas esféricas ( ρ , φ , θ ) [7] a coordenadas cartesianas ( x , y , z ), viene dada por la función F : R + × [0, π ) × [0, 2 π ) → R 3 con componentes: x = ρ sin φ cos θ ; y = ρ sin φ sin θ ; z = ρ cos φ . {\displaystyle {\begin{aligned}x&=\rho \sin \varphi \cos \theta ;\\y&=\rho \sin \varphi \sin \theta ;\\z&=\rho \cos \varphi .\end{aligned}}}

La matriz jacobiana para este cambio de coordenadas es El determinante es ρ 2 sen φ . Dado que dV = dx dy dz es el volumen de un elemento de volumen diferencial rectangular (porque el volumen de un prisma rectangular es el producto de sus lados), podemos interpretar dV = ρ 2 sen φ como el volumen del elemento de volumen diferencial esférico . A diferencia del volumen del elemento de volumen diferencial rectangular, el volumen de este elemento de volumen diferencial no es una constante y varía con las coordenadas ( ρ y φ ). Puede utilizarse para transformar integrales entre los dos sistemas de coordenadas: J F ( ρ , φ , θ ) = [ x ρ x φ x θ y ρ y φ y θ z ρ z φ z θ ] = [ sin φ cos θ ρ cos φ cos θ ρ sin φ sin θ sin φ sin θ ρ cos φ sin θ ρ sin φ cos θ cos φ ρ sin φ 0 ] . {\displaystyle \mathbf {J} _{\mathbf {F} }(\rho ,\varphi ,\theta )={\begin{bmatrix}{\dfrac {\partial x}{\partial \rho }}&{\dfrac {\partial x}{\partial \varphi }}&{\dfrac {\partial x}{\partial \theta }}\\[1em]{\dfrac {\partial y}{\partial \rho }}&{\dfrac {\partial y}{\partial \varphi }}&{\dfrac {\partial y}{\partial \theta }}\\[1em]{\dfrac {\partial z}{\partial \rho }}&{\dfrac {\partial z}{\partial \varphi }}&{\dfrac {\partial z}{\partial \theta }}\end{bmatrix}}={\begin{bmatrix}\sin \varphi \cos \theta &\rho \cos \varphi \cos \theta &-\rho \sin \varphi \sin \theta \\\sin \varphi \sin \theta &\rho \cos \varphi \sin \theta &\rho \sin \varphi \cos \theta \\\cos \varphi &-\rho \sin \varphi &0\end{bmatrix}}.} F ( U ) f ( x , y , z ) d x d y d z = U f ( ρ sin φ cos θ , ρ sin φ sin θ , ρ cos φ ) ρ 2 sin φ d ρ d φ d θ . {\displaystyle \iiint _{\mathbf {F} (U)}f(x,y,z)\,dx\,dy\,dz=\iiint _{U}f(\rho \sin \varphi \cos \theta ,\rho \sin \varphi \sin \theta ,\rho \cos \varphi )\,\rho ^{2}\sin \varphi \,d\rho \,d\varphi \,d\theta .}

Ejemplo 4

La matriz jacobiana de la función F  : R 3R 4 con componentes es y 1 = x 1 y 2 = 5 x 3 y 3 = 4 x 2 2 2 x 3 y 4 = x 3 sin x 1 {\displaystyle {\begin{aligned}y_{1}&=x_{1}\\y_{2}&=5x_{3}\\y_{3}&=4x_{2}^{2}-2x_{3}\\y_{4}&=x_{3}\sin x_{1}\end{aligned}}} J F ( x 1 , x 2 , x 3 ) = [ y 1 x 1 y 1 x 2 y 1 x 3 y 2 x 1 y 2 x 2 y 2 x 3 y 3 x 1 y 3 x 2 y 3 x 3 y 4 x 1 y 4 x 2 y 4 x 3 ] = [ 1 0 0 0 0 5 0 8 x 2 2 x 3 cos x 1 0 sin x 1 ] . {\displaystyle \mathbf {J} _{\mathbf {F} }(x_{1},x_{2},x_{3})={\begin{bmatrix}{\dfrac {\partial y_{1}}{\partial x_{1}}}&{\dfrac {\partial y_{1}}{\partial x_{2}}}&{\dfrac {\partial y_{1}}{\partial x_{3}}}\\[1em]{\dfrac {\partial y_{2}}{\partial x_{1}}}&{\dfrac {\partial y_{2}}{\partial x_{2}}}&{\dfrac {\partial y_{2}}{\partial x_{3}}}\\[1em]{\dfrac {\partial y_{3}}{\partial x_{1}}}&{\dfrac {\partial y_{3}}{\partial x_{2}}}&{\dfrac {\partial y_{3}}{\partial x_{3}}}\\[1em]{\dfrac {\partial y_{4}}{\partial x_{1}}}&{\dfrac {\partial y_{4}}{\partial x_{2}}}&{\dfrac {\partial y_{4}}{\partial x_{3}}}\end{bmatrix}}={\begin{bmatrix}1&0&0\\0&0&5\\0&8x_{2}&-2\\x_{3}\cos x_{1}&0&\sin x_{1}\end{bmatrix}}.}

Este ejemplo muestra que la matriz jacobiana no necesita ser una matriz cuadrada.

Ejemplo 5

El determinante jacobiano de la función F  : R 3R 3 con componentes es y 1 = 5 x 2 y 2 = 4 x 1 2 2 sin ( x 2 x 3 ) y 3 = x 2 x 3 {\displaystyle {\begin{aligned}y_{1}&=5x_{2}\\y_{2}&=4x_{1}^{2}-2\sin(x_{2}x_{3})\\y_{3}&=x_{2}x_{3}\end{aligned}}} | 0 5 0 8 x 1 2 x 3 cos ( x 2 x 3 ) 2 x 2 cos ( x 2 x 3 ) 0 x 3 x 2 | = 8 x 1 | 5 0 x 3 x 2 | = 40 x 1 x 2 . {\displaystyle {\begin{vmatrix}0&5&0\\8x_{1}&-2x_{3}\cos(x_{2}x_{3})&-2x_{2}\cos(x_{2}x_{3})\\0&x_{3}&x_{2}\end{vmatrix}}=-8x_{1}{\begin{vmatrix}5&0\\x_{3}&x_{2}\end{vmatrix}}=-40x_{1}x_{2}.}

De esto vemos que F invierte la orientación cerca de aquellos puntos donde x 1 y x 2 tienen el mismo signo; la función es localmente invertible en todas partes excepto cerca de los puntos donde x 1 = 0 o x 2 = 0. Intuitivamente, si uno comienza con un objeto diminuto alrededor del punto (1, 2, 3) y aplica F a ese objeto, obtendrá un objeto resultante con aproximadamente 40 × 1 × 2 = 80 veces el volumen del original, con la orientación invertida.

Otros usos

Sistemas dinámicos

Consideremos un sistema dinámico de la forma , donde es la derivada (componente a componente) de con respecto al parámetro de evolución (tiempo), y es diferenciable. Si , entonces es un punto estacionario (también llamado estado estable ). Por el teorema de Hartman-Grobman , el comportamiento del sistema cerca de un punto estacionario está relacionado con los valores propios de , el jacobiano de en el punto estacionario. [8] Específicamente, si todos los valores propios tienen partes reales que son negativas, entonces el sistema es estable cerca del punto estacionario. Si cualquier valor propio tiene una parte real que es positiva, entonces el punto es inestable. Si la parte real más grande de los valores propios es cero, la matriz jacobiana no permite una evaluación de la estabilidad. [9] x ˙ = F ( x ) {\displaystyle {\dot {\mathbf {x} }}=F(\mathbf {x} )} x ˙ {\displaystyle {\dot {\mathbf {x} }}} x {\displaystyle \mathbf {x} } t {\displaystyle t} F : R n R n {\displaystyle F\colon \mathbb {R} ^{n}\to \mathbb {R} ^{n}} F ( x 0 ) = 0 {\displaystyle F(\mathbf {x} _{0})=0} x 0 {\displaystyle \mathbf {x} _{0}} J F ( x 0 ) {\displaystyle \mathbf {J} _{F}\left(\mathbf {x} _{0}\right)} F {\displaystyle F}

El método de Newton

Un sistema cuadrado de ecuaciones no lineales acopladas se puede resolver iterativamente mediante el método de Newton . Este método utiliza la matriz jacobiana del sistema de ecuaciones.

Regresión y ajuste de mínimos cuadrados

El jacobiano sirve como matriz de diseño linealizada en regresión estadística y ajuste de curvas ; véase mínimos cuadrados no lineales . El jacobiano también se utiliza en matrices aleatorias, momentos, sensibilidad local y diagnósticos estadísticos. [10] [11]

Véase también

Notas

  1. ^ La diferenciabilidad en x implica, pero no está implicada por, la existencia de todas las derivadas parciales de primer orden en x y, por lo tanto, es una condición más fuerte.

Referencias

  1. ^ "Jacobiano - Definición de jacobiano en inglés según Oxford Dictionaries". Oxford Dictionaries - Inglés . Archivado desde el original el 1 de diciembre de 2017 . Consultado el 2 de mayo de 2018 .
  2. ^ "la definición de jacobiano". Dictionary.com . Archivado desde el original el 1 de diciembre de 2017. Consultado el 2 de mayo de 2018 .
  3. ^ Equipo de Forvo. «Pronunciación jacobiana: cómo pronunciar jacobiano en inglés». forvo.com . Consultado el 2 de mayo de 2018 .
  4. ^ W., Weisstein, Eric. "Jacobian". mathworld.wolfram.com . Archivado desde el original el 3 de noviembre de 2017 . Consultado el 2 de mayo de 2018 .{{cite web}}: CS1 maint: multiple names: authors list (link)
  5. ^ Holder, Allen; Eichholz, Joseph (2019). Introducción a la ciencia computacional . Serie internacional en investigación de operaciones y ciencia de la gestión. Cham, Suiza: Springer. p. 53. ISBN 978-3-030-15679-4.
  6. ^ Lovett, Stephen (16 de diciembre de 2019). Geometría diferencial de variedades. CRC Press. pág. 16. ISBN 978-0-429-60782-0.
  7. ^ Joel Hass, Christopher Heil y Maurice Weir. Cálculo de Thomas, primeros trascendentales, 14.ª edición . Pearson, 2018, pág. 959.
  8. ^ Arrowsmith, DK; Place, CM (1992). "El teorema de linealización". Sistemas dinámicos: ecuaciones diferenciales, mapas y comportamiento caótico . Londres: Chapman & Hall. págs. 77–81. ISBN 0-412-39080-9.
  9. ^ Hirsch, Morris; Smale, Stephen (1974). Ecuaciones diferenciales, sistemas dinámicos y álgebra lineal . ISBN 0-12-349550-4.
  10. ^ Liu, Shuangzhe; Leiva, Victor; Zhuang, Dan; Ma, Tiefeng; Figueroa-Zúñiga, Jorge I. (marzo de 2022). "Cálculo diferencial matricial con aplicaciones en el modelo lineal multivariado y sus diagnósticos". Journal of Multivariate Analysis . 188 : 104849. doi : 10.1016/j.jmva.2021.104849 .
  11. ^ Liu, Shuangzhe; Trenkler, Götz; Kollo, Tõnu; von Rosen, Dietrich; Baksalary, Oskar María (2023). "El profesor Heinz Neudecker y el cálculo diferencial matricial". Artículos estadísticos . doi :10.1007/s00362-023-01499-w. S2CID  263661094.

Lectura adicional

Retrieved from "https://en.wikipedia.org/w/index.php?title=Jacobian_matrix_and_determinant&oldid=1249713162"