Subida y bajada de índices

Operaciones matemáticas que relacionan diferentes tipos de tensor

En matemáticas y física matemática , la elevación y la disminución de índices son operaciones sobre tensores que cambian su tipo . La elevación y la disminución de índices son una forma de manipulación de índices en expresiones tensoriales.

Vectores, covectores y la métrica

Formulación matemática

Matemáticamente, los vectores son elementos de un espacio vectorial sobre un cuerpo , y para su uso en física se definen habitualmente con o . Concretamente, si la dimensión de es finita, entonces, tras hacer una elección de la base , podemos ver dichos espacios vectoriales como o . V {\estilo de visualización V} K {\estilo de visualización K} V {\estilo de visualización V} K = R {\displaystyle K=\mathbb {R}} do {\displaystyle \mathbb {C}} norte = oscuro ( V ) {\displaystyle n={\text{dim}}(V)} V {\estilo de visualización V} R norte {\displaystyle \mathbb {R} ^{n}} do norte {\displaystyle \mathbb {C} ^{n}}

El espacio dual es el espacio de las funciones lineales que se aplican a . Concretamente, en notación matricial, se pueden considerar como vectores fila, que dan un número cuando se aplican a vectores columna. Lo denotamos por , por lo que es una función lineal . V K {\displaystyle V\rightarrow K} V := Hogar ( V , K ) {\displaystyle V^{*}:={\text{Hom}}(V,K)} alfa V {\displaystyle \alpha \en V^{*}} alfa : V K {\displaystyle \alpha :V\rightarrow K}

Luego, bajo una elección de base , podemos ver los vectores como un vector con componentes (por convención, se considera que los vectores tienen índices hacia arriba). Esto selecciona una elección de base para , definida por el conjunto de relaciones . { mi i } {\displaystyle \{e_{i}\}} en V {\displaystyle v\en V} K norte {\displaystyle K^{n}} v i {\displaystyle v^{i}} { e i } {\displaystyle \{e^{i}\}} V {\displaystyle V^{*}} e i ( e j ) = δ j i {\displaystyle e^{i}(e_{j})=\delta _{j}^{i}}

Para las aplicaciones, la elevación y la reducción se realizan mediante una estructura conocida como tensor (pseudo)métrico (el "pseudo" se refiere al hecho de que permitimos que la métrica sea indefinida). Formalmente, se trata de una forma bilineal simétrica y no degenerada.

g : V × V K  a bilinear form {\displaystyle g:V\times V\rightarrow K{\text{ a bilinear form}}}
g ( u , v ) = g ( v , u )  for all  u , v V  (Symmetric) {\displaystyle g(u,v)=g(v,u){\text{ for all }}u,v\in V{\text{ (Symmetric)}}}
v V  s.t.  v 0 , u V  such that  g ( v , u ) 0  (Non-degenerate) {\displaystyle \forall v\in V{\text{ s.t. }}v\neq {\vec {0}},\exists u\in V{\text{ such that }}g(v,u)\neq 0{\text{ (Non-degenerate)}}}

En esta base, tiene componentes y puede verse como una matriz simétrica en con estos componentes. La métrica inversa existe debido a la no degeneración y se denota y como matriz es la inversa de . g ( e i , e j ) = g i j {\displaystyle g(e_{i},e_{j})=g_{ij}} Mat n × n ( K ) {\displaystyle {\text{Mat}}_{n\times n}(K)} g i j {\displaystyle g^{ij}} g i j {\displaystyle g_{ij}}

Vectores y covectores de elevación y descenso

La subida y bajada se realiza entonces en coordenadas. Dado un vector con componentes , podemos contraer con la métrica para obtener un covector : v i {\displaystyle v^{i}}

g i j v j = v i {\displaystyle g_{ij}v^{j}=v_{i}}

Y esto es lo que queremos decir con bajar el índice. Por el contrario, contraer un covector con la métrica inversa da como resultado un vector:

g i j α j = α i . {\displaystyle g^{ij}\alpha _{j}=\alpha ^{i}.}

Este proceso se llama elevar el índice.

Aumentar y luego disminuir el mismo índice (o viceversa) son operaciones inversas, lo que se refleja en que los tensores métricos y métricos inversos son inversos entre sí (como lo sugiere la terminología):

g i j g j k = g k j g j i = δ i k = δ k i {\displaystyle g^{ij}g_{jk}=g_{kj}g^{ji}={\delta ^{i}}_{k}={\delta _{k}}^{i}}

¿Dónde está la delta de Kronecker o matriz identidad ? δ j i {\displaystyle \delta _{j}^{i}}

Los espacios vectoriales reales de dimensión finita con (pseudo)métricas se clasifican hasta la firma, una propiedad sin coordenadas que está bien definida por la ley de inercia de Sylvester . Las métricas posibles en el espacio real se indexan por la firma . Esta es una métrica asociada al espacio real dimensional. La métrica tiene firma si existe una base (denominada base ortonormal ) tal que en esta base, la métrica toma la forma con unos positivos y unos negativos. ( p , q ) {\displaystyle (p,q)} n = p + q {\displaystyle n=p+q} ( p , q ) {\displaystyle (p,q)} ( g i j ) = diag ( + 1 , , + 1 , 1 , , 1 ) {\displaystyle (g_{ij})={\text{diag}}(+1,\cdots ,+1,-1,\cdots ,-1)} p {\displaystyle p} q {\displaystyle q}

El espacio concreto con elementos que son -vectores y esta realización concreta de la métrica se denota , donde la 2-tupla pretende dejar claro que el espacio vectorial subyacente de es : equipar este espacio vectorial con la métrica es lo que convierte el espacio en . n {\displaystyle n} R p , q = ( R n , g i j ) {\displaystyle \mathbb {R} ^{p,q}=(\mathbb {R} ^{n},g_{ij})} ( R n , g i j ) {\displaystyle (\mathbb {R} ^{n},g_{ij})} R p , q {\displaystyle \mathbb {R} ^{p,q}} R n {\displaystyle \mathbb {R} ^{n}} g i j {\displaystyle g_{ij}} R p , q {\displaystyle \mathbb {R} ^{p,q}}

Ejemplos:

  • R 3 {\displaystyle \mathbb {R} ^{3}} es un modelo para el espacio tridimensional. La métrica es equivalente al producto escalar estándar .
  • R n , 0 = R n {\displaystyle \mathbb {R} ^{n,0}=\mathbb {R} ^{n}} , equivalente al espacio real dimensional como un espacio de producto interno con . En el espacio euclidiano, no es necesario subir ni bajar debido a que los vectores y los componentes covectoriales son los mismos. n {\displaystyle n} g i j = δ i j {\displaystyle g_{ij}=\delta _{ij}}
  • R 1 , 3 {\displaystyle \mathbb {R} ^{1,3}} es el espacio de Minkowski (o más bien, el espacio de Minkowski en una elección de base ortonormal), un modelo para el espacio-tiempo con curvatura débil. Es una convención común utilizar índices griegos al escribir expresiones que involucran tensores en el espacio de Minkowski, mientras que los índices latinos se reservan para el espacio euclidiano.

Las expresiones bien formuladas están limitadas por las reglas de la suma de Einstein : cualquier índice puede aparecer como máximo dos veces y, además, un índice elevado debe contraerse con un índice reducido. Con estas reglas podemos ver inmediatamente que una expresión como

g i j v i u j {\displaystyle g_{ij}v^{i}u^{j}}

está bien formulado mientras

g i j v i u j {\displaystyle g_{ij}v_{i}u_{j}}

no es.

Ejemplo en el espacio-tiempo de Minkowski

La posición 4 covariante viene dada por

X μ = ( c t , x , y , z ) {\displaystyle X_{\mu }=(-ct,x,y,z)}

con componentes:

X 0 = c t , X 1 = x , X 2 = y , X 3 = z {\displaystyle X_{0}=-ct,\quad X_{1}=x,\quad X_{2}=y,\quad X_{3}=z}

(donde x , y , z son las coordenadas cartesianas habituales ) y el tensor métrico de Minkowski con signatura métrica (− + + +) se define como

η μ ν = η μ ν = ( 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 ) {\displaystyle \eta _{\mu \nu }=\eta ^{\mu \nu }={\begin{pmatrix}-1&0&0&0\\0&1&0&0\\0&0&1&0\\0&0&0&1\end{pmatrix}}}

en componentes:

η 00 = 1 , η i 0 = η 0 i = 0 , η i j = δ i j ( i , j 0 ) . {\displaystyle \eta _{00}=-1,\quad \eta _{i0}=\eta _{0i}=0,\quad \eta _{ij}=\delta _{ij}\,(i,j\neq 0).}

Para aumentar el índice, multiplicar por el tensor y contraer:

X λ = η λ μ X μ = η λ 0 X 0 + η λ i X i {\displaystyle X^{\lambda }=\eta ^{\lambda \mu }X_{\mu }=\eta ^{\lambda 0}X_{0}+\eta ^{\lambda i}X_{i}}

entonces para λ = 0 :

X 0 = η 00 X 0 + η 0 i X i = X 0 {\displaystyle X^{0}=\eta ^{00}X_{0}+\eta ^{0i}X_{i}=-X_{0}}

y para λ = j = 1, 2, 3 :

X j = η j 0 X 0 + η j i X i = δ j i X i = X j . {\displaystyle X^{j}=\eta ^{j0}X_{0}+\eta ^{ji}X_{i}=\delta ^{ji}X_{i}=X_{j}\,.}

Por lo tanto, la contravariante de 4 posiciones elevada al índice es:

X μ = ( c t , x , y , z ) . {\displaystyle X^{\mu }=(ct,x,y,z)\,.}

Esta operación es equivalente a la multiplicación de matrices.

( 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 ) ( c t x y z ) = ( c t x y z ) . {\displaystyle {\begin{pmatrix}-1&0&0&0\\0&1&0&0\\0&0&1&0\\0&0&0&1\end{pmatrix}}{\begin{pmatrix}-ct\\x\\y\\z\end{pmatrix}}={\begin{pmatrix}ct\\x\\y\\z\end{pmatrix}}.}

Dados dos vectores, y , podemos escribir su producto (pseudo)interno de dos maneras: X μ {\displaystyle X^{\mu }} Y μ {\displaystyle Y^{\mu }}

η μ ν X μ Y ν . {\displaystyle \eta _{\mu \nu }X^{\mu }Y^{\nu }.}

Bajando los índices, podemos escribir esta expresión como

X μ Y μ . {\displaystyle X_{\mu }Y^{\mu }.}

¿Qué es esto en notación matricial? La primera expresión se puede escribir como

( X 0 X 1 X 2 X 3 ) ( 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 ) ( Y 0 Y 1 Y 2 Y 3 ) {\displaystyle {\begin{pmatrix}X^{0}&X^{1}&X^{2}&X^{3}\end{pmatrix}}{\begin{pmatrix}-1&0&0&0\\0&1&0&0\\0&0&1&0\\0&0&0&1\end{pmatrix}}{\begin{pmatrix}Y^{0}\\Y^{1}\\Y^{2}\\Y^{3}\end{pmatrix}}}

mientras que el segundo es, después de bajar los índices de , X μ {\displaystyle X^{\mu }}

( X 0 X 1 X 2 X 3 ) ( Y 0 Y 1 Y 2 Y 3 ) . {\displaystyle {\begin{pmatrix}-X^{0}&X^{1}&X^{2}&X^{3}\end{pmatrix}}{\begin{pmatrix}Y^{0}\\Y^{1}\\Y^{2}\\Y^{3}\end{pmatrix}}.}

Formalismo libre de coordenadas

Es instructivo considerar lo que significa elevar y disminuir en el contexto del álgebra lineal abstracta.

Primero fijamos las definiciones: es un espacio vectorial de dimensión finita sobre un cuerpo . Normalmente o . V {\displaystyle V} K {\displaystyle K} K = R {\displaystyle K=\mathbb {R} } C {\displaystyle \mathbb {C} }

ϕ {\displaystyle \phi } es una forma bilineal no degenerada, es decir, es una función que es lineal en ambos argumentos, lo que la convierte en una forma bilineal. ϕ : V × V K {\displaystyle \phi :V\times V\rightarrow K}

Por no ser degenerado queremos decir que para cada tal que , existe un tal que ϕ {\displaystyle \phi } v V {\displaystyle v\in V} v 0 {\displaystyle v\neq 0} u V {\displaystyle u\in V}

ϕ ( v , u ) 0. {\displaystyle \phi (v,u)\neq 0.}

En aplicaciones concretas, se considera a menudo una estructura en el espacio vectorial, por ejemplo, un producto interno o, de manera más general, un tensor métrico al que se le permite tener una signatura indefinida, o una forma simpléctica . En conjunto, estos cubren los casos en los que es simétrico o antisimétrico, pero en general no es necesario que sea ninguno de estos casos. ϕ {\displaystyle \phi } ω {\displaystyle \omega } ϕ {\displaystyle \phi } ϕ {\displaystyle \phi }

Hay un mapa de evaluación parcial asociado a , ϕ {\displaystyle \phi }

ϕ ( , ) : V V ; v ϕ ( v , ) {\displaystyle \phi (\cdot ,-):V\rightarrow V^{*};v\mapsto \phi (v,\cdot )}

donde denota un argumento que se debe evaluar, y denota un argumento cuya evaluación se pospone. Entonces es un elemento de , que envía . {\displaystyle \cdot } {\displaystyle -} ϕ ( v , ) {\displaystyle \phi (v,\cdot )} V {\displaystyle V^{*}} u ϕ ( v , u ) {\displaystyle u\mapsto \phi (v,u)}

Optamos por definir este mapa de evaluación parcial como evaluado en el primer argumento. Podríamos haberlo definido también en el segundo argumento, y la no degeneración también es independiente del argumento elegido. Además, cuando tiene una (anti)simetría bien definida, la evaluación en cualquiera de los argumentos es equivalente (hasta un signo menos para la antisimetría). ϕ {\displaystyle \phi }

La no degeneración muestra que la función de evaluación parcial es inyectiva o, equivalentemente, que el núcleo de la función es trivial. En dimensión finita, el espacio dual tiene la misma dimensión que , por lo que la no degeneración es suficiente para concluir que la función es un isomorfismo lineal. Si es una estructura en el espacio vectorial, a esto a veces lo llamamos isomorfismo canónico . V {\displaystyle V^{*}} V {\displaystyle V} ϕ {\displaystyle \phi } V V {\displaystyle V\rightarrow V^{*}}

Por lo tanto, tiene una inversa, y esto es suficiente para definir una forma bilineal asociada en el dual: ϕ 1 : V V , {\displaystyle \phi ^{-1}:V^{*}\rightarrow V,}

ϕ 1 : V × V K , ϕ 1 ( α , β ) = ϕ ( ϕ 1 ( α ) , ϕ 1 ( β ) ) . {\displaystyle \phi ^{-1}:V^{*}\times V^{*}\rightarrow K,\phi ^{-1}(\alpha ,\beta )=\phi (\phi ^{-1}(\alpha ),\phi ^{-1}(\beta )).}

donde el uso repetido de se desambigua mediante el argumento tomado. Es decir, es la función inversa, mientras que es la forma bilineal. ϕ 1 {\displaystyle \phi ^{-1}} ϕ 1 ( α ) {\displaystyle \phi ^{-1}(\alpha )} ϕ 1 ( α , β ) {\displaystyle \phi ^{-1}(\alpha ,\beta )}

Al comprobar estas expresiones en coordenadas se hace evidente que esto es lo que significa de forma abstracta aumentar y disminuir los índices.

Tensores

No desarrollaremos el formalismo abstracto para tensores de inmediato. Formalmente, un tensor es un objeto descrito a través de sus componentes, y tiene componentes arriba y componentes abajo. Un tensor genérico se escribe ( r , s ) {\displaystyle (r,s)} r {\displaystyle r} s {\displaystyle s} ( r , s ) {\displaystyle (r,s)}

T μ 1 μ r ν 1 ν s . {\displaystyle T^{\mu _{1}\cdots \mu _{r}}{}_{\nu _{1}\cdots \nu _{s}}.}

Podemos utilizar el tensor métrico para aumentar y disminuir los índices de los tensores, tal como aumentamos y disminuimos los índices de los vectores y aumentamos los índices de los covectores.

Ejemplos

  • Un tensor (0,0) es un número en el campo . F {\displaystyle \mathbb {F} }
  • Un tensor (1,0) es un vector.
  • Un tensor (0,1) es un covector.
  • Un tensor (0,2) es una forma bilineal. Un ejemplo es el tensor métrico. g μ ν . {\displaystyle g_{\mu \nu }.}
  • Un tensor (1,1) es una función lineal. Un ejemplo es el delta, que es la función identidad, o una transformación de Lorentz. δ μ ν {\displaystyle \delta ^{\mu }{}_{\nu }} Λ μ ν . {\displaystyle \Lambda ^{\mu }{}_{\nu }.}

Ejemplo de subida y bajada

Para un tensor (0,2), [1] al contraerse dos veces con el tensor métrico inverso y contraerse en diferentes índices, aumenta cada índice:

A μ ν = g μ ρ g ν σ A ρ σ . {\displaystyle A^{\mu \nu }=g^{\mu \rho }g^{\nu \sigma }A_{\rho \sigma }.}

De manera similar, contraer dos veces con el tensor métrico y contraer en diferentes índices reduce cada índice:

A μ ν = g μ ρ g ν σ A ρ σ {\displaystyle A_{\mu \nu }=g_{\mu \rho }g_{\nu \sigma }A^{\rho \sigma }}

Apliquemos esto a la teoría del electromagnetismo.

El tensor electromagnético contravariante en la firma (+ − − −) está dado por [2]

F α β = ( 0 E x c E y c E z c E x c 0 B z B y E y c B z 0 B x E z c B y B x 0 ) . {\displaystyle F^{\alpha \beta }={\begin{pmatrix}0&-{\frac {E_{x}}{c}}&-{\frac {E_{y}}{c}}&-{\frac {E_{z}}{c}}\\{\frac {E_{x}}{c}}&0&-B_{z}&B_{y}\\{\frac {E_{y}}{c}}&B_{z}&0&-B_{x}\\{\frac {E_{z}}{c}}&-B_{y}&B_{x}&0\end{pmatrix}}.}

En componentes,

F 0 i = F i 0 = E i c , F i j = ε i j k B k {\displaystyle F^{0i}=-F^{i0}=-{\frac {E^{i}}{c}},\quad F^{ij}=-\varepsilon ^{ijk}B_{k}}

Para obtener el tensor covariante F αβ , se contrae con el tensor métrico inverso:

F α β = η α γ η β δ F γ δ = η α 0 η β 0 F 00 + η α i η β 0 F i 0 + η α 0 η β i F 0 i + η α i η β j F i j {\displaystyle {\begin{aligned}F_{\alpha \beta }&=\eta _{\alpha \gamma }\eta _{\beta \delta }F^{\gamma \delta }\\&=\eta _{\alpha 0}\eta _{\beta 0}F^{00}+\eta _{\alpha i}\eta _{\beta 0}F^{i0}+\eta _{\alpha 0}\eta _{\beta i}F^{0i}+\eta _{\alpha i}\eta _{\beta j}F^{ij}\end{aligned}}}

y como F 00 = 0 y F 0 i = − F i 0 , esto se reduce a

F α β = ( η α i η β 0 η α 0 η β i ) F i 0 + η α i η β j F i j {\displaystyle F_{\alpha \beta }=\left(\eta _{\alpha i}\eta _{\beta 0}-\eta _{\alpha 0}\eta _{\beta i}\right)F^{i0}+\eta _{\alpha i}\eta _{\beta j}F^{ij}}

Ahora, para α = 0 , β = k = 1, 2, 3 :

F 0 k = ( η 0 i η k 0 η 00 η k i ) F i 0 + η 0 i η k j F i j = ( 0 ( δ k i ) ) F i 0 + 0 = F k 0 = F 0 k {\displaystyle {\begin{aligned}F_{0k}&=\left(\eta _{0i}\eta _{k0}-\eta _{00}\eta _{ki}\right)F^{i0}+\eta _{0i}\eta _{kj}F^{ij}\\&={\bigl (}0-(-\delta _{ki}){\bigr )}F^{i0}+0\\&=F^{k0}=-F^{0k}\\\end{aligned}}}

y por antisimetría, para α = k = 1, 2, 3 , β = 0 :

F k 0 = F k 0 {\displaystyle F_{k0}=-F^{k0}}

entonces finalmente para α = k = 1, 2, 3 , β = l = 1, 2, 3 ;

F k l = ( η k i η l 0 η k 0 η l i ) F i 0 + η k i η l j F i j = 0 + δ k i δ l j F i j = F k l {\displaystyle {\begin{aligned}F_{kl}&=\left(\eta _{ki}\eta _{l0}-\eta _{k0}\eta _{li}\right)F^{i0}+\eta _{ki}\eta _{lj}F^{ij}\\&=0+\delta _{ki}\delta _{lj}F^{ij}\\&=F^{kl}\\\end{aligned}}}

El tensor de índice inferior (covariante) es entonces:

F α β = ( 0 E x c E y c E z c E x c 0 B z B y E y c B z 0 B x E z c B y B x 0 ) {\displaystyle F_{\alpha \beta }={\begin{pmatrix}0&{\frac {E_{x}}{c}}&{\frac {E_{y}}{c}}&{\frac {E_{z}}{c}}\\-{\frac {E_{x}}{c}}&0&-B_{z}&B_{y}\\-{\frac {E_{y}}{c}}&B_{z}&0&-B_{x}\\-{\frac {E_{z}}{c}}&-B_{y}&B_{x}&0\end{pmatrix}}}

Esta operación es equivalente a la multiplicación de matrices.

( 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 ) ( 0 E x c E y c E z c E x c 0 B z B y E y c B z 0 B x E z c B y B x 0 ) ( 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 ) = ( 0 E x c E y c E z c E x c 0 B z B y E y c B z 0 B x E z c B y B x 0 ) . {\displaystyle {\begin{pmatrix}-1&0&0&0\\0&1&0&0\\0&0&1&0\\0&0&0&1\end{pmatrix}}{\begin{pmatrix}0&-{\frac {E_{x}}{c}}&-{\frac {E_{y}}{c}}&-{\frac {E_{z}}{c}}\\{\frac {E_{x}}{c}}&0&-B_{z}&B_{y}\\{\frac {E_{y}}{c}}&B_{z}&0&-B_{x}\\{\frac {E_{z}}{c}}&-B_{y}&B_{x}&0\end{pmatrix}}{\begin{pmatrix}-1&0&0&0\\0&1&0&0\\0&0&1&0\\0&0&0&1\end{pmatrix}}={\begin{pmatrix}0&{\frac {E_{x}}{c}}&{\frac {E_{y}}{c}}&{\frac {E_{z}}{c}}\\-{\frac {E_{x}}{c}}&0&-B_{z}&B_{y}\\-{\frac {E_{y}}{c}}&B_{z}&0&-B_{x}\\-{\frac {E_{z}}{c}}&-B_{y}&B_{x}&0\end{pmatrix}}.}

Rango general

Para un tensor de orden n , los índices se elevan mediante (compatible con lo anterior): [1]

g j 1 i 1 g j 2 i 2 g j n i n A i 1 i 2 i n = A j 1 j 2 j n {\displaystyle g^{j_{1}i_{1}}g^{j_{2}i_{2}}\cdots g^{j_{n}i_{n}}A_{i_{1}i_{2}\cdots i_{n}}=A^{j_{1}j_{2}\cdots j_{n}}}

y bajado por:

g j 1 i 1 g j 2 i 2 g j n i n A i 1 i 2 i n = A j 1 j 2 j n {\displaystyle g_{j_{1}i_{1}}g_{j_{2}i_{2}}\cdots g_{j_{n}i_{n}}A^{i_{1}i_{2}\cdots i_{n}}=A_{j_{1}j_{2}\cdots j_{n}}}

y para un tensor mixto:

g p 1 i 1 g p 2 i 2 g p n i n g q 1 j 1 g q 2 j 2 g q m j m A i 1 i 2 i n j 1 j 2 j m = A p 1 p 2 p n q 1 q 2 q m {\displaystyle g_{p_{1}i_{1}}g_{p_{2}i_{2}}\cdots g_{p_{n}i_{n}}g^{q_{1}j_{1}}g^{q_{2}j_{2}}\cdots g^{q_{m}j_{m}}{A^{i_{1}i_{2}\cdots i_{n}}}_{j_{1}j_{2}\cdots j_{m}}={A_{p_{1}p_{2}\cdots p_{n}}}^{q_{1}q_{2}\cdots q_{m}}}

No necesitamos aumentar o disminuir todos los índices a la vez: está perfectamente bien aumentar o disminuir un solo índice. Disminuir el índice de un tensor da un tensor, mientras que aumentar un índice da un (donde tienen valores adecuados, por ejemplo, no podemos disminuir el índice de un tensor). ( r , s ) {\displaystyle (r,s)} ( r 1 , s + 1 ) {\displaystyle (r-1,s+1)} ( r + 1 , s 1 ) {\displaystyle (r+1,s-1)} r , s {\displaystyle r,s} ( 0 , 2 ) {\displaystyle (0,2)}

Véase también

Referencias

  1. ^ de Kay, DC (1988). Cálculo tensorial . Schaum's Outlines. Nueva York: McGraw Hill. ISBN 0-07-033484-6.
  2. ^ NB: Algunos textos, como: Griffiths, David J. (1987). Introducción a las partículas elementales . Wiley, John & Sons, Inc. ISBN 0-471-60386-4., mostrará este tensor con un factor general de −1. Esto se debe a que utilizaron el negativo del tensor métrico utilizado aquí: (− + + +) , consulte la signatura métrica . En textos más antiguos como Jackson (2.ª edición), no hay factores de c ya que están utilizando unidades gaussianas . Aquí se utilizan unidades del SI .
Retrieved from "https://en.wikipedia.org/w/index.php?title=Raising_and_lowering_indices&oldid=1242582165"