Covarianza y contravarianza de vectores

Comportamiento del vector ante cambios de coordenadas
A vector, v , representado en términos de
base tangente
  e 1 , e 2 , e 3 al curvas de coordenadas ( izquierda ),
base dual, base covectorial o base recíproca
  e 1 , e 2 , e 3 a superficies de coordenadas ( derecha ),
En coordenadas curvilíneas generales tridimensionales ( q 1 , q 2 , q 3 ) , una tupla de números para definir un punto en un espacio de posición . Nótese que la base y la cobase coinciden solo cuando la base es ortonormal . [1] [ especificar ]

En física , especialmente en álgebra multilineal y análisis tensorial , la covarianza y la contravarianza describen cómo cambia la descripción cuantitativa de ciertas entidades geométricas o físicas con un cambio de base . [2] Brevemente, un vector contravariante es una lista de números que se transforma de manera opuesta a un cambio de base, y un vector covariante es una lista de números que se transforma de la misma manera. Los vectores contravariantes a menudo se denominan simplemente vectores y los vectores covariantes se denominan covectores o vectores duales . Los términos covariante y contravariante fueron introducidos por James Joseph Sylvester en 1851. [3] [4]

Los sistemas de coordenadas curvilíneas , como las coordenadas cilíndricas o esféricas , se utilizan a menudo en problemas físicos y geométricos. Asociada a cualquier sistema de coordenadas hay una elección natural de la base de coordenadas para los vectores basados ​​en cada punto del espacio, y la covarianza y la contravarianza son particularmente importantes para comprender cómo cambia la descripción de coordenadas de un vector al pasar de un sistema de coordenadas a otro. Los tensores son objetos del álgebra multilineal que pueden tener aspectos tanto de covarianza como de contravarianza.

Introducción

En física, un vector normalmente surge como resultado de una medición o una serie de mediciones, y se representa como una lista (o tupla ) de números como

( en 1 , en 2 , en 3 ) . {\displaystyle (v_{1},v_{2},v_{3}).}

Los números de la lista dependen del sistema de coordenadas elegido . Por ejemplo, si el vector representa la posición con respecto a un observador ( vector de posición ), entonces el sistema de coordenadas puede obtenerse a partir de un sistema de varillas rígidas, o ejes de referencia, a lo largo de los cuales se miden los componentes v 1 , v 2 y v 3 . Para que un vector represente un objeto geométrico, debe ser posible describir cómo se ve en cualquier otro sistema de coordenadas. Es decir, los componentes de los vectores se transformarán de una determinada manera al pasar de un sistema de coordenadas a otro.

Un ejemplo sencillo es el de un vector euclidiano . Una vez que se ha definido un conjunto de vectores base para un vector, los componentes de ese vector siempre variarán en sentido opuesto al de los vectores base. Por lo tanto, ese vector se define como un tensor contravariante . Tomemos como ejemplo un vector de posición estándar. Al cambiar la escala de los ejes de referencia de metros a centímetros (es decir, dividiendo la escala de los ejes de referencia por 100, de modo que los vectores base ahora tengan una longitud de metros), los componentes del vector de posición medido se multiplican por 100. Los componentes de un vector cambian de escala de manera inversa a los cambios de escala de los ejes de referencia y, en consecuencia, un vector se denomina tensor contravariante . .01 {\estilo de visualización .01}

Un vector , que es un ejemplo de un tensor contravariante , tiene componentes que se transforman inversamente a la transformación de los ejes de referencia (con transformaciones de ejemplo que incluyen rotación y dilatación ). El vector en sí no cambia bajo estas operaciones ; en cambio, los componentes del vector cambian de una manera que cancela el cambio en los ejes espaciales. En otras palabras, si los ejes de referencia se rotaran en una dirección, la representación del componente del vector rotaría exactamente en la dirección opuesta. De manera similar, si los ejes de referencia se estiraran en una dirección, los componentes del vector se reducirían de una manera exactamente compensatoria. Matemáticamente, si el sistema de coordenadas sufre una transformación descrita por una matriz invertible M , de modo que los vectores base se transforman de acuerdo con , entonces los componentes de un vector v en la base original ( ) deben transformarse de manera similar mediante . Los componentes de un vector a menudo se representan dispuestos en una columna. norte × norte {\displaystyle n\veces n} [ mi 1 "   mi 2 "   . . .   mi norte " ] = [ mi 1   mi 2   . . .   mi norte ] METRO {\displaystyle {\begin{bmatrix}\mathbf {e} _{1}^{\prime }\ \mathbf {e} _{2}^{\prime }\ ...\ \mathbf {e} _{ n}^{\prime }\end{bmatrix}}={\begin{bmatrix}\mathbf {e} _{1}\ \mathbf {e} _{2}\ ...\ \mathbf {e} _ {n}\end{bmatrix}}M} en i {\displaystyle v^{i}} [ en 1 " en 2 " . . . en norte " ] = METRO 1 [ en 1 en 2 . . . en norte ] {\displaystyle {\begin{bmatrix}v^{1}{^{\prime }}\\v^{2}{^{\prime }}\\...\\v^{n}{^{ \prime }}\end{bmatrix}}=M^{-1}{\begin{bmatrix}v^{1}\\v^{2}\\...\\v^{n}\end{ matrizb}}}

Por el contrario, un covector tiene componentes que se transforman como los ejes de referencia. Vive en el espacio vectorial dual y representa una función lineal de vectores a escalares. El operador de producto escalar que involucra vectores es un buen ejemplo de un covector. Para ilustrarlo, supongamos que tenemos un covector definido como , donde es un vector. Los componentes de este covector en alguna base arbitraria son , siendo los vectores base en el espacio vectorial correspondiente. (Esto se puede derivar notando que queremos obtener la respuesta correcta para la operación de producto escalar al multiplicar por un vector arbitrario , con componentes ). La covarianza de estos componentes del covector se ve entonces notando que si una transformación descrita por una matriz invertible M se aplicara a los vectores base en el espacio vectorial correspondiente, , entonces los componentes del covector se transformarán con la misma matriz , es decir, . Los componentes de un covector a menudo se representan dispuestos en una fila. en   {\displaystyle \mathbf {v} \ \cdot } en {\displaystyle \mathbf {v}} [ en mi 1 en mi 2 . . . en mi norte ] {\displaystyle {\begin{bmatrix}\mathbf {v} \cdot \mathbf {e} _{1}&\mathbf {v} \cdot \mathbf {e} _{2}&...&\mathbf { v} \cdot \mathbf {e} _ {n}\end{bmatrix}}} [ mi 1   mi 2   . . .   mi norte ] {\displaystyle {\begin{bmatrix}\mathbf {e} _{1}\ \mathbf {e} _{2}\ ...\ \mathbf {e} _{n}\end{bmatrix}}} w {\displaystyle \mathbf {w} } [ w 1 w 2 . . . w n ] {\displaystyle {\begin{bmatrix}w^{1}\\w^{2}\\...\\w^{n}\end{bmatrix}}} n × n {\displaystyle n\times n} [ e 1   e 2   . . .   e n ] = [ e 1   e 2   . . .   e n ] M {\displaystyle {\begin{bmatrix}\mathbf {e} _{1}^{\prime }\ \mathbf {e} _{2}^{\prime }\ ...\ \mathbf {e} _{n}^{\prime }\end{bmatrix}}={\begin{bmatrix}\mathbf {e} _{1}\ \mathbf {e} _{2}\ ...\ \mathbf {e} _{n}\end{bmatrix}}M} v   {\displaystyle \mathbf {v} \ \cdot } M {\displaystyle M} [ v e 1 v e 2 . . . v e n ] = [ v e 1 v e 2 . . . v e n ] M {\displaystyle {\begin{bmatrix}\mathbf {v} \cdot \mathbf {e} _{1}^{\prime }&\mathbf {v} \cdot \mathbf {e} _{2}^{\prime }&...&\mathbf {v} \cdot \mathbf {e} _{n}^{\prime }\end{bmatrix}}={\begin{bmatrix}\mathbf {v} \cdot \mathbf {e} _{1}&\mathbf {v} \cdot \mathbf {e} _{2}&...&\mathbf {v} \cdot \mathbf {e} _{n}\end{bmatrix}}M}

Un tercer concepto relacionado con la covarianza y la contravarianza es la invariancia . Un escalar (también llamado tensor de tipo 0 o de rango 0) es un objeto que no varía con el cambio de base. Un ejemplo de un observable físico que es un escalar es la masa de una partícula. El valor único escalar de la masa es independiente de los cambios en los vectores de base y, en consecuencia, se denomina invariante . La magnitud de un vector (como la distancia ) es otro ejemplo de invariante, porque permanece fija incluso si varían los componentes geométricos del vector. (Por ejemplo, para un vector de posición de longitud metros, si todos los vectores de base cartesianos cambian de longitud metros a metros, la longitud del vector de posición permanece sin cambios en metros, aunque los componentes del vector aumentarán todos en un factor de ). El producto escalar de un vector y un covector es invariante, porque uno tiene componentes que varían con el cambio de base y el otro tiene componentes que varían de manera opuesta, y los dos efectos se cancelan. Por lo tanto, se dice que los covectores son duales a los vectores. 3 {\displaystyle 3} 1 {\displaystyle 1} .01 {\displaystyle .01} 3 {\displaystyle 3} 100 {\displaystyle 100}

Así pues, para resumir:

  • Un vector o vector tangente tiene componentes que contravarían con un cambio de base para compensar. Es decir, la matriz que transforma los componentes del vector debe ser la inversa de la matriz que transforma los vectores de base. Se dice que los componentes de los vectores (a diferencia de los de los covectores) son contravariantes . En la notación de Einstein (suma implícita sobre índice repetido), los componentes contravariantes se denotan con índices superiores como en
    v = v i e i {\displaystyle \mathbf {v} =v^{i}\mathbf {e} _{i}}
  • Un covector o vector cotangente tiene componentes que covarían con un cambio de base en el espacio vectorial (inicial) correspondiente. Es decir, los componentes deben ser transformados por la misma matriz que la matriz de cambio de base en el espacio vectorial (inicial) correspondiente. Se dice que los componentes de los covectores (a diferencia de los de los vectores) son covariantes . En la notación de Einstein , los componentes covariantes se denotan con índices más bajos como en
    w = w i e i . {\displaystyle \mathbf {w} =w_{i}\mathbf {e} ^{i}.}
  • El producto escalar de un vector y un covector es el escalar , que es invariante. Es el emparejamiento dual de vectores y covectores. v i w i {\displaystyle v^{i}w_{i}}

Definición

Componentes covariantes y contravariantes de un vector cuando la base no es ortogonal.

La formulación general de covarianza y contravarianza se refiere a cómo los componentes de un vector de coordenadas se transforman bajo un cambio de base ( transformación pasiva ). Por lo tanto, sea V un espacio vectorial de dimensión n sobre un cuerpo de escalares S , y sea cada uno de f = ( X 1 , ..., X n ) y f ′ = ( Y 1 , ..., Y n ) una base de V. [nota 1] Además, sea que el cambio de base de f a f ′ esté dado por

f f = ( i a 1 i X i , , i a n i X i ) = f A {\displaystyle \mathbf {f} \mapsto \mathbf {f} '={\biggl (}\sum _{i}a_{1}^{i}X_{i},\dots ,\sum _{i}a_{n}^{i}X_{i}{\biggr )}=\mathbf {f} A} ( 1 )

para una matriz A invertible de n × n con entradas . Aquí, cada vector Y j de la base f ′ es una combinación lineal de los vectores X i de la base f , de modo que a j i {\displaystyle a_{j}^{i}}

Y j = i a j i X i . {\displaystyle Y_{j}=\sum _{i}a_{j}^{i}X_{i}.}

Transformación contravariante

Un vector en V se expresa únicamente como una combinación lineal de los elementos de la base f como v {\displaystyle v} X i {\displaystyle X_{i}}

v = i v i [ f ] X i , {\displaystyle v=\sum _{i}v^{i}[\mathbf {f} ]X_{i},} ( 2 )

donde v i [ f ] son ​​elementos del campo S conocidos como los componentes de v en la base f . Denotemos el vector columna de componentes de v por v [ f ]:

v [ f ] = [ v 1 [ f ] v 2 [ f ] v n [ f ] ] {\displaystyle \mathbf {v} [\mathbf {f} ]={\begin{bmatrix}v^{1}[\mathbf {f} ]\\v^{2}[\mathbf {f} ]\\\vdots \\v^{n}[\mathbf {f} ]\end{bmatrix}}}

de modo que ( 2 ) puede reescribirse como un producto matricial

v = f v [ f ] . {\displaystyle v=\mathbf {f} \,\mathbf {v} [\mathbf {f} ].}

El vector v también puede expresarse en términos de la base f ′, de modo que

v = f v [ f ] . {\displaystyle v=\mathbf {f'} \,\mathbf {v} [\mathbf {f'} ].}

Sin embargo, dado que el vector v en sí mismo es invariante bajo la elección de la base,

f v [ f ] = v = f v [ f ] . {\displaystyle \mathbf {f} \,\mathbf {v} [\mathbf {f} ]=v=\mathbf {f'} \,\mathbf {v} [\mathbf {f'} ].}

La invariancia de v combinada con la relación ( 1 ) entre f y f ′ implica que

f v [ f ] = f A v [ f A ] , {\displaystyle \mathbf {f} \,\mathbf {v} [\mathbf {f} ]=\mathbf {f} A\,\mathbf {v} [\mathbf {f} A],}

dando la regla de transformación

v [ f ] = v [ f A ] = A 1 v [ f ] . {\displaystyle \mathbf {v} [\mathbf {f'} ]=\mathbf {v} [\mathbf {f} A]=A^{-1}\mathbf {v} [\mathbf {f} ].}

En términos de componentes,

v i [ f A ] = j a ~ j i v j [ f ] {\displaystyle v^{i}[\mathbf {f} A]=\sum _{j}{\tilde {a}}_{j}^{i}v^{j}[\mathbf {f} ]}

donde los coeficientes son las entradas de la matriz inversa de A . a ~ j i {\displaystyle {\tilde {a}}_{j}^{i}}

Debido a que los componentes del vector v se transforman con la inversa de la matriz A , se dice que estos componentes se transforman contravariantemente bajo un cambio de base.

La forma en que A relaciona los dos pares se representa en el siguiente diagrama informal mediante una flecha. La inversión de la flecha indica un cambio contravariante:

f f v [ f ] v [ f ] {\displaystyle {\begin{aligned}\mathbf {f} &\longrightarrow \mathbf {f'} \\v[\mathbf {f} ]&\longleftarrow v[\mathbf {f'} ]\end{aligned}}}

Transformación covariante

Un funcional lineal α en V se expresa únicamente en términos de sus componentes (elementos en S ) en la base f como

α ( X i ) = α i [ f ] , i = 1 , 2 , , n . {\displaystyle \alpha (X_{i})=\alpha _{i}[\mathbf {f} ],\quad i=1,2,\dots ,n.}

Estos componentes son la acción de α sobre los vectores base Xi de la base f .

Bajo el cambio de base de f a f ′ (a través de 1 ), los componentes se transforman de manera que

α i [ f A ] = α ( Y i ) = α ( j a i j X j ) = j a i j α ( X j ) = j a i j α j [ f ] . {\displaystyle {\begin{aligned}\alpha _{i}[\mathbf {f} A]&=\alpha (Y_{i})\\&=\alpha {\biggl (}\sum _{j}a_{i}^{j}X_{j}{\biggr )}\\&=\sum _{j}a_{i}^{j}\alpha (X_{j})\\&=\sum _{j}a_{i}^{j}\alpha _{j}[\mathbf {f} ].\end{aligned}}} ( 3 )

Denotemos el vector fila de componentes de α por α [ f ]:

α [ f ] = [ α 1 [ f ] , α 2 [ f ] , , α n [ f ] ] {\displaystyle \mathbf {\alpha } [\mathbf {f} ]={\begin{bmatrix}\alpha _{1}[\mathbf {f} ],\alpha _{2}[\mathbf {f} ],\dots ,\alpha _{n}[\mathbf {f} ]\end{bmatrix}}}

de modo que ( 3 ) puede reescribirse como el producto matricial

α [ f A ] = α [ f ] A . {\displaystyle \alpha [\mathbf {f} A]=\alpha [\mathbf {f} ]A.}

Debido a que los componentes de la función lineal α se transforman con la matriz A , se dice que estos componentes se transforman covariantemente bajo un cambio de base.

La forma en que A relaciona los dos pares se representa en el siguiente diagrama informal mediante una flecha. Se indica una relación covariante ya que las flechas viajan en la misma dirección:

f f α [ f ] α [ f ] {\displaystyle {\begin{aligned}\mathbf {f} &\longrightarrow \mathbf {f'} \\\alpha [\mathbf {f} ]&\longrightarrow \alpha [\mathbf {f'} ]\end{aligned}}}

Si se hubiera utilizado en su lugar una representación de vector de columna, la ley de transformación sería la transpuesta

α T [ f A ] = A T α T [ f ] . {\displaystyle \alpha ^{\mathrm {T} }[\mathbf {f} A]=A^{\mathrm {T} }\alpha ^{\mathrm {T} }[\mathbf {f} ].}

Coordenadas

La elección de la base f en el espacio vectorial V define de forma única un conjunto de funciones de coordenadas en V , por medio de

x i [ f ] ( v ) = v i [ f ] . {\displaystyle x^{i}[\mathbf {f} ](v)=v^{i}[\mathbf {f} ].}

Las coordenadas de V son por lo tanto contravariantes en el sentido de que

x i [ f A ] = k = 1 n a ~ k i x k [ f ] . {\displaystyle x^{i}[\mathbf {f} A]=\sum _{k=1}^{n}{\tilde {a}}_{k}^{i}x^{k}[\mathbf {f} ].}

Por el contrario, un sistema de n magnitudes vi que se transforman como las coordenadas x i en V define un vector contravariante (o simplemente vector). Un sistema de n magnitudes que se transforman en sentido opuesto a las coordenadas es entonces un vector covariante (o covector).

Esta formulación de contravarianza y covarianza es a menudo más natural en aplicaciones en las que hay un espacio de coordenadas (una variedad ) en el que los vectores viven como vectores tangentes o vectores cotangentes . Dado un sistema de coordenadas local x i en la variedad, los ejes de referencia para el sistema de coordenadas son los campos vectoriales

X 1 = x 1 , , X n = x n . {\displaystyle X_{1}={\frac {\partial }{\partial x^{1}}},\dots ,X_{n}={\frac {\partial }{\partial x^{n}}}.}

Esto da lugar al marco f = ( X 1 , ..., X n ) en cada punto del parche de coordenadas.

Si y i es un sistema de coordenadas diferente y

Y 1 = y 1 , , Y n = y n , {\displaystyle Y_{1}={\frac {\partial }{\partial y^{1}}},\dots ,Y_{n}={\frac {\partial }{\partial y^{n}}},}

entonces el marco f' está relacionado con el marco f por la inversa de la matriz jacobiana de la transición de coordenadas:

f = f J 1 , J = ( y i x j ) i , j = 1 n . {\displaystyle \mathbf {f} '=\mathbf {f} J^{-1},\quad J=\left({\frac {\partial y^{i}}{\partial x^{j}}}\right)_{i,j=1}^{n}.}

O, en índices,

y i = j = 1 n x j y i x j . {\displaystyle {\frac {\partial }{\partial y^{i}}}=\sum _{j=1}^{n}{\frac {\partial x^{j}}{\partial y^{i}}}{\frac {\partial }{\partial x^{j}}}.}

Un vector tangente es por definición un vector que es una combinación lineal de las coordenadas parciales . Por lo tanto, un vector tangente se define por / x i {\displaystyle \partial /\partial x^{i}}

v = i = 1 n v i [ f ] X i = f   v [ f ] . {\displaystyle v=\sum _{i=1}^{n}v^{i}[\mathbf {f} ]X_{i}=\mathbf {f} \ \mathbf {v} [\mathbf {f} ].}

Un vector de este tipo es contravariante con respecto al cambio de sistema de coordenadas. En caso de cambios en el sistema de coordenadas, se tiene

v [ f ] = v [ f J 1 ] = J v [ f ] . {\displaystyle \mathbf {v} \left[\mathbf {f} '\right]=\mathbf {v} \left[\mathbf {f} J^{-1}\right]=J\,\mathbf {v} [\mathbf {f} ].}

Por lo tanto, los componentes de un vector tangente se transforman mediante

v i [ f ] = j = 1 n y i x j v j [ f ] . {\displaystyle v^{i}\left[\mathbf {f} '\right]=\sum _{j=1}^{n}{\frac {\partial y^{i}}{\partial x^{j}}}v^{j}[\mathbf {f} ].}

Por tanto, un sistema de n magnitudes vi en función de las coordenadas que se transforman de esta manera al pasar de un sistema de coordenadas a otro se denomina vector contravariante.

Componentes covariantes y contravariantes de un vector con métrica

Los componentes contravariantes de un vector se obtienen proyectando sobre los ejes de coordenadas. Los componentes covariantes se obtienen proyectando sobre las líneas normales los hiperplanos de coordenadas.

En un espacio vectorial de dimensión finita V sobre un cuerpo K con una forma bilineal simétrica g  : V × VK (que puede denominarse tensor métrico ), hay poca distinción entre vectores covariantes y contravariantes, porque la forma bilineal permite identificar covectores con vectores. Es decir, un vector v determina de manera única un covector α mediante

α ( w ) = g ( v , w ) {\displaystyle \alpha (w)=g(v,w)}

para todos los vectores w . A la inversa, cada covector α determina un único vector v mediante esta ecuación. Debido a esta identificación de vectores con covectores, se puede hablar de componentes covariantes o componentes contravariantes de un vector, es decir, son simplemente representaciones del mismo vector utilizando la base recíproca .

Dada una base f = ( X 1 , ..., X n ) de V , existe una base recíproca única f # = ( Y 1 , ..., Y n ) de V determinada al requerir que

g ( Y i , X j ) = δ j i , {\displaystyle g(Y^{i},X_{j})=\delta _{j}^{i},}

El delta de Kronecker . En función de estas bases, cualquier vector v puede escribirse de dos maneras:

v = i v i [ f ] X i = f v [ f ] = i v i [ f ] Y i = f v [ f ] . {\displaystyle {\begin{aligned}v&=\sum _{i}v^{i}[\mathbf {f} ]X_{i}=\mathbf {f} \,\mathbf {v} [\mathbf {f} ]\\&=\sum _{i}v_{i}[\mathbf {f} ]Y^{i}=\mathbf {f} ^{\sharp }\mathbf {v} ^{\sharp }[\mathbf {f} ].\end{aligned}}}

Las componentes v i [ f ] son ​​las componentes contravariantes del vector v en la base f , y las componentes v i [ f ] son ​​las componentes covariantes de v en la base f . La terminología está justificada porque bajo un cambio de base,

v [ f A ] = A 1 v [ f ] , v [ f A ] = A T v [ f ] . {\displaystyle \mathbf {v} [\mathbf {f} A]=A^{-1}\mathbf {v} [\mathbf {f} ],\quad \mathbf {v} ^{\sharp }[\mathbf {f} A]=A^{T}\mathbf {v} ^{\sharp }[\mathbf {f} ].}

Plano euclidiano

En el plano euclidiano, el producto escalar permite identificar vectores con covectores. Si es una base, entonces la base dual satisface e 1 , e 2 {\displaystyle \mathbf {e} _{1},\mathbf {e} _{2}} e 1 , e 2 {\displaystyle \mathbf {e} ^{1},\mathbf {e} ^{2}}

e 1 e 1 = 1 , e 1 e 2 = 0 e 2 e 1 = 0 , e 2 e 2 = 1. {\displaystyle {\begin{aligned}\mathbf {e} ^{1}\cdot \mathbf {e} _{1}=1,&\quad \mathbf {e} ^{1}\cdot \mathbf {e} _{2}=0\\\mathbf {e} ^{2}\cdot \mathbf {e} _{1}=0,&\quad \mathbf {e} ^{2}\cdot \mathbf {e} _{2}=1.\end{aligned}}}

Por lo tanto, e 1 y e 2 son perpendiculares entre sí, al igual que e 2 y e 1 , y las longitudes de e 1 y e 2 están normalizadas frente a e 1 y e 2 , respectivamente.

Ejemplo

Por ejemplo, [5] supongamos que se nos da una base e 1 , e 2 que consiste en un par de vectores que forman un ángulo de 45° entre sí, de modo que e 1 tiene una longitud de 2 y e 2 tiene una longitud de 1. Entonces los vectores de base duales se dan de la siguiente manera:

  • e 2 es el resultado de rotar e 1 a través de un ángulo de 90° (donde el sentido se mide asumiendo que el par e 1 , e 2 está orientado positivamente) y luego reescalar de modo que e 2e 2 = 1 se mantenga.
  • e 1 es el resultado de rotar e 2 en un ángulo de 90° y luego reescalar de modo que e 1e 1 = 1 se mantenga.

Aplicando estas reglas, encontramos

e 1 = 1 2 e 1 1 2 e 2 {\displaystyle \mathbf {e} ^{1}={\frac {1}{2}}\mathbf {e} _{1}-{\frac {1}{\sqrt {2}}}\mathbf {e} _{2}}

y

e 2 = 1 2 e 1 + 2 e 2 . {\displaystyle \mathbf {e} ^{2}=-{\frac {1}{\sqrt {2}}}\mathbf {e} _{1}+2\mathbf {e} _{2}.}

Por lo tanto, la matriz de cambio de base al pasar de la base original a la base recíproca es

R = [ 1 2 1 2 1 2 2 ] , {\displaystyle R={\begin{bmatrix}{\frac {1}{2}}&-{\frac {1}{\sqrt {2}}}\\-{\frac {1}{\sqrt {2}}}&2\end{bmatrix}},}

desde

[ e 1   e 2 ] = [ e 1   e 2 ] [ 1 2 1 2 1 2 2 ] . {\displaystyle [\mathbf {e} ^{1}\ \mathbf {e} ^{2}]=[\mathbf {e} _{1}\ \mathbf {e} _{2}]{\begin{bmatrix}{\frac {1}{2}}&-{\frac {1}{\sqrt {2}}}\\-{\frac {1}{\sqrt {2}}}&2\end{bmatrix}}.}

Por ejemplo, el vector

v = 3 2 e 1 + 2 e 2 {\displaystyle v={\frac {3}{2}}\mathbf {e} _{1}+2\mathbf {e} _{2}}

es un vector con componentes contravariantes

v 1 = 3 2 , v 2 = 2. {\displaystyle v^{1}={\frac {3}{2}},\quad v^{2}=2.}

Los componentes covariantes se obtienen igualando las dos expresiones para el vector v :

v = v 1 e 1 + v 2 e 2 = v 1 e 1 + v 2 e 2 {\displaystyle v=v_{1}\mathbf {e} ^{1}+v_{2}\mathbf {e} ^{2}=v^{1}\mathbf {e} _{1}+v^{2}\mathbf {e} _{2}}

entonces

[ v 1 v 2 ] = R 1 [ v 1 v 2 ] = [ 4 2 2 1 ] [ v 1 v 2 ] = [ 6 + 2 2 2 + 3 2 ] . {\displaystyle {\begin{aligned}{\begin{bmatrix}v_{1}\\v_{2}\end{bmatrix}}&=R^{-1}{\begin{bmatrix}v^{1}\\v^{2}\end{bmatrix}}\\&={\begin{bmatrix}4&{\sqrt {2}}\\{\sqrt {2}}&1\end{bmatrix}}{\begin{bmatrix}v^{1}\\v^{2}\end{bmatrix}}\\&={\begin{bmatrix}6+2{\sqrt {2}}\\2+{\frac {3}{\sqrt {2}}}\end{bmatrix}}\end{aligned}}.}

Espacio euclidiano tridimensional

En el espacio euclidiano tridimensional , también se puede determinar explícitamente la base dual de un conjunto dado de vectores base e 1 , e 2 , e 3 de E 3 que no se suponen necesariamente ortogonales ni de norma unitaria. Los vectores base duales son:

e 1 = e 2 × e 3 e 1 ( e 2 × e 3 ) ; e 2 = e 3 × e 1 e 2 ( e 3 × e 1 ) ; e 3 = e 1 × e 2 e 3 ( e 1 × e 2 ) . {\displaystyle \mathbf {e} ^{1}={\frac {\mathbf {e} _{2}\times \mathbf {e} _{3}}{\mathbf {e} _{1}\cdot (\mathbf {e} _{2}\times \mathbf {e} _{3})}};\qquad \mathbf {e} ^{2}={\frac {\mathbf {e} _{3}\times \mathbf {e} _{1}}{\mathbf {e} _{2}\cdot (\mathbf {e} _{3}\times \mathbf {e} _{1})}};\qquad \mathbf {e} ^{3}={\frac {\mathbf {e} _{1}\times \mathbf {e} _{2}}{\mathbf {e} _{3}\cdot (\mathbf {e} _{1}\times \mathbf {e} _{2})}}.}

Incluso cuando e i y e i no son ortonormales , siguen siendo mutuamente recíprocas:

e i e j = δ j i , {\displaystyle \mathbf {e} ^{i}\cdot \mathbf {e} _{j}=\delta _{j}^{i},}

Entonces los componentes contravariantes de cualquier vector v se pueden obtener mediante el producto escalar de v con los vectores base duales:

q 1 = v e 1 ; q 2 = v e 2 ; q 3 = v e 3 . {\displaystyle q^{1}=\mathbf {v} \cdot \mathbf {e} ^{1};\qquad q^{2}=\mathbf {v} \cdot \mathbf {e} ^{2};\qquad q^{3}=\mathbf {v} \cdot \mathbf {e} ^{3}.}

De la misma manera, los componentes covariantes de v se pueden obtener a partir del producto escalar de v con los vectores base, a saber:

q 1 = v e 1 ; q 2 = v e 2 ; q 3 = v e 3 . {\displaystyle q_{1}=\mathbf {v} \cdot \mathbf {e} _{1};\qquad q_{2}=\mathbf {v} \cdot \mathbf {e} _{2};\qquad q_{3}=\mathbf {v} \cdot \mathbf {e} _{3}.}

Entonces v puede expresarse de dos maneras (recíprocas), a saber:

v = q i e i = q 1 e 1 + q 2 e 2 + q 3 e 3 . {\displaystyle \mathbf {v} =q^{i}\mathbf {e} _{i}=q^{1}\mathbf {e} _{1}+q^{2}\mathbf {e} _{2}+q^{3}\mathbf {e} _{3}.}

o

v = q i e i = q 1 e 1 + q 2 e 2 + q 3 e 3 {\displaystyle \mathbf {v} =q_{i}\mathbf {e} ^{i}=q_{1}\mathbf {e} ^{1}+q_{2}\mathbf {e} ^{2}+q_{3}\mathbf {e} ^{3}}

Combinando las relaciones anteriores, tenemos

v = ( v e i ) e i = ( v e i ) e i {\displaystyle \mathbf {v} =(\mathbf {v} \cdot \mathbf {e} ^{i})\mathbf {e} _{i}=(\mathbf {v} \cdot \mathbf {e} _{i})\mathbf {e} ^{i}}

y podemos convertir entre la base y la base dual con

q i = v e i = ( q j e j ) e i = ( e j e i ) q j {\displaystyle q_{i}=\mathbf {v} \cdot \mathbf {e} _{i}=(q^{j}\mathbf {e} _{j})\cdot \mathbf {e} _{i}=(\mathbf {e} _{j}\cdot \mathbf {e} _{i})q^{j}}

y

q i = v e i = ( q j e j ) e i = ( e j e i ) q j . {\displaystyle q^{i}=\mathbf {v} \cdot \mathbf {e} ^{i}=(q_{j}\mathbf {e} ^{j})\cdot \mathbf {e} ^{i}=(\mathbf {e} ^{j}\cdot \mathbf {e} ^{i})q_{j}.}

Si los vectores base son ortonormales , entonces son los mismos que los vectores base duales.

Espacios euclidianos generales

De manera más general, en un espacio euclidiano n -dimensional V , si una base es

e 1 , , e n , {\displaystyle \mathbf {e} _{1},\dots ,\mathbf {e} _{n},}

La base recíproca está dada por (los índices dobles se suman),

e i = g i j e j {\displaystyle \mathbf {e} ^{i}=g^{ij}\mathbf {e} _{j}}

donde los coeficientes g ij son las entradas de la matriz inversa de

g i j = e i e j . {\displaystyle g_{ij}=\mathbf {e} _{i}\cdot \mathbf {e} _{j}.}

De hecho, entonces tenemos

e i e k = g i j e j e k = g i j g j k = δ k i . {\displaystyle \mathbf {e} ^{i}\cdot \mathbf {e} _{k}=g^{ij}\mathbf {e} _{j}\cdot \mathbf {e} _{k}=g^{ij}g_{jk}=\delta _{k}^{i}.}

Los componentes covariantes y contravariantes de cualquier vector

v = q i e i = q i e i {\displaystyle \mathbf {v} =q_{i}\mathbf {e} ^{i}=q^{i}\mathbf {e} _{i}\,}

están relacionados como se indicó anteriormente por

q i = v e i = ( q j e j ) e i = q j g j i {\displaystyle q_{i}=\mathbf {v} \cdot \mathbf {e} _{i}=(q^{j}\mathbf {e} _{j})\cdot \mathbf {e} _{i}=q^{j}g_{ji}}

y

q i = v e i = ( q j e j ) e i = q j g j i . {\displaystyle q^{i}=\mathbf {v} \cdot \mathbf {e} ^{i}=(q_{j}\mathbf {e} ^{j})\cdot \mathbf {e} ^{i}=q_{j}g^{ji}.}

Uso en análisis tensorial

La distinción entre covarianza y contravarianza es particularmente importante para los cálculos con tensores , que a menudo tienen varianza mixta . Esto significa que tienen componentes tanto covariantes como contravariantes, o tanto componentes vectoriales como covectoriales. La valencia de un tensor es el número de términos covariantes y contravariantes, y en la notación de Einstein , los componentes covariantes tienen índices más bajos, mientras que los componentes contravariantes tienen índices más altos. La dualidad entre covarianza y contravarianza interviene siempre que una cantidad vectorial o tensorial se representa por sus componentes, aunque la geometría diferencial moderna utiliza métodos sin índice más sofisticados para representar tensores .

En el análisis tensorial , un vector covariante varía más o menos recíprocamente con respecto a un vector contravariante correspondiente. Las expresiones para longitudes, áreas y volúmenes de objetos en el espacio vectorial pueden entonces darse en términos de tensores con índices covariantes y contravariantes. Bajo expansiones y contracciones simples de las coordenadas, la reciprocidad es exacta; bajo transformaciones afines, los componentes de un vector se entremezclan al pasar de una expresión covariante a una contravariante.

En una variedad , un campo tensorial normalmente tendrá múltiples índices superiores e inferiores, donde la notación de Einstein se usa ampliamente. Cuando la variedad está equipada con una métrica , los índices covariantes y contravariantes se vuelven muy relacionados entre sí. Los índices contravariantes se pueden convertir en índices covariantes contrayéndose con el tensor métrico. Lo inverso es posible contrayéndose con la matriz inversa del tensor métrico. Nótese que, en general, no existe tal relación en espacios que no estén dotados de un tensor métrico. Además, desde un punto de vista más abstracto, un tensor simplemente está "ahí" y sus componentes de cualquier tipo son solo artefactos de cálculo cuyos valores dependen de las coordenadas elegidas.

La explicación en términos geométricos es que un tensor general tendrá índices contravariantes así como índices covariantes, porque tiene partes que viven en el fibrado tangente así como en el fibrado cotangente .

Un vector contravariante es aquel que se transforma como , donde son las coordenadas de una partícula en su tiempo propio . Un vector covariante es aquel que se transforma como , donde es un campo escalar. d x μ d τ {\displaystyle {\frac {dx^{\mu }}{d\tau }}} x μ {\displaystyle x^{\mu }\!} τ {\displaystyle \tau } φ x μ {\displaystyle {\frac {\partial \varphi }{\partial x^{\mu }}}} φ {\displaystyle \varphi }

Álgebra y geometría

En la teoría de categorías , hay funtores covariantes y funtores contravariantes . La asignación del espacio dual a un espacio vectorial es un ejemplo estándar de un funtor contravariante. Los vectores contravariantes (o covariantes) son funtores contravariantes (o covariantes) desde un - torsor hasta la representación fundamental de . De manera similar, los tensores de grado superior son funtores con valores en otras representaciones de . Sin embargo, algunas construcciones de álgebra multilineal tienen varianza "mixta", lo que les impide ser funtores. GL ( n ) {\displaystyle {\text{GL}}(n)} GL ( n ) {\displaystyle {\text{GL}}(n)} GL ( n ) {\displaystyle {\text{GL}}(n)}

En geometría diferencial , los componentes de un vector relativos a una base del fibrado tangente son covariantes si cambian con la misma transformación lineal que un cambio de base. Son contravariantes si cambian por la transformación inversa. Esto a veces es una fuente de confusión por dos razones distintas pero relacionadas. La primera es que los vectores cuyos componentes son covariantes (llamados covectores o 1-formas ) en realidad retroceden bajo funciones suaves, lo que significa que la operación que asigna el espacio de covectores a una variedad suave es en realidad un funtor contravariante . Del mismo modo, los vectores cuyos componentes son contravariantes avanzan bajo aplicaciones suaves, por lo que la operación que asigna el espacio de vectores (contravariantes) a una variedad suave es un funtor covariante . En segundo lugar, en el enfoque clásico de la geometría diferencial, no son las bases del fibrado tangente el objeto más primitivo, sino más bien los cambios en el sistema de coordenadas. Los vectores con componentes contravariantes se transforman de la misma manera que los cambios en las coordenadas (porque estos en realidad cambian de manera opuesta al cambio de base inducido). Del mismo modo, los vectores con componentes covariantes se transforman en sentido opuesto a medida que cambian las coordenadas.

Véase también

Notas

  1. ^ Una base f puede verse aquí provechosamente como un isomorfismo lineal de R n a V . Considerando f como un vector fila cuyas entradas son los elementos de la base, el isomorfismo lineal asociado es entonces x f x . {\displaystyle \mathbf {x} \mapsto \mathbf {f} \mathbf {x} .}

Citas

  1. ^ Misner, C.; Thorne, KS; Wheeler, JA (1973). Gravitación . WH Freeman. ISBN  0-7167-0344-0.
  2. ^ Frankel, Theodore (2012). La geometría de la física: una introducción. Cambridge: Cambridge University Press. pág. 42. ISBN 978-1-107-60260-1.OCLC 739094283  .
  3. ^ Sylvester, JJ (1851). "Sobre la teoría general de las formas algebraicas asociadas". Cambridge and Dublin Mathematical Journal . Vol. 6. págs. 289–293.
  4. ^ Sylvester, JJ University Press. Los artículos matemáticos recopilados de James Joseph Sylvester . Vol. 3, 1870–1883. ISBN 978-1107661431.OCLC 758983870  .
  5. ^ Bowen, Ray; Wang, C.-C. (2008) [1976]. "§3.14 Base recíproca y cambio de base". Introducción a los vectores y tensores . Dover. págs. 78, 79, 81. ISBN 9780486469140.

Referencias

  • Kusse, Bruce R.; Westwig, Erik A. (2010), Física matemática: Matemáticas aplicadas para científicos e ingenieros (2.ª ed.), Wiley, ISBN 978-3-527-61814-9.
  • Arfken, George B. ; Weber, Hans J. (2005), Métodos matemáticos para físicos (6.ª ed.), Harcourt, ISBN 0-12-059876-0.
  • Dodson, CTJ; Poston, T. (1991), Geometría tensorial , Textos de posgrado en matemáticas, vol. 130 (2.ª ed.), Springer, ISBN 978-3-540-52018-4, Sr.  1223091.
  • Greub, Werner Hildbert (1967), Álgebra multilineal , Die Grundlehren der Mathematischen Wissenschaften, Band 136, Springer, ISBN 9780387038278, Sr.  0224623.
  • Sternberg, Shlomo (1983), Conferencias sobre geometría diferencial , Chelsea, ISBN 978-0-8284-0316-0.
  • Sylvester, JJ (1853), "Sobre una teoría de las relaciones sizigéticas de dos funciones integrales racionales, que comprende una aplicación a la teoría de las funciones de Sturm y a la de la máxima medida común algebraica", Philosophical Transactions of the Royal Society of London , 143 : 407–548, doi : 10.1098/rstl.1853.0018 , JSTOR  108572.
  • Weinreich, Gabriel (1998), Vectores geométricos , Chicago Lectures in Physics, The University of Chicago Press, pág. 126, ISBN 9780226890487
Retrieved from "https://en.wikipedia.org/w/index.php?title=Covariance_and_contravariance_of_vectors&oldid=1246904862"