Matriz de rotación

Matriz que representa una rotación euclidiana

En álgebra lineal , una matriz de rotación es una matriz de transformación que se utiliza para realizar una rotación en el espacio euclidiano . Por ejemplo, utilizando la convención siguiente, la matriz

R = [ porque θ pecado θ pecado θ porque θ ] {\displaystyle R={\begin{bmatrix}\cos \theta &-\sin \theta \\\sin \theta &\cos \theta \end{bmatrix}}}

rota puntos en el plano xy en sentido antihorario a través de un ángulo θ alrededor del origen de un sistema de coordenadas cartesianas bidimensionales . Para realizar la rotación en un punto del plano con coordenadas estándar v = ( x , y ) , debe escribirse como un vector columna y multiplicarse por la matriz R :

R en = [ porque θ pecado θ pecado θ porque θ ] [ incógnita y ] = [ incógnita porque θ y pecado θ incógnita pecado θ + y porque θ ] . {\displaystyle R\mathbf {v} ={\begin{bmatrix}\cos \theta &-\sin \theta \\\sin \theta &\cos \theta \end{bmatrix}}{\begin{bmatrix}x \\y\end{bmatrix}}={\begin{bmatrix}x\cos \theta -y\sin \theta \\x\sin \theta +y\cos \theta \end{bmatrix}}.}

Si x e y son las coordenadas de los extremos de un vector, donde x es coseno e y es seno, entonces las ecuaciones anteriores se convierten en las fórmulas trigonométricas de suma de ángulos . De hecho, una matriz de rotación puede verse como las fórmulas trigonométricas de suma de ángulos en forma matricial. Una forma de entender esto es decir que tenemos un vector en un ángulo de 30° desde el eje x , y deseamos rotar ese ángulo otros 45°. Simplemente necesitamos calcular las coordenadas del extremo del vector en 75°.

Los ejemplos de este artículo se aplican a rotaciones activas de vectores en sentido antihorario en un sistema de coordenadas diestro ( y en sentido antihorario desde x ) por premultiplicación ( R a la izquierda). Si se cambia alguno de estos (como rotar ejes en lugar de vectores, una transformación pasiva ), entonces se debe utilizar la inversa de la matriz de ejemplo, que coincide con su transpuesta .

Dado que la multiplicación de matrices no tiene efecto sobre el vector cero (las coordenadas del origen), las matrices de rotación describen rotaciones sobre el origen. Las matrices de rotación proporcionan una descripción algebraica de dichas rotaciones y se utilizan ampliamente para cálculos en geometría , física y gráficos por computadora . En alguna literatura, el término rotación se generaliza para incluir rotaciones impropias , caracterizadas por matrices ortogonales con un determinante de −1 (en lugar de +1). Estas combinan rotaciones propias con reflexiones (que invierten la orientación ). En otros casos, donde no se consideran las reflexiones, se puede omitir la etiqueta de propias . Esta última convención se sigue en este artículo.

Las matrices de rotación son matrices cuadradas , con entradas reales . Más específicamente, se pueden caracterizar como matrices ortogonales con determinante  1; es decir, una matriz cuadrada R es una matriz de rotación si y solo si R T = R −1 y det R = 1 . El conjunto de todas las matrices ortogonales de tamaño n con determinante +1 es una representación de un grupo conocido como el grupo ortogonal especial SO( n ) , un ejemplo del cual es el grupo de rotación SO(3) . El conjunto de todas las matrices ortogonales de tamaño n con determinante +1 o −1 es una representación del grupo ortogonal (general) O( n ) .

En dos dimensiones

Rotación en sentido antihorario de un vector a través del ángulo θ . El vector está inicialmente alineado con el eje x .

En dos dimensiones, la matriz de rotación estándar tiene la siguiente forma:

R ( θ ) = [ porque θ pecado θ pecado θ porque θ ] . {\displaystyle R(\theta )={\begin{bmatrix}\cos \theta &-\sin \theta \\\sin \theta &\cos \theta \\\end{bmatrix}}.}

Esto rota los vectores columna mediante la siguiente multiplicación de matrices ,

[ incógnita " y " ] = [ porque θ pecado θ pecado θ porque θ ] [ incógnita y ] . {\displaystyle {\begin{bmatrix}x'\\y'\\\end{bmatrix}}={\begin{bmatrix}\cos \theta &-\sin \theta \\\sin \theta &\cos \\\end{bmatrix}}{\begin{bmatrix}x\\y\\\end{bmatrix}}.}

Por lo tanto, las nuevas coordenadas ( x ′, y ′) de un punto ( x , y ) después de la rotación son

incógnita " = incógnita porque θ y pecado θ y " = incógnita pecado θ + y porque θ . {\displaystyle {\begin{aligned}x'&=x\cos \theta -y\sin \theta \,\\y'&=x\sin \theta +y\cos \theta \,\end{aligned}}.}

Ejemplos

Por ejemplo, cuando el vector

incógnita ^ = [ 1 0 ] {\displaystyle \mathbf {\hat {x}} ={\begin{bmatrix}1\\0\\\end{bmatrix}}}

se gira un ángulo θ , sus nuevas coordenadas son

[ porque θ pecado θ ] , {\displaystyle {\begin{bmatrix}\cos \theta \\\sin \theta \\\end{bmatrix}},}

y cuando el vector

y ^ = [ 0 1 ] {\displaystyle \mathbf {\hat {y}} ={\begin{bmatrix}0\\1\\\end{bmatrix}}}

se gira un ángulo θ , sus nuevas coordenadas son

[ pecado θ porque θ ] . {\displaystyle {\begin{bmatrix}-\sin \theta \\\cos \theta \\\end{bmatrix}}.}

Dirección

La dirección de rotación del vector es en sentido antihorario si θ es positivo (por ejemplo, 90°) y en sentido horario si θ es negativo (por ejemplo, −90°) para . Por lo tanto, la matriz de rotación en sentido horario se obtiene como R ( θ ) {\displaystyle R(\theta )}

R ( θ ) = [ porque θ pecado θ pecado θ porque θ ] . {\displaystyle R(-\theta )={\begin{bmatrix}\cos \theta &\sin \theta \\-\sin \theta &\cos \theta \\\end{bmatrix}}.}

El caso bidimensional es el único caso no trivial (es decir, no unidimensional) en el que el grupo de matrices de rotación es conmutativo, de modo que no importa en qué orden se realizan las rotaciones múltiples. Una convención alternativa utiliza ejes rotatorios, [1] y las matrices anteriores también representan una rotación de los ejes en el sentido de las agujas del reloj a través de un ángulo θ .

Orientación no estándar del sistema de coordenadas

Una rotación a través del ángulo θ con ejes no estándar.

Si se utiliza un sistema de coordenadas cartesiano estándar para diestros , con el eje x a la derecha y el eje y hacia arriba, la rotación R ( θ ) es en sentido antihorario. Si se utiliza un sistema de coordenadas cartesiano para zurdos, con x dirigida a la derecha pero y dirigida hacia abajo, R ( θ ) es en el sentido de las agujas del reloj. Estas orientaciones no estándar rara vez se utilizan en matemáticas, pero son comunes en gráficos de computadora 2D , que a menudo tienen el origen en la esquina superior izquierda y el eje y hacia abajo en la pantalla o página. [2]

Consulte a continuación otras convenciones alternativas que pueden cambiar el sentido de la rotación producida por una matriz de rotación.

Rotaciones 2D comunes

Especialmente útiles son las matrices

[ 0 1 1 0 ] , [ 1 0 0 1 ] , [ 0 1 1 0 ] {\displaystyle {\begin{bmatrix}0&-1\\[3pt]1&0\\\end{bmatrix}},\quad {\begin{bmatrix}-1&0\\[3pt]0&-1\\\end{bmatrix}},\quad {\begin{bmatrix}0&1\\[3pt]-1&0\\\end{bmatrix}}}

para rotaciones en sentido antihorario de 90°, 180° y 270°.

Una rotación de 180° (centro) seguida de una rotación positiva de 90° (izquierda) equivale a una única rotación negativa de 90° (270° positiva) (derecha). Cada una de estas figuras representa el resultado de una rotación con respecto a una posición inicial vertical (abajo a la izquierda) e incluye la representación matricial de la permutación aplicada por la rotación (centro a la derecha), así como otros diagramas relacionados. Véase "Notación de permutación" en Wikiversidad para más detalles.

Relación con el plano complejo

Desde

[ 0 1 1 0 ] 2   =   [ 1 0 0 1 ]   = I , {\displaystyle {\begin{bmatrix}0&-1\\1&0\end{bmatrix}}^{2}\ =\ {\begin{bmatrix}-1&0\\0&-1\end{bmatrix}}\ =-I,}

Las matrices de la forma

[ incógnita y y incógnita ] {\displaystyle {\begin{bmatrix}x&-y\\y&x\end{bmatrix}}}

forman un anillo isomorfo al cuerpo de los números complejos ⁠ ⁠ C {\displaystyle \mathbb {C} } . Bajo este isomorfismo, las matrices de rotación corresponden al círculo de los números complejos unitarios , los números complejos de módulo 1 .

Si se identifica con a través del isomorfismo lineal la acción de una matriz de la forma anterior sobre vectores de corresponde a la multiplicación por el número complejo x + iy , y las rotaciones corresponden a la multiplicación por números complejos de módulo 1 . R 2 {\displaystyle \mathbb {R} ^{2}} C {\displaystyle \mathbb {C} } ( a , b ) a + i b , {\displaystyle (a,b)\mapsto a+ib,} R 2 {\displaystyle \mathbb {R} ^{2}}

Como toda matriz de rotación se puede escribir

( cos t sin t sin t cos t ) , {\displaystyle {\begin{pmatrix}\cos t&-\sin t\\\sin t&\cos t\end{pmatrix}},}

La correspondencia anterior asocia dicha matriz con el número complejo

cos t + i sin t = e i t {\displaystyle \cos t+i\sin t=e^{it}}

(esta última igualdad es la fórmula de Euler ).

En tres dimensiones

Una rotación positiva de 90° alrededor del eje y (izquierda) después de una alrededor del eje z
(centro) da como resultado una rotación de 120° alrededor de la diagonal principal (derecha). En la esquina superior izquierda están las matrices de rotación, en la esquina inferior derecha están las permutaciones correspondientes del cubo con el origen en su centro.

Rotaciones 3D básicas

Una rotación 3D básica (también llamada rotación elemental) es una rotación sobre uno de los ejes de un sistema de coordenadas. Las siguientes tres matrices de rotación básicas rotan vectores en un ángulo θ sobre el eje x , y o z , en tres dimensiones, utilizando la regla de la mano derecha , que codifica sus signos alternos. Observe que la regla de la mano derecha solo funciona cuando se multiplican . (Las mismas matrices también pueden representar una rotación en el sentido de las agujas del reloj de los ejes. [nb 1] ) R x {\displaystyle R\cdot {\vec {x}}}

R x ( θ ) = [ 1 0 0 0 cos θ sin θ 0 sin θ cos θ ] R y ( θ ) = [ cos θ 0 sin θ 0 1 0 sin θ 0 cos θ ] R z ( θ ) = [ cos θ sin θ 0 sin θ cos θ 0 0 0 1 ] {\displaystyle {\begin{alignedat}{1}R_{x}(\theta )&={\begin{bmatrix}1&0&0\\0&\cos \theta &-\sin \theta \\[3pt]0&\sin \theta &\cos \theta \\[3pt]\end{bmatrix}}\\[6pt]R_{y}(\theta )&={\begin{bmatrix}\cos \theta &0&\sin \theta \\[3pt]0&1&0\\[3pt]-\sin \theta &0&\cos \theta \\\end{bmatrix}}\\[6pt]R_{z}(\theta )&={\begin{bmatrix}\cos \theta &-\sin \theta &0\\[3pt]\sin \theta &\cos \theta &0\\[3pt]0&0&1\\\end{bmatrix}}\end{alignedat}}}

En el caso de los vectores columna , cada una de estas rotaciones básicas de vector aparece en sentido antihorario cuando el eje sobre el que se producen apunta hacia el observador, el sistema de coordenadas es diestro y el ángulo θ es positivo. R z , por ejemplo, rotaría hacia el eje y un vector alineado con el eje x , como se puede comprobar fácilmente operando con R z sobre el vector (1,0,0) :

R z ( 90 ) [ 1 0 0 ] = [ cos 90 sin 90 0 sin 90 cos 90 0 0 0 1 ] [ 1 0 0 ] = [ 0 1 0 1 0 0 0 0 1 ] [ 1 0 0 ] = [ 0 1 0 ] {\displaystyle R_{z}(90^{\circ }){\begin{bmatrix}1\\0\\0\\\end{bmatrix}}={\begin{bmatrix}\cos 90^{\circ }&-\sin 90^{\circ }&0\\\sin 90^{\circ }&\quad \cos 90^{\circ }&0\\0&0&1\\\end{bmatrix}}{\begin{bmatrix}1\\0\\0\\\end{bmatrix}}={\begin{bmatrix}0&-1&0\\1&0&0\\0&0&1\\\end{bmatrix}}{\begin{bmatrix}1\\0\\0\\\end{bmatrix}}={\begin{bmatrix}0\\1\\0\\\end{bmatrix}}}

Esto es similar a la rotación producida por la matriz de rotación bidimensional mencionada anteriormente. Vea a continuación convenciones alternativas que pueden, aparentemente o en realidad, invertir el sentido de la rotación producida por estas matrices.

Rotaciones 3D generales

Se pueden obtener otras matrices de rotación 3D a partir de estas tres mediante la multiplicación de matrices . Por ejemplo, el producto

R = R z ( α ) R y ( β ) R x ( γ ) = [ cos α sin α 0 sin α cos α 0 0 0 1 ] yaw [ cos β 0 sin β 0 1 0 sin β 0 cos β ] pitch [ 1 0 0 0 cos γ sin γ 0 sin γ cos γ ] roll = [ cos α cos β cos α sin β sin γ sin α cos γ cos α sin β cos γ + sin α sin γ sin α cos β sin α sin β sin γ + cos α cos γ sin α sin β cos γ cos α sin γ sin β cos β sin γ cos β cos γ ] {\displaystyle {\begin{aligned}R=R_{z}(\alpha )\,R_{y}(\beta )\,R_{x}(\gamma )&={\overset {\text{yaw}}{\begin{bmatrix}\cos \alpha &-\sin \alpha &0\\\sin \alpha &\cos \alpha &0\\0&0&1\\\end{bmatrix}}}{\overset {\text{pitch}}{\begin{bmatrix}\cos \beta &0&\sin \beta \\0&1&0\\-\sin \beta &0&\cos \beta \\\end{bmatrix}}}{\overset {\text{roll}}{\begin{bmatrix}1&0&0\\0&\cos \gamma &-\sin \gamma \\0&\sin \gamma &\cos \gamma \\\end{bmatrix}}}\\&={\begin{bmatrix}\cos \alpha \cos \beta &\cos \alpha \sin \beta \sin \gamma -\sin \alpha \cos \gamma &\cos \alpha \sin \beta \cos \gamma +\sin \alpha \sin \gamma \\\sin \alpha \cos \beta &\sin \alpha \sin \beta \sin \gamma +\cos \alpha \cos \gamma &\sin \alpha \sin \beta \cos \gamma -\cos \alpha \sin \gamma \\-\sin \beta &\cos \beta \sin \gamma &\cos \beta \cos \gamma \\\end{bmatrix}}\end{aligned}}}

representa una rotación cuyos ángulos de guiñada, cabeceo y balanceo son α , β y γ , respectivamente. Más formalmente, es una rotación intrínseca cuyos ángulos de Tait-Bryan son α , β , γ , alrededor de los ejes z , y , x , respectivamente. De manera similar, el producto

R = R z ( γ ) R y ( β ) R x ( α ) = [ cos γ sin γ 0 sin γ cos γ 0 0 0 1 ] roll [ cos β 0 sin β 0 1 0 sin β 0 cos β ] pitch [ 1 0 0 0 cos α sin α 0 sin α cos α ] yaw = [ cos β cos γ sin α sin β cos γ cos α sin γ cos α sin β cos γ + sin α sin γ cos β sin γ sin α sin β sin γ + cos α cos γ cos α sin β sin γ sin α cos γ sin β sin α cos β cos α cos β ] {\displaystyle {\begin{aligned}\\R=R_{z}(\gamma )\,R_{y}(\beta )\,R_{x}(\alpha )&={\overset {\text{roll}}{\begin{bmatrix}\cos \gamma &-\sin \gamma &0\\\sin \gamma &\cos \gamma &0\\0&0&1\\\end{bmatrix}}}{\overset {\text{pitch}}{\begin{bmatrix}\cos \beta &0&\sin \beta \\0&1&0\\-\sin \beta &0&\cos \beta \\\end{bmatrix}}}{\overset {\text{yaw}}{\begin{bmatrix}1&0&0\\0&\cos \alpha &-\sin \alpha \\0&\sin \alpha &\cos \alpha \\\end{bmatrix}}}\\&={\begin{bmatrix}\cos \beta \cos \gamma &\sin \alpha \sin \beta \cos \gamma -\cos \alpha \sin \gamma &\cos \alpha \sin \beta \cos \gamma +\sin \alpha \sin \gamma \\\cos \beta \sin \gamma &\sin \alpha \sin \beta \sin \gamma +\cos \alpha \cos \gamma &\cos \alpha \sin \beta \sin \gamma -\sin \alpha \cos \gamma \\-\sin \beta &\sin \alpha \cos \beta &\cos \alpha \cos \beta \\\end{bmatrix}}\end{aligned}}}

representa una rotación extrínseca cuyos ángulos de Euler (impropios) son α , β , γ , alrededor de los ejes x , y , z .

Estas matrices producen el efecto deseado sólo si se utilizan para premultiplicar vectores columna y (ya que en general la multiplicación de matrices no es conmutativa ) sólo si se aplican en el orden especificado (ver Ambigüedades para más detalles). El orden de las operaciones de rotación es de derecha a izquierda; la matriz adyacente al vector columna es la primera en aplicarse, y luego la de la izquierda. [3]

Conversión de matriz de rotación a eje-ángulo

Cada rotación en tres dimensiones está definida por su eje (un vector a lo largo de este eje no cambia con la rotación) y su ángulo , la cantidad de rotación alrededor de ese eje ( teorema de rotación de Euler ).

Existen varios métodos para calcular el eje y el ángulo a partir de una matriz de rotación (véase también la representación eje-ángulo ). Aquí, solo describimos el método basado en el cálculo de los vectores y valores propios de la matriz de rotación. También es posible utilizar la traza de la matriz de rotación.

Determinación del eje

Una rotación R alrededor del eje u se puede descomponer utilizando 3 endomorfismos P , ( IP ) y Q (haga clic para ampliar).

Dada una matriz de rotación R de 3 × 3 , un vector u paralelo al eje de rotación debe satisfacer

R u = u , {\displaystyle R\mathbf {u} =\mathbf {u} ,}

ya que la rotación de u alrededor del eje de rotación debe dar como resultado u . La ecuación anterior se puede resolver para u , que es único hasta un factor escalar a menos que R = I .

Además, la ecuación puede reescribirse

R u = I u ( R I ) u = 0 , {\displaystyle R\mathbf {u} =I\mathbf {u} \implies \left(R-I\right)\mathbf {u} =0,}

lo que demuestra que u se encuentra en el espacio nulo de RI .

Visto de otra manera, u es un vector propio de R correspondiente al valor propio λ = 1. Toda matriz de rotación debe tener este valor propio, siendo los otros dos valores propios conjugados complejos entre sí. De ello se deduce que una matriz de rotación general en tres dimensiones tiene, salvo una constante multiplicativa, un solo vector propio real.

Una forma de determinar el eje de rotación es demostrando que:

0 = R T 0 + 0 = R T ( R I ) u + ( R I ) u = ( R T R R T + R I ) u = ( I R T + R I ) u = ( R R T ) u {\displaystyle {\begin{aligned}0&=R^{\mathsf {T}}0+0\\&=R^{\mathsf {T}}\left(R-I\right)\mathbf {u} +\left(R-I\right)\mathbf {u} \\&=\left(R^{\mathsf {T}}R-R^{\mathsf {T}}+R-I\right)\mathbf {u} \\&=\left(I-R^{\mathsf {T}}+R-I\right)\mathbf {u} \\&=\left(R-R^{\mathsf {T}}\right)\mathbf {u} \end{aligned}}}

Dado que ( RR T ) es una matriz antisimétrica , podemos elegir u tal que

[ u ] × = ( R R T ) . {\displaystyle [\mathbf {u} ]_{\times }=\left(R-R^{\mathsf {T}}\right).}

El producto matriz-vector se convierte en un producto vectorial de un vector consigo mismo, lo que garantiza que el resultado sea cero:

( R R T ) u = [ u ] × u = u × u = 0 {\displaystyle \left(R-R^{\mathsf {T}}\right)\mathbf {u} =[\mathbf {u} ]_{\times }\mathbf {u} =\mathbf {u} \times \mathbf {u} =0\,}

Por lo tanto, si

R = [ a b c d e f g h i ] , {\displaystyle R={\begin{bmatrix}a&b&c\\d&e&f\\g&h&i\\\end{bmatrix}},}

entonces

u = [ h f c g d b ] . {\displaystyle \mathbf {u} ={\begin{bmatrix}h-f\\c-g\\d-b\\\end{bmatrix}}.}

La magnitud de u calculada de esta manera es u ‖ = 2 sen θ , donde θ es el ángulo de rotación.

Esto no funciona si R es simétrico. En el caso anterior, si RR T es cero, todos los pasos subsiguientes son inválidos. En este caso, es necesario diagonalizar R y encontrar el vector propio correspondiente a un valor propio de 1.

Determinación del ángulo

Para hallar el ángulo de una rotación, una vez conocido el eje de rotación, se selecciona un vector v perpendicular al eje. Entonces el ángulo de rotación es el ángulo entre v y R v .

Sin embargo, un método más directo consiste en calcular simplemente la traza : la suma de los elementos diagonales de la matriz de rotación. Se debe tener cuidado de seleccionar el signo correcto para el ángulo θ para que coincida con el eje elegido:

tr ( R ) = 1 + 2 cos θ , {\displaystyle \operatorname {tr} (R)=1+2\cos \theta ,}

de lo cual se deduce que el valor absoluto del ángulo es

| θ | = arccos ( tr ( R ) 1 2 ) . {\displaystyle |\theta |=\arccos \left({\frac {\operatorname {tr} (R)-1}{2}}\right).}

Para el eje de rotación , puede obtener el ángulo correcto [4] a partir de n = ( n 1 , n 2 , n 3 ) {\displaystyle \mathbf {n} =(n_{1},n_{2},n_{3})}

{ cos θ = tr ( R ) 1 2 sin θ = tr ( K n R ) 2 {\displaystyle \left\{{\begin{matrix}\cos \theta &=&{\dfrac {\operatorname {tr} (R)-1}{2}}\\\sin \theta &=&-{\dfrac {\operatorname {tr} (K_{n}R)}{2}}\end{matrix}}\right.}

dónde

K n = [ 0 n 3 n 2 n 3 0 n 1 n 2 n 1 0 ] {\displaystyle K_{n}={\begin{bmatrix}0&-n_{3}&n_{2}\\n_{3}&0&-n_{1}\\-n_{2}&n_{1}&0\\\end{bmatrix}}}

Matriz de rotación a partir del eje y el ángulo

La matriz de una rotación propia R por un ángulo θ alrededor del eje u = ( u x , u y , u z ) , un vector unitario con u2x
+ 2
años
+ 2z
= 1
, viene dado por: [5] [6] [7] [8]

R = [ u x 2 ( 1 cos θ ) + cos θ u x u y ( 1 cos θ ) u z sin θ u x u z ( 1 cos θ ) + u y sin θ u x u y ( 1 cos θ ) + u z sin θ u y 2 ( 1 cos θ ) + cos θ u y u z ( 1 cos θ ) u x sin θ u x u z ( 1 cos θ ) u y sin θ u y u z ( 1 cos θ ) + u x sin θ u z 2 ( 1 cos θ ) + cos θ ] . {\displaystyle R={\begin{bmatrix}u_{x}^{2}\left(1-\cos \theta \right)+\cos \theta &u_{x}u_{y}\left(1-\cos \theta \right)-u_{z}\sin \theta &u_{x}u_{z}\left(1-\cos \theta \right)+u_{y}\sin \theta \\u_{x}u_{y}\left(1-\cos \theta \right)+u_{z}\sin \theta &u_{y}^{2}\left(1-\cos \theta \right)+\cos \theta &u_{y}u_{z}\left(1-\cos \theta \right)-u_{x}\sin \theta \\u_{x}u_{z}\left(1-\cos \theta \right)-u_{y}\sin \theta &u_{y}u_{z}\left(1-\cos \theta \right)+u_{x}\sin \theta &u_{z}^{2}\left(1-\cos \theta \right)+\cos \theta \end{bmatrix}}.}

Una derivación de esta matriz a partir de los primeros principios se puede encontrar en la sección 9.2 aquí. [9] La idea básica para derivar esta matriz es dividir el problema en unos pocos pasos simples conocidos.

  1. Primero gire el eje dado y el punto de manera que el eje se encuentre en uno de los planos de coordenadas ( xy , yz o zx ).
  2. Luego, gire el eje dado y el punto de manera que el eje esté alineado con uno de los dos ejes de coordenadas para ese plano de coordenadas en particular ( x , y o z ).
  3. Utilice una de las matrices de rotación fundamentales para rotar el punto dependiendo del eje de coordenadas con el que está alineado el eje de rotación.
  4. Gire en sentido inverso el par eje-punto de modo que alcance la configuración final que tenía en el paso 2 (deshaciendo el paso 2)
  5. Gire en sentido inverso el par eje-punto que se realizó en el paso 1 (deshaciendo el paso 1)

Esto se puede escribir de forma más concisa como [10]

R = ( cos θ ) I + ( sin θ ) [ u ] × + ( 1 cos θ ) ( u u ) , {\displaystyle R=(\cos \theta )\,I+(\sin \theta )\,[\mathbf {u} ]_{\times }+(1-\cos \theta )\,(\mathbf {u} \otimes \mathbf {u} ),}

donde [ u ] × es la matriz de producto vectorial de u ; la expresión uu es el producto externo e I es la matriz identidad . Alternativamente, las entradas de la matriz son:

R j k = { cos 2 θ 2 + sin 2 θ 2 ( 2 u j 2 1 ) , if  j = k 2 u j u k sin 2 θ 2 ε j k l u l sin θ , if  j k {\displaystyle R_{jk}={\begin{cases}\cos ^{2}{\frac {\theta }{2}}+\sin ^{2}{\frac {\theta }{2}}\left(2u_{j}^{2}-1\right),\quad &{\text{if }}j=k\\2u_{j}u_{k}\sin ^{2}{\frac {\theta }{2}}-\varepsilon _{jkl}u_{l}\sin \theta ,\quad &{\text{if }}j\neq k\end{cases}}}

donde ε jkl es el símbolo de Levi-Civita con ε 123 = 1. Esta es una forma matricial de la fórmula de rotación de Rodrigues (o la fórmula de Euler-Rodrigues equivalente, parametrizada de manera diferente ) con [nb 2]

u u = u u T = [ u x 2 u x u y u x u z u x u y u y 2 u y u z u x u z u y u z u z 2 ] , [ u ] × = [ 0 u z u y u z 0 u x u y u x 0 ] . {\displaystyle \mathbf {u} \otimes \mathbf {u} =\mathbf {u} \mathbf {u} ^{\mathsf {T}}={\begin{bmatrix}u_{x}^{2}&u_{x}u_{y}&u_{x}u_{z}\\[3pt]u_{x}u_{y}&u_{y}^{2}&u_{y}u_{z}\\[3pt]u_{x}u_{z}&u_{y}u_{z}&u_{z}^{2}\end{bmatrix}},\qquad [\mathbf {u} ]_{\times }={\begin{bmatrix}0&-u_{z}&u_{y}\\[3pt]u_{z}&0&-u_{x}\\[3pt]-u_{y}&u_{x}&0\end{bmatrix}}.}

En la rotación de un vector x alrededor del eje u un ángulo θ se puede escribir como: R 3 {\displaystyle \mathbb {R} ^{3}}

R u ( θ ) x = u ( u x ) + cos ( θ ) ( u × x ) × u + sin ( θ ) ( u × x ) {\displaystyle R_{\mathbf {u} }(\theta )\mathbf {x} =\mathbf {u} (\mathbf {u} \cdot \mathbf {x} )+\cos \left(\theta \right)(\mathbf {u} \times \mathbf {x} )\times \mathbf {u} +\sin \left(\theta \right)(\mathbf {u} \times \mathbf {x} )}

o equivalentemente:

R u ( θ ) x = x cos ( θ ) + u ( x u ) ( 1 cos ( θ ) ) x × u sin θ {\displaystyle R_{\mathbf {u} }(\theta )\mathbf {x} =\mathbf {x} \cos(\theta )+\mathbf {u} (\mathbf {x} \cdot \mathbf {u} )(1-\cos(\theta ))-\mathbf {x} \times \mathbf {u} \sin {\theta }}

Esto también se puede escribir en notación tensorial como: [11]

( R u ( θ ) x ) i = ( R u ( θ ) ) i j x j with ( R u ( θ ) ) i j = δ i j cos ( θ ) + u i u j ( 1 cos ( θ ) ) sin θ ε i j k u k {\displaystyle (R_{\mathbf {u} }(\theta )\mathbf {x} )_{i}=(R_{\mathbf {u} }(\theta ))_{ij}{\mathbf {x} }_{j}\quad {\text{with}}\quad (R_{\mathbf {u} }(\theta ))_{ij}=\delta _{ij}\cos(\theta )+\mathbf {u} _{i}\mathbf {u} _{j}(1-\cos(\theta ))-\sin {\theta }\varepsilon _{ijk}\mathbf {u} _{k}}

Si el espacio 3D es dextrógiro y θ > 0 , esta rotación será en sentido antihorario cuando u apunte hacia el observador ( regla de la mano derecha ). Explícitamente, con una base ortonormal dextrógira, ( α , β , u ) {\displaystyle ({\boldsymbol {\alpha }},{\boldsymbol {\beta }},\mathbf {u} )}

R u ( θ ) α = cos ( θ ) α + sin ( θ ) β , R u ( θ ) β = sin ( θ ) α + cos ( θ ) β , R u ( θ ) u = u . {\displaystyle R_{\mathbf {u} }(\theta ){\boldsymbol {\alpha }}=\cos \left(\theta \right){\boldsymbol {\alpha }}+\sin \left(\theta \right){\boldsymbol {\beta }},\quad R_{\mathbf {u} }(\theta ){\boldsymbol {\beta }}=-\sin \left(\theta \right){\boldsymbol {\alpha }}+\cos \left(\theta \right){\boldsymbol {\beta }},\quad R_{\mathbf {u} }(\theta )\mathbf {u} =\mathbf {u} .}

Obsérvense las sorprendentes diferencias, meramente aparentes, con la formulación algebraica de Lie equivalente que aparece a continuación.

Propiedades

Para cualquier matriz de rotación n -dimensional R que actúa sobre R n , {\displaystyle \mathbb {R} ^{n},}

R T = R 1 {\displaystyle R^{\mathsf {T}}=R^{-1}} (La rotación es una matriz ortogonal )

Resulta que:

det R = ± 1 {\displaystyle \det R=\pm 1}

Una rotación se denomina propia si det R = 1 , e impropia (o roto-reflexión) si det R = –1 . Para dimensiones pares n = 2 k , los n valores propios λ de una rotación propia ocurren como pares de conjugados complejos que son raíces de la unidad: λ = e ± j para j = 1, ..., k , que es real solo para λ = ±1 . Por lo tanto, puede que no haya vectores fijados por la rotación ( λ = 1 ), y por lo tanto no hay eje de rotación. Cualquier vector propio fijo ocurre en pares, y el eje de rotación es un subespacio de dimensión par.

Para dimensiones impares n = 2 k + 1 , una rotación propia R tendrá un número impar de valores propios, con al menos un λ = 1 y el eje de rotación será un subespacio de dimensión impar. Demostración:

det ( R I ) = det ( R T ) det ( R I ) = det ( R T R R T ) = det ( I R T ) = det ( I R ) = ( 1 ) n det ( R I ) = det ( R I ) . {\displaystyle {\begin{aligned}\det \left(R-I\right)&=\det \left(R^{\mathsf {T}}\right)\det \left(R-I\right)=\det \left(R^{\mathsf {T}}R-R^{\mathsf {T}}\right)=\det \left(I-R^{\mathsf {T}}\right)\\&=\det(I-R)=\left(-1\right)^{n}\det \left(R-I\right)=-\det \left(R-I\right).\end{aligned}}}

Aquí I es la matriz identidad, y usamos det( R T ) = det( R ) = 1 , así como (−1) n = −1 ya que n es impar. Por lo tanto, det( RI ) = 0 , lo que significa que hay un vector distinto de cero v con ( R – I ) v = 0 , es decir R v = v , un vector propio fijo. También puede haber pares de vectores propios fijos en el subespacio de dimensión par ortogonal a v , por lo que la dimensión total de los vectores propios fijos es impar.

Por ejemplo, en el 2-espacio n = 2 , una rotación por un ángulo θ tiene valores propios λ = e y λ = e , por lo que no hay eje de rotación excepto cuando θ = 0 , el caso de la rotación nula. En el 3-espacio n = 3 , el eje de una rotación propia no nula es siempre una línea única, y una rotación alrededor de este eje por un ángulo θ tiene valores propios λ = 1, e , e . En el 4-espacio n = 4 , los cuatro valores propios son de la forma e ± , e ± . La rotación nula tiene θ = φ = 0 . El caso de θ = 0, φ ≠ 0 se denomina rotación simple , con dos valores propios unitarios que forman un plano de eje , y una rotación bidimensional ortogonal al plano de eje. De lo contrario, no hay plano de eje. El caso de θ = φ se denomina rotación isoclínica , que tiene valores propios e ± repetidos dos veces, por lo que cada vector rota un ángulo θ .

La traza de una matriz de rotación es igual a la suma de sus valores propios. Para n = 2 , una rotación en un ángulo θ tiene una traza 2 cos θ . Para n = 3 , una rotación alrededor de cualquier eje en un ángulo θ tiene una traza 1 + 2 cos θ . Para n = 4 , la traza es 2(cos θ + cos φ ) , que se convierte en 4 cos θ para una rotación isoclínica.

Ejemplos

Geometría

En geometría euclidiana , una rotación es un ejemplo de isometría , una transformación que mueve puntos sin cambiar las distancias entre ellos. Las rotaciones se distinguen de otras isometrías por dos propiedades adicionales: dejan (al menos) un punto fijo y dejan la " lateralidad " sin cambios. Por el contrario, una traslación mueve todos los puntos, una reflexión intercambia el orden hacia la izquierda y hacia la derecha, una reflexión de deslizamiento hace ambas cosas y una rotación impropia combina un cambio en la lateralidad con una rotación normal.

Si se toma un punto fijo como origen de un sistema de coordenadas cartesianas , entonces a cada punto se le pueden dar coordenadas como un desplazamiento desde el origen. De este modo, se puede trabajar con el espacio vectorial de desplazamientos en lugar de con los puntos mismos. Ahora supongamos que ( p 1 , ..., p n ) son las coordenadas del vector p desde el origen O hasta el punto P . Elijamos una base ortonormal para nuestras coordenadas; entonces, la distancia al cuadrado a P , según Pitágoras , es

d 2 ( O , P ) = p 2 = r = 1 n p r 2 {\displaystyle d^{2}(O,P)=\|\mathbf {p} \|^{2}=\sum _{r=1}^{n}p_{r}^{2}}

que se puede calcular mediante la multiplicación de matrices

p 2 = [ p 1 p n ] [ p 1 p n ] = p T p . {\displaystyle \|\mathbf {p} \|^{2}={\begin{bmatrix}p_{1}\cdots p_{n}\end{bmatrix}}{\begin{bmatrix}p_{1}\\\vdots \\p_{n}\end{bmatrix}}=\mathbf {p} ^{\mathsf {T}}\mathbf {p} .}

Una rotación geométrica transforma las líneas en líneas y conserva las razones de las distancias entre los puntos. A partir de estas propiedades se puede demostrar que una rotación es una transformación lineal de los vectores y, por lo tanto, se puede escribir en forma matricial , Q p . El hecho de que una rotación conserve, no solo las razones, sino también las distancias mismas, se enuncia como

p T p = ( Q p ) T ( Q p ) , {\displaystyle \mathbf {p} ^{\mathsf {T}}\mathbf {p} =(Q\mathbf {p} )^{\mathsf {T}}(Q\mathbf {p} ),}

o

p T I p = ( p T Q T ) ( Q p ) = p T ( Q T Q ) p . {\displaystyle {\begin{aligned}\mathbf {p} ^{\mathsf {T}}I\mathbf {p} &{}=\left(\mathbf {p} ^{\mathsf {T}}Q^{\mathsf {T}}\right)(Q\mathbf {p} )\\&{}=\mathbf {p} ^{\mathsf {T}}\left(Q^{\mathsf {T}}Q\right)\mathbf {p} .\end{aligned}}}

Como esta ecuación es válida para todos los vectores, p , se concluye que cada matriz de rotación, Q , satisface la condición de ortogonalidad ,

Q T Q = I . {\displaystyle Q^{\mathsf {T}}Q=I.}

Las rotaciones preservan la lateralidad porque no pueden cambiar el orden de los ejes, lo que implica la condición especial de la matriz ,

det Q = + 1. {\displaystyle \det Q=+1.}

Igualmente importante es que se puede demostrar que cualquier matriz que satisfaga estas dos condiciones actúa como una rotación.

Multiplicación

La inversa de una matriz de rotación es su transpuesta, que también es una matriz de rotación:

( Q T ) T ( Q T ) = Q Q T = I det Q T = det Q = + 1. {\displaystyle {\begin{aligned}\left(Q^{\mathsf {T}}\right)^{\mathsf {T}}\left(Q^{\mathsf {T}}\right)&=QQ^{\mathsf {T}}=I\\\det Q^{\mathsf {T}}&=\det Q=+1.\end{aligned}}}

El producto de dos matrices de rotación es una matriz de rotación:

( Q 1 Q 2 ) T ( Q 1 Q 2 ) = Q 2 T ( Q 1 T Q 1 ) Q 2 = I det ( Q 1 Q 2 ) = ( det Q 1 ) ( det Q 2 ) = + 1. {\displaystyle {\begin{aligned}\left(Q_{1}Q_{2}\right)^{\mathsf {T}}\left(Q_{1}Q_{2}\right)&=Q_{2}^{\mathsf {T}}\left(Q_{1}^{\mathsf {T}}Q_{1}\right)Q_{2}=I\\\det \left(Q_{1}Q_{2}\right)&=\left(\det Q_{1}\right)\left(\det Q_{2}\right)=+1.\end{aligned}}}

Para n > 2 , la multiplicación de matrices de rotación n × n generalmente no es conmutativa .

Q 1 = [ 0 1 0 1 0 0 0 0 1 ] Q 2 = [ 0 0 1 0 1 0 1 0 0 ] Q 1 Q 2 = [ 0 1 0 0 0 1 1 0 0 ] Q 2 Q 1 = [ 0 0 1 1 0 0 0 1 0 ] . {\displaystyle {\begin{aligned}Q_{1}&={\begin{bmatrix}0&-1&0\\1&0&0\\0&0&1\end{bmatrix}}&Q_{2}&={\begin{bmatrix}0&0&1\\0&1&0\\-1&0&0\end{bmatrix}}\\Q_{1}Q_{2}&={\begin{bmatrix}0&-1&0\\0&0&1\\-1&0&0\end{bmatrix}}&Q_{2}Q_{1}&={\begin{bmatrix}0&0&1\\1&0&0\\0&1&0\end{bmatrix}}.\end{aligned}}}

Observando que cualquier matriz identidad es una matriz de rotación, y que la multiplicación de matrices es asociativa , podemos resumir todas estas propiedades diciendo que las matrices de rotación n × n forman un grupo , que para n > 2 es no abeliano , llamado grupo ortogonal especial , y denotado por SO( n ) , SO( n , R ) , SO n o SO n ( R ) , el grupo de matrices de rotación n × n es isomorfo al grupo de rotaciones en un espacio n -dimensional . Esto significa que la multiplicación de matrices de rotación corresponde a la composición de rotaciones, aplicada en orden de izquierda a derecha de sus matrices correspondientes.

Ambigüedades

Rotaciones de alias y coartadas

La interpretación de una matriz de rotación puede estar sujeta a muchas ambigüedades.

En la mayoría de los casos el efecto de la ambigüedad es equivalente al efecto de una inversión de la matriz de rotación (para estas matrices ortogonales es equivalente la matriz transpuesta ).

Transformación de alias o coartada (pasiva o activa)
Las coordenadas de un punto P pueden cambiar debido a una rotación del sistema de coordenadas CS ( alias ), o una rotación del punto P ( alibi ). En este último caso, la rotación de P también produce una rotación del vector v que representa a P. En otras palabras, o bien P y v son fijos mientras CS rota (alias), o bien CS es fijo mientras P y v rotan (alibi). Cualquier rotación dada puede describirse legítimamente de ambas formas, ya que los vectores y los sistemas de coordenadas en realidad rotan entre sí, alrededor del mismo eje pero en direcciones opuestas. A lo largo de este artículo, elegimos el enfoque alibi para describir las rotaciones. Por ejemplo,
R ( θ ) = [ cos θ sin θ sin θ cos θ ] {\displaystyle R(\theta )={\begin{bmatrix}\cos \theta &-\sin \theta \\\sin \theta &\cos \theta \\\end{bmatrix}}}
representa una rotación en sentido antihorario de un vector v en un ángulo θ , o una rotación de CS en el mismo ángulo pero en la dirección opuesta (es decir, en el sentido de las agujas del reloj). Las transformaciones de coartada y alias también se conocen como transformaciones activas y pasivas , respectivamente.
Pre-multiplicación o post-multiplicación
El mismo punto P puede representarse mediante un vector columna v o un vector fila w . Las matrices de rotación pueden premultiplicar los vectores columna ( R v ), o posmultiplicar los vectores fila ( w R ). Sin embargo, R v produce una rotación en la dirección opuesta con respecto a w R . A lo largo de este artículo, las rotaciones producidas en vectores columna se describen mediante una premultiplicación. Para obtener exactamente la misma rotación (es decir, las mismas coordenadas finales del punto P ), el vector fila equivalente debe posmultiplicarse por la transpuesta de R (es decir, w R T ).
Coordenadas para diestros o zurdos
La matriz y el vector se pueden representar con respecto a un sistema de coordenadas dextrógiro o levógiro. A lo largo del artículo, asumimos una orientación dextrógira, a menos que se especifique lo contrario.
Vectores o formas
El espacio vectorial tiene un espacio dual de formas lineales , y la matriz puede actuar sobre vectores o formas.

Descomposiciones

Aviones independientes

Considere la matriz de rotación 3 × 3

Q = [ 0.36 0.48 0.80 0.80 0.60 0.00 0.48 0.64 0.60 ] . {\displaystyle Q={\begin{bmatrix}0.36&0.48&-0.80\\-0.80&0.60&0.00\\0.48&0.64&0.60\end{bmatrix}}.}

Si Q actúa en una determinada dirección, v , puramente como una escala por un factor λ , entonces tenemos

Q v = λ v , {\displaystyle Q\mathbf {v} =\lambda \mathbf {v} ,}

de modo que

0 = ( λ I Q ) v . {\displaystyle \mathbf {0} =(\lambda I-Q)\mathbf {v} .}

Por lo tanto, λ es una raíz del polinomio característico de Q ,

0 = det ( λ I Q ) = λ 3 39 25 λ 2 + 39 25 λ 1 = ( λ 1 ) ( λ 2 14 25 λ + 1 ) . {\displaystyle {\begin{aligned}0&{}=\det(\lambda I-Q)\\&{}=\lambda ^{3}-{\tfrac {39}{25}}\lambda ^{2}+{\tfrac {39}{25}}\lambda -1\\&{}=(\lambda -1)\left(\lambda ^{2}-{\tfrac {14}{25}}\lambda +1\right).\end{aligned}}}

Dos características son dignas de mención. Primero, una de las raíces (o valores propios ) es 1, lo que nos dice que alguna dirección no se ve afectada por la matriz. Para rotaciones en tres dimensiones, este es el eje de la rotación (un concepto que no tiene significado en ninguna otra dimensión). Segundo, las otras dos raíces son un par de conjugados complejos, cuyo producto es 1 (el término constante de la cuadrática), y cuya suma es 2 cos θ (el término lineal negado). Esta factorización es de interés para matrices de rotación 3 × 3 porque ocurre lo mismo para todas ellas. (Como casos especiales, para una rotación nula los "conjugados complejos" son ambos 1, y para una rotación de 180° son ambos −1.) Además, una factorización similar se cumple para cualquier matriz de rotación n × n . Si la dimensión, n , es impar, habrá un valor propio "colgando" de 1; y para cualquier dimensión el resto de los factores polinomiales en términos cuadráticos como el de aquí (con los dos casos especiales anotados). Tenemos la garantía de que el polinomio característico tendrá grado n y por lo tanto n valores propios. Y como una matriz de rotación conmuta con su transpuesta, es una matriz normal , por lo que se puede diagonalizar. Concluimos que toda matriz de rotación, cuando se expresa en un sistema de coordenadas adecuado, se divide en rotaciones independientes de subespacios bidimensionales, como máximo norte/2 de ellos.

La suma de las entradas en la diagonal principal de una matriz se llama traza ; no cambia si reorientamos el sistema de coordenadas, y siempre es igual a la suma de los valores propios. Esto tiene la implicación conveniente para las matrices de rotación 2 × 2 y 3 × 3 de que la traza revela el ángulo de rotación , θ , en el espacio bidimensional (o subespacio). Para una matriz 2 × 2 la traza es 2 cos θ , y para una matriz 3 × 3 es 1 + 2 cos θ . En el caso tridimensional, el subespacio consiste en todos los vectores perpendiculares al eje de rotación (la dirección invariante, con valor propio 1). Por lo tanto, podemos extraer de cualquier matriz de rotación 3 × 3 un eje de rotación y un ángulo, y estos determinan completamente la rotación.

Ángulos secuenciales

Las restricciones de una matriz de rotación 2 × 2 implican que debe tener la forma

Q = [ a b b a ] {\displaystyle Q={\begin{bmatrix}a&-b\\b&a\end{bmatrix}}}

con a 2 + b 2 = 1 . Por lo tanto, podemos establecer a = cos θ y b = sen θ , para algún ángulo θ . Para resolver θ no es suficiente observar a solo o b solo; debemos considerar ambos juntos para colocar el ángulo en el cuadrante correcto , utilizando una función arcotangente de dos argumentos .

Ahora consideremos la primera columna de una matriz de rotación de 3 × 3 ,

[ a b c ] . {\displaystyle {\begin{bmatrix}a\\b\\c\end{bmatrix}}.}

Aunque a 2 + b 2 probablemente no será igual a 1, sino algún valor r 2 < 1 , podemos usar una ligera variación del cálculo anterior para encontrar una llamada rotación de Givens que transforma la columna a

[ r 0 c ] , {\displaystyle {\begin{bmatrix}r\\0\\c\end{bmatrix}},}

Poniendo a cero b . Esto actúa sobre el subespacio abarcado por los ejes x e y . Podemos repetir el proceso para el subespacio xz hasta poner a cero c . Al actuar sobre la matriz completa, estas dos rotaciones producen la forma esquemática

Q x z Q x y Q = [ 1 0 0 0 0 ] . {\displaystyle Q_{xz}Q_{xy}Q={\begin{bmatrix}1&0&0\\0&\ast &\ast \\0&\ast &\ast \end{bmatrix}}.}

Si nos centramos en la segunda columna, una rotación de Givens del subespacio yz puede ahora poner a cero el valor z . Esto hace que la matriz completa adopte la forma

Q y z Q x z Q x y Q = [ 1 0 0 0 1 0 0 0 1 ] , {\displaystyle Q_{yz}Q_{xz}Q_{xy}Q={\begin{bmatrix}1&0&0\\0&1&0\\0&0&1\end{bmatrix}},}

que es una matriz identidad. Por lo tanto, hemos descompuesto Q como

Q = Q x y 1 Q x z 1 Q y z 1 . {\displaystyle Q=Q_{xy}^{-1}Q_{xz}^{-1}Q_{yz}^{-1}.}

Una matriz de rotación n × n tendrá ( n − 1) + ( n − 2) + ⋯ + 2 + 1 , o

k = 1 n 1 k = 1 2 n ( n 1 ) {\displaystyle \sum _{k=1}^{n-1}k={\frac {1}{2}}n(n-1)}

entradas debajo de la diagonal a cero. Podemos ponerlas a cero extendiendo la misma idea de recorrer las columnas con una serie de rotaciones en una secuencia fija de planos. Concluimos que el conjunto de matrices de rotación n × n , cada una de las cuales tiene n 2 entradas, se puede parametrizar mediante 1/2n ( n − 1) ángulos.

xzxwxzy wxyx wxyzw
yxy wyxzwyzy wyzx con
zyz wzyx conzxzwzxy w
xzx byzxbxyx bzyx b
yxy bzxy byzy bxzy b
Sí, bxyzbzxzbyxzb

En tres dimensiones, esto replantea en forma matricial una observación hecha por Euler , por lo que los matemáticos llaman a la secuencia ordenada de tres ángulos ángulos de Euler . Sin embargo, la situación es algo más complicada de lo que hemos indicado hasta ahora. A pesar de la pequeña dimensión, en realidad tenemos una libertad considerable en la secuencia de pares de ejes que usamos; y también tenemos cierta libertad en la elección de los ángulos. Por lo tanto, encontramos muchas convenciones diferentes empleadas cuando se parametrizan rotaciones tridimensionales para física, o medicina, o química, u otras disciplinas. Cuando incluimos la opción de ejes del mundo o ejes del cuerpo, son posibles 24 secuencias diferentes. Y mientras que algunas disciplinas llaman a cualquier secuencia ángulos de Euler, otras dan nombres diferentes (Cardano, Tait–Bryan, balanceo-cabeceo-guiñada ) a diferentes secuencias.

Una razón para la gran cantidad de opciones es que, como se señaló anteriormente, las rotaciones en tres dimensiones (y superiores) no conmutan. Si invertimos una secuencia dada de rotaciones, obtenemos un resultado diferente. Esto también implica que no podemos componer dos rotaciones sumando sus ángulos correspondientes. Por lo tanto, los ángulos de Euler no son vectores , a pesar de una similitud en apariencia como un triplete de números.

Dimensiones anidadas

Una matriz de rotación de 3 × 3 como

Q 3 × 3 = [ cos θ sin θ 0 sin θ cos θ 0 0 0 1 ] {\displaystyle Q_{3\times 3}={\begin{bmatrix}\cos \theta &-\sin \theta &{\color {CadetBlue}0}\\\sin \theta &\cos \theta &{\color {CadetBlue}0}\\{\color {CadetBlue}0}&{\color {CadetBlue}0}&{\color {CadetBlue}1}\end{bmatrix}}}

sugiere una matriz de rotación de 2 × 2 ,

Q 2 × 2 = [ cos θ sin θ sin θ cos θ ] , {\displaystyle Q_{2\times 2}={\begin{bmatrix}\cos \theta &-\sin \theta \\\sin \theta &\cos \theta \end{bmatrix}},}

Está incrustado en la esquina superior izquierda:

Q 3 × 3 = [ Q 2 × 2 0 0 T 1 ] . {\displaystyle Q_{3\times 3}=\left[{\begin{matrix}Q_{2\times 2}&\mathbf {0} \\\mathbf {0} ^{\mathsf {T}}&1\end{matrix}}\right].}

Esto no es una ilusión; no sólo una, sino muchas copias de rotaciones n -dimensionales se encuentran dentro de rotaciones ( n + 1) -dimensionales, como subgrupos . Cada incrustación deja una dirección fija, que en el caso de matrices 3 × 3 es el eje de rotación. Por ejemplo, tenemos

Q x ( θ ) = [ 1 0 0 0 cos θ sin θ 0 sin θ cos θ ] , Q y ( θ ) = [ cos θ 0 sin θ 0 1 0 sin θ 0 cos θ ] , Q z ( θ ) = [ cos θ sin θ 0 sin θ cos θ 0 0 0 1 ] , {\displaystyle {\begin{aligned}Q_{\mathbf {x} }(\theta )&={\begin{bmatrix}{\color {CadetBlue}1}&{\color {CadetBlue}0}&{\color {CadetBlue}0}\\{\color {CadetBlue}0}&\cos \theta &-\sin \theta \\{\color {CadetBlue}0}&\sin \theta &\cos \theta \end{bmatrix}},\\[8px]Q_{\mathbf {y} }(\theta )&={\begin{bmatrix}\cos \theta &{\color {CadetBlue}0}&\sin \theta \\{\color {CadetBlue}0}&{\color {CadetBlue}1}&{\color {CadetBlue}0}\\-\sin \theta &{\color {CadetBlue}0}&\cos \theta \end{bmatrix}},\\[8px]Q_{\mathbf {z} }(\theta )&={\begin{bmatrix}\cos \theta &-\sin \theta &{\color {CadetBlue}0}\\\sin \theta &\cos \theta &{\color {CadetBlue}0}\\{\color {CadetBlue}0}&{\color {CadetBlue}0}&{\color {CadetBlue}1}\end{bmatrix}},\end{aligned}}}

fijando el eje x , el eje y y el eje z , respectivamente. El eje de rotación no necesita ser un eje de coordenadas; si u = ( x , y , z ) es un vector unitario en la dirección deseada, entonces

Q u ( θ ) = [ 0 z y z 0 x y x 0 ] sin θ + ( I u u T ) cos θ + u u T = [ ( 1 x 2 ) c θ + x 2 z s θ x y c θ + x y y s θ x z c θ + x z z s θ x y c θ + x y ( 1 y 2 ) c θ + y 2 x s θ y z c θ + y z y s θ x z c θ + x z x s θ y z c θ + y z ( 1 z 2 ) c θ + z 2 ] = [ x 2 ( 1 c θ ) + c θ x y ( 1 c θ ) z s θ x z ( 1 c θ ) + y s θ x y ( 1 c θ ) + z s θ y 2 ( 1 c θ ) + c θ y z ( 1 c θ ) x s θ x z ( 1 c θ ) y s θ y z ( 1 c θ ) + x s θ z 2 ( 1 c θ ) + c θ ] , {\displaystyle {\begin{aligned}Q_{\mathbf {u} }(\theta )&={\begin{bmatrix}0&-z&y\\z&0&-x\\-y&x&0\end{bmatrix}}\sin \theta +\left(I-\mathbf {u} \mathbf {u} ^{\mathsf {T}}\right)\cos \theta +\mathbf {u} \mathbf {u} ^{\mathsf {T}}\\[8px]&={\begin{bmatrix}\left(1-x^{2}\right)c_{\theta }+x^{2}&-zs_{\theta }-xyc_{\theta }+xy&ys_{\theta }-xzc_{\theta }+xz\\zs_{\theta }-xyc_{\theta }+xy&\left(1-y^{2}\right)c_{\theta }+y^{2}&-xs_{\theta }-yzc_{\theta }+yz\\-ys_{\theta }-xzc_{\theta }+xz&xs_{\theta }-yzc_{\theta }+yz&\left(1-z^{2}\right)c_{\theta }+z^{2}\end{bmatrix}}\\[8px]&={\begin{bmatrix}x^{2}(1-c_{\theta })+c_{\theta }&xy(1-c_{\theta })-zs_{\theta }&xz(1-c_{\theta })+ys_{\theta }\\xy(1-c_{\theta })+zs_{\theta }&y^{2}(1-c_{\theta })+c_{\theta }&yz(1-c_{\theta })-xs_{\theta }\\xz(1-c_{\theta })-ys_{\theta }&yz(1-c_{\theta })+xs_{\theta }&z^{2}(1-c_{\theta })+c_{\theta }\end{bmatrix}},\end{aligned}}}

donde c θ = cos θ , s θ = sin θ , es una rotación de ángulo θ dejando fijo el eje u .

Una dirección en un espacio de dimensión ( n + 1) será un vector de magnitud unitaria, que podemos considerar un punto en una esfera generalizada, S n . Por lo tanto, es natural describir el grupo de rotación SO( n + 1) como una combinación de SO( n ) y S n . Un formalismo adecuado es el fibrado ,

S O ( n ) S O ( n + 1 ) S n , {\displaystyle SO(n)\hookrightarrow SO(n+1)\to S^{n},}

donde para cada dirección en el espacio base, S n , la fibra sobre ella en el espacio total, SO( n + 1) , es una copia del espacio de la fibra, SO( n ) , es decir, las rotaciones que mantienen fija esa dirección.

Así, podemos construir una matriz de rotación n × n comenzando con una matriz 2 × 2 , apuntando su eje fijo a S 2 (la esfera ordinaria en el espacio tridimensional), apuntando la rotación resultante a S 3 , y así sucesivamente hasta S n −1 . Se puede seleccionar un punto en S n usando n números, por lo que nuevamente tenemos 1/2n ( n − 1) números para describir cualquiermatriz de rotación n × n .

De hecho, podemos considerar la descomposición angular secuencial, analizada previamente, como una inversión de este proceso. La composición de n − 1 rotaciones de Givens lleva la primera columna (y fila) a (1, 0, ..., 0) , de modo que el resto de la matriz es una matriz de rotación de dimensión uno menos, incrustada de modo que (1, 0, ..., 0) quede fija.

Parámetros de sesgo mediante la fórmula de Cayley

Cuando una matriz de rotación n × n Q , no incluye un valor propio −1, por lo que ninguna de las rotaciones planares que comprende son rotaciones de 180°, entonces Q + I es una matriz invertible . La mayoría de las matrices de rotación se ajustan a esta descripción, y para ellas se puede demostrar que ( QI )( Q + I ) −1 es una matriz antisimétrica , A . Por lo tanto A T = − A ; y dado que la diagonal es necesariamente cero, y dado que el triángulo superior determina el inferior, A contiene 1/2n ( n − 1) números independientes.

Convenientemente, IA es invertible siempre que A sea antisimétrico; por lo tanto, podemos recuperar la matriz original utilizando la transformada de Cayley ,

A ( I + A ) ( I A ) 1 , {\displaystyle A\mapsto (I+A)(I-A)^{-1},}

que convierte cualquier matriz A antisimétrica en una matriz de rotación. De hecho, aparte de las excepciones señaladas, podemos producir cualquier matriz de rotación de esta manera. Aunque en aplicaciones prácticas difícilmente podemos permitirnos ignorar las rotaciones de 180°, la transformada de Cayley sigue siendo una herramienta potencialmente útil, que proporciona una parametrización de la mayoría de las matrices de rotación sin funciones trigonométricas.

En tres dimensiones, por ejemplo, tenemos (Cayley 1846)

[ 0 z y z 0 x y x 0 ] 1 1 + x 2 + y 2 + z 2 [ 1 + x 2 y 2 z 2 2 x y 2 z 2 y + 2 x z 2 x y + 2 z 1 x 2 + y 2 z 2 2 y z 2 x 2 x z 2 y 2 x + 2 y z 1 x 2 y 2 + z 2 ] . {\displaystyle {\begin{aligned}&{\begin{bmatrix}0&-z&y\\z&0&-x\\-y&x&0\end{bmatrix}}\mapsto \\[3pt]\quad {\frac {1}{1+x^{2}+y^{2}+z^{2}}}&{\begin{bmatrix}1+x^{2}-y^{2}-z^{2}&2xy-2z&2y+2xz\\2xy+2z&1-x^{2}+y^{2}-z^{2}&2yz-2x\\2xz-2y&2x+2yz&1-x^{2}-y^{2}+z^{2}\end{bmatrix}}.\end{aligned}}}

Si condensamos las entradas oblicuas en un vector, ( x , y , z ) , entonces producimos una rotación de 90° alrededor del eje x para (1, 0, 0), alrededor del eje y para (0, 1, 0), y alrededor del eje z para (0, 0, 1). Las rotaciones de 180° están fuera de alcance; porque, en el límite cuando x → ∞ , ( x , 0, 0) se aproxima a una rotación de 180° alrededor del eje x , y de manera similar para otras direcciones.

Descomposición en cizallas

Para el caso 2D, una matriz de rotación se puede descomponer en tres matrices de corte (Paeth 1986):

R ( θ ) = [ 1 tan θ 2 0 1 ] [ 1 0 sin θ 1 ] [ 1 tan θ 2 0 1 ] {\displaystyle {\begin{aligned}R(\theta )&{}={\begin{bmatrix}1&-\tan {\frac {\theta }{2}}\\0&1\end{bmatrix}}{\begin{bmatrix}1&0\\\sin \theta &1\end{bmatrix}}{\begin{bmatrix}1&-\tan {\frac {\theta }{2}}\\0&1\end{bmatrix}}\end{aligned}}}

Esto es útil, por ejemplo, en gráficos de computadora, ya que las operaciones de corte se pueden implementar con menos instrucciones de multiplicación que rotando un mapa de bits directamente. En las computadoras modernas, esto puede no tener importancia, pero puede ser relevante para microprocesadores muy antiguos o de gama baja.

Una rotación también puede escribirse como dos cortes y escalas (Daubechies y Sweldens 1998):

R ( θ ) = [ 1 0 tan θ 1 ] [ 1 sin θ cos θ 0 1 ] [ cos θ 0 0 1 cos θ ] {\displaystyle {\begin{aligned}R(\theta )&{}={\begin{bmatrix}1&0\\\tan \theta &1\end{bmatrix}}{\begin{bmatrix}1&-\sin \theta \cos \theta \\0&1\end{bmatrix}}{\begin{bmatrix}\cos \theta &0\\0&{\frac {1}{\cos \theta }}\end{bmatrix}}\end{aligned}}}

Teoría de grupos

A continuación se presentan algunos datos básicos sobre el papel de la colección de todas las matrices de rotación de una dimensión fija (aquí principalmente 3) en matemáticas y particularmente en física donde la simetría rotacional es un requisito de cada ley verdaderamente fundamental (debido al supuesto de isotropía del espacio ), y donde la misma simetría, cuando está presente, es una propiedad simplificadora de muchos problemas de naturaleza menos fundamental. Los ejemplos abundan en la mecánica clásica y la mecánica cuántica . El conocimiento de la parte de las soluciones perteneciente a esta simetría se aplica (con salvedades) a todos esos problemas y se puede factorizar de un problema específico en cuestión, reduciendo así su complejidad. Un excelente ejemplo, en matemáticas y física, sería la teoría de los armónicos esféricos . Su papel en la teoría de grupos de los grupos de rotación es el de ser un espacio de representación para todo el conjunto de representaciones irreducibles de dimensión finita del grupo de rotación SO(3). Para este tema, consulte Grupo de rotación SO(3) § Armónicos esféricos .

Para obtener más detalles se hace referencia a los artículos principales enumerados en cada subsección.

Grupo de mentiras

Las matrices de rotación n × n para cada n forman un grupo , el grupo ortogonal especial , SO( n ) . Esta estructura algebraica está acoplada con una estructura topológica heredada de de tal manera que las operaciones de multiplicación y toma de la inversa son funciones analíticas de las entradas de la matriz. Por lo tanto, SO( n ) es para cada n un grupo de Lie . Es compacto y conexo , pero no simplemente conexo . También es un grupo semisimple , de hecho un grupo simple con la excepción de SO(4). [12] La relevancia de esto es que todos los teoremas y toda la maquinaria de la teoría de variedades analíticas (las variedades analíticas son en particular variedades suaves ) se aplican y la teoría de representación bien desarrollada de grupos semisimples compactos está lista para su uso. GL n ( R ) {\displaystyle \operatorname {GL} _{n}(\mathbb {R} )}

Álgebra de Lie

El álgebra de Lie so ( n ) de SO( n ) está dada por

s o ( n ) = o ( n ) = { X M n ( R ) X = X T } , {\displaystyle {\mathfrak {so}}(n)={\mathfrak {o}}(n)=\left\{X\in M_{n}(\mathbb {R} )\mid X=-X^{\mathsf {T}}\right\},}

y es el espacio de matrices antisimétricas de dimensión n , véase grupo clásico , donde o ( n ) es el álgebra de Lie de O( n ) , el grupo ortogonal . Como referencia, la base más común para ( 3) es

L x = [ 0 0 0 0 0 1 0 1 0 ] , L y = [ 0 0 1 0 0 0 1 0 0 ] , L z = [ 0 1 0 1 0 0 0 0 0 ] . {\displaystyle L_{\mathbf {x} }={\begin{bmatrix}0&0&0\\0&0&-1\\0&1&0\end{bmatrix}},\quad L_{\mathbf {y} }={\begin{bmatrix}0&0&1\\0&0&0\\-1&0&0\end{bmatrix}},\quad L_{\mathbf {z} }={\begin{bmatrix}0&-1&0\\1&0&0\\0&0&0\end{bmatrix}}.}

Mapa exponencial

La conexión del álgebra de Lie con el grupo de Lie es el mapa exponencial , que se define utilizando la serie exponencial matricial estándar para e A [13] Para cualquier matriz antisimétrica A , exp( A ) es siempre una matriz de rotación. [nb 3]

Un ejemplo práctico importante es el caso 3 × 3. En el grupo de rotación SO(3) , se muestra que se puede identificar cada Aso (3) con un vector de Euler ω = θ u , donde u = ( x , y , z ) es un vector de magnitud unitaria.

Por las propiedades de la identificación , u está en el espacio nulo de A. Por lo tanto, u queda invariante por exp( A ) y, por lo tanto, es un eje de rotación. s u ( 2 ) R 3 {\displaystyle \mathbf {su} (2)\cong \mathbb {R} ^{3}}

Según la fórmula de rotación de Rodrigues en forma matricial , se obtiene,

exp ( A ) = exp ( θ ( u L ) ) = exp ( [ 0 z θ y θ z θ 0 x θ y θ x θ 0 ] ) = I + sin θ   u L + ( 1 cos θ ) ( u L ) 2 , {\displaystyle {\begin{aligned}\exp(A)&=\exp {\bigl (}\theta (\mathbf {u} \cdot \mathbf {L} ){\bigr )}\\&=\exp \left({\begin{bmatrix}0&-z\theta &y\theta \\z\theta &0&-x\theta \\-y\theta &x\theta &0\end{bmatrix}}\right)\\&=I+\sin \theta \ \mathbf {u} \cdot \mathbf {L} +(1-\cos \theta )(\mathbf {u} \cdot \mathbf {L} )^{2},\end{aligned}}}

dónde

u L = [ 0 z y z 0 x y x 0 ] . {\displaystyle \mathbf {u} \cdot \mathbf {L} ={\begin{bmatrix}0&-z&y\\z&0&-x\\-y&x&0\end{bmatrix}}.}

Esta es la matriz para una rotación alrededor del eje u con un ángulo θ . Para obtener más detalles, consulte el mapa exponencial SO(3) .

Fórmula de Baker-Campbell-Hausdorff

La fórmula BCH proporciona una expresión explícita para Z = log( e X e Y ) en términos de una expansión en serie de conmutadores anidados de X e Y . [14] Esta expansión general se desarrolla como [nb 4]

Z = C ( X , Y ) = X + Y + 1 2 [ X , Y ] + 1 12 [ X , [ X , Y ] ] 1 12 [ Y , [ X , Y ] ] + . {\displaystyle Z=C(X,Y)=X+Y+{\tfrac {1}{2}}[X,Y]+{\tfrac {1}{12}}{\bigl [}X,[X,Y]{\bigr ]}-{\tfrac {1}{12}}{\bigl [}Y,[X,Y]{\bigr ]}+\cdots .}

En el caso 3 × 3 , la expansión infinita general tiene una forma compacta, [15]

Z = α X + β Y + γ [ X , Y ] , {\displaystyle Z=\alpha X+\beta Y+\gamma [X,Y],}

para coeficientes de funciones trigonométricas adecuados, detallados en la fórmula de Baker–Campbell–Hausdorff para SO(3) .

Como identidad de grupo, lo anterior se cumple para todas las representaciones fieles , incluido el doblete (representación de espinor), que es más simple. La misma fórmula explícita se deduce directamente a través de las matrices de Pauli; véase la derivación 2 × 2 para SU(2) . Para el caso general n × n , se podría utilizar la Ref. [16]

Grupo de spinning

El grupo de Lie de matrices de rotación n × n , SO( n ) , no está simplemente conexo , por lo que la teoría de Lie nos dice que es una imagen homomórfica de un grupo de recubrimiento universal . A menudo, el grupo de recubrimiento, que en este caso se denomina grupo de espín denotado por Spin( n ) , es más simple y más natural para trabajar. [17]

En el caso de rotaciones planares, SO(2) es topológicamente un círculo , S 1 . Su grupo de recubrimiento universal, Spin(2), es isomorfo a la línea real , R , bajo la adición. Siempre que se utilizan ángulos de magnitud arbitraria, se aprovecha la conveniencia del recubrimiento universal. Cada matriz de rotación 2 × 2 se produce por una infinidad contable de ángulos, separados por múltiplos enteros de 2 π . En consecuencia, el grupo fundamental de SO(2) es isomorfo a los números enteros, Z .

En el caso de rotaciones espaciales, SO(3) es topológicamente equivalente al espacio proyectivo real tridimensional , RP 3 . Su grupo de recubrimiento universal, Spin(3), es isomorfo a la 3-esfera , S 3 . Toda matriz de rotación 3 × 3 se produce por dos puntos opuestos en la esfera. En consecuencia, el grupo fundamental de SO(3) es isomorfo al grupo de dos elementos, Z 2 .

También podemos describir Spin(3) como isomorfo a los cuaterniones de norma unitaria bajo multiplicación, o a ciertas matrices reales de 4 × 4 , o a matrices unitarias especiales complejas de 2 × 2 , a saber, SU(2). Las funciones de recubrimiento para el primer y el último caso se dan por

H { q H : q = 1 } w + i x + j y + k z [ 1 2 y 2 2 z 2 2 x y 2 z w 2 x z + 2 y w 2 x y + 2 z w 1 2 x 2 2 z 2 2 y z 2 x w 2 x z 2 y w 2 y z + 2 x w 1 2 x 2 2 y 2 ] S O ( 3 ) , {\displaystyle \mathbb {H} \supset \{q\in \mathbb {H} :\|q\|=1\}\ni w+\mathbf {i} x+\mathbf {j} y+\mathbf {k} z\mapsto {\begin{bmatrix}1-2y^{2}-2z^{2}&2xy-2zw&2xz+2yw\\2xy+2zw&1-2x^{2}-2z^{2}&2yz-2xw\\2xz-2yw&2yz+2xw&1-2x^{2}-2y^{2}\end{bmatrix}}\in \mathrm {SO} (3),}

y

S U ( 2 ) [ α β β ¯ α ¯ ] [ 1 2 ( α 2 β 2 + α 2 ¯ β 2 ¯ ) i 2 ( α 2 β 2 + α 2 ¯ + β 2 ¯ ) α β α ¯ β ¯ i 2 ( α 2 β 2 α 2 ¯ + β 2 ¯ ) i 2 ( α 2 + β 2 + α 2 ¯ + β 2 ¯ ) i ( + α β α ¯ β ¯ ) α β ¯ + α ¯ β i ( α β ¯ + α ¯ β ) α α ¯ β β ¯ ] S O ( 3 ) . {\displaystyle \mathrm {SU} (2)\ni {\begin{bmatrix}\alpha &\beta \\-{\overline {\beta }}&{\overline {\alpha }}\end{bmatrix}}\mapsto {\begin{bmatrix}{\frac {1}{2}}\left(\alpha ^{2}-\beta ^{2}+{\overline {\alpha ^{2}}}-{\overline {\beta ^{2}}}\right)&{\frac {i}{2}}\left(-\alpha ^{2}-\beta ^{2}+{\overline {\alpha ^{2}}}+{\overline {\beta ^{2}}}\right)&-\alpha \beta -{\overline {\alpha }}{\overline {\beta }}\\{\frac {i}{2}}\left(\alpha ^{2}-\beta ^{2}-{\overline {\alpha ^{2}}}+{\overline {\beta ^{2}}}\right)&{\frac {i}{2}}\left(\alpha ^{2}+\beta ^{2}+{\overline {\alpha ^{2}}}+{\overline {\beta ^{2}}}\right)&-i\left(+\alpha \beta -{\overline {\alpha }}{\overline {\beta }}\right)\\\alpha {\overline {\beta }}+{\overline {\alpha }}\beta &i\left(-\alpha {\overline {\beta }}+{\overline {\alpha }}\beta \right)&\alpha {\overline {\alpha }}-\beta {\overline {\beta }}\end{bmatrix}}\in \mathrm {SO} (3).}

Para una descripción detallada de la cobertura SU(2) y la cobertura cuaterniónica, véase el grupo de espín SO(3) .

Muchas características de estos casos son las mismas para dimensiones superiores. Los recubrimientos son todos de dos a uno, con SO( n ) , n > 2 , que tiene un grupo fundamental Z 2 . El entorno natural para estos grupos está dentro de un álgebra de Clifford . Un tipo de acción de las rotaciones se produce por una especie de "sándwich", denotado por qvq . Más importante aún en aplicaciones a la física, la representación de espín correspondiente del álgebra de Lie se encuentra dentro del álgebra de Clifford. Puede ser exponenciada de la manera habitual para dar lugar a una representación de 2 valores , también conocida como representación proyectiva del grupo de rotación. Este es el caso de SO(3) y SU(2), donde la representación de 2 valores puede verse como una "inversa" de la función de recubrimiento. Por propiedades de las funciones de recubrimiento, la inversa puede elegirse de uno a uno como una sección local, pero no globalmente.

Rotaciones infinitesimales

Las matrices del álgebra de Lie no son en sí mismas rotaciones; las matrices antisimétricas son derivadas, diferencias proporcionales de rotaciones. Una verdadera "rotación diferencial", o matriz de rotación infinitesimal , tiene la forma

I + A d θ , {\displaystyle I+A\,d\theta ,}

donde es extremadamente pequeño y Aentonces (n) , por ejemplo con A = L x ,

d L x = [ 1 0 0 0 1 d θ 0 d θ 1 ] . {\displaystyle dL_{x}={\begin{bmatrix}1&0&0\\0&1&-d\theta \\0&d\theta &1\end{bmatrix}}.}

Las reglas de cálculo son las habituales, excepto que los infinitesimales de segundo orden se descartan rutinariamente. Con estas reglas, estas matrices no satisfacen todas las mismas propiedades que las matrices de rotación finita ordinarias bajo el tratamiento habitual de los infinitesimales. [18] Resulta que el orden en el que se aplican las rotaciones infinitesimales es irrelevante . Para ver esto ejemplificado, consulte las rotaciones infinitesimales SO(3) .

Conversiones

Hemos visto la existencia de varias descomposiciones que se aplican en cualquier dimensión, a saber, planos independientes, ángulos secuenciales y dimensiones anidadas. En todos estos casos podemos descomponer una matriz o construirla. También hemos prestado especial atención a las matrices de rotación 3 × 3 , y estas merecen una mayor atención, en ambas direcciones (Stuelpnagel 1964).

Cuaternio

Dado el cuaternión unitario q = w + x i + y j + z k , la matriz de rotación 3 × 3 premultiplicada equivalente (para usarse con vectores de columna) es [19]

Q = [ 1 2 y 2 2 z 2 2 x y 2 z w 2 x z + 2 y w 2 x y + 2 z w 1 2 x 2 2 z 2 2 y z 2 x w 2 x z 2 y w 2 y z + 2 x w 1 2 x 2 2 y 2 ] . {\displaystyle Q={\begin{bmatrix}1-2y^{2}-2z^{2}&2xy-2zw&2xz+2yw\\2xy+2zw&1-2x^{2}-2z^{2}&2yz-2xw\\2xz-2yw&2yz+2xw&1-2x^{2}-2y^{2}\end{bmatrix}}.}

Ahora, cada componente cuaternión aparece multiplicado por dos en un término de grado dos, y si todos esos términos son cero, lo que queda es una matriz identidad. Esto conduce a una conversión eficiente y robusta de cualquier cuaternión, ya sea unitario o no, a una matriz de rotación 3 × 3. Dado:

n = w × w + x × x + y × y + z × z s = { 0 if  n = 0 2 n otherwise {\displaystyle {\begin{aligned}n&=w\times w+x\times x+y\times y+z\times z\\s&={\begin{cases}0&{\text{if }}n=0\\{\frac {2}{n}}&{\text{otherwise}}\end{cases}}\\\end{aligned}}}

podemos calcular

Q = [ 1 s ( y y + z z ) s ( x y w z ) s ( x z + w y ) s ( x y + w z ) 1 s ( x x + z z ) s ( y z w x ) s ( x z w y ) s ( y z + w x ) 1 s ( x x + y y ) ] {\displaystyle Q={\begin{bmatrix}1-s(yy+zz)&s(xy-wz)&s(xz+wy)\\s(xy+wz)&1-s(xx+zz)&s(yz-wx)\\s(xz-wy)&s(yz+wx)&1-s(xx+yy)\end{bmatrix}}}

Liberados de la exigencia de un cuaternión unitario, encontramos que los cuaterniones distintos de cero actúan como coordenadas homogéneas para matrices de rotación de 3 × 3. La transformada de Cayley, analizada anteriormente, se obtiene escalando el cuaternión de modo que su componente w sea 1. Para una rotación de 180° alrededor de cualquier eje, w será cero, lo que explica la limitación de Cayley.

La suma de las entradas a lo largo de la diagonal principal (la traza ), más uno, es igual a 4 − 4( x 2 + y 2 + z 2 ) , que es 4 w 2 . Por lo tanto, podemos escribir la traza en sí como 2 w 2 + 2 w 2 − 1 ; y de la versión anterior de la matriz vemos que las entradas diagonales en sí tienen la misma forma: 2 x 2 + 2 w 2 − 1 , 2 y 2 + 2 w 2 − 1 y 2 z 2 + 2 w 2 − 1 . Por lo tanto, podemos comparar fácilmente las magnitudes de los cuatro componentes cuaterniones utilizando la diagonal de la matriz. De hecho, podemos obtener las cuatro magnitudes utilizando sumas y raíces cuadradas, y elegir signos consistentes utilizando la parte antisimétrica de las entradas fuera de la diagonal:

t = tr Q = Q x x + Q y y + Q z z ( the trace of  Q ) r = 1 + t w = 1 2 r x = sgn ( Q z y Q y z ) | 1 2 1 + Q x x Q y y Q z z | y = sgn ( Q x z Q z x ) | 1 2 1 Q x x + Q y y Q z z | z = sgn ( Q y x Q x y ) | 1 2 1 Q x x Q y y + Q z z | {\displaystyle {\begin{aligned}t&=\operatorname {tr} Q=Q_{xx}+Q_{yy}+Q_{zz}\quad ({\text{the trace of }}Q)\\r&={\sqrt {1+t}}\\w&={\tfrac {1}{2}}r\\x&=\operatorname {sgn} \left(Q_{zy}-Q_{yz}\right)\left|{\tfrac {1}{2}}{\sqrt {1+Q_{xx}-Q_{yy}-Q_{zz}}}\right|\\y&=\operatorname {sgn} \left(Q_{xz}-Q_{zx}\right)\left|{\tfrac {1}{2}}{\sqrt {1-Q_{xx}+Q_{yy}-Q_{zz}}}\right|\\z&=\operatorname {sgn} \left(Q_{yx}-Q_{xy}\right)\left|{\tfrac {1}{2}}{\sqrt {1-Q_{xx}-Q_{yy}+Q_{zz}}}\right|\end{aligned}}}

Alternativamente, utilice una sola raíz cuadrada y división.

t = tr Q = Q x x + Q y y + Q z z r = 1 + t s = 1 2 r w = 1 2 r x = ( Q z y Q y z ) s y = ( Q x z Q z x ) s z = ( Q y x Q x y ) s {\displaystyle {\begin{aligned}t&=\operatorname {tr} Q=Q_{xx}+Q_{yy}+Q_{zz}\\r&={\sqrt {1+t}}\\s&={\tfrac {1}{2r}}\\w&={\tfrac {1}{2}}r\\x&=\left(Q_{zy}-Q_{yz}\right)s\\y&=\left(Q_{xz}-Q_{zx}\right)s\\z&=\left(Q_{yx}-Q_{xy}\right)s\end{aligned}}}

Esto es numéricamente estable siempre que la traza, t , no sea negativa; de lo contrario, corremos el riesgo de dividir por (casi) cero. En ese caso, supongamos que Q xx es la entrada diagonal más grande, por lo que x tendrá la magnitud más grande (los otros casos se derivan por permutación cíclica); entonces lo siguiente es seguro.

r = 1 + Q x x Q y y Q z z s = 1 2 r w = ( Q z y Q y z ) s x = 1 2 r y = ( Q x y + Q y x ) s z = ( Q z x + Q x z ) s {\displaystyle {\begin{aligned}r&={\sqrt {1+Q_{xx}-Q_{yy}-Q_{zz}}}\\s&={\tfrac {1}{2r}}\\w&=\left(Q_{zy}-Q_{yz}\right)s\\x&={\tfrac {1}{2}}r\\y&=\left(Q_{xy}+Q_{yx}\right)s\\z&=\left(Q_{zx}+Q_{xz}\right)s\end{aligned}}}

Si la matriz contiene un error significativo, como un error numérico acumulado, podemos construir una matriz simétrica de 4 × 4 ,

K = 1 3 [ Q x x Q y y Q z z Q y x + Q x y Q z x + Q x z Q z y Q y z Q y x + Q x y Q y y Q x x Q z z Q z y + Q y z Q x z Q z x Q z x + Q x z Q z y + Q y z Q z z Q x x Q y y Q y x Q x y Q z y Q y z Q x z Q z x Q y x Q x y Q x x + Q y y + Q z z ] , {\displaystyle K={\frac {1}{3}}{\begin{bmatrix}Q_{xx}-Q_{yy}-Q_{zz}&Q_{yx}+Q_{xy}&Q_{zx}+Q_{xz}&Q_{zy}-Q_{yz}\\Q_{yx}+Q_{xy}&Q_{yy}-Q_{xx}-Q_{zz}&Q_{zy}+Q_{yz}&Q_{xz}-Q_{zx}\\Q_{zx}+Q_{xz}&Q_{zy}+Q_{yz}&Q_{zz}-Q_{xx}-Q_{yy}&Q_{yx}-Q_{xy}\\Q_{zy}-Q_{yz}&Q_{xz}-Q_{zx}&Q_{yx}-Q_{xy}&Q_{xx}+Q_{yy}+Q_{zz}\end{bmatrix}},}

y encuentre el vector propio , ( x , y , z , w ) , de su valor propio de mayor magnitud. (Si Q es verdaderamente una matriz de rotación, ese valor será 1.) El cuaternión así obtenido corresponderá a la matriz de rotación más cercana a la matriz dada (Bar-Itzhack 2000) (Nota: la formulación del artículo citado es post-multiplicada, funciona con vectores fila).

Descomposición polar

Si la matriz n × n M no es singular, sus columnas son vectores linealmente independientes; por lo tanto, el proceso de Gram-Schmidt puede ajustarlas para que sean una base ortonormal. Expresado en términos de álgebra lineal numérica , convertimos M en una matriz ortogonal, Q , utilizando la descomposición QR . Sin embargo, a menudo preferimos una Q más cercana a M , lo que este método no logra. Para eso, la herramienta que queremos es la descomposición polar (Fan y Hoffman 1955; Higham 1989).

Para medir la proximidad, podemos utilizar cualquier norma matricial invariante bajo transformaciones ortogonales. Una opción conveniente es la norma de Frobenius , QMF , al cuadrado, que es la suma de los cuadrados de las diferencias entre los elementos. Escribiendo esto en términos de la traza , Tr , nuestro objetivo es,

Encuentra Q minimizando Tr( ( QM ) T ( QM ) ) , sujeto a Q T Q = I .

Aunque está escrita en términos matriciales, la función objetivo es simplemente un polinomio cuadrático. Podemos minimizarla de la forma habitual, hallando dónde su derivada es cero. Para una matriz de 3 × 3 , la restricción de ortogonalidad implica seis igualdades escalares que las entradas de Q deben satisfacer. Para incorporar la(s) restricción(es), podemos emplear una técnica estándar, los multiplicadores de Lagrange , ensamblados como una matriz simétrica, Y . Por lo tanto, nuestro método es:

Derivamos Tr( ( QM ) T ( QM ) + ( Q T QI ) Y ) con respecto a (las entradas de) Q , e igualamos a cero.

Consideremos un ejemplo de 2 × 2. Incluyendo restricciones, buscamos minimizar

( Q x x M x x ) 2 + ( Q x y M x y ) 2 + ( Q y x M y x ) 2 + ( Q y y M y y ) 2 + ( Q x x 2 + Q y x 2 1 ) Y x x + ( Q x y 2 + Q y y 2 1 ) Y y y + 2 ( Q x x Q x y + Q y x Q y y ) Y x y . {\displaystyle {\begin{aligned}&\left(Q_{xx}-M_{xx}\right)^{2}+\left(Q_{xy}-M_{xy}\right)^{2}+\left(Q_{yx}-M_{yx}\right)^{2}+\left(Q_{yy}-M_{yy}\right)^{2}\\&\quad {}+\left(Q_{xx}^{2}+Q_{yx}^{2}-1\right)Y_{xx}+\left(Q_{xy}^{2}+Q_{yy}^{2}-1\right)Y_{yy}+2\left(Q_{xx}Q_{xy}+Q_{yx}Q_{yy}\right)Y_{xy}.\end{aligned}}}

Tomando la derivada con respecto a Q xx , Q xy , Q yx , Q yy a su vez, armamos una matriz.

2 [ Q x x M x x + Q x x Y x x + Q x y Y x y Q x y M x y + Q x x Y x y + Q x y Y y y Q y x M y x + Q y x Y x x + Q y y Y x y Q y y M y y + Q y x Y x y + Q y y Y y y ] {\displaystyle 2{\begin{bmatrix}Q_{xx}-M_{xx}+Q_{xx}Y_{xx}+Q_{xy}Y_{xy}&Q_{xy}-M_{xy}+Q_{xx}Y_{xy}+Q_{xy}Y_{yy}\\Q_{yx}-M_{yx}+Q_{yx}Y_{xx}+Q_{yy}Y_{xy}&Q_{yy}-M_{yy}+Q_{yx}Y_{xy}+Q_{yy}Y_{yy}\end{bmatrix}}}

En general, obtenemos la ecuación

0 = 2 ( Q M ) + 2 Q Y , {\displaystyle 0=2(Q-M)+2QY,}

de modo que

M = Q ( I + Y ) = Q S , {\displaystyle M=Q(I+Y)=QS,}

donde Q es ortogonal y S es simétrica. Para asegurar un mínimo, la matriz Y (y por lo tanto S ) debe ser definida positiva. El álgebra lineal llama QS a la descomposición polar de M , con S a la raíz cuadrada positiva de S 2 = M T M .

S 2 = ( Q T M ) T ( Q T M ) = M T Q Q T M = M T M {\displaystyle S^{2}=\left(Q^{\mathsf {T}}M\right)^{\mathsf {T}}\left(Q^{\mathsf {T}}M\right)=M^{\mathsf {T}}QQ^{\mathsf {T}}M=M^{\mathsf {T}}M}

Cuando M no es singular , los factores Q y S de la descomposición polar están determinados de forma única. Sin embargo, el determinante de S es positivo porque S es definido positivo, por lo que Q hereda el signo del determinante de M. Es decir, solo se garantiza que Q sea ortogonal, no una matriz de rotación. Esto es inevitable; una M con determinante negativo no tiene una matriz de rotación más cercana definida de forma única.

Eje y ángulo

Para construir eficientemente una matriz de rotación Q a partir de un ángulo θ y un eje unitario u , podemos aprovechar la simetría y la simetría oblicua dentro de las entradas. Si x , y y z son los componentes del vector unitario que representa el eje, y

c = cos θ s = sin θ C = 1 c {\displaystyle {\begin{aligned}c&=\cos \theta \\s&=\sin \theta \\C&=1-c\end{aligned}}}

entonces

Q ( θ ) = [ x x C + c x y C z s x z C + y s y x C + z s y y C + c y z C x s z x C y s z y C + x s z z C + c ] {\displaystyle Q(\theta )={\begin{bmatrix}xxC+c&xyC-zs&xzC+ys\\yxC+zs&yyC+c&yzC-xs\\zxC-ys&zyC+xs&zzC+c\end{bmatrix}}}

La determinación de un eje y un ángulo, como la determinación de un cuaternión, solo es posible hasta el signo; es decir, ( u , θ ) y (− u , − θ ) corresponden a la misma matriz de rotación, al igual que q y q . Además, la extracción del eje-ángulo presenta dificultades adicionales. El ángulo se puede restringir a un valor de 0° a 180°, pero los ángulos son formalmente ambiguos por múltiplos de 360°. Cuando el ángulo es cero, el eje no está definido. Cuando el ángulo es 180°, la matriz se vuelve simétrica, lo que tiene implicaciones en la extracción del eje. Cerca de múltiplos de 180°, se necesita cuidado para evitar problemas numéricos: al extraer el ángulo, una arcotangente de dos argumentos con atan2 (sin θ , cos θ ) igual a θ evita la insensibilidad del arcocos; y al calcular la magnitud del eje para forzar la magnitud unitaria, un enfoque de fuerza bruta puede perder precisión debido al desbordamiento insuficiente (Moler y Morrison 1983).

Un enfoque parcial es el siguiente:

x = Q z y Q y z y = Q x z Q z x z = Q y x Q x y r = x 2 + y 2 + z 2 t = Q x x + Q y y + Q z z θ = atan2 ( r , t 1 ) {\displaystyle {\begin{aligned}x&=Q_{zy}-Q_{yz}\\y&=Q_{xz}-Q_{zx}\\z&=Q_{yx}-Q_{xy}\\r&={\sqrt {x^{2}+y^{2}+z^{2}}}\\t&=Q_{xx}+Q_{yy}+Q_{zz}\\\theta &=\operatorname {atan2} (r,t-1)\end{aligned}}}

Los componentes x , y y z del eje se dividirían entonces por r . Un enfoque totalmente robusto utilizará un algoritmo diferente cuando t , la traza de la matriz Q , sea negativa, como en el caso de la extracción de cuaterniones. Cuando r es cero porque el ángulo es cero, se debe proporcionar un eje de alguna fuente distinta a la matriz.

Ángulos de Euler

La complejidad de la conversión aumenta con los ángulos de Euler (usados ​​aquí en sentido amplio). La primera dificultad es establecer cuál de las veinticuatro variaciones del orden de los ejes cartesianos utilizaremos. Supongamos que los tres ángulos son θ 1 , θ 2 , θ 3 ; la física y la química pueden interpretarlos como

Q ( θ 1 , θ 2 , θ 3 ) = Q z ( θ 1 ) Q y ( θ 2 ) Q z ( θ 3 ) , {\displaystyle Q(\theta _{1},\theta _{2},\theta _{3})=Q_{\mathbf {z} }(\theta _{1})Q_{\mathbf {y} }(\theta _{2})Q_{\mathbf {z} }(\theta _{3}),}

Mientras que la dinámica de las aeronaves puede utilizar

Q ( θ 1 , θ 2 , θ 3 ) = Q z ( θ 3 ) Q y ( θ 2 ) Q x ( θ 1 ) . {\displaystyle Q(\theta _{1},\theta _{2},\theta _{3})=Q_{\mathbf {z} }(\theta _{3})Q_{\mathbf {y} }(\theta _{2})Q_{\mathbf {x} }(\theta _{1}).}

Un enfoque sistemático comienza con la elección del eje más a la derecha. Entre todas las permutaciones de ( x , y , z ) , solo dos colocan ese eje en primer lugar; una es una permutación par y la otra impar. La elección de la paridad establece, por tanto, el eje del medio. Eso deja dos opciones para el eje más a la izquierda, ya sea duplicar el primero o no. Estas tres opciones nos dan 3 × 2 × 2 = 12 variaciones; duplicamos esa cifra a 24 eligiendo ejes estáticos o rotatorios.

Esto es suficiente para construir una matriz a partir de ángulos, pero los triples que difieren en muchos aspectos pueden dar la misma matriz de rotación. Por ejemplo, supongamos que usamos la convención zyz anterior; entonces tenemos los siguientes pares equivalentes:

(90°,45°,−105°)(−270°,−315°,255°)múltiplos de 360°
(72°,0°,0°)(40°,0°,32°)alineación singular
(45°,60°,−30°)(−135°,-60°,150°)giro biestable

Los ángulos para cualquier orden se pueden encontrar utilizando una rutina común concisa (Herter y Lott 1993; Shoemake 1994).

El problema de la alineación singular, el análogo matemático del bloqueo físico del cardán , ocurre cuando la rotación intermedia alinea los ejes de la primera y la última rotación. Afecta a todos los órdenes de eje en múltiplos pares o impares de 90°. Estas singularidades no son características de la matriz de rotación como tal, y solo ocurren con el uso de ángulos de Euler.

Las singularidades se evitan al considerar y manipular la matriz de rotación como vectores de fila ortonormales (en aplicaciones 3D, a menudo denominados vector derecho, vector superior y vector exterior) en lugar de como ángulos. Las singularidades también se evitan al trabajar con cuaterniones.

Formulación de vector a vector

En algunos casos es interesante describir una rotación especificando cómo se mapea un vector en otro a través del camino más corto (ángulo más pequeño). Esto describe completamente la matriz de rotación asociada. En general, dado x , yn , la matriz R 3 {\displaystyle \mathbb {R} ^{3}} S {\displaystyle \mathbb {S} }

R := I + y x T x y T + 1 1 + x , y ( y x T x y T ) 2 {\displaystyle R:=I+yx^{\mathsf {T}}-xy^{\mathsf {T}}+{\frac {1}{1+\langle x,y\rangle }}\left(yx^{\mathsf {T}}-xy^{\mathsf {T}}\right)^{2}}

pertenece a SO( n + 1) y asigna x a y . [20]

Matrices de rotación aleatoria uniforme

A veces necesitamos generar una matriz de rotación aleatoria uniformemente distribuida. Parece intuitivamente claro en dos dimensiones que esto significa que el ángulo de rotación está distribuido uniformemente entre 0 y 2 π . Esa intuición es correcta, pero no se traslada a dimensiones superiores. Por ejemplo, si descomponemos matrices de rotación de 3 × 3 en forma de eje-ángulo, el ángulo no debería estar distribuido uniformemente; la probabilidad de que (la magnitud de) el ángulo sea como máximo θ debería ser 1/π ( θ − pecado θ ) , para 0 ≤ θ ≤ π .

Como SO( n ) es un grupo de Lie conexo y localmente compacto, tenemos un criterio estándar simple para la uniformidad, a saber, que la distribución no cambia cuando se compone con cualquier rotación arbitraria (una "traslación" del grupo de Lie). Esta definición corresponde a lo que se llama medida de Haar . León, Massé y Rivest (2006) muestran cómo utilizar la transformada de Cayley para generar y probar matrices de acuerdo con este criterio.

También podemos generar una distribución uniforme en cualquier dimensión utilizando el algoritmo de subgrupos de Diaconis y Shahshahani (1987). Esto explota recursivamente la estructura de grupo de dimensiones anidadas de SO( n ) , de la siguiente manera. Genere un ángulo uniforme y construya una matriz de rotación de 2 × 2 . Para pasar de n a n + 1 , genere un vector v distribuido uniformemente en la n -esfera S n , incruste la matriz n × n en el siguiente tamaño más grande con la última columna (0, ..., 0, 1) , y rote la matriz más grande para que la última columna se convierta en v .

Como es habitual, tenemos alternativas especiales para el caso 3 × 3. Cada uno de estos métodos comienza con tres escalares aleatorios independientes distribuidos uniformemente en el intervalo unitario. Arvo (1992) aprovecha la dimensión impar para cambiar una reflexión de Householder a una rotación por negación y la utiliza para apuntar el eje de una rotación plana uniforme.

Otro método utiliza cuaterniones unitarios. La multiplicación de matrices de rotación es homomórfica a la multiplicación de cuaterniones, y la multiplicación por un cuaternión unitario rota la esfera unitaria. Dado que el homomorfismo es una isometría local , concluimos inmediatamente que para producir una distribución uniforme en SO(3) podemos usar una distribución uniforme en S 3 . En la práctica: cree un vector de cuatro elementos donde cada elemento sea una muestra de una distribución normal. Normalice su longitud y tendrá un cuaternión unitario aleatorio muestreado uniformemente que representa una rotación aleatoria muestreada uniformemente. Tenga en cuenta que lo mencionado anteriormente solo se aplica a rotaciones en dimensión 3. Para una idea generalizada de los cuaterniones, uno debe mirar Rotors .

También se pueden utilizar ángulos de Euler, aunque no con cada ángulo distribuido uniformemente (Murnaghan 1962; Miles 1965).

Para la forma eje-ángulo, el eje se distribuye uniformemente sobre la esfera unitaria de direcciones, S 2 , mientras que el ángulo tiene la distribución no uniforme sobre [0, π ] señalada anteriormente (Miles 1965).

Véase también

Observaciones

  1. ^ Nótese que si en lugar de rotar vectores, se rota el marco de referencia, los signos de los términos sen θ se invertirán. Si el marco de referencia A se rota en sentido antihorario sobre el origen a través de un ángulo θ para crear el marco de referencia B, entonces R x (con los signos invertidos) transformará un vector descrito en las coordenadas del marco de referencia A en las coordenadas del marco de referencia B. Las transformaciones de marcos de coordenadas en la industria aeroespacial, la robótica y otros campos se realizan a menudo utilizando esta interpretación de la matriz de rotación.
  2. ^ Tenga en cuenta que
    u u = ( [ u ] × ) 2 + I {\displaystyle \mathbf {u} \otimes \mathbf {u} ={\bigl (}[\mathbf {u} ]_{\times }{\bigr )}^{2}+{\mathbf {I} }}
    de modo que, en la notación de Rodrigues, equivalentemente,
    R = I + ( sin θ ) [ u ] × + ( 1 cos θ ) ( [ u ] × ) 2 . {\displaystyle \mathbf {R} =\mathbf {I} +(\sin \theta )[\mathbf {u} ]_{\times }+(1-\cos \theta ){\bigl (}[\mathbf {u} ]_{\times }{\bigr )}^{2}.}
  3. ^ Nótese que este mapa exponencial de matrices antisimétricas a matrices de rotación es bastante diferente de la transformada de Cayley analizada anteriormente, difiriendo en el tercer orden,
    e 2 A I + A I A = 2 3 A 3 + O ( A 4 ) . {\displaystyle e^{2A}-{\frac {I+A}{I-A}}=-{\tfrac {2}{3}}A^{3}+\mathrm {O} \left(A^{4}\right).}
    Por el contrario, una matriz antisimétrica A que especifica una matriz de rotación a través del mapa de Cayley especifica la misma matriz de rotación a través del mapa exp(2 artanh A ) .
  4. ^ Para una derivación detallada, véase Derivada de la función exponencial . Aquí se pasan por alto las cuestiones de convergencia de esta serie al elemento correcto del álgebra de Lie. La convergencia está garantizada cuando X ‖ + ‖ Y ‖ < log 2 y Z ‖ < log 2. Si no se cumplen estas condiciones, la serie puede converger de todos modos. Siempre existe una solución ya que exp es sobreyectiva [ aclaración necesaria ] en los casos considerados.

Notas

  1. ^ Swokowski, Earl (1979). Cálculo con geometría analítica (segunda edición). Boston: Prindle, Weber y Schmidt. ISBN 0-87150-268-2.
  2. ^ Recomendación del W3C (2003). “Gráficos vectoriales escalables: el sistema de coordenadas inicial”.{{cite web}}: CS1 maint: numeric names: authors list (link)
  3. ^ "Matrices de rotación" (PDF) . Consultado el 30 de noviembre de 2021 .
  4. ^ Kuo Kan, Liang (6 de octubre de 2018). "Conversión eficiente de una matriz rotatoria a un eje y ángulo de rotación mediante la extensión de la fórmula de Rodrigues". arXiv : 1810.02999 [cs.CG].
  5. ^ Taylor, Camillo J.; Kriegman, David J. (1994). "Minimización en el grupo de Lie SO(3) y variedades relacionadas" (PDF) . Informe técnico n.º 9405. Universidad de Yale.
  6. ^ Balakrishnan, V. (1999). "¿Cómo se rota un vector?". Resonancia . 4 (10): 61–68.
  7. ^ Morawiec, Adam (2004). Orientaciones y rotaciones . Springer. doi :10.1007/978-3-662-09156-2.
  8. ^ Palazzolo, A. (1976). "Formalismo para la matriz de rotación de rotaciones alrededor de un eje arbitrario". Am. J. Phys . 44 (1): 63–67. Bibcode :1976AmJPh..44...63P. doi :10.1119/1.10140.
  9. ^ Cole, Ian R. (enero de 2015). Modelado de CPV (tesis). Universidad de Loughborough. hdl :2134/18050.
  10. ^ Mathews, Jon (1976). "Formalismo de rotación sin coordenadas". Am. J. Phys . 44 (12): 121. Bibcode :1976AmJPh..44.1210M. doi :10.1119/1.10264.
  11. ^ Koehler, TR; Trickey, SB (1978). "Vectores de Euler y rotaciones sobre un eje arbitrario". Am. J. Phys . 46 (6): 650. Bibcode :1976AmJPh..46..650K. doi :10.1119/1.11223.
  12. ^ Baker (2003); Fulton y Harris (1991)
  13. ^ (Wedderburn 1934, §8.02)
  14. ^ Salón 2004, cap. 3; Varadarajan 1984, §2.15
  15. ^ (Inglés 2001)
  16. ^ Curtright, TL ; Fairlie, DB ; Zachos, CK (2014). "Una fórmula compacta para rotaciones como polinomios de matriz de espín". SIGMA . 10 : 084. arXiv : 1402.3541 . Código Bibliográfico :2014SIGMA..10..084C. doi :10.3842/SIGMA.2014.084. S2CID  18776942.
  17. ^ Baker 2003, cap. 5; Fulton y Harris 1991, págs. 299-315
  18. ^ (Goldstein, Poole y Safko 2002, §4.8)
  19. ^ Shoemake, Ken (1985). "Animación de rotación con curvas de cuaternión". Gráficos informáticos: Actas de la conferencia SIGGRAPH '85. SIGGRAPH '85, 22-26 de julio de 1985, San Francisco. Vol. 19. Association for Computing Machinery. págs. 245-254. doi : 10.1145/325334.325242 . ISBN 0897911660.
  20. ^ Cid, Jose Ángel; Tojo, F. Adrián F. (2018). "Una condición de Lipschitz a lo largo de una foliación transversal implica unicidad local para EDO". Revista Electrónica de Teoría Cualitativa de Ecuaciones Diferenciales . 13 (13): 1–14. arXiv : 1801.01724 . doi : 10.14232/ejqtde.2018.1.13 .

Referencias

  • Arvo, James (1992), "Matrices de rotación aleatoria rápida", en David Kirk (ed.), Graphics Gems III, San Diego: Academic Press Professional, págs. 117-120, Bibcode :1992grge.book.....K, ISBN 978-0-12-409671-4
  • Baker, Andrew (2003), Grupos matriciales: una introducción a la teoría de grupos de Lie , Springer , ISBN 978-1-85233-470-3
  • Bar-Itzhack, Itzhack Y. (noviembre-diciembre de 2000), "Nuevo método para extraer el cuaternión de una matriz de rotación", Journal of Guidance, Control and Dynamics , 23 (6): 1085–1087, Bibcode :2000JGCD...23.1085B, doi :10.2514/2.4654, ISSN  0731-5090
  • Björck, Åke; Bowie, Clazett (junio de 1971), "Un algoritmo iterativo para calcular la mejor estimación de una matriz ortogonal", SIAM Journal on Numerical Analysis , 8 (2): 358–364, Bibcode :1971SJNA....8..358B, doi :10.1137/0708036, ISSN  0036-1429
  • Cayley, Arthur (1846), "Sur quelques propriétés des determinantes gauches", Journal für die reine und angewandte Mathematik , 1846 (32): 119–123, doi :10.1515/crll.1846.32.119, ISSN  0075-4102, S2CID  199546746; reimpreso como artículo 52 en Cayley, Arthur (1889), The collected mathematics papers of Arthur Cayley, vol. I (1841–1853), Cambridge University Press , pp. 332–336
  • Diaconis, Persi ; Shahshahani, Mehrdad (1987), "El algoritmo de subgrupos para generar variables aleatorias uniformes", Probabilidad en la ingeniería y las ciencias de la información , 1 : 15–32, doi :10.1017/S0269964800000255, ISSN  0269-9648, S2CID  122752374
  • Engø, Kenth (junio de 2001), "Sobre la fórmula BCH en so(3)", BIT Numerical Mathematics , 41 (3): 629–632, doi :10.1023/A:1021979515229, ISSN  0006-3835, S2CID  126053191
  • Fan, Ky; Hoffman, Alan J. (febrero de 1955), "Algunas desigualdades métricas en el espacio de matrices", Actas de la American Mathematical Society , 6 (1): 111–116, doi : 10.2307/2032662 , ISSN  0002-9939, JSTOR  2032662
  • Fulton, William ; Harris, Joe (1991), Teoría de la representación: un primer curso , Graduate Texts in Mathematics , vol. 129, Nueva York, Berlín, Heidelberg: Springer , ISBN 978-0-387-97495-8, Sr.  1153249
  • Goldstein, Herbert ; Poole, Charles P.; Safko, John L. (2002), Mecánica clásica (tercera edición), Addison Wesley , ISBN 978-0-201-65702-9
  • Hall, Brian C. (2004), Grupos de Lie, álgebras de Lie y representaciones: una introducción elemental , Springer , ISBN 978-0-387-40122-5( GTM222 )
  • Herter, Thomas; Lott, Klaus (septiembre-octubre de 1993), "Algoritmos para descomponer matrices ortogonales 3-D en rotaciones primitivas", Computers & Graphics , 17 (5): 517–527, doi :10.1016/0097-8493(93)90003-R, ISSN  0097-8493
  • Higham, Nicholas J. (1 de octubre de 1989), "Problemas y aplicaciones de proximidad de matrices", en Gover, Michael JC; Barnett, Stephen (eds.), Aplicaciones de la teoría de matrices, Oxford University Press , págs. 1–27, ISBN 978-0-19-853625-3
  • León, Carlos A.; Massé, Jean-Claude; Rivest, Louis-Paul (febrero de 2006), "Un modelo estadístico para rotaciones aleatorias", Journal of Multivariate Analysis , 97 (2): 412–430, doi : 10.1016/j.jmva.2005.03.009 , ISSN  0047-259X
  • Miles, Roger E. (diciembre de 1965), "Sobre rotaciones aleatorias en R 3 ", Biometrika , 52 (3/4): 636–639, doi :10.2307/2333716, ISSN  0006-3444, JSTOR  2333716
  • Moler, Cleve ; Morrison, Donald (1983), "Reemplazo de raíces cuadradas por sumas pitagóricas", IBM Journal of Research and Development , 27 (6): 577–581, doi :10.1147/rd.276.0577, ISSN  0018-8646
  • Murnaghan, Francis D. (1950), "El elemento de volumen del grupo de rotación", Actas de la Academia Nacional de Ciencias , 36 (11): 670–672, Bibcode :1950PNAS...36..670M, doi : 10.1073/pnas.36.11.670 , ISSN  0027-8424, PMC  1063502 , PMID  16589056
  • Murnaghan, Francis D. (1962), Los grupos unitarios y de rotación , Lecciones sobre matemáticas aplicadas, Washington: Spartan Books
  • Cayley, Arthur (1889), Los documentos matemáticos recopilados de Arthur Cayley, vol. I (1841–1853), Cambridge University Press , págs. 332–336
  • Paeth, Alan W. (1986), "Un algoritmo rápido para la rotación general de tramas" (PDF) , Actas, Graphics Interface '86 : 77–81
  • Daubechies, Ingrid ; Sweldens, Wim (1998), "Factorización de transformadas wavelet en pasos de elevación" (PDF) , Journal of Fourier Analysis and Applications , 4 (3): 247–269, doi :10.1007/BF02476026, S2CID  195242970
  • Pique, Michael E. (1990), "Herramientas de rotación", en Andrew S. Glassner (ed.), Graphics Gems, San Diego: Academic Press Professional, págs. 465–469, ISBN 978-0-12-286166-6
  • Press, William H.; Teukolsky, Saul A.; Vetterling, William T.; Flannery, Brian P. (2007), "Sección 21.5.2. Selección de una matriz de rotación aleatoria", Recetas numéricas: el arte de la computación científica (3.ª ed.), Nueva York: Cambridge University Press, ISBN 978-0-85-0-31-2, 00:00:00 . 978-0-521-88068-8, archivado desde el original el 11-08-2011 , consultado el 18-08-2011
  • Shepperd, Stanley W. (mayo-junio de 1978), "Cuaternión a partir de la matriz de rotación", Journal of Guidance and Control , 1 (3): 223-224, doi :10.2514/3.55767b
  • Shoemake, Ken (1994), "Conversión de ángulos de Euler", en Paul Heckbert (ed.), Graphics Gems IV, San Diego: Academic Press Professional, págs. 222-229, ISBN 978-0-12-336155-4
  • Stuelpnagel, John (octubre de 1964), "Sobre la parametrización del grupo de rotación tridimensional", SIAM Review , 6 (4): 422–430, Bibcode :1964SIAMR...6..422S, doi :10.1137/1006093, ISSN  0036-1445, S2CID  13990266(También NASA-CR-53568.)
  • Varadarajan, Veeravalli S. (1984), Grupos de Lie, álgebras de Lie y su representación , Springer , ISBN 978-0-387-90969-1( GTM102 )
  • Wedderburn, Joseph HM (1934), Conferencias sobre matrices, AMS , ISBN 978-0-8218-3204-2
  • "Rotación", Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
  • Matrices de rotación en Mathworld
  • Demostración interactiva del Mes de Concientización sobre Matemáticas 2000 (requiere Java )
  • Matrices de rotación en MathPages
  • (en italiano) Una parametrización de SOn(R) mediante ángulos de Euler generalizados
  • Rotación sobre cualquier punto
Retrieved from "https://en.wikipedia.org/w/index.php?title=Rotation_matrix&oldid=1250574232"