Matrices de Pauli

Matrices importantes en la mecánica cuántica y el estudio del espín

Wolfgang Pauli (1900–1958), c. 1924. Pauli recibió el Premio Nobel de Física en 1945, nominado por Albert Einstein , por el principio de exclusión de Pauli .

En física matemática y matemáticas , las matrices de Pauli son un conjunto de tres matrices complejas de 2 × 2 que no tienen traza , son hermíticas , involutivas y unitarias . Generalmente se indican con la letra griega sigma ( σ ), pero en ocasiones se denotan con tau ( τ ) cuando se utilizan en relación con simetrías de isospín . σ 1 = σ incógnita = ( 0 1 1 0 ) , σ 2 = σ y = ( 0 i i 0 ) , σ 3 = σ el = ( 1 0 0 1 ) . {\displaystyle {\begin{alineado}\sigma _{1}=\sigma _{x}&={\begin{pmatrix}0&1\\1&0\end{pmatrix}},\\\sigma _{2}=\sigma _{y}&={\begin{pmatrix}0&-i\\i&0\end{pmatrix}},\\\sigma _{3}=\sigma _{z}&={\begin{pmatrix}1&0\\0&-1\end{pmatrix}}.\\\end{alineado}}}

Estas matrices reciben su nombre del físico Wolfgang Pauli . En mecánica cuántica , aparecen en la ecuación de Pauli , que tiene en cuenta la interacción del espín de una partícula con un campo electromagnético externo . También representan los estados de interacción de dos filtros de polarización para la polarización horizontal/vertical, la polarización de 45 grados (derecha/izquierda) y la polarización circular (derecha/izquierda).

Cada matriz de Pauli es hermítica y, junto con la matriz identidad I (a veces considerada como la matriz de Pauli cero σ 0 ), las matrices de Pauli forman una base para el espacio vectorial real de matrices hermíticas de 2 × 2. Esto significa que cualquier matriz hermítica de 2 × 2 se puede escribir de forma única como una combinación lineal de matrices de Pauli, con todos los coeficientes siendo números reales.

Los operadores hermíticos representan observables en mecánica cuántica, por lo que las matrices de Pauli abarcan el espacio de observables del complejo espacio de Hilbert bidimensional . En el contexto del trabajo de Pauli, σ k representa el observable correspondiente al espín a lo largo del k -ésimo eje de coordenadas en el espacio euclidiano tridimensional . R 3 . {\displaystyle \mathbb {R} ^{3}.}

Las matrices de Pauli (después de la multiplicación por i para hacerlas antihermíticas ) también generan transformaciones en el sentido de las álgebras de Lie : las matrices 1 , 2 , 3 forman una base para el álgebra de Lie real , que exponencia al grupo unitario especial SU(2) . [a] El álgebra generada por las tres matrices σ 1 , σ 2 , σ 3 es isomorfa al álgebra de Clifford de [1] y el álgebra asociativa (unital) generada por 1 , 2 , 3 funciona idénticamente ( es isomorfa ) a la de los cuaterniones ( ). s ( 2 ) {\displaystyle {\mathfrak {su}}(2)} R 3 , {\displaystyle \mathbb {R} ^{3},} yo {\displaystyle \mathbb {H}}

Propiedades algebraicas

Tabla Cayley ; la entrada muestra el valor de la fila multiplicado por la columna.
× σ incógnita estilo de visualización sigma _{x} σ y {\displaystyle \sigma__{y}} σ el estilo de visualización sigma _ {z}
σ incógnita estilo de visualización sigma _{x} I {\displaystyle I} i σ el {\displaystyle i\sigma _{z}} i σ y {\displaystyle -i\sigma _{y}}
σ y {\displaystyle \sigma__{y}} i σ el {\displaystyle -i\sigma _{z}} I {\displaystyle I} i σ incógnita Estilo de visualización i\sigma _{x}
σ el estilo de visualización sigma _ {z} i σ y {\displaystyle i\sigma _{y}} i σ incógnita {\displaystyle -i\sigma _{x}} I {\displaystyle I}

Las tres matrices de Pauli se pueden compactar en una sola expresión:

σ yo = ( del yo 3 del yo 1 i del yo 2 del yo 1 + i del yo 2 del yo 3 ) , {\displaystyle \sigma _{j}={\begin{pmatrix}\delta _{j3}&\delta _{j1}-i\,\delta _{j2}\\\delta _{j1}+i\,\delta _{j2}&-\delta _{j3}\end{pmatrix}},}

donde la solución de i 2 = −1 es la " unidad imaginaria ", y δ jk es el delta de Kronecker , que es igual a +1 si j = k y 0 en caso contrario. Esta expresión es útil para "seleccionar" numéricamente cualquiera de las matrices sustituyendo valores de j = 1, 2, 3, lo que a su vez es útil cuando se va a utilizar cualquiera de las matrices (pero ninguna en particular) en manipulaciones algebraicas.

Las matrices son involutivas :

σ 1 2 = σ 2 2 = σ 3 2 = i σ 1 σ 2 σ 3 = ( 1 0 0 1 ) = I , {\displaystyle \sigma _{1}^{2}=\sigma _{2}^{2}=\sigma _{3}^{2}=-i\,\sigma _{1}\sigma _{2}\sigma _{3}={\begin{pmatrix}1&0\\0&1\end{pmatrix}}=I,}

donde I es la matriz identidad .

Los determinantes y trazas de las matrices de Pauli son

det σ yo = 1 , es σ yo = 0 , {\displaystyle {\begin{aligned}\det \sigma _{j}&=-1,\\\operatorname {tr} \sigma _{j}&=0,\end{aligned}}}

de lo cual podemos deducir que cada matriz σ j tiene valores propios +1 y −1.

Con la inclusión de la matriz identidad I (a veces denotada σ 0 ), las matrices de Pauli forman una base ortogonal (en el sentido de Hilbert–Schmidt ) del espacio de Hilbert de matrices hermíticas de 2 × 2 sobre , y del espacio de Hilbert de todas las matrices complejas de 2 × 2 sobre . yo 2 {\displaystyle {\mathcal {H}}_{2}} R {\displaystyle \mathbb {R}} METRO 2 , 2 ( do ) {\displaystyle {\mathcal {M}}_{2,2}(\mathbb {C} )} do {\displaystyle \mathbb {C}}

Relaciones de conmutación y anticonmutación

Relaciones de conmutación

Las matrices de Pauli obedecen las siguientes relaciones de conmutación :

[ σ yo , σ a ] = 2 i yo mi yo a yo σ yo , {\displaystyle [\sigma _{j},\sigma _{k}]=2i\sum _{l}\varepsilon _{jkl}\,\sigma _{l},}

donde se utiliza el símbolo de Levi-Civita ε jkl .

Estas relaciones de conmutación hacen que las matrices de Pauli sean los generadores de una representación del álgebra de Lie. ( R 3 , × ) s ( 2 ) s o ( 3 ) . {\displaystyle (\mathbb {R} ^{3},\times )\cong {\mathfrak {su}}(2)\cong {\mathfrak {so}}(3).}

Relaciones anticonmutativas

También satisfacen las relaciones de anticonmutación :

{ σ yo , σ a } = 2 del yo a I , {\displaystyle \{\sigma _{j},\sigma _{k}\}=2\delta _{jk}\,I,}

donde se define como y δ jk es el delta de Kronecker . I denota la matriz identidad 2 × 2 . { σ yo , σ a } {\displaystyle \{\sigma _{j},\sigma _{k}\}} σ yo σ a + σ a σ yo , {\displaystyle \sigma _{j}\sigma _{k}+\sigma _{k}\sigma _{j},}

Estas relaciones de anticonmutación hacen que las matrices de Pauli sean los generadores de una representación del álgebra de Clifford para denotados R 3 , {\displaystyle \mathbb {R} ^{3},} do yo 3 ( R ) . {\displaystyle \mathrm {Cl} _ {3}(\mathbb {R} ).}

La construcción habitual de generadores utilizando el álgebra de Clifford recupera las relaciones de conmutación anteriores, hasta factores numéricos sin importancia. σ yo a = 1 4 [ σ yo , σ a ] {\displaystyle \sigma _{jk}={\tfrac {1}{4}}[\sigma _{j},\sigma _{k}]} s o ( 3 ) {\displaystyle {\mathfrak {entonces}}(3)}

A continuación se dan algunos conmutadores y anticonmutadores explícitos como ejemplos:

ConmutadoresAnticonmutadores
[ σ 1 , σ 1 ] = 0 [ σ 1 , σ 2 ] = 2 i σ 3 [ σ 2 , σ 3 ] = 2 i σ 1 [ σ 3 , σ 1 ] = 2 i σ 2 {\displaystyle {\begin{aligned}\left[\sigma _{1},\sigma _{1}\right]&=0\\\left[\sigma _{1},\sigma _{2}\right]&=2i\sigma _{3}\\\left[\sigma _{2},\sigma _{3}\right]&=2i\sigma _{1}\\\left[\sigma _{3},\sigma _{1}\right]&=2i\sigma _{2}\end{aligned}}}      { σ 1 , σ 1 } = 2 I { σ 1 , σ 2 } = 0 { σ 2 , σ 3 } = 0 { σ 3 , σ 1 } = 0 {\displaystyle {\begin{aligned}\left\{\sigma _{1},\sigma _{1}\right\}&=2I\\\left\{\sigma _{1},\sigma _{2}\right\}&=0\\\left\{\sigma _{2},\sigma _{3}\right\}&=0\\\left\{\sigma _{3},\sigma _{1}\right\}&=0\end{aligned}}}

Vectores propios y valores propios

Cada una de las matrices de Pauli ( hermíticas ) tiene dos valores propios : +1 y −1 . Los vectores propios normalizados correspondientes son

ψ incógnita + = 1 2 [ 1 1 ] , ψ incógnita = 1 2 [ 1 1 ] , ψ y + = 1 2 [ 1 i ] , ψ y = 1 2 [ 1 i ] , ψ el + = [ 1 0 ] , ψ el = [ 0 1 ] . {\displaystyle {\begin{aligned}\psi _{x+}&={\frac {1}{\sqrt {2}}}{\begin{bmatrix}1\\1\end{bmatrix}},&\psi _{x-}&={\frac {1}{\sqrt {2}}}{\begin{bmatrix}1\\-1\end{bmatrix}},\\\psi _{y+}&={\frac {1}{\sqrt {2}}}{\begin{bmatrix}1\\i\end{bmatrix}},&\psi _{y-}&={\frac {1}{\sqrt {2}}}{\begin{bmatrix}1\\-i\end{bmatrix}},\\\psi _{z+}&={\begin{bmatrix}1\\0\end{bmatrix}},&\psi _{z-}&={\begin{bmatrix}0\\1\end{bmatrix}}.\end{aligned}}}

Vectores de Pauli

El vector de Pauli se define mediante [b] donde , , y son una notación equivalente para las más familiares , , y . σ = σ 1 x ^ 1 + σ 2 x ^ 2 + σ 3 x ^ 3 , {\displaystyle {\vec {\sigma }}=\sigma _{1}{\hat {x}}_{1}+\sigma _{2}{\hat {x}}_{2}+\sigma _{3}{\hat {x}}_{3},} x ^ 1 {\displaystyle {\hat {x}}_{1}} x ^ 2 {\displaystyle {\hat {x}}_{2}} x ^ 3 {\displaystyle {\hat {x}}_{3}} x ^ {\displaystyle {\hat {x}}} y ^ {\displaystyle {\hat {y}}} z ^ {\displaystyle {\hat {z}}}

El vector de Pauli proporciona un mecanismo de mapeo desde una base vectorial a una base matricial de Pauli [2] de la siguiente manera: a σ = k , l a k σ x ^ k x ^ = k a k σ k = ( a 3 a 1 i a 2 a 1 + i a 2 a 3 ) . {\displaystyle {\begin{aligned}{\vec {a}}\cdot {\vec {\sigma }}&=\sum _{k,l}a_{k}\,\sigma _{\ell }\,{\hat {x}}_{k}\cdot {\hat {x}}_{\ell }\\&=\sum _{k}a_{k}\,\sigma _{k}\\&={\begin{pmatrix}a_{3}&a_{1}-ia_{2}\\a_{1}+ia_{2}&-a_{3}\end{pmatrix}}.\end{aligned}}}

Más formalmente, esto define una función de al espacio vectorial de matrices hermíticas sin traza. Esta función codifica estructuras de como un espacio vectorial normado y como un álgebra de Lie (con el producto vectorial como su corchete de Lie) a través de funciones de matrices, lo que hace que la función sea un isomorfismo de las álgebras de Lie. Esto hace que las matrices de Pauli sean entrelazadas desde el punto de vista de la teoría de la representación. R 3 {\displaystyle \mathbb {R} ^{3}} 2 × 2 {\displaystyle 2\times 2} R 3 {\displaystyle \mathbb {R} ^{3}}

Otra forma de ver el vector de Pauli es como un vector dual de matriz sin traza hermítica, es decir, un elemento de esa matriz se mapea 2 × 2 {\displaystyle 2\times 2} Mat 2 × 2 ( C ) ( R 3 ) {\displaystyle {\text{Mat}}_{2\times 2}(\mathbb {C} )\otimes (\mathbb {R} ^{3})^{*}} a a σ . {\displaystyle {\vec {a}}\mapsto {\vec {a}}\cdot {\vec {\sigma }}.}

Relación de completitud

Cada componente de se puede recuperar de la matriz (ver relación de completitud a continuación). Esto constituye una inversa del mapa , lo que hace manifiesto que el mapa es una biyección. a {\displaystyle {\vec {a}}} 1 2 tr ( ( a σ ) σ ) = a . {\displaystyle {\frac {1}{2}}\operatorname {tr} {\Bigl (}{\bigl (}{\vec {a}}\cdot {\vec {\sigma }}{\bigr )}{\vec {\sigma }}{\Bigr )}={\vec {a}}.} a a σ {\displaystyle {\vec {a}}\mapsto {\vec {a}}\cdot {\vec {\sigma }}}

Determinante

La norma está dada por el determinante (hasta un signo menos) Entonces, considerando la acción de conjugación de una matriz en este espacio de matrices, det ( a σ ) = a a = | a | 2 . {\displaystyle \det {\bigl (}{\vec {a}}\cdot {\vec {\sigma }}{\bigr )}=-{\vec {a}}\cdot {\vec {a}}=-|{\vec {a}}|^{2}.} SU ( 2 ) {\displaystyle {\text{SU}}(2)} U {\displaystyle U}

U a σ := U a σ U 1 , {\displaystyle U*{\vec {a}}\cdot {\vec {\sigma }}:=U\,{\vec {a}}\cdot {\vec {\sigma }}\,U^{-1},}

encontramos y que es hermítico y sin traza. Entonces tiene sentido definir donde tiene la misma norma que y por lo tanto interpretar como una rotación del espacio tridimensional. De hecho, resulta que la restricción especial de implica que la rotación preserva la orientación. Esto permite la definición de una función dada por det ( U a σ ) = det ( a σ ) , {\displaystyle \det(U*{\vec {a}}\cdot {\vec {\sigma }})=\det({\vec {a}}\cdot {\vec {\sigma }}),} U a σ {\displaystyle U*{\vec {a}}\cdot {\vec {\sigma }}} U a σ = a σ , {\displaystyle U*{\vec {a}}\cdot {\vec {\sigma }}={\vec {a}}'\cdot {\vec {\sigma }},} a {\displaystyle {\vec {a}}'} a , {\displaystyle {\vec {a}},} U {\displaystyle U} U {\displaystyle U} R : S U ( 2 ) S O ( 3 ) {\displaystyle R:\mathrm {SU} (2)\to \mathrm {SO} (3)}

U a σ = a σ =: ( R ( U )   a ) σ , {\displaystyle U*{\vec {a}}\cdot {\vec {\sigma }}={\vec {a}}'\cdot {\vec {\sigma }}=:(R(U)\ {\vec {a}})\cdot {\vec {\sigma }},}

donde Este mapa es la realización concreta de la doble cobertura de por y por lo tanto muestra que Los componentes de se pueden recuperar utilizando el proceso de rastreo anterior: R ( U ) S O ( 3 ) . {\displaystyle R(U)\in \mathrm {SO} (3).} S O ( 3 ) {\displaystyle \mathrm {SO} (3)} S U ( 2 ) , {\displaystyle \mathrm {SU} (2),} SU ( 2 ) S p i n ( 3 ) . {\displaystyle {\text{SU}}(2)\cong \mathrm {Spin} (3).} R ( U ) {\displaystyle R(U)}

R ( U ) i j = 1 2 tr ( σ i U σ j U 1 ) . {\displaystyle R(U)_{ij}={\frac {1}{2}}\operatorname {tr} \left(\sigma _{i}U\sigma _{j}U^{-1}\right).}

Producto cruzado

El producto vectorial viene dado por el conmutador matricial (hasta un factor de ). De hecho, la existencia de una norma se sigue del hecho de que es un álgebra de Lie (véase la forma de Killing ). 2 i {\displaystyle 2i} [ a σ , b σ ] = 2 i ( a × b ) σ . {\displaystyle [{\vec {a}}\cdot {\vec {\sigma }},{\vec {b}}\cdot {\vec {\sigma }}]=2i\,({\vec {a}}\times {\vec {b}})\cdot {\vec {\sigma }}.} R 3 {\displaystyle \mathbb {R} ^{3}}

Este producto vectorial se puede utilizar para demostrar la propiedad de preservación de la orientación del mapa anterior.

Valores propios y vectores propios

Los valores propios de son Esto se deduce inmediatamente de la ausencia de traza y del cálculo explícito del determinante.   a σ   {\displaystyle \ {\vec {a}}\cdot {\vec {\sigma }}\ }   ± | a | . {\displaystyle \ \pm |{\vec {a}}|.}

De manera más abstracta, sin calcular el determinante, lo que requiere propiedades explícitas de las matrices de Pauli, esto se deduce de ya que esto se puede factorizar en Un resultado estándar en álgebra lineal (un mapa lineal que satisface una ecuación polinómica escrita en factores lineales distintos es diagonal) significa que esto implica es diagonal con posibles valores propios . La ausencia de traza de significa que tiene exactamente uno de cada valor propio.   ( a σ ) 2 | a | 2 = 0   , {\displaystyle \ ({\vec {a}}\cdot {\vec {\sigma }})^{2}-|{\vec {a}}|^{2}=0\ ,}   ( a σ | a | ) ( a σ + | a | ) = 0. {\displaystyle \ ({\vec {a}}\cdot {\vec {\sigma }}-|{\vec {a}}|)({\vec {a}}\cdot {\vec {\sigma }}+|{\vec {a}}|)=0.}   a σ   {\displaystyle \ {\vec {a}}\cdot {\vec {\sigma }}\ }   ± | a | . {\displaystyle \ \pm |{\vec {a}}|.}   a σ   {\displaystyle \ {\vec {a}}\cdot {\vec {\sigma }}\ }

Sus vectores propios normalizados son Estas expresiones se vuelven singulares para . Se pueden rescatar dejando y tomando el límite , lo que produce los vectores propios correctos (0,1) y (1,0) de . ψ + = 1 2 | a |   ( a 3 + | a | )     [ a 3 + | a | a 1 + i a 2 ] ; ψ = 1 2 | a | ( a 3 + | a | ) [ i a 2 a 1 a 3 + | a | ]   . {\displaystyle \psi _{+}={\frac {1}{{\sqrt {2\left|{\vec {a}}\right|\ (a_{3}+\left|{\vec {a}}\right|)\ }}\ }}{\begin{bmatrix}a_{3}+\left|{\vec {a}}\right|\\a_{1}+ia_{2}\end{bmatrix}};\qquad \psi _{-}={\frac {1}{\sqrt {2|{\vec {a}}|(a_{3}+|{\vec {a}}|)}}}{\begin{bmatrix}ia_{2}-a_{1}\\a_{3}+|{\vec {a}}|\end{bmatrix}}~.} a 3 | a | {\displaystyle a_{3}\to -\left|{\vec {a}}\right|} a = | a | ( ϵ , 0 , ( 1 ϵ 2 / 2 ) ) {\displaystyle {\vec {a}}=\left|{\vec {a}}\right|(\epsilon ,0,-(1-\epsilon ^{2}/2))} ϵ 0 {\displaystyle \epsilon \to 0} σ z {\displaystyle \sigma _{z}}

Alternativamente, se pueden utilizar coordenadas esféricas para obtener los vectores propios y . a = a ( sin ϑ cos φ , sin ϑ sin φ , cos ϑ ) {\displaystyle {\vec {a}}=a(\sin \vartheta \cos \varphi ,\sin \vartheta \sin \varphi ,\cos \vartheta )} ψ + = ( cos ( ϑ / 2 ) , sin ( ϑ / 2 ) exp ( i φ ) ) {\displaystyle \psi _{+}=(\cos(\vartheta /2),\sin(\vartheta /2)\exp(i\varphi ))} ψ = ( sin ( ϑ / 2 ) exp ( i φ ) , cos ( ϑ / 2 ) ) {\displaystyle \psi _{-}=(-\sin(\vartheta /2)\exp(-i\varphi ),\cos(\vartheta /2))}

Pauli 4-vector

El 4-vector de Pauli, utilizado en la teoría del espinor, se escribe con componentes   σ μ   {\displaystyle \ \sigma ^{\mu }\ }

σ μ = ( I , σ ) . {\displaystyle \sigma ^{\mu }=(I,{\vec {\sigma }}).}

Esto define un mapa del espacio vectorial de matrices hermíticas, R 1 , 3 {\displaystyle \mathbb {R} ^{1,3}}

x μ x μ σ μ   , {\displaystyle x_{\mu }\mapsto x_{\mu }\sigma ^{\mu }\ ,}

que también codifica la métrica de Minkowski (con convención mayoritariamente negativa ) en su determinante:

det ( x μ σ μ ) = η ( x , x ) . {\displaystyle \det(x_{\mu }\sigma ^{\mu })=\eta (x,x).}

Este 4-vector también tiene una relación de completitud. Es conveniente definir un segundo 4-vector de Pauli

σ ¯ μ = ( I , σ ) . {\displaystyle {\bar {\sigma }}^{\mu }=(I,-{\vec {\sigma }}).}

y permiten subir y bajar utilizando el tensor métrico de Minkowski. La relación puede entonces escribirse x ν = 1 2 tr ( σ ¯ ν ( x μ σ μ ) ) . {\displaystyle x_{\nu }={\tfrac {1}{2}}\operatorname {tr} {\Bigl (}{\bar {\sigma }}_{\nu }{\bigl (}x_{\mu }\sigma ^{\mu }{\bigr )}{\Bigr )}.}

De manera similar al caso de 3 vectores de Pauli, podemos encontrar un grupo de matrices que actúa como isometrías en en este caso el grupo de matrices es y esto muestra De manera similar a lo anterior, esto se puede realizar explícitamente para con componentes   R 1 , 3   ; {\displaystyle \ \mathbb {R} ^{1,3}\ ;}   S L ( 2 , C )   , {\displaystyle \ \mathrm {SL} (2,\mathbb {C} )\ ,}   S L ( 2 , C ) S p i n ( 1 , 3 ) . {\displaystyle \ \mathrm {SL} (2,\mathbb {C} )\cong \mathrm {Spin} (1,3).}   S S L ( 2 , C )   {\displaystyle \ S\in \mathrm {SL} (2,\mathbb {C} )\ }

Λ ( S ) μ ν = 1 2 tr ( σ ¯ ν S σ μ S ) . {\displaystyle \Lambda (S)^{\mu }{}_{\nu }={\tfrac {1}{2}}\operatorname {tr} \left({\bar {\sigma }}_{\nu }S\sigma ^{\mu }S^{\dagger }\right).}

De hecho, la propiedad determinante se deduce abstractamente de las propiedades de traza de la matriz. Para las matrices, se cumple la siguiente identidad:   σ μ . {\displaystyle \ \sigma ^{\mu }.}   2 × 2   {\displaystyle \ 2\times 2\ }

det ( A + B ) = det ( A ) + det ( B ) + tr ( A ) tr ( B ) tr ( A B ) . {\displaystyle \det(A+B)=\det(A)+\det(B)+\operatorname {tr} (A)\operatorname {tr} (B)-\operatorname {tr} (AB).}

Es decir, los 'términos cruzados' pueden escribirse como trazas. Cuando se eligen diferentes, los términos cruzados se anulan. De esto se deduce, mostrando ahora la suma explícitamente, que como las matrices son esto es igual a   A , B   {\displaystyle \ A,B\ }   σ μ   , {\displaystyle \ \sigma ^{\mu }\ ,} det ( μ x μ σ μ ) = μ det ( x μ σ μ ) . {\textstyle \det \left(\sum _{\mu }x_{\mu }\sigma ^{\mu }\right)=\sum _{\mu }\det \left(x_{\mu }\sigma ^{\mu }\right).}   2 × 2   , {\displaystyle \ 2\times 2\ ,} μ x μ 2 det ( σ μ ) = η ( x , x ) . {\textstyle \sum _{\mu }x_{\mu }^{2}\det(\sigma ^{\mu })=\eta (x,x).}

Relación con el producto escalar y el producto vectorial

Los vectores de Pauli asignan elegantemente estas relaciones de conmutación y anticonmutación a los productos vectoriales correspondientes. Al sumar el conmutador al anticonmutador se obtiene

[ σ j , σ k ] + { σ j , σ k } = ( σ j σ k σ k σ j ) + ( σ j σ k + σ k σ j ) 2 i ε j k σ + 2 δ j k I = 2 σ j σ k {\displaystyle {\begin{aligned}\left[\sigma _{j},\sigma _{k}\right]+\{\sigma _{j},\sigma _{k}\}&=(\sigma _{j}\sigma _{k}-\sigma _{k}\sigma _{j})+(\sigma _{j}\sigma _{k}+\sigma _{k}\sigma _{j})\\2i\varepsilon _{jk\ell }\,\sigma _{\ell }+2\delta _{jk}I&=2\sigma _{j}\sigma _{k}\end{aligned}}}

de modo que,

    σ j σ k = δ j k I + i ε j k σ   .   {\displaystyle ~~\sigma _{j}\sigma _{k}=\delta _{jk}I+i\varepsilon _{jk\ell }\,\sigma _{\ell }~.~}

Al contraer cada lado de la ecuación con componentes de dos 3 -vectores a p y b q (que conmutan con las matrices de Pauli, es decir, a p σ q = σ q a p ) para cada matriz σ q y componente vectorial a p (y lo mismo con b q ) se obtiene

    a j b k σ j σ k = a j b k ( i ε j k σ + δ j k I ) a j σ j b k σ k = i ε j k a j b k σ + a j b k δ j k I .   {\displaystyle ~~{\begin{aligned}a_{j}b_{k}\sigma _{j}\sigma _{k}&=a_{j}b_{k}\left(i\varepsilon _{jk\ell }\,\sigma _{\ell }+\delta _{jk}I\right)\\a_{j}\sigma _{j}b_{k}\sigma _{k}&=i\varepsilon _{jk\ell }\,a_{j}b_{k}\sigma _{\ell }+a_{j}b_{k}\delta _{jk}I\end{aligned}}.~}

Finalmente, la traducción de la notación de índice para el producto escalar y el producto vectorial da como resultado

    ( a σ ) ( b σ ) = ( a b ) I + i ( a × b ) σ     {\displaystyle ~~{\Bigl (}{\vec {a}}\cdot {\vec {\sigma }}{\Bigr )}{\Bigl (}{\vec {b}}\cdot {\vec {\sigma }}{\Bigr )}={\Bigl (}{\vec {a}}\cdot {\vec {b}}{\Bigr )}\,I+i{\Bigl (}{\vec {a}}\times {\vec {b}}{\Bigr )}\cdot {\vec {\sigma }}~~}

( 1 )

Si i se identifica con el pseudoescalar σ x σ y σ z entonces el lado derecho se convierte en , que también es la definición del producto de dos vectores en álgebra geométrica. a b + a b {\displaystyle a\cdot b+a\wedge b}

Si definimos el operador de espín como J = es/2σ , entonces J satisface la relación de conmutación:O equivalentemente, el vector de Pauli satisface: J × J = i J {\displaystyle \mathbf {J} \times \mathbf {J} =i\hbar \mathbf {J} } σ 2 × σ 2 = i σ 2 {\displaystyle {\frac {\vec {\sigma }}{2}}\times {\frac {\vec {\sigma }}{2}}=i{\frac {\vec {\sigma }}{2}}}

Algunas relaciones de traza

Las siguientes trazas se pueden derivar utilizando las relaciones de conmutación y anticonmutación.

tr ( σ j ) = 0 tr ( σ j σ k ) = 2 δ j k tr ( σ j σ k σ ) = 2 i ε j k tr ( σ j σ k σ σ m ) = 2 ( δ j k δ m δ j δ k m + δ j m δ k ) {\displaystyle {\begin{aligned}\operatorname {tr} \left(\sigma _{j}\right)&=0\\\operatorname {tr} \left(\sigma _{j}\sigma _{k}\right)&=2\delta _{jk}\\\operatorname {tr} \left(\sigma _{j}\sigma _{k}\sigma _{\ell }\right)&=2i\varepsilon _{jk\ell }\\\operatorname {tr} \left(\sigma _{j}\sigma _{k}\sigma _{\ell }\sigma _{m}\right)&=2\left(\delta _{jk}\delta _{\ell m}-\delta _{j\ell }\delta _{km}+\delta _{jm}\delta _{k\ell }\right)\end{aligned}}}

Si también se considera la matriz σ 0 = I , estas relaciones se convierten en

tr ( σ α ) = 2 δ 0 α tr ( σ α σ β ) = 2 δ α β tr ( σ α σ β σ γ ) = 2 ( α β γ ) δ α β δ 0 γ 4 δ 0 α δ 0 β δ 0 γ + 2 i ε 0 α β γ tr ( σ α σ β σ γ σ μ ) = 2 ( δ α β δ γ μ δ α γ δ β μ + δ α μ δ β γ ) + 4 ( δ α γ δ 0 β δ 0 μ + δ β μ δ 0 α δ 0 γ ) 8 δ 0 α δ 0 β δ 0 γ δ 0 μ + 2 i ( α β γ μ ) ε 0 α β γ δ 0 μ {\displaystyle {\begin{aligned}\operatorname {tr} \left(\sigma _{\alpha }\right)&=2\delta _{0\alpha }\\\operatorname {tr} \left(\sigma _{\alpha }\sigma _{\beta }\right)&=2\delta _{\alpha \beta }\\\operatorname {tr} \left(\sigma _{\alpha }\sigma _{\beta }\sigma _{\gamma }\right)&=2\sum _{(\alpha \beta \gamma )}\delta _{\alpha \beta }\delta _{0\gamma }-4\delta _{0\alpha }\delta _{0\beta }\delta _{0\gamma }+2i\varepsilon _{0\alpha \beta \gamma }\\\operatorname {tr} \left(\sigma _{\alpha }\sigma _{\beta }\sigma _{\gamma }\sigma _{\mu }\right)&=2\left(\delta _{\alpha \beta }\delta _{\gamma \mu }-\delta _{\alpha \gamma }\delta _{\beta \mu }+\delta _{\alpha \mu }\delta _{\beta \gamma }\right)+4\left(\delta _{\alpha \gamma }\delta _{0\beta }\delta _{0\mu }+\delta _{\beta \mu }\delta _{0\alpha }\delta _{0\gamma }\right)-8\delta _{0\alpha }\delta _{0\beta }\delta _{0\gamma }\delta _{0\mu }+2i\sum _{(\alpha \beta \gamma \mu )}\varepsilon _{0\alpha \beta \gamma }\delta _{0\mu }\end{aligned}}}

donde los índices griegos α , β , γ y μ asumen valores de {0, x , y , z } y la notación se utiliza para denotar la suma sobre la permutación cíclica de los índices incluidos. ( α ) {\textstyle \sum _{(\alpha \ldots )}}

Exponencial de un vector de Pauli

Para

a = a n ^ , | n ^ | = 1 , {\displaystyle {\vec {a}}=a{\hat {n}},\quad |{\hat {n}}|=1,}

se tiene, para potencias pares, 2 p , p = 0, 1, 2, 3, ...

( n ^ σ ) 2 p = I , {\displaystyle ({\hat {n}}\cdot {\vec {\sigma }})^{2p}=I,}

que se puede demostrar primero para el caso p = 1 utilizando las relaciones de anticonmutación. Por conveniencia, el caso p = 0 se toma como 1 por convención.

Para potencias impares, 2 q + 1, q = 0, 1, 2, 3, ...

( n ^ σ ) 2 q + 1 = n ^ σ . {\displaystyle \left({\hat {n}}\cdot {\vec {\sigma }}\right)^{2q+1}={\hat {n}}\cdot {\vec {\sigma }}\,.}

Exponenciación matricial y uso de la serie de Taylor para seno y coseno .

e i a ( n ^ σ ) = k = 0 i k [ a ( n ^ σ ) ] k k ! = p = 0 ( 1 ) p ( a n ^ σ ) 2 p ( 2 p ) ! + i q = 0 ( 1 ) q ( a n ^ σ ) 2 q + 1 ( 2 q + 1 ) ! = I p = 0 ( 1 ) p a 2 p ( 2 p ) ! + i ( n ^ σ ) q = 0 ( 1 ) q a 2 q + 1 ( 2 q + 1 ) ! {\displaystyle {\begin{aligned}e^{ia\left({\hat {n}}\cdot {\vec {\sigma }}\right)}&=\sum _{k=0}^{\infty }{\frac {i^{k}\left[a\left({\hat {n}}\cdot {\vec {\sigma }}\right)\right]^{k}}{k!}}\\&=\sum _{p=0}^{\infty }{\frac {(-1)^{p}(a{\hat {n}}\cdot {\vec {\sigma }})^{2p}}{(2p)!}}+i\sum _{q=0}^{\infty }{\frac {(-1)^{q}(a{\hat {n}}\cdot {\vec {\sigma }})^{2q+1}}{(2q+1)!}}\\&=I\sum _{p=0}^{\infty }{\frac {(-1)^{p}a^{2p}}{(2p)!}}+i({\hat {n}}\cdot {\vec {\sigma }})\sum _{q=0}^{\infty }{\frac {(-1)^{q}a^{2q+1}}{(2q+1)!}}\\\end{aligned}}} .

En la última línea, la primera suma es el coseno, mientras que la segunda suma es el seno; así que, finalmente,

    e i a ( n ^ σ ) = I cos a + i ( n ^ σ ) sin a     {\displaystyle ~~e^{ia\left({\hat {n}}\cdot {\vec {\sigma }}\right)}=I\cos {a}+i({\hat {n}}\cdot {\vec {\sigma }})\sin {a}~~}

( 2 )

que es análoga a la fórmula de Euler , extendida a los cuaterniones .

Tenga en cuenta que

det [ i a ( n ^ σ ) ] = a 2 {\displaystyle \det[ia({\hat {n}}\cdot {\vec {\sigma }})]=a^{2}} ,

mientras que el determinante de la exponencial en sí es solo 1 , lo que lo convierte en el elemento de grupo genérico de SU(2) .

Una versión más abstracta de la fórmula (2) para una matriz general de 2 × 2 se puede encontrar en el artículo sobre exponenciales matriciales . Una versión general de (2) para una función analítica (en a y − a ) se proporciona mediante la aplicación de la fórmula de Sylvester , [3]

f ( a ( n ^ σ ) ) = I f ( a ) + f ( a ) 2 + n ^ σ f ( a ) f ( a ) 2 . {\displaystyle f(a({\hat {n}}\cdot {\vec {\sigma }}))=I{\frac {f(a)+f(-a)}{2}}+{\hat {n}}\cdot {\vec {\sigma }}{\frac {f(a)-f(-a)}{2}}.}

La ley de composición de grupos deSU(2)

Una aplicación sencilla de la fórmula (2) proporciona una parametrización de la ley de composición del grupo SU(2) . [c] Se puede resolver directamente para c en e i a ( n ^ σ ) e i b ( m ^ σ ) = I ( cos a cos b n ^ m ^ sin a sin b ) + i ( n ^ sin a cos b + m ^ sin b cos a n ^ × m ^   sin a sin b ) σ = I cos c + i ( k ^ σ ) sin c = e i c ( k ^ σ ) , {\displaystyle {\begin{aligned}e^{ia\left({\hat {n}}\cdot {\vec {\sigma }}\right)}e^{ib\left({\hat {m}}\cdot {\vec {\sigma }}\right)}&=I\left(\cos a\cos b-{\hat {n}}\cdot {\hat {m}}\sin a\sin b\right)+i\left({\hat {n}}\sin a\cos b+{\hat {m}}\sin b\cos a-{\hat {n}}\times {\hat {m}}~\sin a\sin b\right)\cdot {\vec {\sigma }}\\&=I\cos {c}+i\left({\hat {k}}\cdot {\vec {\sigma }}\right)\sin c\\&=e^{ic\left({\hat {k}}\cdot {\vec {\sigma }}\right)},\end{aligned}}}

que especifica la multiplicación genérica de grupos, donde, evidentemente, la ley esférica de los cosenos . Dado c , entonces, cos c = cos a cos b n ^ m ^ sin a sin b   , {\displaystyle \cos c=\cos a\cos b-{\hat {n}}\cdot {\hat {m}}\sin a\sin b~,} k ^ = 1 sin c ( n ^ sin a cos b + m ^ sin b cos a n ^ × m ^ sin a sin b ) . {\displaystyle {\hat {k}}={\frac {1}{\sin c}}\left({\hat {n}}\sin a\cos b+{\hat {m}}\sin b\cos a-{\hat {n}}\times {\hat {m}}\sin a\sin b\right).}

En consecuencia, los parámetros de rotación compuestos en este elemento de grupo (una forma cerrada de la respectiva expansión BCH en este caso) simplemente ascienden a [4]

e i c k ^ σ = exp ( i c sin c ( n ^ sin a cos b + m ^ sin b cos a n ^ × m ^   sin a sin b ) σ ) . {\displaystyle e^{ic{\hat {k}}\cdot {\vec {\sigma }}}=\exp \left(i{\frac {c}{\sin c}}\left({\hat {n}}\sin a\cos b+{\hat {m}}\sin b\cos a-{\hat {n}}\times {\hat {m}}~\sin a\sin b\right)\cdot {\vec {\sigma }}\right).}

(Por supuesto, cuando es paralelo a , también lo es , y c = a + b .) n ^ {\displaystyle {\hat {n}}} m ^ {\displaystyle {\hat {m}}} k ^ {\displaystyle {\hat {k}}}

Acción adjunta

También es sencillo calcular la acción adjunta sobre el vector de Pauli, es decir, la rotación de cualquier ángulo a lo largo de cualquier eje : a {\displaystyle a} n ^ {\displaystyle {\hat {n}}} R n ( a )   σ   R n ( a ) = e i a 2 ( n ^ σ )   σ   e i a 2 ( n ^ σ ) = σ cos ( a ) + n ^ × σ   sin ( a ) + n ^   n ^ σ   ( 1 cos ( a ) )   . {\displaystyle R_{n}(-a)~{\vec {\sigma }}~R_{n}(a)=e^{i{\frac {a}{2}}\left({\hat {n}}\cdot {\vec {\sigma }}\right)}~{\vec {\sigma }}~e^{-i{\frac {a}{2}}\left({\hat {n}}\cdot {\vec {\sigma }}\right)}={\vec {\sigma }}\cos(a)+{\hat {n}}\times {\vec {\sigma }}~\sin(a)+{\hat {n}}~{\hat {n}}\cdot {\vec {\sigma }}~(1-\cos(a))~.}

Tomando el producto escalar de cualquier vector unitario con la fórmula anterior se genera la expresión de cualquier operador de cúbit individual bajo cualquier rotación. Por ejemplo, se puede demostrar que . R y ( π 2 ) σ x R y ( π 2 ) = x ^ ( y ^ × σ ) = σ z {\textstyle R_{y}{\mathord {\left(-{\frac {\pi }{2}}\right)}}\,\sigma _{x}\,R_{y}{\mathord {\left({\frac {\pi }{2}}\right)}}={\hat {x}}\cdot \left({\hat {y}}\times {\vec {\sigma }}\right)=\sigma _{z}}

Relación de completitud

Una notación alternativa que se utiliza comúnmente para las matrices de Pauli es escribir el índice vectorial k en superíndice y los índices de la matriz como subíndices, de modo que el elemento en la fila α y la columna β de la k -ésima matriz de Pauli sea σ k αβ .

En esta notación, la relación de completitud para las matrices de Pauli se puede escribir

σ α β σ γ δ k = 1 3 σ α β k σ γ δ k = 2 δ α δ δ β γ δ α β δ γ δ . {\displaystyle {\vec {\sigma }}_{\alpha \beta }\cdot {\vec {\sigma }}_{\gamma \delta }\equiv \sum _{k=1}^{3}\sigma _{\alpha \beta }^{k}\,\sigma _{\gamma \delta }^{k}=2\,\delta _{\alpha \delta }\,\delta _{\beta \gamma }-\delta _{\alpha \beta }\,\delta _{\gamma \delta }.}
Prueba

El hecho de que las matrices de Pauli, junto con la matriz identidad I , formen una base ortogonal para el espacio de Hilbert de todas las matrices hermíticas complejas 2 × 2 significa que podemos expresar cualquier matriz hermítica M como donde c es un número complejo y a es un vector complejo de 3 componentes. Es sencillo demostrar, utilizando las propiedades enumeradas anteriormente, que donde " tr " denota la traza , y por lo tanto que que puede reescribirse en términos de índices de matriz como donde la suma sobre los índices repetidos está implícita γ y δ . Dado que esto es cierto para cualquier elección de la matriz M , la relación de completitud se deduce como se indicó anteriormente. QED M = c I + k a k σ k {\displaystyle M=c\,I+\sum _{k}a_{k}\,\sigma ^{k}} tr ( σ j σ k ) = 2 δ j k {\displaystyle \operatorname {tr} \left(\sigma ^{j}\,\sigma ^{k}\right)=2\,\delta _{jk}} c = 1 2 tr M , a k = 1 2 tr σ k M .     2 M = I tr M + k σ k tr σ k M   , {\displaystyle {\begin{aligned}c&={}{\tfrac {1}{2}}\,\operatorname {tr} \,M\,,{\begin{aligned}&&a_{k}&={\tfrac {1}{2}}\,\operatorname {tr} \,\sigma ^{k}\,M.\end{aligned}}\\[3pt]\therefore ~~2\,M&=I\,\operatorname {tr} \,M+\sum _{k}\sigma ^{k}\,\operatorname {tr} \,\sigma ^{k}M~,\end{aligned}}} 2 M α β = δ α β M γ γ + k σ α β k σ γ δ k M δ γ   , {\displaystyle 2\,M_{\alpha \beta }=\delta _{\alpha \beta }\,M_{\gamma \gamma }+\sum _{k}\sigma _{\alpha \beta }^{k}\,\sigma _{\gamma \delta }^{k}\,M_{\delta \gamma }~,}

Como se señaló anteriormente, es común denotar la matriz unitaria 2 × 2 por σ 0 , por lo que σ 0 αβ = δ αβ . La relación de completitud se puede expresar alternativamente como k = 0 3 σ α β k σ γ δ k = 2 δ α δ δ β γ   . {\displaystyle \sum _{k=0}^{3}\sigma _{\alpha \beta }^{k}\,\sigma _{\gamma \delta }^{k}=2\,\delta _{\alpha \delta }\,\delta _{\beta \gamma }~.}

El hecho de que cualquier matriz hermítica compleja 2 × 2 pueda expresarse en términos de la matriz identidad y las matrices de Pauli también conduce a la representación de esfera de Bloch de la matriz de densidad de estados mixtos 2 × 2 ( matrices 2 × 2 semidefinidas positivas con traza unitaria). Esto puede verse expresando primero una matriz hermítica arbitraria como una combinación lineal real de { σ 0 , σ 1 , σ 2 , σ 3 } como se indicó anteriormente, y luego imponiendo las condiciones de semidefinida positiva y traza 1 .

Para un estado puro, en coordenadas polares, la matriz de densidad idempotente a = ( sin θ cos ϕ sin θ sin ϕ cos θ ) , {\displaystyle {\vec {a}}={\begin{pmatrix}\sin \theta \cos \phi &\sin \theta \sin \phi &\cos \theta \end{pmatrix}},} 1 2 ( 1 + a σ ) = ( cos 2 ( θ 2 ) e i ϕ sin ( θ 2 ) cos ( θ 2 ) e + i ϕ sin ( θ 2 ) cos ( θ 2 ) sin 2 ( θ 2 ) ) {\displaystyle {\tfrac {1}{2}}\left(\mathbf {1} +{\vec {a}}\cdot {\vec {\sigma }}\right)={\begin{pmatrix}\cos ^{2}\left({\frac {\,\theta \,}{2}}\right)&e^{-i\,\phi }\sin \left({\frac {\,\theta \,}{2}}\right)\cos \left({\frac {\,\theta \,}{2}}\right)\\e^{+i\,\phi }\sin \left({\frac {\,\theta \,}{2}}\right)\cos \left({\frac {\,\theta \,}{2}}\right)&\sin ^{2}\left({\frac {\,\theta \,}{2}}\right)\end{pmatrix}}}

actúa sobre el vector propio de estado con valor propio +1, por lo tanto actúa como un operador de proyección . ( cos ( θ 2 ) e + i ϕ sin ( θ 2 ) ) {\displaystyle {\begin{pmatrix}\cos \left({\frac {\,\theta \,}{2}}\right)&e^{+i\phi }\,\sin \left({\frac {\,\theta \,}{2}}\right)\end{pmatrix}}}

Relación con el operador de permutación

Sea P jk la transposición (también conocida como permutación) entre dos espines σ j y σ k que viven en el espacio del producto tensorial ⁠ ⁠ C 2 C 2 {\displaystyle \mathbb {C} ^{2}\otimes \mathbb {C} ^{2}} ,

P j k | σ j σ k = | σ k σ j . {\displaystyle P_{jk}\left|\sigma _{j}\sigma _{k}\right\rangle =\left|\sigma _{k}\sigma _{j}\right\rangle .}

Este operador también puede escribirse de forma más explícita como el operador de intercambio de espín de Dirac ,

P j k = 1 2 ( σ j σ k + 1 )   . {\displaystyle P_{jk}={\frac {1}{2}}\,\left({\vec {\sigma }}_{j}\cdot {\vec {\sigma }}_{k}+1\right)~.}

Por lo tanto, sus valores propios son [d] 1 o −1. Por lo tanto, puede utilizarse como término de interacción en un hamiltoniano, dividiendo los valores propios de energía de sus estados propios simétricos frente a los antisimétricos.

SU(2)

El grupo SU(2) es el grupo de Lie de matrices unitarias 2 × 2 con determinante unitario; su álgebra de Lie es el conjunto de todas las matrices antihermíticas 2 × 2 con traza 0. El cálculo directo, como el anterior, muestra que el álgebra de Lie es el álgebra real tridimensional abarcada por el conjunto { k } . En notación compacta, s u 2 {\displaystyle {\mathfrak {su}}_{2}}

s u ( 2 ) = span { i σ 1 , i σ 2 , i σ 3 } . {\displaystyle {\mathfrak {su}}(2)=\operatorname {span} \{\;i\,\sigma _{1}\,,\;i\,\sigma _{2}\,,\;i\,\sigma _{3}\;\}.}

Como resultado, cada j puede verse como un generador infinitesimal de SU(2). Los elementos de SU(2) son exponenciales de combinaciones lineales de estos tres generadores, y se multiplican como se indicó anteriormente al analizar el vector de Pauli. Aunque esto es suficiente para generar SU(2), no es una representación adecuada de su(2) , ya que los valores propios de Pauli se escalan de manera no convencional. La normalización convencional es λ = 1/2 , de modo que

s u ( 2 ) = span { i σ 1 2 , i σ 2 2 , i σ 3 2 } . {\displaystyle {\mathfrak {su}}(2)=\operatorname {span} \left\{{\frac {\,i\,\sigma _{1}\,}{2}},{\frac {\,i\,\sigma _{2}\,}{2}},{\frac {\,i\,\sigma _{3}\,}{2}}\right\}.}

Como SU(2) es un grupo compacto, su descomposición de Cartan es trivial.

SO(3)

El álgebra de Lie es isomorfa al álgebra de Lie , que corresponde al grupo de Lie SO(3) , el grupo de rotaciones en el espacio tridimensional. En otras palabras, se puede decir que las j son una realización (y, de hecho, la realización de menor dimensión) de rotaciones infinitesimales en el espacio tridimensional. Sin embargo, aunque y son isomorfas como álgebras de Lie, SU(2) y SO(3) no son isomorfas como grupos de Lie. SU(2) es en realidad una doble cobertura de SO(3) , lo que significa que hay un homomorfismo de grupo dos a uno de SU(2) a SO(3) , véase la relación entre SO(3) y SU(2) . s u ( 2 ) {\displaystyle {\mathfrak {su}}(2)} s o ( 3 ) {\displaystyle {\mathfrak {so}}(3)} s u ( 2 ) {\displaystyle {\mathfrak {su}}(2)} s o ( 3 ) {\displaystyle {\mathfrak {so}}(3)}

Cuaterniones

El espacio lineal real de { I , 1 , 2 , 3 } es isomorfo al álgebra real de cuaterniones , , representado por el espacio de los vectores base. El isomorfismo de a este conjunto está dado por el siguiente mapa (observe los signos invertidos para las matrices de Pauli): H {\displaystyle \mathbb {H} } { 1 , i , j , k } . {\displaystyle \left\{\;\mathbf {1} ,\,\mathbf {i} ,\,\mathbf {j} ,\,\mathbf {k} \;\right\}.} H {\displaystyle \mathbb {H} } 1 I , i σ 2 σ 3 = i σ 1 , j σ 3 σ 1 = i σ 2 , k σ 1 σ 2 = i σ 3 . {\displaystyle \mathbf {1} \mapsto I,\quad \mathbf {i} \mapsto -\sigma _{2}\sigma _{3}=-i\,\sigma _{1},\quad \mathbf {j} \mapsto -\sigma _{3}\sigma _{1}=-i\,\sigma _{2},\quad \mathbf {k} \mapsto -\sigma _{1}\sigma _{2}=-i\,\sigma _{3}.}

Alternativamente, el isomorfismo se puede lograr mediante un mapa que utiliza las matrices de Pauli en orden inverso, [5]

1 I , i i σ 3 , j i σ 2 , k i σ 1   . {\displaystyle \mathbf {1} \mapsto I,\quad \mathbf {i} \mapsto i\,\sigma _{3}\,,\quad \mathbf {j} \mapsto i\,\sigma _{2}\,,\quad \mathbf {k} \mapsto i\,\sigma _{1}~.}

Como el conjunto de versores U H {\displaystyle \mathbb {H} } forma un grupo isomorfo a SU(2) , U proporciona otra forma de describir SU(2) . El homomorfismo dos a uno de SU(2) a SO(3) puede darse en términos de las matrices de Pauli en esta formulación.

Física

Mecánica clásica

En mecánica clásica , las matrices de Pauli son útiles en el contexto de los parámetros de Cayley-Klein. [6] La matriz P correspondiente a la posición de un punto en el espacio se define en términos de la matriz vectorial de Pauli anterior, x {\displaystyle {\vec {x}}}

P = x σ = x σ x + y σ y + z σ z . {\displaystyle P={\vec {x}}\cdot {\vec {\sigma }}=x\,\sigma _{x}+y\,\sigma _{y}+z\,\sigma _{z}.}

En consecuencia, la matriz de transformación Q θ para rotaciones alrededor del eje x a través de un ángulo θ puede escribirse en términos de matrices de Pauli y la matriz unitaria como [6]

Q θ = 1 cos θ 2 + i σ x sin θ 2 . {\displaystyle Q_{\theta }={\boldsymbol {1}}\,\cos {\frac {\theta }{2}}+i\,\sigma _{x}\sin {\frac {\theta }{2}}.}

Se aplican expresiones similares para las rotaciones generales de vectores de Pauli, como se detalla anteriormente.

Mecánica cuántica

En mecánica cuántica , cada matriz de Pauli está relacionada con un operador de momento angular que corresponde a un observable que describe el espín de una partícula de espín 12 , en cada una de las tres direcciones espaciales. Como consecuencia inmediata de la descomposición de Cartan mencionada anteriormente, j son los generadores de una representación proyectiva ( representación de espín ) del grupo de rotación SO(3) que actúa sobre partículas no relativistas con espín 12 . Los estados de las partículas se representan como espinores de dos componentes . De la misma manera, las matrices de Pauli están relacionadas con el operador isospín .

Una propiedad interesante de las partículas con espín 12 es que deben rotarse en un ángulo de 4 π para volver a su configuración original. Esto se debe a la correspondencia de dos a uno entre SU(2) y SO(3) mencionada anteriormente, y al hecho de que, aunque uno visualiza el espín arriba/abajo como el polo norte-sur en la 2-esfera S 2 , en realidad están representados por vectores ortogonales en el espacio de Hilbert complejo bidimensional .

Para una partícula con espín 12 , el operador de espín viene dado por J = es/2σ , la representación fundamental de SU(2) . Al tomar los productos de Kronecker de esta representación consigo misma repetidamente, se pueden construir todas las representaciones irreducibles superiores. Es decir, los operadores de espín resultantes para sistemas de espín superiores en tres dimensiones espaciales, para j arbitrariamente grande , se pueden calcular utilizando este operador de espín y operadores de escalera . Se pueden encontrar en Grupo de rotación SO(3) § Una nota sobre álgebras de Lie . La fórmula análoga a la generalización anterior de la fórmula de Euler para matrices de Pauli, el elemento de grupo en términos de matrices de espín, es manejable, pero menos simple. [7]

También útil en la mecánica cuántica de sistemas multipartículas, el grupo general de Pauli G n se define como formado por todos los productos tensoriales n -veces de las matrices de Pauli.

Mecánica cuántica relativista

En la mecánica cuántica relativista , los espinores en cuatro dimensiones son matrices de 4 × 1 (o 1 × 4). Por lo tanto, las matrices de Pauli o las matrices Sigma que operan sobre estos espinores tienen que ser matrices de 4 × 4. Se definen en términos de matrices de Pauli de 2 × 2 como

Σ k = ( σ k 0 0 σ k ) . {\displaystyle {\mathsf {\Sigma }}_{k}={\begin{pmatrix}{\mathsf {\sigma }}_{k}&0\\0&{\mathsf {\sigma }}_{k}\end{pmatrix}}.}

De esta definición se deduce que las matrices tienen las mismas propiedades algebraicas que las matrices σ k .   Σ k   {\displaystyle \ {\mathsf {\Sigma }}_{k}\ }

Sin embargo, el momento angular relativista no es un trivector, sino un tetratensor de segundo orden . Por lo tanto, debe reemplazarse por Σ μν , el generador de transformaciones de Lorentz en espinores . Por la antisimetría del momento angular, los Σ μν también son antisimétricos. Por lo tanto, solo hay seis matrices independientes.   Σ k   {\displaystyle \ {\mathsf {\Sigma }}_{k}\ }

Las tres primeras son las Las tres restantes, donde las matrices α k de Dirac se definen como   Σ k ϵ j k Σ j . {\displaystyle \ \Sigma _{k\ell }\equiv \epsilon _{jk\ell }{\mathsf {\Sigma }}_{j}.}   i   Σ 0 k α k   , {\displaystyle \ -i\ \Sigma _{0k}\equiv {\mathsf {\alpha }}_{k}\ ,}

α k = ( 0 σ k σ k 0 ) . {\displaystyle {\mathsf {\alpha }}_{k}={\begin{pmatrix}0&{\mathsf {\sigma }}_{k}\\{\mathsf {\sigma }}_{k}&0\end{pmatrix}}.}

Las matrices de espín relativistas Σ μν se escriben en forma compacta en términos del conmutador de matrices gamma como

Σ μ ν = i 2 [ γ μ , γ ν ] . {\displaystyle \Sigma _{\mu \nu }={\frac {i}{2}}{\bigl [}\gamma _{\mu },\gamma _{\nu }{\bigr ]}.}

Información cuántica

En información cuántica , las puertas cuánticas de un solo cúbit son matrices unitarias de 2 × 2. Las matrices de Pauli son algunas de las operaciones de un solo cúbit más importantes. En ese contexto, la descomposición de Cartan dada anteriormente se denomina "descomposición Z-Y de una puerta de un solo cúbit". La elección de un par de Cartan diferente da como resultado una " descomposición X-Y de una puerta de un solo cúbit " similar .

Véase también

Observaciones

  1. ^ Esto se ajusta a la convención en matemáticas para la matriz exponencial , ⟼ exp( ) . En la convención en física , σ ⟼ exp(− ) , por lo tanto, en ella no es necesaria ninguna premultiplicación por i para llegar a SU(2) .
  2. ^ El vector de Pauli es un recurso formal. Puede considerarse como un elemento de , donde el espacio del producto tensorial está dotado de una aplicación inducida por el producto escalar en M 2 ( C ) R 3 {\displaystyle {\mathcal {M}}_{2}(\mathbb {C} )\otimes \mathbb {R} ^{3}} : R 3 × ( M 2 ( C ) R 3 ) M 2 ( C ) {\displaystyle \cdot :\mathbb {R} ^{3}\times ({\mathcal {M}}_{2}(\mathbb {C} )\otimes \mathbb {R} ^{3})\to {\mathcal {M}}_{2}(\mathbb {C} )} R 3 . {\displaystyle \mathbb {R} ^{3}.}
  3. ^ La relación entre a, b, c, n, m, k derivada aquí en la representación 2 × 2 se cumple para todas las representaciones de SU(2) , siendo una identidad de grupo . Nótese que, en virtud de la normalización estándar de los generadores de ese grupo como la mitad de las matrices de Pauli, los parámetros a , b , c corresponden a la mitad de los ángulos de rotación del grupo de rotación. Es decir, la fórmula de Gibbs vinculada suma . k ^ tan c / 2 = ( n ^ tan a / 2 + m ^ tan b / 2 m ^ × n ^ tan a / 2   tan b / 2 ) / ( 1 m ^ n ^ tan a / 2   tan b / 2 ) {\displaystyle {\hat {k}}\tan c/2=({\hat {n}}\tan a/2+{\hat {m}}\tan b/2-{\hat {m}}\times {\hat {n}}\tan a/2~\tan b/2)/(1-{\hat {m}}\cdot {\hat {n}}\tan a/2~\tan b/2)}
  4. ^ Explícitamente, en la convención de "matrices del espacio derecho en elementos de matrices del espacio izquierdo", es ( 1 0 0 0 0 0 1 0 0 1 0 0 0 0 0 1 )   . {\displaystyle \left({\begin{smallmatrix}1&0&0&0\\0&0&1&0\\0&1&0&0\\0&0&0&1\end{smallmatrix}}\right)~.}

Notas

  1. ^ Gull, SF; Lasenby, AN; Doran, CJL (enero de 1993). "Los números imaginarios no son reales: el álgebra geométrica del espacio-tiempo" (PDF) . Encontrado. Phys . 23 (9): 1175–1201. Bibcode :1993FoPh...23.1175G. doi :10.1007/BF01883676. S2CID  14670523 . Consultado el 5 de mayo de 2023 – a través de geometry.mrao.cam.ac.uk.
  2. ^ Ver el mapa de espinor .
  3. ^ Nielsen, Michael A .; Chuang, Isaac L. (2000). Computación cuántica e información cuántica . Cambridge, Reino Unido: Cambridge University Press. ISBN 978-0-521-63235-5.OCLC 43641333  .
  4. ^ Gibbs, JW (1884). "4. Sobre el cálculo diferencial e integral de vectores". Elementos de análisis vectorial . New Haven, CT: Tuttle, Moorehouse & Taylor. pág. 67.En realidad, sin embargo, la fórmula se remonta a Olinde Rodrigues (1840), repleta de medio ángulo: Rodrigues, Olinde (1840). "Des lois géometriques qui regissent les déplacements d' un systéme solide dans l' espace, et de la variación des coordonnées provenant de ces déplacement considérées indépendant des cause qui peuvent les produire" (PDF) . J. Matemáticas. Pures Appl. 5 : 380–440.
  5. ^ Nakahara, Mikio (2003). Geometría, Topología y Física (2ª ed.). Prensa CRC. pag. XXII. ISBN 978-0-7503-0606-5– a través de Google Books.
  6. ^ ab Goldstein, Herbert (1959). Mecánica clásica . Addison-Wesley. págs. 109-118.
  7. ^ Curtright, TL ; Fairlie, DB ; Zachos, CK (2014). "Una fórmula compacta para rotaciones como polinomios de matriz de espín". SIGMA . 10 : 084. arXiv : 1402.3541 . Código Bibliográfico :2014SIGMA..10..084C. doi :10.3842/SIGMA.2014.084. S2CID  18776942.

Referencias

Retrieved from "https://en.wikipedia.org/w/index.php?title=Pauli_matrices&oldid=1253319486"