Parte de una serie de artículos sobre |
Mecánica cuántica |
---|
La mecánica cuántica es el estudio de la materia y sus interacciones con la energía en la escala de partículas atómicas y subatómicas . Por el contrario, la física clásica explica la materia y la energía solo en una escala familiar para la experiencia humana, incluido el comportamiento de cuerpos astronómicos como la luna. La física clásica todavía se utiliza en gran parte de la ciencia y la tecnología modernas. Sin embargo, hacia fines del siglo XIX, los científicos descubrieron fenómenos tanto en el mundo grande ( macro ) como en el pequeño ( micro ) que la física clásica no podía explicar. [1] El deseo de resolver inconsistencias entre los fenómenos observados y la teoría clásica condujo a una revolución en la física, un cambio en el paradigma científico original : [2] el desarrollo de la mecánica cuántica .
Muchos aspectos de la mecánica cuántica son contraintuitivos [3] y pueden parecer paradójicos porque describen un comportamiento bastante diferente del que se observa a escalas mayores. En palabras del físico cuántico Richard Feynman , la mecánica cuántica trata con "la naturaleza tal como es: absurdo". [4] Las características de la mecánica cuántica a menudo desafían las explicaciones simples en el lenguaje cotidiano. Un ejemplo de esto es el principio de incertidumbre : las mediciones precisas de la posición no se pueden combinar con mediciones precisas de la velocidad. Otro ejemplo es el entrelazamiento : una medición realizada en una partícula (como un electrón que se mide con espín "arriba") se correlacionará con una medición en una segunda partícula (se encontrará que un electrón tiene espín "abajo") si las dos partículas tienen una historia compartida. Esto se aplicará incluso si es imposible que el resultado de la primera medición se haya transmitido a la segunda partícula antes de que tenga lugar la segunda medición.
La mecánica cuántica nos ayuda a entender la química , porque explica cómo los átomos interactúan entre sí y forman moléculas . Muchos fenómenos notables pueden explicarse utilizando la mecánica cuántica, como la superfluidez . Por ejemplo, si se coloca helio líquido enfriado a una temperatura cercana al cero absoluto en un recipiente, fluye espontáneamente hacia arriba y sobrepasa el borde del recipiente; este es un efecto que no puede explicarse mediante la física clásica.
La unificación de las ecuaciones que rigen la electricidad, el magnetismo y la luz por parte de James C. Maxwell a finales del siglo XIX dio lugar a experimentos sobre la interacción de la luz y la materia. Algunos de estos experimentos tenían aspectos que no pudieron explicarse hasta que surgió la mecánica cuántica a principios del siglo XX. [5]
Las semillas de la revolución cuántica aparecen en el descubrimiento de J. J. Thomson en 1897 de que los rayos catódicos no eran continuos sino "corpúsculos" ( electrones ). Los electrones habían sido nombrados apenas seis años antes como parte de la emergente teoría de los átomos . En 1900, Max Planck , poco convencido por la teoría atómica , descubrió que necesitaba entidades discretas como átomos o electrones para explicar la radiación del cuerpo negro . [6]
Los objetos muy calientes (al rojo vivo o al blanco vivo) parecen similares cuando se calientan a la misma temperatura. Este aspecto es el resultado de una curva común de intensidad de la luz a diferentes frecuencias (colores), que se denomina radiación de cuerpo negro. Los objetos al blanco vivo tienen intensidad en muchos colores del rango visible. Las frecuencias más bajas por encima de los colores visibles son la luz infrarroja , que también emite calor. Las teorías de onda continua de la luz y la materia no pueden explicar la curva de radiación de cuerpo negro. Planck distribuyó la energía térmica entre "osciladores" individuales de carácter indefinido pero con capacidad energética discreta; este modelo explicaba la radiación de cuerpo negro.
En aquella época, los electrones, los átomos y los osciladores discretos eran ideas exóticas para explicar fenómenos exóticos. Pero en 1905, Albert Einstein propuso que la luz también era corpuscular y que estaba formada por "cuantos de energía", en contradicción con la ciencia establecida de la luz como una onda continua, que se remonta cien años atrás, al trabajo de Thomas Young sobre la difracción .
La propuesta revolucionaria de Einstein comenzó con un nuevo análisis de la teoría del cuerpo negro de Planck, llegando a las mismas conclusiones utilizando los nuevos "cuantos de energía". Einstein luego mostró cómo los cuantos de energía se conectaban con el electrón de Thomson. En 1902, Philipp Lenard dirigió la luz de una lámpara de arco sobre placas de metal recién limpiadas alojadas en un tubo de vidrio al vacío. Midió la corriente eléctrica que salía de la placa de metal, a intensidades de luz más altas y más bajas y para diferentes metales. Lenard demostró que la cantidad de corriente -el número de electrones- dependía de la intensidad de la luz, pero que la velocidad de estos electrones no dependía de la intensidad. Este es el efecto fotoeléctrico . Las teorías de onda continua de la época predecían que una mayor intensidad de luz aceleraría la misma cantidad de corriente a una velocidad mayor, al contrario de este experimento. Los cuantos de energía de Einstein explicaron el aumento de volumen: se expulsa un electrón por cada cuanto: más cuantos significan más electrones. [6] : 23
Einstein predijo entonces que la velocidad del electrón aumentaría en proporción directa a la frecuencia de la luz por encima de un valor fijo que dependía del metal. Aquí la idea es que la energía en cuantos de energía depende de la frecuencia de la luz; la energía transferida al electrón es proporcional a la frecuencia de la luz. El tipo de metal proporciona una barrera , el valor fijo, que los electrones deben superar para salir de sus átomos, para ser emitidos desde la superficie del metal y ser medidos.
Pasaron diez años hasta que el experimento definitivo de Millikan [7] confirmó la predicción de Einstein. Durante ese tiempo, muchos científicos rechazaron la idea revolucionaria de los cuantos. [8] Pero el concepto de Planck y Einstein estaba en el aire y pronto comenzó a afectar a otras teorías de la física y de los cuánticos.
Los experimentos con luz y materia realizados a finales del siglo XIX revelaron una regularidad reproducible pero desconcertante. Cuando se hacía pasar la luz a través de gases purificados, ciertas frecuencias (colores) no pasaban. Estas "líneas" oscuras de absorción seguían un patrón distintivo: los espacios entre las líneas disminuían de forma constante. En 1889, la fórmula de Rydberg predijo las líneas del gas hidrógeno utilizando únicamente un número constante y los números enteros para indexar las líneas. [5] : v1:376 El origen de esta regularidad era desconocido. Resolver este misterio acabaría convirtiéndose en el primer gran paso hacia la mecánica cuántica.
A lo largo del siglo XIX, se fueron acumulando pruebas de la naturaleza atómica de la materia. Con el descubrimiento del electrón por parte de Thomson en 1897, los científicos comenzaron a buscar un modelo del interior del átomo. Thomson propuso que los electrones negativos nadaran en un charco de carga positiva . Entre 1908 y 1911, Rutherford demostró que la parte positiva era sólo 1/3000 del diámetro del átomo. [6] : 26
Se propusieron modelos de electrones "planetarios" que orbitaban alrededor de un "Sol" nuclear, pero no pueden explicar por qué el electrón no cae simplemente en la carga positiva. En 1913, Niels Bohr y Ernest Rutherford relacionaron los nuevos modelos atómicos con el misterio de la fórmula de Rydberg: el radio orbital de los electrones estaba limitado y las diferencias de energía resultantes coincidían con las diferencias de energía en las líneas de absorción. Esto significaba que la absorción y emisión de luz de los átomos estaba cuantificada energéticamente: solo se emitirían o absorberían energías específicas que coincidieran con la diferencia en la energía orbital. [6] : 31
Cambiar un misterio (el patrón regular de la fórmula de Rydberg) por otro (las restricciones a las órbitas de los electrones) puede no parecer un gran avance, pero el nuevo modelo atómico resumía muchos otros hallazgos experimentales. La cuantificación del efecto fotoeléctrico y ahora la cuantificación de las órbitas de los electrones prepararon el terreno para la revolución final.
A lo largo de la primera y la era moderna de la mecánica cuántica, el concepto de que la mecánica clásica debe ser válida macroscópicamente restringió los posibles modelos cuánticos. Este concepto fue formalizado por Bohr en 1923 como el principio de correspondencia . Requiere que la teoría cuántica converja a los límites clásicos. [9] : 29 Un concepto relacionado es el teorema de Ehrenfest , que muestra que los valores promedio obtenidos a partir de la mecánica cuántica (por ejemplo, posición y momento) obedecen a las leyes clásicas. [10]
En 1922, Otto Stern y Walther Gerlach demostraron que las propiedades magnéticas de los átomos de plata desafían la explicación clásica, trabajo que contribuyó al Premio Nobel de Física de 1943 para Stern . Dispararon un haz de átomos de plata a través de un campo magnético. Según la física clásica, los átomos deberían haber surgido en una pulverización, con un rango continuo de direcciones. En cambio, el haz se separó en dos, y solo dos, corrientes divergentes de átomos. [11] A diferencia de los otros efectos cuánticos conocidos en ese momento, este sorprendente resultado involucra el estado de un solo átomo. [5] : v2:130 En 1927, TE Phipps y JB Taylor obtuvieron un efecto similar, pero menos pronunciado, utilizando átomos de hidrógeno en su estado fundamental , eliminando así cualquier duda que pudiera haber sido causada por el uso de átomos de plata . [12]
En 1924, Wolfgang Pauli lo llamó "doble valor no descriptible clásicamente" y lo asoció con los electrones en la capa más externa. [13] Los experimentos llevaron a la formulación de su teoría descrita como surgida del espín del electrón en 1925, por Samuel Goudsmit y George Uhlenbeck , bajo el asesoramiento de Paul Ehrenfest . [14]
En 1924 Louis de Broglie propuso [15] que los electrones de un átomo no están limitados por "órbitas", sino por ondas estacionarias. En detalle, su solución no funcionó, pero su hipótesis –que el "corpúsculo" electrónico se mueve en el átomo como una onda– impulsó a Erwin Schrödinger a desarrollar una ecuación de onda para los electrones; cuando se aplicó al hidrógeno, la fórmula de Rydberg se reprodujo con precisión. [6] : 65
El artículo de Max Born de 1924 "Zur Quantenmechanik" fue el primer uso de las palabras "mecánica cuántica" en forma impresa. [16] [17] Su trabajo posterior incluyó el desarrollo de modelos de colisión cuántica; en una nota a pie de página de un artículo de 1926 propuso la regla de Born que conecta los modelos teóricos con los experimentos. [18]
En 1927 en Bell Labs, Clinton Davisson y Lester Germer dispararon electrones de movimiento lento a un blanco de níquel cristalino que mostró un patrón de difracción [19] [20] [21] [22] que indicaba la naturaleza ondulatoria del electrón cuya teoría fue explicada completamente por Hans Bethe . [23] Un experimento similar realizado por George Paget Thomson y Alexander Reid, disparando electrones a láminas delgadas de celuloide y más tarde películas de metal, observando anillos, descubrió de forma independiente la naturaleza ondulatoria de la materia de los electrones. [24]
En 1928, Paul Dirac publicó su ecuación de onda relativista que incorporaba simultáneamente la relatividad , predecía la antimateria y proporcionaba una teoría completa para el resultado de Stern-Gerlach. [6] : 131 Estos éxitos lanzaron una nueva comprensión fundamental de nuestro mundo a pequeña escala: la mecánica cuántica.
Planck y Einstein iniciaron la revolución con los cuantos que rompieron con los modelos continuos de la materia y la luz. Veinte años después, los "corpúsculos" como los electrones pasaron a ser modelados como ondas continuas. Este resultado pasó a llamarse dualidad onda-partícula, una idea emblemática junto con el principio de incertidumbre que distingue a la mecánica cuántica de los modelos más antiguos de la física.
En 1923 Compton demostró que los cuantos de energía de Planck-Einstein de la luz también tenían momento; tres años más tarde los "cuantos de energía" recibieron un nuevo nombre: " fotón " [25]. A pesar de su papel en casi todas las etapas de la revolución cuántica, no existió ningún modelo explícito para los cuantos de luz hasta 1927, cuando Paul Dirac comenzó a trabajar en una teoría cuántica de la radiación [26] que se convirtió en la electrodinámica cuántica . Durante las décadas siguientes, este trabajo evolucionó hacia la teoría cuántica de campos , la base de la óptica cuántica moderna y la física de partículas .
El concepto de dualidad onda-partícula dice que ni el concepto clásico de "partícula" ni el de "onda" pueden describir completamente el comportamiento de los objetos a escala cuántica, ya sean fotones o materia. La dualidad onda-partícula es un ejemplo del principio de complementariedad en física cuántica. [27] [28] [29] [30] [31] Un ejemplo elegante de dualidad onda-partícula es el experimento de la doble rendija.
En el experimento de la doble rendija, realizado originalmente por Thomas Young en 1803 [32] y luego por Augustin Fresnel una década después [32] , se dirige un haz de luz a través de dos rendijas estrechas y muy próximas entre sí, lo que produce un patrón de interferencia de bandas claras y oscuras en una pantalla. El mismo comportamiento se puede demostrar en las ondas de agua: el experimento de la doble rendija se consideró una demostración de la naturaleza ondulatoria de la luz.
Se han realizado variaciones del experimento de la doble rendija utilizando electrones, átomos e incluso moléculas grandes, [33] [34] y se observa el mismo tipo de patrón de interferencia. Así se ha demostrado que toda la materia posee características ondulatorias.
Si se reduce la intensidad de la fuente, el mismo patrón de interferencia se irá acumulando lentamente, un "recuento" o partícula (por ejemplo, un fotón o un electrón) a la vez. El sistema cuántico actúa como una onda cuando pasa por las rendijas dobles, pero como una partícula cuando se detecta. Esta es una característica típica de la complementariedad cuántica: un sistema cuántico actúa como una onda en un experimento para medir sus propiedades ondulatorias, y como una partícula en un experimento para medir sus propiedades particuladas. El punto en la pantalla del detector donde aparece cualquier partícula individual es el resultado de un proceso aleatorio. Sin embargo, el patrón de distribución de muchas partículas individuales imita el patrón de difracción producido por las ondas.
Supongamos que se desea medir la posición y la velocidad de un objeto (por ejemplo, un coche que pasa por un radar). Se puede suponer que el coche tiene una posición y una velocidad definidas en un momento determinado. La precisión con la que se pueden medir estos valores depende de la calidad del equipo de medición. Si se mejora la precisión del equipo de medición, se obtiene un resultado más cercano al valor real. Se podría suponer que la velocidad del coche y su posición se podrían definir y medir operativamente de forma simultánea, con la precisión que se desee.
En 1927, Heisenberg demostró que esta última suposición no es correcta. [36] La mecánica cuántica muestra que ciertos pares de propiedades físicas, por ejemplo, la posición y la velocidad, no pueden medirse simultáneamente, ni definirse en términos operativos, con una precisión arbitraria: cuanto más precisamente se mide una propiedad, o se define en términos operativos, menos precisamente puede tratarse la otra. Esta afirmación se conoce como el principio de incertidumbre . El principio de incertidumbre no es sólo una afirmación sobre la precisión de nuestro equipo de medición, sino que, más profundamente, se refiere a la naturaleza conceptual de las cantidades medidas: la suposición de que el coche tenía posición y velocidad definidas simultáneamente no funciona en la mecánica cuántica. En una escala de coches y personas, estas incertidumbres son insignificantes, pero cuando se trata de átomos y electrones se vuelven críticas. [37]
Heisenberg presentó, como ejemplo, la medición de la posición y el momento de un electrón utilizando un fotón de luz. Al medir la posición del electrón, cuanto mayor sea la frecuencia del fotón, más precisa será la medición de la posición del impacto del fotón con el electrón, pero mayor será la perturbación del electrón. Esto se debe a que, a partir del impacto con el fotón, el electrón absorbe una cantidad aleatoria de energía, lo que hace que la medición obtenida de su momento sea cada vez más incierta, ya que uno necesariamente está midiendo su momento perturbado posterior al impacto a partir de los productos de la colisión y no su momento original (momento que debería medirse simultáneamente con la posición). Con un fotón de menor frecuencia, la perturbación (y, por lo tanto, la incertidumbre) en el momento es menor, pero también lo es la precisión de la medición de la posición del impacto. [38]
En el centro del principio de incertidumbre está el hecho de que, para cualquier análisis matemático en los dominios de la posición y la velocidad, lograr una curva más nítida (más precisa) en el dominio de la posición solo se puede hacer a expensas de una curva más gradual (menos precisa) en el dominio de la velocidad, y viceversa. Una mayor nitidez en el dominio de la posición requiere contribuciones de más frecuencias en el dominio de la velocidad para crear la curva más estrecha, y viceversa. Es una disyuntiva fundamental inherente a cualquier medición relacionada o complementaria de este tipo , pero solo es realmente perceptible en la escala más pequeña (de Planck), cerca del tamaño de las partículas elementales .
El principio de incertidumbre muestra matemáticamente que el producto de la incertidumbre en la posición y el momento de una partícula (el momento es la velocidad multiplicada por la masa) nunca podría ser menor que un cierto valor, y que este valor está relacionado con la constante de Planck .
El colapso de la función de onda significa que una medición ha forzado o convertido un estado cuántico (probabilístico o potencial) en un valor medido definido. Este fenómeno solo se observa en la mecánica cuántica, no en la mecánica clásica.
Por ejemplo, antes de que un fotón "aparezca" en una pantalla de detección, sólo se puede describir con un conjunto de probabilidades de dónde podría aparecer. Cuando aparece, por ejemplo en el CCD de una cámara electrónica, el tiempo y el espacio en los que interactuó con el dispositivo se conocen dentro de límites muy estrictos. Sin embargo, el fotón ha desaparecido en el proceso de ser capturado (medido), y su función de onda cuántica ha desaparecido con él. En su lugar, ha aparecido algún cambio físico macroscópico en la pantalla de detección, por ejemplo, un punto expuesto en una hoja de película fotográfica, o un cambio en el potencial eléctrico en alguna celda de un CCD.
Debido al principio de incertidumbre, las afirmaciones sobre la posición y el momento de las partículas solo pueden asignar una probabilidad de que la posición o el momento tengan algún valor numérico. Por lo tanto, es necesario formular claramente la diferencia entre el estado de algo indeterminado, como un electrón en una nube de probabilidad, y el estado de algo que tiene un valor definido. Cuando un objeto puede ser "precisamente" determinado en algún aspecto, se dice que posee un estado propio .
En el experimento de Stern-Gerlach mencionado anteriormente, el modelo cuántico predice dos posibles valores de espín para el átomo en comparación con el eje magnético. Estos dos estados propios se denominan arbitrariamente "arriba" y "abajo". El modelo cuántico predice que estos estados se medirán con la misma probabilidad, pero no se observarán valores intermedios. Esto es lo que muestra el experimento de Stern-Gerlach.
Los estados propios de espín sobre el eje vertical no son simultáneamente estados propios de espín sobre el eje horizontal, por lo que este átomo tiene la misma probabilidad de tener cualquiera de los dos valores de espín sobre el eje horizontal. Como se describe en la sección anterior, medir el espín sobre el eje horizontal puede permitir que un átomo que ha girado hacia arriba gire hacia abajo: medir su espín sobre el eje horizontal colapsa su función de onda en uno de los estados propios de esta medición, lo que significa que ya no está en un estado propio de espín sobre el eje vertical, por lo que puede tomar cualquiera de los valores.
En 1924, Wolfgang Pauli propuso un nuevo grado de libertad cuántico (o número cuántico ), con dos valores posibles, para resolver las inconsistencias entre los espectros moleculares observados y las predicciones de la mecánica cuántica. En particular, el espectro del hidrógeno atómico tenía un doblete , o par de líneas que diferían en una pequeña cantidad, cuando se esperaba solo una línea. Pauli formuló su principio de exclusión , afirmando: "No puede existir un átomo en un estado cuántico tal que dos electrones dentro de él tengan el mismo conjunto de números cuánticos". [39]
Un año después, Uhlenbeck y Goudsmit identificaron el nuevo grado de libertad de Pauli con la propiedad llamada espín , cuyos efectos se observaron en el experimento de Stern-Gerlach .
En 1928, Paul Dirac amplió la ecuación de Pauli , que describía el giro de los electrones, para explicar la relatividad especial . El resultado fue una teoría que abordaba adecuadamente los eventos, como la velocidad a la que un electrón orbita el núcleo, que ocurren a una fracción sustancial de la velocidad de la luz . Al utilizar la interacción electromagnética más simple , Dirac pudo predecir el valor del momento magnético asociado con el giro del electrón y encontró el valor observado experimentalmente, que era demasiado grande para ser el de una esfera cargada giratoria regida por la física clásica . Pudo resolver las líneas espectrales del átomo de hidrógeno y reproducir a partir de los primeros principios físicos la exitosa fórmula de Sommerfeld para la estructura fina del espectro del hidrógeno.
Las ecuaciones de Dirac a veces arrojaban un valor negativo para la energía, para lo cual propuso una solución novedosa: postuló la existencia de un antielectrón y un vacío dinámico. Esto condujo a la teoría cuántica de campos de múltiples partículas .
En física cuántica, un grupo de partículas puede interactuar o crearse en conjunto de tal manera que el estado cuántico de cada partícula del grupo no puede describirse independientemente del estado de las demás, incluso cuando las partículas están separadas por una gran distancia. Esto se conoce como entrelazamiento cuántico .
Un hito temprano en el estudio del entrelazamiento fue la paradoja de Einstein-Podolsky-Rosen (EPR) , un experimento mental propuesto por Albert Einstein, Boris Podolsky y Nathan Rosen que sostiene que la descripción de la realidad física proporcionada por la mecánica cuántica es incompleta. [40] En un artículo de 1935 titulado "¿Puede considerarse completa la descripción mecánico-cuántica de la realidad física?", argumentaron a favor de la existencia de "elementos de la realidad" que no formaban parte de la teoría cuántica y especularon que debería ser posible construir una teoría que contuviera estas variables ocultas .
El experimento mental implica un par de partículas preparadas en lo que más tarde se conocería como un estado entrelazado. Einstein, Podolsky y Rosen señalaron que, en este estado, si se medía la posición de la primera partícula, se podía predecir el resultado de medir la posición de la segunda partícula. Si, en cambio, se medía el momento de la primera partícula, se podía predecir el resultado de medir el momento de la segunda partícula. Argumentaron que ninguna acción realizada sobre la primera partícula podría afectar instantáneamente a la otra, ya que esto implicaría que la información se transmitiera más rápido que la luz, lo que está prohibido por la teoría de la relatividad . Invocaron un principio, más tarde conocido como el "criterio EPR de realidad", que postula que: "Si, sin perturbar de ninguna manera un sistema, podemos predecir con certeza (es decir, con probabilidad igual a la unidad) el valor de una cantidad física, entonces existe un elemento de realidad correspondiente a esa cantidad". A partir de esto, dedujeron que la segunda partícula debe tener un valor definido tanto de posición como de momento antes de que se mida cualquiera de las cantidades. Pero la mecánica cuántica considera que estos dos observables son incompatibles y, por lo tanto, no asocia valores simultáneos para ambos a ningún sistema. Por ello, Einstein, Podolsky y Rosen concluyeron que la teoría cuántica no proporciona una descripción completa de la realidad. [41] Ese mismo año, Erwin Schrödinger utilizó la palabra "entrelazamiento" y declaró: "Yo no lo llamaría así , sino más bien el rasgo característico de la mecánica cuántica". [42]
El físico irlandés John Stewart Bell llevó el análisis del entrelazamiento cuántico mucho más allá. Dedujo que si las mediciones se realizan independientemente en las dos partículas separadas de un par entrelazado, entonces la suposición de que los resultados dependen de variables ocultas dentro de cada mitad implica una restricción matemática sobre cómo se correlacionan los resultados de las dos mediciones. Esta restricción más tarde se llamaría desigualdad de Bell . Bell luego demostró que la física cuántica predice correlaciones que violan esta desigualdad. En consecuencia, la única forma en que las variables ocultas podrían explicar las predicciones de la física cuántica es si son "no locales", lo que quiere decir que de alguna manera las dos partículas son capaces de interactuar instantáneamente sin importar cuán ampliamente se separen. [43] [44] Realizando experimentos como los que Bell sugirió, los físicos han descubierto que la naturaleza obedece a la mecánica cuántica y viola las desigualdades de Bell. En otras palabras, los resultados de estos experimentos son incompatibles con cualquier teoría de variable oculta local. [45] [46]
La idea de la teoría cuántica de campos surgió a finales de los años 1920 con el físico británico Paul Dirac, cuando intentó cuantificar la energía del campo electromagnético , de la misma manera que en la mecánica cuántica se cuantificaba la energía de un electrón en el átomo de hidrógeno. La cuantificación es un procedimiento para construir una teoría cuántica a partir de una teoría clásica.
Merriam-Webster define un campo en física como "una región o espacio en el que existe un efecto determinado (como el magnetismo )". [47] Otros efectos que se manifiestan como campos son la gravitación y la electricidad estática . [48] En 2008, el físico Richard Hammond escribió:
A veces distinguimos entre mecánica cuántica (MC) y teoría cuántica de campos (TCC). La MCC se refiere a un sistema en el que el número de partículas es fijo y los campos (como el campo electromecánico) son entidades clásicas continuas. La TCC... va un paso más allá y permite la creación y aniquilación de partículas...
Añadió, sin embargo, que la mecánica cuántica se utiliza a menudo para referirse a "toda la noción de la visión cuántica". [49] : 108
En 1931, Dirac propuso la existencia de partículas que más tarde se conocerían como antimateria . [50] Dirac compartió el Premio Nobel de Física de 1933 con Schrödinger "por el descubrimiento de nuevas formas productivas de teoría atómica". [51]
La electrodinámica cuántica (EDQ) es el nombre de la teoría cuántica de la fuerza electromagnética . Para entender la EQQ es necesario empezar por entender el electromagnetismo . El electromagnetismo puede denominarse "electrodinámica" porque es una interacción dinámica entre fuerzas eléctricas y magnéticas . El electromagnetismo comienza con la carga eléctrica .
Las cargas eléctricas son las fuentes y las que crean los campos eléctricos . Un campo eléctrico es un campo que ejerce una fuerza sobre cualquier partícula que lleve cargas eléctricas, en cualquier punto del espacio. Esto incluye el electrón, el protón e incluso los quarks , entre otros. A medida que se ejerce una fuerza, las cargas eléctricas se mueven, fluye una corriente y se produce un campo magnético. El campo magnético cambiante, a su vez, provoca una corriente eléctrica (a menudo electrones en movimiento). La descripción física de las partículas cargadas en interacción , las corrientes eléctricas, los campos eléctricos y los campos magnéticos se llama electromagnetismo.
En 1928, Paul Dirac elaboró una teoría cuántica relativista del electromagnetismo. Esta teoría fue la precursora de la electrodinámica cuántica moderna, ya que tenía ingredientes esenciales de la teoría moderna. Sin embargo, el problema de los infinitos irresolubles se desarrolló en esta teoría cuántica relativista . Años más tarde, la renormalización resolvió en gran medida este problema. Inicialmente vista como un procedimiento provisional y sospechoso por algunos de sus creadores, la renormalización finalmente fue adoptada como una herramienta importante y autoconsistente en la QED y otros campos de la física. Además, a fines de la década de 1940, los diagramas de Feynman proporcionaron una forma de hacer predicciones con QED al encontrar una amplitud de probabilidad para cada forma posible en que podría ocurrir una interacción. Los diagramas mostraron en particular que la fuerza electromagnética es el intercambio de fotones entre partículas que interactúan. [52]
El desplazamiento de Lamb es un ejemplo de predicción de la electrodinámica cuántica que se ha verificado experimentalmente. Se trata de un efecto por el cual la naturaleza cuántica del campo electromagnético hace que los niveles de energía de un átomo o ion se desvíen ligeramente de lo que serían de otro modo. Como resultado, las líneas espectrales pueden desplazarse o dividirse.
De manera similar, dentro de una onda electromagnética que se propaga libremente, la corriente también puede ser simplemente una corriente de desplazamiento abstracta , en lugar de involucrar portadores de carga. En la QED, su descripción completa hace uso esencial de partículas virtuales de vida corta . Allí, la QED nuevamente valida un concepto anterior, bastante misterioso.
El Modelo Estándar de la física de partículas es la teoría cuántica de campos que describe tres de las cuatro fuerzas fundamentales conocidas ( interacciones electromagnéticas , débiles y fuertes , excluyendo la gravedad ) en el universo y clasifica todas las partículas elementales conocidas . Se desarrolló en etapas a lo largo de la segunda mitad del siglo XX, a través del trabajo de muchos científicos de todo el mundo, y la formulación actual se finalizó a mediados de la década de 1970 tras la confirmación experimental de la existencia de los quarks . Desde entonces, la prueba del quark top (1995), el neutrino tau (2000) y el bosón de Higgs (2012) han agregado más credibilidad al Modelo Estándar. Además, el Modelo Estándar ha predicho varias propiedades de las corrientes neutras débiles y los bosones W y Z con gran precisión.
Aunque se cree que el Modelo Estándar es teóricamente autoconsistente y ha demostrado éxito en proporcionar predicciones experimentales , deja algunos fenómenos físicos sin explicar y, por lo tanto, no llega a ser una teoría completa de las interacciones fundamentales . Por ejemplo, no explica completamente la asimetría bariónica , no incorpora la teoría completa de la gravitación como se describe en la relatividad general ni explica la expansión acelerada del universo como posiblemente se describe mediante la energía oscura . El modelo no contiene ninguna partícula de materia oscura viable que posea todas las propiedades requeridas deducidas de la cosmología observacional . Tampoco incorpora oscilaciones de neutrinos y sus masas distintas de cero. En consecuencia, se utiliza como base para construir modelos más exóticos que incorporan partículas hipotéticas , dimensiones adicionales y simetrías elaboradas (como la supersimetría ) para explicar resultados experimentales que difieren del Modelo Estándar, como la existencia de materia oscura y oscilaciones de neutrinos.
Las mediciones físicas, ecuaciones y predicciones pertinentes a la mecánica cuántica son todas coherentes y tienen un nivel muy alto de confirmación. Sin embargo, la pregunta de qué dicen estos modelos abstractos sobre la naturaleza subyacente del mundo real ha recibido respuestas contradictorias. Estas interpretaciones son muy variadas y a veces algo abstractas. Por ejemplo, la interpretación de Copenhague afirma que antes de una medición, las afirmaciones sobre las propiedades de una partícula carecen completamente de sentido, mientras que la interpretación de los múltiples mundos describe la existencia de un multiverso formado por todos los universos posibles. [53]
La luz se comporta en algunos aspectos como partículas y en otros como ondas. La materia —la "materia" del universo que consiste en partículas como electrones y átomos— también exhibe un comportamiento ondulatorio . Algunas fuentes de luz, como las luces de neón , emiten solo ciertas frecuencias específicas de luz, un pequeño conjunto de colores puros distintos determinados por la estructura atómica del neón. La mecánica cuántica muestra que la luz, junto con todas las demás formas de radiación electromagnética , viene en unidades discretas, llamadas fotones , y predice sus energías espectrales (que corresponden a colores puros) y las intensidades de sus rayos de luz. Un solo fotón es un cuanto , o la partícula observable más pequeña, del campo electromagnético. Un fotón parcial nunca se observa experimentalmente. En términos más generales, la mecánica cuántica muestra que muchas propiedades de los objetos, como la posición, la velocidad y el momento angular , que parecían continuas en la vista ampliada de la mecánica clásica, resultan estar (en la escala diminuta y ampliada de la mecánica cuántica) cuantizadas . Se requiere que tales propiedades de las partículas elementales adopten uno de un conjunto de valores pequeños y discretos permitidos y, dado que la brecha entre estos valores también es pequeña, las discontinuidades solo son evidentes en escalas muy pequeñas (atómicas).
La relación entre la frecuencia de la radiación electromagnética y la energía de cada fotón es la razón por la que la luz ultravioleta puede causar quemaduras solares , pero la luz visible o infrarroja no. Un fotón de luz ultravioleta proporciona una gran cantidad de energía , suficiente para contribuir al daño celular, como ocurre en una quemadura solar. Un fotón de luz infrarroja proporciona menos energía, solo la suficiente para calentar la piel. Por lo tanto, una lámpara infrarroja puede calentar una superficie grande, tal vez lo suficientemente grande como para mantener a las personas cómodas en una habitación fría, pero no puede provocar quemaduras solares a nadie. [54]
Las aplicaciones de la mecánica cuántica incluyen el láser , el transistor , el microscopio electrónico y la resonancia magnética . Una clase especial de aplicaciones de la mecánica cuántica está relacionada con los fenómenos cuánticos macroscópicos, como el helio superfluido y los superconductores. El estudio de los semiconductores condujo a la invención del diodo y el transistor , que son indispensables para la electrónica moderna .
Incluso en un interruptor de luz sencillo , el efecto túnel cuántico es absolutamente vital, ya que de lo contrario los electrones de la corriente eléctrica no podrían atravesar la barrera de potencial formada por una capa de óxido. Los chips de memoria flash que se encuentran en las unidades USB también utilizan el efecto túnel cuántico para borrar sus celdas de memoria. [55]
Las notas están en el guión principal.
principio de complementariedad dualidad onda-partícula.
[E]n un interferómetro de tres rejillas... Observamos patrones de franjas cuánticas de alto contraste de moléculas... que tienen 810 átomos en una sola partícula.
Cuando dos sistemas, cuyos estados conocemos por su respectiva representación, entran en una interacción física temporal debido a fuerzas conocidas entre ellos y cuando después de un tiempo de influencia mutua los sistemas se separan de nuevo, entonces ya no pueden describirse como antes, es decir, dotando a cada uno de ellos de un representante propio. Yo no llamaría a eso
un
rasgo característico de la mecánica cuántica, sino más bien
el
rasgo característico de la mecánica cuántica, el que impone su total desviación de las líneas clásicas de pensamiento.
This section needs to be updated.(September 2021) |
Los siguientes títulos, todos ellos escritos por físicos en activo, intentan comunicar la teoría cuántica a la gente común, utilizando un mínimo de aparatos técnicos.