Este artículo necesita citas adicionales para su verificación . ( agosto de 2024 ) |
Parte de una serie de artículos sobre |
Mecánica cuántica |
---|
Una prueba de Bell , también conocida como prueba de desigualdad de Bell o experimento de Bell , es un experimento de física del mundo real diseñado para probar la teoría de la mecánica cuántica en relación con el concepto de realismo local de Albert Einstein . Bautizado con el nombre de John Stewart Bell , los experimentos prueban si el mundo real satisface o no el realismo local, que requiere la presencia de algunas variables locales adicionales (llamadas "ocultas" porque no son una característica de la teoría cuántica) para explicar el comportamiento de partículas como los fotones y los electrones . La prueba evalúa empíricamente las implicaciones del teorema de Bell . A partir de 2015 , todas las pruebas de Bell han encontrado que la hipótesis de las variables ocultas locales es inconsistente con la forma en que se comportan los sistemas físicos. [1][update]
En los laboratorios de física se han realizado muchos tipos de pruebas de Bell, a menudo con el objetivo de mejorar los problemas de diseño o configuración experimental que podrían, en principio, afectar la validez de los hallazgos de pruebas de Bell anteriores . Esto se conoce como "cerrar lagunas en las pruebas de Bell ". [1]
Las violaciones de la desigualdad de Bell también se utilizan en algunos protocolos de criptografía cuántica , mediante los cuales se detecta la presencia de un espía cuando las desigualdades de Bell dejan de ser violadas.
El test de Bell tiene su origen en el debate entre Einstein y otros pioneros de la física cuántica, principalmente Niels Bohr . Una característica de la teoría de la mecánica cuántica en debate fue el significado del principio de incertidumbre de Heisenberg . Este principio establece que si se conoce cierta información sobre una partícula dada, existe otra información sobre ella que es imposible de conocer. Un ejemplo de esto se encuentra en las observaciones de la posición y el momento de una partícula dada. Según el principio de incertidumbre, el momento de una partícula y su posición no pueden determinarse simultáneamente con una precisión arbitrariamente alta. [2]
En 1935, Einstein, Boris Podolsky y Nathan Rosen publicaron una afirmación de que la mecánica cuántica predice que se podría observar más información sobre un par de partículas entrelazadas de lo que permitía el principio de Heisenberg, lo que solo sería posible si la información viajara instantáneamente entre las dos partículas. Esto produce una paradoja que llegó a conocerse como la " paradoja EPR " en honor a los tres autores. Surge si cualquier efecto sentido en una ubicación no es el resultado de una causa que ocurrió en su cono de luz pasado , en relación con su ubicación. Esta acción a distancia parece violar la causalidad , al permitir que la información entre las dos ubicaciones viaje más rápido que la velocidad de la luz. [ cita requerida ] Sin embargo, es un error común pensar que cualquier información puede ser compartida entre dos observadores más rápido que la velocidad de la luz usando partículas entrelazadas; la transferencia de información hipotética aquí es entre las partículas. Consulte el teorema de no comunicación para obtener más explicaciones.
Basándose en esto, los autores concluyeron que la función de onda cuántica no proporciona una descripción completa de la realidad. Sugirieron que debe haber algunas variables ocultas locales en funcionamiento para explicar el comportamiento de las partículas entrelazadas. En una teoría de variables ocultas, como la que Einstein concibió, la aleatoriedad e indeterminación observadas en el comportamiento de las partículas cuánticas solo serían aparentes. Por ejemplo, si uno conociera los detalles de todas las variables ocultas asociadas con una partícula, entonces podría predecir tanto su posición como su momento. La incertidumbre que había sido cuantificada por el principio de Heisenberg simplemente sería un artefacto de no tener información completa sobre las variables ocultas. Además, Einstein argumentó que las variables ocultas deberían obedecer a la condición de localidad: cualesquiera que sean las variables ocultas en realidad, el comportamiento de las variables ocultas para una partícula no debería poder afectar instantáneamente el comportamiento de las de otra partícula lejana. Esta idea, llamada el principio de localidad , tiene sus raíces en la intuición de la física clásica de que las interacciones físicas no se propagan instantáneamente a través del espacio. Estas ideas fueron objeto de un debate continuo entre sus defensores. En particular, el propio Einstein no aprobó la forma en que Podolsky había planteado el problema en el famoso artículo EPR. [3] [4]
En 1964, John Stewart Bell propuso su famoso teorema, que afirma que ninguna teoría física de variables locales ocultas puede reproducir jamás todas las predicciones de la mecánica cuántica. Implícita en el teorema está la proposición de que el determinismo de la física clásica es fundamentalmente incapaz de describir la mecánica cuántica. Bell amplió el teorema para proporcionar lo que se convertiría en la base conceptual de los experimentos de prueba de Bell. [ cita requerida ]
Un experimento típico implica la observación de partículas, a menudo fotones, en un aparato diseñado para producir pares entrelazados y permitir la medición de alguna característica de cada una, como su espín . Los resultados del experimento podrían entonces compararse con lo predicho por el realismo local y con lo predicho por la mecánica cuántica. [ cita requerida ]
En teoría, los resultados podrían ser "casualmente" consistentes con ambos. Para abordar este problema, Bell propuso una descripción matemática del realismo local que ponía un límite estadístico a la probabilidad de esa eventualidad. Si los resultados de un experimento violan la desigualdad de Bell, las variables ocultas locales pueden descartarse como su causa. Investigadores posteriores se basaron en el trabajo de Bell proponiendo nuevas desigualdades que sirven al mismo propósito y refinan la idea básica de una manera u otra. [5] [6] En consecuencia, el término "desigualdad de Bell" puede significar cualquiera de una serie de desigualdades satisfechas por las teorías de variables ocultas locales; en la práctica, muchos experimentos actuales emplean la desigualdad CHSH . Todas estas desigualdades, como la original ideada por Bell, expresan la idea de que asumir el realismo local impone restricciones a los resultados estadísticos de los experimentos sobre conjuntos de partículas que han participado en una interacción y luego se han separado. [ cita requerida ]
Hasta la fecha, todas las pruebas de Bell han respaldado la teoría de la física cuántica, y no la hipótesis de las variables ocultas locales. Estos esfuerzos por validar experimentalmente las violaciones de las desigualdades de Bell dieron como resultado que John Clauser , Alain Aspect y Anton Zeilinger recibieran el Premio Nobel de Física 2022. [7]
En la práctica, la mayoría de los experimentos reales han utilizado luz, que se supone que se emite en forma de fotones similares a partículas (producidos por cascada atómica o conversión descendente paramétrica espontánea ), en lugar de los átomos que Bell tenía en mente originalmente. La propiedad de interés es, en los experimentos más conocidos, la dirección de polarización , aunque se pueden utilizar otras propiedades. Estos experimentos se dividen en dos clases, dependiendo de si los analizadores utilizados tienen uno o dos canales de salida.
El diagrama muestra un experimento óptico típico del tipo de dos canales para el cual Alain Aspect sentó un precedente en 1982. [8] Se registran las coincidencias (detecciones simultáneas), los resultados se clasifican como '++', '+−', '−+' o '−−' y se acumulan los recuentos correspondientes.
Se llevan a cabo cuatro subexperimentos separados, correspondientes a los cuatro términos E ( a , b ) en la estadística de prueba S (ecuación (2) que se muestra a continuación). Los ajustes a , a ′, b y b ′ generalmente se eligen en la práctica como 0, 45°, 22,5° y 67,5° respectivamente —los "ángulos de prueba de Bell"— siendo estos aquellos para los cuales la fórmula mecánica cuántica da la mayor violación de la desigualdad.
Para cada valor seleccionado de a y b se registran los números de coincidencias en cada categoría ( N ++ , N−− , N +− y N−+ ) . La estimación experimental para E ( a , b ) se calcula entonces como:
( 1 ) |
Una vez que se han estimado las cuatro E , se realiza una estimación experimental de la estadística de prueba.
( 2 ) |
se puede encontrar. Si S es numéricamente mayor que 2, se ha infringido la desigualdad CHSH. Se declara que el experimento ha respaldado la predicción de la mecánica cuántica y descartado todas las teorías de variables ocultas locales.
Sin embargo, para justificar el uso de la expresión (2, se ha tenido que hacer una fuerte suposición, a saber, que la muestra de pares detectados es representativa de los pares emitidos por la fuente. La negación de esta suposición se denomina laguna del muestreo justo .
Antes de 1982, todas las pruebas de Bell reales utilizaban polarizadores de "canal único" y variaciones de una desigualdad diseñada para esta configuración. Esta última se describe en el muy citado artículo de Clauser, Horne, Shimony y Holt de 1969 como la adecuada para el uso práctico. [5] Al igual que con la prueba CHSH, hay cuatro subexperimentos en los que cada polarizador adopta una de dos configuraciones posibles, pero además hay otros subexperimentos en los que uno u otro polarizador o ambos están ausentes. Los recuentos se toman como antes y se utilizan para estimar la estadística de prueba.
( 3 ) |
donde el símbolo ∞ indica ausencia de polarizador.
Si S es mayor que 0, se declara que el experimento ha infringido la desigualdad CH y, por lo tanto, ha refutado las variables ocultas locales. Esta desigualdad se conoce como desigualdad CH en lugar de CHSH, ya que también fue derivada en un artículo de 1974 de Clauser y Horne de manera más rigurosa y bajo supuestos más débiles. [9]
Además de los supuestos teóricos, existen otros prácticos. Por ejemplo, puede haber una serie de "coincidencias accidentales" además de las que resultan de interés. Se supone que no se introduce ningún sesgo al restar su número estimado antes de calcular S , pero algunos no consideran que sea obvio que esto sea así. Puede haber problemas de sincronización (ambigüedad en el reconocimiento de pares porque en la práctica no se detectarán exactamente al mismo tiempo).
Sin embargo, a pesar de todas las deficiencias de los experimentos actuales, surge un hecho sorprendente: los resultados son, en una muy buena aproximación, lo que predice la mecánica cuántica. Si los experimentos imperfectos nos dan una superposición tan excelente con las predicciones cuánticas, la mayoría de los físicos cuánticos en activo estarían de acuerdo con John Bell en esperar que, cuando se realice una prueba de Bell perfecta, las desigualdades de Bell seguirán siendo violadas. Esta actitud ha llevado al surgimiento de un nuevo subcampo de la física conocido como teoría de la información cuántica . Uno de los principales logros de esta nueva rama de la física es demostrar que la violación de las desigualdades de Bell conduce a la posibilidad de una transferencia segura de información, que utiliza la llamada criptografía cuántica (que implica estados entrelazados de pares de partículas).
Durante el último medio siglo, se han llevado a cabo una gran cantidad de experimentos de prueba de Bell. Los experimentos se interpretan comúnmente para descartar teorías locales de variables ocultas, y en 2015 se realizó un experimento que no está sujeto ni a la laguna de localidad ni a la laguna de detección (Hensen et al. [10] ). Un experimento libre de la laguna de localidad es aquel en el que para cada medición separada y en cada ala del experimento, se elige una nueva configuración y se completa la medición antes de que las señales puedan comunicar las configuraciones de un ala del experimento a la otra. Un experimento libre de la laguna de detección es aquel en el que cerca del 100% de los resultados de medición exitosos en un ala del experimento se emparejan con una medición exitosa en la otra ala. Este porcentaje se llama eficiencia del experimento. Los avances en la tecnología han llevado a una gran variedad de métodos para probar desigualdades de tipo Bell.
Algunos de los experimentos más conocidos y recientes incluyen:
Leonard Ralph Kasday, Jack R. Ullman y Chien-Shiung Wu llevaron a cabo la primera prueba de Bell experimental, utilizando pares de fotones producidos por la desintegración del positronio y analizados por dispersión Compton . El experimento observó correlaciones de polarización de fotones consistentes con las predicciones cuánticas e inconsistentes con los modelos realistas locales que obedecen a la dependencia de polarización conocida de la dispersión Compton. Debido a la baja selectividad de polarización de la dispersión Compton, los resultados no violaron una desigualdad de Bell. [11] [12]
Stuart J. Freedman y John Clauser llevaron a cabo la primera prueba de Bell que observó una violación de la desigualdad de Bell, utilizando la desigualdad de Freedman, una variante de la desigualdad CH74 . [13]
Alain Aspect y su equipo en Orsay, París, llevaron a cabo tres pruebas de Bell utilizando fuentes de cascada de calcio. La primera y la última utilizaron la desigualdad CH74 . La segunda fue la primera aplicación de la desigualdad CHSH . La tercera (y más famosa) se organizó de tal manera que la elección entre las dos configuraciones en cada lado se realizó durante el vuelo de los fotones (como sugirió originalmente John Bell ). [14] [15]
Los experimentos de prueba de Bell de Ginebra de 1998 demostraron que la distancia no destruía el "entrelazamiento". La luz se envió a través de cables de fibra óptica a distancias de varios kilómetros antes de ser analizada. Como en casi todas las pruebas de Bell desde aproximadamente 1985, se utilizó una fuente de "conversión descendente paramétrica" (PDC). [16] [17]
En 1998, Gregor Weihs y un equipo en Innsbruck, dirigido por Anton Zeilinger , llevaron a cabo un experimento que cerró la brecha de la "localidad", mejorando el de Aspect de 1982. La elección del detector se realizó mediante un proceso cuántico para garantizar que fuera aleatorio. Esta prueba violó la desigualdad CHSH en más de 30 desviaciones estándar, y las curvas de coincidencia coincidieron con las predichas por la teoría cuántica. [18]
Este es el primero de nuevos experimentos de tipo Bell con más de dos partículas; en este caso se utiliza el llamado estado GHZ de tres partículas. [19]
La falla de detección se cerró por primera vez en un experimento con dos iones atrapados entrelazados, llevado a cabo en el grupo de almacenamiento de iones de David Wineland en el Instituto Nacional de Estándares y Tecnología en Boulder. El experimento tuvo eficiencias de detección muy superiores al 90%. [20]
Utilizando desintegraciones semileptónicas B0 de Υ(4S) en el experimento de Belle, se observa una clara violación de la desigualdad de Bell en la correlación partícula-antipartícula. [21]
Se descarta una clase específica de teorías no locales sugeridas por Anthony Leggett . Basándose en esto, los autores concluyen que cualquier posible teoría de variables ocultas no locales que sea consistente con la mecánica cuántica debe ser altamente contraintuitiva. [22] [23]
Este experimento llenó un vacío al proporcionar una separación de 18 km entre detectores, lo que es suficiente para permitir la finalización de las mediciones del estado cuántico antes de que cualquier información pudiera haber viajado entre los dos detectores. [24] [25]
Este fue el primer experimento en el que se probaron las desigualdades de Bell con qubits de estado sólido ( se utilizaron qubits superconductores de fase Josephson ). Este experimento superó la laguna de detección utilizando un par de qubits superconductores en un estado entrelazado. Sin embargo, el experimento aún adolecía de la laguna de localidad porque los qubits estaban separados solo por unos pocos milímetros. [26]
Por primera vez, Marissa Giustina ha cerrado la brecha de detección de los fotones , utilizando detectores de alta eficiencia . Esto convierte a los fotones en el primer sistema para el que se han cerrado todas las brechas principales, aunque en diferentes experimentos. [27] [28]
El experimento de Christensen et al. (2013) [29] es similar al de Giustina et al. [27] Giustina et al. realizó solo cuatro ejecuciones largas con configuraciones de medición constantes (una para cada uno de los cuatro pares de configuraciones). El experimento no fue pulsado, por lo que la formación de "pares" a partir de los dos registros de resultados de medición (Alice y Bob) tuvo que realizarse después del experimento, lo que de hecho expone el experimento a la laguna de coincidencia. Esto llevó a un nuevo análisis de los datos experimentales de una manera que eliminó la laguna de coincidencia y, afortunadamente, el nuevo análisis aún mostró una violación de la desigualdad CHSH o CH apropiada. [28] Por otro lado, el experimento de Christensen et al. fue pulsado y las configuraciones de medición se restablecieron con frecuencia de manera aleatoria, aunque solo una vez cada 1000 pares de partículas, no todas las veces. [29]
En 2015, grupos independientes de Delft, Viena y Boulder publicaron en tres meses los tres primeros tests de Bell sin lagunas significativas. Los tres tests abordaban simultáneamente la laguna de detección, la laguna de localidad y la laguna de memoria. Esto los convierte en «libres de lagunas» en el sentido de que todas las lagunas concebibles restantes, como el superdeterminismo, requieren hipótesis verdaderamente exóticas que tal vez nunca se puedan solucionar experimentalmente.
El primer experimento publicado por Hensen et al. [10] utilizó un enlace fotónico para entrelazar los espines de los electrones de dos centros de defectos de nitrógeno-vacante en diamantes separados por 1,3 kilómetros y midió una violación de la desigualdad CHSH ( S = 2,42 ± 0,20). Por lo tanto, la hipótesis realista local podría rechazarse con un valor p de 0,039.
Ambos experimentos publicados simultáneamente por Giustina et al. [30] y Shalm et al. [31] utilizaron fotones entrelazados para obtener una violación de la desigualdad de Bell con alta significancia estadística (valor p ≪10 −6 ). Cabe destacar que el experimento de Shalm et al. también combinó tres tipos de generadores de números (cuasi)aleatorios para determinar las opciones de base de medición. Uno de estos métodos, detallado en un archivo auxiliar, es la “ fuente pseudoaleatoria 'cultural' ”, que implicó el uso de cadenas de bits de medios populares como las películas Back to the Future , Star Trek: Beyond the Final Frontier , Monty Python and the Holy Grail , y los programas de televisión Saved by the Bell y Dr. Who . [32]
Utilizando un testigo para las correlaciones de Bell derivadas de una desigualdad de Bell multipartita, los físicos de la Universidad de Basilea pudieron concluir por primera vez la existencia de una correlación de Bell en un sistema de muchos cuerpos compuesto por unos 480 átomos en un condensado de Bose-Einstein. Aunque no se cerraron las lagunas, este experimento muestra la posibilidad de observar correlaciones de Bell en el régimen macroscópico. [33]
Un grupo de físicos dirigido por David Kaiser, del Instituto Tecnológico de Massachusetts , y Anton Zeilinger, del Instituto de Óptica Cuántica e Información Cuántica de la Universidad de Viena, realizó un experimento que "produjo resultados consistentes con la no localidad" al medir la luz de las estrellas que habían tardado 600 años en llegar a la Tierra. [34] El experimento "representa el primer experimento que limita drásticamente la región del espacio-tiempo en la que las variables ocultas podrían ser relevantes". [35] [36] [37]
Físicos de la Universidad Ludwig Maximilian de Múnich y del Instituto Max Planck de Óptica Cuántica publicaron los resultados de un experimento en el que observaron una violación de la desigualdad de Bell utilizando estados de espín entrelazados de dos átomos con una distancia de separación de 398 metros en los que se cerraron el vacío de detección, el vacío de localidad y el vacío de memoria. La violación de S = 2,221 ± 0,033 rechazó el realismo local con un valor de significancia de P = 1,02×10 −16 al tener en cuenta 7 meses de datos y 55000 eventos o un límite superior de P = 2,57×10 −9 de una única ejecución con 10000 eventos. [38]
Un esfuerzo científico colaborativo internacional utilizó la elección humana arbitraria para definir los parámetros de medición en lugar de utilizar generadores de números aleatorios. Suponiendo que exista el libre albedrío humano, esto cerraría la “laguna de la libertad de elección”. Se reclutaron alrededor de 100.000 participantes para proporcionar información suficiente para que el experimento fuera estadísticamente significativo. [39]
En 2018, un equipo internacional utilizó la luz de dos cuásares (uno cuya luz se generó hace aproximadamente ocho mil millones de años y el otro hace aproximadamente doce mil millones de años) como base para sus parámetros de medición. [40] Este experimento amplió el marco temporal en el que los parámetros podrían haberse determinado mutuamente a al menos 7.8 mil millones de años en el pasado, una fracción sustancial del límite superdeterminista (es decir, la creación del universo hace 13.8 mil millones de años). [41]
El episodio de PBS Nova de 2019, Einstein's Quantum Riddle , documenta esta medición de la "prueba de Bell cósmica", con imágenes del equipo científico en el Observatorio del Teide, a gran altitud, ubicado en las Islas Canarias . [42]
En 2023, un equipo internacional dirigido por el grupo de Andreas Wallraff en la ETH de Zúrich demostró una violación sin lagunas de la desigualdad CHSH con circuitos superconductores entrelazados de forma determinista a través de un enlace criogénico que abarca una distancia de 30 metros. [43]
Aunque la serie de experimentos de prueba de Bell cada vez más sofisticados ha convencido a la comunidad de la física de que las teorías de variables ocultas locales son indefendibles, nunca pueden excluirse por completo. [44] Por ejemplo, la hipótesis del superdeterminismo en la que todos los experimentos y resultados (y todo lo demás) están predeterminados nunca puede excluirse (porque es infalsable ). [45]
Hasta 2015, el resultado de todos los experimentos que violan una desigualdad de Bell todavía podía explicarse teóricamente explotando la laguna de detección y/o la laguna de localidad. La laguna de localidad (o comunicación) significa que, dado que en la práctica real las dos detecciones están separadas por un intervalo temporal , la primera detección puede influir en la segunda mediante algún tipo de señal. Para evitar esta laguna, el experimentador debe asegurarse de que las partículas se separen mucho antes de ser medidas y de que el proceso de medición sea rápido. Más grave es la laguna de detección (o muestreo injusto), porque las partículas no siempre se detectan en ambas alas del experimento. Se puede imaginar que el conjunto completo de partículas se comportaría de forma aleatoria, pero los instrumentos solo detectan una submuestra que muestra correlaciones cuánticas , al permitir que la detección dependa de una combinación de variables ocultas locales y la configuración del detector. [ cita requerida ]
Los experimentadores habían expresado repetidamente que se podían esperar pruebas sin lagunas en el futuro cercano. [46] [47] En 2015, se informó de una violación de Bell sin lagunas utilizando espines de diamantes entrelazados a una distancia de 1,3 kilómetros (1300 m) [10] y corroborada por dos experimentos utilizando pares de fotones entrelazados. [30] [31]
Las teorías restantes posibles que obedecen al realismo local pueden restringirse aún más probando diferentes configuraciones espaciales, métodos para determinar los parámetros de medición y dispositivos de registro. Se ha sugerido que el uso de seres humanos para generar los parámetros de medición y observar los resultados proporciona una prueba adicional. [48] David Kaiser del MIT le dijo al New York Times en 2015 que una posible debilidad de los experimentos "sin lagunas" es que los sistemas utilizados para agregar aleatoriedad a la medición pueden estar predeterminados en un método que no se detectó en los experimentos. [49]
Un problema común en las pruebas ópticas de Bell es que sólo se detecta una pequeña fracción de los fotones emitidos. Es posible entonces que las correlaciones de los fotones detectados no sean representativas: aunque muestran una violación de una desigualdad de Bell, si se detectaran todos los fotones, la desigualdad de Bell en realidad se respetaría. Esto fue observado por primera vez por Philip M. Pearle en 1970, [50] quien ideó un modelo de variable oculta local que simulaba una violación de Bell al permitir que el fotón se detectara sólo si la configuración de medición era favorable. La suposición de que esto no sucede, es decir, que la pequeña muestra es en realidad representativa del conjunto se denomina suposición de muestreo justo .
Para acabar con esta suposición es necesario detectar una fracción suficientemente grande de los fotones. Esto se caracteriza generalmente en términos de la eficiencia de detección , definida como la probabilidad de que un fotodetector detecte un fotón que llega a él. Anupam Garg y N. David Mermin demostraron que cuando se utiliza un estado máximamente entrelazado y la desigualdad CHSH se requiere una eficiencia de para una violación sin lagunas. [51] Más tarde, Philippe H. Eberhard demostró que cuando se utiliza un estado parcialmente entrelazado es posible una violación sin lagunas para , [52] que es el límite óptimo para la desigualdad CHSH. [53] Otras desigualdades de Bell permiten límites incluso más bajos. Por ejemplo, existe una desigualdad de cuatro ajustes que se viola para . [54]
Históricamente, solo los experimentos con sistemas no ópticos han podido alcanzar eficiencias lo suficientemente altas como para cerrar esta brecha, como los iones atrapados, [55] los qubits superconductores, [56] y los centros de nitrógeno-vacante . [57] Estos experimentos no pudieron cerrar la brecha de localidad, lo que es fácil de hacer con los fotones. Más recientemente, sin embargo, las configuraciones ópticas han logrado alcanzar eficiencias de detección suficientemente altas mediante el uso de fotodetectores superconductores, [30] [31] y las configuraciones híbridas han logrado combinar la alta eficiencia de detección típica de los sistemas de materia con la facilidad de distribuir el entrelazamiento a una distancia típica de los sistemas fotónicos. [10]
Uno de los supuestos del teorema de Bell es el de localidad, es decir, que la elección del entorno en un sitio de medición no influye en el resultado del otro. La motivación para esta suposición es la teoría de la relatividad , que prohíbe la comunicación más rápida que la luz. Para que esta motivación se aplique a un experimento, necesita tener una separación similar a la del espacio entre sus eventos de medición. Es decir, el tiempo que pasa entre la elección del entorno de medición y la producción de un resultado debe ser más corto que el tiempo que tarda una señal de luz en viajar entre los sitios de medición. [58]
El primer experimento que intentó respetar esta condición fue el experimento de Aspect de 1982. [15] En él, los ajustes se cambiaron con la suficiente rapidez, pero de manera determinista. El primer experimento en cambiar los ajustes de manera aleatoria, con las elecciones realizadas por un generador de números aleatorios cuánticos , fue el experimento de Weihs et al. de 1998. [18] Scheidl et al. mejoraron esto aún más en 2010 al realizar un experimento entre ubicaciones separadas por una distancia de 144 km (89 mi). [59]
En muchos experimentos, especialmente aquellos basados en la polarización de fotones, los pares de eventos en las dos alas del experimento solo se identifican como pertenecientes a un solo par después de que se realiza el experimento, al juzgar si sus tiempos de detección son lo suficientemente cercanos entre sí. Esto genera una nueva posibilidad para una teoría de variables ocultas locales para "falsificar" las correlaciones cuánticas: retrasar el tiempo de detección de cada una de las dos partículas en una cantidad mayor o menor dependiendo de alguna relación entre las variables ocultas transportadas por las partículas y los ajustes del detector encontrados en la estación de medición. [60]
La laguna de coincidencia se puede descartar por completo simplemente trabajando con una red prefijada de ventanas de detección que sean lo suficientemente cortas como para que la mayoría de los pares de eventos que ocurren en la misma ventana se originen con la misma emisión y lo suficientemente largas como para que un par verdadero no esté separado por un límite de ventana. [60]
En la mayoría de los experimentos, las mediciones se realizan repetidamente en los mismos dos lugares. Una teoría de variable oculta local podría explotar la memoria de configuraciones y resultados de mediciones anteriores para aumentar la violación de una desigualdad de Bell. Además, los parámetros físicos podrían variar en el tiempo. Se ha demostrado que, siempre que cada nuevo par de mediciones se realice con un nuevo par aleatorio de configuraciones de medición, ni la falta de homogeneidad de la memoria ni la del tiempo tienen un efecto grave en el experimento. [61] [62] [63]
Un supuesto necesario para derivar el teorema de Bell es que las variables ocultas no están correlacionadas con los parámetros de medición. Este supuesto se ha justificado con el argumento de que el experimentador tiene " libre albedrío " para elegir los parámetros, y que esto es necesario para hacer ciencia en primer lugar. Una teoría (hipotética) en la que la elección de la medición está determinada por el sistema que se mide se conoce como superdeterminista . [45]
La interpretación de los múltiples mundos , también conocida como interpretación de Hugh Everett , es determinista y tiene dinámica local, y consiste en la parte unitaria de la mecánica cuántica sin colapso. El teorema de Bell no se aplica debido a la suposición implícita de que las mediciones tienen un único resultado. [64]