El problema de los dos sobres , también conocido como paradoja del intercambio , es una paradoja de la teoría de la probabilidad . Es de especial interés en la teoría de la decisión y para la interpretación bayesiana de la teoría de la probabilidad . Es una variante de un problema más antiguo conocido como paradoja de la corbata . El problema se presenta típicamente formulando un desafío hipotético como el siguiente ejemplo:
Imagina que te dan dos sobres idénticos , cada uno con dinero. Uno contiene el doble que el otro. Puedes elegir uno de los sobres y quedarte con el dinero que contiene. Una vez que hayas elegido un sobre a voluntad, pero antes de inspeccionarlo, te dan la oportunidad de cambiar de sobre. ¿Deberías cambiarlo?
Como la situación es simétrica, parece obvio que no tiene sentido cambiar de sobre. Por otra parte, un cálculo sencillo con valores esperados sugiere la conclusión opuesta: siempre es beneficioso cambiar de sobre, ya que la persona gana el doble de dinero si cambia, mientras que el único riesgo es reducir a la mitad lo que tiene actualmente. [1]
A una persona se le dan dos sobres idénticos, cada uno de los cuales contiene una suma de dinero. Uno de los sobres contiene el doble que el otro. La persona puede escoger un sobre y quedarse con la cantidad que contenga. Escoge un sobre al azar, pero antes de abrirlo se le da la oportunidad de coger el otro sobre. [1]
Ahora supongamos que la persona razona de la siguiente manera:
El problema consiste en encontrar el fallo en la línea de razonamiento del argumento de cambio de posición. Esto incluye determinar exactamente por qué y bajo qué condiciones ese paso no es correcto, para estar seguros de no cometer ese error en una situación en la que el paso en falso puede no ser tan obvio. En resumen, el problema consiste en resolver la paradoja. El problema no se resuelve encontrando otra forma de calcular las probabilidades que no conduzca a una contradicción.
Se han propuesto muchas soluciones y, por lo general, un autor propone una solución al problema tal como se plantea, y luego otro autor demuestra que, alterando ligeramente el problema, se revive la paradoja. Estas secuencias de debates han producido una familia de formulaciones del problema estrechamente relacionadas, lo que ha dado lugar a una voluminosa literatura sobre el tema. [2]
Ninguna solución propuesta es aceptada ampliamente como definitiva. [3] A pesar de esto, es común que los autores afirmen que la solución al problema es fácil, incluso elemental. [4] Sin embargo, al investigar estas soluciones elementales, a menudo difieren de un autor a otro.
Supongamos que la cantidad total en ambos sobres es una constante , con en un sobre y en el otro. Si seleccionas el sobre con primero, ganas la cantidad por el intercambio. Si seleccionas el sobre con primero, pierdes la cantidad por el intercambio. Por lo tanto, ganas en promedio por el intercambio.
Por lo tanto, suponiendo que el monto total es fijo, no es mejor intercambiar que conservar los sobres. El valor esperado es el mismo para ambos sobres, por lo que no existe ninguna contradicción. [5]
La famosa mistificación se produce al confundir la situación en la que la cantidad total de los dos sobres es fija con la situación en la que la cantidad de un sobre es fija y la del otro puede ser el doble o la mitad de esa cantidad. La llamada paradoja presenta dos sobres ya designados y ya cerrados, donde uno de los sobres ya está cerrado con el doble de la cantidad del otro sobre ya cerrado. Mientras que el paso 6 afirma audazmente "Por lo tanto, el otro sobre contiene 2A con probabilidad 1/2 y A/2 con probabilidad 1/2", en la situación dada, esa afirmación nunca puede aplicarse a ningún A ni a ningún A promedio .
Esta afirmación nunca es correcta para la situación presentada; esta afirmación se aplica únicamente a la variante asimétrica de Nalebuff (véase más abajo). En la situación presentada, la otra envoltura no puede contener en general 2A, pero puede contener 2A sólo en el caso muy específico en el que la envoltura A, por casualidad, contiene la cantidad menor de , pero en ningún otro lugar. La otra envoltura no puede contener en general A/2, pero puede contener A/2 sólo en el caso muy específico en el que la envoltura A, por casualidad, contiene en realidad , pero en ningún otro lugar. La diferencia entre las dos envolturas ya designadas y bloqueadas es siempre . Ninguna "cantidad media A" puede formar nunca una base inicial para ningún valor esperado, ya que esto no llega al meollo del problema. [6]
Una forma ampliamente discutida de resolver la paradoja, tanto en la literatura popular como en parte de la literatura académica, especialmente en filosofía, es asumir que la 'A' en el paso 7 pretende ser el valor esperado en la envolvente A y que pretendíamos escribir una fórmula para el valor esperado en la envolvente B.
El paso 7 establece que el valor esperado en B = 1/2(2A + A/2).
Se señala que la "A" en la primera parte de la fórmula es el valor esperado, dado que la envolvente A contiene menos que la envolvente B, pero la "A", en la segunda parte de la fórmula es el valor esperado en A, dado que la envolvente A contiene más que la envolvente B. La falla en el argumento es que el mismo símbolo se utiliza con dos significados diferentes en ambas partes del mismo cálculo, pero se supone que tiene el mismo valor en ambos casos. Esta línea de argumentación es introducida por McGrew, Shier y Silverstein (1997). [7]
Un cálculo correcto sería:
Si tomamos la suma en un sobre como x y la suma en el otro como 2x, los cálculos del valor esperado se convierten en:
que es igual a la suma esperada en A.
En lenguaje no técnico, lo que sale mal (ver paradoja de la corbata ) es que, en el escenario planteado, las matemáticas utilizan valores relativos de A y B (es decir, suponen que uno ganaría más dinero si A es menor que B de lo que uno perdería si lo opuesto fuera cierto). Sin embargo, los dos valores del dinero son fijos (un sobre contiene, digamos, $20 y el otro $40). Si los valores de los sobres se reformulan como x y 2 x , es mucho más fácil ver que, si A fuera mayor, uno perdería x al cambiar y, si B fuera mayor, uno ganaría x al cambiar. Uno no gana una mayor cantidad de dinero al cambiar porque el T total de A y B (3 x ) permanece igual, y la diferencia x está fija en T/3 .
La línea 7 debería haberse elaborado con más cuidado de la siguiente manera:
A será mayor cuando A sea mayor que B que cuando sea menor que B. Por lo tanto, sus valores promedio (valores esperados) en esos dos casos son diferentes. Y, de todos modos, el valor promedio de A no es el mismo que el de A en sí. Se están cometiendo dos errores: el autor olvidó que estaba tomando valores esperados y olvidó que estaba tomando valores esperados en dos condiciones diferentes.
Habría sido más fácil calcular E(B) directamente. Si denotamos la menor de las dos cantidades por x y la consideramos fija (aunque sea desconocida), obtenemos que
Aprendemos que 1,5 x es el valor esperado de la cantidad del sobre B. Mediante el mismo cálculo, también es el valor esperado de la cantidad del sobre A. Son iguales, por lo que no hay razón para preferir un sobre al otro. Esta conclusión era, por supuesto, obvia de antemano; el punto es que identificamos el paso en falso en el argumento a favor del cambio al explicar exactamente dónde se descarriló el cálculo que se estaba realizando allí.
También podríamos continuar desde el resultado correcto pero difícil de interpretar del desarrollo en la línea 7:
Entonces (por supuesto) diferentes rutas para calcular lo mismo dan todas la misma respuesta.
Tsikogiannopoulos presentó una forma diferente de hacer estos cálculos. [9] Por definición, es correcto asignar probabilidades iguales a los eventos de que el otro sobre contenga el doble o la mitad de la cantidad del sobre A. Por lo tanto, el "argumento del cambio" es correcto hasta el paso 6. Dado que el sobre del jugador contiene la cantidad A, diferencia la situación real en dos juegos diferentes: el primer juego se jugaría con las cantidades (A, 2A) y el segundo juego con las cantidades (A/2, A). Solo se juega realmente uno de ellos, pero no sabemos cuál. Estos dos juegos deben tratarse de manera diferente. Si el jugador quiere calcular su retorno esperado (ganancia o pérdida) en caso de intercambio, debe ponderar el retorno derivado de cada juego por la cantidad promedio en los dos sobres en ese juego en particular. En el primer caso, la ganancia sería A con una cantidad promedio de 3A/2, mientras que en el segundo caso, la pérdida sería A/2 con una cantidad promedio de 3A/4. Así pues, la fórmula del rendimiento esperado en caso de intercambio, visto como proporción del importe total de los dos sobres, es:
Este resultado significa una vez más que el jugador no debe esperar ni ganancias ni pérdidas al cambiar su sobre.
De hecho, podríamos abrir nuestro sobre antes de decidir si cambiar o no y la fórmula anterior nos daría igualmente el rendimiento esperado correcto. Por ejemplo, si abrimos nuestro sobre y vemos que contiene 100 euros, entonces estableceríamos A=100 en la fórmula anterior y el rendimiento esperado en caso de cambiar sería:
El mecanismo por el cual se determinan las cantidades de los dos sobres es crucial para la decisión del jugador de cambiar su sobre. [9] [10] Supongamos que las cantidades en los dos sobres A y B no se determinaron fijando primero el contenido de dos sobres E1 y E2, y luego nombrándolos A y B al azar (por ejemplo, mediante el lanzamiento de una moneda justa [11] ). En lugar de eso, comenzamos desde el principio colocando una cantidad en el sobre A y luego llenamos B de una manera que depende tanto del azar (el lanzamiento de una moneda) como de lo que ponemos en A. Supongamos que primero de todo la cantidad a en el sobre A se fija de una manera u otra, y luego la cantidad en el sobre B se fija, dependiendo de lo que ya está en A, de acuerdo con el resultado de una moneda justa. Si la moneda cae cara, se coloca un 2 a en el sobre B; si la moneda cae cruz, se coloca un /2 en el sobre B. Si el jugador conocía este mecanismo y sabe que tiene el sobre A, pero no sabe el resultado del lanzamiento de la moneda y no sabe a , entonces el argumento de cambio es correcto y se le recomienda cambiar de sobre. Esta versión del problema fue introducida por Nalebuff (1988) y a menudo se la denomina el problema de Ali-Baba. Nótese que no es necesario mirar en el sobre A para decidir si cambiar o no.
Se han introducido muchas más variantes del problema. Nickerson y Falk examinan sistemáticamente un total de 8. [11]
La simple resolución anterior suponía que la persona que inventó el argumento para cambiar estaba tratando de calcular el valor esperado de la cantidad en el Sobre A, pensando en las dos cantidades en los sobres como fijas ( x y 2 x ). La única incertidumbre es qué sobre tiene la cantidad menor x . Sin embargo, muchos matemáticos y estadísticos interpretan el argumento como un intento de calcular la cantidad esperada en el Sobre B, dada una cantidad real o hipotética "A" en el Sobre A. Uno no necesita mirar dentro del sobre para ver cuánto hay allí, para hacer el cálculo. Si el resultado del cálculo es un consejo para cambiar de sobres, cualquiera que sea la cantidad que pueda haber allí, entonces parecería que uno debería cambiar de todos modos, sin mirar. En este caso, en los Pasos 6, 7 y 8 del razonamiento, "A" es cualquier valor fijo posible de la cantidad de dinero en el primer sobre.
Esta interpretación del problema de los dos sobres aparece en las primeras publicaciones en las que se introdujo la paradoja en su forma actual, Gardner (1989) y Nalebuff (1988). [12] ) Es común en la literatura más matemática sobre el problema. También se aplica a la modificación del problema (que parece haber comenzado con Nalebuff) en la que el propietario del sobre A mira en realidad su sobre antes de decidir si cambiar o no; aunque Nalebuff también enfatiza que no hay necesidad de que el propietario del sobre A mire su sobre. Si imagina que mira en él, y si por cualquier cantidad que pueda imaginar que está allí, tiene un argumento para cambiar, entonces decidirá cambiar de todos modos. Finalmente, esta interpretación también fue el núcleo de las versiones anteriores del problema de los dos sobres (las paradojas de cambio de Littlewood, Schrödinger y Kraitchik); vea la sección final, sobre la historia de TEP.
Este tipo de interpretación a menudo se denomina "bayesiana" porque supone que el autor también está incorporando una distribución de probabilidad previa de posibles cantidades de dinero en los dos sobres en el argumento de cambio.
La solución simple dependía de una interpretación particular de lo que el autor del argumento estaba tratando de calcular: es decir, suponía que buscaba el valor esperado (incondicional) de lo que hay en el sobre B. En la literatura matemática sobre el problema de los dos sobres, es más común una interpretación diferente, que involucra el valor esperado condicional (condicional a lo que podría haber en el sobre A). Para resolver esta y otras interpretaciones o versiones relacionadas del problema, la mayoría de los autores utilizan la interpretación bayesiana de la probabilidad, lo que significa que el razonamiento probabilístico no solo se aplica a eventos verdaderamente aleatorios como la elección aleatoria de un sobre, sino también a nuestro conocimiento (o falta de conocimiento) sobre cosas que son fijas pero desconocidas, como las dos cantidades originalmente colocadas en los dos sobres, antes de que una sea elegida al azar y llamada "sobre A". Además, según una larga tradición que se remonta al menos a Laplace y su principio de razón insuficiente, se supone que uno debe asignar probabilidades iguales cuando no tiene conocimiento alguno sobre los posibles valores de alguna cantidad. Así pues, el hecho de que no nos digan nada sobre cómo se llenan los sobres puede traducirse ya en afirmaciones de probabilidad sobre esas cantidades. La falta de información significa que las probabilidades son iguales.
En los pasos 6 y 7 del argumento de cambio, el autor imagina que el sobre A contiene una cierta cantidad a , y luego parece creer que, dada esa información, el otro sobre tendría la misma probabilidad de contener el doble o la mitad de esa cantidad. Esa suposición solo puede ser correcta si, antes de saber qué había en el sobre A, el autor hubiera considerado igualmente probables los dos pares de valores siguientes para ambos sobres: las cantidades a /2 y a ; y las cantidades a y 2 a . (Esto se desprende de la regla de Bayes en forma de probabilidades: las probabilidades posteriores son iguales a las probabilidades anteriores por la razón de verosimilitud). Pero ahora podemos aplicar el mismo razonamiento, imaginando no a sino a/2 en el sobre A. Y de manera similar, para 2 a . Y de manera similar, ad infinitum, reduciendo a la mitad o duplicando repetidamente tantas veces como se desee. [13]
Supongamos, por el bien del argumento, que empezamos imaginando una cantidad de 32 en el sobre A. Para que el razonamiento de los pasos 6 y 7 sea correcto, cualquiera que sea la cantidad que haya en el sobre A, aparentemente creemos de antemano que las diez cantidades siguientes tienen la misma probabilidad de ser la menor de las dos cantidades en los dos sobres: 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 (potencias de 2 igualmente probables [13] ). Pero al pasar a cantidades aún mayores o incluso menores, la suposición de "igual probabilidad" empieza a parecer un poco irrazonable. Supongamos que nos detenemos, sólo con estas diez posibilidades igualmente probables para la cantidad menor en los dos sobres. En ese caso, el razonamiento de los pasos 6 y 7 era completamente correcto si el sobre A contenía cualquiera de las cantidades 2, 4, ... 512: cambiar de sobres daría una ganancia esperada (promedio) del 25%. Si el sobre A contenía la cantidad 1, la ganancia esperada sería del 100 %. Pero si contenía la cantidad 1024, se habría producido una pérdida masiva del 50 % (una cantidad bastante grande). Eso sólo ocurre una vez de cada veinte veces, pero es exactamente suficiente para compensar las ganancias esperadas en las otras 19 de las 20 veces.
Otra posibilidad es continuar hasta el infinito, pero ahora trabajamos con una suposición bastante ridícula, que implica, por ejemplo, que es infinitamente más probable que la cantidad en el sobre A sea menor que 1, e infinitamente más probable que sea mayor que 1024, que entre esos dos valores. Esta es una llamada distribución previa impropia : el cálculo de probabilidad falla; los valores esperados ni siquiera están definidos. [13]
Muchos autores también han señalado que si existe una suma máxima que se puede poner en el sobre con la cantidad menor, entonces es muy fácil ver que el Paso 6 falla, ya que si el jugador tiene más de la suma máxima que se puede poner en el sobre "más pequeño", debe tener el sobre que contiene la suma mayor y, por lo tanto, es seguro que perderá si cambia de juego. Esto puede no ocurrir a menudo, pero cuando lo hace, la gran pérdida que sufre el jugador significa que, en promedio, no hay ninguna ventaja en cambiar de juego. Algunos autores consideran que esto resuelve todos los casos prácticos del problema. [14]
Pero el problema también puede resolverse matemáticamente sin suponer una cantidad máxima. Nalebuff, [14] Christensen y Utts, [15] Falk y Konold, [13] Blachman, Christensen y Utts, [16] Nickerson y Falk, [11] señalaron que si las cantidades de dinero en los dos sobres tienen una distribución de probabilidad adecuada que represente las creencias previas del jugador sobre las cantidades de dinero en los dos sobres, entonces es imposible que cualquiera que sea la cantidad A=a en el primer sobre, sea igualmente probable, de acuerdo con estas creencias previas, que el segundo contenga a /2 o 2 a . Por lo tanto, el paso 6 del argumento, que lleva a cambiar siempre , es un non-sequitur, también cuando no hay un máximo para las cantidades en los sobres.
Las dos primeras resoluciones que hemos analizado anteriormente (la "resolución simple" y la "resolución bayesiana") corresponden a dos interpretaciones posibles de lo que ocurre en el paso 6 del argumento. Ambas suponen que el paso 6 es, en efecto, "el paso malo". Pero la descripción del paso 6 es ambigua. ¿El autor busca el valor de expectativa incondicional (general) de lo que hay en el sobre B (quizás, condicional a la cantidad menor, x ), o busca la expectativa condicional de lo que hay en el sobre B, dada cualquier cantidad posible a que pueda haber en el sobre A? Por lo tanto, hay dos interpretaciones principales de la intención del autor del argumento paradójico del cambio, y dos resoluciones principales.
Se ha desarrollado una amplia literatura sobre variantes del problema. [17] [18] La suposición estándar sobre la forma en que se configuran los sobres es que una suma de dinero está en un sobre, y el doble de esa suma está en otro sobre. Uno de los dos sobres se da al azar al jugador ( sobre A ). El problema propuesto originalmente no aclara exactamente cómo se determina la menor de las dos sumas, qué valores podría tomar posiblemente y, en particular, si hay una suma mínima o máxima que podría contener. [19] [20] Sin embargo, si estamos usando la interpretación bayesiana de la probabilidad, entonces comenzamos expresando nuestras creencias previas en cuanto a la cantidad menor en los dos sobres a través de una distribución de probabilidad. La falta de conocimiento también se puede expresar en términos de probabilidad.
Una primera variante dentro de la versión bayesiana es elaborar una distribución de probabilidad previa adecuada de la cantidad menor de dinero en los dos sobres, de modo que cuando se realiza correctamente el paso 6, el consejo sigue siendo preferir el sobre B, independientemente de lo que pueda haber en el sobre A. De modo que, aunque el cálculo específico realizado en el paso 6 fue incorrecto (no existe una distribución previa adecuada de modo que, dado lo que hay en el primer sobre A, el otro sobre siempre tenga la misma probabilidad de ser mayor o menor), un cálculo correcto, dependiendo de qué distribución previa estemos usando, sí conduce al resultado para todos los valores posibles de a . [21]
En estos casos, se puede demostrar que la suma esperada en ambos sobres es infinita. No hay ganancia, en promedio, en el intercambio.
Aunque la teoría de la probabilidad bayesiana puede resolver la primera interpretación matemática de la paradoja anterior, resulta que se pueden encontrar ejemplos de distribuciones de probabilidad adecuadas, tales que el valor esperado de la cantidad en el segundo sobre, condicionado a la cantidad en el primero, sí excede la cantidad en el primero, sea cual sea. El primer ejemplo de este tipo ya lo dio Nalebuff. [14] Véase también Christensen y Utts (1992). [15] [22] [23] [24]
Denotemos nuevamente la cantidad de dinero en el primer sobre por A y la del segundo por B. Pensamos que estas son aleatorias. Sea X la menor de las dos cantidades e Y=2X la mayor. Observemos que una vez que hemos fijado una distribución de probabilidad para X, entonces la distribución de probabilidad conjunta de A, B es fija, ya que A, B = X, Y o Y, X cada una con probabilidad 1/2, independientemente de X, Y.
El paso 6 incorrecto del argumento de "cambiar siempre" nos llevó a la conclusión de que E(B|A=a)>a para todo a , y, por lo tanto, a la recomendación de cambiar, ya sea que conozcamos o no a . Ahora bien, resulta que es muy fácil inventar distribuciones de probabilidad adecuadas para X , la menor de las dos cantidades de dinero, de modo que esta conclusión incorrecta siga siendo cierta. En un momento analizaremos un ejemplo con más detalle.
Como se mencionó anteriormente, no puede ser cierto que sea cual sea a , dado A=a , B tenga la misma probabilidad de ser a /2 o 2 a , pero puede ser cierto que sea cual sea a , dado A=a , B tenga un valor esperado mayor que a .
Supongamos, por ejemplo, que el sobre con la cantidad menor en realidad contiene 2 n dólares con una probabilidad de 2 n /3 n +1, donde n = 0, 1, 2, ... Estas probabilidades suman 1, por lo tanto, la distribución es una distribución previa adecuada (para los subjetivistas) y una ley de probabilidad completamente decente también para los frecuentistas. [25]
Imaginemos lo que podría haber en el primer sobre. Una estrategia sensata sería, sin duda, cambiar de lugar cuando el primer sobre contenga 1, ya que el otro debe contener 2. Supongamos, por otra parte, que el primer sobre contiene 2. En ese caso, hay dos posibilidades: el par de sobres que tenemos delante es {1, 2} o {2, 4}. Todos los demás pares son imposibles. La probabilidad condicional de que estemos tratando con el par {1, 2}, dado que el primer sobre contiene 2, es
y, en consecuencia, la probabilidad de que sea el par {2, 4} es 2/5, ya que estas son las únicas dos posibilidades. En esta derivación, es la probabilidad de que el par de sobres sea el par 1 y 2, y que el sobre A contenga 2; es la probabilidad de que el par de sobres sea el par 2 y 4, y (de nuevo) que el sobre A contenga 2. Esas son las únicas dos formas en que el sobre A puede terminar conteniendo la cantidad 2.
Resulta que estas proporciones se mantienen en general a menos que el primer sobre contenga 1. Denotemos por a la cantidad que imaginamos encontrar en el Sobre A, si abriéramos ese sobre, y supusiéramos que a = 2 n para algún n ≥ 1. En ese caso el otro sobre contiene a /2 con probabilidad 3/5 y 2 a con probabilidad 2/5.
Entonces, o bien el primer sobre contiene 1, en cuyo caso la cantidad condicional esperada en el otro sobre es 2, o bien el primer sobre contiene a > 1, y aunque es más probable que el segundo sobre sea más pequeño que el más grande, su cantidad condicionalmente esperada es mayor: la cantidad condicionalmente esperada en el Sobre B es
que es más que un . Esto significa que el jugador que mira en el sobre A decidiría cambiar lo que vio allí. Por lo tanto, no hay necesidad de mirar en el sobre A para tomar esa decisión.
Esta conclusión es tan claramente errónea como lo era en las interpretaciones anteriores del problema de los dos sobres. Pero ahora los defectos señalados anteriormente no se aplican; la a en el cálculo del valor esperado es una constante y las probabilidades condicionales en la fórmula se obtienen a partir de una distribución previa específica y adecuada.
La mayoría de los autores piensan que la nueva paradoja puede desactivarse, aunque la resolución requiere conceptos de economía matemática. [26] Supongamos para todos . Se puede demostrar que esto es posible para algunas distribuciones de probabilidad de X (la cantidad menor de dinero en los dos sobres) solo si . Es decir, solo si la media de todos los valores posibles de dinero en los sobres es infinita. Para ver por qué, compare la serie descrita anteriormente en la que la probabilidad de cada X es 2/3 de la probabilidad de la X anterior con una en la que la probabilidad de cada X es solo 1/3 de la probabilidad de la X anterior . Cuando la probabilidad de cada término posterior es mayor que la mitad de la probabilidad del término anterior (y cada X es el doble de la X anterior) la media es infinita, pero cuando el factor de probabilidad es menor que la mitad, la media converge. En los casos en que el factor de probabilidad es menor que la mitad, para todos los a distintos del primero, el más pequeño a , y el valor esperado total de cambio converge a 0. Además, si una distribución en curso con un factor de probabilidad mayor que la mitad se hace finita al, después de cualquier número de términos, establecer un término final con "toda la probabilidad restante", es decir, 1 menos la probabilidad de todos los términos anteriores, el valor esperado de cambio con respecto a la probabilidad de que A sea igual al último, el más grande a negará exactamente la suma de los valores esperados positivos que vinieron antes, y nuevamente el valor esperado total de cambio cae a 0 (este es el caso general de establecer una probabilidad igual de un conjunto finito de valores en las envolventes descritas anteriormente). Por lo tanto, las únicas distribuciones que parecen apuntar a un valor esperado positivo para el cambio son aquellas en las que . Promediando sobre a , se deduce que (porque A y B tienen distribuciones de probabilidad idénticas, por simetría, y tanto A como B son mayores o iguales a X ).
Si no miramos dentro del primer sobre, entonces claramente no hay razón para cambiar, ya que estaríamos intercambiando una cantidad desconocida de dinero ( A ), cuyo valor esperado es infinito, por otra cantidad desconocida de dinero ( B ), con la misma distribución de probabilidad y valor esperado infinito. Sin embargo, si miramos dentro del primer sobre, entonces para todos los valores observados ( ) querríamos cambiar porque para todos a . Como señaló David Chalmers , este problema puede describirse como un fracaso del razonamiento de dominancia. [27]
Según el razonamiento de dominancia, el hecho de que preferimos estrictamente A a B para todos los posibles valores observados a debería implicar que preferimos estrictamente A a B sin observar a ; sin embargo, como ya se ha demostrado, eso no es cierto porque . Para rescatar el razonamiento de dominancia permitiendo , habría que reemplazar el valor esperado como criterio de decisión, empleando así un argumento más sofisticado de la economía matemática.
Por ejemplo, podríamos suponer que el decisor es un maximizador de la utilidad esperada con una riqueza inicial W cuya función de utilidad, , se elige para satisfacer al menos algunos valores de a (es decir, mantener es estrictamente preferible a cambiar a B para algún a ). Aunque esto no es cierto para todas las funciones de utilidad, sería cierto si tuviera un límite superior, , a medida que w aumenta hacia el infinito (un supuesto común en la economía matemática y la teoría de la decisión). [28] Michael R. Powers proporciona condiciones necesarias y suficientes para que la función de utilidad resuelva la paradoja, y señala que ni ni son necesarios. [29]
Algunos autores preferirían argumentar que, en una situación de la vida real, y están limitadas simplemente porque la cantidad de dinero en un sobre está limitada por la cantidad total de dinero en el mundo ( M ), lo que implica que y . Desde esta perspectiva, la segunda paradoja se resuelve porque la distribución de probabilidad postulada para X (con ) no puede surgir en una situación de la vida real. A menudo se utilizan argumentos similares para resolver la paradoja de San Petersburgo .
Como se mencionó anteriormente, cualquier distribución que produzca esta variante de la paradoja debe tener una media infinita. Por lo tanto, antes de que el jugador abra un sobre, la ganancia esperada del cambio es "∞ − ∞", que no está definida. En palabras de David Chalmers , este es "solo otro ejemplo de un fenómeno familiar, el extraño comportamiento del infinito". [27] Chalmers sugiere que la teoría de la decisión generalmente se desmorona cuando se enfrenta a juegos que tienen una expectativa divergente, y la compara con la situación generada por la clásica paradoja de San Petersburgo .
Sin embargo, Clark y Shackel sostienen que echarle la culpa de todo a "la extraña conducta del infinito" no resuelve la paradoja en absoluto; ni en el caso único ni en el caso promedio. Proporcionan un ejemplo simple de un par de variables aleatorias que tienen ambas medias infinitas pero donde es claramente sensato preferir una a la otra, tanto condicionalmente como en promedio. [30] Argumentan que la teoría de la decisión debería extenderse de modo que permita valores de expectativa infinitos en algunas situaciones.
El lógico Raymond Smullyan se preguntó si la paradoja tenía algo que ver con las probabilidades. [31] Lo hizo expresando el problema de una manera que no involucra probabilidades. Los siguientes argumentos claramente lógicos conducen a conclusiones contradictorias:
Se han propuesto varias soluciones y algunos lógicos han realizado análisis minuciosos. Aunque las soluciones difieren, todas ellas señalan cuestiones semánticas relacionadas con el razonamiento contrafáctico . Queremos comparar la cantidad que ganaríamos si ganáramos con el cambio, con la cantidad que perderíamos si en realidad perdiéramos con el cambio. Sin embargo, no podemos ganar y perder con el cambio al mismo tiempo. Se nos pide que comparemos dos situaciones incompatibles. Sólo una de ellas puede ocurrir de hecho, la otra es una situación contrafáctica, de alguna manera imaginaria. Para poder compararlas, debemos "alinear" de alguna manera las dos situaciones, proporcionando algunos puntos definidos en común.
James Chase sostiene que el segundo argumento es correcto porque corresponde a la forma de alinear dos situaciones (una en la que ganamos, la otra en la que perdemos), lo que se indica preferentemente mediante la descripción del problema. [32] Además, Bernard Katz y Doris Olin defienden este punto de vista. [33] En el segundo argumento, consideramos que las cantidades de dinero en los dos sobres son fijas; lo que varía es cuál se le da primero al jugador. Debido a que esa fue una elección arbitraria y física, el mundo contrafáctico en el que el jugador, contrafácticamente, recibió el otro sobre al que realmente se le dio (fácticamente) es un mundo contrafáctico altamente significativo y, por lo tanto, la comparación entre ganancias y pérdidas en los dos mundos es significativa. Esta comparación está indicada de manera única por la descripción del problema, en la que primero se ponen dos cantidades de dinero en los dos sobres, y solo después de eso se elige una arbitrariamente y se le da al jugador. En el primer argumento, sin embargo, consideramos que la cantidad de dinero en el sobre que se le da primero al jugador es fija y consideramos las situaciones en las que el segundo sobre contiene la mitad o el doble de esa cantidad. Esto sólo sería un mundo contrafáctico razonable si en realidad los sobres se hubieran llenado de la siguiente manera: primero, se coloca cierta cantidad de dinero en el sobre específico que se le dará al jugador; y segundo, mediante algún proceso arbitrario, el otro sobre se llena (arbitraria o aleatoriamente) con el doble o la mitad de esa cantidad de dinero.
Byeong-Uk Yi, por otra parte, sostiene que comparar la cantidad que ganarías si ganaras cambiando con la cantidad que perderías si perdieras cambiando es un ejercicio sin sentido desde el principio. [34] Según su análisis, las tres implicaciones (cambiar, indiferente, no cambiar) son incorrectas. Analiza los argumentos de Smullyan en detalle, mostrando que se están dando pasos intermedios y señalando exactamente dónde se hace una inferencia incorrecta según su formalización de la inferencia contrafáctica. Una diferencia importante con el análisis de Chase es que no tiene en cuenta la parte de la historia en la que se nos dice que el sobre llamado sobre A se decide completamente al azar. Así, Chase vuelve a poner la probabilidad en la descripción del problema para concluir que los argumentos 1 y 3 son incorrectos, el argumento 2 es correcto, mientras que Yi mantiene el "problema de los dos sobres sin probabilidad" completamente libre de probabilidad y llega a la conclusión de que no hay razones para preferir ninguna acción. Esto corresponde a la visión de Albers et al. de que, sin un ingrediente de probabilidad, de todos modos no hay forma de argumentar que una acción es mejor que otra.
Bliss sostiene que la fuente de la paradoja es que cuando uno cree erróneamente en la posibilidad de un pago mayor que, en realidad, no existe, se equivoca por un margen mayor que cuando cree en la posibilidad de un pago menor que en realidad no existe. [35] Si, por ejemplo, los sobres contenían $5,00 y $10,00 respectivamente, un jugador que abriera el sobre de $10,00 esperaría la posibilidad de un pago de $20,00 que simplemente no existe. Si ese jugador abriera el sobre de $5,00 en cambio, creería en la posibilidad de un pago de $2,50, lo que constituye una desviación menor del valor verdadero; esto da como resultado la discrepancia paradójica.
Albers, Kooi y Schaafsma consideran que, sin añadir al problema ingredientes de probabilidad (u otros), [18] los argumentos de Smullyan no dan ninguna razón para intercambiar o no intercambiar, en ningún caso. Por lo tanto, no hay paradoja. Esta actitud despectiva es común entre los autores que estudian la probabilidad y la economía: la paradoja de Smullyan surge precisamente porque no tiene en cuenta en absoluto la probabilidad ni la utilidad.
Como extensión del problema, considere el caso en el que se permite al jugador mirar en el sobre A antes de decidir si cambiar. En este problema de "cambio condicional", a menudo es posible generar una ganancia sobre la estrategia de "nunca cambiar", dependiendo de la distribución de probabilidad de los sobres. [36]
La paradoja del sobre se remonta al menos a 1953, cuando el matemático belga Maurice Kraitchik propuso un acertijo en su libro Matemáticas recreativas en el que dos hombres igualmente ricos se encuentran y comparan sus hermosas corbatas, regalos de sus esposas, y se preguntan qué corbata cuesta más dinero. También introduce una variante en la que los dos hombres comparan el contenido de sus carteras. Supone que cada cartera tiene la misma probabilidad de contener entre 1 y una cantidad x de peniques, el número total de peniques acuñados hasta la fecha. Los hombres no miran en sus carteras, pero cada uno razona que deberían cambiarlas. No explica cuál es el error en su razonamiento. No está claro si el acertijo ya apareció en una edición anterior de su libro, de 1942. También se menciona en un libro de 1953 sobre matemáticas elementales y acertijos matemáticos del matemático John Edensor Littlewood , quien lo atribuyó al físico Erwin Schrödinger , donde se refiere a una baraja de cartas, cada carta tiene dos números escritos en ella, el jugador ve un lado aleatorio de una carta al azar, y la pregunta es si uno debe dar vuelta la carta. La baraja de cartas de Littlewood es infinitamente grande y su paradoja es una paradoja de distribuciones previas impropias.
Martin Gardner popularizó el rompecabezas de Kraitchik en su libro de 1982 ¡Ajá! Gotcha , en forma de juego de billetera:
Dos personas, igualmente ricas, se reúnen para comparar el contenido de sus carteras. Cada una de ellas ignora el contenido de las dos carteras. El juego es el siguiente: quien tenga menos dinero recibe el contenido de la cartera del otro (en caso de que las cantidades sean iguales, no ocurre nada). Uno de los dos hombres puede razonar: «Tengo la cantidad A en mi cartera. Es lo máximo que podría perder. Si gano (probabilidad 0,5), la cantidad que tendré en mi poder al final del juego será superior a 2 A. Por lo tanto, el juego me resulta favorable». El otro hombre puede razonar exactamente de la misma manera. De hecho, por simetría, el juego es justo. ¿Dónde está el error en el razonamiento de cada uno?
— Martin Gardner , ¡Ajá! Te pillé
Gardner confesó que si bien, al igual que Kraitchik, podía ofrecer un análisis sólido que condujera a la respuesta correcta (no tenía sentido cambiar), no podía señalar claramente qué era lo que estaba mal en el razonamiento para el cambio, y Kraitchik tampoco brindó ninguna ayuda en esa dirección.
En 1988 y 1989, Barry Nalebuff presentó dos problemas diferentes de dos sobres, cada uno con un sobre que contiene el doble de lo que hay en el otro, y cada uno con el cálculo del valor esperado 5 A /4. El primer artículo simplemente presenta los dos problemas. El segundo analiza muchas soluciones para ambos. El segundo de sus dos problemas es actualmente el más común, y se presenta en este artículo. Según esta versión, los dos sobres se llenan primero, luego se elige uno al azar y se llama Sobre A. Martin Gardner mencionó independientemente esta misma versión en su libro de 1989 Penrose Tiles to Trapdoor Ciphers and the Return of Dr Matrix . La variante asimétrica de Barry Nalebuff, a menudo conocida como el problema de Ali Baba, tiene un sobre lleno primero, llamado Sobre A, y se le da a Ali. Luego se lanza una moneda justa para decidir si el Sobre B debe contener la mitad o el doble de esa cantidad, y solo entonces se le da a Baba.
En 1995, Broome denominó «paradójica» una distribución de probabilidad si, para cualquier cantidad dada de la primera envolvente x , la expectativa de la otra envolvente condicional a x es mayor que x . La literatura contiene docenas de comentarios sobre el problema, muchos de los cuales observan que una distribución de valores finitos puede tener un valor esperado infinito. [37]
{{cite journal}}
: Requiere citar revista |journal=
( ayuda )