Richard C. Jeffrey | |
---|---|
Nacido | 5 de agosto de 1926 |
Fallecido | 9 de noviembre de 2002 |
Alma máter | Universidad de Princeton |
Era | Filosofía del siglo XX |
Región | Filosofía occidental |
Escuela | Filosofía analítica |
Intereses principales | Teoría de la decisión , epistemología |
Ideas notables | Probabilismo radical , condicionamiento de Jeffrey , método del árbol de verdad para la prueba de silogismos [1] |
Richard Carl Jeffrey (5 de agosto de 1926 – 9 de noviembre de 2002) fue un filósofo , lógico y teórico de la probabilidad estadounidense . Es más conocido por desarrollar y defender la filosofía del probabilismo radical y la heurística asociada de la cinemática de la probabilidad , también conocida como condicionamiento de Jeffrey .
Nacido en Boston, Massachusetts , Jeffrey sirvió en la Marina de los EE. UU. durante la Segunda Guerra Mundial . Como estudiante de posgrado, estudió con Rudolf Carnap y Carl Hempel . [2] Recibió su maestría de la Universidad de Chicago en 1952 y su doctorado de Princeton en 1957. Después de ocupar puestos académicos en el MIT , City College of New York , la Universidad de Stanford y la Universidad de Pensilvania , se unió a la facultad de Princeton en 1974 y se convirtió en profesor emérito allí en 1999. También fue profesor visitante en la Universidad de California, Irvine . [3]
Jeffrey, que murió de cáncer de pulmón a los 76 años, era conocido por su sentido del humor, que a menudo se reflejaba en su estilo de escritura desenfadado. En el prefacio de su obra póstumamente publicada, Subjective Probability , se refiere a sí mismo como "un viejo tonto y cariñoso que se está muriendo de un exceso de Pall Malls ". [4]
Como filósofo, Jeffrey se especializó en epistemología y teoría de la decisión . Es quizás más conocido por defender y desarrollar el enfoque bayesiano de la probabilidad.
Jeffrey también escribió, o coescribió, dos libros de texto de lógica ampliamente utilizados e influyentes : Formal Logic: Its Scope and Limits , una introducción básica a la lógica, y Computability and Logic , un texto más avanzado que trata, entre otras cosas, los famosos resultados negativos de la lógica del siglo XX, como los teoremas de incompletitud de Gödel y el teorema de indefinibilidad de Tarski .
En la estadística bayesiana , el teorema de Bayes proporciona una regla útil para actualizar una probabilidad cuando se dispone de nuevos datos de frecuencia. En la estadística bayesiana, el teorema en sí mismo desempeña un papel más limitado. El teorema de Bayes conecta probabilidades que se mantienen simultáneamente. No le dice al alumno cómo actualizar las probabilidades cuando se dispone de nueva evidencia a lo largo del tiempo. Esta sutileza fue señalada por primera vez en términos por Ian Hacking en 1967. [5]
Sin embargo, adaptar el teorema de Bayes y adoptarlo como regla de actualización es una tentación. Supongamos que un alumno forma probabilidades P old ( A & B ) = p y P old ( B ) = q . Si el alumno aprende posteriormente que B es verdadero, nada en los axiomas de probabilidad o los resultados derivados de ellos le dice cómo comportarse. Podría verse tentado a adoptar el teorema de Bayes por analogía y establecer su P new ( A ) = P old ( A | B ) = p / q .
De hecho, ese paso, la regla de actualización de Bayes, puede justificarse, como necesario y suficiente, mediante un argumento dinámico , el del libro holandés , que se suma a los argumentos utilizados para justificar los axiomas. Este argumento fue propuesto por primera vez por David Lewis en la década de 1970, aunque nunca lo publicó. [6]
Esto funciona cuando los nuevos datos son ciertos. CI Lewis había sostenido que "si algo es probable, entonces algo debe ser cierto". [7] Debe haber, según la explicación de Lewis, algunos hechos ciertos sobre los cuales se condicionan las probabilidades . Sin embargo, el principio conocido como la regla de Cromwell declara que nada, aparte de una ley lógica, puede ser seguro, si es que lo es. Jeffrey rechazó famosamente el dictamen de Lewis y bromeó diciendo: "Son probabilidades hasta el final". Llamó a esta posición probabilismo radical .
En este caso, la regla de Bayes no es capaz de captar un mero cambio subjetivo en la probabilidad de algún hecho crítico. Es posible que la nueva evidencia no haya sido prevista o que ni siquiera haya sido posible articularla después del evento. Parece razonable, como posición inicial, adoptar la ley de probabilidad total y extenderla a la actualización de la misma manera que se hizo con el teorema de Bayes. [8]
Adoptar una regla de este tipo es suficiente para evitar un libro holandés, pero no es necesario. [9] Jeffrey la defendió como una regla de actualización bajo probabilismo radical y la llamó cinemática de la probabilidad. Otros la han llamado condicionamiento de Jeffrey .
No es la única regla de actualización suficiente para el probabilismo radical. Se han propuesto otras, como el principio de máxima entropía de ET Jaynes y el principio de reflexión de Brian Skyrms .
El condicionamiento de Jeffrey se puede generalizar desde particiones a eventos de condición arbitrarios dándole una semántica frecuentista. [10]